Sei sulla pagina 1di 133

Appunti di Algebra Lineare

Gregory Pearlstein
Università di Pisa

Unità del corso (soggetto a modifiche)

Lezione 1, Panorama: Panoramica del corso, inclusi gli spazi vettoriali R^n e i polinomi, sistemi
di equazioni, eliminazione gaussiana, moltiplicazione di matrici, autovalori e autovettori,
determinanti.

Lezione 2, Nozioni preliminari: Logica, teoria degli insiemi, funzioni, permutazioni, induzione.

Lezione 3, Vettori in R^3: Linee e piani (forma parametrica ed equazione lineare), intersezione
di una linea e un piano, legge del parallelogramma.

Lezione 4, Prodotto vettoriale: Descrizione algebrica e geometrica. Condizione perché due


vettori in R^3 siano ortogonali, come trovare l'intersezione di due piani, angolo tra due piani.

Lezione 5, Spazi vettoriali: R^n, lo spazio vettoriale delle funzioni da un insieme alla linea reale,
lo spazio vettoriale dei polinomi. Linee e iperpiani in R^n, interpolazione di Lagrange. Spazi
vettoriali astratti (solo definizione).

Lezione 6, Mappe lineari: Definizione astratta ed esempi nel caso di R^n e spazi vettoriali di
funzioni. Proiezione su un piano in R^3, riflessione attraverso un piano in R^3, rotazione in R^2,
derivata formale e integrali di funzioni polinomiali (analisi non richiesta).

Lezione 7, Prodotto scalare: La geometria dei vettori in R^n, derivazione della formula per
l'angolo tra due vettori. Proprietà algebriche del prodotto scalare in R^n. Disuguaglianza di
Cauchy-Scwarz. Disuguaglianza del triangolo. Assiomi per il prodotto scalare. Prodotto
scalare su polinomi.

Lezione 8, Sistema Lineare: Definizione di un sistema lineare di equazioni in R^n. Vettori riga e
colonna. Riformulazione dei sistemi lineari in termini di matrici. Soluzione per eliminazione
gaussiana. Metodo Gauss-Jordan.

Lezione 9, Sottospazi: Definizione. Eliminazione gaussiana e soluzioni di sistemi omogenei di


equazioni lineari. Complementi ortogonali come sottospazi.

Lezione 10, Span lineare, Indipendenza lineare, Base: Definizioni, Dimensione. Nel caso a
dimensione finita, questi concetti sono discussi nella lezione 9 insieme all'eliminazione
guassiana.
Lezione 11, Mappe lineari come matrici. Forme canoniche di matrici: Forma echelon ridotta.
Equivalente per righe. Rango di una matrice. Teorema del rango.

Lezione 12, Isomorfismo: Definizioni, Prodotto di spazi vettoriali, dim U x V = dim U + dim V, la
somma di sottospazi, Formula di Grassmann, Algoritmo di Zassenhaus.

Lezione 13, L'algebra delle matrici: La matrice di una permutazione. La matrice di un grafo.
La formula per moltiplicazione della matrice. Moltiplicazione delle matrici è associativa e
distributiva. Matrici elementari (di Gauss), Fattorizzazione della matrice. Matrice trasposta.
Matrice Definita Positiva.

Lezione 14: Matrice inversa, matrici simili: Definizioni. Calcolo dell'inversa della matrice
utilizzando l'eliminazione gaussiana. Cambio di base. Matrici Simili.

Lezione 15: Determinanti: Definizioni. Segno di una permutazione. Calcolo del determinante
utilizzando le mosse di Gauss. La formula det(AB) = det(A) det(B). Determiante di una mappa
lineare. La geometria del determinante. Il risultante.

Lezione 16, Sviluppo di Laplace & La formula di Cramer: Sviluppo di Laplace, Regola di
Cramer.

Lezione 17, Spazi vettoriali complessi: Numeri Complessi. Formula di de Moivre. Formula di
Eulero. Teorema fondamentaldell'algebra. Polinomio caratteristico. Teorema di Hamilton e
Cayley. Teorema del cerchio di Gershgorin. Prodotto Hermitiano.

Lezione 18, Autovettori e autovalori: Definizioni. Molteplicità algebrica, molteplicità geometrica


e diagonalizzabilità.

Lezione 19, Teorema Spettrale: Definizioni. Base Unitaria. Matrice Normale. Teorema Spettrale.
Casi speciali: Matrice Hermitiana, matrice antihermitiana, matrice unitaria.

Email: greg.pearlstein@unipi.it
Teoremi, definizioni e algoritmi

Tutte le definizioni, teoremi, algoritmi e metodi discussi nel corso sono argomenti idonei
per le prove d'esame, a meno che le note non indichino espressamente diversamente

Questo è un elenco parziale di teoremi e definizioni per l'esame di fine corso. È


soggetto a modifiche. Questo non è un elenco di argomenti per l'esame.

Si prega di consultare le note della classe per la dichiarazione completa di teoremi e


definizioni.

Definizioni:
● Forma parametrica di una linea in e di iperpiani in R^n.
● Algebrica e geometrica del prodotto vettoriale.
● Definizione astratta di spazio vettoriale e di sottospazio.
● Prodotto Scalare (Sia per R^n che per spazi vettoriali astratti).
● Norma, distanza e vettore unitario. Angolo e distanza tra vettori, ortogonalità.
(Sia per R^n che per spazi di prodotto scalari astratti).
● Spazio vettoriale a dimensione finita.
● Dipendenza e Indipendenza lineare, Span lineare, Base.
● Mappa lineare, kernel, immagine e rango.
● Una matrice a scalini e pivot. Le variabili dipendenti e le variabili indipendenti.
● Mosse di Gauss
● Forma echelon ridotta (forma canonica di riga).
● Equivalenza di riga.
● Matrice di un grafico
● Matrice elementare.
● Matrice definita positiva.
● Matrici inverse e di matrice simile
● Determinante e di segno di una permutazione.
● Il risultante di due polinomi.
● Polinomio caratteristico di una matrice.
● Dischi di Gershgorin.
● Spazio vettoriale complesso (astratta),
● Prodotto Hermitiano.
● Autovettori e autovalori, molteplicità geometrica e algebrica.
● Diagonalizzabilità
● Definizione di matrice: Simmetrica, Antisimmetrica, Hermitiana,
Antihermitiana, Normale, Ortogonale, Unitaria.
● Definizione di isometria. Definizione di Base Unitaria e Ortonormale.

Lemmi e Teoremi:
● Disuguaglianza di Cauchy-Schwarz. Disuguaglianza triangolare. (Caso Reale e
caso Complesso)
● Se L è una mappa lineare allora L(0)=0. Proposizioni su somme e composizioni
di mappe lineari.
● Struttura delle soluzioni del sistema lineare L(x) =b.
● Un sottospazio di uno spazio vettoriale a dimensione finita è a dimensione finita.
● L'intersezione di due sottospazi è un sottospazio.
● Un sottoinsieme di un insieme linearmente indipendente è linearmente
indipendente.
● Ogni spazio vettoriale di dimensione finita ha una base.
● Due basi qualsiasi di uno spazio vettoriale a dimensione finita hanno la stessa
cardinalità.
● Due spazi vettoriali di dimensione finita sono isomorfi se e solo se hanno la
stessa dimensione.
● Unicità della forma canonica di riga
● Teorema del rango.
● Teorema di Rouché-Capelli.
● Il prodotto cartesiano di due spazi vettoriali è uno spazio vettoriale.
● Formula di Grassmann.
● Teorema sul numero di cammini di una data lunghezza in un grafo.
● Teorema su matrici definite positive e dominante diagonalmente per righe.
● Det(A) è diverso di zero se e solo se A è una matrice invertibile.
● Teorema (di Binet): det(AB) = det(A)det(B).
● ll risultante diverso da zero non implica radici comuni.
● Sviluppo di Laplace, formula per la matrice inversa utilizzando determinanti.
● Regola di Cramer.
● Teorema di Hamilton-Cayley.
● Teoremi sui dischi di Gershgorin.
● Struttura delle matrici 2x2.
● Un insieme di autovettori con autovalori distinti è linearmente indipendente.
● Teorema sulla diagonalizzabilità in termini di molteplicità geometrica e algebrica.
● Autospazi con autovalori distinti sono indipendenti.
● Teorema Spettrale.
● Proprietà degli autovalori di matrici hermitiane, antihermitiane e unitarie.
● Ortogonalizzazione di Gram-Schmidt.

Algoritmi e formule importanti:


● L'equazione parametrica di una retta passante per 2 punti.
● L'intersezione di una retta e un iperpiano.
● L'equazione di un piano passante per 3 punti.
● Calcolo dell'angolo tra due vettori.
● Calcolo della lunghezza di un vettore. Calcolo della distanza tra due punti.
● Interpolazione di Lagrange.
● Integrazione e differenziazione di polinomi.
● Risolvere Ax=b per A una matrice a scalini.
● Eliminazione Gaussiana.
● Algoritmo per risolvere il sistema lineare Ax = b.
● Algoritmo per trovare una base di r(A).
● Algoritmo per trovare una base di Im(A).
● Algoritmo per trovare la base di Ker(A).
● Algoritmo per trovare il complemento ortogonale.
● Matrice di una trasformazione lineare relativa a una base.
● Algoritmo per calcolare il rango di A.
● Algoritmo per trovare la forma echelon ridotta di A.
● Algoritmi per trovare una base dell'intersezione di due sottospazi.
● Cambio di base.
● Algoritmo per calcolare il determinante usando le mosse di Gauss.
● Algoritmo per determinare se due polinomi hanno una radice comune utilizzando
la risultante.
● Ortogonalizzazione di Gram-Schmidt.
Sommario:

Lezione 1: Pagine: 7-12

Lezione 2: 13-18

Lezione 3: 19-24

Lezione 4: 25-31

Lezione 5: 32-37

Lezione 6: 38-44

Lezione 7: 45-50

Lezione 8: 51-57

Lezione 9: 58-64

Lezione 10: 65-71

Lezione 11: 72-78

Lezione 12 79-83

Lezione 13 84-92

Lezione 14: 93-99

Lezione 15 100-106

Lezione 16: 107-111

Lezione 17: 112-119

Lezione 18: 120-126

Lezione 19: 127-133


Lezione 1, Panoramica.

Spazi vettoriali

Sia R"={(x1,...,€n)|%1,...,%n € R}. Allora, per definizione,

Pe
d=(01,...,0n), P_
b=(b1,...,b)) € R" n > G+b=(a1+b1,...,0n+b,)
a LR € Rn (E1)

d=(1,,...,0n) €R", ceR => cad= (ca),..., can) ER” (E2)

Più generalmente, sia S un insieme e RS = {funzioni h:S+R}e f,g € R°, ceR


definiamo
(f+g):S+R, (f+9)(8)= f(8)+9(s) (E1')
cf:S4R, (cf)(s) = cf(8) (E2')

Esempio: Se S={1,...,n} abbiamo una correspondenza

ae Rd = (a(1),...,a(n)) € R” (E3)

In generale, chiamiamogli elementi di R”o R5 vettori.

Esempio: = {poliedri convessi inR*} = {tetraedro,cubo,...}. Siano v, s, f le funzioni


da S aR definite dalle regole
v(P) = numerodivertici di P, s(P) = numerodi spigoli di P, f(P) = numerodi facce di P

per ogni p ins. La formula di Eulero afferma che v(P) — s(P) + f(P)=2 per ogni
Pins.

Le operazioni (E1) e (E1') sono chiamate addizione vettoriale. Le operazioni


(E2) e (E2') sono chiamate moltiplicazione scalare

Se S è un insieme e 7° è un sottoinsieme di S, definiamo


sur 6 1, seT
XT 3 ATI 0, séT
: + =

Se Sè un insiemefinito, chiamiamol'insieme

B= {x{s} | 5 € 5}
la base canonica di RS.

Esempio: S= {1,...,n}. Sotto la corrispondenza (E3), la base canonica di R


è l'insieme

B = {(1,0,...,0), (0,1,0,...,0),...,(0,...,0,1)}
che di solito è chiamato la base canonica di R”.

Pagina 1
[Sistemi di equazioni (informale) |

Siano f1,-.-.,fk:R" + R funzioni. Allora,


V(fis.-. fa) ={r ER" |fi(a) = fo(e)=---= f(x) =0}
è chiamatoil sistema di equazioni definito da fi,---; fx

Sistemi di equazioni lineari (informale) |

Il sistema di equazioni V(fi,..., fx) si dice lineare se (e sole se) ogni funzione ha
la forma

fi(c1,....0n)= | agz;| bj (E4)


j=1

dove i coefficienti @; e è; sono costanti. Un sistemalineare si dice omogeneo se


(e sole se) ogni è; = 0. Altrimenti, si dice che il sistema lineare è disomogeneo.

Nota: Se V(fi,..., fx) è un sistemalineare allora


. E5
V(hi, hi), hj(©) = f;(0) — f;(0), =1,...,k (E5)
è un sistema lineare omogeneo. Ogni sistema lineare omogeneoha la soluzione

(14...,tn) = (0,...,0)
Un sistema lineare disomogeneo non deve necessariamente avere una soluzione. Per
esempio, siano

fi(2,y))=r+y-2, fo(c,y)=r-y fs(a,y)=r+2y-1

Allora V(fi, f2) = {(1,1)}, ma fs3(1,1)=2. Quindi, V(fi,f2; f3) =0 (insieme vuoto).

[Relazione tra equazioni lineari omogenee e disomogenee |

Se un sistema lineare V(fi,--.; fx) ha una soluzione ' allora ogni soluzionedi
V(fi,-...Jx) ha la forma
c+a', cEV(hi,....hk)

dove V(h1,...,hn) è il sistema lineare (E5).

Pagina 2
| Sistemi equivalenti di equazioni

Si osservi che: Per qualsiasi sistema di equazioni V(f1,-.-, fx) abbiamo

Gi) V(fi,fi + fa... fa) =V(f1;---; fx) perché


{fi(2)=0, fa(€)=0} = {fi(e)=0, fi(2)+ f(x) =0}
(il) V(fi fa. fa) = Vf fa fa) se c#0

(iii) V(fi,.--, fx) è indipendente dell'ordine delle equazioni fi, fa,..., fr -

Nelcaso disistemidi equazioni lineari, queste trasformazioni sono chiamate mosse di Gauss:

(1) Aggiungere un multiplo di un'equazione a un'altra.


(2) Moltiplicare un'equazione per uno scalare non nullo.
(3) Riordinare le equazioni.

Eliminazione di Gaussiana: Usa le regole (1)-(3) per semplificare un sistema di equazioni


lineari in una formafacile da risolvere.

Assumere non zero usandola regola 3.


Altrimenti, x; può
assumere coi @u +a12%2+ + @Gintn—b=0
valore. AZ TNt 022%2 +-+ Gantn—-b2=0 (E6)
Elimina %1 da queste . . . .
equazioni usando>| i i i 20
la regola 1. ak1C1$ ap2%2 + << + apn®n — bk = 0

Ripetete questo processo con ogni variabile x; fino ad ottenere un sistema della forma

al1%1+09%2+:-:+a1,%n — dI =0
A99%2 +-+ @9ntn — D9 =0
(E6')
I I ,
QpkpTk +++ + Qpn®n — dk =0

Se (E6') ha un'equazione della forma 6; =0 dove #0 allora (E6) non hasoluzioni.


Altrimenti, possiamo trovare tutte le soluzioni con la "Sostituzione a ritroso"

Pagina 3
Esempio:

KAT tt_-)\= uu
?-\2
QX+9+
Cx + LAI Ò) — TtXx\2
_
0
°

Ri Qa- IR,
—i-2r+)=0
—2X tig +0 250

ix T294+4t%t-12%
2 +®<-)]_-

> Sla} > —3 224920


LKR > + è-\=0 + el 0

VR. Lar > ° XCa-


Doe, a Rat 0, -dtTrt)j=0
397 t<t-yS20

Sostituzione a ritroso

—1t+YN2=0 3DT <-) | —N-


9 o= 7 _ LL
_2Z22+1535°
LX gt1%-\20o => X=-|

Di solito omettiamole variabili usando la seguente notazione matriciale:

2r+y+z=1) 2
Q 1) )
o TZ |A
2 2 \ I

2 | | \ Lon |
5 o \-2 |A 72 O az |- 4
E RR o 2 s Ra Rd, o 6-9IY_3:

Pagina4.
Moltiplicazione di matrici

‘Li: . a11 012 bi b12


Richiamare: Siano A4= , B= ) matrici 2x2
ZZZ Aa21 022 bol ba9

Allora
AB = (0 na) , Cij = @1b1; + di2b9; (E9)

—>
(0 bia co: oa)
fu 11 a,
a 422) \|ba1|| bo2 12° a,

cori (fn m2) (bu d12 i (1 be)


‘ \fazi 23) \\b21]|b22 22: core
ba2

Esempio: 1 2\(L11\_(1 3
I 3 4 01) \3 7

Moltiplicare una matrice e un vettore|

Siano A= (01 2 v= ("1 Allora, A4v= (1 2) (Vi) _ Q1101 + 01202


an d22)’ v2) ° az: 22) \v2 a2101 + A2202

(e
un) _
EE
. 1
YA
(au @2 (1
= A : :

_——>

Esempio: 12 1\_ (3 12 1\_{(-1l


0 2.1 1/j \3}J° 2.1 -1/j \1 (E10)

Determinante

b
Sia A4= (£ ") . Allora det(A)= ad be

Esempio:

det (3-1) = MM -()=-3,


det (1° 12) =0-0?-4-22-2-3-0-90+1)

Pagina 5
Richiamare: C= {(2,y) | x,y € R}. Si scrive (c,y)=x+iy, i=vVv-1

Siano Z=£+iy, w=u+iv, Allora

z+tw= (cr +u+i(y+v), zw= (r+iy)(u+iv)=(ru—y0 +i(2v+uy)


x_- iY
Se z=x+iy#(0,0) allora 224

Esempio: i=-1, (1+i)°=1+2i+i°=2i.

Pagina 6
Lezione: Nozioni Perliminari

Logica: Una proposizione è un'affermazione dichiarativa che è verao falsa.

Esempio: Un pinguino è un animale. KIARO?

Domande, opinioni e comandi non sono proposizioni.

Connettivi Logici: Siano P, Q, R_ proposizioni.

Negazione:| =P è vera se e solo se P è falsa.

Esempio: P = I pinguini possono volare. KIARO?


Questa proposizione è falsa. Quindi -—P è vera.

Tavoladi verità: PR. —P


V F
F Vv

Congiunzione:|P AQ è vera se e solo se P_è vera e Q è vera.

Esempio: P= I pinguini possono volare. Q= I pinguini sono carnivori.


R=1 pinguini possono nuotare.

Allora: PAQ=F, PAR=F, QAR=V

Tavoladi verità: P
sms

PF
susa

F
V
V

Disgiunzione:| PvQ è vera se e solo se P_ è vera oppure Q è vera.


Nota bene: PvQ è vera se P è vera e Q è vera.

Esempio: P, Q, R comenell'esempio precedente.

Allora: PVQ=V, PV-Q=F, QvR=V

Tavoladiverità: P P Vv
F E PF
F Vv V
Vv PF V
Vv Vv V

Implicazione:| P = @ a meno cheP sia vera e Q sia falsa

Esempio: P = Sei maiali potessero volare. Q= qualsiasi proposta.

Allora P = Q è veraperchéP è falsa.

(essere continuato)
Pagina 1.
Nota: P = @ èanchechiamato "implicazione logica" per distinguerlo dal significato
colloquiale di "implicazione".

Tavola di verità: P | |_P Q

<<

<<<
F
F
V
V

Altri modi per dire P + Q sono:


(i) Se P allora Q
(ii) P_ è condizione sufficiente per Q.
(iii) Q è condizione necessaria per P,

Esempio: P = Oggi è Pasqua. Q= Domani è lunedì.


Allora P=> Q.

|Coimplicazione (o doppia implicazione): | P&e> Q significa "P se sole se Q"

Esempio: P= Oggiè lunedì. Q= Domani è martedì.


Allora: P&> Q

Tavola di verità:
<< lo
<<

<mw<If

Altri modi per dire P «> Q sono:


(I) P see sole se Q
(ii) P_è necessaria e sufficiente per Q

Attenzione: P se Q significa Q = P.

Insiemi:

Intuitivamente, un insieme S è un insieme di oggetti distinti, chiamati elementi di 5.


s € S è la proposizione che s è un elemento di Ss. La proposizione -(s € S) è scritto
sés.

Un insieme con un numerofinito di elementi può essere descritto elencandoi suoi elementi.

A= {1,2,3,4,5}

Il insieme vuoto, scritto ) oppure {}, è l'insieme senza elementi. In particolare, se A è un


insieme e a € A allora a & 0).

Pagina 2.
Definizione: Sia A un insieme. Per ogni a € A_ sia P(a) una proposizione. Allora

{a € A | P(a)}
è l'insieme costituito da tutti gli elementi a € A tali che P(a) è vera.

Definizione: Siano A e RB insiemi. Il complemento di B in A è l'insieme

A\B={ae A|aéB}
Si dice che A è un sottoinsieme di B, scritto AC B, se(e sole se) A\B=(0.
Si dice che A= B se(e sole se) AC B e BCA.
ANB
A\B
LT \
B |

7 @
_P

C
ACB A B

Esempio: Sia S uninsieme. Allora 9 S S perché se è semprefalsa.

Definizione: Siano A e B insiemi. L'intersezione di Ae B è l'insieme


ANB={ae€ A|ae B}

Esempio: Siano A= {me Z|2 divide m}, B={neZ]|3 divide n}. Allora,
ANB={q€Z]|6 divide qg}

Esercizio: ANB={be B|be A}

Di solito nelle nostre discussioni, c'è un insieme ambiente U che contiene tutti gli oggetti
in considerazione.

Definizione: Siano A e PB sottoinsieme di U. L'unione di A e B è l'insieme

AUB={u€EU]|(u€ A)V (ue B)}

Esercizio: A=(A\B)U(ANB)

Siano A e B insiemi. Il prossimo concetto


primitivo della teoria degli insiemi è il prodotto
cartesiano A x B costituito da coppie ordinate

(a,b) € A x B AUB
Per definizione,
> 3)
(a,b) = (a,b) > (a=a')A(b=') >
310 |
Esempio: R°=RXxR è il piano cartesiano. —z—y TOTTTT(0,0)
ita +-1

+-?

(-1.5;-2.5)4+--3
Pagina 3
Relazioni e Funzioni

Siano A e B insiemi. Una relazione da A a B è un sottoinsieme RC A x B.

Esempio: A=5B=KR

R,={(a,b) e Rx R|b°=a} R2={(a,b) cRxR|az=b}

Definizione: Una relazione R_ da A a B definisce una funzione f: A+ B se (e sole se)


(i) Per ogni a€ A esiste un elemento

(a,b) € R

(ii) Se (a,b) € Re (a,c) € R allora b=c.


In questo caso, scriviamo f(a)= bd.

Esempio: R, non soddisfa la condizione (i) perché non c'è nessun elemento della forma
(1, b) € Ri.
R, non soddisfa la condizione (ii) perché (1,1) € Ri e (1,-1) € Ri.
Rs soddisfa sia condizione(i) che (ii). La funzione associatae è f(a)= a?.

Definizione: Una funzione f:X-+ Y sidice:


(i) iniettiva se f(x) = f(2)) > ra =a'
(ii) suriettiva se per ogni ye Y existe x e X tale che /(2) = y.
(iii) biunivoca se f sia iniettiva e suriettiva.

Esempio:
(i) f(x) =e® è una funzioneiniettiva R— R. Questa funzione non suriettiva perché e”
è semprepositivia.
(ii) 9(x) = sin(x) è una funzione suriettiva R — [--1,1. Questa funzione noniniettiva
perché sin(x +27)= sin(2).
(iii) h(x) = x* è una funzione biunivoca R+ R.

Lemma: Una funzione f:X + Y ha una funzione inversa g:Y + X_ se e solo se


f è biunivoca.

Lemma: Siano X e Y insiemifiniti con lo stesso numero di elementi. Allora,


le seguenti sono equivalenti:
(I) f:X-+Y è iniettiva.
(ii) f:X + Y è suriettiva.
(ii) f:X-Y è biunivoca.

Pagina 4
Permutazione

Sia X uninsieme. Una permutazione di X è una funzione biunivoca f :X + X

Esempio: X= {1,2,3}, f(1)=2, f(2)=3, /()=1

Esempio: Sia X l'insieme deivertici di un poligono P. Siaf:P+ P. una simmetria.


Allora, f:X-X èbiunivoca. Quindi f:X-+ X è una permutazione di X.

f(1)=2, f(2)=3, f(3)=1

277

Esempio: Siano f, 9g: X + X permutazioni. Allora, la funzione composta h=f09


è una permutazione.

Lemma: Siano f:X-+Y e g:Y4+ Z funzionie h = fog. Allora,


(i) f.9 iniettiva = È iniettiva.
(ii) ff 9 suriettiva = È’ suriettiva.
(iii) f, 9 biunivoca = À biunivoca.

Esercizio: Dimostrare il lemma

Dimostrazione per assurdo

Un modo per dimostrare che una proposizione P è vera è mostrare che assumere che
-—P sia vero porta a una contraddizione. Più precisamente, esiste una proposizione
tale che x
Q =P = QNA(-0Q) è vero

Poiché QA(-0Q) è sempre falsa, ne segue che P è vera.

Teorema (Euclide): Esistono infiniti numeri primi.


Dimonstrazione: Sia S l'insieme di tutti i numeri primi. Supponiamo che S sia finito
e che sia m. il prodotto degli elementi di 5. Chiaramente nessun elemento di S può
dividere m +1. Quindi, m+1 è primo o ha unfattore primo che non è contenuto in
5. Ma questo contraddice l'ipotesi che £ sia l'insieme di tutti i numeri primi.

Teorema Fondamentale dell'aritmetica: Ogni numero naturale maggiore di 1 o è un


numero primoo si può esprimere come prodotto di numeri primi. Tale rappresentazione
è unica, se si prescinde dall'ordine in cui compaionoi fattori.

Corollario: Se p è un numero primo e n è numero naturale tale che p divide n? allora


p divide n.

Pagina 5
Teorema (La scuola pitagorica): V2 non è un numero razionale.

Dimonstrazione: Supponiamo che


a
2=-
v? b
dove @ e b sono numeri naturali senza fattore comune. Allora
2
2= pd = 206° = a?

e quindi 2 divide a? Peril collorario, 2 divide a. Scrive a=2c. Allora,

26° = a = (2e)? = del > b° = 22

Peril collorario, 2 divide b. Così, 2 è un fattore comune di a e bh. Ciò


contraddice l'ipotesi chea e è non abbiano un fattore comune.

Come volevasi dimostrare

Principio d'induzione

Sia m un numero naturale. Per ogni numero naturale n > m, sia P(n) una proposizione.
Per mostrare che P(®) è vera per ogni numero naturale n > m, è sufficiente mostrare:
(a) P(m) è vera.
(b) Se P(n)è vera allora P(n +1) è vera.

Varianti: La parte (b) può essere sostituita da


(b') Se P(m),...,P(n) sono vere allora P(n+1) è vera.

Nota: Il Teorema Fondamentale dell'Aritmetica è un esempio di teorema dove si usa


(b') invece di (b). In questo corso, si usa spesso (b') per dimostrare con induzione sulla
dimensione.

Esempio: La sommadei primi n numeri naturali è nt) .

_ i L _n(n+1)
ma ], P(n): DM k=
k=1

(a) P(1)=1= MA+1) è vera.


n+1 n
©) Pin = MID
5 > P(n+1)=) k=(n+1)+)0k
k=1 k=1

n(n+1) _2(n+1)+n°+n
= (n+1)+
1 5 3
_n+3n+2_ (n+1)(n+2)
— 2 — 2

Quindi, P(n+1) è vero. Questo completa la dimostrazione per induzione.

Pagina 6
Lezione, Vettori in R*

La geometria euclidea è lo studio delle proprietà dello spazio euclideo tridimensionale


che sono invarianti sotto rotazioni e movimentirigidi.

Esempi:
(1) Il fatto che due punti distinti determinano unalinea.
(2) La distanza tra due punti.
(3) L'angolo tra due linee non parallele.

Esempio: La sommadi due punti nello spazio euclideo non ha senso.

p+q=?

R = Spazio euclideo + scelta del sistema di coordinate.


Gli elementi di R° possono essere aggiunti componente per componente

(11, 12,13) + (V1,Y2U3) = (c1+y1,72+ 42,03 + 43) (E1)

Un numero reale è chiamato scalare. Gli elementi di R possono essere


moltiplicati per gli scalari componente per componente.

c(X1, 12, %3) = (cx1, cca, Ct3) (E2)

Gli elementi di R° possono anche essere sottratti componente per componente:

(11, £2, 13) — (Y1, 42,93) = (21 — V1,t2 — Y2,®3 — Y8) (E3)
In generale
a(x1,%2, 13) + b(y1,42,43) = (aw1 + by1, ava + by2, aw3 + by)
Esempi:
(1,1,2) + (1,2,3) = (2,3,5)

(1,4,9) — (1,2,3) = (0,2,6) = 2(0, 1,3)

2(1,0,1)+3(0,1,-1) = (2,3,-1)

[Linea parametrica in_R° |

Dati due punti p= (p1,92,93) e 49= (41,4,93) in R° , la mappa

X():R+R, X(t)=p+t(qg-p) (E4)

parametrizza la retta passante per p e q (supponendochepe sianodistinti).

Pagina 1.
Esempio:

p=(1,0,1), q=(1,1,1) = X(t)=(1,t,1)

è la forma parametrica della retta passante perp e q.

La costruzione dell'equazione parametrica della retta passante per p e q


illustra un'importante dicotomia su R3:

Gli elementi di R* possono essere considerati sia come punti nello spazio
euclideo sia come "vettori" che possono essere addizionati e moltiplicati per
gli scalari.

In generale, dato un punto »p= (pi, p2,p3)in R* e unvettore v= (v1, 02, 03)
in R3,laretta parametrica passante nella direzione del vettore
è data dall'equazione

L(t) = p+tv (E5)

Esempio:
p=(1,1,-1), v=(1,0,1) = L()=(t+1,1,t-1)
è la retta passante per P nella direzione di »v.

Esempio: Una curva parametrica in R° è una mappa della forma


Non preoccupateti
ri(ab) RI, r(6) = (c(6),u(6),z(1)) di come calcolarer',
TT questo è coperto
La derivata re) = (20) (0). 2/0) (E6) da altri corsi.

(se esistono le tre derivate a destra) e l'equazione della retta tangente


della curva a ce (a,b) è

Lt) =r(0)+tr(), teR (E7)

Esempio (Elica):
r(t) = (cos(t), sin(t),t)

r(27) = (1,0,27), r'(27)=(0,1,1) l— r'è dato

L(t) =(1,0,27)+t(0,1,1)=(1,t,27+t)

Pagina 2
. . . . 3
Forma parametrica di un piano in R°:

Dati tre punti A, B e C in R* che non sonocollineari, il piano che passa


per questi tre punti è il grafico della funzione

X(s,t) = s(B- A)+t(C- A)+A:R° > R3 (E8)

Si noti che
X(0,0)= A, X(1,0)=B, X(0,1)=C (E9)

Esempio: L'equazione del piano che passa per i punti A = (1,0,0), B=(0,1,0)
C'=(0,0,1) È
X(s,t) = (-1,1,0)s+(-1,0,1)t+(1,0,0) = (1-s— 45,1)

Formalineare di un piano in RR:

Tornando all'esempio precedente, vediamo che se

X(s,t) = (x(5,t),y(8,t),z(5,t))=(1-s-t,5,t)

ul
SPS (8,0) +y(5,0) +28) =(1-5-1)+s+#=1 (E10)

Viceversa, supponiamo che %o+%0+%0=1. Allora,

So = Yo,to = Zo => X(So;to) = (1- 50 — to: Soto)


_ _ (E11)
7 ((1 Yo Z0): Yo: Zo) = (Lo: Yo: Z0)
si
tano p_{x(s,t) e R3|(s,t) €R?}, P'= {(x,y,2) €R?|r+y+2=1}
Allora,
(1) Per (E10), PCP'.
(2) Per (E11), p' C P
Quindi p— p'

In altre parole, l'equazione del piano che passa per (1,0,0), (0,1,0), (0,0,1) è

{(x,y,2) eR° |e+y+2=1}

Proposizione: Sia (a,b,c) E R e d e R. Se (a,b, c) # (0,0,0) allora

ar+by+c2=d
è l'equazione di un piano in R!.

Pagina 3
Esempio: Se P={(x,y,2)|2+2y+3z=3} allora

(0,3,—1), (6,0, —1),(5,—1,0) € P

Usando questi tre punti su P, possiamo quindi trovare un'equazione parametrica


per P.
X(s,t) = (6, —3,0)s + (5, —4, 1)t + (0,3,—1)

In generale, si passa dall'equazione lineare di un piano alla sua forma parametrica


semplicemente trovando tre punti non lineari sul piano.

Osservazione: La forma parametrica di un piano non è unica, comesi vede riordinando


i tre punti dati. La forma lineare di un piano è unica modulo moltiplicare l'equazione per
uno scalare non nullo.

In particolare, un piano ha un'equazione


axr+by+cz=d

con d=0 see soloseil piano contiene (0,0,0). Altrimenti, d è non-zero e può essere
scalato per essere uguale a 1.

L'equazione lineare di un piano che passa per 3 punti: |

Forse il modo più semplice per trovare l'equazione lineare

axr+by+c<z=d

del piano che passa per (0,40, 20), (11,41; 21); (12, 42, 22) è semplicemente scrivereil sistema
3x3 di equazioni lineari
axo + dDyo + czo = d
arr + by, +cz1=d
arr + by, + cz =d

e risolvere per {a,b, c, d}.

Esempio: Trova l'equazione del piano che passa per (0,3,—1), (6,0,—1),(5,-1,0) .

3b-c=d
Dobbiamorisolvere le equazioni: ) 6a-c=d
5ba-b=d

sottraendo la prima equazione dalla seconda equazionesi ottiene


6a —- 3b=0

Quindi, ponendo a=1 e b=2, si ottiene 5a—b=d=3. Infine, 369—c=d = c=3.

L'equazione del piano è quindi x + 2y + 32 = 3, che concorda con l'esempioall'inizio


della pagina.

Pagina 4
| L'intersezione di una linea con un piano:

Se il piano è dato dall'equazione lineare


ax +by+c2=d

e la retta è data nella forma parametrica

X(t) = (2(t), y(t), 2(4))


si risolve semplicemente l'equazione

ax(t) + by(t) + cz(t) = d (E12)

per 1.

Naturalmente, è possibile che il piano e la linea siano paralleli, in tal caso


l'equazione (E12) non avrà soluzioni.

Esempio: P={(x,y,2)|x+y+2z=1}
X(t)=t(1,0,—1)

AMOTA 1-50 +y@)+=@)=(+(0)+(-£) =0


Quindi, il piano e la linea nonsi intersecano.

Esempio: P={(x,y,2)|r+y+z=1)
X(t) = #(6,0,0) — (0,3,2) = (6%, —3,—2) = (x(t), y(t), (0)

1= x(t) +y(t)+(t)=6t-5 = s=1 = r(t)=(6,-3,-2)

Legge del parallelogramma]|

L L'addizione e la sottrazione di vettori possono essere


descritte geometricamente usandoi lati di un
paralellogramma come mostrato.

Geometricamente, la moltiplicazione di un vettore per


uno scalare e corrisponde a moltiplicare la lunghezza
\ del vettore per c mantenendola sua direzione.
x

Se vogliamo pensareai vettori comea frecce dirette in R* allora siamo d'accordo


nell'identificare due frecce che differiscono per un moto rigido (nessuna rotazione!).

Possiamo poi sommarei vettori spostandoli in un "punto base" comune e usando


la legge del parallelogramma.

Pagina 5
Esempio: Questi vettori sono equivalenti perché hannola stessa lunghezza e
la stessa direzione:

77

A
Campivettoriali:

In fisica, i campi vettoriali si presentano


spesso come l'assegnazione di una "Forza"
ad ogni punto di una regione dello spazio.

Questo viene visualizzato disegnando una


freccia nei punti della regione.

Il campo vettoriale di Killing sulla sfera,


chiamato cosìin onore di Wilhelm Killing.

Esempio: Fino a una costante, il campo vettoriale gravitazionale centrato in (0,0,0)


è dato dalla formula:

3 (-2, Y 2)
(1,y,z) ER — {(0,0,0)} ca 4y2 + 22

Sul lato sinistro di questa equazione, (x,y,z) è un punto. A destra, (x,y,z) è un vettore.

Pagina 6
Lezione 4: Prodotto Vettoriale

In questa lezione daremo un metodo sistematico per:

(1) Trovare l'equazione di un piano che passa per tre punti in Rî


(2) Trovarel'intersezione di due piani non paralleli
(3) Trovare l'angolo tra due vettori in R?
(4) Trovare l'angolo tra due piani non paralleli in RI

Lo strumento che useremoè il prodotto vettoriale di due vettori in R93.

Nota: Esiste un analogo del prodotto vettoriale


R"xR" + A?(R")
per altri valori di n, che si chiama L'algebra di Grassmann o algebra esterna.
Non tratteremo questo argomento in questo corso.

Definizione: Siano v= (01, 03,03) e w= (Ww1,w2,w3) due vettori in R*


Allora
UX W = (V2W5W3 — V3W2, V3W1 — Vjw3,U1w2 — v2Wi) (E1)

Notazione: Siano i= (1,0,0), j= (0,1,0), k= (0,0,1)

Esempio:

ixj=kK
jxk=i (E2)
kxi=j

k J

[Proprietà algebriche del prodotto vettoriale:| Siano u, v, w € RÌ, ce R


0= (0,0,0)
(1) vuxw=-wxuv
(2) ux(v+w= (ux 0) +(ux w)
(3) (u+tvu)xw=(uxw)+(vxw)
(4) (cuxw=c(uxw)
(5) ux(cw=cluxw)
(6) vxv=0
(7) 0xv=0

In particolare,utilizzando le proprietà algebriche del prodotto vettoriale e l'equazione


(E2), possiamo calcolare il prodotto vettoriale.

Pagina 1.
Esempio:

Da (E1): (1,0,1) x (0,1,0) = ((0)(0) — (1)(1), (1)(0) — (1)(0), (1)(1) — (0)(0)) = (-1,0,1)
Da (E2): (1,0,1) x (0,1,0)= (i+k)xj=ixj+kxj=k-jxk=k-i

La definizione geometrica del prodotto vettoriale: |

(1) uxv=0 se u, v sono paralleli oppure v o v sono (0,0,0).


Altrimenti, u e v generano un piano:

Piano diue v
u XxX v

(2) uxv è perpendicolareal piano di v e v

(3) Lalunghezza di uxv è ugualeall'area del parallelogramma da u e v:

P={su+tv|0<s<1,0<t<1}

ANT Area(P) = (Lunghezza u)(Lunghezza v) sin(0)

/)
u

(4) La direzione del vettore « x v è data dalla regola della mano destra, dove
sì punta semplicemente l'indice della mano destra in direzione di e il dito
medioin direzione di ®. Quindi, il vettore u xv esce dalpollice.

u
uX VU Esempio: ixj=k, Area = 1

Condizione per due vettori non nulli in RR? per essere perpendicolari

Siano: u= (u1,u2,u3) #0, v= (v1,02,03) #0

Allora uLv «> (u,v)= uv; + u2v9 + uzuzg = 0

Esempio:
u=(1,2,3), v=(1,1,-1) = (uv) =(1(1)+(2)(1)+(3)(-1)=0 > uLov

Pagina 2
L'equazione del piano che passa per tre punti non colineari:

PO, R = punti in R n= UXxv

u= vettore da Pa 0.
v = vettore da P a R.
n=ux v (prodotto vettoriale)

S = puntiin R?
w = vettore da S a P

Allora, S appartiene al piano passante per P, Q e R see solo se w è


perpendicolare a_n.

Esempio: Trova l'equazione del piano che passa per

P=(1,0,0), Q= (0,1,0), R = (0,0,1)


Calcoliamo:

u=(-1,1,0)=-i+], v=(-1,0,1)=-i+k

n=uxv=(-i+j)x(-i+k)=(-ix-i)-ixk-jxi+jxk=j+kKk+i=(1,1,1)

S=(x,y,z2) = w=(x-1,y,2)

(w,n) = (7 1)(1)+(M)(1)+(2)(1)=x+y+2-1

wln= x+y+2-1=0 (S=P corrisponde a w=0)

L'intersezione di due piani non paralleli: |

Se II è un piano con equazione

Ax +By+Cz=D (E3)

allora n=(A4,5B,C). Se (0,40,20) EI l'equazione (E3) può essere


scritta come:
(nr)=0, r=(0-%0,Y Yo? Zo) (E4)

Se Il’ è un altro piano con equazione


A'r+B'y+C'2z=D' (E5)

e (%0,Yo, zo) € Il allora l'equazione (E5) può essere scritta come:


(n',r)=0, n' = (A', B',C"), r= (e —-r0,Y— Yo, 2 Zo) (E6)

In particolare,
(1,y,2) € IINI « (rLnA(rLn/) (E7)

Pagina 3 (continua, pagina successiva)


Poiché stiamo lavorando in R*, c'è solo una direzione che è perpendicolare
an en’ cheè data da nxn' (ricorda: II e Il’ non paralleli).

Quindi, l'equazione parametrica della linea IINIl' è data da

tu t(nxn')+ (20, Yo; Zo0) (E8)

Esempio: Trova l'equazone della linea IINII:

II: x+y+z=1, Il: x+29+3z=1

(1) Trova un punto (0, Yo; zo) E IINII

Per esempio, provate a impostare x= 1.


Questo darà due equazioniin ye 2:
y+z=0, 2y+32=0 = (y,z)=(0,0)

Allora: (L0; Yo: Z0) 7 (1,0, 0)

(2) n=(1,1,1), n' = (1,2,3)

nxn'=(i+j+k)x(i+2j+3k)=ix(i+2j+3k)+(j+k)x(i+2j+ 3k)
=2k-3j+jx(i+2j+3k)+kx (i+ 2j+3k)
= 2k-3j-k+3i+k x (i+ 2j+3k)
=3i-3j+k+j-2i=i-2j+k

(3) Z(t)=(1,0,0)+t(1,-2,1)

L'angolo tra due vettori in R*

In una lezione successiva, mostreremo chel'angolo tra due vettori diversi da zero
in R3 è dato dalla formula:

cos(0) = (a,b)
/ (a, a)/(b,d)

Esempio: Trova l'angolo tra a = (1,0,1), b= (1,1,0):

(a,a) = 1° +0° +11 = 2, (a, b) = (1)(1) + (0)(1) + (1)(0), (6,5) = (1)? + (1)? + (0)? = 2

1 1 T
cos) = 773 => 89=%

Pagina4.
L'angolo tra due piani non paralleli in R°|

Siano Nota: l'angolo tra


due piani è un
II: Ar+By+Cz=D, n=(A,B,C) angolo acuto,
Il: A'x+B'y+C"z=D', n! _ (A',B',C')
quindi dobbiamo
usare il valore
due piani non parallei in R?. assoluto del
prodotto scalare
Allora, l'angolo tra II e II’ è definito come l'angolo tra n e n/

Esempio: Trova l'angolo tra cos(0) =

HI: x+2y+22=1, Il: x+y=0

n=(1,2,2) n =(1,1,0)
(nin) =1°+22+2°=9, (nin) = (D(1)+(D)(2)+(2)(0) = 3
(n°, n) = (1°+(1)°+ (0)? =2
coso) = —— = + —. g=T
v9v2 v2 4

Normadi un vettore in R*|

La quantità
le] = v(2,a) > 0 (anche scritto come||]|)

è chiamata norma del vettore x. Con questa notazione, la formula per


l'angolo tra due vettori non-nulla diventa:

c05(9) = io
Per il teoremadi Pitagora, ||| è la lunghezza di «:

(b) T= (x1 sT2, 3)

3
S
y=1,2,,0) =
ey) = fat + x3 l(z)

edi (4)

Pagina 5
Distanza:

La distanza d(x,y) tra due punti x, ye R° è data da

de,y) = |e- gl

Esempio: Trova la distanza tra x (1,0,0), y= (2,2,2)

d(x,y) =|v-y|=]|(-1,-2,-2)|= v(-1°+(-2)?+(-2)?=v9=3

Vettori Unitari:

Un vettore * € R° è detto vettore unitario se (e sole se) le] = 1.


‘a T3
L'insieme
2 3. _
S°={reR°:|x|=1} x = (21,02, %3)
el =1
è chiamatola sfera unitaria.
La
I punti di S? possono essere pensati
comele direzioni in R3

In particolare, se x € Re x #0 CI
allora x
US
||
è il vettore unitario nella direzione di ©.

Esempio: Trova il vettore unitario nella direzione di = (3,4,12)

|a? = 3%? + 42 + 12° — 25 + 144= 169 = 13?


TL TL
uz 7, —
le] 13

Proiezione di y € R* sulla direzione di x € R3:

y Dobbiamo trovare À tale che

eo
y_Aa (y-Ax,x)=0 = (y,2)-Ax,ax)=0 = = 1 5
(4,2)

LE x Allora (y,2)
Vr Ax= "x (formuladella proiezione)
(1, )
è la proiezione di 4 sulla direzione di %.

Nota: (ye) _ (4, ©) x -( L) 0 u)u ua


(1,2) /(2,a) V(x,x) "Jael/ Je ee ||

Pagina6.
Esempio: Trova la proiezione di = (1,2,3) sul direzione di x = (1,0,1) :

(4.7) _ (HH) + (2)(0) + (3)(1) (1,0,1) = 70,0, 1) = (2,0,2)


(1,2) 12+02 +4 12

Lavoro(fisica):

Lavoro = (Forza)(Distanza)

Mala forza è un vettore e sia il lavoro che la distanza sono scalari?

La distanza dovrebbe essere pensata come uno spostamento s, che è un vettore.

F=Forza
Questa parte della forza non
contribuisce al lavorofatto Solo la parte della forza allineata
con la direzione del movimento fa
4 lavoro.

10 kg s = vettore spostamento 3 10 kg
Spostamento 5m questa
direzione

(F, 5) = (F,5) — (F
L= (F, 5) (Formula del Lovoro)
( (5,5) 5,5 (5,8) (8,5)
PD

Proiezione F
sulla direzione
di s

Pagina 7
Lezione: Spazi Vettoriali

Lo spazio vettoriale R”

R"={(c1,...,%n)| 71... Tn ER}

Addizione vettoriale: Componente per componente

(11,000; Tn): (Y1000Un) ER" => (21,--0:%n) + (Y1:+-03Un) = (21+Y1:---3En + Un) (E1)

Moltiplicazione scalare:

ceR, (11,...,tn) ER" => c(x1,..., tn) = (C%1,...,0%n) (E2)

Linea parametrica in R":

Siano pe R” un puntoe veR” unvettore. Allora,

L:R4+R", L(t)=p+ vt (E3)

è un'equazione parametrica per la linea passante per p nella direzione


di ».

Linea passante per due punti in R” |

Un'equazione parametrica della linea passante per p, q € R” è


L:R+R", L()=p+(q- pl (E4)

Esempio: Trova la linea passante per p= (1,0,0,1), qg= (1,1,1,1)

L(t) _ (1,0, 0, 1) + ((1, 1, 1, 1) us (1,0, 0, 1))t 7 (1,0, 0, 1) + t(0, 1, 1,0) _ (1,8, t, 1)

Iperpiani:| Consideriamole equazioni:

y (0,0,1)
1,0) Lt+ty+z =1

A 6°
(0,1) x (1,0,0) (0,1,0)

c+y=1 x y

Linea tra due punti: Piano tra tre punti:


(1,0), (0,1) (1,0,0), (0,1,0), (0,0,1)

(continua, pagina seguente)

Pagina 1.
Osserva che: H = {(x1,x2,3,x4) €R'|x1+x2+x3+x4=1} passante per:

(1, 0,0, 0), (0, 1, 0,0), (0, 0, 1,0), (0, 0, 0, 1)

Dato un insieme S={P,,...,P.} din puntiin R” esiste un'equazione lineare


A1x1 + A202 +-+ Anton = D (E5)

che passa peri puntidi S .

Per un generico insiemi di n punti S in R7 l'equazione associata (E5) è unica


modulo moltiplicazione per uno scalare non nullo. In questo caso, le soluzioni
di (E5) hannola forma parametrica:

L:R"14R", L(t1,-.tn_1) = (Pi Polti ++ (Par Poltna1 + Pa

L'insieme delle soluzioni H di un'equazione della forma (E5) con almeno un


coefficiente non nullo A; si chiama un iperpiano.

Intersezione della linea e un iperpiano: |

Siano: L:R- R°, L(t) =p+ovt, ps (PI... Pn) vE (01,...,Un)

H={(x1,...,%n) e R" Î A1X21 +-+ Antn = D}

Per trovare LNH sia %;=p;j+v;t. Allora, abbiamo bisognodi:

oppure: (Api +---+ Anpn) + (4101 +---+ Anun)t = D (E6)

In analogia con R, dati due vettori u= (u1,...,un), w=(wi,...,wn) ER",


definiamo
(u,w) = u1w1 + uzw3 + <-- + UnWn (E7)

Sia A=(A,...,An). Allora, (E6) diventa:

(A,p)+(A,v)t = D
Ci sono tre casì:
D- (A,
(1) (40)7#0 = t= P_i (L interseca H in un punto)

(2) (4,6)=0, (A4,p)#D = LNH=0 (Lè parallela a H)

(3) (A4,0)=0, (A4,p)=D = LCH (L è contenuto in H)

Esempio: Trova l'intersezione di


L(t)=(1,0,0,1) +(1,2,3,4)t, H:x1+x2+x3+2%4=1

(1,1,1,1), p=(1,0,0,1),
A= (1,1,1,1), p=(1,0,0,1), v = (1,2,3,4)
(1,2,3,4 son=1(2)
1
1-2 1
( A,p)=2
,D) ? ( A,v)=10
0) > t= ——
10 =-5

Pagina 2
Lo spazio vettoriale delle funzioni sulla linea reale:

F(R)= {funzioni f:R+R}

Addizione vettoriale: f, g € F(R) => f+g € F(R) è la funzione definita


dalla regola
(f+9)(t) = f() + g(2) (E8)

Moltiplicazione scalare: c € R, f € F(R) = cf € F(R) è la funzionedefinita


dalla regola
(cf)(t) = cf(t) (E9)

La definizione formale di uno spazio vettoriale è un insieme V dotato di due


operazioni chiamate addizione vettoriale e moltiplicazione scalare che soddisfano
certi assiomi.

In particolare: Sebbene possiamo anche moltiplicare elementi di F(R) per la

regola (FO) =90)


questa operazione nonfa parte della struttura dello spazio vettoriale di F(R).

[Lo spazio vettoriale delle funzioni da un insieme a_R:|

Sia A uninsieme. RÉ= {funzioni f:A-R}

L'insieme R4 è uno spazio vettoriale rispetto alle regole di addizione vettoriale e


di moltiplicazione scalare (E8) e (E9):

(f+g9)(a) = f(a)+g(a), —(cf)(a) = cf(a)

Anche se R‘ può sembrare molto astratto, è molto utile come punto di partenza
per definire altri spazi vettoriali.

Lo illustreremo con i polinomi:

[Lo spazio vettoriale dei polinomi:|

Informalmente, un polinomio nella variabile x è una sommafinita dei monomi x” con


numeri reali per coefficienti:

p(€) = ance" +-+ 1% + ao

Naturalmente, possiamo definire l'addizione polinomiale e la moltiplicazione di un


polinomio per uno scalare nel solito modo.

Il risultato è uno spazio vettoriale solitamente denotato R[r].

(continua, pagina seguente)

Pagina 3
Supponiamo ora che tu abbia bisogno di programmare un computer per lavorare
con i polinomi:

Sia J= {0,1,2,...}. Allora, si può pensare a un polinomio come a una funzione

a:J+R (E10)
tale che a(j3)=0 tranne un numerofinito di j € /. Infatti, data una funzione
(E10), definiamo
p(a)= DI ala
ira(i) 70

Aj qg=0,...,n
Viceversa, dato un polinomio gq(x) = ) a;x'* definiamo: a(j) =
i=0
0 d>n

Con queste identificazioni, l'addizione e la moltiplicazione scalare dei polinomi


coincide con l'addizione e la moltiplicazione scalare in R”.

Troncando J ad un insiemefinito (cioè delimitando i gradi dei nostri polinomi),


possiamo ora programmare facilmente l'addizione polinomiale e la moltiplicazione
scalare nel computer.

| Interpolazione di Lagrange: |

Ricordiamo che esiste un iperpiano che passa per n punti in R”.

Data (n+1) punti S={(x0,y0),...,(1n,4n)} CR° tale che %o0,...,2, sonodistinti.


Allora, esiste un polinomio ps(x) di grado n tale che

ps(c;) = %;, j=0,...,n

Infatti, sia II T-X


ni) MI vom j=0,...,n

Allora, (c;) 1, k=j


MU 0, Jk
Quindi,
ps(x) = > Y;p;(1)

è un polinomio di grado n conle proprietà richieste.

Pagina 4
Esempio: Trova un polinomio p(x) di grado 2 tale che p(1)=1, p(2)=3, p(3) =6

S={1,2,3}) > pie) = To - 5(r-2)(2-3)

po(x) = COSO. (e - 1)(c - 3)

pa(@) = EDO gle 1)e-2)


Allora, p(r) = (1)p1(#) + (3)px(2) + (Ops(e) = 3e(e+1)
Nota:
(a) Lasciando A = R”, otteniamolo spazio vettoriale F(R”)=R4 di funzioni di valore
reale su R”.
(b) Sia J = {0,1,2,...}. Lo spazio vettoriale R[x1,...,x,] dei polinominelle variabili
T1,...,n può essere definito come sommefinite di monomi l'x---aÎ con
numeri reali per coefficienti oppure o usando le funzioni a :/” + R tale che
a(j) = 0 trane un numerofinito di j € J" :

Pa(t1,--.,%n) = ) a(j1, in) 18. ln

{j=(d1,--sdn) I |a(j)#0}

La definizione di uno spazio vettoriale astratto: |

Uno spazio vettoriale reale è un insieme V dotato di un'operazione

+:VxVayv, (uv) u+v

chiamata addizione vettoriale e un'operazione

-:RxVav, (cu) + c-u [di solito si scrive cu]

chiamata moltiplicazione scalare tale che:

(1) u+tv=v+ perogni wvevV .


(2) (u+v)+w=u+(v+w) per ogni wu, v, w € V.
(3) Esiste un elemento 0 € V chiamato vettore zero, tale che
O0+u=u+0=%

per ogni ue V
(4) Per ogni elemento ue V c'è un elemento —u € V_ tale che
u+(-u)=0

(5) (rs)-u=r-(s-u) perogni r, se R, ueV


(6) (r+s)-u=r-u+s-u perogni r, seR, ueV
(7) r-(u+v)=r-u+r-v perogni reR, uveV
(8) 1-u=u perogni ueV

Si verifica tediosamente chetutti gli esempidi spazi vettoriali presentati finora


soddisfano questi assiomi.

Pagina 5
Esempio: Siano V = (0,00) con

Addizione vettoriale: «uBv=uv moltiplicazione ordinaria


Moltiplicazione scalare: c-u= u”, esponenziale ordinario

Allora,
(1) uBv=uwv=vfu
02) uBVBw=u(vw) = uvw = (u)v= (Bd) Bw
(3) 1Bu=uBMl=u
(4) uBut=u!Bu=1
(quindi 1 è il vettore zero in V)
(5) (rs) u=u"=(u')"=(s-u) =r-(s-u)
(6) (rt s)u=u"t'= (uu) = (7) E (0°) = (ru) (8-1)
(7) r:(uBou)=r- (uv) = (wo) = uv" = (u) B(0)= (ru) Ar)
(8) 1:-u=ul=u

Nota : Questo esempio si ottiene prendendo i numeri reali R dotati di addizione


e moltiplicazione ordinaria, e applicando la mappa esponenziale R + (0,00)

Non Esempio: Gli insiemi di funzioni definite dalle condizioni di positività non sono
spazi vettoriali perché non possiamo moltiplicare per-1:

In particolare, V = {f:R+ R|f(0)>0}nonè un spazio vettoriale, perché se


feV allora —f éV

Proposizione: Se V è uno spazio vettoriale allora c-0=0 per qualsiasi scalare c.


Dimostrazione: Per (3)

0+0=0 (lascia u = 0)
Allora, per (7)

c:(0+0)=c-0 = c-0+c-0=c-0
Aggiungere —c-0 a entrambii lati dell'ultima equazione per ottenere:
c-0=0

Proposizione: Se V è uno spazio vettoriale allora 0-v=0 per qualsiasi vettore v.


Dimostrazione:
u=l-v=(1+0)-v=1-0+0-v=v+0-v

Aggiungere —v a entrambii lati dell'ultima equazione per ottenere:

0=0-v

Pagina 6
Lezione: Mappe lineari

Definizione: Che U e V. siano spazi vettoriali. Allora, una funzione

L:IU>V

è detta una mappa lineare da U a V se(e solo se)


(1) L(u1+u2)= L(u1)+L(u2) perogni wu, ur € U.
(2) L(cu)=cL(u) per ogni c € R, u€EU.

Esempio: Fissa w ERe sia

Lu : Rΰ + RÎ, Lu(U)=uxw (prodotto vettoriale con w)

Per le proprietà del prodotto vettoriale:


(1) Lu(Ui + ua) = (U1 + uo) x W = (U1 x w) + (u2 x w) = Lu(U1) + Lu(Us)

(2) Lu(cu)=(cu)xw=celuxw)= cLy(u)

Quindi, Lw è una mappelineare.

Esempio: Fissa w= (W1,...,w,) ER” e sia

Pu(v) = (v,w):R" + R

Se v= (01,...0n), v = (v,...,v,) allora


(1) Polv+0)=((01+0),... Un +0), (W1,...,tn))
= (01 +01 )w1 +-+ (Un +0) Wn
= [urw1 +-+ Unwn] + [wi +-+ 0wn]
= Pw(0) + Pu)
(2) P.(cu) = ((cv,,..., Cn); (Wi,...,%Wn))
= (cu )wi + (CUN)Wn

= cPy(v)

Quindi, P,, è una mappelineare.

Non Esempio: N :R°+ R, N(v) = |v]

N(1,0,0)=1, N(0,1,0)=1, N(1,1,0)= V12+12+02 = v2


Quindi: N((1,0,0) + (0,1,0)) £ N(1,0,0) + N(0,1,0)

Proposizione: Se L:U + V è una mappelineare allora L(0y) = 0y


Dimostrazione:

L(0u) = L(0u + 07) = L(0u) + L(0u) => 0yv= L(0u) (cancella L(0u) da entrambii lati)

Pagina 1
Non esempio: L(x,y,2)=r+y+z+1

L(0,0,0)=1 (Ma per una mappalineare L(0) = 0)

Esempio (Moltiplicazione di un vettore per uno scalare):

Per qualsiasi spazio vettoriale V e qualsiasi scalare c la mappa

L(v) = cv
è una mappalineare.

Casi speciali:
(a) c=1 è chiamata mappadi identità, di solito denotata Io Iv.
(b) c= 1 è chiamata inversione:

Vv

-V

Esempio (Mappadell'inclusione):

Se ms<n allora

c:R" + RR", ((£1,--.,Tm) = (11...) Cm; 0, ...0)

si chiama la mappadi inclusione da R” a R”.


(Si verifica facilmente che è una mappalineare).

Esempio (Proiezione sulle prime n coordinate):

Se m2zn la mappa
T:R"4R", T(£1,-..,%m) = (£1,...:%n)
si chiama proiezione sulle prime n coordinate.
E anche una mappalineare.

Esempio (Proiezione da R* a un piano):

Sia P CR? un piano con equazione:


ar+by+c2=0 (E1)

Supponiamo che «= (a,b,c) sia un vettore unitario. Allora,

T(V)=v- (vu)

si chiama proiezione da R* a P.

Per vedere che 7 assume valori in P, riscrivi l'equazione (E1) come

(2,4, 2), u)=0


(Continua a pagina seguente)
Pagina 2.
Allora: Perché è un vettore unitario:

(T(0),u) = (v- (0, u)u,u) = (vu) — (vu (u,u) = (vu) — (vu) =0

Per vedere che x è una mappalineare,si noti che:

(1) T(vi+v2) = (01 +02) — (01+02,u)u = v1+v2+ (01, u) + (02, u)u


= [vi — (1, u)u] + [ve — (02, u)u] = (1) + a(v2)

(2) a(cu)= ev —-(cv,u)=cv—- c(vu) = c(v—- (vu) = er(v)

Nota : Se u è un vettore unitario in R" [i.e. (u,u) = 1 ], si può definire (i.e. = id est = cioè)
la proiezione da R” all'iperpiano
H={x€ER"|(x,u=0}

con la stessa formula (0) =v— (vu),

Esempio (Riflessione attraverso un piano in R*):

Usandola notazione dell'esempio precedente, definiamo:

p(v) = v—2(v,u)u

Allora,
G p(u=u-2(u,u)u=-u
(ii) Se veP= {rx €R°]|(x,u)=0} abbiamo p(0)=v- (v,uu=v

©&
Così ©? fissa il piano P_e inverte il vettore normale u. Geometricamente,
p. corrispondealla riflessione attraverso il piano P.

L(1,0) = (cos(0), sin(0))


L(0, 1) = (— sin(0), cos(0))

Proiezione Riflessione Rotazione

Esempio: La rotazione intorno all'origine di @ gradi in senso antiorario


è una mappalineare Ly: R? + R?

Pagina 3.
Proposizione: Se L:U + V è una mappalineare e L':V + W è una mappa
lineare allora L'oL:U-W è una mappalineare.
Dimostrazione:

(1) (L'oL)(u1+ uo) = L'(L(u, + u2)) = L'(L(u1)+L(u2))


= L'(L(u1) + L'(L(u2)) = (Lo D)(u1) + (L'o L)(u2)
(2) (Lo L)(cu) = L'(L(cu)) = L'(cL(u)) = eL'(L(u)) = ce(L'o L)(u)

In particolare, ponendo W =V e lasciando che L’ denoti la moltiplicazione


scalare L'(v) = cv segue che per qualsiasi mappa lineare L:U-V siha
i L'oL=cL
è una mappalineare.

Proposizione; Se L, L':U-+V sono mappelineariallora L+L’ è anche una


mappalineare da U a V.
Dimostrazione: Esercizio per gli studenti

Mappelineari: Spazi di funzioni

Esempio: Se S è uninsieme e p è un punto di S,la valutazione in p


definisce una mappalineare

v:RSÒR (ff (E2)


Infatti, l'equazione (E2) definisce una mappa ‘. Resta da dimostrare
che la mappa »» è lineare:
(1) vp(f+9)=(f+9(p)= f(p)+g9(p)
(2) vp(ef) = (ch)(p) = cf(p) = cvp(f)
Non Esempi (con la notazione dell'esempio precedente):

qpiR'ÒR (=: (29) = (20) = 4f°(p) = 49p(f)


sp:R RR, sp(f+9)=(f+9(0)+1=/f)+9@)+1
sp(J)=f(p)+1 = (fp) +1)+(g(p)+1)-1= sp(f)+sp(9) 1

Esempio: Fissa una funzione 9g € R*. Allora la moltiplicazione per 9 definisce


una mappalineare
mg :R° RS, (my(1))(5) = f(5)9(8) (E3)
Infatti, l'equazione (E3) definisce una mappa my. Resta da dimostrare
che la mappa my;è lineare:
(1) Perogni se S
(mg(S1 + Î2))(5) = (fi + f2)(8))9(8) = (11(5) + f2(5))9(5)
= S1(8)9(8) + f2(5)g(5) = (mg(41))(5) + (mg(42))(5)
allora my(f1+f2) =myg(f1) +mg(fa)

(continua, pagina seguente)


Pagina 4
Esempio: (continua)
(2) Per ogni se S

(my(cf))(s) = ((cf)(s))g(s) = (cf(s))g(s) = cf(s)g(s) = c(my(1))(5)


Allora my(cf) = cmy(f)

Spazio vettoriale polinomiale R[e]

Ciascuno degli esempidati nella sezione precedente si applica anche a R[x]:

up:Ra]3R, (9)=/f)
Il prodotto di due polinomi è un polinomio, quindi se 9 € R[x] è un polinomio
fisso allora:
mg : Rie] + Re], my(f) = fg è un mappelineare

Esempio: Se aeR allora la traslazione di a definisce una mappalineare

ra :Riel Re (MA = feta) (E4)


Infatti, l'equazione (E4) definisce una mappa. Resta da dimostrare
che la mappa (F4) è lineare:
(1) (7a (f+9)@) = (F++0) = f(2+ a) + gle +0) =(N) +(0)
Allora ra(f +9) = 7a(1) +72(0)
(2) (ra (ch) (1) = ef(r +0) = e(ra(4))
Quindi ta (cf) = era(f)
Illustrazioni: 7;(x)=x+1, Ti(e°) = (cr +1), ma(f)= f(x)

Derivate formali di polinomi: |

In analisi, imparerete la definizione della derivata in termini di un limite:

dr OI)
da 4a t_- a

Tuttavia, per le funzioni polinomiali f € R[x] la derivata può essere definita


comela seguente mappalineare:
d

(1) È) =0
d 21
2) n21=
>
tr! ni )=na
_ n

Per le funzioni polinomiali, i due metodi dannolo stesso risultato.

Pagina 5
Esempi:

d,, d.., d d
dl +2x+1) Eta e) + r+

La
da
++ a+) = dxd LL+
d
dx
109)
dx
+ La)
da
=1+20+ 32?

Esempio(linea tangente a una curva parametrica):

Siano x(t), y(t), (6) € RIt].. Allora

r(0) = (CM, u(1), 0) R+ R do)


E5

è una curva parametrica € (o un puntose tutte le funzioni sono


costanti).

Se (E5) non è un punto,allora la forma parametrica della linea tangente a


C in t= lo è

L(t) Et
= r(t9) +
tt, (TI010)
= (La)d Ly),d Èd (E6)
E
"Tt presupposto
Illustrazione: r(t)=(1-42,2t,1+#°), to =1 nascosto
r'(t0) #0
r'(t) = (-2t,2,2t), = r(1) = (-2,2,2)
r(1) = (0,2,2)
L(t) = (0,2,2) +t(--2,2,2) è la linea tangente

Integrazione formale di polinomi:

In analisi, imparerete a definire l'integrale di una funzione f(x) in termini di


area (con segno) sotto il grafico di y= f(2)

AY
area>0 y=f(x)

> X

Pagina 6
Fissa un intervallo [a,b]. Per funzioni polinomiali p(x) € R[r], l'integrazione
può essere definita come la seguente mappalineare / : Rx] + R:

n+1 n+1

Esempio: [a,b] = [0, 1]


/ n qu+i qnt! 1
a" de = _ =
0 n+tl n+1 n+1

1 1 1 1
/ (1+x+22 +23) de = 1+35+3t]

Esempio: [a,b] = [-1, 1]

1 qutl (-1)+1 2 n pari


/ x" de = DI A1
1 nt nt 0, n dispari

Area=2) VA
1) =1
J, ldax =2
Uni
> X
-1 1

fra segno |A n

2
A causa dell'interpretazione (o definizione) dell'integrale come area, segue che
y y= f°()
J PEd>o LA .
b

i b

a meno che f non siail polinomio zero. (Oppure a= , nel qual caso I è
sempre zero)

Attenzione: Definire la differenziazione e l'integrazione dichiarandoi loro


valori sui monomifunziona solo perché l
(a) La differenziazione e l'integrazione sono operazioni lineari.
(b) I monomi formano una base di R[x]
Torneremopiù tardi sull'idea di base.

Pagina 7
La geometria dei vettori

Problema: Comecalcolare l'angolo tra due vettori in R" ?

Siano a e » vettori che generano unpiano.

Legge dei coseni: Siano A, B, C rispettivamente


la lunghezza dei vettori a, b, c. Allora:

C? = A° + B° — 2AB cos(0)

Figura 1

Problema secondario: Come calcolare la lunghezza del vettore x= (x1,...,%n)?

(11, 2) (b) x = (11,92, %3)


(a)

pose
ri

TI

y= (11,12,0) >
r=(x1,%2) = (2) = Vat+
t( dl)
t(y) = /x7 + x3

e (4)
Ca) = /x7+x3 +23

Per induzione: La lunghezza x=(1,...,,) uguale

el= yet +a5+ +08 (E1)


Torniamo alla legge dei coseni: (Figura 1)

a=(a1,...,Gn), b=(bi,....bn) = c= (br —@1,...,bn — Gn)

n (E2)
ll? =) aj 6P=Y di (cl? = (b;- a)?
j=1l j=1 j=1

Pagina 1.
Quindi:

(el? — |a}? — ||? =Y (6; — aj)? - aj — bj = > -2a;b; (E3)


j=1 j=1

Per la legge dei coseni: |c|? = |a]? + |b|? — 2|a||b| cos(@)

=> Je? — Jal? — ||} = -2Y a;b; = —2|a||b] cos(0)


j=l
n

> Y a;b; = |a||b] cos(9) (E4)


j=l

Chiamiamo (@5)=)_ a;b; il prodotto scalare a e ».


j=1

Area di un parallelogramma:

u Area = A = |u||v|sin(0) = A? = |u|?|v|? sin? (0) = |u]?|]v|(1 — cos?(0))


i [tu] sin(0)
9! — A°= |u|?|o]? — (7,0)?

(2)

Se u= (a,b) e v=(c,d) troviamo che

A? = |u|?|o]? — (u, 0)? = (ad — bo)? (E5)

Se M è la matrice con le righe u e v, (E5) diventa

a bd
| det(M)| = |det (° d) | = |ad — bce| = Area del paralleogramma (E6)

Proprietà del prodotto scalare

Siano a,b, ce R” vettori e A€R un scalare. Allora,


(A1) (a+b,c) = (a,c) + (b,0), (Aa,c) = M(a,c) (linearità)
(A2) (a,b) =(b,a) (simmetria)
(A3) (a,a) 20, (a,a)=0 «> a=0. (definita positiva)

Le proprietà (A1), (A2) e (A3) seguono algebricamente dalla formula


per (a,b) senza ricorrere alla geometria (ad esempio la legge dei
coseni).

Il teorema di Pitagora e la legge dei coseni danno (E2) e (E4):

(a,b) = |a]|b| cos(@), dove per ogni vettore w: |w| = (w,w)

Pagina 2.
Esempi: Trova l'angolo tra
(i) u=(1,1,0), v= (0,1,1)
(i) u=(1,-1,0), v=(1,1,1)
(ii) u=(1,1,1,1), v=(1,1,1,0)

_ (uv) ___(MO+MDA+(001) 1 _T
D 00883 al] — rx è 773
s _ (uv) _ (D() + (D(-1) + (0)(1)
(11) cos? = e FCI VIET) = BA =>
__0 _, 7/2
#=

Giù 97 lui vava > "76


ses _ (uv) Cl 3 na v3 _T

Ortogonalità

w|9
Due vettori non nulli u e v si dicono ortogonali se e solo se l'angolo tra u e v è
Equivalentemente,
(u,v) = 0, (u,v#0)

Esempio: «= (1,1,1), v=(1,2,-3) sono ortogonali

Disuguaglianza di Cauchy-Schwarz |

In questa sezione, usiamo solo le proprietà (1)-(3) del prodotto scalare.

Siano a e b vettorie teR unscalare. Sia

S(t) = (at + b, at + b)
Allora, per proprietà (3), per ogni *,

f(t) 20 (E7)

Per proprietà (1) e (2),

Ft) = (a, a)t? + 2(a,b)t + (6,5) (E8)

Per la formula quadratica, se At? + Bt+C > 0 allora

B° - 4AC <0 (E9)

Siano A=(a,a), B=2(a,b), C=(b,b). Allora, le equazioni (E7)-(E9)


implicano che

4(a, b)? — 4(a, a)(b,b) < 0


Equivalentemente,

(a,b) < Jallbl, Jal=(a,a)!?, |b| = (b,b)!? (E10)

L'equazione (E10) è chiamata disuguaglianza di Cauchy-Schwarz.

Pagina 3
Disuguaglianza triangolare: Siano u, v. vettori allora |u+ | < |u| + |v]

Geometricamente, questo è solo l'affermazione


che la sommadella lunghezza di qualsiasi due lati
di un triangolo è maggiore della lunghezza del lato
rimanente.
utv

Disuguaglianza di Cauchy-Schwarz => Disuguaglianza triangolare:


Dimonstrare:

|u+ vu) = (u+v,u+v)= (uu) +2(u,0) + (0,0) = |u]? + 2|u]|v] cos? + |v|?

Ricorda che cos? <1. Quindi,

|u+ 0]? < ul? + 2]u]|o] + |e]? = (lu| + |o])?


=> |u+o|< ]|u|+ |]

Come volevasi dimostrare

Prodotti scalari su spazivettoriali|

Sia V unspazio vettoriale reale e


():VxV4R (E11)
un funzione che soddisfi le proprietà (A1)-(A3). Allora, la disuguaglianza
di Cauchy-Schwarz è valida per V, perché la dimostrazione della
disuguaglianza di Cauchy-Schwarz dipende solo dalle proprietà (A1)-(A3).

La dimostrazione della disuguaglianza Triangolo dipende solo dalle proprietà


(A1)-(A3), e quindi vale anche per qualsiasi spazio vettoriale reale dotato di
una funzione (E11) che soddisfa le proprietà (A1)-(A3).

Definizione: Un prodotto scalare su uno spazio vettoriale reale V è una funzione


(E11) che soddisfa le proprietà (A1)-(A3).

Esempio: T è un insiemefinito.

(f,9)=) f(b)g(M) (E12)


teT
è un prodotto scalare su R! = {funzioni 4:T7 + R}:
(AL) (f+9,h) = (F6)+9(0))A(6) =D (A) + g(0A(1) = (Ph) +(9,1)
teT teT

(42) (9:)=d_ 90/0 = fg) = (1,9)


teT teT
(A3) (f.9)=)} ft) > 0, (f.f)=0 = f(t)=0 perogniteT
teT

Pagina4.
Esempio: T= ivertici di un poligono PC R?.

(-1,1) (1,1)

f(2,y)=x, g(a,y)=y

(-1,-1) (1-1)

(f, 9) = f(1, 1)g(1, 1) + f(-1, 1)g(-1, 1) + f(1, -1)g(1, 1) + Î(1, -1)g(1, 1)

= (D(1) + (-D(1) + (-1)(-1) + (1)(-1) =0


Allora, f e g sono ortogonali.

Esempio: Sia [a,b] unintervallo (a 7 b). Allora,

(1.9) = f {oo de
db

(f,9) è un prodotto scalare su R[x]:

(AI) (f+9, = f (+9) nee)de= f f@ )h(&) da


- [sondust g(0)h(2) de = (Sh) + (9.1)
(A2) (c/,9) = / cf(2)g(e) de = è / {@y(1) = (1,9)
a

(f,))=0 «> {=0


b

(A3) 4.D= f Pa)de>0,


Nota: Questa costruzione funziona anche perlo spazio vettoriale delle funzioni
continue (o anche leggermente discontinue) su [a,b]. Questo è molto importante
nella teoria delle serie di Fourier.

Esempi:
1 x2 1

[a,b] = [-1,1] => (2,1) -| Wa 3 , =0

1
[a,b] = [0,1] => («,1) -J (a)(1)dr = 5 so 5
21 H\, = H(b) — H(a)

[a,b] = [1,1] = n= f 1da = x], =2

y A

VV > x
1 x

0)=[-1,1, @1)=0 [a,6]=|0,1), (c,1)=} (ab = [LI (41)=2

Pagina 5.
Esempio: Dopo aver imparatol'integrazione per parti in analisi, sarete in grado
di dimostrare la seguente formula molto utile

(9) + (1,9) = 1096) — Sa)g(a)


per il prodotto scalare (/19)= fl S(2g(e)da
Illustrazione: Caso f=g

2f,1)= (1,1) +(P.S)=P0)- Pa)


oppure (fs) =3(1°()- /?(0)).
Questo è collegato alla conservazione dell'energiain fisica.
Lezione, Sistema di equazioni(parte 1)

Sistemi lineari e mappe lineari

Ricordiamo quanto segue dalla lezione 1: Siano (fi,...,fx :R"+R funzioni. Allora,

VS fa) = {r ER" |fi(e) = fo(e) == fa(e) =0}

Il sistema di equazioni V(fi,..., fx) Sidice linearese (e sole se) ogni funzione ha
la forma

fi(c1,...,%n) = (> 002) — le


£=1

dovei coefficienti e e de sono costanti. Un sistemalineare si dice omogeneo se


(e sole se) ogni x =0. Altrimenti, si dice che il sistema lineare è disomogeneo.

Se V(fi,..., fx) è un sistemalineareallora

V(hi, ve. shk), hi(c1, ‘003 Cn) = fi(c1, ...13Tn) _ fi(0, 00094 0)

è un sistema lineare omogeneo, che è chiamatoil sistema associato di equazioni


omogenee. Ogni sistema lineare omogeneo hala soluzione
(0,...,0) (El)

Avendointrodotto il concetto di mappa lineare, possiamo ora riformulare la nozione


di sistema di equazioni lineari come segue: La funzione,

L(c1,...,%n) = (ha(&1,--.,%n), (11... Cn) RO + RÎ

è una mappalineare da R” a R* Questo segue dal fatto che ogni funzione componente

hi(x1,...,%n) = @G1%1+:+Gintn :R"+ R

è una mappalineare. Poiché f(x) = h;(x) + è; abbiamo che

V(fi.--..fn) = {rx € R"|L(2e)=b}, b= (b1,...,0k) (E2)

In generale: Siano U e W spazivettoriali e f :U + W sia una funzione. Allora

V(S) = {ue U | f(u)= 0} (E3)


Allora V si dice che è un sistema di equazioni lineari se
S(u) = L(u)— b
dove L è una mappalineare e bd è una costante, quindi

V(Î) = {ue U|L(u)=b} (E3')

Pagina 1
Esempio: Siano U= Rx), W=R%, L:U4+R3, L(p)=(p(1),p(2).p(3))

Ricordiamo che L è una mappalineare perché:

(a) p, g € Ra] = L(p+9)=((p+ (1), (p+9)(2), (p+9)(3))


= (p(1) + g(1), p(2) + g(2), p(3) + 9(3))
= (p(1),p(2), p(3)) + (g(1), a(2),9(2)) = L(p) + L(9)
(b) pe Re], ceR = L(cp) = ((cp ) (1);
) (cp)(2), (cp)(3) )
(cp(1 ) cp(2), cp(3)) = c(p(1). p(2), p(3)) = cL(p)
= (cp(1).
Il sistema lineare

V(L)={pe Rk]|L(x)=0}
è solo l'insieme dei polinomi che sono nulli in «= 1, x =2, x =3. Inaltre parole,
pe V(L) seesolose (e-1), (2-2), (2-3) sonofattori di p.
Quindi, .
V(L)={(r- De —2)(x —3)g(e) | g(7) € Ria]}

[La struttura delle soluzioni di un sistema lineare |

In analogia coni sistemilineari di equazioni in R”, un sistema lineare

L(u) = b (E4)
si dice omogeneo se b= 0 . Altrimenti, il sistema lineare è disomogeneo

Il sistema lineare
L(u)=0 (E5)
è chiamatoil sistema omogeneo associatodi (E4).

Proposizione: Se u' è una soluzione di (E4) allora ogni soluzione di (E4)


ha la forma u+u' dove u è una soluzionedi (E5).
Dimostrare: Supponiamo che «' sia una soluzione di (E4) e che v sia
una soluzione di (E5). Allora,

L(u)=b, L(u=0 => L(u'+u)=L(u)+L(u)=b+0=b


. . /, x . ° è .
Quindi, + è una soluzione di (E4). Viceversa, supponiamo che
r H . °
u, u sonosoluzionedi (E4). Allora,
L(u" — u')= L(u")- L(u')=b-b=0

Quindi, «= ”— u è una soluzione di (E5) tale che u” = u'+ uu.

Pagina 2.
Esempio: Siano U=Re],, W=R8, L:U+R?, L(p)= (p(1),p(2),p(3))
Trova tutte le soluzioni del sistema lineare L(p) = (1,3,6).

Nell'esempio precedente, abbiamorisolto il sistema associato L(p) = 0.


Abbiamo trovato che le soluzioni erano:

{(®- (e — 2)(e — 3)a(2) | g(x) € Rfe]}


Per trovare una soluzione di L(p) = (1,3,6), possiamo usare l'interpolazione
di Lagrange.

Nel nostro caso particolare, questo è stato fatto alle pagine 4 e 5 della lezione 5.
Il risultato fu:
p(r) = 3r(r+1) + p(1)=1, p(2)=2, p(3)=6
Perciò, \
L(f) =(1,3,6) > f(x) = 3r(e+1)+(c- De -2)(r-3)g(2), g(e) € Rig]

Matrici:

Una matrice A n per m (disolito scritto n x m) è una tabella rettangolare


di numeri che ha n righe e m colonne:

da11 012 * Um
A=
Ani An2 "° Anm

Esempio:
-- 1111
A=f|1 2 4 8 (A è una matrice 3x4) (E6)
139 27

Una matrice quadrata è una matrice che ha lo stesso numerodi righe e colonne.

Una matrice Vandermonde è una matrice quadrata della forma:

1 x i an!
2 nol
1x2 23 19 (V è una matrice (E7)
v=|1lo cx eo... at! quadrata)

1 e, am

dove 1;--.:%m sono numeri.

Pagina 3.
Spesso scriviamo A (a;;) dove a;; è la voce che apparenellai'th riga
e j'th colonna di A.

In particolare, questo ci permette di specificare una matrice dando una formula


per dij.

Esempio: La matrice (E6) è data dalla formula

A= (4;;), a =, 1<zi<9, 1<zj<4

La matrice (E7) è data dalla formula

V= (vj), Vij = al, 1l<i,j<m

Esempio: Determinare la matrice 3x4 data dalla formula A= (a;;), @ij; = ij

123 4
A=]|2 4 6 8
3 6 9 12

Vettori di riga e colonna

R” è il prodotto cartesiano Rx-.-xR={(x1,...,%n)|%1,-.-;tn ER}

Un vettore riga di dimensione n è una matrice n x 1:

(ci © n) Esempio: (1 2 3)

Un vettore colonna di dimensione m è una matrice 1xm:

ZLI 1

12 Esempio: 2
: 3
Lm

Naturalmente possiamo pensare a un elemento di R” come a un vettore riga


di dimensione n o a un vettore colonna di dimensione n usando le mappe:

TI
L2
(cn. tn) (21 ca Tn), (11... En)

Cn

Tuttavia, come matrici, i vettori riga e colonna sono cose diverse, tranne nel
caso 1x1.

Una matrice 1x1 non è la stessa cosa di uno scalare. Questo diventerà chiaro
quando definiremo la moltiplicazione di matrici in generale.

Pagina 4
Moltiplicazione sinistra di una matrice nxm e di un vettore a colonne di dimensione m

Sia A una matrice nxm e v unvettore colonna di dimensione m. Allora,


Av è il vettore colonna n dimensionale ottenuto come segue:
——_—_—_—__ìò>>
Q11. 012 ©" dim VI CI
mM
a21 a22 ©. 02m V2 c2
Av=|: CC.
: : :
=:
:
=)
Pri
Uk
An An2 ve Anm Um Cn

Un mododi pensare a questa formula è che


CI
Ca
Av= . |» ci = (d;, 0)

Cn

Dove d@; è l'iesima riga di A, pensata come un elemento di R"° e è è v pensato


come un elemento di R”.

n
Esempio:
111 1\(} 1-141-1 0
124 8 1 =|1-2+4-8 =| -5
139 27 21 1-3+9-27 —-20

[La forma matriciale di un sistema lineare

Sia

L(x1,...,%m) = (G121 +-+ QimCm, d%1 + + domEmy > Gna+ + Gnm®m)

anche un vettore
di colonne 1in R”° anche un vettore di colonne in R”

Allora,
Gai d,2 © dm TI
a21 422 © 42m T2
L(x1,..., Im) = .

Anl An2 vo Unm Tn

A : matrice nxm x : vettore collonne

Quindi, pensando agli elementi di R"” come vettori colonne,il sistema lineare
L(x)=b può essere scritto come
Ax=b

Questa è chiamata la forma matriciale del sistema lineare.

Pagina 5
Esempio: Scrivi il seguente sistema di equazioni in forma di matrice.

xr+x2+x3+%z4=1 LI
L11111 x 1 (E8)
T1+2x9+4x3 +8x4=2 -—2 124 8 va = |2

| Sistemi lineari, forma a matrice aumentata:

Il sistema lineare Ar = è spesso scritto nella forma abbreviata (A |b)


dove la barra verticale è usata per separare la matrice A dal vettore di
costanti b.

Esempio: L'equazione (E8) diventa

111 1 1
124 8 2
139 27 3
D@_

A b

Matrici Saclini:

Sia A una matrice qualsiasi. Per qualsiasi riga R di A, chiamiamopivotil primo


elemento non nullo della riga RK. Una matrice a scalini è una matrice che ha la
seguente proprietà: il pivot di ogni riga è sempre strettamente a destradelpivot
della riga precedente.

101:
o 00
DO 2:
00
0 5
4

EAT 7

ì pivot i pivot

Non è una matrice a scalini Una matrice a scalini

In particolare, se A è una matrice a scalini, allora ogni riga zero di A si verifica


nella parte inferiore di A.

0 dÈ 1 Una matrice a scalini.


00 0 Ha duepivote le righe zero nella
NI parte inferiore della matrice.

Pagina 6.
| Questo algoritmo è facile da usare e
da capire, ma un po' disordinato da
G scrivere.
Risolvere Ax=b per A una matrice a scalini. |

Se A è una matrice a scalini, possiamo risolvere Ax = d lavorandoall'indietro dal


fondo della matrice aumentata (A4|b).

Passo 1: Se (A|b) contiene unariga della forma (0---0|]0#0), fermatevi.


Nonc'è soluzione.

Infatti, tale riga corrisponde a un'equazione della forma

0x1+0xz2+-:-+0xn=5, b#0

Notazione: Sia A= (a;;).


Siano A41=(a1 ©: @in);--.:A4k = (agi --- akn) le righe non nulle di A.
Sia a; = a;p; il pivot di 4;

Passo 2: Usandol'ultima riga Ax, si ha

tp, = (0%)! (» - >, ven)


l>PE

Passo 3: Allo stesso modo, usandola riga A,_;, si ha

1
Tp, = (Qk-1) bi1 > A(k_1)0TL
l>Pk-1

Elimina %,, usando l'equazione trovata nel passo precedente.

Passo 4: Applicare lo stesso metodo in sequenza alle righe Ax-2, Ak-3,..., Al

Il risultato dell'algoritmo:

Chiamiamo {xp,,...tp,} le variabili dipendenti.


Chiamiamole variabili rimanenti variabili indipendenti.

L'algoritmo descritto sopra produce una formula per le variabili dipendenti


in termini di variabili indipendenti.

1121 1 1121 |1
Esempio: A=|0 0 3 4], 6=|2), (4|jb=f[0 0 3 4 |2
0 002 4 0002 |4
Passo 1: (A|b) non ha righe della forma (0 --- 0|5#0).
Passo 2: L'ultima riga diversa da zero di A dà 2x,4=4 => xr4=2.
Passo 3: 3x3 +4r4= 2, z4=2 => x3=(1/3)(2-(4)(2)) = -2.
Passo 4: x1++x2+ 2x3 +x4=1, x3=-2, x4=2 = ax;=1-x2-2(-2)-(2)=3- 2

LI 3- Co

Allora: |®2 = "3 dove 2 è la variabile indipendente e 1, 3, £4 sono le


XL _ . "1: e .
È 9 variabili dipendenti
4

Pagina 7.
Lezione, Eliminazione gaussiana e Sottospazi.

| Eliminazione Guassiana: |

Input: Una matrice aumentata (A | b)


Output: Una matrice aumentata (A' | 5’)tale che
(i) A' è una matrice scalina.
(ii) I sistemi lineari A'x =e Ax =b hannole stesse soluzioni.

Ricordiamo dalla lezione 1 che le seguenti mosse di Gauss non cambiano


l'insieme delle soluzioni del sistema lineare (A | bd):

(1) Aggiungere un multiplo di una riga di (A | 5) ad un'altra riga.


(2) Moltiplicare unariga di (A | 5) per uno scalare non nullo.
(3) Riordinarele righe di (A |b).

Psuedo Code

Input M =(A|b) matrice aumentata con R righe e C +1 colonne


Variabili r, s, t (interi)

Procedure:

trovapivot (M,r,c)
Restituisce il più piccolo è >r tale che M,;. #0. Se non c'è un tale f , restituisce -1.

elimina (M,r,c)
Usandola regola 1, rendere tutte le voci della colonna c di M sotto la riga r zero
aggiungendo un multiplo adatto della riga r di M.

eliminazionegaussiana (M, R,C)


vo < C': Forse dovrai lavorare sull'ultima colonna.
r=c=1 < r< R- 1:L'algoritmo finisce quando si raggiunge l'ultima riga.
while ( (f<R_1)A(c<0)) La colonna è zero in corrispondenza
{ t= trovapivot(M,r,c) e sotto la riga r di M. Spostare una
Se (t è uguale a -1) allora aumentare c di 1 colonna a destra.
Altrimenti
{ Se (t # r) allora cambia le righe r e t Dobbiamo scambiare le righe
elimina (M, r, c) Avendoeliminatole voci sotto la riga r
aumentare r di 1 nella colonna c di M, spostiamo una riga
aumentare c di 1 in basso e una colonnaa sinistra.
}
}

Esempio: G = pivot

11 |1 I)l 1 |l 11 |l
124 [3] =_|00 3 |2] —=__ [00 3 |2
139 |6 0 28 |5 003 1
Esempio:

Î)1 11 |1 Oi 11 DI 111
ili] — (Dovo > |0Q 0 1 |0
1212 |1 0g 01 0000 |0

| Algoritmoperrisolvereil sistema lineare Ax = :

(a) Applicare l'eliminazione gaussiana alla matrice aumentata (A[b) per


ottenere (A'|b').
(b) Applica l'algoritmo dato nella lezione precedente per risolvere A'x=D'.

Esempio:

a
124]|3] <- I)
002 |1
139 1/6

Risolvere lavorandoall'indietro dall'ultima riga:


1 1
2x3 =1 = 2333 | tv +3v3=2 > 2233 | q1+x2+r3=1 = 2;=0

Esempio:

1111 1111 o
1111 4]|1}) <-[0 © 0 1 |0 Variabili dipendenti: 1, x2
1212 )|1 000 0 |0 Variabili indipendenti: 3, x4

Risolvere lavorandoall'indietro dall'ultima riga:

xo +x4=0 => x9=-24 X1tro+trg+tx4=1 = “=1- 323

Eliminazione gaussiana per A invece di (A |b) |

L'algoritmo è esattamente lo stesso della procedura per (Ab). Basta rimuovere


l'ultima colonna bd.

Esempio:

2133 ) 21303 )2 1 303


24044 002 -2 -2 002 -2 -2
12355) —? [oo 2 2 2 “lo o 0 0 0
24047 0 0-2 -2 1 000 0 3

2133
00€ -2 -2
2 lo 0 0 0 4
000 0 0

Pagina 2
Sottospazi

Definizione: Sia V_ un spazio vettoriale. Un sottoinsieme U CV e'chiamata un


sottospazio di V se (e sole se):
(A1) «uu eU > u+u €U
(A2) ueU,XA€ER — MueU

Esempio: Se V è uno spazio vettoriale, allora {0} e V_ sono sottospazidi V.


Un sottospazio U CV è detto proprio se U £ V.

Proposizione: Se U è un sottospazio di v, allora le operazioni di addizione e moltiplicazione


vettoriale per scalari su V si limitano alle operazioni su U rispetto alle quali U diventa uno
spazio vettoriale.
Dimostrazione: Il punto chiave è che gli assiomi (A1) e (A2) implicano che le operazioni
di addizione vettoriale e di moltiplicazione scalare su V limitano le operazioni su U.

Esempio: Sia L:U- V una mappalineare. Allora, il nucleo o kernel

ker(L) = {u € U | L(u) = 0}
di L è unsottospazio di U

Infatti:
(A1) u1, us € ker(£) = L(u1+ uo) = L(u1) + L(u2)=0 => ui + ug € ker(L)
(A2) u € ker(L), ce R — L(cu)=cL(u) =0 = cu ker(L)

Esempio: Sia L:U-+V una mappalineare. Allora, l'immagine

L(U)={L(u)|ue U}
di L è un sottospaziodi V.

Infatti,
(A1) V| = L(u1), v2 = L(ua) € L(U) => Vt+tv2o= L(u1) + L(u32) = L(u, + uz) € L(U)
(A2) v= L(u), ce R = cvu= cL(u) = L(cu) e L(U)

Esempio: Se A è una matrice n x m allora

ker(A)= {x € R” | Ax = 0}

è un sottospazio di R”° (anche chiamatolo spazio nullo di A)

Infatti, ker(A) è solo il kernel della mappalineare x € R"° + Ax € R”.

Esempio: Se A è una matrice nxm allora


Im(A)={Ax|x e R"}
è un sottospazio di R”che è chiamato lo spazio delle colonne di A.

Chiaramente, Im(A) è solo l'immagine di R”° sotto la mappalineare x + Ax

Pagina 3
Sia S un sottoinsieme di uno spazio vettoriale V. Allora, lo span lineare

span(8) CV
di S è il più piccolo sottospazio di V che contiene ogni elementodi S.

Nella prossima lezione, definiremo span(.5) nel caso in cui $ possa avere
infiniti elementi.

Per il momento, assumiamo che $S' sia finito.

Sia S={v1,...,Um} e si definisca L:R"” + Vla mappalinearedefinita


dalla formula
L(x1,...: Tm) = 101 +: + CmUm

Allora span(5) = Im(L)

Esempio: Sia A una matrice con righe {v,...,vn}. Allora, lo spazio delle
righe di A, scritto r(A), è span(v1,...,Un).

[Spazi vettoriali a dimensionefinita|

Sia V uno spazio vettoriale. Allora V è di dimensionefinita se (e solo se) esiste


un sottoinsieme finito S C V tale che
span(S) = V posto j'th
Va
Esempio: Siano V = R" e S= {e1,...,en} dove €; = (0,...,1,...,0)
Allora
span(5) = R”

Teorema: Se è di dimensionefinita, allora ogni sottospazio di V è anch'esso


di dimensionefinita.

Esempio: Sia A una matrice n x m., Allora,


ker(A) CR” => ker(A) ha dimensione finita

Allo stesso modo


Im(A) CR” => Im(A) ha dimensionefinita

Infine, r(A) CR” => r(a) ha dimensionefinita

Pagina 4
Sia V uno spazio vettoriale di dimensionefinita e S un insiemefinito tale che

span(S) = V
Allora, S={v1,...,vn} si dice che è una basedi V se (e solo se) ogni elementodi
V. ha una rappresentazione unica della forma:

vas CU +-+ CnUn

Esempio: Siano = (1,0), v2 = (0,1), v3= (1,1). Allora {w,v,} è un base di R?


perché
(11,2) = Cv) + Cqua (>> CI = 1, Co = Xx9

Invece, {v1,v2,03} non è un base di R? perché

(1,2) =v1+ 209 = v2 + 03

Infine {v:} non è un base di R? perché span(v;) #R°.

Algoritmo per trovare una base di r(A)

Sia A una matrice nxm. Applicare l'eliminazione gaussiana ad A per produrre


una matrice scalina A'.

Le righe non nulle di A’ sono una base di r(A).

Esempio:
12133 2 1 3 3
4-|24 044 00643 -2 -2
-l1235 5] —[00 DT 0
24047 000 0 0

B={(12133),(00 —-2 —2 -2),(0000 3)} è una base di r(A)

Esempio:

1111 111
A=f{1 111) => [0Q01
1212 0000

B={(1111), (010 1)} è unabasedi r(4A)

L'algoritmo successivo afferma che una base per lo spazio delle colonne si trova
applicando l'eliminazione gaussiana per trovarei pivot, e poi prendendole colonne
corrispondenti nella matrice originale.

Per la matrice A di questo esempio, vediamo chei pivot si trovano nelle colonne
1 e 2. Inoltre, le colonne 3 e 4 di A sono solo copie delle colonne 1 e 2.

Pagina 5
Algoritmo per trovare una base di Im(A) |

Sia A una matrice n x m. Applicarel'eliminazione gaussiana ad A per produrre


una matrice scalina A’.

Diciamo che una colonna di A' è una colonnapivot se contiene un pivot di A‘

Sia {A1,..., Am} a indicare le colonne di A e {A}, ...,4/} a indicare le colonne diA’.
Allora,
B={A;|Aj è una colonna pivot di A' }

è una base di Im(A).

Esempio:

1\2/1\3 2 1 3 3
2\4/ 0 {4 002 -2 -2
4=|1/2\3/5 “malo 0 0 0
2/4 4 000 0 0

1 1\ /3
2 4 ; i
B= 1 .|5 5 è una base di Im(A)
2 0) \7

Algoritmo per trovare la base di ker(A)|

Sia A una matrice n x m. Applica l'eliminazione gaussiana ad A per produrre una


matrice scalina A'.

Ricordiamo dall'ultima lezione che, poiché A’ è una matrice di scalina, abbiamo una
nozione di variabili indipendenti e dipendenti.

Per ogni variabile indipendente x; sia v; la soluzione di A4'x =0 ottenuta ponendo


x, = le tutte le altre variabili indipendenti uguali a zero.

Esempio:

12133 Db 2 È 33 Variabili indipendenti:


_|2 404 4 00 -2 -2 ro. 1
4A=l12355| Woo 0 0 4 Di
2404 7 0 0 0 0 0

Risolvere lavorandoall'indietro dall'ultima riga:

xg=0 Tg = —X4 ri =—-2x9 — 2x4

-2 -2
1 0
xo=l, 2430 = v=| 0 x°g=0, x4g=1= v0= -1
0 I
0 0
B= {v2,v4} è una base di ker(A)

Pagina 6
Sottospazio ortogonale

Sia V uno spazio vettoriale reale con prodotto scalare (-,-):Vx VR.
Sia U unosottospazio di V. Allora

U® = {vw € V | (u,v) = 0 per ogni u € U}

è un sottospazio di V. Infatti:
a
a) veUt + (v,u)=0 forallueU
weUt — (w,u)=0 for allueU
Perciò
(v+w,u)=(v,u)+(w,u)=0+0 for alueU

e quindi v+w € U.

(b) veUt,ueU,cER = (cu, u) = c(v,u)=0 = cve Ut.

Esempio: veR3, 040 + (Ru)! è il piano passante perl'origine perpendicolare a +.

v= (1,1,1) => (Ro) = {(x,y9,2)|x+y+z=0}

In generale, se ve R”,v#0 allora (Ru)! è l'iperpiano passante perl'origine


perpendicolare a + .

Esempio: Sia V lo spazio vettoriale dei polinomidi grado inferiore a 3 nella variabile x,
dotato del prodotto scalare
1

(f.9) = /S(2)g(2) d.de


Sia v=l+r+2x?, Allora,
1
2
(a+br+er,1+2+2)= / (a+ br + ca°)(1+ + 2°) de = += (200 + 50 + 8c)
1

Perciò, (R(1+x+x)} = {a+bxr+ cx? | 200 +50 +8c=0}.

[Algoritmo per trovare il complemento ortogonale: |

Input: Una base {a1,...,ax} per un sottospazio U C R°.


Output: Una base per il complemento ortogonale U* di U rispetto al prodotto scalare
standard su R” : (u,v) = &101 +-+ &nUn-

Passo 1 : Scrivi ogni come a; un vettore di riga (a; a; +-+ din) rispetto alla base
standard di R”.
Passo 2: Sia A la matrice compostadai vettori di riga costruiti nel passo 1.
Passo 3: U* è il kernel di A sotto l'identificazione

VI

€ ker(A4) & (01,...,06n) ER"

Pagina 7
Lezione: Span lineare, Indipendenza lineare, Base, Dimensione

Lemma: Siano U e U'sottospazi di V. Allora UnU'è un sottospazio di V.


Dimostrazione:
(i) un, un € UNU! => ui, un €U e ur, ug EU!
u,, un €U = u+u, €U (perché U è un sottospazio)
un, uo €U' => u+us eU' (perché U' è un sottospazio)

Quindi u + uo €UNU'

(ii) ueUNU' = ueU e ueU' = cueU e cueU' > cueUNU'


Come volevasi dimostrare

Più in generale, l'intersezione di una collezione arbitraria di sottospazi di Vè


anche un sottospazio di V per lo stesso argomento.

Lemma: Sia A un insieme. Per ogni a € A, sia U, un sottospazio di V. Allora


anche
W= () Ua
aEA
è un sottospazio di V.
Dimostrazione: Un esercizio per gli studenti.

Definizione: Sia 6 un sottoinsiemedi uno spazio vettoriale V. Sia {Uan |a € A} |Attenzione: V è un


l'insieme di tutti i sottospazi di V che contengono S. Allora, sottospazio di V.
Il caso span(S)=V
span(.5) = NaeA Ua è importante.

Nota: In termini semplici, span(S) è il più piccolo sottospazio di V che contiene £S.

Esempio: Sia S={1,x,x?,...} CR[x]. Allora span(S) = R[r]

Infatti, span(S) deve contenere ogni monomio x” e quindi ogni sommafinita


p(a) = ana” + ---+ ao

poiché i sottospazi sono chiusi sotto la presa di sommefinite.

Esempio: span(0) = {0}

Infatti, {0} contiene 0 e quindi span(5) C {0}. Poiché {0} è il più piccolo
spazio vettoriale (ricordiamo che ogni spazio vettoriale deve contenere 0),
dobbiamo avere span(0)= {0}.

Notazione: Se 5 è un insieme, allora una combinazione lineare di elementi di


S è una sommafinita \, a;v; dove ogni vj; € S e ogni a; e R
—_ Sommafinita significa che è una sommadi un
numero finito di vettori
Pagina 1
Esempio: Sia S={e,...,en} dove ogni componente di €; è zero, tranne
l'iesimo posto, che è uguale a 1. Allora
span(5) = R"

poiché (x1,...,%n) = %1e1+-:-+ nen. Per essere chiari, per n=3:

€13 (1,0,0), e23 (0, 1,0), €33 (0,0, 1)

Per ripetere: Se un sottospazio U contiene l'insieme S allora span(S) CU .

Esempio: S={1,x%,x4,...} = span(S) 7 Rx] perché ® € span(S).

Esempio: Se S= {v,...,un} CV è un insiemefinito che contiene almeno un


elemento, allora Per
N Lo studente deve verificare che
span(5) = {> Uk | 015 +.-30n € R} (E1) questo è un sottospazio di V.

Infatti: Sia Uil lato destro dell'equazione (E1). Allora SCU e quindi
span(5) CU

Viceversa, ogni sottospazio che contiene S deve contenere anche U poiché i


sottospazi sono chiusi sotto la presa di sommefinite.

Osservazione: Finché si lavora solo con insiemifiniti di elementi, si può adottare


(E1) comedefinizione operativa di span, a condizione che si accetti che una somma
vuota di elementi sia zero (cioè span(0) = {0})

Indipendenza lineare

Sia S un sottoinsiemefinito di uno spazio vettoriale V. Allora S è linearmente


indipendente se
(i) S=0 oppure n
(ii) S={v1,...,0n} e ) apvg =0 = a =0, a =0,...,0,=0
k=1

altrimenti, diciamo che Sè linearmente dipendente.

Esempio:
(a) S={(1,0),(0,1),(1,1)} => span(S) = R? perché span((1,0),(0,1)) = R°
Tuttavia, S non è linearmente indipendente perché
(1,0) + (0,1) — (1,1) = (0,0)

Nota: Siano S e S’ sottoinsiemi di un sottospazio U. Se S C S' e span(5) = U


allora span(S°) =U. Infatti: S'è un sottoinsieme di U, e U è un sottospazio.
Quindi span(5°) CU. D'altra parte SC S' quindi span(S) C span(5'). Quindi

U = span(S) C span(5’) CU = span(5’)=U

(continua, pagina seguente)

Pagina 2
(b) S={v1,02,03}, v1 = (1,1,1,1), v2 = (1,2,3,4), v3=(1,4,9,16) è linearmente
indipendente perché
111 0

AU
Low AZV2 tan=0
a3zV3 =
= |!13249 “\
a2
{o
= 0

14 16) \° 0
Applicare l'eliminazione gaussiana:

111 111 111 111

139 0 2 8 002 002


1 4 16 03 15 0 0 6 000

Quindi @101 + 202 + a3013=0 => (a1, 2,43) = (0,0,0)

Per determinare span(v;,v2,v3) consideriamoil kernel della matrice:

1111 1111 11141


A=f|[|1 23 4 2 |0 1 2 3 —<— [0 123
149 16 03 8 15 0 02 6

= ker(A)= span(v4), [8

Perla definizione del kernel, span(v1,v2,v3) consiste nei vettori che


sono perpendicolari a (—1,3,—3,1):

1111 3 (01, 04) 0


123 4 3 = (02,04) = 0

149 16 1 (03, 04) 0

Usando l'elminazione gaussiana, possiamo anche verificare che


(1, 3, -3, 1) É span(v1, V2, v3) :

11 1 -1 -1
124 3 TL 4
139 —-3 . . —10
Omettere i passi
14 16 1 intermedi |_20]
) = nessuna soluzione

(c) S ={01,02,03,04}, va = 01 + 402

Un tale insieme è sempre linearmente dipendente.


span(01, 02,03, 04) = span(v1, v2,03) poiché l'ultimo vettore è ridondante.

(d) S = span(v1, 02,03; 04), vi = (1,1,1,1), vo = (1,2,3,4), vs = (1,4,9,16), v4 = (-1,3,-3,1)


è linearmente indipendente perché

111 1 QI 0
124 3 a 0
a101 + 4202 + a3v3 + a4va =0 => 139 -3 a, = lo

1416 1 a4 0

Pagina 3 (continua, pagina seguente)


Applicarel'eliminazione gaussiana:

111 -1 1111 LL 21
124 3 013 4 013 4
1309 3 © [002 10]? |0 0 2 -10
1416 1 0 06 -10 000 20

Quindi av; + 4202 + a303 + a4v4a = 0 => (01, 03,03,04) = (0,0,0,0)

Per determinare span(vi, v2, 03, v) consideriamo il kernel della matrice:


Li i ; ii l
1111
A= 124 38 416 US 01

2315
8 24
010
0 23
5 ;
1 9 0

04-22 0 0 -10 -10


I
1111
(A))® — Ri
°> Ù ; 5 , > ker(A) =0 => span(5) _ (ker

0 00 20

Definizione: Sia S un sottoinsieme di uno spazio vettoriale V_ Allora S è linearmente


indipendente se (e solo se) ogni sottoinsieme finito di S è linearmente indipendente.

Proposizione: Se S è linearmente indipendente allora ogni sottoinsieme 65’ C S_ è


linearmente indipendente.
Dimostrazione: Un insieme finito di 5’ è un insieme finito di S. Qualsiasi insieme finito
di Sè linearmente indipendente.

In particolare, se S è un insiemefinito non è necessario considerare tutti i sottoinsiemi


di S per verificare l'indipendenza lineare di $S.

Esempio: {1,x,x?,...,} C R[x] è linearmente indipendente.

Sia J={0,1,2,...}

Ricordiamo che un polinomio è dato da una funzione P:J-+ R tale che

{i € J| P(9) 70}
è un insiemefinito. Il monomio x” è la funzione:
. 1 gem
fm:T+R, int) = | 0 ; #m

Se {a®M:,...,x"} C R[x] è uninsiemefinito e


l l
Do aa= Y arltim =0 (E2)
k=1 k=1

allora a,=0, a2,...,ae=0. Informalmente, questa è solo l'affermazione che


il polinomio è zero se e solo se tutti i suoi coefficienti sono zero. Più formalmente,
(E2) è una funzione J + R. Un elemento dello spazio vettoriale R è zero se e solo
se valuta a zero in ogni j € J. Valutando (E2) in {m1,..., mg} si vede che (E2) è zero
se e solo se a] =0, a9, ...,ag=0

Pagina4.
Definizione: Sia V uno spazio vettoriale. Un insieme B CV è una base di V se
(e solo se)
(1) span(B)=V
(2) B è linearmente indipendente.

Esempio: I vettori ei = (1,0,...,0), ez = (0,1,0,...,0),...,en = (0,...,0,1) dati


all'inizio della pagina 2 sono una base di R”.

Esempio: {1,x,x?,...} è una base di R[q].

Esempio: Sia P,[x] l'insiemeditutti i polinomi di grado minore o uguale a n. Allora


P,.[x] è uno spazio vettoriale con base B = {1,...,2"}.

Sia J= {0,1,2...}. Allora

Pylr]={peR"|j>n = p(j)=0}
che è un sottospazio di RY. In particolare, poiché {1,x,x?,...} è linearmente
indipendente, il sottoinsiemefinito {1,x,...,x"} è linearmente indipendente.
Chiaramente span(B) = P,[x].

Esempio: 0 è una base di {0}.


(1) span(0) =0
(2) 4 è linearmenteindipendente.

Esempio: Siano n e m interipositivi. L'insieme Mnxm di tutte le matrici nxm


è uno spazio vettoriale con base
E;; è la matrice nxm perla quale
la voce (i, j) è 1 e tutte le altre
vocì sono zero.

Per essere chiari: (n=m=2)


10 0 1 10 10
E = (0 0) E,3 = (0 i) En = (0 9) E = (0 9)

Esempio: Se S_ è un insiemefinito allora le funzioni


1, t=8
x(t) 7 fi t45

è una base di RS.

Gli algoritmi per trovare una base dello spazio delle righe, dell'immagine
e del kernel di una matrice sono stati dati nella lezione 9.
Ricordiamo che uno spazio vettoriale V si dice di dimensionefinita se esiste
un sottoinsieme finito SC V tale che span(S) = V.

Proposizione: Uno spazio vettoriale V di dimensionefinita ha una base.


Dimostrazione: Il seguente algoritmo produce una base
Nota: Questo
algoritmo dimostra
Sia S un insiemefinito tale che span(5) = V . Sia L(5) l'insieme dituttii che se S è un insieme
sottoinsiemidi S_ linearmente indipendenti. Elenca gli elementi di L(S) in
finito e V = span(5)
base al numero di elementi che contengono e scegli un insieme B conil
allora S_ contiene
maggior numerodi elementi. Allora B è una base diV.
una base di V.

Per definizione, B è linearmente indipendente. Per vedere che span(B)=V


sia s € S— B. Allora, T = BU{s} è linearmente dipendente (per la massimalità
di B), quindi esistono scalari {a € R | t € T} tale che
) a,t=0 Ricorda: gli elementi degli insiemi
teT S, B, T sono vettori
Se as=0 allora B è linearmente dipendente. Quindi, as #0 da cui segue che
s € span(B). Dunque
span(B) = span(S) = V
Comevolevasi dimostrare

Teorema: Ogni spazio vettoriale ha una base.


Dimostrazione: Se non assumiamola dimensionalitàfinita, risulta essere .
equivalente all'assioma della scelta nella teoria degli insiemi. Non preoccuparti
troppodi questo.
Nota: Questo non dice che possiamo trovare una base per un particolare spazio
vettoriale a dimensione infinita, come R[x], solo che non possiamo dare una
dimonstrazione per tutti gli spazi vettoriali senza l'assioma della scelta.

Proposizione: Sia V uno spazio vettoriale di dimensione finita. Sia L un sottoinsieme


linearmente indipendente di V e S un sottoinsieme di V tale che span(S)= V.
Allora, la cardinalità di L è minore o uguale alla cardinalità di S.
Dimonstrazione: Supponiamo che S sia un insiemefinito. Scrivi S={s1,...,Sn}.
Supponiamo che L contenga un sottoinsieme linearmente indipendente L’ con
n+1 elementi {(,,...,041} . Scrivi

li = Q1iS1 + 02552 +-+ GniSn


Ricordiamo che un sistemalineare in n equazioni conn +1 variabili ha sempre una
soluzione diversa da zero. In particolare, il sistema lineare
Qi 0 41(n+1) Ci 0

Ani © An(n+1) Cn+1 0

ha soluzione diversa da zero. Di conseguenza,

cali +-+ Cn+1ln41 = (G1101 ++ + d1(n+1)Cn+1)51 ++ (Gn1c1 +-+ An(n+1)Cn+1)Sn =0

che viola l'indipendenza lineare di L. Contraddizione.


Comevolevasi dimostrare

Pagina 6
Se F è un insiemefinito sia |F| denotare il numero di elementidi F.

Proposizione: Sia V uno spazio vettoriale di dimensionefinita. Allora,


(1) Ogni base di V è un insiemefinito.
(2) Se B e B' sono basi di V allora |B|= |B'|
Dimonstrazione
(1) Poiché Vè di dimensionefinita, esiste un insiemefinito S tale che
span(S) = V. Poiché B è linearmente indipendente, |B| < |S|.
(2) Poiché span(B)= V e B' è linearmente indipendente, |B'| < |B|.
Invertendoi ruoli di B e B’ si ottiene |B| < |B'|. Dunque |B| = |B'|.
Comevolevasi dimostrare

Definizione: SiaV uno spazio vettoriale di dimensionefinita. Allora, la


dimensione di V, scritta dim V è il numerodi elementi in qualsiasi base di V.

Esempio: dimR” =n
dim P[x] =n+1 (polinomi di grado < n)
dim Mnxm=nm (matrici nxm)
dim {0} = 0
Se S è un insiemefinito allora dim Rf |S|
Se H è un iperpiano in R” allora dim H=n-1
Se L è unalinea allora dimL=1

Pagina 7
Lezione: Mappe lineari come matrici.
Forme canonichedi matrici.

Matrice di una trasformazione lineare relativa a una base |

Siano U e V spazi vettoriali di dimensione finita e sia L :U — V una mappalineare.

Sia Bu = {u,...,um} una base di U. Sia By = {u1,...,vn} una base di V.

Poiché By è una base di V, per ogni1<j<m possiamoscrivere

L(u;) = 01j01 + 02302 +-+ + AnjUn

dovela scelta dei coefficienti a;; è unica.

Poiché By è una base di U, ogni elemento u € U può essere scritto

u = Cu, + Cqua + -- + CmnUm

dove la scelta dei coefficienti c; è unica. Quindi,


m m n

L(u=Y c;L(u;)=Y Y} cjaizvi


j=1 j=1 i=1

In particolare, l'coefficienti di v; in L(u) è


nm

) AijCj

j=1
In altre parole, L(u) può essere calcolato come il prodotto matriciale di A = (a;;)
e il vettore di coordinate c di wu:
e
a11 912 *** dm il

Ant An2 v Anm Cm

In questo modo, ogni metodo che abbiamo sviluppato per studiarei sistemi lineari
può essere trasferito agli spazi vettoriali a dimensionefinita, facendo unascelta di basi.

Si può pensare a una base comea un dizionario che traduce dallo spazio vettoriale a R”?

In particolare, se calcoliamoil kernel usando questo metodo, otteniamo un sottospazio di


R”°. Abbiamopoi bisogno di usare la base By per tradurreil risultato in U.

Allo stesso modo, se calcoliamo l'immagine usando questo metodo, il risultato è un sottospazio
di R”. Dobbiamopoi usare la base By per ritrasformareil risultato in V.
Risolvere le equazioni differenziali

Pagina 1.
Esempio: Sia n un numerointero non negativo. Allora, l'equazione differenziale
(chiamata equazione differenziale di Legender)

(1-22) È (2) _ 2,0 +n(n+1)p(x) =0

ha una soluzione polinomiale di grado n.

Questa equazione può essere riscritta come segue:

Ln: Pale] > Pale], Ln@)=(1- 22) i (2), _ 2,0 +n(n+1)p(2)

è una mappalineare, dove P, [x] è lo spazio vettoriale dei polinomi di grado minore
o ugualea n.

Stiamo cercandoil kerneldi L,,.

Per qualsiasi n particolare, possiamo trovare la soluzione usando l'eliminazione


gaussiana.

Supponiamo n = 3. Nel nostro caso U = V = P3[x]. Per semplicità, selezioniamo


la base: {1,x, 2,25}
L3(1)=12, L3(x)=100, L3(x°) = 60242, L3(x3) = 6
La matrice corrispondente è

12) 0_ 2 0
I 0 6
0 000
0 0 00 0

. 4 -3/5 33
Il kernel di questa matrice è span 0 4 span (è da)

I pivot di questa matrice si trovano nelle colonne 1, 2, 3, quindi l'immaginedi


L3 è generata dai primi tre elementi della base {1,x,x?, x}:

Im(L3) = span(1, 2,2)

Rango di una matrice o di una mappalineare |

Definizione: Siano U e V spazi vettoriali. Sia L:U- V una mappalineare.


Allora, il rango di L è uguale alla dimensione dell'immagine di L:

rk(k) = dim L(U)

Se A è una matrice nxm,il rango di A è definito comeil rango della mappa


lineare associata

LA :R" + R", La(x)= Ax

Pagina 2
Lemma: Se U e V sono spazi vettoriali di dimensione finita e L:U + V
è una mappalineare, allora il rango di L è uguale al rango di qualsiasi
matrice A che rappresenta L.

Algoritmo per calcolare il rango di A:

Passo 1: Applicarel'eliminazione gaussiana ad A’ per produrre una matrice


scalini A'.
Passo 2: Il rango il numerodi pivot di A‘.

Esempio:

(Lezione 9, pagina1):

11 1 1) 1 1 1 1) 11 1

139 |6 0 2 8 |5 000 |1
=> rk(A)=3

(Lezione 9, pagina2):

Î)1 111 Oi 11 | Du 11 1]|1


A=[(1111]|1|] > |0 00 0 > [0Q 0 1 |o
1212 |l 0g 01 0000 |0
=> rk(A4)=2

Il rango di una matrice può essere calcolato in molti modi. Infatti i seguenti
sono equivalenti:

(1) Il massimo numerodi colonne linearmente indipendenti.


(2) Il massimo numerodi righe linearmente indipendenti.
(3) La dimensione del sottospazio generato (= span) dalle colonne della matrice.
(4) La dimensione del sottospazio generato (= span) dalle righe della matrice.
(5) Se A è una matrice n xm: rk(A)= dim A(R”)
Dopola nostra discussione sulle matrici invertibili
(6) Il massimo ordine di un minore invertibile di A.

| Forma Echelon vs Forma Echelon Ridotta |

Poiché questo non è un corso basato sulle dimonstrazioni, non verificherò l'equivalenza
di (1)-(6).

Invece, mostreremo che una matrice ha un'unica forma echelon ridotta

Pagina 3
Algoritmo per trovare la forma echelon ridotta

Passo 1: Una matrice è in forma echelon se e solo se è una matrice scalini.

Per trasformare una matrice in forma echelon, applicare l'eliminazione


gaussiana ad essa.

Passo 2: Avendo trasformato la matrice in forma echelon, possiamo semplificarla


ulteriormente usando le operazioni di riga come segue:

(a) Riscala ogni pivot a 1.


(b) Se una colonna contiene un pivot, usate la riga corrispondente per eliminare tutte
le voci soprail pivot.

La definizione di forma echelon ridotta è solo una caratterizzazione dell'output di


questo algoritmo:

Definizione: La matrice A è in forma echelonridotta se:


(1) A è in forma row echelon(cioè A è una matrice scala).
(2) Ogni pivot di A 1.
(3) Se una colonna di A contiene un pivot allora ogni altra voce in quella colonna è zero.

Esempio: Per ridurre il numerodi passi, invece di applicare primal'eliminazione gaussiana


e poi semplificare la matrice risultante, non appena trovo un pivot, lo scalerò a 1 ed eliminerò
tutte le voci rimanenti nella colonna

O 2133 O 2 1 3 3 O 2 1 33
2404 4)_[0 0 © -2 -2| [00 © 11
12355 00 2 2 2 00 2 22
24047 0 0-2 -2 1 0 0-2 -2 1
O 20 2 2 O 2 0 2 2 O 2 0 2 2
_[10 0 © 1 1|)[00©1 1|)_{0 0 11
0 0 0 0 0 0 00 0 0000 ®
0 00 0 3 0 0 0 0 0 0 0 0 0 0
CA:
0 0 10
(5 39;6
0 00 00

Equivalenti per righe

Definizione: Due matrici A, B si dicono equivalenti per righe se una si ottiene dall'altra
usando le mosse di Gauss.

Teorema: Sia A una matrice. Allora, A è equivalente per righe esattamente a una matrice
in forma echelona righe ridotte, cioè la matrice ottenuta applicando adA l'algoritmo descritto
all'inizio della pagina.

Pagina 4
Esempio: Le seguenti matrici sono equivalenti a righe?

1 0 2 102 1141
A=/|{3 -<1 1 B=|{0 2 10 C=|0 1 1
5 +1 5 20 4 0 01

102 102 ) i i
A—>|0 1 5 B [0 1 5 = A, B. equivalenti per righe
0 00 0 00

100 . ) )
C 2) ( 1 ) = C'° noné una riga equivalente ad A o B
0 01

Teorema del rango

Teorema del rango: Sia U uno spazio vettoriale a dimensionefinita e


L:U-+V una mappalineare. Quindi,

dim ker(L) + rk(L) = dimU

Nota: Solo la dimensione di U deve esserefinita.

Esempio: U= P3[x], V = R[x], L(p) _


da

Base per Ps[x] = {1,0,x2,23}, dim P;[x]=4

ker(L) = {polinomi costanti} = span(1), dimker(L)=1


Teorema del rango:

dim ker(L) + rk(L) = dim P;|e]=4 = rk(D)=3

Questo teorema è molto importante, perché significa che date


(o avendo calcolato) due delle quantità

dimker(Z), rk(D) = Im(K), dimU

allora si può calcolarel'altra.

Esempio: Sia W = { A € M,.xn | tr(A) = 0}. Calcola la dimensione di W.


U=Mnxn, L:U4R, LI(A)=tr(A)
c/n
W =ker(L), ceR > tr . =c => ImL)=R
c/n

Teorema del rango


dim W + rk(K) = dim Mnyx = nè, rk(L) = dim Im(L)=1 = dimWan?-1

Pagina 5
LemmaA: Siano U e V spazi vettoriali a dimensione finita e L:U-V una mappa
lineare. Se L(U)=V allora
dim U > dimV
Dimostrazione:
dim ker(L) + dim rk(L) = dim U
Peripotesi,
L(U)=V = rk(L) = dim Im(L) = dim V
Così,
dim ker(L) + dim V = dimU
Poiché dim ker(L) > 0 segue che

dim U = dim V + dim ker(L) > dim V


Come Volevasi Dimostrare.

LemmaB: Siano U e V spazi vettorial a dimensione finita e L:U + V una mappa


lineare. Se ker(L) = 0 allora
dimU < dimV
Dimostrazione: Poiché Im(L) è un sottospazio di V: dim Im(L) < dim V
Per il teorema del rango
dim ker(L) + dim Im(L) = dim(U)

Per ipotesi, ker(L) = 0. Quindi,

dim U = dim Im(L) < dimV


Come Volevasi Dimostrare

Corollario: Se U e V sono spazi vettoriali di dimensione finita tale che dimU > dim V
e L:U-+V è una mappalineare,allora ker(L) # 0.
Dimostrazione: Ricorda che
(Pa Q) > (00) = (CP)
Sia P_la proposizione ker(L) =0. Sia Q la proposizione dim U < dim V

Qualè il significato di ker(L) = 0?

Ricordiamo che una funzione f: A+ B si dice iniettiva se f(a) = f(a') > a=a'

Lemma: Siano Ue V spazivettoriali. Allora, una mappe lineare L : U + è iniettiva


se e solo se ker(L) = 0.
Dimostrazione;
(a) Supponiamo che L sia iniettivo: L è una mappa lineare => L(0) = 0,
Per definizione, se v € ker(L) allora L(u)=0
Poiché L è iniettivo e L(0) = 0 segue che L(u) = 0 implica u= 0,
In altre parole: ker(L) = {0}
(b) Supponiamo che ker(L) = {0}: Assumiamo che L(a) = L(a'). Allora, L(a—a')=0.
In altre parole, a — a’ € ker(L) = {0}. Così a=d/ cioè L è iniettivo.
Come Volevasi Dimostrare.

Pagina 6
[Come dimostrare il teorema del rango? |

61)
Passo 1: Se M è in forma echelonridotta il teorema è ovvio:

(fini)

LN
Poiché M è in forma echelon ridotto, ogni colonna pivot di M contiene esattamente
una voce diversa da zero. Quindi, le colonne non-pivot di M sono combinazioni lineari
di colonne pivot di M. Di conseguenza, Im(M)è lo span lineare delle colonne pivot di
M.

Per costruzione, le colonne pivot sono linearmente indipendenti. Quindi, le colonne pivot
sono una base per Im(M).

Come abbiamo discusso, le colonne non pivot per M corrispondonoalle variabili indipendenti
utilizzate per costruire una base per lo spazio nullo di M.

Talmente, per una matrice in forma echelon ridotta, il teorema del rango è un modo elegante
per dire:

> (numerodi colonne pivot) + (numerodi colonne non pivot) = (numerodi colonne)

Passo 2: Ricordiamo dalla nostra discussione sull'equivalenza di riga che

)
2
ò

Questo esempioillustra due fatti generali:


(a) Le operazioni sulle righe possono cambiare lo spanlineare delle colonne.
(La terza voce di qualsiasi combinazione lineare di colonne di M è zero, il che non
è vero per le colonne di 4A.)
(b) Le operazioni sulle righe non modificano le relazioni tra le colonne della matrice.
(Per entrambe le matrici, il doppio della prima colonna più 5 volte la seconda colonna
è uguale alla terza colonna.)

Notazione: Se A è una matrice con forma echelon ridotta M , diciamo che una colonna
c diA è una colonna base di A se la corrispondente colonna di M è una colonnapivot.
Chiamiamo le colonne rimanenti di A le colonne nondi base.

Per la parte (b), le colonne di base diA sono una base dello spazio delle colonne di A.

Ecco comefunzional'algoritmo per calcolare una base dello spazio delle colonne.

Pagina 7
Isomorfismo

Definizione: Un isomorfismo tra due spazi vettoriali è una trasformazione biunivoca che
sia anche lineare. Gli spazi vettoriali U e V_ si dicono isomorfi se esiste un isomorfismo
da U aV.

Esempi:
(a) L:R"! » P.[a], L(a0,...,0n) = and” + an-10"7 +-+ ao

(b) L:Mnxn + R"", L(E;j) = &mli-1)+j


Eij è la matrice in cui ogni voce è zero, tranne la voce (i,j) che è 1.
{e1,...,€nm} è la base standard di R""

(c) Sia una c:{1,...,n} + {1,...,n} permutazione. Allora,


Lo :R" + R", Lo(%1,...,%n) = (Lo); ---: Lom)

è un isomorfismo che semplicemente riordina le voci del vettore.

(d) Sia S={1,...,n}. Allora,


L:R54 RR", L(a)=(a(1),a(2),...,a(n))
è un isomorfismo.

Teorema: Sia U e V spazi vettoriali di dimensionefinita. Allora U e V sono isomorfi se e


solo se hanno la stessa dimensione.
Dimonstrazione:
(a) Sia L:U-+V un isomorphismo. Poiché L(U) = V segue dal Lemma A pagina 6 che
dim U > dimV
Poiché è iniettivo, segue dal LemmaB a pagina 6 che
dimU<V
Quindi dim U = dimV,
(b) Supponiamo che dim U = dim V < co e che B = {u1,...,un} sia una base di U e
C = {v,...,0n} sia una base di V SiaL:U-V la mappalineare definita dalla
regola
u= au) +-+ nun = L(u)= av) +--- + GnUn
(questo è ben definito poiché ogni « € U ha una rappresentazione unica della
forma u= aju] + --- + @nUn).
(i) L è surjettiva: Poiché C è una base di V, ogni v € V può essere scritto come
v= 101 +-+ @nUn. Quindi L(a1u1 +-+ anUn)= %v.
(ii) L è iniettiva:
L(aju1 +--- + anUn) = @101+-:-+an6n=0 = a1=-:-=an=0
poiché C'è una base di V.

Pagina 8
[Prodotto di spazi vettoriali

Lemma: Siano UeV spazivettoriali. Allora il prodotto cartesiano U x V_ è uno spazio


vettoriale rispetto alle seguenti operazioni:
(a) (1,01) + (u2, 02) = (U1 + ua, vi + 02)
(b) c(u,v) = (cu, cv)
Dimonstrazione: Esercizio per lo studente.

Esempio: R” x R” è isomorfo a R"*" via la mappa lineare

L((21,-.., tn), (Y1,---:Um)) 7 (11,--:,En,Y1:---:Ym)

Lo spazio vettoriale U x V è chiamatoil prodotto diretto di U e V.

Chiaramente,
dim(R” x R”°) = dim(R"*”?)=n+m = dim(R”) + dim(R””°)

Lo stesso vale per qualsiasi coppia di spazi vettoriali di dimensione finita


dimU x V = dimU + dimV

Esercizio: Verificare che dim U x V = dim U + dim V

In relazione a questo esercizio, notiamo che abbiamo le seguenti mappelineariutili:


iy:U>UxV, iy(u)= (4,0),
iv:VaUxV iv(0) = (0,0),
ty :UXxV4U, rnu(u,v)=u,
Ttv:UxVaV, qmv(uv=v

La mappa èîv(risp. iv) si chiama inclusione di U (risp. V) in U x V. Si possono usare per


costruire una base di U x V da una base di U e una base di V. La mappa ru (risp. Tv)
si chiama proiezione da U x V (risp. V).

| La sommadisottospazi|

Siano Ue W due sottospazi di V. Indicando con U +W il sottospazio somma di U e W


dato da:
U+W={u+w|]ueU we W}

Ovviamente abbiamo una mappalineare suriettiva

L:UxW->U+W, L(uuw)=u+w (E1)

| Algoritmo per trovare una base di U+W:|

Peri sottospazi di R”, l'equazione (E1) fornisce un metodo semplice per trovare una
base di U+W . Sia By (risp. Bw) un insiemedi vettori colonna che formano una base di
U (risp. W). Sia M la matrice le cui colonne sono costituite dalle colonne di By e Bw.
Allora, U+W è l'immagine di M, quindi applichiamo semplicemente l'algoritmo per trovare
una base dello spazio delle colonne alla matrice M.

Pagina 9
(identificando R* con vettori colonna tridimensionali
2 per risparmiare spazio)

Esempio
io: U = span((1,1,1),(1,2,4)), W = span((1,3,9),(1,4, 16))

1111 1
1 1 1 1 1 x .
[09 2
3 _ 1 9 è una base di
M=|123 4] 1 4 9 U+W
149 16 00 & 6

U = span((1, 1, 1, 0), (1, 1,0, 1)), W = span((0,0, 1, 1), (1, 1, 1, 1))

1
Ou

uno o

HHWwWW

uo o
Ou

HW OoOrHr
Who
On or
1 è una base di
0 3 U+W
1

Formula di Grassmann: |

dim(U +W) = dim + dimW — dim(UnWw)


Per verificare la formula di Grassmann, usiamo la mappalineare (E1) e
il teorema del rango
dim ker(L) + dim Im(L) = dimU x W = dim + dimW

Poiché L è una mappalineare suriettiva, questa equazione diventa


dim ker(L) + dim(U + W) = dim U + dimW

Infine, Gi av ne |
(u,w) e keorL — u+w=0 > u=-w =?

Di conseguenza, u (e quindi w) sono elementi di UNW. Viceversa, se


ueunw allora
(i) (u,-ueUxW
(ii) (u, —u) € ker(L)
Quindi, ker(L) è isomorfoa UNW via la mappelineare
ue UNW + (u,—u) € ker(L)

Così,
dim(U NW) + dim(U +W) = dim + dim W

Esempio: Tornandoall'esempio precedente, abbiamo

(a) U = span((1,1,1),(1,2,4)), W = span((1,3,9),(1,4,16))


+ dim(Unw)= dimU + dimW — dim(U+W)=2+2-3=1

(b) U= span((1,1,1,0),(1,1,0,1)), W = span((0,0,1,1),(1,1,1,1))


+ dim(Unw)= dimU + dimW — dim(U+W)=2+2-3=1
Nota: Nella parte (a), U e W sono sottospazidi R*, quindi dim(U +W)=3 implica
che U+W è R?. Nella parte (b), U+W è un sottospazio a 3 dimensioni di R*.

Pagina 10
Algoritmo per trovare una base di UNW

Se U il kerneldi una matrice A_{xm e W è il kerneldi una matrice


B nxm allora UNW è il kernel della matrice ottenuta dall'unione delle
righe di A e B.

Esempio: U=ker((1 2 3)), W=ker((1 4 9))

123
UNW=ker (1 4 9)

Algoritmo di Zassenhaus |

Input: Byu={u1,...,un} una base di vettori riga per un sottospazio U di R"”


Bw = {w,,...,w.} una base di vettori riga per un sottospazio W di R”°
m m
Man x
. _ (Bu| Bu un . .
Sia M= (E e una matrice a blocchi.

Applicarel'eliminazione gaussiana a M:
= C. una base di U+W

E—_ D una basedi Unw


«= Questa parte potrebbe non apparire

Esempio: By = {(1,1,1), (1,2,4)}, Bw = {(1,3,9),(1,4,16)}


1
1
1
1

Per verificare che (2 5 11) è un elemento di UN W, risolviamoi sistemi


lineari

1 1|2 1 1|2 1 1 2
1 2 5 > 0 1 3 > Xx,=35 > x, Ci 1 +3 2 _ 5

1 4|11 0 010 1 4 11

1 1|2 11|2\)_ lo 1 1 2
3 4l5| 20 1]-1 =? Ka ) x => 3{3}-{|4]}|=|5
9 16|11 0 0| 0 9 16 11

Nota Importante: Questo algoritmoutilizza una base di vettoridi riga.


Per verificare la risposta usandol'eliminazione gaussiana, dobbiamo
riscrivere il problema usandoi vettori colonna.

(continua, pagina successiva)

Pagina 11
In precedenza (due pagine indietro), abbiamo trovato una base per U + W usando
i vettori colonna.

L'algoritmo di Zassenhaus produce una base di vettori di riga semplicemente elencando


tutte le righe della base per U e W in una matrice e poi applicando l'eliminazione gaussiana
per produrre una base perlo spaziodi riga.

Per vedere che questi due metodi producono soluzioni equivalenti, dovremo semplicemente
controllare che possiamo scrivere ogni elemento di una base in termini dell'altra base.

In teoria, questo richiede di risolvere essenzialmente lo stesso sistema lineare molte volte.
Tuttavia, possiamo risparmiare tempo facendole cose in parallelo aumentandoil numero
di colonne della matrice aumentata:

Passo 1: Trasformare una base di vettori riga in una base di vettori colonna:

1 0 0
Bu+w = {(1,1,1),(0,1,3),(0,0,2)}_ 1 ’ 1 , 0
1 3 2

Passo 2: Scrivere in "parallelo" le matrici aumentate:


1 1 1
Altra base per U + W: 1],[{2],{3
1 4) \9

10 0|1|1|1
1 10|1|2]|3
13 2]1| 419

Passo 3: Applicare l'eliminazione gaussiana in "parallelo"

100|1|1|1 10 0|1]|1|1
11 0|1[2|3] -——|0 1 0|0|1]2 Si potrebbe dividere per 2 per
13 2/|1]419 o o 2]lolol2/ ottenere questo (001001)

1 1 1 1 0 1 1 0 0
1]= (1 2|=|1]+]|1 3]=|1|+2{1]+|0
! ! 4 1 3 9 1 3 2

Pagina 12
Lezione 13, Algebra delle Matrici

Ricordiamo alcuni esempi:

Esempio: Rotazione di 7/2 radianti intorno all'origine in senso antiorario:

(1) -2(0)
0 1

VA N 1
0

7IN
(0)="(1)
-1 0

La matrice di L è (ì 0) (E1)

Esempio: Supponiamo che f : {1,2,3} + {1,2,3} è una funzione 1-1. Sia

1 0 0
€13 0 ’ €23 1 ’ €33 0 (E2)
0 0 1

(la base canonica di R3). Sia A la matrice 3x3 con colonne

(em era e;8)


Allora,

A(e;) = e;(j)

Esempio: Considera le simmetrie dell'insieme {1,2,3} dei vertici di un triangolo


equilatero

1 f(1)=2, f(2)=3, /(3)=1

0 01
A=f|1 0 0 (E3)
_ 0 10

9 3 la matrice di f

Pagina 1
(Esempio, continuato)

(e
|| 100
001 (E4)
i 010

T| la matrice di 9

I
Fine Esempio
_7

In generale, data una funzione

fi{1,...n} > {1,...,n}


abbiamo la matrice associata con colonne

(er) ep) © em), {e1,...,6n} base canonica di R" (E4*)

Date due funzioni


f.g:{1,..n} > {1,...,n}

abbiamo la funzione composta

h(j) = (f°9)(j) = f(g(i)) (E5)


Torniamo a (E3) and (E4): La matrice (E5) della funzione composta sarà

I
0
(E6)
la matrice di Ah

Pagina 2
Vogliamo definire moltiplicazione di matrici tali che per (E3)...(E6):

C' = AB (E7)

In generale, dati spazi vettoriali U, V, W di rispettive dimensioni m, 0, n


e mappelineari
B:U+V, a:VaW (E8)

con matrice B (fx m) e matrice A (n x 0) relativa alle basi B,,, Be, Bn


per U, V, W vogliamo che
C = AB (E9)

sia la matrica della funzione composta «o relativa alle basi B,,, B,.

La formula per moltiplicazione della matrice: |


L

A=(a;), B= (ba), C=(c4) => ca= ) dijbjk (E10)


j=l

Esempio: Per (E3), (E4), (EG):

Esempio: Per (E1), rotazione di 7/2 radianti intorno all'origine in senso

COGI
antiorario:

A vi rt É (4) D\
Lv
e

Esempio: Dalla lezione 6 segue che, rispetto alla base standard di R3


la riflessione sul piano P=4{x+y+2=0} è data dalla matrice

1 1-2 -2 ) 100 701.1)


M=3; -2 1-2] = M°= [0 1 )
-2 -2 1 0 0 ) di, ve P
mR

Vert = ondate ve? \


L°(w) = L°(Au)+L°(0)=Au+v=w

Pagina 3
Matrice di un grafo:

Pittorialmente, un grafo consiste un insieme V di vertici, e un insieme E di collegamenti


tra i vertici:
Vi 4 Vi V) VI Va V3

Vi
V U
5 l v,2 , Vv VU4
V id

ui a G
e U
a va
ig
VU

G1 G2 G3 G4 .

Più formalmente, definiamo un grafo essere una tripla (VE,f), dove

fS:E{(a,y)eVxV]agy}
è una funzione che specifica i punti finali (vertici) dei collegamenti.

Sia V={uv,...,un}. La matrice delle adiacenze di G=(VE,f) è la matrice nxn

1, c’è un collegamentochecollega v; e v; (E11)


A(V,E, f)= (aj), 0, altrimenti

Esempio: La matrice delle adiacenze di G1 è


00000 1
00000 1
a,-|000 001
1 o 0 0 0 0 1 (E12)
00000 1
111110

Esempio: La matrice delle adiacenze di G3 è


O 110
1001

O 110

Teorema: Sia Ala matrice adiacenza del grafo G. Allora,il coefficiente


(i,j) di A” è il numeropercorsidi lunghezza n che collega Vi e Vj.
Dimostrazione: Questa è un'applicazione del principio di induzione.

Pagina 4
Esempio: C'è un percorso di lunghezza 2 che collega v; e v; min G1 per i, j < 6.
Ci sono cinque percosidi lunghezza 2 che collegano vs a se stesso

Vi 111110
111110
V U o |1111 10
7 î 4=]|]i1 11110
% 111110
VI Vz 00000 5
DT

G1

Esempio: Ci sono due percorsidi lunghezza 2 che collegano v2 e v3 in G3, come


mostrato sotto:
vit
V.
2
20 02
°_{0 220
43=|0 220
20 02

U, D__
>>‘

La moltiplicazione delle matrici non è commutativa: |

In generale, composizione delle funzioni non è commutativa (quando definita).


Lo stesso vale per la moltiplicazione di matrici.

Esempio: Torniamo alle (E3), (E4), (E6), fo9#90 f, AB# BA :

f. g: f(g): g(f):
1

; CÒ 1 R

2 37 3 2 35 3
_____->I ______3>3
T—_—__——m
o_o

H__ o °

or

Pagina 5
La moltiplicazione delle matrici è associativa |

Invece, la composizione delle funzioni è associativa (quandodefinita). Lo stesso


vale per la moltiplicazione di matrici.

Esempio: Torniamoalle (E3), (E4), (E6):


1
0 0 1\ /1 00 010 2
(BA)B=DB={0 1 o0){o o 1}=|[0 0 1
100/01 0 100

100\)/0 10 0 10 |
B(AB)=BC=|0 0 1}{1 0 0|)={o0 0 1
o 1 0/00 1 100 2 3
_

f!=(90f)o9g=g90(f09)

Siano A= (a;;)e B= (b;;) due matrici n x m. Allora,

A+B=C, C= (ci;) dove ci; = dij + dij (E14)


Chiaramente:
A+B=B+A (E15)

La Proprietà Distributiva: | Quandodefiniti,

A(B+C)= AB+ AC, (A+ B)C = AC + BC (E16)

Matrici di permutazione, Matrice di Identità |

Una matrice P tipo nxn è detta matrice di permutazione se è la matrice (E4*)


di a permutazione f:{1,...,n} + {1,...,n}, cioè

P=(efa) esa) <<’ e;@)


La matrice della permutazione identità è chiamata matrice identità

10 0
r=|% 10
0 0 1
Si verifica facilmente che se A è una qualsiasi matrice n x m allora

IA= Alm=A

Pagina 6.
Matrici elementari (di Gauss)

Definizione: Una matrice elementare di Gauss è una matrice nxn ottenuta


applicando una singola mosse di Gauss alla matrice identità

Esempio: Per n=2 tipi di matrici elementari sono

(1) Aggiungi un multiplo di una riga a un'altra riga (i ") ;

(2) Moltiplicare una riga per uno scalare diverso da zero (6 ") ;
1 (0 ©)
(3) Scambia due righe (? o)

Proprietà chiave: Sia E la matrice elementare ottenuta applicando una mossa


di Gauss M alla matrice identità n x n. Sia A una matrice n x m. Quindi, EA è
la matrice ottenuta applicando la mossa di Gauss M ad A.

Esempio:

10) ————-Ò _(1 0


0 1 Ra > Ro+2R1 2 1

(1) (110) 8 6)
Lemma: Sia M una mossa di Gauss e M'la mossa inversa di Gauss. Siano E ed E'
le matrici corrispondenti. Allora, EE =FE'E=HIn

Nota: E’ è la matrice inversa di E, chedi solito si scrive E!

Fattorizzazione della matrice

In particolare, Sia A una matrice n x n e Mi,..., Mx le mosse di Gauss necessarie


per trasformare A in una matrice scalina A' utilizzando l'eliminazione gaussiana.

Sia E; la matrice elementare ottenuta applicando M; alla matrice identità n x n.


Allora,
Ey-.-E\A= A'
Perciò, , , vu)
A _ Ei ve. EEA

Pagina 7
1 0 0 0 10 0 0 10 0 0
_ -1 1 0 0 ro=r2+tr1 0 1 0 0 rg=r3+r2 0 1 0 0

A= 0-1 10 0 -1 1 0 00 1 0
0 0 1 1 0 0 -1 1 0 0-1 1

1000
Ta=t4+Fr3 0 1 00 41

lo 01 o| 4 =
000 1

Quindi:

My = {ra=r2+ri}, M2={r3=r3+ro}), M3={ra=r4+r3}


Mi={ra=ra-r}, M3={r3=r3-r2}, M3={ra=r4-r3}
1 000 1 0 00 100 0
;i_|{-1 100 i_|O 1 0 0 ;_|0 1 0 0
= 0 0 10 E, = 0-1 10 L37 00 1 0
0 00 1 0 0 0 1 0 0-1 1

1000 10 00 10 0 0
pi pi pix _ 1100 0 100 010 0
A= EE>EZA = 0 010 O 1 10 00 1 0
0 001 0 0 01 0 0-1 1

Matrice trasposta

Ricorda che la matrice trasposta A' di una matrice A è la matrice ottenuta


scambiandole righe con le colonne diA.

Segue per calcolo diretto utilizzando la formula (E10) che

(AB)! = BLA

Matrice Definita Positiva |

Sia A una matrice n x n tale che A° = A. Allora A sidice una matrice definita
positiva se (e sole se)
ul Au>0

per qualsiasi vettore colonna n-dimensionale diverso da zero u.

Esercizio: Se A è definita positiva allora la formula


(u,v) = ul Av

definisce un prodotto scalare su R” (spazio dei vettori colonna n-dimensionali).

Pagina 8
Una matrice A tipo n xn si dice dominante diagonalmente per righe se e solo se

lai > DL, laigl, i=1,...,n


jFi

Teorema: Sia A una matrice quadrata dominante diagonalmente per righe. Se A= A°*
e gli elementi diagonali di A sono positivi, allora A è definita positiva.

Esempio: Se A è la matrice di un grafo G, allora A= A° Quindi, possiamo ottenere


una matrice definita positiva A= (è;) ponendo

. 1+) lag] i=j


dij = iFj
dij ì # j

Pagina 9
Lezione 14: Matrice inversa, matrici simili

Ricordiamoil seguente.

(I) Siano Re insiemefiniti con lo stesso numero di elementi, e

f:R-5S

una funzione. Allora, i seguenti sono equivalenti:


(1) f è iniettiva.
(2) f è suriettiva.
(3) f è biunivoca.
(4) Esiste una funzione inversa g:5- R tale che

(go PM (90 f)(8)=


per tutti r e R, se S. La funzione inversa è unica ed è indicata /.

(II) Siano U e V spazi vettoriali a dimensione finita con la stessa dimensione,


e
L:U->V

un'applicazione. Allora, i seguenti sono equivalenti: (5) rango(L)


(1) L è iniettiva. = dimU
(2) L è suriettiva. = dimV
(3) L è biunivoca (oppure L è un isomorfismo).
(4) Esiste un'unica applicazione inversa T:V-+U tale che
(ToL)(u=u, (LoT)(v)=v

per tutti ue U, veV. La funzione inversa è unica ed è indicata L'.

Definizione: La matrice identita »xn I è la matrice con coefficiente(i, j)


1 se i=je 0 altrimenti, i.e.:

In particolare, la matrice della funzione identita f:{1,...,n} > {1l,.....n} è IL.


Parimenti, se U ha dimensione n, per qualsiasi scelta di base di U, la matrice
della applicazione identica di U è I.

Pagina 1.
(I) Ricorda che se f,g9:{1,...,n} + {1,...,n} sono funzioni iniettive con rispettive
matrici A, B allora AB è la matrice della funzione composta f(g). In particolare,
se f e g sono funzioniinversa allora

AB = In (E1)

Esempio: Sia n=4,

f(1)=2, f(2)=4, f(3)=1, f(4)=3


Quindi

Un diagramma di f e f7*. La matrice di fe /!

2 2

s(150: p-(0081
0010 0 100

0100 0010

La matrice di f La matrice di f°

Nota: Poiché f(a)=b «+ f7!(a)=b la matrice di f° è la trasposta A* della


matrice A di f:
A= (a;) = A° = (a;;), Oij = dji
In generale, diciamo che una matrice A_nxn è ortogonale se e solo se

AA'= I, (E2)

(II) Siano U e V spazi vettoriali di dimensione n, e L:U-+V un'applicazione con


inversa L!:V-+U. Sia By una base di U e By una base di V._ Sia A la matrice
di L rispetto a Bu e Bv. Sia Bla matrice di LL! rispetto a By e Bu. Allora

AB=In (E3)

Esempio: Rotazione di 7/2 radianti intorno all'origine in senso antiorario:

"a
()
50
Pagina 2.
| 0) 2-0)
La matrice di L è (per la base canonica di R?)

i(î 0)
0 1

Rotazione di 7/2 radianti intorno all'origine in senso orario è la inversa di L :

0
1
DS B (° )) Nota: A è ortogonale.

(0) a0=(1 0) (A 9)-(0 1)


Definizione: Se A e B sono matrici nxn tali che AB=1,, diciamo che B
è la matrice inversa di A.

Una matrice A_ nx n ha una inversa se e sole se A ha rango n. Se una matrice A


ha una inversa, essa è unica e denotata A°.

Nota: Se A e B sono matrici nx» tali che AB=1, allora BA=I,. Lo assumeremo
senza dimostrazione.

Matrici 2x2: Sia

A= (‘ Ù ad — be £ 0

Allora,
arl (‘ DÌ)
— ad-be \-c a
(EA)

Esempio:
12\}_ 1 -2
0 1 _\01

Nota: Questa matrice non è ortogonale.

Procedura per trovare la matrice inversa in generale: Sia A una matrice nxn .
Forma la matrice augmentata (A | In). Applicare le "Mosse di Gauss"
ridurre A alla matrica identica:

Mosse di Gauss _
(A|In) OT n |A)

Pagina 3.
(E5)

CTR
O Suo
SS SD 5 HI
On oo
bit

reni
|

ZSC TN |
10
0 1

lt
9 rn
000

5 DÒ

0010
ioni
Soa |
F\D'

SO
0
0

mM
0

ioni
OH o |3°
0/0
1|0

1|0
O0|1

Hit
ioni
SN |
5 DÒ
—1
0

1
—1

mo
0
0
1

O Ou uo

Tu
x_—____—_—___€&
5 dH°o
1 0

0 0
00
0 1

0
0

0
n
oO î
n

0
0
0
1
s
x_—_____—___€&
|

Il
SS SD Du ta)

|
5
Del
rs=r3+r2

s
si
OSH +
s

ra=r2+2r3
* N
s +
Oui Il e
*
s
Il
ud uada3y;Sui q
| ZSC 2
CTR
5 DÒ

|
01000
0/0 100
0/0 01 0
1 0001
O Suo

|1 000
10 100

0010
-1|0 0 0 1
O Ou uo
0

1000
SS SD 5 HI
5 dH°o
1

On oo
oO
0|0

mo
5 DÒ
reni
TH oi |

1
a!
0 DO I

0
0
1

0
ioni

—1
5 dH°o o |3°

1
a!
oO i
SN |
Esempio:

Esempio:
mio x_—_____—___€&
Po

Pagina 4
x_—____—_—___€&
(Continua)

10 0 0 1000 10 0 0 1000
00 1 -1|0 102 r9g6r3 01 1 1).1 0 0 1
041 1 1|.1 0 0.1 00 1-10 1 0 2
0 0 0 1 0 010 0 0 0 1 0 010

10 0 0 1 000 100 O0|1 00 0


01 1 1/1 0 0 1 ra=—r2 011 1/1 00.1
0 0 1 -1|0 1 0 2 00 1 -1)0 10 2
0 0 0 1 0 010 00 0 1|0 01 0

100 100 0 100 0/1 000


011 1/1 00.1 ra=r2+r3 010 0/|j110 1
00 1 -1]/0 1 0 2 001 1/0 10 2
00 0 1/0 01 0 000 1/0 010

100 0]|1 000 10 0 0]|1 00 0


010 0]|1 10 1 ra=rstra O 100/1101
0 01 1/0 1 0 2 001 0|0 1 1 2
000 1/0 010 000 1/0 010

ci AT

Cambio di base: Supponiamodi avere trovato la matrice A di una mappa lineare

L:U->U

relativa la base B. Supporre che dobbiamo sapere la matrice relative un'altra


base B'. Potremmo trovare la matrice di L relative B' a partire da zero.

Alternativamente potremmo trovare una matrice P "traduzione" dalla base B' alla
base B. Allora, la matrice A' di L relatva a B' sarà

A'=PAP, ie. [L])8 = P_![L]g P (E6)

Per trovare la matrice P siano

B={u1,...,Un}, B'={v1,...;Un}

Allora n
P= (pi;), vi = ) DijUj (E7)
j=1

in altre parole, la i-esima colonnadiP è il vettore coordinate di +v;, relativo a B.

Pagina 5
Esempio: Sia U lo spazio vettoriale di polinomi grado minore o uguale a 3 nella
variable x. Sia L = d/dx su U. La matrice di L relativa B= {1,x,x?,x%} è

55°
55
SoNOo
wo
PS
Il
La matrice di L relativa a B'={1-x,x-x7,x° - x3,r°} è

-1 1 00
;_|-1-1 2.0
4A=|1 1-13
-1 1-13

La matrice P di cambio di basi da B' a B è

1 0 0 0 1000
_{-1 1 0 0 _x_|1 10 0
P=zlo 11 0|P =l1110
0 0-11 1111

dall'equazione (E5) per l'inversa di P_ Vediamo che:

1000 0 1000 1 0 00 1 10 0
21 __|1 100 0020 1 1 0 0|]_ [1 212 0|)_,
P_AP= 1110 0 00 3 01 1 0] |-1 211 3|74
1111 0000 0 0 11 1 -1 -1 3

Esempio: Sia U lo spazio vettoriale di polinomi di grado minore o uguale 3 nella


variable x. Sia (L(f))(x) = f(-x) su U. La matrice di L relativa a B= {1,x,x2,x*} è

10 0 0
0 1 0 0
A- 0 0 1 0
0 0 0-1

1000
;_|0 -1 0 0
4=lo o 1 0
0 0 0-1

Nota: Entrambe basi B e B' hanno la stessa simmetria relativa a L. Questo


spiega perché A e A' sono ugauli.

Pagina 6.
(Continua)

10 1 0
_|o 0-1
P=li 1 0 0|1 2°
= P°=2h _i_ 1
= P!=5P
O 1 0 -1

Allora

101 0 100 0 101 0 1000


_ lap_ 21|]o1 o 1||o -1 0 0 01 0 1 =
0-10 0 — A'
P'AP=5|10 -1 0 0 0 1 0 1002-10 0 0 1 0 A
01 0 -1/\0 0 0 -1/\0 1 0 -1 0 0 0-1

Fine Esempio.

Matrici Simili.

Definizione: Due matrici quadrate A e A' sono simili quando esiste una matrice P
invertible tali che
A'=M7VAM
Fine definizione.

Per equazione (E6), due matrici A e A' che rappresentano la stessa applicazione
L sono simili. Viceversa, due matrici A e A' sono simili solo se esiste un
applicazione L e basi B, B' tali che

A'=(L8, A=([L5

In particolare, matrici simili condividere le seguenti proprietà


(i) Rango
(ii) Determinante.
(iii) Autovalori.
(iv) Polinomio caratteristico.
(v) Forma canonica di Jordan (Non discusso in questo corso).

Commenti finali: Con calcolo diretto,

(1) Siano A e B matrici invertibili. Allora

(AB)! = BUA!

(2) Siano A e P matrici nx n con P invertibile. Allora,

(P_VAP)Y"> = P_VA"P

Pagina 7.
Lezione 15: Determinanti.

Chiamiamo
P(x1, ‘003 Cn) = Ij<j (x; _ x;)

il polinomio di Vandermonde. Sia


o:{1,...,n} > {1,...,n}

una permutazione. Allora

_ P(To(1): 3 To(n))
El
(13 Piani) ©
si chiama il segno di o. In particolare, poiche P(x-(1),.... tm) ® P(e1-..,%n)
hannogli stessi fattori a meno del segno,

e(0) = +1 oppure — 1 (E2)

Esempio: Sia

o: {1,2} + {1,2}, 0(1)=2, 0(2)=1 (E3)


Allora

P(x1,02) = (c1— 22), e(0) = O_O = ù = -1 (E4)

Esempio: Sia 0 :{1,...,n} > {1,...,n} è la funzione identità. Allora:


_ P(o(1): 3 Tom) _ P(21,...: In) _
(0) = P(w1,...; tn) P(a1,..; tn) 1 (ES)

Definizione: Sia S, l'insieme di tutti le funzioni iniettive {1,...,n} > {1,...,n}.


Sia A= (a;;) una matrice n x n. Allora,

det(4)= YO IT (04% (E6)


o€S, i=l

si chiama il determinante di A.

Esempio: Sia A (a;;) una matrice 2x2. Allora, S2= {0} dove L è la
funzione identità e o è la funzione (E3). Quindi

det(A) = e(1)a1,(1)2:(2) + e(0)a10(1)420(2) (E7)


— 011022 — 412021

L'equazione (E7) spesso si scrive così

det (‘ È) = ad— be

Pagina 1
Esempio: Una matrice quadrata nella quale gli elementi sottostanti alla
diagonale principale sono uguali a zero si dice matrice triangolare
superiore.

Sia A=(a;) una matrice trangolare superiore. Sia 0:{1,...,n} 4 {1,...,n} una
funzione iniettiva.

(Esercizio per studenti): Se o non è la funzione identità allora esiste un


i € {1,...,n} tali che o(i)<i.

Osserva che (poiché A è una matrice triangolare superiore):

o(i)<i => @10(1)420(2) 1% Gio(i) ©: Ino(n) = 0 (E8)

Poiche o era un elemento arbitrario di S, — {identità}

det(A) 7 ) e(0)a10(1) **Ano(n) = 411022 °° Ann (E9)


TESN

In particolare,

det(In) = 1, I,, = matrice identità n x n (E10)

Teorema: L'equazione (E6) per det(A) è l'unica funzione A+ d(A) sulle


matrici quadrate tale che:
(1) d(7)=1 selè la matrice identità.
(2) d(A) è unafunzionelineare delle righe di A.
(3) Se due righe adiacenti di A sono uguali allora d(A)=0.

Il teorema implica che l'applicazione delle mosse di Guass a una matrice A


abbia il seguente effetto sul determinante:
(a) Se un multiplo scalare di una riga di A viene aggiunto a un'altra riga di A,
il determinante rimarrà lo stesso: R; H+ R; + AR;
(b) Se vengono scambiate due diverse righe di A, il determinante verrà
moltiplicato per -1:. Ri& RR
(c) Se una riga di A è moltiplicata per uno scalare s diverso da zero, il
determinante verrà moltiplicato per s: R;+ sk;

Pagina 2
Corollario: Se A e B sono due matrici che sono legate da una sequenza di
mosse di Gauss allora

det(A) = Adet(B), A#0 (E11)

poiché per (a)-(c), una mossa di Gauss cambia il determiante per uno scalare
diverso di zero.

Corollario: det(A4) è diverso di zero se e solo se A è una matrice invertibile.

Per vedere questo, sia A una matrice n xn. Nota che A può essere messa in
forma triangolare superiore A’ utilizzando una sequenza di mosse di Gauss.
Quindi, rk(A)=rk(4)=n se e solo se ciascuno elemento della diagonale
principale di 4’ è diverso da zero.

Esempio:
111 111 111
A=(|102 4| 222% [0 1 3 senza, (01 o)
10° 10
Dt ! ? )
DIS Moltiplicatore
11
Re per l'operazione.
RsoRs_2Ra, 01 3|=4

EL 0 02 Totale: (1)(1)(1) =1

Poiché siamo giunti da A ad A' utilizzando solo l'operazione di aggiunta di


una riga a un'altra riga, e questa operazione non cambia il determinante,

det(A) = det(A’) = 2

Esempio:

0 1 100
A= 10| > |0 1 0|=A Moltiplicatore
0 0/ AL
7) \0 0 1

poiché scambiamo due diverse righe,

det(A) = — det(A’) =

Nota: Una matrice quadrata può essere trasformata nella forma triangolare
superiore senza utilizzare l'operazione (c)
R; HH AR;

di moltiplicazione di una riga per uno scalare diverso da zero.

Pagina 3
Teorema: Siano 4 e B due matrici nx». Allora,

det(AB) = det(A) det(B) (E12)

In particolare, se A una matrice invertible allora,

1= det(A!A) = det(A7!) det(A) = det(A7!) = 1/ det(A) (E13)

Teorema: Sia 4 una matrice quadrata. Allora,

det(A°) = det(A) (E14)

Così pure se A una matrice ortogonale,

1= det(A°*A) = det(A°)det(A) = det(A4)} — det(A4)= +1 (E15)

Entrambi i teoremi possono essere dimostrati utilizzando il fatto che una


matrice invertibile è prodotto di matrici elementari. [Ricorda che una
matrice elementare è una matrice ottenuta applicando una mossa di Gauss
alla matrice dell'identità.]

Determiante di una mappa lineare.

Supponiamo che L:U-+U è una mappa lineare e la dimensionedi è finita.


Sia A la matrice di L relativa la base B di U. Sia 4’ la matrice diL relativa
una altra base B’ di U. Allora esiste una matrice invertible P_tale che

A' = P_VAP (E16)

Quindi,
det(A’) = det(P_! AP) = det(P_) det(A) det(P) = det(A) (E17)

Così,
det(L) = det(A) = det(A’) (E18)

è ben definita, indipendentemente della scelta della base di U. Chiamiamo


(E18) il determinante di L

Nota: Dobbiamo avere L:U-U. Il determiante di T:U-+V non è ben


definito, indipendentemente della scelta della base di U e V. L'equazione
(E18) è ben definita solo perché det(P) e det(P_') si cancellano.

Pagina4.
Esempio: Sia Ulo spazio vettoriale di polinomi grado minore o uguale
a 3 nella variable x. Sia

LS) = (1-20) PE at 40
2

su U. La matrice di L relative la base {1,x,x7,x5} è

20 2 0
01 0 6
4=l0 0 -2 0
00 0 -7

Allora,

Nota: Ricorda che il fattoriale è la funzione n+ n! sugli interi non-negativi


tali che 0!=1 e
nl=n(n-1)---(1), n>1

L'insieme
Sn = { funzioni iniettive : {1,...,n} + {1,...,n}}

ha n! elementi: Per costruire un elemento f di S,, ci sono n scelte per f(1).


Poiché f è iniettiva, ci sono (n-1) scelte per f(2), eccetera.

50! = 3.0414093201713378043612608166064768844377641568960512 x 1054

Di conseguenza, la definizione (E6) del determinante

det(A4) = ) e(0)A15(1)420(2) **‘Ano(n)


CESn

è utile principalmente per le costruzioni teoriche. Invece, calcolareil


determinate di una matrice nxn utilazzando le mosse di Gauss richiede
circa 2n3/3 operazioni aritmetiche.

Nota: Sia f:{1,...,n} + {1,...,n} una permutazione. Sia A la matrice


di f dalla lezione 13:

A(e;) = er)
Segue direttamente dall'equazione (E6) che det(A4)= e(f), il segno dif .

Pagina 5.
[La geometria del determinante]

Richiamo dalla lezione 7

Area di un parallelogramma:

Area = A = |u||v|sin(0) = A? = |u|?|v]? sin2(0) = |u|2|v]?(1 — cos(0))

= A° = |ul?|o]? — (4,0)?

Se u=(a,b)e v=(c,d) troviamo che

A? = |u]?|u|? — (u, 0)? = (ad — be)? (E19)

Se M è la matrice con le righe u e v, (E19) diventa

| det(M)|= |det (‘ ") |= |ad — be|= Area del paralleogramma (E20)

Volume di un parallelepipedo

27 Ul uz U3

vi , V=l|det v1 va 03 (E21)
Wil Wa W3

In generale, sia M una matrice nxn conrighe mi, m3,..., mn Allora

| det(M)|= “n-volume” di pa tim; |0<t;<1,j= Lal


j=1

Pagina 6.
Il risultante

Il risultante R(p, 9) di due polinomi


p(x) = pnx" + << + po, q(£) = dm®" + <<< + go

è il determinante della matrice (n +m) x (n+ m) ottenuta iniziando dalla riga


(Pn + po 0 -:- 0) e permutandola ciclicamente m volte, seguita dalla riga
(Gm do 0 + 0) che è permutata ciclicamente n volte
Pn PICICI Po 0 e 0

00 pa pe 0-0

DD : 0
0. 0 Dn Po
(f.9) det
R(f,9g9)= tm + do 0 0
0 dm o 0
sE: : 0
0 PICICI 0 Im e do

La proprietà chiave della risultante è che p e g hanno una radice comune sui numeri
complessi se e solo se R(p,g) = 0.

In altre parole: Possiamo determinare se due polinomi hanno una radice comune senza
cercaredi fattorizzare i due polinomi!

In particolare, supponiamo che

f(e)= (2 -r)"a(2)
dove m > 1. Allora, f(r) = f'(r)=0. Viceversa, se f non ha radici multiple, alloraf e f'
non hanno una radice comune.

Esempio: f(a)= ax? +br+c, f'(x)=2ar+b, a#0

a Db ec
R(f,f")=det 2a bb 0
0 2a bd

Applicare l'eliminazione gaussiana:

a dec o ), o a c
2a bol TA db 2] __—__=-— [o 6 -2c
0 2a bfPOR \0 20 0] Rara Ra 0 0 b- dee
b

+ R(f,f')=-a(b? — 4ac)

Poiché a #0, f ha una radice multipla se e solo se 6? — 4ac = 0, che è esattamente ciò
che dice la formula quadratica.

Pagina 7.
Lezione: Sviluppo di Laplace & La formula di Cramer.

Torniamo alla formula peril determinante della lezione 15:

det(A) 7 ) e(0)A15(1)420(2) ‘‘Ano(n) (E1)


TESNn

Quando n=3, abbiamo

01 151, 242, 3H 3, e(01) = 1


02 151, 243, 342, e(0,)=-1
03 142, 251, 343, e(c1) = -1
$S3
T4 142, 243, 3H 1, e(01)=1 (E2)
O5 :1H43, 251, 342, e(0,)=1
76 :1H43, 2142, 3H 1, e(c1) = -1

Allora,

det(A) = a11022033 — 011023032 — 012021033 + 012023031 + 413021032 — 013022031


123 021. 423 d21 022
= 011 det (02 — 012 det + a13 det
432 cn) 1° (0 » 19 (ca n) (E3)

dove (lezione 15):

det (‘ È) = ad— be

Definizione: Sia A una matrice n xn con n > 2. Dato un paio di indici i e j con
1<i,j<n il minore complementare Ci; è la matrice (n — 1) x (n— 1) ottenuta da A
rimuovendola i -esima riga e la j-esima colonna.

Esempio: Se A4= (4;) è una matrice 3x3 allora

am ad12 013 d11 d12 ne] Qui 12 "o


Cui = 221 , Ci = |[a21 a22 |d23||, C13 7 a21 d22) 923 |,
d31 d31 432 133

Quindi, l'equazione (E3) diventa

det(A) = 411 det(C11) _ a12 det(C12) + 013 det(C13)


(E4)

Teorema (Sviluppo di Laplace): Sia A una matrice n x n. Per ogni è fissato,

det(A) = y (-1°*a;; det(C;;) (E5)


j=

Pagina1.
Esempio (confronta con la lezione 15):
3 Calcolare utilizzando questa riga

det |1 2 4} =det 24\_ det 14 + det 12


139 39 19 13

= (18-12)-(9-4)+(3-2)=2
Fine

Ricorada chel'insieme di matrici n xn è unspazio vettoriale M,xn di dimensione


n? con base canonica

L. ei k=j
{E;|1<i,j<n}, E;;(ex) = 0 k£j (E6)

dove {e1,...,en} è base canonica di R” (oppure c”). Quando n= 2, abbiamo

10 0 1 00 00
En ni (0 9) ’ E ni (0 o) ’ E% ni (i 9) ’ E59 ni (0 i)

In generale,
A= (a;;) <> A= ) dijE;j (E7)

i, j=1

Quindi,

det : Mnxn — R (oppure C), det(A) = ) e(0)A15(1) |‘ Ano(n)


TESN

è una funzione polinomiale dei coefficienti (a;;) di A. Come tale, det è una funzione
differenziabile dei coefficienti. Allora, det è una funzione continua dei coefficienti.
In particolare,
det(A) 70 = det(A4) #0

per tutte le matrici A "vicino ad" A.


TT x
G- (di;) \ À vicino a A:

[ A= (4i;) ) ) (di; _ aj)" < E

\ / 1)
x —_

Domanda: Se det(4) 40 è A+ (4)! una funzione differenziabile dei coefficienti di


À= (ài;)?

Nota: Se la rispostaè si, allora la soluzione

r= (A) !b

di Àx=b è unafunzionederivabile dei coefficienti di A e » per A vicinoa A.

Pagina 2.
Teorema: Sia A una matrice invertible. Sia (come nello Sviluppo di Laplace)
Ad11 0 d1j 0 Aln

o, = | 19
An1 0 Anj 0 Ann

la matrice ottenuta da A rimuovendola i -esimariga e la j-esima colonna. Allora,

i= 1
dala) Dl _—q)iti
)'#! det(C;)E;;
;\E;;
(E9)
(det(C;;)E;; non è un errore)

Esempio:

A= (cn ni) => C1= (@ ore) = (022), Cio = (a ®) = (421)


a2; 22 @a23 022 a2, 422

Cn = (ae) = (0 O = (cia) = (01)


Allora,

ATL 1 ( A22 ce)


A11022 — 41202, \_421 011

la z
Esempio: A=|0 1 y| = det(A)=1
001

x Z la
Cu=|0[1 yy. Cia | 7 Ci3= [[O 1] y
0|0 1 O_ 0) .1

det(C11) = 1, det (C12) = det(C13) =0

1 ne e :
Ca = | ; Co2 = mit ; C33 = |
0 0 LI 1
det(C91) =, det (C22) = det(C33) =0

la == 1 ax|z
C31= [O0|1_y], C32 = C33 = 1] y
0 1 oo

det(C31) =IY 2, det (C32) = det(C33) =1

lx ay-%z
+ A43= [0 1 —y
00 1

Pagina 3.
In particolare, poiché i minori complementari C;; sono funzioni polinomiali dei
coefficienti, ne consegue per (E9) che

det(4) 40 > At (4)


è una funzione derivabile dei coefficienti di A per A vicino a A.

Definizione: Sia A una matrice quadrata. Allora Cof(A) è la matrice con


coeifficienti ci
Cof(A);; = (1) det(C;;) (E10)

dove Ci;; è definito da (E9).

Con questa notazione, le equazioni (E5) e (E9) diventano

n I
A)= 2.
det(A) ) a;;Cof(A);;,
; Cof(A);; AV det(A) (Cof(A))! (E11)

Queste formule sono più utili per i calcoli teorici. Come abbiamovisto, esse
implicano che A+ A! è una funzione derivabile dei coefficienti.

Esempio: Sia A una matrice quadrata concoeifficienti interi. Allora A! è una


matrice con coeifficient interi se e solo se det(A) = +1.

Osservazione Importante: Sia B una matrice quadrata con coefficientiinteri.


Allora, ogni termine del'equazione (E1) è un intero. Quindi det(B) è un intero.

Supponiamo che A e A! siano matrici con coeifficienti interi. Allora, det(A)


e det(A7')=1/det(A) sono interi. Quindi det(A4) = +1.

Supponiamo che A sia una matrice quadrata con coeifficienti interi e det(A) = +1.
Allora, ogni matrice C;; ha coeifficienti interi. Quindi Cof(A) è una matrice
con coeifficienti interi. Allora, A-! è una matrice con coeifficienti interi per
equazione (E11).

Esempio: Sia A una matrice n xn con coefficienti interi e det(A)=+1. Sia b


. La 21 x
un vettore in R” con componentiintere. Allora, x = A» è un vettore con
componenti intere.

Teorema (Regola di Cramer). Se det(A4) #0 il sistema Ax = d ha un'unica


soluzione x, data da

per ogni componente di x (E12)


° det(A)’

dove B; indica la matrice ottenuta sostituendo la i-esima colonna di A con Db.

Pagina4.
Dimostrazione: Facendo uso dell'identità det(M*)= det(M) e dello Sviluppo di Laplace
vediamo che
n

det(B;) = det(B!) = ) (B!);;Cof(B{);; = )° bjCof(A);; = Y_ bjCof(A);i (E13)


j=1 j=1 j=1

Allora, per l'equazione (E11)

vi=_ YO
- (A 2g,
ibi="
__LA) >
n (CoflA))i;b;=
tr ÈA) 2
2 CoflA)ziby
, _ = det(Bi)
Tata)
j=l j=1

Comevolevasi dimostrare. (La dimostrazione nonsi porta all'esame)

Anchela regola di Cramerè più utile peri calcoli teorici.

Esempio: Considera una sistema lineare della forma

a b 00 U] a
cd 00 vu |_ B
0 0 a db unl {9
00 cd vg ò

Se ad—-bc#0 la regola di Cramer implica che

-—a b 00
-B d 0 0
det > 0 a d
_ è 0 c dj —(ad-Bb)(ad— bc) __od- Bb
io a b 00) (ad — bc)? —_ ad— bc
cd 000
det (0 0 a »
00 cd

Un problematipico nel calcolo multivariabile è calcolare le derivata di 2 e w rispetto


a xe y se x, y, z e w soddisfanole equazioni f(x,y,z,w)=0 e g(c,y,z,w)=0.
Questo produce un sistemalineare della forma:

fa fw 0 0 Za fa

9: gw 0° 0 We _ Ia
0 0° f fw Zy ty
00 f Sw Wy 9y

Pagina 5.
Lezione: Spazi vettoriali complessi

C=R? come un spazio vettoriale reale, dotato della seguente operazione


di moltiplicazione vettoriale:

(a, b)(c, d) = (ac — bd, ad + be) (E1)

Meno formalmente, se scriviamo 1= (1,0), i=(0,1) allora C={a+bi]|a,be R}


dove a+ib=al1+ib= (a,b) e

(a +ib)(c+id) = (ac — bd) + i(ad + be) (E2)


(a+ib)+(c+id)=(a+c)+i(b+d)

Proprietà: 1, 22, z3 €C, 0=(0,0)


LL zit+tzo=zo+z1
2. (21+z2)+z3=z1+(22+ 28)
3 Z1%2 = 22%]
4. (2122)23 = 21(2223)
5. zi(z0 +23) = 2122 + 2123
6. z:+0=21, (21)(1) = ZI
7. Vz, 3! -z; tale che zz+(-z1)=0
8 Vzi # 0! (2) tale che zi) =1

Proprietà 7: Chiaramente —(a +45) = (-a)+i(-b)


Proprietà 8: Si trova che,
1 a— ib
atib = + be se (a,b) # (0,0) (E3)

Coniugazione complessa: a+ib=a— ib (E4)

Valore assoluto (anche detto norma): |a + ib] = Va? + 6? (E5)

Proprietà:
9. |]a+4|=]|a+ db] 3
10. |x|=2z Nota: Proprietà 10 implica = GP z#0

11. |z1+ 22] < |] + lol


12. Ja +22] = |a] - Jz2]|

Forma Polare: Se |x + iy] = 1 allora x + iy = cos(0) + isin(9). La quantità @ è ben definita


a menodi multipli interi di 27.

(2,4) = (cos(0), sin(0)) In generale, se |:|=r #0 allora z/|z| ha valore


2 . 0. assoluto 1. Quindi 2/|z] = cos(0)+isin(0).
x +iy= cos(0) + isin(0) Insomma:
z=r(cos(0) + i sin(0)) (E6)

Chiamiamo (E6) la forma polare di <.

Pagina 1.
Esempio Chiave:

(cos(a) + i sin(a))(cos(8) + i sin(8)) = (cos(a) cos(8) — sin(a) sin(8)) + #(sin(a) cos(8) + sin() cos(a)
= cos(a + 8) + isin(a + 8)

Quindi,

z1=r1(cos(0,) +isin(01))
= = 0 0 ; sin(0 0 E7
29 = ra(cos(02) Pi 2122 rara (cos(01 +02) + isin(0 +02) (7)

Formula di de Moivre: (cos(0)+isin(0))" = cos(n0) + i sin(n0)

Esempio: Dato un intero positivo n le soluzioni dell'equazione 2” = 1 sono chiamate


le radici n-essime dell'unità. Chiarmente

z°=1 = |]=1= |x=1 = z2=cos(0)+isin(0)

Allora
z" = cos(n@) + isin(n0)=1 => cos(n@)=1, sin(n@)=0

Quindi n9 =27m per qualche intero m. Poiché 2° =1 ha n soluzioni, vediamo che

z = cos(27k/n)+isin(27k/n), k=0,...,n-1 (E8)

è la lista completa delle radici n-essime dell'unità.

Esempio: Le radici terze dell'unità sono = cos(0) + isin(0) = 1 e

1 —1 o
z = cos(27/3) + i sin(27i/3) = 5 i z = cos(47/3) + i sin(47/3) = 3 3

Nota che
=1 > (3=2=1=1

(Ricorda: Le radici complesse di un polinomio con coefficienti reali vengono in coppie


coniugate)

Formula di Eulero: Per ogni numero reale @, e° = cos(9) + isin(9) . In particolare,


l'' equazione (E7) diventa:

aame, z0=r9e0 109 > zig = rire i(01 +02)

e l'equazione (E8) è 2 = e29*&/". k=0,...,n-1.

Pagina 2.
Formalmente, un polinomio con coefficienti complessi è una mappa f:{0}UN+C
tale che {n ]f(n) 70} è un insiemefinito.

L'addizione polinomiale è definita dalla regola: (f+g9)(n)= f(m +g(n)

La moltiplicazione polinomiale è definita dalla regola:

(f+9(m) = Y (Kg k)
k=0

La mappa f corrisponde a un polinomio p;(z) nel senso usuale della regola

pr(2)= DI fà, pra) +py(2) = prsg(), pr(2)pg(2) = Prsg(£)


{k:f(K)70}
Il grado deg(f) di f 40 è il massimodei valori di n tale che {(n) # 0-

Teorema fondamentaldell'algebra: Sia f un polinomio non costante con coefficienti reali o


complessi di grado n > 1. Allora, f ha esattamente n radici sui numeri complessi, quando
contate con molteplicità.

In altre parole, sia

S(0) = fne" +-+ fo, fn70 => f(a)= fn(e-ri)---(e- rn) (E9)
Se il fattore (x — A) appare k volte nell'equazione (E9), diciamo che A è unaradice di f con
molteplicità &. Allora, A è una radice di f con molteplicità k se e solo se

f(a)= (1 ))g(a), 9(A) #0

Polinomio caratteristico: |

Sia A una matrice n x n con numeri reali o complessi come voci. Allora, il polinomio
caratteristico di A è

pa(t) = det(tI, — A) (E10)

Esempio: _ _
A= (; 3) => pa(t) = det (È È) = 4+1

Lemma: Se A e B sono matrici simili allora pa(t) = pp(t).


Dimostrazione:

A=CBC + tIn- A=tI, CBC = CU (tI, — B)C


. pa(t) = det(tI, — A) = det(C7!(tI, — B)C) = det(CC (tI, — B))= pg(t)

Pagina 3
» 23 12
E sempio : A = (1 3) , Bb = (; 3)

> pa(t)=t° -4+1, ppg(t)=t° 4-1


Dunque, A e B non sono matrici simili.

Si potrebbe sperare che viceversa, se due matrici hannolo stesso polinomio caratteristico,
allora sono simili. L'esempio seguente dimostra che questo non è vero:

Esempio:
A- ( 0 o. BS (o i) = palt)=pp(t)=t°
Se A e B sonosimili allora esiste una matrice C tale che B= C7!AC. Tuttavia, poiché A
è la matrice identità, C71AC = A. Quindi B= A, cheè falso.

In somma:
(i) SeA e Bsonosimili, allora A e B hannolo stesso polinomio caratteristico.
In particolare, se due matrici hanno polinomi caratteristici diversi non sono simili
(ii) Il viceversa (matrici con lo stesso polinomio caratteristico sono simili)
non è vero.

Polinomio caratteristico di una mappalineare: Sia U uno spazio vettoriale a dimensione


finita e L:U +U sia una mappalineare. Sia A (risp.A') la matrice di L rispetto ad una
scelta di base B (risp. B’) di U. Allora, A e A’ sono matrici simili, quindi pA(t) = pa:(t).

Si definisce il polinomio caratteristico di L essere il polinomio caratteristico di A che


rappresenta L dopo la scelta di una base per U.
d
Esempio: U=P le], Lp)= noe + p(e)
10
B={Lx} = A-( ) è la matrice di L
0 2

pr(t) = pa(t)=(t-1)(t-2)

Teorema di Hamilton-Cayley: Sia A una matrice quadrata con polinomio caratteristico p(t).
Allora p(A)= 0.
Dimostrazione: Questo può essere dimostrato usando idee simili allo sviluppo di Laplace.

Per chiarire:

p(t) = pnt" +-+ pitt po = p(A4) = pn4" +-+ piA+po4%, 4°=1I

Esempio: 2 3
A=( ) > pa(t)=t 441
12

> (7 12 ) _(T12\ (8 12) (1 0\)_/0 0


#- (| 2) > @-dd41=( 2-( +(0 )= (0 9)

Pagina4.
Sia A = (a;;) una matrice n X n (voci reali o complesse). Peri = 1,...,n sia

Ri=Y [ai;|
e sia ifi

Ciascuno di questi dischi è chiamato disco di Gershgorin di A.

Il seguente risultato fornisce la posizione approssimativa delle radici del polinomio


caratteristico:

Teoremadelcerchio di Gershgorin: Sia A una matrice quadrata con polinomio


caratteristico p. Allora, ogni radice di p è contenuta in almeno unodeidischi di
Gershgorin di A.

Questo teorema può essere migliorato come segue:

Teorema: Supponiamoche S sia l'unione di % dischi di Gershgorin di A e che £'sia l'unione


di n — k dischi di Gershgorin di A. Se S e 5” sonodisgiunti allora 5 contiene k radici di pa
e S' contiene n- k_ radici di pu.

In particolare, un disco Gershgorin che è disgiunto da ogni altro disco Gershgorin contiene
una radice del polinomio caratteristico.

Esempio: Verificare che il polinomio caratteristico della seguente matrice ha tre radici
distinte
111
A=|1 6 È = Ri=R,=R3=2
11

1
[4
‘a2 A LEE 6 SEA Ogni disco è disgiunto dal resto, e quindi
7 i contiene esattamente una radice del
reo.74 r3
5.96 re 11,82 polinomio caratteristico.

Ds

| Spazi vettoriali complessi:|

In analogia congli spazivettoriali reali (gli oggetti che abbiamo studiato finora), uno spazio
vettoriale complesso è un insieme V dotato di due operazioni:
(i) Addizione vettoriale
VxVavV (uu u+v

(ii) Moltiplicazione per scalari complessi.


CxVavV (cu)H c-v (di solito scritto) cv

Queste due operazioni devono soddisfare gli 8 assiomi dello spazio vettoriale elencati a
pagina 5 della lezione 5, dove gli scalari reali sono sostituiti con scalari complessi.

Pagina 5.
Esempidi base di spazi vettoriali complessi:

(1) C°, (21,000; Zn) + (W1,...;%Wn) = (21+Ww1,...,2n + Wn)


c(z1,-.-.;2n) = (C21,...; Cn)
Base = {e1,...,en}, e1=(1,0,...,0), ..., en = (0,...,0,1)

(2) Polinomi con coefficienti complessi C[z], Base = {1,z,27,...}

(3) P.[z] = Polinomicon coefficienti complessi e grado minore o uguale a n


(incluso lo zero)
Base = {1,2,...,2"}

(4) Mnxm = matrici n x m con coefficienti complessi. Addizione e moltiplicazione


scalare componente per componente, proprio come C”.
Base = {E,; |1<i<n, 1<j<m}
(Ogni voce di E;; è zero tranneil posto(i,j) che è 1.)

(5) S è un insieme. C5= { funzioni f : S + C}


Se S è un insiemefinito, allora le funzioni indicatrici
1, t=8
Xs(2) 7 fi 145

formano una base {xs | s € S} di C5.

Ogni parte del corso che abbiamo discusso finora e cheutilizza solo gli assiomi di uno spazio
vettoriale si applica agli spazi vettoriali complessi.

Esempi: Sottospazi, span, indipendenza lineare, base, dimensione, eliminazione gaussiana,


gli algoritmi per trovare una base perlo spazio riga, immagine e kernel, il teorema del rango,
prodotti di spazi vettoriali, la formula di Grassmann, la sommadi sottospazi e l'algoritmodi
Zassehaus.

Cosa nonè valido (senza modifiche): Tutto ciò che coinvolge il prodotto scalare.

Ingenuamente,
((1, é), (1,d))=1°+i2=0
Quindi, tutto ciò che abbiamo fatto (ad esempio la disuguaglianza di Cauchy-Schwarz) che
richiede (v,0) >0 e (v,v)=0 see solo v=0 fallisce pergli spazi vettoriali complessi.

Per risolvere questo problema, introduciamola nozione di prodotto hermitiano.


(pagina seguente)

Pagina 6
L'esempio base di un prodotto hermitiano è C” dotato della mappa

CAxC"+ C, ((213 0-0: Zn); (Wi, Wn)) = 2401 +0 + 2n®n

Con questa scelta, si ha:

(A1) (u+ vw) = Un; Un) + (01, ..:Un); (Wi, ...:%n))


un1+01,...;Un + Un), (Wi...) %Wn))

(Au, w) = (A(U1,...;Un);(Wi,...1w))
= Xu1W + -:- + Ann = Au, w)

(A2) (u,v) = (v,u) a causadi:

(v,u) = vu, +-+ UnUn


= Du +-+ Unun = (UV)

Nota: Ciò implica che (u, Av) = (Av, u) = Av, u) = A(v, u) = Mu, v)

(A3) (2, 2) 7 ((21, “ee ;Zn), (21, «er Zn)) 7 \z1l? tot |zn]? > 0

(z,2)=0 «> 2=0

Adottiamo queste tre condizioni come assiomidi un prodotto hermitiano.

Norm. Se V è uno spazio vettoriale complesso dotato di un prodotto hermitiano definiamo:

lo] = v (0,0) 20

(Disuguaglianza di Cauchy-Schwarz): Se V è uno spazio vettoriale complesso


dotato di un prodotto hermitiano allora:
(wu, v)| < |ullo]
(e l'uguaglianza implica che un vettore è un multiplo scalare dell'altro)

Teorema (Disuguaglianza del Triangolo): Sia V uno spazio vettoriale complesso dotato di
un prodotto hermitiano. Allora,
|u+ | <]|u|]+ |v]

Per via di questi due teoremi:


(a) Possiamo definire gli angoli usandola solita formula

(u,v) = |u]|u|cos?, —(u7#0, 070)


(b) La funzione norma soddisfa le seguenti condizioni:
(N1) |e|=0, |o]=0 > v=0
(N2) |Au|=|Allu, AEC, ve V
(N3) lu+| |u|+ pl

Pagina 7
Le condizioni (N1)-(N3) sono gli assiomi di una norma su uno spazio vettoriale
complesso. E spesso più facile costruire una norma che un prodotto hermitiano

Esempio:
vec”, (01... 6n)]| = max{|v1],..-,|Un]}

(N1): [|o]| = max{|vx],-..,|0n]}} >0, max{|v1],...,|un]}}=0 => v=0

(N2): ||Av]| = max{|Av],...,|Avn]} = Amax{|vi], +, n} = [Al||v]l

(N3): [|u+ || = max{|u1 +01], ...;|Un + vn]} < maxf|u1],...,|un]} + max{|v1],.-.,|Un]}

= []u|+]lv]l

Esempio: vel”, (01, 6a) = +-+ |0nl

Trasposta Coniugata: Sia A una matrice nxm allora A* è la matrice mxn

A*= (A), (a;;)" = (Qij), ij = dji

Lemma: Rispetto al prodotto hermitiano standard su C”,

((21,--.;Zn); (W1,...,W%n)) = ZW +-+ 2ZnWn

Abbiamo (Au, Ù) _ lv, Au)

Pagina 8
Lezione: Autovalori e Autovettori

Il problemadi Fibonacci:

Supponiamo che:

(i) Iniziamo con un coniglio maschio e uno femmina.


(ii) I conigli sono in gradodi accoppiarsiall'età di un mese.
Alla fine del secondo mese una femmina può produrre un'altra coppia di conigli.
(iii) I conigli non muoiono mai.
(iv) La femmina ne produce sempre una nuova coppia (un maschio, una femmina)
ogni mese dal secondoin poi.

Quanti coppia conigli ci saranno doppo 6 mesi, 7 mesi, eccetera?

coppie: 1 +>1-2-3—-5—-8—13—21-34—...
mese: 0 1 2 3 4 5 6 7 8

Osserviamo che: I numero di coppie ogni mese è uguale alla sommadel numerodi coppie
dei due mesi precedenti

Nelli io dell ici.

Chti\_ {1 1 Cn _ . .
( C, ) = (i ì) (2) , Cn = #coppie dopo n mesi

Quindi,
Cai _ (1 1° (1 1 1\°_/10
Ca )7\1 0} \1} 10)" \0 1

197-129)
Esempio:

(6) (#90) (5)


Un problema più generale:

Sia A una matrice quadrata. Come calcolare la k-esima potenza di A?

(i) Caso più semplice: A è una matrice diagonale:

xi x

Àn x

(ii) Prossimo caso: A è simile ad una matrice diagonale.

Ma N
A=B cu B® > A48=B n B°! (E2)
In xk

Pagina 1
Nota: Se A è simile ad una matrice diagonale via B, le colonne di B formano un base

{b1,..., dn} (E3)

Tale che Ab; = Ajbj, j=l,...,n.

Viceversa: Se che esiste un base {b,,...,b,} tale che 46; =4A;b; allora A è simile
ad una matrice digaonale.

Domanda: Come trovare i numeri \ e vettore v tale che Av= Av?

Nota: Poiché dobbiamo costruire un base, ci interesa solo trovare \X tale che
esistano v # 0 soddisfacenti Av = Av

Sia I la matrice identità. Allora, l'equazione Av= Av può essere riscritta come

Av= Av > Av= lv > (A-AI)v=0 (E4)

Quindi, se v#40 allora A-AXI è una matrice singolare, perciò

det(A—AI)=0 (E5)

Viceversa: Se det(A—AI)=0 allora esiste v70 tale che Av= Av.


In altre parole, A è una radice del polinomio caratteristico.

Torniamo al problemadi Fibonacci:

11 1-A 1

4=(1 3) > 4-1-( 1 3) (E6)


+ det(A-A/)=(1-A)(-A)-1=A?-A-1

ltv5
detl4—A1)=0 S A= i (numero aureo) Nota: A menodi un
Quindi, mulitiplo scalare
. 1 1- 2 3
9 _ v5 x —0.6180... LAGALA,
Sia Ai = + v5 n 1.6180...,

? 2 1A, 3, AB...
X sono le uniche
Av=)jv = 0 = ( ") a meno di un multiplo scalare. successioni che
sono entrambi
\9 . . aritmetice e
Av= ovo = v2 = 1 a meno di un multiplo scalare.
geometriche.

Dettagli: 2 _\-1=0
____
1-0 1\ RiaRit(-1)Rs (0 1+(A-1)(-4) 00
ATM ( 1
_ =
1) iii
(; \ =
1A

(continua, pagina successiva)

Pagina 2
Se X2-A-1=0 allora Av=Av hala stessa soluzione come

(? 3) (1) = (0) = (Mn) = (ì) a meno di un multiplo scalare (E7)

Sia B= (7 ) Dal teorema di cambiamento di base

\ 0 11 (facilmente verificabile
A=B ( 0 sv) BL (i TT via calcolo diretto)

Quindi, TT
n PARO 0 1/1 -%
42-k( E 5 -G(i da

Perciò,

= 3b io)
) XA1+X9=1

= (ae)
al) a)
_ (ii - (1- Na)
ATI! _ (1 _ Aa )t!

Riposta al problem di Fibonacci:

1
# coppie di conigli doppo n mesi = (941 (1-9) (E8)
V5
14 v5
d= g > Numero aureo

. i A=(1 @ . 1
Esempio: Sia =lo0 1) a: uno scalare

1-A a
det(A — AL) = det ( 0 ia) = (A- 1)?

Quindi, dobbiamo avere A=1 se A-AM è singolare.

(continua, pagina successiva)

Pagina 3
Però, A-I
A-IJ= (00 ao ) così v= (0) è l'unica soluzione di Av=v a menodi un multiplo
scalare.

Ricordiamo, dobbiamo avere un base di soluzioni

Ab; =Ajbj, j=1,...,n

se A è simile a una matrice diagonale.

Quindi, A non è simile a una matrice diagonale.

Fortunatamente, (
1 a\" 1 na
0 o) - (0 v) (E9)
Infatti, per induzione su n:

1 (60 1)-(01)
CIME
Esempio: Siano A e B matrici commutative, cioè AB = BA. Allora,

(AB)" = A" B" (E10)

In particolare, se A= I allora AB= BA perogni matrice B.

Siano \#0 e a scalari. Allora,

(i ") _ (i N) (i “)) (E11)


0A 0 A/\0 1
eee DO

A B
Quindi,

Xi a\"_ (N° 0\(1 na/X\_ (N° naX"-


o x) Vo xflo 1)7(00 ax (E12)

Lemma: Sia A una matrice 2 x 2 con polinomio caratteristico py. Allora,


(1) Se pa ha due radici distinte A} e A. allora A è simile alla matrice

A 0
0 Aa

(2) Se pa ha una sola radice A allora o A è la matrice diagonale D= (i 3) oA


è simile a una matrice della forma

À @
0A

Pagina 4
Attenzione: Il polinomio caratteristico è garantito solo avere radici sui numeri complessi.
Quindi, potremmo essere costretti a usare vettori complessi anche quando lavoriamo con
matrici reali.

Esempio:

A= (i °) = pa(t)=det([-tA)=t+1= t=+i

Per generalizzare questo Lemma, facciamo la seguente definizione:

Definizione: Sia V uno spazio vettoriale e L:V + V una mappalineare. Allora, uno
scalare A è un autovalore di Lse (e solo se) esiste un vettore v non nullo tale che

L(u) = Av

Un vettore v non nullo v tale che Av = Av è chiamato un autovettore di A con autovalore ..

In particolare, se V è di dimensionefinita, allora gli autovalori sono solo le radici del polinomio
caratteristico di L.

Esempio: I problemi di autovettore e valore proprio si presentano spesso nelle scienze naturali
attraverso equazioni che coinvolgono una funzione e le sue derivate (ad esempio le leggi del
moto di Newton).
df NO = f(a)= Ce,
a —AE€ER

Nota: In generale, si possono trovare solo approssimazioni numeriche degli autovalori. Questa
è una conseguenza del teorema di Abel-Ruffini che afferma che nonè possibile risolvere
un'equazione polinomiale generica (cioè coefficienti random) i grado 5 o superiore usandoi
radicali (radici quadrate, cubo, ecc.).

Nota: Trovare gli autovalori può essere difficile. Nel caso di dimensionefinita, una volta che
avete un autovalore potete trovare gli autovettori corrispondenti usando l'eliminazione
gaussiana.

Il prossimo lemmafornisce un semplice criterio affinche' la matrice abbia una base di


autovettori:

Lemma: Sia A:V + V una mappalineare. Allora, qualsiasi insieme S di autovettori di A che
hanno autovalori distinti è linearmente indipendente. In particolare, se V ha dimensionen il
polinomio caratteristico di Aha » radici distinte, allora A ha una base di autovettori.
Dimostrazione: Questa è una dimostrazione per induzione sul numero di elementi di 5. Il risultato
è vero se S consiste in un solo autovettore. Il caso chiave è quando S ha 2 elementi, quindi
spiegheremo solo questo caso.

Supponiamo che
S= {v1, v2}, A(vi) = 101, A(v2) = 302, Ai # À2

(continua, pagina seguente)

Pagina5.
Allora,
Ac + €202) = A1C101 + 30902 =0
CV] + c2v9 = 0 =>
Ai (civi + €202) = A1C101 + 10202 =0

Sottraendo, si ottiene

(Ai _ \2)c202 =0 = c°=0

dato che sia A} — A»:#0 che v, sono non-zero. Poiché vi #0

(cru + c202= 0, co=0) = cu =0 => c1=0

Quindi, {1,2} è linearmente indipendente.


Come Volevasi Dimostrare

Esempio: Ricordiamo dalla lezione precedente che usando il metodo dei dischi di Gershgorin,
abbiamovisto che il polinomio caratteristico di

Fe (TÀ >
1 1 <1? 3) l6- 9 ‘11-13
HH

Had
e

32
11! FROTA ra322
5.96 ra1
Il

= Su
Di Da D3
ha tre radici distinte. Quindi, la matrice A ha una base di autovettori. Usando lo sviluppo di
Laplace, troviamo che il polinomio caratteristico di A è

t-1 1 1
pa(t)=det{ 1° t-6 1 |=t*-18t°? +80t— 50
1 1 t-1
Il risultante di pa(t) e p',(t) = 3t° — 364+80 è
—-18 80 -50 0
5 O WOoOr

1-18 80 -50
R(pa, pu) = —36 80 0 0 = —87700
3-36 80 0
0 3-36 80

il che implica anche che pa ha radici distinte, e quindi A ha una base di autovettori.

Esempio:
y 0110 t 1-1 0
I
V 1001 1 tt 0-1
2 A=li0 0 1] © PAO=d0|_1 04 a
0110 0 1-1

u U pa(t) =t* — 4° = t?(t? 4) = t=2,t=-2, t=0 (molteplicità 2)


TODD
G3

(continua, pagina seguente)

Pagina6.
Gli autovettori di A sono

1 -1 0 1
A=2, 0, = Ì ; A=0, v9 = Ù ; A=0, 03 = 1 ; A=-2,04= I
1 1 0 1
L'applicazione dell'eliminazione gaussiana a B = {v1, v2, 03, v4}

1-10 1 i) 1 0 1
10 11] ____,), |]0 WA -2
1001 -1 0 02 0
11001 00 0
dimostra chein questo caso, la matrice A ha una base di autovettori anche se pa non
ha 4 radici distinte.

Definizione: Sia A un autovalore di una mappa lineare L : V + V. Allora il A autospazio


di L:V-+V èilsottospazio
Ey(L) = ker(L - AI) = {ve V| L(0) = 0}

in altre parole, il \ autospazio di L è l'unionedi tutti gli A autovettori di L e il vettore zero.

Esempio: Tornandoall'esempio precedente,

O 110
1001
A= 1001ì Ez(A) = span(vi), Eo(A) = span(v2, 03), E_2(A) = span(v4)
O 110

Similmente,

B=(0 i) — po(t) = ((-1), F:(B)= ker(! — B) = ker (0 0) = ()


In particolare, per la matrice A la dimensionedi ogni autospazio è uguale alla molteplicità
dell'autovalore in polinomio caratteristico di A .

Definizione: Sia V uno spazio vettoriale di dimensione finita e L:V + V una mappalineare.
Se A è un autovalore di L allora:
(i) La molteplicità algebrica di A è la molteplicità di A comeradice di pr (cioè il grado di
(t-A) comefattore di pr(t)).
(ii) La molteplicità geometrica di \ è la dimensione di E,(L).
Lasciamo che ax(L) denoti la molteplicità algebrica di \ e mx denoti la molteplicità geometrica
di À.

I nostri esempi precedenti possono essere generalizzati al seguente risultato:

Teorema: Sia V uno spazio vettoriale di dimensione finita e L:V + V una mappalineare.
Allora, L ha una base di autovettori se e solo se a\ = my per ogni autovalore di L.

Pagina 7.
Lezione: Teorema spettrale.

Nelle lezioni precedenti, abbiamo definito la nozione di indipendenza lineare per un


sottoinsieme S di uno spazio vettoriale. Il concetto analogo per un insiemedi sottospazi
di uno spazio vettoriale è il seguente:

Definizione: Supponiamo che U,,...,U, siano sottospazivettoriali di Vv, allora la loro


sommaè data da
U1 +--:-+Un={U1+---+un eV|u, e U,..., Un € Un}

I sottospazi U1,...,U, si dicono indipendenti se


ul +u2r +: +un=0, u, € U1,...,Un EUn > u,=0,...,Uun=0

Un sottospazio W è detto una sommadiretta di U,,...,U, se W=U;+---+U, e


U,,...,Un sono indipendenti.

Errore classico: Una collezione di spazi U;,...,U, è indipendente se

U;N YU; = {0}, i=1l,...,n.


iFzi

Pern= 2, è solo UNU; = {0}. Per n > 2, questa condizione è molto più forte del
semplice UNU; ={0} se j£ }j.

Esempio: V=R?, U=span{(1,0)}, Us = span{(0,1)}, Uz = span{(1,1)}


Allora UNU, = {0}, UNUz={0}, U2NUz
= {0}
ma U;, U2, Us non sono indipendenti perché

(1) (00)
1 1 0

Lemma: Se L:V-+V è una mappalineare e E,,,..., E, sono autospazi con autovalori


distinti A1,...,An allora A,,..., E, sono indipendenti.
Dimostrazione: Questo è equivalente all'indipendenza degli autovettori con autovaloridistinti.
Applichiamoil principio di induzione. Sia Py la proposizione che se E.,,..., E), sono autospazi
di L con autovaloridistinti allora E),,..., E), sono indipendenti. Allora, P, è vero. Supponiamo
che P,_1 è vero (n>1l)e
vt: +0n=0, vi E Vi, ; Un E Va,
Allora
An(01+-+n) = Ant +: +An0n=0
L(v1 +-+ 0n)=A01 +-+ Ann = 0

Sottraendo, si ottiene
(An _ A1)Vi ++ (An _ An-1)Un-1 =0

Poiché abbiamo autovalori distinti, An — A1,--.;An — An-1 sono tutti non nulli. Quindi, per l'ipotesi
di induzione %1,--.;Un-1 sono tutti zero. Quindi, anche v» è zero, il che verifica P,.

Pagina 1
Per continuare, ricordiamo che det(4) è una funzione differenziabile delle voci di A = (a;;).
Sostituendo a; con a; — t, vediamo che anchei coefficienti del polinomio caratteristico
pa(t) sono funzioni differenziabili delle voci di A. Quindi, il risultante

Ra = R(pa(t);palt))
è una funzione differenziabile delle voci di A. In particolare, se Ru #0 allora anche
R;#0 per tutte le matrici A sufficientemente vicine ad A (la differenziabilità implica
la continuità). Quindi,
{A € Mnxn | Ra #0}
è un sottoinsieme aperto di M,xn. Per costruzione, la condizione R4 #0 implica che A ha
n autovalori distinti, e quindi A ha una base di autovettori.

Più intuitivamente: Ci si aspetta che una matrice scelta a caso abbia una base di autovettori.

Un tipico esempio di matrice che non è casuale è una matrice simmetrica (A°= A),
antisimmetrica (4° = —A), hermitiana (A= 4°), antihermitiana (A* = —A), ortogonale
(A4*=1I)0 unitaria (A4* = N. [Richiamo, 4* = (A)f]

Fortunatamente, possiamo raccogliere tutti questi casi in un tipo di matrice più generale.
[Dove A deve essere reale nei casi simmetrico, anitsimmetrico e ortogonale].

Definizione: Una matrice quadrata A è normale se AA* = A*A.

Definizione: Sia V uno spazio vettoriale complesso dotato di un prodotto hermtiano. Allora,
una base B di Vè una base unitaria di V se e solo se
(1) Ogni elemento di B ha norma1,
(2) Ogni coppia di elementi distinti di B è ortogonale.
(Una base B di uno spazio vettoriale reale V che soddisfa le condizioni (1) e (2) è chiamata
una base ortonormaledi V.)

Teorema Spettrale: Una matrice quadrata è normale se e solo se ha una base unitaria di
autovettore rispetto al prodotto interno standard su C”:

((U1,.. «3 Un), (U1,-..,Un)) =U]V +-+ UnUn

Casi Speciali:
(1) Gli autovalori di una matrice Hermitiana sono reali.
(2) Se A_ è una matrice reale simmetrica, allora A è hermetiana (quindi i suoi autovalori
sono reali) e ha una base di autovettori che sono elementi di R" Infatti, se A è una matrice
reale e \ è un autovalore reale di A, allora l'autospazio E\ ha una base costituita da
elementi di R"
(3) Gli autovalori di una matrice antihermitiana sono immaginari puri (questo includelo zero).
(4) Gli autovalori di una matrice unitaria hanno norma1. Si noti che una matrice reale ortogonale
è unitaria.

Attenzione: Una matrice reale ortogonale può avere autovalori complessi. Per esempio

4-(1 0) — AAN=b, pa0)=t+1

Nota: Una matrice A n x n si dice diagonalizzabile se ha una base di autovettori. In particolare,


una matrice normale A è diagonalizzabile (utilizzando autovettori e autovalori complessi).
Allo stesso modo, A è diagonalizzabile se ha n autovaloridistinti.

Pagina 2
La chiave per dimostrare queste proposizione sugli autovaloriè il fatto che (Lezione 17)
(Au, v) = (u, A*v)

Dimostrazione:
(1) Av= Av (070), A=A% = Av, 0) = (Au, v) = (Av, 0) = (v, A*v) = (v, Au) = Av, v)
Poiché, |u|? = (v,0) #0 dobbiamo avere A = A.
(3) Av=Av (040), A*=-A = A=-A usandolo stesso metododi (1).
(4) Cominciamo con l'osservazione che AA* = I implica che A* è l'inverso di A.
Quindi, abbiamo anche A*A= AA=1I.
Av= Av (040), AA*=I = (v,v) = (A*Av,v) = (Av, Av) = (Av, Av) = |A[?(v,0)

Poiché, |v|? = (v,v) #0 dobbiamo avere ||? = 1.

Lemma: Se v è un autovettore di una matrice normale A con autovalore A, allora v è un


autovalore di A* con autovalore A.
Dimostrazione:

AA* = AA => |Av[? = (Av, Av) = (A*Av,v) = (AA*v,0) = (A*v, Av) = | A*v[?
Si verifica facilmente che AA4* = A*A => (A-AD(A-A1*=(A4-AD*(A4-4AI). Quindi,
I(A- AD]? = |(A- AD*v|?
In particolare, se « è un autovettore di A con autovalore A allora
0=]|(A- Au] =|(A- Au] > (A-AD*u=0
Tuttavia (A- AI)" = A*— AI. Così A*u= Xu.

Corollario: Se A è una matrice normale e u e v sono autovettori di A con autovaloridistinti,


allora v e v sono ortogonali.
Dimostrazione: Sia Au= au e Av = Bv. Allora,

alu,v) = (Au, v) = (u, Av) = (u, Bu) = Blu, v)

Quindi (a — 8)(u, 0) =0
Poiché a - 8 #0 dobbiamo avere (u,v) = 0.

emi
Esempio: Sia A la matrice di adiacenza del grafo triangolo
HH o

How

OH

= palt)= (t-2)(6+1)°

Autovettori:
1 -1 -1
3 A=2,v=|1}, A=-1,v= 0 |, A=-1,v3= 1
1 1 0

In particolare, il teorema spettrale dice solo che A ha una base di autovettori unitaria,
non che ogni basedi autovettori è unitaria. In questo caso, (02,03) = 1.

(continua, pagina seguente)

Pagina 3
Per ottenere una base unitaria per E_,, iniziamo con v2 e calcoliamo la proiezione
ortogonale w di v3 su va:
vg =U3—W=U3— (03,
(uo 02)
0)

Aa
vo | 1/1 21
/
v=3| 2 |, vg= 0
=
(03, 02)
= Wv9
2 1 1
(02, 02)

Allora, 7 e v=v3 —- w saranno ortogonali. Ora riscaliamo per ottenere una base unitaria.

|Ortogonalizzazione di Gram-Schmidt]

Se V è uno spazio vettoriale reale (risp. complesso) con un prodotto scalare (risp. prodotto
hermitiano) e u è un elemento nonnullo di V allora

Proj,: VV, Proj, (0) = n È u, (ris Proj, (0) = n È u)

è una mappalineare (rispetto a v, non a u!).

Lemma (Gram-Schmidt): Se S = {u1,...,un} è un insiemefinito di vettori linearmente


indipendenti allora n-1
vi = u1, v2=u2— Proj,, (U2), v3 = 3 — Proj,, (3) — Proj,, (U3), ..., Un = Un — ) Proj,, (Un)
k=1
è un insiemedi vettori ortogonali tale che
span(u1,..., ue) = span(v1,...,ve), (=1,...,n

Dimostrazione: Questa è un'induzione sul numero di elementidi S.

Osservazione: Una volta ottenutol'insieme ortogonale {v,...,vn}, possiamo ottenere una


base unitaria (o ortonormale) per span(S) ponendo
UV] V2 Un
WiI3Td27, W25 7)... WnF 7
va] [vo] on]

Esempio: Applicare il processo di Gram-Schmidt alla base B = {1,x,x?,x*} diP3[r] relativa


al prodotto scalare

(1.9) = JSg) da
Per iniziare, si calcola
1
1 a+b+1 ——-, a+ pari
vi?
(12%) = / adr = —__ a+b+1 b
! atolli 0, a + b dispari
Allora,
1
u=u=1 ta = 0a Proj(o) = 0 Enna

. . x2,1 a, a 1
v3 = ug — Proj,, (u3) — Proj,, (3) = 12 — È n) 1- 2 Da = ax 3

Pagina4. (continua, pagina seguente)


vi 1 1 v2 x 3
aL = /2 w= —— = =x f=
ul (1,1) 2 va] (2,2) 2
a? - 1 1 5
W3g = 02 3 = 5 (81° _ 1) 3

via) J@-4e-})
wy = Va _ xL
3
_33 5£ 1
Leal 7
V(04, va) NICE — 3,03 — io)

Isometria

Sia U e V spazivettoriali reali (risp. complessi) dotati di prodotti (risp. hermitiani) scalari
(uu e (vv. (risp. (|,-)y e (—,—)v.. Allora, una mappa lineare L:U-—V
è chiamata e isometria se (e solo se)

un, u €U => (1, u2)y = (L(u1), L(ua))v (risp. u1, un €U => (un, u2)y = (L(u1), L(u2))v)

In altre parole, un'isometria è una mappalineare che conserva la lunghezza dei vettori e
gli angoli tra loro.

Esempio: La rotazione intorno all'origine è un'isometria di R? . La riflessione attraverso


un iperpiano è un'isometria di R”. Se ker(L) è non-zero allora L non è un'isometria, perché
non conserva le lunghezze degli elementi di ker(L). In particolare, un'isometria è sempre
iniettiva.

Per costruire un'isometria da uno spazio finito dimensionale U a uno spazio vettoriale finito
dimensionale V, si scelgono semplicementele basi unitarie (0 ortonormali) By e By di Ue V
rispettivamente, e poi inviare elementi di By a By in modo1-1.

Viceversa, ogni isometria tra spazi vettoriali di dimensionefinita è di questa forma.


. 1
Esempio: U= Pila], (f,9)= J f(a)g(x) da, V=R', prodotto sclare standard
1
Rispetto ai polinomidell'esempio precedente, la mappa lineare T(w;)= e; è un'isometria

La matrice della mappa L rispetto alle basi {1,x,x2,x°}e {e1,€2, 3,04} è


2 2 2 10 3} 0
= fg > T(a)= 371) = 30 0 c, 0 VB l

vzlo 0 5,0
2.
= 31,8
wa _ (5r — 3)
7 22.3
ga D ru? — 3x 00 0 5A

2 = 5x3 — V3V2w, > 23 = ve (Fe + vu) > T(x3) = v (36 + vie)

. . 2 d°p dp

L(1)=0, L(x)=-2a, L(3x? — 1) = 6(1- 2)? — 2x(6x) =6— 1812 = —6(3x° — 1)


L(5x* — 3a) = (1- x°)(30x) — 2x:(15x? — 3) = 36x — 6023 = (--12)(5x5 — 32)

(continua, pagina seguente)

Pagina 5
Così, la matrice di L relativa alla base ortonormale B = {w1,w2,w3,w4} di Psx] è
0 0 0 0
0-2 0 0
0 0-6 0
0 0 0 -12

In particolare, poiché questa matrice è una matrice simmetrica e B è una base


ortonormale di P;[x], segue che
fg € Pala] = (L(f);9) = (S L(9))
Definizione: Sia U uno spazio vettoriale reale con un prodotto scalare (—,—). Allora,
una mappa lineare L:U-—U è simmetrica se
f,geU = (L(f),9) = (f.L(9))
Allo stesso modo, L è antisimmetrica se
f,geU + (L(f),9) = —(f,L(9))
Nota: Se U è di dimensionefinita, questo è equivalente alla matrice di Lrispetto a una base
ortonormale è simmetrica (risp. antisimmetrica).

Nota tecnica: Nel caso dimensionale infinito, si dovrebbe aggiungere la condizione cheL sia
un operatore limitato. Non discuteremo questo argomento in questo corso.

Allo stesso modo, se U è uno spazio vettoriale complesso con prodotto hermitiano (—, —)
allora una mappalineare L:U ->U è hermitiana (risp. antihermitiana) se

f,geU = (L(f),9) = (f.L(9)), (risp. f,geU => (L(f),9) = —(SL(9)))


Se U è di dimensionefinita, questo è equivalente alla matrice di L rispetto a una base
unitaria è hermitiana (risp. antihermitiana). Allo stesso modo, L è normale se la sua matrice
rispetto a una base unitaria è una matrice normale.

Tutto ciò che abbiamo detto sulle matrici simmetriche, antisimmetriche, hermitiane,
antihermitiane e normali si applica altrettanto bene alle mappe lineari con la proprietà
corrispondente attraverso la rappresentazione matriciale della mappalineare.

Applicazione (Matrici Definite Positive): Ricordiamo che una matrice reale quadrata A è
definita positiva se è simmetrica e
(u,v) = ul Av
è un prodotto scalare su R”. Per il teorema dello spettro, poiché A è simmetrica ha una base
ortonormale di autovettori. Rispetto a questa base di R”,

(u,v) = Anu1vi + ><: + AnUnUn


QuindiA è definita positivamente se e solo se tutti gli autovalori di A sono positivi. Il modo
più semplice per verificare che A abbia autovalori positivi è applicare il teoremadeldisco
di Gershgorin. Questo produce il risultato dichiarato alla fine della lezione 13:

Teorema: Sia A una matrice quadrata dominante diagonalmente per righe. Se A= A° e gli
elementi diagonali di A sono positivi, allora A è definita positiva.

Pagina6.
La chiave per dimostrare il teorema spettrale è considerare prima il caso in cui A è una
matrice triangolare superiore:

Sia A una matrice triangolare superiore. Allora si calcola che l'elemento (1,1) di AA* è
\a11|? + \a12]? +-+ \a1n|?

e l'elemento (1,1) di A*A = |a11|?. Quindi, AA*= A*A implica

|a19]7 + ---+ |ann|f = 0 => Q129=::- = Gin=0

Avendo stabilito che tutti gli elementi non diagonali della prima riga di A sono zero, si
procede a considerare l'elemento (2,2) di AA* e A*A. Si ottiene,

la22|? + |a23] + --- + |a2n|?, \a22|?

rispettivamente. Quindi, @23 = --- = Gan = 0. Procedendoin questo modo(o usandoil


principio di induzione), si vede che se A è una matrice triangolare superiore tale che
AA* = A*A allora A deve essere una matrice diagonale.

Questo ci porta al risultato finale di questo corso, la cui dimostrazione si basa sul processo
di Gram-Schmidt.

Lemmadi Schur: Sia A una matrice n x n. Allora esiste una matrice unitaria U tale che
A=UTU

dove 7 è una matrice triangolare superiore.


(fine lemma)

In particolare se A4* = A*A e A= UTU7! dove U è unitaria e T è triangolare superiore,


allora
AA* = (UTU*)(UTU*)* = UTU*(U*)*T*U* = UTU*UT*U* = UTT*U*
A*A = (UTU*)*(UTU*) = (U*Y*T*U*UTU* = UT*U*UTU* = UT*TU*
perché
(1) U unitaria significa U*U = I e quindi U* = U—.
(2) la moltiplicazione della matrice e la trasposizione coniugata soddisfano
(M1Ma)* = M5M7, (M*)} = M

Sottraendo, si ottiene
0= AA* — A*A= U(TT* — T*T)U*
poiché è invertibile, segue che
TT*-T*T=0

Quindi, 7 è una matrice diagonale poiché T è un triangolo superiore. Così, le colonne di U


formano una base unitaria di C” che sono autovettoridi A.

Pagina 7.

Potrebbero piacerti anche