Sei sulla pagina 1di 4

Appunti Algebra Lineare

massimiliano.incudini
December 2016

1 Matrici
1.1 Trasposta e H-trasposta
Trasposta La matrice trasposta di A m n `e la matrice AT n m ottenuta scambiando
le righe con le colonne.

Coniugata Si indica con A m n la matrice ottenuta coniugando tutti gli elementi di A.

T
H-trasposta Definiamo la matrice H-trasposta come AH = AT = A .

Propriet`
a Ecco alcune propriet`
a: Classificazione La matrice A si dice:
T1 (A)T = AT Simmetrica se A = AT
T2 (A + B)T = AT + B T Hermitiana se A = AH
T3 (AT )T = A Antisimmetrica se A = AT

T4 (AB)T = B T AT Antihermitiana se A = AH

Ogni matrice complessa quadrata A si scrive in un solo


modo nella forma A = B + C con B hermitiana e C antiher-
mitiana
Poniamo B = (A + AH ) e C = (A AH ). In quanto allunicit`a, se
esistono B 0 , C 0 : A = B 0 + C 0 allora A = A B 0 + C 0 = B + C
B B0 = C C 0.
Sia K = B B 0 = C C 0 , allora K hermitiana perch`e B B 0
`e hermitiana, ma anche antihermitiana (C C 0 antihermitiana).
Lunica matrice contemporaneamente hermitiana e antihermitiana
`e la matrice nulla quindi K = 0 B = B 0 , C = C 0 .

Matrici normali Se AAH = AH A


Sia A = B +C con B hermitiana e C antihermitiana. Allora
BC = CB A normale
Poich`e AH = B H + C H = B C.

AH A = B 2 BC + CB C 2
AAH = B 2 + BC CB C 2

AH A = AAH BC + CB = BC CB
BC = CB

1
1.2 Matrici inverse
Data una matrice A m n si definisce inversa sinistra la matrice L n m tale che LA = Im ,
e inversa destra la matrice R n m tale che AR = Im .
Se A ammette inverse destra R e sinistra L, allora R = L

L = LI = L(AR) = (LA)R = IR = R

Se A quadrata, allora R = L

AR = I EAR = E EARE 1 = EE 1 = I

Se A m n ammette inversa destra, m n (matrice oriz-


zontale)
 
An
Se m > n abbiamo A = e R = [Rn Rmn ]. Allora
Amn
An Rn = In , An Rmn = 0, Amn Rn = 0, Amn Rmn = Imn .
Poich`e An , Rn quadrate, An Rn = Rn An = In . Abbiamo:

Amn Rn = 0 Amn Rn An = 0An


Amn Rn An = 0
Amn Rn An = 0
Amn I = 0

Quindi Amn = 0 contraddice Amn Rmn = Imn .

Se A m n ammette inversa sinistra, m n (matrice ver-


ticale)

A ammette inversa sinistra L sse AT ammette inversa destra LT .


Applica teorema sopra.

Per A mn sono equivalenti (1) A ammette inversa destra;


(2) Ax = b ha almeno una soluzione per ogni vettore b; (3)
A ha rango m

(1) (2): Sia R inversa destra di A, allora Rb `e soluzione poich`e:

Ax =b
A(Rb) =b
(AR)b =b
Ib =b
b =b

(2) (3): Se A ha rango < m allora U ha ultima riga nulla. Allora


la matrice [U em ] non ha soluzioni. Per`o procedendo a ritroso
troviamo che [A b] ha soluzione. Quindi Ax = b ha soluzione e il
suo equivalente U x = em no, impossibile.
(3) (1): Bisogna provare che esiste R n m = [r1 r2 ... rm ]
tale che AR = I, cio`e Arj = ej per ogni j m. Se prendiamo la
ridotta di [A ej ] cio`e [U ej ], questa non ha mai lultima colonna
dominante quindi il sistema ha soluzione ed R esiste.
(3) (1): immediata?

Corollario
Ann
quadrata invertibile sse ha rango n.

2
Per A m n sono equivalenti (1) A ammette inversa sin-
istra; (2) Ax = 0 ammette solo soluzione nulla; (3) A ha
rango n; (4) AH A `
e invertibile

(1) (2) Dobbiamo dimostrare che Ax = 0 x = 0. Sia L inversa


sinistra di A. Allora:
Ax =0
LAx = 0
Ix =0
`e vera solo per x = ~0.
(2) (3) A ha rango minore di n sse [A 0] ha ridotta [U 0] con meno
di n righe non nulle. Cio`e almeno una colonna `e non dominante e
quindi il sistema Ax = 0 ha infinite soluzioni.
(3) (4) Essendo AH A quadrata di ordine n, basta provare che
ha rango n (corollario sopra). Proviamo quindi che AH Ax = 0 ha
solo soluzione nulla.
(AH A)x = 0, v soluzione
v H AH Av = 0, Av = Y
Y HY =0
y1 y1 + ... + ym ym =0
yi yi R0
yi =0
Av =0
v =0

(4) (1) Una inversa sinistra `e (AH A)1 AH

Per A m n ha inversa destra sse AAH invertibile

Se A ha inversa destra, AH ha inversa sinistra.


Allora (AH )H AH = AAH invertibile.
Se AAH invertibile una inversa destra di A `e AH (AAH )1

Per A n n quadrata sono equivalenti (1) A invertibile; (2) Ax = b ha almeno una


soluzione per ogni b; (3) Ax = 0 ha come unica soluzione x = 0; (4) A ha rango n; (5)
det(A) 6= 0.

1.3 Matrici elementari


La matrice Eij () cor- La matrice Eij cor- La matrice Ei () cor-
risponde a sommare alla riga risponde alla matrice di risponde alla moltiplicazione
i la riga j moltiplicata per . scambio, nella quale le righe della riga i per lo scalare .
Differisce dalla matrice iden- i e j vengono scambiate tra Differisce dalla matrice iden-
tit`
a per avere nel posto i, j lo loro. Differisce dalla matrice tit`a per avere lo scalare al
scalare invece che 0. identit`a per avere le righe posto che 1 al posto i, i.
volute scambiate.
     
1 0 1 0
E12 () = E12 = E1 () =
0 1 1 0 0 1

2 Spazi vettoriali
2.1 Spazio vettoriale (sul campo K)
V V V
Insieme V sul quale sono definite le operazioni somma e moltiplicazione
(u, v) 7 u + v
K V V
per scalari . Gli elementi di V si chiamano vettori.
(, v) 7 v

3
Assiomi
a addizione u, v, w V : u + (v + w) = (u + v) + w
A1 Associativit`
A2 Esistenza elemento nullo 0 : v = 0 + v = v + 0 v

A3 Esistenza elemento opposto vw : v + w = w + v = 0


a moltiplicazione , K, v V : (v) = ()v
M1 Associativit`
a moltiplicazione n.1 , K, v V : ( + )v = v + v
M2 Distributivit`
a moltiplicazione n.2 K, v, w V : (v + w) = v + w
M3 Distributivit`

M4 Elemento neutro 1 : v = v1 = 1v v
Lelemento neutro delladdizione `
e unico
Supponiamo esista un secondo elemento neutro z, in modo che z +
v = v + z = v. Se al posto di v prendiamo 0 abbiamo z + 0 = 0,
ma anche che z + 0 = 0. Quindi z = 0.

Lopposto di un elemento `
e unico

Se esistessero w, w0 opposti di v avremmo:


u = w + v + w0 = (w + v) + w0 = 0 + w0 = w0
u = w + v + w0 = w + (v + w0 ) = w + 0 = w
w = w0

La somma `
e commutativa
Sia w = 2(u + v) = (1 + 1)(u + v). Abbiamo che:
w = 1(u + v) + 1(u + v) = u + v + u + v
w = (1 + 1)u + (1 + 1)v = u + u + v + v
Possiamo calcolare (u) + w + (v) in due modi:
(u) + w + (v) = u + u + v + u + v v = v + u
(u) + w + (v) = u + u + u + v + v v = u + v

Potrebbero piacerti anche