Sei sulla pagina 1di 15

Matrici 2010

Enrico Schlesinger 6 marzo 2010


c Queste dispense sono coperte da diritto dautore; pertanto non possono essere sfruttate a ni commerciali o di pubblicazione editoriale. Ogni abuso sar` perseguito a a termini di legge dal titolare del diritto.

Somma e prodotto per uno scalare.

Una matrice di tipo (m, n) ha m n elementi, e pertanto pu` essere pensata come o un vettore di Kmn . In particolare, possiamo denire per le matrici di tipo ssato le operazioni di somma e prodotto per uno scalare. Esplicitamente, se A e B sono due matrici mn, la loro somma A+B ` la matrice e m n che ha come elemento di posto (i, j) la somma aij + bij degli elementi di posto (i, j) delle matrici A e B. Il prodotto di una matrice per uno scalare si eettua moltiplicando gli elementi della matrice per lo scalare: se A = [aij ], tA = [taij ]. Per esempio 1 3 2 2 + 4 4 3 3 5 = 5 7 9 e 7 2 3 14 21 = 4 5 28 35

Denotiamo col simbolo MK (m, n) linsieme delle matrici di tipo (m, n) a coecienti nel campo K. Se consideriamo solo le operazioni di somma e prodotto per uno scalare, MK (m, n) pu` essere identicato con Kmn . o

Il prodotto righe per colonne

Nel capitolo sui sistemi lineari abbiamo denito il prodotto di un vettore riga con con un vettore colonna purch abbiano lo stesso numero di componenti. Vogliamo ora e generalizzare questoperazione e denire il prodotto AB di due matrici. Lidea ` di e ottenere AB moltiplicando le righe di A per le colonne di B. Questo non ` sempre e possibile: occorre infatti che le righe di A abbiano lo stesso numero di componenti delle colonne di B, cio` che il numero di colonne di A sia uguale al numero di righe e di B.

Prodotto di matrici Siano A e B matrici di tipo (m, n) e (n, p) rispettivamente. Il prodotto righe per colonne di A e B ` la matrice AB il cui elemento di posto (i, k) ` il prodotto e e delli-esima riga di A per la k-esima colonna di B. Se A = [aij ] e B = [bjk ], lelemento di posto (i, k) della matrice prodotto ` e quindi
n

(2.1)

(AB)ik = ai1 b1k + ai2 b2k + + ain bnk =


j=1

aij bjk .

Osserviamo che il numero di righe di AB ` uguale al numero di righe di A, e il e numero di colonne di AB ` uguale al numero di colonne di B: e Il prodotto di due matrici di tipo (m, n) e (n, p) ` di tipo (m, p). e

Esempio 1 2 5 3 eB= . Innanzitutto, il prodotto 3 4 2 1 AB ` ben denito perch A ha 2 colonne e B ha 2 righe, ed ` una matrice di tipo (2, 2) e e e perch A ha due righe e B ha due colonne. e Lelemento di posto (1, 1) del prodotto si trova moltiplicando la prima riga di A per la prima colonna di B: 5 = 5 + 4 = 9. (AB)11 = 1 2 2 Calcoliamo il prodotto delle matrici A = Analogamente (AB)12 = 1 (AB)21 = 3 (AB)22 = 3 Quindi AB = 9 23 5 . 13 4 4 2 3 = 3 + 2 = 5. 1 5 = 15 + 8 = 23. 2 3 = 9 + 4 = 13. 1

In questo esempio possiamo calcolare anche il prodotto BA perch il numero di colonne e di B ` uguale al numero di righe di A. Svolgendo i conti otteniamo e BA = 5 2 3 1 1 3 2 14 = 8 5 22 13

Quindi AB ` diversa da BA. Questo non deve sorprendere perch la denizione di prodotto e e di matrici ` asimmetrica rispetto ai fattori. Quando A e B sono matrici quadrate dello stesso e ordine n, come in questo caso, entrambi i prodotti AB e BA sono matrici quadrate di ordine n, ma AB e BA possono essere diverse. Questo esempio mostra che

Il prodotto di matrici non ` commutativo. e

Esempio 7 . Si tratta di due 5 matrici di tipo (1, 2) e (2, 1) rispettivamente. Quindi i prodotti AB e BA sono entrambi ben deniti, ma AB ` una matrice di tipo (1, 1), cio` un numero, mentre BA ` una matrice di e e e tipo (2, 2): Consideriamo il vettore riga A = 2 3 e il vettore colonna B = AB = 2 3 7 = 14 + 15 = 29, 5 BA = 7 5 2 3 = 72 52 73 14 = 53 10 21 15

Elenchiamo inne le principali propriet` del prodotto di matrici: il prodotto di a matrici ` associativo e bilineare. Questo signica: e

Propriet` associativa: a date tre matrici A, B, C di tipo (m, n), (n, p) e (p, q) rispettivamente, vale luguaglianza:

(2.2)

(AB)C = A(BC)

Propriet` distributiva a sinistra: a date due matrici A1 e A2 di tipo (m, n) e una matrice B di tipo (n, p), vale luguaglianza:

(2.3)

(A1 + A2 )B = A1 B + A2 B

Propriet` distributiva a destra: a date una matrice A di tipo (m, n) e due matrici B1 e B2 di tipo (n, p), vale luguaglianza: (2.4) Omogeneit` a Per ogni scalare t K e ogni coppia di matrici A e B di tipo (m, n) e (n, p), valgono le uguaglianze: (2.5) t(AB) = (tA)B = A(tB) A(B1 + B2 ) = AB1 + AB2

Si noti che le propriet` distributive sono due, e una non segue dallaltra, perch il a e prodotto di matrici non ` commutativo. e 3

Dimostrazione. Dimostriamo la propriet` associativa: (AB)C = A(BC). Se A = [aij ], a


B = [bjk ], C = [ckl ], allora ((AB)C)il =
k

(AB)ik ckl =
k

(
j

aij bjk )ckl =

=
k j

aij bjk ckl =


j

aij (
k

bjk ckl ) = (A(BC))il

Questo dimostra la propriet` associativa. Come nel caso dei numeri, tale propriet` ci a a consente di scrivere ABC al posto di A(BC) e di (AB)C: il risultato non dipende da quale prodotto eseguiamo prima. La dimostrazione delle altre propriet` ` pi` semplice, e viene lasciata al lettore. ae u

Matrice nulla e matrice identit` a

La matrice nulla di tipo (m, n) ` la matrice di tipo (m, n) che ha tutti gli elementi e uguali a zero. La denoteremo col simbolo O. Gioca un ruolo analogo a quello di 0 tra i numeri: sommando O a unaltra matrice A si lascia la matrice invariata, mentre moltiplicando una matrice a destra o a sinistra per la matrice nulla si ottiene la matrice nulla. Il prodotto tra numeri ha una unit`, il numero uno, che moltiplicato per ogni a numero x d` come risultato il numero x. Nel caso delle matrici un ruolo analogo ` a e giocato dalla matrice identit`. La matrice identit` I (o In ) di ordine n ` la matrice a a e quadrata ordine n che ha gli elementi sulla diagonale principale tutti uguali a 1, e gli altri elementi uguali a zero: lelemento di posto (i, j) nella matrice identit` ` 1 se ae i = j, ed ` 0 se i = j. Quindi I = [ij ], dove ij ` il simbolo di Kronecker. Per esempio e e 1 0 0 0 1 0 0 0 1 0 0 1 0 I2 = , I3 = 0 1 0 , I4 = 0 0 1 0 . 0 1 0 0 1 0 0 0 1 Le colonne della matrice identit` In di ordine n sono i vettori della base canonica a di Kn : In = e1 e2 en Analogamente, le righe di In sono eT , . . . , eT . 1 n Come preannunciato, la matrice identit` gioca per le matrici il ruolo di unit` a a (elemento neutro rispetto al prodotto): Se I = In ` la matrice identit` di ordine n, allora e a AI = A per ogni matrice A con n colonne IB = B per ogni matrice B con n righe

Dimostrazione. Verichiamo solo la prima formula. Scriviamo A = [aij ], e verichiamo


che lelemento di posto (i, k) nella matrice prodotto AI coincide con aik :
n

(AI)ik =
j=1

aij jk = aik

Matrici diagonali

Le matrici diagonali sono le pi` semplici matrici quadrate, e giocano un ruolo fondau mentale nella teoria delle matrici. DEFINIZIONE 2.1 Una matrice diagonale ` una matrice quadrata D = [dij ] che ha e tutti gli elementi al di fuori dalla diagonale principale nulli: dij = 0 se i = j.

Denotiamo col simbolo diag(1 , . . . , n ) la matrice diagonale in cui dii = i .

Per esempio 7 0 diag(7, 5, 3) = 0 0 0 5 0 0 3

La matrice nulla e la matrice identit` sono diagonali; pi` in generale, tutti i multipli a u scalari della matrice identit` sono matrici diagonali: a I = diag(, . . . , ) (per = 0 si tratta della matrice nulla, per = 1 della matrice identit`). a
Potenze di una matrice quadrata

Una matrice quadrata di ordine n ` una matrice con n righe e n colonne. Due matrici e quadrate A e B di ordine n hanno lo stesso numero di righe e di colonne e quindi sono ben deniti i prodotti AB e BA, che sono ancora matrici quadrate di ordine n. In particolare, possiamo moltiplicare una matrice quadrata con se stessa e denire A2 = AA. Siccome A2 ` ancora una matrice quadrata di ordine n, possiamo moltiplicarla e per A e denire A3 = A2 A; per la propriet` associativa A3 = AA2 . Quindi A3 a ` il prodotto di tre fattori tutti uguali ad A, non importa in che ordine grazie alla e propriet` associativa. a Pi` in generale, per ogni intero k 2 possiamo denire la potenza k-esima Ak di u una matrice quadrata A come il prodotto di Ak1 per A, o equivalentemente come il prodotto di k fattori tutti uguali ad A; di nuovo ` irrilevante lordine in cui svolgiamo e il prodotto grazie alla propriet` associativa: a 5

Ak = Ak1 A = AA A
Esempi Per la matrice identit` I = a 1 0

(k fattori tutti uguali ad A)

0 si ha Ik = I per ogni k 1. 1 0 0 0 si ha Ok = O per ogni k 1. 0

Anche per la matrice nulla O = Anche per la matrice A =

1 0 si ha Ak = A per ogni k 1: basta vericare che 0 0 A2 = A, e questo ` immediato. e 0 0 1 non ` nulla, ma A2 = O ` la matrice nulla. Quindi Ak = O e e 0

La matrice A = per ogni k 2.

Le potenze Ak giocano un ruolo importante in moltissime applicazioni. Spesso levoluzione di un sistema ` descritta da un vettore v0 Rn , lo stato iniziale, e da e una legge di evoluzione v1 = Av0 Rn dove A ` una matrice quadrata di ordine e n: in ununit` di tempo il sistema passa dallo stato v0 allo stato v1 , in unulteriore a unit` di tempo dallo sato v1 allo stato v2 = Av1 = A2 v0 . Dopo k unit` di tempo il a a sistema si trover` nello stato vk = Ak v0 . Quindi le propriet` di Ak riettono il modo a a in cui il sistema evolve nel tempo.

Matrici invertibili

In questo paragrafo assumeremo che tutte le matrici siano quadrate dello stesso ordine n. Ci chiediamo se ` possibile denire linversa di una matrice A. Linverso a1 di un e numero a ` lunico numero b tale che e ab = 1. Si noti che linverso di un numero a esiste se e solo se a = 0. Vogliamo denire linversa di una matrice sostituendo a 1 la matrice identit`. a Dobbiamo per` tener conto del fatto che il prodotto di matrici non ` commutativo. o e Quindi poniamo.

DEFINIZIONE 3.1 Siano A e B due matrici quadrate di ordine n. Si dice che B ` e una matrice inversa di A se AB = BA = I Si dice che A ` invertibile se esiste una matrice inversa di A. e Se A ` invertibile, la matrice inversa di A ` unica: e e

PROPOSIZIONE 3.2 Siano A, B e C matrici quadrate di ordine n. Se AB = I e CA = I, allora B = C. In particolare, se A ` invertibile, esiste ununica matrice e inversa di A: la si denota col simbolo A1 .

Dimostrazione. Luguaglianza B = C segue dalla propriet` associativa del prodotto e a dal fatto che la matrice identit` ` lelemento neutro per il prodotto di matrici: ae
B = IB = (CA)B = C(AB) = CI = C Se B e C sono due matrici inverse di A, allora per denizione AB = I = BA e AC = I = CA, e quindi per quanto abbiamo appena mostrato B = C.

Dimostreremo in un capitolo successivo ?? che

TEOREMA 3.3 Se A e B sono due matrici quadrate dello stesso ordine e AB = I, allora A e B sono invertibili e B = A1 . Il teorema aerma che da AB = I segue BA = I, e quindi basta vericare una sola delle due uguaglianze richieste dalla denizione. Questo per` non ` aatto evidente, o e perch il prodotto di matrici non ` commutativo. e e Come lesistenza dellinverso a1 consente di risolvere lequazione ax = b rispetto nellincognita x, cos` lesistenza della matrice inversa A1 consente in linea di principio di risolvere il sistema Ax = b. In linea di principio perch dal punto di vista pratico e il calcolo dellinversa non ` solitamente economico, si fa prima a risolvere il sistema e che a calcolare A1 . PROPOSIZIONE 3.4 Sia A una matrice quadrata invertibile di ordine n. Allora, per ogni termine noto b Kn , il sistema lineare Ax = b ammette lunica soluzione v = A1 b. In particolare, il rango di A ` n. e

Dimostrazione. La dimostrazione ` immediata: infatti se v ` soluzione di Ax = b, cio` e e e


Av = b, allora v = Iv = (A1 A)v = A1 (Av) = A1 b. Viceversa, se v = A1 b, Av = A(A1 b) = (AA1 )b = Ib = b Quindi A1 b ` lunica soluzione di Ax = b. Si noti che abbiamo usato entrambe le e uguaglianze AA1 = I e A1 A = I.

Chiudiamo il paragrafo con una formula per linversa del prodotto di due matrici invertibili: PROPOSIZIONE 3.5 Siano A e B due matrici quadrate di ordine n. La matrice prodotto AB ` invertibile se e solo se A e B sono invertibili. e Se A e B sono invertibili,vale la formula (3.1) (AB)1 = B1 A1

Dimostrazione. Se A e B sono invertibili, allora


(B1 A1 )(AB) = B1 (A1 A)B = B1 IB = B1 B = I e analogamente si mostra che (AB)(B1 A1 ) = I Quindi AB ` invertibile con matrice e inversa B1 A1 . Per mostrare il viceversa, usiamo il teorema 3.3 (che non abbiamo ancora dimostrato). Supponiamo che il prodotto AB sia invertibile, e mostriamo che A e B sono invertibili. Per ipotesi (AB)1 esiste; calcoliamo ((AB)1 A)B = (AB1 )(AB) = I, e quindi B ` invertibile per il teorema 3.3; inoltre e A = (AB)B1 ` invertibile in quanto prodotto delle due matrici invertibili AB e B1 . e Potremo dare una dimostrazione pi` rapida di questultimo fatto quando avremo svilupu pato la teoria del determinante. Il determinante di una matrice quadrata A ` un numero e det(A). Due delle propriet` fondamentali del determinante sono: a det(A) = 0 se e solo se A ` invertibile e il determinante di un prodotto ` il prodotto dei determinanti: e det(AB) = det(A) det(B) Laermazione che AB ` invertibile se e solo se A e B sono invertibili diviene quindi e det(AB) = 0 se e solo se det(A) = 0 e det(B) = 0, e questo ` evidente perch det(AB) = e e det(A) det(B).

Matrice trasposta. Matrici simmetriche e antisimmetriche.

Unulteriore operazione disponibile per le matrici ` quella di trasposizione che scambia e le righe con le colonne:

DEFINIZIONE 4.1 La trasposta di una matrice A ` la matrice AT che ha per righe e le colonne di A: lelemento di posto (i, j) di A ` lelemento di posto (j, i) di AT . e

Esempi Se v ` un vettore colonna, vT ` il vettore riga che ha le stesse componenti di v. Per e e esempio T 1 2 = 1 2 3 3 La trasposta della matrice A= ` la matrice e 1 4 2 5 3 6 4 5 6

1 AT = 2 3

Le principali propriet` della trasposizione sono: a Propriet` delloperazione A AT a a) Per ogni matrice A: (AT )T = A b) Supponiamo che il numero di colonne di A sia uguale al numero di righe di B, in modo che i prodotti AB e BT AT siano deniti. Allora (AB)T = BT AT c) Sia A una matrice quadrata invertibile. Allora anche AT ` invertibile, e e (AT )1 = (A1 )T

Dimostrazione. Luguaglianza (AT )T = A ` ovvia. Calcoliamo i due prodotti in b): se e


A = [aij ] e B = [bj k], allora (AB)T = (AB)ik = ki
j

aij bjk

(BT AT )ki =
j

BT A T = kj ji
j

bjk aij

e le due espressioni sono uguali perch il prodotto di numeri reali ` commutativo: e e aij bjk = bjk aij Inne mostriamo che (A1 )T ` linversa di AT . Usando b) calcoliamo e (A1 )T AT = (AA1 )T = IT = I

Analogamente si mostra AT (A1 )T = I, quindi (A1 )T ` linversa di AT . e

DEFINIZIONE 4.2 Una matrice A si dice simmetrica se ` simmetrica rispetto alla die agonale principale, il che signica che A = AT . Una matrice A si dice antisimmetrica se A = AT .

Esempi Una matrice A = [aij ] ` simmetrica se e solo se ` quadrata, diciamo di ordine n, e e e aij = aji per ogni i, j = 1, 2, . . . , n. Una matrice A = [aij ] ` antisimmetrica se e solo se ` quadrata, diciamo di ordine n, e e e aij = aji per ogni i, j = 1, 2, . . . , n. Ogni matrice diagonale ` simmetrica. In particolare, IT = I. e Tutti gli elementi sulla diagonale principale di una matrice antisimmetrica sono nulli perch aii = aii implica aii = 0. e Una matrice quadrata di ordine 2 ` simmetrica se e solo se ha la forma e a b b c

Quindi le matrici simmetriche di ordine 2 dipendono da 3 parametri. Una matrice quadrata di ordine 2 ` antisimmetrica se e solo se ha la forma e 0 a a 0

Le matrici antisimmetriche di ordine 2 dipendono da un unico parametro. Una matrice quadrata di ordine 3 ` simmetrica se e solo se ha la forma e a b c b d e c e f Le matrici simmetriche di ordine 3 dipendono da 6 parametri. Una matrice quadrata di ordine 3 ` antisimmetrica se e solo se ha la forma e 0 b c b 0 e c e 0 Le matrici antisimmetriche di ordine 3 dipendono da 2 parametri.

10

Lalgoritmo di Gauss-Jordan per il calcolo dellinversa

In questo paragrafo descriviamo un algoritmo che consente di calcolare, quando esiste, la matrice inversa di una matrice quadrata A di ordine n. Per il teorema ? calcolare linversa di A signica trovare una matrice quadrata B tale che AB = I. Consideriamo questa come unequazione matriciale in cui lincognita ` la matrice B. e Siano v1 , . . . , vn le colonne di B. Per denizione di prodotto di matrici, B soddisfa lequazione AB = I se e solo se le sue colonne v1 , . . . , vn risolvono i sistemi lineari (5.1) Ax = e1 , . . . , Ax = en

dove e1 , . . . , en sono le colonne della matrice identit` I, cio` i vettori della base a e canonica di Kn . Calcolare la matrice inversa ` quindi equivalente a risolvere simultaneamente gli e n sistemi lineari (5.1). Descriviamo ora un algoritmo che risolve simultaneamente questi sistemi nellipotesi che A abbia rango massimo n: questa ipotesi ` necessaria, e perch come abbiamo osservato nella proposizione 3.4 una matrice invertibile ha rango e massimo. Consideriamo un sistema quadrato con matrice completa [A|b] e supponiamo che A abbia rango n. Il sistema ammette allora ununica soluzione. Per determinarla, procediamo con lalgoritmo di Gauss, che produce un sistema equivalente con matrice completa [U|b1 ] dove U ` triangolare alta. Siccome r(U) = r(A) = n, i pivots di U sono gli elementi e pi = (U)ii della diagonale principale di U e sono tutti non nulli: p1 0 p2 0 0 p3 . . . . U=. . . . . . . . . . . 0 0 0 . . . pn Per avere un esempio esplicito, riprendiamo dal capitolo ?? il sistema lineare associato alla matrice completa 1 4 1 2 [A|b] = 2 6 5 8 1 2 5 8 11

Lalgoritmo di Gauss riduce la matrice alla 1 4 [U|b ] 0 2 0 0

forma 1 2 3 4 1 2

La soluzione del sistema si trova velocemente per sostituzione allindietro. Le operazioni di sostituzione allindietro si possono svolgere sulla matrice dei coecienti secondo il procedimento che ora illustriamo. Prima di tutto si riduce la matrice U a una matrice diagonale nel modo seguente. Sottraendo un opportuno multiplo dellultima riga alle altre righe, si cancellano tutti i termini sopra pn nelln-esima colonna. Queste operazioni non modicano le altre colonne della matrice dei coecienti (perch e ?). Poi sottraendo un opportuno multiplo della penultima riga alle righe sovrastanti, si cancellano tutti i termini sopra pn1 nella penultima colonna; queste operazioni modicano solo la penultima colonna della matrice dei coecienti, che ora sopra pn1 ha tutti i coecienti nulli. Proseguendo cos` si cancellano tutti i coecienti sopra i pivots, e quindi alla ne della procedura la matrice U ` ridotta alla matrice diagonale e D = diag(p1 , . . . , pn ). Nellesempio la riduzione si eettua coi passaggi 1 4 0 0 1 0 0 4 1 4 1 2 0 2 3 4 0 2 0 2 0 2 0 2 0 0 1 2 0 0 1 2 0 0 1 2 e D = diag(1, 2, 1). In generale si ottiene una matrice della forma [D|b2 ] con D diagonale di rango massimo. Ora si divide ogni riga per il corrispondente pivot ottenendo la matrice completa [I|b3 ] dove I denota come sempre 1 0 0 la matrice identit`. a 0 0 4 1 2 0 2 0 0 1 2 0 Nellesempio: 0 0 4 1 0 1 0 1 2

In questo passaggio abbiamo utilizzato un nuovo tipo di operazione sulle righe: moltiplicare una riga per uno scalare non nullo. Questa operazione evidentemente non cambia linsieme delle soluzioni del sistema. Quindi il sistema associato alla matrice [I|b3 ] ` equivalente al sistema dato. Ma il sistema associato alla matrice [I|b3 ] ` e e x = b3 4 e quindi b3 ` la soluzione del sistema. Nellesempio la soluzione ` b3 = 1. e e 2 12

Il procedimento che abbiamo utilizzato per ridurre la matrice [A|b] alla forma [I|b3 ] ` noto come algoritmo di Gauss-Jordan. e Riassumendo: Sia Ax = b un sistema lineare quadrato. Supponiamo che A abbia rango massimo. Lalgoritmo di Gauss-Jordan riduce la matrice completa [A|b] alla matrice [I|b3 ]. Il vettore b3 ` la soluzione del sistema. e Torniamo al problema di determinare linversa di una matrice A. Dobbiamo risolvere simultaneamente i sistemi lineari (5.1): Ax = e1 , . . . , Ax = en . Possiamo riportare i dati degli n sistemi (le loro matrici complete) in ununica matrice aggiungendo alla matrice dei coecienti n colonne coi termini noti di tutti gli n sistemi: [A|e1 en ] = [A|I]. Applicando lalgoritmo di Gauss-Jordan riduciamo questa matrice alla forma [I|v1 vn ] = [I|B]

Per quanto visto sopra, il vettore vi risolve Ax = ei per ogni i = 1, 2, . . . , n. Quindi la matrice B = [v1 vn ] ` linversa di A. e Sia A una matrice quadrata di rango massimo. Per trovare linversa di A si accosta ad A la matrice identit` I, quindi con lalgoritmo di Gauss-Jordan si a riduce la matrice [A|I] alla matrice [I|B]. La matrice B ` linversa di A. e

Esempio Calcoliamo linversa della matrice 1 A = 2 1 1 [A|I] = 2 1 4 6 2 4 6 2 1 5 5 1 5 5 1 0 0 0 1 0 0 0 1

Riduciamo la 1 4 2 6 1 2

matrice dei a coecienti prima a forma 1 1 0 0 1 4 1 1 0 5 0 1 0 0 2 3 2 1 5 0 0 1 0 2 4 1 0

triangolare: 0 1 4 0 0 2 1 0 0

1 3 1

1 2 1

0 1 1

0 0 1

13

e poi a forma 1 4 1 0 2 3 0 0 1

diagonale 1 2 1 0 1 1 0 1 0 0 1 0 0 1 0 4 2 0 0 0 1 0 5 1 1 4 1 1 1 3 0 1 0 7 3/2 1 7 3/2 1 0 2 0 0 0 1 10 5 1 9 4 1 7 3 1

Inne dividiamo per il pivot 2 la 1 0 0 per cui A

seconda riga 0 0 1 10 5/2 1 9 2 1 9 2 1

Il lettore dovrebbe vericare che A1 A = AA1 = I. Esempio

10 = 5/2 1

.
16

a b soddisfacente ad bc = 0 (altrimenti il c d rango ` minore di due, e linversa non esiste), col metodo di Gauss-Jordan. Assumiamo per e semplicit` a = 0, e applichiamo lalgoritmo: a a b 1 0 a b 1 0 c c 1 0 d b c d 0 1 a a Poniamo e = ad bc, e proseguiamo lalgoritmo sottraendo dalla prima riga la seconda ab riga moltiplicata per e ad ab a b 1 0 a 0 e e e c e c 0 1 0 1 a a a a Dividiamo inne la prima riga per il suo pivot a, e la seconda riga per e/a: otteniamo d b 1 0 e e c a 0 1 e e quindi d b d b e e 1 1 = A = ad bc c a c a e e La formula ` valida anche per a = 0. e Esercizi Calcoliamo linversa di una matrice A = Dimostrare che per il prodotto di due matrici diagonali vale la formula diag(1 , . . . , n ) diag(1 , . . . , n ) = diag(1 1 , . . . , n n )

Concludere che il prodotto tra matrici diagonali ` commutativo. e

14

. . . . . . . . .
18 23 24 25

17 Trovare una matrice diagonale D e una matrice quadrata A dello stesso ordine di D tali che DA = AD

Sia I la matrice identit` di ordine n. Mostrare che a (I)B = B(I)

per ogni matrice quadrata B di ordine n.

19 Sia A una matrice quadrata di ordine 2 che commuta con tutte le matrici quadrate di ordine 2: AB = BA per ogni matrice B quadrata di ordine 2

Dimostrare che A ` un multiplo scalare dellidentit`: esiste uno scalare K tale che e a A = I. Dimostrare l enunciato analogo per le matrici quadrate di ordine n.
20 Per il prodotto di matrici non vale la legge di annullamento: il prodotto di due matrici pu` essere la matrice nulla senza che alcuno dei fattori sia nullo. Fonire dei controesempi: o a) trovando una matrice quadrata non nulla A tale che A2 = O, b) trovando due distinte matrici quadrate A e B di ordine due tali che AB = O. 21 Per il prodotto di matrici non vale la legge di cancellazione: da AC = BC non segue A = B. Trovare tre matrici quadrate A, B e C di ordine due tali che A = B, ma AC = BC.

22 (Radici quadrate di I) Determinare tutte le matrici quadrate A di ordine 2 a coecienti reali tali che A2 = I. Determinare tutte le matrici quadrate C di ordine 2 a coecienti complessi tali che C2 = I.

Scrivere la forma generale di una matrice triangolare superiore di ordine n e concludere n(n + 1) parametri. che le matrici triangolari superiori di ordine n dipendono da 2

Scrivere la forma generale di una matrice simmetrica di ordine n e concludere che le n(n + 1) parametri. matrici simmetriche di ordine n dipendono da 2 Scrivere la forma generale di una matrice antisimmetrica di ordine n e concludere che n(n 1) le matrici simmetriche di ordine n dipendono da parametri. 2

15