Sei sulla pagina 1di 6

NOTA BENE.

Questi appunti non sono esaustivi, non contengono tutto ci che stato detto a lezione/
esercitazione; costituiscono una base minima di conoscenze necessarie a superare lesame e
possono essere utili per un ripasso veloce

Algebra delle matrici. (vedi Capitolo 3 del libro)


(Primi elementi)
Una matrice A di tipo (m,n) su un campo K una tabella di mn elementi di K disposti su m righe ed n
colonne. Indichiamo in genere con aij , con 1im, 1jn, lelemento di K che appartiene alla i-esima
riga e alla j-esima colonna di A. Quindi
a11
a1

a1
a

a1n
an

am1

am

amn

A=[

[aij ]

Una matrice si dice vettore riga se m=1, vettore colonna se n=1.


La matrice A si pu quindi vedere come laccostamento orizzontale [
n ] degli n vettori
a1i
a
colonna i [ i ] di tipo (m,1) o come laccostamento verticale [ ] degli m vettori riga
an
a
a
[ j1
jn ]
di tipo (1,n).
Due matrici A

[aij ] e B

Date due matrici A


matrice C

[bij ] si dicono uguali se sono dello stesso tipo e per ogni posto (i,j) aij=bij.

[aij ] e B [bij ] dello stesso tipo (m,n) si chiama somma delle due matrici la

[cij ] di tipo (m,n) dove cij=aij+bij.

E immediato verificare che la somma di matrici gode delle propriet:


-

commutativa: A+B=B+A
associativa: A+(B+C)=(A+B)+C
esiste una matrice 0(m,n) di tipo (m,n) con tutti elementi nulli tale che per ogni matrice A di tipo
(m,n) A= A+0(m,n), tale matrice si dice matrice nulla di tipo (m,n)
per ogni matrice A di tipo (m,n) esiste una matrice -A di tipo (m,n) tale che A+(-A)= 0(m,n) . (la
matrice A ovviamente la matrice i cui elementi sono gli opposti dei corrispondenti elementi
di A. La matrice A si chiama opposta di A.

Data una matrice A [aij ] di tipo (m,n) ed uno scalare k il prodotto dello scalare k per la matrice A la
matrice kA= [ aij ] . Il prodotto di uno scalare per una matrice ha le seguenti propriet

per ogni coppia di scalari k,h e per ogni A: (k+h)A= kA+hA


(NB. Il primo simbolo +
denota la somma di scalari ed il secondo la somma di matrici)
per ogni coppia di scalari k,h e per ogni A: (kh)A=k (hA)
(NB. Il prodotto kh il prodotto
di scalari gli altri sono i prodotti di uno scalare per una matrice)
per ogni scalari k e per ogni coppia di matrici dello stesso tipo A e B: k(A+B)=kA+kB
per ogni matrice A: 1A=A.

Queste propriet ci dicono che linsieme M(m,n)(K) delle matrici di tipo (m,n) sul campo K formano uno
spazio vettoriale sul campo K rispetto alle operazioni sopra definite (vedi definizione di spazio
vettoriale nel capitoletto apposito). Valgono quindi le propriet note per gli spazi vettoriali.
-

A+B=A+C implica B=C


kA=0(m,n) se e solo se vale almeno una delle due condizioni k=0, A=0 (m,n).

Alcune notazioni:
Una matrice si dice quadrata di ordine n se di tipo (n,n).
Una matrice si dice triangolare alta (bassa) se quadrata e se aij=0 per ogni i>j (i<j), si dice diagonale
se quadrata e aij 0 per ogni ij., una matrice diagonale si scrive spesso nella forma diag(1,2, ,n),
dove i=aii. Gli elementi aii di una matrice A si chiamano elementi diagonali e la linea composta da
questi elementi (che va dallangolo in alto a sinistra allangolo in basso a destra di A) si chiama
diagonale principale di A. Una matrice quindi diagonale se i suoi eventuali elementi non nulli stanno
tutti sulla diagonale principale, triangolare alta (bassa) se gli elementi sotto(sopra) la diagonale
principale sono tutti 0
Data una matrice A di tipo (m,n) si chiama trasposta di A, e si indica con AT, la matrice di tipo (n,m)
che si ottiene da A scambiando le righe con le colonne ; in altre parole lelemento di posto (i,j) di A T
aji. Una matrice si dice simmetrica se A= AT ed emisimmetrica se A=- AT. Una matrice simmetrica od
emisimmetrica necessariamente quadrata. Gli elementi principali di una matrice emisimmetrica sono
tutti nulli, infatti si dovrebbe avere aii =- aii e lunico elemento di K uguale al suo opposto lo 0.
Prodotto di matrici
Siano A [aij ] una matrice di tipo (m,n) e B [bh ] una matrice di tipo (n,p) allora possiamo definire
una matrice C [crs ] di tipo (m,p) nel modo seguente
crs ni 1 ari bis =ar1b1s+ar2 b2s+ +ar nbns
La matrice C si chiama matrice prodotto (righe per colonne) della matrice A per la matrice B .
Lelemento crs di C si ottiene facendo il prodotto (righe per colonne delle r-esima riga di A con la sesima colonna di B.
Il prodotto di matrici NON commutativo.

In genere infatti pu essere definito il prodotto AB e non il prodotto BA. Ad esempio se A di tipo
(m,n), B di tipo (n,p) e mp, AB definito ma BA no; nel caso m p allora AB quadrata di ordine m e
BA quadrata di ordine p quindi le matrici sono diverse ; se n=m=p, AB e BA sono entrambe definite
e quadrate di ordine n, ma ancora in generale ABBA: basta considerare A=[
AB=[

] e BA=[

], B=[

], si ha

]. Due matrici quadrate di ordine n si dicono permutabili se AB=BA.

Il prodotto di matrici associativo (quando definito), in altre parole se A una matrice di tipo (m,n),
B una matrice di tipo (n,p), C una matrice di tipo (p,r) allora A(BC)=(AB)C.
E infatti immediato osservare che BC di tipo(n,r) e quindi si pu effettuare il prodotto A(BC) e si
ottiene una matrice (m,r), AB una matrice di tipo (m,p) e quindi si pu effettuare il prodotto (AB)C
che ancora una matrice di tipo (m,r). Inoltre ponendo AB=[d ik], si ha di nh 1 aih bh e ponendo
p
p
(AB)C=[eit], si ha eit 1 di c t 1 nh 1 aih bh c t nh 1 aih ( nh 1 bh c t ), ma nh 1 bh c t
lelemento di posto (h,t) del prodotto BC, quindi nh 1 aih ( nh 1 bh c t ) lelemento di posto (i,t) del
prodotto A(BC).
Il fatto che il prodotto sia associativo mi permette di definire per ogni matrice quadrata e per ogni
intero positivo h la potenza di A con esponente h ponendo Ah AA A (h volte) e quindi di ricavare le
propriet formali delle potenze per le potenze ad esponente intero positivo di A:
-

AhAk=Ah+k da cui si ricava che le potenze di una stessa matrice sono sempre permutabili
(Ah)k=Ahk

Se A una matrice di tipo (m,n) e B,C sono due matrici dello stesso tipo (n,p) allora vale la propriet
distributiva ( a sinistra) del prodotto rispetto alla somma: A(B+C)=AB+AC
Infatti il generico elemento di posto (i,k) di A(B+C) nh 1 aih (bh +ch ) nh 1 aih bh + nh 1 aih ch
dove nh 1 aih bh e nh 1 aih ch sono gli elementi di posto (i,k) rispettivamente di AB e AC.
Analogamente se A,B sono due matrici dello stesso tipo (m,n) e C una matrice di tipo (n,p) allora vale
la propriet distributiva ( a destra) del prodotto rispetto alla somma: (A+B)C=AC+BC.
NON vale la propriet di annullamento del prodotto.
Ovviamente se A una matrice di tipo (m,n) e si considera 0 (n,p) si ha A0(n,p)= 0(m,p) , ma esistono
matrici non nulle il cui prodotto la matrice nulla. Basta considerare A=[
AB=[

], B=[

], si ha

]. Di conseguenza NON si pu in generale semplificare una matrice non nulla: infatti se

prendiamo A,B come prima, si ha AB=A0(2,2) e B0(2,2).


Sia In diag(1,1,

,1), In si dice matrice identica di ordine n.

Per ogni matrice A di tipo (m,n) si ha I mA=AIn=A.


Sia A quadrata di ordine n, per convenzione si pone A0=In e si dimostra facilmente che le propriet
delle potenze valgono per esponenti interi non negativi.

Osservate che dalla definizione di prodotto di matrici e di matrice trasposta segue subito (AB) T=BTAT.
ATTENZIONE: E facile quando si opera sulle matrici dimenticare che molte propriet cui siamo
abituati nel calcolo su numeri NON valgono e fare quindi operazioni non permesse.
A questo punto prima di procedere col calcolo matriciale (ri)guardare i sistemi lineari.

Parte seconda
Matrice inversa
Definizione: Una matrice quadrata A di ordine n ammette inversa (o invertibile a) sinistra se esiste
una matrice B tale che BA=In, ammette inversa destra se esiste una matrice C tale che AC=I n, ammette
inversa (o invertibile) se esiste una matrice chiamata A-1 tale che AA-1=A-1 A=In.
Ovviamente B,C,A-1 sono tutte matrici quadrate di ordine n
Lemma (di unicit dellinversa): Se una matrice A ha inversa sinistra e inversa destra, queste
coincidono e quindi la matrice invertibile.
Dim: Siano B e C rispettivamente linversa sinistra e linversa destra di A. Da BA I n, moltiplicando a
destra per C otteniamo (BA)C=InC, da cui per la propriet associativa del prodotto B(AC)=InC e quindi
visto che C inversa destra BIn=InC e dunque B=C.
Come corollario si ottiene subito che la matrice inversa di una matrice A se esiste unica.
Si hanno inoltre le seguenti immediate propriet.
-

Se A ammette inversa A-1 linversa di A-1 A


Se A e B sono matrici quadrate dello stesso ordine che ammettono inversa allora AB ha inversa
e tale inversa B-1 A-1. ATTENTI allordine!!

Teorema: Sia A una matrice quadrata di ordine n, sono equivalenti le seguenti condizioni:
1.
2.
3.
4.
5.
6.
7.

A ammette inversa
A ammette inversa destra
A ammette inversa sinistra
Ker A={0} (ovvero lunico vettore x tale che Ax=0 il vettore 0)
Le n colonne di A sono un insieme di vettori linearmente indipendenti
rk(A)=n
Il sistema lineare Ax=b ha una e una sola soluzione.

Dim. 1)2) e 1)3) sono ovvie.

3)4) Sia x un vettore tale che Ax=0 allora, detta B linversa sinistra di A, si ha B(Ax)=B0=0 e
quindi per la propriet associativa 0=(BA)x=Inx=x. Dunque x necessariamente il vettore nullo.
4)5) Detti c1, c2,

, cn i vettori colonna di A se per assurdo ci fossero degli scalari a 1,a2,

tutti nulli tali che

e si avrebbe A[

,an non

] =0 e quindi si otterrebbe lassurdo

Ker A{0}.

5)4) Usiamo la notazione precedente e supponiamo per assurdo che il vettore non nullo [

allora si avrebbe A[

] =0 e dunque

]Ker A

con coefficienti non tutti nulli ,

contro lipotesi che i vettori colonna di A siano linearmente indipendenti.


4)6) Dalla teoria dei sistemi lineari si sa che se rk(A)<n allora il sistema lineare omogeneo Ax=0
ammette soluzioni non banali contro lipotesi e dunque r (A) n.
6)7) Segue dalla regola di Cramer
7)2) Consideriamo gli n sistemi lineari Ax=e1, Ax=e2, Ax=en, dove e1, e2, en sono i vettori
colonna della matrice In. Ognuno di questi sistemi ha una e una sola soluzione di (1in) sia D la
matrice formata dallaccostamento dei vettori di (in altre parole sia D la matrice la cui i-esima colonna
di), si vede subito che AD=I n e dunque A ammette una matrice inversa a destra. Ora la catena di
implicazioni che abbiamo prima dimostrato ci danno 3)7). Dunque abbiamo che 3)2), da cui per il
Lemma dellunicit dellinversa otteniamo 3)1).
2)3) Se A ha uninversa destra C, allora C ha A come inversa sinistra e dunque, visto che abbiamo
provato che 3) ), C ha uninversa destra che coincide con A per il Lemma di unicit della matrice
inversa. Dunque CA=In ed A ha inversa sinistra.
Pi avanti mostreremo anche che le condizioni
8) le righe di A sono un insieme di vettori linearmente indipendenti
9) det A0
sono equivalenti alle precedenti.
Osserviamo inoltre che se A una matrice che ammette inversa allora
-

AB=AC implica B=C dove B e C sono matrici di tipo (n,q);

DA=EA implica D=E dove D ed E sono matrici di tipo (r,n);


Ogni equazione matriciale AX=B con X e B matrici dello stesso tipo (n,q) ammette una ed una
sola soluzione della forma X=A-1B
Ogni equazione matriciale YA=C con Y e C matrici dello stesso tipo (p,n) ammette una ed una
sola soluzione della forma Y= CA-1
ATTENTI alla posizione di A-1!!

Provate a dimostrare le suddette propriet.


Osserviamo inoltre che se A ammette inversa possiamo definire le potenze ad un esponente intero
qualsiasi di A, ponendo
Am=AAA A (m volte se m>0), Am=A-1A-1 A-1 (-m volte se m<0), A0= In,
Anche in questo caso valgono le propriet formali delle potenze.
Rimane ora da dare un metodo per calcolare A-1, quando esiste.
Qui presentiamo il metodo di Gauss Jordan, negli appunti sul determinante presentato un altro
metodo.
Sia A una matrice quadrata di ordine n con rk(A)=n.
Vogliamo trovare una matrice B tale che AB= In. Questo significa che la matrice B laccostamento
delle soluzioni dei sistemi Ax=ei, 1in, dove ei li-esima colonna della matrice identica.
Consideriamo la matrice [A|In] e trasformiamola in forma a scalino. Questo equivale a ridurre a scalino
in un solo colpo le matrici complete dei sistemi Ax=ei. Poich rk(A)=n la forma a scalino di [A|I n] sar
[U|B] dove U una matrice triangolare alta che la forma a scalino di A e B la matrice ottenuta da In
attraverso le operazioni elementari eseguite.

Sia U=[

], aggiungendo alla i-esima riga di [U|B] (1in-1) lultima riga moltiplicata

, si annullano tutti i primi n-1 elementi della n-esima colonna di [U|B] e non si
per
modificano i pivot e gli zeri sotto i pivot, aggiungendo alla i-esima riga della matrice cos ottenuta

(1in-2) la penultima riga moltiplicata per


, si annullano tutti i primi n-1 elementi della
(n-1)-esima colonna della matrice che avevamo ottenuto, senza modificare i pivot, gli zeri sotto i pivot
e gli zeri della n-esima colonna. Procedendo in modo analogo si ottiene in un numero finito di passi
una matrice della forma [D|C] dove D =diag (p1,p2, pn), quindi dividendo la riga i-esima per 1/pi si
ottiene una matrice della forma [In|C]. Questo corrisponde ad avere trasformato i sistemi Ax=ei in
sistemi equivalenti della forma Inx=x=ci, dove ci la i-esima colonna di C e quindi C linversa di
A.

Potrebbero piacerti anche