Sei sulla pagina 1di 8

Teoremi

Rouchè-Capelli
a
1 parte: Si consideri un sistema lineare di m equazioni in n incognite e siano A la matrici dei coefficienti (o
matrice incompleta) e (A|b) la matrice completa:

 il sistema è compatibile se e solo se rg(A) = rg(A|b)


 ha un’unica soluzione se e solo se rg(A) = rg(A|b) = n, numero di incognite
 ha infinite soluzioni se e solo se rg(A) = rg(A|b) = rg < n
(le soluzioni dipendono quindi da n-rg parametri)
 il sistema è incompatibile (non ammette soluzioni) se e solo se rg(A) ≠ rg(A|b)
a
2 parte: Le soluzioni del sistema formeranno uno spazio che dipende da n-rg parametri. Se il rango della
matrice è uguale al numero di colonne (rango pieno) rg = m, le soluzioni dipenderanno da 0 parametri e
quindi il sistema avrà un’unica soluzione, altrimenti avrà infinite soluzioni che dipenderanno da n-rg
parametri (rg < n).
OSS: il sistema è compatibile se e solo se b ∈ Im(T ¿¿ A )¿

DIMOSTRAZIONE
Sia Ax = b la forma matriciale di un sistema di m equazioni in n incognite a coefficienti in un campo K.
Consideriamo la matrice incompleta A associata al sistema e sia L A l'applicazione definita dalla matrice A,
n m
ossia L A : K → K L A ( x ) ≔ Ax

Risulta allora evidente che il sistema lineare Ax = b è compatibile, cioè ammette soluzione, se e solo se
esiste almeno un vettore x ∈ K ntale che L A ( x )=b

Ciò equivale ad affermare che b deve appartenere all'immagine ℑ ( L A ) dell'applicazione lineare L A , che è il
sottospazio generato dalle colonne c 1 , c2 , … , c n della matrice A, quindi

b ∈ ℑ ( L A ) ↔ b ∈ Span(c 1 ,c 2 , … , c n)

D'altra parte, se b appartiene al sottospazio generato dalle colonne di A allora risulta che quest'ultimo
coincide col sottospazio generato dalle colonne della matrice completa (A|b)

Span ( c1 , c 2 , … , c n ) =Span ( c 1 , c2 , … , c n , b )

Dunque b appartiene all'immagine dell'applicazione L A se e solo se A e (A|b) hanno lo stesso rango che, per
definizione, è la dimensione del sottospazio generato dalle colonne di una matrice.
Abbiamo così dimostrato che il sistema lineare è compatibile se e solo se rg(A) = rg(A|b).
Proseguiamo. Per il teorema di struttura, se esiste una soluzione x del sistema Ax = b, allora tutte e sole le
sue soluzioni si scrivono nella forma x + x 0 dove x 0 è una soluzione qualsiasi del sistema lineare omogeneo
associato Ax = 0. Da ciò segue che lo spazio delle soluzioni di Ax = b si può scrivere come

Sol ( A|b )=x + Sol( A∨0)

cioè Sol ( A|b ) è un sottospazio affine con giacitura Sol( A∨0) . Per definizione di sottospazio affine, le
dimensioni di Sol ( A|b ) e di Sol( A∨0) coincidono. In altri termini, il sottospazio delle soluzioni di Ax = b
ha la stessa dimensione del sottospazio delle soluzioni di Ax = 0.
Osserviamo ora che lo spazio delle soluzioni del sistema lineare omogeneo Ax = 0 è Ker ( L A ), ossia il
nucleo dell'applicazione lineare L A .

Per il teorema delle dimensioni

dim ( K ) =dim ( Ker ( L A ) ) + dim ( ℑ ( L A ) ), da cui segue che


n

dim ( Ker ( L A ) ) =dim ⁡(K n ¿ )−dim ( ℑ ( L A ) ) =n−dim ( ℑ ( L A ) ) ¿

cioè dim ( Sol ( A|0 ) )=n−rg( A), ossia la dimensione dello spazio delle soluzioni del sistema lineare
omogeneo Ax = 0 è uguale a n - rg(A).
Poc'anzi abbiamo dimostrato che lo spazio delle soluzioni di Ax = b ha la stessa dimensione dello spazio
delle soluzioni di Ax = 0 e da ciò segue la tesi, infatti

dim ( Sol ( A|b ) )=dim ( Sol ( A|0 ) ) =n−rg( A )


cioè il numero delle soluzioni del sistema Ax - b è uguale a n – rg(A).

Teorema di struttura
Il teorema di struttura per i sistemi lineari permette di descrivere le soluzioni di un sistema lineare non
omogeneo partendo da una sua qualsiasi soluzione e usando l'insieme delle soluzioni del sistema lineare
omogeneo a esso associato.

Siano Ax = b un sistema lineare e v 0una sua soluzione. Tutte e sole le soluzioni v del sistema sono della
forma v=v 0 + w dove w è una soluzione del sistema lineare omogeneo associato ad Ax = b.

Teorema delle dimensioni


Mette in relazione le dimensioni di nucleo e immagine di una trasformazione lineare con la dimensione dello
spazio lineare su cui è definita la trasformazione.

T :V → W dim ( V )=dim ( Ker ( T ) ) +dim ( ℑ (T ) )

DIMOSTRAZIONE
Poiché V ha dimensione finita, il sottospazio vettoriale Ker (f) ha anch'esso dimensione finita. Il nucleo ha
quindi una base B=( v 1 ,… , v r ) .

Per il teorema della base incompleta esistono v r+1 , … , v ntali che:


'
B =¿
sia una base di V. Per concludere è sufficiente mostrare che i vettori:

f ( v r +1 ) ,… , f v n

formano una base di Im (f). L'immagine è generata dai vettori:

f ( v 1 ) , … , f ( v r ) , f ( v r +1 ) , … , f ( v n)
I primi r vettori sono però nulli (per definizione di Ker), quindi l'immagine è generata dagli ultimi n − r
vettori:

f ( v r +1 ) ,… , f (v n )

Resta quindi da verificare l'indipendenza lineare di questi vettori. Si suppone quindi data una combinazione
lineare nulla:

λ r+1 f ( v r+ 1) + …+ λ n f ( v n )=0

Per linearità si ottiene:

f ( λr +1 v r+ 1+ …+ λn v n ) =0

Quindi:

λ r+1 v r +1 +…+ λ n v n ∈ Ker ( f )

Poiché questo vettore sta nel nucleo, è esprimibile come combinazione lineare dei vettori v1 , … , v r :

λ r+1 v r +1 +…+ λ n v n=α 1 v 1+ …+α n v r


In altre parole:
−α 1 v 1−…−α n v r + λr +1 v r +1+ …+ λ n v n=0

Poiché ( v 1 , … , v n ) è una base di V, tutti i coefficienti qui presenti sono nulli.


In particolare, λ j=0per ogni j. Quindi i vettori f ( v r +1 ) ,… , f (v n ) sono effettivamente indipendenti.
L'immagine ha quindi dimensione n – r.
Pertanto:

dim ( ℑ ( f ) ) =n−r=dim ( V )−dim ( Ker ( f ) )

Teorema della base incompleta (o completamento della base)


Sia V uno spazio vettoriale su un campo K, di dimensione n. Il teorema di completamento a base, anche detto
teorema della base incompleta, asserisce che se v1 , … , v k sono vettori linearmente indipendenti in V si ha:

 Il numero k è minore o uguale a n.


 Se k < n allora esistono n − k vettori v k+1 , … , v n tali che l'insieme ordinato v1 , … , v k , v k +1 , … , v n
è base di V.

Teorema di Binet
Il teorema di Binet è un teorema che collega il prodotto fra matrici quadrate con il determinante.
Siano A e B due matrici quadrate con lo stesso numero di righe, a valori in un campo K.
Il determinante del prodotto tra A e B è il prodotto del determinante di A per il determinante di B:

det ( A∗B )=det A∗det B


Teorema di Laplace

Si supponga di avere una matrice quadrata M di dimensione n e di elementi mij . Si definiscono:

 La matrice M ij, la sottomatrice (di dimensione n − 1) che si ottiene da M cancellando la i-esima riga
e la j-esima colonna.
 Il valore det ( M ij), detto minore complementare dell'elemento (i, j).
i+ j
 Il valore (−1) det ( M ij ) detto cofattore o complemento algebrico dell'elemento (i, j).

Il primo teorema di Laplace afferma che il determinante di una matrice quadrata M di ordine n è pari alla
somma dei prodotti degli elementi di una riga qualsiasi (o una colonna qualsiasi) per i rispettivi complementi
algebrici. In formule:
n
det M =∑ (−1)i+ j mij det ( M ij )
j=1

indicando con i la riga, con j la colonna e considerando i, j = 1, ... , n.


Il secondo teorema di Laplace afferma che è sempre nulla la somma dei prodotti degli elementi di una riga (o
colonna) per i complementi algebrici di un'altra riga (o colonna) della matrice stessa. In formule:
n
0=∑ (−1) mij det ( M ij ) con i≠ k
i+ j

j=1

(se i = k è il primo teorema e il risultato è diverso da zero).

Regola di Sarrus
la regola di Sarrus è un metodo mnemonico per ricordare la formula del determinante di una matrice
quadrata 3 × 3. Il determinante può essere espresso tramite somme e differenze dei prodotti dei termini sulle
6 "diagonali continue" della matrice. Ripetendo infatti a destra della matrice le sue prime due colonne

( )
a b c a b
d e f c d i prodotti dei termini sulle 3 "diagonali" che partono dall'alto a sinistra (diagonali principali)
g h i e f
sono rispettivamente aei, bfg e cdh, mentre i prodotti dei termini sulle 3 "diagonali" che partono dal basso a
sinistra (diagonali secondarie) sono gec, hfa e idb. Il determinante della matrice è pari alla differenza tra la
somma dei primi tre e quella degli ultimi tre:

a e i+ b f g+c d h−g e c −h f a−id b

Regola di Cramer
La regola di Cramer o metodo di Cramer è un teorema utile per risolvere un sistema di equazioni lineari
usando il determinante, nel caso in cui il sistema abbia esattamente una soluzione.
Un sistema di equazioni lineari può essere rappresentato usando moltiplicazione fra matrici come Ax = c
dove A è una matrice e x, c sono due vettori. Se A è una matrice quadrata (cioè il numero di incognite del
sistema è pari al numero di equazioni) ed è anche invertibile, il teorema di Rouché-Capelli asserisce che il
sistema ha esattamente una soluzione.

In questo caso, la regola di Cramer fornisce un algoritmo per calcolare la soluzione x 1 , x 2 , … , x nusando il
determinante nel modo seguente:
det ⁡( Ai )
x i= dove Ai è la matrice formata sostituendo la i-esima colonna di A con il vettore c. Si nota che la
det ⁡( A)
condizione di invertibilità di A garantisce che il denominatore det (A) sia diverso da zero, e quindi che
l'espressione descritta abbia sempre senso.

Teorema degli orlati


Il teorema degli orlati, conosciuto anche col nome di teorema di Kronecker, ci permette di calcolare il rango
di una matrice. Prima di darne l'enunciato e vedere un esempio di applicazione è bene richiamare i concetti
di sottomatrice, sottomatrice orlata, minore e minore orlato, che comunque abbiamo spiegato in dettaglio
nella nostra lezione su sottomatrice e minori di una matrice.
Sia A una matrice con m righe e n colonne.

 Una sottomatrice di A è una qualsiasi matrice estratta da A eliminando un numero arbitrario di righe
e/o di colonne.
 Detta A' una sottomatrice di A, prende il nome di sottomatrice orlata ogni matrice ottenuta da A'
aggiungendo una riga e una colonna di A.
 Un minore di A di ordine p è definito come il determinante di una qualsiasi sottomatrice quadrata di
A di ordine p, ossia con p righe e p colonne; se tale determinante è diverso da zero, il minore è detto
non nullo.
 Un minore orlato è, invece, il determinante di una sottomatrice di ordine p+1 ottenuta orlando una
sottomatrice di A di ordine p.
Enunciato
Sia A una matrice con m righe e n colonne. Il rango di A è uguale a p se e solo se esiste una sottomatrice
quadrata A' di A di ordine p con determinante diverso da zero, e tutte le sottomatrici orlate di A' hanno
determinante nullo.
Un enunciato equivalente, che fa uso della nozione di minore, è il seguente:
sia A una matrice con m righe e n colonne. Il rango di A è uguale a p se e solo se esiste un minore non nullo
di ordine p, e ogni suo minore orlato è nullo.
Calcolo del rango col teorema degli orlati
All'atto pratico, per calcolare il rango di una matrice A con il teorema degli orlati si deve:
1) fissare un elemento non nullo di A, tenendo presente che se A è una matrice nulla allora il suo rango è 0.
2) Orlare l'elemento fissato così da ottenere sottomatrici quadrate di A di ordine 2. Se tutte le sottomatrici
orlate di ordine 2 hanno determinante nullo, il rango di A è 1, e possiamo fermarci. Se esiste una
sottomatrice A' di ordine 2 con determinante diverso da zero proseguiamo oltre.
3) Costruire tutte le sottomatrici orlate di A' di ordine 3. Se tutte queste sottomatrici hanno determinante
nullo possiamo concludere che il rango di A è 2 e possiamo fermarci. Se esiste una sottomatrice A'' di ordine
3 con determinante non nullo passiamo al punto successivo.
4) Orlare A'' così da ottenere sottomatrici orlate di ordine 4. Se tutte hanno determinante nullo, il rango di A
è 3 e possiamo fermarci. Se ne esiste almeno una con determinante non nullo continuiamo a orlare.
L'algoritmo termina quando si giunge a una sottomatrice che non si può più orlare, cioè avente un ordine
uguale al minimo tra il numero di righe e il numero di colonne A.
Tipi di matrice
MATRICE DIAGONALE
È una matrice quadrata in cui gli elementi sono tutti nulli ad eccezione di quelli posti sulla diagonale
principale. La diagonale è un vettore riga.

matrie diagonale ↔ ∀ i, j ∈ {1,2 , … , n } ,i ≠ j , ai , j=0


n ,n
A∈R

MATRICE SCALARE
È una matrice diagonale che ha sulla diagonale lo stesso scalare.

| |
4 0 0
Es. 0 4 0 diag (4 , 4 , 4)
0 0 4

MATRICE IDENTITÀ

Si indica con Id, Id n, I ed è una matrice scalare avente tutti 1 sulla diagonale principale.

| |
1 0 0
Id n ∈ R
n, n
{
, ∀ i, j ∈ {1,2 , … , n } :aij = 0 se i≠ j Es . A= 0 1 0
1 sei= j
0 0 1

MATRICE TRIANGOLARE SUPERIORE


È una matrice quadrata avente tutti gli elementi al di sotto della diagonale uguali a 0. In formule:

A ∈ R n ,n triangolare superiore ↔ ∀ i , j∈ { 1,2, … , n } , i> j , ai , j=0

MATRICE TRIANGOLARE INFERIORE


È una matrice quadrata avente tutti gli elementi al di sopra della diagonale uguali a 0. In formule:

triangolare inferiore ↔ ∀ i , j∈ { 1,2 ,… , n } , i< j , ai , j=0


n ,n
A∈R

MATRICE SPARSA
Contiene elementi nulli per la maggior parte.

SPAN MATRICE
Lo spazio generato dai vettori colonna è lo span di Rm .
Lo spazio generato dai vettori riga è lo span di Rn.

MATRICE A SCALA
Si dice matrice a scala quando il primo elemento non nullo di ogni riga è più a destra del primo elemento non
nullo della riga precedente. In una matrice a scala i primi elementi non nulli sono chiamati pivot o elementi
pivotali. Nella matrice a scala i vettori colonna che contengono i pivot sono linearmente indipendenti e sono
generatori dello spazio di vettori colonna. Il rango di una matrice a scala coincide con il numero di righe non
identicamente nulle. rango=numero di pivot

MOSSE DI GAUSS
Le mosse di Gauss sono operazioni che modificano una matrice in uno dei modi seguenti:

 scambiando due righe;


 moltiplicando una riga per un numero diverso da zero;
 sommando una riga ad un multiplo di un'altra riga.

Le righe della matrice qui sono intese come vettori dello spazio vettoriale K n e quindi si possono
moltiplicare per un numero oppure sommare, semplicemente termine a termine.
Le mosse di Gauss hanno la seguente importante proprietà: se applicate alla matrice completa (con termini
noti) di un sistema lineare, non modificano lo spazio delle soluzioni del sistema. In altre parole, cambia il
sistema ma le soluzioni restano invariate: un vettore ( x 1 ,… , x n ) è soluzione del sistema iniziale se e solo se
lo è del sistema a cui abbiamo applicato le mosse di Gauss. D'altra parte è semplice notare che le mosse di
Gauss applicate alla matrice completa(con termini noti) corrispondono, nella classica maniera di esprimere
un sistema di equazioni (con la parentesi graffa), a nient'altro se non:

 scambiare l'ordine di scrittura di due equazioni;


 moltiplicare entrambi i membri di un'equazione per un numero diverso da zero;
 sommare ad ogni membro di un'equazione la stessa quantità a sinistra e a destra.

ELIMINAZIONE DI GAUSS
L’algoritmo di Gauss trasforma una qualsiasi matrice in una matrice a scalini tramite mosse di Gauss.

1. Verifico la colonna da j 1 che contenga almeno un elemento non nullo


2. Verifico la riga che contiene l’elemento non nullo
3. Scambio la riga del passo 2 con la prima riga e A−1
4. Azzero tutti gli elementi della colonna che contiene il pivot
4.1. Trovo un moltiplicatore in modo che sommato al pivot annulli l’elemento sottostante
4.2. Ripeto la 4.1 per tutti gli elementi corrispondenti delle righe prese in esame
5. Ripeto dalla 4 per tutte le sottomatrici
ALGORITMO DI GAUSS-JORDAN
Dopo aver ridotto la matrice a scalini, è possibile usare una versione dell'algoritmo di Gauss in senso
inverso, cioè dal basso verso l'alto, per ottenere una matrice che in ogni colonna contenente un pivot abbia
solo il pivot come numero non nullo: basta usare ogni riga, partendo dall'ultima, per eliminare tutte le cifre
diverse da zero che stanno sopra al pivot di questa riga. Infine, sempre con mosse di Gauss (moltiplicando
righe), si può ottenere che ogni pivot abbia valore 1. L'algoritmo di Gauss-Jordan trasforma la matrice dei
coefficienti di un sistema in una matrice fatta nel modo seguente: le variabili corrispondenti alle colonne che
non contengono pivot sono dette libere; ciascun'altra variabile compare in una sola equazione, e quindi può
essere espressa in funzione delle variabili libere e dei termini noti. Lo spazio delle soluzioni si ottiene
assegnando valori arbitrari alle variabili libere, e calcolando le altre variabili di conseguenza. Se i termini
noti b i sono tutti nulli, le soluzioni sono un sottospazio vettoriale di K n. Altrimenti sono ottenute da un
sottospazio vettoriale tramite traslazione.

INVERSA DI UNA MATRICE


L'algoritmo di Gauss-Jordan è anche usato per trovare (quando esiste) l'inversa di una matrice. Funziona nel
modo seguente: sia A una matrice invertibile. Si consideri la matrice B = (A | I), con n righe e 2n colonne,
costruita affiancando A e la matrice identità I. A questo punto, dopo aver reso la matrice a scalini con uno o
più passi dell'algoritmo di Gauss, si applica la variante di Gauss-Jordan alla nuova B per ottenere nella parte
sinistra I. Poiché A è invertibile, le sue colonne sono indipendenti, e quindi conterranno tutte dei pivot alla
fine dell'algoritmo. Quindi il risultato sarà una matrice del tipo (I | C). La matrice C è proprio l'inversa di A.

Potrebbero piacerti anche