Rouchè-Capelli
a
1 parte: Si consideri un sistema lineare di m equazioni in n incognite e siano A la matrici dei coefficienti (o
matrice incompleta) e (A|b) la matrice completa:
DIMOSTRAZIONE
Sia Ax = b la forma matriciale di un sistema di m equazioni in n incognite a coefficienti in un campo K.
Consideriamo la matrice incompleta A associata al sistema e sia L A l'applicazione definita dalla matrice A,
n m
ossia L A : K → K L A ( x ) ≔ Ax
Risulta allora evidente che il sistema lineare Ax = b è compatibile, cioè ammette soluzione, se e solo se
esiste almeno un vettore x ∈ K ntale che L A ( x )=b
Ciò equivale ad affermare che b deve appartenere all'immagine ℑ ( L A ) dell'applicazione lineare L A , che è il
sottospazio generato dalle colonne c 1 , c2 , … , c n della matrice A, quindi
b ∈ ℑ ( L A ) ↔ b ∈ Span(c 1 ,c 2 , … , c n)
D'altra parte, se b appartiene al sottospazio generato dalle colonne di A allora risulta che quest'ultimo
coincide col sottospazio generato dalle colonne della matrice completa (A|b)
Span ( c1 , c 2 , … , c n ) =Span ( c 1 , c2 , … , c n , b )
Dunque b appartiene all'immagine dell'applicazione L A se e solo se A e (A|b) hanno lo stesso rango che, per
definizione, è la dimensione del sottospazio generato dalle colonne di una matrice.
Abbiamo così dimostrato che il sistema lineare è compatibile se e solo se rg(A) = rg(A|b).
Proseguiamo. Per il teorema di struttura, se esiste una soluzione x del sistema Ax = b, allora tutte e sole le
sue soluzioni si scrivono nella forma x + x 0 dove x 0 è una soluzione qualsiasi del sistema lineare omogeneo
associato Ax = 0. Da ciò segue che lo spazio delle soluzioni di Ax = b si può scrivere come
cioè Sol ( A|b ) è un sottospazio affine con giacitura Sol( A∨0) . Per definizione di sottospazio affine, le
dimensioni di Sol ( A|b ) e di Sol( A∨0) coincidono. In altri termini, il sottospazio delle soluzioni di Ax = b
ha la stessa dimensione del sottospazio delle soluzioni di Ax = 0.
Osserviamo ora che lo spazio delle soluzioni del sistema lineare omogeneo Ax = 0 è Ker ( L A ), ossia il
nucleo dell'applicazione lineare L A .
cioè dim ( Sol ( A|0 ) )=n−rg( A), ossia la dimensione dello spazio delle soluzioni del sistema lineare
omogeneo Ax = 0 è uguale a n - rg(A).
Poc'anzi abbiamo dimostrato che lo spazio delle soluzioni di Ax = b ha la stessa dimensione dello spazio
delle soluzioni di Ax = 0 e da ciò segue la tesi, infatti
Teorema di struttura
Il teorema di struttura per i sistemi lineari permette di descrivere le soluzioni di un sistema lineare non
omogeneo partendo da una sua qualsiasi soluzione e usando l'insieme delle soluzioni del sistema lineare
omogeneo a esso associato.
Siano Ax = b un sistema lineare e v 0una sua soluzione. Tutte e sole le soluzioni v del sistema sono della
forma v=v 0 + w dove w è una soluzione del sistema lineare omogeneo associato ad Ax = b.
DIMOSTRAZIONE
Poiché V ha dimensione finita, il sottospazio vettoriale Ker (f) ha anch'esso dimensione finita. Il nucleo ha
quindi una base B=( v 1 ,… , v r ) .
f ( v r +1 ) ,… , f v n
f ( v 1 ) , … , f ( v r ) , f ( v r +1 ) , … , f ( v n)
I primi r vettori sono però nulli (per definizione di Ker), quindi l'immagine è generata dagli ultimi n − r
vettori:
f ( v r +1 ) ,… , f (v n )
Resta quindi da verificare l'indipendenza lineare di questi vettori. Si suppone quindi data una combinazione
lineare nulla:
λ r+1 f ( v r+ 1) + …+ λ n f ( v n )=0
f ( λr +1 v r+ 1+ …+ λn v n ) =0
Quindi:
Poiché questo vettore sta nel nucleo, è esprimibile come combinazione lineare dei vettori v1 , … , v r :
Teorema di Binet
Il teorema di Binet è un teorema che collega il prodotto fra matrici quadrate con il determinante.
Siano A e B due matrici quadrate con lo stesso numero di righe, a valori in un campo K.
Il determinante del prodotto tra A e B è il prodotto del determinante di A per il determinante di B:
La matrice M ij, la sottomatrice (di dimensione n − 1) che si ottiene da M cancellando la i-esima riga
e la j-esima colonna.
Il valore det ( M ij), detto minore complementare dell'elemento (i, j).
i+ j
Il valore (−1) det ( M ij ) detto cofattore o complemento algebrico dell'elemento (i, j).
Il primo teorema di Laplace afferma che il determinante di una matrice quadrata M di ordine n è pari alla
somma dei prodotti degli elementi di una riga qualsiasi (o una colonna qualsiasi) per i rispettivi complementi
algebrici. In formule:
n
det M =∑ (−1)i+ j mij det ( M ij )
j=1
j=1
Regola di Sarrus
la regola di Sarrus è un metodo mnemonico per ricordare la formula del determinante di una matrice
quadrata 3 × 3. Il determinante può essere espresso tramite somme e differenze dei prodotti dei termini sulle
6 "diagonali continue" della matrice. Ripetendo infatti a destra della matrice le sue prime due colonne
( )
a b c a b
d e f c d i prodotti dei termini sulle 3 "diagonali" che partono dall'alto a sinistra (diagonali principali)
g h i e f
sono rispettivamente aei, bfg e cdh, mentre i prodotti dei termini sulle 3 "diagonali" che partono dal basso a
sinistra (diagonali secondarie) sono gec, hfa e idb. Il determinante della matrice è pari alla differenza tra la
somma dei primi tre e quella degli ultimi tre:
Regola di Cramer
La regola di Cramer o metodo di Cramer è un teorema utile per risolvere un sistema di equazioni lineari
usando il determinante, nel caso in cui il sistema abbia esattamente una soluzione.
Un sistema di equazioni lineari può essere rappresentato usando moltiplicazione fra matrici come Ax = c
dove A è una matrice e x, c sono due vettori. Se A è una matrice quadrata (cioè il numero di incognite del
sistema è pari al numero di equazioni) ed è anche invertibile, il teorema di Rouché-Capelli asserisce che il
sistema ha esattamente una soluzione.
In questo caso, la regola di Cramer fornisce un algoritmo per calcolare la soluzione x 1 , x 2 , … , x nusando il
determinante nel modo seguente:
det ( Ai )
x i= dove Ai è la matrice formata sostituendo la i-esima colonna di A con il vettore c. Si nota che la
det ( A)
condizione di invertibilità di A garantisce che il denominatore det (A) sia diverso da zero, e quindi che
l'espressione descritta abbia sempre senso.
Una sottomatrice di A è una qualsiasi matrice estratta da A eliminando un numero arbitrario di righe
e/o di colonne.
Detta A' una sottomatrice di A, prende il nome di sottomatrice orlata ogni matrice ottenuta da A'
aggiungendo una riga e una colonna di A.
Un minore di A di ordine p è definito come il determinante di una qualsiasi sottomatrice quadrata di
A di ordine p, ossia con p righe e p colonne; se tale determinante è diverso da zero, il minore è detto
non nullo.
Un minore orlato è, invece, il determinante di una sottomatrice di ordine p+1 ottenuta orlando una
sottomatrice di A di ordine p.
Enunciato
Sia A una matrice con m righe e n colonne. Il rango di A è uguale a p se e solo se esiste una sottomatrice
quadrata A' di A di ordine p con determinante diverso da zero, e tutte le sottomatrici orlate di A' hanno
determinante nullo.
Un enunciato equivalente, che fa uso della nozione di minore, è il seguente:
sia A una matrice con m righe e n colonne. Il rango di A è uguale a p se e solo se esiste un minore non nullo
di ordine p, e ogni suo minore orlato è nullo.
Calcolo del rango col teorema degli orlati
All'atto pratico, per calcolare il rango di una matrice A con il teorema degli orlati si deve:
1) fissare un elemento non nullo di A, tenendo presente che se A è una matrice nulla allora il suo rango è 0.
2) Orlare l'elemento fissato così da ottenere sottomatrici quadrate di A di ordine 2. Se tutte le sottomatrici
orlate di ordine 2 hanno determinante nullo, il rango di A è 1, e possiamo fermarci. Se esiste una
sottomatrice A' di ordine 2 con determinante diverso da zero proseguiamo oltre.
3) Costruire tutte le sottomatrici orlate di A' di ordine 3. Se tutte queste sottomatrici hanno determinante
nullo possiamo concludere che il rango di A è 2 e possiamo fermarci. Se esiste una sottomatrice A'' di ordine
3 con determinante non nullo passiamo al punto successivo.
4) Orlare A'' così da ottenere sottomatrici orlate di ordine 4. Se tutte hanno determinante nullo, il rango di A
è 3 e possiamo fermarci. Se ne esiste almeno una con determinante non nullo continuiamo a orlare.
L'algoritmo termina quando si giunge a una sottomatrice che non si può più orlare, cioè avente un ordine
uguale al minimo tra il numero di righe e il numero di colonne A.
Tipi di matrice
MATRICE DIAGONALE
È una matrice quadrata in cui gli elementi sono tutti nulli ad eccezione di quelli posti sulla diagonale
principale. La diagonale è un vettore riga.
MATRICE SCALARE
È una matrice diagonale che ha sulla diagonale lo stesso scalare.
| |
4 0 0
Es. 0 4 0 diag (4 , 4 , 4)
0 0 4
MATRICE IDENTITÀ
Si indica con Id, Id n, I ed è una matrice scalare avente tutti 1 sulla diagonale principale.
| |
1 0 0
Id n ∈ R
n, n
{
, ∀ i, j ∈ {1,2 , … , n } :aij = 0 se i≠ j Es . A= 0 1 0
1 sei= j
0 0 1
MATRICE SPARSA
Contiene elementi nulli per la maggior parte.
SPAN MATRICE
Lo spazio generato dai vettori colonna è lo span di Rm .
Lo spazio generato dai vettori riga è lo span di Rn.
MATRICE A SCALA
Si dice matrice a scala quando il primo elemento non nullo di ogni riga è più a destra del primo elemento non
nullo della riga precedente. In una matrice a scala i primi elementi non nulli sono chiamati pivot o elementi
pivotali. Nella matrice a scala i vettori colonna che contengono i pivot sono linearmente indipendenti e sono
generatori dello spazio di vettori colonna. Il rango di una matrice a scala coincide con il numero di righe non
identicamente nulle. rango=numero di pivot
MOSSE DI GAUSS
Le mosse di Gauss sono operazioni che modificano una matrice in uno dei modi seguenti:
Le righe della matrice qui sono intese come vettori dello spazio vettoriale K n e quindi si possono
moltiplicare per un numero oppure sommare, semplicemente termine a termine.
Le mosse di Gauss hanno la seguente importante proprietà: se applicate alla matrice completa (con termini
noti) di un sistema lineare, non modificano lo spazio delle soluzioni del sistema. In altre parole, cambia il
sistema ma le soluzioni restano invariate: un vettore ( x 1 ,… , x n ) è soluzione del sistema iniziale se e solo se
lo è del sistema a cui abbiamo applicato le mosse di Gauss. D'altra parte è semplice notare che le mosse di
Gauss applicate alla matrice completa(con termini noti) corrispondono, nella classica maniera di esprimere
un sistema di equazioni (con la parentesi graffa), a nient'altro se non:
ELIMINAZIONE DI GAUSS
L’algoritmo di Gauss trasforma una qualsiasi matrice in una matrice a scalini tramite mosse di Gauss.