Sei sulla pagina 1di 16

Spazio vettoriale

È detto spazio vettoriale su un campo qualsiasi K un insieme V, detto spazio dei vettori, che rispetta le
proprietà del prodotto scalare-vettore e la somma tra vettori.

Vettore
Un vettore è un elemento di uno spazio vettoriale che possono essere sommati fra loro e moltiplicati per
dei numeri, detti scalari.

I vettori sono comunemente usati in fisica per indicare grandezze che sono definite solo quando sono
specificati un modulo, un punto di applicazione, una direzione ed un verso rispetto ad un altro vettore o un
sistema di vettori. Le grandezze che possono essere descritte in questo modo sono chiamate grandezze
vettoriali, in contrapposizione alle grandezze scalari che sono caratterizzate unicamente dal loro modulo.

In algebra, i vettori possiedono direzione, verso e modulo, ma non un punto di applicazione. I vettori
vengono indicati con v e il suo modulo con ¿∨v ∨¿.

Proprietà della somma: v+ w


1. Proprietà commutativa: v+ w=w+ v ;
2. Proprietà associativa: (v+ w)+u=v +(w+u);
3. Vettore neutro: v+ 0=v ;
4. Vettore opposto: v+(−v)=0;
5. Legge di cancellazione della somma: v+ u=v+ w ⇒ u=w .

Proprietà del prodotto scalare-vettore: z=t v


1. Proprietà distributiva rispetto alla somma di vettori: t (v + w)=t v+ t w ;
2. Proprietà distributiva rispetto alla somma di scalari: (s+t ) v=s v +t v ;
3. Proprietà associativa: s(t v )=(st )v ;
4. Normalizzazione del vettore: 1∗v=v .
5. Legge di annullamento del prodotto: t v=0 se t=0 oppure v=0.

Il vettore risultante avrà stessa direzione di v, modulo ¿ t∨¿∨¿ v∨¿ e sarà 0 quando t=0 , verso uguale a v
se t >0, verso opposto a v se t <0.

Combinazione lineare di vettori


Un vettore w ∈ V è detto combinazione lineare se è il risultato della somma del prodotto scalare-vettore di
v 1 , … , v n ∈V vettori con t 1 , … , t n scalari. Ovvero:

w=t 1 v 1+ …+t n v n

L’insieme di vettori è detto sistema di generatori se ogni vettore dello spazio V può essere scritto come
combinazione lineare di tale insieme.

Osservazioni
- Un insieme di vettori che contiene un vettore nullo è sempre un insieme di vettori linearmente
dipendenti.
- Usando una definizione geometrica, due vettori sono linearmente dipendenti se hanno la stessa
direzione.
- Considerando un insieme di vettori nello spazio, un vettore w è combinazione lineare di altri due
vettori se w=t 1 v+ t 2 u.
Vettori linearmente dipendenti
Un insieme di vettori v 1 , … , v n ∈V è detto linearmente dipendente se nessuno di questi può essere
espresso come combinazione lineare dei restanti. In altre parole, tali vettori sono linearmente indipendenti
se il vettore nullo è combinazione lineare dei suddetti vettori. Ovvero:

t 1 v 1+ …+t n v n=0

Dove t 1 , … , t n sono coefficienti non nulli del sistema.

Base di uno spazio vettoriale


Un insieme di vettori che è sia linearmente indipendente sia sistema di generatori è definita base di uno
spazio vettoriale.

Base canonica
Un insieme di vettori B={e1 , … , e n } è detta base canonica dell’insieme K n .

Osservazioni
- Due vettori che non sono paralleli sono automaticamente linearmente indipendenti e a loro è
abbinata una base.
- Non sempre uno spazio vettoriale possiede una base.
- Ogni vettore di uno spazio vettoriale è esprimibile come un’unica combinazione lineare della base
dello spazio
Dimostrazione per assurdo: se per ipotesi il vettore w=t 1 v 1+ …+t n v n potesse essere scritto come
combinazione lineare usando un altro coefficiente h1 → hn ≠ t 1 → t n , allora tale vettore può essere
scritto come w−w=( h1 v 1−t 1 v1 ) + …+(hn v n−t n v n )=0 . Raccogliendo i vettori si ha che
( h 1−t 1 ) v1 +…+ ( hn−tn ) v n=0 e quindi, per definizione di base di spazio vettoriale, che
( h 1−t 1 ) =…=( hn−tn ) =0. Questo implica che h1 → hn=t 1 → tn , ma questo va contro l’ipotesi e
quindi il teorema è dimostrato.

Trovare una base in un insieme di generatori


Sia G=(v1 , … , v n ) un insieme di generatori composto da n vettori. Per trovare dei vettori linearmente
indipendenti (e di conseguenza una base), si può usare un metodo di tipo iterativo, seguendo tali passaggi:

- Si eliminano subito tutti i vettori nulli;


- Si considera il secondo vettore. Se esso è proporzionale a v 1 si elimina, altrimenti si tiene in
considerazione;
- Si considera il vettore v i, con 3 ≤i ≤ n. Se v i è combinazione lineare del precedente si scarta,
altrimenti si tiene in considerazione.

Il risultato finale sarà una base.

Teorema di completamento della base


Dati uno spazio vettoriale finito V e un insieme di vettori (u1 , … , un) linearmente indipendenti di V , esiste
sempre la base di V che contiene i vettori linearmente indipendenti.

Dimostrazione: per ipotesi esiste un insieme di generatori G=(u1 , … ,u n , w 1 , … , w n) che contiene


i vettori linearmente indipendenti e un insieme di generatori di V. Applicando il metodo degli scarti
successivi a G, si avrà una base B=(u1 , … ,u n) che per ipotesi sono linearmente indipendenti.
Dimensione dello spazio vettoriale
È detta dimensione dello spazio vettoriale il numero di vettori che sono contenuti in una base. In genere
uno spazio di Rn ha dimensione n . Per calcolare le dimensioni degli spazi vettoriali si usano due formule.

Teorema delle dimensioni (o della nullità più rango)


Data una funzione lineare f :V → W la dimensione dello spazio di partenza coincide con la somma tra il
nucleo e l’immagine della funzione. In formule:

dim(V )=dim( ℑ ( f ) )+ dim(ker (f ))

Dimostrazione: dato uno spazio vettoriale V di dimensione n , essendo ker (f ) un sottospazio


vettoriale, esso ammette una base v1 , … , v r che completandola diventa v1 , … , v r , v r +1 , … , v n.
f (v 1 ), … , f (v r ), f ( v r +1), … , f (v n) è un sistema di generatori dell’immagine, ma siccome v1 , … , v r
è una base del ker ( f ) ⇒ f ( v 1) =…=f ( v r )=0, quindi i restanti sono dei generatori dell’immagine.
Per dimostrare che questi siano tutti generatori si deve avere che

a r+1 f ( v r+1 ) + …+an f ( v n )=0⇒ ar +1 v r +1+ …+an v n ∈ ker ( f ) ⇒

⇒ ar+ 1 v r +1 +…+ an v n=a1 v 1+ …+ar v r ⇒

a r+1 v r +1 +…+ an v n−( a1 v 1+ …+ar v r ) =0

Che è possibile solo se tutti i coefficienti siano nulli visto che v1 , … , v r è una base di V

Formula di Grassmann
La dimensione della somma di due spazi vettoriali U e V è la differenza tra la somma delle dimensioni dei
singoli spazi e la dimensione dello spazio intersezione. In formule:

dim ( U +V ) =dim (U )+ dim ( V )−dim(U ∩V )


Dimostrazione: dati due sottospazi vettoriali W e V , si prendono le basi di tali sottospazi e si
completano ottenendo quindi un sistema di generatori per V +W composto da B∪ BV ∪ BW . Per
dimostrare l’indipendenza lineare dei vettori della base si abbia
B= {u 1 , … , un } , B V = { v 1 , … , v n }, BW ={w 1 , … , w n } e si supponga l’esistenza di una combinazione
lineare v+ w+u=0, da cui segue che w=−v−u e che w, al pari di v e u, appartiene allo spazio
V ∩W . D’altra parte, w è visto come combinazione lineare degli elementi della base BW e poiché
ogni elemento dello spazio è un’unica combinazione della base che genera il sottospazio
w=0 ⇒ v +u=0. Poiché B∪ BV è una base di U, tutti i suoi vettori sono indipendenti e quindi la
combinazione lineare ha senso solo se tutti i coefficienti sono nulli e conseguentemente
B∪ BV ∪ BW è composto da vettori linearmente indipendenti.

Conteggiando le dimensioni degli spazi, quindi si ha che

dim ( U +V ) =dim (U )+ dim ( V )−dim(U ∩V )

Sistema di riferimento
È detto sistema di riferimento una base di tre vettori con fissato un punto di origine e delle rette con la
stessa direzione dei vettori detti assi del sistema di riferimento.

Sottospazio vettoriale
È definito sottospazio vettoriale di uno spazio vettoriale un insieme di vettori S ⊂V che ammette la
proprietà della somma e del prodotto scalare-vettore ed S è chiuso rispetto a V , ovvero:
- Il vettore nullo di V appartiene ad S;
- La somma di due vettori s1 + s2 ∈ S ;
- Il prodotto scalare-vettore, dato k ∈ K e s1 ∈ S, k∗s1 ∈S .

Equazioni cartesiane del sottospazio


Le equazioni cartesiane sono equazioni lineari omogenee e linearmente indipendenti delle componenti
elementi di un vettore. Sono utili per verificare se il vettore v ∈ R n. In formule:
n
S={(x 1 , … , x n )∈ R ∨a 1 x 1+ …+a n x n=0 }

Equazioni parametriche del sottospazio


Le equazioni parametriche sono equazioni che usano i parametri linearmente indipendenti. Sono utili per
descrivere tutti degli elementi di un sottospazio. Una formula può essere, ad esempio:

{x=t
y=t
Operazioni tra sottospazi
Valgono le operazioni tra i sottospazi:

- Intersezione insiemistica: si considerano due sottospazi e i vettori che sono presenti in entrambi i
sottospazi appartengono a tale intersezione. In formule:

H ∩W = { v ∈V tale che v ∈ H , v ∈ W }
- Somma di sottospazi: dati due sottoinsiemi H e W la loro somma produce il più piccolo sottospazio
che contiene la somma H +W . L’insieme dei generatori è da considerarsi come l’unione tra
l’insieme dei generatori di H e quello di W. In formule:

H +W ={ v ∈V tale che v=h+ w , dove h∈ H , w ∈W }


- Somma diretta: V =H ⊕W esiste solo se ogni vettore può essere rappresentato in un solo modo
come v=h+ w e l’intersezione di tali sottospazi è il vettore nullo. Se V ha dimensione finita,
dimV =dimH +dimW . H è definito complementare di W e W è definito complementare di H; se V
ha dimensione finita e H è un suo sottospazio, H ha sempre un complementare.

Applicazioni lineari
Una funzione f :V → K è detta applicazione lineare se:

- Esiste l’additività: ∀ v , w ∈V , f (v + w)=f (v )+f (w);


- Esiste l’omogeneità: ∀ t ∈ K e ∀ v ∈V , f (tv)=tf (v ).

In modo più compatto, una funzione lineare esiste se e solo se: f ( tv )+ f ( hw )=tf ( v )+ hf ( w ) .

Tale applicazione è inoltre detta omomorfica per i due spazi vettoriali.

Per ogni vettore libero del piano in cui si è fissata una base, le applicazioni:

1. f 1 :V → K definita da f 1 (v ): v 1;
2. f 2 :V → K definita da f 2 (v ): v 2.

Sono funzioni lineari, sapendo che (v 1 , v 2 ) sono componenti del vettore rispetto alla base assegnata.

Per ogni vettore libero dello spazio in cui è fissata una base, le applicazioni:
1. f 1 :V → K definita da f 1 (v ): v 1;
2. f 2 :V → K definita da f 2 (v ): v 2;
3. f 3 :V → K definita da f 3 (v ): v 3.

Sono funzioni lineari, sapendo che (v 1 , v 2 , v 3 ) sono componenti del vettore rispetto alla base
assegnata.

Fibra di una funzione


Dati due insiemi V, W e una funzione f : V → W , è detta fibra di tale funzione se f (v )=w e f −1 (w)=v .

Nucleo (o kernel) di una funzione


È detto nucleo l’insieme degli elementi di V che vengono portati tramite la funzione al vettore nullo e viene
indicato con kerf . Esso è una particolare fibra di V, essendo sottospazio di V. Se v appartiene alla fibra di f
su w, tutti e soli gli elementi della fibra di f su w sono i vettori della forma v+ v ker , dove v ker è un qualunque
vettore di ker f.

Dimostrazione del sottospazio: valgono le proprietà dei sottospazi vettoriali, ovvero la somma tra
vettori dà il vettore nullo rispetto allo spazio d’arrivo e il prodotto scalare-vettore dà il vettore nullo
rispetto allo spazio d’arrivo. Se il vettore di arrivo non fosse quello nullo, il nucleo non sarebbe un
sottospazio di V.

Dimostrazione di v ker: se v appartiene alla fibra di w allora f ( v )=w . Prendendo v ker ∈ kerf , allora
f (v ker )=0 e quindi la somma v+ v ker =f ( v ) +f ( v ker )=w+0=w perciò v+ v ker ∈ kerf . Inoltre preso
un secondo vettore v ' appartenente alla fibra di w si ha quindi che f ( v ' −v )=w−w=0 , perciò
' '
v −v ∈kerf e infine v =v + v ker ∈ kerf .

Immagine di una funzione


È definita immagine di V se alcuni elementi di V hanno un proprio corrispettivo in W [f (v)=w ].
È definita invece controimmagine quando un elemento di W ha un corrispettivo in V.
L’immagine di V è sottospazio di W. Se U è sottospazio finito di V, dimf(U)<=dim U.

Funzione iniettiva, suriettiva e biunivoca


Una funzione è iniettiva se v , v ’ ∈ V con v ≠ v ’, f (v )≠ f (v ’) oppure se v=v ’ se f (v )=f ( v ’) . Inoltre
una funzione è iniettiva se ker (f )=0. Una funzione iniettiva è inoltre detta monomorfica.

Una funzione è suriettiva se l’immagine della funzione coincide con lo spazio d’arrivo ( dimW ≤ dimV ). In
termini geometrici, una funzione è suriettiva se Imf =dimW , ovvero la matrice associata alla funzione ha
rango massimo. Una funzione suriettiva è inoltre detta epimorfica.

Una funzione è biunivoca se è sia iniettiva che suriettiva e si verifica un isomorfismo ( dimW =dimV ). Una
funzione biunivoca è detta anche isomorfica.

Endomorfismi e automorfismi
L’endomorfismo è un omomorfismo particolare, dove la funzione lineare è f :V → V ; vale inoltre una
condizione particolare derivata dal teorema di nullità più rango ovvero che un endomorfismo è iniettivo se
e solo se è suriettivo. L’automorfismo è un caso particolare di endomorfismo che è anche isomorfico.
Cambiamento di base
Teorema di rappresentazione
Siano V e W due spazi di dimensione rispettivamente n e m e di basi rispettivamente B e C . Esiste allora
un’applicazione lineare f , rappresentata con una matrice lineare A( m, n) dove per ogni w=f (v) si ha che
w ¿C = A (v ¿ B ) e si indica con M [B , C] (f ) .

Dimostrazione: sia B={b1 , … ,b n } . Si costruisce una matrice composta dalle componenti del
sottospazio V con base B rispetto alla base C di W. Ogni vettore v di V può essere riscritto come
n m n m
f ( v )=∑ x i f (b i). La base C per costruzione rappresenta A come ∑ x i ∑ a j ,i c j=∑ ¿ ¿ dove
i=1 i=1 i=1 i=1
n

∑ a j , i x i è la componente j-esima del vettore colonna A( v ¿ B). Ciò dimostra la tesi per cui
i=1
A ( v ¿B ) =f (v ¿ C ).

Sistema lineare
È detto lineare un sistema che è composto da più equazioni lineari che devono essere verificate
contemporaneamente. Viene rappresentato in questo modo:

{
a 1,1 x 1 +…+a 1 ,n x n =b1
a 2,1 x 1 +…+a 2 ,n x n =b2

am , 1 x 1+ …+a m,n x n=bm

Dove a m ,n è detto coefficiente dell’ equazione, b m è un termine noto e a m ,1 x 1 +…+ am , n x n=b m è una
generica equazione associata al sistema.

Soluzione del sistema


Una soluzione del sistema è un vettore i cui elementi sono le soluzioni delle equazioni che compongono il
sistema, ovvero tali che se sostituiti alle incognite rendono le equazioni delle identità.

Se gli elementi del vettore soluzione sono tutti nulli, allora il sistema è omogeneo.

Se il sistema ammette soluzione, esso è possibile (oppure compatibile). Un sistema possibile si divide
ulteriormente in:

- Sistema determinato: esso ammette una sola soluzione;


- Sistema indeterminato: esso ammette infinite soluzioni.

In alternativa, un sistema che non ammette soluzioni è definito impossibile (o incompatibile). Due sistemi
che ammettono le stesse soluzioni sono definiti equivalenti.

Matrice
La matrice è un metodo di rappresentazione ordinata di elementi in tabella. Gli elementi disposti in
verticale formano una colonna, mentre quelli disposti in orizzontale formano una riga. Ogni elemento della
matrice presenta due quantità m e n in pedice che per convenzione indicano rispettivamente riga e
colonna. Una rappresentazione di matrice è ad esempio:

[ ]
a 1,1 ⋯ a1 ,n
A= ⋮ ⋱ ⋮
a m ,1 ⋯ am ,n
Tutti gli elementi disposti in diagonale dalla posizione in alto a sinistra fino in basso a destra formano la
diagonale principale. Analogamente, tutti gli elementi disposti in diagonale dalla posizione in alto a destra
fino in basso a sinistra formano la diagonale secondaria.

Tipi di matrice
Esistono diversi tipi di una matrice:

- Matrice rettangolare: è una matrice dove le quantità di righe e colonne non coincidono;
- Matrice quadrata: è una matrice dove righe e colonne sono in egual numero;
- Matrice riga: è una matrice che si sviluppa solo su una riga, quindi del tipo (1 , n);
- Matrice colonna: è una matrice che si sviluppa solo su una colonna (m ,1);
- Matrice diagonale: è una matrice che presenta gli unici elementi non nulli sulla diagonale
principale. Se invece presenta solo elementi non nulli sulla diagonale secondaria è detta matrice
antidiagonale;
- Matrice identità: è una matrice diagonale particolare che presenta come elementi sulla diagonale
principale 1;
- Matrice triangolare alta: è una matrice che presenta elementi non nulli al di sopra della diagonale
principale, anch’essa non nulla. Analogamente, è definita matrice triangolare bassa una matrice che
presenta elementi non nulli al di sotto della diagonale principale;
- Matrice nulla: è una matrice che presenta solo elementi nulli;
- Matrice trasposta: è una matrice che considera le righe come colonne e le colonne come righe. In
senso pratico, dato l’elemento a m ,n dove m e n rappresentano rispettivamente la riga e la colonna
di partenza, nella matrice trasposta lo stesso elemento sarà di tipo a n ,m;
- Matrice opposta: è una matrice che viene moltiplicata per −1, cambiando così tutti gli elementi di
segno.

Algebra delle matrici


Le matrici hanno tre diverse operazioni:

- Somma;
- Prodotto scalare per matrice;
- Prodotto tra matrici.

Somma
La somma può essere effettuata solo tra matrici con le stesse quantità di righe e colonne: l’operazione
consiste infatti nel sommare elementi che occupano la stessa posizione in entrambe le matrici. In pratica,
date due matrici A e B, sommandole si avrà una matrice C tale che

C=
[ ][
c1,1 c 1,2
c2,1 c 2,2
a +b a +b
= 1,1 1,1 1,2 1,2
a2,1 +b 2,1 a2,2 + b2,2 ]
Proprietà della somma
- Proprietà commutativa: A+B=B+ A ;
- Proprietà associativa: ( A+ B ) +C= A+(B+ C);
- Elemento neutro: A+0= A ;
- Matrice opposta: A+ (− A )=0.

Prodotto scalare per matrice


Il prodotto scalare per matrice può essere effettuato tra uno scalare (numero reale) e una matrice. Ad ogni
elemento della matrice verrà moltiplicata la quantità descritta dallo scalare.
Prodotto
Il prodotto può essere effettuato solo tra due matrici il cui numero di colonne della prima è pari al numero
di righe della seconda. Il prodotto sarà una matrice che ha per righe il numero di righe della prima matrice e
per colonne il numero di colonne della seconda matrice (difatti il metodo è detto prodotto di riga per
colonna). Per questo, il prodotto tra matrici non è commutativo.

Il procedimento consiste nel sommare i prodotti degli elementi della riga della prima matrice con i
corrispondenti elementi della colonna della seconda matrice.

Il prodotto di una matrice per un vettore colonna può essere visto come una combinazione lineare tra le
componenti del vettore colonna e le colonne della matrice

Proprietà del prodotto


- Non ha proprietà commutativa: A∗B ≠ B∗A . Solo nel caso in cui A e B siano quadrate è possibile
effettuare sia A∗B che B∗A , ma non è detto che i prodotti risultanti siano gli stessi;
- Proprietà associativa: A∗( B∗C )=( A∗B )∗C ;
- Proprietà distributiva rispetto alla somma: A∗( B+ C )= A∗B+ A∗C ;
- Elemento neutro: A∗I=A ;
- Matrice nulla: A∗0=0.

Nucleo di una matrice


Il sistema omogeneo associato ad una matrice di tipo Ax=b è Ax=0. L’insieme delle soluzioni del sistema
omogeneo associato Ax=0 è detto nucleo (o kernel) della matrice ed è indicato come kerA .

Le soluzioni di un sistema lineare si ottengono inoltre come somma tra un particolare un sistema associato
e le soluzioni del sistema omogeneo associato.

Dimostrazione: supponendo x come soluzione di Ax=b e x h=x−x 0 si ha che

A x h= Ax−A x 0 =b−b=0

Quindi x h è una soluzione del sistema omogeneo associato. Viceversa, se x h è una soluzione del
sistema omogeneo associato si ha che x=x 0 + x h e quindi che tale proposizione è dimostrata

Ax=A x 0 + A x h=0+ b=b

Determinante di una matrice


Il determinate è un numero che restituisce delle proprietà algebriche e geometriche della matrice. Il
procedimento utilizzato è di tipo ricorsivo ed è applicabile solo a matrici quadrate. Viene indicato con detA
oppure in modo più compatto come ¿ A∨¿.

Esistono quattro diversi metodi per calcolare il determinante di una matrice.

Matrici di ordine 2
Il calcolo del determinante per tali matrici è una differenza tra il prodotto della diagonale principale e quella
secondaria. In pratica, data una matrice A, il suo determinante è:

| |
detA = a b =a∗d−b∗c
c d
Il valore assoluto di tale espressione corrisponde ad un parallelogramma di vertici
( 0 , 0 ) , ( a , c ) , ( b , d ) , ( a+c , b+d ) .
Regola di Sarrus
Tale regola è applicabile solo a matrici di ordine 3 e consiste nel calcolare la differenza tra le somme dei
prodotti della diagonale principale con le sue parallele e le somme dei prodotti della diagonale secondaria
con le sue parallele. In pratica, data una matrice A, il suo determinante è:

| |
a b c
detA = d e f =a∗e∗i +b∗f∗g+ d∗h∗c−(c∗e∗g +b∗d∗i+ f∗h∗a)
g h i

1° teorema di Laplace
È un metodo che può essere utilizzato per matrici molto piccole o che presentano diversi elementi nulli.
Essa premette di calcolare il determinante di una matrice sommando gli elementi della prima riga con
abbinati i rispettivi complementi algebrici.

È detto complemento algebrico il prodotto formato tra (−1 )i+ j e det (M ¿¿ i, j)¿, dove (i , j) indicano la
riga e la colonna dell’elemento considerato e M i , j indica il minore complementare dell’elemento
considerato.

È detto minore complementare la matrice ottenuta eliminando una riga e una colonna della matrice A.

Nella pratica, data una matrice A, il suo determinante applicando Laplace è:

| |
a b c
detA = d e f =a
g h i
e f
h i
−b | | | fi|+c|dg eh|
d
g

Oppure utilizzando una notazione più generale e compatta


n
detA =∑ (−1)i+ j∗ai , j∗det ( M ¿¿ i, j)¿
j=1

2° teorema di Laplace
La somma dei prodotti degli elementi di una riga con i complementi algebrici di un’altra riga è 0.

Riduzione a scala tramite algoritmo di Gauss


Consiste nell’applicazione delle cosiddette mosse di Gauss, ovvero:

- Scambiare la posizione delle righe;


- Moltiplicare una riga per uno scalare diverso da 0;
- Sommare o sottrarre una riga ad un’altra.

Il procedimento è di tipo ricorsivo:

- Se la prima riga ha il primo elemento nullo, si scambia con la prima riga col primo elemento non
nullo;
- Per ogni riga col primo elemento non nullo (ad eccezione della prima), si moltiplica tale riga per un
multiplo della prima riga dimodoché il primo elemento della riga sia nullo;
- Quando la prima colonna è composta da elementi nulli ad eccezione del primo, si considera la
sottomatrice ottenuta cancellando la prima riga e la prima colonna.

Il risultato finale sarà una matrice a scala, dove il pivot di una riga è posto più a destra rispetto al pivot della
riga precedente. Se la matrice è quadrata, la matrice a scala è una matrice triangolare alta. Il determinante
di tale matrice è uguale al prodotto degli elementi presenti sulla diagonale principale. Essa è inoltre
equivalente alla matrice iniziale.
Dimostrazione: data la matrice completa [ A∨b ] associata al sistema Ax=b, se x soddisfa le
equazioni lineari a 1 v e a 2 v allora valgono le proprietà dell’applicazione lineare

( a 1+ t a2 ) v =b1 +t b 2
Se v è una soluzione del sistema Ax=b allora essa è soluzione anche del sistema ridotto A' x=b ' .
Siccome le operazioni elementari valgono sia in Ax=b sia in A' x=b ' , esse varranno allo stesso
modo sia in [ A∨b ] che in [ A ' ∨b ' ] dato che quest’ultima è ottenibile tramite operazioni
elementari e ciò conferma la tesi.

Teorema di Binet
Date due matrici A e B, vale la seguente relazione: det ( A∗B )=detA∗detB

Proprietà del determinante


- detA =det A T ;
- detA =0 se la matrice A ha una riga o colonna coincidente col vettore nullo;
- Se si invertono due righe o colonne in una matrice A, det A 1=−detA . I due determinanti sono
uguali a 0 se sono presenti due righe o colonne uguali;
- detA =0 se le righe o colonne sono linearmente dipendenti oppure se una riga o colonna è
combinazione lineare delle altre;
- det (kA )=k n detA ;
- Il determinante rimane costante se ad una linea si aggiunge una combinazione lineare delle
restanti;
- Il determinante della matrice triangolare è il prodotto degli elementi posti sulla diagonale
principale;
- Se il determinante è 0 lo sarà anche per la matrice a scala corrispondente, la cui ultima riga è
composta di soli zeri. In senso lato, l’ultima riga è combinazione lineare delle altre;
- A ammette inversa se detA ≠ 0.

Rango
Il rango di una matrice corrisponde al numero di righe (o colonne) linearmente indipendenti oppure al
numero di pivot presenti nella matrice. Viene indicato con rkA .

I pivot sono i primi elementi non nulli di una riga di matrice. Affinché sia considerato tale, un pivot deve
essere collocato più a destra del pivot collocato sulla riga precedente.

È possibile inoltre trovare il rango della matrice calcolando i minori complementari della matrice oppure
usando l’algoritmo di Gauss per la riduzione a scala. Nel primo caso, il rango corrisponderà al primo minore
complementare di ordine più grande diverso da 0, mentre il secondo corrisponderà al numero di pivot
presenti nella matrice a scala.

Dimostrazione delle colonne linearmente indipendenti: data una matrice A e dette C 1 , … , Cn le


basi del sottospazio generato dalle righe di A , si ha che il sottospazio che contiene le righe può
essere riscritto come

A=∑ bi , j C j
j

Che, in forma matriciale, sono riscritte come A=B∗C , dove B è la matrice dei coefficienti b i, j e C
la matrice della riga C j . Ottenendo le trasposte si ha che AT =( B∗C)T =CT ∗BT , ovvero che le
righe di AT sono combinazione lineare delle k righe di BT , ovvero che lo spazio delle righe di AT ha
k generatori, come lo spazio delle colonne di A, concludendo quindi che il rango delle colonne di A è
maggiore o uguale del rango delle righe di A.

Ripetendo lo stesso procedimento si ha che il rango delle righe di A è maggiore o uguale di quello
delle colonne di A. Da tale disuguaglianza si ha quindi che il rango delle righe e quelle colonne
coincidono e che tale valore è il rango della matrice A.

Teorema di Rouché-Capelli
Le matrici sono molto utili per risolvere sistemi lineari e il rango di una matrice è molto utile nel dimostrare
la risolvibilità di un sistema lineare. Difatti, dato un sistema di m equazioni in n incognite definito in un
campo K

{
a 1,1 x 1 +…+a 1 ,n x n =b1
a 2,1 x 1 +…+a 2 ,n x n =b2

am , 1 x 1+ …+a m,n x n=bm

Considerando la matrice incompleta A composta dai coefficienti delle equazioni e la matrice completa
A∨b composta dai coefficienti delle equazioni e dai termini tale che A x=b

[ ] [ ]
a 1,1 ⋯ a1 ,n a 1,1 ⋯ a1 ,n b1
A= ⋮ ⋱ ⋮ A∨b= ⋮ ⋱ ⋮ ⋮
a m ,1 ⋯ am ,n a m ,1 ⋯ a m ,n bn

Se:

1. rk ( A|b ) >rk( A) : il sistema è incompatibile e non ammette soluzioni;


2. rk ( A|b )=rk (A ): il sistema è compatibile e ammette soluzione, ma bisogna distinguere due casi:
a. rk ( A|b )=rk ( A )< n: il sistema è compatibile e ammette infinite soluzioni appartenenti ad
un sottospazio vettoriale di dimensione n−rk ( A) ;
b. rk ( A|b )=rk ( A )=n: il sistema è compatibile e ammette solo una soluzione.

Dimostrazione: riducendo a scala una matrice A si ha che il rango della matrice ridotta coincide con
il rango r della matrice di partenza. Si possono quindi distinguere due casi:

1. r <m e b ' k ≠ 0 con k > r : in tal caso il sistema non ha soluzioni in quanto la k-esima riga della
matrice a scala corrisponde all’equazione 0 x 1+ …+0 x n=b ' k ≠ 0 che ovviamente è assurda e
non ammette soluzione. Tale caso si verifica solo se il numero di pivot della matrice completa è
maggiore di 1 rispetto alla matrice dei coefficienti.
2. r =m oppure r <m e b ' k =0 con k >r : il rango della matrice completa coincide con quella
incompleta. In tal caso le variabili sono distinte in dipendenti per le variabili contenenti i pivots
e libere tutte le restanti n−r variabili. Se r =m il sistema si risolve facilmente eseguendo tutte
le equazioni e questo dimostra il teorema. Se r <m e b ' k =0 con k >r allora bisogna portare
tutte le variabili dipendenti a sinistra e lasciare le variabili libere a destra. Le variabili libere
possono assumere valori arbitrari t 1 , … , t n−r e si può notare che il vettore nullo è soluzione del
sistema se tutti questo valori sono 0 e che la generica soluzione del sistema è

x=v 0+ t 1 v 1 +…+t n−r v n−r


Tale equazione associa ad ogni valore di t una soluzione distinta del sistema che è riscritta come
vi =wi −v 0 con 1 ≤i ≤n−r e w i come soluzione corrispondente alle distinte variazioni del
parametro t.

Corollari del teorema


- Regola di Cramer: dato un sistema lineare A x=b con n equazioni in n incognite, se rk ( A )=n
allora il sistema ha sempre una sola soluzione.
- Un sistema omogeneo con m equazioni in n incognite ammette autosoluzioni solo se rk ( A )< n. In
tal caso il sistema ammette ∞ n−r soluzioni esprimibili come v=t 1 v1 +…+ t n−r v n−r dove v 1 , … , v n−r
sono vettori di tipo ( n , 1 ) e t 1 , … , t n−r sono valori arbitrari riferiti al campo.

Matrice inversa
Una matrice quadrata è detta invertibile se A∗A−1=I , dove la matrice inversa è indicata come A−1.
Condizione necessaria e sufficiente affinché esista la matrice inversa è che detA ≠ 0.

Dimostrazioni della condizione:


−1 −1
- detA ≠ 0 ⇒ A : dalla definizione di matrice inversa A∗A =I , che ha per determinante 1 per cui
det ( A∗A−1 )=det ( I )=1 e per il teorema di Binetdet ( A )∗det ( A−1 ) =det ( I )=1. Se
detA =0 ⇒ det ( A )∗det ( A−1 ) =0 det ( A−1 )=0 ≠ det ( I ), che va contro l’ipotesi.
−1
- detA ≠ 0 ⇐ A : la dimostrazione è banale per definizione di matrice inversa.
È equivalente dire:

1. A è invertibile;
2. A ha matrice sx;
3. A ha matrice dx;
4. rkA=n;
5. kerA =0 [ A x=0 non ammette autosoluzioni];
6. Ogni sistema lineare A x=b ha una sola soluzione;
7. Le colonne di A sono linearmente indipendenti.

Dimostrazioni:

1. Punto 5 (si usa il punto 2): sia C l’inversa sinistra della matrice A e sia v una soluzione di A v =0.
Poiché CA v =0 e CA=I , v è l’unica soluzione del sistema;
2. Punto 4 (usando il punto 5): segue dal corollario del teorema di Rouché – Capelli (regola di Cramer);
3. Punto 6 (usando il punto 4): segue il teorema di Rouché-Capelli ( rkA=rk [ A x=b]=n);
4. Punto 3 (usando il punto 6): A x=e ; AC=[ Ad 1∨Ad 2∨…∨Adn]=¿.

Ottenimento della matrice inversa tramite cofattori


Un metodo per ottenere la matrice inversa è tramite l’utilizzo dei cofattori. Il metodo è strutturato come
segue:

1. Si calcola detA : se detA =0 la matrice non ammette inversa, altrimenti se detA ≠ 0 esiste l’inversa;
2. Ogni elemento della matrice viene sostituito dal relativo cofattore: esso non è altro che il
complemento algebrico dell’elemento;
3. Si effettua il prodotto tra il reciproco del detA e la matrice trasposta dei cofattori, ottenendo la
matrice inversa.
Ottenimento della matrice inversa tramite il metodo di Gauss-Jordan
Un secondo metodo per ottenere una matrice inversa è tramite Gauss-Jordan. Il metodo utilizza
massicciamente l’algoritmo di Gauss ed è strutturato come segue:

1. Si crea una matrice completa creata dall’affiancamento della matrice identica a destra della matrice
da invertire;
2. Si applica l’algoritmo di Gauss fino a quando la matrice da invertire non diventa la matrice identica.
La matrice inversa ottenuta si trova nel posto che era occupato prima dalla matrice identica.

Autovalori, autovettori e matrici simili


Dato uno spazio V e una funzione endomorfa f :V → V , un vettore v ∈V è detto autovettore se:

1. v ≠ 0;
2. esiste h tale che f (v )=hv . Tale scalare è detto autovalore rispetto all’autovettore v.

Gli autovettori non cambiano direzione in f se sono endomorfi. Ogni autovettore kv con k ∈ K {0 } è
sempre un autovettore associato a f rispetto all’autovalore h.

È detta radice di un polinomio un numero che se sostituito a x nel polinomio dà come risultato 0. Il
polinomio ha radici solo se (x−n) divide il polinomio. La radice ha molteplicità se, elevando (x-n) a k,
divide il polinomio ma non lo fa se (x−n)k−1 .

Teorema fondamentale dell’algebra: nel campo reale i polinomi di grado n hanno un numero di radici
minore o uguale ad n e non necessariamente si scompone in un prodotto di fattori lineari. Nel campo
complesso invece il numero di radici è sempre uguale a n e quindi esiste p(x )=a( x −b)m ∗(x−b)m con a
1 s

coefficiente direttore di p(x ) e m 1+ m s=n . In generale, il campo complesso è un campo chiuso perché ogni
suo polinomio ammette n radici, a patto che ogni radice possegga una propria molteplicità.

Per cercare un autovettore bisogna usare la matrice quadrata A, che rappresenta l’endomorfismo f di uno
spazio V rispetto ad una base B. Gli autovettori sono le autosoluzioni del sistema ( A−hI ) x=0 , ovvero tutti
i vettori non nulli tali che Ax=hx . Le autosoluzioni del sistema esistono solo se il suo determinante (che è
un polinomio di grado n detto polinomio caratteristico di A) è 0. Le soluzioni del polinomio caratteristico
sono detti autovalori della matrice A; un autovalore con molteplicità k è detto autovalore con molteplicità
associata.

Se gli autovalori sono distinti, allora anche gli autovettori sono distinti.

Dimostrazione per induzione: se ci fosse un solo autovettore il teorema sarebbe dimostrato perché
l’autovettore sarebbe sicuramente non nullo e quindi linearmente indipendente. Supponendo che
ce ne siano di più, bisogna verificare che vale la condizione c 1 v 1+ …+c s v s=0 . Moltiplicandola per
λ s e uguagliandola con la condizione moltiplicata per la matrice diagonale si ha che
c 1 ( λ1− λs ) v1 +…+ c s−1 ( λs −1− λs ) v s−1=0 , ma poiché i vettori sono linearmente indipendenti e gli
autovalori distinti per ipotesi, si ha che i coefficienti c 1=…=c s =0 e che il teorema è dimostrato.

Da tale proposizione si ricava che se una matrice ha degli autovalori distinti essa è diagonalizzabile.

Due matrici A e B sono simili se esiste una matrice invertibile P tale che A=P−1∗B∗P , con P matrice di
passaggio da una base C (matrice A) a una base D (matrice B), entrambe basi di una funzione endomorfica
di uno spazio vettoriale finito V . Se due matrici sono simili godono delle seguenti proprietà:

- Transitiva ( A=P−1∗B∗P e B=Q −1∗A∗Q);


- Riflessiva ( A=I −1∗A∗I );
- Simmetrica (A simile a B e viceversa);

E affinché due matrici siano simili, devono necessariamente sussistere delle condizioni:

- Avere stesso polinomio caratteristico. È detto polinomio caratteristico l’equazione che si ottiene da
det ⁡( A−λI )=0;
- Avere stessa molteplicità algebrica e geometrica;
- Avere stesso determinante, rango e traccia.

Queste condizioni sono necessarie e sufficienti fino a matrici di ordine 4.

Le operazioni da compiere per capire se due matrici A e B sono simili sono:

1. Calcolare la traccia (trA =trB );


2. Calcolare il determinante (detA =detB );
3. Calcolare il rango (rkA=rkB);
4. Calcolare il determinante della matrice degli autovalori ( det ( A−hI )=det (B−hI ));
5. Autovalori con molteplicità geometrica;

Se le matrici quadrate sono di ordine maggiore o uguale a 4, queste condizioni non bastano. Infatti due
matrici sono sicuramente simili se entrambe sono diagonalizzabili, altrimenti:

1. Se solo una lo è, non sono simili;


2. Se entrambe non lo sono, bisogna risolvere XA =XB . Se esistono soluzioni per cui il detX non è 0,
le matrici sono simili.

Proprietà degli autovalori


- V (h) è detto autospazio dei vettori associati all’autovalore h e corrisponde al ker (A−hI ), la sua
dimensione è n−rk ( A−hI ) ed è chiamata molteplicità geometrica;
- La somma di due autovettori è un vettore nullo oppure un altro autovettore associato
all’autovalore h;
- L’intersezione di autospazi associati ad h è 0: difatti, poiché Ax=h1 x=h2 x , allora (h1 −h2 )x=0 ;
quindi, poiché h1 −h2 ≠ 0 , allora x=0 .
- Ogni autovettore genera una retta r =K v che varia al variare dello scalare t ∈ K . Esso è un
autovettore solo se è parallelo alla retta generata.
n
- Dato un campo chiuso e n autovettori, det ( A−hI )= (−1 ) ( h−h1 )∗…∗(h−h n) da cui si ricava
che:
o detA =h1∗…∗hn;
o Traccia: trA=a1 +…+ an=h1+ hn;

A è singolare se e solo se ha almeno un autovalore nullo.

Matrici diagonalizzabili
Una matrice è diagonalizzabile solo se è simile ad una matrice diagonale, ovvero se P−1∗A∗P=D .

Dimostrazione: ponendo D come matrice diagonale degli autovalori, l’equazione P−1∗A∗P=D è


equivalente a A∗P=P∗D. Poiché A∗P= A b k per definizione di prodotto di matrici, si può
osservare che il prodotto P∗D è λ 1 b1 , … , λn bn che conferma la tesi.

Una matrice diagonalizzabile nell’insieme reale è diagonalizzabile anche nell’insieme complesso, ma non
viceversa.
Per essere diagonalizzabile, una matrice deve (non necessariamente) avere tanti autovettori linearmente
indipendenti quanti sono gli autovalori linearmente indipendenti. Una matrice è diagonalizzabile solo se le
molteplicità geometriche tutti gli autovalori è uguale all’ordine della matrice.

Per essere regolare, un autovettore ha bisogno che molteplicità algebrica e geometrica siano uguali. La
dimensione della somma degli spazi rispetto agli autovalori è uguale alla somma della molteplicità
geometrica rispetto agli autovalori.

Condizione necessaria e sufficiente affinché una matrice sia diagonalizzabile è che i suoi autovalori siano
linearmente indipendenti e appartengano tutti a K. Ogni matrice che possiede autovettori di molteplicità
algebrica 1 è regolare.

Per capire se una matrice quadrata è diagonalizzabile bisogna:

1. Calcolare gli autovalori della matrice: solo nel caso in cui la matrice possiede tutti gli autovalori nel
campo reale questa è diagonalizzabile;
2. Calcolare le molteplicità algebriche degli autovalori: quando tutti gli autovalori hanno molteplicità
algebrica 1 (sono quindi distinti e reali) la matrice è sicuramente diagonalizzabile.
3. Se le molteplicità algebriche sono maggiori di 1, bisogna verificare che essi sono regolari. Solo così
la matrice è diagonalizzabile.

Nel campo complesso il primo punto è ovvio in quanto tutti gli autovalori sono presenti nel campo, mentre i
punti successivi si eseguono così come se fossimo nel campo reale.

Un endomorfismo è semplice se ogni base di V può essere rappresentato da una matrice diagonalizzabile.
Per capire se una funzione endomorfa è semplice, bisogna dimostrare che esiste una base dello spazio V
rispetto alla funzione f che può essere rappresentata come una matrice diagonale: di conseguenza, ogni
base dello spazio rispetto alla funzione avrà una matrice diagonale a rappresentarla.

Osservazioni:

- v è un autovettore della matrice A^m associato all’autovalore h^m per ogni m>0;
- Se A è invertibile, l’autovalore associato alla matrice inversa è 1/h;
- v è un autovettore del polinomio caratteristico di A associato al polinomio caratteristico
dell’autovalore h;
- Due matrici sono simili se hanno i polinomi caratteristici uguali.

Teorema di Cayley-Hamilton: una matrice di ordine n è sempre radice del suo polinomio caratteristico.
Questo teorema permette di ridurre il polinomio caratteristico ad un polinomio di matrici di grado massimo
n−1.
Primo criterio di diagonalizzabilità
Una matrice è diagonalizzabile in un campo se e solo se ammette una base di autovettori.

Dimostrazione: la matrice P è invertibile solo se le sue colonne sono una base e si conseguenza
esiste la matrice diagonale solo se le colonne di P sono autovettori di A.

Secondo criterio di diagonalizzabilità


Una matrice è diagonalizzabile solo se il suo polinomio caratteristico ammette radici nell’insieme numerico
considerato e tutti gli autovalori sono regolari.

Dimostrazione: dal primo criterio di diagonalizzabilità si ha che una matrice è diagonalizzabile solo
se esiste una base di autovettori. Poiché la quantità di vettori linearmente indipendenti coincide
con la somma delle molteplicità geometriche. Le molteplicità algebriche degli autovalori sono
minori o uguali del grado del polinomio caratteristico quindi ma ≤n , però è anche vero che
mg ≤ ma, quindi si ha le seguente relazione
mg ≤ ma ≤ n
Che è possibile solo se mg=ma=n. Ciò significa che ma=n (quindi che le radici sono tutte
nell’insieme numerico considerato) mentre mg=n (quindi che gli autovalori sono regolari).

Potrebbero piacerti anche