È detto spazio vettoriale su un campo qualsiasi K un insieme V, detto spazio dei vettori, che rispetta le
proprietà del prodotto scalare-vettore e la somma tra vettori.
Vettore
Un vettore è un elemento di uno spazio vettoriale che possono essere sommati fra loro e moltiplicati per
dei numeri, detti scalari.
I vettori sono comunemente usati in fisica per indicare grandezze che sono definite solo quando sono
specificati un modulo, un punto di applicazione, una direzione ed un verso rispetto ad un altro vettore o un
sistema di vettori. Le grandezze che possono essere descritte in questo modo sono chiamate grandezze
vettoriali, in contrapposizione alle grandezze scalari che sono caratterizzate unicamente dal loro modulo.
In algebra, i vettori possiedono direzione, verso e modulo, ma non un punto di applicazione. I vettori
vengono indicati con v e il suo modulo con ¿∨v ∨¿.
Il vettore risultante avrà stessa direzione di v, modulo ¿ t∨¿∨¿ v∨¿ e sarà 0 quando t=0 , verso uguale a v
se t >0, verso opposto a v se t <0.
w=t 1 v 1+ …+t n v n
L’insieme di vettori è detto sistema di generatori se ogni vettore dello spazio V può essere scritto come
combinazione lineare di tale insieme.
Osservazioni
- Un insieme di vettori che contiene un vettore nullo è sempre un insieme di vettori linearmente
dipendenti.
- Usando una definizione geometrica, due vettori sono linearmente dipendenti se hanno la stessa
direzione.
- Considerando un insieme di vettori nello spazio, un vettore w è combinazione lineare di altri due
vettori se w=t 1 v+ t 2 u.
Vettori linearmente dipendenti
Un insieme di vettori v 1 , … , v n ∈V è detto linearmente dipendente se nessuno di questi può essere
espresso come combinazione lineare dei restanti. In altre parole, tali vettori sono linearmente indipendenti
se il vettore nullo è combinazione lineare dei suddetti vettori. Ovvero:
t 1 v 1+ …+t n v n=0
Base canonica
Un insieme di vettori B={e1 , … , e n } è detta base canonica dell’insieme K n .
Osservazioni
- Due vettori che non sono paralleli sono automaticamente linearmente indipendenti e a loro è
abbinata una base.
- Non sempre uno spazio vettoriale possiede una base.
- Ogni vettore di uno spazio vettoriale è esprimibile come un’unica combinazione lineare della base
dello spazio
Dimostrazione per assurdo: se per ipotesi il vettore w=t 1 v 1+ …+t n v n potesse essere scritto come
combinazione lineare usando un altro coefficiente h1 → hn ≠ t 1 → t n , allora tale vettore può essere
scritto come w−w=( h1 v 1−t 1 v1 ) + …+(hn v n−t n v n )=0 . Raccogliendo i vettori si ha che
( h 1−t 1 ) v1 +…+ ( hn−tn ) v n=0 e quindi, per definizione di base di spazio vettoriale, che
( h 1−t 1 ) =…=( hn−tn ) =0. Questo implica che h1 → hn=t 1 → tn , ma questo va contro l’ipotesi e
quindi il teorema è dimostrato.
Che è possibile solo se tutti i coefficienti siano nulli visto che v1 , … , v r è una base di V
Formula di Grassmann
La dimensione della somma di due spazi vettoriali U e V è la differenza tra la somma delle dimensioni dei
singoli spazi e la dimensione dello spazio intersezione. In formule:
Sistema di riferimento
È detto sistema di riferimento una base di tre vettori con fissato un punto di origine e delle rette con la
stessa direzione dei vettori detti assi del sistema di riferimento.
Sottospazio vettoriale
È definito sottospazio vettoriale di uno spazio vettoriale un insieme di vettori S ⊂V che ammette la
proprietà della somma e del prodotto scalare-vettore ed S è chiuso rispetto a V , ovvero:
- Il vettore nullo di V appartiene ad S;
- La somma di due vettori s1 + s2 ∈ S ;
- Il prodotto scalare-vettore, dato k ∈ K e s1 ∈ S, k∗s1 ∈S .
{x=t
y=t
Operazioni tra sottospazi
Valgono le operazioni tra i sottospazi:
- Intersezione insiemistica: si considerano due sottospazi e i vettori che sono presenti in entrambi i
sottospazi appartengono a tale intersezione. In formule:
H ∩W = { v ∈V tale che v ∈ H , v ∈ W }
- Somma di sottospazi: dati due sottoinsiemi H e W la loro somma produce il più piccolo sottospazio
che contiene la somma H +W . L’insieme dei generatori è da considerarsi come l’unione tra
l’insieme dei generatori di H e quello di W. In formule:
Applicazioni lineari
Una funzione f :V → K è detta applicazione lineare se:
In modo più compatto, una funzione lineare esiste se e solo se: f ( tv )+ f ( hw )=tf ( v )+ hf ( w ) .
Per ogni vettore libero del piano in cui si è fissata una base, le applicazioni:
1. f 1 :V → K definita da f 1 (v ): v 1;
2. f 2 :V → K definita da f 2 (v ): v 2.
Sono funzioni lineari, sapendo che (v 1 , v 2 ) sono componenti del vettore rispetto alla base assegnata.
Per ogni vettore libero dello spazio in cui è fissata una base, le applicazioni:
1. f 1 :V → K definita da f 1 (v ): v 1;
2. f 2 :V → K definita da f 2 (v ): v 2;
3. f 3 :V → K definita da f 3 (v ): v 3.
Sono funzioni lineari, sapendo che (v 1 , v 2 , v 3 ) sono componenti del vettore rispetto alla base
assegnata.
Dimostrazione del sottospazio: valgono le proprietà dei sottospazi vettoriali, ovvero la somma tra
vettori dà il vettore nullo rispetto allo spazio d’arrivo e il prodotto scalare-vettore dà il vettore nullo
rispetto allo spazio d’arrivo. Se il vettore di arrivo non fosse quello nullo, il nucleo non sarebbe un
sottospazio di V.
Dimostrazione di v ker: se v appartiene alla fibra di w allora f ( v )=w . Prendendo v ker ∈ kerf , allora
f (v ker )=0 e quindi la somma v+ v ker =f ( v ) +f ( v ker )=w+0=w perciò v+ v ker ∈ kerf . Inoltre preso
un secondo vettore v ' appartenente alla fibra di w si ha quindi che f ( v ' −v )=w−w=0 , perciò
' '
v −v ∈kerf e infine v =v + v ker ∈ kerf .
Una funzione è suriettiva se l’immagine della funzione coincide con lo spazio d’arrivo ( dimW ≤ dimV ). In
termini geometrici, una funzione è suriettiva se Imf =dimW , ovvero la matrice associata alla funzione ha
rango massimo. Una funzione suriettiva è inoltre detta epimorfica.
Una funzione è biunivoca se è sia iniettiva che suriettiva e si verifica un isomorfismo ( dimW =dimV ). Una
funzione biunivoca è detta anche isomorfica.
Endomorfismi e automorfismi
L’endomorfismo è un omomorfismo particolare, dove la funzione lineare è f :V → V ; vale inoltre una
condizione particolare derivata dal teorema di nullità più rango ovvero che un endomorfismo è iniettivo se
e solo se è suriettivo. L’automorfismo è un caso particolare di endomorfismo che è anche isomorfico.
Cambiamento di base
Teorema di rappresentazione
Siano V e W due spazi di dimensione rispettivamente n e m e di basi rispettivamente B e C . Esiste allora
un’applicazione lineare f , rappresentata con una matrice lineare A( m, n) dove per ogni w=f (v) si ha che
w ¿C = A (v ¿ B ) e si indica con M [B , C] (f ) .
Dimostrazione: sia B={b1 , … ,b n } . Si costruisce una matrice composta dalle componenti del
sottospazio V con base B rispetto alla base C di W. Ogni vettore v di V può essere riscritto come
n m n m
f ( v )=∑ x i f (b i). La base C per costruzione rappresenta A come ∑ x i ∑ a j ,i c j=∑ ¿ ¿ dove
i=1 i=1 i=1 i=1
n
∑ a j , i x i è la componente j-esima del vettore colonna A( v ¿ B). Ciò dimostra la tesi per cui
i=1
A ( v ¿B ) =f (v ¿ C ).
Sistema lineare
È detto lineare un sistema che è composto da più equazioni lineari che devono essere verificate
contemporaneamente. Viene rappresentato in questo modo:
{
a 1,1 x 1 +…+a 1 ,n x n =b1
a 2,1 x 1 +…+a 2 ,n x n =b2
…
am , 1 x 1+ …+a m,n x n=bm
Dove a m ,n è detto coefficiente dell’ equazione, b m è un termine noto e a m ,1 x 1 +…+ am , n x n=b m è una
generica equazione associata al sistema.
Se gli elementi del vettore soluzione sono tutti nulli, allora il sistema è omogeneo.
Se il sistema ammette soluzione, esso è possibile (oppure compatibile). Un sistema possibile si divide
ulteriormente in:
In alternativa, un sistema che non ammette soluzioni è definito impossibile (o incompatibile). Due sistemi
che ammettono le stesse soluzioni sono definiti equivalenti.
Matrice
La matrice è un metodo di rappresentazione ordinata di elementi in tabella. Gli elementi disposti in
verticale formano una colonna, mentre quelli disposti in orizzontale formano una riga. Ogni elemento della
matrice presenta due quantità m e n in pedice che per convenzione indicano rispettivamente riga e
colonna. Una rappresentazione di matrice è ad esempio:
[ ]
a 1,1 ⋯ a1 ,n
A= ⋮ ⋱ ⋮
a m ,1 ⋯ am ,n
Tutti gli elementi disposti in diagonale dalla posizione in alto a sinistra fino in basso a destra formano la
diagonale principale. Analogamente, tutti gli elementi disposti in diagonale dalla posizione in alto a destra
fino in basso a sinistra formano la diagonale secondaria.
Tipi di matrice
Esistono diversi tipi di una matrice:
- Matrice rettangolare: è una matrice dove le quantità di righe e colonne non coincidono;
- Matrice quadrata: è una matrice dove righe e colonne sono in egual numero;
- Matrice riga: è una matrice che si sviluppa solo su una riga, quindi del tipo (1 , n);
- Matrice colonna: è una matrice che si sviluppa solo su una colonna (m ,1);
- Matrice diagonale: è una matrice che presenta gli unici elementi non nulli sulla diagonale
principale. Se invece presenta solo elementi non nulli sulla diagonale secondaria è detta matrice
antidiagonale;
- Matrice identità: è una matrice diagonale particolare che presenta come elementi sulla diagonale
principale 1;
- Matrice triangolare alta: è una matrice che presenta elementi non nulli al di sopra della diagonale
principale, anch’essa non nulla. Analogamente, è definita matrice triangolare bassa una matrice che
presenta elementi non nulli al di sotto della diagonale principale;
- Matrice nulla: è una matrice che presenta solo elementi nulli;
- Matrice trasposta: è una matrice che considera le righe come colonne e le colonne come righe. In
senso pratico, dato l’elemento a m ,n dove m e n rappresentano rispettivamente la riga e la colonna
di partenza, nella matrice trasposta lo stesso elemento sarà di tipo a n ,m;
- Matrice opposta: è una matrice che viene moltiplicata per −1, cambiando così tutti gli elementi di
segno.
- Somma;
- Prodotto scalare per matrice;
- Prodotto tra matrici.
Somma
La somma può essere effettuata solo tra matrici con le stesse quantità di righe e colonne: l’operazione
consiste infatti nel sommare elementi che occupano la stessa posizione in entrambe le matrici. In pratica,
date due matrici A e B, sommandole si avrà una matrice C tale che
C=
[ ][
c1,1 c 1,2
c2,1 c 2,2
a +b a +b
= 1,1 1,1 1,2 1,2
a2,1 +b 2,1 a2,2 + b2,2 ]
Proprietà della somma
- Proprietà commutativa: A+B=B+ A ;
- Proprietà associativa: ( A+ B ) +C= A+(B+ C);
- Elemento neutro: A+0= A ;
- Matrice opposta: A+ (− A )=0.
Il procedimento consiste nel sommare i prodotti degli elementi della riga della prima matrice con i
corrispondenti elementi della colonna della seconda matrice.
Il prodotto di una matrice per un vettore colonna può essere visto come una combinazione lineare tra le
componenti del vettore colonna e le colonne della matrice
Le soluzioni di un sistema lineare si ottengono inoltre come somma tra un particolare un sistema associato
e le soluzioni del sistema omogeneo associato.
A x h= Ax−A x 0 =b−b=0
Quindi x h è una soluzione del sistema omogeneo associato. Viceversa, se x h è una soluzione del
sistema omogeneo associato si ha che x=x 0 + x h e quindi che tale proposizione è dimostrata
Matrici di ordine 2
Il calcolo del determinante per tali matrici è una differenza tra il prodotto della diagonale principale e quella
secondaria. In pratica, data una matrice A, il suo determinante è:
| |
detA = a b =a∗d−b∗c
c d
Il valore assoluto di tale espressione corrisponde ad un parallelogramma di vertici
( 0 , 0 ) , ( a , c ) , ( b , d ) , ( a+c , b+d ) .
Regola di Sarrus
Tale regola è applicabile solo a matrici di ordine 3 e consiste nel calcolare la differenza tra le somme dei
prodotti della diagonale principale con le sue parallele e le somme dei prodotti della diagonale secondaria
con le sue parallele. In pratica, data una matrice A, il suo determinante è:
| |
a b c
detA = d e f =a∗e∗i +b∗f∗g+ d∗h∗c−(c∗e∗g +b∗d∗i+ f∗h∗a)
g h i
1° teorema di Laplace
È un metodo che può essere utilizzato per matrici molto piccole o che presentano diversi elementi nulli.
Essa premette di calcolare il determinante di una matrice sommando gli elementi della prima riga con
abbinati i rispettivi complementi algebrici.
È detto complemento algebrico il prodotto formato tra (−1 )i+ j e det (M ¿¿ i, j)¿, dove (i , j) indicano la
riga e la colonna dell’elemento considerato e M i , j indica il minore complementare dell’elemento
considerato.
È detto minore complementare la matrice ottenuta eliminando una riga e una colonna della matrice A.
| |
a b c
detA = d e f =a
g h i
e f
h i
−b | | | fi|+c|dg eh|
d
g
2° teorema di Laplace
La somma dei prodotti degli elementi di una riga con i complementi algebrici di un’altra riga è 0.
- Se la prima riga ha il primo elemento nullo, si scambia con la prima riga col primo elemento non
nullo;
- Per ogni riga col primo elemento non nullo (ad eccezione della prima), si moltiplica tale riga per un
multiplo della prima riga dimodoché il primo elemento della riga sia nullo;
- Quando la prima colonna è composta da elementi nulli ad eccezione del primo, si considera la
sottomatrice ottenuta cancellando la prima riga e la prima colonna.
Il risultato finale sarà una matrice a scala, dove il pivot di una riga è posto più a destra rispetto al pivot della
riga precedente. Se la matrice è quadrata, la matrice a scala è una matrice triangolare alta. Il determinante
di tale matrice è uguale al prodotto degli elementi presenti sulla diagonale principale. Essa è inoltre
equivalente alla matrice iniziale.
Dimostrazione: data la matrice completa [ A∨b ] associata al sistema Ax=b, se x soddisfa le
equazioni lineari a 1 v e a 2 v allora valgono le proprietà dell’applicazione lineare
( a 1+ t a2 ) v =b1 +t b 2
Se v è una soluzione del sistema Ax=b allora essa è soluzione anche del sistema ridotto A' x=b ' .
Siccome le operazioni elementari valgono sia in Ax=b sia in A' x=b ' , esse varranno allo stesso
modo sia in [ A∨b ] che in [ A ' ∨b ' ] dato che quest’ultima è ottenibile tramite operazioni
elementari e ciò conferma la tesi.
Teorema di Binet
Date due matrici A e B, vale la seguente relazione: det ( A∗B )=detA∗detB
Rango
Il rango di una matrice corrisponde al numero di righe (o colonne) linearmente indipendenti oppure al
numero di pivot presenti nella matrice. Viene indicato con rkA .
I pivot sono i primi elementi non nulli di una riga di matrice. Affinché sia considerato tale, un pivot deve
essere collocato più a destra del pivot collocato sulla riga precedente.
È possibile inoltre trovare il rango della matrice calcolando i minori complementari della matrice oppure
usando l’algoritmo di Gauss per la riduzione a scala. Nel primo caso, il rango corrisponderà al primo minore
complementare di ordine più grande diverso da 0, mentre il secondo corrisponderà al numero di pivot
presenti nella matrice a scala.
Che, in forma matriciale, sono riscritte come A=B∗C , dove B è la matrice dei coefficienti b i, j e C
la matrice della riga C j . Ottenendo le trasposte si ha che AT =( B∗C)T =CT ∗BT , ovvero che le
righe di AT sono combinazione lineare delle k righe di BT , ovvero che lo spazio delle righe di AT ha
k generatori, come lo spazio delle colonne di A, concludendo quindi che il rango delle colonne di A è
maggiore o uguale del rango delle righe di A.
Ripetendo lo stesso procedimento si ha che il rango delle righe di A è maggiore o uguale di quello
delle colonne di A. Da tale disuguaglianza si ha quindi che il rango delle righe e quelle colonne
coincidono e che tale valore è il rango della matrice A.
Teorema di Rouché-Capelli
Le matrici sono molto utili per risolvere sistemi lineari e il rango di una matrice è molto utile nel dimostrare
la risolvibilità di un sistema lineare. Difatti, dato un sistema di m equazioni in n incognite definito in un
campo K
{
a 1,1 x 1 +…+a 1 ,n x n =b1
a 2,1 x 1 +…+a 2 ,n x n =b2
…
am , 1 x 1+ …+a m,n x n=bm
Considerando la matrice incompleta A composta dai coefficienti delle equazioni e la matrice completa
A∨b composta dai coefficienti delle equazioni e dai termini tale che A x=b
[ ] [ ]
a 1,1 ⋯ a1 ,n a 1,1 ⋯ a1 ,n b1
A= ⋮ ⋱ ⋮ A∨b= ⋮ ⋱ ⋮ ⋮
a m ,1 ⋯ am ,n a m ,1 ⋯ a m ,n bn
Se:
Dimostrazione: riducendo a scala una matrice A si ha che il rango della matrice ridotta coincide con
il rango r della matrice di partenza. Si possono quindi distinguere due casi:
1. r <m e b ' k ≠ 0 con k > r : in tal caso il sistema non ha soluzioni in quanto la k-esima riga della
matrice a scala corrisponde all’equazione 0 x 1+ …+0 x n=b ' k ≠ 0 che ovviamente è assurda e
non ammette soluzione. Tale caso si verifica solo se il numero di pivot della matrice completa è
maggiore di 1 rispetto alla matrice dei coefficienti.
2. r =m oppure r <m e b ' k =0 con k >r : il rango della matrice completa coincide con quella
incompleta. In tal caso le variabili sono distinte in dipendenti per le variabili contenenti i pivots
e libere tutte le restanti n−r variabili. Se r =m il sistema si risolve facilmente eseguendo tutte
le equazioni e questo dimostra il teorema. Se r <m e b ' k =0 con k >r allora bisogna portare
tutte le variabili dipendenti a sinistra e lasciare le variabili libere a destra. Le variabili libere
possono assumere valori arbitrari t 1 , … , t n−r e si può notare che il vettore nullo è soluzione del
sistema se tutti questo valori sono 0 e che la generica soluzione del sistema è
Matrice inversa
Una matrice quadrata è detta invertibile se A∗A−1=I , dove la matrice inversa è indicata come A−1.
Condizione necessaria e sufficiente affinché esista la matrice inversa è che detA ≠ 0.
1. A è invertibile;
2. A ha matrice sx;
3. A ha matrice dx;
4. rkA=n;
5. kerA =0 [ A x=0 non ammette autosoluzioni];
6. Ogni sistema lineare A x=b ha una sola soluzione;
7. Le colonne di A sono linearmente indipendenti.
Dimostrazioni:
1. Punto 5 (si usa il punto 2): sia C l’inversa sinistra della matrice A e sia v una soluzione di A v =0.
Poiché CA v =0 e CA=I , v è l’unica soluzione del sistema;
2. Punto 4 (usando il punto 5): segue dal corollario del teorema di Rouché – Capelli (regola di Cramer);
3. Punto 6 (usando il punto 4): segue il teorema di Rouché-Capelli ( rkA=rk [ A x=b]=n);
4. Punto 3 (usando il punto 6): A x=e ; AC=[ Ad 1∨Ad 2∨…∨Adn]=¿.
1. Si calcola detA : se detA =0 la matrice non ammette inversa, altrimenti se detA ≠ 0 esiste l’inversa;
2. Ogni elemento della matrice viene sostituito dal relativo cofattore: esso non è altro che il
complemento algebrico dell’elemento;
3. Si effettua il prodotto tra il reciproco del detA e la matrice trasposta dei cofattori, ottenendo la
matrice inversa.
Ottenimento della matrice inversa tramite il metodo di Gauss-Jordan
Un secondo metodo per ottenere una matrice inversa è tramite Gauss-Jordan. Il metodo utilizza
massicciamente l’algoritmo di Gauss ed è strutturato come segue:
1. Si crea una matrice completa creata dall’affiancamento della matrice identica a destra della matrice
da invertire;
2. Si applica l’algoritmo di Gauss fino a quando la matrice da invertire non diventa la matrice identica.
La matrice inversa ottenuta si trova nel posto che era occupato prima dalla matrice identica.
1. v ≠ 0;
2. esiste h tale che f (v )=hv . Tale scalare è detto autovalore rispetto all’autovettore v.
Gli autovettori non cambiano direzione in f se sono endomorfi. Ogni autovettore kv con k ∈ K {0 } è
sempre un autovettore associato a f rispetto all’autovalore h.
È detta radice di un polinomio un numero che se sostituito a x nel polinomio dà come risultato 0. Il
polinomio ha radici solo se (x−n) divide il polinomio. La radice ha molteplicità se, elevando (x-n) a k,
divide il polinomio ma non lo fa se (x−n)k−1 .
Teorema fondamentale dell’algebra: nel campo reale i polinomi di grado n hanno un numero di radici
minore o uguale ad n e non necessariamente si scompone in un prodotto di fattori lineari. Nel campo
complesso invece il numero di radici è sempre uguale a n e quindi esiste p(x )=a( x −b)m ∗(x−b)m con a
1 s
coefficiente direttore di p(x ) e m 1+ m s=n . In generale, il campo complesso è un campo chiuso perché ogni
suo polinomio ammette n radici, a patto che ogni radice possegga una propria molteplicità.
Per cercare un autovettore bisogna usare la matrice quadrata A, che rappresenta l’endomorfismo f di uno
spazio V rispetto ad una base B. Gli autovettori sono le autosoluzioni del sistema ( A−hI ) x=0 , ovvero tutti
i vettori non nulli tali che Ax=hx . Le autosoluzioni del sistema esistono solo se il suo determinante (che è
un polinomio di grado n detto polinomio caratteristico di A) è 0. Le soluzioni del polinomio caratteristico
sono detti autovalori della matrice A; un autovalore con molteplicità k è detto autovalore con molteplicità
associata.
Se gli autovalori sono distinti, allora anche gli autovettori sono distinti.
Dimostrazione per induzione: se ci fosse un solo autovettore il teorema sarebbe dimostrato perché
l’autovettore sarebbe sicuramente non nullo e quindi linearmente indipendente. Supponendo che
ce ne siano di più, bisogna verificare che vale la condizione c 1 v 1+ …+c s v s=0 . Moltiplicandola per
λ s e uguagliandola con la condizione moltiplicata per la matrice diagonale si ha che
c 1 ( λ1− λs ) v1 +…+ c s−1 ( λs −1− λs ) v s−1=0 , ma poiché i vettori sono linearmente indipendenti e gli
autovalori distinti per ipotesi, si ha che i coefficienti c 1=…=c s =0 e che il teorema è dimostrato.
Da tale proposizione si ricava che se una matrice ha degli autovalori distinti essa è diagonalizzabile.
Due matrici A e B sono simili se esiste una matrice invertibile P tale che A=P−1∗B∗P , con P matrice di
passaggio da una base C (matrice A) a una base D (matrice B), entrambe basi di una funzione endomorfica
di uno spazio vettoriale finito V . Se due matrici sono simili godono delle seguenti proprietà:
E affinché due matrici siano simili, devono necessariamente sussistere delle condizioni:
- Avere stesso polinomio caratteristico. È detto polinomio caratteristico l’equazione che si ottiene da
det ( A−λI )=0;
- Avere stessa molteplicità algebrica e geometrica;
- Avere stesso determinante, rango e traccia.
Se le matrici quadrate sono di ordine maggiore o uguale a 4, queste condizioni non bastano. Infatti due
matrici sono sicuramente simili se entrambe sono diagonalizzabili, altrimenti:
Matrici diagonalizzabili
Una matrice è diagonalizzabile solo se è simile ad una matrice diagonale, ovvero se P−1∗A∗P=D .
Una matrice diagonalizzabile nell’insieme reale è diagonalizzabile anche nell’insieme complesso, ma non
viceversa.
Per essere diagonalizzabile, una matrice deve (non necessariamente) avere tanti autovettori linearmente
indipendenti quanti sono gli autovalori linearmente indipendenti. Una matrice è diagonalizzabile solo se le
molteplicità geometriche tutti gli autovalori è uguale all’ordine della matrice.
Per essere regolare, un autovettore ha bisogno che molteplicità algebrica e geometrica siano uguali. La
dimensione della somma degli spazi rispetto agli autovalori è uguale alla somma della molteplicità
geometrica rispetto agli autovalori.
Condizione necessaria e sufficiente affinché una matrice sia diagonalizzabile è che i suoi autovalori siano
linearmente indipendenti e appartengano tutti a K. Ogni matrice che possiede autovettori di molteplicità
algebrica 1 è regolare.
1. Calcolare gli autovalori della matrice: solo nel caso in cui la matrice possiede tutti gli autovalori nel
campo reale questa è diagonalizzabile;
2. Calcolare le molteplicità algebriche degli autovalori: quando tutti gli autovalori hanno molteplicità
algebrica 1 (sono quindi distinti e reali) la matrice è sicuramente diagonalizzabile.
3. Se le molteplicità algebriche sono maggiori di 1, bisogna verificare che essi sono regolari. Solo così
la matrice è diagonalizzabile.
Nel campo complesso il primo punto è ovvio in quanto tutti gli autovalori sono presenti nel campo, mentre i
punti successivi si eseguono così come se fossimo nel campo reale.
Un endomorfismo è semplice se ogni base di V può essere rappresentato da una matrice diagonalizzabile.
Per capire se una funzione endomorfa è semplice, bisogna dimostrare che esiste una base dello spazio V
rispetto alla funzione f che può essere rappresentata come una matrice diagonale: di conseguenza, ogni
base dello spazio rispetto alla funzione avrà una matrice diagonale a rappresentarla.
Osservazioni:
- v è un autovettore della matrice A^m associato all’autovalore h^m per ogni m>0;
- Se A è invertibile, l’autovalore associato alla matrice inversa è 1/h;
- v è un autovettore del polinomio caratteristico di A associato al polinomio caratteristico
dell’autovalore h;
- Due matrici sono simili se hanno i polinomi caratteristici uguali.
Teorema di Cayley-Hamilton: una matrice di ordine n è sempre radice del suo polinomio caratteristico.
Questo teorema permette di ridurre il polinomio caratteristico ad un polinomio di matrici di grado massimo
n−1.
Primo criterio di diagonalizzabilità
Una matrice è diagonalizzabile in un campo se e solo se ammette una base di autovettori.
Dimostrazione: la matrice P è invertibile solo se le sue colonne sono una base e si conseguenza
esiste la matrice diagonale solo se le colonne di P sono autovettori di A.
Dimostrazione: dal primo criterio di diagonalizzabilità si ha che una matrice è diagonalizzabile solo
se esiste una base di autovettori. Poiché la quantità di vettori linearmente indipendenti coincide
con la somma delle molteplicità geometriche. Le molteplicità algebriche degli autovalori sono
minori o uguali del grado del polinomio caratteristico quindi ma ≤n , però è anche vero che
mg ≤ ma, quindi si ha le seguente relazione
mg ≤ ma ≤ n
Che è possibile solo se mg=ma=n. Ciò significa che ma=n (quindi che le radici sono tutte
nell’insieme numerico considerato) mentre mg=n (quindi che gli autovalori sono regolari).