Consideriamo una matrice A ∈ Rm,n ; vogliamo associare ad essa una funzione fA : Rn → Rm . Proced-
eremo in questo modo: ogni elemento X = (x1 , ..., xn ) ∈ Rn può essere visto come una matrice colonna in
Rn,1 : ⎞
⎛
x1
⎜ x2 ⎟
X=⎜ ⎟
⎝ ... ⎠ .
xn
Si definisce allora fA (X) = A · X ∈ R m,1 ∼
= Rm . Si verifica immediatamente che:
Esempio:
2 2 1
Sia A = ; allora
1 1 0
⎛ ⎞
x
2 2 1 2x + 2y + z
fA (x, y, z) = ·⎝y⎠ = ∈ R2
1 1 0 x+y
z
Partendo da questa osservazione, vediamo una classe importante di funzioni fra spazi vettoriali, le
applicazioni lineari (che non sono altro che le funzioni che conservano le operazioni caratterizzanti gli spazi
vettoriali), e come sia possibile studiarle utilizzando le matrici.
Definizione 5.1: Siano V, W due spazi vettoriali, e f : V → W una funzione. Essa si dice applicazione
lineare se verifica le seguenti proprietà:
1) ∀v, w ∈ V, f (v + w) = f (v) + f (w);
2) ∀v ∈ V, ∀λ ∈ R, f (λv) = λf (v).
Notiamo che come conseguenza immediata della 2), ponendo λ = 0, si ha che f (0V ) = 0W , e che tutte
le fA : Rn → Rm , definite come sopra a partire da una matrice A ∈ Rm,n sono applicazioni lineari.
Esempi:
- Sia f : R3 → R2 definita da f (x, y, z) = (x + y, z). Per vedere se f sia lineare o meno consideriamo
(x, y, z), (t, u, v) ∈ R3 ; avremo
f (λ(x, y, z)) = f (λx, λy, λz) = (λx + λy, λz) = λ(x + y, z) = λf (x, y, z),
f (p(x)+q(x)) = f ((a0 +b0 )+(a1 +b1 )x+...+(as +bs )xs +...+bt xt ) = ((a0 +b0 ), (a1 +b1 )) = f (p(x))+f (q(x)).
Verificare per esercizio che anche f (λp(x)) = λf (p(x)), e che quindi f è lineare.
Definizione 5.2: Data una applicazione lineare f : V → W ci sono due insiemi naturalmente associati ad
essa:
L’immagine di f: im f = {w ∈ W |∃v ∈ V, f (v) = w};
Il nucleo di f: ker f = {v ∈ V |f (v) = 0W }.
Quindi i vettori di im f sono quei vettori di W che provengono, via f , da qualche vettore di Rn , mentre
i vettori di ker f sono quei vettori di V che la f porta nel vettore nullo di W .
Esempio:
Abbiamo visto all’inizio che data una matrice A ∈ Rm,n è possibile associarle un’applicazione lineare
fA : Rn → Rm e che nell’esempio precedente per determinare im f e ker f si lavorava con una matrice
A. Ci chiediamo adesso se si possa fare ciò in generale: dati due spazi vettoriali V ,W di dimensioni n, m
rispettivamente, ed un’applicazione lineare f : V → W , vogliamo associare ad essa una matrice.
Siano B = {v1 , ..., vn } e B {w1 , ..., wm } basi, rispettivamente, di V e W ; consideriamo i vettori:
f (v1 ),...,f (vn ) ∈ W ed esprimiamoli come combinazioni lineari dei wi :
f (v1 ) = a11 w1 + a21 w2 + ... + am1 wm ;
f (v2 ) = a12 w1 + a22 w2 + ... + am2 wm ;
...
f (vn ) = a1n w1 + a2n w2 + ... + amn wm .
I coefficienti aij vengono allora a formare una matrice A = (aij ) ∈ Rm,n , che sarà la matrice cercata. Sia
infatti
X = b1 v1 + b2 v2 + ... + bn vn ∈ V
un qualsiasi vettore di V ; esso potrà scriversi tramite la colonna dei coefficienti da assegnare alla base B per
esprimerlo come sopra:
⎛ ⎞
b1
⎜ b2 ⎟
X=⎜ ⎟
⎝ ... ⎠ ↔ X = b1 v1 + b2 v2 + ... + bn vn
bn B
si ha quindi:
⎛ ⎞
c1
n
n
n
⎜ c2 ⎟
C=⎜ ⎟
⎝ ... ⎠ =( a1k bk )w1 + ( a2k bk )w2 + ... + ( amk bk )wm .
k=1 k=1 k=1
cm B
Riordinando tale somma in modo diverso si ha:
b1 (a11 w1 +a21 w2 +...+am1 wm )+b2 (a12 w1 +a22 w2 +...+am2 wm )+ ... +bn (a1n w1 +a2n w2 +...+amn wm ) =
In conclusione si ha che la matrice A rappresenta la f tramite il prodotto A · X = f (X), una volta che si
rappresentino i vettori in V tramite la base B e quelli di W tramite la base B . Esprimeremo questo fatto
indicando spesso la matrice associata alla f con il simbolo MBB (f ), che segnala come la matrice dipenda
dalla scelta delle basi; diremo che MBB (f ) è la matrice che rappresenta la f rispetto alle basi B (in partenza)
e B (in arrivo).
Le colonne della matrice MBB (f ) restano determinate dai vettori f (vi ) (immagini della base di partenza)
scritte come vettori colonna espressi rispetto alla base di arrivo.
Si ha cosı̀ naturalmente che la matrice associata ad una f non è unica, ma dipende dalla scelta delle
due basi, sia nello spazio di arrivo che in quello di partenza.
Osservazione: Quando si tratta con gli spazi Rn , l’uso della base canonica En rende molto più semplice la
determinazione di una matrice da associare alla f , in quanto le n-uple che sono le immagini dei vettori della
base di partenza sono già le colonne della matrice cercata.
4) Provate a scegliere basi diverse negli esercizi precedenti e trovare la MBB (f ) per le basi da voi scelte.
Proposition 5.3: Sia f : V → W , lineare, e sia B = {v1 , ..., vn } una base di V . Allora {f (v1 ), ..., f (vn )}
è un insieme di generatori per im f.
Osservazione: Non è detto che {f (v1 ), ..., f (vn )} sia una base di im f , in quanto gli f (vi ) potrebbero
non essere indipendenti; una base si otterrà scegliendo il massimo numero possibile di vettori indipendenti
in {f (v1 ), ..., f (vn )}. Ricordiamo allora che se abbiamo fissato anche una base B in W e associato ad f
la matrice A = MBB (f ), le colonne di A sono date dagli f (v1 ), ..., f (vn ) (espressi tramite B ). Quindi si
ottiene che:
dim(imf ) = massimo numero di colonne indipendenti di A = r(A).
Esempio:
f (1, 0, 0) = (0, 1, 1), f (0, 1, 0) = (1, −1, 0), f (0, 0, 1) = (−1, 0, −1)
nel sistema solo due equazioni sono indipendenti (infatti r(A) = 2) e si ha cosı̀ :
y−z =0 z=y
→
x−y =0 x = −y
Notiamo che ovviamente quando dim(im f ) = m = dim W , la f risulta suriettiva (ogni vettore di W
proviene, via f , da uno di V ). Lo studio di ker f ci dice invece qualcosa sull’iniettività della f :
f −1 ◦ f = idV ; f ◦ f −1 = idW
Proposizione 5.6: Sia f : V → W , con dim V = n = dim W . Allora la f è iniettiva se e solo se è suriettiva.
Notiamo che se dim V = dim W la proposizione precedente non vale: ad esempio f : R3 → R2 , definita
da f (x, y, z) = (x, y) è suriettiva ma non iniettiva (infatti kerf = {(0, 0, z)|z ∈ R}).
Vediamo che nella rappresentazione di applicazioni lineari tramite matrici il prodotto di matrici cor-
risponde alla composizione di applicazioni lineari:
Dimostrazione: Sia X ∈ V un vettore scritto come colonna delle sue componenti rispetto alla base B; allora
eseguiamo il prodotto e troviamo:
Nel caso particolare che l’applicazione lineare che si stia considerando sia l’identità, ci sono interessanti
considerazioni da svolgere; sia id : V → V l’applicazione identità (che è ovviamente lineare), e sia dim V = n;
se fissiamo una base qualsiasi B = {v1 , ..., vn } di V , avremo sempre che
MBB (id) = I;
si verifica immediatamente considerando id(v1 ) = 1v1 + 0v2 + ... + 0vn , ..., id(vn ) = 0v1 + 0v2 + ... + 1vn .
Se invece abbiamo due diverse basi B = {v1 , ..., vn } e B = {z1 , ..., zn } in V , le matrici MBB (id) e
MB B (id) non saranno = I, ma avremo (dalla 5.7):
Osserviamo quale sia l’effetto della moltiplicazione per queste matrici; se X è un vettore di V scritto
rispetto alla base B, ad esempio
⎛ ⎞
x1
⎜ x2 ⎟
X=⎜ ⎟
⎝ ... ⎠ ,
xn B
allora, eseguendo la moltiplicazione:
⎞
⎛
x1
⎜ x2 ⎟
MBB (id) · ⎜ ⎟
⎝ ... ⎠ ,
xn B
otterremo di nuovo il vettore X (stiamo applicando l’identità), ma scritto rispetto alla base B ; l’effetto della
moltiplicazione per MBB (id) è quindi quello di riscrivere rispetto alla B i vettori di V dati tramite la B.
Per questa ragione le matrici come la MBB (id) si chiamano matrici del cambiamento di base (da B a
B ).
Esempio:
e E3 la base canonica. Determiniamo le matrici MBE (id) e MEB (id); per la prima il conto è semplice:
Notiamo che data una qualsiasi matrice P ∈ Rn,n , con r(P ) = n, si possono pensare le sue colonne come
una base P di R3 (poiché sono linearmente indipendenti), e quindi, per quanto visto sopra, si ha che:
P = MPE (id)
Ma come caratterizzare le matrici A ∈ Rn,n che sono invertibili (cioè per cui esiste A−1 tale che
A−1 · A = A · A−1 = I)? Vediamo che esse sono proprio le matrici di rango massimo:
Dimostrazione: Se r(A) = n, abbiamo notato poche righe sopra che la A sarà invertibile, vedendola come
una matrice di un cambiamento di base.
Dimostriamo quindi il viceversa: supponiamo adesso che A sia invertibile e vediamo che deve avere
rango = n. Consideriamo l’applicazione lineare fA : Rn → Rn , definita da fA (X) = A · X (scrivendo i
vettori di Rn come colonne), risulterà A = MEE (fA ). Poichè A è invertibile, possiamo considerare anche
fA−1 : Rn → Rn , ed avremo che fA−1 (X) = A−1 · X. Allora:
quindi la fA−1 è l’inversa della fA ; ma per essere invertibile, la fA dovrà essere biunivoca (vedi l’osservazione
dopo la Definizione 5.5), e questo implica che r(A) = dim im fA = n.