Sei sulla pagina 1di 151

PAOLO DULIO WALTER PACCO

APPUNTI DI ALGEBRA LINEARE

MATRICI, SISTEMI, SPAZI


TEORIA ED ESERCIZI SVOLTI

Indice
1 DAGLI INSIEMI ALLE MATRICI
1.1 NOZIONI PRELIMINARI . . . . . . . . . . . .
1.1.1 Relazioni tra insiemi . . . . . . . . . . .
1.1.2 Applicazioni o funzioni . . . . . . . . . .
1.1.3 Relazioni in un insieme . . . . . . . . .
Relazioni di equivalenza . . . . . . . . .
Relazioni dordine . . . . . . . . . . . .
Classi di resti . . . . . . . . . . . . . . .
1.1.4 Richiami sul Massimo Comune Divisore
Algoritmo di Euclide . . . . . . . . . . .
1.1.5 Cenni sulle equazioni modulari . . . . .
1.1.6 Operazioni negli insiemi numerici . . . .
1.1.7 Strutture algebriche . . . . . . . . . . .
1.1.8 Strutture su classi di resti . . . . . . . .
1.2 MATRICI SU UN CAMPO . . . . . . . . . . .
1.2.1 Particolari insiemi di matrici . . . . . .
1.2.2 Operazioni fra matrici . . . . . . . . . .
Somma di matrici . . . . . . . . . . . .
Prodotto per uno scalare . . . . . . . .
Combinazioni lineari di matrici . . . . .
Prodotto di matrici . . . . . . . . . . . .
Trasposizione . . . . . . . . . . . . . . .
1.2.3 Determinante di una matrice quadrata .
Uso del Teorema di Laplace . . . . . . .
Propriet`a del determinante . . . . . . .
1.2.4 Caratteristica o rango di una matrice .
Calcolo del rango di una matrice . . . .
1.2.5 Matrice inversa . . . . . . . . . . . . . .
1.3 ESERCIZI . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

5
5
6
7
8
8
8
9
10
11
12
14
15
17
19
20
22
22
23
23
23
25
27
27
28
32
33
34
36

2 SISTEMI LINEARI
2.1 DEFINIZIONE E NOTAZIONI . . . . . .
2.1.1 Matrici associate ai sistemi lineari
2.2 STUDIO DI UN SISTEMA LINEARE . .
2.2.1 Risolubilit`a di un sistema lineare .
2.2.2 Determinazione delle soluzioni . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

41
41
42
44
44
45

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

INDICE
Risoluzione di un sistema lineare col metodo di sostituzione . . . . . 45
La regola di Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Uso della regola di Cramer . . . . . . . . . . . . . . . . . . . . . . . 47
2.2.3
2.3

Caratterizzazione delle soluzioni di un sistema lineare . . . . . . . . 50

ESERCIZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

3 SPAZI VETTORIALI
3.1

3.2

3.3

55

ESEMPI E STRUTTURA . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.1

Lo spazio dei polinomi. . . . . . . . . . . . . . . . . . . . . . . . . . 55

3.1.2

Lo spazio delle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . 57

3.1.3

Lo spazio delle funzioni. . . . . . . . . . . . . . . . . . . . . . . . . . 58

3.1.4

Gli assiomi di spazio vettoriale . . . . . . . . . . . . . . . . . . . . . 59

3.1.5

Lo spazio canonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

SOTTOSPAZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2.1

Combinazioni lineari e sottospazi . . . . . . . . . . . . . . . . . . . . 64

3.2.2

Chiusura lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

GENERATORI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.3.1

Dipendenza ed indipendenza lineare . . . . . . . . . . . . . . . . . . 68

3.3.2

Basi di uno spazio vettoriale

. . . . . . . . . . . . . . . . . . . . . . 72

Coordinate di un vettore . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.3.3

Dimensione di uno spazio vettoriale . . . . . . . . . . . . . . . . . . 75


Classificazione dei sottospazi di Rn . . . . . . . . . . . . . . . . . . . 75

3.4

3.5

OPERAZIONI TRA SOTTOSPAZI . . . . . . . . . . . . . . . . . . . . . . 80


3.4.1

Intersezione di sottospazi . . . . . . . . . . . . . . . . . . . . . . . . 81

3.4.2

Unione di sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

3.4.3

Somma di sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

3.4.4

La Formula di Grassmann . . . . . . . . . . . . . . . . . . . . . . . . 83

ESERCIZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

4 SOLUZIONI DEGLI ESERCIZI

89

4.1

ESERCIZI CAPITOLO 1 - SOLUZIONI . . . . . . . . . . . . . . . . . . . 89

4.2

ESERCIZI CAPITOLO 2-SOLUZIONI . . . . . . . . . . . . . . . . . . . . . 110

4.3

ESERCIZI CAPITOLO 3-SOLUZIONI . . . . . . . . . . . . . . . . . . . . . 127

Capitolo 1

DAGLI INSIEMI ALLE


MATRICI
In questo capitolo vogliamo imparare a lavorare con le matrici, uno strumento molto
generale, utilizzato anche in altri Corsi, che fornisce la base teorica per affrontare diverse
questioni di Algebra Lineare e di Geometria Analitica. Prima di tutto consideriamo per`o
alcune nozioni che possono rivelarsi utili nel seguito, riguardanti gli insiemi e le principali
strutture che in essi si possono costruire.

1.1

NOZIONI PRELIMINARI

Nella Scuola Media si `e visto che esistono diversi tipi di numero, spesso rappresentati
geometricamente come punti di una retta. Inizialmente viene considerato linsieme N =
{1, 2...} dei numeri interi , poi linsieme Z = {0, 1,
2,
. . . , n, . . .} dei
m
numeri interi

relativi . Successivamente si esamina linsieme Q = n m, n Z, n 6= 0 , detto insieme


dei numeri razionali, fino ad arrivare ai numeri reali R. Solo in questo momento `e possibile
associare un numero ad ogni punto, e, al contrario, trovare posto per tutti i numeri.
Tecnicamente si parla di corrispondenza biunivoca tra i numeri reali e i punti di una retta.
Per ognuna delle classi di numeri considerate, si parla di insiemi numerici . Pi`
u in generale,
il termine insieme indica una collezione, un raggruppamento di oggetti di qualsiasi natura,
dotati di un criterio in base al quale `e possibile stabilire senza equivoci se un oggetto
appartiene o meno ad un dato raggruppamento. Considerando solo alcuni degli elementi
di un dato insieme A, si ottiene poi un sottoinsieme di A. Tra gli insiemi annoveriamo
anche linsieme vuoto , cio`e linsieme privo di elementi.
Le seguenti sono alcune delle principali operazioni tra insiemi.
Intersezione. Lintersezione tra due insiemi A e B `e linsieme C formato dagli
elementi che appartengono sia ad A che a B. Questa operazione si indica con il
simbolo A B. Se A B = , gli insiemi A e B vengono detti insiemi disgiunti.
Unione. Lunione di due insiemi A e B `e linsieme C degli elementi che appartengono
ad A o a B o a entrambi. Questo insieme si indica con il simbolo C = A B.
Differenza. Si chiama differenza di due insiemi A e B linsieme C degli elementi di
A che non appartengono a B. In simboli la differenza si indica con C = A \ B. Si
parla di differenza simmetrica per indicare linsieme A 4 B = (A \ B) (B \ A).

DAGLI INSIEMI ALLE MATRICI


Prodotto cartesiano. Dati due insiemi non vuoti A e B, si chiama coppia ordinata
un insieme di due elementi (a, b) nel quale il primo elemento appartiene ad A e il
secondo a B. Si chiama prodotto cartesiano di A e B, e si indica con il simbolo A B,
linsieme delle coppie ordinate (a, b), con a A e b B.
Insieme delle parti. Se lavoriamo in un insieme X fissato, linsieme di tutti i
sottoinsiemi di X si dice insieme delle parti di X e si indica con P(X). Se A P(X),
linsieme differenza X \ A viene anche detto insieme complementare di A in X, e si
indica con C(A).

Osservazioni ed esempi.
1. Si verifica facilmente che C(A B) = C(A) C(B) e C(A B) = C(A) C(B). Tali
formule sono note come leggi di De Morgan
2. Si verifica facilmente anche che valgono le propriet`a distributive A (B C) =
(A B) (A C), e A (B C) = (A B) (A C).

1.1.1

Relazioni tra insiemi

Consideriamo le seguenti frasi: (a) Il triangolo A ha la stessa area del trapezio B. (b)
Maria `e madre di Lucia. (c) 25 `e divisibile per 5. (d) A, B, C, D sono i vertici di un
quadrato. (e) Il colore verde `e pi`
u bello del rosso. Soltanto nei casi (a), (b), (c) abbiamo
relazioni in senso matematico. Solamente in questi casi infatti il predicato (verbo) fornisce
una indicazione chiara, non `e soggetto allinterpretazione del lettore ed il legame che si
stabilisce tra gli argomenti (nomi) `e limitato solamente a due di essi. In (d) il predicato si
riferisce invece a quattro argomenti, mentre il caso (e) esprime una valutazione soggettiva.
Definiamo allora una relazione tra insiemi nella maniera seguente.
Definizione 1.1. Si dice che tra due insiemi A e B `e presente una relazione, se `e definita
una propriet`
a R, tale che xRy oppure yRx, per ogni x A e per ogni y B. In questo
caso scriviamo ARB (A `e in relazione con B). In caso contrario scriviamo ARB (A non
`e in relazione con B).
Chiamiamo dominio di una relazione R, definita tra gli insiemi A e B, il sottoinsieme
di A costituito da tutti gli elementi ai quali `e associato un elemento di B, cio`e domR =
{x A|xRy, y B}. Il codominio di una relazione `e il sottoinsieme degli elementi di B
che sono associati a qualche elemento di A, cio`e codomR = {y B|xRy, x A}.
Osservazioni ed esempi.
1. Una relazione R tra gli elementi di due insiemi A e B, essendo un insieme di coppie
ordinate (x, y) il cui primo elemento x A e il cui secondo elemento y B, `e anche
un sottoinsieme del prodotto cartesiano A B, ovvero R A B.
2. Una relazione pu`o essere definita su un unico insieme A. In questo caso la relazione
coinvolge coppie di A A. Si parla pertanto di relazione in un insieme.

1.1 NOZIONI PRELIMINARI


3. Data una relazione R tra due insiemi A e B, non `e detto che a tutti gli elementi di
A sia associato un elemento di B, cos` come non `e detto che tutti gli elementi di B
vengano coinvolti dalla relazione. Pertanto, in generale, il dominio ed il codominio
sono sottoinsiemi propri di A e B rispettivamente.
4. Sia A = {12, 24, 37, 40} e B = {2, 3, 4, 5, 7}. Consideriamo la relazione R: x `e
multiplo di y, con x A ed y B. In questo caso abbiamo domR = {12, 24, 40} e
codomR = {2, 3, 4, 5}.

1.1.2

Applicazioni o funzioni

Tra le relazioni rivestono particolare importanza le funzioni o applicazioni. Una funzione


f da A in B `e una relazione tra gli elementi di A e quelli di B che associa ad alcuni elementi
di A uno ed un solo elemento di B. In simboli abbiamo f : A B.
Linsieme X degli elementi di A ai quali si applica la funzione `e il dominio della funzione
f . Linsieme Y degli elementi di B raggiunti dalla funzione `e il codominio della funzione.
Se consideriamo un insieme E A, indichiamo sinteticamente con f (E) linsieme dei
punti di B ottenuti applicando f ai punti di E. Se F B, indichiamo con f 1 (F) linsieme
dei punti di A la cui immagine appartiene ad F. In particolare risulta Y = f (X). Se ogni
coppia di elementi distinti di A ha immagini distinte in B, parliamo di funzione iniettiva.
In tale caso, per ogni y codomf , f 1 (y) `e ridotta ad un solo punto di domf . Pertanto
la relazione f 1 : codomf domf tale che f 1 (y) = x se f (x) = y `e una funzione,
detta funzione inversa di f . Se per ogni elemento y B esiste almeno un elemento x A
tale che f (x) = y si ha una funzione suriettiva. Lelemento x tale che f (x) = y si dice
controimmagine di y. Se una funzione `e contemporaneamente iniettiva e suriettiva, essa
viene definita funzione biunivoca.
Osservazioni ed esempi.
1. Si considerino gli insiemi A = {2, 3, 5} e B = {4, 7, 9, 25} e la relazione R tra A
e B descritta da x `e divisore di y. Questa relazione `e una funzione, poiche ogni
x A viene associato ad un solo y B. In particolare il dominio `e tutto linsieme
A, mentre il codominio `e il sottoinsieme di B dato da Y = {4, 9, 25}. La funzione
`e iniettiva, poich`e ad ogni coppia di elementi distinti di A corrispondono elementi
distinti di Y . Essa non `e invece suriettiva, dato che il numero 7 B non ha alcuna
controimmagine in A.
2. Si considerino gli insiemi A = {2, 1, 0, 1, 2, 3, 4} e B = {1, 9, 16} e la relazione
R tra A e B descritta da xRy se y = x2 , x A, y B. Essa `e una funzione,
il cui dominio `e X = {1, 1, 3, 4}, mentre il codominio `e tutto linsieme B. La
funzione `e quindi suriettiva, ma non `e iniettiva, poich`e il numero 1 Y ha le due
controimmagini x = 1 ed x = 1.
3. Siano A = { Roma, Parigi, Vienna} e B = { Italia, Francia, Austria}. Consideriamo
la relazione R: x `e capitale di y. Questa relazione `e una funzione biunivoca.
4. Siano f : A B e g : B C due funzioni tali che domg codomf . Allora la
funzione h : A C tale che h(x) = g(f (x)) per ogni x domf si dice funzione
composta delle funzioni g ed f . Essa si indica con il simbolo h = g f .

DAGLI INSIEMI ALLE MATRICI

1.1.3

Relazioni in un insieme

Spesso si considerano relazioni del tipo ARA, nelle quali cio`e il dominio ed il codominio appartengono allo stesso insieme A. Le principali propriet`a che vengono studiate in
riferimento a queste sono le seguenti.
Propriet`
a riflessiva. Diciamo che R `e una relazione riflessiva se ogni elemento x A `e in
relazione con se stesso, cio`e, se per ogni x A, accade che xRx (in simboli x A xRx).
Propriet`
a antiriflessiva. Si parla di relazione antiriflessiva se nessun elemento di A `e
in relazione con se stesso, cio`e xRx per ogni x A (in simboli x A xRx).
Propriet`
a simmetrica. Abbiamo una relazione simmetrica R se ogni volta che x A `e
in relazione con y A, accade anche che y `e in relazione con x, cio`e se per ogni x, y A tali
che xRy risulta anche yRx (in simboli x, y A, xRy yRx). In altre parole la relazione
R `e simmetrica se non ha importanza lordine degli argomenti che vengono coinvolti.
Propriet`
a antisimmetrica. Diciamo che R `e una relazione antisimmetrica se ogni ogni
volta che x A `e in relazione con y A accade che y `e in relazione con x soltanto se x = y,
cio`e se xRy allora yRx se e solo se x = y (in simboli x, y A, xRy yRx x = y,
dove indica il connettivo logico e). In altre parole R `e antisimmetrica se ha importanza
lordine degli argomenti coinvolti.
Propriet`
a transitiva. Abbiamo una relazione transitiva R se dal fatto che x `e in relazione con y, ed y `e in relazione con z segue che x `e in relazione con z, cio`e, se xRy ed yRz
allora anche xRz (in simboli x, y, z A, xRy yRz xRz).
Relazioni di equivalenza
Una relazione R, definita su un insieme A, si dice relazione di equivalenza se gode, contemporaneamente, delle propriet`a riflessiva, simmetrica e transitiva. Gli elementi della
coppia (x, y) in relazione tra loro sono detti in questo caso elementi equivalenti.
Quando in un insieme A viene introdotta una relazione di equivalenza gli elementi di
A possono essere ripartiti in classi, dette classi di equivalenza, in ognuna delle quali gli
elementi sono tutti equivalenti tra loro. Qualsiasi elemento di una classe di equivalenza
pu`o essere utilizzato per individuare la classe stessa, ed in tale caso viene chiamato rappresentante della classe. Linsieme delle classi di equivalenza prende il nome di insieme
quoziente. Esso pu`o essere ottenuto considerando linsieme dei rappresentanti delle classi
di equivalenza.
Relazioni dordine
Una relazione R per la quale valgono contemporaneamente le propriet`
a transitiva ed antiriflessiva, si dice relazione dordine stretto. Se invece R gode delle propriet`a riflessiva,
antisimmetrica e transitiva, si parla di relazione dordine largo, o, pi`
u semplicemente, di
relazione dordine. Un insieme A, dotato di una relazione dordine R viene detto insieme
ordinato. Due elementi x, y di un insieme ordinato da una relazione R si dicono elementi
confrontabili se si verifica xRy oppure yRx. Una relazione dordine si dice di ordine totale
quando tutti gli elementi dellinsieme in cui `e definita sono confrontabili tra loro. In caso
contrario si parla di ordine parziale.

1.1 NOZIONI PRELIMINARI

Classi di resti
Nellinsieme Z dei numeri interi relativi fissiamo un numero positivo n, e consideriamo la
relazione data da
xRy x y = kn, per qualche k Z

(1.1.1)

Tale relazione, detta relazione modulo n lega due interi relativi se e solo se la loro differenza
`e un multiplo di n.
Teorema 1.2. La relazione modulo n `e una relazione di equivalenza.
-Dimostrazione. La relazione `e riflessiva. Infatti xRx per ogni x Z. Basta prendere
k = 0 (x x = 0 n).
` simmetrica. Infatti, se xRy, allora esiste k Z tale che x y = kn. Ma allora
E
y x = kn, e quindi yRx.
` transitiva. Se xRy ed yRz esistono k, h Z tali che x y = kn ed y z = hn, e
E
quindi x z = x y + y z = kn + hn = (k + h)n. Pertanto risulta xRz.

Poiche la relazione modulo n `e una relazione di equivalenza in Z, possiamo considerare


linsieme quoziente. Esso si indica con Zn e si dice insieme delle classi di resti modulo n.
Se x Z, la classe [x] contiene, oltre ad x, tutti gli interi relativi che differiscono da x per
un multiplo di n, cio`e [x] = {x + kn, k Z}. Il motivo per cui si parla di classe di resti `e
chiarito dal seguente teorema.
Teorema 1.3. Siano x, y Z, e sia R la relazione modulo n. Allora xRy se e solo se
dividendo x ed y per n si ottiene lo stesso resto.
-Dimostrazione. Supponiamo che sia xRy. Allora esiste k Z tale che x y = kn.
Siano q1 ed r1 il quoziente ed il resto della divisione di x per n, cio`e x = q1 n + r1 , con
0 r1 < n. Analogamente, siano q2 ed r2 il quoziente ed il resto della divisione di y per
n, cio`e y = q2 n + r2 , con 0 r2 < n. Abbiamo allora q1 n + r1 = q2 n + r2 + kn
(q2 + k q1 )n = r1 r2 . Poiche 0 r1 < n e 0 r2 < n risulta n < r1 r2 < n, e
quindi deve essere q2 + k q1 = 0, cio`e r1 = r2 .
Supponiamo ora che la divisione di x e di y per n fornisca lo stesso resto. Abbiamo
quindi x = q1 n + r ed y = q2 n + r, per cui x y = (q1 q2 )n, e quindi xRy.

Osservazioni ed esempi.
1. Possiamo costruire esempi di relazioni in un insieme, che sono dotate di una o pi`
u
tra le propriet`a elencate. Vediamone alcune.
In A = N la relazione essere uguale `e riflessiva, simmetrica e transitiva.
In A = {uomini della Terra} la relazione R: x `e padre di y non `e riflessiva: nessuno
infatti `e padre di se stesso.
In A = {uomini della Terra} la relazione R: x `e cugino di y `e simmetrica, non `e ne
riflessiva ne transitiva (se a `e cugino di b per parte di padre e b `e cugino di c per
parte di madre, a e c non sono, in generale, cugini tra loro).
In A = N la relazione R: x `e multiplo di y non `e simmetrica. Tale relazione `e invece
antisimmetrica. Infatti, affermare che x `e multiplo di y significa dire che x contiene

10

DAGLI INSIEMI ALLE MATRICI


y un certo numero di volte, cio`e x = hy per qualche h N, h 1. Quindi y non
pu`o essere pi`
u grande di x. Di conseguenza, se anche y `e multiplo di x deve essere
necessariamente h = 1, cio`e x = y. Nello stesso insieme degli interi, la relazione
essere maggiore di non `e antisimmetrica.
Nellinsieme delle persone viventi la relazione R: x `e piu alto di y `e antiriflessiva,
poiche nessuna persona pu`o essere pi`
u alta di se stessa. Invece la relazione R: x
`e orgoglioso di y non `e antiriflessiva, poiche esistono persone che sono orgogliose di
se stesse. Si noti che questa relazione non `e neppure riflessiva, in quanto esistono
persone che non sono orgogliose di se stesse.
2. Sia A linsieme dei giocatori di calcio del campionato italiano. Consideriamo in A
la relazione R: x `e compagno di squadra di y. Possiamo verificare facilmente che
questa relazione `e di equivalenza in A. Le classi di equivalenza sono le singole squadre
italiane. Ogni giocatore di una data squadra pu`o essere preso come rappresentante.
Infatti il nome di un giocatore permette di identificare immediatamente la squadra
di appartenenza.
Se con A indichiamo invece linsieme di tutte le squadre del mondo, la relazione R: x
`e compagno di squadra di y non `e pi`
u transitiva. Sia infatti y un giocatore straniero
del campionato italiano, che appartenga anche alla nazionale del proprio Paese. Sia
x un compagno di y nella squadra italiana, e z un compagno di y nella nazionale del
proprio Paese. Allora x e z non sono in generale compagni di squadra.
3. Sia A linsieme delle rette del piano, ed R: x `e parallela ad y, con x, y A. Anche in
questo caso si ha una relazione di equivalenza. Le classi di equivalenza sono i fasci di
o essere rappresentato considerando una retta
rette parallele. Linsieme quoziente pu`
per ogni fascio, e quindi corrisponde allinsieme delle direzioni del piano. Ad ogni direzione possiamo associare la retta passante per lorigine ed avente quella direzione.
Pertanto, linsieme quoziente pu`o anche essere rappresentato dal fascio di rette passanti per lorigine. Consideriamo poi la circonferenza centrata nellorigine ed avente
raggio uguale ad 1. Ogni retta passante per lorigine interseca questa circonferenza
in una coppia di punti diametralmente opposti. Rappresentiamo allora linsieme
quoziente con le coppie di punti diametralmente opposti di una circonferenza.
4. Nellinsieme dei punti di una retta orientata, consideriamo la relazione R: x precede
y. Essa `e antiriflessiva e transitiva, per cui `e una relazione dordine stretto.
5. Sia A = N ed R: x non `e maggiore di y. In questo caso si verificano le propriet`a
riflessiva, antisimmetrica e transitiva, e quindi R `e una relazione dordine largo.

1.1.4

Richiami sul Massimo Comune Divisore

Dati due numeri interi a, b N, indichiamo con (a, b) il loro massimo comune divisore. La
scrittura d|a indica che il numero d `e un divisore di a. Quindi (a, b)|a ed (a, b)|b, e per
ogni k tale che k|a e k|b, risulta k (a, b). A partire da due numeri interi assegnati, a e
b, si pone il problema di determinare (a, b) in maniera algoritmica. Vediamo innanzitutto
una semplice propriet`a di divisibilit`a.
Teorema 1.4. Siano a, b N, a > b, e sia x Z tale che x|a ed x|b. Allora x|(a b).

1.1 NOZIONI PRELIMINARI

11

-Dimostrazione. Per ipotesi esistono k, h Z tali che a = kx e b = hx. Pertanto


a b = (k h)x, il che dimostra che x `e un divisore di a b.

Abbiamo poi il seguente teorema.


Teorema 1.5. Siano a, b N con a > b. Allora (a, b) = (a b, b).
-Dimostrazione. Il massimo comune divisore tra a e b, essendo un divisore di a e di
b, divide anche a b. Quindi (a, b)|(a b, b), per cui (a, b) (a b, b).
Sia ora p = (a b, b). Poiche p|(a b) esiste q Z tale che pq = a b, cio`e a = pq + b.
Ma p|b, quindi esiste s Z tale che ps = b. Allora abbiamo a = pq +b = pq +ps = p(q +s),
e quindi p|a. Pertanto p `e un divisore sia di a che di b, e quindi p|(a, b), cio`e p (a, b).
Le due disuguaglianze ottenute forniscono (a, b) = (a b, b).

Vediamo ora una propriet`a importante del massimo comune divisore.


Teorema 1.6. Siano a, b N con a > b. Se a = bq + r, allora (a, b) = (b, r).
-Dimostrazione. Se r = 0 allora a = bq e quindi (a, b) = (b, r) = b.
Se r 6= 0, sia d un divisore sia di a che di b. Allora, essendo r = a bq, risulta che d|r.
Quindi (a, b)|(b, r).
Supponiamo ora che d sia un divisore sia di b che di r. Allora, essendo a = bq + r,
risulta che d|a. Quindi (b, r)|(a, b). Di conseguenza abbiamo (a, b) = (b, r).

Algoritmo di Euclide
Iterando il risultato ottenuto nel Teorema 1.6 si perviene al cosiddetto algoritmo di Euclide
per il calcolo del massimo comune divisore di due interi a e b con a > b, in base al
quale (a, b) coincide con lultimo resto non nullo della divisione iterata di a per b. Pi`
u
precisamente, si procede come segue.
Primo passo
a = b q1 + r1
Terzo passo
r1 = r2 q3 + r3
...
Penultimo passo rN 2 = rN 1 qN + rN

Secondo passo b = r1 q2 + r2
Quarto passo r2 = r3 q4 + r4
...
Ultimo passo rN 1 = rN qN +1
Risultato
rN = (a, b).

Osservazioni ed esempi.
1. Iterando il risultato descritto nel Teorema 1.5 si ha (a, b) = (d, 0) per un certo d, il
che fornisce un algoritmo alternativo a quello di Euclide per il calcolo del massimo
comune divisore. Tuttavia, lalgoritmo di Euclide `e preferibile, in quanto fornisce il
risultato molto pi`
u rapidamente.
2. Confrontiamo su un esempio i due algoritmi considerati per il calcolo del massimo
comune divisore. Assumiamo a = 120 e b = 18. Con il Teorema 1.5 abbiamo

12

DAGLI INSIEMI ALLE MATRICI

=
=
=
=
=
=
=
=
=
=

(120, 18)
(120 18 = 102, 18)
(102 18 = 84, 18)
(84 18 = 66, 18)
(66 18 = 48, 18)
(48 18 = 30, 18)
(30 18 = 12, 18)
(18, 12)
(18 12 = 6, 12)
(12, 6)
(12 6 = 6, 0)

=
=
=
=
=
=
=
=
=
=

(120, 18) = 6 .

Sfruttando invece lalgoritmo di Euclide si ottiene


120 = 18 6 + 12
18 = 12 1 + 6
12 = 6 2 + 0

(120, 18) = 6 .

Come si nota, lalgoritmo di Euclide `e molto pi`


u rapido.

1.1.5

Cenni sulle equazioni modulari

La pi`
u semplice equazione lineare si ottiene uguagliando a zero un polinomio di primo
grado in una sola incognita. Essa `e pertanto una equazione del tipo ax = b. Dalla
Scuola Media sappiamo come si risolve quando a, b R. Ma come si procede quando a, b
appartengono ad una classe di resti? In questo caso lequazione si presenta nella forma
[a] [x] = [b], con [a], [b] Zn per un certo n. Si parla allora di equazione modulare. Per
semplicit`a scriviamo lequazione modulare [a] [x] = [b] in Zn nella forma ax = b (mod n),
o, ancora pi`
u sinteticamente, nella maniera consueta ax = b se `e chiaro linsieme Zn in cui
si lavora.
Per descrivere il procedimento di risoluzione di una equazione modulare, ci serve il
seguente risultato, noto come Identit`
a di Bezout
Teorema 1.7. Siano a, b N, a, b non entrambi nulli, e sia d = (a, b). Allora esistono
x, y Z tali che ax + by = d.
-Dimostrazione. Consideriamo linsieme A = {ax + by, x, y Z}, e sia A+ = {ax +
by A, ax + by > 0}. Osserviamo che A+ 6= , poiche almeno uno dei numeri a e b
appartiene ad A+ . Quindi A+ ammette un elemento minimo m. Poiche m A+ esistono
, Z tali che m = a + b. Sia t un qualsiasi elemento di A. Allora esistono t , t Z
tali che t = at + bt . Dividendo t per m si ha
t = m qt + r con 0 r < m
at + bt = (a + b)qt + r
a(t qt ) + b(t qt ) = r r A.
Ma r 0, e quindi, se fosse r 6= 0 sarebbe r A+ , il che `e assurdo, essendo r < m. Di
conseguenza deve essere r = 0, il che significa che ogni elemento di A `e multiplo di m. In
particolare, a, b sono multipli di m, e quindi m|d.

1.1 NOZIONI PRELIMINARI

13

Sia poi k un divisore sia di a che di b. Allora k divide a + b, cio`e k|m. Pertanto,
ogni divisore sia di a che di b deve dividere m. In particolare d|m. Si ricava quindi che
m = d.

Dallidentit`a di Bezout si ricava facilmente un procedimento risolutivo per una equazione modulare.
Teorema 1.8. Una equazione ax = b ammette soluzione in Zn se e solo se d = (a, n)|b,
cio`e se e solo se il massimo comune divisore d, tra a ed n, divide b.
-Dimostrazione. Chiedersi se esistono soluzioni di ax = b in Zn equivale a chiedersi
se esiste un k Z tale che ax + kn = b. Riferendoci alla dimostrazione del Teorema 1.7
questo significa che b A, e quindi che b `e un multiplo di d.

Dal Teorema 1.8 deduciamo che, quando la condizione d = (a, n)|b `e soddisfatta,
lequazione modulare ax = b ammette infinite soluzioni in Z, ed esattamente d soluzioni
distinte, non congrue modulo n. Per trovarle possiamo procedere secondo lo schema
seguente.
Passo (a) Si calcola d = (a, n). Per fare questo si pu`o usare lalgoritmo di Euclide,
utile anche per i passi successivi.
Passo (b) Usando lalgoritmo di Euclide in senso inverso, cio`e risalendo a partire
da rN , si determinano due numeri h, k tali che rN = d = ha + kn.
Passo (c) Si determina p tale che b = pd.
Passo (d) Una soluzione `e x0 = ph. Infatti abbiamo ax0 = aph = p(d kn) =
pd pkn = b pkn = b (mod n). Le altre soluzioni si ottengono aggiungendo ad
x0 dei multipli interi di n/d. Pertanto abbiamo infinite soluzioni, dipendenti da un
parametro s Z, date da
x = ph +

ns
(a, n)

s Z.

Di queste infinite soluzioni ne esistono esattamente d indipendenti, ottenute dando


al parametro s i valori 0, n/d, 2n/d, ..., (d 1)n/d, rispettivamente.
Osserviamo anche che il problema della ricerca delle soluzioni di una equazione modulare in una indeterminata `e equivalente a quello della ricerca delle soluzioni di una
equazione diofantea in due indeterminate1 . Infatti, abbiamo visto che x0 `e una soluzione
di ax = b(mod n) se e solo se esiste k Z tale che ax0 + kn = b, e ci`o avviene se e solo se
(a, n)|b. Di conseguenza, possiamo ricavare il seguente teorema.
Teorema 1.9. L equazione ax + by = c con a, b, c Z ha soluzioni se, e solo se, (a, b)|c.
Se ci`
o avviene si hanno infinite soluzioni, dipendenti da un parametro s Z.
1

Le equazioni lineari a coefficienti interi per le quali si cercano soluzioni intere vengono dette equazioni
lineari diofantee, in onore del matematico greco Diofanto di Alessandria, vissuto nel terzo secolo d.C., che
per primo si occup`
o di queste.

14

DAGLI INSIEMI ALLE MATRICI


-Dimostrazione. Se calcoliamo (a, b) = ah + bk (con lalgoritmo di Euclide) e consideriamo c = p (a, b), la generica soluzione dellequazione diofantea ax + by = c risulta
bs
x = ph + (a,b)
as
y = pk (a,b)

s Z.

Osservazioni ed esempi.
1. Generalizzando il Teorema 1.9 abbiamo che una equazione del tipo a1 x1 +a2 x2 +...+
an xn = b, con a1 , a2 , ..., an , b Z (a1 , a2 , ..., an non tutti nulli), ammette soluzione
se e solo se (a1 , a2 , ..., an )|b. In questo caso si hanno infinite soluzioni dipendenti da
n 1 parametri.
2. Risolviamo in Z210 , l equazione [12][x] = [30]. Il massimo comune divisore d, tra
12 e 210, `e uguale a 6, e divide 30. Quindi, lequazione ammette esattamente d = 6
soluzioni distinte, non congrue modulo 210. Calcoliamo la prima (x0 = p h),
determinando innanzitutto h mediante lalgoritmo di Euclide. Poiche risulta 210 =
1217+6, abbiamo subito 6 = 210+12(17), cio`e h = 17. Inoltre 30 = 65, per cui
p = 5, e quindi la prima soluzione risulta x0 = 5 (17) = 85 = 125 (modulo 210).
Le altre soluzioni sono
x1 = 85 +

1.1.6

210
= 50 x2 = 160 (modulo 210)
6

x2 = 85 + 2

210
= 15 x2 = 195 (modulo 210)
6

x3 = 85 + 3

210
= 20,
6

x5 = 85 + 5

210
= 90
6

x4 = 85 + 4

210
= 55,
6

Operazioni negli insiemi numerici

Consideriamo un insieme A. Unoperazione binaria interna su A `e una funzione


: A A A
che associa ad ogni coppia (a1 , a2 ) di elementi di A la loro composizione, a1 a2 , ancora
` importante sottolineare che loperazione deve essere definita su ogni
appartenente ad A. E
coppia di elementi di A e il risultato delloperazione deve essere a sua volta un elemento
di A. Questultimo fatto si riassume dicendo che `e unoperazione interna, oppure che
linsieme A `e chiuso rispetto a tale operazione.
Una richiesta minima che facciamo sulle operazioni `e quella dellassociativit`
a . Unoperazione binaria sullinsieme A si dice associativa se, per ogni a, b, c A, risulta

1.1 NOZIONI PRELIMINARI


a (b c) = (a b) c. Questa propriet`
a `e essenziale per poter parlare di elevamento
a potenza o di multiplo. Pi`
u in generale, a partire da n + 1 insiemi A1 , . . . , An , An+1 ,
parliamo di operazione n-aria per una funzione tale che
: A1 A2 An An+1 .
Se gli insiemi Ai (i = 1, . . . , n + 1) coincidono, loperazione `e detta interna, altrimenti
esterna. In particolare abbiamo unoperazione unaria se agisce sui singoli elementi di un
insieme, binaria se agisce su coppie.
Osservazioni ed esempi.
1. In genere si utilizzano due tipi di simbologia per indicare unoperazione binaria
interna su A. La notazione additiva sfrutta il simbolo +. Con questa notazione
la somma di un elemento a con se stesso m volte definisce il concetto di multiplo,
cio`e a + a + + a (m volte)= ma. La notazione moltiplicativa sfrutta il simbolo
, e permette di definire il concetto di potenza, cio`e a a a(m volte)= am .
Le precedenti uguaglianze non sarebbero vere nel caso le operazioni non fossero
associative. Sarebbe infatti necessario dire in quale ordine vengono effettuate le
somme (o i prodotti).
2. La funzione f : R+ R che associa ad ogni reale positivo a la sua radice quadrata

a`e unoperazione unaria su R+ .


3. La funzione f : R+ N R che associa ad ogni coppia (a, n) la potenza n-esima an
del numero reale a, `e unoperazione binaria esterna.
4. Sia X un insieme. Sullinsieme delle parti di X, P(X), le usuali operazioni di unione
ed intersezione sono operazioni binarie interne.

1.1.7

Strutture algebriche

Si chiama struttura algebrica (di base) la coppia (A, ), dove A `e un insieme ed una
operazione interna ad A. Pi`
u in generale, possiamo dotare A di tante operazioni interne
1 , . . . , m , ottenendo strutture algebriche pi`
u complesse.
Se B A, allora (B, ) si dice sottostruttura di (A, ) se `e a sua volta una struttura
algebrica rispetto ad . In tal caso si scrive anche B A
Se (A, ) `e una struttura algebrica, un suo elemento u tale che u a = a u = a per
ogni a A `e chiamato elemento neutro per loperazione .
Se in una struttura algebrica (A, ) esiste un elemento neutro u e a A, si chiama
inverso di a un elemento a0 A tale che a a0 = a0 a = u. La nozione di inverso ha senso
solo in presenza di un elemento neutro. In notazione additiva linverso di a si indica col
simbolo a. In notazione moltiplicativa si indica con a1 .
Vediamo ora alcuni esempi di strutture algebriche.
Semigruppi. Un insieme A, dotato di unoperazione binaria interna associativa,
viene chiamato semigruppo. Se in (A, ) `e definito un elemento neutro u, il semigruppo
viene chiamato monoide.

15

16

DAGLI INSIEMI ALLE MATRICI


Gruppi. Un monoide (A, ) tale che ogni suo elemento ammette inverso si chiama
gruppo.
Quindi un gruppo `e un insieme A, dotato di unoperazione binaria interna , tale che
valgano i seguenti assiomi:
(i ) `e associativa;
(ii ) esiste un elemento neutro u rispetto alloperazione ;
(iii ) per ogni elemento a A esiste un inverso a0 .
Se (A, )`e un gruppo, si dimostra che lelemento neutro `e unico, cos` come `e unico
linverso g 1 di ogni elemento g A.
Nel caso loperazione sia commutativa, cio`e valga luguaglianza
ab=ba
per ogni coppia di elementi a, b A, il gruppo viene detto gruppo abeliano o commutativo.
Nel seguito un gruppo (A, ) verr`
a indicato col simbolo G, o con (G, +) o (G, ), per
mettere in evidenza che loperazione di composizione in G viene considerata in notazione,
rispettivamente, additiva o moltiplicativa.
Anelli. Sia ora (A, +) un gruppo abeliano, con loperazione scritta in forma additiva.
Se in A `e definibile unaltra operazione binaria interna, chiamata prodotto, rispetto alla
quale A `e un semigruppo, e per la quale valgono le propriet`
a distributive destra e sinistra
del prodotto rispetto alla somma, A viene chiamato anello. Indicheremo un anello col
simbolo A. Ricordiamo che le propriet`a distributive appena citate sono espresse dalle due
seguenti uguaglianze, che devono essere valide per ogni terna a, b, c di elementi di A:
a (b + c) = a b + a c
(b + c) a = b a + c a.

(1.1.2)

Riassumendo, un anello `e una terna (A, +, ), dove A `e un insieme, mentre + e sono due
operazioni binarie interne per cui valgono i seguenti tre assiomi:
(i) (A, +) `e un gruppo abeliano;
(ii) (A, ) `e un semigruppo;
(iii) valgono le (1.1.2).
Se esiste un elemento neutro rispetto al prodotto, esso viene indicato con 1 (notazione
moltiplicativa) per distinguerlo da 0, elemento neutro rispetto alla somma (notazione additiva). Si parla in questo caso di anello unitario. Se il prodotto `e commutativo (la somma
lo `e certamente perch`e (A, +) `e abeliano per definizione), si parla di anello commutativo.
Campi. Come nel caso dei gruppi, che si ottengono estendendo le propriet`
a di struttura algebrica dei semigruppi, anche per gli anelli sorge naturale il problema di determinare
se e quando sia possibile ampliare la struttura. Sappiamo che un anello `e un insieme con
due operazioni rispetto ad una delle quali (la somma) `e un gruppo e rispetto allaltra (il
prodotto) un semigruppo. Un anello A che ha una struttura di gruppo abeliano rispetto

1.1 NOZIONI PRELIMINARI

17

al prodotto sullinsieme A \ {0}, viene chiamato campo. I suoi elementi vengono anche
detti scalari .
Osservazioni ed esempi.
1. Linsieme delle parti P(X) di un insieme X `e un monoide rispetto alloperazione di
unione insiemistica. Lelemento neutro `e linsieme vuoto.
2. Linsieme N dei numeri interi, con lusuale somma, `e un semigruppo. Se in N
introduciamo anche il numero 0, (N {0}, +) diventa un monoide.
3. Gli insiemi (Z, +), (R, +) e (C, +) sono tutti gruppi additivi. R e C sono gruppi anche
rispetto al prodotto. Linsieme R+ dei reali positivi, rispetto allusuale operazione
di prodotto, `e un gruppo. Linsieme Q, rispetto alle usuali operazioni di somma e
prodotto, `e un campo. Lo stesso vale per R
e per linsieme C dei numeri complessi,
del tipo z = a + ib, essendo a, b R ed i = 1 lunit`a immaginaria. La struttura
(Z, +) `e anche sottogruppo di (Q, +), che `e a sua volta sottogruppo di (R, +). La
struttura (Q, +, ) `e un sottocampo di (R, +, ). Inoltre R `e sottocampo di C.
4. Se K `e un campo, il simbolo K[t] indica linsieme di tutti i polinomi in una indetera la forma
minata a coefficienti in K. Quindi, un polinomio p(t) K[t] avr`
p(t) =

n
X

ai tni = a0 tn + a1 tn1 + + an1 t + an ,

i=0

con gli ai K per ogni i = 0, 1, . . . , n. Una radice del polinomio p(t) `e uno scalare
di K, indichiamolo con , tale che p() = 0. Un campo K si dice algebricamente
chiuso se ogni polinomio p(t) K[t] ammette una radice in K. I campi Q ed R non
sono algebricamente chiusi. Per esempio il polinomio p(t) = t2 + 1 non ha radici in
R. Il campo costruito su C `e invece algebricamente chiuso.

1.1.8

Strutture su classi di resti

Per ogni n Z possiamo costruire la classe di resti Zn (cfr. pagina 9). In questi insiemi
si possono introdurre, in maniera naturale, le operazioni di somma e prodotto di classi
ponendo
[a] + [b] = [a + b]
[a] [b] = [a b] .
Si verifica facilmente che le due operazioni sono ben definite, e che (Zn , +) `e un gruppo
` ancora vero che loperazione e ben data, associativa
abeliano per qualsiasi intero n. E
ed esiste lelemento neutro (rappresentato dalla classe [1]), ma per linverso si ha qualche
problema. Consideriamo infatti, per esempio, la struttura (Z6 , ), e prendiamo le due classi
di resti [2], [3] Z6 . Osserviamo che [2] [3] = [6] = [0], cio`e, il prodotto delle due classi
[2] e [3], entrambe diverse dalla classe nulla, fornisce come risultato proprio la classe [0].
Diciamo che le classi [2] e [3] sono divisori dello zero in Z6 . La presenza di divisori dello
zero in una data classe di resti Zn impedisce che (Zn , ) sia un campo. Infatti, abbiamo il
seguente teorema.

18

DAGLI INSIEMI ALLE MATRICI


Teorema 1.10. Se [a] `e divisore dello zero in (Zn , ), allora [a] non ammette inverso.
-Dimostrazione. Supponiamo che [a] ammetta inverso. Esiste quindi [a] 6= [0], tale
che [a] [a] = [a] [a] = [1]. Poiche [a] `e divisore dello zero esiste una classe [b] 6= [0] tale
che [a] [b] = [0]. Abbiamo allora
[a] [a] [b] = [1] [b] [a] ([a] [b]) = [b] [a] [0] = [b] [0] = [b],
il che `e assurdo.

Consideriamo ora la struttura cha si ottiene introducendo in Zn entrambe le operazioni


+ e di somma e prodotto di classi. Abbiamo in tal caso il seguente teorema fondamentale.
Teorema 1.11. La terna (Zp , +, ) `e un campo se e solo se p `e un numero primo.
-Dimostrazione. Supponiamo innanzitutto che p non sia un numero primo. Allora
esistono sempre almeno due interi a, b
/ {1, p} tali che p = a b, e quindi [a] e [b] sono
divisori dello zero in (Zp , ). Pertanto, per il Teorema 1.10, [a] e [b] non ammettono inverso
rispetto al prodotto, e quindi (Zp , +, ) non `e un campo.
Supponiamo ora che p sia un numero primo, e sia [a] una qualsiasi classe non nulla
di Zp . Essendo [a] 6= [0], risulta a 6= p, e quindi il massimo comune divisore tra a e p `e
1. Pertanto, lequazione ax = 1 (mod p) ammette sempre soluzione (una sola). Quindi,
la classe [a] ammette inverso in Zp . Di conseguenza il prodotto di classi `e una legge di
composizione interna a Zp \ {[0]}, associativa, commutativa e dotata di elemento neutro,
ed inoltre ogni elemento di Zp \ {[0]} ammette inverso. Ci`o implica che (Zp \ {[0]}, ) `e un
gruppo abeliano. Poiche anche (Zp , +) `e un gruppo abeliano, ricaviamo che (Zp , +, ) `e un
campo.

Osservazioni ed esempi.
1. I campi del tipo (Zp , +, ) con p primo rappresentano importanti esempi di campi
finiti , dotati cio`e di un numero finito di elementi.
2. Se p `e un numero primo, allora (Zp , +, ) `e un campo, e quindi ogni elemento di
Zp ammette inverso. Se invece p non `e un numero primo possono esistere in Zp
sia elementi invertibili che elementi non invertibili, e quindi assume significato il
problema di vedere se una data classe di resti ammette inverso. Per esempio, stabiliamo se esiste linverso di [13] in Z210 . La richiesta si traduce nellequazione
[13][x] = [1](mod210). Poiche (13, 210) = 1 esiste una sola soluzione, corrispondente
alla classe inversa di [13] in Z210 . Applicando lalgoritmo di Euclide si ottiene
210 = 13 16 + 2
13 = 6 2 + 1
e risalendo abbiamo
1 = 13 6 2 = 13 6 (210 13 16) = 13 97 6 210,
e quindi la classe [97] `e la soluzione cercata.

1.2 MATRICI SU UN CAMPO

1.2

19

MATRICI SU UN CAMPO

Un insieme di elementi, ordinati in una tabella rettangolare per righe e colonne, viene
chiamato matrice:

a11 a12 a1n


a21 a22 a2n

..
..
.. .
..
.
.
.
.
am1 am2 amn
Spesso gli elementi aij , con i = 1, . . . , m e j = 1, . . . , n, vengono scelti in un campo K.
Essi sono detti elementi della matrice (o anche termini della matrice), e si scrive anche
A = [aij ]. La posizione occupata dallelemento aij nella matrice A `e indicata dalla coppia i
e j. Il primo indice si riferisce alla riga e il secondo alla colonna cui appartiene lelemento.
La sua posizione nella tabella si ottiene pertanto come intersezione delli-esima riga con
la j-esima colonna. Per convenzione le righe si numerano dallalto in basso e le colonne
da sinistra a destra. Si indicano con 0 ed 1 gli elementi neutri di (K, +) e (K \ {0}, ),
rispettivamente. Una matrice avente m righe ed n colonne viene detta anche (m, n)matrice o matrice di tipo (dimensione, ordine) (m, n). Linsieme di tutte le matrici di tipo
(m, n) i cui termini appartengono al campo K `e indicato con Mm,n (K). Se il numero n di
righe coincide con quello delle colonne, si parla di matrice quadrata di ordine n. Linsieme
di queste matrici viene denotato con il simbolo Mn (K). In questottica, le matrici in cui
il numero delle righe `e diverso da quello delle colonne sono dette rettangolari.
Le matrici di M1,n (K) e Mm,1 (K) sono, rispettivamente, del tipo:

a11
..
[a11 , . . . , a1n ]
. ,
am1
e sono anche chiamate vettori riga e vettori colonna. Una matrice di tipo (m, n) si pu`o
pensare come laccostamento di m vettori riga oppure di n vettori colonna.
Se A = [aij ] Mn (K) parliamo di diagonale principale in riferimento agli elementi della
forma aii , i = 1, . . . , n, e di diagonale secondaria per gli elementi ai,n+1i , i = 1, . . . , n.
Esse sono rappresentate, rispettivamente, dagli elementi di A indicati da un asterisco nella
figura sottostante

A=

a21
..
.

a12

..
.

..
.

an1 an2

a1n
a2n
..
.

A=

a11
a22
..
..
.
.

a1,n1

..
.

a2n
..
.

an,n1 ann

Se A = [aij ] Mn (K), gli elementi della diagonale principale sono detti elementi principali ; sono quindi quelli della forma aii , i = 1, . . . , n. La somma degli elementi principali
n
X
viene detta traccia della matrice, ed indicata col simbolo TrA, ovvero TrA =
aii .
i=1

Una sottomatrice di A `e una matrice costruita con elementi appartenenti ad A. Questi


per`o non posso essere scelti ed ordinati a caso. Va rispettato il precedente ordinamento
in righe e colonne della matrice originaria. Per formalizzare questo fatto si procede come

20

DAGLI INSIEMI ALLE MATRICI


segue. Siano I e J due sottoinsiemi degli insiemi di indici di riga e di colonna di A, ovvero
I {1, . . . , m} e J {1, . . . , n}. Allora una sottomatrice di A si ottiene ordinando in una
nuova matrice gli elementi di A che hanno come coppie di indici le coppie di I J, ovvero
che stanno sulle righe di A il cui indice varia in I e sulle colonne il cui indice varia in J.
Osservazioni ed esempi.
1. Nella seguente matrice:

lelemento a23 `e

2 1 0 3
1 2
2 0
3

2 1

(1.2.1)

2, lelemento a21 `e 1 e lelemento a34 `e 1.

2. La matrice (1.2.1) appartiene a M3,4 (R), ad M3,4 (C), ma non ad M3,4 (Q), in quanto
a23 6 Q.
3. La matrice

2
1
A=
2
1

1 3 4
0 2 3

1 1 0
0 0 0

ha
P4come elementi principali a11 = 2, a22 = 0, a33 = 1 e a44 = 0, e quindi TrA =
i=1 aii = 2 + 0 + (1) + 0 = 1.
4. Data la matrice:

A=

2
0
1 3 1 0 1
1 3 3
5 1 0 1
0
1
5
2 6 0 0
1 0
1
3 1 0 2
5
2 1 6 7 0 2

posto I = {2, 4, 5} {1, 2, . . . , 5} e J = {2, 4, 6} {1, 2, . . . , 7}, la


individuata da I J `e indicata dai quadrati:

2
0
1 3 1 0
1

1
3
3
5 1 0 1
3

1
5
2 6 0
0 H= 0
A= 0

2
1
0
1
3 1 0 2
5
2
1 6 7 0
2

1.2.1

sottomatrice H

5 0
3 0 .
6 0

Particolari insiemi di matrici

Descriveremo ora alcuni insiemi particolari di matrici e ne discuteremo le propriet`a.


Matrice nulla. Col simbolo Om,n si indica la matrice nulla di ordine m, n, ovvero la
matrice [aij ] di Mm,n (K) tale che aij = 0 i = 1, . . . , m, j = 1, . . . , n.

1.2 MATRICI SU UN CAMPO

21

Matrice identica. La matrice identica o identit`


a In Mn (K), `e In = [ij ], dove ij
viene chiamato Simbolo di Kr
onecher ed `e cos` definito:

1 i=j
ij =
0 i 6= j.
Abbiamo cio`e elementi tutti nulli, ad eccezione degli elementi principali, uguali a 1.
Matrici triangolari Indichiamo con Tn e Tn , rispettivamente, gli insiemi delle matrici
triangolari superiori ed inferiori dordine n. Questi sono sottoinsiemi di Mn (K), per ogni
n > 1. Il nome deriva dal fatto che la sola parte consistente della matrice `e data dal
triangolo al di sopra (superiore) o al di sotto (inferiore) della diagonale principale. La
descrizione formale `e la seguente. Per una matrice A = [aij ] Tn si ha:
i > j aij = 0.

(1.2.2)

Per una matrice A = [aij ] Tn , si ha


i < j aij = 0.

(1.2.3)

Matrici diagonali Le matrici che sono contemporaneamente triangolari superiori ed


inferiori si dicono diagonali . Linsieme di queste matrici viene indicato con Dn , e si ha
Tn Tn = Dn . Quindi una matrice diagonale `e una matrice A = [aij ] Mn (K) tale
che aij = 0, i 6= j. Una matrice diagonale `e completamente descritta dai suoi elementi
principali. Siccome lunica parte consistente di una matrice diagonale `e appunto la sua
diagonale principale, spesso essa viene indicata con A = diag(a11 , . . . , ann ), dove gli aii
sono gli elementi principali.
Matrici binarie Si dice matrice binaria una matrice i cui termini siano scelti in Z2 =
{0, 1}. Non si danno condizioni sullordine della matrice, che pu`
o essere sia quadrata che
rettangolare.
Matrici simmetriche ed emisimmetriche Una matrice A = [aij ] Mn (K) `e detta
matrice simmetrica se
aij = aji , i, j = 1, . . . , n.
(1.2.4)
Si noti che la condizione (1.2.4) `e sempre vera per gli elementi principali, che ovviamente
coincidono con se stessi. Questa condizione viene spesso usata come definizione ufficiale
di matrice simmetrica.
Una matrice si dice antisimmetrica (o emisimmetrica) se vale la condizione
aij = aji , i, j = 1, . . . , n,

(1.2.5)

equivalente a dire che A = At . La condizione (1.2.5) determina la forma degli elementi


principali. Siccome deve valere per ogni i, j = 1, . . . , n, se i = j abbiamo aii = aii .
Ma lunico elemento che coincide col suo opposto `e 0. Quindi le matrici antisimmetriche
hanno gli elementi principali nulli.
Osservazioni ed esempi.

22

DAGLI INSIEMI ALLE MATRICI


1. Per le matrici

A=

2 1
0 1

1 0 0
B = 0 0 0 ,
1 0 0

si ha A T2 e B T3 .
2. La condizione (1.2.2) dice che ogni elemento, per cui lindice di riga `e maggiore di
quello di colonna, deve essere nullo. Ma questo accade solo se lelemento in questione
si trova al di sotto della diagonale principale, i cui termini hanno gli indici di riga e
di colonna coincidenti. La condizione (1.2.3) si interpreta allo stesso modo, per gli
elementi che si trovano al di sopra della diagonale principale.
3. Si osservi che nella definizione di matrice triangolare non si d`
a alcuna condizione
sulla diagonale principale. Infatti le disuguaglianze in (1.2.2) e (1.2.3) sono disuguaglianze strette. Questo significa che gli elementi principali di una matrice triangolare
possono essere o non essere nulli. Allo stesso modo non si dice nulla sugli elementi
appartenenti al triangolo consistente della matrice. Le stesse considerazioni valgono
per le matrici diagonali.
Per esempio, la matrice nulla On (K) `e contemporaneamente triangolare superiore,
triangolare inferiore e diagonale.
4. Le matrici scalari sono matrici diagonali con tutti gli elementi principali coincidenti.
5. Ovviamente si pu`o parlare di matrici binarie anche su campi K diversi da Z2 . Basta
che gli elementi di queste matrici siano scelti solo tra gli elementi neutri di (K, +) e
(K \ {0}, ), rispettivamente.
6. Consideriamo le matrici

1
A = 1
0

A e B date da

1 0
3
5 ,
5 2

0 1 0
B = 1 0 5 .
0
5 0

La matrice A `e simmetrica mentre B `e emisimmetrica.

1.2.2

Operazioni fra matrici

In Mm,n (K) possiamo costruire vari tipi di operazioni. Qui ne consideriamo quattro.
Somma di matrici
Se A = [aij ] e B = [bij ] sono due matrici di Mm,n (K), la loro somma `e una matrice
C = [cij ], sempre di Mm,n (K), dove cij = aij + bij , i = 1, . . . , m, j = 1, . . . , n. La somma
` ovvio che gli ordini delle due matrici A, B
viene quindi fatta elemento per elemento. E
devono essere gli stessi. In caso contrario, qualche elemento di una delle due non avrebbe il
corrispondente da sommare nellaltra matrice. Siccome loperazione di somma di matrici
si riconduce alla somma di elementi del campo base, tutte le propriet`a della somma in K
vengono ereditate dalla somma in Mm,n (K).

1.2 MATRICI SU UN CAMPO

23

Prodotto per uno scalare


Se A = [aij ] `e una matrice di Mm,n (K), e x K `e uno scalare qualsiasi, allora xA = [xaij ],
ovvero si moltiplicano tutti gli elementi di A per lo scalare x. Il prodotto per scalari x aij
`
ha significato poiche sia x che gli elementi di A appartengono allo stesso campo K. E
facile mostrare che esiste una sorta di associativit`
a mista del prodotto per scalari.
Teorema 1.12. Per ogni a, b K e per ogni A Mm,n (K) risulta
(ab)A = a(bA).

(1.2.6)

-Dimostrazione. Posto A = [aij ], basta far vedere che il generico elemento di (ab)A =
[rij ] coincide con quello di a(bA) = [sij ]. Per definizione di prodotto per scalari, si ha
rij = (ab)aij ,

(1.2.7)

per ogni i {1, . . . , m} e j {1, . . . , n}. Ma il prodotto in (1.2.7) `e fatto in K, quindi `e


associativo. Allora
(1.2.8)
rij = (ab)aij = a (baij ) , i, j.
Siccome baij rappresenta il generico elemento della matrice bA, lultimo termine della
(1.2.8) coincide con sij , ovvero (ab)A = a(bA).

Combinazioni lineari di matrici


Le due precedenti operazioni di somma di matrici e prodotto per uno scalare possono
essere combinate tra loro. Questo porta al concetto di combinazione lineare di matrici,
rappresentata da una scrittura del tipo
x1 A1 + x2 A2 + ... + xk Ak ,

(1.2.9)

dove A1 , A2 , ..., Ak sono k matrici assegnate (tutte dello stesso tipo) ed x1 , x2 , ..., xk sono
k scalari appartenenti al campo K. In particolare, e k matrici assegnate possono essere
tutte vettori riga, oppure tutte vettori colonna. Parliamo in questi casi di combinazione
lineare di righe e combinazione lineare di colonne rispettivamente.
Prodotto di matrici
Per convenzione, il prodotto di matrici viene fatto righe per colonne. Per prima cosa `e
necessario che il numero di colonne della prima matrice corrisponda al numero di righe
della seconda. Questo fatto si esprime dicendo che la prima matrice `e conformabile alla
seconda. Se A = [aij ] Mm,n (K) e B = [bjk ] Mn,p (K), la matrice AB = C = [cik ]
ha tante righe quante ne ha la matrice A, e tante colonne quante ne ha la B. Appartiene
quindi allinsieme Mm,p (K). Il termine cik `e ottenuto come somma dei prodotti degli
elementi delli-esima riga di A con gli elementi della k-esima colonna di B. Li-esima riga
di A `e:
[ai1 , ai2 , . . . , ain ] .
La k-esima colonna di B `e:

b1k
b2k
..
.
bnk

24

DAGLI INSIEMI ALLE MATRICI


I prodotti cui si riferisce la definizione sono ai1 b1k , ai2 b2k , . . . , ain bnk .
prodotti `e quindi:
n
X
cik =
aij bjk .

La somma dei

j=1

Si noti che, se le due matrici non fossero conformabili, non sarebbe possibile costruire tutti
i prodotti precedenti.
Si pu`o dimostrare che, con questa definizione, il prodotto di matrici `e associativo.
Invece non `e commutativo. In primo luogo non `e nemmeno detto che sia possibile eseguirlo.
Infatti se A `e conformabile con B, non segue necessariamente che B lo sia con A. Questo
accade solo se A Mm,n (K) e B Mn,m (K). Comunque, anche in questo caso, essendo
AB Mm (K) e BA Mn (K), non avrebbe senso chiedersi se AB = BA, a meno che
m = n. Tuttavia, in generale, il prodotto non `e commutativo neppure in un insieme di
matrici quadrate (cfr. Esempio 2 a pgina 26).
Teorema 1.13. Verifichiamo che, se A `e una matrice conformabile a B, per ogni a K
si ha
a(AB) = (aA)B = A(aB),
(1.2.10)
-Dimostrazione.

Posto A = [aij ] Mm,n (K) e B = [bjk ] Mn,p (K), abbiamo:


n
X
aA = [aaij ], aB = [abjk ] e AB = [cik ], con cik =
aix bxk . Verifichiamo che il generico
x=1

termine delle seguenti tre matrici coincide:


1. a(AB) = [rik ].
0 ].
2. (aA)B = [rik
00 ].
3. A(aB) = [rik

Infatti:
1. rik

!
n
X
=a
aix bxk ;

x=1

2.

0
rik

!
n
n
n
X
X
X
=
(aaix )bxk =
a(aix bxk ) = a
aix bxk ;
x=1

00
3. rik

x=1

x=1

n
!
n
n
X
X
X
=
aix (abxk ) =
a(aix bxk ) = a
aix bxk .
x=1

x=1

x=1

Teorema 1.14. Il prodotto di matrici `e distributivo rispetto alla somma.


-Dimostrazione.

Dobbiamo verificare che


A(B + C) = AB + AC,

(1.2.11)

(B + C)A = BA + CA,

(1.2.12)

1.2 MATRICI SU UN CAMPO

25

supponendo soddisfatte tutte le propriet`a di conformabilit`a. Verifichiamo solo la (1.2.11),


in quanto il ragionamento per la (1.2.12) `e del tutto analogo. Poniamo A = [aij ], B = [bjk ]
e C = [cjk ], con A Mm,n (K) e B, C Mn,p (K). Il generico elemento di B +C `e bjk +cjk .
Quindi il generico elemento di A(B + C) `e
rik =

n
X

n
n
n
X
X
X
aix (bxk + cxk ) =
(aix bxk + aix cxk ) =
aix bxk +
aix cxk = s0ik + s00ik .

x=1

x=1

x=1

x=1

Per come `e definito il prodotto di matrici, s0ik `e il generico termine di AB e s00ik quello di
0 ], abbiamo r 0 = s0 + s00 = r . Quindi la (1.2.11) `
e vera.
AC. Posto AB + AC = [rik
ik
ik
ik
ik
Trasposizione
Loperazione di trasposizione agisce su una singola matrice, scambiando le righe con le
colonne. Ossia, se A = [aij ] Mm,n (K), la sua trasposta `e At = [bji ] Mn,m (K), con
bji = aij , cio`e la prima riga di A diventa la prima colonna di At , la seconda riga di A
t
`
diventa
di tipo involutorio, cio`e
t t la seconda colonna di A e cos` via. t E unoperazione
t
t
`
A = A. E immediato osservare che (A + B) = A + B e che, per ogni scalare a, risulta
(aA)t = aAt . Un po pi`
u delicata `e invece la dimostrazione del seguente teorema.
Teorema 1.15. La trasposta di un prodotto di matrici `e il prodotto delle matrici trasposte
prese in ordine inverso, cio`e
(AB)t = B t At

(1.2.13)

-Dimostrazione. Poniamo A = [aij ], B = [bij ] e indichiamo con a0ij e b0ij gli elementi
di At e B t , rispettivamente. Se (AB)t = [rij ], abbiamo che rij corrisponde allelemento di
posto j, i in AB, ovvero
n
X
rij =
ajx bxi .
x=1

Invece, posto B t At = [sij ], ricordando che a0ij = aji e b0ij = bji , si ha


sij =

n
X
x=1

b0ix a0xj =

n
X
x=1

bxi ajx =

n
X

ajx bxi .

x=1

Quindi rij = sij e la (1.2.13) `e verificata.

Il precedente ragionamento si pu`o generalizzare al prodotto di un numero qualsiasi,


finito, di matrici, cio`e (A1 A2 An1 An )t = Atn Atn1 At2 At1 .
Osservazioni ed esempi.
1. Vediamo un esempio per ognuna delle operazioni introdotte.
Esempio di somma.

1 1 2 3
2
0 3 5
3 1 5 2
5 2 4 0 + 1
2 2 1 = 6
0 6 1
0 1 2 1
2 1 4 4
2 0 6 3

26

DAGLI INSIEMI ALLE MATRICI


Esempio di prodotto per scalari.

1 1 4 2
1 3 4 0

3 3 12 6
3 9 12 0

Esempio di prodotto tra due matrici conformabili. Moltiplichiamo le due matrici

2 1
1 1 0
A=
, B=
.
0 1
2 3 2
Applicando la definizione di prodotto righe per colonne abbiamo
c11
c12
c13
c21
c22
c23

= 2 1 + 1 2 = 2 + 2 = 4,
= 2 (1) + 1 3 = 2 + 3 = 1,
= 2 0 + 1 (2) = 0 2 = 2,
= 0 1 + (1) 2 = 0 2 = 2,
= 0 (1) + (1) 3 = 0 3 = 3
= 0 0 + (1) (2) = 0 + 2 = 2,

da cui C = AB =

4
1 2
2 3 2

Esempio di trasposizione

1 2
A= 1 3
0 1

A =

1 1 0
2 3 1

2. Mostriamo con un esempio che il prodotto tra matrici non `e commutativo.

1 2
0 1

1 0
1 0

3 0
1 0

6=

1 2
1 2

1 0
1 0

1 2
0 1

3. Abbiamo osservato il fatto che il prodotto di matrici non `e commutativo. Esistono tuttavia esempi di insiemi di matrici in cui vale la commutativit`
a del prodotto.
Nellinsieme Dn delle matrici diagonali dordine n il prodotto commuta. Infatti, per
come `e definito il prodotto di matrici, in Dn moltiplicare due matrici equivale a
moltiplicare elemento per elemento gli elementi principali delle due matrici. Ovvero,
se A = diag(a1 , . . . , an ) e B = diag(b1 , . . . , bn ), si ha AB = diag (a1 b1 , . . . , an bn ). La
commutativit`a del prodotto in Dn si eredita allora dalla commutativit`
a del prodotto
di scalari nel campo K. Infatti:
AB = diag (a1 b1 , . . . , an bn ) = diag (b1 a1 , . . . , bn an ) = BA.
4. Si pu`o verificare facilmente che la matrice identica In `e lelemento neutro rispetto al
prodotto in Mn (K), ossia che
AIn = In A = A

(1.2.14)

per ogni A Mn (K).


5. Una condizione necessaria e sufficiente affinche una matrice sia simmetrica `e che sia
A = At . Invece A `e antisimmetrica se A = At

1.2 MATRICI SU UN CAMPO

1.2.3

Determinante di una matrice quadrata

A partire da una matrice quadrata A Mn (K), `e possibile calcolare un numero reale,


detto determinante di A, ed indicato con det A, il cui ruolo `e di importanza fondamentale
in molti dei settori in cui interviene luso delle matrici. Per capire come si calcola ci
servono due definizioni.
Definizione 1.16. Fissato un elemento aij di una matrice A Mn (K), il minore complementare (di aij ) `e il determinante della sottomatrice quadrata ottenuta da A eliminando
li-esima riga e la j-esima colonna. Esso si indica col simbolo Aij .
Definizione 1.17. Fissato un elemento aij di una matrice A Mn (K), il complemento
` quindi il minore
algebrico di aij `e il minore complementare preceduto dal segno (1)i+j . E
complementare senza alcun cambiamento, se la somma degli indici dellelemento aij `e un
numero pari, altrimenti `e il minore complementare cambiato di segno se la somma degli
indici `e un numero dispari.
Il procedimento che consente di calcolare il determinante `e di tipo iterativo, e si basa
sul seguente risultato, noto come Teorema di Laplace.
Teorema 1.18. Fissata una linea (riga o colonna) di una matrice A Mn (K), `e invariante la somma dei prodotti degli elementi di questa linea per i rispettivi complementi
algebrici.
Questo numero invariante `e proprio quello che si definisce determinante di A. Le
matrici aventi determinante nullo si dicono matrici singolari.
Uso del Teorema di Laplace
Rinunciamo a dimostrare il Teorema 1.18, ma vediamo come si utilizza. Prendiamo in
considerazione una qualsiasi riga, diciamo la riga di indice i e calcoliamo il numero seguente
n
X
()i+j aij Aij = ()i+1 ai1 Ai1 + ()i+2 ai2 Ai2 + + ()i+n ain Ain .
j=1

Il Teorema 1.18 afferma allora che questo numero `e lo stesso che si ottiene prendendo
in considerazione una qualsiasi colonna, diciamo la colonna di indice j-esima, e calcolando
n
X
()i+j aij Aij = ()1+j a1j A1j + ()2+j a2j A2j + + ()n+j anj Anj .
i=1

Quindi, per calcolare il determinante di una matrice A Mn (K), si procede come segue.
Per n = 1 si hanno matrici dotate di un solo elemento, ed esso `e esattamente il determinante della matrice. Se n > 1, si sceglie innanzitutto una riga o una colonna di riferimento,
rispetto alla quale effettuare lo sviluppo secondo Laplace. Per esempio, se scegliamo la
prima riga, abbiamo

det A =

n
X
j=1

()i+j a1j A1j = ()1+1 a11 A11 + ()1+2 a12 A12 + + ()1+n a1n A1n .

27

28

DAGLI INSIEMI ALLE MATRICI


Per ogni j = 1, . . . , n, il minore complementare dellelemento a1j , ossia A1j `e a sua volta
un determinante: il determinante della matrice di Mn1 (K) ottenuta da A eliminando la
riga e la colonna che contengono lelemento a1j stesso. Quindi il calcolo del determinante
di una matrice di ordine n si scarica sul calcolo di n determinanti di ordine n 1. Sempre
per il Teorema di Laplace, ciascuno di questi si ottiene calcolando n 1 determinanti di
ordine n 2. Iterando questo ragionamento, si arriva alla fine al calcolo di determinanti
di ordine 2, per i quali si ha

a b
det
= a det[d] b det[c] = ad bc.
c d
Per esempio si ha:

a b c
e f
d f
d e

det d e f
= a det
b det
+ c det
=
h i
g i
g h
g h i
= a(ei hf ) b(di f g) + c(dh eg) =
= aei ahf bdi + bf g + cdh ceg.

Propriet`
a del determinante
Il determinante di una matrice quadrata A, di ordine n, possiede diverse importanti propriet`a, spesso esprimibili interpretando A sia come accostamento di n vettori colonna
C1 , C2 , ..., Cn , sia come sovrapposizione di n vettori riga R1 , R2 , ..., Rn . Si parla allora, semplicemente, di propriet`a delle linee di A, denotate L1 , L2 , ..., Ln . Elenchiamo di
seguito le principali.
1. Scambiando due linee di una matrice il determinante non cambia in valore assoluto,
ma solo in segno, ovvero, se i < j:
det[L1 , . . . , Li , . . . , Lj , . . . , Ln ] = det[L1 , . . . , Lj , . . . , Li , . . . , Ln ].

(1.2.15)

Per esempio

1
1
det A = det
1
1

2
2
2
2

3
3
3
3

4
= det

4
4

1
1
1
1

4
4
4
4

3
3
3
3

2
2
.
2
2

2. Sommando ad una linea una combinazione lineare delle rimanenti (cfr. formula
(1.2.2), dove le matrici Ai rappresentano le colonne Ci , o le righe Ri , della matrice
assegnata) il determinante non cambia:

det[L1 , . . . , Li1 , Li +

n
X

aj Lj , Li+1 , . . . , Ln ] = det[L1 , . . . , Li1 , Li , Li+1 , . . . , Ln ].

j=1
j6=i

(1.2.16)

1.2 MATRICI SU UN CAMPO

29

Per esempio

1
1
det
1
1

2
2
2
2

3
3
3
3

4
= det

4
4

1
1
1
1

2
2
2
2

4 + (a 1 + b 2 + c 3)
4 + (a 1 + b 2 + c 3)
,
4 + (a 1 + b 2 + c 3)
4 + (a 1 + b 2 + c 3)

3
3
3
3

per ogni a, b, c R.
3. Matrici con una linea nulla o due linee proporzionali hanno il
a zero, come, per esempio, nei seguenti tre casi

1 0
2
3
1
2
3
4

1
2
0
0
0
1 0
= det
det
= det

1 1 2 1
2 0
0 1
1 1 1
1
3 0 1 1
4. det A = det At . Per esempio

1 2
3 4
0 1 1 0
det A = det
2 1 1 1
0 0
1 0
5. det(aA) = an det A. Per

2 4
det A = det 2 0
1 2

determinante uguale

1
2
1
3

1
0
0
3

1
1
0
3

1
1
.
1
3

1 0
2 0

= det 2 1 1 0 = det At .

3 1 1 1
4 0
1 0

esempio

6
1 2 3
1 2 3
4 = det 2 1 0 2 = 23 det 1 0 2 .
1
1
2
1 1
1 1
2
2

Osservazioni ed esempi.
1. Quando si dice che una data propriet`a dei determinanti `e valida per le linee di una
matrice, si intende che le linee devono essere tutte dello stesso tipo, cio`e tutte righe
o tutte colonne. Per esempio, se sommiamo ad una riga una combinazione lineare
di colonne, in generale la (1.2.16) non `e pi`
u vera.
2. Calcoliamo il determinante della matrice

1 0 2
A = 1 3 1
2 4 3

con lo sviluppo di Laplace.


Il Teorema 1.18 ci dice che lo sviluppo pu`o essere fatto rispetto ad una qualsiasi
linea (riga o colonna) della matrice. Prendiamo in considerazione, ad esempio, la

30

DAGLI INSIEMI ALLE MATRICI


seconda riga. Dobbiamo considerare i complementi algebrici degli elementi di A
appartenenti alla seconda riga. Questi ultimi sono a21 = 1, a22 = 3 e a23 = 1. I
rispettivi complementi algebrici sono i minori complementari presi con un opportuno
segno, ovvero sono:
(1)2+1 A21
(1)2+2 A22
(1)2+3 A23

0
= A21 =
4

1 2
= A22 =
2 3
1
= A23 =
2

2
= (0 (3) 4 (2)) = 8
3

= 1 (3) 2 (2) = 1

0
= (1 4 2 0) = 4.
4

La somma dei loro prodotti con i rispettivi elementi della linea selezionata `e il
determinante cercato:
3
X
det A =
()2+i a2i A2i = a21 A21 + a22 A22 a23 A23 =
i=1

= (1) (8) + 3 1 + 1(4) = 7.


3. Il teorema di Laplace afferma lindipendenza della scelta della linea di una matrice
nello sviluppo del suo determinante. Proviamo ad applicarlo per la matrice

2 1 0
A= 0 1 2
3 2 0
prima rispetto alla prima riga, quindi rispetto alla terza colonna. Abbiamo, nel
primo caso:

1 2
0 2
0 1

=
det A = 2
1
+0
2 0
3 0
3 2
= 2 4 1 6 + 0(3) = 8 6 = 2.
Sviluppando rispetto alla terza colonna:

0 1
2 1

det A = 0
(2)

3 2
3 2

+0 2 1

0 1

= 0 + 2 1 + 0 = 2.
Dal precedente esempio risulta evidente con quale criterio effettuare la scelta della
linea di una matrice rispetto alla quale sviluppare il determinante. Quanti pi`
u zeri
contiene la linea tanto pi`
u ne risulta semplificato il calcolo. Ovviamente una linea
tutta nulla determina lannullarsi del determinante.
4. Calcoliamo il determinante della seguente matrice triangolare superiore, rispetto
allultima riga:

a b c
A = 0 d e .
0 0 f

1.2 MATRICI SU UN CAMPO

31

Abbiamo

b c
det A = 0
d e

0 a c

0 e

+f

a b

0 d

= f (ad 0 b) = adf.

Osserviamo che det A = adf `e il prodotto degli elementi principali. Questo `e un fatto
del tutto generale, che si riassume dicendo che il determinante di matrici triangolari
`e il prodotto degli elementi principali, ossia
det A =

n
Y

aii

i=1

per ogni A T o A T . Ovviamente quanto sopra vale, a maggior ragione, per


matrici diagonali.
5. Regola di Sarrus. Quanto segue `e utile nel caso di matrici del terzo ordine, ossia
` una regola meccanica per il
di M3 (K) ed `e conosciuta come regola di Sarrus. E
calcolo del determinante. Sia data la matrice

a11 a12 a13


A = a21 a22 a23 .
a31 a32 a33
Si costruisce una tabella di numeri riscrivendo la matrice A ed affiancando alla terza
colonna le prime due (in ordine):
a11 a12 a13 a11 a12
a21 a22 a23 a21 a22
a31 a32 a33 a31 a32
Si sommano i prodotti i cui fattori si trovano sulle seguenti diagonali

&

&

&

&

&

&

ovvero i prodotti a11 a22 a33 , a12 a23 a31 e a13 a21 a32 , e si sottraggono quelli i cui fattori
si trovano sulle seguenti diagonali

ossia a13 a22 a31 , a11 a23 a32 e a12 a21 a33 . Il risultato `e il determinante di A.
6. Teorema di Binet. La seguente propriet`a del prodotto di matrici `e nota come
Teorema di Binet.

32

DAGLI INSIEMI ALLE MATRICI


Teorema 1.19. Il determinante del prodotto di matrici `e il prodotto dei determinanti
dei singoli fattori, ossia det(A1 A2 An ) = det A1 det A2 det An .
In particolare, il determinante `e una funzione:
det : Mn (K) K
che conserva il prodotto.
Non vale invece una propriet`a analoga nei confronti della somma. Cio`e non `e vero che
il determinante della somma di due matrici quadrate `e la somma dei determinanti.
Per esempio, considerate le matrici

1 1
1 1
0 2
A=
B=
abbiamo A + B =
0 1
0 2
0 3
da cui si vede che
det(A + B) = 0 6= det A + det B = 1 2 = 1.

1.2.4

Caratteristica o rango di una matrice

Consideriamo una matrice A dotata di m righe ed n colonne. La caratteristica o rango


di una matrice `e un numero intero, indicato con rk(A) (o semplicemente rk, o r, se non
ci sono pericoli di fraintendimenti), compreso tra 0 ed il minimo tra m ed n. Per definire
questo numero ci serve la seguente definizione.
Definizione 1.20. Sia A una matrice di m righe ed n colonne. Un minore di ordine j di
A, 1 j min{m, n} `e il determinante di una sottomatrice quadrata di ordine j di A2 .
Si noti nel caso m = n = j + 1 si ritrova la Definizione 1.16 di minore complementare.
Parliamo poi di orlato di un minore di ordine j il minore di ordine j + 1 associato ad una
sottomatrice che contiene quella precedente.
Definizione 1.21. La caratteristica, o rango, di una matrice A `e il massimo ordine di un
minore non nullo estraibile da A.
Osservazioni ed esempi.
1. Nella seguente matrice un minore P , di ordine 2 `e, per esempio, il determinante della
sottomatrice (o anche la sottomatrice stessa) formata dagli elementi riquadrati

1
0
A=
3
0
2

2
1
2
1

1 3
5
1
0 1

2 3 3
1 2
1

P = det

Spesso si usa la parola minore anche in riferimento alla stessa sottomatrice.

2 3
1 0

1.2 MATRICI SU UN CAMPO

33

Possiamo poi costruire un minore orlato di P , di ordine 3, considerando, per esempio,


lorlatura di P determinata dalla quarta riga e dalla terza colonna

1
0
3
0

2
1
2
1

1
1
2
1

3
5

0 1
,
3 3
2
1

cio`e `e:

2 1 3
P 0 = det 1 1 0
1 1 2

2. Una matrice quadrata A non singolare, di ordine n, ha rango n.


3. Se una matrice A ha almeno un elemento diverso da 0, allora rk 1.
4. Sia A una matrice che ammette, per esempio, una sottomatrice H di ordine 4 non
singolare. Allora esiste un minore di A, di ordine 4, non nullo, e quindi rk(A) 4.
Se tutte le sottomatrici quadrate di ordine superiore a 4 sono singolari, possiamo
affermare che rk(A) = 4.
Calcolo del rango di una matrice
Sorge naturale chiedersi se per calcolare il rango di una matrice si debba per forza controllare il determinante di tutte le sue sottomatrici. Naturalmente, in base alla definizione,
bisognerebbe proprio procedere in questa maniera, il che per`o risulta essere piuttosto laborioso. Il calcolo viene invece notevolmente semplificato dalluso del seguente risultato,
che ci limitiamo ad enunciare, noto come Teorema di kr
onecher .
Teorema 1.22. Sia A Mm,n (R) e Ph un suo minore non nullo di ordine h. Se ogni
minore di ordine h + 1 ottenuto orlando Ph `e nullo, allora h `e il massimo ordine di un
minore non nullo ricavabile dalla matrice A.
In base al teorema di Kronecher, per calcolare la caratteristica di una matrice basta
procedere per orlati successivi, a partire da un qualsiasi elemento non nullo della matrice
considerata. .
Osservazioni ed esempi.
1. Se la matrice assegnata `e quadrata conviene innanzitutto calcolare il suo determinante, poiche, se questo `e non nullo, il rango coincide con lordine della matrice.
2. Calcoliamo il rango di

1 0 2
A = 0 1 0
0 0 5

La matrice A `e quadrata, quindi fra i vari minori vi `e anche il determinate di A.


Siccome A `e una matrice riangolare superiore, il determinante `e il prodotto degli
elementi principali, ovvero det A = 5 6= 0. Quindi il massimo ordine di un minore
non nullo coincide con lordine della matrice stessa e rkA = 3. Non ci sono altri
controlli da fare.

34

DAGLI INSIEMI ALLE MATRICI


3. Determiniamo il rango di

1 2 1
A = 0 0 2 .
2 4 3
La prima e la seconda colonna sono proporzionali, quindi det A = 0 e rkA  3.
Inoltre rkA 1 perche A ha almeno un elemento 6= 0. Se troviamo un minore non
` quello che succede, in quanto
nullo di ordine 2 possiamo affermare che rkA = 2. E

2 1

0 2

= 4 6= 0.

4. Nella seguente matrice il minore individuato dalle prime due righe e dalla seconda e
terza colonna vale 2

1
1
2

1
0
2

0
2
0

1 2
3 0 .
2 4

Possiamo orlare tale minore in soli tre modi: usando la prima, la quarta o la quinta
colonna, e ottenendo, rispettivamente

1
0
2

0
2
0

= 0,

0
2
0

1
3
2

= 0,

0
2
0

2
0
4

= 0.

Quindi rkA = 2.

1.2.5

Matrice inversa

La matrice identica In pu`o essere considerata come lelemento neutro rispetto al prodotto in Mn (K). Sorge allora naturale chiedersi se `e possibile definire, sempre rispetto al
prodotto di matrici, lelemento inverso di A Mn (K), ossia una matrice A1 Mn (K)
tale che AA1 = A1 A = In . Una tale matrice esiste se e solo se A `e non singolare. Per
ottenerla si costruisce innanzitutto la matrice aggiunta di A. Essa `e la trasposta della
matrice dei complementi algebrici di A, e viene indicata col simbolo A , cio`e

a11
..
A= .
an1

..
.

a1n
..
.
ann

()1+1 A11

..
..
A =
.
.
n+1
()
An1

t
()1+n A1n

..
.
.
()n+n Ann

Si dimostra che il prodotto tra AA `e uguale a det A, per cui la matrice cercata `e data da
1
A
det A
Circa la matrice inversa vale in particolare il seguente risultato
A1 =

(1.2.17)

1.2 MATRICI SU UN CAMPO


Teorema 1.23. Il determinante dellinversa di A `e il reciproco del determinante di A.
-Dimostrazione. Supponiamo che A Mn (K) sia una matrice invertibile, ossia tale
che det A 6= 0. La sua inversa A1 `e tale che AA1 = In . Ricordando che det In = 1, come
conseguenza del Teorema di Binet (cfr. Teorema 1.19) si ha 1 = det In = det(AA1 ) =
1
det A det A1 , da cui det A1 =
.

det A
Osservazioni ed esempi.
1. Esiste una classe di matrici, linsieme Dn delle matrici diagonali, per la quale il calcolo
dellinversa `e molto pi`
u semplice. Dalla definizione di prodotto si deduce infatti che la
moltiplicazione di due matrici diagonali si ottiene facendo il prodotto dei corrispettivi
elementi principali, ossia se A = diag(a11 , . . . , ann ) e B = diag(b11 , . . . , bnn ), allora
AB = diag(a11 b11 , . . . , ann bnn )
` facile verificare che A1 = diag(a1 , . . . , a1
(cfr. pag. 26). E
nn ). Per esempio,
11

linversa di diag(1, 3, 5) `e diag 1, 13 , 15 .


2. Matrici e strutture algebriche Dalle considerazioni svolte deduciamo facilmente
che (Mm,n (K), +) `e un gruppo. E siccome la somma `e commutativa (altra propriet`a
ereditata da quella analoga del campo K), `e un gruppo abeliano.
Le cose si complicano nel caso del prodotto. Per mantenere la chiusura dellinsieme di
matrici rispetto alloperazione, ossia per essere certi che moltiplicando due matrici
dello stesso insieme, si ottenga come risultato ancora una matrice dellinsieme di
partenza, siamo costretti a restringere la nostra attenzione alle matrici quadrate. Ci`o
`e diretta conseguenza della definizione di prodotto e della nozione di conformabilit`a.
Grazie allassociativit`a del prodotto possiamo allora affermare che (Mn (K), ) `e,
come minimo, un semigruppo. Per`o in Mn (K) abbiamo definito la matrice identica
In che funge da identit`a per il prodotto, quindi (Mn (K), ) `e un monoide. Purtroppo
la natura di una matrice invertibile ci costringe a fermarci qui. Se vogliamo arricchire
linsieme Mn (K) in quanto struttura algebrica rispetto al prodotto siamo costretti
a prendere in considerazione non tutto Mn (K), ma suoi sottoinsiemi.
Certamente (Mn (K), +) `e un gruppo abeliano (labbiamo appena visto). Inoltre il
prodotto `e distributivo rispetto alla somma, e non solo nel caso di matrici quadrate. Basta garantire la conformabilit`a degli operandi. Possiamo allora sicuramente
affermare che (Mn (K), +, ) `e un anello, anzi un anello unitario.
Torniamo allinsieme Mn (K) con loperazione di prodotto. Abbiamo visto che `e un
monoide unitario. Per poter parlare di gruppo dobbiamo garantire lesistenza di un
elemento inverso per ogni matrice quadrata. Per`o abbiamo visto che non tutte le
matrici quadrate ammettono inverso. Devono essere non singolari. Questo ci porta
a restringere linsieme Mn (K) ad un suo sottoinsieme. Il simbolo GLn (K) indica
il gruppo lineare di ordine n sul campo K. Questo insieme `e formato da tutte le
matrici quadrate invertibili di ordine n ad elementi nel campo K, ovvero:
GLn (K) = {A Mn (K)| det A 6= 0}.

35

36

DAGLI INSIEMI ALLE MATRICI


Per verificare che GLn (K) `e un gruppo rispetto al prodotto non possiamo usare le
osservazioni fatte riguardo a Mn (K), ovvero che `e un monoide unitario, in quanto
dobbiamo ragionare su un suo sottoinsieme. Intanto GLn (K) `e chiuso rispetto al
prodotto. Infatti, se A, B GLn (K), allora AB GLn (K). Per il Teorema di
Binet, det(AB) = det A det B 6= 0, poiche det A 6= 0 e det B 6= 0, per definizione
di gruppo lineare. Inoltre il prodotto `e associativo. Lelemento neutro `e la matrice
identica In , che appartiene a GLn (K) in quanto det In = 1 6= 0:
AIn = In A = A,
per ogni A GLn (K). Ogni elemento di GLn (K) ha inverso, proprio per come
`e definito il gruppo lineare: se A GLn (K), allora det A 6= 0, quindi esiste A1 ,
con det(A1 ) 6= 0, da cui A1 GLn (K). Sono soddisfatti tutti gli assiomi di
gruppo. Si noti che GLn (K) non `e abeliano, in quanto il prodotto di matrici non `e
commutativo.

1.3

ESERCIZI

1.3.1. Sia M2 (Z2 ) linsieme delle matrici quadrate di ordine 2 aventi coefficienti nel
campo Z2 delle classi di resti modulo 2. Sia I linsieme formato dalle matrici A, B, C
M2 (Z2 ) date da

A=

1 0
0 1

B=

1 1
1 0

C=

0 1
1 1

Verificare che il prodotto tra matrici `e una operazione interna allinsieme I.


1.3.2. Sia I linsieme di matrici considerato nellEsercizio 1.3.1. Stabilire se (I, ) `e un
monoide.
1.3.3. Sia I linsieme di matrici considerato nell Esercizio 1.3.1. Stabilire se (I, ) `e un
gruppo abeliano.
1.3.4. Sia M2 (Z3 ) linsieme delle matrici quadrate di ordine 2 aventi coefficienti nel
campo Z3 delle classi di resti modulo 3. Sia I linsieme formato dalle matrici A, B, C
M2 (Z3 ) date da

A=

1 0
0 1

B=

1 1
1 0

C=

0 1
1 1

Stabilire se (I, ) `e una struttura algebrica.


1.3.5. Sia M(2,2) (Z3 ) linsieme delle matrici quadrate di ordine 2 ad elementi nellinsieme
Z3 delle classi di resti modulo 3, e sia + lusuale somma di matrici. Determinare il numero
di elementi di (M(2,2) (Z3 ), +).

1.3.6. Determinare in (M(2,2) (Z3 ), +) linverso di

2 1
1 0

1.3 ESERCIZI

37

1.3.7. Sia A la matrice di M(2,2) (Z3 ) data da

1 1
2 0

Calcolare A3 A2 .
1.3.8. Sia M(3,3) (Z2 ) linsieme delle matrici quadrate di ordine 3 ad elementi nellinsieme
Z2 delle classi di resti modulo 2. Determinare il numero di elementi di M(3,3) (Z2 ).

1 0 1
1.3.9. Sia lusuale prodotto di matrici in M(3,3) (Z2 ). Verificare che la matrice 1 1 1
0 0 1
`e invertibile in (M(3,3) (Z2 ), ), e scrivere la matrice inversa.
1.3.10. Sia A la matrice di M(3,3) (Z2 ) data da

1 1 1
0 0 1 .
1 0 1
Indicata con I la matrice identica di ordine 3, calcolare il determinante della matrice
M = (A I)1000 .



1.3.11. Sia I linsieme dei punti del piano xy aventi coordinate 3 cos k
, 3 sin k
,
3

3
essendo
k un intero relativo.
Considerati due punti qualsiasi P 3 cos a 3 , 3 sin a 3
e Q 3 cos b 3 , 3 sin b 3 di I, sia loperazione interna ad I data da


P Q = 3 cos (a + b)
, 3 sin (a + b)
.
3
3
1. Dimostrare che `e associativa.
2. Dimostrare che esiste lelemento neutro.


3. Dimostrare che il punto A 23 , 3 2 3 I, e stabilire se esso ammette inverso in
I.
1.3.12. Sia Z18 linsieme delle classi di resti modulo 18, e sia la consueta operazione di
prodotto tra classi.
1. Determinare linsieme I degli elementi invertibili di Z18 .
2. Dimostrare che (I, ) `e un gruppo abeliano.
3. Verificare che, in Z18 , lequazione 15x = 6 ammette tre soluzioni distinte, lequazione
7x = 17 ammette una ed una sola soluzione, lequazione 3x = 11 non ammette
soluzioni. Calcolare poi le soluzioni delle equazioni considerate, nei casi in cui queste
esistono.
1.3.13. Sia A Mn (K) una matrice involutoria, cio`e tale che A2 = A A = I
Calcolare A1.000.000.000 e A1.000.000.001 .

38

DAGLI INSIEMI ALLE MATRICI


1.3.14. Verificare che per ogni matrice A Mn (K), la matrice A + At `e simmetrica.
1.3.15. Siano A, B Mn (K) matrici simmetriche. Verificare che anche la matrice A + B
`e a sua volta simmetrica.
1.3.16. Dimostrare che se A e B sono matrici simmetriche di Mn (K) allora AB `e
simmetrica se e solo se A e B commutano.
1.3.17. Verificare che per ogni matrice A Mn (K), la matrice A At `e emisimmetrica.
1.3.18. Date le matrici

1 0
1 0
A = 2 0 , B = 1 0 ,
1 2
0 2
determinare C = (At B)t
1.3.19. Date le matrici

1 2
3 2
A = 2 4 , B = 1 1 ,
0 1
3
2
determinare una matrice C, di dimensione opportuna, tale che A + B C = O.
1.3.20. Siano

A=

1
0
2 2b 1

, B=

c+2 a
1 2d 1

due matrici di M2 (R). Stabilire se esistono valori dei parametri reali a, b, c e d per i quali
le matrici A e B sono uguali.
1.3.21. Si considerino le matrici

a a
1 1
A=
, B=
.
b 1
b a
Determinare per quali valori dei parametri reali a e b le matrici A e B commutano.
1.3.22. Si considerino le matrici

1 0
1 1
, B=
.
A=
3 1
2 0
determinare (A + B)2 .
1.3.23. Determinare tutte le matrici

H=

x y
z t

di M2 (R) che commutano con la matrice

A=

1 1
0 1

1.3 ESERCIZI

39

1.3.24. Si consideri la matrice reale Ak = diag(k, 2). Si determini linsieme Vk delle


matrici di M2 (R) permutabili con Ak .
1.3.25. Calcolare, usando le operazioni elementari
della seguente matrice:

5
4
2
2
3
1
A=
5 7 3
1 2 1

di riga e di colonna, il determinante

1
2
.
9
4

1.3.26. Dimostrare che se A `e emisimmetrica di ordine dispari allora `e singolare.


1.3.27. Determinare i valori dei parametri reali a, b R
sono singolari:

0
a1
3
A=
, B= 0
3
a1
b2

per i quali le seguenti matrici

2b2 5
5 2 .
2 3

1.3.28. Determinare la matrice inversa di

1 1 0
1 .
A= 0 2
3 0 1
1.3.29. Si consideri la matrice di M3 (R)

0 1 1
A = a 2 1 ,
0 1 a
dove a R `e un parametro reale. Discutere lesistenza dellinversa di A al variare del
parametro e, quando esiste, calcolarla.
1.3.30. Si consideri la matrice di M2 (R)

A=

a b
c d

Determinare la matrice aggiunta A e verificare che (A ) = A.


1.3.31. Determinare le matrici di A M2 (R) che coincidono con la propria aggiunta,
ovvero tali che A = A.
1.3.32. Si consideri la matrice

1 1
A = 2 0 .
1 3

Stabilire se esiste la matrice pseudoinversa di Moore-Penrose di A. In caso affermativo


calcolarla e verificare il risultato.

40

DAGLI INSIEMI ALLE MATRICI


1.3.33. Determinare il rango della matrice

1 1 0 1 2
1 0 2 3 0 .
2 2 0 2 4
1.3.34. Discutere il rango della matrice
2

k 9
0
2k 6
A=
,
0
k3
1
al variare del parametro reale k R.
1.3.35. Discutere il rango della matrice

h 2
2h
0
A = 2 1 h 1 h ,
3h 3
2
h
al variare del parametro reale h R.
1.3.36. Studiare, al variare dei parametri reali a, b,

2
1

A = 2a + 1 1
a 1 1

il rango della matrice

a
2 .
a

1.3.37. Si consideri la seguente matrice

1 3
1
2
2
a b .
A= a
a ba c 3
Studiare, al variare dei parametri reali a, b, c, il rango della matrice A.
1.3.38. Calcolare il rango della seguente

0
1
A=
0
1

matrice partendo dallelemento a22

0 0 2 0
2 0 1 1
.
3 1 0 2
5 1 3 3

Capitolo 2

SISTEMI LINEARI
Ci vogliamo ora occupare dello studio e della risoluzione dei sistemi di equazioni lineari.
Il loro interesse `e dovuto al fatto che, a differenza di sistemi di equazioni generiche, esi` bene comprendere fin dallinizio
stono in questo caso precise tecniche per affrontarli. E
che la fase risolutiva `e comunque subordinata allesistenza di soluzioni, e quindi che bisogna innanzitutto cercare metodi che consentano di capire in partenza se un dato sistema
ammetta soluzioni o sia impossibile.

2.1

DEFINIZIONE E NOTAZIONI

Un sistema di equazioni in n incognite `e una famiglia di m equazioni

f1 (x1 , . . . , xn ) = 0

f2 (x1 , . . . , xn ) = 0
..

fm (x1 , . . . , xn ) = 0,

(2.1.1)

di cui si ricercano soluzioni comuni. Una soluzione del sistema (2.1.1) `e una n-pla
(x1 , . . . , xn ) tale che fi (x1 , . . . , xn ) = 0, per ogni i = 1, . . . , m. Si noti che non si pone alcuna condizione sulle funzioni fi delle incognite x1 , x2 , . . . , xn . Tutti i seguenti sono
sistemi di equazioni:

xy + y 2 + 1 = 0
x + 2y z = 1
sin x + cos x = 0
z=1
2x y = 0
x y + 1 = 0,

xz 2 = 0,
y + z = 2.
Se in (2.1.1) tutte le funzioni fi (x1 , . . . , xn ) sono polinomi di primo grado, allora si ha un
sistema di m equazioni lineari in n incognite. In questo caso, isolando al secondo membro
di ogni equazione leventuale termine noto, il sistema assume il seguente aspetto

a11 x1 + a12 x2 + + a1n xn = b1

a21 x1 + a22 x2 + + a2n xn = b2


(2.1.2)
..

am1 x1 + am2 x2 + + amn xn = bm ,

42

SISTEMI LINEARI
dove i coefficienti aij e bi appartengono ad uno stesso campo K, per ogni i {1, ..., m}, j
{1, ..., n}1 . Se i termini noti bi sono tutti nulli, allora si parla di sistemi omogenei. Lesistenza di soluzioni e il loro numero sono regolati dal Teorema di Rouche-Capelli (cfr.
Teorema 2.2) e, per quanto riguarda il numero di soluzioni, il campo base ha la sua importanza. Se il campo K cui appartengono i coefficienti dei polinomi che compongono il
sistema `e infinito (ad esempio Q, R oppure C) il sistema pu`o comportarsi solo in tre modi:
(i) non ha soluzioni;
(ii) ha ununica soluzione;
(iii) ha infinite soluzioni.
Non esistono casi intermedi. Non `e possibile che un sistema lineare abbia, ad esempio,
dodici soluzioni.
Osservazioni ed esempi.
1. Per verificare che una data n-pla (s1 , s2 , ..., sn ) `e soluzione di un sistema lineare
(2.1.2), basta verificare che sostituendo x i = si i primi membri diventano uguali
a bi , per ogni i {1, ..., m}.
2. Ovviamente un sistema omogeneo ammette sempre almeno la soluzione (0, 0, . . . , 0),
detta soluzione banale. Eventuali altre soluzioni non banali, ovvero aventi almeno
una componente non nulla, sono chiamate autosoluzioni .
3. Il seguente `e un esempio di sistema lineare omogeneo:

2x + y 4z = 0
x 2y + z = 0.
La terna (7, 6, 5) `e una sua autosoluzione.
4. La terna (2, 3, 1) `e unautosoluzione del sistema

2x + y z = 0
x + y + z = 0.
Anzi, tutte le terne del tipo (2a, 3a, a), con a R e a 6= 0, sono autosoluzioni del
precedente sistema.

2.1.1

Matrici associate ai sistemi lineari

Dato il sistema lineare (2.1.2),

a11 a12
a21 a22

A= .
..
..
.
am1 am2
1

consideriamo le seguenti matrici:

a1n
x1
x2

a2n

,
X
=
,
B
=

..
..
..

.
.
.
amn
xn

b1
b2
..
.

bm

Nelle applicazioni si assume spesso K = R, ma molti risultati teorici valgono in generale.

2.1 DEFINIZIONE E NOTAZIONI

43

La matrice A viene chiamata matrice dei coefficienti del sistema, la X vettore colonna
delle incognite e B vettore colonna dei termini noti. Per come `e stato definito il prodotto
di matrici, `e facile vedere che
Teorema 2.1. Il sistema (2.1.2) `e equivalente all equazione matriciale
AX = B.

(2.1.3)

-Dimostrazione. Le matrici A e X sono conformabili, essendo A Mm,n (K) e X


Mn,1 (K). Inoltre la matrice al primo membro della (2.1.3) `e dello stesso tipo di quello
della matrice al secondo membro: m, 1. Sviluppando i conti otteniamo:

a11 x1 + a12 x2 + + a1n xn


b1
a21 x1 + a22 x2 + + a2n xn b2

(2.1.4)
= .. .

..

.
.
am1 x1 + am2 x2 + + amn xn

bm

Ma due matrici coincidono se e solo se coincidono i loro rispettivi elementi. Quindi la


(2.1.4) equivale al sistema (2.1.2). Di conseguenza, ad ogni sistema lineare `e possibile
associare la coppia di matrici (A, B). Viceversa, ad ogni coppia di matrici (A, B), con
A Mm,n (K) e B Mm,1 (K), si pu`o associare il sistema AX = B.

Esiste allora una corrispondenza biunivoca fra sistemi lineari e coppie di matrici siffatte. Questa corrispondenza dipende per`o da due scelte che, in genere, vengono date per
` ovvio che se si scamscontate: lordinamento delle incognite e quello delle equazioni. E
biano due equazioni in un sistema, le matrici dei coefficienti avranno due righe scambiate.
Lo stesso vale per le colonne, se si scambiano le posizioni di due incognite in ciascuna
delle equazioni del sistema. Quindi lesistenza della corrispondenza biunivoca sopracitata
implica la scelta a priori di questi due ordinamenti.
Osservazioni ed esempi.
1. Consideriamo il sistema lineare

2x 3y + z t = 1
2x + z 4t = 0

y 3z + t = 5.
Abbiamo allora

2 3 1 1
1 4 ,
A= 2 0
0 1 3 1


x
1
y
e B = 0 .
X=
z
5
t

Si noti che, in mancanza di una variabile, si considera come coefficiente 0. Tutti


gli ordinamenti considerati sono quelli naturali o suggeriti dalla forma del sistema e
dalla prassi. Nel senso che, per le equazioni, abbiamo usato lordinamento suggerito
dalla scrittura del sistema, mentre per lordinamento delle variabili abbiamo usato
x, y, z, t.

44

SISTEMI LINEARI
2. Costruiamo il sistema associato alla coppia di matrici

1 2 3 4 5
0
, B=
.
A=
0 1 1 2 2
1
Siccome ci sono 5 incognite (A M2,5 (R)), per comodit`a le numereremo con un
indice, usando lordinamento naturale suggerito da questultimo. Allora il sistema
diventa AX = B, con

x1
x2

x1 + 2x2 + 3x3 + 4x4 + 5x5 = 0

X = x3 , ovvero
x2 x3 + 2x4 2x5 = 1.
x4
x5
3. In genere, se le incognite sono indicate con pi`
u lettere, ad esempio a, b, . . . , x, y, z,
lordine `e quello alfabetico. Se sono indicate tramite ununica lettera con indice, ad
esempio, x1 , x2 , . . . , xn , lordine `e indotto dallordinamento naturale degli indici.
4. Determiniamo le matrici associate al sistema lineare di due equazioni nelle tre
incognite , M e O:

2 3 M +O = 1
M 5 + 3O = 2.
Dobbiamo stabilire un ordinamento sulle incognite (in questo caso lordine alfabetico
non ci aiuta!). Per esempio: , M, O. Allora, riordinando le equazioni, abbiamo:

2 3 M +O = 1
5+ M +3O = 2,
la matrice dei coefficienti e i vettori delle incognite e dei termini noti sono, rispettivamente:

2 3 1
1
, X = M , B =
.
A=
5 1 3
2
O

2.2

STUDIO DI UN SISTEMA LINEARE

Lo studio di un sistema lineare avviene attraverso due fasi distinte. Per prima cosa si
cerca di capire se il sistema ammette soluzioni. In caso di risposta negativa lo studio `e
concluso. Se invece la risposta `e affermativa si passa alla determinazione esplicita di tutte
le soluzioni possibili. Consideriamo separatamente queste due fasi.

2.2.1

Risolubilit`
a di un sistema lineare

Lo studio della risolubilit`a di un sistema lineare si basa sul seguente fondamentale Teorema,
conosciuto come Teorema di Rouche-Capelli.

2.2 STUDIO DI UN SISTEMA LINEARE

45

Teorema 2.2. Condizione necessaria e sufficiente affinche il sistema AX = B, con A


Mm,n (K) sia risolubile `e che il rango della matrice dei coefficienti A coincida con quello
della matrice completa A0 , ottenuta accostando alle colonne di A la colonna dei termini
noti B.
-Dimostrazione. Pensiamo la matrice dei coefficienti A come laccostamento di n
vettori colonna C1 , C2 , ..., Cn Km , cio`e A = [C1 |C2 |...|Cn ]. Il sistema si pu`o quindi
esprimere nella forma x1 C1 + x2 C2 + ...xn Cn = B. Dire che il sistema ammette soluzioni
equivale a dire che esistono coefficienti x1 , x2 , ..., xn per i quali il vettore colonna B `e
combinazione lineare delle colonne di A, cio`e che la caratteristica della matrice A0 `e uguale
alla caratteristica di A.

La matrice A0 = [A|B] viene anche chiamata matrice aumentata.

2.2.2

Determinazione delle soluzioni

Dopo essersi assicurati dellesistenza di soluzioni, si ha poi il problema di determinarle


effettivamente. Esistono a questo proposito molte maniere diverse di procedere, che in
generale sfruttano operazioni attraverso le quali il sistema dato viene trasformato in un
altro sistema, equivalente al precedente ma pi`
u semplice. Ognuno di questi metodi pu`o
rivelarsi pi`
u o meno utile a seconda dei casi. Ne esaminiamo due in particolare, il primo
applicabile a tutti i sistemi, il secondo specifico per i sistemi lineari.
Risoluzione di un sistema lineare col metodo di sostituzione
Consideriamo un sistema lineare di m equazioni in n incognite

f1 (x1 , . . . , xn ) = 0
..
.

fm (x1 , . . . , xn ) = 0.

(2.2.1)

Supponiamo che il coefficiente dellincognita x1 nellequazione f1 sia 6= 0. Per la linearit`a


dellequazione `e sempre possibile mettere in evidenza la variabile x1 , ottenendo cos` una
scrittura del tipo x1 = g(x2 , . . . , xn ). Sostituendo il valore cos` trovato per x1 nelle m 1
rimanenti equazioni, abbiamo

x1 = g(x2 , . . . , xn )
x1 = g(x2 , . . . , xn )

f2 (g, x2 , . . . , xn ) = 0
f 0 (x2 , . . . , xn ) = 0
2
cio`e
..
..

.
.

0
fm (g, x2 , . . . , xn ) = 0,
fm (x2 , . . . , xn ) = 0.
Procedendo in questo modo `e quindi possibile passare dal sistema iniziale ad un sistema
ad esso equivalente, in cui il numero di variabili in alcune equazioni `e diminuito. Se
n = m, iterando il procedimento si arriva allultima equazione, nella quale compare una
sola incognita. Si calcola allora il valore di quella incognita, e si risale poi fino alla prima
equazione esplicitando di volta in volta i valori delle incognite calcolate. Se n < m il
valore dellultima incognita (e risalendo quello di tutte le altre) pu`o essere calcolato dopo
sole n iterazioni, e quindi le m n equazioni rimanenti risultano essere superflue (cio`e
non fanno altro che esprimere in forma diversa le stesse relazioni descritte dalle prime n

46

SISTEMI LINEARI
equazioni) Se n > m, nellultima equazione restano nm+1 incognite, e quindi si pu`o solo
determinarne una in funzione delle altre n m. Risalendo, anche le precedenti incognite
vengono calcolate in funzione di queste n m incognite parametriche. Abbiamo in questo
caso infinite soluzioni.
La regola di Cramer
La dimostrazione del Teorema 2.2 mette in evidenza che lo studio di un sistema lineare si
ribalta sullo studio delle combinazioni lineari delle colonne della matrice A dei coefficienti,
e quindi la caratteristica di A deve esprimere qualche propriet`a importante di queste
combinazioni lineari. Rinviamo al Teorema 3.11 del Capitolo 3 per la comprensione di
questo fatto. Per ora ci limitiamo a dire che quando A ed A0 hanno la stessa caratteristica
r, la risoluzione esplicita del sistema pu`o avvenire sfruttando il teorema seguente, noto
come Regola di Cramer .
Teorema 2.3. Sia AX = B un sistema lineare, con A Mn (K). Condizione necessaria
e sufficiente affinche esso ammetta ununica soluzione `e che det A 6= 0. In questo caso le
soluzioni sono:
det Ai
i = 1, . . . , n,
(2.2.2)
det A
dove Ai `e la matrice ottenuta dalla A sostituendo, di volta in volta, alla colonna i-esima
la colonna dei termini noti B.
xi =

-Dimostrazione. Se A `e una matrice quadrata non singolare, possiamo moltiplicare


per A1 , a sinistra, entrambi i membri di AX = B, ed abbiamo A1 AX = A1 B, da
cui si ricava che il sistema ammette lunica soluzione X = A1 B. Questo significa che la
componente i-ma di X, cio`e lincognita xi , `e uguale al prodotto tra la riga i di A1 e la
colonna B. Per come si `e costruita la matrice inversa (cfr. formula (1.2.17)), abbiamo
allora

A11 A21

1 A12 A22
X = A1 B =
det A
A1n A2n

. . . An1
b1

. . . An2 b2
...
...
. . . Ann
bn

essendo Aij il complemento algebrico di aij in A. Il prodotto tra la riga i di A1 e la


colonna B fornisce quindi
1
(A1i b1 + A2i b2 + ... + Ani bn ) .
(2.2.3)
det A
Consideriamo ora la matrice Ai ottenuta da A sostituendo alla colonna i la colonna B dei
termini noti, cio`e rimpiazzando aji con bi
xi =

a11
a21
Ai =

an1

. . . a1i1 b1
. . . a2i1 b2
...
. . . ani1 bn

. . . a1n
. . . a2n
.

...
. . . ann

2.2 STUDIO DI UN SISTEMA LINEARE

47

I complementi algebrici dei bi in Ai coincidono ovviamente con i complementi algebrici Aji


degli aji in A. Pertanto, sviluppando il determinante di Ai secondo il Teorema di Laplace
applicato alla colonna i, otteniamo det Ai = b1 A1i + b2 A2i + ... + bn Ani , e quindi, dalla
(2.2.3) ricaviamo la (2.2.2).

Uso della regola di Cramer


La Regola di Cramer fornisce la scrittura esplicita della soluzione di un sistema lineare
quadrato, ossia dove il numero delle equazioni coincide con quello delle incognite, in cui il
determinante della matrice dei coefficienti `e diverso da zero. Possiamo comunque sfruttarla
in tutti i casi di risolubilit`a, cio`e anche per sistemi quadrati in cui det A = 0 o per
sistemi non quadrati. A questo scopo si procede come segue. Sia M la sottomatrice di
A corrispondente al minore non nullo di ordine massimo che fornisce la caratteristica r.
Cambiando eventualmente lordine di scrittura delle equazioni e dei loro singoli addendi,
possiamo sempre far s` che le righe e le colonne di M siano le prime r righe e le prime r
colonne di A.

A
(r, r)
=
(m, n)

Eliminiamo poi dal sistema le m r equazioni i cui coefficienti non appartengono ad M ,


e trasportiamo al secondo membro le n r incognite i cui coefficienti non appartengono
ad M . Otteniamo cos` un sistema quadrato del tipo M X 0 = B 0 , cio`e un sistema di r
equazioni nelle r incognite essenziali x1 , x2 , ..., xr

x1
b1 a1r+1 xr+1 ... a1n xn

M ... = ...
(2.2.4)
.
xr

br arr+1 xr+1 ... arn xn

Le nr incognite che vengono spostate al secondo membro devono essere interpretate come
parametri arbitrari. Riassumiamo ci`o dicendo che il sistema ammette nr soluzioni. Se
r = n la soluzione `e unica ed abbiamo un sistema determinato.
Osservazioni ed esempi.
1. Discutiamo la risolubilit`a del sistema

xy+zt=1
2x z = 1

4x 2z + 3 = 0.
Le matrici A, B ed A0 sono, rispettivamente

1 1 1 1
1
1 1 1 1 1
1
0 , B = 1 , A0 = 2 0 1 0 1 .
A= 2 0
4 0 2 0
3
4 0 2 0 3

48

SISTEMI LINEARI
Studiamo il rango di A0 partendo da minori appartenenti alla sottomatrice di A0
determinata da A. Il minore ottenuto dalle prime due righe e colonne, `e uguale a 2,
quindi A (e anche A0 ) ha almeno rango 2. Rimanendo in A, ovvero soffermandosi
o orlare in due soli modi:
solo sulle prime quattro colonne, il minore considerato si pu`

1
1
1
1
1 1

2
0
1 = 0, 2
0
0 = 0.

4
4
0
2
0
0
Quindi, per il Teorema 1.22, rkA = 2. Possiamo per`o orlare il minore in un terzo
modo, usando lultima colonna della matrice aumentata (quella dei termini noti e
che non `e presente nella matrice dei coefficienti):

1
1
1

2
0
1 = 2 6= 0.

4
0
3
Quindi rkA0 = 3 6= 2 = rkA. Per il Teorema 2.2, il sistema `e privo di soluzioni.
2. Discutiamo la risolubilit`
a del sistema

2x y + z 4t = 1
x 3y + 2z + t = 5.
Le matrici A, B ed A0 sono, rispettivamente

2 1 1 4
1
2 1 1 4 1
0
, B=
, A =
.
1 3 2 1
5
1 3 2 1 5
Considerando le prime due colonne, determiniamo un minore del secondo ordine non
nullo. Quindi A, ma anche A0 , ha rango massimo, ossia r = rkA = rkA0 = 2. Il
Teorema 2.2 dice che il sistema ha nr = 42 = 2 soluzioni, ovvero che nelle
soluzioni, quaterne ordinate di numeri, compariranno due parametri indipendenti.
3. Supponendo di avere gi`a verificato la risolubilit`a, determiniamo le soluzioni del
seguente sistema con il metodo di sostituzione

2x 3y + 1 = 0
x + y 4 = 0.

Ricaviamo il valore della variabile x dalla prima equazione e sostituiamolo nella


seconda:

3
1
x
x = 32 y 21
3= 2 y1
2
da cui
5
9
2 y 2 + y 4 = 0,
2 y 2 = 0.
Ora ricaviamo y dalla seconda equazione, sostituendo il suo valore nella prima:

x = 32 95 12
x = 11
5
da cui

y = 59
y = 95 ,
che fornisce la soluzione del sistema iniziale.

2.2 STUDIO DI UN SISTEMA LINEARE

49

4. Supponendo di avere gi`a verificato la risolubilit`a, determiniamo le soluzioni del


seguente sistema con il metodo di sostituzione

xy+z =1
2x + 2y 6 = 0.
Ricaviamo la x dalla prima equazione:

x=yz+1
2(y z + 1) + 2y 6 = 0,

da cui

Ricavando z dalla seconda equazione si ottiene:

x = y (2y z) + 1
ovvero
z = 2y 2,

x=yz+1
4y 2z 4 = 0.

x = y + 3
z = 2y 2.

In questo caso non `e stato possibile determinare un valore preciso per ogni variabile
e questa `e una situazione tipica nei sistemi dove il numero di equazioni `e minore
di quello delle incognite. Abbiamo ottenuto infinite soluzioni formate da terne di
numeri, tutte quelle di tipo (x, y, z), con x = y + 3 e z = 2y 2, ovvero che si
scrivono nella forma (y + 3, y, 2y 2). In maniera equivalente possiamo scrivere le
soluzioni dando ad y il nome di un parametro. Posto ad esempio y = a, abbiamo
(a + 3, a, 2a 2). Se, per esempio, poniamo a = 0 e a = 1, otteniamo le terne
(3, 0, 2) e (2, 1, 0), rispettivamente, entrambe soluzioni del sistema.
5. Si noti che il metodo di sostituzione potrebbe essere applicato senza verificare preventivamente la risolubilit`a del sistema. Nel caso in cui il sistema sia impossibile, si
deve ottenere qualche contraddizione. Studiamo per esempio il seguente sistema

2x y z + 1 = 0
4x + 2y 2z 1 = 0.
Ricavando la y dalla prima equazione e sostituendo, otteniamo:

y = 2x + z 1
3 = 0.
La seconda equazione non ha soluzioni, esprime una condizione falsa. Quindi il
sistema precedente `e impossibile.
6. Prima di procedere con un qualsiasi metodo di risoluzione, `e comunque consigliabile
lo studio preventivo della effettiva risolubilit`a, in quanto, nel caso di sistemi impossibili, non `e sempre agevole pervenire esplicitamente alle contraddizioni racchiuse
nelle equazioni considerate.
7. Consideriamo il sistema

x + 2y = 1
x + y = 3.

Le matrici dei coefficienti e dei termini noti sono, rispettivamente:

1 2
1
, B=
.
A=
1 1
3

(2.2.5)

50

SISTEMI LINEARI
Siccome det A = 3 6= 0, A `e non singolare, quindi esiste ed `e unica
(2.2.5). Applicando la Regola di Cramer abbiamo

1 2
1

3 1
1
|A1 |
|A2 |
5
= ,
x = x1 =
=
y = x2 =
=
1 2
1
|A|
3
|A|

1 1
1

la soluzione di

1
3
4
= ,

3
2

In questo caso le incognite non sono indicate con un indice, ma si segue lordinamento
alfabetico. Quindi in A1 la colonna sostituita `e quella dei coefficienti della variabile
x, in A2 quella dei coefficienti della variabile y.
8. Consideriamo il sistema

x+yt=1
x + 2y + 2z = 1

2x + 2y 2t = 2
Si verifica che le matrici A e A0 hanno lo stesso rango r = 2, e quindi il sistema `e
risolubile. Per risolverlo possiamo applicare la regola di Cramer, ma prima dobbiamo
ridurlo come descritto nellequazione (2.2.4) ad un sistema quadrato M X 0 = B 0
equivalente a quello di partenza. Un minore non nullo di A, di ordine 2 `e ad esempio
quello corrispondente alla sottomatrice M indicata dagli elementi incasellati

1 1
0 1
1 2
2
0 .
2 2
0 2
Questo minore individua la parte consistente del sistema:

x + y + 0z t = 1
x + 2y + 2z = 1

2x + 2y 2t = 2
Eliminando la terza equazione, i cui coefficienti non appartengono ad M , e portando
al secondo membro le incognite i cui coefficienti a loro volta non stanno nel minore,
abbiamo il nuovo sistema equivalente:

x=a

y =1x+t
y =1x+t
y =1a+b
da cui
e quindi
1
1
2y + 2z = 1 x,
z = 2 + 2 x t,
z = 12 + 21 a b

t = b.

2.2.3

Caratterizzazione delle soluzioni di un sistema lineare

Consideriamo un sistema lineare omogeneo AX = 0, nel quale cio`e la colonna dei termini
noti sia identicamente nulla. In tal caso esiste sempre almeno una soluzione, quella banale,

2.2 STUDIO DI UN SISTEMA LINEARE

51

in cui tutte le incognite assumono valore nullo (cfr. Osservazione 2 a pagina 42). Siccome
il sistema `e risolubile, per il Teorema di Rouche-Capelli devono esistere nr soluzioni,
essendo r la caratteristica di A. Di conseguenza abbiamo la sola soluzione banale nel caso
in cui sia n = r. Questo pu`o accadere solo se A Mn (K), cio`e se il numero di equazioni
`e uguale a quello delle incognite, oppure se A Mm,n (K) con m > n, cio`e se il numero di
equazioni `e maggiore di quello delle incognite. Infatti il rango di A Mm,n (K) `e sempre
minore o uguale a min(m, n). Riassumendo, il sistema omogeneo ha solo la soluzione
banale se A Mm,n (K) con m n e rkA = n. In tutti gli altri casi il sistema omogeneo
ammette sempre autosoluzioni. Consideriamo ora un sistema lineare AX = B. Il sistema
AX = 0 si chiama sistema omogeneo associato al sistema considerato. Sussiste il seguente
importante risultato:
Teorema 2.4. Sia X una soluzione particolare del sistema a: AX = B. Allora tutte e
sole le soluzioni del sistema a, sono del tipo X +X, dove X Sol(b), spazio delle soluzioni
del sistema omogeneo b : AX = 0, associato ad a.
-Dimostrazione.
biamo:

Sia X Sol(b) e X una soluzione particolare del sistema a. AbAX = b,

(2.2.6)

AX = 0.

(2.2.7)

Allora A(X +X) = b. Infatti, da (2.2.6) e (2.2.7), si ha A(X +X) = AX +AX = b+0 = b.
Quindi X + X `e soluzione del sistema a.
Viceversa, sia Y una generica soluzione di a, e X una sua soluzione particolare, ovvero:
AX = b,

(2.2.8)

AY = b.

(2.2.9)

Sottraendo membro a membro la (2.2.8) e la (2.2.9) otteniamo:


A(Y X) = 0.
Ci`o significa che Y X Sol(b), ovvero esiste X Sol(b) tale che X = Y X, da
cui Y = X + X.Quindi tutte e sole le soluzioni di a si scrivono nella forma X + X con
X Sol(b).
Osservazioni ed esempi.
1. Consideriamo il sistema non omogeneo

x + 2z = 1
x + y + 2z = 3
a

2x + 4z = 2.

x + 2z = 0
x + y + 2z = 0
ed il suo sistema omogeneo associato b

2x + 4z = 0.

Esso ammette 1 soluzioni, del tipo Sol(a) = {[1 2z, 2, z]t , z R}. Una soluzione
particolare `e, per esempio, la terna X = [1, 2, 0]t . La generica soluzione del sistema
omogeneo associato risulta invece Sol(b) = {[2z, 0, z]t , z R}. Notiamo quindi
che la generica soluzione del sistema non omogeneo iniziale si ottiene sommando alla
soluzione particolare X la generica soluzione di Sol(b).

52

SISTEMI LINEARI
2. In riferimento allEsempio 8 a pagina 50, la generica soluzione risulta

a, 1 a + b, 12 + 12 a b, b = a, a + b, 12 a b, b + 0, 1, 21 , 0 = Sol(a) + X,
essendo X una soluzione particolare del sistema non omogeneo considerato.

2.3

ESERCIZI

2.3.1. Dato il sistema

y 3x + t = 1
tx=0

y z + x = 1

determinare le matrice dei coefficienti, la colonna dei termini noti e riscrivere il sistema
dato in forma matriciale.
2.3.2. Dato il sistema

3x1 5x2 + x4 = 4
x2 3x3 + 5x4 = 1

x1 + x2 x3 1 = 3

determinare le matrice dei coefficienti e la colonna dei termini noti.


2.3.3. Discutere la risolubilit`
a dei seguenti sistemi lineari:

x1 x3 + 2x5 = 1
xy+z =1
xy+z =3
x2 + x4 = 2
2x 3y = 0
y=0
(a)
(b)
(c)

2x1 x2 + x6 = 3.
x z = 1.
2x 2y + 2z = 6.

2x2 = 2x4 1
x1 x2 + 3x3 x4 = 1
(d)

x2 x4 = 12 .

6x 3y = 0
x+y =3
(e)

2x + y = 0.

2.3.4. Risolvere i seguenti sistemi lineari:

(a)

x1 + 2x2 = 3
x1 2x2 = 0.

(b)

xy+z+t=0
x + y + z + t = 0.

xy+z =0
x+z =0
(c)

y z = 0.

x1 2x2 + x3 = 1
2x1 + x2 x3 = 2.

x1 3x2 + x3 = 1
x1 + x2 3x3 = 2
(f )

2x1 2x2 2x3 = 3.

xy =1
x+z =2
(d)

2x 2y = 1.

(e)

x1 x2 + 3x3 + 2x4 = 0
x1 x2 2x3 x4 = 0
(g)

x1 x3 x4 = 0.

2x y = 2
x + 6y = 0
(h)

6x + y = 5.

2.3.5. Discutere, al variare del parametro reale t R il seguente sistema:

x1 + 3x3 = 1
2x1 + x2 + 6x3 = t

3x1 + tx3 = 2.

2.3 ESERCIZI
2.3.6. Determinare i valori dei parametri a, b R affinche il sistema

ax + by z = b
x ay = b

bx 2az = a + 1

53

(2.3.1)

ammetta la soluzione (1, 2, 3). In questo caso verificare se ne esistono altre.


2.3.7. Discutere, al variare del parametro reale t, il sistema avente come matrici associate:

t1 0
t
0 , B = t .
A= 1
2
3
t1
2.3.8. Si consideri il sistema AX = B, dove B = [1, 3, 1]t , mentre A = [aij ] `e la matrice
di M3 (R) con A = At , a12 = t, a13 = a23 = 1 e tale per cui A diag(2, 3, 1) abbia
gli elementi principali nulli. Determinare t in modo che il sistema abbia una e una sola
soluzione.
2.3.9. Discutere, al variare del parametro reale t, il sistema

tx + y + 2z = 2
2x + 2ty + z = 1.
2.3.10. Discutere e risolvere il sistema

x + ay = 1
2x y = 1 2a

ax + y = a,
al variare del parametro reale a R.
2.3.11. Discutere e, quando possibile, risolvere il sistema lineare AX = B, essendo


2
1 a
0
A = 2a + 1 1 2 , B = b .
a 1 1 a
2
2.3.12. Discutere e, quando possibile, risolvere il sistema lineare AX = B, essendo

1
2
1 3
0
2
a b , B = 0 .
A= a
1
a ba c 3

54

SISTEMI LINEARI

Capitolo 3

SPAZI VETTORIALI
In questo capitolo vogliamo studiare la struttura di spazio vettoriale, cercando di mettere in
evidenza la grande generalit`a di questo concetto. Esso permette di unificare molte nozioni,
alcune delle quali gi`a note dalla scuola superiore, altre precedentemente incontrate (o da
sviluppare in seguito) nei programmi di Algebra Lineare e di Geometria Analitica, altre
ancora caratteristiche di diversi corsi universitari.

3.1

ESEMPI E STRUTTURA

Vogliamo innanzitutto prendere in considerazione alcuni esempi preliminari, che ci permettano di prendere gradatamente contatto con la struttura di spazio vettoriale.

3.1.1

Lo spazio dei polinomi.

Consideriamo linsieme R[t] dei polinomi in unindeterminata t a coefficienti nel campo R


dei numeri reali. Linsieme R[t] `e formato da tutti i polinomi del tipo
n
X

ai tni = a0 tn + a1 tn1 + + an1 t + an ,

i=0

con n N e ai R. Possiamo introdurre unoperazione in R[t], che chiamiamo somma


di polinomi ed indichiamo con il solito simbolo +, in modo che la coppia (R[t], +) sia
n
X
un gruppo abeliano. Definiamo questa operazione come segue. Se p(t) =
ai tni e
q(t) =

m
X

i=0

bi tmi sono due polinomi, con n > m, possiamo rendere q(t) dello stesso grado

i=0

di p(t) aggiungendo le n m potenze di t mancanti con i coefficienti nulli, ovvero


q(t) =

m
X

mi

bi t

i=0

n
X

0t +

i=m+1

m
X

bi t

mi

i=0

n
X

bi tni ,

(3.1.1)

i=0

essendo bm+1 = = bn = 0.
Due polinomi si possono sommare, sommando i coefficienti delle rispettive potenze di
t, ossia:
n
n
n
X
X
X
p(t) + q(t) =
ai tni +
bi tni =
(ai + bi )tni .
i=0

i=0

i=0

56

SPAZI VETTORIALI
Linsieme R[t] `e ovviamente chiuso rispetto alla somma, in quanto la somma di due
polinomi `e sempre un polinomio.
La somma di polinomi `e unoperazione associativa, propriet`a che si eredita dallanaloga
propriet`a della somma di scalari nel campo R

(p(t) + q(t)) + r(t) =

n
X

ai t

ni

i=0
n
X

i=0
n
X

ni

i=0

i=0

bi t

n
X

n
X

ci tni =

i=0

ai tni +

i=0

n
X

((ai + bi ) + ci ) tni =

i=0

(ai + (bi + ci )) tni =


n
X

ci tni =

i=0

(ai + bi )tni +

n
X

n
X

n
X

ai tni +

i=0
n
X

bi tni +

i=0

!
ci tni

n
X
(bi + ci )tni =
i=0

= p(t) + (q(t) + r(t)).

i=0

(3.1.2)
Anche la commutativit`a viene ereditata dalla commutativit`
a della somma in R.
Esiste poi lelemento neutro, dato dal polinomio nullo 0(t) = 0. Inoltre, ogni polinomio
n
n
X
X
p(t) =
ai tni ammette linverso p(t) =
(ai )tni . Riassumendo abbiamo la
i=0

i=0

seguente propriet`a
(SV1 ). La coppia (R[t], +) `e un gruppo abeliano.
Possiamo ora considerare una seconda operazione, detta prodotto per scalari, cos`
n
X
definita. Per ogni x R e per ogni p(t) =
ai tni K[t], poniamo:

xp(t) = x

i=0
n
X

ai t

ni

n
X
=
(xai )tni .

i=0

Siano p(t) =

n
X

ai tni e q(t) =

i=0

n
X

i=0

bi tni due polinomi, che possiamo sempre supporre

i=0

dello stesso grado, ragionando in modo simile a quanto fatto per definire la somma in
(3.1.1). Allora:
(SV2 ). Per ogni x K abbiamo x(p(t) + q(t)) = xp(t) + xq(t). Infatti:

x(p(t) + q(t)) = x

n
X

ai t

ni

i=0

n
X

x(ai + bi )tni

=x

n
X
i=0

!
bi t

ni

=x

n
X

i=0

i=0

n
X

(ai + bi )t

i=0

n
n
n
X
X
X
=
(xai + xbi )tni =
xai tni +
xbi tni =
i=0

!
ai tni

!
ni

+x

n
X
i=0

!
bi tni

i=0

= xp(t) + xq(t).

i=0

3.1 ESEMPI E STRUTTURA

57

(SV3 ). Per ogni x, y R si ha (x + y)p(t) = xp(t) + yp(t). Infatti:

(x + y)p(t) = (x + y)

n
X

!
ai t

ni

n
n
X
X
(x + y)ai tni =
(xai + yai )tni =

i=0

n
X

xai tni +

i=0

i=0
n
X

yai tni = x

n
X

!
ai tni

i=0

+y

n
X

!
ai tni

i=0

i=0

i=0

= xp(t) + yp(t).
(SV4 ). Per ogni x, y R abbiamo (xy)p(t) = x(y(p(t)). Infatti:

(xy)p(t) = (xy)

=x

n
X

!
ai tni

i=0
n
X

n
n
X
X
(xy)ai tni =
x(yai )tni =
i=0

ai tni

i=0

= x (yp(t)) .

i=0

n
n
n
X
X
X
(SV5 ). 1 p(t) = 1 ai tni =
(1)ai tni =
ai tni = p(t).
i=0

i=0

i=0

Riassumendo, abbiamo visto che a partire dallinsieme dei polinomi R[t], `e possibile
definire una operazione interna di somma, ed una operazione esterna di prodotto per
scalari, rispetto alle quali R[t] verifica le propriet`a (SV1 ), . . . , (SV5 ). Linsieme R[t] prende
allora il nome di spazio dei polinomi sul campo R.

3.1.2

Lo spazio delle matrici

Consideriamo ora linsieme Mm,n (R) delle matrici dotate di m righe e di n colonne, ad
elementi reali (per m = n si ha linsieme Mn (R) delle matrici quadrate di ordine n).
Siano A = [aij ] e B = [bij ] due elementi di Mm,n (R), e sia a R un qualsiasi numero
reale. Come abbiamo fatto per linsieme dei polinomi, possiamo definire anche in Mm,n (R)
unoperazione di somma di matrici e di prodotto per scalari nella maniera seguente.
+ : Mm,n (K) Mm,n (K) Mm,n (K)
(A, B)

A + B = [aij + bij ],

: K Mm,n (K) Mm,n (K)


(a, A) 7 a A = [a aij ].
Queste operazioni soddisfano le stesse propriet`a (SV1 ), . . . , (SV5 ) viste nel Paragrafo
3.1.1. Infatti, si verifica facilmente che la coppia (Mm,n (R), +) `e un gruppo abeliano, per
cui la propriet`a (SV1 ) `e presente. Inoltre abbiamo

58

SPAZI VETTORIALI
(SV2 ). Per ogni A, B Mm,n (R) e per ogni x K, luguaglianza:
x (A + B) = x A + x B
`e vera. Infatti
x (A + B) = x [aij + bij ] =[xaij + xbij ] =[xaij ] + [xbij ] =x [aij ] + x [bij ] = x A + x B.
(SV3 ). Per ogni A = [aij ] Mm,n (R) e per ogni x, y R, `e vera luguaglianza
(x + y) A = x A + y A. Infatti:
(x + y) A = (x + y) [aij ] = [(x + y)aij ] =
= [xaij + yaij ] = [xaij ] + [yaij ] =
= x [aij ] + y [aij ] = x A + y A.
(SV4 ). Per ogni A Mm,n (R) e per ogni a, b R, luguaglianza (ab) A = a (b A)
`e ovvia.
(SV5 ). Per ogni matrice A = [aij ] Mm,n (R) abbiamo 1 A = 1 [aij ] = [1aij ] =
[aij ] = A.
Riassumendo, a partire dallinsieme delle matrici M( (R)m, n) `e possibile definire una
operazione interna di somma, ed una operazione esterna di prodotto per scalari, rispetto alle quali M( (R)m, n) verifica le propriet`
a (SV1 ), . . . , (SV5 ). Linsieme M( (R)m, n)
prende allora il nome di spazio delle matrici di tipo (m, n) sul campo R.

3.1.3

Lo spazio delle funzioni.

Sia K un campo e X un insieme generico. Consideriamo linsieme KX di tutte le funzioni


da X a valori in K. Un elemento f KX `e una funzione f : X K, su cui non si fa
alcuna ipotesi particolare. Anche in questo insieme possiamo definire una somma e un
prodotto per scalari.
Per quanto riguarda la somma, se f, g KX , poniamo
f + g : X K
x 7 f (x) + g(x).
` unoperazione
Quindi si usa la somma di K per definire unanaloga operazione in KX . E
associativa e commutativa, perche cos` `e in K. Lelemento neutro `e la funzione nulla
0 : X K
x 7 0,
e linversa di f `e f , dove
f : X K
x 7 f (x).

3.1 ESEMPI E STRUTTURA

59

La coppia (KX , +) `e allora un gruppo abeliano, e vale la propriet`


a (SV1 ). La scelta pi`
u
ovvia, per quanto riguarda il prodotto per scalari, `e quella di assumere come campo base
lo stesso campo K. Allora, per ogni a K e per ogni f KX , definiamo
af : X K
x 7 af (x).
Le quattro propriet`a (SV1 ), . . . , (SV5 ) sono banalmente verificati grazie alle analoghe
propriet`a del prodotto di scalari in K. Si parla allora di spazio delle funzioni KX .

3.1.4

Gli assiomi di spazio vettoriale

Le considerazioni svolte nei paragrafi precedenti ci spingono a generalizzare i concetti


introdotti. Viene cio`e spontaneo tentare di estendere le operazioni di somma interna e
prodotto per scalari in maniera da introdurre una struttura di spazio vettoriale a partire
da un generico insieme V. A tale proposito ragioniamo come segue.
Sia V un insieme non vuoto e sia K un campo qualsiasi. Siano + e le operazioni
interne a K. Consideriamo la quaterna (V, K, , ), dove e sono due operazioni
binarie del tipo:
: V V V,
:

K V V.

Diciamo che (V, K, , ) `e uno spazio vettoriale se valgono i seguenti assiomi:

(SV1 )
(SV2 )
(SV3 )
(SV4 )
(SV5 )

(V, ) `e un gruppo abeliano;


a K, v, w V: a (v w) = a v a w;
a, b K, v V: (a + b) v = a v b v;
a, b K, v V: (a b) v = a (b v);
v V: 1 v = v, essendo 1 lelemento neutro di K rispetto al prodotto.

Gli elementi di V si dicono vettori , quelli di K scalari . Loperazione `e detta somma


vettoriale o di vettori, mentre loperazione `e detta prodotto per uno scalare. Si osservi
che (SV1 ) sottintende gli assiomi di gruppo abeliano e determina quella che viene chiamata
struttura additiva di V.
I rimanenti quattro assiomi (SV2 )-(SV5 ) riguardano invece lazione del campo K
sullinsieme V.
Nota. Per limitare il numero dei simboli, conveniamo di indicare, nel seguito, loperazione
esterna con , e di scrivere semplicemente ab per descrivere la composizione a b in K.
Usiamo inoltre lo stesso simbolo + per rappresentare sia loperazione di somma in K,
sia la somma di vettori in V, essendo comunque chiaro dal contesto il loro significato. I
precedenti assiomi si enunciano allora nella maniera seguente:

60

SPAZI VETTORIALI

(SV1 )
(SV2 )
(SV3 )
(SV4 )
(SV5 )

3.1.5

(V, +) `e un gruppo abeliano;


a K, v, w V: a(v + w) = av + aw;
a, b K, v V: (a + b)v = av + bv;
a, b K, v V: (ab)v = a(bv);
v V: 1v = v.

Lo spazio canonico

Consideriamo ora un importante esempio di spazio vettoriale, cio`e linsieme Kn = K...K


(n volte), con le usuali operazioni di somma di vettori e prodotto per scalari. Esso viene
detto spazio vettoriale canonico, in quanto fornisce una sorta di modello per tutti gli
spazi vettoriali finiti (si veda anche il Paragrafo 3.3.2, il Teorema 3.9 e le considerazioni
successive). I suoi elementi sono le colonne formate da n-ple di scalari appartenenti a K1 .
Ricordiamo che, in Kn , la somma di vettori `e fatta per componenti:

a1
b1
a1 + b1
.. .. ..
. + . = . ,
an

bn

an + bn

e cos` pure il prodotto per scalari:

a1
xa1

x ... = ... .
an

xan

Per dimostrare che Kn `e uno spazio vettoriale, occorre verificare la validit`a degli assiomi
(SV1 ), . . . , (SV5 ).
Linsieme (Kn , +) `e un gruppo abeliano, essendo la somma associativa (lo `e in K), commutativa, con elemento neutro il vettore 0 = [0, ..., 0]t , e come elemento inverso di v =
` quindi soddisfatto lassioma (SV1 ).
[a1 , . . . , an ]t il vettore v = [a1 , . . . , an ]t . E
Anche i rimanenti quattro assiomi si verificano facilmente.
(SV2 ). Per ogni x K e u, v Kn :

a1
b1
a1 + b1
x(a1 + b1 )

..
x(u + v) = x ... + ... = x ... =
=
.
an + bn
x(an + bn )



xa1 + xb1
xa1
xb1
a1
b1

.
.
.
.
.
..
=
= .. + .. = x .. + x .. = xu + xv.

an

xan + xbn

bn

xan

xbn

an

bn

1
Talvolta, per risparmiare spazio, gli elementi di Kn vengono scritti come trasposti di vettori riga. In
questi casi si usa separare con una virgola le singole componenti.

3.1 ESEMPI E STRUTTURA

61

(SV3 ). Per ogni x K e u Kn :

a1
(x + y)a1
xa1 + ya1

..
..
(x + y)u = (x + y) ... =
=
=
.
.
an
(x + y)an
xan + yan



xa1
ya1
a1
a1
.. ..
..
..
= . + . = x . + y . = xu + yu

xan

yan

an

an

(SV4 ). Per ogni x K e u Kn :


ya1
(xy)a1
x(ya1 )
a1


(xy)u = (xy) ... = ... = ... = x ... = x(yu).
x(yan )

(xy)an

an

yan

(SV5 ). Per ogni u Kn :



a1
1a1
a1
.. .. ..
1u = 1 . = . = . = u.
an

1an

an

Osservazioni ed esempi.
1. Consideriamo i seguenti assiomi di spazio vettoriale:
(SV3 ) (a + b)u = au + bu;
(SV4 ) (a b)u = a (bu).
In (SV3 ) e (SV4 ), rispettivamente, il segno + e il segno del primo e secondo
membro non designano la medesima operazione. Consideriamo infatti (SV3 ). Al
primo membro, a + b indica una somma di scalari, eseguita nel campo base K. Al
secondo membro, la somma au + bu `e una somma di vettori eseguita secondo la
definizione di somma vettoriale introdotta per lo spazio V. Anche se la simbologia
`e la stessa, il segno + non indica la stessa operazione. Questo fatto pu`o essere
visualizzato meglio riscrivendo le operazioni come funzioni. Nel primo caso abbiamo
+ : KK K; nel secondo + : VV V.. Lunico caso in cui le due operazioni
sono sostanzialmente la stessa operazione `e quando V = K, ovvero il caso di uno
spazio canonico.
Un discorso analogo si pu`o fare per (SV4 ). Al primo membro loperazione `e quella
di prodotto di due scalari, eseguita in K : K K K. Al secondo membro,
a (bu) indica il prodotto di uno scalare per un vettore : K V V
2. Oltre a quelli considerati nei paragrafi precedenti, esistono molti altri esempi di spazi
vettoriali. Basta partire da un insieme V e da un campo K, e cercare di definire

62

SPAZI VETTORIALI
operazioni rispetto alle quali V venga a godere delle propriet`
a descritte. Alcuni di
questi esempi sono in effetti gi`
a familiari. Per esempio, `e facile vedere che linsieme
R si pu`o dotare di una struttura di spazio vettoriale sul campo Q.
La coppia (R, +), con + usuale somma di numeri reali, `e ovviamente un gruppo
` quindi soddisfatto lassioma (SV1 ).
abeliano, in quanto R `e un campo. E
Consideriamo come prodotto per scalari il prodotto di numeri reali definito in R,
`
restringendolo, per quanto riguarda la prima componente, ai soli elementi di Q. E
quindi una funzione del tipo:
: Q R R
(q, x) 7 q x.
Gli assiomi (SV2 ), . . . , (SV5 ) discendono direttamente dalle propriet`a associative
del prodotto in R e dellelemento neutro rispetto al prodotto, dato dal numero 1.
Quindi R `e uno spazio vettoriale su Q.
3. Ogni campo K `e spazio vettoriale su se stesso. Questo `e un caso molto particolare di
costruzione di spazio vettoriale. La somma di vettori e il prodotto per scalari sono
quelli gi`a definiti in K stesso, ossia
+ : K K K
(a, b) 7 a + b,
: K K K
(a, b) 7 a b.
La validit`a degli assiomi `e allora ereditata direttamente dalle propriet`
a della somma
e del prodotto in un campo.
Un discorso analogo pu`o essere fatto per determinare una struttura di spazio vettoriale su K con un sottocampo F K, con laccorgimento di definire il prodotto per
scalari come restrizione ad F del prodotto esistente in K, ossia:
: F K K
(a, b) 7 a b.
Quindi, ad esempio, C `e spazio vettoriale su C, ma pu`o essere visto come spazio
vettoriale su R o su Q.
4. Gli spazi vettoriali introdotti nei paragrafi 3.1.1, 3.1.2 e 3.1.3 si possono generalizzare,
sostituendo R con un campo K qualsiasi. Tutte le considerazioni svolte restano
valide, pur di rimpiazzare le operazioni di somma e prodotto tra numeri reali con le
due operazioni rispetto alle quali linsieme K `e un campo.
5. In modo alternativo, si pu`o verificare che Kn `e uno spazio vettoriale osservando che
linsieme Mm,n (K) `e uno spazio vettoriale e che Kn = Mn,1 (K).

3.2 SOTTOSPAZI

3.2

63

SOTTOSPAZI

Consideriamo uno spazio vettoriale V sul campo K, e sia W V un suo sottoinsieme non
vuoto. Diciamo allora che W `e un sottospazio vettoriale di V, e scriviamo W V, se,
restringendosi a W, si verificano ancora gli assiomi di spazio vettoriale (SV1 ), . . . , (SV5 ).
Ci`o significa che applicando a vettori di W le stesse operazioni di somma di vettori e
prodotto per scalari definite per V, si ottengono vettori appartenenti ancora a W.
Per verificare che un dato sottoinsieme W di uno spazio vettoriale V `e un sottospazio,
`e necessario procedere alla verifica degli assiomi internamente a W. Invece, per verificare
che W non `e un sottospazio basta mostrare che almeno uno degli assiomi non si verifica
in W. Per esempio, linsieme delle matrici quadrate binarie sul campo R, cio`e
W = {A = [aij ] Mn (R)| aij = 0 aij = 1},
non `e un sottospazio di M2 (R). Per lassioma (SV1 ), infatti, W dovrebbe essere chiuso
rispetto alla somma. Ma in M2 (R) la somma di due matrici binarie non `e detto che sia
ancora una matrice binaria. Quindi W non `e chiuso rispetto alla restrizione della somma
definita in M2 (R), e pertanto non pu`o essere un gruppo abeliano ne, tanto meno, uno
spazio vettoriale, sottospazio di M2 (R).
Osservazioni ed esempi.
1. Ogni spazio vettoriale V ammette sempre due sottospazi detti impropri o banali : il
sottospazio nullo {0}, ovvero linsieme formato dal solo elemento nullo rispetto alla
somma e V stesso.
2. Si noti che {0} `e lunico spazio vettoriale che coincide con i suoi sottospazi impropri.
Si faccia inoltre attenzione a non confondere il sottospazio nullo {0} con linsieme
, che invece non `e un sottospazio vettoriale.
3. Nello studio dei sottospazi `e cruciale la presenza del vettore nullo 0. Infatti se V `e
uno spazio vettoriale, certamente 0 V. Al contrario la presenza del vettore nullo
`e solo una condizione necessaria per essere sottospazio, non sufficiente. Ovvero, se
0 W, non possiamo dire nulla sulla sua struttura di sottospazio.
4. Verifichiamo se R2 `e un sottospazio di R3 . La risposta `e negativa. Infatti non `e
neppure un sottoinsieme, poiche i vettori di R2 hanno 2 componenti, mentre quelli
di R3 ne hanno una in pi`
u.
Generalizzando la questione, non `e mai vero che Kn Km se n < m.
5. Possiamo mettere R2 in corrispondenza biunivoca con il sottoinsieme W2 di R3 dato
dalle terne di numeri reali aventi la terza componente nulla, cio`e
W2 = {[x, y, 0]t | x, y R}.

64

SPAZI VETTORIALI
In W2 possiamo allora considerare le stesse operazioni di somma di vettori e prodotto
per scalari definite in R3 , ottenendo cos` uno spazio vettoriale. Linsieme W2 `e quindi
un sottospazio vettoriale di R3 .
6. Linsieme X di tutti i polinomi di grado n non `e un sottospazio di K[t]. Infatti, per
essere un sottospazio, deve essere linearmente chiuso. In particolare, ci`o significa che
deve essere chiuso rispetto alla somma. Questo non `e vero. Infatti, sia
p(t) =

n
X

ai tni

i=0

un polinomio di grado n. In X esiste anche il polinomio


q(t) = a0 tn + b1 tn1 + + bn1 t + bn ,
con i bj K arbitrari. Per come `e definita la somma di polinomi in K[t] abbiamo:
p(t) + q(t) = (a0 a0 )tn + (a1 + b1 )tn1 + + (an + bn ) =
= (a1 + b1 )tn1 + + (an + bn ).
Questultimo `e un polinomio di grado n 1, che non pu`o appartenere ad X. Quindi
X non `e chiuso rispetto alla somma, cio`e non `e un gruppo abeliano e lassioma (SV1 )
non `e soddisfatto. Allora X non `e un sottospazio.

3.2.1

Combinazioni lineari e sottospazi

Sia V uno spazio vettoriale sul campo K e siano v1 , . . . , vn vettori di V, con n 1. Allora
la somma
n
X
ai vi = a1 v1 + + an vn ,
i=1

dove ai K, i = 1, . . . , n, `e chiamata combinazione lineare dei vettori vi a coefficienti


` ovviamente un vettore dello spazio V. Le combinazioni lineari sono
nel campo K. E
essenziali per caratterizzare un sottospazio. Sia W V, sul campo K. Abbiamo visto,
nel paragrafo precedente, che questo significa che W `e un sottoinsieme di V che soddisfa
gli assiomi di spazio vettoriale rispetto alla restrizione di somma di vettori e prodotto
per scalari ereditate da V. Questo equivale a dire, come dimostreremo fra poco, che W
contiene tutte le combinazioni lineari a coefficienti in K di suoi vettori. Ci`
o significa che,
per ogni a K e per ogni w W, aw W e che, per ogni v, w W, v + w W.
Questo fatto si riassume dicendo che W `e linearmente chiuso. Vale il seguente Teorema:
Teorema 3.1. Condizione necessaria e sufficiente affinche un sottoinsieme W di uno
spazio vettoriale V sia sottospazio `e che, per ogni a, b K e per ogni v, w W, si abbia
av + bw W.

(3.2.1)

3.2 SOTTOSPAZI

65

-Dimostrazione. Se W `e un sottospazio vettoriale di V, in esso sono ben definite


le stesse operazioni di somma di vettori e prodotto per scalari che rendono V spazio
vettoriale. Questo significa che W contiene ogni multiplo di un suo vettore e ogni somma
di due suoi vettori. Ci`o equivale alla condizione (3.2.1). Quindi la condizione espressa dal
Teorema `e necessaria.
Viceversa, se vale la (3.2.1), che si pu`o anche spezzare nelle due condizioni
(i) a K, w W: aw W,
(ii) v, w W: v + w W,
allora in W risultano ben definite le stesse operazioni di somma tra vettori e di prodotto
a degli assiomi di spazio vettoriale
per scalari che rendono V spazio vettoriale. La validit`
`e pertanto ereditata dalla validit`a degli stessi assiomi nellinsieme pi`
u ampio V. Quindi
la condizione `e anche sufficiente.

Osservazioni ed esempi.
1. Abbiamo gi`a detto (cfr. Esempio 3 a pag. 63) che la presenza del vettore nullo 0 `e
condizione necessaria per essere sottospazio. Possiamo rileggere questo fatto come
conseguenza del Teorema 3.1. Infatti, dalla (3.2.1), ponendo a = 1, b = 1 e v = w,
abbiamo v v = 0 W. La condizione tuttavia non `e sufficiente. Per esempio
linsieme W = {[a, b, c]t R3 | a 0}`e sottoinsieme di R3 e contiene il vettore nullo
0 = [0, 0, 0]t , ma non `e un sottospazio. Non `e chiuso rispetto al prodotto per scalari.
Infatti, se x R con x < 0, allora x[a, b, c]t = [xa, xb, xc]t , con xa < 0, se a 6= 0.
Quindi [xa, xb, xc]t 6 W.
2. Verifichiamo, usando la condizione che caratterizza i sottospazi, che linsieme delle
matrici simmetriche dordine n `e un sottospazio dello spazio vettoriale Mn (K).
Ricordiamo che loperazione di trasposizione soddisfa le seguenti propriet`a:
(A + B)t = At + B t ,

(3.2.2)

(aA)t = aAt a K.

(3.2.3)

Una matrice simmetrica `e caratterizzata dal fatto di coincidere con la sua trasposta,
ossia A `e simmetrica se e solo se A = At . Allora, per ogni A, B Mn (K) simmetriche
e per ogni a, b K, verifichiamo che aA+bB `e ancora una matrice simmetrica. Dalle
(3.2.2) e (3.2.3), abbiamo (aA+bB)t = (aA)t +(bB)t = aAt +bB t = aA+bB. In base
al Teorema 3.1 questo `e sufficiente a garantire che linsieme delle matrici simmetriche
dordine n `e un sottospazio dello spazio vettoriale Mn (K).

3.2.2

Chiusura lineare

Sia V uno spazio vettoriale sul campo K e X V un suo sottoinsieme. Linsieme di tutte
le possibili combinazioni lineari finite di elementi di X a coefficienti nel campo K si indica
con L(X) ed `e chiamata chiusura lineare di X.

66

SPAZI VETTORIALI
Teorema 3.2. Linsieme L(X) `e un sottospazio vettoriale di V.
-Dimostrazione. Consideriamo due qualsiasi vettori u, v L(X). Allora u e v sono
combinazioni di vettori di X, per definizione di chiusura lineare. Per ogni a, b K, au + bv
`e a sua volta una combinazione di vettori di X, in quanto combinazione di combinazioni
lineari, e quindi appartiene a L(X). Questa `e condizione sufficiente affinche L(X) sia
sottospazio di V (cfr. Teorema 3.1).

Teorema 3.3. La chiusura lineare di X `e il pi`


u piccolo sottospazio di V contenente
linsieme X.
-Dimostrazione. Sia W un qualsiasi sottospazio di V tale che X W. Allora W
contiene tutte le combinazioni lineari dei suoi vettori, cio`e `e linearmente chiuso. In particolare contiene linsieme di tutte le combinazioni dei vettori che appartengono a X. Ma
questo insieme `e proprio L(X). Pertanto L(X) W.

Osservazioni ed esempi.
1. Dal Teorema 3.3 ricaviamo che per ogni W V, L(W) = W.
2. Sia X Y . Analizziamo le relazioni che intercorrono tra L(X) e L(Y). Siccome L(Y)
contiene tutte le combinazioni lineari di vettori di Y e X Y, certamente fra queste
vi sono le combinazioni lineari di vettori di X, e questo significa che
L(X) L(Y).

(3.2.4)

Pu`o darsi che esista un vettore v L(Y) tale che v 6 L(X). Questo succede
certamente se in Y esiste un vettore che `e linearmente indipendente da ogni vettore
di X. Al contrario, se i vettori di Y\X dipendono dai vettori di X, allora L(X) = L(Y).
Per esempio, se
X = {v1 , v2 }
Y = {v1 , v2 , xv1 }, x 6= 0 K,
allora
L(X) = L(Y).

(3.2.5)

Infatti X $ Y, ma ogni combinazione lineare di vettori di Y `e, in sostanza, una


combinazione lineare di vettori di X:
av1 + bv2 + c(xv1 ) = (a + cx)v1 + bv2 ,
da cui la (3.2.5).
3. Non `e stata fatta alcuna ipotesi particolare sullinsieme X V. A priori potrebbe
essere vuoto. Per convenzione, si pone L() = {0}.

3.3 GENERATORI

3.3

67

GENERATORI

Strettamente legato al concetto di combinazione lineare `e quello di generatore. Sia V uno


spazio vettoriale sul campo K. Un suo sottoinsieme X V si dice insieme generatore di
V, e si scrive V = hXi, se ogni vettore di V pu`o essere scritto come combinazione lineare
di vettori di X, ossia per ogni v V esistono n N, w1 , . . . , wn X e a1 , . . . , an K tali
che
n
X
v=
ai wi
(3.3.1)
i=1

Teorema 3.4. Se X `e un insieme generatore di V lo `e anche un insieme X0 formato da


multipli non nulli dei vettori di X.
-Dimostrazione. Siano X = {v1 , . . . , vn } ed X0 = {a1 v1 , . . . , an vn } = {w1 , . . . , wn },
con ai 6= 0 K, i = 1, . . . , n. Per ipotesi V = hXi, quindi ogni vettore v V `e
combinazione lineare degli elementi di X:
v=

n
X

bi vi .

i=1

Il vettore v `e anche combinazione lineare dei vettori di X0 , ovvero


v=

n
X

b0i wi .

(3.3.2)

i=1

Basta infatti porre b0i = bi a1


i , i = 1, . . . , n. Sostituendo in (3.3.2), abbiamo
n
X

b0i wi

i=1

Anche linsieme X0 genera V.

n
X
i=1

bi a1
i ai vi

n
X

bi vi = v.

i=1

Osservazioni ed esempi.
1. Notiamo che non si `e fatta alcuna ipotesi sullunicit`a della rappresentazione (3.3.1),
ne sulla cardinalit`a dellinsieme X, che a priori potrebbe essere infinito. In questultimo caso si dovrebbe ricordare che le combinazioni lineari devono essere finite.
Ovviamente, se |X| = m, lindice n citato nella definizione sar`a minore o uguale ad
m.
2. Matrici generatrici. Determiniamo un insieme generatore per lo spazio Mm,n (K).
Consideriamo la matrice Eij , i = 1, . . . , m, j = 1, . . . , n seguente: Eij = [ers ] con
(
ers = 1 se (r, s) = (i, j)
ers = 0 se (r, s) 6= (i, j).
Con questa regola, Eij `e una matrice formata da elementi tutti nulli, ad accezione
di quello di posto i, j, che vale 1. Sommare un multiplo di Eij , ad esempio aEij ,

68

SPAZI VETTORIALI
ad una matrice A Mm,n (K), permette di sommare lo scalare a allelemento di A
di posto i, j. Per lo stesso motivo, la matrice A = [aij ] Mm,n (K) si pu`o scrivere
come combinazione lineare delle Eij per i = 1, . . . , m e j = 1, . . . , n. Basta prendere
come coefficienti della combinazione gli elementi della matrice A con gli stessi indici,
ossia:
X
A=
aij Eij .
i=1,...,m
j=1,...,n

Per esempio:

2 3
1 0
0 1
0 0
0 0
A=
=2
+3
4
+5
4 5
0 0
0 0
1 0
0 1
= 2E11 + 3E12 4E21 + 5E22 .
Questo vale per ogni matrice A Mm,n (K).
Quindi linsieme {Eij }i=1,...,m `e un insieme generatore di Mm,n (K).
j=1,...,n

3. Polinomi generatori. Costruiamo un insieme generatore di K[t]. Consideriamo un


generico polinomio di K[t]:
p(t) =

n
X

ai tni = a0 tn + a1 tn1 + + an1 t + an

(3.3.3)

i=0

con ai K per ogni i = 1, . . . , n. Se consideriamo le potenze di t:


1 = t0 , t1 , t2 , . . . , tn1 , tn
come particolari polinomi di K[t], lo sviluppo nella (3.3.3) `e una combinazione lineare
a coefficienti in K dei sopracitati polinomi. Questo discorso vale in generale, cio`e
ogni polinomio di K[t] si pu`o scrivere come combinazione di opportune potenze di t,
viste come polinomi di K[t]. Allora, per definizione di insieme generatore, linsieme
infinito {1, t, t2 , t3 , . . . , tn1 , tn , . . .} genera K[t].
4. Spazio delle righe e spazio delle colonne. Sia A Mm,n (K). Allora le righe di
A sono m vettori di Kn e le colonne sono n vettori di Km . Indichiamoli, rispettivamente, con R1 , . . . , Rm e C1 , . . . , Cn . Si chiama spazio riga (o spazio delle righe)
della matrice A lo spazio vettoriale R = hR1 , . . . , Rm i. Lo spazio colonna (o spazio delle colonne) di A `e invece C = hC1 , . . . , Cn i. Ovviamente R Rn , mentre
C Rm . Se la matrice non `e quadrata, R e C sono sottospazi di spazi differenti.

3.3.1

Dipendenza ed indipendenza lineare

Sia V uno spazio vettoriale sul campo K. Diciamo che v1 , . . . , vn V sono vettori
linearmente dipendenti (su K) se e solo se `e possibile scegliere scalari a1 , . . . , an K, non
tutti nulli, tali che a1 v1 + + an vn = 0. In caso contrario si parla di vettori linearmente
indipendenti. Pertanto, i vettori v1 , . . . , vn V sono linearmente indipendenti se e solo
se luguaglianza a1 v1 + + an vn = 0, pu`o essere ottenuta scegliendo ai = 0 per ogni
i = 1, . . . , n.

3.3 GENERATORI

69

Consideriamo ora un insieme finito X V, e supponiamo che sia X = {x1 , . . . , xm }.


Diciamo che X `e un insieme indipendente (su K) se i vettori x1 , . . . , xm sono linearmente
indipendenti (su K). In caso contrario X `e detto insieme dipendente. Per convenzione,
linsieme vuoto `e considerato indipendente.
Questa definizione si pu`o generalizzare ad insiemi infiniti. Se X V e |X| = ,
si dice che X `e indipendente se ogni suo sottoinsieme finito `e linearmente indipendente.
Per esempio, ogni insieme {1, t, t2 , . . . , tn } R[t] `e indipendente, per ogni intero n N.
Quindi X = {1, t, t2 , . . . , tn , . . .} `e tale che |X| = ed `e indipendente.
Possiamo ora fornire una caratterizzazione di un insieme X V, finito, linearmente
dipendente. Vale infatti la seguente propriet`a.
Teorema 3.5. Condizione necessaria e sufficiente affinche X sia linearmente dipendente
`e che uno dei suoi elementi sia combinazione lineare dei rimanenti.
-Dimostrazione.

La condizione `e sufficiente. Se u X = {u, v1 , . . . , vn } e


u=

n
X

ai vi ,

(3.3.4)

i=1

linsieme X `e dipendente. Possiamo supporre u 6= 0, altrimenti X sarebbe automaticamente


dipendente in quanto contenente il vettore nullo. Allora, in (3.3.4), almeno un ai 6= 0.
Consideriamo la combinazione lineare con i coefficienti non tutti nulli seguente:
u a1 v1 a2 v2 an vn = u

n
X

ai vi .

(3.3.5)

i=1

Tenendo conto della (3.3.4), abbiamo:


n
X
i=1

ai vi

n
X

ai vi = 0,

i=1

e quindi la (3.3.5) `e una combinazione lineare nulla dei vettori di X a coefficienti non tutti
nulli. Linsieme X `e dipendente.
La condizione `e necessaria. Sia X = {v1 , . . . , vn } dipendente. Allora luguaglianza
a1 v1 + + an vn = 0

(3.3.6)

`e vera con almeno uno degli ai 6= 0. Supponiamo che sia a1 6= 0. La (3.3.6) diventa:
a1 v1 = a2 v2 an vn , v1 = a2 a11 v2 an a1
1 vn ,
cio`e v1 `e combinazione lineare di v2 , . . . , vn .

Nel caso di insiemi finiti, le nozioni di dipendenza e di indipendenza lineare si trasferiscono sui sottoinsiemi. Questo fatto `e precisato nel seguente teorema.
Teorema 3.6. Sia V uno spazio vettoriale. Allora, ogni insieme finito contenente un
insieme dipendente di V `e dipendente e ogni sottoinsieme di un insieme finito indipendente
di V `e a sua volta indipendente.

70

SPAZI VETTORIALI
-Dimostrazione. Supponiamo che X ed Y siano insiemi finiti, e sia X un insieme dipendente di V tale che X Y. Posto X = {v1 , . . . , vr }, per ipotesi esiste una combinazione
lineare dei vettori di X con coefficienti non tutti nulli tale che valga luguaglianza
a1 v1 + + ar vr = 0,

(3.3.7)

con ai K e i = 1, . . . , r. Poiche X `e un sottoinsieme di Y, possiamo scrivere:


Y = {v1 , . . . , vr , w1 , . . . , ws },
con s 1. Luguaglianza seguente:
a1 v1 + + ar vr + 0w1 + + 0ws = 0

(3.3.8)

`e sempre valida, indipendentemente da come sono fatti i wi , come conseguenza della


(3.3.7). Ma la (3.3.8) rappresenta una combinazione lineare di elementi di Y che si annulla
senza avere tutti i coefficienti 0. Quindi Y `e dipendente.
Supponiamo ora che Y sia un insieme indipendente dello spazio V e sia X Y.
Supponiamo, per assurdo, che X non sia indipendente. Posto
X = {v1 , . . . , vr }
Y = {v1 , . . . , vr , vr+1 , . . . , vs },
se X `e dipendente, deve esistere una combinazione lineare dei vettori di X tale che
a1 v1 + + ar vr = 0,

ai K, i = 1, . . . , n,

con almeno uno degli ai non nullo. Allora la seguente:


a1 v1 + + ar vr + 0vr+1 + + 0vs = 0,

ai K, i = 1, . . . , n,

`e una combinazione lineare dei vettori di Y con gli stessi requisiti. Ci`o implicherebbe Y
dipendente, contro le ipotesi fatte.

Mettiamo ora in evidenza un risultato che consente di collegare i concetti di generatore


e di indipendenza lineare.
Teorema 3.7. Sia X = {v1 , . . . , vn } un insieme generatore di uno spazio vettoriale V sul
campo K, e sia Y = {w1 , . . . , wm } un insieme di vettori linearmente indipendenti di V.
Allora risulta m n
-Dimostrazione. Poiche X `e un insieme generatore di V, ogni vettore dello spazio
vettoriale pu`o essere ottenuto mediante combinazione lineare dei vettori di X. In particolare abbiamo w1 = a11 v1 + a12 v2 + . . . + a1n vn , con a11 , . . . , a1n K non tutti nulli
(poiche w1 6= 0). A meno di rinumerare i generatori possiamo sempre supporre che sia
a11 6= 0, e quindi che esista a1
11 K. Pertanto abbiamo
1
1
v1 = a1
11 w1 a11 a12 v2 . . . a11 a1n vn ,

3.3 GENERATORI

71

il che implica che il vettore v1 `e generato dallinsieme X1 = {w1 , v2 , . . . , vn }. Poich`e


V = hv1 , v2 , . . . , vn i risulta anche V = hw1 , v2 , . . . , vn i. Abbiamo cos` cambiato il sistema
di generatori iniziale, rimpiazzando v1 con w1 .
Ripetiamo ora il ragionamento, sostituendo w1 con w2 e X con X1 . Otteniamo quindi
w2 = b11 w1 + b12 v2 + b13 v3 + . . . + b1n vn ,
con b12 , . . . , b1n K non tutti nulli (poiche w1 e w2 sono indipendenti). A meno di
rinumerare i generatori possiamo sempre supporre che sia b12 6= 0, e quindi che esista
b1
12 K. Pertanto abbiamo
1
1
1
v2 = b1
12 b11 w1 b12 b12 v2 b12 b13 v3 . . . b12 b1n vn ,

il che implica che il vettore v2 `e generato dallinsieme X2 = {w1 , w2 , v3 , . . . , vn }. Poich`e


V = hw1 , v2 , v3 , . . . , vn i risulta V = hw1 , w2 , v3 , . . . , vn i. Il sistema di generatori iniziale
`e stato quindi ulteriormente aggiornato. Complessivamente abbiamo rimpiazzato v1 e v2
con w1 e w2 .
Ripetendo il procedimento, dopo n rimpiazzamenti si ottiene V = hw1 , w2 , . . . , wn i.
Se fosse n < m, i vettori di Y non verrebbero esauriti dopo gli n rimpiazzamenti, cio`e
esisterebbe il vettore wn+1 , non ancora utilizzato. Ma esso, in quanto vettore di V,
potrebbe allora essere ottenuto come combinazione lineare dei generatori w1 , w2 , . . . , wn ,

il che, per il Teorema 3.5 `e assurdo. Pertanto risulta m n.


Osservazioni ed esempi.
1. Quando diciamo che ai = 0 per ogni i = 1, . . . , n intendiamo che gli ai coincidono
tutti con lelemento neutro 0 di K rispetto alloperazione di somma di scalari. Invece,
nelluguaglianza a1 v1 + + an vn = 0, lo 0 indica lelemento neutro del gruppo
abeliano (V, ).
2. Dalla definizione di indipendenza lineare si risale facilmente a quella di dipendenza.
Infatti i vettori u e v sono dipendenti se esiste una combinazione lineare del tipo
au + bv = 0 a, b K,

(3.3.9)

con i coefficienti non tutti nulli. Possiamo supporre che sia b 6= 0. Allora, dalla
(3.3.9) otteniamo bv = au, e quindi
v = ab1 u.
ab1

(3.3.10)

Posto
= , la (3.3.10) diventa v = u. In sostanza u e v sono linearmente
dipendenti se uno dei due `e multiplo dellaltro.
3. Consideriamo i vettori di R2 :

1
2
1
u=
, v=
,
w
=
.
1
0
12
4
Sono linearmente dipendenti. Infatti la combinazione lineare



1
2
1
1
0
+
=0
2u v w =
1 =
1
0
0
2
4
4

72

SPAZI VETTORIALI
`e a coefficienti non tutti nulli. Invece u e v sono linearmente indipendenti. Infatti,
per ottenere 0 da una loro somma `e necessario annullare la seconda componente
di v. Ma questo si pu`o ottenere solamente moltiplicando v per 0. Analogamente
lannullamento della prima componente di au + 0v si ottiene solo se a = 0. Ovvero
`e soddisfatta la definizione di indipendenza lineare.
4. Sia X V un insieme finito tale che 0 X. Allora X `e dipendente. Siccome X
`e un insieme finito, possiamo porre X = {0, v1 , . . . , vn }. La combinazione lineare
a0 + 0v1 + + 0vn = 0 si annulla con coefficienti non tutti nulli. Basta porre
a 6= 0. Quindi i vettori di X sono linearmente dipendenti. In particolare, assumendo
X ridotto al solo vettore nullo, si ricava che 0 `e dipendente. Anzi, esso `e lunico
sottoinsieme di cardinalit`a 1 dello spazio V che sia linearmente dipendente.
5. Il Teorema 3.7 mette in evidenza che un insieme di generatori non `e necessariamente
un insieme indipendente. In particolare possiamo sempre aggiungere ad un insieme di
generatori altri vettori, ottenendo ancora un insieme generatore. Pi`
u precisamente,
se V = hv1 , . . . , vn i, e w V, allora linsieme {v1 , . . . , vn , w} `e dipendente e genera
V. Infatti, se w V = hv1 , . . . , vn i, il vettore w si pu`o scrivere come combinazione
lineare dei vi , ovvero w = a1 v1 + + an vn , ai K, i = 1, . . . , n. Quindi linsieme
{v1 , . . . , vn , w} `e dipendente in quanto uno dei suoi vettori `e combinazione lineare
dei rimanenti. Comunque {v1 , . . . , vn , w} rimane un insieme generatore, perche
ogni vettore di V pu`o essere sempre scritto come combinazione dei vettori di questo
insieme. Infatti, siccome v = x1 v1 + + xn vn ({v1 , . . . , vn } genera V), possiamo
sempre scrivere v = x1 v1 + + xn vn + 0w.

3.3.2

Basi di uno spazio vettoriale

Sia V uno spazio vettoriale sul campo K e X V un suo insieme di vettori. Linsieme X
si dice base di V se si verificano le seguenti due propriet`
a
1) X `e un insieme generatore di V, cio`e V = hXi.
2) X `e un insieme linearmente indipendente.
La precedente `e la pi`
u generale definizione di base ed include anche il caso di basi con
a di X. Salvo casi partiinfiniti vettori. Infatti non viene fatto alcun cenno alla cardinalit`
colari, ci occupiamo nei dettagli solo degli spazi vettoriali dotati di basi finite. Nel seguito
le basi si indicheranno con simboli del tipo B. Il seguente teorema (che enunciamo senza
dimostrazione) garantisce che il concetto di base `e ben definito in ogni spazio vettoriale.
Teorema 3.8. Sia V uno spazio vettoriale qualsiasi sul campo K. Allora esiste sempre
una base di V.

` un teorema generale, che include sia il caso di spazi con basi aventi un numero finito
E
di elementi, sia il caso di basi infinite. Il Teorema seguente caratterizza le basi.
Teorema 3.9. Sia V uno spazio vettoriale qualsiasi sul campo K. Condizione necessaria
e sufficiente affinche un insieme B = {v1 , ..., vn } sia una base di V `e che ogni vettore di
V si scriva in modo unico come combinazione lineare dei vettori v1 , ..., vn .

3.3 GENERATORI

73

-Dimostrazione. Supponiamo che ogni vettore di V si scriva in modo unico come


combinazione lineare dei vettori di B. Allora B `e un sistema di generatori di V. Inoltre B `e un insieme indipendente. Infatti, in caso contrario, per il Teorema 3.5, almeno
un vettore vi di B potrebbe essere ottenuto come combinazione lineare dei rimanenti
v1 , ..., vi1 , vi+1 , ..., vn , cio`e si avrebbe
vi = 1 v1 + ... + i1 vi1 + i+1 vi+1 + ... + n vn ,
con 1 , ..., n K non tutti nulli. Ma allora il vettore nullo ammetterebbe le seguenti due
scritture distinte
0 = 1 v1 + ... + i1 vi1 + i+1 vi+1 + ... + n vn vi ,
0 = 0v1 + ... + 0vi1 + 0vi + 0vi+1 + ... + 0vn ,
il che `e assurdo.
Supponiamo ora che linsieme B = {v1 , ..., vn } sia una base di V, e sia v un vettore
di V. Supponiamo che esistano due n-ple 1 , 2 , ..., n K e 1 , 2 , ..., n K, con
(1 , 2 , ..., n ) 6= (1 , 2 , ..., n ) tali che
v = 1 v1 + 2 v2 + ... + n vn ,
v = 1 v1 + 2 v2 + ... + n vn .
Possiamo allora scrivere 0 = v v = (1 1 )v1 + (2 2 )v2 + ... + (n n )vn .
Poiche (1 , 2 , ..., n ) 6= (1 , 2 , ..., n ) almeno uno dei coefficienti di v1 , v2 , ..., vn `e non
nullo. Questo implica che tali vettori sono dipendenti. Ma ci`o `e assurdo, in quanto essi
costituiscono una base.

Dal Teorema 3.4 sappiamo anche che in un dato spazio vettoriale V la base non `e
univocamente determinata. Infatti, se X = {x1 , . . . , xn } `e un insieme generatore, lo `e
anche X0 = {a1 x1 , . . . , an xn }, con ai K, ai 6= 0 e i = 1, . . . , n. Lo stesso discorso vale
per lindipendenza lineare. Quindi, se X `e una base, ogni altro insieme ottenuto da X
prendendo multipli non nulli dei vettori di X, `e ancora una base. Se K `e dotato di infiniti
elementi, allora possiamo costruire infinite basi.
Coordinate di un vettore
Il Teorema 3.9 `e di importanza fondamentale, in quanto garantisce che, una volta fissata
una base B di V, `e possibile associare ad ogni vettore v V, in maniera unica, una n-pla
di coefficienti del campo K. Essi sono i coefficienti che esprimono v come combinazione
lineare dei vettori di B, e prendono il nome di coordinate del vettore v rispetto alla base
B. In questo senso (fissata la base B) il vettore v pu`
o essere identificato con la n-pla delle
sue componenti, il che equivale ad identificare V con lo spazio vettoriale canonico K. Il
concetto preciso di identificazione potr`a essere descritto solo quando verr`
a considerata la
nozione di applicazione lineare tra spazi vettoriali.
Osservazioni ed esempi.

1. Consideriamo lo spazio Kn e i vettori e1 = [1, 0, . . . , 0]t , e2 = [0, 1, . . . , 0]t , . . .,


en = [0, 0, . . . , 1]t , aventi tutte le componenti nulle ad eccezione di una, che vale 1.

74

SPAZI VETTORIALI
Linsieme B = {e1 , . . . , en } `e indipendente. Infatti lunico modo per annullare tutte
le componenti della somma a1 e1 + a2 e2 + + an en `e scegliere gli ai tutti nulli.
Inoltre B genera Kn . Infatti, se u Kn , esistono n scalari u1 , . . . , un K tali che
u = [u1 , u2 , . . . , un ]t e abbiamo


u1
1
0
0
0
1
0
u2

u = . = u1 . + u2 . + + un . .
..
..
..
..
un

Quindi B `e una base di Kn , detta anche base canonica.


2. Basi di matrici. Consideriamo lo spazio Mm,n (K). In esempi precedenti (cfr.
pagina 67) abbiamo introdotto le matrici Eij (i = 1, . . . , m
`
j = 1, . . . , n), ed abbiamo visto come linsieme di queste matrici generi Mm,n (K). E
facile vedere che questo insieme `e indipendente. Infatti, nella combinazione lineare
X
aij Eij ,
i=1,...,m
j=1,...,n

ogni coefficiente aij diventa il termine di posto i, j della matrice risultato. Quindi
questultima `e Om,n se e solo se aij = 0 per ogni i = 1, . . . , m e j = 1, . . . , n. Allora
{Eij }i=1,...,m `e una base di Mm,n (K). Supponendo di fissare un ordine di scorrimento
j=1,...,n

degli elementi di una matrice di Mm,n (K), ad esempio da sinistra a destra e dallalto
in basso, `e possibile rivedere i vettori della base appena descritta come i vettori della
base canonica di uno spazio Kp , con p opportuno. Per esempio, in M2,3 (R), alla
matrice

0 0 0
E21 =
1 0 0
possiamo associare, sempre secondo lordinamento prima fissato, il vettore di R6
dato da e4 = [0, 0, 0, 1, 0, 0]t . Ovviamente, cambiando lordinamento si ottengono
vettori differenti.
3. Basi di polinomi. Determiniamo una base di K[t].
Sappiamo che X = {1, t, t1 , . . . , tn , . . .} `e un insieme generatore di K[t]. Verifichiamo
che `e anche linearmente indipendente. Basta dimostrare che ogni combinazione
lineare finita di vettori di X (linsieme X `e infinito) si annulla solo quando tutti i
coefficienti sono 0. Sia Y X, con |Y| < . Allora esiste un massimo intero m N
tale che tm Y. Consideriamo la combinazione di elementi di Y
a0 tm + a1 tm1 + + am1 t + am = 0.

(3.3.11)

Luguaglianza (3.3.11) `e vera se e solo se il polinomio al primo membro `e il polinomio


nullo, per il principio di identit`a dei polinomi. Questo accade se e solo se ai = 0
per ogni i = 1, . . . , m. Quindi Y `e indipendente, e questo discorso `e valido per ogni
sottoinsieme finito di X. Cio`e X stesso `e indipendente e quindi `e una base di K[t].
Anche in questo caso possiamo associare ad ogni elemento di X un vettore della base

3.3 GENERATORI

75

canonica di un Kn . Per semplificare le notazioni possiamo limitarci ad analizzare lo


spazio Kn [t] dei polinomi di grado massimo n, invece di K[t]. Nel primo
caso infatti

abbiamo una base simile a quella del caso generale, ma finita: 1, t, t2 , . . . , tn .


Considerando come ordinamento le potenze decrescenti di t, al vettore p(t) = t5 , ad
esempio in K7 [t], ossia al polinomio p(t) = 0t7 + 0t6 + 1t5 + 0t4 + 0t3 + 0t2 + 0t + 0 1
possiamo associare il vettore di K8 dato da e6 = [0, 0, 0, 0, 0, 1, 0, 0]t .
4. Sia V uno spazio vettoriale di dimensione finita n e B = {v1 , . . . , vr } (r < n), un
o sempre estendere B ad una base di V, cio`e
insieme indipendente. Allora si pu`
esistono n r vettori w1 , . . . , wnr tali che: B0 = {v1 , . . . , vr , w1 , . . . , wnr } sia una
base di V. In altre parole ogni insieme indipendente di uno spazio a dimensione
finita `e parte di una base.

3.3.3

Dimensione di uno spazio vettoriale

Il seguente teorema `e fondamentale per poter introdurre la nozione di dimensione di uno


spazio vettoriale finitamente generato.
Teorema 3.10. Tutte le basi di uno spazio vettoriale finitamente generato hanno la
a.
medesima cardinalit`
-Dimostrazione. Siano B1 e B2 due basi distinte di uno stesso spazio vettoriale V, e
supponiamo che esse siano costituite, rispettivamente, da n ed m vettori. Poiche B1 `e una
base di V, essa `e, in particolare un insieme generatore di V. Poiche B2 `e una base, essa
`e un insieme indipendente. Per il Teorema 3.7 abbiamo quindi m n. Ma, scambiando
i ruoli di B1 e di B2 , possiamo ora interpretare B2 come insieme generatore e B1 come
insieme indipendente, ed il Teorema 3.7 fornisce n m. Abbiamo pertanto n = m.

Il Teorema 3.10 permette di introdurre la nozione fondamentale di dimensione di uno


spazio vettoriale finitamente generato V. Presa una sua qualsiasi base B, se |B| = n si
dice che n `e la dimensione di V, e si scrive dim V = n. Questa definizione `e coerente, nel
senso che non dipende dalla scelta di una particolare base (che possono essere infinite).
Infatti tutte le basi di uno spazio vettoriale hanno la stessa cardinalit`a. Dal Teorema
3.10 ricaviamo anche che la dimensione di uno spazio vettoriale V rappresenta il massimo
numero di vettori linearmente indipendenti che si possono estrarre da V.
Consideriamo ora uno spazio vettoriale V di dimensione n, ed una sua base B =
{v1 , . . . , vn }. Per quanto abbiamo visto (cfr. Teorema 3.9), un vettore w V si rappresenta in modo unico come combinazione lineare dei vettori della base, ossia esiste ununica
n-pla (a1 , . . . , an ) di scalari di K tale che
w=

n
X

ai vi .

i=1

Gli elementi dell n-pla (a1 , . . . , an ) si dicono coordinate del vettore w rispetto alla base B.
Classificazione dei sottospazi di Rn
Nello studio degli spazi vettoriali un ruolo fondamentale `e giocato dallo spazio vettoriale
canonico Rn (cfr. Paragrafo 3.1.5). Risulta quindi di particolare importanza cercare un

76

SPAZI VETTORIALI
metodo per distinguere un sottospazio da un semplice sottoinsieme di Rn . Per ottenere
questo cominciamo a considerare una matrice A Mm,n (R), e sia r la sua caratteristica.
Siano R e C, rispettivamente, gli spazi delle righe e delle colonne di A (cfr. Osservazione
4 a pag. 68). Abbiamo innanzitutto il seguente risultato.
Teorema 3.11. Data una matrice A Mm,n (R), di caratteristica r, risulta dim C = r.
-Dimostrazione. Consideriamo il sistema omogeneo Ax = 0, dove x = [x1 , ..., xn ]t .
Indichiamo con c1 , ..., cn i vettori corrispondenti alle colonne di A. Il sistema omogeneo
pu`o allora essere scritto nella maniera seguente
x1 c1 + ... + xn cn = 0.
Pertanto, una n-pla non nulla x = [x1 , ..., xn ]t `e soluzione se e solo se `e costituita dai
coefficienti che permettono di uguagliare a zero una combinazione lineare non banale
di colonne di A. Questo equivale a dire che ogni soluzione fondamentale del sistema
omogeneo Ax = 0 corrisponde ad una relazione di dipendenza lineare tra le colonne di
A. Per il Teorema di Rouche-Capelli, il sistema Ax = 0 ammette nr soluzioni, cio`e
infinite soluzioni dipendenti da n r parametri, e quindi n r soluzioni fondamentali.
Pertanto esistono esattamente n r relazioni di dipendenza lineare tra le colonne di A, e,
di conseguenza dim C = n (n r) = r.

Sfruttando il Teorema 3.11 otteniamo il seguente risultato, che fornisce un legame


dimensionale tra gli spazi delle righe e delle colonne di una data matrice.
Teorema 3.12. Data una matrice A Mm,n (R), risulta dim R = dim C.
-Dimostrazione. Sia r la caratteristica di A. Indichiamo con r1 , ..., rm i vettori corrispondenti alle righe della matrice, e supponiamo che sia dim R = h. Se h = 0 allora tutte
le righe di A sono nulle, quindi anche tutte le colonne sono nulle e pertanto r = 0. Dal
Teorema 3.11 ricaviamo che dim C = 0, e quindi, in questo caso, risulta immediatamente
dim R = dim C.
Supponiamo allora che sia h > 0. Riordiniamo le righe di A in maniera che quelle
linearmente indipendenti siano le prime h (ci`o ovviamente non altera dim R). Per h + 1
i m, la riga i-ma di A `e quindi combinazione lineare delle prime h righe, cio`e, esistono
1 , ..., h R tali che ri = 1 r1 + ... + h rh . Ogni elemento della riga ri si ottiene quindi
come combinazione lineare degli elementi che occupano la sua stessa posizione sulle righe
r1 , ..., rh . Indicando con aik lelemento di ri appartenente alla colonna k di A, si ottengono
allora le seguenti n uguaglianze
ai1 = 1 a11 + ... + h ah1
ai2 = 1 a12 + ... + h ah2
...

(3.3.12)

...
ain = 1 a1n + ... + h ahn .
Sia ora A0 la matrice di tipo (h, n) formata dalle prime h righe di A, e siano c01 , ..., c0n le
sue colonne. Consideriamo il sistema omogeneo A0 x = 0. Esso ammette ns soluzioni,

3.3 GENERATORI

77

essendo s h la caratteristica della matrice A0 . Se x = [x1 , ..., xn ]t `e una soluzione di


questo sistema abbiamo
x1 c01 + ... + xn c0n = 0,
cio`e, essendo le righe di A0 le prime h righe di A

a11
a1n
a2n
a21

x1 . + ... + xn .
..
..
ah1

ahn

0
0
..
.

(3.3.13)

Calcoliamo ora la somma ai1 x1 + ... + ain xn , per h + 1 i m. Sostituendo le relazioni


(3.3.12) ed utilizzando le (3.3.13) si ricava che
ai1 x1 + ... + ain xn = (1 a11 + ... + h ah1 )x1 + ... + (1 a1n + ... + h ahn )xn =
= 1 (a11 x1 + ... + a1n xn ) + ... + h (ah1 x1 + ... + ahn xn ) = 0 + ... + 0 = 0,
per ogni i, h + 1 i m. Quindi abbiamo

ah+11
ah+1n
ah+21
ah+2n

x1
+ ... + xn
..
..

.
.
am1
amn

0
0
..
.

(3.3.14)

Le uguaglianze (3.3.13) e (3.3.14) mettono in evidenza che la n-pla x = [x1 , ..., xn ]t `e anche
soluzione del sistema Ax = 0.
Al contrario, `e chiaro che ogni soluzione del sistema Ax = 0 `e anche soluzione del sistema
A0 x = 0. Quindi, i sistemi Ax = 0 ed A0 x = 0 sono equivalenti, e, poiche il sistema
Ax = 0 ammette nr soluzioni, deve essere r = s h. Per il Teorema 3.11 abbiamo
r = dim C, e quindi dim C h = dim R.
Consideriamo ora la matrice At , e ripetiamo il ragionamento precedente scambiando
le colonne con le righe. Otteniamo pertanto che dim R dim C. Le due disuguaglianze
ottenute forniscono quindi dim R = dim C.

I due teoremi precedenti possono essere riassunti nel seguente risultato.


Teorema 3.13. Data una matrice A Mm,n (R), di caratteristica r, risulta
dim R = dim C = r.
-Dimostrazione. Dal Teorema 3.11 abbiamo dim C = r, mentre, per il Teorema 3.12,
risulta dim R = dim C, il che implica dim R = dim C = r.

Dimostriamo ora il seguente teorema di classificazione.


Teorema 3.14. Sia W un sottoinsieme di Rn . Allora W `e un sottospazio proprio di Rn
di dimensione k (1 k n 1) se e solo se pu`
o essere rappresentato come linsieme delle
soluzioni di un opportuno sistema lineare omogeneo di n k equazioni in n incognite.

78

SPAZI VETTORIALI
-Dimostrazione. Supponiamo innanzitutto che W sia un sottospazio proprio di Rn
di dimensione k. Sia B = {v1 , ..., vk } una base di W. Sia u = [x1 , x2 , ..., xn ]t un generico
vettore di Rn e consideriamo la matrice A, di tipo (n, k + 1) avente come colonne i vettori
v1 , .., vk , u. Allora u W se e solo se la caratteristica di A `e k. Possiamo sempre supporre
che il minore M formato dalle prime k righe abbia determinante non nullo. Ogni orlato
di M in A si ottiene utilizzando u ed una delle n k restanti righe. In A ci sono quindi
n k possibili orlati di M , ed ognuno di essi deve avere determinante nullo, altrimenti
la caratteristica di A sarebbe k + 1. Si ottiene pertanto un sistema omogeneo di n k
equazioni nelle n incognite x1 , x2 , ..., xn . La condizione u W equivale pertanto a dire
che le coordinate x1 , x2 , ..., xn di u devono risolvere questo sistema omogeneo, cio`e W `e
linsieme delle soluzioni del sistema omogeneo ottenuto.
Supponiamo ora che W sia linsieme delle n-ple che risolvono un sistema lineare omogeneo di n k equazioni in n incognite. Possiamo sempre rappresentare il sistema nella
forma Ax = 0, dove la matrice A dei coefficienti ha caratteristica n k. Siano x1 , x2 due
n-ple soluzioni di Ax = 0. Allora, per ogni a, b R, abbiamo
A(ax1 + bx2 ) = A(ax1 ) + A(bx2 ) = aAx1 + bAx2 = a0 + b0 = 0,
e quindi anche ax1 + bx2 `e una n-pla soluzione. Linsieme W `e pertanto chiuso rispetto
ad ogni possibile combinazione lineare di suoi elementi, per cui `e un sottospazio vettoriale
di Rn . La generica soluzione del sistema dipende da k parametri (le incognite secondarie), cio`e si ottiene mediante la combinazione lineare di k soluzioni fondamentali, tra loro
indipendenti. Le soluzioni fondamentali formano quindi una base di W, che ha pertanto
dimensione uguale a k.

Osservazioni ed esempi.
1. Sappiamo che X = {1, t, t2 , . . . , tn } genera lo spazio vettoriale Kn [t]. Inoltre, X `e
anche indipendente, cio`e `e una base. Consideriamo infatti la seguente uguaglianza
di polinomi:
a0 tn + a1 tn1 + + an1 t + an = 0, con ai K, i = 0, . . . , n.
Per il principio di identit`a dei polinomi, due polinomi coincidono se e solo se hanno
coincidenti tutti i coefficienti delle rispettive potenze di t. Quindi luguaglianza col
polinomio nullo 0 significa che ai = 0 i = 0, . . . , n, cio`e X `e indipendente. Allora
dim Kn [t] = |X| = n + 1.
2. Proviamo a determinare la dimensione dello spazio Mm,n (K). Abbiamo visto che
linsieme X = {Eij }i=1,...,m delle matrici elementari `e un insieme generatore di
j=1,...,n

Mm,n (K) indipendente, ovvero `e una base.


Siccome |X| = mn, otteniamo dim Mm,n (K) = mn. Per esempio, la dimensione di
M2,3 (R) `e uguale a 6.
3. Il campo C `e spazio vettoriale sul campo R. Linsieme B = {1, i} `e una base di
C, che quindi ha dimensione 2 su R. Intanto B `e un insieme generatore. Infatti, se
z C, allora z = a + ib = a 1 + b i a, b R, quindi C = hBi. Inoltre B `e un insieme

3.3 GENERATORI

79

indipendente. Infatti la combinazione lineare z = a + ib `e nulla, cio`e a + ib = 0 se e


solo se a = b = 0. Quindi B `e una base.
4. In genere, se non si dice nulla, la base considerata `e sempre quella rappresentabile
con i vettori della base canonica di Kn .
5. Consideriamo il polinomio p(t) = 3t5 2t3 + t2 1, e la base C = {1, t, t2 , t3 , t4 , t5 }.
Ordinando secondo le potenze decrescenti di t, associamo a p(t) il vettore di K6 dato
da vp = [3, 0, 2, 1, 0, 1]t .
6. Un insieme indipendente `e costituito da vettori linearmente indipendenti. Il numero
massimo di vettori linearmente indipendenti di uno spazio vettoriale `e indicato dalla
sua dimensione, ovvero dal numero di vettori che compongono una sua base. Se
dim V = n, la cardinalit`a di un suo insieme indipendente oscilla tra 0 ed n (linsieme
vuoto ha cardinalit`a 0 ed `e considerato indipendente), cio`e: 0 |X| n. Quindi
ogni insieme X V con |X| > n `e dipendente.
7. Linsieme delle matrici simmetriche di ordine 2 `e uno spazio vettoriale (cfr. Esempio
2 a pagina 65). Studiamo la sua dimensione. Una matrice A Mn (K) `e simmetrica
se e solo se A = At , ovvero se A = [aij ] con aij = aji per ogni i, j = 1, . . . , n. Nel
nostro caso, quindi, le matrici simmetriche sono tutte e sole le matrici del tipo:

a b
,
b c
con a, b, c K. Dipendono cio`e da tre parametri. La dimensione dello spazio `e
quindi 3.
8. Consideriamo il seguente sistema lineare:

x y + 3z 4t = 0
x + y + 2z 3t = 0.

La matrice dei coefficienti `e:

A=

1 1 3 4
1 1 2 3

Il minore formato dalle prime due righe e dalle prime due colonne `e non nullo, quindi
il sistema ammette nr = 42 = 2 soluzioni.
Abbiamo quindi un sistema di due equazioni essenziali in quattro incognite, per cui,
in base al Teorema 3.14, a tale sistema lineare `e associato un sottospazio W di R4
di dimensione 2. Per ottenere W bisogna risolvere il sistema. Isoliamo innanzitutto
i parametri (incognite secondarie)

x y = 3z + 4t
x + y = 2z + 3t.

da cui si ottiene

x = 5z7t
2
y = zt
2 .

Osserviamo che la generica soluzione pu`o essere scritta nella maniera seguente

80

SPAZI VETTORIALI

5z7t
2
zt
2

z
t

27

1
1
= z 2 + t 2 .

1
0
0
1
25

Ci`o mostra come ottenere la generica soluzione mediante combinazione lineare delle
soluzioni fondamentali. Esse vengono ricavate assegnando alla coppia di parametri
(z, t) i valori (1, 0) e (0, 1) rispettivamente. Lo spazio W delle soluzioni pu`
o pertanto
essere indicato nella maniera seguente
5
* 2
1
2
W=
1
0

27 +
1
, 2 .
0
1

9. Consideriamo il vettore v R2 dato da



1
v=
,
2
e sia W = hvi il sottospazio di R2 , di dimensione k = 1, generato da v. Il Teorema
3.14 assicura che W pu`o essere descritto come linsieme delle soluzioni di un sistema
omogeneo. Poiche dim W = k = 1, in questo caso il sistema associato al sottospazio
W si riduce ad una sola equazione. Questa si ottiene prendendo il generico vettore
u R2 ed imponendo che la caratteristica della matrice A avente come colonne v e
u sia uguale ad 1. In questo caso la matrice A `e quadrata e si ha

A=

1 x
2 y

Quindi la caratteristica di A `e 1 se e solo se det(A) = 0, cio`e se e solo se y 2x = 0.


Questa rappresenta lequazione del sottospazio W generato dal vettore v.
10. Oltre ai sottospazi propri, classificati dal Teorema 3.14, dobbiamo aggiungere i
sottospazi impropri di Rn , rappresentati da {0} ed Rn rispettivamente.

3.4

OPERAZIONI TRA SOTTOSPAZI

Lavorando con sottospazi diversi di uno stesso spazio vettoriale, si presenta il problema di
stabilire operazioni che conservino la struttura. Vediamone alcune.

3.4 OPERAZIONI TRA SOTTOSPAZI

3.4.1

81

Intersezione di sottospazi

Lintersezione insiemistica di due o pi`


u sottospazi vettoriali `e uno spazio vettoriale. Ci`o
`e una conseguenza del fatto che lintersezione di sottostrutture algebriche `e ancora una
sottostruttura dello stesso tipo. Consideriamo solo il caso di intersezioni finite. Sia V uno
spazio vettoriale e siano W1 , . . . , Wn suoi sottospazi. Studiamo linsieme
H=

n
\

Wi .

i=1

Dimostriamo che H `e sottospazio usando il Teorema 3.1. Dobbiamo verificare che, per
ogni a, b K e per ogni u, v H, si ha au + bv H. Se u, v H significa che u, v Wi
per ogni i = 1, . . . , n. Ma i Wi sono sottospazi, quindi au + bv Wi per ogni i = 1, . . . , n,
cio`e
n
\
au + bv
Wi = H.
i=1

3.4.2

Unione di sottospazi

Unanaloga propriet`a non vale, invece, per lunione insiemistica di due sottospazi. Infatti,
se U e W sono sottospazi di V, U W `e un sottoinsieme di V. Affinche sia anche un
sottospazio devono essere soddisfatte le ipotesi del Teorema 3.1. Nulla ci garantisce che
queste siano vere. Per esempio, supponiamo che u, w U W e u e w appartengono
entrambi a U. Essendo questultimo un sottospazio, anche au + bw appartiene a U, e
quindi allunione U W. Ma se u U e w W non `e detto che au + bw U W. Per
esempio, consideriamo i seguenti sottospazi di R3 :
U = {[0, a, b]t R3 }
W = {[x, y, 0]t R3 }.
Allora, se b 6= 0 e x 6= 0, abbiamo che u = [0, a, b]t U, w = [x, y, 0]t W, ma
u + w = [x, a + y, b]t 6 U, u + w 6 W, quindi u + w 6 U W. In casi particolari la
propriet`a pu`o essere vera. Per esempio, se U W, allora U W = W V.

3.4.3

Somma di sottospazi

Consideriamo ora la somma fra sottospazi. Se U, W V, per definizione,


U + W = {u + w| u U, w W},
cio`e la somma di sottospazi, `e linsieme di tutte le somme di vettori che appartengono ai
due addendi.
Anche U + W `e un sottospazio di V. Infatti, siano u, w U + W e a, b K. Allora
au + bw U + W. Infatti, per definizione di somma di sottospazi, esistono u0 , u00 U e
w0 , w00 W tali che u = u0 + w0 e w = u00 + w00 . Allora
au + bw = a(u0 + w0 ) + b(u00 + w00 ) = (au0 + bu00 ) + (aw0 + bw00 ) = u + w U + W,
che `e condizione sufficiente affinche un sottoinsieme sia sottospazio (cfr. Teorema 3.1).

82

SPAZI VETTORIALI
Il concetto di somma di sottospazi `e connesso con quello di chiusura lineare. Infatti,
la somma di sottospazi coincide con la chiusura lineare della loro unione.
Se U e W sono sottospazi dello spazio V, la loro somma U+W viene chiamata somma
diretta, e indicata con U W, se e solo se U W = {0}.
I sottospazi U e W sono chiamati sommandi diretti.
La caratterizzazione delle somme dirette `e determinata dal seguente Teorema:
Teorema 3.15. Condizione necessaria e sufficiente affinche V = U W `e che ogni
vettore di V si scriva in modo unico come somma di un vettore di U e uno di W, ossia,
per ogni v V esistono e sono unici due vettori u U e w W tali che v = u + w.

Osservazioni ed esempi.
1. Siano U e W sottospazi di V. Se U W, allora abbiamo anche che U W. Infatti
W `e uno spazio vettoriale essendo sottospazio di V, e U `e un suo sottoinsieme che
`e spazio vettoriale rispetto alle stesse operazioni di somma e prodotto per scalari.
2. Se U e W sono sottospazi di V, sappiamo che U, W U + W e U, W U W.
Supponiamo che sia U W. Allora risulta
U+W =W

(3.4.1)

U W = U.

(3.4.2)

Entrambe le uguaglianze precedenti sono conseguenza del fatto che, in quanto insiemi, U W. Allora, essendo U+W = L(UW), abbiamo UW = W L(W) = W,
ovvero la (3.4.1). La propriet`a (3.4.2) `e una propriet`a ben nota dellintersezione.
3. Consideriamo lo spazio vettoriale V, e sia X W V. Esaminiamo la relazione che
intercorre tra L(X) e W. In genere, L(X) W. Per definizione, L(X) `e linsieme di
tutte le combinazioni lineari, a coefficienti in K, di vettori di X. Se v1 , . . . , vn sono
n vettori di X e a1 , . . . , an sono scalari: a1 v1 + + an vn W, in quanto vi W e
W `e linearmente chiuso (`e un sottospazio). Allora W contiene tutte le combinazioni
lineari di vettori di X, cio`e L(X) W. Pu`o capitare, ovviamente, che L(X) = W.
Ad esempio, quando X genera W. In genere, per`o, L(X) rappresenta il pi`
u piccolo
sottospazio di W contenente linsieme X, quindi `e un sottospazio proprio di W.
Ricordiamo che lintersezione di sottospazi `e ancoraTun sottospazio. Abbiamo appena
visto che L(X) W se X W. Quindi L(X) = {W| W V, X W}, ovvero
L(X) si ottiene come intersezione di tutti i sottospazi di V contenenti linsieme X.
4. Sia V uno spazio vettoriale e X V. Verifichiamo che
\
L(X) =
{W| W V, X W} .
Per definizione, L(X) `e linsieme di tutte le combinazioni lineari di vettori di X a
coefficienti in K. Siccome un sottospazio W di V `e linearmente chiuso, se X W
tutte le combinazioni lineari di vettori di X appartengono a W, cio`e L(X) W,

3.4 OPERAZIONI TRA SOTTOSPAZI

83

anzi `e L(X) W. Infatti se u, w L(X), allora u, w sono entrambi combinazioni


di vettori di X, e quindi anche au + bw (per ogni a, b K), che di conseguenza
appartiene a L(X). Ma questa `e una condizione sufficiente per essere sottospazio.
Allora
\
L(X) {W| W V, X W}.
(3.4.3)
T
Non pu`o esistere un vettore v tale che v 6 L(X) e v {W| W V, X
W}. Infatti anche L(X) `e un sottospazio contenente X, quindiTpartecipa a formare
lintersezione al secondo membro della (3.4.3). Perci`
o L(X) = {W| W V, X
W}.
5. Consideriamo, in R3 , i vettori u = [1, 0, 0]t e v = [0, 1, 0]t . Essi generano due
sottospazi U = hui , V = hvi rappresentati, rispettivamente, dallasse x e y. Quindi
U W = {0}. La loro somma `e diretta e U W `e il piano coordinato xy.
`
6. Si noti che la somma diretta non `e un nuovo tipo di operazione introdotta in V. E
sempre la solita somma di sottospazi, e diventa diretta in presenza di propriet`a che
riguardano esclusivamente gli addendi. Ovvero la propriet`
a di essere disgiunti come
sottospazi: U W = {0}.

3.4.4

La Formula di Grassmann

Nello studio della dimensione di sottospazi `e fondamentale luso della Formula di Grassmann. Permette di confrontare le dimensioni di due sottospazi con quella della loro somma
ed intersezione. Se U e W sono sottospazi di V, la Formula di Grassmann `e espressa dalla
seguente uguaglianza
dim U + dim W = dim(U + W) + dim(U W)

(3.4.4)

La (3.4.4) `e particolarmente utile per decidere se una data somma di sottospazi `e


diretta o meno. Conoscendo la dimensione di U + W e quelle degli spazi addendi U e W,
possiamo conoscere la dimensione dellintersezione:
dim(U W) = dim U + dim W dim(U + W).

(3.4.5)

Una somma `e diretta se e solo se U W = {0}. Questo implica, alla luce della (3.4.5),
che una somma `e diretta se e solo se la dimensione dello spazio somma `e la somma delle
dimensioni degli spazi addendi
Osservazioni ed esempi.
1. Discutiamo UW, sapendo che dim U = 4, dim W = 5 e che U e V sono sottospazi
di R7 . Sappiamo che U W `e un sottospazio di V, anzi U W U e U W W.
Quindi la dimensione di U W non pu`
o superare la minima delle dimensioni di
U e W, cio`e dim(U W) min{dim U, dim W}. Pertanto, dim(U W) 4. Il
valore minimo che pu`o assumere dim(U W) lo ricaviamo esaminando la Formula
di Grassmann. Da
dim U + dim W = dim(U + W) + dim(U W)

84

SPAZI VETTORIALI
otteniamo:
dim(U + W) = dim U + dim W dim(U W) =
= 4 + 5 dim(U W) = 9 dim(U W).

(3.4.6)

Ora, U + W `e un sottospazio di R7 , quindi la sua dimensione deve essere 7.


La (3.4.6) ha senso solo per dim(U W) 2. Concludendo, i possibili valori di
dim(U W) sono 2, 3 e 4.
2. Siano U e W due sottospazi distinti di dimensione 4 di uno spazio vettoriale V
avente dimensione 6. Discutiamo dim(U + W) e dim(U W). Anche in questo
lanalisi si basa sulla Formula di Grassmann:
dim(U W) + dim(U + W) = dim U + dim W.

(3.4.7)

Siccome U e W sono distinti, dim(U W) < 4. Infatti il valore 4 pu`o essere


raggiunto solo se U = W. La somma U + W `e un sottospazio (proprio o improprio)
di V, quindi dim(U + W) 6. Mettendo assieme questi due risultati, dalla (3.4.7)
abbiamo
6 dim(U + W) = dim U + dim W dim(U W) = 8 dim(U W),
ovvero dim(U W) 2. Concludendo, o dim(U W) = 2 e dim(U + W) = 6,
oppure dim(U W) = 3 e dim(U + W) = 5.

3.5

ESERCIZI

3.5.1. Verificare che linsieme W delle funzioni reali di variabile reale limitate `e un
sottospazio dello spazio V delle funzioni reali di variabile reale.
3.5.2. Dimostrare che linsieme WT = {A Mn (K)| AT = T A}, delle matrici quadrate
dordine n che commutano con una matrice data, `e sottospazio di Mn (K).
3.5.3. Dimostrare che linsieme Kn [t] dei polinomi di grado r n `e un sottospazio di K[t].
3.5.4. Dimostrare che linsieme Dn delle matrici diagonali di ordine n `e un sottospazio
di Mn (K).
3.5.5. Dimostrare che gli insiemi Tn e Tn delle matrici triangolari superiori ed inferiori
sono sottospazi di Mn (K).
3.5.6. Dimostrare che linsieme delle matrici antisimmetriche `e un sottospazio di Mn (K).
3.5.7. Si consideri lo spazio vettoriale R3 e il suo sottoinsieme W = {(x, y, z)| x 0}.
Stabilire se W `e un sottospazio di R3 .

3.5.8. Stabilire se linsieme S = [a, b, c, d]t R4 | 2a2 + b2 + c2 + d2 = 1 `e un sottospazio di R4 .

3.5 ESERCIZI

85

3.5.9. Verificare se linsieme

V=

a b
a, b R
b a

`e un sottospazio di M2 (R).
3.5.10. Verificare direttamente (senza usare il Teorema 3.14) che le rette di equazione
y = mx, m R sono sottospazi di R2 .
3.5.11. Sia V lo spazio vettoriale delle funzioni reali di variabile reale e W il suo sottoinsieme delle funzioni dispari. Dimostrare che W `e sottospazio di V.
3.5.12. Dimostrare che linsieme V dei polinomi a coefficienti reali con esponenti pari `e
un sottospazio di R[t].
3.5.13. Verificare se linsieme Rn [t] dei polinomi a coefficienti reali di grado massimo n
`e un sottospazio di R[t].
3.5.14. Stabilire se linsieme V dei polinomi a coefficienti reali di grado n `e sottospazio
di R[t].
3.5.15. Dimostrare il Teorema 3.15.
3.5.16. Indicato con V lo spazio vettoriale delle funzioni reali di variabile reale, verificare
che V = P D, dove P e D indicano, rispettivamente, il sottospazio delle funzioni pari
e quello delle funzioni dispari.

3.5.17. Nello spazio R3 , si determinino i vettori di X = UV, dove U = [1, 1, 0]t , [2, 1, 1]t

e V = [1, 2, 7]t , [1, 1, 6]t , [1, 4, 1]t .


3.5.18. Nello spazio R3 , determinare quali tra i vettori generati da w1 = [1, 0, 2]t e w2 =
[0, 1, 0]t appartengono anche a W = U V, dove U = u1 = [1, 1, 0]t , u2 = [2, 1, 1]t e

V = v1 = [1, 2, 7]t , v2 = [1, 1, 6]t , v3 = [1, 4, 1]t .


3.5.19. Si determini il valore del parametro reale k affinche i vettori v1 = [0, 1, 1, 2]t ,
v2 = [1, 0, 1, 2]t e v3 = [1, 2, k, k + 1]t di R4 siano linearmente indipendenti.
3.5.20. Si considerino le matrici

h 0
h 3h
1 2
, B=
, C=
,
A=
2 1
1 h
0 1
dipendenti dal parametro reale h.
linearmente dipendenti.

Stabilire per quali valori di h le tre matrici sono

3.5.21. Determinare se esistono valori del parametro h R per cui i vettori v1 = [h, h2
1, 1 h2 ]t , v2 = [0, h + 1, 1]t e v3 = [0, 2, 1]t siano linearmente indipendenti.
3.5.22. Determinare per quali valori del parametro reale h i polinomi di R2 [t], P1 (t) = t2 ,
P2 (t) = ht 1 e P3 (t) = 2t2 + h 1 sono linearmente dipendenti.
3.5.23. Determinare i valori del parametro k R tali per cui i vettori v1 = [k1, 1, 1]t ,
v2 = [3, k, 3]t e v3 = [1, 1, 1]t di R3 sono linearmente dipendenti.

86

SPAZI VETTORIALI
3.5.24. Esprimere la matrice di M2 (R)

M=

1 2
0 3

come combinazione lineare delle matrici

1 0
0 1
1 1
A=
, B=
, C=
.
0 0
0 0
0 1
3.5.25. Stabilire se le matrici

1 1
2 1
3 1
A=
, B=
, C=
,
0 2
1 0
1 4
sono linearmente indipendenti.
3.5.26. Stabilire, al variare del parametro reale t, se il vettore v = [t, 3, 3]t `e combinazione
lineare dei vettori w1 = [1, 3, 0]t e w2 = [2, 2, 1]t
3.5.27. Stabilire se il seguente insieme di vettori di R3 `e indipendente:

0
2
1
X = 2 , 1 , 5 .

1
3
1

3.5.28. Determinare una base per V = (x, y, x + y, x y) R4 | x, y R .

3.5.29. Siano U = [x, y, z]t x + 2y z = 0 e V = [x, y, z]t = a [1, 0, 1]t + b [2, 1, 0]t
due sottospazi di R3 . Dopo aver determinato una base di U, individuare una base di UV.
3.5.30. In R4 , siano V = h[1, 1, 0, 1]t , [2, 0, 0, 1]t i e W = h[1, 1, 0, 0]t , [0, 0, 0, 1]t i. Determinare la dimensione e una base per V W.
3.5.31. Siano

V = v = [v1 , v2 , v3 , v4 ]t | v2 + v3 + v4 = 0 ,

W = w = [w1 , w2 , w3 , w4 ]t | w1 + w2 = 0, w3 = 2w4

due sottoinsiemi di R4 . Dimostrare che V e W sono sottospazi di R4 e determinarne


dimensione ed una base.
3.5.32. Sia U linsieme dei vettori u R3 tali che wt u = 0, con

1
w = 2 .
1
Dimostrare che U `e un sottospazio e determinarne la dimensione ed una base.
3.5.33. Determinare una base e la dimensione dello spazio U = hx, y, zi, con


1
0
1
1
2
2


x=
0 , y = 1 , z = 0 .
2
0
0

3.5 ESERCIZI

87

3.5.34. Determinare una base e la dimensione dello spazio U = hx, y, zi, con



1
2
1
x = 2 , y = 1 , z = 0 .
1
0
0
3.5.35. Nello spazio R4 , si considerino i sottospazi:
U: xz =y+t=0

(1);

V : x+t=yz =0

(2).

Determinare le dimensioni di U, V, U + V, stabilire se U + V `e una somma diretta,


trovarne una base e darne una rappresentazione.
3.5.36. In R4 si considerino i seguenti vettori
u = [1, 2, 0, 0]t ,

v = [0, 1, 1, 0]t ,

w = [0, 0, 2, 1]t

e gli spazi U = hui e V = hv, wi. Stabilire la dimensione di U V e determinare se


U + V `e somma diretta.
3.5.37. In R4 si considerino i vettori u1 = [1, 1, 3, 1]t , u2 = [1, 1, 1, 1]t , v1 = [1, 1, 1, 0]t ,
v2 = [1, 1, 1, 3]t e i sottospazi U = hu1 , u2 i e V = hv1 , v2 i. Determinare le dimensioni
di U e V e stabilire se la loro somma `e diretta.
3.5.38. Si consideri lo spazio R4 [t] dei polinomi di grado n 4 a coefficienti reali, e gli
insiemi U = {p(t) R4 [t] : p(1) = p(0) = p(1) = 0} e V = {q(t) R4 [t] : q(0) = q(1) =
q(2) = 0}.
1. Dimostrare che U e V sono sottospazi di R4 [t].
2. Determinare la dimensione ed una base di U V .
3.5.39. Nello spazio canonico R4 si considerino i sottospazi U e W associati, rispettivamente, ai seguenti sistemi lineari

2x + y 5z 5t = 0
3x 2y + 3z 11t = 0
U

x 3y + 8z 6t = 0

x + y + 2z 5t = 0
x 2y z 2t = 0
W

2x + 5y + 7z 13t = 0.

Determinare la dimensione ed una base per gli spazi U e W.


3.5.40. Siano U e W i sottospazi di R4 definiti nellEsercizio 3.5.39. Determinare lo
spazio U W, e dedurre la dimensione di U + W.

88

SPAZI VETTORIALI

Capitolo 4

SOLUZIONI DEGLI ESERCIZI


4.1

ESERCIZI CAPITOLO 1 - SOLUZIONI

1.3.1 Sia M2 (Z2 ) linsieme delle matrici quadrate di ordine 2 aventi coefficienti nel campo
Z2 delle classi di resti modulo 2. Sia I linsieme formato dalle matrici A, B, C M2 (Z2 )
date da

A=

1 0
0 1

B=

1 1
1 0

C=

0 1
1 1

Verificare che il prodotto tra matrici `e una operazione interna allinsieme I.


Svolgimento.

Poiche i coefficienti sono in Z2 abbiamo

BC =

C B =

B2 =

C =

1 1
1 0

0 1
1 2
1 0

=
=
= A,
1 1
0 1
0 1

0 1
1 1

1 1
1 0
1 0

=
=
= A,
1 0
2 1
0 1

1 1
1 0

1 1
2 1
0 1

=
=
= C,
1 0
1 1
1 1

0 1
1 1

0 1
1 1
1 1

=
=
= B.
1 1
1 2
1 0

Pertanto, la tavola di composizione risulta

A
B
C

A
A
B
C

B
B
C
A

C
C
A
B

e quindi loperazione `e interna ad I.

1.3.2 Sia I linsieme di matrici considerato nellEsercizio ??. Stabilire se (I, ) `e un


monoide.

90

SOLUZIONI DEGLI ESERCIZI


Svolgimento. Verifichiamo lassociativit`
a delloperazione controllando lordine
delle parentesi su ogni possibile terna. Osserviamo innanzitutto che la tavola di composizione `e simmetrica, quindi `e commutativa. Questo consente di ridurre il numero di
verifiche alle seguenti
A (B C) = B C = A, (A B) C = B C = A,
B (C A) = B C = A, (B C) A = B C = A,
C (A B) = C B = A, (C A) B = C B = A.
Pertanto, `e associativa.
Inoltre, A `e lelemento neutro, e quindi (I, ) `e un monoide.

1.3.3 Sia I linsieme di matrici considerato nell Esercizio ??. Stabilire se (I, ) `e un
gruppo abeliano.
Svolgimento. Dallanalisi della tavola di composizione notiamo che linversa di
B `e C, e linversa di C `e B. Pertanto, ogni elemento ammette inverso, e quindi (I, ) `e un

gruppo. Poiche `e commutativa, (I, ) `e un gruppo abeliano.


1.3.4 Sia M2 (Z3 ) linsieme delle matrici quadrate di ordine 2 aventi coefficienti nel campo
Z3 delle classi di resti modulo 3. Sia I linsieme formato dalle matrici A, B, C M2 (Z3 )
date da

1 0
1 1
0 1
A=
, B=
, C=
.
0 1
1 0
1 1
Stabilire se (I, ) `e una struttura algebrica.
Svolgimento. Se i coefficienti delle matrici appartengono a Z3 , la legge di composizione non `e interna allinsieme I. Infatti, per esempio, B C `e la matrice seguente

1 2
,
0 1
la quale non appartiene allinsieme I. Quindi, in tale caso, (I, ) non pu`o essere una
struttura algebrica.

4.1.1. Sia M(2,2) (Z3 ) linsieme delle matrici quadrate di ordine 2 ad elementi nellinsieme
Z3 delle classi di resti modulo 3, e sia + lusuale somma di matrici. Determinare il numero
di elementi di (M(2,2) (Z3 ), +).
Svolgimento. Ogni matrice appartenente ad M(2,2) (Z3 ) `e di tipo (2, 2), quindi dotata di 4 elementi. Ognuno di essi pu`o assumere, indipendentemente, i tre valori
[0], [1], [2], e quindi M(2,2) (Z3 ) possiede 34 = 81 matrici distinte.

1.3.5 Sia M(2,2) (Z3 ) linsieme delle matrici quadrate di ordine 2 ad elementi nellinsieme
Z3 delle classi di resti modulo 3, e sia + lusuale somma di matrici. Determinare il numero
di elementi di (M(2,2) (Z3 ), +).
Svolgimento. Ogni matrice appartenente ad M(2,2) (Z3 ) `e di tipo (2, 2), quindi dotata di 4 elementi. Ognuno di essi pu`o assumere, indipendentemente, i tre valori
[0], [1], [2], e quindi M(2,2) (Z3 ) possiede 34 = 81 matrici distinte.

2 1
1.3.6 Determinare in (M(2,2) (Z3 ), +) linverso di
1 0

4.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

91

Svolgimento.

In (M(2,2) (Z3 ), +), linversa della matrice

2 1
1 0

`e una matrice

che sommata a questa fornisce la matrice nulla. Quindi sia ha

2 1
1 0

a b
c d

0 0
0 0

con a, b, c Z3 . Indicando con 0, 1, 2 i rappresentanti degli elementi di Z3 , abbiamo

2+a=0

1+b=0
1+c=0

0+d=0

a=1
b=2
c=2
d=0

a b
c d

1 2
2 0

1.3.7 Sia A la matrice di M(2,2) (Z3 ) data da

1 1
2 0

Calcolare A3 A2 .
Svolgimento.

Indicando con 0, 1, 2 i rappresentanti degli elementi di Z3 , abbia-

mo




1 1
1 1
1+2 1+0
0
=AA=

=
=
2
0
2
0
2
+
0
2
+
0



2
0 1
1 1
0+2 0+0
2
A3 = A2 A =

=
=
2
2
2
0
2
+
1
2
+
0
0




2
0
0
1
2

0
0

1
2
A3 A2 =

=
=
0 2
2 2
02 22
2
A2

1
2
0
2

1
2 2
=
.
0
1 0

1.3.8 Sia M(3,3) (Z2 ) linsieme delle matrici quadrate di ordine 3 ad elementi nellinsieme
Z2 delle classi di resti modulo 2. Determinare il numero di elementi di M(3,3) (Z2 ).
Svolgimento. Ogni matrice appartenente ad M(3,3) (Z2 ) `e di tipo (3, 3), quindi
dotata di 9 elementi. Ognuno di essi pu`o assumere, indipendentemente, i due valori [0], [1],
e quindi M(3,3) (Z2 ) possiede 29 = 512 matrici distinte.

1 0 1
1.3.9 Sia lusuale prodotto di matrici in M(3,3) (Z2 ). Verificare che la matrice 1 1 1
0 0 1
`e invertibile in (M(3,3) (Z2 ), ), e scrivere la matrice inversa.

1 0 1
Svolgimento. In (M(3,3) (Z2 ), ), la matrice 1 1 1 ammette inversa, in
0 0 1
quanto il suo determinante `e non nullo, e precisamente vale 1, come si calcola facilmente.

92

SOLUZIONI DEGLI ESERCIZI


Per calcolare la matrice inversa dobbiamo innanzitutto determinare i complementi algebrici
degli elementi

1 1
1 1
1+2
= 1, () A12 =

() A11 = +
0 1 = 1 1(poiche 1 = 1 in Z2 ),
0 1

1 1
0 1
1+3
2+1

= 0,

() A13 = +
= 0,
() A21 =
0 0
0 1

1 0
1 1
2+3
2+2

= 0,

= 1,
() A23 =
() A22 = +
0 1
0 0

0 1
1 1
3+2
3+1

= 0,
() A31 = +
= 1, 1(poiche 1 = 1 in Z2 ) () A32 =
1 1
1 1

1 0
3+3
= 1.

() A33 = +
1 1
1+1

Laggiunta della matrice data `e dunque

A11 A12 A13


1 0 1
A21 A22 A23 = 1 1 0 ,
A31 A32 A33
0 0 1
e coincide con linversa, essendo 1 il determinante della matrice iniziale.
1.3.10 Sia A la matrice di M(3,3) (Z2 ) data da

1 1 1
0 0 1 .
1 0 1

Indicata con I la matrice identica di ordine 3, calcolare il determinante della matrice


M = (A I)1000 .
Svolgimento.

Indicando

1 1

AI = 0 0
1 0

con 0, 1 i rappresentanti degli elementi di Z2 , abbiamo



1
1 0 0
0 1 1
1 0 1 0 = 0 1 1
1
0 0 1
1 0 0

e det(A I) = 0, da cui, applicando il teorema di Binet, risulta


det M = det(A I)1000 = (det(A I))1000 = 01000 = 0.


, 3 sin k
,
1.3.11 Sia I linsieme dei punti del piano xy aventi coordinate 3 cos k

3
3
essendo

k un
intero relativo.
Considerati due punti qualsiasi P 3 cos a 3 , 3 sin a 3 e

Q 3 cos b 3 , 3 sin b 3 di I, sia loperazione interna ad I data da

, 3 sin (a + b)
.
P Q = 3 cos (a + b)
3
3

4.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

93

1. Dimostrare che `e associativa.


2. Dimostrare che esiste lelemento neutro.


3. Dimostrare che il punto A 32 , 3 2 3 I, e stabilire se esso ammette inverso in I.
Svolgimento.




1.
Consideriamo
punti P 3 cos a 3 , 3 sin a 3 , Q 3 cos b 3 , 3 sin b 3 ed


tre
R 3 cos c 3 , 3 sin c 3 , appartenenti allinsieme I. Dalla definizione di risulta

(P Q) R = 3 cos (a + b) 3 , 3 sin (a + b) 3 R =

= 3 cos [(a + b) + c] 3 , 3 sin [(a + b) + c] 3 =

= 3 cos [a + (b + c)] 3 , 3 sin [a + (b + c)] 3 = P (Q R).


Pertanto loperazione `e associativa.
2. Lelemento
neutro,
un punto U I tale che P U = U P = P per ogni
`e

se esiste,
P I. Sia P 3 cos k 3 , 3 sin k 3 un generico punto di I ed U 3 cos u 3 , 3 sin u 3 .
Dalla definizione di abbiamo


P U = U P = 3 cos (a + u)
, 3 sin (a + u)
.
3
3
Affinche ci`o sia uguale a P si deve avere

3 cos (a
+ u) 3 = 3 cos a 3
3 sin (a + u) 3 = 3 sin a 3
Le due equazioni risultano entrambe soddisfatte se prendiamo u = 0, e quindi U `e il punto
di coordinate (3, 0) `e lelemento neutro rispetto alloperazione .

3
1
2
3. Per k = 2 abbiamo cos 2
3 = 2 , sin
3 =
2 . Pertanto,

il punto A appartiene

1
ad I, e si ottiene per k = 2. Il punto A
3 cos h 3 , 3 sin h 3 `e tale che A A1 =
1
A A = U . Deve quindi essere


A A1 = A1 A = 3 cos (2 + h)
, 3 sin k(2 + h)
= (3, 0).
3
3
Di conseguenza abbiamo

3 cos (2
+ h) 3 = 3
3 sin k(2 + h) 3 = 0.

Entrambe le equazioni risultano verificate se prendiamo h = 2, e quindi




3 3
3 cos 2
, 3 sin 2
= 3 cos 2
, 3 sin 2
= ,
3 .
3
3
3
3
2 2

Il punto A1 assume quindi le coordinate determinate.

1.3.12 Sia Z18 linsieme delle classi di resti modulo 18, e sia la consueta operazione di
prodotto tra classi.

94

SOLUZIONI DEGLI ESERCIZI


1. Determinare linsieme I degli elementi invertibili di Z18 .
2. Dimostrare che (I, ) `e un gruppo abeliano.
3. Verificare che, in Z18 , lequazione 15x = 6 ammette tre soluzioni distinte, lequazione
7x = 17 ammette una ed una sola soluzione, lequazione 3x = 11 non ammette
soluzioni. Calcolare poi le soluzioni delle equazioni considerate, nei casi in cui queste
esistono.
Svolgimento.
1. Linsieme I degli elementi invertibili di Z18 `e rappresentato dalle soluzioni dellequazione modulare [a][x] = [1] (modulo 18), le quali esistono quando il massimo comune
divisore tra a e 18 `e uguale ad 1, cio`e se (a, 18) = 1. Abbiamo quindi a = 1, 5, 7, 11, 13, 17.
Di conseguenza risulta I = {[1], [5], [7], [11], [13], [17]}.
2. Se [a], [b] I, allora [a] [b] `e invertibile. Infatti, se ci`o non fosse, essendo [a] [b] =
[a b], dovrebbe risultare (a b, 18) 6= 1, cio`e dovrebbe esistere un fattore comune non
banale tra a b e 18. Ma questo `e impossibile, poiche un tale fattore dovrebbe dividere
necessariamente almeno uno dei numeri a, b, contro il fatto che entrambi siano primi con
18. Pertanto, il prodotto `e una operazione interna ad I. Inoltre il prodotto `e associativo e
` poi evidente, per definizione,
commutativo in I, possedendo tali propriet`a in tutto Z18 . E
che ogni elemento di I ammette inverso. Pertanto I `e un gruppo abeliano.
3. Nel primo caso abbiamo a = 15, b = 6, n = 18, per cui d = (15, 18) = 3. Poiche
d divide b, lequazione 15x = 6 ammette soluzione. Inoltre, essendo d = 3, abbiamo 3
soluzioni distinte.
Nel secondo caso abbiamo a = 7, b = 17 n = 18, per cui d = (7, 18) = 1. Quindi d|b
per cui lequazione 7x = 17 ammette soluzione, ed essendo d = 1, tale soluzione `e unica.
Nel terzo caso abbiamo a = 3, b = 11, n = 18, e quindi d = (3, 18) = 3 non divide 11.
Pertanto in questo caso non ci sono soluzioni.

1.3.13 Sia A Mn (K) una matrice involutoria, cio`e tale che A2 = A A = I


Calcolare A1.000.000.000 e A1.000.000.001 .
Svolgimento. Proviamo a calcolare qualche potenza di A. Abbiamo A2 = I,
A3 = A2 A = IA = A, A4 = A3 A = AA = A2 = I, A5 = A4 A = IA = A. Ciascuna delle
` facile dedurre che se A `e involutoria
precedenti uguaglianze deriva dalla precedente. E
ogni sua potenza pari deve coincidere con la matrice identica. Se riusciamo a dimostrare
formalmente questa propriet`a possiamo facilmente calcolare qualsiasi potenza di A. I calcoli precedenti suggeriscono di dimostrarla ricorrendo ad un procedimento per induzione.
Lobiettivo `e dunque quello di dimostrare che A2n = I per ogni n N, se A `e involutoria.
Dobbiamo verificare la validit`a della tesi per un intero n particolare, quindi dimostrare
che ogni volta che la tesi `e vera per un intero generico n, lo `e pure per il successivo n + 1.
Per definizione di matrice involutoria (A2 = I), la tesi `e certamente vera con n = 1. Supponiamo ora che sia vera per n, cio`e che A2n = I (ipotesi di induzione). Vediamo cosa
succede per n + 1. Abbiamo:
A2(n+1) = A2n+2 = A2n A2 .

(4.1.1)

Ma per lipotesi sullinvolutoriet`


a di A, abbiamo che A2 = I. Per lipotesi di induzione si
2n
ha A = I. Quindi la (4.1.1) diventa A2n A2 = I I = I. Tornando al nostro problema

4.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

95

iniziale, essendo 1.000.000.000 pari, otteniamo:


A1.000.000.000 = I,

A1.000.000.001 = A1.000.000.000 A = IA = A.

1.3.14 Verificare che per ogni matrice A Mn (K), la matrice A +

At

`e simmetrica.

Svolgimento. Una matrice M `e simmetrica se e solo se M = M t . Basta che


verifichiamo questa uguaglianza per la matrice A + At , ricordando che la trasposta di una
somma di matrici `e la somma delle matrici trasposte, e che la trasposizione `e unoperazione
involutoria (cio`e applicata due volte si annulla: (At )t = A). Allora:
(A + At )t = At + (At )t = At + A = A + At .
Quindi A + At `e sempre simmetrica, qualunque sia la matrice A.

1.3.15 Siano A, B Mn (K) matrici simmetriche. Verificare che anche la matrice A + B


`e a sua volta simmetrica.
Svolgimento. Se A e B sono simmetriche abbiamo A = At e B = B t . Basta
verificare unanaloga uguaglianza per la matrice A + B. Possiamo procedere in due modi.
Sfruttando la regola di trasposizione di una somma di matrici (la trasposta di una somma
`e la somma delle trasposte) e le ipotesi (A e B sono simmetriche), otteniamo
(A + B)t = At + B t = A + B.
Quindi A + B coincide con la trasposta ed `e simmetrica. In alternativa si pu`o utilizzare la
definizione di matrice simmetrica. Posto A = [aij ] e B = [bij ], abbiamo aij = aji , bij = bji ,
per definizione di simmetria e A + B = C = [cij ] dove cij = aij + bij , per definizione di
somma di matrici. Allora cji = aji + bji = aij + bij = cij , per cui A + B `e simmetrica.
1.3.16 Dimostrare che se A e B sono matrici simmetriche di Mn (K) allora AB `e simmetrica se e solo se A e B commutano.
` una condizione necessaria e sufficiente. Dividiamo la verifica in
Svolgimento. E
due parti, sfruttando la caratterizzazione delle matrici simmetriche (cfr. Esercizio ??) e la
regola di trasposizione di un prodotto di matrici: la trasposta di un prodotto `e il prodotto
delle trasposte fatto in ordine inverso, ossia (A1 A2 An )t = Atn At2 At1 .
() Supponiamo che AB sia simmetrica. Deve coincidere con la sua trasposta, quindi:
(1 )

AB = (AB)t = B t At = BA,
e A e B commutano, Luguaglianza ( 1 ) `e conseguenza del fatto che A e B, prese singolarmente, sono a loro volta simmetriche per ipotesi.
() Supponiamo che A e B commutino, ovvero che AB = BA. Abbiamo
(AB)t = B t At = BA = AB.
Quindi AB coincide con la sua trasposta, cio`e `e simmetrica.

1.3.17 Verificare che per ogni matrice A Mn (K), la matrice A At `e emisimmetrica.


Svolgimento. Una matrice M `e emisimmetrica se M t = M o, che `e la stessa
cosa, se M +M t = O. Occorre verificare una delle precedenti uguaglianze per la particolare

96

SOLUZIONI DEGLI ESERCIZI


matrice A At . Ricordando che la trasposta di una somma di matrici `e la somma delle
matrici trasposte e che la trasposta di una trasposta `e la matrice stessa, abbiamo:
(1 )

(A At )t = At (At )t = At A = (A At ).
Luguaglianza ( 1 ) si ottiene raccogliendo 1, sfruttando la propriet`a distributiva del prodotto per uno scalare nel confronto della somma di matrici (k(A + B) = kA + kB, per
ogni A, B Mmn (K) e k K).

1.3.18 Date le matrici

1 0
1 0
A = 2 0 , B = 1 0 ,
1 2
0 2
determinare C = (At B)t
Svolgimento. Notiamo che i due fattori nel prodotto At B hanno, rispettivamente, ordini (2, 3) e (3, 2). Sono quindi conformabili e il prodotto `e eseguibile. Lordine della
matrice risultato sar`a (2, 2), quindi anche (At B)t deve avere ordine (2, 2). Eseguendo i
conti, otteniamo:

1 0
1 0
1 2 1
1 0
3 2
t

1 0 =
0 0 2
1 0 =
AB= 2 0
.
0 4
1 2
0 2
0 2
Passando alla trasposta, abbiamo

(A B) =

3 2
0 4

3 0
2 4

Possiamo verificare il risultato sfruttando il Teorema 1.15, in base al quale deve essere
(At B)t = B t (At )t = B t A. Abbiamo allora

1 0

1 1 0
3
0
t
2 0 =
BA =
,
0 0 2
2 4
1 2
il che conferma il precedente risultato.
1.3.19 Date le matrici

1 2
3 2
A = 2 4 , B = 1 1 ,
0 1
3
2

determinare una matrice C, di dimensione opportuna, tale che A + B C = O.


Svolgimento. Se A + B C = O, allora A + B = C, quindi per determinare la
C basta calcolare la somma A + B, che si esegue sommando elemento per elemento i due
addendi. Ovvero:

1 2
3 2
1 + (3) 2 + (2)
2 0
C = A + B = 2 4 + 1 1 = 2 + (1) 4 + (1) = 3 3 .
0 1
3
2
0 + (3)
1 + (2)
3 3

4.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

97

1.3.20 Siano

A=

1
0
2 2b 1

, B=

c+2 a
1 2d 1

due matrici di M2 (R). Stabilire se esistono valori dei parametri reali a, b, c e d per i quali
le matrici A e B sono uguali.
Svolgimento. Per il principio di uguaglianza di matrici, due matrici A = [aij ]
e B = [bij ] sono uguali se hanno ordinatamente uguali tutti i loro elementi, ovvero se
aij = bij per ogni coppia di indici ij. Ci`o significa che, come minimo, devono avere
lo stesso ordine. Nel nostro caso le matrici appartengono entrambe allinsieme M2 (R).
Coincidono, ovvero

1
0
c+2 a
A=
=
=B
2 2b 1
1 2d 1
se e solo se i singoli elementi sono uguali. Procedendo ordinatamente dalla prima riga e
dalla prima colonna, abbiamo le condizioni:

1 = c + 2
a=0

0=a
b=1
da cui
2 = 1 2d
c = 3

2b 1 = 1.
d = 12 .

1.3.21 Si considerino le matrici

A=

a a
b 1

, B=

1 1
b a

Determinare per quali valori dei parametri reali a e b le matrici A e B commutano.


Svolgimento. Le matrici A e B commutano se AB = BA. Calcoliamo i due
prodotti ed uguagliamo i risultati. Sviluppando i calcoli abbiamo:

a a
1 1
a + ab a + a2
AB =
=
;
b 1
b a
0
a+b

1 1
a a
b+a 1a
BA =
=
.
b a
b 1
0
a + ab
Per il principio di uguaglianza di matrici, i due precedenti prodotti coincidono se e solo se
hanno tutti gli elementi ordinatamente uguali. Questa condizione ci conduce a risolvere il
seguente sistema:

a + ab = b + a
ab b = 0
b(a 1) = 0

2
2
a + a = 1 a
a 1=0
(a + 1)(a 1) = 0
ovvero
cio`e
0
=
0
0
=
0
0=0

a + b = a + ab,
ab b = 0,
b(a 1) = 0.
La terza equazione `e unidentit`a. La prima `e soddisfatta o per b = 0, o per a = 1. Studiamo
questi due casi. Se b = 0, lultima equazione `e vera per ogni valore di a, mentre la seconda

98

SOLUZIONI DEGLI ESERCIZI


`e soddisfatta solo per a = 1. Quindi le coppie (a, b) = (1, 0) e (a, b) = (1, 0) sono due
possibili soluzioni. Se, nel secondo caso, poniamo a = 1, la seconda e la terza equazione
diventano unidentit`a indipendentemente dal valore del parametro b, quindi tutte le coppie
della forma (1, b) (b R) sono soluzioni del problema. Tra queste ultime c`e anche la (1, 0),
che abbiamo gi`a trovato come soluzione nel primo caso. Facendo lunione delle soluzioni
trovate, possiamo dire che le matrici commutano quando a = 1 e b R, oppure per
(a, b) = (1, 0).

1.3.22 Si considerino le matrici

1 0
1 1
, B=
.
A=
3 1
2 0
determinare (A + B)2 .
Svolgimento. Possiamo procedere in due modi. Si pu`
o determinare prima la
matrice A + B, quindi calcolare il suo prodotto con se stessa. Oppure possiamo sviluppare
la potenza del binomio (A + B)2 . Facciamo innanzitutto notare che non esistono problemi
di conformabilit`a nei prodotti, ne di diversit`
a nelle dimensioni delle matrici per quanto
riguarda le somme. Infatti sia A che B sono quadrate del secondo ordine. Calcolando
prima la somma, otteniamo:

1 0
1 1
1+1 01
2 1
A+B =
+
=
=
.
3 1
2 0
3 2 1 + 0
1 1
Determiniamo ora il quadrato della matrice cos` ottenuta:

(A + B) =

2 1
1 1

2 1
1 1

2 1
1 1

3 1
1 0

Nel caso si voglia sviluppare il binomio occorre fare molta attenzione al fatto che in genere
il prodotto di matrici non `e commutativo. Quindi, nei calcoli, non possiamo usare le regole
applicate usualmente nello sviluppo di un binomio di numeri reali. In particolare non ha
senso parlare di doppio prodotto. Infatti, in (A+B)2 = (A+B)(A+B) = A2 +AB+BA+B 2
non `e detto che AB = BA, quindi, in genere, (A + B)2 6= A2 + 2AB + B 2 . Svolgendo i
conti, abbiamo:
(A + B)2 = A2 + AB + BA + B 2 =

1 0
3 1

1 1
2 0

1 0
0 1

1 0
3 1
1 0
3 1

1 1
5 3

1 1
2 0

1 1
2 0

2 1
2 0

1+12+3 01+11
0+522 13+0+2

2
=
3 1
2 2

3 1
1 0

4.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

99

1.3.23 Determinare tutte le matrici

x y
z t

H=
di M2 (R) che commutano con la matrice

A=

1 1
0 1

Svolgimento. Stiamo cercando le matrici H di M2 (R) per cui HA = AH.


Determiniamo i due membri della precedente equazione ed uguagliamoli. Abbiamo:

x y
1 1
x x+y
HA =
=
z t
0 1
z z+t

AH =

1 1
0 1

x y
z t

x+z y+t
z
t

Uguagliando le due matrici cos` ottenute, si ottiene il seguente sistema:

x=x+z
x=x
x=t

x+y =y+t
x=t
x=t
da cui
e quindi
z=0

z=z
z=z

z + t = t,
z = 0,
z=0
Si deduce che x = t, mentre il parametro y `e libero di variare. Quindi, le matrici cercate
hanno la forma

x y
H=
,
0 x
con x, y R.

1.3.24 Si consideri la matrice reale Ak = diag(k, 2). Si determini linsieme Vk delle matrici
di M2 (R) permutabili con Ak .
Svolgimento.

La matrice Ak `e

Ak = diag(k, 2) =

k 0
0 2

Linsieme Vk che dobbiamo descrivere `e formato da matrici del tipo

x y
V =
,
z t
con x, y, z, t R tali che V Ak = Ak V . Determiniamo la forma delle matrici ai due membri
della precedente equazione ed uguagliamoli.

x y
k 0
kx ky
V Ak =
=
,
z t
0 2
2z 2t

100

SOLUZIONI DEGLI ESERCIZI

Ak V =

k 0
0 2

x y
z t

Uguagliando le due matrici otteniamo il sistema:

kx
=
kx

ky = 2y
e quindi
2z = kz

2t = 2t

kx 2y
kz 2t

0=0
y(k 2) = 0
z(k 2) = 0
0 = 0.

La prima e lultima sono delle identit`


a. Se k = 2, la seconda e terza equazione sono
soddisfatte indipendentemente dai valori di y e z, mentre non esistono condizioni su x e
t, ovvero non ci sono condizioni su alcun termine delle matrici che formano V2 . Perci`
o
V2 = M2 (R). Possiamo notare che, in questo caso, A2 = diag(2, 2) = 2I2 , quindi, per ogni
M M2 (R):
A2 M = 2I2 M = 2M = 2(M I2 ) = M (2I2 ) = M A2 .
Se k 6= 2, le condizioni sugli elementi delle matrici di Vk sono y = z = 0. Non si hanno
condizioni su x e t. Quindi:

x 0
Vk =
x, t R ,
0 t
ossia Vk `e linsieme delle matrici diagonali del secondo ordine.

1.3.25 Calcolare, usando le operazioni elementari di riga e di colonna, il determinante


della seguente matrice:

5
4
2
1
2
3
1 2

A=
5 7 3 9 .
1 2 1 4
Svolgimento. La matrice A `e quadrata del quarto ordine. Cerchiamo, sommando a righe e colonne combinazioni lineari delle rimanenti, di ottenere il massimo numero
di zeri in una linea (riga o colonna) della matrice. Indicheremo le operazioni eseguite sulle
righe usando il simbolo R, e sulle colonne il simbolo C. Quindi, per esempio, R1 3R4 significa sottrarre alla prima riga la quarta moltiplicata per 3. Usando le operazioni elementari
passeremo dalla matrice A ad altre matrici, diverse, ma aventi lo stesso determinante. Con
loperazione R1 2R2 otteniamo:

1 2 0
5
2
3
1 2

A0 =
5 7 3 9 .
1 2 1 4
Quindi, con R3 + 3R2 , passiamo a:

1 2 0
5
1 2 0 5
2 3

1 2
e, con R4 + R2 , a A000 = 2 3 1 2 .
A00 =
1 2
1 2 0 3
0
3
1 2 1 4
3 1 0 2

4.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

101

` chiaramente pi`
E
u semplice sviluppare il determinante di A000 usando Laplace rispetto alla
terza colonna, piuttosto che calcolarlo rispetto ad una sua qualsiasi altra linea. Otteniamo:

2 3 2
1 2 5
det A = det A000 = 0 det 1 2 3 1 det 1 2 3 +
3 1 2
3 1 2

1 2 5
1 2 5
1 2 5
+0 det 2 3 2 + 0 det 2 3 2 = det 1 2 3 = .
3 1
2
1 2
3
3 1 2
Anche su questultima matrice si pu`o operare con operazioni elementari. Eseguendo successivamente le operazioni C2 + 2C1 e C3 5C1 e sviluppando secondo Laplace rispetto
alla prima riga otteniamo


1 0
0
4 2

= 1(52 + 14) = 38.

= 1
= det 1 4 2
7 13
3 7 13

1.3.26 Dimostrare che se A `e emisimmetrica di ordine dispari allora `e singolare.


Svolgimento. Supponiamo che A M2n+1 (R), dove 2n+1, n N, `e un generico
numero dispari. Ricordiamo che una matrice si dice singolare se ha determinante nullo.
Ora, se A `e emisimmetrica, abbiamo che A = At . Quindi sia A che At devono avere
lo stesso determinante. Ma il determinante di una matrice coincide con quello della sua
trasposta e det kA = k n det A se A ha ordine n. In questo caso, si ha:

det A = det(At ) = det (1)At = (1)2n+1 det At = (1)2n+1 det A = det A,


perche (1)2n+1 = 1. Ma in R, lunico numero che coincide con il suo inverso `e 0, quindi
det A = 0 e A `e singolare.

1.3.27 Determinare i valori dei parametri reali a, b R per i quali le seguenti matrici sono
singolari:

0
2b2 5
a1
3
5 2 .
, B= 0
A=
3
a1
b2 2 3
Svolgimento. Una matrice `e singolare quando il suo determinante `e 0. Imponiamo quindi ai determinanti delle due matrici di annullarsi. Calcolando il determinante
delle due matrici abbiamo det A = (a 1)2 9 = (a 1 + 3)(a 1 3) = (a + 2)(a 4)
e det B = (b 2)(4b2 25) = (b 2)(2b + 5)(2b 5). Quindi det A = 0 se e solo se
(a + 2)(a 4) = 0, ovvero se e solo se a = 2 oppure a = 4. Analogamente det B = 0 se
e solo se (b 2)(2b + 5)(2b 5) = 0, cio`e quando b = 2 oppure b = 52 .

1.3.28 Determinare la matrice inversa di

1 1 0
1 .
A= 0 2
3 0 1

102

SOLUZIONI DEGLI ESERCIZI


Svolgimento. Siccome det A = 5 6= 0 la matrice inversa esiste. Essa si ottiene
dividendo per det A ogni elemento della matrice aggiunta A , ottenuta come trasposta
della matrice i cui elementi sono i complementi algebrici degli elementi di A. Questi
risultano

2 1
0 1
1+1
1+2

= 3,
() A11 = +
= 2,
() A12 =
0 1
3 1

0 2

= 6,
() A13 = +
3 0

1 0
2+2

= 1,
() A22 = +
3 1

1 0
3+1

= 1,
() A31 = +
2 1
1+3

()3+3 A33

1 0

= 1,
() A21 =
0 1

1 1
2+3

= 3,
() A23 =
3 0

1 0
3+2

= 1,
() A32 =
0 1

1 1

= 2.
= +
0 2
2+1

Linversa di A `e pertanto la matrice:

A1

2 1 1
1
1
A = 3 1 1 .
=
det A
5
6 3 2

Per convincersene basta verificare che AA1


1.3.29 Si consideri la matrice di M3 (R)

A= a
0

= A1 A = I3 .

1 1
2 1 ,
1 a

dove a R `e un parametro reale. Discutere lesistenza dellinversa di A al variare del


parametro e, quando esiste, calcolarla.
Svolgimento. Una matrice `e invertibile se e solo se `e non singolare, ovvero ha
il determinante diverso da 0. Calcoliamo il determinante di A, sviluppandolo secondo
Laplace rispetto alla prima colonna:

1 1
= a(a 1).
det A = a
1 a
Quindi esiste linversa quando a 6= 0 e a 6= 1. Determiniamo, in questi casi, la matrice
aggiunta. I complementi algebrici sono:

a 1
2 1
1+2
1+1
= 2a 1,
= a2
(1) A12 =
(1) A11 =
1 a
0 a
(1)

1+3

A13

a 2
=
0 1

= a,

2+1

(1)

A21

1 1
=
1 a

=1a

4.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

0 1

= 0,
(1) A22 =
0 a

1 1
3+1
= 1,
(1) A31 =
2 1
2+2

3+3

(1)

A33

103

0 1

=0
(1) A23 =
0 1

0 1
3+2
=a
(1) A32 =
a 1

0 1
= a.
a 2
2+3

Laggiunta di A `e la trasposta della matrice dei complementi algebrici, ovvero:


t
t

A11 A12 A13


2a 1 a2 a
2a 1 1 a 1
0
0 = a2
0
a .
A = A21 A22 A23 = 1 a
A31 A32 A33
1
a
a
a
0
a

Linversa di A `e allora:

2a 1 1 a 1
1
1
a2
0
a .
A =
=
det A
a(1 a)
a
0
a

A1

1.3.30 Si consideri la matrice di M2 (R)

A=

a b
c d

Determinare la matrice aggiunta A e verificare che (A ) = A.


Svolgimento.

Determiniamo i complementi algebrici della A:

A11 = +d,

A12 = c,

A21 = b,

A22 = +a.

La matrice aggiunta di A `e la trasposta della matrice dei complementi algebrici, ossia:

A =

A11 A12
A21 A22

d c
b a

d b
c a

Per calcolare (A ) rifacciamo conti analoghi, ma usando la A come matrice di partenza.


I complementi algebrici della A sono allora:
A011 = +a,

A012 = +c,

A021 = +b,

A022 = (1)2+2 d = +d.

Laggiunta `e la trasposta della matrice avente i precedenti come elementi:

(A ) =

A011 A012
A021 A022

a c
b d

a b
c d

= A.

1.3.31Determinare le matrici di A M2 (R) che coincidono con la propria aggiunta,


ovvero tali che A = A.

104

SOLUZIONI DEGLI ESERCIZI


Svolgimento.

Consideriamo la generica matrice

x y
A=
z t

di M2 (R), e calcoliamone laggiunta. I complementi algebrici sono:


A11 = +t,

A12 = z,

A21 = y,

A22 = +x,

da cui si ricava laggiunta:

A =

A11 A12
A21 A22

t z
y x

t y
z x

Siamo interessati alle matrici tali che A = A . Uguagliando le matrici:

x y
t y
A=
=
= A
z t
z x
otteniamo le seguenti uguaglianze

x=t

y = y
z = z

t=x

x=t

y=0
e quindi
z=0

x = t.

Le matrici che stiamo cercando sono pertanto


1.3.32 Si consideri la matrice

A= 2
1

matrici scalari, diag(x, x) = xI2 , x R.

1
0 .
3

Stabilire se esiste la matrice pseudoinversa di Moore-Penrose di A. In caso affermativo


calcolarla e verificare il risultato.
Svolgimento. Se A `e una matrice (m, n) qualsiasi, la matrice Q = At A `e una
matrice quadrata (n, n). Se Q `e non singolare, allora esiste la matrice (At A)1 At , e
viene detta matrice pseudoinversa di Moore-Penrose. Consideriamo quindi, innanzitutto,
il prodotto Q = At A

1 1

1 2 1
6 2
2 0 =
Q = At A =
.
1 0 3
2 10
1 3
Poiche det Q = 56 6= 0, la matrice Q `e non singolare, e quindi la matrice pseudoinversa di
Moore-Penrose di A esiste effettivamente. Abbiamo poi

1
10 2
1
Q =
,
56 2 6
da cui si ottiene

4.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

(A A)

A =Q

1
A =
56
t

10 2
2 6

1 2 1
1 0 3

105

1
=
56

12 20 4
8 4 16

Verifichiamo che la matrice trovata `e effettivamente la matrice pseudoinversa di MoorePenrose di A

1 1
1
12 20 4
1 0
t
1 t

=
(A A) A A =
2 0
.
0 1
56 8 4 16
1 3

1.3.33 Determinare il rango della matrice

1 1 0 1 2
1 0 2 3 0 .
2 2 0 2 4
Svolgimento. A differenza del caso quadrato, in cui conviene partire dallanau comodo partire da
lisi del determinante della matrice stessa, nel caso rettangolare `e pi`
un minore del secondo ordine non nullo (che si individua, se esiste, facilmente, facendo
i calcoli a mente), e quindi procedere orlando tale minore secondo quanto affermato nel
Teorema di Kr
onecker . Per esempio, il minore individuato dalle prime due righe e dalla
seconda e terza colonna `e uguale a 2 6= 0. Possiamo orlare tale minore in soli tre modi:
usando la prima, la quarta o la quinta colonna, e ottenendo, rispettivamente

1 1
1
1
0
0 1
0 2

1 0
2 = 0, 0
2
3 = 0, 0
2 0 = 0.

2 2
2
2
0
0 2
0 4
Quindi rkA = 2.
1.3.34 Discutere il rango della matrice

2
k 9
0
2k 6
,
A=
0
k3
1

al variare del parametro reale k R.


Svolgimento. La matrice A appartiene a M23 (R), quindi il suo rango `e un numero compreso fra 0 e 2. Siccome lunica matrice avente rango 0 `e la matrice nulla e, nel
nostro caso, non esistono valori di k che annullano contemporaneamente tutti i termini
di A (alcuni non dipendono da k e sono diversi da 0), il rango di A `e almeno 1, ovvero
1 rkA 2. Studiamo la presenza di minori non nulli del secondo ordine. Per esempio,
consideriamo il minore formato dalla prima e ultima colonna e vediamo quando si annulla:
2

k 9 2k 6

= k 2 9 0 = (k + 3)(k 3) = 0 k = 3.

0
1
Quindi per k =
6 3 il minore sopra considerato `e 6= 0, ha ordine 2 e di conseguenza rkA = 2.
Esaminiamo i casi rimanenti, ossia cosa succede quando k = 3. Basta sostituire nella

106

SOLUZIONI DEGLI ESERCIZI


matrice e cercare i minori dordine massimo non nulli. Se k = 3, la A diventa:

0 0 0
A=
.
0 0 1
Non esistono minori del secondo ordine diversi da 0 ed esiste un unico minore del primo
ordine non nullo, quello formato dallelemento a23 = 1. Quindi per k = 3 si ha rkA = 1.
Se k = 3 la matrice A diventa:

0 0 12
A=
.
0 6
1
Il minore formato dalle ultime due colonne, cio`e

0 12

= 0 72 = 72 6= 0,
6
1
`e non nullo, quindi anche per k = 3 la matrice A ha rango 2. Riassumendo, abbiamo:

k 6= 3 rkA = 2
k = 3 rkA = 1.

1.3.35 Discutere il rango della matrice

h 2
2h
0
A = 2 1 h 1 h ,
3h 3
2
h
al variare del parametro reale h R.
Svolgimento. La matrice appartiene a M34 (R). Siccome, se M Mmn (R), si
ha 0 rkM min(m, n), nel nostro caso il rango di A `e compreso tra 1 e 3. Infatti lunica
matrice di rango nullo `e la matrice nulla O, ossia la matrice avente tutti gli elementi 0.
Ma in A esiste certamente almeno un elemento 6= 0 (ad esempio a12 = 2), quindi rkA 1.
Nel caso di matrici rettangolari `e in genere conveniente studiare il rango partendo da un
minore del secondo ordine 6= 0 e facendo man mano crescere lordine, orlando il minore di
partenza secondo quanto suggerisce il Teorema di Kronecker. Studiamo lannullarsi di un
minore del secondo ordine. Molto comodo da studiare `e quello formato dalle prime due
righe e dalla seconda e quarta colonna:

2 0

(4.1.2)
1 h = 2h = 0 h = 0.
Quindi se h 6= 0 il rango di A `e almeno 2.
Esaminiamo prima il caso di h = 0. La matrice A diventa:

0 2 0 0
A = 2 1 1 0 .
0 3 2 0

4.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

107

In questo caso il minore del terzo ordine formato dalle prime tre colonne e non nullo.
Infatti:

0 2 0

2 1 1 = 2 2 0 = 2(4 0) = 0 6= 0.

3 2
0 3 2
Quindi con h = 0 abbiamo rkA = 3.
Torniamo al caso di h 6= 0. Abbiamo individuato il minore (4.1.2). Possiamo orlarlo
ed usare il Teorema di Kronecker. Per lorlatura usiamo la prima colonna, ottenendo:

h 2 0

1 h
2 h
2
2 1 h = h

3 h 2 3h h = h(h 3h) 2(2h 3h ) =


3h 3 h
= 2h2 4h + 6h2 = 4h2 4h = 4h(h 1).
Abbiamo sviluppato il determinante rispetto alla prima riga. Il minore (4.1.2) si annulla
solo per h = 0, che rappresenta un caso gi`a studiato, e per h = 1. Se h = 1, la matrice
diventa:

1 2 2 0
A = 2 1 0 1 .
3 3 2 1
Orliamo (4.1.2) nellunico altro modo possibile, cio`e usando la terza colonna. Otteniamo,
sviluppando rispetto allultima colonna:

2 2 0

1 0 1 = 1 2 2 + 1 2 2 = (4 6) + (0 2) = 2 2 = 0.

3 2
1 0
3 2 1
Quindi non ci sono minori di ordine 3 non nulli quando h 6= 0, e il rango di A `e 2.
Riassumendo, abbiamo:

h 6= 1 rkA = 3
h = 1 rkA = 2.

1.3.36 Studiare, al variare dei parametri reali a, b,

2
1

A = 2a + 1 1
a 1 1

il rango della matrice

a
2 .
a

Svolgimento. Poiche A `e una matrice quadrata, procediamo innanzitutto calcolando il suo determinante. Risulta det A = (5a2 3a 2), e quindi si annulla per a = 1
2
ed a =
5.

2
Se a
/ , 1 allora la caratteristica di A `e uguale a 3.
5
Per a = 25 si ha

2
1 25
1
2 .
A = 15
7
5 1 25

108

SOLUZIONI DEGLI ESERCIZI


Il minore {R1 , R2 } {C1 , C2 } `e diverso da zero, quindi la caratteristica di A `e uguale a 2.
Per a = 1 si ha

2 1
1
2 .
A= 3 1
0 1 1
Anche in questo caso il minore {R1 , R2 }{C1 , C2 } `e diverso da zero, quindi la caratteristica
di A `e ancora uguale a 2.

1.3.37 Si consideri la seguente matrice

1
2
1 3
2
a b .
A= a
a ba c 3

Studiare, al variare dei parametri reali a, b, c, il rango della matrice A.


Svolgimento. Indichiamo con Ri e Cj la riga i-ma e la colonna j-ma della matrice. Osserviamo che il minore {R1 } {C1 } non dipende dai parametri, ed `e uguale ad
1, quindi r(A) 1 per ogni scelta dei parametri a, b, c. Se orliamo [1] in tutte le possibili
maniere, notiamo che non si trova mai un minore sicuramente diverso da zero

{R1 , R2 } {C1 , C2 } =

{R1 , R2 } {C1 , C3 } =

{R1 , R2 } {C1 , C4 } =

{R1 , R3 } {C1 , C2 } =

{R1 , R3 } {C1 , C3 } =

{R1 , R2 } {C1 , C4 } =

1 2
a 2

2 2a = 0 per a = 1

1 1
a a
1 3
a b

b 3a = 0 per b = 3a

1
2
a ba
1 1
a c
1 3
a 3

b 3a = 0 per b = 3a

c + a = 0 per c = a

3 3a = 0 per a = 1

Pertanto dobbiamo procedere valutando i diversi casi possibili. Possiamo innanzitutto


separare i due casi a = 1 ed a 6= 1, suddividendo poi lanalisi nei sottocasi che si presentano.
a = 1. Distinguiamo i sottocasi b 6= 3 e b = 3.
1. b 6= 3. In questo caso abbiamo r(A) 2, poiche, per esempio, il minore
{R1 , R3 } {C1 , C2 } `e non nullo. Orlando questo minore abbiamo

4.1 ESERCIZI CAPITOLO 1 - SOLUZIONI

1
2
1
2
1 0 per ogni b, c
{R1 , R2 , R3 } {C1 , C2 , C3 } = 1
1 b1 c

1
2
3
2
b (b 3)2 6= 0
{R1 , R2 , R3 } {C1 , C2 , C4 } = 1
1 b1 3
Pertanto, in questo caso, r(A) = 3.
2. b = 3. Abbiamo gli ulteriori sottocasi c 6= 1 e c = 1.
(a) c 6= 1. Il minore {R1 , R3 } {C1 , C3 } `e non nullo. Orlando si ha

1 2 1
{R1 , R2 , R3 } {C1 , C2 , C3 } = 1 2 1 0 per ogni c
1 2 c

1 1 3
{R1 , R2 , R3 } {C1 , C3 , C4 } = 1 1 3 0 per ogni c.
1 c 3
Quindi r(A) = 2.
(b) c = 1. In questo caso si annullano tutti i minori di ordine 2 ottenuti
orlando {R1 } {C1 }, per cui r(A) = 1.
a 6= 1. In questo caso il minore {R1 , R2 } {C1 , C2 } `e non nullo, per cui r(A) 2
per ogni b, c. Orlando si ha

1
2
1
2
a
{R1 , R2 , R3 } {C1 , C2 , C3 } = a
a ba c
e quindi il determinante `e 2(1 a)(a + c) e si annulla per c = a

1
2
3
2
b
{R1 , R2 , R3 } {C1 , C2 , C4 } = a
a ba 3

Quindi il determinante `e 6+ 6ab 3a2 12a b2 e si annulla per b = 3a 6|a 1|. Di


conseguenza, se b = 3a 6|a 1| e c = a, risulta r(A) = 2, altrimenti r(A) = 3.
Riassumendo si ha

1 per a = 1 b = 3 c = 1

r(A) =
2 per a = 1 b = 3 c 6= 1 oppure a 6= 1 b = 3a 6|a 1| c = a

3 altrimenti.

109

110

SOLUZIONI DEGLI ESERCIZI

1.3.38 Calcolare il rango della seguente matrice

0 0 0
1 2 0
A=
0 3 1
1 5 1
Svolgimento.

0
1
A=
0
1

partendo dallelemento a22

2 0
1 1
.
0 2
3 3

0
1
det[2] = 2 6= 0 rk(A) 1
2
3

0
2
3
5

0
0
1
1

2
1
0
3

2
1
0
3

1
det 1
2
0
3

Tra i vari orlati abbiamo

0
1

0
1

0
2
3
5

0
0
1
1

2
3

= 3 6= 0 rk(A) 2.

Consideriamo adesso gli orlati del minore di ordine 2 che abbiamo utilizzato. Tra essi
abbiamo

0
1

3
5

1
1

0
3

1
det

2
3

1 = 0 + 0 + 6 0 0 0 = 6 6= 0

Pertanto abbiamo r(A) 3. Poiche A `e di tipo (4, 5), deve essere r(A) 4. Osserviamo
che la quarta riga `e uguale alla somma delle prime tre per cui rk(A) < 4, e quindi 3 `e il
rango della matrice considerata.

4.2

ESERCIZI CAPITOLO 2-SOLUZIONI

2.3.1 Dato il sistema

y 3x + t = 1
tx=0

y z + x = 1

determinare le matrice dei coefficienti, la colonna dei termini noti e riscrivere il sistema
dato in forma matriciale.
Svolgimento. Stabiliamo come ordinamento sulle variabili quello alfabetico. Per
chiarezza, non essendo le singole equazioni ordinate, riscriviamo il sistema:

3x + y + t = 1
x + t = 0

x + y z = 1.

4.2 ESERCIZI CAPITOLO 2-SOLUZIONI

111

Allora la matrice dei coefficienti e la colonna dei termini noti sono, rispettivamente:

3 1 1 0
1
A = 1 0 1 0 , B = 0 .
1 1 0 1
1
Se poniamo X = [x, y, t, z]t , possiamo scrivere il sistema nella forma AX = B. Infatti,
sviluppando i calcoli abbiamo

x
3 1 1 0
3x
+
y
+
t
1
3x + y + t = 1
y
=
= 0
x
+
t
x + t = 0
AX = 1 0 1 0
t

1 1 0 1
x+yz
1
x + y z = 1.
z

2.3.2 Dato il sistema

3x1 5x2 + x4 = 4
x2 3x3 + 5x4 = 1

x1 + x2 x3 1 = 3

determinare le matrice dei coefficienti e la colonna dei termini noti.


Svolgimento. Stabiliamo come ordinamento sulle variabili quello naturale indotto dagli indici. Si noti che le variabili compaiono gi`
a ordinate nelle varie equazioni.
Invece i termini noti vanno calcolati: nella terza equazione una costante va portata al
secondo membro. Il sistema ha tre equazioni in quattro incognite. La matrice dei coefficienti appartiene dunque a M34 (R). Questultima e la colonna dei termini noti sono,
rispettivamente:

3 5 0 1
4
A = 0 1 3 5 , B = 1 .
1 1 1 0
2

2.3.3 Discutere la risolubilit`a dei seguenti sistemi lineari:

x1 x3 + 2x5 = 1
xy+z =1
x2 + x4 = 2
2x 3y = 0
(a)
(b)

2x1 x2 + x6 = 3.
x z = 1.

2x2 = 2x4 1
x1 x2 + 3x3 x4 = 1
(d)

x2 x4 = 12 .

xy+z =3
y=0
(c)

2x 2y + 2z = 6.

6x 3y = 0
x+y =3
(e)

2x + y = 0.

Svolgimento. Per determinare se esistono soluzioni e quante sono usiamo il


Teorema di Rouche-Capelli.
(a) La matrice dei coefficienti e la colonna dei termini noti sono, rispettivamente:

1 0 1 0 2 0
1
0 1 0 0 , B = 2 .
A= 0 1
2 1 0 0 0 1
3

112

SOLUZIONI DEGLI ESERCIZI


In A, il minore determinato dalle prime due righe e colonne `e non nullo. Quindi rkA 2.
Orliamolo con la terza colonna:

1 0 1

0 1
0 1
= 2 6= 0.
0 =

2 1
2 1 0
Quindi rkA = 3. Ma la matrice completa A0 non pu`o avere un rango maggiore, avendo
ordine (3, 7). Da cui rkA = rkA0 = 3. Esistono soluzioni e sono 63 = 3 . Questo significa che le soluzioni saranno n-ple del tipo (x1 , x2 , x3 , x4 , x5 , x6 ), contenenti tre parametri
indipendenti.
(b) In questo caso abbiamo


1 1 1
1
A = 2 3 0 , B = 0 .
1 0 1
1
Siccome det A = 4 6= 0, la matrice A ha rango massimo 3. Sappiamo che rkA0 rkA e
che, in questo caso, anche A0 ha rango massimo 3. Quindi rkA = rkA0 = 3, il sistema `e
o esiste una e una sola soluzione.
risolubile e le soluzioni sono 33 = 0 . Perci`
(c) La matrice dei coefficienti e la colonna dei termini noti sono, rispettivamente:


1 1 1
3

A = 0 1 0 , B = 0 .
2 2 2
6
Sviluppando det A rispetto alla seconda riga si vede che det A = 0. Quindi rkA 2. Il
minore individuato dalle prime due righe e colonne `e comunque non nullo, quindi rkA = 2.
Per determinare il rango della matrice completa possiamo usare questo minore, orlando
in tutti i modi possibili. Questi sono solo due: usando la terza o la quarta colonna (la B).
Con la terza colonna otteniamo la A, che abbiamo gi`a visto essere singolare. Usando la
quarta colonna e sviluppando rispetto alla seconda riga, abbiamo:

1 1 3

1 3

0 1 0 =

2 6 = 6 6 = 0.
2 2 6
Quindi, per il Teorema di Kronecker, anche rkA0 = 2. Il sistema ammette soluzioni, e
queste sono 32 = 1 . Esse saranno terne di numeri reali dipendenti da un parametro.
(d) In questo caso abbiamo

0 2 0 2
1
A = 1 1 3 1 , B = 1 .
1
0 1 0 1
2

Il minore

0 2

1 1

(4.2.1)

4.2 ESERCIZI CAPITOLO 2-SOLUZIONI

113

ottenuto dalle prime due righe e colonne, `e non nullo. Quindi rkA 2. Usiamo il Teorema
di Kronecker, e orliamo (4.2.1) nei due modi possibili. Con la terza colonna abbiamo:

0 2 0

1 1 3 = 0,

0 1 0
in quanto la prima e lultima colonna sono proporzionali. Usando la quarta colonna, e
sviluppando rispetto alla prima:

0 2 2
2 2

1 1 1 =
1 1 = 0.

0 1 1
Quindi rkA = 2. Per determinare il rango della matrice completa possiamo sempre usare
(4.2.1), orlando con la colonna di A0 rimanente: la B. Abbiamo:

0 2 1

1 1 1 = 2 6= 0.

1
0 1
2
Quindi rkA0 = 3 6= 2 = rkA e il sistema `e impossibile.
(e) La matrice dei coefficienti e la colonna dei termini noti sono, rispettivamente:


6 3
0
1 , B = 3 .
A= 1
2 1
0
Chiaramente rkA = 2, in quanto esistono minori del secondo ordine non nulli in A. Siccome
A0 M3 (R), se det A0 6= 0 avremo rkA0 = 3. Sviluppiamolo rispetto alla terza colonna
(formata dalla B):

6 3 0

6 3
= 3(6 6) = 0.
1
1 3 = 3

2 1
2 1 0
Quindi rkA0 = 2 = rkA. Il sistema `e risolubile e le soluzioni sono 22 = 0 . Questo
significa che esiste una e una sola soluzione.

2.3.4 Risolvere i seguenti sistemi lineari:

xy+z =0
x1 + 2x2 = 3
xy+z+t=0
x+z =0
(a)
(b)
(c)
x1 2x2 = 0.
x + y + z + t = 0.

y z = 0.

xy =1
x+z =2
(d)

2x 2y = 1.

(e)

x1 x2 + 3x3 + 2x4 = 0
x1 x2 2x3 x4 = 0
(g)

x1 x3 x4 = 0.

2x y = 2
x + 6y = 0
(h)

6x + y = 5.

x1 2x2 + x3 = 1
2x1 + x2 x3 = 2.

x1 3x2 + x3 = 1
x1 + x2 3x3 = 2
(f )

2x1 2x2 2x3 = 3.

114

SOLUZIONI DEGLI ESERCIZI


Svolgimento.
` un sistema di due equazioni in due incognite. La matrice dei coefficienti `e
(a) E

1 2
A=
.
1 2
Siccome det A = 4 6= 0, il sistema ammetta ununica soluzione. Applicando la Regola
di Cramer otteniamo la soluzione cercata:

3 2
1 3

0 2
1 0
3
3
6
3
=
=
x1 =
= ,
x2 =
= .
1 2

4
2
4
4

1 2
1 2
1 2

Quindi la coppia 32 , 34 `e lunica soluzione del sistema. Considerando la dimostrazione del


Teorema 2.3 notiamo che la soluzione equivale ad X = A1 B. Verifichiamo questo fatto.
Linversa di A `e:

1
1 2 2
1
2
2
A =
= 1
.
1
4 1 1
4 4
Allora,

X=

x1
x2

=A

B=

1
2
1
4

1
2

14

3
0

3
2
3
4

Sempre uguagliando termine a termine otteniamo la soluzione (x1 , x2 ) = 32 , 34 .


(b) Si tratta di un sistema di due equazioni in quattro incognite, omogeneo. Esiste
sempre la soluzione banale. Studiamo lesistenza di eventuali autosoluzioni. La matrice
dei coefficienti `e:

1 1 1 1
A=
.
1 1 1 1
Le prime due colonne formano un minore non nullo (determinante uguale a 2), quindi
rkA = 2, ed abbiamo 42 = 2 soluzioni, formate da quaterne di numeri con una
coppia di parametri indipendenti. Il minore formato dalle prime due colonne individua la
parte del sistema riguardante le incognite x e y, che possiamo mettere in evidenza:

x y = z t
(4.2.2)
x + y = z t.
Risolvendo, col metodo di Cramer, otteniamo:

z t 1

z t 1

= z t,
x=
1 1

1 1

1 z t

1 z t

y=
1 1

1 1

Posto z = a e t = b, la soluzione del sistema di partenza risulta:

x = a b

y=0
z=a

t = b.

= 0.

4.2 ESERCIZI CAPITOLO 2-SOLUZIONI


(c) Si tratta di un sistema di tre equazioni in tre incognite, omogeneo. Esiste sempre la soluzione banale. Studiamo lesistenza di eventuali autosoluzioni. La matrice dei
coefficienti `e:

1 1 1
1 .
A= 1 0
0 1 1
Sviluppando il determinante di A rispetto alla prima colonna, abbiamo

1 1 1

0 1
1 1
1 0

1 = 1

1 1 1 = (0 1) (1 1) = 1 6= 0.
1
1
0 1 1
Dunque, per Cramer, esiste ununica soluzione. Ma il sistema `e omogeneo, quindi questa
soluzione unica `e quella banale (0, 0, 0). Non ci sono autosoluzioni.
(d) La matrice dei coefficienti e la colonna dei termini noti sono, rispettivamente:


1 1 0
1
A = 1 0 1 , B = 2 .
2 2 0
1
Il sistema `e quadrato (stesso numero di equazioni e di incognite). Possiamo cercare di
risolverlo usando il Teorema di Cramer. Il determinante di A, sviluppato rispetto allultima
colonna `e:

1 1 0

1 0 1 = 1 1 = (2 + 2) = 0.

2 2
2 2 0
Quindi non esiste ununica soluzione. Per scoprire se il sistema `e risolubile (e quindi
u rapido `e quello di usare il Teorema
ammette infinite soluzioni) o impossibile, il metodo pi`
di Rouche-Capelli. Il rango di A `e 2, in quanto il minore determinato dalle prime due
righe e colonne, `e non nullo. Questo `e pure un minore della matrice completa A0 , ottenuta
dalla A aggiungendo la colonna dei termini noti. Secondo Kronecker, possiamo orlare il
minore precedentemente considerato in soli due modi. Usando la terza colonna otteniamo
il determinante di A, gi`a considerato. Con la quarta colonna (quella dei termini noti), e
sviluppando rispetto alla seconda colonna, abbiamo:

1 1 1

1 2
1 1
1 0 2 = 1

2 1 + 2 1 2 = 1(1 4) + 2(2 1) = 3 + 2 = 1 6= 0.
2 2 1
Quindi rkA0 = 3 6= 2 = rkA. Il sistema `e impossibile.
(e) Le matrici A ed A0 risultano

1 2 1
1 2 1 1
0
A=
, A =
.
2 1 1
2 1 1 2
Le prime due colonne formano un minore non nullo del secondo ordine (determinante
uguale a 5), quindi rkA = 2. Ovviamente, anche A0 ha rango 2, per cui rkA = rkA0 = 2
ed esistono 32 = 1 soluzioni. Riducendo il sistema otteniamo:

x1 2x2 = 1 x3
(4.2.3)
2x1 + x2 = 2 + x3 .

115

116

SOLUZIONI DEGLI ESERCIZI


Applicando ora la Regola di Cramer, le soluzioni di (4.2.3) sono tutte le coppie:

det A1
1 x3 + 4 + 2x3 = 5 + x3 ,

x1 = det A =
5
5

x2 = det A2 = 2 + x3 5 2 + 2x3 = 35 x3 .
det A

Indicando il valore di x3 con la lettera a, le soluzioni del sistema diventano:

a 3
(x1 , x2 , x3 ) = 1 + , a, a ,
5 5

(4.2.4)

con a R.
Potrebbe sorgere il dubbio che, cambiando minore, la soluzione sia differente. Questo `e
vero solo in apparenza. Supponiamo, per esempio, di aver calcolato il rango della matrice

1 2 1
A=
,
2 1 1
mediante il minore individuato dalle ultime due colonne, invece che dalle prime due, cio`e
tramite:

2 1

1 1 = 2 1 = 1 6= 0.
Questo minore, che si riferisce alle variabili x2 e x3 , individua una parte consistente del
sistema diversa da quella individuata dal minore usato in precedenza. Risolvendo, con lo
stesso metodo, il sistema equivalente:

2x2 + x3 = 1 x1
x2 x3 = 2 2x1 ,
otteniamo come soluzioni le terne
(b, 3(b 1), 5(b 1)).

(4.2.5)

Con la trasformazione a = 5(b 1) e possibile passare dalla scrittura (4.2.4) alle (4.2.5) e
viceversa, per cui le 1 soluzioni sono tutte ricavabili da una qualsiasi delle due scritture.
` un sistema di tre equazioni in tre incognite. Possiamo quindi cercare di risolverlo
(f) E
applicando il Teorema di Cramer. La matrice dei coefficienti e la colonna dei termini noti
sono, rispettivamente:

1 3 1
1
A = 1 1 3 , B = 2
2 2 2
3
Esaminiamo il determinante di A. Sviluppando rispetto alla prima colonna, otteniamo:

1 3 1

1 1 3 = 1 1 3 1 3 1 + 2 3 1 =
2 2
1 3

2 2
2 2 2
= (2 6) (+6 + 2) + 2(9 1) = 8 8 + 16 = 0.
Quindi A `e una matrice singolare. A questo punto possiamo dire solamente che non esiste
ununica soluzione. Studiamo il rango di A. Chiaramente, essendo singolare, rkA
3.

4.2 ESERCIZI CAPITOLO 2-SOLUZIONI

117

Per`o il minore del secondo ordine ottenuto usando le prime due righe e colonne `e non
nullo. Infatti:

1 3

1 1 = 1 + 3 = 4 6= 0.
La matrice completa, ottenuta dalla A aggiungendo

1 3 1
A0 = 1 1 3
2 2 2

la colonna B, `e:

1
2 .
3

Il rango di A0 si calcola a partire dal minore sopra individuato ed usando il Teorema di


Kronecker. Lo si pu`o orlare in soli due modi. Usando la terza colonna, riotteniamo il
determinante di A, che abbiamo gi`a calcolato. Usando la quarta colonna e sviluppando
rispetto alla prima, abbiamo:

1 3 1

1 1 2 = 1 1 2 1 3 1 + 2 3 1 =

2 3
2 3
1 2
2 2 3
= (3 + 4) (9 + 2) + 2(6 1) = 7 + 7 14 = 0.
Quindi rkA = rkA0 = 2. Esistono soluzioni e sono nr = 32 = 1 , dove n = 3 `e il
numero di incognite e r = rkA. Il simbolo 1 indica che esistono infinite soluzioni, ovvero
infinite terne di numeri che soddisfano il sistema di partenza. Queste terne dipenderanno
da un (e un solo) parametro reale. Il minore del secondo ordine che abbiamo usato per
calcolare il rango di A individua la parte consistente del sistema:

x1 3x2 = 1 x3
x1 + x2 = 2 + 3x3 .
Questultimo sistema `e crameriano, nel senso che la matrice dei coefficienti, coincidendo
col minore di cui sopra, `e non singolare. Possiamo allora usare la Regola di Cramer per
risolverlo, osservando che la colonna dei termini noti

1 x3
B=
2 + 3x3
dipende da un parametro: x3 . La soluzione del precedente sistema `e data dalle coppie:

7 + 8x3

x1 =
4

x2 = 1 +44x3 .

Tornando al sistema originale, in tre incognite, e ponendo, per comodit`a di scrittura


x3 = a, dalle precedenti otteniamo le soluzioni cercate:

7 + 8a

x1 =
4
1 + 4a
x
=
2
4

x3 = a.

118

SOLUZIONI DEGLI ESERCIZI


(g) La matrice dei coefficienti risulta:

1 1 3
2
A = 1 1 2 1 .
1 0 1 1
Il minore individuato dalle prime due colonne e dalle ultime due righe `e non nullo (determinante uguale a 1), quindi rkA 2. Se orliamo usando la quarta colonna, e sviluppiamo
rispetto allultima riga, otteniamo:

1 1 2

1 1 1 = 1 1 2 1 1 1 = (1 + 2) (1 + 1) = 3 6= 0.
1 1

1 1
1 0 1
Quindi rkA = 3 e il sistema ammette proprio 43 = 1 soluzioni. Per determinarle possiamo ricondurci ad un sistema Crameriano usando il minore appena considerato. Questo
individua una parte del sistema che possiamo mettere in evidenza, trasportando tutti i
termini che non vi compaiono al secondo membro delle varie equazioni:

x1 x2 + 2x4 = 3x3
x1 x2 x4 = 2x3

x1 x4 = x3 .
La matrice dei coefficienti di questo sistema `e non singolare, in quanto coincide col minore
non nullo con cui abbiamo calcolato il rango di A. Quindi si pu`o applicare Cramer, usando
come colonna dei termini noti la

3x3
B = 2x3 ,
x3
dove la variabile x3 va considerata come un parametro. Risolvendo si trovano le soluzioni:

x1 = 3 x3
2
5
x2 = x3
e, posto x3 = a, abbiamo le quaterne a, a, a, a .

3
3
x = 5x .
4
3
3
(h) La matrice dei coefficienti e quella completa sono, rispettivamente:

2 1
2 1 2
A = 1 6 , A0 = 1 6 0 .
6 1
6 1 5
Le prime due righe di A determinano un minore del secondo ordine non nullo. Quindi A
ha rango massimo, ossia rkA = 2. Il sistema `e risolubile se e solo se rkA = rkA0 . Per
determinare il rango della matrice completa possiamo partire dal minore sopra citato ed
orlarlo, usando Kronecker, nellunico modo possibile: con lultima riga (o la terza colonna,
che `e lo stesso). Sviluppando rispetto allultima colonna, abbiamo:

2 1 2

1 6

2 1

1 6 0 = 2

6 1 + 5 1 6 = 2(1 36) + 5(12 + 1) = 70 + 65 = 5 6= 0.

6 1 5

4.2 ESERCIZI CAPITOLO 2-SOLUZIONI


Quindi rkA0 = 3 6= 2 = rkA. Per Rouche-Capelli il sistema `e impossibile.
2.3.5 Discutere, al variare del parametro reale t R il seguente sistema:

x1 + 3x3 = 1
2x1 + x2 + 6x3 = t

3x1 + tx3 = 2.

119

` un sistema di tre equazioni in tre incognite non omogeneo. SicSvolgimento. E


come `e quadrato (numero di equazioni uguale al numero di incognite) possiamo esaminarne
la risolubilit`a usando il Teorema di Cramer. La matrice dei coefficienti `e:

1 0 3
A = 2 1 6 .
3 0 t
Sviluppando il determinante rispetto alla seconda colonna, abbiamo:

1 0 3

2 1 6 = 1 1 3 = t 9.

3 t
3 0 t
La A `e dunque una matrice singolare se e solo se det A = t 9 = 0, cio`e se e solo se t = 9.
Quindi, per t 6= 9, det A 6= 0 ed esiste una e una sola soluzione, che possiamo determinare
con Cramer, ricordando che la colonna dei termini noti che va sostituita nella matrice dei
coefficienti `e B = [1, t, 2]t :

1 0 3
1 1 3

t 1 6
2 t 6

2 0 t
3 2 t
(t 2)(t 9)
t6
t2 11t + 18
=
=
x1 =
, x2 =
=
= t 2,
1 0 3
1 0 3
t

9
t

9
t

2 1 6
2 1 6

3 0 t
3 0 t

1 0 1

2 1 t

3 0 2
1
=
x3 =
.
1 0 3
9t

2 1 6

3 0 t
Il caso t = 9 va studiato a parte. La matrice

1
A= 2
3

A diventa:

0 3
1 6 ,
0 9

ed e ovviamente singolare (t = 9 `e il caso in cui det A = 0). Per`


o le prime due righe e colonne individuano un minore non nullo del secondo ordine. Perci`o rkA = 2. Consideriamo
la matrice completa A0 e orliamo il minore prima citato con la nuova quarta colonna:

1 0 1

1 9 2 1
+
= (2 0) + (0 3) = 2 3 = 1 6= 0.
A = 2 1 9 =
0 2 3 0
3 0 2

120

SOLUZIONI DEGLI ESERCIZI


Lo sviluppo del determinante `e stato fatto rispetto alla prima riga. Dunque rkA0 = 3 6=
2 = rkA. Per il Teorema di Rouche-Capelli, con t = 9 non esistono soluzioni.

2.3.6 Determinare i valori dei parametri a, b R affinche il sistema

ax + by z = b
x ay = b
(4.2.6)

bx 2az = a + 1
ammetta la soluzione (1, 2, 3). In questo caso verificare se ne esistono altre.
Svolgimento. Se (1, 2, 3) `e soluzione di (4.2.6), deve soddisfare contemporaneamente tutte le equazioni dello stesso. Sostituendo i valori ad x, y e z, otteniamo:

a + 2b 3 = b
1 2a = b
(4.2.7)

b 6a = a + 1
sistema di tre equazioni in due incognite, la cui matrice dei coefficienti e colonna dei
termini noti sono, rispettivamente:


1 3
3
A = 2 1 , B = 1 .
7 1
1
Le tre equazioni del sistema di partenza sono soddisfatte se e solo se esistono soluzioni
per (4.2.7), ovvero se A e la matrice completa A0 , ottenuta da A accostando la colonna
` evidente che rkA = 2, essendoci minori di ordine 2 non nulli.
B, hanno lo stesso rango. E
Orlando uno di questi nellunico modo possibile in A0 , otteniamo:

1 3 3

2 1 1 =0

7 1 1
essendo le ultime due colonne uguali. Perci`o, per il Teorema di Kr
onecker, rkA = rkA0 = 2.
Esiste quindi ununica soluzione per (4.2.7), in quanto il teorema di Rouche-Capelli dice
che queste sono in numero di nr = 22 = 0 . Risolvendo, troviamo:

y z = 1
a=0
x=1
da cui
b = 1.

x = 1.
Le ultime due equazioni coincidono e determinano il valore della variabile x. Risolvendo
lequazione rimasta, per esempio, rispetto ad y, riusciamo ad esprimere y in funzione di
z, che rimane libera di variare. Quindi le terne (1, z 1, z)) o, se poniamo z = t, le
terne (1, t 1, t) rappresentano infinite soluzioni del sistema di partenza per il caso in cui
anche (1, 2, 3) `e soluzione. Questultima si ottiene per t = 3. Questa infinit`
a di soluzioni
`e confermata dal Teorema di Rouche-Capelli. La matrice dei coefficienti e la matrice
completa di (??) sono, rispettivamente:

0 1 1
0 1 1 1
1 .
A = 1 0 0 , A0 = 1 0 0
1 0 0
1 0 0
1

4.2 ESERCIZI CAPITOLO 2-SOLUZIONI


Si verifica facilmente che rkA = rkA0 = 2, per cui esistono 32 = 1 soluzioni.

2.3.7 Discutere, al variare del parametro reale t, il sistema avente come matrici associate:

t1 0
t
0 , B = t .
A= 1
2
3
t1
Svolgimento. Potremmo risolvere il quesito lavorando solo sulle matrici date.
Comunque, per esercizio, proviamo a ricostruire il sistema. Questi si ottiene risolvendo
lequazione matriciale AX = B, dove X `e una colonna di incognite. Sviluppando i calcoli,
abbiamo:

t1 0
x
(t 1)x
t
= t .
0
y
x
AX = 1
=
2
3
2x + 3y
t1
Il sistema si ottiene uguagliano i rispettivi termini dei due membri nellequazione precedente:

(t 1)x = t
x=t

2x + 3y = t 1.
Per quanto riguarda la risolubilit`a del sistema, iniziamo a studiare il rango di A. Il minore
determinato dalle ultime due righe `e indipendente dal parametro t ed `e non nullo. Quindi
rkA = 2 per ogni t R. La matrice completa `e quadrata del terzo ordine ed ha rango 3
solo se `e non singolare. Sviluppando il suo determinante rispetto la seconda colonna, si
ha:

t1 0

t1 t
1
= 3(t2 t t) = 3t(t 2) = 0 t = 0 t = 2.
0
t = 3

1
t
2
3 t1
Per t 6= 0 e t 6= 2 si ha rkA0 = 3, mentre rkA = 2. Quindi, per Rouche-Capelli il sistema
`e impossibile. Invece, per t = 0 e t = 2 i ranghi coincidono, esistono soluzioni e sono
nr = 22 = 0 . In questi casi, quindi, esiste ununica soluzione.

2.3.8 Si consideri il sistema AX = B, dove B = [1, 3, 1]t , mentre A = [aij ] `e la matrice


di M3 (R) con A = At , a12 = t, a13 = a23 = 1 e tale per cui A diag(2, 3, 1) abbia
gli elementi principali nulli. Determinare t in modo che il sistema abbia una e una sola
soluzione.
Svolgimento. Iniziamo a ricostruire la matrice dei coefficienti A in base ai dati
forniti. Il fatto che A = At ci dice che A `e simmetrica. Quindi aij = aji per ogni coppia
i, j. In questo modo, conoscendo i valori di a12 , a13 e a23 conosciamo anche quelli di a21 ,
a31 e a32 . Gli elementi principali di una matrice sono quelli che stanno sulla diagonale
principale. Quindi imporre che quelli di A diag(2, 3, 1) siano nulli equivale a dire che gli
elementi principali di A e di diag(2, 3, 1) coincidano, ovvero che a11 = 2, a22 = 3 e a33 = 1.
Perci`o la A ha la forma seguente:

2 t 1
A = t 3 1 .
1 1 1

121

122

SOLUZIONI DEGLI ESERCIZI


Il sistema che ammette A come matrice dei coefficienti ha ununica soluzione se e solo se
la A `e non singolare. Sviluppiamo det A rispetto alla prima riga (Teorema di Cramer):

2 t 1

3 1
t 1
t 3
t 3 1 = 2

1 1 t 1 1 + 1 1 1 =
1 1 1
= 2(3 1) t(t 1) + (t 3) = 4 t2 + t + t 3 = t2 + 2t + 1.

Dunque det A = 0 se e solo se t = 1 2. Esiste ununica soluzione solo per t 6= 1 2.

2.3.9 Discutere, al variare del parametro reale t, il sistema

tx + y + 2z = 2
2x + 2ty + z = 1.
Svolgimento.
coefficienti `e:

` un sistema di due equazioni in tre incognite. La matrice dei


E

t 1 2
A=
.
2 2t 1

Non esistono minori di ordine due indipendenti da t. Consideriamo dunque quello individuato dalle ultime due colonne:

1 2

2t 1 = 1 4t.
Si annulla se e solo se t = 14 . Quindi se t 6= 14 sia la A che la matrice completa A0 hanno
rango massimo 2 e le soluzioni del sistema sono 32 = 1 . Infatti entrambe hanno il
minore sopra considerato come minore dordine massimo non nullo e non `e possibile, in
A0 , considerare minori dordine superiore. Se t = 14 , il minore costruito con la prima e
ultima colonna, ossia
1

4 2 = 1 4 = 15 ,
2 1 4
4
`e diverso da 0. Concludendo anche in questo caso rkA = rkA0 = 2. Quindi esistono 1

soluzioni per ogni valore di t R.


2.3.10 Discutere e risolvere il sistema

x + ay = 1
2x y = 1 2a

ax + y = a,
al variare del parametro reale a R.
` un sistema con tre equazioni in due incognite, quindi `e rettanSvolgimento. E
golare. Dobbiamo ricorrere al Teorema di Rouche-Capelli per esaminarne la risolubilit`
a.
La matrice dei coefficienti `e

1 a
A = 2 1 ,
a 1

4.2 ESERCIZI CAPITOLO 2-SOLUZIONI


quella completa `e:

123

1 a
1
A0 = 2 1 1 2a .
a 1
a

In A non esistono minori di ordine due indipendenti dal parametro a. Se consideriamo


quello determinato dalle prime due righe, ossia:

1 a

(4.2.8)
2 1 = (1 + 2a)
vediamo che questo `e non nullo se e solo se a 6= 12 . Se a = 12 il minore dato dalle ultime
due righe, cio`e

2 1
1
=
(4.2.9)

1
2

`e 6= 0. Quindi rkA = 2 per ogni valore di a R. Per Rouche-Capelli, il sistema ammette


soluzioni (e saranno 22 , cio`e la soluzione sar`a unica) se e solo se rkA = rkA0 = 2.
Sviluppando det A0 rispetto alla prima riga, otteniamo:

1 a

2 1 1 2a = 1 1 1 2a a 2 1 2a + 1 2 1 =

a
a
a
a 1

a 1
a
= (a 1 + 2a) a(2a a + 2a2 ) + (2 + a) = a 1 a2 2a3 + 2 + a =
= 2a3 a2 + 2a + 1 = a2 (2a + 1) + (2a + 1) = (2a + 1)(1 a)(1 + a).
Se a = 1 oppure a = 21 , il precedente determinante `e nullo e rkA = rkA0 = 2. Invece,
per a 6= 1 e a 6= 12 abbiamo che rkA0 = 3 6= 2 = rkA e il sistema `e impossibile.
Risolviamolo dunque per i valori ammissibili. Se a = 1, il minore (4.2.8) determina la
parte consistente del sistema:

x+y =1
2x y = 1.
Determiniamo la soluzione con Cramer:

1 1
= 0,
x=
1 1

2 1

y=

1 1
2 1
= 1.
1 1
2 1

Se a = 1, sempre il minore (4.2.8) determina la parte consistente del sistema:

xy =1
2x y = 3.
Le soluzioni, determinate con Cramer, sono:

1
1 1

2
3 1
2
= = 2, y =
x=
1 1
1
1

2 1
2

1
3

1
= = 1.
1
1

124

SOLUZIONI DEGLI ESERCIZI


Infine, quando a = 12 , il minore (4.2.8) si annulla. In questo caso, per`o, il rango di A `e
calcolato mediante (4.2.9), che individua la parte consistente del sistema:

2x y = 2
12 x + y = 21 .
Risolvendo usando Cramer,

x=

abbiamo:
2
12
2
12

1
1
= 1,
1
1

Riassumendo, le soluzioni sono:

a=1
a = 1

a = 12

y=

2
21
2
21

2
12
= 0.
1
1

(x, y) = (0, 1),


(x, y) = (2, 1),
(x, y) = (1, 0).

2.3.11 Discutere e, quando possibile, risolvere il sistema lineare AX = B, essendo


2
1 a
0
A = 2a + 1 1 2 , B = b .
a 1 1 a
2

2
Svolgimento. DallEsercizio 1.3.36 sappiamo che se a
/ , 1 allora la ca5
ratteristica di A `e uguale a 3, altrimenti
essa
`
e
uguale
a
2.

2
Di conseguenza, se a
/ , 1 il sistema `e risolubile, in quanto la caratteristica di A
5
deve necessariamente coincidere con la caratteristica della matrice completa A. Esistono
in questo caso 33 = 0 soluzioni, cio`e una sola soluzione.
Per a = 52 orliamo il minore {R1 , R2 } {C1 , C2 } con la colonna dei termini noti, ed
abbiamo

2
1 0
1
1 b .
5
7
5 1 2
Il determinante di questa matrice risulta uguale a 18+3b
5 , per cui si annulla se e solo se b =
6. Pertanto, se b 6= 6 la caratteristica di A `e uguale a 3, maggiore della caratteristica
di A, e quindi il sistema non `e risolubile. Se invece b = 6 abbiamo r(A) = r(A) = 2, ed
il sistema `e risolubile con 32 = 1 soluzioni distinte.
Per a = 1 orliamo ancora il minore {R1 , R2 } {C1 , C2 } con la colonna dei termini noti,
ottenendo

2 1 0
3 1 b .
0 1 2

4.2 ESERCIZI CAPITOLO 2-SOLUZIONI

125

Il determinante di questa matrice risulta uguale a 2b 2, per cui si annulla se e solo se


b = 1. Pertanto, se b 6= 1 la caratteristica di A `e uguale a 3, maggiore della caratteristica
di A, e quindi il sistema non `e risolubile. Se invece b = 1 abbiamo r(A) = r(A) = 2, ed il
sistema `e risolubile con 32 = 1 soluzioni distinte.
Riassumendo abbiamo
2

/
5, 1

a = 52

a=1

r(A) = r(A) = 3 esiste una sola soluzione

b = 6 r(A) = 2 = r(A) esistono 1 soluzioni


b 6= 6 r(A) = 2 < r(A) non esistono soluzioni
b = 1 r(A) = 2 = r(A) esistono 1 soluzioni
b 6= 1 r(A) = 2 < r(A) non esistono soluzioni

Risolviamo ora ilsistema nei casi possibili.


Per a
/ 25 , 1 abbiamo X = A1 B. Calcolando la matrice inversa abbiamo

A1

a 2
2a
a2
1
2a2 a + 2 a(a 3) 2a2 a + 4 ,
=
(a 1)(5a + 2)
3a
a 1
2a 1

e quindi


x
a 2
2a
a2
0
1
2
2

2a a + 2 a(a 3) 2a a + 4
b =
X= y =
(a 1)(5a + 2)
z
3a
a 1
2a 1
2

2[a(b+1)2]
(a1)(5a+2)
2a(b4)a(3b+2)+8
(a1)(5a+2)
a(b4)+b+2
(a1)(5a+2)

Per a = 25 b = 6 il sistema viene ridotto al seguente

2x + y = 25 z
1
5 x + y = 2z 6

x = 23 (2z + 5)
2
y = 15
(17z + 50)

X=

2
3 (2z + 5)
2
15 (17z + 50)

Per a = 1 b = 1 il sistema viene ridotto al seguente

2x + y = z
3x + y = 2z + 1

x=1z
y =z2

1z
X = z2
z

2.3.12 Discutere e, quando possibile, risolvere il sistema lineare AX = B, essendo

126

SOLUZIONI DEGLI ESERCIZI

1
2
1 3
2
a b ,
A= a
a ba c 3
Svolgimento.

0
B = 0 .
1

DallEsercizio 1.3.37 abbiamo

1 per a = 1 b = 3 c = 1

r(A) =
2 per a = 1 b = 3 c 6= 1 oppure a 6= 1 b = 3a 6|a 1| c = a

3 altrimenti.
Si vede facilmente che orlando il minore {R1 } {C1 } con la colonna B si pu`o ottenere un
minore non nullo (per esempio {R1 , R2 } {C1 , B}), per cui la caratteristica della matrice
completa `e sempre almeno 2. Quindi, se r(A) = 1 il sistema non `e risolubile. I due casi in
cui r(A) = 2 si ottengono in corrispondenza dei seguenti minori
{R1 , R3 } {C1 , C3 }, quando a = 1 b = 3 c6= 1.
{R1 , R2 } {C1 , C2 }, quando a 6= 1 b = 3a 6|a 1| c = a.
Nel primo caso il minore orlato {R1 , R2 , R3 } {C1 , C3 , B} `e uguale a zero, per cui anche la
caratteristica della matrice completa `e uguale a 2. Di conseguenza, il sistema `e risolubile
con 2 soluzioni.
Nel secondo caso il minore orlato {R1 , R2 , R3 } {C1 , C2 , B} `e non nullo, per cui la
caratteristica della matrice completa `e uguale a 3, ed il sistema non `e risolubile.
Quando poi r(A) = 3 il sistema `e ovviamente risolubile, ed ammette 1 soluzioni.
Riassumendo abbiamo

a = 1 b = 3 c = 1 r(A) = 1 < r(A)

a = 1 b = 3 c 6= 1 r(A) = 2 = r(A)

non esistono soluzioni


esistono 2 soluzioni

a 6= 1 b = 3a 6|a 1| c = a r(A) = 2 < r(A) non esistono soluzioni

altrimenti r(A) = 3 = r(A)


esistono 1 soluzioni.
Risolviamo ora il sistema nei casi possibili. Nel caso a = 1 b = 3 c 6= 1 abbiamo
2 soluzioni. Queste si ottengono riducendo il sistema in maniera cha la matrice dei
coefficienti corrisponda al minore {R1 , R3 }{C1 , C3 }. Indicando con x, y, z, t le incognite i
cui coefficienti corrispondono, rispettivamente, alla prima, seconda, terza e quarta colonna
di A abbiamo

x z = 2y 3t
x + cz = 2y 3t + 1.
Ricaviamo pertanto la soluzione

x = 2y 3t +
1
z = c+1
.

1
c+1

1
x
c+1
y 0
= 1
z
c+1
t
0

2
3
0

+y

0 + t 0
0
1

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI


Nei casi in cui r(A) = 3 abbiamo 1 soluzioni, per cui la riduzione del sistema consiste
semplicemente nel portare al secondo membro una delle incognite. Tuttavia, per decidere
lincognita da trattare come parametro, dobbiamo fare attenzione a lasciare al primo
membro un minore non nullo.
Possiamo considerare il minore {R1 , R2 , R3 }{C1 , C2 , C3 }, e spostare quindi t al secondo
membro, nel caso in cui sia r(A) = 3 con a 6= 1 e c 6= a, ottenendo

t[3a2 + 2a(3 2b) + b2 + 2bc 6(c + 1)] 2(a 1)

x=

2(1 a)(a + c)

t(3a b)
y=

2(1 a)

t[3a2 + 6a(2 b) + b2 6] 2(a 1)

z=
.
2(1 a)(a + c)
Se r(A) = 3 con a 6= 1 e c = a, deve essere necessariamente 6+6ab3a2 12ab2 6= 0,
per cui possiamo usare il minore {R1 , R2 , R3 } {C1 , C2 , C4 }, spostando di conseguenza z
al secondo membro. Otteniamo quindi

z[3a2 + 2a(3 2b) + b2 + 2bc 6(c + 1)] 2(b 3)

x
=

6 + 6ab 3a2 12a b2

(3a b)([z(a + c) 1]
y=

6 + 6ab 3a2 12a b2

t = 2(1 a)[z(a + c) 1] .
6 + 6ab 3a2 12a b2
Abbiamo poi r(A) = 3 anche per a = 1 b 6= 3. In questo caso dobbiamo usare
ancora il minore {R1 , R2 , R3 } {C1 , C2 , C4 }, spostando quindi z al secondo membro, per
cui otteniamo

z(b + 2c 1) b2 + 3b 2

x
=

b3

z(c + 1) 1
y=

b3

t = b.
3

4.3

ESERCIZI CAPITOLO 3-SOLUZIONI

3.5.1 Verificare che linsieme W delle funzioni reali di variabile reale limitate `e un sottospazio dello spazio V delle funzioni reali di variabile reale.
Svolgimento. Da quanto si `e visto nel Paragrafo 3.1.3 ricaviamo che V `e effettivamente uno spazio vettoriale, rispetto alle operazioni di somma di funzioni e di prodotto

127

128

SOLUZIONI DEGLI ESERCIZI


di una funzione per uno scalare. Ricordiamo ora che una funzione f : R R si dice limitata se esiste un reale positivo M R tale che |f (x)| M per ogni x R. Se h `e un qualsiasi
scalare di R, vale la disuguaglianza |h||f (x)| = |hf (x)| |h|M . Ricordiamo, inoltre che,
per ogni coppia di numeri reali A, B R risulta |A + B| |A| + |B|. Si osservi che, ovviamente, W V. Verifichiamo la chiusura lineare dellinsieme W. Ci`o significa verificare
che la combinazione lineare di una qualsiasi coppia di funzioni limitate `e ancora una funzione limitata. Siano f, g W: esistono due reali M, N tali che |f (x)| M e |g(x)| N
per ogni x R. Sfruttando le precedenti disuguaglianze, con h, k R generici scalari,
otteniamo |hf (x)+kg(x)| |hf (g)|+|kg(x)| = |h||f (x)|+|k||g(x)| |h|M +|k|N . Quindi
combinazioni lineari di funzioni limitate sono ancora limitate. Linsieme W `e linearmente
chiuso, quindi sottospazio di V.

3.5.2 Dimostrare che linsieme WT = {A Mn (K)| AT = T A}, delle matrici quadrate


dordine n che commutano con una matrice data, `e sottospazio di Mn (K).
Svolgimento. Per verificarlo usiamo il Teorema 3.1. Siano a, b K e A, B
WT . Dobbiamo verificare che
aA + bB WT .
(4.3.1)
La (4.3.1) `e vera se e solo se aA + bB commuta con la matrice T :
(aA + bB)T = (aA)T + (bB)T = a(AT ) + b(BT ) =
= a(T A) + b(T B) = T (aA) + T (bB) = T (aA + bB).
Quindi la (4.3.1) `e vera e WT `e sottospazio di Mn (K).

3.5.3 Dimostrare che linsieme Kn [t] dei polinomi di grado r n `e un sottospazio di K[t].
Svolgimento. Ovviamente Kn [t] K[t]. Dobbiamo verificare la validit`
a della
condizione sufficiente per essere sottospazio. Ovvero se, per ogni a, b K e per ogni
p1 (t), p2 (t) Kn [t] si ha:
(4.3.2)
ap1 (t) + bp2 (t) Kn [t].
Ogni combinazione lineare di due (o pi`
u) polinomi di grado r n `e un polinomio il
cui grado, al pi`
u, si abbassa rispetto a quello dei polinomi addendi, ma non pu`o certo

aumentare. Quindi la (4.3.2) `e sempre vera e Kn [t] `e sottospazio di K[t].


3.5.4 Dimostrare che linsieme Dn delle matrici diagonali di ordine n `e un sottospazio di
Mn (K).
Svolgimento. Basta verificare, per linsieme Dn Mn (K), la validit`
a della
condizione necessaria e sufficiente per essere un sottospazio. Siano a, b K e A =
diag(a1 , . . . , an ) e B = diag(b1 , . . . , bn ) due matrici di Dn . Allora
aA + bB = a diag(a1 , . . . , an ) + b diag(b1 , . . . , bn ) =
= diag(aa1 , . . . , aan ) + diag(bb1 , . . . , bbn ) =
= diag((aa1 + bb1 ), . . . , (aan + bbn )) Dn .
Quindi Dn `e linearmente chiuso ed `e un sottospazio di Mn (K).

3.5.5 Dimostrare che gli insiemi Tn e Tn delle matrici triangolari superiori ed inferiori
sono sottospazi di Mn (K).
` sufficiente ragionare solo sullinsieme Tn , in quanto per Tn il
Svolgimento. E
discorso `e simmetrico. Dobbiamo verificare la validit`a del Teorema 3.1. Ricordiamo che

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI


A = [aij ] Tn se e solo se aij = 0 se i > j. Per ogni a K e per ogni A, B Tn abbiamo
che aA Tn e A + B Tn . Infatti aA = [aaij ] e aaij = 0 se i > j, essendo aij = 0 per
i > j per ipotesi. Inoltre A + B = [aij + bij ] e aij + bij = 0 se i > j, perche aij = bij = 0
se i > j. Quindi Tn `e un sottospazio vettoriale di Mn (K).

3.5.6 Dimostrare che linsieme delle matrici antisimmetriche `e un sottospazio di Mn (K).


Svolgimento. Ricordiamo che una matrice A Mn (K) si dice antisimmetrica (o
emisimmetrica) se At = A. Occorre verificare che linsieme di tali matrici `e linearmente
chiuso, ossia che, se A e B sono antisimmetriche e a, b K, allora anche aA + bB `e
antisimmetrica. Dalle propriet`a delloperazione di trasposizione abbiamo:
(aA + bB)t = (aA)t + (bB)t = aAt + bB t = a(A) + b(B) = aA bB = (aA + bB).

3.5.7 Si consideri lo spazio vettoriale R3 e il suo sottoinsieme W = {(x, y, z)| x 0}.


Stabilire se W `e un sottospazio di R3 .
Svolgimento. Per verificare se un sottoinsieme `e sottospazio occorre stabilire se
`e linearmente chiuso, cio`e se una qualsiasi combinazione lineare di suoi elementi appartiene
ancora allinsieme. La chiusura lineare va ovviamente dimostrata in modo rigoroso. Invece,
se essa non sussiste, basta presentare un controesempio. Consideriamo un elemento w =
(x, y, z) di W con x 6= 0 e lo scalare h = 1 R. Se W fosse linearmente chiuso, esso
conterrebbe ogni multiplo di un suo vettore, quindi anche hw. Ma kw = (hx, hy, hz) =
(x, y, z) 6 W. Infatti, essendo x > 0, abbiamo x < 0. Linsieme W non `e chiuso
rispetto al prodotto per scalari, quindi non `e linearmente chiuso. Non `e un sottospazio
vettoriale di R3 .

t
4
2
2
2
2
3.5.8 Stabilire se linsieme S = [a, b, c, d] R | 2a + b + c + d = 1 `e un sottospazio
di R4 .
Svolgimento. Come spiegato nellEsercizio 3.5.7, in genere la dimostrazione che
un sottoinsieme `e sottospazio passa attraverso la verifica della sua chiusura lineare. In
certi casi `e per`o pi`
u comodo utilizzare una condizione necessaria per essere sottospazio
vettoriale: un sottospazio contiene necessariamente il vettore nullo. Ovviamente, in quanto
necessaria, questa condizione non d`a alcuna informazione quando
In questo
`e verificata.

4
t
caso, invece, ci `e utile. Infatti il vettore nullo in R `e 0 = a, b, c, d] = [0, 0, 0, 0]t ,
per il quale non `e soddisfatta la condizione caratterizzante gli elementi di S. Infatti
2a2 + b2 + c2 + d2 = 02 + 02 + 02 + 02 = 0 6= 1, e quindi 0 6 S, per cui linsieme S non pu`o
essere un sottospazio.

3.5.9 Verificare se linsieme

a b
a, b R
V=
b a
`e un sottospazio di M2 (R).
Svolgimento. Linsieme V `e formato da tutte e sole le matrici aventi gli stessi
elementi sulla diagonale principale e, indipendentemente, gli stessi elementi su quella secondaria. Verifichiamo che ogni combinazione lineare di vettori di V `e ancora una matrice
appartenente a V, ossia `e della forma appena descritta. Consideriamo due generici vettori

129

130

SOLUZIONI DEGLI ESERCIZI


di V:

v1 =

a b
b a

, v2 =

a0 b0
b0 a0

e siano h, k R due generici scalari. Calcolando kv1 + kv2 abbiamo:

a b
b a

+k

a0 b0
b0 a0

ha hb
hb ha

ka0 kb0
kb0 ka0

ha + ka0 hb + kb0
hb + kb0 ha + ka0

Anche il vettore risultante `e una matrice che ha gli stessi elementi sulle diagonali, quindi
appartiene allinsieme V, per come questo `e stato definito. Ovvero hv1 + kv2 V.
Linsieme V `e pertanto linearmente chiuso, quindi `e un sottospazio vettoriale di M2 (R).

3.5.10 Verificare direttamente (senza usare il Teorema 3.14) che le rette di equazione
y = mx, m R sono sottospazi di R2 .
Svolgimento. I vettori v di R2 che appartengono alla retta di equazione y = mx,
qualsiasi sia m R, sono della forma v = [x, mx]t . Verifichiamo che ogni combinazione
lineare di due vettori siffatti `e ancora un vettore della stessa retta. Per ogni h, k R e
per ogni coppia di vettori v1 = [x1 , mx1 ]t e v2 = [x2 , mx2 ]t , il vettore hv1 + kv2 risulta:

x1
mx1

+k

x2
mx2

hx1 + kx2
hmx1 + kmx2

hx1 + kx2
m(hx1 + kx2 )

Il precedente vettore ha le componenti che soddisfano lequazione y = mx, quindi appartiene alla retta avente questequazione. Linsieme definito da y = mx `e dunque linearmente
chiuso in R2 , ovvero `e un sottospazio.

3.5.11 Sia V lo spazio vettoriale delle funzioni reali di variabile reale e W il suo sottoinsieme delle funzioni dispari. Dimostrare che W `e sottospazio di V.
Svolgimento. Ricordiamo che f : R R si dice dispari se f (x) = f (x) per
ogni x R. Per dimostrare che W `e sottospazio di V notiamo come prima cosa che,
ovviamente, W V. In quanto sottoinsieme di V, per essere anche sottospazio, W
deve essere linearmente chiuso. Significa verificare che una qualsiasi combinazione lineare
di funzioni dispari `e ancora una funzione dispari. Siano f e g dispari, e h, k R due
scalari generici. Abbiamo hf (x) + kg(x) = h(f (x)) + k(g(x)) = hf (x) kg(x) =
(hf (x) + g(x)), il che ci dice che la funzione kf + kg `e dispari, quindi appartiene a W.
Allora W `e linearmente chiuso e W V.

3.5.12 Dimostrare che linsieme V dei polinomi a coefficienti reali con esponenti pari `e un
sottospazio di R[t].
Svolgimento. Ovviamente V R[t]. Nel Paragrafo 3.1.1 `e stata discussa la
struttura di spazio vettoriale di R[t], in particolare sono state definite le operazioni di
somma di polinomi e di prodotto di polinomi per uno scalare. Tenendo conto di queste
definizioni, `e facile verificare che combinazioni lineari di vettori di V sono ancora polinomi
ad esponenti pari. Infatti, se
u=

n
X
i=0

a1 t2i , v =

n
X
i=0

b1 t2i ,

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI

131

sono due vettori di V, una loro combinazione lineare con coefficienti h, k R generici `e:
!
n
!
n
n
X
X
X
a1 t2i + k
a1 t2i =
(ha1 + kbi )t2i .
hu + kv = k
i=0

i=0

i=0

Indipendentemente dai valori assunti dai coefficienti hai + kbi , il precedente polinomio
ha sempre tutti gli esponenti pari, quindi appartiene allinsieme V. Essendo linearmente
chiuso, V `e sottospazio di R[t].

3.5.13 Verificare se linsieme Rn [t] dei polinomi a coefficienti reali di grado massimo n `e
un sottospazio di R[t].
Svolgimento. Dimostrare che Rn [t] R[t] significa verificare la chiusura lineare
di Rn [t], ovvero che ogni combinazione lineare di
grado massimo n `e ancora
P polinomi di P
un polinomio di grado massimo n. Siano p(t) = ni=0 ai ti , q(t) ni=0 bi ti Rn [t] e h, k R
due scalari generici. Abbiamo:
n
X
hp(t) + kq(t) =
(hai + kbi )ti .
i=0

Ci possono essere casi in cui i coefficienti del precedente polinomio si annullano, quando,
per qualche i = 0, . . . , n, hai + kbi = 0. In particolare, se succede quando i = n il
precedente polinomio si abbassa di grado. In nessun caso, comunque, pu`
o capitare che
il grado aumenti. Quindi, partendo da due polinomi di grado al massimo n, la loro
combinazione lineare sar`a ancora al massimo di grado n, appartenendo perci`o allinsieme
Rn [t]. Questultimo `e quindi linearmente chiuso e Rn [t] R[t].

3.5.14 Stabilire se linsieme V dei polinomi a coefficienti reali di grado n `e sottospazio di


R[t].
Svolgimento. In questo caso la discussione `e pi`
u delicata di quella svolta nellEsercizio 3.5.13, in cui si `e verificato che la combinazione di polinomi di grado al massimo
n `e ancora un polinomio di grado al massimo n. Nel caso ora in esame `e necessario dimostrare la stessa cosa per polinomi di grado esattamente n. Ma questo `e falso. Basta fare
in modo che i termini di grado massimo si elidano a vicenda. Per esempio, con n > 1,
consideriamo i polinomi p(t) = 3tn t + 1 e q(t) = 6tn + 1, e costruiamo la combinazione
lineare 2p(t) q(t). Otteniamo:
2(3tn t + 1) (6tn + 1) = (6tn 2t + 2) + (6tn 1) = (6 6)tn 2t + (2 1) = 2t + 1.
Il risultato `e un polinomio di primo grado, inferiore ad n. Quindi V non `e linearmente
chiuso e, di conseguenza, non `e sottospazio di R[t].

3.5.15 Dimostrare il Teorema 3.15.


Svolgimento. La condizione `e necessaria. Se V = UW, in particolare si ha che
V = U+W, cio`e ogni vettore di V `e somma di vettori di U e W, per definizione di somma
di sottospazi. Quindi esistono due vettori, u U e w W, tali che v = u + w. Basta
verificare che questa scrittura `e unica. Supponiamo che ne esista unaltra: v = u0 + w0 .
Allora u + w = u0 + w0 da cui u u0 = w w0 . Siccome u u0 U e w w0 W, essendo
UW = {0} perche V `e somma diretta, da uu0 = ww0 otteniamo uu0 = 0 u = u0
e ,w w0 = 0 w = w0 , e la scrittura v = u + w `e unica.

132

SOLUZIONI DEGLI ESERCIZI


La condizione `e sufficiente. Se ogni vettore di V si scrive in modo unico come somma
di vettori di U e W, automaticamente sappiamo che V = U + W. Rimane da verificare
che U W = {0}. Supponiamo che v U W. Da V = U + W segue che v = v + 0,
con v U, e 0 considerato come vettore di W. Daltra parte `e anche v = 0 + v, con 0
questa volta considerato vettore di U e v W. Lunicit`a della scrittura di v come somma
di vettori di U e W ha come conseguenza che v = 0 e U W = {0}.

3.5.16 Indicato con V lo spazio vettoriale delle funzioni reali di variabile reale, verificare
che V = P D, dove P e D indicano, rispettivamente, il sottospazio delle funzioni pari e
quello delle funzioni dispari.
Svolgimento. Sappiamo che linsieme delle funzioni reali di variabile reale `e uno
spazio vettoriale. Ricordiamo che una funzione f : R R `e pari se f (x) = f (x), per
ogni x R, mentre `e dispari se f (x) = f (x), per ogni x R. Chiaramente
P D = {0},

(4.3.3)

in quanto lunica funzione contemporaneamente pari e dispari `e la funzione nulla. Quindi,


se dimostriamo che V = P + D, in virt`
u della (4.3.3) abbiamo risolto il problema. Questo
si ottiene verificando che ogni funzione di V si pu`o scrivere come somma di una funzione
pari e una dispari. Sia f : R R un vettore di V. Allora
1
1
f (x) = (f (x) + f (x)) + (f (x) f (x)).
2
2

(4.3.4)

Il primo addendo al secondo membro della (4.3.4) `e una funzione pari. Infatti, posto
g(x) = 12 (f (x) + f (x)) si ha g(x) = 12 (f (x) + f ((x))) = 21 (f (x) + f (x)) = g(x).
Il secondo addendo `e una funzione dispari. Infatti, posto h(x) = 12 (f (x)f (x)), abbiamo:
h(x) =

1
1
1
(f (x) f ((x))) = (f (x) f (x)) = (f (x) f (x)) = h(x).
2
2
2

Allora f = g + h per ogni f V, con g P e h D, ovvero


V = P + D.

(4.3.5)

Unendo (4.3.3) e (4.3.5), abbiamo V = P D. La scrittura (4.3.4) `e unica, come


conseguenza di quanto discusso nellEsercizio 3.5.15.

t
3
3.5.17 Nello spazio R , si determinino i vettori di X = UV, dove U = [1, 1, 0] , [2, 1, 1]t

e V = [1, 2, 7]t , [1, 1, 6]t , [1, 4, 1]t .


Svolgimento. Iniziamo ad analizzare V. I generatori di V sono linearmente
dipendenti. Infatti la matrice A che ha come colonne i generatori, ossia

1 1 1
A = 2 1 4
7 6 1
`e singolare, in quanto det A = 0. Quindi rkA < 3. In particolare rkA = 2 poiche, ad
esempio, il minore del secondo ordine determinato dalle prime due righe e dalle prime
due colonne `e 6= 0. Da questo fatto deduciamo anche che le colonne, che determinano il

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI


minore, sono indipendenti. Quindi i primi due generatori di V sono anche una base per
V e tutti i vettori di questo spazio si possono esprimere come loro combinazione lineare.
Con un ragionamento analogo, si verifica che i due generatori di U formano a loro volta
una base. Riassumendo, il generico vettore di U ha la forma seguente:

1
2
a + 2b
u = a 1 + b 1 = a + b ,
0
1
b
al variare di a, b R. In modo analogo, il generico vettore di V si scrive:

1
1
c + d
v = c 2 + d 1 = 2c d
7
6
7c + 6d
al variare di c, d R. Cerchiamo di esprimere le relazioni che intercorrono tra le coordinate
di un generico vettore x = [x, y, z]t affinche questi appartenga contemporaneamente a U e
V. Se x U, abbiamo [x, y, z]t = [a + 2b, a + b, b]t . Uguagliando elemento per elemento,
otteniamo il sistema

x = a + 2b
y =a+b

z = b.
Siamo interessati a relazioni che coinvolgano le componenti di x. Quindi, eliminando a
e b nel precedente sistema, otteniamo la relazione x y + z = 0. Se x appartiene a V,
abbiamo [x, y, z]t = [c + d, 2c d, 7c + 6d]t , che ci conduce al sistema:

x = c + d
y = 2c d

z = 7c + 6d.
Come prima, determiniamo una relazione tra le componenti di x, eliminando c e d. Otteniamo lequazione 5x y z = 0. A questo punto sappiamo che x U se e solo se le sue
componenti soddisfano lequazione x y + z = 0, mentre x V se e solo se soddisfano lequazione 5xy z = 0. Quindi x UV solo se x,y e z soddisfano contemporaneamente
le due equazioni. Studiando il sistema

xy+z =0
5x y z = 0
possiamo determinare la scrittura di un generico vettore di U V. Risolvendo rispetto a
z, otteniamo:

z

x
1
x = z2
2
1
x = y = 32 z = z 3 .

2
y = 32 z.
z
z
2
Quindi [1, 3, 2]t genera U V, anzi, ne `e una base, da cui si deduce che dim(U V) = 1.

t e w =
3.5.18 Nello spazio R3 , determinare quali tra i vettori generati
da
w
=
[1,
0,
2]
1
2

[0, 1, 0]t appartengono anche a W = U V, dove U = u1 = [1, 1, 0]t , u2 = [2, 1, 1]t e

V = v1 = [1, 2, 7]t , v2 = [1, 1, 6]t , v3 = [1, 4, 1]t .

133

134

SOLUZIONI DEGLI ESERCIZI


Svolgimento. Notiamo, innanzitutto, che i vettori che generano U sono indipendenti. Infatti il rango della matrice che li ha come colonne, e che indica il numero di
linee indipendenti, `e 2, essendoci almeno un minore del secondo ordine non nullo:

1 2
1 1
= 1 6= 0.
A = 1 1
0 1
0 1
Quindi essi formano una base di U. Facendo lo stesso ragionamento sui tre vettori che
generano V, scopriamo che invece sono dipendenti. Infatti il determinante della matrice

1 1 1
B = 2 1 4 ,
7 6 1
che ha i tre vettori come colonne, `e nullo. Per`
o esiste almeno un minore del secondo
ordine. Per esempio quello determinato dalle prime due righe e dalla seconda e terza
colonna `e uguale a 5. Le colonne che lo individuano sono indipendenti. Quindi i vettori
[1, 1, 6]t e [1, 4, 1]t sono una base di V. cerchiamo di determinare la forma del generico
vettore di U V. Se un vettore x = [x, y, z]t appartiene ad U, deve essere combinazione lineare dei vettori della sua base, ovvero x = [x, y, z]t = a [1, 1, 0]t + b [2, 1, 1]t =
[a + 2b, a + b, b]t . Uguagliando le componenti del primo e ultimo vettore nella precedente
catena di uguaglianze, otteniamo:

x = a + 2b
y =a+b
ed eliminando a e b, otteniamo (1) x y + z = 0,

z = b,
il che fornisce la relazione che lega le componenti del generico vettore di U. Facciamo lo
stesso ragionamento per V.
Da x = [x, y, z]t = a [1, 1, 6]t + b [1, 4, 1]t = [a + b, a + 4b, 6a + b]t otteniamo il sistema:

x=a+b
y = a + 4b
(2) 5x y z = 0,

z = 6a + b.
il che fornisce la relazione che `e soddisfatta dalle componenti di tutti e soli i vettori di V.
Allora le componenti di un vettore x di U V devono soddisfare contemporaneamente
alla (1) e alla (2), ovvero devono essere soluzioni del sistema:

xy+z =0
y = 3x
5x y z = 0
z = 2z.
Le precedenti rappresentano le relazioni che devono essere soddisfatte dalle componenti
di tutti e soli i vettori appartenenti a U V. Dobbiamo ora determinare quali vettori
generati da w1 e w2 soddisfano le precedenti relazioni, e appartengono quindi a U V.
Tali vettori sono del tipo



x
1
0
a
0
a
x = y = aw1 + bw2 = a 0 + b 1 = 0 + b = b .
z
2
0
2a
0
2a

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI


Ponendo y = 3x e z = 2x, otteniamo:

b = 3a
2a = 2a

135

e quindi

b = 3a
0 = 0.

I vettori che stiamo cercando sono quindi quelli del tipo x = [a, b, 2a]t con b = 3a.

3.5.19 Si determini il valore del parametro reale k affinche i vettori v1 = [0, 1, 1, 2]t ,
v2 = [1, 0, 1, 2]t e v3 = [1, 2, k, k + 1]t di R4 siano linearmente indipendenti.
Svolgimento. Lo studio sullindipendenza lineare di un insieme di vettori pu`o
essere svolto in modo comodo usando il concetto di rango di una matrice. Infatti il rango
di M Mmn (K) rappresenta il massimo numero di linee (righe o colonne) linearmente
indipendenti di M . Consideriamo dunque una matrice avente per righe i vettori vi (i =
1, . . . , 3):

0 1 1
2
2 .
A = 1 0 1
1 2 k k+1
Studiamo il rango di A al variare del parametro k. Siccome A M34 (R) ed ha almeno un
elemento costante non nullo, possiamo subito affermare che 1 rkA 3. Inoltre il minore
del secondo ordine individuato dalle prime due righe e colonne `e uguale a 1 6= 0, quindi il
rango `e almeno 2 e 2 rkA 3. Usiamo il Teorema di Kronecker, studiando le orlature del
minore di cui sopra. Iniziamo orlando con la terza colonna di A e sviluppandolo rispetto
alla prima riga:

0 1 1

1 0 1 = 1 1 1 + 1 1 0 = k + 1 2 = k 1 = 0 k = 1.

1 k
1 2
1 2 k
Allora, con k 6= 1, esiste un minore del terzo ordine non nullo e A ha rango massimo
rkA = 3. Se k = 1, possiamo orlare il minore del secondo ordine di partenza nellultimo
modo possibile, usando la quarta colonna di A. Sviluppando sempre rispetto alla prima
riga otteniamo:

0 1 2

1 0 2 = 1 1 2 + 2 1 0 =

1 2
1 2
1 2 2
= (2 2) + 2(2 0) = 4 4 = 0.
Quindi, con k = 1, i due minori del terzo ordine presi in considerazione sono entrambi nulli.
Il Teorema di Kronecker ci garantisce che non dobbiamo studiarne altri e che rkA = 2.
Riassumendo:

k = 1 rkA = 2
k 6= 1 rkA = 3
Tornando al problema originale, quello dellindipendenza, i tre vettori sono indipendenti
se e solo se rkA = 3, quindi se e solo se k 6= 1.

3.5.20 Si considerino le matrici

h 0
h 3h
1 2
A=
, B=
, C=
,
2 1
1 h
0 1

136

SOLUZIONI DEGLI ESERCIZI


dipendenti dal parametro reale h. Stabilire per quali valori di h le tre matrici sono
linearmente dipendenti.
Svolgimento. Le tre matrici sono dipendenti se esistono terne (x, y, z) 6= (0, 0, 0)
per cui vale luguaglianza xA + yB + zC = O. Scrivendola per esteso otteniamo:

h 0
h 3h
1 2
xA + yB + zC = x
+y
+z
=
2 1
1 h
0 1

hx 0
2x x

hy 3hy
y hy

hx + hy + z 3hy + 2z
2x + y
x + hy + z

z 2z
0 z

0 0
0 0

Uguagliando i due membri della precedente equazione, otteniamo il seguente sistema


omogeneo di quattro equazioni in tre incognite:

hx + hy + z = 0
h
h 1

0 3h 2
3hy + 2z = 0

la cui matrice dei coefficienti `e H =


2 1 0 .
2x
+
y
=
0

x + hy + z = 0.
1
h 1
Vogliamo che le tre matrici siano dipendenti, ovvero che esistano soluzioni non banali
del precedente sistema (terne (x, y, z) 6= (0, 0, 0)). Cerchiamo dunque le condizioni affiche
esistano autosoluzioni. Si nota subito che 1 rkH 3, in quanto esiste almeno un
elemento non nullo in H indipendente dal parametro h (quindi H 6= O per ogni valore di
h) e H M43 (R), quindi pu`o avere al massimo rango 3. Inoltre il minore del secondo
ordine formato con le ultime due righe e dalla prima e terza colonna `e uguale a 2, quindi
ancora indipendente da h e non nullo. Pertanto rkH 2. Proseguiamo lo studio orlando il
onecker.
minore sopra individuato nei due soli modi possibili, applicando il Teorema di Kr
Orliamo dapprima usando la seconda riga di H, e sviluppando rispetto alla prima riga:

0 3h 2

2 1 0 = 3h 2 0 + 2 2 1 = 2h 2 = 0 h = 1.

1 1
1 h
1
h 1
Se h 6= 1 abbiamo rkH = 3 e il sistema ammette solo la soluzione banale (`e privo di
autosoluzioni). Se h = 1 invece tale orlato `e nullo, e cos` pure quello ottenuto usando la
prima riga di H, perche esistono due linee proporzionali (la prima e lultima riga sono
addirittura uguali). Per h = 1 entrambe le orlature del terzo ordine studiate sono quindi
nulle. La matrice H ha rango 2, ovvero il sistema sopra indicato ha 32 = 1 soluzioni,
cio`e ammette autosoluzioni. E questo significa che le A, B e C sono linearmente dipendenti.
` possibile risolvere lesercizio in maniera diversa, identificando le matrici quadrate
E
di ordine 2 con vettori di R4 , secondo quanto accennato a pagina 73, nel paragrafo riguardante le coordinate di un vettore. Alle matrici A, B e C, si associano pertanto,
rispettivamente, i vettori di R4 vA = [h, 0, 2, 1]t , vB = [h, 3h, 1, h]t e vC = [1, 2, 0, 1]. Lo
studio dellindipendenza lineare di A, B e C equivale allora a studiare lindipendenza di
vA , vB e vC , ovvero il rango della matrice avente i tre vettori come righe o come colonne.

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI


Ma questa non `e altro che la matrice H considerata nello svolgimento dellesercizio. Alla
fine, quindi, i calcoli che si `e obbligati a fare sono esattamente gli stessi, anche se il punto
di vista `e leggermente diverso.

2
3.5.21 Determinare se esistono valori del parametro h R per cui i vettori v1 = [h, h
1, 1 h2 ]t , v2 = [0, h + 1, 1]t e v3 = [0, 2, 1]t siano linearmente indipendenti.
Svolgimento. Sfruttiamo la nozione di rango di una matrice.
Se A Mmn (R), sappiamo che rkA indica il massimo numero di linee (righe o colonne)
linearmente indipendenti di A. Se si ragiona sulle righe avremo informazioni sullindipendenza di vettori di Rn , se si ragiona sulle colonne avremo informazioni sullindipendenza
di vettori di Rm . Nel caso in questione, possiamo costruire una matrice le cui colonne
siano i vettori vi e studiarne il rango:

h
0
0
A = h2 1 h + 1 2 .
1 h2
1
1
` comodo, in questo caso, esaminarne dapprima il
La matrice A `e quadrata dordine 3. E
deteminante, per studiare i casi in cui A ha rango massimo. Usando Laplace e sviluppando
rispetto alla prima riga otteniamo:

0
0
h+1 2
2h
h 1 h + 1 2 = h
= h(h + 1 2) = h(h 1).
1

1
1 h2

1
1
Se h 6= 0 e h 6= 1 si ha det A 6= 0, quindi rkA = 3 e i tre vettori formati dalle colonne
di A, ossia i vi , sono linearmente indipendenti. Quando h = 0 o h = 1 il rango di A `e
certamente inferiore a 3. Non ci interessa il suo valore, perche questo fatto `e sufficiente a

garantire che i tre vettori sono dipendenti.


3.5.22 Determinare per quali valori del parametro reale h i polinomi di R2 [t], P1 (t) = t2 ,
P2 (t) = ht 1 e P3 (t) = 2t2 + h 1 sono linearmente dipendenti.
Svolgimento.

Dobbiamo determinare i valori di h affinche lequazione


aP1 (t) + bP2 (t) + cP3 (t) = 0

sia soddisfatta per una terna non tutta nulla (a, b, c) 6= (0, 0, 0). Sviluppando i calcoli e
riordinando rispetto alle potenze decrescenti di t, otteniamo:
aP1 (t) + bP2 (t) + cP3 (t) = a(t2 ) + b(ht 1) + c(2t2 + h 1) =
= (a + 2c)t2 + hbt + (h 1)c b = 0.
Per il principio di uguaglianza dei polinomi, la precedente equazione `e soddisfatta se si
annullano contemporaneamente tutti i coefficienti delle potenze di t, ovvero se:

1 0
2
a + 2c = 0
hb = 0
0 .
la cui matrice dei coefficienti `e A = 0 h

(h 1)c b = 0.
0 1 h 1
Dal Teorema di Rouche-Capelli, esistono autosoluzioni nel precedente sistema se e solo se
det A = 0. Infatti le soluzioni sono nr , con n = 3 (numero di incognite) e r = rkA.

137

138

SOLUZIONI DEGLI ESERCIZI


Se fosse r = 3, ovvero det A 6= 0, avremmo 0 soluzioni, che significa una sola soluzione:
quella banale. Sviluppandolo rispetto alla prima colonna, otteniamo:

1 0

h
0
0 h

0 = 1
= h(h 1) = 0 h = 0 h = 1.

1 h 1
0 1 h 1
Quindi i polinomi sono dipendenti solo quando h = 0 o h = 1.
Possiamo risolvere lesercizio anche da un altro punto di vista. I tre polinomi sono
dipendenti se lo sono i vettori associati in R3 . Come regola per determinare i vettori
consideriamo lordinamento decrescente delle potenze di t. Allora ai polinomi P1 (t), P2 (t)
e P3 (t) possiamo associare, rispettivamente, in modo unico, i tre vettori v1 = [1, 0, 0]t ,
v2 = [0, h, 1]t , e v3 = [2, 0, h 1]t , che coincidono proprio con le colonne della matrice
A. Questi vettori sono dipendenti se la matrice che essi formano come colonne ha rango
inferiore a 3. Questi calcoli sono esattamente gli stessi che abbiamo appena fatto.

3.5.23 Determinare i valori del parametro k R tali per cui i vettori v1 = [k 1, 1, 1]t ,
v2 = [3, k, 3]t e v3 = [1, 1, 1]t di R3 sono linearmente dipendenti.
Svolgimento. Prendiamo in considerazione la matrice A avente per colonne
i vettori vi , e calcoliamo il suo determinante. Sviluppando rispetto alla prima riga,
otteniamo:

k 1 3 1
k 1 = (k 1)(k + 3) + 3(1 1) (3 + k) =
det A = det 1
1
3
1
= k 2 + 2k 3 6 + 3 k = k 2 + k 6.
Il determinante di A si annulla se e solo se k = 2 oppure k = 3. Quindi per k 6= 2 e
k 6= 3, abbiamo det A 6= 0, rkA = 3, e le tre colonne (i vettori vi ) sono linearmente
indipendenti. Se k = 2 o k = 3 il rango di A `e 2. Esiste sempre, in questi casi, un minore
del secondo ordine non nullo. Quelli, fra i vi , che, in quanto colonne di A, contribuiscono
a formare il minore non nullo individuato, rappresentano vettori indipendenti.

3.5.24 Esprimere la matrice di M2 (R)

1 2
M=
0 3
come combinazione lineare delle matrici

1 0
0 1
1 1
A=
, B=
, C=
.
0 0
0 0
0 1
Svolgimento. Dobbiamo individuare tre costanti, a, b, c R, tali che M = aA +
bB + cC. Sviluppiamo questultima equazione:

1 2
1 0
0 1
1 1
+b
+c
=
= aA + bB + cC = a
0 3
0 0
0 0
0 1

a 0
0 0

0 b
0 0

c c
0 c

a+c b+c
0
c

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI

139

Uguagliando termine a termine il primo e lultimo membro della precedente catena di


uguaglianze, otteniamo il seguente sistema di quattro equazioni in tre incognite:

1=a+c
a=1c

a = 2
2=b+c
b=2c
b = 1
da cui M = 2A B + 3C.
0=0
0=0

c = 3.

3=c
c=3

3.5.25 Stabilire se le matrici

1 1
2 1
3 1
A=
, B=
, C=
0 2
1 0
1 4
sono linearmente indipendenti.
Svolgimento. Dobbiamo determinare se esistono tre scalari (a, b, c) 6= (0, 0, 0)
tali che aA + bB + cC = O. Sviluppiamo questa equazione.

1 1
2 1
3 1
aA + bB + cC = a
+b
+c
=
0 2
1 0
1 4

a a
0 2a

2b b
b 0

a + 2b 3c a + b + c
b+c
2a + 4c

3c c
c
4c

0 0
0 0

Uguagliando termine a termine le ultime due matrici della precedente catena di uguaglianze, otteniamo il sistema:

a + 2b 3c = 0
1 2 3

1 1 1
a + b + c = 0

la cui matrice dei coefficienti `e A =


0 1 1 .
b
+
c
=
0

2a + 4c = 0,
2 0 4
Certamente `e rkA 2, in quanto, ad esempio, il minore formato dalle ultime due righe
e dalle prime due colonne `e uguale a 2, quindi non nullo. Orlando con la seconda riga
e sviluppando rispetto alla prima colonna otteniamo un minore uguale a 4, per cui
rkA = 3. Esiste quindi ununica soluzione del precedente sistema, quella banale (0, 0, 0) e
le tre matrici sono linearmente dipendenti.

t
3.5.26 Stabilire, al variare del parametro reale t, se il vettore v = [t, 3, 3] `e combinazione
lineare dei vettori w1 = [1, 3, 0]t e w2 = [2, 2, 1]t
Svolgimento. Dobbiamo decidere se esistono valori di t afinche lequazione v =
aw1 + bw2 sia soddisfatta, per qualche coppia di reali a, b R. Sviluppando i calcoli,
otteniamo:

t
1
2
a
2b
a + 2b
v = 3 = aw1 + bw2 = a 3 + b 2 = 3a + 2b = 3a + 2b .
3
0
1
0
b
b

140

SOLUZIONI DEGLI ESERCIZI


Uguagliando i vettori elemento per elemento, abbiamo

1
t = a + 2b
3 = 3a + 2b , essendo A = 3

3=b
0

il sistema:


2
t
2 , B = 3 .
1
3

la matrice dei coefficienti e quella dei termini noti, rispettivamente. Il rango di A `e 2,


in quanto, ad esempio, il minore del secondo ordine individuato dalle ultime due righe
`e uguale a 3, quindi non nullo. Se vogliamo che esistano soluzioni, il determinante della
matrice completa A0 = [A|B] deve essere 0. Solo in questo caso, infatti, i due ranghi
coincidono e il sistema ammette soluzioni. Sviluppando rispetto allultima riga, otteniamo:

1 2 t

1 t
1 2
0

=
det A = 3 2 3 = 1
+ 3
3 3
3 2
0 1 3
= 3 + 3t 24 = 3t 21 = 0 t = 7.
Per t 6= 7 il sistema non ammette soluzioni e v non pu`o essere combinazione lineare dei
wi . La soluzione del problema `e t = 7.

3.5.27 Stabilire se il seguente insieme di vettori di R3 `e indipendente:

0
2
1
X = 2 , 1 , 5 .

1
3
1
Svolgimento. Linsieme X `e indipendente se `e formato da vettori linearmente
indipendenti. Calcolando il determinante della matrice A avente come colonne gli elementi
di X (nellordine assegnato), abbiamo det A = 4 6= 0. Quindi rkA = 3, per cui le tre
colonne di A sono indipendenti, e pertanto

linsieme X `e a sua volta indipendente.

3.5.28 Determinare una base per V = (x, y, x + y, x y) R4 | x, y R .


Svolgimento.

Il generico vettore v di V `e

v = [x, y, x + y, x y]t = [x, 0, x, x]t + [0, y, y, y]t =


= x [1, 0, 1, 1]t + y [0, 1, 1, 1]t = xv1 + yv2 .
Quindi tutti i vettori di V sono combinazione lineare di v1 e v2 . Ovvero B = {v1 , v2 } `e
un insieme generatore per v. Ma i vi sono linearmente indipendenti. Infatti, si verifica
facilmente che il rango della matrice A, avente per colonne i vettori v1 e v2 , `e 2, quindi i
vettori vi sono indipendenti,

e B `e una base.

t
t
t
t
3.5.29 Siano U = [x, y, z] x + 2y z = 0 e V = [x, y, z] = a [1, 0, 1] + b [2, 1, 0]
due sottospazi di R3 . Dopo aver determinato una base di U, individuare una base di
U V.
Svolgimento. Gli elementi di U sono tutti e soli i vettori u = [x, y, z]t tali che
x + 2y z = 0, cio`e tali che x = 2y + z. Hanno dunque la forma:

2y + z
2y
z
2
1
= y + 0 = y 1 + z 0 = xu1 + yu2 .
y
u=
z
0
z
0
1

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI

141

Quindi tutti e soli i vettori di U si esprimono come combinazione lineare degli ui . Inoltre
la matrice da essi formata ha almeno un minore del secondo ordine non nullo (per esempio
quello individuato dalle prime due righe). Perci`o i vettori ui sono indipendenti, e B =
{u1 , u2 } `e una base per U. Consideriamo ora il sottospazio V. Ogni elemento di V `e
combinazione lineare di v1 = [1, 0, 1]t e v2 = [2, 1, 0]t , per definizione. Quindi, v =
[x, y, z]t V se e solo se, per qualche a, b R:

x
1
2
a
2b
a + 2b
.
b
v = y = av1 + bv2 = a 0 + b 1 = 0 + b =
z
1
0
a
0
a
Uguagliando, termine a termine, il primo e lultimo vettore della precedente catena di
uguaglianze, abbiamo il sistema

x = a + 2b
y=b

z = a
da cui, eliminando a e b, otteniamo lequazione x 2y + z = 0. La precedente esprime la
relazione che deve esistere tra le componenti di un vettore v affinche esso appartenga a
V. Possiamo allora studiare lintersezione U V. Se un vettore x = [x, y, z]t appartiene
a U, le sue componenti devono soddisfare, per definizione, lequazione x + 2y z = 0. Se
appartiene anche a V devono soddisfare pure lequazione x2y +z = 0. Per cui x UV
se e solo se le componenti di x sono soluzioni del sistema:

x
0
0
x + 2y z = 0
x=0
da cui
e quindi x = y = y = y 1 = yw.
x 2y + z = 0,
z = 2y,
z
2y
2
Il vettore w genera U V e, essendo non nullo e quindi indipendente, ne `e una base. Ne
consegue che dim(U V) = 1.

3.5.30 In R4 , siano V = h[1, 1, 0, 1]t , [2, 0, 0, 1]t i e W = h[1, 1, 0, 0]t , [0, 0, 0, 1]t i. Determinare la dimensione e una base per V W.
Svolgimento. Iniziamo a rappresentare i generici vettori di V e W. Un vettore
di V `e combinazione lineare dei suoi generatori, quindi ha la forma:


1
2
x
2y
x + 2y
1

x
+y 0 = x + 0 =
,
v = x
0
0 0 0

0
1
1
x
y
x+y
con x, y R. Analogamente, il generico vettore di W `e:



1
0
z
1
0 z



w = z
0 + t 0 = 0 +
0
1
0


0
z
z
0
=
0 0
t
t

con z, t R. Dobbiamo individuare la forma del generico vettore appartenente allintersezione V W. Un tale vettore, appartenendo sia a V che a W si deve poter scrivere

142

SOLUZIONI DEGLI ESERCIZI


sia usando v, per opportuni valori
Uguagliamo v e w, cercando delle
Abbiamo:


x + 2y
z

x
= z
v=w

0
0
x+y
t

di x e y, sia usando w, per opportuni valori di z e t.


relazioni tra x e y, da un lato, e tra z e t, dallaltro.

x + 2y = z

x=z
, da cui

0=0

x + y = t,

y = z

x=z
e quindi
0=0

t = 0.

Se prendiamo in considerazione v, ossia x e y, dalle prime due equazioni otteniamo x = y


e, sostituendo nella generica scrittura di v, abbiamo il generico vettore di V W:

x
x

= x
u=
0

1
1
.
0
0

Analogamente, svolgendo i calcoli in riferimento a w e prendendo in considerazione z e t,


dallultima equazione otteniamo t = 0. Non abbiamo condizioni sulla z. Sostituendo nella
scrittura di w, otteniamo la generica forma di un vettore dellintersezione:

z
1
z
1

u=
0 = z 0
0
0

Quindi tutti i vettori di VW sono multipli di [1, 1, 0, 0]t , ovvero VW = [1, 1, 0, 0]t
e dim(V W) = 1.

3.5.31 Siano

V = v = [v1 , v2 , v3 , v4 ]t | v2 + v3 + v4 = 0 ,

W = w = [w1 , w2 , w3 , w4 ]t | w1 + w2 = 0, w3 = 2w4
due sottoinsiemi di R4 . Dimostrare che V e W sono sottospazi di R4 e determinarne
dimensione ed una base.
Svolgimento. Iniziamo con V. Siano v0 = [v10 , v20 , v30 , v40 ]t e v00 = [v100 , v200 , v300 , v400 ]t
due generici vettori di V. Per definizione, valgono le seguenti equazioni:
(1) v20 + v30 + v40 = 0 e (2) v200 + v300 + v400 = 0.
Verifichiamo se le componenti di una combinazione lineare di v0 e v00 soddisfano unequazione analoga. Per ogni a, b R abbiamo:

0
v1000
v1
000
0

v
2 = av0 + bv00 = a v2
v000 =
000
v3
v30
v4000
v40


v100
av10 + bv100

v200 av20 + bv200


+ b

v300 = av30 + bv300


v400
av40 + bv400

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI

143

Lequazione v2000 + v3000 + v4000 = 0 `e soddisfatta. Infatti:


v2000 + v3000 + v4000 =
=
(1 )

(av20 + bv200 ) + (av30 + bv300 ) + (av40 + bv400 ) =


(av20 + av30 + av40 ) + (bv200 + bv300 + bv400 ) =
a(v20 + v30 + v40 ) + b(v200 + v300 + v400 ) = 0 + 0 = 0.

Luguaglianza ( 1 ) `e valida in virt`


u delle (1) e (2). Quindi v000 V, che `e linearmente chiuso.
Cio`e `e un sottospazio. Un ragionamento analogo si fa per W. Se w0 = [w10 , w20 , w30 , w40 ]t e
w00 = [w10 , w20 , w30 , w40 ]t sono due elementi di W, valgono le seguenti equazioni:
(3) w10 + w20 = 0,

(4) w30 = 2w40 ,

(5) w100 + w200 = 0,

Le componenti di aw0 + bw00 , al variare di a, b R sono:

000
w1
aw10 + bw100
000
0
00
w2

= aw0 + bw00 = aw2 + bw2


w000 =
aw30 + bw300
w3000
000
w4
aw40 + bw400

(6) w300 = 2w400 .

Abbiamo:
(7) w1000 + w2000 = (aw10 + bw100 ) = (aw20 + bw200 ) =
= (aw10 + aw20 ) + (bw100 + bw200 ) =
(2 )

= a(w10 + w20 ) + b(w100 + w200 ) = 0 + 0 = 0


(3 )

(8) w3000 = aw30 + bw300 = a(2w40 ) + b(2w400 ) = 2(aw40 + bw400 ) = 2w4000 .


Luguaglianza ( 2 ) `e conseguenza delle (3) e (5), mentre luguaglianza ( 3 ) `e conseguenza
delle (4) e (6). Le equazioni (7) e (8) ci dicono che w000 W, che quindi `e linearmente
chiuso, ovvero `e un sottospazio. Ora che abbiamo verificato che V e W sono sottospazi,
studiamone la dimensione e determiniamone una base. Dallequazione (1) segue che la
relazione che lega le componenti di un generico vettore v di V `e v2 = v3 v4 . Questa
relazione permette di scrivere la seconda componente in funzione delle ultime due. Le
componenti v1 , v3 e v4 sono invece libere di variare. Quindi:

v1
v1
0
0
v3 v4 0 v3 v4
=

v =

0 + v3 + 0 =
v3
0
v4
v4

0
1
0
0
0
1
1

= v1
0 + v3 1 + v4 0 = v1 v1 + v3 v2 + v4 v3 .
0
0
1
Nella matrice A avente come colonne i vi , il minore determinato dalla prima, terza e quarta
riga `e la matrice identica del terzo ordine, quindi `e 6= 0 e le colonne di A sono indipendenti.
Perci`o non solo i vi sono generatori di V, ma essendo indipendenti ne rappresentano una
base e dim V = 3. Ragioniamo nello stesso modo per W. Dalle equazioni (3) e (4), segue
che le componenti di un generico vettore di W sono legate dalle relazioni w1 = w2 e

144

SOLUZIONI DEGLI ESERCIZI


w3 = 2w4 . Quindi possiamo scrivere
ottenendo:


w1
w2

w =
w3 =
w4

w1 e w3 in funzione, rispettivamente, di w2 e w4 ,

w2
w2
0

w2
= w2 + 0 =
2w4 0 2w4
w4
0
w4

1
+ w4
= w2

0
0

0
0
= w2 w1 + w4 w2 .
2
1

Pertanto A ha rango 2, quindi i wi sono indipendenti e non solo generano W, ma ne


determinano una base. Ne consegue che dim W = 2.

3.5.32 Sia U linsieme dei vettori u R3 tali che wt u = 0, con

1
w = 2 .
1
Dimostrare che U `e un sottospazio e determinarne la dimensione ed una base.
Svolgimento.
sieme U diventa:

Posto u = [x, y, z]t , la condizione che caratterizza i vettori dellin

[x y z]
1
= x 2y + z = 0.
2
1

Quindi x = 2y z `e la relazione che permette di esprimere la componente x, di tutti


e soli i vettori di U, in funzione delle altre due componenti. Iniziamo a dimostrare che
U `e un sottospazio. Verifichiamone la chiusura lineare. Consideriamo due vettori di U,
u0 = [x0 , y 0 , z 0 ]t e u00 = [x00 , y 00 , z 00 ]t . Per quanto detto, valgono le seguenti uguaglianze:
(1) x0 = 2y 0 z 0
(2) x00 = 2y 00 z 00 .
Per ogni coppia di scalari a, b R abbiamo:

000
ax0 + bx00
x
au0 + bu00 = ay 0 + by 00 = y 000 = u000 .
az 0 + bz 00
z 000
Allora, dalle (1) e (2) segue:
x000 = ax0 + bx00 = a(2y 0 z 0 ) + b(2y 00 z 00 ) = 2(ay 0 + by 00 ) (az 0 + bz 00 ) = 2y 000 z 000 .
Quindi u000 U, che `e linearmente chiuso, cio`e `e un sottospazio di R3 . Sempre dalla
relazione che caratterizza i vettori di U, possiamo scrivere:


x
2y z
2y
z
2
1
= y + 0 = y 1 + z 0 = yu1 + zu2 .
y
u = y =
z
z
0
z
0
1

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI


Perci`o ogni vettore u di U `e combinazione lineare degli ui , che formano quindi un insieme
generatore per U. Nella matrice A1 avente come colonne i vettori ui , il minore individuato
dalle prime due righe `e uguale a 1, quindi non nullo. Di conseguenza, il rango di A ci
indica il numero di colonne linearmente indipendenti. Gli ui sono indipendenti, generano
U, ovvero ne sono una base. Dunque dim U = 2.

3.5.33 Determinare una base e la dimensione dello spazio U = hx, y, zi, con


1
0
1
1
2
2


x=
0 , y = 1 , z = 0 .
2
0
0
Svolgimento. Linsieme X = {x, y, z} `e un insieme generatore di U. Quindi
contiene necessariamente una base di U. Dobbiamo cercare di individuare il massimo
numero di vettori linearmente indipendenti di X. Ricordando che il rango di una matrice
rappresenta il massimo numero di linee (righe o colonne) indipendenti della matrice stessa,
possiamo studiare il rango di una matrice che ha come colonne i vettori di X. La

1
0 1
1 2 2

A=
0
1 0
2
0 0
appartiene a M43 (R) e ha almeno un elemento 6= 0. Quindi 1 rkA 3. Il minore del
secondo ordine individuato dalle ultime due righe e dalle prime due colonne, ovvero

0 1

(4.3.6)
2 0 = 2 6= 0
ci dice che rkA 2. Per determinare se A ha rango massimo possiamo usare il Teorema di
Kronecker, calcolando solo i minori di ordine 3 ottenuti orlando (4.3.6). Usando la prima
riga e sviluppando rispetto allultima colonna, otteniamo:

1 0 1

0 1
0 1 0 = 1

2 0 2 6= 0.
2 0 0
Esiste quindi un minore di ordine massimo non nullo e rkA = 3. Tutte le colonne di A,
ovvero i vettori di X, sono indipendenti. Quindi X `e una base e dim U = 3.

3.5.34 Determinare una base e la dimensione dello spazio U = hx, y, zi, con



1
2
1

x = 2 , y = 1 , z = 0 .
1
0
0
Svolgimento. I vettori x, y e z sono generatori di U. Dobbiamo scoprire quali
sono anche linearmente indipendenti. Possiamo studiare una matrice A avente questi
vettori come colonne (o righe). Il rango di

1 2 1
A= 2 1 0
1 0 0

145

146

SOLUZIONI DEGLI ESERCIZI


rappresenta il massimo numero di colonne indipendenti, quindi ci indica quanti lo sono fra
i vettori x, y e z. Siccome det A = 1 6= 0, abbiamo che rkA = 3 e i vettori sono tutti
indipendenti. Formano dunque una base di U che quindi ha dimensione dim U = 3.

4
3.5.35 Nello spazio R , si considerino i sottospazi:
U: xz =y+t=0

(1);

V : x+t=yz =0

(2).

Determinare le dimensioni di U, V, U + V, stabilire se U + V `e una somma diretta,


trovarne una base e darne una rappresentazione.
Svolgimento. Le equazioni (1) e (2) permettono di determinare la forma di
un generico vettore, rispettivamente, di U e di V. Infatti, per definizione, un vettore
x : [x, y, z, t]t appartiene ad U se e solo se x = z e y = t (equazioni (1)). Quindi il
generico vettore di U `e:

x
x
0
1
0

t 0 t

= +
= x 0 + t 1 = xu1 + tu2 .
u=
x x 0
1
0
t
0
t
0
1
I vettori u1 e u2 generano U. Sono indipendenti, in quanto la matrice A che ha come
colonne gli ui , ha rango 2 (si prenda, ad esempio, in considerazione il minore determinato
dalle prime due righe). Quindi B = {u1 , u2 } `e una base di U e dim U = 2. Ragionando
allo stesso modo su V, dalle equazioni (2) otteniamo che un vettore di componenti x, y, z, t
appartiene a V se e solo se x = t e y = z. Quindi il generico vettore di V `e:

t
0
t
0
1
y y 0
1
0

v=
y = y + 0 = y 1 + t 0 = yv1 + tv2 .
t
0
t
0
1
Lo spazio V `e generato dai vettori vi , in quanto tutti gli elementi di V si scrivono come loro
combinazione lineare. Inoltre i vi sono indipendenti, come si pu`o dimostrare osservando
che la matrice avente i vi come colonne ha rango 2. Quindi B0 = {v1 , v2 } `e base di V e
dim V = 2. Per quanto riguarda la determinazione di dim(U + V) possiamo ragionare nel
modo seguente. I vettori dello spazio somma sono tutti e soli i vettori di tipo u + v, al
variare di u U e v V. Ma, per quanto visto, ogni u U si scrive come combinazione
lineare degli ui e ogni v si scrive come combinazione lineare dei vi . Allora il generico
vettore di U + V non `e altro che una combinazione lineare dei vettori u1 , u2 , v1 , v2 , che
rappresentano un insieme generatore di U + V. Dobbiamo solo individuare quanti, fra
questi vettori, sono indipendenti. Consideriamo la matrice A, avente i quattro vettori
` una matrice quadrata ad elementi non tutti nulli.
come colonne e studiamone il rango. E
Quindi 1 rkA 4. Siccome det A = 0, rkA < 4. Per`
o il minore del terzo ordine
individuato dalle prime tre righe e colonne `e non nullo. Infatti, sviluppando rispetto alla
prima riga, abbiamo:

1 0 0

1 1

0 1 1 = 1

0 1 = 1 0 = 1 6= 0.

1 0 1

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI

147

Quindi rkA = 3, e ci sono tre colonne indipendenti. Queste colonne sono quelle che
contribuiscono alla costruzione del minore appena calcolato. Quindi i vettori u1 , u2 , v1
determinano una base di U + V e dim(U + V) = 3. Per stabilire se la somma `e diretta
possiamo usare la Formula di Grassmann. Sappiamo che dim U + dim V = dim(U + V) +
dim(U V), da cui dim(U V) = dim U + dim V dim(U + V) = 2 + 2 3 = 1. Questo
significa che U V non si riduce al sottospazio banale {0}, per cui, per definizione, la
somma non pu`o essere diretta. Cerchiamo infine di rappresentare i vettori di U + V. Per
fare questo dobbiamo determinare una relazione che leghi le componenti di un generico
vettore appartenente a U+V. Abbiamo individuato una base di U+V: B 00 = {u1 , u2 , v1 }.
Se un vettore x = [x, y, z, t]t appartiene a U + V, ovviamente `e combinazione dei vettori di
B00 . In particolare linsieme {u1 , u2 , v1 , x} `e linearmente dipendente. Questo significa che,
detta M la matrice avente come colonne i vettori del precedente insieme deve risultare
rkM < 4. Posto quindi det M = 0 e sviluppando i conti, troviamo lequazione x+yz+t =
0, che rappresenta la relazione che deve intercorrere
tra le componenti
di un vettore
affinche

questi appartenga a u + v. Quindi U + V = [x, y, z, t]t x + y z + t = 0 .

3.5.36 In R4 si considerino i seguenti vettori


u = [1, 2, 0, 0]t ,

v = [0, 1, 1, 0]t ,

w = [0, 0, 2, 1]t

e gli spazi U = hui e V = hv, wi. Stabilire la dimensione di U V e determinare se U + V


`e somma diretta.
Svolgimento. Siccome dobbiamo indagare sulle dimensioni di spazi somma e
intersezione, il metodo migliore `e quello di utilizzare la Formula di Grassmann. Intanto
osserviamo che dim U = 1, essendo U generato da un unico vettore non nullo. Per quanto
riguarda V, si osservi che la matrice

0 1 1 0
A=
0 0 2 1
le cui righe sono i vettori v e w, ha rango due (per esempio il minore determinato dalle
ultime due colonne `e 6= 0). Quindi i generatori di V sono indipendenti e dim V = 2.
Linsieme X = {u, v, w} genera U + V. Infatti tutti i vettori della somma sono del tipo
x + y, con x U e y V. Ma un vettore di U `e multiplo di u, mentre i vettori di
V sono combinazioni lineari di v e w. Quindi gli elementi di U + V si ottengono come
combinazione dei vettori dellinsieme X. Per capire quanti di questi sono indipendenti,
studiamo il rango della matrice

1 2 0 0
B = 0 1 1 0 ,
0 0 2 1
che ha gli elementi di X come righe. Il minore individuato dalle ultime tre colonne
`e 6= 0, quindi rkB = 3 e i vettori di X sono indipendenti. Linsieme X `e una base
di U + V e dim(U + V) = 3. Dalla formula di Grassmann abbiamo dim(U V) =
dim U + dim V dim(U + V) = 1 + 2 3 = 0. Lunico spazio di dimensione 0 `e quello
banale, quindi U V = {0} e la somma `e diretta.

4
t
t
3.5.37 In R si considerino i vettori u1 = [1, 1, 3, 1] , u2 = [1, 1, 1, 1] , v1 = [1, 1, 1, 0]t ,
v2 = [1, 1, 1, 3]t e i sottospazi U = hu1 , u2 i e V = hv1 , v2 i. Determinare le dimensioni
di U e V e stabilire se la loro somma `e diretta.

148

SOLUZIONI DEGLI ESERCIZI


Svolgimento. Iniziamo a studiare le dimensioni di U e V. Esaminiamo il rango
delle matrici A e B, aventi come colonne, rispettivamente, i vettori u1 , u2 e v1 , v2 . Si
vede facilmente che entrambe hanno almeno un minore del secondo ordine non nullo,
quindi rkA = rkB = 2. Ci`o significa che entrambe le coppie di colonne sono indipendenti,
ovvero che gli insiemi B = {u1 , u2 } e B0 = {v1 , v2 } sono basi, rispettivamente, di U e
di V. Quindi dim U = dim V = 2. I vettori di U + V sono tutte e sole le somme di
vettori di U e di V, ciascuno dei quali `e rispettivamente una combinazione lineare dei
vettori di B e di B0 . Se x U + V esistono due vettori, u U e v V tali che
x = u + v. Ma, per definizione, u = au1 + bu2 , con a, b R, mentre v = cv1 + dv2 ,
con c, d R. Quindi x = au1 + bu2 + cv1 + dv2 . Di conseguenza i vettori dello spazio
somma sono combinazioni lineari dei vettori di B B0 . Consideriamo la matrice C = [A|B],
ottenuta accostando le matrici A e B. Facendo i calcoli si ottiene det C = 0, mentre il
minore del terzo ordine individuato dalle ultime tre righe e dalle prime tre colonne `e
6= 0. Ne deduciamo che rkC = 3. Ci`o significa che le tre colonne che determinano il
minore in questione sono linearmente indipendenti, ovvero che {u1 , u2 , v1 } sono una base
di U + V, che quindi ha dimensione 3. Utilizzando la formula di Grassmann, abbiamo
dim(U V) = dim U + dim V dim(U + V) = 2 + 2 3 = 1. Quindi U V 6= {0}
(altrimenti avremmo dim(U V) = 0) e la somma non `e diretta.

3.5.38 Si consideri lo spazio R4 [t] dei polinomi di grado n 4 a coefficienti reali, e gli
insiemi U = {p(t) R4 [t] : p(1) = p(0) = p(1) = 0} e V = {q(t) R4 [t] : q(0) = q(1) =
q(2) = 0}.
1. Dimostrare che U e V sono sottospazi di R4 [t].
2. Determinare la dimensione ed una base di U V .
Svolgimento.
(1) Il generico polinomio p(t) U si pu`o scrivere come p(t) = t(t 1)(t + 1)(at + b).
Consideriamo una generica combinazione lineare p1 (t) + p2 (t), con p1 (t), p2 (t) U ed
, R. Abbiamo allora p1 (t) = t(t 1)(t + 1)(a1 t + b1 ) e p2 (t) = t(t 1)(t + 1)(a2 t + b2 ),
per cui p1 (t) + p2 (t) = t(t 1)(t + 1)[(a1 + a2 )t + b1 + b2 ]. Posto a1 + a2 = a3 e
b1 +b2 = b3 , risulta p1 (t)+p2 (t) = t(t1)(t+1)(a3 t+b3 ), e quindi p1 (t)+p2 (t) U .
Pertanto, U `e chiuso rispetto alle combinazioni lineari di suoi elementi, e quindi U `e un
sottospazio vettoriale di R4 [t]. In maniera analoga si dimostra che anche V `e un sottospazio
di R4 [t].
(2) Indichiamo con r(t) il generico polinomio dello spazio U V . Abbiamo allora

r(t) = t(t 1)(t + 1)(at + b) poiche r(t) U


r(t) = t(t 1)(t 2)(ct + d) poiche r(t) V
Quindi deve essere t(t 1)(t + 1)(at + b) = t(t 1)(t 2)(ct + d), cio`e at2 + (a + b)t + b =
ct2 + (2c + d)t 2d. Per il principio di identit`
a dei polinomi risulta

a=c
a=d
a + b = 2c + d
c=d

b = 2d
b = 2d
Di conseguenza, r(t) = t(t1)(t+1)(dt2d) = dt(t1)(t+1)(t2), per cui dim(U V ) = 1,
ed una sua base `e rappresentata dal polinomio t(t 1)(t + 1)(t 2).

4.3 ESERCIZI CAPITOLO 3-SOLUZIONI

149

3.5.39 Nello spazio canonico R4 si considerino i sottospazi U e W associati, rispettivamente, ai seguenti sistemi lineari

2x + y 5z 5t = 0
3x 2y + 3z 11t = 0
U

x 3y + 8z 6t = 0

x + y + 2z 5t = 0
x 2y z 2t = 0
W

2x + 5y + 7z 13t = 0.

Determinare la dimensione ed una base per gli spazi U e W.


Svolgimento. Detta [U ] la matrice dei coefficienti del sistema associato ad U,
notiamo facilmente che r([U ]) 2, in quanto il minore {R1 , R2 } {C1 , C2 } `e non nullo.
Orlando questo minore nei due modi possibili otteniamo sempre determinanti nulli, e
quindi r([U ]) = 2. Di conseguenza, per il teorema di classificazione dei sottospazi, risulta
dimU = 2. Per trovare una base di U risolviamo il sistema

2x + y = 5z + 5t
3x 2y = 3z + 11t

x = z + 3t
y = 3z t

x
1
y
3


z = z 1
t
0

+ t 1 .

0
1

Pertanto, una base di U `e data da BU = [1, 3, 1, 0]t , [3, 1, 0, 1]t .


Sia ora [W ] la matrice dei coefficienti del sistema associato a W, notiamo che anche
r([W ]) = 2, in quanto il minore {R1 , R2 } {C1 , C2 } `e non nullo, ed orlando otteniamo
sempre determinanti nulli. Di conseguenza, anche dimW = 2. Per trovare una base di W
risolviamo il sistema

x + y = 2z + 5t
x 2y = z + 2t

x = z + 4t
y = z + t

x
1
y
1


z = z 1
t
0


+ t 1 .

0
1

Pertanto, una base di W `e BW = [1, 1, 1, 0]t , [4, 1, 0, 1]t .

3.5.40 Siano U e W i sottospazi di R4 definiti nellEsercizio 3.5.39. Determinare lo spazio


U W, e dedurre la dimensione di U + W.
Svolgimento. Il generico vettore di UW si ottiene uguagliando le scritture del
generico vettore di U e di W, cio`e [z + 3t, 3z t, z, t]t = [z + 4t, z + t, z, t]t , e risolvendo otteniamo t = 2z. Pertanto, il generico vettoredi UW si ottiene imponendo il vincolo

t = 2z in U (oppure in W), e quindi U W = [7z, z, z, 2z]t = z [7, 1, 1, 2]t , z R . In


particolare abbiamo dim(U W) = 1, e dalla formula di Grassmann ricaviamo
dim(U + W) = dimU + dimW dim(U W) = 3.

Indice analitico
Identit`
a di Bezout, 15
Simbolo di Kr
onecher, 23
Teorema di Binet, 33
Teorema di Laplace, 30
algebricamente chiuso, 19
algoritmo di Euclide, 14
alternante, 42
anello commutativo, 19
anello unitario, 19
anello, 18
antisimmetrica, 24
applicazioni, 7
argomenti, 7
associativit`
a, 12
binaria, 12
campi finiti, 20
campo, 19
classi di equivalenza, 9
classi di resti modulo n, 10
codominio della funzione, 8
codominio di una relazione, 7
complemento algebrico, 30
conformabile, 25
controimmagine, 8
coppia ordinata, 6
determinante, 29, 43
diagonale principale, 21
diagonale secondaria, 21
diagonali, 23
differenza simmetrica, 6
divisori dello zero, 20
dominio della funzione, 8
dominio di una relazione, 7
elementi confrontabili, 9
elementi della matrice, 21
elementi equivalenti, 9
elementi principali, 22
elemento neutro, 18
emisimmetrica, 24

equazione diofantea, 16
equazione modulare, 15
forma multilineare, 42
funzione biunivoca, 8
funzione composta, 8
funzione determinante, 41
funzione iniettiva, 8
funzione inversa, 8
funzione suriettiva, 8
funzioni, 7
gruppo abeliano, 18
gruppo lineare, 46
gruppo, 18
identit`
a, 23
implicazione, 11
insieme complementare, 6
insieme delle parti, 6
insieme ordinato, 9
insieme quoziente, 9
insieme vuoto, 6
insiemi disgiunti, 5
insiemi numerici, 5
intersezione tra due insiemi, 5
inverso, 18
leggi di De Morgan, 6
matrice aggiunta, 34
matrice binaria, 23
matrice emisimmetrica, 51
matrice identica, 23
matrice nulla, 23
matrice ortogonale, 47
matrice quadrata, 21
matrice simmetrica, 24
matrice, 21
matrici di permutazione, 40
matrici scalari, 24
matrici singolari, 30
matrici triangolari, 23
minore complementare, 29

INDICE ANALITICO
monoide, 18
notazione additiva, 13
notazione moltiplicativa, 13
numeri complessi, 19
numeri interi relativi, 5
numeri interi, 5
numeri razionali, 5
numeri reali, 5
operazione n-aria, 12
operazione binaria, 12
operazione interna, 12
ordine parziale, 9
ordine totale, 9
predicato, 7
prodotto cartesiano, 6
prodotto di matrici, 25
prodotto per scalari, 25
prodotto righe per colonne, 28
quantificatore universale, 11
rappresentante della classe, 9
regola di Sarrus, 32
relazione antiriflessiva, 9
relazione antisimmetrica, 9
relazione dordine largo, 9
relazione dordine stretto, 9
relazione dordine, 9
relazione di equivalenza, 9
relazione in un insieme, 7
relazione modulo n, 10
relazione riflessiva, 9
relazione simmetrica, 9
relazione tra insiemi, 7
relazione transitiva, 9
retta reale, 5
scalari, 19
semigruppo, 18
sistema di vettori ortonormale, 47
somma di matrici, 25
sottomatrice, 22
sottostruttura, 17
struttura algebrica, 17
ternaria, 12
traccia, 22
trasposizione, 27
trasposta, 27
unaria, 12
vettori colonna, 21

151
vettori riga, 21