Geometria e Algebra Lineare II
Geometria e Algebra Lineare II
[Link]
a.a.2004-2005
i
Si ringraziano i [Link] Abbena e Gian Mario Gianella per avere fornito e consentito di
utilizzare il materiale relativo al loro corso di Geometria e Algebra Lineare II. Grazie anche per
i preziosi consigli e suggerimenti. Si ringraziano inoltre gli studenti per le utili osservazioni, le
correzioni e l’interesse dimostrato.
Ulteriori suggerimenti,osservazioni,correzioni,commenti sono graditi. Scrivere a :
[Link]@[Link]
ii
Indice
1 Algebra 3
1.1 Generalità sui gruppi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 La tavola di moltiplicazione di un gruppo finito . . . . . . . . . . . . . . . . . . 7
1.3 Sottogruppi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Omomorfismi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Gruppo quoziente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Azioni di gruppi su insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
i
4.4 Il Teorema di Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5 Studio del segno di una forma quadratica . . . . . . . . . . . . . . . . . . . . . 65
4.6 Altro metodo di riduzione a forma camonica . . . . . . . . . . . . . . . . . . . . 67
4.7 Riduzione simultanea a forma canonica . . . . . . . . . . . . . . . . . . . . . . . 69
5 Isometrie e similitudini 75
5.1 Isometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.2 Similitudini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.3 Le isometrie del piano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6 Operatori unitari 83
6.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7 Endomorfismi autoaggiunti 85
7.1 Definizione e proprietà. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.2 Matrici di endomorfismi autoaggiunti e Teorema di diagonalizzazione . . . . . . 86
7.3 Operatori aggiunti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
8 Gruppi di matrici 91
8.1 Caso reale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.2 Caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
9 Addenda 97
9.0.1 Piani iperbolici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.0.2 Componenti del gruppo di Lorenz . . . . . . . . . . . . . . . . . . . . . 98
1
2
Capitolo 1
Algebra
Definizione 1.1. Un gruppo G è un insieme in cui è assegnata una regola (detta legge di
composizione ) che permette di associare ad ogni coppia di elementi x, y di G un terzo elemento
di G denotato con x ◦ y e avente le seguenti proprietà
(x ◦ y) ◦ z = x ◦ (y ◦ z).
GR2. (Elemento neutro) In G esiste un elemento e tale che, per ogni x in G, si abbia
e ◦ x = x ◦ e = x.
GR3. (Elemento inverso) Per ogni elemento x di G esiste un elemento x∗ di G tale che
x ◦ x∗ = x∗ ◦ x = e.
Questo elemento è detto inverso di x ed è unico: se esiste un altro elemento x∗∗ tale che
x∗∗ ◦ x = x ◦ x∗∗ = e, allora x∗ = x∗∗ .
Di solito si chiama la composizione moltiplicazione e si scrive · (o niente) per la composizione
◦ e 1 per l’elemento neutro e. L’elemento invero in questo caso si indica con x−1 .
3
c) R∗ : i numeri reali non nulli, rispetto alla moltiplicazione;
e) Mn (R) (Mn (C)) : l’insieme delle matrici reali (complesse) quadrate di ordine n, rispetto
all’addizione tra matrici.
f) L’insieme dei vettori di Rn è un gruppo rispetto alla somma di vettori. Più in generale
ogni spazio vettoriale V su un campo K è un gruppo rispetto alla somma di vettori.
Tutti questi gruppi godono in realtà di una proprietà ulteriore: sono gruppi abeliani o com-
mutativi, gruppi cioè in cui la legge di composizione è commutativa : x ◦ y = y ◦ x, per ogni
x, y ∈ G. Spesso per i gruppi commutativi la composizione viene detta addizione e si indica
con +. In questo caso l’elemento neutro si scrive 0.
Ecco un piccolo dizionario:
molt. add.
x◦y xy x+y
x∗ x −1 −x
x ◦ x ◦ · · · ◦ x(n volte ) xn nx
Esempi 1.3. Esempi fondamentali di gruppi non abeliani sono i seguenti gruppi di matrici:
GL(n, R) (GL(n, C)) : l’insieme delle matrici reali (complesse) invertibili di ordine n.
SL(n, R) (SL(n, C)) : l’insieme delle matrici reali (complesse) invertibili di ordine n con de-
terminante uno.
O(n, R) = {A ∈ GL(n, R) : A tA = I}, insieme delle matrici ortogonali.
SO(n, R) = {A ∈ O(n, R) : det A = 1}, insieme delle matrici ortogonali speciali.
Per tutti questi insiemi si considera come operazione di gruppo il prodotto tra matrici.
Esempi 1.4. Altri esempi di gruppi non abeliani che vengono dalla geometria:
Si dimostra che le isometrie di questo tipo sono le rotazioni di centro l’origine e le ri-
flessioni rispetto a rette passanti per l’[Link] particolare, gli elementi di O2 (R) sono
[Link] l’inverso di una isometria che fissa O è una isometria che fissa O. Quindi
O2 (R) è un gruppo con la composizione.
4
b) D4 : l’insieme delle isometrie di O2 (R) che trasformano il quadrato con centro nell’origine
e un vertice in (1, 0) in se stesso. Si vede che gli elementi di D4 sono otto e precisamente:
le quattro rotazioni di angolo π/2, le due riflessioni rispetto alle diagonali e le due
riflessioni rispetto alle rette per l’origine e per il punto medio di un lato. In generale
si possono definire i gruppi diedrali Dn per l’n−agono regolare con centro nell’origine e
un vertice in (1, 0).
Possiamo scrivere
1 2 3 4
2 3 1 4
Si può anche scrivere come σ = (123) o anche σ = (231). Si dice che σ è un ciclo. La
permutazione τ data da
1 7→ 2 2 7→ 1
3 7→ 4 4 7→ 3
invece si può scrivere come τ = (12)(34). La permutazione τ è un prodotto di cicli disgiunti.
Si dimostra che ogni permutazione è un prodotto di cicli disgiunti (in modo unico a meno
dell’ordine).
5
Esercizio 1.6. Scrivere gli elementi di S3 . Trovare due permutazioni σ, τ tali che στ 6= τ σ.
Dimostrare che S3 può essere realizzato come gruppo delle simmetrie di un triangolo equilatero
e cioè D3 (cfr. Esempio 1.4 b).(Sugg. Se si numerano i vertici del triangolo...) Si ha lo stesso
risultato per S4 e D4 ? Perché?
Esempio 1.7. Il gruppo Z/nZ delle classi resto modulo n. Sia n ∈ Z un intero positivo. Per
k ∈ Z, con 0 ≤ k < n, definiamo
Z/nZ = {ā : a ∈ Z}
Quindi gli elementi di Z/nZ sono sottoinsiemi di Z. Ad esempio per n = 4 abbiamo
ā + b̄ = a + b.
Questa definizione non dipende dalla scelta di a e di b, ma soltanto dalle classi di ā e b̄; infatti
se prendiamo a0 e b0 tali che ā = ā0 e b̄ = b̄0 , allora a0 − a e b0 − b sono divisibili per n e
quindi anche (a0 + b0 ) − (a + b) è divisibilie per n, da cui a0 + b0 = a + b. Da ciò segue che
il risultato a + b non dipende dalla scelta dei rappresentanti delle classi ā e b̄. Si dimostra
facilmente l’associatività, l’elemento neutro è la classe 0̄ e l’inverso della classe ā è −a. Inoltre
il gruppo è abeliano.
Da ora in poi useremo la notazione moltiplicativa xy per la legge di composizione.
ag = ah implica g = h,
ga = ha implica g = h.
6
1.2 La tavola di moltiplicazione di un gruppo finito
Se G è un gruppo finito e ha n elementi scriviamo #G = n e diciamo che G ha ordine n.
Un gruppo G si può descrivere elencando tutti i possibili prodotti xi xj al variare di xi , xj ∈ G.
Se il gruppo G ha un numero finito di elementi ciò può essere fatto effettivamente costruendo
la tavola di moltiplicazione di G, ossia una tabella in cui l’elemento che appare nella i−esima
riga e nella j − esima colonna corrisponde al prodotto xi xj . Con la convenzione che x1 = e
elemento neutro, abbiamo
e x2 x3 ..
x2 (x2 )2 x2 x3 ...
x3 x3 x2 (x3 )2 ...
.. .. .. ..
.. .. .. ..
Utilizzando la tavola di moltiplicazione possiamo capire ad esempio come sono fatti i gruppi
con due elementi. Se G = {e, a}, l’unica possibilità per la tavola di moltiplicazione è
e a
a e
e ciò vuol dire che esiste un solo gruppo con due elementi del quale una possibile realizzazione è
Z/2Z = {0̄, 1̄} oppure anche {1, −1} con la moltiplicazione. Allo stesso modo si può dimostrare
che esiste un solo gruppo con tre elementi, del quale una possibile realizzazione è Z/3Z. Un’altra
possibile realizzazione è il gruppo T3 delle rotazioni di un triangolo equilatero: indicando con ρ
la rotazione in senso antiorario di π/3 si ha T3 = {id, ρ, ρ2 }. La tavola moltiplicativa di questo
gruppo è
e a a2
a a2 e
a2 e a
In generale, per ogni n ∈ N c’è sempre almeno un gruppo con n elementi: Cn = {e, a, a2 , . . . , an−1 },
con tavola moltiplicativa data da
e a a2 .. .. an−1
a a2 .. .. an−1 e
.. .. .. .. .. ..
an−1 e a .. .. an−2
Questo gruppo si chiama gruppo ciclico con n elementi e una sua possibile realizzazione è
Z/nZ.
Esempio 1.9. Si dimostra che esistono due gruppi con quattro elementi. Il primo è C4 =
{1, a, a2 , a3 .}, il secondo è il gruppo di Klein {1, a, b, } che ha tavola moltiplicativa
7
1 a b c
a 1 c b
b c 1 a
c b a 1
Notiamo che ogni elemento è inverso di se stesso. Una realizzazione di questo gruppo è il
gruppo delle simmetrie del piano cartesiano rispetto agli assi e rispetto all’origine, con legge di
composizione la composizione di simmetrie.
1.3 Sottogruppi
SG2. (Identità) e ∈ H.
Esempi 1.12.
8
c) Un sottospazio vettoriale di uno spazio vettoriale V è un sottogruppo di V. (Dimostrare
per esercizio).
anche
ae af + bg
AB = ∈ T.
0 dg
H = {σ ∈ Sn : σ(k) = k.}
allora si ha
1 2 ... n
τ ◦σ = ∈ H.
τ (σ(1)) τ (σ(2)) ... n
9
1.4 Omomorfismi
Vediamo adesso come possiamo confrontare tra loro gruppi diversi o meglio, come possiamo
confrontare le loro strutture algebriche.
Ricordiamo che un’applicazione f : X → Y tra due insiemi si dice iniettiva se non ci sono due
elementi di X diversi che hanno la stessa immagine in Y. Si dice suriettiva se ogni elemento
di Y proviene tramite f da un elemento di X e cioè se l’immagine di f è uguale a Y.
Un’applicazione è una biiezione se è iniettiva e suriettiva.
Un omomorfismo che è una biiezione si dice un isomorfismo. Se due gruppi G e H sono isomorfi
scriveremo G ∼ = H. Un omomorfismo di un gruppo G in se stesso si dice endomorfismo. Un
endomorfismo biiettivo si dice un automorfismo. Un utile criterio di iniettività per gli omomor-
fismi, del tutto analogo a quello per le applicazioni lineari, sarà dato nell’Esercizio 1.16.
Osserviamo che per semplicità abbiamo usato la notazione moltiplicativa sia per la legge di
composizione di G che per quella di G0 , ma potrebbero verificarsi casi in cui la legge di
composizione non è di tipo moltiplicativo in uno o in entrambi i gruppi G, G0 , come succede
ad esempio negli omomorfismi a),e) e f) qui di seguito.
Le seguenti applicazioni sono omomorfismi:
Esercizio 1.14. Nell’Esercizio 1.6 abbiamo già accennato al fatto che S3 e D3 sono isomorfi.
Costruire un isomorfismo esplicito.
10
Proposizione 1.15. Gli omomorfismi portano l’elemento neutro nell’elemento neutro e gli
inversi negli inversi. In altre parole, se Gè un gruppo con elemento neutro e, G0 è un gruppo
con elemento neutro e0 e f : G → G0 è un omomorfismo, allora f (e) = e0 e f (a−1 ) = f (a)−1 .
Ogni omomorfismo tra due gruppi individua due sottogruppi notevoli: l’immagine e il nu-
cleo. Dati due gruppi G, G0 , con elementi neutri e, e0 e dato un omomorfismo f : G → G0 ,
l’immagine f (G) è il sottoinsieme di G0 definito da
f (G) := {f (g) : g ∈ G}
da cui concludiamo che g1 · g2 appartiene al ker(f ). Le proprietà SG2 e SG3 sono verificate
per la Prop.1.15.
Esercizio 1.16. Dimostrare che un omomorfismo f di gruppi è iniettivo se e solo se ker(f ) =
{e}.
gH = {gh : h ∈ H}
si dice una classe laterale sinistra di H e
Hg = {hg : h ∈ H}
si dice una classe laterale destra di H. Si indica con G/H l’insieme delle classi laterali si-
nistre e con H/G l’insieme delle classi laterali destre. Se G è abeliano gH = Hg e si parla
semplicemente di classe laterale di H.
Si noti che il sottogruppo H è esso stesso una classe laterale, poiché H = eH.
Esempi 1.18. a) Prendiamo G = R∗ e H = R>0 . Se a ∈ R∗ è positivo, allora la classe
laterale aR>0 è proprio R>0 , se invece a < 0 la classe aR∗ è R<0 . Sono classi sia destre
che sinistre perché R∗ è commutativo. Ci sono solo due classi laterali.
11
b) Sia G = R2 e sia v 6= 0 un vettore in G. Il sottoinsieme di G definito da
H = {λv : λ ∈ R}
w + H = {w + λv : λ ∈ R}
ed è una retta parallela a H. Ricordiamo infatti che l’equazione parametrica di una retta
passante per un punto (x0 , y0 ) di R2 e parallela al vettore v = (vx , vy ) è
(
x − x0 = λvx
y − y0 = λvy
Osservazione 1.19. Si può dimostrare che due classi laterali o sono disgiunte o coincidono.
Vale il seguente
ii) Tutti i sottogruppi di un gruppo abeliano sono normali. Infatti, per la commutatività
dell’opreazione di G si ha ghg −1 = h.
12
iv) I sottogruppi di un gruppo non abeliano non sono necessariamente normali. Ad esempio
il sottogruppo T delle matrici triangolari superiori invertibili non è normale in GL(2, R).
Infatti date A = ( 10 11 ) ∈ T e B = ( 01 10 ) ∈ GL(2, R), si ha
−1 1 0
BAB = ∈
/ T.
1 1
Osservazione 1.24. Nell’esempio ii) precedente abbiamo visto che se un gruppo è abeliano
tutti i suoi sottogruppi sono normali perché ghg −1 = h. Se G non è abeliano e H è normale
in G abbiamo che ghg −1 = h0 ∈ H con h0 6= h. Quindi si ha
gh = h0 g
il che fa vedere che la normalità è una condizione simile a quella di commutatività, per quanto,
ovviamente, più debole.
i) H è un sottogruppo normale in G.
Ora faremo vedere che è possibile definire una legge di composizione tra le classi laterali di un
sottogruppo normale N di un qualsiasi gruppo G (dato che N è normale, non c’è differenza
tra classi laterali sinistre e destre). In questo modo daremo una struttura di gruppo all’insieme
delle classi laterali
G/N = {gN, g ∈ G}
ā b̄ = ab per a, b ∈ G.
A priori questa definizione potrebbe dipendere dalla scelta dei rappresentanti a e b delle classi
ā e b̄. Potrebbe cioè succedere che esistano due elementi a0 , b0 in G con ā0 = ā e b̄0 = b̄ ma
con ab 6= a0 b0 .
In realtà non è cosı̀ e ora lo verifichiamo. Prendiamo a0 tale che ā0 = ā e b0 tale che b̄0 = b̄.
Vogliamo dimostrare che
ab = a0 b0 .
13
Dire che ā0 = ā significa che a0 N = aN e quindi, per il Teorema 1.20, che a0 = an1 , analoga-
mente b0 = bn2 per certi n1 , n2 in N. Allora
Con questa legge di composizione G/N diventa un gruppo: l’associatività segue da quella di
G, l’elemento neutro è ē = N e l’inverso di ā è la classe a−1 . Se G/N è finito il suo ordine è
il numero delle classi laterali di N e cioè l’indice [G : N ].
Esempi 1.27.
Enunciamo adesso il risultato che dà un metodo fondamentale per identificare i gruppi quoziente.
14
f¯(ā) = f (a).
G/ ker(f ) ∼
= im(f ).
det : GL(n, R) → R∗
il cui nucleo è il gruppo speciale lineare SL(n, R). Applicando il risultato precedente si ha che
il gruppo quoziente GL(n, R)/SL(n, R) è isomorfo a R∗ .
S = {a + bi : a, b ∈ R e a2 + b2 = 1}
e quindi gli elementi di S stanno sulla circonferenza unitaria. L’applicazione f : R → S definita
da
f (θ) = cos(2πθ) + i sin(2πθ)
è un omomorfismo. Inoltre è noto che per ogni a, b ∈ R con a2 + b2 = 1 esiste θ ∈ R tale che
a = cos(2πθ) e b = sin(2πθ). L’applicazione è quindi suriettiva e il suo nucleo è
R/Z ∼
= S,
15
1.6 Azioni di gruppi su insiemi
Nei paragrafi precedenti abbiamo introdotto il gruppo simmetrico Sn delle permutazioni di un
insieme X con n elementi. Abbiamo anche visto i gruppi diedrali Dn delle isometrie degli
n−agoni regolari del piano. In entrambi i casi i gruppi considerati ”agiscono” sull’insieme X o
sull’insieme {1, . . . , n} dei vertici dell’n−agono come gruppi di trasformazioni. Vediamo come
questa situazione può essere generalizzata.
Definizione 1.32. Sia G un gruppo e X un insieme. Si dice che G agisce su X se per ogni
g ∈ G è data un’applicazione biunivoca
tg : X −→ X
x 7−→ tg x
tale che
Esempi 1.33.
tA : G −→ G
x 7−→ Ax.
x1
dove x è un vettore colonna di R2 .
x2
Questa è un’azione in quanto per ogni A, B ∈ G e per ogni x ∈ X, si ha tAB (x) =
(AB)x = A(Bx) = (tA ◦ tB )(x). Inoltre tI = id e tA−1 = A−1 = (tA )−1 .
16
d) Sia X = Sym(n, R) = {A ∈ GL(n, R) : tA = A} l’insieme delle matrici simmetriche reali
di ordine n e G = GL(n, R) con l’azione data da:
tA : X −→ X
M 7−→ AM A−1 .
Per non appesantire la notazione in genere si preferisce denotare con g anche la trasformazione
dell’insieme X associata all’elemento g
g : X −→ X
x 7−→ gx.
Osserviamo che se y ∈ Cx allora Cy = Cx . Inoltre si può dimostrare che due orbite se non
coincidono sono disgiunte.
Nell’esempio d) precedente l’orbita di un elemento M ∈ Sym(n, R) è costituita da tutte le
matrici simili a M. In ogni orbita c’è almeno una matrice diagonale che è la matrice che ha
sulla diagonale gli autovalori di M. Infatti sappiamo che tutte le matrici reali simmetriche
sono diagonalizzabili ([Link]-Valabrega Vol.1 Cap.8 Par.5 o anche Teorema 7.9. nel capitolo
sugli endomorfismi autoaggiunti).
17
18
Capitolo 2
Endomorfismi semplici e
diagonalizzazione
In tutto il capitolo gli spazi vettoriali considerati saranno spazi vettoriali su un campo K
(K = R o K = C.)
Questa definizione può essere data sia nel caso che V abbia dimensione finita che infinita. In
tutto quello che segue, invece, supporremo che lo spazio V abbia dimensione finita n.
Sia f : V −→ V un endomorfismo e sia A la matrice associata a f rispetto a una base
prescelta. Gli autovalori di f sono le radici del polinomio caratteristico
det(A − λI)
che sono in K. 1
1
Nel caso in cui V abbia dimensione infinita non ha senso considerare il determinante di una matrice infinita.
Per trovare autovalori ed autovettori in questi casi bisogna usare tecniche di tutt’altro tipo.
19
L’equazione caratteristica det(A − λI) = 0 è un’equazione di grado n =dimV . Ricordiamo
che due matrici associate allo stesso endomorfismo rispetto a due basi diverse hanno lo stesso
polinomio caratteristico.
Dato un autovalore λ l’insieme dei vettori di autovalore λ è un sottospazio di V, detto au-
tospazio, che denotiamo con Vλ . Per trovare l’autospazio Vλ associato all’autovalore λ basta
calcolare la matrice A − λI e risolvere il sistema lineare omogeneo
(A − λI)X = 0.
Si hanno i fondamentali
Teorema 2.7. (Teorema della decomposizione spettrale) Siano V uno spazio vettoriale su K
di dimensione finita e f : V −→ V un endomorfismo semplice con autovalori λ1 , λ2 , . . . , λr e
con autospazi Vλ1 , Vλ2 , . . . , Vλr , r ≤ n. Allora si può decomporre V nella somma diretta dei
suoi autospazi, ossia:
V = Vλ1 ⊕ Vλ2 ⊕ · · · ⊕ Vλr .
20
ii) per ogni autovalore λ la molteplicità algebrica è uguale a quella geometrica.
Esercizio 2.9. Dimostrare che in uno spazio vettoriale reale di dimensione dispari tutti gli
endomorfismi hanno almeno un autovalore reale.
Definizione 2.10. Una matrice quadrata A si dice diagonalizzabile se è simile a una matrice
diagonale, cioè se esiste una matrice invertibile P tale che P −1 AP sia diagonale.
Diagonalizzare una matrice A vuol dire trovare (se esiste) una matrice invertibile P tale che
P −1 AP sia diagonale. Si ha il seguente
Teorema 2.11. Sia A una matrice quadrata di ordine n sul campo K. Sia V un K-spazio
vettoriale di dimensione n e f : V −→ V l’endomorfismo di V associato a f rispetto a una
base E di V. Allora si ha che
Il viceversa è falso, cioè una matrice può essere diagonalizzabile anche se non ha autovalori
distinti, come si vede dal seguente
Esempio 2.13. Sia
2 0
A=
0 2
allora det(A − λI) = (2 − λ)2 e quindi l’unico autovalore è 2. La matrice però è ovviamente
diagonalizzabile dato che è diagonale.
Osservazione 2.14. La semplicità di un endomorfismo dipende dal campo K. Ad esempio se
K = R può accadere che un endomorfismo di uno spazio V non abbia [Link] matrice
0 1
A=
−1 0
21
Un risultato fondamentale dell’algebra lineare che è stato citato nel corso di Geometria e Alge-
bra Lineare I, e che verrà dimostrato più vanti nel Capitolo sugli endomorfismi autoaggiunti, è
il seguente
Teorema 2.15. Una matrice simmetrica reale A è sempre diagonalizzabile. Inoltre, esiste una
matrice ortogonale P tale che tP AP sia diagonale. In altre parole, una matrice simmetrica si
può sempre diagonalizzare usando una matrice ortogonale.2 .
Esercizi risolti
è semplice.
1 − λ −2 1
0 2 − λ −1 = 0.
0 −1 2 − λ
2
Ricordiamo che una matrice P si dice ortogonale se tP = P −1
22
cioè
(1 − λ)(λ2 − 4λ + 3) = 0.
Gli autovalori sono 1, con molteplicità due, e 3. Studiamo l’autospazio relativo all’autovalore
1. Abbiamo
−2y + z = 0
y−z =0
−y + z = 0
L’autospazio cercato è {(x, 0, 0); x, y ∈ R} che ha dimensione uno. Possiamo già concludere
che l’endomorfismo non è semplice perché la molteplicità geometrica dell’autovalore 1 è minore
di quella algebrica.
1−λ −3 3
3 −5 − λ 3 = 0.
6 −6 4−λ
cioè
(λ + 2)2 (λ − 4) = 0.
Gli autovalori sono −2, con molteplicità due, e 4. Studiamo gli autospazi relativi a tali
autovettori. Per l’autovalore −2 abbiamo
−3x + 3y − 3z = 0
−3x + 3y − 3z = 0 da cui x − y + z = 0 .
−6x + 6y − 6z = 0
L’autospazio cercato è {(t, u, u−t); t, u ∈ R} ha dimensione due e una sua base è {(0, 1, 1), (1, 0, −1)}.
Per l’autovalore 4 abbiamo
−3x − 3y + 3z = 0
3x − 9y + 3z = 0
6x − 6y = 0.
23
L’autospazio cercato è {(t, t, 2t); t ∈ R} e una sua base è {(1,1,2)}. Quindi esiste una base di
autovettori per l’endomorfismo e la matrice è diagonalizzabile. La matrice P cercata ha per
colonne gli autovettori dell’endomorfismo associato ad A ed è
0 1 1
P = 1 0 1
1 −1 2
Per dire che due matrici commutano spesso si usa anche la notazione
[A, B] = 0
24
Dimostriamo adesso che la condizione di commutatività è una condizione necessaria e sufficiente
affinché due endomorfismi semplici abbiano una base comune di autovettori. La dimostrazione
darà anche un metodo pratico per determinare tale base comune.
Teorema 2.18. Siano f e g due endomorfismi semplici del K−spazio vettoriale V. Essi sono
simultaneamente diagonalizzabili se e solo se:
f ◦ g = g ◦ f,
ossia se e solo se vale
AB = BA
per le matrici associate a f e a g rispetto a una determinata base.
25
allora B̃ avrà la forma
b11 b12 0 0 0
b21 b22 0 0 0
0 0 c11 c12 0
0 0 c21 c22 0
0 0 0 0 d
A questo punto però usiamo il fatto che B è diagonalizzabile e che quindi lo è anche B̃. Esiste
allora una matrice invertibile Q che diagonalizza B̃ :
Q−1 B̃Q = D0
Osservazione 2.19. Non è sempre necessario applicare il procedimento indicato dal Teorema
precedente per trovare la base comune di autovettori. Possono capitare infatti casi semplici in
cui, anche in presenza di autovalori di molteplicità maggiore di uno in entrambi gli endomorfismi
si vede subito che gli autovettori dell’uno sono anche autovettori dell’altro.
Prendiamo ad esempio il caso seguente. Sono dati due endomorfismi f e g su R3 le cui matrici,
rispetto alla base canonica di R3 , sono rispettivamente:
2 0 0 1 0 0
A= 0 2 0 , B = −2 3 0 .
−1 0 3 −2 0 3
L’endomorfismo f ha autovalori:
λ1 = 2, mλ1 = 2, λ2 = 3, mλ2 = 1
ed autospazi:
Vλ1 = L((1, 0, 1), (0, 1, 0)), Vλ2 = L((0, 0, 1));
26
mentre l’endomorfismo g ha autovalori:
ed autospazi:
Vλ01 = L(y1 = (1, 1, 1)), Vλ02 = L(y2 = (0, 1, 0), y3 = (0, 0, 1)).
Quindi i due endomorfismi sono semplici e, visto che commutano, sono simultaneamente diag-
onalizzabili. Si vede subito che gli autovettori di g : y1 , y2 , y3 sono anche autovettori di f e
quindi costituiscono la base richiesta (y1 ∈ Vλ1 ).
Esercizi risolti
provare che sono entrambe diagonalizzabili e che commutano. Determinare, quindi, una matrice
che le diagonalizzi simultaneamente.
λ1 = λ2 = λ3 = 0, λ4 = 4,
V1 = L(v1 = (−1, 0, 0, 1), v2 = (−1, 0, 4, 0), v3 = (1, 1, 0, 0)), V2 = L(v4 = (−1, 0, 3, 0));
λ1 = λ2 = 0, λ3 = 1, λ4 = 3,
V10 = L(v10 = (0, 1, 0, 1), v20 = (−1, 0, 3, 0)), V20 = L(v30 = (0, 1, 4, 0)), V30 = L(v40 (−1, 0, 0, 1));
A e B commutano, infatti:
0 0 0 0
0 0 0 0
AB = BA =
0
.
0 0 0
0 0 0 0
27
Le matrici P, P −1 , B̃ in questo caso sono:
−1 −1 1 −1 0 0 0 1 3 3 −3 0
0 0 1 0 3 −3 1 3 , B̃ = P −1 BP = 0 1 0 0
, P −1 =
P =
0
.
4 0 3 0 1 0 0 0 1 0 0
1 0 0 0 −4 4 −1 −4 0 0 0 0
Inoltre:
1 0 1 0
0 1 0 0
Q=
1
1 0 0
0 0 0 1
ossia, nuovamente, i vettori di B 0 . Anche attraverso questo modo di procedere, appare evidente
che la base richiesta non è unica.
28
[2] Dimostrare che le due matrici
1 0 2 0 1 0 0 0
−2 −1 −2 2 1 0 −1 1
A= , B= .
0 0 −1 0 0 0 1 0
0 0 0 1 0 0 0 1
λ1 = λ2 = 1, λ3 = λ4 = −1
λ1 = λ2 = λ3 = 1, λ4 = 0.
V10 = L((1, 0, 0, 1), (−1, 1, 0, 0), (−1, 0, 1, 0)), V20 = L((0, 1, 0, 0)).
Quindi le due matrici sono diagonalizzabili. Dalle scelte fatte per i generatori degli autospazi
si vede subito che le due basi di autovettori che le diagonalizzano separatamente coincidono e
quindi possiamo scegliere una delle due come base che le diagonalizza simultanemente.
In alternativa, applicando il metodo del Teorema, otteniamo che le matrici P, P −1 , B̃ in questo
caso sono:
−1 1 0 −1 −1 0 −1 1 1 0 0 0
1 0 1 0 −1
0 0 0 1 −1
0 1 0 0
P = 0 0 0 1 , P = 1 1 1 −1 , B̃ = P BP = −2 2 0 −2 .
0 1 0 0 0 0 1 0 0 0 0 1
Inoltre:
0 1 0 0
0 0 1 0
Q=
1 −2 2 −2
0 0 0 1
29
Calcoliamo ancora le intersezioni delle basi degli autospazi:
30
Capitolo 3
In tutto il capitolo gli spazi vettoriali considerati saranno spazi vettoriali su un campo K
(K = R o K = C).
Esempi.
f (x1 , x2 , . . . , xn ) = a1 x1 + a2 x2 + · · · + an xn , ai ∈ K, i = 1, . . . , n,
[2] Sia V spazio vettoriale con base fissata B = {v1 , . . . , vn }. Consideriamo le ”funzioni co-
ordinate” xi , i = 1, . . . , n, che mandano un vettore x = x1 v1 + . . . xn vn nella sua i−esima
31
coordinata rispetto alla base B, vale a dire xi (x) = xi . Sulla base assegnata le xi agiscono
nel modo seguente
xi (vj ) = δij
dove δij è il simbolo di Kronecker. Le xi sono lineari e quindi appartengono a V ∗ . Vedremo
tra poco l’importanza di queste funzioni (cfr. Teorema 3.2).
[3] Se V = M (n, R) è lo spazio vettoriale delle matrici n × n reali, l’applicazione che associa
a una matrice A = (aij ) la sua traccia
tr : M (n, R) −→ R
n
X
A 7−→ tr(A) = aii
i
[4] Sia V uno spazio vettoriale euclideo con prodotto scalare ” · ”. Fissato un vettore x 6= 0,
la funzione
x· : V −→ R,
definita da x · (y) = x · y, y ∈ V, è una forma lineare. Infatti, per le proprietà del prodotto
scalare si ha
x · (ay1 + by2 ) = ax · y1 + bx · y2 , ∀ a, b, ∈ R, ∀ y1 , y2 ∈ V.
Inoltre si può dimostrare che ogni forma lineare su V si ottiene in questo modo, cioè se f :
V → R è una forma lineare, esiste un unico vettore a ∈ V tale che f (x) = a · x per ogni
x ∈ V.
[5] Nello spazio vettoriale C([0, 1]) delle funzioni continue nell’intervallo [0, 1] l’applicazione
lineare Z Z 1
: C([0, 1]) −→ R, data da f 7−→ f dx
0
[6] Nello spazio vettoriale C 1 ([0, 1]) delle funzioni derivabili nell’intervallo [0, 1] l’applicazione
lineare
d df
: C 1 ([0, 1]) −→ R, data da f 7−→
dx dx (x=0)
è una forma lineare.
32
[7] Sia V = Rn e f : Rn → R una funzione differenziabile. Il differenziale df (x) di f in un
punto x = (x1 , . . . , xn ) ∈ Rn è una forma lineare e quindi un elemento di Rn∗ . Ricordiamo
infatti che df (x) è quella forma lineare che meglio approssima l’incremento f (x + h) − f (x) di
f intorno a x. Più precisamente, df (x) verifica la condizione
f (x + h) − f (x) − df (x)(h)
lim
h→0 |h|
Nel caso in cui V abbia dimensione finita si può calcolare la dimensione dello spazio vettoriale
V ∗ . Si ha infatti il seguente
Teorema 3.2. Se V è uno spazio vettoriale su K di dimensione finita, allora:
dim V = dim V ∗ .
xi (x) = xi , i = 1, . . . , n. (3.1)
Per provare che B ∗ = (x1 , x2 , . . . , xn ) è una base di V ∗ dobbiamo far vedere che B ∗ è un
sistema di generatori e che è costituito da vettori linearmente indipendenti.
i) B ∗ è un sistema di generatori. Infatti, per ogni forma f ∈ V ∗ che agisca sulla base nel modo
seguente: f (v1 ) = a1 , f (v2 ) = a2 , . . . , f (vn ) = an e per ogni vettore x = x1 v1 + x2 v2 + · · · +
xn vn ∈ V , si ha: f (x) = x1 f (v1 ) + x2 f (v2 ) + · · · + xn f (vn ) = x1 a1 + x2 a2 + · · · + xn an =
a1 x1 (x) + a2 x2 (x) + · · · + an xn (x) = (a1 x1 + a2 x2 + · · · + an xn )(x).
Allora:
f = a1 x1 + a2 x2 + · · · + an xn .
33
Quindi se vi è un vettore di una base B di V, la corrispondente forma lineare xi della base
duale B ∗ è quella introdotta nell’Esempio [2] precedente e cioè quella che associa ad ogni
vettore di V la sua i-esima componente rispetto alla base B. Indicheremo con {e∗1 , . . . e∗n } la
base duale di {e1 , . . . , en } che è definita da
Esempio. Sia f : R2 −→ R una forma lineare, perciò: f ((x, y)) = ax + by, (x, y) ∈ R2
e a, b ∈ R. Se B = (e1 = (1, 0), e2 = (0, 1)) è la base standard di R2 , la sua base duale
B ∗ = (e∗1 , e∗2 ) è data dalle forme che operano nel modo seguente:
( (
e∗1 (1, 0) = 1 e∗2 (1, 0) = 0
e∗1 (0, 1) = 0 e∗2 (0, 1) = 1
da cui
Quindi f (x, y) = ae∗1 (x, y) + be∗2 (x, y), ossia: f = ae∗1 + be∗2 .
N.B. Si dovrebbe scrivere f (x) = f ((x, y)) con x = (x, y); per semplicità si omettono (anche
in seguito) le doppie parentesi.
Osservazione 3.4. I due spazi vettoriali V e V ∗ sono isomorfi, perché sono due spazi vettoriali
su K della stessa dimensione. Un isomorfismo ovvio è il seguente. Fissiamo una base B =
(e1 , . . . , en ) e costruiamo la sua base duale B ∗ = (e∗1 , . . . , e∗n ). Definiamo
ϕ :V −→ V ∗
ei 7−→ e∗i
Consideriamo allora V spazio vettoriale euclideo di dimensione finita con prodotto scalare ”·”.
Abbiamo visto nell’Esempio [4] che a ogni vettore x ∈ V è possibile associare un covettore
x· : V −→ R, x · (y) = x · y.
Abbiamo il seguente
34
Teorema 3.5. Sia V uno spazio euclideo, la funzione
è un isomorfismo.
[1] Sia V uno spazio euclideo con base ortonormale B = (e1 , . . . , en ). La base duale B ∗ delle
funzioni coordinate può essere anche vista come la base {e∗1 , . . . , e∗n } delle forme che associano
ad ogni vettore x = (x1 , . . . , xn ) le rispettive componenti calcolate con il prodotto scalare
e∗1 (x) = x1 = e1 · x,
.
.
e∗n (x) = xn = en · x.
Nel caso in cui V = Rn le funzioni della base duale vengono denotate con {dx1 , . . . , dxn }. Il
motivo verrà spiegato nell’esempio seguente.
35
[3] (Applicazione trasposta) Data un’applicazione lineare f : V −→ W tra due spazi vettoriali,
esiste una applicazione lineare
F : W ∗ −→ V ∗
Proposizione 3.6. Sia V uno spazio vettoriale su un campo K. Siano B e B 0 due basi di V
e siano B ∗ e B 0∗ le rispettive basi duali. Allora, se P è la matrice del cambiamento di base
da B a B 0 , la matrice del cambiamento di base da B 0∗ a B ∗ è tP.
e∗i (fj ) = (b1i f1∗ + b2i f2∗ + · · · + bni fn∗ )(fj ) = bji fj∗ (fj ) = bji ;
Quindi
(aij ) = (bji ) vale a dire Q = tP.
Esercizi.
36
[1] In R2 , riferito alla base canonica B = (v1 = (1, 0), v2 = (0, 1)) (B ∗ = (v1∗ , v2∗ ) base duale
di B ), trovare la base B 0∗ = (w1∗ , w2∗ ) duale della base B 0 = (w1 = (−1, 2), w2 = (1, −1)).
[2] Determinare la base duale della base: B = ((1, 0, −1), (0, 1, −1), (1, 1, −1)) dello spazio
vettoriale R3 .
37
dà il cambiamento di base dalla base duale della base canonica alla base B ∗ . Denotando con
(e∗1 , e∗2 , e∗3 ) la base duale della base canonica, si ha
∗ ∗
v1 e1
v2∗ = t P −1 e∗2
v3∗ e∗3
e quindi
v1∗ (x, y, z) = −y − z
v2∗ (x, y, z) = −x − z
v3∗ (x, y, z) = x + y + z.
Osservazione 3.7. Riportiamo le relazioni che intercorrono tra due basi di uno spazio vet-
toriale V di dimensione n, le basi duali corrispondenti e le relative equazioni del cambia-
mento di base. Seguiamo le notazioni della Proposizione 3.6. Inoltre indichiamo con tX =
(x1 , . . . , xn ), tY = (y1 , . . . , yn ) rispettivamente le componenti dei vettori rispetto alle basi B e
B 0 e con ta = (a1 , . . . , an ), tb = (b1 , . . . , bn ) rispettivamente le componenti dei vettori rispetto
0
alle basi B ∗ e B ∗ . (cfr. anche Greco-Valabrega vol.I cap.8)
f1 e1 x1 y1
. t .
. .
. = P .
;
. =P . ;
fn en xn yn
f1∗ e∗1
a1 b1
. . . .
= P −1 = t (P −1 )
; .
. . . .
fn∗ e∗n an bn
38
Osservazione 3.9. Se V ha dimensione finita, per lo spazio V ∗∗ , dal Teorema 3.2 si ottiene:
A priori questo processo potrebbe andare avanti e si potrebbero costruire gli spazi V ∗∗∗ , V ∗∗∗∗ ,
e cosı̀ via. In realtà questi spazi non sono diversi da quelli che si avevano in partenza e lo
dimostreremo tra un momento. Iniziamo con l’osservare che fissato un vettore x ∈ V , al
variare di f ∈ V ∗ , gli scalari f (x) definiscono la funzione di valutazione:
e : V ∗ −→ K,
x x
e(f ) = f (x), f ∈ V ∗.
che è un’applicazione lineare (dim. per esercizio). Quindi ogni elemento x ∈ V dà luogo a un
elemento x e ∈ V ∗∗ . Questa osservazione è alla base del risultato seguente che ci dice che V ∗∗ è
isomorfo allo spazio di partenza.
Si osservi che, dalla definizione, tale isomorfismo non dipende dalla scelta di basi in V o in
V ∗∗ , pertanto si tratta di un isomorfismo canonico.
e = oV ∗∗ , ∀f ∈ V ∗ , risulta : x
b) ker f = {o}. Se x e(f ) = f (x) = o allora x = o.
∗∗
Poichè dim V = dim V = n, si ha che ϕ è anche suriettiva e quindi è un isomorfismo.
Si noti che la dimostrazione del Teorema precedente può essere ripetuta parola per parola nel
caso di dimensione infinita, tranne che per l’ultima affermazione sulla suriettività di ϕ dove
abbiamo utilizzato in maniera decisiva l’uguaglianza dim V = dim V ∗∗ . In dimensione infinita
l’applicazione ϕ in generale non è suriettiva.
v
f1 = ϕ(v1 ), v
f2 = ϕ(v2 ), . . . , v
fn = ϕ(vn )
formano una base Be di V ∗∗ . Dal Teorema3.10 e dal fatto che vei (fj ) = fj (vi ) = δij , i, j =
1, . . . , n, Be è la base duale di B ∗ . Allora ogni elemento x
e di V ∗∗ si decompone, rispetto alla
39
base Be, come: x e=x f1 v f2 + · · · + x
f2 v
f1 + x fn v
fn , dove le componenti xei sono date da: xei = x
e(fi ).
D’altra parte: xe(fi ) = fi (x) = xi , quindi xei = xi .
È cosı̀ provato che le componenti di x ∈ V , relative alla base B , sono anche le componenti
dell’immagine di x tramite l’isomorfismo canonico ϕ : V −→ V ∗∗ , relativamente alla base Be,
biduale della base B ; perciò, anche in questo senso, lo spazio V ∗∗ si può identificare con V .
(v ⊗ w)(ϕ, ψ) := ϕ(v)ψ(w).
(v1 + v2 ) ⊗ w = v1 ⊗ w + v2 ⊗ w, v ⊗ (w1 + w2 ) = v ⊗ w1 + v ⊗ w2
(3.3)
a(v ⊗ w) = av ⊗ w = v ⊗ aw .
V ∗ ⊗ W ∗ = L(V, W ; K)
tramite l’identificazione
(ϕ ⊗ ψ)(v, w) := ṽ(ϕ)w̃(ψ)
dove le ṽ, w̃ sono le funzioni di valutazione introdotte nel Teorema 3.10 per dimostrare
l’isomorfismo tra V ∗∗ e V.
40
Consideriamo allora lo spazio vettoriale associato al prodottoPcartesiano V ×W che indichiamo
sempre V × W. Ogni elemento in V × W si scrive come i ai (vi , wi ) e le operazioni sono
defnite nel modo seguente
V ⊗ W := V × W/L(V, W )
π : V × W −→ V ⊗ W, (v, w) 7−→ v ⊗ w
dove con v ⊗ w indichiamo la classe di (v, w) nel quoziente. Gli elementi v ⊗ w naturalmente
soddisfano anch’essi le relazioni 3.3. Osserviamo che la definizione di prodotto tensoriale e di
tensore è intrinseca, nel senso che non è legata alla scelta di basi sugli spazi vettoriali considerati.
3.4.2 Proprietà
X
aij vi ⊗ wj .
i,j
Quindi, una volta fissate le basi, a ognuno degli elementi in V ⊗ W è associata una matrice
(aij ) n × m a elementi in K che è poi la matrice dell’applicazione bilineare a essi associata.
Osserviamo che l’elemento v ⊗ w è diverso dall’elemento w ⊗ v e che le matrici associate sono
l’una la trasposta dell’altra. Nonostante questo esiste un isomorfismo tra V ⊗ W e W ⊗ V.
Abbiamo infatti la seguente
Proposizione 3.14. Si ha V ⊗ W ∼
= W ⊗ V. Inoltre V ∗ ⊗ W ∼
= L(V ; W ).
41
Dimostrazione. La dimostrazione della prima affermazione viene lasciata per esercizio. Per
la seconda ci limitiamo a osservare che un elemento α ⊗ w ∈ V ∗ ⊗ W dà luogo a un elemento
di L(V ; W ) in questo modo
(α ⊗ w)(v) := α(v)w.
Osservazione 3.15. Dalla seconda affermazione segue che, se V = W, allora V ∗ ⊗ V si
identifica con lo spazio degli endomorfismi di V, L(V ).
con a121 = −4, a122 = 2, a123 = −2, a221 = 2, a222 = −1, a223 = 1, e a111 = a112 = a113 =
a211 = a212 = a213 = 0. Quindi il tensore v1 ⊗v2 ⊗v3 , una volta fissate le basi, è completamente
determinato dagli scalari aijk , con i = 1, 2, j = 1, 2, k = 1, 2, 3.
42
3.4.3 I tensori T p,q (V )
I tensori rappresentano classi di grandezze la cui notazione numerica varia al variare delle
coordinate. Un vettore è l’esempio più naturale di tensore. Introduciamo ora la definizione
rigorosa di tensore.
Da ora in poi, se {ei }i=1,...,n indica la base di uno spazio vettoriale V, con {ei }i=1,...,n indiche-
remo la sua base duale. Si ha quindi
ei ej = δij .
Inoltre useremo la notazione di Einstein: ogni volta che un indice appare due volte, una volta
come apice e una come pedice, in qualsiasi espressione, si intenderà calcolata la somma su
quell’indice. Ad esempio, l’espressione
aijkl ersil
significa X
aijkl ersil
i,l
dove il range di variazione dei vari indici sarà chiaro dal contesto.
Definizione 3.17. Dato V spazio vettoriale su K lo spazio dei tensori di tipo (p,q) su V è
lo spazio
T p,q (V ) := V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ ··· ⊗ V ∗
p volte q volte
che è lo spazio delle applicazioni multilineari L(V ∗ , . . . , V ∗ , V, . . . , V ; K). Si ha
T 1,0 = V ∼= L(V ∗ ; K)
T 0,1 = V ∗ ∼
= L(V ; K))
Da quanto detto in precedenza risulta che dim(T p,q (V )) = (dim V )p+q (cfr. Oss. 3.13).
Un elemento di T p,0 (V ) si dice tensore controvariante di ordine p, mentre un elemento di
T 0,q (V ) si dice tensore covariante di ordine q. (cfr. Oss. 3.7). Si usa spesso anche la notazione
Tqp (V ). Un tensore di T p,q si dice tensore di rango p + q . I tensori di rango 0 sono gli scalari
di K.
Esempi.
[1] I vettori di V e i covettori di V ∗ si dicono tensori di rango uno, mentre gli elementi di
T 2,0 , T 0,2 , T 1,1 sono detti tensori di rango due e sono rappresentati da [Link] i tensori
di T 0,2 sono forme bilineari sui vettori (ad esempio il prodotto scalare su Rn ), mentre i tensori
di T 2,0 sono forme bilineari sui covettori e quindi sono entrambi rappresentati da matrici ((cfr.
Osservazione 3.13)). D’altra parte i tensori di T 1,1 si identificano con gli endomorfismi di V
(cfr. Osservazione 3.15) e quindi anch’essi si rappresentano con matrici.
43
[2] (Tensore degli sforzi) In un punto di un mezzo continuo di coordinate x = (x1 , x2 , x3 ),
la forza di pressione esercitata su un elemento di area ∆S ortogonale al vettore unitario n è
uguale a (∆S)P (n), dove P è un operatore lineare P = (Pji ). Il tensore Pji si chiama tensore
degli sforzi.
[3] (Tensore di deformazione) In un mezzo continuo, i cui punti abbiano coordinate (x1 , x2 , x3 ),
si effettui lo spostamento di ciascuno dei suoi punti
xi 7−→ xi + ui (x).
In questo caso si dice che il mezzo ha subito una deformazione. Indicate con (dl)2 , (d¯l)2 le
distanze euclidee infinitesime tra due punti vicini del mezzo prima e dopo la deformazione, si
calcola la differenza
X 1 X ∂ui ∂ui
(d¯l)2 − (dl)2 = ηij dxi dxj + dxk dxl
2 ∂xk ∂xl
i,j k,l,i
∂u ∂u i j
e tale differenza si dice tensore di deformazione del mezzo, avendo posto ηij = ∂xj + ∂xi . Se gli
i i
spostamenti u sono piccoli, possiamo trascurare i termini di secondo grado in u e ottenere il
tensore delle piccole deformazioni
i
∂uj
∂u
ηij = + .
∂xj ∂xi
In base alla legge di Hooke, una piccola deformazione del mezzo provoca uno sforzo che dipende
linearmente dalla deformazione. Pertanto tra i tensori degli sforzi e di deformazione esiste una
relazione lineare
P = U (η)
che esplicitata in coordinate dà luogo a un tensore di rango quattro
X
Pji = Ujikl ηkl , P = (Pji ), η = (ηkl ).
k,l
0 0
Definizione 3.18. Se t ∈ T p,q (V ) e t0 ∈ T p ,q (V ) si definisce prodotto tensoriale di t per t0
0 0
l’elemento t⊗t0 . Si ha che t⊗t0 appartiene a T p+p ,q+q (V ) per via della Prop.3.14. Infatti pos-
0 0
siamo scambiare l’ordine dei fattori nel prodotto fino a ottenere un elemento di T p+p ,q+q (V ).
44
dove abbiamo scelto di posizionare in alto gli indici delle componenti relative ai tensori
ei1 ⊗ · · · ⊗ eip e in basso quelle relative ai tensori ej1 ⊗ · · · ⊗ ejq , per utilizzare la notazione di
Einstein introdotta all’inizio del paragrafo.
Sia ora B 0 = {f1 , . . . , fn } un’altra base di V. Utilizzando la notazione di Einstein abbiamo le
seguenti relazioni che intercorrono tra i vettori di B, B 0 e B ∗ , B 0∗ :
ei = aji fj , ei = Aij f j
dove A = (aji ) è la matrice in cui l’elemento di posto (i, j) è indicato con aji ed è la matrice
trasposta del cambiamento di base da B 0 a B. 1
Similmente la matrice (Aij ) è la matrice del cambiamento di base da B 0∗ a B ∗ ed è uguale a
A−1 .
Pertanto
k j
ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq = aki11 . . . aipp Ajm1 1 . . . Amq q fk1 ⊗ · · · ⊗ fkp ⊗ f m1 ⊗ · · · ⊗ f mq
Prendiamo adesso un elemento t ∈ T p,q e scriviamo le sue coordinate rispetto alle basi B e B ∗ :
i ,...,i
t = t j11 ,...,jpq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq .
Si ha
i ,...,i k j
t = t j11 ,...,jpq (aki11 fk1 ) ⊗ (aipp fkp ) ⊗ (Ajm1 1 f m1 ) ⊗ · · · ⊗ (Amq q f mq ) =
i ,...,i k j
= t j11 ,...,jpq aki11 . . . aipp Ajm1 1 . . . Amq q fk1 ⊗ fkp ⊗ f m1 ⊗ · · · ⊗ f mq
e quindi
k ,...,k p k1 p kj1 q j i ,...,i
p
t m11 ,...,m 1
q = ai1 . . . aip Am1 . . . Amq t j1 ,...,jq
e quindi
tlr,s = tij,k ali Ajr Aks
1
La notazione da noi usata fin qui prevede che la matrice del cambiamento di base su V abbia sulle colonne le
componenti dei vettori della base di arrivo espressi come combinazione lineare dei vettori della base di partenza,
mentre la notazione di Einstein prevede che la matrice del cambiamento di base abbia sulle righe le componenti
dei vettori della base di arrivo espressi come combinazione lineare dei vettori della base di partenza. Per questo,su
V, il passaggio tra le due notazioni comporta la traposizione delle matrici del cambio base. Tutto rimane uguale
su V ∗ .
45
3.5 Notazione di Einstein
Riportiamo qui per comodità la notazione di Einstein per il cambio di base su V e V ∗ .
Ricordiamo che per un indice ripetuto una volta in basso e una in alto è sottinteso il simbolo
di sommatoria.
Siano B = (ei , ) e B 0 = (fk ) due basi di V e B ∗ = (ei ), B = (f k ) le due basi duali associate.
Si ha
ei = aki fk , fk = aik ei . (3.4)
La matrice (aik ) quindi regola il cambiamento di base da B a B 0 . Le due matrici (aki ) e (aik )
sono l’una l’inversa dell’altra.
Stante la (3.4) sul duale valgono invece le relazioni
ei = aik f k , f k = aki ei .
Si hanno le uguaglianze
v i = aik v k , v k = aki v i
αi = aki αk , αk = aik αi ,
da cui si nota che nel cambio base da B a B 0 le componenti del vettore v cambiano con la
matrice (aki ) che è l’inversa della matrice del cambiamento di base. Le componenti del covettore
α invece cambiano con la matrice (aik ) che è proprio la matrice del cambiamento di base da
B a B 0 . Ritroviamo quindi ciò che avevamo già notato nell’Osservazione 3.7, sempre tenendo
conto della trasposizione che bisogna operare nel passaggio da una notazione all’altra.
Si consiglia di provare a verificare le relazioni fin qui riportate per esercizio.
46
Capitolo 4
In tutto il capitolo V sarà, salvo avviso contrario, uno spazio vettoriale su R. Riprenderemo
il concetto di forma multilineare introdotto nel capitolo precedente focalizzando l’attenzione al
caso in cui si abbiano due fattori: L(V, V ; R) cioè T20 (V ). Questo ci servirà ad estendere le
nozioni di prodotto scalare e di distanza anche al caso in cui la forma non sia definita positiva,
come nel caso dello spazio di Minkowski. Per gli argomenti di questo capitolo si può anche
consultare Greco-Valabrega Volume I capitolo VIII.
L’insieme delle forme bilineari su V viene indicato con B(V, R). L’insieme delle forme bilineari
simmetriche di V si indica con Bs (V, R), mentre le forme antisimmetriche o alterne vengono
indicate con Alt(V, R).
47
Osservazione 4.2. Se ϕ è antisimmetrica si ha ϕ(x, x) = −ϕ(x, x) = 0 per ogni x ∈
V. D’altra parte, una forma bilineare ϕ tale che
Esempi
[1] Un esempio banale di forma bilineare su uno spazio vettoriale V è l’applicazione identica-
mente nulla: 0(x, y) = 0, per ogni x, y ∈ V.
ϕ(x, y) = x1 y1 − 2x1 y3 + x2 y3 − x3 y1
[3] Il prodotto scalare standard su Rn che associa a ogni coppia di vettori x = (x1 , . . . , xn ), y =
(y1 , . . . , yn ) il numero reale
x · y = x1 y1 + x2 y2 + · · · + xn yn ,
è un’applicazione bilineare simmetrica. Più in generale qualsiasi prodotto scalare su uno spazio
vettoriale reale è una forma bilineare simmetrica. Ciò segue direttamente dalle proprietà del
prodotto scalare (cfr. Greco-Valabrega Vol.1 [Link] Par.1).
[4] Sia A = (aij ) ∈ M (n, R). Considerando i vettori di Rn come vettori colonna, otteniamo
una forma bilineare su Rn ponendo
X
ϕ(X, Y) = tXAY = aij xi yj .
i,j
48
Se n = 2k, cioè n è pari e prendiamo A = Jk dove
0k Ik
Jk =
−Ik 0k
si ottiene
ϕ(x, y) = x1 yk+1 + · · · + xk yn − xk+1 y1 − · · · − xn yk ,
che è una forma bilineare alterna chiamata forma alterna standard su Rn .
[5] (Spazio di Minkowski) Si considerino V = R4 e la forma bilineare g data, rispetto alla base
canonica, dalla matrice
1 0 0 0
0 1 0 0
M= 0 0
1 0
0 0 0 −c2
dove c è una costante positiva (la velocità della luce). Dati due vettori x = (x1 , . . . , x4 ), y =
(y1 , . . . , y4 ) si ha
x · y = x1 y1 + x2 y2 + x3 y3 − c2 x4 y4 ,
ϕ(x, y) = ϕ(x1 v1 + · · · + xn vn , y1 v1 + · · · + yn vn ) =
49
Posto aij = ϕ(vi , vj ), alla forma bilineare ϕ si associa la matrice
a11 a12 . . . a1n
a12 a22 . . . a2n
A = M B (ϕ) = . . . . . . . . . . . . = (aij ), aij ∈ R,
La matrice richiesta è
3 −1
M (ϕ) =
2 2
Vediamo adesso come cambia la matrice associata a una forma bilineare se cambiamo la base
dello spazio vettoriale. Indichiamo con M B (ϕ) la matrice della forma bilineare ϕ rispetto alla
base B.
50
Teorema 4.4. Siano V uno spazio vettoriale su R, B, B 0 due basi di V, A = M B (ϕ), A0 =
0
M B (ϕ). Se P indica la matrice di passaggio tra le due basi, risulta:
A0 = tP AP.
D’altra parte si può scrivere ϕ(x, y) = tX 0 A0 Y 0 e, dal confronto delle due espressioni, si ottiene
tX 0 tP AP Y 0 = tX 0 A0 Y 0 oppure tX 0 ( tP AP − A0 )Y 0 = 0, per ogni X 0 , quindi
( tP AP − A0 )Y 0 = 0, da cui A0 = tP AP.
Esempio 4.5. Data la forma bilineare ϕ(x, y) = 3x1 y1 − x1 y2 + 2x2 y2 + 2x2 y1 , le matrici di
ϕ rispettivamente riferite alla base canonica e dopo il cambiamento di base di matrice
1 −2
P = , sono
2 1
3 −1 1 2 3 −1 1 −2 13 −11
A= , A0 = =
2 2 −2 1 2 2 2 1 4 12
Osservazione 4.7. Le forme quadratiche reali NON sono applicazioni lineari. Infatti per ogni
x, y ∈ V e per ogni λ ∈ R, si ha:
1)Q(x + y) = ϕ(x + y, x + y) = Q(x) + 2ϕ(x y) + Q(y).
2)Q(λx) = ϕ(λx, λx) = λ2 Q(x).
L’espressione 1) è detta forma polare della forma quadratica Q. Dalla 2), per λ = 0, si ottiene
Q(0V ) = 0.
Esempi
51
[1] Nel piano euclideo, una conica è rappresentata dall’equazione
52
ii) ϕ(a, b) = ϕ((1, 0, 1, 0), (0, 1, 1, 0)) =
1 0 −2 0 0 0
0 0 0 5 1 1
= 1 0 1 0 −2 0 4 0 1 = −1 0 2 0 1 = 2
0 5 0 3 0 0
Q(a) = Q(1, 0, 1, 0) = 1 + 4 + 0 − 4 + 0 = 1.
Esempi
[1] Questa terminologia ha origine geometrica e fa riferimento al caso del prodotto scalare,
grazie al quale si possono definire le nozioni di ortogonalità e di angolo. Ricordiamo infatti ad
esempio che nel caso dello spazio euclideo R3 con prodotto scalare standard ” · ”, due vettori
x, y ∈ R3 sono ortogonali se e solo se x · y = 0.
[2] I vettori x = (1, −1) e y = (3, 4) sono coniugati rispetto alla forma bilineare simmetrica
ϕ ∈ Bs (R2 , R) cosı̀ definita: ϕ = 3x1 y1 − x1 y2 + 2x2 y2 − x2 y1 . Infatti ϕ(x, y) = 3 · 3 − 1 · 4 +
2(−1) · 4 − (−1) · 3 = 0.
Proprietà 4.11. Il vettore nullo è ortogonale a ogni vettore, rispetto a ogni forma bilineare
simmetrica ϕ ∈ Bs (V, R).
Dimostrazione. Per ogni forma bilineare ϕ ∈ Bs (V, R), per ogni coppia di vettori x, y ∈ V
e per ogni scalare λ ∈ R, si ha: ϕ(x, λy) = λϕ(x, y). Posto λ = 0, per ogni x ∈ V, si ottiene
ϕ(x, 0V ) = 0.
Il viceversa è ovvio.
53
Definizione 4.13. Due sottospazi si dicono coniugati rispetto a ϕ se e soltanto se ogni vettore
del primo sottospazio è coniugato a ogni vettore del secondo sottospazio.
Definizione 4.14. Si dice nucleo di una forma ϕ ∈ Bs (V, R) l’insieme di V formato dai vettori
coniugati di tutti i vettori di V rispetto a ϕ e si indica con ker ϕ, in simboli:
Dimostrazione. Infatti, per ogni coppia di vettori v1 , v2 di ker ϕ e per ogni coppia di scalari
x1 , x2 di R si ha
Definizione 4.16. Si dice che ϕ( o Q) è non degenere se ker ϕ = {0V } e degenere se ker ϕ 6=
{0V }.
Dimostrazione. Scelta (vi ) base di V, si cercano i vettori x non nulli di V tali che ϕ(x, y) =
0 o, equivalentemente, tali che ϕ(x, vj ) = 0 per ogni j = 1, 2, . . . , n. Posto x = x1 v1 + x2 v2 +
· · · + xn vn , si ottiene:
n
X
ϕ(x, vj ) = ϕ(x1 v1 + x2 v2 + · · · + xn vn , vj ) = xi ϕ(vi , vj ), j = 1, 2, . . . , n
i=1
Pn Pn
D’altra parte i=1 xi ϕ(xi , vj ) = i=1 xi ϕ(xj , vi ) e scrivendo aij := ϕ(xi , vj ) otteniamo
n
X
xi aij = 0
i=1
54
Esempio 4.18. Determinare il nucleo della forma bilineare ϕ ∈ Bs (R3 , R) di matrice:
1 0 −2
M (ϕ) = 0 1 1 .
−2 1 5
Si cercano i vettori x = (x1 , x2 , x3 ) per i quali ϕ(x, vj ) = 0, j = 1, 2, 3, il che significa, nel
nostro caso
x1 ϕ(v1 , v1 ) + x2 ϕ(v2 , v1 ) + x3 ϕ(v3 , v1 ) = 0
x1 ϕ(v1 , v2 ) + x2 ϕ(v2 , v2 ) + x3 ϕ(v3 , v2 ) = 0
x1 ϕ(v1 , v3 ) + x2 ϕ(v2 , v3 ) + x3 ϕ(v3 , v3 ) = 0
55
1 0
Esempio 4.22. la forma quadratica Q(x) = x21 − x22 ha matrice A = ,
0 −1
con det A 6= 0. I vettori isotropi di Q sono i vettori x = (x1 , x2 ) tali che x21 − x22 = 0, da cui
x1 = ±x2 , quindi x = (±x2 , x2 ) e formano l’insieme:
Osservazione 4.23. L’insieme dei vettori isotropi di una forma quadratica in genere NON è
un sottospazio lineare, come si può anche dedurre dall’esempio precedente.
Queste stesse definizioni si estendono anche al caso di una forma quadratica Q che quindi si
dirà definita (positiva o negativa), semidefinita (positiva o negativa) o non definita a seconda
del segno di Q(x).
Non vale il viceversa della proposizione precedente. Infatti, ad esempio, la forma quadratica
dell’Esempio 4.22 è non degenere ma non è definita perché i vettori non nulli x = (1, 1) e
y = (−1, 1), ad esempio, sono tali che Q(x) = Q(y) = 0.
Esempi.
56
[1] Un prodotto scalare è una forma bilineare simmetrica definita positiva. Abbiamo già detto
che un prodotto scalare permette di definire la nozione di ortogonalità. In realtà per definire
l’ortogonalità non è necessario richiedere alla forma bilineare di essere positiva. Basta richiedere
la condizione di simmetria o di antisimmetria. Infatti in entrambi i casi si può definire la nozione
di ortogonalità
ϕ(x, y) = ϕ(y, x) = 0
[2] Se f (x, y) è una funzione di due variabili reali, sufficientemente regolare, la ricerca dei
massimi e minimi locali può essere effettuata calcolando l’hessiano nei punti singolari. Più
precisamente, se P0 = (x0 , y0 ) è un punto in cui si annullano le derivate parziali della funzione,
si studia la forma quadratica H(x, y) nel punto P0
2 (P ) f 2 (P )
fxx 0 xy 0
H(x0 , y0 ) = 2 (P ) f 2 (P ) .
fxy 0 yy 0
Quando su uno spazio vettoriale V abbiamo una forma bilineare simmetrica definita positiva
(un prodotto scalare quindi) possiamo calcolare proiezioni ortogonali di un vettore su un altro
e costruire basi ortogonali, come nel caso del prodotto scalare ordinario su R3 .
Definizione 4.26. Siano x, y due vettori dello spazio vettoriale V, su cui sia definito un
prodotto scalare ϕ e sia y 6= 0. Definiamo coefficiente di Fourier di x rispetto a y il numero
ϕ(x, y)
c=
ϕ(y, y)
e definiamo proiezione di x lungo y il vettore cy. Si vede subito che i vettori x − cy e y sono
ortogonali
ϕ(x, y)
ϕ(x − cy, y) = ϕ(x, y) − ϕ(y, y) = 0
ϕ(y, y)
57
Sia ora x1 , . . . , xn una base ortogonale di V e x = a1 x1 + · · · + an xn . Eseguendo il prodotto
scalare con i vettori xi otteniamo
ϕ(x, xi ) = ai ϕ(xi , xi )
ϕ(x, xi )
ai = .
ϕ(xi , xi )
Quindi quando abbiamo un prodotto scalare e una base ortogonale, le coordinate di un ele-
mento di V rispetto a questa base sono semplicemente i suoi coefficienti di Fourier (cfr. anche
Greco-Valabrega [Link] 2.4.). Osserviamo anche che è sempre possibile costruire una base or-
togonale {v1 , . . . , vn } dello spazio V a partire da una sua base qualsiasi {x1 , . . . , xn }, tramite
il metodo di ortogonalizzazione di Gram-Schmidt (vedi anche Greco-Valabrega [Link] 2.6.):
v1 = x1
v2 = x2 − c2,1 v1
.
.
.
vn = xn − [cn,1 v1 + · · · + cn,n−1 vn−1 ]
Esercizi.
Per ciascuna forma bilineare simmetrica e forma quadratica associata, si riportano: la matrice,
il suo determinante, il nucleo, l’insieme dei vettori isotropi e la relativa classificazione.
58
[3] ϕ ∈ Bs (R2 , R), ϕ(x, y) = x1 y1 + x2 y2 + x1 y2 + x2 y1 = (x1 + x2 )(y1 + y2 ).
1 1
Q(x) = (x1 +x2 )2 ≥ 0, A = , det(A) = 0, ker ϕ = L((1, −1)), Q(x) = 0 ⇒ x ∈ L((1, −1)).
1 1
ϕ è semidefinita positiva degenere.
[6] Sia V lo spazio delle funzioni reali continue nell’intervallo [a, b] e sia ϕ ∈ Bs (V, R) la forma
Z a
ϕ(x, y) = f (t)g(t) dt, x = f (t), y = g(t) ∈ V, t ∈ R.
b
definita in precedenza. Si ha
Z a
Q(x) = f 2 (t)dt.
b
Vogliamo dimostrare che Q è definita positiva. Innanzitutto osserviamo che l’integrale definito
del quadrato di una funzione continua è non negativo. Quindi dobbiamo dimostrare che se
Q(x) = 0, allora f = 0 in [a, b]. Se non fosse cosı̀, allora esisterebbe almeno un punto ξ
nell’intervallo [a, b] in cui f è diversa da zero e f 2 sarebbe positiva in tutto un intorno I di
ξ. Quindi scelto un intervallo [c, d] ⊆ I si avrebbe
Z a Z d
2
Q(x) = f (t)dt ≥ f 2 (t)dt > 0,
b c
59
4.3 Forme canoniche
Definizione 4.27. Date due forme quadratiche R e Q si dice che R è equivalente a Q (o che
R e Q sono tra di loro equivalenti ) se R si può ottenere da Q mediante un cambiamento di
base.
Esempio 4.28. Le due forme quadratiche:
(
x1 = y1 + y2
x2 = y1 − y2 ,
ossia
x1 1 1 y1 1 1
= , dove 6= 0,
x2 1 −1 y2 1 −1
si ha:
60
realizzano forme quadratiche in forma canonica di Q per ogni a, b ∈ R tali che
a b
6= 0.
a −b
Tra le forme canoniche di una forma quadratica ne esistono sempre due particolari, come
precisato dai seguenti teoremi:
Teorema 4.31. Ogni forma quadratica Q(x) = tXAX ha una forma canonica del tipo
dove λ1 , λ2 , . . . , λn sono gli autovalori della matrice A (ciascuno ripetuto con la propria
molteplicità.)
([Link]-Valabrega Vol.1 Cap.8 Par.5 o anche Teorema 7.9. nel capitolo sugli endomorfismi
autoaggiunti). Con il cambiamento di base X = P Y, tenuto conto che P è ortogonale, si ricava
Q(x) = tXAX = t(P Y )A(P Y ) = tY ( tP AP )Y = tY DY = λ1 y12 + λ2 y22 + · · · + λn yn2 .
Definizione 4.32. Una forma quadratica Q si dice ridotta in forma normale se è ridotta a
forma canonica e i suoi coefficienti sono 1, 0, −1.
Teorema 4.33. Ogni forma quadratica ammette una forma normale. Il numero dei coefficienti
pari a 1 è uguale al numero di autovalori positivi, contati con la relativa molteplicità, e il
numero dei coefficienti uguali a −1 é pari al numero di autovalori negativi, contati con la
relativa molteplicitá.
61
allora λi = Q(ei ). Si vuole una nuova base di Rn , sia: B 0 = (e01 , e02 , . . . , e0n ) tale che Q(e0i ) = ±1.
Si deduce che:
ei
e0i = p .
|λi |
Si osservi che B 0 è una base ortogonale, ma non ortonormale.
Osservazione 4.34. Una forma quadratica in forma canonica ottenuta attraverso gli auto-
valori assume notevole importanza in geometria analitica, ad esempio, nella riduzione a forma
camonica delle coniche e delle quadriche perché è legata a cambiamenti di basi ortonormali e
conseguentemente a cambiamenti di riferimento ortogonali del piano e dello spazio. La stessa
forma quadratica ridotta in forma normale, anche se più elegante e semplice per la sua classi-
ficazione, non può svolgere il ruolo della forma canonica legata agli autovalori perché con essa
viene a mancare l’ortonormalità della base.
Esercizi risolti
λ1 = 1, λ2 = −2, λ3 = 4,
Vλ1 = L((2, 1, −2)), Vλ2 = L((1, 2, 2)), Vλ3 = L(= (2, −2, 1)),
0 0 4 y3
ottenuta da Q con il cambiamento di base di matrice ortogonale:
2 1 2
1
P = 1 2 −2
3
−2 2 1.
62
[2] Ricavare la forma normale della forma quadratica Q data nell’esercizio precedente.
R. Avendo calcolato gli autovalori e avendo scoperto che due sono positivi e uno negativo, si
ha subito che la forma normale di Q é:
1 0 0 z1
Q00 ((z1 , z2 , z3 )) = z12 + z22 − z32 = 0 1 0 z2 = t ZI2,1 Z.
z 1 z2 z3
0 0 −1 z3
[3] Ricavare un’altra forma canonica della forma quadratica Q introdotta nel primo esercizio.
R. Un’altra forma canonica di Q si può ottenere, ad esempio, con il metodo del completamento
dei quadrati. Si procede come segue:
Q((x1 , x2 , x3 )) = 2(x21 − 2x1 x2 ) + x22 − 4x2 x3 = 2(x21 − 2x1 x2 + x22 ) − 2x22 + x22 − 4x2 x3 =
2(x1 − x2 )2 − (x22 + 4x2 x3 + 4x23 ) + 4x3 = 2(x1 − x2 )2 − (x2 + 2x3 )2 + 4x23 .
La risposta a questo esercizio prova che esistono metodi diversi per pervenire alle forme cano-
niche di una forma quadratica. Inoltre, come si può notare, esistono forme canoniche diverse
della stessa forma quadratica. Ciò non è vero per quel che riguarda la forma normale di una
forma quadratica, vale a dire che esiste una sola forma normale per ogni forma quadratica (a
meno di riordinare gli elementi della diagonale). Questo risultato è noto come Teorema o legge
d’inerzia di Sylvester.
63
4.4 Il Teorema di Sylvester
Teorema 4.35. (Legge d’inerzia di Sylvester) Tutte le forme canoniche di una stessa forma
quadratica Q hanno lo stesso numero p ≤ r, dove r è il rango di Q, di coefficienti positivi e
lo stesso numero n di coefficienti negativi; la coppia (p, n) si dice segnatura di Q.
Dimostrazione. Sia {e1 , . . . , en } una base di V rispetto alla quale Q assuma la forma
Q(x) = λ1 y12 + λ2 y22 + · · · + λn yn2
per ogni x = y1 e1 + y2 e2 + · · · + yn en ∈ V. Il numero dei coeffienti λi che sono diversi da zero
è uguale al rango r della forma e quindi dipende sola da Q. Salvo riordinare la base possiamo
supporre che i primi r coefficienti siano diversi da zero e che tra essi quelli positivi figurino per
[Link] avrà quindi
λ1 = α12 , . . . , λp = αp2 , λp+1 = −αp+1
2
, . . . , λr = −αr2
per un opportuno intero p ≤ r e opportuni numeri reali positivi α1 , α2 , . . . , αr . Si verifica
facilmente che rispetto alla base
f1 = e1 /α1 , f2 = e2 /α2 , . . . , fr = er /αr , fr+1 = er+1 , . . . , fn = en
la forma associata è
Q(x) = x21 + · · · + x2p − x2p+1 − · · · − x2r (∗)
per ogni x = x1 f1 + x2 f2 + · · · + xn fn ∈ V.
Resta da dimostrare che p dipende solo da Q e non dalla base f1 , . . . , fn .
Supponiamo allora che in un’altra base {b1 , . . . , bn } la forma Q si esprima come
Q(x) = z12 + · · · + zt2 − zt+1
2
− · · · − zr2 (∗∗)
per un opportuno intero t ≤ r. Dobbiamo far vedere che t = p. Supponiamo allora per assurdo
che sia t 6= p. Possiamo supporre che sia t < p. Consideriamo i sottospazi
S = L(f1 , . . . , fp )
T = L(bt+1 , . . . , bn )
Dato che dim S+dim T = p+n−t > n, deve essere S∩T 6= {0} e quindi esiste x ∈ S∩T, x 6=
0. Si ha
x = x1 f1 + · · · + xp fp = zt+1 bt+1 + · · · + zn bn .
Poiché x 6= 0, da (∗) si ha
Q(x) = x21 + · · · + x2p > 0,
mentre da (∗∗) si deduce che
2
Q(x) = −zt+1 − · · · − zr2 < 0,
e cioè una contraddizione. Quindi p = t.
64
4.5 Studio del segno di una forma quadratica
Due forme quadratiche equivalenti Q(x) e R(y) = Q(P x), hanno lo stesso segno. Infatti
dalla relazione R(y) = Q(P ) = Q(x), risulta che Q e R assumono gli stessi valori nei vettori
corrispondenti x e y. Quindi è evidente che per studiare il segno di una forma quadratica Q
basta conoscere i segni dei coefficienti di una forma canonica di Q, in particolare Q(x) =
λ1 y12 + λ2 y2 y 2 + · · · + λ2n yn2 , dove λ1 , . . . , λn sono gli autovalori della matrice A associata a Q.
Le proprietà che seguono caratterizzano il segno di una forma quadratica reale attraverso il
segno degli autovalori di una matrice a essa associata.
Proposizione 4.36. La forma quadratica reale Q(x) = tXAX è definita positiva (negativa)
se e soltanto se tutti gli autovalori della matrice simmetrica reale A sono strettamente positivi
(negativi).
Dimostrazione. Sia R la forma canonica di Q legata agli autovalori (cfr. formula 4.2 del
Teorema 4.31). Si ha Q(x) = R(y) = λ1 y12 + λ2 y22 + · · · + λn yn2 . Supponiamo che tutti gli
autovalori λi siano positivi abbiamo:
Proposizione 4.37. La forma quadratica reale Q(x) = tXAX è semidefinita positiva (nega-
tiva) se e solo se tutti gli autovalori della matrice simmetrica reale A sono non negativi (non
positivi) e almeno un autovalore è nullo.
Proposizione 4.38. La forma quadratica reale Q(x) = tXAX è non definita se e solo se la
matrice simmetrica reale A ha autovalori di segno contrario.
65
Teorema 4.39. (Regola di Cartesio) Sia f (x) = a0 + a1 x + · · · + an xn un polinomio reale
con tutte le radici reali. Allora le radici positive di f sono tante quanti sono i cambiamenti di
segno della successione a0 , a1 , . . . , an .
Possiamo applicare questa regola al polinomio caratteristico della matrice (simmetrica) associa-
ta a una forma quadratica perché esso ha tutte le radici reali.
Esempi 4.40.
[1] Il polinomio f (x) = 8 + 2x − 5x2 + x3 ha le due radici reli positive 2 e 4. D’altra parte nella
successione dei coefficienti (8, 2, −5, 1) ci sono due cambiamenti di segno.
[2] Il polinomio f (x) = (x + 1)(x − 2)(x − 4)(x − 5)x3 ha radici 0, −1, 2, 4, 5 e le radici positive
sono tre. D’altra parte f (x) = −40x3 − 12x4 + 27x5 − 10x6 + x7 e si vede che ci sono tre
cambiamenti di segno nei coefficienti di f.
Quindi per studiare il segno di una forma quadratica reale Q definita in Rn si procede in
questo modo:
s radici nulle;
p radici positive;
n − (p + s) radici negative.
66
4.6 Altro metodo di riduzione a forma camonica
Si può agevolmente ridurre a forma canonica una forma quadratica reale con una tecnica che si
basa sul metodo di riduzione delle matrici. Nel corso di Geometria e Algebra Lineare I si sono
introdotti la definizione di matrice ridotta per righe (o per colonne) e il metodo di riduzione
di una matrice a forma ridotta per calcolarne il rango. Le operazioni elementari da applicare
a una matrice per ridurla si possono interpretare in termini di prodotto tra matrici.
Sia allora A una matrice in M (n, R) cui vogliamo applicare il procedimento per riduzione,
supponimao per il momento per colonne. Sostituiamo alla sua i−esima colonna Ci la colonna
Ci0 = Ci + aCj
dove a ∈ R è uno scalare. Una facile verifica dimostra che la matrice A0 ottenuta tramite
questa operazione coincide con il prodotto
A0 = A · E(j, i; a)
dove E(j, i; a) è la matrice che ha tutti 1 sulla diagonale principale, a al posto j, i e zero in
tutte le altre entrate. La matrice E(j, i; a) altri non è che la matrice identità su cui è stata
eseguita la stessa operazione di colonna
Ci0 = Ci + aCj .
Quindi per ridurre la matrice A per colonne effettueremo una serie di operazioni elementari
che corrisponderanno a moltiplicare A (a destra) per un certo numero di matrici E(j, i; a). Nel
caso in cui si voglia ridurre A per righe bisognerà effettuare la moltiplicazione per le matrici
tE(j, i; a) = E(i, j; a) a sinistra.
Anche nel caso in cui si voglia ridurre una forma quadratica in forma canonica si può applicare
un procedimento analogo a una sua matrice A associata, cercando una matrice invertibile P
tale che tP AP sia diagonale.
Come abbiamo appena osservato, la matrice B ottenuta da una data matrice A con l’operazione
di colonna
Ci 7−→ Ci + aCj
coincide con la matrice prodotto AE(j, i; a) dove E(j, i; a) è la matrice che si ottiene dalla
matrice identità sulla quale è stata eseguita la medesima operazione di colonna.
Analogamente la matrice B ottenuta da una data matrice A con l’operazione di riga
Ri 7−→ Ri + aRj
coincide con la matrice prodotto tE(j, i; a)A = E(i, j; a)A. La matrice E(i, j; a) è la matrice
che si ottiene dalla matrice identità sulla quale è stata eseguita la medesima operazione di riga.
67
Ciò premesso si eseguano contemporaneamente sulla matrice A eguali operazioni per le righe e
per le colonne fino a ottenere una matrice diagonale D, avendo l’avvertenza di fare in modo che
il nuovo elemento aii sia non nullo. Siano E1 , . . . , Em le matrici corrispondenti alle operazioni
di colonna effettuate su A. Le matrici A e D risultano allora legate dalla relazione
2 0 −1 2 0 −1 2 0 0
0 1 2 R3 → R3 + 1/2R1 0 1 2 C3 → C3 + 1/2C1 0 1 2
−1 2 0 0 2 −1/2 0 2 −1/2
2 0 0 2 0 0 2 0 0
0 1 2 R3 → R3 − 2R2 0 1 2 C3 → C3 − 2C2 0 1 0
0 2 −1/2 0 0 −9/2 0 0 −9/2
Una forma canonica di Q(x) è allora: Q(x) : 2y12 + y22 − 9/2y32 e la matrice del relativo
cambiamento di base è P dove
1 0 0 C1 → C1 − C3 1 0 1/2
0 1 0 C3 → C3 + 1/2C1 0 1 −2 = P.
0 0 1 C3 → C3 − 2C2 −1 0 1/2
Riduciamo ora Q a forma canonica mediante gli autovalori. Svolgendo i calcoli si ha che gli
autovalori di A sono λ1 = 1, λ2 = 3, λ3 = −3. Quindi la forma canonica in questo caso è
La matrice ortogonale che dà il cambiamento di base e cioè quella che ha per colonne una base
ortonormale di autovettori, è
68
√ √
−1/ 2 1/2 1/ √3
P 0 = 0√ 1 −1/√ 3 .
1/ 2 1/2 1/ 3
Non diamo la dimostrazione di questa proposizione. Diciamo solo che quello che si dimostra
sono i seguenti risultati:
i) la matrice A−1 A0 ha autovalori reali ed è diagonalizzabile;
ii) se B = {v1 , . . . , vn } è una base di autovettori di A−1 A0 , allora sia A che A0 si esprimono
in forma canonica rispetto a B, cioè se P è la matrice che ha per colonne i vettori di B, si ha
t
P AP = D, t
P A0 P = D0
Inoltre, con una opportuna normalizzazione B 0 dei vettori di B, denotando con Q la matrice
che ha per colonne i vettori di B 0 , si ha
t
QAQ = I, t
QA0 Q = diag(λ1 , . . . , λn )
dove (λ1 , . . . , λn ) sono gli autovalori di A−1 A0 . Quindi la base B, è una base di autovettori di
A−1 A0 .
Osserviamo però che per trovare tale base non è necessario invertire A. Infatti gli autovalori ed
autovettori di A−1 A0 sono ottenibili tramite le equazioni:
det(A0 − λA) = 0
A0 X = λi AX.
Questo tipo di risultato si rivela particolarmente utile nello studio di problemi di equilibrio e
stabilità di sistemi meccanici. Più precisamente lo si utilizza per la linearizzazione di particolari
tipi di equazioni di Lagrange.
Esercizi risolti
[1] Nello spazio vettoriale R3 , riferito alla base canonica {v1 , v2 , v3 }, si consideri la forma
bilineare simmetrica ϕ definita da:
69
28
ϕ(x, y) = 2x1 y1 + 3x2 y2 + x3 y3 − x1 y2 − x2 y1 − 2x1 y3 − 2x3 y1 + 4x2 y3 + 4x3 y2 ,
5
per ogni x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ) ∈ R3 e sia Q la forma quadratica associata.
i) Scrivere la matrice della forma bilineare simmetrica ϕ rispetto alla base canonica e cal-
colare il suo rango.
iii) Provare che B = ((1, 1, 1), (2, −1, 2), (1, 3, −3)) è una base di R3 e determinare la matrice
di ϕ rispetto a B.
iv) Determinare una forma canonica della forma quadratica Q e la sua segnatura.
2 −1 −2
A = −1 3 4
28
−2 4
5
Dato che
2 −1
det A = 0 e 6= 0,
−1 3
il rango di ϕ è 2.
ii) Si ha ker ϕ = {x ∈ R3 : ϕ(x, y) = 0, ∀y ∈ R3 }. Le componenti del vettore x ∈ ker ϕ sono
le soluzioni del sistema:
ϕ(x, v1 ) = 2x1 − x2 − 2x3 = 0
ϕ(x, v2 ) = −x1 + 3x2 + 4x3 = 0
ϕ(x, v3 ) = −2x1 + 4x2 + 28 x3 = 0,
5
che si possono determinare, ad esempio, attraverso i seguenti passi di riduzione sulla matrice
A:
2 −1 −2
2 −1 −2 2 −1 −2
R2 → R2 + 1/2R1 5 5
A = −1 3 4 0 3 R3 → R3 − 6/5R2
0 3
28
R3 → R3 + R1 2 2
18
−2 4 0 3 0 0 0.
5 5
Dal sistema equivalente: (
2x1 − x2 − 2x3 = 0
5x2 + 6x3 = 0,
70
si ottengono le soluzioni x1 = 2λ, x2 = −6λ, x3 = 5λ. Pertanto ker ϕ = L((2, −6, 5)).
1 2 1
iii) Posto P = 2 −1 2 si ha det P = 12 6= 0 e perciò i vettori di B formano una base
1 3 −3,
3
di R . La matrice di ϕ rispetto alla nuova base è
2 −1 −2
1 2 1 1 2 1 63 36 −29
5
A0 = tP AP = 2 −1 2 0 3 1 −1 3 = 1/5 36 27 2 .
1 3 −3 2 1 2 −3 −29 2 67
0 0 0
71
1 2 −3
ii) Posto P = 0 1 2 si ha det P = 1 6= 0 e perciò i vettori considerati formano una
0 0 1,
base di R3 .
iii)La matrice di passaggio dalla base B alla base B 0 è P. Denotando con
x1 y1
X = x2 , Y = y2
x3 y3 ,
Indicando con X 0 e Y 0 le matrici colonna delle componenti dei vettori x e y rispetto alla base
B 0 , si ha X = P X 0 , Y = P Y 0 e la formula 4.3 diventa
Tenendo conto della formula 4.4 la forma quadratica Q, rispetto alla base B 0 , si scrive:
Q(x) = x02 02 02
1 + 2x2 − x3 .
Dimostrare che esiste una base rispetto alla quale entrambe si scrivono in forma canonica e
trovare tale base.
72
che ha tre cambiamenti di segno e quindi tre radici positive. La forma quadratica rappresentata
da A è definita positiva: posso applicare la Proposizione 4.43 e dire che esiste una base in cui
sia A che A0 si scrivono in forma canonica. Sappiamo che tale base è la base degli autovettori
della matrice A−1 A0 . Possiamo trovare gli autovalori di tale matrice risolvendo l’equazione:
A0 X = λAX
Scrivendo
1 1 1
P = 1 −2 0
1 1 −1
73
74
Capitolo 5
Isometrie e similitudini
Sia V uno spazio vettoriale euclideo di dimensione finita e sia “·”il prodotto scalare di V .
5.1 Isometrie
La definizione seguente estende (in modo naturale) a dimensioni superiori il concetto elementare
di isometria nel piano e nello spazio e cioè di trasformazione che conserva le distanze tra i punti.
kf (x)k = kxk, ∀x ∈ V.
Esempi
[1] Ogni rotazione Rθ (in senso antiorario) di angolo θ del piano vettoriale E2 è un’isometria.
Fissando la base canonica (e1 , e2 ) si vede che che la matrice associata a Rθ è:
cos θ − sin θ
.
sin θ cos θ
Alcune tra le principali proprietà delle isometrie sono riassunte nel seguente:
75
Teorema 5.2. Sia V uno spazio vettoriale euclideo di dimensione n.
2) Se f è un’isometria allora:
e:
perché f conserva la norma dei vettori e i loro prodotti [Link] B 0 = (f (e1 ), f (e2 ), . . . , f (en ))
è una base ortonormale. Viceversa, siano B = (e1 , e2 , . . . , en ) e B 0 = (f (e1 ), f (e2 ), . . . , f (en ))
76
due basi ortonormali. Dato x = x1 e1 + x2 e2 + · · · + xn en ∈ V , allora kxk2 = x21 + x22 + · · · + x2n ,
d’altra parte f (x) = x1 f (e1 ) + x2 f (e2 ) + · · · + xn f (en ), quindi kf (x)k = kxk. Si osservi che
il calcolo della norma dei vettori x e f (x) ha assunto l’espressione suddetta in quanto riferito
a due basi ortonormali.
6) Sia λ un autovalore di f , quindi f (x) = λx, allora: kf (x)k2 = kλxk2 = λ2 kxk2 = kxk2 da
cui la tesi.
Si può generalizzare la definizione precedente al caso di isomorfismi tra due spazi vettoriali
euclidei.
Definizione 5.3. Dati due spazi vettoriali euclidei V e W, di dimensione finita, un isomorfismo
f : V −→ W si dice isometria se “conserva ”la norma dei vettori
kf (x)kW = kxkV , ∀x ∈ V.
Da ora in poi denoteremo con “·”il prodotto scalare sia di V che di W e con “k k”sia la norma
di V che quella di W.
Anche in questo caso si dimostra in maniera del tutto analoga alla n.2) che un’isometria
conserva i prodotti scalari. Inoltre vale una proprietà analoga alla n.5) e cioè
Teorema 5.4. Dati due spazi euclidei di dimensione finita V, W, un’applicazione lineare f :
V −→ W è un’isometria se e solo se le immagini dei vettori di una base ortonormale di V
formano una base ortonormale di W .
77
Corollario 5.5. Due spazi euclidei V, W sono isometrici se e solo se dim V = dim W.
Dimostrazione. Un verso è ovvio. Viceversa, se dim V = dim W, basta fissare una base
ortonormale B di V e una B 0 di W e definire f come l’applicazione che manda B in B 0 : f è
un’isometria.
Corollario 5.6. Uno spazio euclideo di dimensione n è isometrico a Rn con il prodotto scalare
standard.
Osservazioni
i) Dalla definizione di isometria e da 2) segue che le isometrie conservano gli angoli tra i vettori.
ii) Si osservi che se un isomorfismo conserva gli angoli tra vettori allora non è necessariamente
un’isometria: vedremo più avanti che le similitudini sono un esempio di questo fatto.
iii) Si osservi che se un isomorfismo ha autovalori pari a ±1 non è detto che sia un’isometria,
per esempio si consideri l’isomorfismo f di R2 definito dalla matrice
1 1
A= ,
0 1
√
se prendiamo x = (0, 1), si ha kxk = 1 6= kf (x)k = 2.
Esercizio. Si consideri in R2 la struttura euclidea determinata dal prodotto scalare
R. Le equazioni di f sono: √
x01 =
3
2 x1 + x2
√
x0 = − 1 x +
3
2 4 1 2 x2 .
78
kf (x)k2 = (x01 )2 + 4(x02 )2 = x21 + 4x22 = kxk2 , ∀x = (x1 , x2 ) ∈ R2 .
La matrice A non è ortogonale perché non è associata ad una base ortonormale (rispetto al
prodotto scalare introdotto), infatti A è associata alla base ((1, 0), (0, 1)), ma k(0, 1)k = 2.
5.2 Similitudini
Nella geometria elementare si studiano anche proprietà che non dipendono dalle distanze o
dalle grandezze delle figure, ma solo dalla loro forma e dalle loro proporzioni: le proprietà di
similitudine. Queste proprietà vengono mantenute, oltre che dalle isometrie, anche da quelle
trasformazioni che ”ingrandiscono” o ”restringono” una figura senza cambiarne, appunto, la
forma e le proporzioni. Tali trasformazioni sono dette omotetie. La composizione di un certo
numero di omotetie e di isometrie dà luogo a una similitudine.
kf (x)k = akxk, x ∈ V,
da cui si deduce che a deve essere un numero reale positivo non nullo.
79
5.3 Le isometrie del piano
Le isometrie del piano E2 sono date, rispetto alla base canonica, dalle matrici ortogonali O(2),
le quali si suddividono in matrici ortogonali speciali , cioè quelle con determinante 1, denotate
con SO(2), e quelle non speciali con determinante uguale a −1. Gli elementi di SO(2) sono
della forma
cos θ − sin θ
Rθ = , θ ∈ R.
sin θ cos θ
e imporre che sia ortogonale speciale, vale a dire che abbia determinante uno e che le sue
colonne formino una base ortonormale in E2 :
ad − bc = 1
ab + cd = 0
a2 + c2 = 1
b2 + d2 = 1
80
Fissiamo allora una matrice B ∈ O(2) − SO(2) : ogni elemento A ∈ O(2) − SO(2) può essere
scritto come
A = (AB)B −1 , con AB ∈ SO(2).
Da ciò segue che ogni matrice di O(2) − SO(2) si può scrivere come prodotto di una matrice
fissata di O(2) − SO(2) e di una in SO(2).
Scegliendo ad esempio
1 0
B=
0 −1
che rappresenta la riflessione lungo l’asse delle x, e che verifica B = B −1 , si vede che tutti gli
elementi di O(2) − SO(2) sono della forma
1 0 cos θ sin θ
Aθ = R θ = , θ ∈ R.
0 −1 sinθ −cosθ
In particolare
1 0
A0 = .
0 −1
Si vede con un semplice calcolo che le matrici Aθ hanno come autovalori λ = ±1 con rela-
tivi autospazi di dimensione uno tra loro ortogonali. Quindi la matrice Aθ rappresenta una
riflessione lungo una rette per l’origine che ha per direzione l’autospazio relativo all’autovalore
λ = 1.
Ricapitolando, gli elementi di SO(2) sono rotazioni di centro l’origine , mentre gli elementi di
O(2) − SO(2) sono riflessioni lungo rette per l’origine.
81
82
Capitolo 6
Operatori unitari
La definizione di operatore unitario intende estendere al caso degli spazi Hermitiani il concetto
di isometria. Ricordiamo che una matrice quadrata A di ordine n a coefficienti complessi si
dice unitaria se verifica tĀA = I, dove con tĀ indichiamo la matrice trasposta coniugata di A.
6.1
Definizione 6.1. Sia V uno spazio Hermitiano di dimensione finita. Un isomorfismo di V
prende il nome di operatore unitario se
kf (x)k = kxk, ∀x ∈ V.
Alcune tra le principali proprietà degli operatori unitari sono riassunte nel seguente:
Teorema 6.2. Sia V uno spazio vettoriale Hermitiano di dimensione n.
83
7) f è un operatore unitario di V se e solo se la matrice associata ad f , rispetto ad una base
unitaria di V , è una matrice unitaria.
La dimostrazione del Teorema è analoga, anche se un pò più laboriosa, a quella del Teorema
5.2
Anche nel caso hemitiano si può generalizzare la definizione precedente al caso di isomorfismi
tra due spazi vettoriali hermitiani.
Definizione 6.3. Dati due spazi vettoriali hermitiani V e W, di dimensione finita, un isomor-
fismo f : V −→ W si dice operatore unitario se “conserva ”la norma dei vettori
kf (x)kW = kxkV , ∀x ∈ V.
Teorema 6.4. Dati due spazi hermitiani di dimensione finita V, W, un’applicazione lineare
f : V −→ W è un operatore unitario se e solo se le immagini dei vettori di una base unitaria
di V formano una base unitaria di W .
Corollario 6.6. Dato uno spazio hermitiano V di dimensione n esiste un operatore unitario
da V a Cn con il prodotto hermitiano standard.
84
Capitolo 7
Endomorfismi autoaggiunti
Il problema della diagonalizzazione di una matrice quadrata ad elementi reali o complessi, trova
soluzione nelle classi delle matrici reali simmetriche e delle matrici Hermitiane. Si perviene al
risultato attraverso proprietà di particolari endomorfismi detti endomorfismi autoaggiunti ai
quali le predette matrici sono associate, relativamente a basi ortonormali o unitarie, rispetti-
vamente. Ricordiamo che una matrice quadrata complessa A si dice simmetrica se tA = A, si
dice hermitiana se t A = A. In tutto il capitolo V sarà uno spazio vettoriale di dimensione
finita con prodotto scalare, euclideo nel caso reale, hermitiano nel caso complesso. Indicheremo
con ” · ” il prodotto sclare di V.
è autoaggiunto. Infatti:
85
Teorema 7.2. Se V è uno spazio vettoriale Hermitiano ed f è un endomorfismo autoaggiunto,
allora tutti gli autovalori di f sono reali.
oppure:
t
X A Y = tX tA Y ,
la quale, essendo valida per ogni x, y ∈ V , fornisce A = tA. Quindi la matrice A è Hermitiana.
Il viceversa del teorema si prova procedendo “a rovescio” nel calcolo.
Dato che le matrici simmetriche reali sono Hermitiane, in modo analogo si prova il seguente
86
Teorema 7.5. Sia f un endomorfismo di uno spazio vettoriale euclideo V di dimensione n e
B una base ortonormale di V , f è autoggiunto se e solo se la matrice A = M B,B (f ) ∈ Rn,n è
simmetrica reale.
Teorema 7.6. Se A ∈ Cn,n è una matrice Hermitiana, tutte le radici della sua equazione
caratteristica sono reali.
Analogamente segue il
Teorema 7.7. Se A ∈ Rn,n è una matrice simmetrica reale, tutte le radici dell’equazione
caratteristica di A sono reali. In particolare A ha n autovalori reali, se contati ciascuno con
la relativa molteplicità.
Dimostrazione. Sia
87
infatti f (W) ⊆ W perché W è somma diretta di autospazi e f (W ⊥ ) ⊆ W ⊥ per il Teorema
7.8. Inoltre f 0 è ancora un endomorfismo autoaggiunto (essere autoaggiunto è una proprietà di
tipo universale). L’applicazione f 0 ammette almeno un autovalore (essendo questi tutti reali),
ciò implica l’esistenza di un autovettore x 6= o di f 0 in W ⊥ . Però x è anche autovettore di f
e come tale deve appartenere a W , da cui l’assurdo. Allora W = V .
Riassumendo, il teorema precedente afferma che se f è un endomorfismo autoaggiunto su uno
spazio vettoriale V hermitiano (o euclideo), allora è semplice e quindi:
Quindi per diagonalizzare una matrice hermitiana (simmetrica) tramite una base unitaria
(ortonormale) si procede cosı̀:
1) Si trova una base per ciascun autospazio e la si normalizza con il metodo di Gram–Schmidt.
2) L’unione delle basi cosı̀ ottenute è una base unitaria (ortonormale) formata da autovettori
di f .
Teorema 7.10. Sia A ∈ Cn,n una matrice Hermitiana, allora esiste una matrice unitaria P
tale che:
D = P −1 AP = t P AP
Teorema 7.11. Sia A ∈ Rn,n una matrice simmetrica, allora esiste una matrice ortogonale P
tale che:
D = P −1 AP = t P AP
sia diagonale.
Ricapitolando:
- La matrice D è una matrice reale sia nel caso Hermitiano sia nel caso reale.
- Ogni matrice Hermitiana (o reale simmetrica) è diagonalizzabile mediante una matrice unitaria
(o ortogonale).
88
Esempio Sia f l’endomorfismo di R3 associato alla matrice:
2 1 0
A = 1 1 −1
0 −1 2
rispetto alla base canonica di R3 . Dimostrare che f è autoaggiunto e trovare una base ortonor-
male di R3 formata da autovettori di f . Inoltre, diagonalizzare la matrice A mediante una
matrice ortogonale.
autovalori: λ1 = 0, λ2 = 2, λ3 = 3;
autospazi: Vλ1 = L(v1 = (−1, 2, 1)), Vλ2 = L(v2 = (1, 0, 1)), Vλ3 = L(v3 = (1, 1, −1)).
− √16 √1 √1
2 3
P =
√2 0 √1
6 3
√1 √1 − √13
6 2
da cui:
0 0 0
t
P AP = D = 0 2 0 .
0 0 3
89
7.3 Operatori aggiunti
Gli operatori autoaggiunti sono in realtà un caso particolare di operatori aggiunti. Vediamone
brevemente la definizione.
Definizione 7.12. Sia V uno spazio vettoriale euclideo o hermitiano e sia f un operatore di
V. Un operatore g di V si dice aggiunto di f se per ogni x ∈ V si ha
f (x) · y = x · g(y).
Vediamo come si arriva alla definizione di operatore aggiunto. Supponiamo per il momento che
V sia uno spazio euclideo. Sia f un operatore di V. Tramite f possiamo definire una forma
bilineare ϕ su V in questo modo
ϕ(x, y) = A(x) · y.
Viceversa si ha il seguente
Teorema 7.13. Sia V uno spazio vettoriale euclideo di dimensione finita e sia ϕ una forma
bilineare su V. Allora esistono e sono unici due operatori f, g di V tali che
f (x) · y = x · g(y).
90
Capitolo 8
Gruppi di matrici
è il gruppo lineare generale reale, comprende tutte le matrici reali, di ordine n, non singolari.
Si tratta, quindi, delle matrici che legano i cambiamenti di base in Rn o in uno spazio vettoriale
reale di dimensione n.
Caso particolare:
GL(1, R) = R \ {0}.
è il gruppo lineare speciale, si tratta di un sottogruppo di GL(n, R). Possiamo anche vederlo
come il sottogruppo di GL(n, R) costituito dalle trasformazioni lineari che conservano il vol-
ume. Infatti nel caso delle applicazioni lineari il determinante Jacobiano è semplicemente il
determinante della matrice dell’applicazione.
Caso particolare:
SL(1, R) = {1}.
91
è il gruppo ortogonale; è un sottogruppo di GL(n, R) che comprende tutte le matrici ortogonali.
Si tratta, quindi, delle matrici che legano il cambiamento di base tra basi ortonormali di Rn o di
uno spazio vettoriale euclideo di dimensione n. Le righe e le colonne di una matrice ortogonale
sono le componenti di basi ortonormali di Rn , rispetto al prodotto scalare standard. Inoltre,
O(n) è il gruppo delle matrici associate alle isometrie (cfr. Capitolo 5) ed è, anche, il gruppo
delle matrici che conservano i prodotti scalari (vale a dire le forme quadratiche di segnatura
(n, 0)). Se A ∈ O(n) allora det A = ±1.
Caso particolare:
Casi particolari:
SO(1) = {1};
cos θ − sin θ
SO(2) = /θ ∈R .
sin θ cos θ
dove:
1 0 ... ... ... ... 0
0 1 0 ... ... ... 0
0 0 1 0 ... ... 0
0 0 ... ... ... ... 0
Jp,q =
0 0 ... −1 0 ... 0
0 0 ... ... −1 ... 0
0 0 ... ... ... −1 0
0 0 ... ... ... . . . −1
Casi particolari:
92
[6] SO(p, q) = O(p, q) ∩ SL(n, R).
cosh θ sinh θ
iii) SO(1, 1) = ,θ ∈ R .
sinh θ cosh θ
è il gruppo lineare generale complesso, comprende tutte le matrici complesse, di ordine n, non
singolari. Si tratta, quindi, delle matrici che legano i cambiamenti di base in Cn o in uno spazio
vettoriale complesso di dimensione n.
Caso particolare:
GL(1, C) = C \ {0}.
Caso particolare:
93
Caso particolare:
S 1 = {(x, y) ∈ R2 : x2 + y 2 = 1}.
(Basta porre z = x + iy). Inoltre, pensando alla rappresentazione geometrica di C sul piano
di Argand–Gauss, segue che ad ogni z ∈ U (1) si può associare l’angolo θ che esso forma con
l’asse x. É facile provare che può essere introdotto un isomorfismo di gruppi tra U (1) e SO(2),
(usare la formula di De Moivre).
Quindi si ha
z1 z2
U (2) = /λ ∈ C, z1 , z2 ∈ C tali che |z1 |2 + |z2 |2 = 1 .
λz 2 −λz 1
è il gruppo unitario speciale, contentente tutte le matrici unitarie con determinante pari a 1.
Casi particolari:
SU (1) = {1};
z1 z2
SU (2) = |2
/z1 , z2 ∈ C tali che |z1 + |z2 |2 =1 .
−z 2 z 1
94
Un semplice esercizio mostra che SU (2) è isomorfo alla sfera:
Vale il sorprendente:
La dimostrazione segue dalla teoria dei gruppi di Lie e dalla coomologia dei medesimi (cfr.
qualsiasi testo classico sull’argomento).
95
96
Capitolo 9
Addenda
Definizione. Uno spazio vettoriale reale V di dimensione due con ϕ forma bilineare sim-
metrica non degenere si dice piano iperbolico se esiste una base di V su cui ϕ assuma la forma
ϕ(x1 , x2 ) = 2x1 x2 .
Su un piano iperbolico quindi la matrice associata alla forma è
0 1
.
1 0
Si dimostra la seguente
Proposizione. Sia V un R−spazio vettoriale con ϕ forma bilineare simmetrica non degenere.
Se esiste un vettore isotropo non nullo v ∈ V, allora esiste un sottospazio W di V che contiene
V e che è un piano iperbolico con la restrizione di ϕ. Se V ha dimensione finita, allora è somma
ortogonale di un numero finito di piani iperbolici ed eventualmente di un sottospazio su cui la
restrizione di ϕ è definita (priva cioè di vettori isotropi).
Dimostrazione. Dimostriamo solo la prima affermazione. Dato che ϕ è non degenere esiste
un vettore w tale che ϕ(v, w) 6= 0. Inotre esistono degli scalari h, k tali che il vettore w0 =
hv + kw goda delle seguenti proprietà:
97
Il sottospazio W generato da v e w0 è allora un piano iperbolico contenente v .
Questo insieme è unione disgiunta di due coni convessi. La scelta di uno dei due coni, chi-
amiamolo T + , corrisponde alla scelta di un orientamento temporale. Osserviamo che una
trasformazione di Lorenz α soddisfa α(T ) ⊂ T , ma non è detto che conservi l’orientamento
temporale. Indichiamo con O(3, 1+ ) quelle trasformazioni di Lorenz α tali che α(T + ) = T +
e con O(3, 1− ) quelle che invertono l’orientamento temporale.
Analogamente una trasformazione di Lorenz può o meno mantenere l’orientamento spaziale.
Indichiamo con O(3+ , 1) le matrici che conservano l’orientamento spaziale e con O(3− , 1) quelle
che lo cambiano.
Il gruppo O(3, 1) si può dividere allora in quattro componenti disgiunte
98
Università di Torino
QUADERNI DIDATTICI
del
Dipartimento di Matematica
E. Abbena, G. M. Gianella
Esercizi di Geometria
e Algebra Lineare II
A.A. 2000/2001
............... ................
.... ......... ........ ......... ......
..... ..... .... ........ .... ..... .....
... .......... ..... ............. ...
.... ... .
.................................................................................
... .......... ..... ... .. .... .. ...
... ... .... ...... .................. ...
... ............. ..... .. ... ...
................................... ........
Gli esercizi proposti in questa raccolta sono stati assegnati come temi d’esame dei corsi di Geometria tenuti negli
ultimi anni presso il Corso di Laurea in Fisica dell’Università di Torino.
La suddivisione in capitoli rispetta l’andamento del programma del nuovo Corso di Geometria e Algebra Lineare
II, (A.A. 2000/2001) per la Laurea in Fisica (di primo livello).
Negli ultimi capitoli sono riportate alcune soluzioni e qualche svolgimento ottenuto per lo più usando il pacchetto
di calcolo simbolico Mathematica, versione 4.0.
Si ringraziano i Proff. P.M. Gandini, S. Garbiero e A. Zucco per aver permesso l’inserimento in questa raccolta
degli esercizi da loro assegnati e svolti negli anni in cui essi tenevano l’insegnamento del Corso di Geometria
presso il Corso di Laurea in Fisica.
Grazie di cuore a Simon M. Salamon per i suoi preziosi consigli.
iii
iv
Indice
1 Sottospazi vettoriali 1
2 Applicazioni lineari 16
4 Forme quadratiche 46
v
Capitolo 1
Sottospazi vettoriali
In tutti gli esercizi di questo capitolo si sono adottate notazioni standard, in particolare si è indicato con:
- —n lo spazio vettoriale delle n-uple di numeri reali, di dimensione n, riferito alla base canonica e 1 1, 0, . . . , 0,
e2 0, 1, 0, . . . , 0, . . . , e n 0, 0, . . . , 1;
- ¬n lo spazio vettoriale delle n-uple di numeri complessi, di dimensione n, riferito alla base canonica e 1
1, 0, . . . , 0, e 2 0, 1, 0, . . . , 0, . . . , e n 0, 0, . . . , 1;
- —m,n lo spazio vettoriale delle matrici di tipo m, n, ad elementi reali, riferito alla base canonica:
- —n,n lo spazio vettoriale delle matrici quadrate di ordine n, ad elementi reali, riferito alla base canonica standard
(il caso particolare della precedente);
- ¬n,n lo spazio vettoriale delle matrici quadrate di ordine n, ad elementi complessi, riferito alla base canonica
standard (come la precedente);
- S—n,n lo spazio vettoriale delle matrici simmetriche di ordine n ad elementi reali rispetto alla base canonica:
1 0 . . . 0 0 1 . . . 0 0 0 . . . 1
. . . 0 1 . . . 0 . . . 0
0 0 0 0 0
... ... . . . . . . , . . . . . . . . . . . . , . . . , ... ... . . . . . . ,
... ... . . . . . . . . . . . . . . . . . . ... ... . . . . . .
0 0 ... 0 0 0 ... 0 1 0 ... 0
0 0 . . . 0 0 0 . . . 0 0 0 . . . 0
. . . 0 0 . . . 0 0 . . . 0
0 1
0
0
. . . . . . , . . . , . . . . . . . . . . . . , . . . . . . . . . . . .
... ...
... ... . . . . . . 0 ... 0 1 . . . . . . . . . . . .
0 0 ... 0 0 ... 1 0 0 0 ... 1
1
2 E. Abbena, G.M. Gianella – Esercizi di Geometria e Algebra Lineare II
- A—n,n lo spazio vettoriale delle matrici antisimmetriche di ordine n ad elementi reali rispetto alla base canonica:
0 1 0 . . . 0 0 0 1 ... 0 0 0 ... 0 0
. . . 0 0
1 0 0
0 0 0 ... 0 0 0 ... 0
. . . . . . , , . . . ,
. . . . . .
... ... ... 1 0 0 ... 0 ... ... ...
... ... ... . . . . . . ... ... ... ... ... 0 0 ... 0 1
0 0 0 ... 0 0 0 ... ... 0 0 0 ... 1 0
- —n x lo spazio vettoriale dei polinomi in x, a coefficienti reali, di grado minore o uguale a n, riferito alla base
canonica 1, x, x 2, . . . , xn .
- trA indica la traccia della matrice A — n,n , vale a dire la somma degli elementi della diagonale principale.
[1] In —3 sono dati i vettori u 1 1, 1, 2, u2 2, 1, 3, u3 3, 0, h; dire per quali valori di h — i vettori
u1 , u2 , u3 sono linearmente indipendenti.
[2] In —4 sono dati i vettori u 1 1, 1, 0, 1, u 2 2, 1, 1, 0, u 3 3, 0, 1, 1, u 4 0, 1, 1, 0; trovare una
base del sottospazio di —4 , generato dai vettori u 1 , u2 , u3 , u4 .
Verificato che i vettori u 1 , u2 , u4 sono linearmente indipendenti, determinare per quali valori di t — il vettore
v 1, 1, 2t 8, t 1 Lu 1 , u2 , u4 .
Per i valori di t trovati, determinare le componenti di v rispetto ai vettori u 1 , u2 , u4 .
[3] Dati i vettori: u 1, 3, 2, v 2, 1, 1 in — 3 , verificare che V Lu, v ha dimensione 2. Trovare
per quali valori di t —, il vettore w t, 0, 1 appartiene allo spazio V e, per tali valori, determinare le sue
componenti rispetto ai vettori u e v .
[4] Siano W1 il sottospazio di —3 generato dai vettori: u 1 1, 1, 1, u2 2, 1, 1, W2 il sottospazio di —3
generato dai vettori: v 1 1, 2, 1, v2 1, 1, 2. Trovare W 1 W2 , dimW1 W2 ed una sua base.
[6] In —4 , scrivere le equazioni di due iperpiani vettoriali, diversi, ma entrambi supplementari della retta vettoriale
H L2, 0, 4, 3.
Università di Torino
Capitolo 1 – Sottospazi vettoriali 3
determinare i valori di h per cui p 1 x, p2 x, p3 x, p4 x è una base di R 3 x .
ii) Fissato uno dei valori determinato nel punto precedente, trovare le componenti di qx 1 x x 2 x3 rispetto
a tale base.
x1 x2
S / x2 x 3
x3 x4
delle matrici a traccia nulla. Si dimostri che S e T sono sottospazi vettoriali di — 2,2 ; si determinino le loro
dimensioni ed una base per ciascuno di essi.
x y
H / 2x y z x 3y 2t 0 ,
z t
x y
K / x y 2 t 0
z t
1 2 1 0 0 2 4 1
A1 , A2 2 , A3 2 1 , A4 2 3
1 0 1
1 0
costituiscono una base di — 2,2 e determinare le componenti della matrice A 0 1 rispetto a tale base.
x1 x2
A / x1 2x2 0 ,
x3 x4
x1 x2
B / x1 x4 x2 2x3 0 ,
x3 x4
H x, y, z, t —4 / x 2z 2y 0,
K L0, 2, 1, 1, 1, 2, 1, 1, 1, 2, 3, 1, 1, 2, 7, 1.
[14] In —5 i sottospazi:
A x1 , x2 , x3 , x4 , x5 —5 / x1 x2 x3 0,
B L1, 2, 1, 2, 1, 0, 1, 1, 1, 1, 1, 0, 1, 0, 1, 2, 3, 1, 3, 1
sono supplementari?
1 0 3 0 1 2 0 0 0
I 0 0 2 , 1 1 0 , 0 5 2
3 2 0
2 0 0 0 2
6
Università di Torino
Capitolo 1 – Sottospazi vettoriali 5
1 0 0
H a 1 0 , a, b, c —
b c 1
a 0 0
K b c 0 , a, b, c, d, e, f — .
d
e f
H e K sono sottospazi vettoriali di — 3,3 ? In caso affermativo se ne determini una base e la dimensione.
[22] I sottospazi:
sono supplementari in — 4 ?
[23] I sottospazi:
sono supplementari in ¬ 4 ?
provare che W 1 W2 —4 .
Provare che W 1 W2 W3 —4 x .
[27] In —5 , determinare una base e la dimensione dell’intersezione e della somma dei due sottospazi seguenti:
[28] In —5 , determinare una base e la dimensione dell’intersezione e della somma dei due seguenti sottospazi:
Università di Torino
Capitolo 1 – Sottospazi vettoriali 7
[30] In —4 x si consideri il sottospazio vettoriale W dei polinomi aventi il numero 3 come radice.
i) Si decomponga W nella somma diretta di due sottospazi W 1 e W2 .
ii) Si scriva il polinomio 3 5x 5x 2 10x3 3x4 di W come somma di un polinomio di W 1 e di un polinomio
di W2 .
a 0, 3, 1, 2, 0, b 0, 0, 2, 1, 1, c 0, 6, 10, 10, 6, d 0, 3, 7, 1, 3,
Si verifichi che l’insieme B p 1 x, p2 x, p3 x, p4 x è una base di —3 x e si esprima il polinomio px x x 2
nella base B.
1 2 0 3 1 1 3 2
A1 , A2 1 , A3 0 , A4 1 1 .
1 0 2 1
2 1
Si verifichi che l’insieme B A 1 , A2 , A3 , A4 è una base di —2,2 e si esprima la matrice A 1 2
nella
base B.
1 2 2 1 4 1
[37] i) Verificare che B 2 1
, 1 3 , 1 5
è una base di S—2,2 .
4 11
ii) Trovare le componenti della matrice A 11 7
rispetto alla base B.
[38] i) In —5 x si consideri l’insieme A dei polinomi aventi radici: 1, 2, 3. Si verifichi che A è un sottospazio
vettoriale di —5 x , se ne calcoli una base e la dimensione.
ii) Si determini un sottospazio vettoriale B supplementare ad A.
iii) Si decomponga il polinomio px x 2 3x3 nella somma di un polinomio di A e di un polinomio di B. Tale
decomposizione è unica?
iv) Si determini una base e la dimensione dei seguenti sottospazi di — 5 x :
C L1 x x2 , x3 x5 , 2 2x 2x2 3x3 3x5 , x2 3x3 x4
D L 2 x x3 , x4 x5 , x x2 x3 x4 .
v) È vero che C D —5 x ?
vi) Si determini una base e la dimensione di A C D.
1 1
Data la matrice X 3 4
, decomporre X nella somma di una matrice X 1 A e di una matrice X2 B.
Università di Torino
Capitolo 1 – Sottospazi vettoriali 9
0 1 2 3 0 0 1 2 0 1 1 2 0 2 1 1
1 0 1 2
C L , , ,
0 2 3 0 0 1 0 2 3 0 0 2
2 2 0 1 1 0 0 7 1 2 0 1 1 0 0 12
3 3 1 0 2 1 7 0 2 3 1 0 1 2 12 0
0 0 2 1 0 0 1 2
0 0
D L , .
0 0 1 0 0 0
2 0 0 0 1 0 0 1
1 1 0 0 2 0 1 0
2 i
A L .
3i 0
1 1
Data la matrice X 3 4
, decomporre X nella somma di una matrice X 1 A e di una matrice X2 B.
0 1
[42] Si consideri la matrice A 0 2 —2,2 .
i) Determinare una base per il sottospazio W — 2,2 generato da A, tA, A tA.
ii) Dimostrare che il sottoinsieme:
a b
U , a, b —
0 2b
1 2 1 0 2 1 1 0 1 1 2 2
C L 2 1 3 , 2 1 3 , 0 0 1 , 2 3 4 ,
1
3 0 1 3 2 1 1 0 2 4 2
0 1 1 1 1 0 2 0 1
D L 1 0 1 , 1 0 1 , 0 0 1 .
1 1 0 0
1 2 1 1 0
a b
[44] Dato U 0 a , a, b — , sottospazio vettoriale di — 2,2 ,
i) si determini un altro sottospazio V tale che U V — 2,2 .
1 2
ii) Data la matrice A , si decomponga A nella somma di una matrice A 1 U e di una matrice
3 0
A2 V.
sono uguali.
Università di Torino
Capitolo 1 – Sottospazi vettoriali 11
[48] i) Determinare l’insieme C di tutte le matrici di — 3,3 che commutano (rispetto al prodotto) con la matrice:
0 1 0
A 0 0 1 .
0 0 0
ii) Verificare che C è un sottospazio vettoriale di — 3,3 , determinarne una base e la sua dimensione.
iii) Determinare due sottospazi diversi, entrambi supplementari di C in — 3,3 .
i) provare che — 5 W1 W2 .
ii) Decomporre il vettore a 0, 2, 0, 0, 0 nella somma di un vettore a 1 W1 e di un vettore a 2 W2 .
1 3
W1 X —2,2 / AX XA, dove A 0 ,
1
[54] Si determinino almeno due sottospazi vettoriali diversi ma entrambi supplementari di:
1 2 0 1 0 0 0 1 1
I 2 0 0 , 0 1 0 , 1 0 0
0 0 0
0 0 1 1 0
0
1 1 1 0 2 0 1 0 0
1 2 0 , 2 1 1 , 0 1 0
1
0 0 0 1 0 0 0 0
x1 a1 x2 a2 x3 a3 b,
dove:
a1 2, 1, 0, 4, a 2 3, 2, 4, h, a 3 5, 3, h, 1, b 14, 8, h, 1.
Università di Torino
Capitolo 1 – Sottospazi vettoriali 13
[60] In —3 sono dati i vettori: a 1 1, 1, 0, a2 0, 1, 1, b 2, 3, 1. Considerata l’equazione vettoriale:
x1 a1 x2 a2 x3 a3 b,
a1 x1 a2 x2 a3 x3 b.
a1 x1 a2 x2 a3 x3 b.
ax by cz d
dove:
a h, k, h 2k, b 1, 2, h k, c 2, 4, k 4, d 1, 2, 4 h.
[64] Al variare dei parametri reali h e k, determinare, quando esiste, una matrice X tale che:
XA B
dove:
1 2 3 1
A ,
0 1
B 1 2 .
3 5 k 0
0 h
[65] Al variare dei parametri reali h e k, determinare, quando esiste, una matrice X tale che:
XA B
dove:
0 1 1
2
B .
1 2 3 1 0
A ,
1 h 2h 3 0 k
0 0 k
[67] Al variare del parametro Λ —, discutere e risolvere, quando è possibile, l’equazione matriciale AX B,
dove:
Λ 1 1 Λ 1
A 0 2 1 , B 0 1 .
0 1 Λ Λ2 0
[68] Al variare del parametro Λ —, discutere e risolvere, quando è possibile, l’equazione matriciale AX B,
dove:
Λ 1 Λ 1
A 1 2 , B 0 0 .
1 Λ Λ2 0
AX B, X A B,
dove:
3 1 1 1 1
A 1 2 , B 0 1 3 ,
2 h 0 k hk
sono compatibili. Determinare, quando è possibile, le loro soluzioni.
Università di Torino
Capitolo 1 – Sottospazi vettoriali 15
AX B
dove:
1 2 1 3 2 1
A 0 3 1 5 , B 0 1 .
1 Λ 0 8 Μ 3 0
1 1 0 1
A 2 k , B 1 1 , h, k —.
1 h 0 k
Applicazioni lineari
In tutti gli esercizi di questo capitolo si sono adottate notazioni standard, in particolare si è indicato con:
- —n lo spazio vettoriale delle n-uple di numeri reali, di dimensione n, riferito alla base canonica e 1 1, 0, . . . , 0,
e2 0, 1, 0, . . . , 0, . . . , e n 0, 0, . . . , 1;
- ¬n lo spazio vettoriale delle n-uple di numeri complessi, di dimensione n, riferito alla base canonica e 1
1, 0, . . . , 0, e 2 0, 1, 0, . . . , 0, . . . , e n 0, 0, . . . , 1;
- —m,n lo spazio vettoriale delle matrici di tipo m, n, ad elementi reali, riferito alla base canonica:
- —n,n lo spazio vettoriale delle matrici quadrate di ordine n, ad elementi reali, riferito alla base canonica standard
(il caso particolare della precedente);
- ¬n,n lo spazio vettoriale delle matrici quadrate di ordine n, ad elementi complessi, riferito alla base canonica
standard (come la precedente);
- S—n,n lo spazio vettoriale delle matrici simmetriche di ordine n ad elementi reali rispetto alla base canonica:
1 0 . . . 0 0 1 . . . 0 0 0 . . . 1
. . . 0 1 . . . 0 . . . 0
0 0 0 0 0
... ... . . . . . . , . . . . . . . . . . . . , . . . , ... ... . . . . . . ,
... ... . . . . . . . . . . . . . . . . . . ... ... . . . . . .
0 0 ... 0 0 0 ... 0 1 0 ... 0
0 0 . . . 0 0 0 . . . 0 0 0 . . . 0
. . . 0 0 . . . 0 0 . . . 0
0 1
0
0
. . . . . . , . . . , . . . . . . . . . . . . , . . . . . . . . . . . .
... ...
... ... . . . . . . 0 ... 0 1 . . . . . . . . . . . .
0 0 ... 0 0 ... 1 0 0 0 ... 1
16
Capitolo 2 – Applicazioni lineari 17
- A—n,n lo spazio vettoriale delle matrici antisimmetriche di ordine n ad elementi reali rispetto alla base canonica:
- —n x lo spazio vettoriale dei polinomi in x, a coefficienti reali, di grado minore o uguale a n, riferito alla base
canonica 1, x, x 2, . . . , xn ;
- V3 lo spazio vettoriale reale, di dimensione 3, dei vettori ordinari, riferito alla base ortonormale positiva B
i, j, k. In quest’ambito: “”indica il prodotto vettoriale o esterno e “ ”il prodotto scalare;
- trA indica la traccia della matrice A — n,n , vale a dire la somma degli elementi della diagonale principale.
[1] Sia f ! ¬3 " ¬3 l’endomorfismo la cui matrice, rispetto alla base canonica, è:
1 i 1
A i h2 i .
i 1 2
[2] Nello spazio vettoriale — 3 , riferito alla base canonica B e 1 , e2 , e3 , si consideri l’endomorfismo f dato da:
f e1 2e1 e2 ,
f e2 e1 e3 ,
f e3 e1 e2 e3 .
[3] È data l’applicazione lineare f ! — 4 " —3 , la cui matrice, rispetto alla base canonica, è:
1 0 1 1
A 2 1 1 3 .
1 1 0 2
[4] Sia f l’endomorfismo di — 4 , la cui matrice, rispetto alla base canonica, è:
2 1 0 1
A .
0 1 0 1
1 0 1 0
2 1 0 0
[5] In V3 , si consideri un vettore u u 1 , u2 , u3 0, 0, 0. Determinare il nucleo e l’immagine degli omomor-
fismi:
f1 ! V3 " —, f1 x u x,
f2 ! V3 " V3 , f2 x u x.
[6] Sia f l’endomorfismo di — 3 che, rispetto alla base canonica, è associato alla matrice:
2 1 1
A 1 2 1 , h —,
1 1 h
i) f è iniettivo? f è suriettivo?
ii) Trovare ker f e im f .
iii) Determinare t — tale che u t 1, 2t, 1 im f .
iv) Per il valore di t ottenuto, calcolare le componenti del vettore u rispetto alla base di im f .
v) Trovare un vettore x non appartenente a im f .
vi) ker f e im f sono in somma diretta?
vii) Determinare le controimmagini del vettore y 3, 4, 1.
[9] È dato l’endomorfismo f di — 3 la cui matrice, rispetto alla base canonica di — 3 , è:
4 2 2
A 4 a2 1 a 1 , a —.
8 4 a2 3
Università di Torino
Capitolo 2 – Applicazioni lineari 19
f v1 v1 ,
f v2 2v1 v2 ,
f v3 v2 v3 ,
f v1 v2 v3 2, 2, 1, 1,
f v1 v2 v3 2, 6, 0, 1.
[13] Sono assegnati l’endomorfismo f di — 3 individuato, rispetto alla base canonica B e 1 , e2 , e3 , dalla
matrice:
1 0 2
A 0 1 1
2 1 5
iii) Posto k 1, determinare le componenti dei vettori della base B rispetto alla base C.
iv) Posto k 0 e considerati i sottospazi vettoriali: U Lu, v, w e V L f e 1 , f e2 , e3 , trovare
un’isomorfismo g ! U " V.
v) Scrivere la matrice associata a g rispetto alla base B.
[15] Sia f ! —4 " —3 l’applicazione lineare la cui matrice, rispetto alle basi canoniche, è:
3
1 2 0
2
A t t 0 0 , t —.
1 1 1 1
[16] In —4 sono dati i vettori a 1, 0, 1, 2, b 2, 3, 2, 1, c 1, 3, 1, 1, d 1, 3, 1, 5.
i) Trovare una base per il sottospazio vettoriale F La, b, c, d.
ii) Scrivere la matrice, rispetto alla base canonica B e 1 , e2 , e3 , e4 di —4 , dell’endomorfismo f di — 4 tale che:
[17] In —3 , rispetto alla base canonica B, sono dati i vettori v 1 1, 2, 0, v2 1, 0, 1, v3 1, 0, 2.
i) Verificare che tali vettori sono linearmente indipendenti e formano una base C di — 3 .
ii) Scrivere la matrice, rispetto alla base C, dell’endomorfismo f di — 3 tale che:
f v1 v1 v2 ,
f v2 2v1 v2 ,
f v3 v2 v3 .
3y z 2z
f x, y, z .
x y y
Università di Torino
Capitolo 2 – Applicazioni lineari 21
1 2
iv) Dire se la matrice 3 4 ammette controimmagine.
[19] In —4 , rispetto alla base canonica B e 1 , e2 , e3 , e4 , si consideri il sottospazio V Lu, v, w, dove:
f u u 2w,
f v e1 2e2 7e3 3e4 ,
f w v .
a ab
f a, b, c abc 0
.
[22] i) Dire se la funzione che ad ogni matrice di — 3,3 associa il suo determinante è un’applicazione lineare di
—3,3 in —.
ii) Dire se la funzione di — 3,3 in — che ad ogni matrice associa la sua traccia è un’applicazione lineare. In caso
positivo, stabilire se è suriettiva e determinare il suo nucleo.
x1 x2
G / 4x1 x2 x3 3x2 3x3 4x4 0 .
x3 x4
cosı̀ definita:
x x x1 17x2 10x3 9x4 x2
f x1 x2 11x2 8x3 6x4 13x2 8x3 6x4
,
3 4
e f 1
K, dove:
x1 x2
K / x1 x 4 x 3 0 .
x3 x4
[25] Sia V il sottoinsieme di — 2,2 formato dalle matrici aventi traccia nulla.
i) Verificare che V è un sottospazio vettoriale di — 2,2 e che B A1 , A2 , A3 , dove:
0 1 0 0 1 0
A1 , A2 1 0 , A3 0 ,
0 0 1
è una base di V.
ii) Trovare, rispetto alla base B, la matrice dell’endomorfismo f di V tale che:
h 1 1
f A1 A2 ,
2h h1
0 1
f 2A2 A3 ,
3 0
3 h 2
f A1 A2 A3 .
h 3 h 3
Università di Torino
Capitolo 2 – Applicazioni lineari 23
[26] i) Si provi che esiste un unico endomorfismo f di S— 2,2 tale che:
1 0 1 2
f 0 1 2 3
,
0 1 h 0
f 1 1 0 2 h , h —,
2 0 2 1
f 0 1
1 0
.
ii) Determinare, per ogni valore di h —, una base per gli autospazi di f e stabilire per quali valori di h — f è
diagonalizzabile.
iii) Posto h 0, trovare una base per il sottospazio vettoriale f 1 G, dove:
x1 x2
G S—2,2 / x1 x2 x3 2x2 x3 0 .
x2 x3
[27] i) Sia V uno spazio vettoriale reale di dimensione 3, riferito ad una base B v 1 , v2 , v3 ; si determini la
matrice associata all’applicazione lineare f ! V " V tale che:
ii) f è semplice?
[28] Si considerino le matrici associate, rispetto alla base canonica, alle applicazioni lineari f ! — 3 " —3 tali
che:
ker f x1 , x2 , x3 —3 / x1 x2 x3 0,
f H H dove H x1 , x2 , x3 —3 / x3 0.
Determinare quali tra queste matrici sono diagonalizzabili, quindi individuare una base di autovettori di — 3 .
f x i x 2j x k x.
[31] Si considerino gli spazi vettoriali — 2 , —3 , —4 riferiti alle rispettive basi canoniche B, B , B . Date le
applicazioni lineari:
1 1 2
f ! —3 " —2 , A M B ,B f ,
1 2 3
3 4 3 0
g ! —4 " —2 , B M B ,B g ,
5 9 4 1
[32] Si considerino gli spazi vettoriali — 2 , —3 , —4 riferiti alle rispettive basi canoniche B, B , B . Date le
applicazioni lineari:
1 0
f ! —2 " —3 , A M B,B f 1 2 ,
0 1
1 2 1 0
g ! —4 " —3 , B M B ,B g 8 11 0 ,
1
0 3 5 0
determinare, se esiste, un’applicazione lineare h ! — 4 " —2 tale che f h g.
Università di Torino
Capitolo 2 – Applicazioni lineari 25
2 0 2h 2 1 2 h 2h
f 1 1 1 1
, f 0 1
4 1
,
0 1 0 h6 1 2 h 2h 2
f 3 1
1 1
, f 1 2
5 2
, h —.
g f h
[42] Sia:
x1 x2
T —2,2 , x1 , x2 , x3 —
0 x3
il sottospazio vettoriale di — 2,2 delle matrici triangolari superiori. Si consideri l’endomorfismo f ! T " T tale
che:
1 2 8 10
f 0 ,
0 1 10
0 1 6 8
f 0 1
0 10
,
1 2 5 7
f 0 0 0 6
.
i) f è ben definito?
Università di Torino
Capitolo 2 – Applicazioni lineari 27
x1 x2
iv) Dato H T / x1 3x2 0 , determinare una base e la dimensione di f H e di f 1 H.
0 x3
v) f è semplice?
vi) In caso affermativo si scriva una matrice A diagonale simile ad A e la base di T a cui A è riferita.
dove a i j k, b i k .
i) Verificare che f è un’applicazione lineare.
ii) Scrivere la matrice associata ad f rispetto alla base B i, j, k.
iii) Determinare una base per ker f e una base per im f .
iv) Determinare f W dove W x V3 / x a 0 e f 1 U dove U x V3 / x b o.
v) Verificare che C i j, i j k, 2k è una base di V3 e scrivere la matrice A associata ad f rispetto alla base
C.
vi) f è semplice?
[46] In uno spazio vettoriale V di dimensione 2, rispetto alla base B v 1 , v2 , si considerino gli endomorfismi
f e g individuati dalle matrici:
1 2 3 1
A M B,B f , B M B,B g 1 1 .
1 0
Determinare un’applicazione lineare g ! — 3 " —3 tale che im f img e ker f ker g o.
1 1 0
A 1 1 0
2 1 3
è semplice?
ii) Se si considera, invece, A come elemento di ¬ 3,3 , A è diagonalizzabile? Se la risposta è affermativa, determinare
una base di autovettori di ¬ 3 .
1 0 0
A 14 8 2 .
42 21 5
i) Si provi che f è semplice, si determini una base di autovettori di — 3 e la matrice associata ad f rispetto a tale
base.
ii) Si determini almeno un sottospazio W di — 3 , di dimensione 2, tale che f W W.
Università di Torino
Capitolo 2 – Applicazioni lineari 29
[52] Siano S—2,2 lo spazio vettoriale delle matrici simmetriche di ordine 2 a coefficienti reali e
B e1 , e2 , e3 , e4 la base canonica di — 4 . Si consideri l’applicazione lineare f ! — 4 " S—2,2 tale che:
1 2 1 1
f e1 , f e2 ,
2 3 1 0
1 0 1 1
f e3 , f e4 , k —.
0 1 1 k
Trovare, per ogni k —, una base sia per ker f sia per im f .
1 0 2
A 1 2 2 .
1 1 1
i) Stabilire se f è semplice.
ii) Trovare, se esiste, il valore di h — in modo tale che il vettore u 2, h, 1 sia un autovettore di f .
[54] i) Verificare che esiste un’unica applicazione lineare f ! — 4 " S—2,2 , tale che:
2 1 0 2
f 1, 0, 1, 0 1 3
, f 0, 1, 0, 1 2 2 ,
1 1 1 3
f 0, 0, 0, 1 1 2
, f 1, 0, 0, 1 3 2 .
ii) Trovare una base per ker f ed im f (precisare le basi scelte per scrivere la matrice di f ).
iii) Determinare una base per il sottospazio vettoriale f 1 W, dove:
y1 y2
W —2,2 / y1 2y3 y2 y3 0 .
y2 y3
è un endomorfismo di V3 .
ii) Trovare una base per ker f e im f .
iii) Stabilire se f è semplice e, in caso affermativo, trovare una base di V 3 formata da autovettori. Scrivere la
matrice di f rispetto a tale base, precisando la relativa matrice di passaggio.
dove:
1 h
A , h —.
1 1
[57] Sia f ! —5 " —3 un’applicazione lineare la cui matrice, rispetto alle basi canoniche, è:
1 0 1 2 3
A 2 1 0 1 2 .
3 1 1 3 5
[58] In V3 si considerino i vettori a 1, 1, 0 e b 0, 1, 1. Sia f ! V 3 " V3 la funzione cosı̀ definita:
x ab
f x x a b, x V3 .
a b 2
1 0 1h 0
f 0 1 0 1h
.
Università di Torino
Capitolo 2 – Applicazioni lineari 31
1 0
f ! —2,2 " —2,2 , X " B 1 XB, dove B h 1
.
1 2
f ! —2,2 " —2,2 , X " XB, dove B h 6
.
W X —2,2 / tX X,
2 0 0 1 0 0
A 0 1 0 , B 1 2 0 .
1 0 1 1 1 1
i) Stabilire se tali matrici sono diagonalizzabili. In ciascun caso affermativo, determinare una matrice diagonale
simile alla data, precisando la relativa matrice di passaggio.
ii) Dire se A e B sono matrici associate ad uno stesso endomorfismo f ! — 3 " —3 , rispetto a basi diverse
(giustificare la risposta).
i) Al variare del parametro k in campo reale, verificare che le relazioni precedenti definiscono un’applicazione
lineare.
ii) Per ogni valore di k —, calcolare la dimensione e una base di ker f e di im f .
iii) Posto k 3, verificare che f è semplice, scrivere una matrice diagonale ad essa associata e una base di — 3
rispetto alla quale questa matrice è data.
x1 x2
S —2,2 / x2 x3
x3 x4
Università di Torino
Capitolo 2 – Applicazioni lineari 33
e f 1
K dove:
x1 x2
K
x3
x1
T / x1 3x3 0 .
iv) Detta A la matrice associata a f rispetto ad una base di S e ad una base di T , si stabilisca se A è diagonalizz-
abile e, in caso affermativo, si determini una matrice diagonale A simile ad A.
tale che:
f x1 , x2 , x3 x1 x2 , 2x1 x2 x3 , x1 x3 , x2 x3 ,
si determini f 1
H, dove H è il sottospazio vettoriale di — 4 dato da:
H y1 , y2 , y3 , y4 —4 / y1 y2 0.
f ! —3 " —3
definito da:
f x, y, z 2hx y hz, x z, hz
è semplice.
ii) Ripetere lo stesso esercizio considerando:
f ! ¬3 " ¬3
[71] Nello spazio vettoriale — 4 , rispetto alla base canonica, sono dati i vettori u 1, 0, 1, 1, v 0, 0, 2, 1
e w 2, 0, 4, 1.
i) Provare che Lu, v Lv, w.
ii) Stabilire se esiste un endomorfismo di — 4 tale che u e v sono autovettori di autovalore 2 e w è autovettore di
autovalore 3. Giustificare la risposta.
iii) Si consideri l’applicazione lineare f ! — 4 " —4 tale che:
Scrivere la matrice associata ad f rispetto alla base canonica di — 4 e determinare la dimensione del nucleo di f .
H x, y, z —3 / x y 0.
Università di Torino
Capitolo 2 – Applicazioni lineari 35
0 2 i 0
A 2 i 0 1 .
0 1 0
[76] Sia f l’endomorfismo di — 3 associato, rispetto alla base canonica di — 3 , alla matrice:
3 2 1
A 3 2 h1 , h —.
6 4 2
[77] Data l’applicazione lineare f ! — 3 " —3 definita, relativamente alla base canonica di — 3 , dalla matrice:
0 h h
A 1 h2 h 1 , h —,
h 1 0 h 1
i) trovare il valore di h per cui ker f abbia dimensione 2 e determinarne una base;
ii) posto h 1, determinare autovalori e autovettori di f ;
iii) f è semplice?
iii) Dire se f è semplice, giustificando la risposta e, in caso affermativo, individuare una base di autovettori di — 3 .
f e2 e3 e2 e3
f e1 e2 e3 o
f e1 e2 e1 e2 ,
tale che:
f a0 a1 x a2 x2 2a0 9a1 3a2 a0 4a1 a2 x a0 3a1 x2 .
tale che:
a b
A " f A 2a b d 3b 2c dx 4a 7b 6c 5dx 2 3a c 2dx3 .
c d
[82] i) Scrivere la matrice, rispetto alla base canonica, dell’endomorfismo f di — 3 x sapendo che:
f 1 x x 3 x x2 x3 , f 2 x2 h 3x hx2 , h—
px x3 è un autovettore di f
2 x3 ker f .
ii) Trovare, per ogni valore di h —, una base per ker f e una base per im f .
iii) Stabilire per quali valori del parametro h — l’endomorfismo f è diagonalizzabile.
Università di Torino
Capitolo 2 – Applicazioni lineari 37
i) f è un’applicazione lineare?
ii) Scrivere la matrice A associata ad f rispetto alle basi canoniche di — 1 x e —2 x .
iii) Determinare, se esiste, un’applicazione lineare g ! — 2 x " —1 x tale che f g 3i, dove i è l’identità di
—2 x .
i) f è un’applicazione lineare?
ii) Scrivere la matrice A associata ad f rispetto alle basi canoniche di — 2 x e —1 x .
iii) Determinare, se esiste, un’applicazione lineare g ! — 1 x " —2 x tale che f g 4i, dove i è l’identità di
—1 x .
[85] Sia:
1 1i i
A 2 i 0 0 ¬ ,
3,3
2 0 1
determinare la matrice B A tĀ, dove Ā è la matrice ottenuta da A considerando i complessi coniugati dei suoi
elementi. Verificare che B è diagonalizzabile.
f 2 3x 4x2 2 4x 3kx2 ,
f 1 2x 3x2 1 3x 2kx2 ,
f 5 4x x2 5 x 4kx2 , k —.
e di f 1
K, dove:
K px —2 x / pt a0 x 2x 3, a0 —.
v) Per quali valori di k esiste un endomorfismo g di — 2 x tale che g f 3i, (i indica l’identità in — 2 x )?
Determinare, quando è possibile, la matrice associata a g, rispetto alla base B.
vi) Per quali valori di k f è semplice? In questi casi, scrivere una matrice diagonale A associata ad f e la base
rispetto alla quale questa matrice è data.
f ! —3 x " —2,2
tale che:
4 12 2 6
f 3 x x2 , f x x2 x3 ,
3 2 2 1
5 15 8 24
f 2 2x2 x3 , f 4 2x x2 .
5 0 0 3
d ! —5 x " —5 x
W1 L1 x, x x2 .
W1 W2 —3 x .
ii) E’ noto che ogni polinomio px — 3 x si può scrivere in modo unico come:
Data la funzione:
f ! —3 x " —3 x , px " p1 x p2 x,
Università di Torino
Capitolo 2 – Applicazioni lineari 39
cosı̀ definita:
f a1 a2 x a3 x2 2a1 12a1 8a2 12a3 x 8a1 4a2 6a3 x2 .
i) Determinare ker f e im f .
ii) Calcolare f W e f 1 W dove W è il sottospazio vettoriale di — 2 x dei polinomi aventi 3 come radice.
iii) f è semplice? In caso affermativo, determinare una base di — 2 x che diagonalizzi f .
i) Determinare ker f e im f .
ii) Individuare la dimensione e una base di f H, dove H è il sottospazio vettoriale di — 2 x dei polinomi aventi
2 come radice.
iii) Individuare la dimensione e una base di f 1 K, dove K è il sottospazio vettoriale di — 3 x dei polinomi aventi
3 come radice.
a b
f c d a b cx2 dx3 ,
[94] Per ciascuna delle seguenti coppie di matrici verificare che sono simultaneamente diagonalizzabili e deter-
minare le loro forme diagonali. Trovare, inoltre, una base comune di autovettori.
2 0 0 1 0 0
i) A 0 2 0 , B 2 3 0 ;
1 0 3 2 0 3
3 2 2 2 1 1
ii) A 0 2 0 , B 0 0 0 ;
0 1 1 0 1 1
66 190 68 30 96 32
iii) A 4 13 4 , B 2 8 2 ;
53 148 55 25 75 27
1 0 2 0 2 0 8 0
3 24 3
iv) A , B
24 1 48 6 12
;
0 0 2 0 0 0 2 0
8 0 16 1 16 0 32 2
16 16 4 16 9 12 3 12
0 3
v) A , B .
0 0 0 3 1 3
48 48 12 48 12 12 4 12
0 0 0 0 9 12 3 12
B1 1, 1, 1, 0, 2, 3, 1, 0, 3, B 2 4, 3, 1, 0, 1, 2, 1, 0, 1.
Università di Torino
Capitolo 2 – Applicazioni lineari 41
[99] In —2 % si consideri la forma lineare f x, y 3x y. Sia F ! — 3 " —2 l’applicazione lineare associata
alla matrice:
1 1 0
A
0 1 1
i) Determinare H K e H K.
ii) Scrivere le equazioni di una forma lineare f ! — 4 " — tale che ker f H.
In tutti gli esercizi di questo capitolo, salvo esplicita dichiarazione, si sono adottate notazioni standard, in partico-
lare si è indicato con:
- —n lo spazio vettoriale euclideo delle n-uple di numeri reali, di dimensione n, dotato del prodotto scalare
standard, che rende ortonormale la base canonica e 1 1, 0, . . . , 0, e 2 0, 1, 0, . . . , 0, . . . , e n 0, 0, . . . , 1
- ¬n lo spazio vettoriale hermitiano delle n-uple di numeri complessi, di dimensione complessa n, dotato del
prodotto scalare complesso standard, che rende unitaria la base canonica e 1 1, 0, . . . , 0, e 2 0, 1, 0, . . . , 0, . . . ,
en 0, 0, . . . , 1
- V3 lo spazio vettoriale euclideo reale, di dimensione 3, dei vettori ordinari, riferito alla base ortonormale positiva
B i, j, k. In quest’ambito: “”indica il prodotto vettoriale o esterno e “ ”il prodotto scalare.
[1] i) Dato il sottospazio vettoriale F x 1 , x2 , x3 —3 / x1 x3 x2 0 di —3 , trovare una base per F & e
verificare che —3 F F & .
ii) Se u è un generico vettore di — 3 , si ponga u u1 u2 , dove u1 F e u2 F & . Provare che l’endomorfismo:
è un’isometria di — 3 .
iii) Trovare la matrice, rispetto alla base ortonormale canonica di — 3 , di f e stabilire se f è un’isometria diretta o
inversa.
F x1 , x2 , x3 —3 / x1 x2 x3 x2 x3 0 .
42
Capitolo 3 – Spazi vettoriali euclidei ed hermitiani 43
V La1 i j, a2 i j k.
Rispetto al prodotto hermitiano standard di ¬ 4 , si determini una base unitaria del complemento ortogonale H & di
H.
U x, y, z —3 / x y 2z 0, 2x y z 0,
V x, y, z —3 / x y z 0,
A f End—3 / f 1, 2, 1 U, f 3, 1, 2 U & , f 1, 1, 2 V& ,
1 4i
A .
4i 3
[9] Dato:
1 3
W X —2,2 / AX XA, dove A 0 ,
1
sottospazio vettoriale di — 2,2 , determinare il suo complemento ortogonale (rispetto al prodotto scalare X Y
trtXY , X, Y —2,2 ).
e sia W Lv1 , v2 , v3 , v4 .
i) Trovare una base ortonormale B di W.
ii) Completare B fino ad ottenere una base ortonormale D di — 3 .
iii) Determinare la matrice del cambiamento di base dalla base canonica C di — 3 alla base D e viceversa.
[12] Dato il sottospazio H L1, 1, 3, 1 dello spazio vettoriale euclideo — 4 , trovare una base ortonormale
per il sottospazio H& .
e indicati con RA e CA gli spazi vettoriali generati dalle righe e dalle colonne di A, rispettivamente, si
determinino:
i) base e dimensione di RA CA e di RA CA;
ii) il complemento ortogonale di CA in — 4 , rispetto al prodotto scalare standard di — 4 .
Università di Torino
Capitolo 3 – Spazi vettoriali euclidei ed hermitiani 45
U x, y, z, t —4 / 2x y t z t 0,
V x, y, z, t —4 / x y y z x t 0,
[16] i) In —5 , i sottospazi:
A x1 , x2 , x3 , x4 , x5 —5 / x1 x2 x3 0,
B L1, 2, 1, 2, 1, 0, 1, 1, 1, 1, 1, 0, 1, 0, 1, 2, 3, 1, 3, 1,
sono supplementari?
ii) Determinare le equazioni del complemento ortogonale di A rispetto al prodotto scalare standard di — 5 e una
sua base ortonormale.
[18] In V3 è dato il vettore v i j k . Determinare una base ortonormale del piano vettoriale ortogonale a v .
[20] Determinare una matrice ortogonale in modo tale che la sua prima riga sia data da:
2 2
0, 2 , 2
.
Forme quadratiche
[1] Sia V uno spazio vettoriale euclideo di dimensione 3, riferito alla base ortonormale canonica
B e1 , e2 , e3 . Detto F il piano vettoriale di equazione x 1 2x2 x3 0, (x1 , x2 , x3 sono le componenti di un
generico vettore x di V , rispetto alla base B), si consideri l’endomorfismo p ! V " V , proiezione ortogonale di
V su F , cosı̀ definito: se u u1 u2 , dove u1 F e u2 F & , allora pu u1 .
i) Verificare che la funzione:
[2] Sia V uno spazio vettoriale reale di dimensione 3, riferito alla base B v 1 , v2 , v3 . Si consideri la forma
quadratica:
Qx 2x1 x2 2x1 x3 2x2 x3 , x x1 v1 x2 v2 x3 v3 V .
Classificare Q e trovare una base rispetto alla quale Q si scrive in forma canonica.
[3] Sia V uno spazio vettoriale reale di dimensione 4, riferito alla base B v 1 , v2 , v3 , v4 . Si consideri la forma
quadratica su V :
4
Qx 2x21 2x1 x2 2x22 2x23 2x3 x4 2x24 , x xi vi V .
i1
4
F
x xi vi V / x1 2x2 x3 2x1 x2 x4 0
,
i1
determinare una base per F & , sottospazio ortogonale ad F rispetto a Q, e verificare che V F F & .
46
Capitolo 4 – Forme quadratiche 47
[5] Sia V uno spazio vettoriale reale di dimensione 3, riferito alla base B v 1 , v2 , v3 .
i) Trovare la matrice, rispetto alla base B, del prodotto scalare ' definito in modo opportuno sapendo che B
v1 v2 v3 , v1 v2 , v1 v3 è una base ortonormale (rispetto a ').
ii) Determinare una base per F & , complemento ortogonale (rispetto a ') del piano vettoriale F di equazione
x1 x3 0.
iii) Calcolare la norma del vettore a v 1 v2 v3 (rispetto a ').
[6] Sia V uno spazio vettoriale reale di dimensione 3, riferito alla base B v 1 , v2 , v3 . Data la funzione
' ! V ( V " —:
3 3
'x, y 2x1 y1 x2 y2 x3 y3 x1 y3 x3 y1 , x xi vi , y y jv j V ,
i1 j1
i) verificare che V , ' è uno spazio vettoriale euclideo e trovarne una base ortonormale;
ii) stabilire se l’automorfismo f ! V " V di matrice, rispetto alla base B,
0 1 1
2
M B,B
f 1 0 1
,
0 0 1
2
è un’isometria di V , ';
iii) calcolare f 1 \
a e cos f a f b, dove a v1 v2 2v3 e b v1 v3 .
[7] Sia V uno spazio vettoriale reale di dimensione 3, riferito alla base B v 1 , v2 , v3 . Data la funzione
' ! V ( V " —:
3 3
'x, y 3x1 y1 4x2 y2 3x3 y3 x1 y3 x3 y1 , x xi vi , y y jv j V ,
i1 j1
i) verificare che V , ' è uno spazio vettoriale euclideo e trovarne una base ortonormale;
ii) stabilire se l’automorfismo f ! V " V di matrice, rispetto alla base B:
1 0 1
1
M B,B f 1 0 2
,
\
0 1
1
[8] Sia:
1 1 1
A 1 1 1
1 1 1
una matrice simmetrica di — 3,3 .
i) Determinare una matrice B tale che t BAB sia una matrice diagonale.
ii) Classificare la forma quadratica * ! — 3 " — associata ad A, rispetto alla base canonica di — 3 .
[9] Classificare e determinare la segnatura della seguente forma quadratica Q ! — 5 " —, che, rispetto alla base
canonica di —5 , è associata alla matrice:
1 3 4 1 2
3 0 0 7 1
A .
4 0 0 0 0
1 7 0 2 1
2 1 0 1 3
è uno spazio vettoriale euclideo, ( x è un vettore di V 3 , x1 , x2 , x3 sono le componenti di x rispetto alla base
B v1 , v2 , v3 ).
ii) Determinare una base ortonormale di V 3 , rispetto al prodotto scalare cosı̀ introdotto.
2 2 2 2
Q2 x1 , x2 , x3 , x4 2x1 2x1 x2 2x2 2x3 2x3 x4 2x4
2 2
Q3 x1 , x2 , x3 , x4 x1 4x1 x2 2x1 x3 4x3 x4 4x3
2 2 2 2
Q4 x1 , x2 , x3 , x4 3x1 2x1 x2 3x2 4x3 2x3 x4 4x4 .
Università di Torino
Capitolo 4 – Forme quadratiche 49
la si classifichi e si determini una base rispetto alla quale Q assuma una forma canonica.
ridurla a forma canonica e determinare la matrice del cambiamento di base che la realizza.
[1]
SolveDetm 0, h
h 5
h 5.
[2]
m 1, 1, 0, 1, 2, 1, 1, 0, 3, 0, 1, 1, 0, 1, 1, 0
RowReducem
1 1 1
1, 0, 0, , 0, 1, 0, , 0, 0, 1, , 0, 0, 0, 0
2 2 2
RowReducem1, m2, m4
1 1 1
1, 0, 0, , 0, 1, 0, , 0, 0, 1,
2 2 2
SolveDetA m1, m2, m4, 1, 1, 2t 8, t 1 0
t 2
c A4/.t 2
1, 1, 4, 3
[3]
RowReduceu, v
1 5
1, 0, , 0, 1,
7 7
Solvew a u b v, t, a, b
t 7, a 1, b 3
t 7, 1, 3.
50
Capitolo 5 – Soluzioni - Sottospazi vettoriali 51
[5]
m 2, 0, 1, 0, 1, 1, 0, 1, 0, 3, 1, 1, 5, h, 1, h
SolveDetm 0
h 2
a m4/.h 2
3 3 3 3
iii) 1, 2, 3, 4 1 13 w, 2 26
w, 3 w, 4 13
w, 26 w, w, 0 , w —.
[8]
SolveDetm 0
h 1, h 0
1 0 0 1 0 0
[9] dim S 3, S L , 1 0 , 0 1 ;
0 0
1 0 0 1 0 0
dim T 3, T L , 0 0 , 1 0 .
0 1
1 0 0 1
H L 1 , 1 3 .
2 2 2
ii) dimH K 4, H K.
[12]
m 1, 2, 1, 0, 1, 0, 2, 1, 0, 2, 2, 1, 4, 1, 2, 3
Detm
13
2 1 0 0 0 0
ii) dim A 3, A L , 1 0 , 0 1 ;
0 0
1 0 0 2
dim B 2, B L , 1 ;
0 1 0
2 1 0 0 0 0 1 0
dimA B 4, A B L , 1 0 , 0 1 , 0 ;
0 0 1
4 2
dimA B 1, A B L .
1 4
ii) dimH K 4, H K L2, 0, 1, 0, 0, 0, 0, 1, 0, 2, 1, 1, 1, 2, 1, 1.
[14] Sı̀.
[16]
Reducex y z 0, x h y 2 h z 0,
x hˆ2 y 3h 4 z 0, x, y, z
h 1&&x y zh 2&&x 2 z&&y z
x 0&&y 0&&z 0&& 2 h 0&& 1 h 0
1 0 3 0 1 2 0 0 0 0 0 1 0 0 0 0 0 0
[17] B 0 0 2 , 1 1 0 , 0 5 2 , 0 0 0 , 0 0 1 , 0 0 0 .
3 2 0 2 0 0 0 2 6 1 0 0 0 1 0 0 0 1
Università di Torino
Capitolo 5 – Soluzioni - Sottospazi vettoriali 53
[18]
Solve svars Equations may not give solutions for all solve variables.
9 x3
x1 3 x3 x4, x2
4
SolveA.X X.A, x1, x2, x3, x4
Solve svars Equations may not give solutions for all solve variables.
9 x3
x1 x4, x2 3 x4
4
SolveA.X X.A, A.X X.A, x1, x2, x3, x4
Solve svars Equations may not give solutions for all solve variables.
3 x4 2 x4
x1 x4, x2 , x3
2 3
A1 12, 9, 4, 0 A2 1, 0, 0, 1 A3 0, 9, 4, 0
A4 1, 3, 0, 1 c 0, h 2, 0, h 3
d Solvec x A1 y A2 z A3 w A4, x, y, z, w, h1
Solve svars Equations may not give solutions for all solve variables.
1 w 1 w
x , y 2 w, z , h 5
6 6 6 6
Simplify x/.d1 A1 y/.d2 A2
3 2
w, 1 w , 1 w , 2 w
2 3
Simplify z/.d3 A3 w/.d4 A4
3 1w 2
w, , 1 w , w
2 3
12 9 1 0 0 9 1 3
i) F L , 0 1 , G L 4 0 , 0 .
4 0 1
6 9
ii) F G L ,
4 6
12 9 1 0 2 3
F G L , 0 1 , 0 .
4 0 0
3 3
w 1 w w 1 w
iii) h 5, C1 2 2 , C2 2
2 , w —.
3 1 w 2 w 3
1 w w
1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
K L 0 0 0 , 1 0 0 , 0 1 0 , 0 0 0 , 0 0 0 , 0 0 0 ,
0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 1
dim K 6.
[22] No.
[23] No.
K L 2 x x2 , 2x x2 x3 , 2x2 x3 x4 , dim K 3,
H K L 2x x2 x3 , 2x2 x3 x4 , dimH K 2.
1 0 1 5 0
0 1 2 3 1
[26] Il rango della matrice è 5.
2 1 4 7 1
0 0 0 1 1
0 0 1 1 0
0 0 0 0 1
dimW1 W2 5.
dimW1 W2 5.
Università di Torino
Capitolo 5 – Soluzioni - Sottospazi vettoriali 55
[33]
m 3, 1, 1, 0, 0, 1, 1, 2, 2, 0, 1, 1, 0, 1, 2, 3
Detm
4
[34]
m 1, 2, 1, 0, 0, 3, 1, 2, 1, 1, 0, 1, 3, 2, 1, 1
a 2, 1, 1, 2
LinearSolveTransposem, a
2, 0, 3, 1
2 1
1 2
2A1 3A3 A4 .
[35]
LinearSolveTransposea, b, d, c
1, 3, 6
0 0 1
i) B A, B, 0 0 0 .
1 0 0
0 0 1
ii) C A 3B 6 0 0 0 .
1 0 0
[36] i) Poiché dim U dim V 4 > 3 dim — 3 , dalla relazione di Grassmann segue che dimU V + 1.
V L0, 1, 0, 0, 0, 1, quindi U V L1, 0, 0, 0, 1, 0, 0, 0, 1.
[37]
a1 1, 2, 1 a2 2, 1, 3 a3 4, 1, 5 a 4, 11, 7
ii) B Lx3 , x4 , x5 .
D L 2 x x 3 , x4 x5 , x x 2 x3 x4 , dim D 3.
v) Sı̀. vi) A C D A.
3 1
1 0 0 0 1 1 i 1 i 0
[39] L , 0 1 . 3 2 2 .
0 0 4 3 3i 0 4 3i
[40]
a 0, 1, 1, 1, 1, 0, 2, 1, 1, 2, 0, 1, 1, 1, 1, 0
Deta
4
MatrixFormInversea
1 1
0 1
2 2
1 1 1
0
2
1
2 2
1 1
0
2 2 2
1 1
1 0
2 2
0 1 1 0 0 1 0 1 0 0 0 0
1 1
i) B L , , , dim B 3.
0 2 0 0 0 0 0 0 0 1
1 2 0 0 0 0 0 0 0 0 0 1
0 0 0 0 1 0 0 0 0 1 1 0
Università di Torino
Capitolo 5 – Soluzioni - Sottospazi vettoriali 57
0 1 2 3 0 0 1 2 0 1 1 2 0 2 1 1
1 0 1 2
ii) C L , , , ,
0 2 3 0 0 1 0 2 3 0 0 2
2 2 0 1 1 0 0 7 1 2 0 1 1 0 0 12
3 3 1 0 2 1 7 0 2 3 1 0 1 2 12 0
dim C 3.
0 0 2 1 0 0 1 2
0 0
D L , , dim D 2.
0 0 1 0 0 0
2 0 0 0 1 0 0 1
1 1 0 0 2 0 1 0
iv) D D B C.
0 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0
1 0
v) E L , , , .
0 0 0 0 0 0 0 0 1 0 0 0 0 0
0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 1
0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0
0 1 1 1 0 1 0 6 0 0 1 5
1 0
vi) .
1 0 2 1 0 2 0 0 0 1
1 2 0 1 0 2 0 4 1 0 0 3
1 1 1 0 6 0 4 0 5 1 3 0
1 1
0 1
2 2
1 1 1
2 0 2
2
vii) det A 4, A 1
.
1 1
1
2
2 2
0
1 1
1 2 2
0
0 1 0 0 0 0 2 i 0 i 2
[41] B L , 1 0 , 0 1 . X 1
2 3i 12 6 3i .
0 0 0 8
1 0 0 1
[42] i) W LA,t A. ii) U L , 0 2 .
0 0
1 0 0 1 0 0 0 1
iii) U V L , 0 2 , 1 2 , U V L 0 2 .
0 0
[43]
Deta
13
MatrixFormInversea
14 3 5
13 13 13
3 4 2
13 13 13
5
2 1
13 13 13
2 0 0 1 2 0 0 0 3
i) A L 0 1 0 , 2 0 0 , 0 0 1 , dim A 3.
0 0 0 0 0 1 3 1 0
1 0 0 0 0 1 0 0 0
ii) B L 0 0 0 , 0 0 0 , 0 0 0 .
0 0 0
1 0 0 0 0 1
0 1 2
11
1 3 11
0 5
2 2
iii) 1 3 1 1 3 1 0 0 0 .
2 1 5 1 9
3 1 2 5 0 2
14 3 5
13 13 13
3 2
iv) A 1
13 4
13
.
13
5 2 1
13 13 13
1 2 1 0 2 1 1 0 1
v) C L 2 1 3 , 2 1 3 , 0 0 1 ; dim C 3.
1
3 0 1 3 2 1 1 0
0 1 1 1 1 0 2 0 1
D L 1 0 1 , 1 0 1 , 0 0 1 ; dim D 3.
1 1 0 0
1 2 1 1 0
0 0 0 0
[44] i) V L , 0 1 .
1 0
1 2 0 0
ii) A1 , A2 3 .
0 1 1
[45] i) 3x 1 x2 x3 0.
ii) Per esempio: L1, 0, 0, 0, L0, 1, 0, 0.
Università di Torino
Capitolo 5 – Soluzioni - Sottospazi vettoriali 59
[48]
x1 x2 x3
i) 0 x1 x2 , x1 , x2 , x3 —.
0 0 x1
1 0 0 0 1 0 0 0 1
ii) 0 1 0 , 0 0 1 , 0 0 0 .
0 0 1
0 0 0 0 0 0
iii) Per esempio:
0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0
L 0 0 0 , 1 0 0 , 0 0 0 , 0 0 0 , 0 1 0 , 0 0 0 ,
1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0
L 0 0 0 , 1 0 0 , 0 0 0 , 0 0 1 , 0 0 0 , 0 1 0 .
1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0
[49]
RowReducem
1, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0,
0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 1
LinearSolveTransposem, 1, 1, 1, 1, 1, 1
2, 1, 1, 1, 1, 1
[50] L0, 0, 0, 1, 0, 0, 0, 0, 0, 1, ci sono infinite risposte che dipendono da due parametri perché
dim H 3.
1 0 0 3 1 0 0 1 0 0
[53] i) W1 L , 0 , W2 L 0 , 0 0 , 1 0 ,
0 1 2 1
5 6
W1 W2 L , W1 W2 —2,2 .
0 1
0 0 0 0
ii) Per esempio: W3 L , 0 1 .
1 0
1 2 0 1 0 0 0 1 1 0 1 0 0 0 0 0 0 0
[55] B 2 0 0 , 0 1 0 , 1 0 0 , 1 0 0 , 0 1 0 , 0 0 1 .
0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 1 0
[56]
W1 W2 L 2, 1, 3, 1, W 1 W2 —5 .
ii) h 2.
[57] i) W2 è un sottospazio vettoriale di — 5 perché i suoi elementi sono soluzioni di un sistema lineare omogeneo;
si può direttamente dimostrare che W 2 è chiuso rispetto alla somma e al prodotto per numeri reali.
iii) dimW1 W2 4, W1 W2 L1, 1, 0, 0, 1, 0, 2, 0, 0, 3, 0, 0, 2, 0, 3, 0, 0, 0, 1, 2;
1 0 0 0 0 0 0 0 0
[58] Per esempio:
0 0 0 , 0 1 0 , 0 0 1 .
0 0 0 0 0 0 0 1 0
[59]
Università di Torino
Capitolo 5 – Soluzioni - Sottospazi vettoriali 61
[60]
[61]
x1 4, x2 5, x3 1.
[62]
L’equazione è incompatibile.
[63]
1
se h 2
k, k 2: esistono infinite soluzioni che dipendono da un’incognita libera;
a 1, 2, 0, 1, 3, 5, 0, h b 3, 1, 1, 2, k, 0
x x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11, x12
ReduceTransposea.Transposex Transposeb
k 3 x11 x9&&x1 3 1 x3 &&x10 5 x11 h x12 2 x9&&
x2 5 x3 h x4&&x5 1 3 x7&&x6 4 x7 h x8
3 3a 5 a hd a d
X 1 3b 4 b he b e , a, b, c, d, e, f , h, k —.
k 3c 2k a h f c f
[65]
[66]
a b
X 2 5a 1 5b , a, b —.
2 3a 3b
[67]
2Λ2 Λ3 2 Λ
Λ1 2Λ Λ1 2Λ
/ 0, 2 : allora X
se Λ 1 Λ2 Λ .
1 2Λ 1 2Λ
2Λ2 1
1 2Λ 1 2Λ
[68]
4
2
5
5
se Λ 2: X .
2 1
5 5
Università di Torino
Capitolo 5 – Soluzioni - Sottospazi vettoriali 63
[69]
a 3, 1, 1, 2, 2, h b 1, 1, 1, 0, 1, 3, 0, k, h k
x x1, x2, x3, x4, x5, x6
Reducea.x b
2 3
h 4&&k 2&&x1 &&x2 &&
7 7
1 1 2 10
x3 &&x4 &&x5 &&x6
7 7 7 7
[70]
a 2, 1, h, 2, 1, 0 b 3, 1, k, 2, 0, 3, 4, k, 1
x x1, x2, x3, x4, x5, x6
Reducea.x b
h 3&&k 2&&x1 4&&
x2 2&&x3 1&&x4 5&&x5 3&&x6 0
[71]
[72]
[73]
1 2
Se h 1 e k 1: X 1 3
; in tutti gli altri casi non esistono soluzioni.
Università di Torino
Capitolo 6
[1]
[2]
NullSpaceTransposeA
ker f o.
[3]
NullSpaceA
1, 1, 0, 1, 1, 1, 1, 0
[4]
DetA
2
[5] M f 1 u1 u2 u3 ;
ker f 1 x V3 / x & u im f1 —;
65
66 E. Abbena, G.M. Gianella – Esercizi di Geometria e Algebra Lineare II
0 u3 u2
M f2 u3 0 u1 ;
u u1 0
2
[6]
SolveDetA O, h
6O
h
3
n 1, kˆ2 k, k, 1, 2, 1, 1, 1, 2
SolveDetn 0
k 1 2, k 1 2
NullSpaceA/.h 2
1, 1, 1
Solve svars Equations may not give solutions for all solve variables.
x 2 z, y 1 z
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 67
[7]
MatrixFormA Transposea
6 9 3
1 0 1
1 3 2
DetA
0
NullSpaceA
1, 1, 1
6 9 3
i) A M f 1 0 1 , det A 0, quindi f non è ne iniettiva ne suriettiva.
1 3 2
iv) u 85 , 13
5
. v) per esempio: 1, 0, 0.
[8]
MatrixFormTransposeA
1 1 1
2 2 2
1 1 1
Det1, 1, 2, 3, 1, 2, 1, 2, 1
8
1 1 1
i) M f 2 2 2 .
1 1 1
1
2 1
iii) 1 1 2 8.
3 1 2
[9]
SolveDetA 0
a 1, a 1, a 1, a 1
NullSpaceA/.a 1
1, 2, 0
NullSpaceA/. a 1
1, 0, 2, 1, 2, 0
NullSpaceB
1, 1, 2
i) a ,1.
iii) Non esistono. iv) Sı̀ (teorema del completamento della base). v) Sı̀.
1 1 1
vi) Per esempio: Mg 0 2 1 .
2 0 1
1
vii) Se l 2h 2k, allora f 1
h, k, l 18 l 1
2
t 2
t , t, t , l, t, t —.
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 69
[10]
Solve svars Equations may not give solutions for all solve variables.
x 1, y 3, z 1 t
1 1 2
A 2 3 3 .
1 4 5
[11]
ii) No.
[12]
0 2Λ1 2Λ1 Λ1
ii) M f 0 2Λ2 2Λ2 Λ2 , Λ1 , Λ2 , Λ3 —.
0 2Λ 2Λ3 Λ3
3
[13]
NullSpaceA
2, 1, 1
SolveDetu, v, w 0
k 2
p Transposeu/.k 1, v, w
iii) e1 2u v 4w , e 2 w , e 3 u v 2w .
1 0 0
iv) Per esempio: M C,B f 0 1 0 .
2 1 1
1
1 0
2
1
v) M B,B f 0 0 2
.
3
4 1 2
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 71
[14]
NullSpaceA
1, 1, 1
i), ii) f non è ne iniettiva ne suriettiva: ker f L 1, 1, 1, im f L2, 0, 3, 0, 1, 2,
iii) No.
[15]
3 1
iv) Se t 0: f 1
1, 0, 1 1 2t1 t ,t ,t ,2
2 2 1 2
t1 t
2 2
, t1 , t2 —;
se t 0: f 1
1, 0, 1 t, t, 23 2t, 53 , t —.
[16]
RowReducea, b, c, d
1, 0, 1, 2, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0
TransposeLinearSolve
1, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1, 0, a, a, b, c, 2a
3 3
1, 2, 1, 0, 0, 3, 3, , 1, 2, 1, 0, 2, 1, 1,
2 2
i) F La, b.
1 2 1 0
3
0 3 3 2 .
ii) M B,B f
1 2 1 0
3
2 1 1 2
[17]
1 2 0
ii) M C,C f 1 1 1 .
0 0 1
0 1 1
iii) M B,B f 8 3 4 .
5 3 4
[18]
NullSpaceA
0 0 3 0 1 2
i) im f L , 1 1 , 0 .
1 0 0
[19]
RowReduceu, v, w
1
1, 0, 0, , 0, 1, 0, 1, 0, 0, 1, 0
2
u 2w
2, 2, 1, 3
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 73
2 1 0
iii) M f .
C,B 2 2 1
1 7 3 iv) Sı̀.
3 3 1
1 0 0
[20] i) M f .
1 1 0
1 1 1
0 0 0
1 1 0 1 0 0
ii) im f L , 1 0 , 1 0 .
1 0
[21]
NullSpaceA
1, 3, 1, 0, 5, 4, 3, 4, 5, 0
b x1, x2, x3, x4, x5 s 1, 3, 1, 0, 5 t 0, 3, 0, 1, 4
[22] i) No. ii) Sı̀, è suriettiva, quindi il nucleo ha dimensione 8 ed è costituito da tutte le matrici aventi traccia
nulla.
[23]
ReduceA.x1, x2, x3, x4 0, 0, 0, 0, x1, x2, x3, x4
h 1&&x1 x3&&x2 x4
x1 0&&x2 0&&x3 0&&x4 0&&1 h 0
B A/. h 1
EigensystemB
2, 2, 0, 0, 0, 1, 0, 3, 1, 0, 3, 0, 0, 1, 0, 1, 1, 0, 1, 0
Solve svars Equations may not give solutions for all solve variables.
x4 4 x4
x1 , x2 x3
3 3
ReduceB . x1, x2, x3, x4 t/ 3, 4t/ 3 z, z, t, x1, x2, x3, x4
1 1
x1 t 3 x3 &&x2 t 3 x4 &&z t
3 3
1 0 0 1 1 0 0 1
se h 1: ker f L , 0 1 , im f L 3 0 , 0 3 .
1 0
1 0 0 1 1 1
iii) f 1
G L , 0 1 , 0 .
1 0 0
[24]
A 1, 17, 10, 9, 0, 1, 0, 0, 0, 11, 8, 6, 0, 13, 8, 6
NullSpaceA
6, 0, 3, 4
A.1, 0, 0, 4
37, 0, 24, 24
A.0, 0, 1, 2
28, 0, 20, 20
ReduceA.x1, x2, x3, x4 t1, t2, 0, t1, x1, x2, x3, x4
1 t1 1
2 t2 t1&&x1 5 t1 12 x4 &&x2 &&x3 11 t1 12 x4
8 2 16
EigensystemA
0, 1, 1, 2,
6, 0, 3, 4, 0, 1, 1, 3, 1, 0, 0, 0, 1, 0, 1, 1
1 17 10 9
i) A .
0 1 0 0
0 11 8 6
0 13 8 6
6 0 1 0 17 1 10 0
ii) ker f L , im f L 0 0 , 11 , 8 .
3 4 13 8
37 0 17 1 7 0
iii) f H L , 11 , 5 ,
24 24 13 5
10 8 6 0
f 1 K L , 3 4 .
11 0
0 0 0 0 6 0 1 1
v) f è semplice, A
0 1 0 0 , B 0 1 0 0 .
0 0 1 0 3 1 0 1
0 0 0 2 4 3 0 1
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 75
[25]
MatrixFormc Transpose%
0 1 1
h 2 1
h 1 2
SolveDetc 0
h 0
b Eigenvaluesc
1 1
1, 3 9 8 h, 3 9 8 h
2 2
FlattenTablebi bj, i, 3, j, 3
MapSolve, %
Solve i fun Inverse functions are being used by Solve, so some solutions may not be
found
Solve i fun Inverse functions are being used by Solve, so some solutions may not be
found
, h 1, , h 1,
9 9
, h , , h ,
8 8
Eigensystemc/.h 1
1, 1, 2, 1, 0, 1, 1, 1, 0, 1, 1, 1
Eigensystemc/.h 9/ 8
3 3 4
1, , , 0, 1, 1, , 1, 1, 0, 0, 0
2 2 3
0 1 1
ii) M B,B f h 2 1 , h —; iii) a) h 0; b) h > 9
.
h 1 2
8
[26]
MatrixFormm Transpose%
1 h 0
1 1 1
1 h 2
Eigensystemm
h 1
1, 1, 2, 1, 0, 1, 0, 0, 0, , , 1
1h 1h
Eigensystemm/.h 1
1, 1, 2, 1, 0, 1, 0, 0, 0, 1, 1, 0
Eigensystemm/.h 0
1, 1, 2, 1, 0, 1, 0, 1, 0, 0, 1, 1
Reduce m/.h 0 .x1, x2, x3 3t, t, 2t, x1, x2, x3
3t t
x1 3 t&&x2 &&x3
2 2
1 h 0
i) M f 1 1 1 , h —.
1 h 2
ii) Se h 0: f è semplice, se h 0: f non è semplice.
6 3
iii) f 1
G L .
3 1
[27]
MatrixForma Transpose%
3 0 0
0 1 1
0 2 2
Eigensystema
0, 3, 3, 0, 1, 1, 0, 1, 2, 1, 0, 0
3 0 0
M B,B f 0 1 1 . ii) Sı̀.
0 2 2
[28]
Eigensystemm
a
0, 0, a b, 1, 0, 1, 1, 1, 0, , 1, 0
b
a a a
A M f b b b , a, b —;
0 0 0
A è diagonalizzabile se a b 0, oppure se a b 0. Nel primo caso una base di autovettori è data da:
1, 0, 1, 1, 1, 0, a, b, 0.
[29]
NullSpacem
1, 2, 1
Eigensystemm
0, 6, 6,
1 1
1, 2, 1, 2 6, 2 6, 1,
5
5
1 1
2 6, 2 6, 1
5 5
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 77
0 1 2
ii) M f 1 0 1 ;
2 1 0
[30]
NullSpacem
Eigensystemm
1 1
1, 15, 15, 3, 2, 1,
2 2
3 15 4 3 15 4
, , 1, , , 1
15 15 15 15
0 2 1
ii) M f 0 0 2 .
1 1 0
ker f o, im f V3 . iii) No.
[31]
a 1, 1, 2, 1, 2, 3 b 3, 4, 3, 0, 5, 9, 4, 1
x x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11, x12
Reducea.x b
x1 1 x9&&x10 5 x6&&x11 1 x7&&x12 1 x8&&
x2 6 x6&&x3 1 x7&&x4 2 x8&&x5 2 x9
Λ1 1 Λ2 1 Λ3 2 Λ4 1
Λ1 2
,B
MB Λ2 5 Λ3 1 Λ4 1 , Λ1 Λ2 , Λ3 , Λ4 —.
Λ1 Λ2 Λ3 Λ4
[32]
1 2 1 0
MB ,B
h .
0 3 5 0
[33]
1/ 2 x Transposex
x2 x3 x2 x3
x1, , , x4
2 2
a 1, 0, 0, 0, 0, 1/ 2, 1/ 2, 0, 0, 1/ 2, 1/ 2, 0, 0, 0, 0, 1
NullSpacea
0, 1, 1, 0
Eigensystema
0, 1, 1, 1, 0, 1, 1, 0, 0, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 0
1 0 0 0
0 1 1
0
2 2
ii) M f .
0 1 1
0
2 2
0 0 0 1
0 1 1 0 0 1 0 0
iii) ker f L , im f L 0 0 , 1 0 , 0 1 .
1 0
1 0 0 0
iv) A ,
0 1 0 0 1 0 0 1 0 0 0 1
B , 1 0 , 0 1 , 1 0 .
0 0 1 0 0 0
0 0 0 0
[34]
Eigensystema
1, 2, 2, 7, 2, 3, 0, 1, 2, 1, 0, 0
7 0 1
A P 1 AP, P 2 1 0 .
3 2 0
[35]
0 1 1 2
i) A .
0 0 1 2
0 1 0 2
0 0 0 1
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 79
1 0 0 0 0 0 2 1
ii) A
0 1 0 0 , B 2 1 1 0 , A BA B 1 .
0 0 1 0 0 1 1 0
0 0 0 0 1 0 0 0
[36]
a 1, 2, 0 b 0, 1, 1 c 1, 1, 1 i 1, 0, 0 j 0, 1, 0
A.1, 1, 0
1
, 2, 1
2
A.1, 1, 0
1
, 6, 7
2
ReduceA.x1, x2, x3 l, 0, l, x1, x2, x3
l 0&&x1 x3&&x2 x3
EigensystemA
1
1, 0, 4, , 0, 1, 1, 1, 1, 0, 1, 1
2
1 1
0
2 2
i) M f 4 2 2 .
4 3 1
iii) f H L 12 i 2j k, 1
2
i 6j 7k , f 1
K ker f .
[37]
m1 2, 0, 1, 1, 1, 2, 0, 1, 0, 1, 3, 1, 1, 2, 1, 2
m2 2h, 2, 1, 1,
h, 2h, 4, 1, 0, h 6, 1, 1, h, 2h 2, 5, 2
MatrixFormM TransposeLinearSolvem1, m2
h 0 0 0
0 h 2 0
0 2 1 0
0 0 0 1
ReduceM.x, y, z, t 0, 0, 0, 0, x, y, z, t
h 4&&t 0&&x 0&&z 2 yh 0&&t 0&&y 0&&z 0
t 0&&x 0&&y 0&&z 0&&4 h 0
SolveDetM 0
h 4, h 0
MatrixFormSimplifyInverseM
1
0 0 0
h
0
1 2
0
4h 4h
2 h
0 0
4h 4h
0 0 0 1
b EigenvaluesM
1 1
1, h, 1 h 17 2 h h2 , 1 h 17 2 h h2
2 2
FlattenTablebi bj, i, 4, j, 4
MapSolve, %
, h 1, h 1, , h 1, , h 1,
h 2, h 1, h 1, , h 1 4 , h 1 4 ,
, h 2, h 1 4 , h 1 4 ,
EigensystemM/.h 1
1, 1, 1, 3,
0, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 0, 0, 1, 1, 0
EigensystemM/.h 2
3, 1, 2, 2,
0, 2, 1, 0, 0, 0, 0, 1, 0, 1, 2, 0, 1, 0, 0, 0
h 0 0 0
i) M f ,
0 h 2 0
h —.
0 2 1 0
0 0 0 1
1 0 0 0 0 2 0 0
se h 0: ker f L , im f L 1 0 , 1 0 0 1 ;
0 0
0 1 1 0 0 0 0 2
se h 4: ker f L , im f L 0 0 , 0 1 1 0 .
2 0
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 81
1
0 0 0
h
0 1 2
0
iii) Se h 0, h 4: esiste f 1 , M f 1 .
4h 4h
0 2 h
0
4h 4h
0 0 0 1
[38]
Non esiste g.
1 2 0 1 1 1
2 1
[40] i) M f . ii) M f .
0 0 0 1
0 1 0 2 0 2
4 3 0 1 0 1
[41]
CharacteristicPolynomialc, x
45 39 x 11 x2 x3
Eigensystemc
3, 3, 5, 1, 0, 1, 1, 1, 0, 1, 2, 1
1 1 1
iii) Sı̀; P 0 1 2 .
1 0 1
[42]
MatrixForma
1 3 3
3 5 3
6 6 4
NullSpacea
a.3, 1, 0
6, 14, 24
Inversea.3, 1, 0
0, 2, 3
Inversea.0, 0, 1
3 3 1
, ,
8 8 4
Eigensystema
2, 2, 4, 1, 0, 1, 1, 1, 0, 1, 1, 2
1 3 3
ii) A 3 5 3 . iii) ker f o, im f T .
6 6 4
3 7 3 3 3 3 0 2
iv) f H L , 0 4 , f 1 H L 0 2 , 0 3 .
0 12
v) Sı̀ (la molteplicità degli autovalori coincide con la dimensione degli autospazi);
2 0 0
1 1 1 0 1 1
vi) A 0 2 0 , B , 0 , 0 2 .
0 0 4
0 0 1
[43]
a.1, 0, 1
2, 3, 7
a.1, 0, 1
0, 3, 3
0 0 0
[44] M f 0 0 0 , Λ —, Λ 0.
Λ Λ Λ
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 83
[45]
NullSpacea
3, 1, 3
a.1, 0, 1
1, 6, 1
a.1, 1, 0
3, 3, 4
Reducea.x l b, x
x3
l 0&&x1 x3&&x2
3
p 1, 1, 0, 1, 1, 0, 0, 1, 2
MatrixFormInversep.a.p
0 1 4
3 1 2
1
7 3
2 2
Eigensystema
0, 19, 19,
1 3
3, 1, 3, 9 19, 19, 1,
10
10
1 3
9 19, 19, 1
10 10
0 3 1
ii) A M B,B f 3 0 3 .
1 3 0
1 1 0 0 1 4
v) P 1 1 0 , A P 1 AP 3 1 2 . vi) No.
0 1 2 7 3
2 2
1
[46]
a.b .1, 1
4, 4
Solve svars Equations may not give solutions for all solve variables.
y
x
2
Solve a.b .x, y b.a .x, y, x, y
Solve svars Equations may not give solutions for all solve variables.
x y
1 1 0
[47] M f 0 2 1 , ker f L 1, 1, 2, im f L1, 0, 2, 1, 2, 4,
2 4 3
1 1 0
per esempio: Mg 0 2 0 , ker g L0, 0, 1, img im f .
2 4 0
[48]
Eigensystema
3, 1 , 1 ,
0, 0, 1, 7 6 , 6 7 , 5, 7 6 , 6 7 , 5
i) No. ii) Sı̀; B 0, 0, 1, 7 6i, 6 7i, 5, 7 6i, 6 7i, 5.
[49]
Eigensystema
1, 1, 2, 1, 0, 7, 1, 2, 0, 0, 1, 3
1 0 0
i) M B ,B f 0 1 0
, B 1, 0, 7, 1, 2, 0, 0, 1, 3.
0 0 2
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 85
[50]
Inversea
1, 0, 0, 0, 0, 0, 1, 0, 0, 1, 0, 0, 0, 0, 0, 1
NullSpacea
Eigensystema
1, 1, 1, 1, 0, 1, 1, 0, 0, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 0
1 0 0 0
ii) M f .
0 0 1 0
iii) M f 1
M f .
0 1 0 0
0 0 0 1
1 0 0 0
B .
0 1 0 0
iv) f è semplice;
0 0 1 0
0 0 0 1
1 0 0 1 0 0 0 1
B , 1 0 , 0 1 , 1 0 .
0 0
[51]
MatrixForma 2Transposea
x1 x2 2 x3
2 x2 x3 x4
A 1, 0, 0, 0, 0, 1, 2, 0, 0, 2, 1, 0, 0, 0, 0, 1
A.1, 0, 0, 1
1, 0, 0, 1
ReduceA.x1, x2, x3, x4 t1, t2, t3, t1, x1, x2, x3, x4
1 1
x1 t1&&x2 t2 2 t3 &&x3 2 t2 t3 &&x4 t1
3 3
EigensystemA
1, 1, 1, 3,
0, 0, 0, 1, 0, 1, 1, 0, 1, 0, 0, 0, 0, 1, 1, 0
1 0 0 0
0
M f ;
1 2 0
0 2 1 0
0 0 0 1
i) f W W, f 1
W W.
1 0 0 0
0
ii) f è semplice, D è riferita alla base:
1 0 0
0 0 1 0
0 0 0 3
0 0 0 1 1 0 0 1
B , 1 0 , 0 0 , 1 .
0 1 0
[52]
Reducem.x1, x2, x3, x4 0, 0, 0, x1, x2, x3, x4
k 2&&x2 2 x1 x4&&x3 3 x1 2 x4
x2 2 x1&&x3 3 x1&&x4 0&& 2 k 0
1 1 1 1
M f 2 1 0 1 , k —;
3 0 1 k
1 1 1 0
se k 2: im f L , 0 1 , ker f L 2, 1, 0, 3, 1, 0, 1, 2.
1 0
[53]
Eigensystema
1, 1, 2, 1, 1, 1, 1, 1, 0, 2, 1, 1
i) Sı̀. ii) h 1.
[54]
NullSpacem
1, 2, 0, 4, 3, 6, 8, 0
Solvem.x1, x2, x3, x4 2t, t, t, x1, x2, x3, x4
Solve svars Equations may not give solutions for all solve variables.
7 t 3 x3 x4 t 3 x3 x4
x1 , x2
8 8 4 4 4 2
i) Esiste una sola f perché i vettori: 1, 0, 1, 0, 0, 1, 0, 1, 0, 0, 0, 1, 1, 0, 0, 1 costituiscono una base di — 4 .
2 1 0 1
M B,B f 2
, dove B è la base canonica di — e B è la base canonica di S— .
4 2,2
3 3 1
0 4 3 2
0 1 1 1
ii) ker f L3, 6, 8, 0, 1, 2, 0, 4, im f L , 1 .
1 1 2
iii) f 1
W ker f L 7, 2, 0, 0.
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 87
[55]
u.x u 3x
2 x1 x2 x3, x1 2 x2 x3, x1 x2 2 x3
NullSpacem
1, 1, 1
Eigensystemm
3, 3, 0, 1, 0, 1, 1, 1, 0, 1, 1, 1
2 1 1
M B,B f 1 2 1 ;
1 1 2
3 0 0 1 1 1
iii) D 0 3 0 , P 0 1 1 .
0 0 0 1 0 1
[56]
b a.x x.a
x2 h x3, h x1 2 x2 h x4, x1 2 x3 x4, x2 h x3
m 0, 1, h, 0, h, 2, 0, h, 1, 0, 2, 1, 0, 1, h, 0
c Eigenvaluesm
0, 0, 2 1 h, 2 1 h
MapSolve, %
, , h 1, h 1, , ,
h 1, h 1, h 1, h 1, ,
h 1, h 1, h 1, h 1,
Eigensystemm/.h 1
0, 0, 0, 0, 1, 0, 0, 1, 2, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0
Eigensystemm/.h 3
4, 0, 0, 4,
1, 1, 1, 1, 1, 0, 0, 1, 2, 3, 1, 0, 3, 9, 1, 3
0 1 h 0
h
i) M f ,
2 0 h
h —.
1 0 2 1
0 1 h 0
1 0 2 h
ker f L , 1 0 , h —. ii) h > 1.
0 1
1 1 1 0 2 3 3 9
iii) B , 0 1 , 1 0 , 1 3 .
1 1
1 2
iv) im f W L .
2 1
[57]
NullSpaceA
3, 4, 0, 0, 1, 2, 3, 0, 1, 0, 1, 2, 1, 0, 0
SolveDetm 0
h 2, h 1
[58]
NullSpacem
1, 1, 1
Eigensystemm
0, 1, 1, 1, 1, 1, 1, 0, 1, 1, 1, 0
i) f associa ad ogni vettore x V3 la sua proiezione ortogonale sul piano vettoriale individuato da a e da b .
2 1 1
3 3 3
1 0 0
1
ii) M B,B f 1 2
3
iii) M B ,B
0 1 0 .
3 3
0 0 0
1 1 2
3 3 3
f è semplice, B i j k, i k, i j.
I risultati conseguiti nel punto iv) si possono ottenere tenendo conto del significato geometrico di f ; infatti gli
autospazi di f sono, rispettivamente, generati dai vettori paralleli e ortogonali a a b .
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 89
[59]
b EigenvaluesA
2, 1 h, 1 h
MapSolve, %
, h 1, h 1, h 1,
, h 0, h 1, h 0,
EigensystemA/.h 1
0, 2, 2, 1, 0, 1, 1, 0, 1, 0, 0, 0
EigensystemA/.h 1
0, 2, 2, 1, 0, 1, 1, 0, 1, 0, 0, 0
EigensystemA/.h 0
1, 1, 2, 0, 0, 1, 1, 0, 0, 0, 1, 1
A/.h 1 .0, 1, 1
1, 2, 2
1 0 h
i) M f 0 2 0 , h —;
h 1 1
1 2
f è semplice per h / 1, 1; ii) f W L .
2 2
[60]
SimplifyInverseB.X.B
x1 h x2, x2, h2 x2 x3 h x1 x4 , h x2 x4
A 1, h, 0, 0, 0, 1, 0, 0, h, hˆ2, 1, h, 0, h, 0, 1
SolveDetA 0
EigensystemA
1, 1, 1, 1,
2 2
1, , 0, 1, 0, 0, 1, 0, 1, 0, 0, 1, , 0, 1, 0
h h
EigensystemA/.h 0
1, 1, 1, 1, 0, 0, 1, 0, 0, 1, 0, 0, 0, 0, 0, 1, 1, 0, 0, 0
EigensystemA/.h 1
1, 1, 1, 1,
1, 2, 0, 1, 0, 0, 1, 0, 1, 0, 0, 1, 2, 0, 1, 0
1 h 0 0
i) M f ,
0 1 0 0
h —:
h h2 1 h
0 h 0 1
1 2 0 0 1 0 2 0
iii) B , 1 0 , 0 1 , 1 0 .
0 1
[61]
MatrixFormA Transpose%
0 1 1
1 0 1
1 1 2
EigensystemA
1, 1, 0, 1, 0, 1, 1, 1, 0, 1, 1, 1
0 1 1
i) A 1 0 1 .
1 1 2
ii) f è semplice, B 1, 1, 1, 1, 1, 0, 1, 0, 1.
[62]
X.B
x1 h x2, 2 x1 6 x2, x3 h x4, 2 x3 6 x4
A 1, h, 0, 0, 2, 6, 0, 0, 0, 0, 1, h, 0, 0, 2, 6
EigensystemA/.h 3
7, 7, 0, 0,
0, 0, 1, 2, 1, 2, 0, 0, 0, 0, 3, 1, 3, 1, 0, 0
1 h 0 0
2
i) M f ,
6 0 0
h —;
0 0 1 h
0 0 2 6
se h 3: f è un isomorfismo,
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 91
3 1 0 0 1 2 0 0
se h 3: ker f L , 3 1 , im f L 0 , 1 2 .
0 0 0
3 6
ii) h 3: f è semplice. iii) f W L .
1 2
[63]
EigensystemB
1, 1, 2, 0, 0, 1, 1, 1, 0, 0, 1, 1
2 0 0 1 0 0
i) A C 1 AC, A 0 1 0 , C 0 1 0 ;
0 0 1 1 0 1
2 0 0 0 1 0
B D 1 BD, B 0 1 0 , D 1 1 0 .
0 0 1 1 0 1
B CD 1 1 ACD 1 .
[64]
MatrixFormA Transpose%
0 h 0
1 0 0
0 0 h
EigensystemA
h, h, h, h, 1, 0, h, 1, 0, 0, 0, 1
i) Esiste una sola f perché i vettori 2, 1, 0, 1, 0, 1, 1, 0, 1 costituiscono una base di — 3 .
0 h 0
ii) M f 1 0 0 ; f è semplice se h > 0.
0 0 h
[65]
1 1 1
1 1 1
ii) M f , h —; f è un monomorfismo.
7 1 1
9 3 9
8 4
3
0 3
1 0 0 0
[66] i) M f ; ii) ker f o, im f —2,2 ;
0 0 1 0
0 1 0 0
0 0 0 1
[67]
MatrixFormA Transpose%
1 2 3
1 2 k
2 4 6
ReduceA.x1, x2, x3 0, 0, 0
x1 2 x2&&x3 0k 3&&x1 2 x2 3 x3&&x3 0
EigensystemA/.k 3
0, 0, 5, 3, 0, 1, 2, 1, 0, 1, 1, 2
i) f è lineare (#k —) perché 0, 1, 2, 2, 0, 1, 1, 3, 1 è una base di — 3 .
1 2 3
ii) A M f 1 2 k , k —;
2 4 6
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 93
0 0 0
iii) A 0 0 0 , B 2, 1, 0, 3, 0, 1, 1, 1, 2.
0 0 5
[68]
NullSpaceA
1, 1, 1
A.1, 0, 1
2, 0, 2
A.1, 1, 0
2, 2, 0
1 0 0 1 0 0
i) Base di S: B , 1 0 , 0 1 ,
0 0
1 0 0 1 0 0
base di T : B , 0 0 , 1 0 .
0 1
0 2 2
ii) A M B,B f 2
2
4 2 ,
2 0
1 1 0 1 1 1
ker f L , im f L 1 0 , 0 .
1 1 1
1 1 1 0
iii) f H L , 1 ,
0 1 1
1 1 4 3
f 1 K L , 3 .
1 1 0
2 0 0
iv) A 0 2 0 .
0 0 0
[69]
ReduceA.x1, x2, x3 t1, t1, t2, t3, x1, x2, x3
t2 2 t1&&t3 3 t1&&x1 2 t1 x3&&x2 3 t1 x3
1 1 0
M f ;
2 1 1
1 0 1
0 1 1
[70]
b EigenvaluesA
h, h 1 h2 , h 1 h2
MapSolve, %
, h , h , h , ,
3 3 3
h 1, h 1, h , h 1, h 1,
3
EigensystemA/.h 1
1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 1, 1
EigensystemA/.h 1
1, 1, 1, 0, 1, 1, 1, 1, 0, 0, 0, 0
EigensystemA/.h I/ Sqrt3
, , 3, , 1, 0, 0, 0, 0, 3, 1, 0
3 3 3
EigensystemA/.h > I/ Sqrt3
, , 3, , 1, 0, 0, 0, 0, 3, 1, 0
3 3 3
2h 1 h
i) M f 1 0 1 , h —; f è semplice se -h- > 1.
0 0 h
3
ii) f è semplice se h ,1, e h , 3 i.
[71]
RowReducev, w, u
1 1
1, 0, 0, , 0, 0, 1, , 0, 0, 0, 0
2 2
RowReduceu, v, w
1 1
1, 0, 0, , 0, 0, 1, , 0, 0, 0, 0
2 2
A 1, 1, 0, 0, 0, 0, 0, 0, 1, 1, 4, 2, 1, 1, 2, 1
NullSpaceA
0, 0, 1, 2, 1, 1, 0, 0
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 95
1 1 0 0
0
iii) M f , dim ker f 2.
0 0 0
1 1 4 2
1 1 2 1
[72]
NullSpaceA
0, 1, 1
A.2, 1, 0
1, 1, 3, 0
ReduceA.y1, y2, y3 2x2, x2, x3, x4, y1, y2, y3
x3 5 x2&&x4 x2&&y1 3 x2&&y2 x2 y3
1 1 1
i) M f
0 1 1
2 1 1
1 2 2
iii) f 1
K L0, 1, 1, 3, 1, 0.
[73]
MatrixFormB InverseA
1 1 3
0 1 0
1
0 0
2
A.1, 1, 0
2, 1, 0
B.1, 1, 0
0, 1, 0
EigensystemA
1, 1, 2, 1, 0, 0, 0, 0, 0, 2, 0, 1
x x y 3z
y y
i) Equazioni di f 1
:
z 1 z .
2
[74]
NullSpaceA/.a 1
1, 1
a 1
i) M f 1 a , a —. ii) a 1.
1 1
[75]
EigensystemA
0, 6, 6, 2 , 0, 5, 2 , 6, 1, 2 , 6, 1
A è diagonalizzabile: autovalori: Λ 1 6, Λ2 0, Λ3 6;
[76]
EigensystemA/.h 2
0, 0, 3, 1, 0, 3, 2, 3, 0, 1, 1, 2
0 0 0 1 2 1
iii) D 0 0 0 , P 0 3 1 .
0 0 3 3 0 2
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 97
[77]
ii) Λ1 1, VΛ1 L 1, 1, 0; Λ2 0, VΛ2 L 1, 1, 1; Λ3 1, VΛ3 L1, 1, 0.
iii) f è semplice.
[78]
NullSpaceA
1, 1, 1
A.1, 2, 0
2, 1, 1
EigensystemA
1, 1, 0, 1, 0, 1, 1, 1, 0, 1, 1, 1
0 1 1
i) M f 1 0 1 ;
1 1 2
[79]
MatrixFormA Transpose%
0 1 1
1 2 3
1 1 2
NullSpaceA
1, 1, 1
EigensystemA
1, 0, 1, 1, 1, 0, 1, 1, 1, 0, 1, 1
i) f è un’applicazione lineare perché è definita mediante l’immagine dei vettori di una base di — 3 , inoltre, dalla
definizione, è chiaro che ammette tre autovalori distinti: 1, 0, 1, quindi è semplice.
0 1 1
ii) M B,B f 1 2 3 .
1 1 2
[80]
NullSpaceA
3, 1, 1
A.2, 1, 0
5, 2, 1
A.0, 2, 1
21, 9, 6
EigensystemA
0, 1, 1, 3, 1, 1, 1, 0, 1, 3, 1, 0
2 9 3
ii) M f 1 4 1 ;
1 3 0
ker f L 3 x x2 , im f L 2 x x2 , 3 x.
0 0 0
v) D 0 1 0 , B 3 x x2 , 1 x2 , 3 x.
0 0 1
[81]
A 2, 1, 0, 1, 0, 3, 2, 1, 4, 7, 6, 5, 3, 0, 1, 2
NullSpaceA
2, 1, 0, 3, 1, 2, 3, 0
EigensystemA
0, 0, 0, 3,
2, 1, 0, 3, 1, 2, 3, 0, 0, 0, 0, 0, 1, 5, 17, 4
ReduceA.x1, x2, x3, x4 0, a, b, c, x1, x2, x3, x4
1 1
b 3 a&&2 c a&&x1 a 2 x3 4 x4 &&x2 a 2 x3 x4
6 3
2 1 0 1
i) M f ;
0 3 2 1
4 7 6 5
3 0 1 2
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 99
2 1 1 2
ker f L , 3 , im f L2 4x2 3x3 , 1 3x 7x2 .
0 3 0
1 2 1 2 2 1
ii) No; iii) f 1
G L , 3 , 0 3 .
0 0 0
[82]
B EigenvaluesA
3 1 1
, 0, 1 h 13 2 h h2 , 1 h 13 2 h h2
2 2 2
FlattenTableBi Bj, i, 4, j, 4
MapSolve, %
3 3
, , h , , , , h 3, , h ,
10 10
h 3, , h 1 2 3, h 1 2 3,
, , h 1 2 3, h 1 2 3,
, h 1, h 1, h 1,
, h 1, h 1, h 1,
EigensystemA/.h 3/ 10
3 3 11
, , 0, ,
2 2 5
111 407 814
0, 0, 0, 1, 0, 0, 0, 0, 2, 0, 0, 1, , , , 1
655 131 655
EigensystemA/.h 3
3
, 0, 0, 4,
2
66 88 88
0, 0, 0, 1, 2, 0, 0, 1, 0, 0, 0, 0, , , , 1
5 5 5
EigensystemA/.h 1
3 2 4 4
2, , 0, 2, , , , 1,
2 29 29 29
14 28 28
0, 0, 0, 1, 2, 0, 0, 1, , , , 1
33 11 33
0 0 h 0
0 1 3 0
i) M f , h —.
0 1 h 0
3 7 3 3
4 4 2 2
3
iii) f è semplice se h / 3, 10 .
[83]
LinearSolveA, 3IdentityMatrix3
1 0
ii) A 1 1 . iii) Non esiste g.
1 2
[84]
A 1, 1, 1, 2, 3, 0 X x1, x2, x3, x4, x5, x6
ReduceA.X 4IdentityMatrix2
3 x3 1 1 1
x1 &&x2 4 3 x4 &&x5 8 5 x3 &&x6 4 5 x4
2 2 2 2
1 1 1
ii) A .
2 3 0
3
x
2 3
2 32 x4
iii) Mg x3 x4 , x3 , x4 —.
5 5
4 x
2 3
2 2 x4
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 101
[85]
MatrixFormB A TransposeConjugateA
2 1 2 2
1 2 0 0
2 0 2
EigenvaluesB
4 34 1 1/3
37 3 4215 ,
3 3 37 3 42151/3 3
4 17 1 3 1 1/3
1 3 37 3 4215 ,
3 3 37 3 42151/3 6
4 17 1 3 1 1/3
1 3 37 3 4215
3 3 37 3 42151/3 6
[86]
MatrixFormA Transpose%
1 0 0
0 0 1
0 k 0
ReduceA.x, y, z 0, 0, 0, x, y, z
k 0&&x 0&&z 0x 0&&y 0&&z 0
InverseA
1
1, 0, 0, 0, 0, , 0, 1, 0
k
ReduceA.x, y, z 6t, 5t, t, x, y, z
t
k 0&&t 0&&x 0&&z 0x 6 t&&y &&z 5 t&&k 0
k
LinearSolveA, 3IdentityMatrix3
3
3, 0, 0, 0, 0,, 0, 3, 0
k
MatrixForm%
3 0 0
3
0 0
k
0 3 0
EigensystemA
1 1
1, k, k, 1, 0, 0, 0, , 1, 0, , 1
k k
EigensystemA/.k 0
0, 0, 1, 0, 1, 0, 0, 0, 0, 1, 0, 0
1 0 0
i) A 0 0 1 , k —.
0 k 0
se k 0: ker f o, im f —2 x .
1 0 0
1
iii) k 0: A 1
0 0 k
.
0 1 0
se k 0: f 1
K ker f , se k 0: f 1
K L 6 1k x 5x2 .
3 0 0
3
v) Esiste g solo se k 0: Mg 0 0 k
.
0 3 0
1 0 0
vi) f è semplice solo se k 0, A 0 k 0 ,
0 0 k
1
base di autovettori: 1, x x2 , 1 x x2 .
k k
[87]
a 3, 1, 1, 0, 0, 1, 1, 1, 2, 0, 2, 1, 4, 2, 1, 0
b 4, 12, 3, 2, 2, 6, 2, 1, 5, 15, 5, 0, 8, 24, 0, 3
LinearSolvea, b
1, 3, 0, 1, 1, 3, 1, 0, 2, 6, 2, 1, 1, 3, 1, 0
MatrixFormm Transpose%
1 1 2 1
3 3 6 3
0 1 2 1
1 0 1 0
NullSpacem
0, 1, 0, 1
1 1 2 1
M f .
3 3 6 3
0 1 2 1
1 0 1 0
1 3 1 3 2 6
ker f Lx x3 , im f L , 1 0 , 2 .
0 1 1
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 103
[88]
0 1 0 0 0 0
0 0 2 0 0 0
ii) Md .
0 0 0 3 0 0
0 0 0 0 4 0
0 0 0 0 0 5
0 0 0 0 0 0
[89]
a p.a .Inversep
1, 0, 0, 0, 0, 1, 0, 0, 2, 2, 1, 0, 0, 0, 0, 1
NullSpacea
Eigensystema
1, 1, 1, 1, 0, 0, 0, 1, 0, 0, 1, 0, 1, 0, 1, 0, 1, 1, 0, 0
i) W2 Lx2 , x3 , C 1 x, x x2 , x2 , x3 .
1 0 0 0 1 0 0 0
iii) A M C,C f
0 1 0 0 , A M B,B f 0 1 0 0 .
0 0 1 0 2 2 1 0
0 0 0 1 0 0 0 1
[90]
NullSpaceA
0, 3, 2
A.3, 1, 0
6, 44, 28
A.0, 3, 1
0, 12, 6
[91]
a A/.h 4
a.1, 0, 3
8, 18, 8, 10
a.0, 1, 4
12, 27, 12, 15
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 105
[92]
NullSpaceA
A.2, 1, 0
1, 2, 1, 1
A.0, 2, 1
1, 1, 2, 1
ReduceA.x1, x2, x3 3a, a 3b, b 3c, c, x1, x2, x3
1 1
2 b 2 a 5 c&&x1 3 a c&&x2 8 a 13 c &&x3 2 a 13 c
2 2
i) ker f o, im f Lx x2 x3 , 1 x2 x3 , 1 x x3 .
[93]
NullSpaceA
0, 1, 1, 0
EigensystemA
0, 1, 1, 1, 0, 1, 1, 0, 0, 0, 0, 1, 0, 0, 1, 0, 1, 0, 0, 0
1 0 0 1 0 0 0 0
i) B , 0 0 , 1 0 , 0 1 , B 1, x, x2, x3 .
0 0
1 0 0 0
ii) A M f .
B,B 0 0 0 0
0 1 1 0
0 0 0 1
iii) ker f L0, 1, 1, 0 im f L1, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1.
0 0 0 0 0 0 0 1
iv) Sı̀, D
0 1 0 0 , P 1 0 0 0 .
0 0 1 0 1 0 1 0
0 0 0 1 0 1 0 0
[94] i)
EigensystemA
2, 2, 3, 1, 0, 1, 0, 1, 0, 0, 0, 1
EigensystemB
1, 3, 3, 1, 1, 1, 0, 0, 1, 0, 1, 0
ii)
EigensystemA
1, 2, 3, 1, 0, 1, 0, 1, 1, 1, 0, 0
EigensystemB
2, 1, 0, 1, 0, 0, 1, 0, 1, 0, 1, 1
iii)
EigensystemA
1, 1, 2, 32, 2, 25, 14, 1, 11, 1, 0, 1
EigensystemB
1, 2, 2, 32, 2, 25, 1, 0, 1, 3, 1, 0
B.14, 1, 11
28, 2, 22
iv)
A 1, 0, 2, 0, 24, 1, 48, 6, 0, 0, 2, 0, 8, 0, 16, 1
B 2, 0, 8, 0, 12, 3, 24, 3, 0, 0, 2, 0, 16, 0, 32, 2
A.B B.A
0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0
EigensystemA
1, 1, 1, 2, 0, 3, 0, 1, 1, 0, 0, 4, 0, 1, 0, 0, 2, 0, 1, 0
EigensystemB
2, 2, 2, 3, 1, 0, 0, 4, 0, 3, 0, 1, 2, 0, 1, 0, 0, 1, 0, 0
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 107
v)
A 16, 16, 4, 16, 0, 0, 0, 0, 48, 48, 12, 48, 0, 0, 0, 0
B 9, 12, 3, 12, 3, 3, 1, 3, 12, 12, 4, 12, 9, 12, 3, 12
A.B B.A
0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0
EigensystemA
0, 0, 0, 4, 1, 0, 0, 1, 1, 0, 4, 0, 1, 1, 0, 0, 1, 0, 3, 0
EigensystemB
0, 0, 1, 3, 0, 1, 0, 1, 1, 0, 3, 0, 0, 1, 4, 0, 1, 0, 0, 1
A.0, 1, 4, 0
0, 0, 0, 0
A.0, 1, 0, 1
0, 0, 0, 0
[95]
P InverseA
1 1 3 1
1, 2, 1, 0, , , 0, ,
4 4 4 4
MatrixFormTransposeP
1 0 0
1 3
2
4
1
4
1
1
4 4
B 1, 2, 3, 1, 1, 1, 2, 2, 7
Q InverseB
8 1 1 2 2 1
1, , , 1, , , 0, ,
5 5 5 5 5 5
MatrixFormTransposeQ
1 1 0
8 1 2
5
1
5 5
1 2
5 5 5
i) f1 x, f2 2x 14 y 34 z, f3 x 14 y 1
4
z.
ii) f1 x y, f2 85 x 15 y 2
5
z, f3 15 x 25 y 15 z.
[96] i) f 1 , f2 sono forme lineari linearmente indipendenti (la verifica segue dalla loro definizione e dalle proprietà
del calcolo integrale).
ii) Se px a bx, allora: f 1 px a b2 , f2 px 2a 2b; quindi la base duale è data da p 1 x
2 2x, p2 x 12 x.
[97]
MatrixFormInverseA
0 0 1
1
3
3
3
2
3 3
2 4 2
3 2 1
La base duale è data da: p 1 x 3x 2
x , p2 x 2
x 34 x2 , p3 x 1 3x 32 x2 .
[98]
31 1 4
7 7 7
2
i) P 57 4
7
.
7
3 1 3
7 7 7
%
ii) B1 67 x 37 y 2
7
z, 3
7
x 27 y 17 z, 17 x 3
7
y 27 z ;
%
B2 19 x 29 y 1
9
z, 1
3
x 13 y 13 z, 59 x 8
9
y 49 z .
Università di Torino
Capitolo 6 – Soluzioni - Applicazioni lineari 109
2 1 1
9 3 9
4
iii) Q tP 1
1 5
9
.
9 3
2 2 7
9 3 9
[99]
TransposeA.3, 1
3, 2, 1
t
F f 3x 2y z.
H K —4 , H K L1, 1, 1, 6.
[1]
1 0 0 0 0 1
A M B ,B f 0 A M B,B f 0
iii) Sia B a1 , a2 , a3 , 1 0 , 1 0 ;
0 0 1 1 0 0
det A 1, quindi f è un’isometria diretta.
[2]
110
Capitolo 7 – Soluzioni - Spazi vettoriali euclidei ed hermitiani 111
13 2 2
3 3
1 0 0
1
A M B ,B f 0 1 0 , A M B,B f 23
Sia B a1 , a2 , a3 , 2
3
.
0 0 1 3
2 1 2
3 3 3
iii) f e f 1
sono isometrie quindi: f 1
a f 1
b a b 2, f b b 3.
ii) v 12 x2 2x3 i x2 j x3 k, x2 , x3 V3 ; l’insieme di tali vettori non costituisce un sottospazio vettoriale
di V3 .
[4]
<< LinearAlgebra‘Orthogonalization‘
1
H L 0, 1, 0, 0, , 0, 1 , 0 , i
, 0, i
, 1 .
2 2 3 3 3
[5]
RowReducea, b, c
1, 0, 0, 0, 1, 0, 0, 0, 1
<< LinearAlgebra‘Orthogonalization‘
A GramSchmidta, b, c
1 1 1 1 1 2 1 1
, , , , , , , , 0
3 3 3 6 6 3 2 2
TransposeA.A
1, 0, 0, 0, 1, 0, 0, 0, 1
ii) C a 1
, 1 , 1
3
, b 1 , 1 , 2
, c 1
, 1 ,0 .
3 3 6 6 3 2 2
1 1 1
3 6 2
1 1 1
iv) A 2 ;
3 6
1 2
0
3 3
[6]
NullSpaceA
1, 0, 1, 1, 1, 0
B NullSpace1, 1, 1
1, 0, 1, 1, 1, 0
NullSpaceB
1, 1, 1
[7]
<< LinearAlgebra‘Orthogonalization‘
a1 , a2 , 1 1 1
, , ,0
3 3 3
, 1 1
, , 0, 13
3 3
.
[8]
EigenvaluesA
2 15, 2 15
ii) Si dimostra che gli autovalori di una matrice simmetrica reale e quelli di una matrice hermitiana sono reali. Il
teorema è falso (come afferma il controesempio considerato) nel caso di matrici simmetriche complesse.
Università di Torino
Capitolo 7 – Soluzioni - Spazi vettoriali euclidei ed hermitiani 113
[9]
SolveA.X X.A
Solve svars Equations may not give solutions for all solve variables.
2 x2
x3 0, x1 x4
3
a TrTransposeX.2, 3, 0, 0
b TrTransposeX
Solvea 0, b 0
Solve svars Equations may not give solutions for all solve variables.
2 x4
x1 x4, x2
3
2 3 1 0 3 2 0 0
W L , 0 1 , W& L , 1 0 .
0 0 0 3
[10]
<< LinearAlgebra‘Orthogonalization‘
i
i) H L , 0, 2 , 0 , 0, 1, 0, 0, 0, 0, 0, 1 .
5 5
[11]
b RowReducem
4 2
1, 0, , 0, 1, , 0, 0, 0, 0, 0, 0
3 3
<< LinearAlgebra‘Orthogonalization‘
GramSchmidtb1, b2
3 4 8 5 6
, 0, , , ,
5 5 5 29 29 5 29
A GramSchmidt%1, %2, 0, 0, 1
3 4 8 5 6 4 2 3
, 0, , , , , , ,
5 5 5 29 29 5 29 29 29 29
MatrixFormTransposeA
3 8 4
5 5 29 29
5 2
0
29 29
4 6 3
5 5 29 29
[Link]A
1, 0, 0, 0, 1, 0, 0, 0, 1
3
i) B 5
, 0, 45 , 8
, 5
, 6
.
5 29 29 5 29
3
ii) C 5
, 0, 45 , 8
, 5
, 6
, 4
, 2
, 3
.
5 29 29 5 29 29 29 29
3 8 4
5 5 29 29
iii) A
5 2
0
29
è la matrice del cambiamento di base da C a D;
29
4 6 5
5 5 29 29
t
AA 1
è la matrice del cambiamento di base da D a C.
3 11
[12] 1 , 1 , 0, 0, , 3
, 3
, 2
11
, 0 , 1
, 1 , , .
2 2 22 22 2 33 2 33 2 11 2 3
[14]
<< LinearAlgebra‘Orthogonalization‘
[15]
<< LinearAlgebra‘Orthogonalization‘
[16] i) Sı̀;
[17]
<< LinearAlgebra‘Orthogonalization‘
Università di Torino
Capitolo 7 – Soluzioni - Spazi vettoriali euclidei ed hermitiani 115
[18]
<< LinearAlgebra‘Orthogonalization‘
[19]
<< LinearAlgebra‘Orthogonalization‘
GramSchmidtm
1 1 1
, 0, , ,
3 3 3
2 3 1 1 1 1
, , , , 0, 0, ,
15 5 15 15 2 2
ii) 1 , 0, 1 , 1
, 2 , 3
5
, 1
, 1
, 0, 0, 1 , 1 .
3 3 3 15 15 15 2 2
[20]
<< LinearAlgebra‘Orthogonalization‘
MatrixForm
GramSchmidt0, Sqrt2/ 2, Sqrt2/ 2, 1, 0, 0, 0, 0, 1
1 1
0
2 2
1 0 0
1 1
0
2 2
0 2 2
2 2
Per esempio: A 1 0 0 .
2 2
0 2 2
[1]
<< LinearAlgebra‘Orthogonalization‘
i) Il fatto che Q sia una forma quadratica segue dalle proprietà del prodotto scalare e delle applicazioni lineari;
dalla definizione si ha che la segnatura è 2, 0.
ii) Una base richiesta è B 2 , 1 , 0 , 1
, 2
15
, 5
6
, 1 , 2 1
3
, .
5 5 30 6 6
[2]
B EigensystemA
1, 1, 2, 1, 0, 1, 1, 1, 0, 1, 1, 1
<< LinearAlgebra‘Orthogonalization‘
GramSchmidtB2
1 1 1 2 1 1 1 1
, 0, , , , , , ,
2 2 6 3 6 3 3 3
116
Capitolo 8 – Soluzioni- Forme quadratiche 117
[3]
<< LinearAlgebra‘Orthogonalization‘
GramSchmidtB2, InnerProduct
2 #1 1 #21 2 #1 2 #22 2 #1 3 #23
2 #1 4 #24 2 #1 1 #22 2 #1 3 #24&
1 1 1 1
0, 0, , , , , 0, 0,
2 2 2 2
1 1
0, 0, , 0, , 0, 0, 0
2 2
X x1, x2, x3, x4
ii) B 0, 0, 1 , 1 , 1
, 1 , 0, 0 , 0, 0, 1
,0 , 1
, 0, 0, 0 .
2 2 2 2 2 2
[4]
MatrixFormTransposeP.P
2 0 0 0
0 1 0 0
0 0 1 0
0 0 0 2
x1 x2 y y
i) Se A , B y1 y2 , allora: 'A, B 4i1 xi yi .
x3 x4 3 4
1 0 0 1 0 0 1 0
ii) F L , 0 0 , 1 0 , F & L 0 1 .
0 1
2 0 0 0
iii) La matrice richiesta è: .
0 1 0 0
0 0 1 0
0 0 0 2
[5]
A 3, 4, 2, 4, 6, 3, 2, 3, 2 X x1, x2, x3
Solve[Link]1, 0, 1 0,
[Link]0, 1, 0 0, x1, x2, x3
Solve svars Equations may not give solutions for all solve variables.
3 x3 3 x3
x1 , x2
2 2
Sqrt1, 1, 1.[Link]1, 1, 1
5
3 4 2
i) A 4 6 3 ;
2 3 2
3 3
ii) F & L , ,1
2 2
.
iii) a 5.
[6]
<< LinearAlgebra‘Orthogonalization‘
GramSchmidtB2,
InnerProduct 2 #1 1 #21 2 #1 2 #22
2 #1 3 #23 #1 1 #23 #1 3 #21&
1 1 1 1 1
, 0, , 0, , 0, , 0,
2 2 2 6 6
1
i) B , 0, 1 , 0, 1 , 0 , 1
, 0, 1 .
2 2 2 6 6
\
ii) f è un’isometria.
iii) f 1 a a 2 2, cos f a f b cos ab 4 .
3
Università di Torino
Capitolo 8 – Soluzioni- Forme quadratiche 119
[7]
<< LinearAlgebra‘Orthogonalization‘
GramSchmidtB2,
InnerProduct 3 #1 1 #21 4 #1 2 #22
3 #1 3 #23 #1 1 #23 #1 3 #21&
1 1 1 1 1
, 0, , , 0, , 0, , 0
2 2 2 2 2 2 2
\
1
i) B 2
, 0, 12 , 1
, 0, 1 , 0, 12 , 0 .
2 2 2 2
[8]
EigensystemA
0, 0, 3, 1, 0, 1, 1, 1, 0, 1, 1, 1
1 1 1
i) B 0 1 1 .
1 0 1
ii) Segnatura: 1, 0.
[9]
[10]
B EigensystemA
1, 4, 4, 1, 1, 1, 1, 0, 1, 1, 1, 0
<< LinearAlgebra‘Orthogonalization‘
RootReduceGramSchmidtB2, InnerProduct
3 #1 1 #21 3 #1 2 #22 3 #1 3 #23
2 #1 1 #22 2 #1 2 #23 2 #1 1 #23&
1 1 1 7 2 1
, , , , , ,
3 3 3 2 30 15 2 30
193 2 79
, 11 ,
2 32430 16215 2 32430
ii) B 1 , 1 , 1 , 7
, 2
15
, 1
, 193
, 11 2
16215
, 79
.
3 3 3 2 30 2 30 2 32430 2 32430
[11]
A 1, 0, 1, 2, 0, 4, 2, 0, 1, 2, 11, 8, 2, 0, 8, 24 S
CharacteristicPolynomialA, x
576 984 x 370 x2 40 x3 x4
[12]
MatrixFormc TransposeA1.A1
5 2 3
2 2 0
3 0 3
Eigenvaluesc
0, 5 7, 5 7
A2 A/.h 1
<< LinearAlgebra‘Orthogonalization‘
GramSchmidtA2
1 1 1 2 2 1 2 1 2
, 0, , , , , , ,
2 2 3 2 3 3 2 3 3 3
i) Se h 0: x t, y 1 t, z t, t —;
ii) Qx 5x1 4x1 x2 6x1 x3 2x2 3x3 Qx 5
2 2 2
7x2 2 5 7x3 2 .
Università di Torino
Capitolo 8 – Soluzioni- Forme quadratiche 121
[13]
EigenvaluesA1
1, 1, 3, 3
A2 2, 1, 0, 0, 1, 2, 0, 0, 0, 0, 2, 1, 0, 0, 1, 2
EigenvaluesA2
5, 5, 5, 5
A3 1, 2, 1, 0, 2, 0, 0, 0, 1, 0, 4, 2, 0, 0, 2, 0
B EigenvaluesA3
5 13 1 51 5 13 5 13 1 51 5 13
, ,
4 4 2 2 2 4 4 2 2 2
5 13 1 51 5 13 5 13 1 51 5 13
,
4 4 2 2 2 4 4 2 2 2
<< Algebra‘AlgebraicInequalities‘
EigenvaluesA4
2, 4, 17, 17
[14]
<< LinearAlgebra‘Orthogonalization‘
B FullSimplifyEigensystemA
0, 4 2, 4 2,
2, 3, 1, 4 3 2, 3 2 2, 1, 4 3 2, 3 2 2, 1
FullSimplifyGramSchmidtB2
2 3 1
, , ,
7 14 14
1 5 3 13 9
5 3 2, , ,
14 28 14 2 28 14 2
1 5 3 13 9
5 3 2, ,
14 28 14 2 28 14 2
[15]
<< LinearAlgebra‘Orthogonalization‘
B EigensystemA
2, 1, 3, 1, 0, 2, 0, 1, 0, 2, 0, 1
GramSchmidtB2
1 2 2 1
, 0, , 0, 1, 0, , 0,
5 5 5 5
1
base ortonormale: B , 0, 2 , 0, 1, 0, 2
, 0, 1 .
5 5 5 5
[16]
<< LinearAlgebra‘Orthogonalization‘
B EigensystemA
4, 1, 1, 6,
5, 4, 3, 0, 0, 0, 0, 1, 0, 3, 4, 0, 5, 4, 3, 0
GramSchmidtB2
1 2 2 3
, , , 0, 0, 0, 0, 1,
2 5 5 2
3 4 1 2 2 3
0, , , 0, , , , 0
5 5 2 5 5 2
Forma canonica: Qx 4x 1 2 x2 2 x3 2 6x2 2 ;
base ortonormale:
1 2 2 2 2
B , 5
, 3 , 0 , 0, 0, 0, 1, 0, 35 , 45 , 0 , 1 , 5
, 3 , 0.
2 5 2 2 5 2
[17]
<< LinearAlgebra‘Orthogonalization‘
EigenvaluesA
0, 4, 9
Segnatura: 2, 0; forma canonica: Qx 4x 2 2 9x3 2 .
Università di Torino
Capitolo 8 – Soluzioni- Forme quadratiche 123
[18]
<< LinearAlgebra‘Orthogonalization‘
A 1, 1, 0, 0, 1, 2, 1, 0, 0, 1, 1, 0, 0, 0, 0, 1
B EigensystemA
0, 1, 1, 3, 1, 1, 1, 0, 0, 0, 0, 1, 1, 0, 1, 0, 1, 2, 1, 0
GramSchmidtB2
1 1 1
, , , 0, 0, 0, 0, 1,
3 3 3
1 1 1 2 1
, 0, , 0, , , , 0
2 2 6 3 6
i) Segnatura: 3, 0; forma normale: Qx x 1 2 x2 2 x3 2 .
ii) Forma canonica: Qx x 2 2 x3 2 3x4 2 ;
base ortonormale:
B 1 , 1 , 1 , 0 , 0, 0, 0, 1, 1
, 0, 1 , 0 , 1 , 2 1
3
, , 0.
3 3 3 2 2 6 6
[19]
<< LinearAlgebra‘Orthogonalization‘
A 1, 0, 0, 0, 0, 1, 1, 0, 0, 1, 1, 0, 0, 0, 0, 1
B EigensystemA
0, 1, 1, 2, 0, 1, 1, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 1, 1, 0
GramSchmidtB2
1 1 1 1
0, , , 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, , , 0
2 2 2 2
i) Segnatura: 3, 0; forma normale: Qx x 1 2 x2 2 x3 2 .
ii) Forma canonica: Qx x 2 2 x3 2 2x4 2 ;