Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Gruppi
A = {x | x é una persona nata a Napoli nel 1950 }.
Esempi di
Gruppi
Anelli e Campi
Si tratta di un insieme definito per proprietà caratteristica: P(x) :=le persone
Esempi di nate a Napoli e nel 1950.
Campi
x ∈ A.
x 6∈ A.
Insiemi
Applicazioni
Vi sono i seguenti insiemi numerici:
Gruppi
• N = {1, 2, 3, 4, ...};
Esempi di
Gruppi
• N0 = {0, 1, 2, 3, ...};
Anelli e Campi
Esempi di
• Z = {..., −2, −1, 0, 1, 2, ...};
Campi
• Q= m
n | m, n ∈ Z, n 6
= 0 ;
• R = {x | x reale } ;
• C = {x + iy | x, y ∈ R} .
Siano A e B due insiemi.
Definizione
Insiemi
B é un sottoinsieme o parte di A, B ⊆ A, se ogni elemento di B é anche
Applicazioni
Gruppi
elemento di A. Il simbolo ⊆ é chiamato inclusione.
Esempi di
Gruppi Gli insiemi A e B sono uguali se hanno gli stessi elementi, in particolare:
Anelli e Campi
Esempi di
A = B ⇔ A ⊆ B e B ⊆ A.
Campi
Applicazioni ∅ e A sono chiamati parti improprie di A, mentre ogni altra parte, B, diversa
Gruppi dall’insieme vuoto e dall’insieme A stesso, é chiamata parte propria di A e viene
Esempi di indicato B ⊂ A. Il simbolo ⊂ é chiamato inclusione stretta.
Gruppi
Siano A e B insiemi.
Anelli e Campi
Esempi di Definizione
Campi
Si definisce unione di A e B il seguente insieme:
A ∪ B = {x | x ∈ A o x ∈ B}
Insiemi
Applicazioni
Gruppi Definizione
Esempi di
Gruppi Si definisce intersezione di A e B il seguente insieme:
Anelli e Campi
Esempi di
A ∩ B = {x | x ∈ A e x ∈ B}
Campi
Applicazioni
A − B = {x | x ∈ A e x 6∈ B}
Gruppi
Esempi di
Gruppi
Se B ⊆ A, allora la differenza di A e B si chiama complemento di B rispetto ad
Anelli e Campi
A e si ha:
Esempi di
Campi A − B = {x ∈ A | x 6∈ B}.
Siano A, B e C insiemi, le operazioni di intersezione, unione e differenza si
combinano tra loro attraverso le seguenti proprietà:
A ∪ ∅ = A;
A ∩ ∅ = ∅;
A − ∅ = A;
A − A = ∅;
Iterativa dell’intersezione: A ∩ A = A;
Iterativa dell’unione: A ∪ A = A;
Insiemi Commutativa dell’intersezione: A ∩ B = B ∩ A;
Applicazioni Commutativa dell’unione: A ∪ B = B ∪ A;
Gruppi
Associativa dell’intersezione: A ∩ (B ∩ C ) = (A ∩ B) ∩ C ;
Esempi di
Gruppi
Associativa dell’unione: A ∪ (B ∪ C ) = (A ∪ B) ∪ C ;
Anelli e Campi
Esempi di
1◦ legge di assorbimento: A ∩ (A ∪ B) = A;
Campi
2◦ legge di assorbimento: A ∪ (A ∩ B) = A;
1◦ relazione di De Morgan: A − (B ∪ C ) = (A − B) ∩ (A − C );
2◦ relazione di De Morgan: A − (B ∩ C ) = (A − B) ∪ (A − C );
Distributiva dell’unione rispetto all’intersezione: A ∪ (B ∩ C ) = (A ∪ B) ∩ (A ∪ C );
Distributiva dell’intersezione rispetto all’unione: A ∩ (B ∪ C ) = (A ∩ B) ∪ (A ∩ C ).
Insiemi
Applicazioni
Gruppi
Esempi di
Seguono la dimostrazione della 1◦ e della 2◦ legge di assorbimento.
Gruppi
Applicazioni
Si procede dimostrando la doppia inclusione, ovvero dimostrare:
Gruppi
A − (B ∪ C ) ⊆ (A − B) ∩ (A − C ) (A − B) ∩ (A − C ) ⊆ A − (B ∪ C )
Esempi di
Gruppi
Gruppi
A × B = {(a, b) : a ∈ A e b ∈ B}
Esempi di
Gruppi
Anelli e Campi ovvero l’insieme delle coppie (a, b), in cui la prima coordinata a é un elemento
Esempi di dell’insieme A e la seconda coordinata b é un elemento dell’insieme B.
Campi
Proposizione 1
A×B =B ×A⇔A=B
Dimostrazione.
Si osserva che, prese due coppie, (a, b) e (a0 , b 0 ), di A × B, allora:
0 0 0 0
Esempio
Insiemi
Siano considerati gli insiemi A = {a, b} e B = {1, 2, 3}, allora il prodotto
Applicazioni
cartesiano tra i due insiemi A e B é:
Gruppi
Esempi di
A × B = {(a, 1), (a, 2), (a, 3), (b, 1), (b, 2), (b, 3)}
Gruppi
Si osserva che A × B 6= B × A.
La definizione di prodotto cartesiano può essere estesa ad un numero finito di
insiemi: A1 , A2 , . . . , An . Esso é definito come l’insieme delle n−uple ordinate
(a1 , a2 , . . . , an ) la cui i−sima coordinata ai é un elemento dell’insieme Ai . Tale
insieme si denota con:
A1 × A2 × · · · × An .
Siano considerati due insiemi A e B.
Insiemi
Definizione
Applicazioni Una relazione R fra i due insiemi A e B è un sottoinsieme del prodotto cartesiano
Gruppi tra A e B :
Esempi di R ⊆ A × B.
Gruppi
Anelli e Campi
Applicazioni
coppie ordinate (x, y ) tali che y − x ∈ N0 . Essa é una relazione binaria in Z. Si ha:
Gruppi
xRy ⇔ x ≤ y .
Esempi di
Gruppi
Anelli e Campi Tale relazione é riflessiva, asimmetrica e transitiva. Una relazione cosı̀ fatta é
Esempi di chiamata relazione d’ordine usuale in Z.
Campi
Esempio
Sia considerato l’insieme dei numeri interi Z e la parte R0 costituita dalle coppie
ordinate (x, y ) tali che y − x ∈ N. Essa é una relazione binaria in Z. Si ha:
xR0 y ⇔ x < y .
Esempi di
• R ⊆ A × B una relazione tra i due insiemi.
Gruppi
Definizione
Una relazione binaria R sull’insieme A é detta relazione d’equivalenza in A se é
riflessiva, simmetrica e transitiva.
Applicazioni
Diamo qui una definizione intuitiva di applicazione. Una definizione piú precisa
sará data in seguito. Siano considerati due insiemi A e B. Una funzione o
Insiemi applicazione f consiste di un insieme A chiamato dominio di f , di un insieme B
Applicazioni chiamato codominio di f e di una legge che associa ad ogni elemento x ∈ A uno e
Gruppi
un solo elemento f (x) ∈ B. Simbolicamente é indicata come segue:
Esempi di
Gruppi
Anelli e Campi
f : A −→ B
Esempi di
x −→ y .
Campi
y = f (x).
Insiemi Sia data una funzione f : A −→ B. Essa é:
Applicazioni • iniettiva, se
Gruppi
∀x1 , x2 ∈ A : f (x1 ) = f (x2 ) ⇒ x1 = x2 ;
Esempi di
Gruppi
• suriettiva, se
Anelli e Campi
∀y ∈ B, ∃x ∈ A : y = f (x);
Esempi di
Campi
• biettiva, se
∀y ∈ B, ∃!x ∈ A : y = f (x).
In particolare una funzione é biettiva se é iniettiva e suriettiva; infatti per ogni
elemento y ∈ B, la suriettività garantisce l’esistenza dell’elemento x ∈ A di cui é
immagine, mentre l’iniettività garantisce l’unicità del suddetto elemento x ∈ A.
Siano considerati:
• S e T due insiemi;
Insiemi
• f : S → T un’applicazione;
Applicazioni
Gruppi • A ⊆ S.
Esempi di
Gruppi Definizione
Anelli e Campi
L’applicazione fA : A → T tale che
Esempi di
Campi
fA (x) = f (x) ∀x ∈ A
f (x) = g (x) ∀x ∈ A
é chiamata prolungamento di g su S.
Siano considerati:
• S e T due insiemi;
Insiemi • f : S → T un’applicazione;
Applicazioni • A ⊆ S;
Gruppi • B ⊆ T.
Esempi di
Gruppi Definizione
Anelli e Campi
Il sottoinsieme:
Esempi di
Campi
f (A) = {y ∈ T | ∃x ∈ A tale che f (x) = y } ⊆ T
Definizione
Il sottoinsieme:
f −1 (B) = {x ∈ S | f (x) ∈ B} ⊆ S
é chiamato antimmagine di B per mezzo di f .
Segue la proposizione che sottolinea le condizioni soddisfatte dall’antimmagine,
Insiemi per cui un’applicazione è iniettiva, suriettiva o biettiva:
Applicazioni
Gruppi
Proposizione 2
Esempi di
Gruppi
•
Anelli e Campi { singleton }
∀y ∈ T
−1
Esempi di f iniettiva ⇔ f (y ) = oppure .
Campi
∅
•
f suriettiva ⇔ f −1 (y ) 6= ∅ ∀y ∈ T .
•
f biettiva ⇔ f −1 (y ) = { singleton } ∀y ∈ T .
Siano considerati:
• S, T e V tre insiemi;
Insiemi
• f : S → T un’applicazione;
Applicazioni
Gruppi
• g : T → V un’applicazione.
Esempi di
Gruppi Definizione
Anelli e Campi
L’applicazione:
Esempi di
Campi h: S → V
definita ponendo h(x) = g (f (x)), è chiamata applicazione composta da g e da
f . Si denota simbolicamente: g ◦ f .
f : x ∈ N → x2 ∈ N g : x ∈ N → x + 2 ∈ N.
Se si compongono le funzioni g ◦ f , si ottiene l’applicazione:
Insiemi
g ◦ f : x ∈ N → x 2 + 1 ∈ N. Se si compongono le funzioni f ◦ g , si ottiene
Applicazioni l’applicazione: f ◦ g : x ∈ N → (x + 2)2 ∈ N. Quindi:
Gruppi
f:A→B g: B →C h: C → D
allora
h ◦ (g ◦ f ) = (h ◦ g ) ◦ f .
In virtù della proprietà associativa, l’applicazione h ◦ (g ◦ f ) = (h ◦ g ) ◦ f si può
denotare semplicemente con h ◦ g ◦ f .
Sia considerato un insieme A
Insiemi Definizione
Applicazioni
L’applicazione f : A → A definita nel seguente modo
Gruppi
Esempi di
Gruppi f (x) = x ∀x ∈ A
Anelli e Campi
f ◦ IA = f IB ◦ f = f
Siano considerati:
• A e B due insiemi;
Insiemi • f : A → B un’applicazione.
Applicazioni
Teorema 3
Gruppi
Esempi di
Gruppi
f biettiva ⇔ ∃!g : B → A t.c. g ◦ f = IA e f ◦ g = IB .
Anelli e Campi
Esempi di
Campi
Dimostrazione.
La dimostrazione si compone in due parti:
• dimostrazione dell’esistenza dell’applicazione g ;
• dimostrazione dell’unicità dell’applicazione g .
⇒) Poiché f é un’applicazione biettiva, allora si ha:
∀y ∈ B∃!x ∈ A : f (x) = y .
Dimostrazione.
Sia definita l’applicazione g : B → A tale che g (y ) = x e la si componga con
Insiemi
l’applicazione f :
Applicazioni
Gruppi
(g ◦ f )(x) = g (f (x)) = g (y ) = x = IA .
Esempi di
Gruppi
y = IB (y ) = (f ◦ g )(y ) = f (g (y ))
Insiemi
Applicazioni
x1 = IA (x1 ) = (g ◦ f )(x1 ) = g (f (x1 )) = g (f (x2 )) = (g ◦ f )(x2 ) = IA (x2 ) = x2 .
Gruppi
Esempi di
Gruppi
Resta da dimostrare l’unicità dell’applicazione g . Sia considerata un’applicazione
Anelli e Campi g 0 : B → A soddisfacente le proprietà: g 0 ◦ f = IA e f ◦ g 0 = IB . Allora si ha:
Esempi di
Campi g 0 = IA ◦ g 0 = (g ◦ f ) ◦ g 0 = g ◦ (f ◦ g 0 ) = g ◦ IB = g .
Esempi di
Gruppi G (f ) := {(x, y ) ∈ A × B : y = f (x)}.
Anelli e Campi
Esempi di
Campi In generale si dimostra il seguente teorema:
Teorema 4
Sia considerata una relazione R ⊆ A × B, allora:
R = G (f ) ⇔ ∀x ∈ A, ∃!y ∈ B : xRy
Applicazioni
Dimostrazione.
Gruppi
⇒) L’applicazione f : A → B, per definizione, associa ad ogni elemento
Esempi di
Gruppi x ∈ A uno ed un solo elemento y ∈ B : f (x) = y . Allora segue che:
Anelli e Campi
Esempi di
(x, y ) ∈ G (f ) ⇒ (x, y ) ∈ R ⇒ xRy .
Campi
Applicazioni
Gruppi
Il teorema precedente permette di dare una definizione piú precisa di applicazione.
Esempi di
Gruppi
Definizione
Anelli e Campi
Esempi di
Siano A e B insiemi. Un’applicazione f : A → B di dominio A e codominio B é
Campi
una terna ordinata (A, B, R), dove R é una relazione fra A e B soddisfacente la
condizione del teorema 4. Si pone y = f (x) ⇔ xRy .
Gruppi
Applicazioni
Gruppi
Un’operazione interna ⊥ nell’insieme S é un’applicazione:
Esempi di
Gruppi ⊥: S × S → S
Anelli e Campi (x, y ) → x ⊥ y
Esempi di
Campi
per ogni coppia (x, y ) ∈ S × S. Il simbolo x ⊥ y é letto x composto y .
L’operazione ⊥ é detta:
Gruppi ∀x ∈ S x ⊥ u = x = u ⊥ x.
Esempi di
Gruppi
Anelli e Campi
Proposizione 5
Esempi di
Campi
Se u ∈ S è l’elemento neutro rispetto all’operazione ⊥, allora u è unico.
Dimostrazione.
Si supponga che ci sia un altro elemento neutro u 0 ∈ S. Allora si ha:
u = u ⊥ u0 = u0 ⇒ u = u0.
Sia S un insieme non vuoto e ⊥ l’operazione interna. Inoltre si supponga che S sia dotato
di elemento neutro u rispetto all’operazione ⊥ .
Insiemi Definizione
Applicazioni
Un elemento x 0 ∈ S é detto simmetrico dell’elemento x ∈ S rispetto all’operazione ⊥ se:
Gruppi
Esempi di x ⊥ x 0 = u = x 0 ⊥ x.
Gruppi
Anelli e Campi
Esempi di Proposizione 6
Campi
Se l’operazione ⊥ è associativa e x 0 ∈ S è l’elemento simmetrico dell’elemento x ∈ S
rispetto all’operazione ⊥, allora x 0 é unico.
Dimostrazione.
Si supponga che ci sia un altro elemento x 00 ∈ S che é il simmetrico dell’elemento x ∈ S
rispetto all’operazione ⊥ . In base alla definizione si ha: x ⊥ x 00 = u = x 00 ⊥ x. Allora si
ha:
x 0 = x 0 ⊥ u = x 0 ⊥ (x ⊥ x 00 ) = (x 0 ⊥ x) ⊥ x 00 = u ⊥ x 00 = x 00 ⇒ x 0 = x 00 .
Insiemi
Una struttura algebrica è una coppia (S, ⊥), dove S è un insieme non vuoto e ⊥ è
Applicazioni
l’operazione interna definita nell’inisieme S.
Gruppi
Esempi di Definizione
Gruppi
Esempi di Esempi
Campi
• Sia considerata la struttura algebrica (N, +), dove N é l’insieme dei numeri
interi positivi {1, 2, 3, . . .} . Esso NON é un gruppo, poiché non esiste
l’elemento neutro 0 e nessun numero naturale é dotato di opposto. Inoltre se
si considera l’insieme N0 , e quindi vi é anche lo 0, la struttura algebrica
(N0 , +) continua a NON essere un gruppo, poiché, sebbene esista l’elemento
neutro 0, nessun numero naturale é dotato di opposto.
Esempi
Insiemi
Applicazioni • Sia considerata la struttura algebrica (Z, +), dove Z è l’insieme dei numeri
Gruppi interi {. . . , −3, −2, −1, 0, 1, 2, 3, . . .} . Esso è un gruppo abeliano, poiché
Esempi di
Gruppi
esiste l’elemento neutro 0 e ogni numero intero è dotato di opposto, + è
Anelli e Campi associativa e commutativa.
Esempi di • Sia considerata la struttura algebrica (Q, +), dove Q è l’insieme dei numeri
Campi
razionali m
n : m, n ∈ Z e n 6= 0 . Esso è un gruppo abeliano, poiché esiste
l’elemento neutro 0 e ogni numero razionale è dotato di opposto e + é
associativa e commutativa.
• Sia considerata la struttura algebrica (R, +), dove R è l’insieme dei numeri
reali. Esso è un gruppo abeliano, poiché esiste l’elemento neutro 0, ogni
numero reale è dotato di opposto e + é associativa e commutativa.
Si dice che è stata adottata la notazione moltiplicativa, quando il simbolo
dell’operazione interna è ·. Se nella struttura algebrica (S, ·):
Insiemi • esiste l’elemento neutro, esso é indicato con 1 ed è chiamato unità;
Applicazioni • ogni elemento x ∈ S è dotato di simmetrico, esso è indicato con x −1 ed é
Gruppi chiamato inverso di x.
Esempi di
Gruppi Esempi
Anelli e Campi
Si osservi che nei nostri insiemi l’operazione · é associativa e commutativa.
Esempi di
Campi • La struttura algebrica (N, ·) NON è un gruppo, poiché nessun numero intero
positivo è dotato di inverso, eccetto l’unità stessa. Analogo se si considera la
struttura algebrica (N0 , +).
• La struttura algebrica (Z, ·) NON è un gruppo, poiché nessun numero intero
è dotato di inverso, eccetto l’unità 1 e −1.
• La struttura algebrica (Q∗ , ·), dove Q∗ é l’insieme dei numeri razionali privato
dello 0 è un gruppo abeliano, poiché é dotata dell’unità e ogni numero
razionale di Q∗ é dotato di inverso.
Esempi
Insiemi • La struttura algebrica (R∗ , ·), dove R∗ é l’insieme dei numeri reali privato
Applicazioni
dello 0 é un gruppo abeliano, poiché é dotata dell’unità e ogni numero reale
Gruppi
di R∗ é dotato di inverso.
Esempi di
Gruppi
Rn = {(a1 , a2 , . . . , an ) : ai ∈ R} .
Applicazioni
n-pla (0, 0, . . . , 0) e ogni suo elemento (a1 , a2 , . . . , an ) ∈ Rn é dotato di opposto
Gruppi
che corrisponde alla n-pla (−a1 , −a2 , . . . , −an ).
Esempi di
Gruppi Esempi Speciali
Anelli e Campi
Esempi di
Siano m, n ∈ N due interi positivi. Una matrice A di tipo (m, n) ad elementi reali
Campi é una tabella di mn numeri reali disposti lungo m righe e n colonne:
a11 a12 · · · a1n
a21 a22 · · · a2n
A= ··· ··· ··· ···.
Applicazioni
M m×n (R) = {A = (aij ) : aij ∈ R con i = 1, . . . , m e j = 1, . . . , n} .
Gruppi
Esempi di
Gruppi Si definisce nell’insieme M m×n (R) l’operazione + nel seguente modo:
Anelli e Campi
R[x1 , x2 , . . . , xn ] = {a0 + a1 x1 + . . . + an xn : ai ∈ R} .
Insiemi
Applicazioni
Esempi Speciali
Gruppi
Esempi di
Si definisca nell’insieme R[x1 , x2 , . . . , xn ] l’operazione + nel seguente modo:
Gruppi
Anelli e Campi (a0 +a1 x1 +. . .+an xn )+(b0 +b1 x1 +. . .+bn xn ) = (a0 +b0 )+(a1 +b1 )x1 +. . .+(an +bn )xn .
Esempi di
Campi La struttura algebrica (R[x1 , x2 , . . . , xn ], +) é un gruppo abeliano in cui
l’elemento neutro è il polinomio nullo 0 = 0 + 0x1 + . . . + 0xn , e ogni suo
elemento a0 + a1 x1 + . . . + an xn ∈ R[x1 , x2 , . . . , xn ] é dotato di opposto che
corrisponde al polinomio −a0 − a1 x1 − . . . − an xn .
Anelli e Campi
Applicazioni
Definizione
Gruppi La struttura algebrica (K, +, ·) é detto un anello se:
Esempi di
Gruppi
1 (K, +) é un gruppo abeliano;
Anelli e Campi 2 l’operazione · é associativa;
Esempi di
Campi 3 l’operazione · é distributiva rispetto all’operazione +:
∀x, y , z ∈ A (x + y ) · z = x · z + y · z e x · (y + z) = x · y + x · z.
Gruppi
Definizione
Esempi di La terna (K, +, ·) é detta un campo se sono verificate le seguenti proprietà:
Gruppi
a(b + c) = ab + ac.
Insiemi
Applicazioni Proposizione 7
Gruppi
Sia K un campo, allora:
Esempi di
Gruppi ∀a ∈ K a0 = 0
Anelli e Campi
Esempi di
Campi Dimostrazione.
ab = a(b + 0) = ab + a0 ⇒ a0 = 0.
Proposizione 8
Insiemi Sia K un campo. Allora
Applicazioni
Gruppi ab = 0 ⇔ a = 0 oppure b = 0
Esempi di
Gruppi
Anelli e Campi
Dimostrazione.
Esempi di
Campi
⇐) Se a = 0 oppure b = 0, allora, per la Proposizione (7), ab = 0.
⇒) Se a = 0 l’asserto é provato; si supponga che a 6= 0 e quindi esso
ammette inverso a−1 . Allora, moltiplicando entrambi i membri
dell’uguaglianza ab = 0 con a−1 , si ha:
Esempi di
è un gruppo abeliano.
Gruppi In relazione agli esempi precedenti, é possibile già affermare che le strutture
Anelli e Campi algebriche (N, +, ·) e (Z, +, ·) NON sono campi. In particolare (Z, +, ·) é un
Esempi di
Campi
anello commutativo e unitario.
Esempi
La struttura algebrica (Q, +, ·) é un campo. Analogo discorso é per le strutture
algebriche (R, +, ·) e (C, +, ·).
Insiemi
Applicazioni
Gruppi
Esempi di
Gruppi
Anelli e Campi
Esempi di
Campi
Spazio vettoriale su un campo
Siano considerati:
Spazio vettoriale
su un campo
• (K, +, ·) un campo i cui elementi sono chiamati scalari;
Proprietà • V un insieme non vuoto i cui elementi sono chiamati vettori.
Sottospazio
vettoriale Si definiscano:
Lineare • l’operazione interna nell’insieme V di addizione, +:
dipendenza e
basi
Operazioni tra +: V × V → V
sottospazi
(u, v ) → u + v
•: K × V → V
(α, v ) → α • v
Definizione
Uno spazio vettoriale sul campo K è una quaterna (V , K, +, •) costituita
Spazio vettoriale
su un campo dall’insieme V , dal campo K, dall’operazione interna + e dall’operazione esterna
Proprietà •, tale che valgono le seguenti proprietà:
Sottospazio
vettoriale 1 (V , +) è un gruppo abeliano;
Lineare
dipendenza e 2 α • u + α • v = α • (u + v ) ∀α ∈ K e ∀u, v ∈ V ;
basi
Per convenzione:
• lo spazio vettoriale sul campo K sarà indicato con V ;
• si scriverà αβ per indicare α · β;
• si scriverà αu per indicare α • u;
Esempi
Sia considerato un campo K e sia n ≥ 2 un intero positivo.
Esempio
Spazio vettoriale
su un campo
Sia considerato il seguente insieme:
Proprietà
Sottospazio
vettoriale Kn := {(a1 , a2 , . . . , an ) : ai ∈ K}
Lineare
dipendenza e
basi
e si definisca l’operazione di addizione + (vedi Esempi Speciali nel paragrafo
Operazioni tra
Gruppi):
sottospazi
Proprietà
• é risaputo che la struttura (Kn , +) è un gruppo abeliano, dunque segue la
Sottospazio proprietà (1).
vettoriale
• Siano α ∈ K e (a1 , a2 , . . . , an ), (b1 , b2 , . . . , bn ) ∈ Kn , allora:
Lineare
dipendenza e
basi
α(a1 , a2 , . . . , an ) + α(b1 , b2 , . . . , bn ) = (αa1 , αa2 , . . . , αan ) + (αb1 , αb2 , . . . , αbn ) =
Operazioni tra
sottospazi (αa1 + αb1 , αa2 + αb2 , . . . , αan + αbn ).
D’altro canto:
Proprietà
α(a1 , a2 , . . . , an ) + β(a1 , a2 , . . . , an ) = (αa1 , αa2 , . . . , αan ) + (βa1 , βa2 , . . . , βan ) =
Sottospazio
vettoriale (αa1 + βa1 , αa2 + βa2 , . . . , αan + βan ).
Lineare
dipendenza e
basi
D’altro canto:
Operazioni tra
sottospazi (α + β)(a1 , a2 , . . . , an ) = ((α + β)a1 , (α + β)a2 , . . . , (α + β)an ) =
(αa1 + βa1 , αa2 + βa2 , . . . , αan + βan ).
α • A = α • (aij ) = (αaij ).
Sottospazio
vettoriale
K[x1 , x2 , . . . , xn ] = {a0 + a1 x1 + . . . + an xn : ai ∈ K} .
Lineare
dipendenza e e si definisca l’operazione di addizione + (vedi Esempi Speciali nel paragrafo
basi
Gruppi):
Operazioni tra
sottospazi
(a0 +a1 x1 +. . .+an xn )+(b0 +b1 x1 +. . .+bn xn ) = (a0 +b0 )+(a1 +b1 )x1 +. . .+(an +bn )xn .
Proprietà Esempio
Sottospazio
vettoriale Procedendo come nel primo esempio, è facile dimostrare che K[x1 , x2 , . . . , xn ] è
Lineare uno spazio vettoriale.
dipendenza e
basi
K[x1 , x2 , . . . , xn ] è detto spazio vettoriale dei polinomi di grado
Operazioni tra
sottospazi al più uno sul campo K.
Di solito i vettori vengono denotati con una sottolineatura, per semplicità non li
sottolineeremo.
Proprietà
Lineare
dipendenza e ∀v ∈ V 0v = 0
basi
Operazioni tra
sottospazi
Dimostrazione.
Sia α ∈ K uno scalare.
αv = (α + 0)v = αv + 0v ⇒ 0v = 0
Spazio vettoriale
su un campo Proposizione 2
Proprietà
Sottospazio
vettoriale ∀α ∈ K α0 = 0
Lineare
dipendenza e
basi
Operazioni tra
Dimostrazione.
sottospazi
Sia v ∈ V un vettore.
αv = α(v + 0) = αv + α0 ⇒ α0 = 0.
Proposizione 3
Spazio vettoriale
su un campo
Proprietà
∀α ∈ K ∀v ∈ V αv = 0 ⇔ α = 0 o v = 0.
Sottospazio
vettoriale
Lineare
dipendenza e
basi
Dimostrazione.
Operazioni tra ⇒) Si supponga α 6= 0, allora, moltiplicando entrambi i membri
sottospazi
dell’uguaglianza αv = 0 per α−1 , si ha:
⇐) α = 0 o v = 0 ⇒ αv = 0.
Spazio vettoriale Proposizione 4
su un campo
Proprietà
Lineare
dipendenza e
basi Dimostrazione.
Operazioni tra
sottospazi •
αv + (−α)v = (α − α)v = 0v = 0 ⇒ (−α)v = −(αv ).
•
αv + α(−v ) = α(v − v ) = α0 = 0 ⇒ α(−v ) = −(αv ).
Sottospazio vettoriale
Siano considerati:
• V uno spazio vettoriale definito su un campo K;
Spazio vettoriale
su un campo
• H ⊆ V un sottoinsieme non vuoto di V .
Proprietà
Definizione
Sottospazio
vettoriale Il sottoinsieme H dello spazio vettoriale V è definito sottospazio vettoriale se:
Lineare
dipendenza e
basi 1 ∀u, v ∈ H u + v ∈ H;
Operazioni tra
sottospazi
2 ∀α ∈ K, ∀u ∈ H αu ∈ H.
Si indicherà H ≤ V .
Osservazione
Sia H un sottospazio vettoriale di V , allora contiene almeno il vettore nullo 0.
Infatti, poiché H é un sottoinsieme non vuoto di V , dovrà possedere almeno un
vettore u. Considerando 0u = 0, per la proprietà (2), si ha 0 = 0u ∈ H, cioè
0 ∈ H.
Esempio
Spazio vettoriale
su un campo
Sia V uno spazio vettoriale sul campo K. Allora è facile dimostrare che H = {0} e
Proprietà
H = V sono sottospazi vettoriali di V . Essi si chiamano sottospazi banali.
Sottospazio
vettoriale
Lineare
dipendenza e
Esempio
basi
Operazioni tra
Siano considerati:
sottospazi
• V = R2 lo spazio vettoriale sul campo R;
• H = {(a, 2a) : a ∈ R} ⊆ R2 .
Allora H ≤ V . Infatti siano considerati due vettori u e v in H, dunque sono vettori
del tipo:
u = (a, 2a) v = (b, 2b) .
Spazio vettoriale
Esempio
su un campo
Proprietà
Allora:
Sottospazio
vettoriale u + v = (a, 2a) + (b, 2b) = (a + b, 2a + 2b) = (a + b, 2(a + b)).
Lineare
dipendenza e
basi La seconda componente del vettore ottenuto è il doppio della prima componente,
Operazioni tra risulta che u + v ∈ H. Segue la proprietà (1) della definizione.
sottospazi
Si α ∈ R uno scalare reale e sia u ∈ H un vettore del tipo (a, 2a). Allora:
Proprietà
• α1 , α2 , . . . , αn ∈ K n scalari di K.
Sottospazio
vettoriale
Definizione
Lineare Una combinazione lineare dei vettori v1 , v2 , . . . , vn rispetto agli scalari
dipendenza e
basi α1 , α2 , . . . , αn è:
Operazioni tra α1 v1 + α2 v2 + · · · + αn vn .
sottospazi
u = α1 v1 + α2 v2 + · · · + αn vn
Dimostrazione.
Si considerino i vettori u, v ∈ V , quindi:
u = α1 v1 + α2 v2 + · · · + αn vn αi ∈ K per i = 1, 2, . . . , n
v = β1 v1 + β2 v2 + · · · + βn vn βi ∈ K per i = 1, 2, . . . , n
Dimostrazione.
Spazio vettoriale
su un campo
Dunque:
Proprietà
Sottospazio
vettoriale u + v = α1 v1 + α2 v2 + · · · + αn vn + β1 v1 + β2 v2 + · · · + βn vn =
Lineare
dipendenza e
(α1 + β1 )v1 + (α2 + β2 )v2 + . . . + (αn + βn )vn
basi
Lineare
dipendenza e é detto sottospazio generato dai vettori v1 , v2 , . . . , vn e viene indicato con il
basi
simbolo:
Operazioni tra
sottospazi H = hv1 , v2 , . . . , vn i.
Esempio
Si considerino lo spazio vettoriale R2 e i vettori u = (1, 0) e v = (2, 1). Allora
I vettori del sottospazio generato dai vettori u e v saranno del tipo (α + 2β, β).
Si considerino:
Spazio vettoriale
• V uno spazio vettoriale sul campo K;
su un campo
• v1 , v2 , . . . , vn ∈ V n vettori di V ;
Proprietà
Sottospazio
vettoriale Definizione
Lineare
dipendenza e
Il sistema {v1 , v2 , . . . , vn } è detto un sistema di generatori per lo spazio vettoriale
basi V quando
Operazioni tra
sottospazi
V = hv1 , v2 , . . . , vn i
ovvero
∀v ∈ V ∃α1 , α2 , . . . , αn ∈ K : v = α1 v1 + α2 v2 + · · · + αn vn
Esempio
Si considerino lo spazio vettoriale R2 e i vettori u = (1, 0), v = (0, 1) e
w = (2, 2). Allora il sistema {u, v , w } é un sistema di generatori per R2 . Infatti
per ogni vettore (a, b) ∈ R2 risulta una loro combinazione lineare:
Lineare
(a, b) = α(1, 0) + β(3, 1) = (α + 3β, β).
dipendenza e
basi
Quindi basta scegliere
Operazioni tra
sottospazi α = a − 3b, β = b
cioé: (a, b) = (a − 3b)(1, 0) + b(3, 1) = (a − 3b)u + bv .
Esempio
Si considerino lo spazio vettoriale R2 e i vettori u = (1, 0) e v = (2, 0). Allora il
sistema {u, v } non é un sistema di generatori per R2 . Infatti i soli vettori che si
possono costruire con i vettori u e v sono del tipo (a, 0).
Si considerino:
• V uno spazio vettoriale sul campo K;
Spazio vettoriale
su un campo • v1 , v2 , . . . , vn ∈ V n vettori di V ;
Proprietà
Sottospazio Definizione
vettoriale
Lineare
I vettori v1 , v2 , . . . , vn sono detti linearmente indipendenti se l’unica possibilità per
dipendenza e
basi
ottenere il vettore nullo 0, come combinazione lineare dei vettori v1 , v2 , . . . , vn , è
Operazioni tra
moltiplicare scalarmente i suddetti vettori con 0. In particolare: se
sottospazi
∀α1 , α2 , . . . , αn ∈ K : α1 v1 + α2 v2 + . . . + αn vn = 0 ⇒ α1 = α2 = . . . = αn = 0.
α1 v1 + α2 v2 + . . . + αn vn = 0
Proprietà
Si dimostreranno le seguenti proposizioni:
Sottospazio
vettoriale
Proposizione 6
Lineare
dipendenza e
basi I vettori v1 , v2 , . . . , vn sono linearmente dipendenti se e solo se uno di essi dipende
Operazioni tra dai rimanenti vettori.
sottospazi
Dimostrazione.
Siano considerati gli scalari α1 , α2 , . . . , αn ∈ K tale che:
α1 v1 + α2 v2 + . . . + αn vn = 0.
Proprietà
αi vi = −α1 v1 − α2 v2 − . . . − αi−1 vi−1 − αi+1 vi+1 − . . . − αn vn .
Sottospazio
vettoriale
Lineare
dipendenza e vi = α1 v1 + α2 v2 + . . . + αi−1 vi−1 + αi+1 vi+1 + . . . + αn vn .
basi
Operazioni tra
sottospazi
Si ha:
ottenendo cosı̀ una combinazione lineare del vettore nullo 0 a scalari non tutti
nulli.
Come applicazione della Proposizione (6), seguono i corollari:
Spazio vettoriale
su un campo Corollary 7
Proprietà
Sottospazio
Siano u, v ∈ V − {0} due vettori non nulli, allora:
vettoriale
Corollary 8
Dati i vettori v1 , v2 , . . . , vn ∈ V , allora:
∃i = 1, 2, . . . , n : vi = 0 ⇒ v1 , v2 , . . . , vn linearmente dipendenti.
Corollary 9
Spazio vettoriale Dati i vettori v1 , v2 , . . . , vn ∈ V , allora:
su un campo
Lineare
dipendenza e
basi
Osservazione
Operazioni tra Se V è un qualunque spazio vettoriale, allora, per il Corollario (8), il sistema di
sottospazi
vettori
{v1 , v2 , . . . , vn , 0}
è sempre linearmente dipendente per ogni v1 , v2 , . . . , vn ∈ V .
Proprietà
essi dipende dai restanti vettori.
Sottospazio
vettoriale
Esempio
Lineare
dipendenza e
basi
Si consideri lo spazio vettoriale R3 e il sistema di vettori {u, v , w } con
Operazioni tra
sottospazi u = (1, 0, 0), v = (2, 1, 3), w = (0, −1, −3).
w = 2u − v
Esempio
Si consideri il seguente spazio vettoriale R[x]≤2 , cioé lo spazio vettoriale dei
polinomi dipendenti da una sola variabile x, di grado al più 2. Sia preso il seguente
sistema di polinomi 1, x 2 + x, x, x 2 , 3x 2 + 3x . Si osservi che il polinomio
3x 2 + 3x è il triplo del polinomio x 2 + x, quindi sono proporzionali. Per il
Corollario (9), il sistema dato dei polinomi é linearmente dipendente.
Spazio vettoriale
su un campo
Proprietà
Esempio
Sottospazio
vettoriale
Si consideri lo spazio vettoriale R3 e il sistema di vettori {u, v , w } con
Lineare
dipendenza e
basi
u = (1, 2, 0), v = (−2, 1, 0), w = (0, 1, 1).
Operazioni tra
sottospazi
Poiché nessuno dei vettori del sistema dipende dai restanti vettori, allora, per la
Proposizione (10), è un sistema di vettori linearmente indipendenti.
Il teorema che segue caratterizza la cardinalità di un sistema di vettori di un dato
spazio vettoriale linearmente indipendenti sotto opportune ipotesi. Per cardinalità
Spazio vettoriale di un sistema di vettori è da intendersi il numero dei vettori che sono presenti nel
su un campo
Proprietà
sistema. Il teorema va sotto il nome di teorema di Steinitz, la cui dimostrazione
Sottospazio
è fatta per induzione su un intero positivo n. Ciò significa dimostrare il teorema
vettoriale seguendo i seguenti step:
Lineare
dipendenza e Step 1: dimostrare il teorema per n = 1 (Base dell’induzione);
basi
Operazioni tra
Step 2: ammettere il teorema vero per n − 1 (Ipotesi induttiva);
sottospazi
Step 3: dimostrare il teorema per n.
Teorema 11 (Steinitz)
Dato uno spazio vettoriale V e due sistemi di vettori S = {u1 , u2 , . . . , um } e
T = {v1 , v2 , . . . , vn }. Se i vettori di S sono linearmente indipendenti ed ognuno di
essi dipende dai vettori di T , allora la cardinalità di S è minore od uguale della
cardinalità di T , ovvero m ≤ n.
Dimostrazione.
Si ragiona per induzione su n ≥ 1.
Spazio vettoriale
su un campo Step 1: si ponga n = 1, ovvero si supponga che il sistema T sia costituito da un
Proprietà solo vettore: T = {v1 }. Allora anche il sistema S non può avere più di un
Sottospazio vettore, perché, se per assurdo S fosse costituito da due vettori u1 e u2 ,
vettoriale
ciascuno di essi, per ipotesi, dipenderebbe dal solo vettore v1 di T :
Lineare
dipendenza e
basi u1 = αv1 , u2 = βv1 .
Operazioni tra
sottospazi Essendo S un sistema di vettori linearmente indipendenti, deve risultare
α 6= 0 e dunque invertibile. Segue che v1 = α−1 u1 e, sostituendo v1 nella
seconda uguaglianza, si ottiene:
u2 = βα−1 u1
Operazioni tra
u2 = a21 v1 + a22 v2 + . . . + a2n vn
sottospazi ·································
um = am1 v1 + am2 v2 + . . . + amn vn
−1
v1 = a11 u1 + b12 v2 + . . . + b1n vn
Dimostrazione.
−1
denotando b1j = a11 a1j con j = 2, . . . , n. Si sostituisce l’espressione v1 nelle
Spazio vettoriale
su un campo relazioni di u2 , . . . , um e si ottiene:
Proprietà
−1
Sottospazio u2 = a21 (a11 u1 + b12 v2 + . . . + b1n vn ) + a22 v2 + . . . + a1n vn
vettoriale
···························
Lineare −1
dipendenza e um = am1 (a11 u1 + b12 v2 + . . . + b1n vn ) + am2 v2 + . . . + amn vn
basi
Operazioni tra
sottospazi
Svolgendo le operazioni al secondo membro dell’uguaglianza e trasportando il
termine che accompagna u1 al primo membro dell’uguaglianza, si ottiene:
Proprietà
wi = ui − ci1 u1 i = 2, . . . , m
Sottospazio
vettoriale le precedenti relazioni diventano:
Lineare
dipendenza e
basi w2 = d22 v2 + . . . + d2n vn
Operazioni tra ··················
sottospazi
wm = dm2 v2 + . . . + dmn vn .
Proprietà
Dimostrazione.
Sottospazio
vettoriale
• Ogni vettore di S 0 dipende linearmente dai vettori v2 , . . . , vn ∈ T .
Lineare
dipendenza e
basi
Per ipotesi induttiva (Step 2), allora la cardinalità del sistema di vettori S 0 è
Operazioni tra
minore od uguale alla cardinalità del sistema di vettori di T , ovvero:
sottospazi
m − 1 ≤ n − 1 ⇒ m ≤ n.
Sottospazio
Definizione
vettoriale
Il sottospazio vettoriale H ≤ V si dice finitamente generato se esiste un numero
Lineare
dipendenza e finito di vettori v1 , v2 , . . . , vn ∈ V che lo generano, ovvero:
basi
Operazioni tra
sottospazi
H = hv1 , v2 , . . . , vn i.
Si considerino
• V uno spazio vettoriale sul campo K;
• v1 , v2 , . . . , vn ∈ V n vettori di V ;
• H = hv1 , v2 , . . . , vn i il sottospazio finitamente generato dai vettori
v1 , v2 , . . . , vn .
Proposizione 12
Se esiste un vettore vi per i = 1, 2, . . . , n, che dipende linearmente dai restanti vettori,
Spazio vettoriale
su un campo allora
Proprietà
H = hv1 , v2 , . . . , vi−1 , vi+1 , . . . vn i.
Sottospazio Ovvero il sottospazio vettoriale generato dal sistema di vettori v1 , v2 , . . . , vn coinciderà
vettoriale
con il sottospazio generato dal medesimo sistema di vettori, privato di quel vettore che
Lineare
dipendenza e dipende linearmente dai restanti.
basi
Operazioni tra
sottospazi
Dimostrazione.
Si supponga per semplicità che il vettore v1 dipenda linearmente dai restanti vettori. In
particolare il vettore v1 si potrà scrivere combinazione lineare dei vettori v2 , . . . , vn :
v1 = α2 v2 + . . . + αn vn .
Spazio vettoriale
su un campo
u = β 1 v 1 + β2 v 2 + . . . + βn v n .
Proprietà Per quanto è stato detto prima, sostituendo l’espressione del vettore v1 nella relazione
Sottospazio precedente, si ha:
vettoriale
Lineare
dipendenza e
u = β1 (α2 v2 + . . . + αn vn ) + β2 v2 + . . . + βn vn .
basi
u = γ 2 v2 + . . . + γ n vn
u = β v + ... + β v .
Dimostrazione.
Si può riscrivere tale combinazione lineare nel seguente modo:
Spazio vettoriale
su un campo
Proprietà
u = 0v1 + β2 v2 + . . . + βn vn .
Sottospazio
vettoriale Il vettore u è combinazione lineare dei vettori v1 , v2 , . . . , vn , in cui il coefficiente che
Lineare accompagna il vettore v1 è nullo. Segue che u ∈ H = hv1 , v2 , . . . , vn i. In conclusione si ha:
dipendenza e
basi
H ⊆ hv2 , . . . , vn i ⊆ H ⇒ H = hv2 , . . . , vn i.
Operazioni tra
sottospazi
La Proposizione (12) può essere iterata più volte fino ad avere solo vettori linearmente
indipendenti, ovvero:
Lineare Esempio
dipendenza e
basi
Si considerino lo spazio vettoriale R2 e il seguente sistema di vettori {(2, 1), (0, 2)} . Tale
Operazioni tra
sottospazi
sistema risulta soddisfare le seguenti proprietà:
• presa una combinazione lineare dei vettori (2, 1) e (0, 2), allora si ha:
( (
2α1 = 0 α1 = 0
α1 (2, 1)+α2 (0, 2) = 0 ⇒ (2α1 , α1 +2α2 ) = (0, 0) ⇒ ⇒
α1 + 2α2 = 0 α2 = 0.
Lineare
a b a
dipendenza e
basi
(a, b) = (2, 1) + − (0, 2).
2 2 4
Operazioni tra
sottospazi
Dunque é un sistema di generatori per lo spazio vettoriale R2 , poiché ogni vettore di
R2 è scritto combinazione lineare dei vettori (2, 1) e (0, 2).
In conclusione: per definizione il sistema di vettori {(2, 1), (0, 2)} è una base per lo spazio
vettoriale R2 .
Proposizione 13
Spazio vettoriale
su un campo Sia V uno spazio vettoriale e B = {u1 , u2 , . . . , un } una sua base di cardinalità n. Allora
Proprietà qualsiasi altra base dello spazio vettoriale V ha cardinalità n.
Sottospazio
vettoriale
Dimostrazione.
Lineare
dipendenza e
basi
Si consideri un’altra base dello spazio vettoriale V : B 0 = {u10 , u20 , . . . , um
0
} . Per definizione
di base, si ha che i vettori di B sono linearmente indipendenti, ma, a loro volta dipendono,
Operazioni tra
sottospazi linearmente dai vettori di B 0 ; applicando il teorema di Steinitz (11), risulta n ≤ m. D’altro
canto anche i vettori di B 0 sono linearmente indipendenti, ma, a loro volta, dipendono
linearmente dai vettori di B; applicando nuovamente il teorema di Steinitz (11), risulta
m ≤ n. Allora, in conclusione:
n ≤ m ≤ n ⇒ n = m,
Operazioni tra
• V uno spazio vettoriale finitamente generato;
sottospazi
• v1 , v2 , . . . , vn , w ∈ V n + 1 vettori di V .
Proposizione 14
Se il sistema di vettori S = {v1 , v2 , . . . , vn , w } è linearmente dipendente e il sistema di
vettori S 0 = {v1 , v2 , . . . , vn } è linearmente indipendente, allora il vettore w dipende
linearmente dai vettori v1 , v2 , . . . , vn , cioé:
∃α1 , α2 , . . . , αn ∈ K : w = α1 v1 + α2 v2 + . . . + αn vn .
Dimostrazione.
Poiché, per ipotesi, il sistema di vettori S è linearmente dipendente, allora esistono scalari
Spazio vettoriale
su un campo
non tutti nulli tali che:
Proprietà
α1 v1 + α2 v2 + . . . + αn vn + αw = 0.
Sottospazio
vettoriale
Se, per assurdo α = 0, la relazione precedente sarà:
Lineare
dipendenza e
basi α1 v1 + α2 v2 + . . . + αn vn + 0w = 0 ⇒ α1 v1 + α2 v2 + . . . + αn vn = 0.
Operazioni tra
sottospazi
Dal momento in cui, per ipotesi, i vettori v1 , v2 , . . . , vn sono linearmente indipendenti,
segue che:
α1 = α2 = . . . = αn = 0.
Allora si avrebbe che la relazione precedente:
α1 v1 + α2 v2 + . . . + αn vn + αw = 0
Operazioni tra
sottospazi
indicando βi = −α−1 αi per i = 1, 2, . . . , n. In tal modo il vettore w è espresso come
combinazione linare dei vettori v1 , v2 , . . . , vn .
Proposizione 15
V è uno spazio vettoriale di dimensione n, dim V = n, se e solo se n è il massimo numero
di vettori linearmente indipendenti che lo spazio vettoriale V possiede.
Dimostrazione.
Spazio vettoriale
⇒: Sia V uno spazio vettoriale di dimensione n e B = {u1 , u2 , . . . , un } una sua
su un campo base. Si considerino un certo numero m di vettori v1 , v2 , . . . , vm ∈ V
Proprietà linearmente indipendenti. Poiché ciascuno di essi dipende linearmente dai
Sottospazio vettori di B, in qualità di base, allora, per il Teorema di Steinitz (11), deve
vettoriale
risultare m ≤ n. Pertanto n è il numero massimo di vettori linearmente
Lineare
dipendenza e
indipendenti.
basi
Operazioni tra
⇐: Sia n il numero massimo di vettori v1 , v2 , . . . , vn linearmente indipendenti.
sottospazi Si consideri un qualsiasi vettore w ∈ V distinto dai vettori vi per
i = 1, 2, . . . , n, allora il sistema di vettori
S = {v1 , v2 , . . . , vn , w }
Proposizione 16
Sia V uno spazio vettoriale di dimensione n, dim V = n. Siano u1 , u2 , . . . , um , con m < n,
vettori linearmente indipendenti. Allora si possono aggiungere opportunatamente n − m
vettori um+1 , um+2 , . . . , un tali che il sistema di vettori,
{u1 , u2 , . . . , um , um+1 , um+2 , . . . , un } è una base per lo spazio vettoriale V .
Tenendo in considerazione la Proposizione (16), é possibile costruire una base di un dato
spazio vettoriale V di una certa dimensione, nel seguente modo: si consideri un vettore
Spazio vettoriale u1 ∈ V non nullo e si consideri il sottospazio generato dal vettore u1 : H1 = hu1 i. Sapendo
su un campo che il vettore u1 é indipendente, allora:
Proprietà
H1 =V
Sottospazio =⇒ {u1 } base di V
vettoriale
H1 = hu1 i oppure
Lineare
H1 ⊂V
dipendenza e
basi
=⇒ ∃u2 ∈ V : u2 6∈ H1 .
Operazioni tra
sottospazi Si consideri il sottospazio generato dai vettori u1 , u2 : H2 = hu1 , u2 i. Sapendo che, per la
Proposizione (14), il sistema di vettori {u1 , u2 } é linearmente indipendente, allora:
H2 =V
=⇒ {u1 , u2 } base di V
H2 = hu1 , u2 i oppure
H2 ⊂V
=⇒ ∃u3 ∈ V : u3 6∈ H2 .
Proprietà
• X ⊆ S un sottoinsieme non vuoto di S;
Sottospazio • P é una certa proprietà assegnata.
vettoriale
Lineare
dipendenza e
basi
Definizione
Operazioni tra Il sottoinsieme X si dice munito della proprietà P, quando per ogni elemento x ∈ S:
sottospazi
x ∈ X ⇔ x soddisfa la proprietà P
Definizione
Il sottoinsieme X si dice massimale rispetto alla proprietà P, quando:
∀Y ⊆ S : X ⊂ Y ⇒ Y non ha la proprietà P.
In sostanza il concetto di sottoinsieme massimale é da intendersi nel seguente modo:
Spazio vettoriale
su un campo
il sottoinsieme Y , ottenuto dal sottoinsieme X con l’aggiunta di un elemento dell’insieme
Proprietà
S, non gode della proprietà P assegnata.
Sottospazio
vettoriale
Lineare Definizione
dipendenza e
basi Il sottoinsieme X si dice minimale rispetto alla proprietà P, quando:
Operazioni tra
sottospazi
∀Y ⊆ S : Y ⊂ X ⇒ Y non ha la proprietà P.
Sottospazio Per un sistema S = {u1 , u2 , . . . , un } di vettori dello spazio vettoriale V sono equivalenti le
vettoriale
seguenti affermazioni:
Lineare
dipendenza e
basi
1 S è una base;
Operazioni tra
sottospazi
2 S è massimale rispetto alla proprietà di essere indipendente;
3 S è minimale rispetto alla proprietà di essere un sistema di generatori;
4 S è un sistema indipendente di cardinalità massima;
5 S è un sistema di generatori di cardinalità minima.
Dimostrazione.
Si dimostri:
Spazio vettoriale
su un campo
(1) ⇔ (2)
Proprietà
Sottospazio
vettoriale ⇒: per ipotesi S è una base e, in particolare, i vettori u1 , u2 , . . . , un sono
Lineare linearmente indipendenti. Si consideri un vettore w ∈ V ; esso, per
dipendenza e
basi definizione di base, è combinazione lineare dei vettori u1 , u2 , . . . , un , quindi
Operazioni tra il sistema S 0 = {u1 , u2 , . . . , un , w }, ottenuto dal sistema S con l’aggiunta
sottospazi del vettore w , è un sistema di vettori dipendenti. Poichè ciò vale per ogni
w ∈ V , in conclusione si ha che S è un sistema massimale rispetto alla
proprietà di essere indipendente.
⇐: per ipotesi S è un sistema massimale rispetto alla proprietà di essere
indipendente e si deve dimostrare che è una base, cioé un sistema di
generatori. Per la massimalità, il sistema S 0 = {u1 , u2 , . . . , un , w }, ottenuto
dal sistema S con l’aggiunta del vettore w ∈ V , è un sistema dipendente.
Dimostrazione.
Per la Proposizione (14), si ha che il vettore w è combinazione lineare dei vettori di S. Ciò
Spazio vettoriale
su un campo
vale per ogni vettore w e, tenendo in considerazione che ogni vettore ui , per
i = 1, 2, . . . , n è combinazione lineare dei vettori di S, segue che S è un sistema di
Proprietà
generatori che è linearmente indipendente per ipotesi. In conclusione S è una base.
Sottospazio
vettoriale
Si dimostri:
Lineare
dipendenza e (1) ⇔ (3)
basi
Operazioni tra
sottospazi
⇒: per ipotesi S = {u1 , u2 , . . . , un } è una base. Si privi il sistema S di un
vettore ui , ottenendo il seguente sistema di vettori
Operazioni tra
sottospazi ⇒: per ipotesi S è una base, in particolare è un sistema di generatori. Se
esistessero m vettori v1 , v2 , . . . , vm generanti lo spazio vettoriale V , si
avrebbe, per il Teorema di Steinitz (11), n ≤ m. Ovvero qualsiasi altro
sistema di generatori avrebbe cardinalità almeno n. In conclusione n
esprime la minima cardinalità di un sistema di generatori e, dato che S è
un sistema di generatori, esso avrà cardinalità minima.
⇐: per ipotesi S é un sistema di generatori di cardinalità minima e si vuole
dimostrare che è una base, cioè è un sistema linearmente indipendente.
Dimostrazione.
Se non fosse un sistema linearmente indipendente, esisterebbe un vettore ui , per
Spazio vettoriale
su un campo i = 1, 2, . . . , n, dipendente dai restanti. Ma allora risulterebbe:
Proprietà
Sottospazio
hu1 , u2 , . . . , ui−1 , ui+1 , . . . , un i = hu1 , u2 , . . . , ui−1 , ui , ui+1 , . . . , un i = V .
vettoriale
Lineare Ovvero il sistema S 0 = {u1 , u2 , . . . , ui−1 , ui+1 , . . . , un }, ottenuto dal sistema S privandolo
dipendenza e
basi
del vettore ui , è ancora un sistema di generatori, nonostante la cardinalità di S 0 sia
Operazioni tra
n − 1 < n. Ciò è assurdo per l’ipotesi di cardinalità minima di essere un sistema di
sottospazi generatori.
Lineare
(2, −1) (1, 2).
dipendenza e
basi
Facilmente si osserva che i vettori scelti sono linearmente indipendenti (anche perché non
Operazioni tra
sottospazi proporzionali tra loro). Inoltre, 2 è il minimo numero di vettori per generare lo spazio R2 ,
allora
h(2, −1), (1, 2)i = R2 .
Si può concludere che il seguente sistema:
ei = (0, 0, . . . , 0, 1, 0, . . . , 0) i = 1, 2, . . . , n.
he1 , e2 , . . . , en i = Kn .
Proprietà
Sottospazio
vettoriale
Lineare
Esempio Speciale
dipendenza e
basi La base di questo tipo è chiamata base canonica di Kn i cui vettori e1 , e2 , . . . , en sono
Operazioni tra chiamati vettori canonici dello spazio vettoriale Kn .
sottospazi
Operazioni tra sottospazi
Si considerino:
• V uno spazio vettoriale di dimensione dim V = n;
Spazio vettoriale
su un campo
• H, T ≤ V due sottospazi vettoriali.
Proprietà
Sottospazio
Proposizione 18
vettoriale
Lineare
dipendenza e H ∩ T ≤ V.
basi
Operazioni tra
sottospazi Dimostrazione.
Si deve dimostrare la validità delle due proprietà della definizione di sottospazio. Per ogni
vettore u, v ∈ H ∩ T , e ogni scalare α ∈ K si ha:
1
u, v ∈ H ∩ T ⇒ u, v ∈ H e u, v ∈ T ⇒ u + v ∈ H e u + v ∈ T ⇒ u + v ∈ H ∩ T .
2
u ∈ H ∩ T ⇒ u ∈ H e u ∈ T ⇒ αu ∈ H e αu ∈ T ⇒ αu ∈ H ∩ T .
Si può estendere la proposizione precedente anche ad una famiglia di sottospazi dello
spazio vettoriale V . Si considerino:
Spazio vettoriale
• V uno spazio vettoriale di dimensione dim V = n;
su un campo
• H = {H : H ≤ V } la famiglia dei sottospazi vettoriali dello spazio vettoriale V .
Proprietà
Sottospazio
vettoriale Osservazione
Lineare Risulta H 6= ∅, perché tra i sottospazi vettoriali ci sono quelli banali {0} e V .
dipendenza e
basi
Dimostrazione.
Si deve dimostrare
\ la validità delle due proprietà della definizione di sottospazio. Per ogni
vettore u, v ∈ H, e ogni scalare α ∈ K si ha:
H∈H
Dimostrazione.
Spazio vettoriale 1
su un campo
\ \
Proprietà u, v ∈ H ⇒ u, v ∈ H ∀H ∈ H ⇒ u + v ∈ H ∀H ∈ H ⇒ u + v ∈ H.
Sottospazio H∈H H∈H
vettoriale
Lineare
dipendenza e 2 \ \
basi u∈ H⇒u∈H ∀H ∈ H ⇒ αu ∈ H ∀H ∈ H ⇒ αu ∈ H.
Operazioni tra H∈H H∈H
sottospazi
Controesempio
Si consideri lo spazio vettoriale R2 e siano considerati i seguenti sottoinsiemi:
Controesempio
Spazio vettoriale
su un campo
Lineare
dipendenza e
Osservazione
basi
Risulta HX 6= ∅, perché tra i sottospazi vettoriali c’è quello banale V .
Operazioni tra
sottospazi
Considerando la Proposizione (19), si ha la seguente definizione:
Definizione
Si definisce sottospazio generato dal sottoinsieme X l’intersezione di tutti i sottospazi
dello spazio vettoriale V contenenti X :
\
hX i = H.
H∈HX
Proposizione 20
Il sottospazio generato dal sottoinsieme X è il più piccolo sottospazio che contiene X ,
Spazio vettoriale
su un campo ovvero ogni altro sottospazio che contiene X , deve contenere il sottospazio generato da X .
Proprietà
Sottospazio Dimostrazione.
vettoriale
Lineare
Per definizione risulta che: \
dipendenza e X ⊆ hX i = H.
basi
H∈HX
Operazioni tra \
sottospazi
Si consideri T ≤ V tale che X ⊆ T . Allora T ∈ HX e dunque H ⊆ T.
H∈HX
Si considerino:
• V uno spazio vettoriale di dimensione dim V = n;
• H, T ≤ V due sottospazi vettoriali di V .
Si sa che l’unione dei due sottospazi, H ∪ T , non è un sottospazio, ma è possibile
considerare il sottospazio generato dalla suddetta unione H ∪ T , cioè hH ∪ T i.
Si consideri il sottoinsieme L = {a + b : a ∈ H, b ∈ T } caratterizzato da tutti i vettori
ottenuti come somma di un vettore di H e di un vettore di T .
Spazio vettoriale Proposizione 21
su un campo
Proprietà
Sottospazio
L ≤ V.
vettoriale
Lineare
dipendenza e Dimostrazione.
basi
Operazioni tra
Si deve dimostrare la validità delle due proprietà della definizione di sottospazio. Per ogni
sottospazi vettore u, v ∈ L, e ogni scalare α ∈ K si ha:
•
⇒ ∃a ∈ H, ∃b ∈ T : u = a + b
u, v ∈ L ⇒
⇒ ∃a0 ∈ H, ∃b 0 ∈ T : v = a0 + b 0
∈H ∈T
z }| { z }| {
⇒ u + v = (a + b) + (a + b ) = (a + a ) + (b + b 0 ) ∈ L
0 0 0
Dimostrazione.
Spazio vettoriale
su un campo •
∈H ∈T
Proprietà z}|{ z}|{
Sottospazio u ∈ L ⇒ ∃a ∈ H, ∃b ∈ T : u = a + b ⇒ αu = α(a + b) = αa + αb ∈ L
vettoriale
Lineare
dipendenza e
basi
L = hH ∪ T i.
Dimostrazione.
Bisogna dimostrare che L è il più piccolo sottospazio vettoriale contenente H ∪ T .
Dapprima si osserva per ogni vettore a ∈ H e ogni vettore b ∈ T che:
Spazio vettoriale
su un campo Dimostrazione.
Proprietà
∈H ∈T
Sottospazio z}|{ z}|{
vettoriale
a= a + 0 ∈L⇒H⊆L
Lineare
dipendenza e
⇒ H ∪ T ⊆ L.
basi b ∈L⇒T ⊆L
b = 0 + |{z}
|{z}
Operazioni tra ∈H ∈T
sottospazi
Si consideri J ≤ V tale che contenga H ∪ T :
H ∪ T ⊆ J ≤ V.
Dimostrazione.
Per ogni vettore a ∈ H e vettore b ∈ T , si ha che:
Spazio vettoriale
su un campo
Proprietà
a, b ∈ H ∪ T ⊆ J ⇒ a, b ∈ J
Sottospazio
vettoriale essendo J un sottospazio vettoriale, allora, per definizione, risulta che a + b ∈ J. Dunque
Lineare J contiene tutti vettori somma a + b :
dipendenza e
basi
a + b ∈ J ⇒ L ⊆ J.
Operazioni tra
sottospazi
Segue la dimostrazione.
Definizione
Il sottospazio generato dall’unione dei sottospazi H e T , hH ∪ T i, è chiamato
sottospazio congiungente. Per la Proposizione (22), il sottospazio congiungente è
indicato come segue:
H + T.
Le operazioni tra sottospazi vettoriali hanno conseguenze sulle rispettive dimensioni.
Siano considerati:
Spazio vettoriale
su un campo
• V uno spazio vettoriale di dimensione dim V = n;
Proprietà • H = {H : H ≤ V } la famiglia di sottospazi vettoriali dello spazio vettoriale V .
Sottospazio
vettoriale
Lineare Proposizione 23
dipendenza e
basi ∀H, T ∈ H :
Operazioni tra
sottospazi 1
H ⊆ T ⇒ dim H ≤ dim T ;
2
H ⊂ T ⇒ dim H < dim T ;
3
dim(H + T ) = dim H + dim T − dim(H ∩ T ).
Dimostrazione.
I primi due punti sono facilmente dimostrabili. Ci si concentrerà sul terzo punto. Se
Spazio vettoriale
su un campo
H ⊆ T , allora si avrà:
H ∪ T = T , H ∩ T = H.
Proprietà
Lineare dim(H + T ) = dim T dim H + dim T − dim(H ∩ T ) = dim H + dim T − dim H = dim T .
dipendenza e
basi
Operazioni tra Segue la validità della formula. Ora si supponga che nessuno dei due sottospazi vettoriali
sottospazi sia contenuto nell’altro. Indicando le dimensioni di H e T rispettivamente:
dim H = h, dim T = t
e le basi di H e T rispettivamente:
BH = {u1 , u2 , . . . , uh } , BT = {v1 , v2 , . . . , vt }
a = α1 u1 + α2 u2 + . . . + αh uh , b = β1 v1 + β2 v2 + . . . + βt vt .
α1 = α2 = . . . = αh = 0, β1 = β2 = . . . = βt = 0.
Spazio vettoriale
Sistema di generatori: si consideri un vettore v ∈ H + T , dunque
su un campo
Proprietà ∃a ∈ H, ∃b ∈ T : v = a + b.
Sottospazio
vettoriale I vettori a ∈ H e b ∈ T sono combinazione lineare dei vettori delle
Lineare rispettive basi BH e BT :
dipendenza e
basi
Operazioni tra
a = α1 u1 + α2 u2 + . . . + αh uh , b = β1 v1 + β2 v2 + . . . + βt vt .
sottospazi
Segue quindi
v = a + b = α1 u1 + α2 u2 + . . . + αh uh + β1 v1 + β2 v2 + . . . + βt vt ,
allora per la Proposizione (16), è possibile aggiungere alla base BH∩T rispettivamente:
• h − q vettori per completarla ad una base di H, BH = {e1 , e1 , . . . , eq , uq+1 , . . . , uh },
scegliendo uq+1 , . . . , uh in H − (H ∩ T );
• t − q vettori per completarla ad una base di T , BT = {e1 , e1 , . . . , eq , vq+1 , . . . , vt } ,
scegliendo vq+1 , . . . , vt in T − (H ∩ T ).
Dimostrazione.
Si dimostri che B = {e1 , e2 , . . . , eq , uq+1 , . . . , uh , vq+1 , . . . , vt } è una base di H + T .
Spazio vettoriale
su un campo Lineare indipendenza: si consideri:
Proprietà
=a =b
Sottospazio z }| { z }| {
vettoriale
α1 e1 + . . . + αq eq + αq+1 uq+1 + . . . + αh uh + βq+1 vq+1 + . . . + βt vt = 0
Lineare
dipendenza e
basi avendo posto:
Operazioni tra
sottospazi a = α1 e1 + . . . + αq eq + αq+1 uq+1 + . . . + αh uh
b = βq+1 vq+1 + . . . + βt vt .
δ1 e1 + . . . + δq eq − βq+1 vq+1 − . . . − βt vt = 0
∃a ∈ H, ∃b ∈ T : v = a + b.
Dimostrazione.
I vettori a ∈ H e b ∈ T sono combinazioni lineari dei vettori delle rispettive basi BH e BT :
Spazio vettoriale
su un campo
a = α1 e1 + . . . + αq eq + αq+1 uq+1 + . . . + αh uh ,
Proprietà
b = β1 e1 + . . . + βq eq + βq+1 vq+1 + . . . + βt vt .
Sottospazio
vettoriale
Segue quindi
Lineare
dipendenza e
basi
v =a+b =
Operazioni tra
sottospazi = α1 e1 + . . . + αq eq + αq+1 uq+1 + . . . + αh uh + β1 e1 + . . . + βq eq + βq+1 vq+1 + . . . + βt vt
= δ1 e1 + . . . + δq eq + αq+1 uq+1 + . . . + αh uh + βq+1 vq+1 + . . . + βt vt
Sottospazio
H = h(1, 0, 1), (−2, 0, −2)i, T = h(3, 0, 3)i.
vettoriale
Lineare
dipendenza e
basi • Si determini una base e la dimensione di H. Si osservi che {(1, 0, 1), (−2, 0, −2)} è
Operazioni tra un sistema di generatori per H e i due vettori sono proporzionali
sottospazi
Sottospazio
vettoriale
• Si determini una base e la dimensione di T . Si osservi che il sottospazio T é generato
Lineare
dal solo vettore (3, 0, 3) che é anche linearmente indipendente. In conclusione:
dipendenza e
basi
BT = {(3, 0, 3)}
Operazioni tra
sottospazi
e dim T = 1.
• Si determini una base e la dimensione di H ∩ T . E’ evidente che una base é (1, 0, 1)
e dim(H ∩ T ) = 1.
Spazio vettoriale
su un campo Esempio
Proprietà
Proprietà
Definizione
Sottospazio
vettoriale I sottospazi H e T sono detti supplementari se:
Lineare
dipendenza e
basi H ∩ T = {0} , H + T = V .
Operazioni tra
sottospazi
La proposizione che segue permette di costruire due sottospazi supplementari:
Proposizione 24
Sia B = {u1 , u2 , . . . , un } una base di V e siano
Sottospazio
vettoriale
⇒ v ∈ H = hu1 , . . . , ut i ⇒ v = α1 u1 + . . . + αt ut
v ∈H ∩T ⇒
Lineare
dipendenza e ⇒ v ∈ T = hut+1 , . . . , ut i ⇒ v = αt+1 ut+1 + . . . + αn un
basi
Operazioni tra
sottospazi
⇒ α1 u1 + . . . + αt ut = αt+1 ut+1 + . . . + αn un ⇒
⇒ α1 u1 + . . . + αt ut − αt+1 ut+1 − . . . − αn un = 0.
α1 = . . . = αt = αt+1 = . . . = αn = 0.
Proprietà =a =b
z }| { z }| {
Sottospazio
vettoriale
v = α1 u1 + . . . + αt ut + αt+1 ut+1 + . . . + αn un = a + b
Lineare
dipendenza e ponendo
basi
Proprietà
Sottospazio
Esempio
vettoriale
Si consideri lo spazio vettoriale R3 e sia B = {(1, 2, 0), (0, 0, 1), (1, 0, 1)} una base di R3 .
Lineare
dipendenza e Allora i due seguenti sottospazi
basi
Operazioni tra
sottospazi
H = h(1, 2, 0), (0, 0, 1)i T = h(1, 0, 1)i
sono supplementari.
Spazio vettoriale
Esempio
su un campo
Dunque il solo vettore v ∈ H ∩ T è il vettore nullo 0. Inoltre, applicando la formula di
Proprietà
Grassmann, si ha:
Sottospazio
vettoriale
Lineare
dim(H + T ) = dim H + dim T − dim(H ∩ T ) = 2 + 1 = 3 = dim R3 ⇒ H + T = R3 .
dipendenza e
basi
Operazioni tra La proposizione che segue garantisce l’inverso della proposizione precedente:
sottospazi
Proposizione 25
Siano H e T sue sottospazi vettoriali supplementari di dimensione rispettivamente
dim H = t e dim T = n − t. Se BH = {u1 , u2 , . . . , ut } è una base di H e
BT = {ut+1 , ut+2 , . . . , un } è una base di T , allora B = {u1 , u2 , . . . , ut , ut+1 , ut+2 , . . . , un }
è una base di V .
Dimostrazione.
Bisogna dimostrare che il sistema di vettori B = {u1 , u2 , . . . , ut , ut+1 , ut+2 , . . . , un } é un
Spazio vettoriale
su un campo
sistema di generatori linearmente indipendente.
Proprietà Lineare indipendenza: si considerino gli scalari α1 , α2 , . . . , αt , αt+1 , . . . , αn ∈ K tale che:
Sottospazio
vettoriale =a =b
z }| { z }| {
Lineare
dipendenza e
α1 u1 + α2 u2 + . . . + αt ut + αt+1 ut+1 + . . . + αn un = 0
basi
a = α1 u1 + . . . + αt ut , b = αt+1 ut+1 + . . . + αn un
⇓ ⇓
a∈H b∈T
a + b = 0 ⇒ a = −b.
Dimostrazione.
Spazio vettoriale
Essendo T un sottospazio, anche b ∈ T . Quindi
su un campo
Proprietà a = b ∈ H ∩ T = {0}
Sottospazio
vettoriale per ipotesi di sottospazi supplementari e si può concludere che:
Lineare
dipendenza e a = 0, b=0
basi
⇓ ⇓
Operazioni tra
sottospazi α1 u1 + . . . + αt ut = 0, αt+1 ut+1 + . . . + αn un = 0
⇓
α1 = . . . = αt =
= αt+1 = . . . = αn = 0
⇓
B = {u1 , . . . , ut , ut+1 , . . . , un }
linearmente indipendenti.
Dimostrazione.
Spazio vettoriale Sistema di generatori: si consideri un generico vettore v ∈ V . Per ipotesi di sottospazi
su un campo supplementari si ha V = H + T e dunque:
Proprietà
Sottospazio ∃a ∈ H ∃b ∈ T : v = a + b.
vettoriale
Operazioni tra
a = α1 u1 + . . . + αt ut , b = αt+1 ut+1 + . . . + αn un .
sottospazi
v = α1 u1 + . . . + αt ut + αt+1 ut+1 + . . . + αn un
Lineare
dipendenza e
basi
Proposizione 27
Operazioni tra Se H e T sono due sottospazi vettoriali supplementari di V allora:
sottospazi
∀v ∈ V ∃!a ∈ H ∃!b ∈ T : v = a + b.
Dimostrazione.
Si supponga che esistano i vettori a0 ∈ H e b 0 ∈ T tale che v = a0 + b 0 . Allora:
a + b = v = a0 + b 0 ⇒ a − a0 = b 0 − b ⇒ a − a0 , b 0 − b ∈ H ∩ T .
Spazio vettoriale
su un campo
Proprietà
Sottospazio
vettoriale
Dimostrazione.
Lineare Per ipotesi di sottospazi supplementari, cioé H ∩ T = {0} , si avrà:
dipendenza e
basi
a − a0 = 0 e b 0 − b = 0 ⇒ a = a0 e b = b 0 .
Operazioni tra
sottospazi
Spazio vettoriale Si considerino:
su un campo
Dimostrazione.
Bisogna dimostrare che det P = 6 0. Il sottospazio generato hu10 , u20 , . . . , un0 i di V ha
dimensione pari al rango della matrice P. Poiché i vettori u10 , u20 , . . . , un0 costituiscono una
base, allora
dim(hu10 , u20 , . . . , un0 i) = n ⇒ ρ(P) = n ⇒ det P = 6 0.
Proposizione 29
Spazio vettoriale
su un campo Se la matrice P è la matrice di passaggio dalla base B alla base B 0 , allora la sua inversa
Proprietà P −1 è la matrice di passaggio dalla base B 0 alla base B.
Sottospazio
vettoriale
Lineare
Dimostrazione.
dipendenza e
basi
Poiché P è la matrice di passaggio dalla base B alla base B 0 , allora:
Operazioni tra
sottospazi (u10 , u20 , . . . , un0 ) = (u1 , u2 , . . . , un )P.
Proprietà
Sottospazio
Osservazione
vettoriale
Sia B = {e1 , e2 , . . . , en } la base canonica dello spazio vettoriale Kn e
Lineare
dipendenza e B 0 = {u1 , u2 , . . . , un } una base dello spazio vettoriale Kn . Allora la matrice di passaggio P
basi avrà come colonne i vettori u1 , u2 , . . . , un ;
Operazioni tra
sottospazi
P = u1 u2 . . . un
Matrici
A = (aij )
Rango di una
j = 1, 2, . . . , n.
matrice
prodotto per uno scalare: λA = λ(aij ) = (λaij ), con λ ∈ K e i = 1, 2, . . . , m e
j = 1, 2, . . . , n.
Esempio
2 −1 1 −1 3 −2 1 0 3 0
+ = , 3· =
−2 0 1 0 −1 0 −1 2 −3 6
La matrice di tipo m × n cosı̀ caratterizzata:
Matrici 0 0 ... 0
Determinante di 0 0 ... 0
una matrice 0=
. . . . . . . . . . . .
Inversa di una
matrice
0 0 ... 0
Rango di una
matrice
è chiamata matrice nulla ed è l’elemento neutro rispetto all’operazione di
somma, ovvero:
A + 0 = A = 0 + A.
Inoltre, presa una matrice A = (aij ) ∈ Mm,n (K), la matrice i cui elementi sono
−aij , con i = 1, 2, . . . , m e j = 1, 2, . . . , n, è chiamata matrice opposta. Essa è
denotata con −A ed è tale che:
A + (−A) = 0 = (−A) + A
Le due operazioni cosı̀ definite soddisfano le proprietà della definizione di spazio
vettoriale, cosicché si può concludere che l’insieme Mm,n (K) è uno spazio
Matrici vettoriale.
Determinante di
una matrice Definizione
Inversa di una
matrice
Mm,n (K) è chiamato spazio vettoriale delle matrici di tipo m × n. Inoltre la sua
Rango di una
dimensione è dim Mm,n (K) = mn.
matrice
con h = 1, 2, . . . , m e k = 1, 2, . . . , p.
Esempio
1 2 0 1 0
Matrici Siano A = ∈ M2,2 (R) e B = ∈ M2,3 (R), allora:
Determinante di
0 3 1 1 −1
una matrice
Inversa di una 1 · 0 + 2 · 1 1 · 1 + 2 · 1 1 · 0 + 2 · (−1) 2 3 −2
matrice A·B = =
Rango di una
0 · 0 + 3 · 1 0 · 1 + 3 · 1 0 · 0 + 3 · (−1) 3 3 −3
matrice
A · (B · C ) = (A · B) · C
con A ∈ Mm,n (K), B ∈ Mn,p (K) e C ∈ Mp,q (K). Inoltre l’operazione di prodotto
tra matrici non gode della proprietà commutativa. Infatti se si considera
l’esempio precedente è stato svolto il prodotto A · B, ma non è possibile eseguire il
prodotto B · A, poiché il numero delle colonne della matrice B non coincide con il
numero delle righe della matrice A.
Data una matrice A ∈ Mm,n (K) del tipo m × n:
Matrici
Determinante di a11 a12 . . . a1n
una matrice
a21 a22 . . . a2n
Inversa di una A=
... ...
matrice ... ...
Rango di una am1 am2 . . . amn
matrice
Definizione
Le matrici dell’insieme Mn,n (K) sono dette matrici quadrate di ordine n, i cui
elementi sono scalari del campo K. L’insieme Mn,n (K) si denota con Mn (K).
Inoltre gli elementi aii , con i = 1, 2, . . . , n, sono detti elementi che formano la
diagonale principale della matrice.
Nell’insieme Mn (K) è possibile definire la seguente matrice:
Matrici
Determinante di 1 0 ... 0
una matrice
0 1 ... 0
Inversa di una In = . . .
matrice . . . . . . . . .
Rango di una
matrice
0 0 ... 1
Definizione
Una matrice A ∈ Mn (K) è detta essere invertibile, se esiste una matrice
B ∈ Mn (K), tale che:
A · B = In = B · A.
Determinante di una matrice
Sia considerato ora n > 2 e sia A = (aij ) ∈ Mn (K). Si fissi l’elemento ahk ,
ottenuto dall’incrocio dell’h−sima riga e la k−sima colonna della matrice.
Definizione
Si definisce minore complementare dell’elemento ahk , il determinante della
Matrici
matrice Ahk , ottenuta dalla matrice A, eliminando l’h−sima riga e la k−sima
Determinante di
una matrice colonna.
Inversa di una Lo scalare Γhk = (−1)h+k |Ahk | è detto complemento algebrico dell’elemento
matrice
ahk .
Rango di una
matrice
Segue il teorema che enuncia lo sviluppo di Laplace per righe, per il calcolo del
determinante della matrice:
Teorema 3
Pn
Per ogni indice 1 ≤ i ≤ n fissato, si ha: |A| = j=1 aij Γij .
Segue il teorema che enuncia lo sviluppo di Laplace per colonne, per il calcolo del
determinante della matrice:
Teorema 4
Pn
Per ogni indice 1 ≤ j ≤ n fissato, si ha: |A| = i=1 aij Γij .
Esempio
Sia considerata la seguente matrice di M3 (R) :
Matrici
Determinante di
una matrice 1 0 1
Inversa di una A = 2 1 −1
matrice
0 2 −1
Rango di una
matrice
Si decide di seguire lo sviluppo di Laplace per righe, fissando, per esempio, la
prima riga:
1 −1 2 −1 2 1
|A| = 1 ·
−0· +1·
2 −1 0 −1 0 2
Calcolando il determinante delle matrici di ordine 2, come visto sopra, si ha:
Determinante di
una matrice
1 0 1 0 1 −1
Inversa di una |A| = 1 · 2 1 1 − 1 · 1 0 1
matrice 0 1 −2 2 1 1
Rango di una
matrice
Sviluppando i determinanti delle matrici di ordine 3, ovviamente, scegliendo quella
riga o quella colonna più conveniente per i calcoli, si ha:
1 1 0 1 1 1 1 0
|A| = 1 · 1 ·
−2· − 1 · −1 · −1·
=
1 −2 1 −2 2 1 2 1
Esempio
Sia considerata la seguente matrice di ordine 3:
1 2 1
A = 0 2 1 .
0 1 0
Matrici
Determinante di
una matrice Esempio
Inversa di una
matrice
Rango di una
matrice 1 2 1 1 2
0 2 1 0 2 = (1 · 2 · 0) + (2 · 1 · 0) + (1 · 0 · 1) − (1 · 2 · 0) − (1 · 1 · 1) − (2 · 0 · 0) =
0 1 0 0 1
= 0 + 0 + 0 − 0 − 1 − 0 = −1.
Inversa di una matrice
Matrici
Sia A = (aij ) ∈ Mn (R) una matrice quadrata di ordine n a scalari reali. Si
Determinante di consideri la matrice quadrata di ordine n ottenuta dalla matrice A sostituendo
una matrice
l’elemento aij con il suo complemento algebrico Γij :
Inversa di una
matrice
Rango di una
A∗ = (Γij ) ∈ Mn (R).
matrice
A invertibile ⇔ det A 6= 0
Inoltre A−1 = 1 ∗ t
det A (A ) .
Esempio
Matrici
Sia data la seguente matrice:
Determinante di
una matrice
Inversa di una
3 1 5
matrice A = 0 4 1 .
Rango di una
matrice
2 3 1
Determinante di
una matrice
Esempio
Inversa di una
matrice
• Abbiamo determinato l’inversa della matrice A, A−1 :
Rango di una
matrice 1
− 35 − 52 19
35
A−1 = − 35 2 1
5
3
35
8 1
35 5 − 12
35
Rango di una matrice
Sia considerata una matrice A ∈ Mm,n (K), con K campo:
Matrici
a11 a12 · · · a1n
Determinante di
una matrice
a21 a22 · · · a2n
A=
··· ···
.
Inversa di una ··· ···
matrice
am1 am2 · · · amn
Rango di una
matrice
Si indichino rispettivamente:
a11 a12 ··· a1n ... ai1 ai2 ··· ain ... am1 am2 · · · amn
• | {z } | {z } | {z } le
r1 ri rm
m righe della matrice;
a11 a1i a1n
a21 a2i a2n
• c1 = . · · · ci = .
··· cn = . le n colonne della matrice.
.. .. .
.
am1 ami amn
Si supponga di aver individuato nella matrice p sue righe (per semplicità le prime
Matrici
p righe) con le seguenti proprietà:
Determinante di
una matrice
Rango di una
2 ogni altra riga è combinazione lineare di r1 , r2 . . . rp
matrice
Rango di una
2 ogni altra colonna è combinazione lineare di c1 , c2 . . . cs
matrice
La prima riga di H sarà costituita dagli elementi della riga ri1 che occupano i posti
j1 , . . . , jh ; la seconda riga sarà costituita dagli elementi della riga ri2 che occupano
i posti j1 , . . . , jh ; l’ultima riga di H sarà costituita dagli elementi della riga rih che
occupano i posti j1 , . . . , jh .
Quindi
ai1 j1 ai1 j2 · · · ai1 jh
Matrici
ai2 j1 ai2 j2 · · · ai2 jh
H=
···
Determinante di ··· ··· ···
una matrice
aih j1 aih j2 · · · aih jh
Inversa di una
matrice
Rango di una
Esempio
matrice
Sia A la seguente matrice
1 2 5 1 0
A = 3 3 2 0 4 .
1 0 3 4 2
Sia H il minore di ordine h scegliendo le righe ri1 , . . . , rih e le colonne cj1 , . . . , cjh
della matrice A:
ai1 j1 ai1 j2 . . . ai1 jh
ai2 j1 ai2 j2 . . . ai2 jh
H= ···
··· ··· ···
aih j1 aih j2 · · · aih jh
Si fissi una riga della matrice A, ri con i 6= i1 , . . . , ih e una colonna della matrice
A, cj con j 6= j1 , . . . , jh .
Definizione
Un orlato del minore H è il minore Hij d’ordine h + 1, ottenuto scegliendo le righe
Matrici
ri1 , . . . , rih , ri e le colonne cj1 , . . . , cjh , cj della matrice A:
Determinante di
una matrice
Inversa di una ai1 j1 ai1 j2 . . . ai1 jh ai1 j
matrice
ai2 j1 ai2 j2 . . . ai2 jh ai2 j
Rango di una
matrice
···
Hij = ··· ··· ··· · · ·
ai j
h 1
aih j2 · · · aih jh aih j
aij1 aij2 · · · aijh aij
Esempio
Sia A la seguente matrice:
1 2 5 1 0
A = 3 3 2 0 4 .
1 0 3 4 2
Matrici Esempio
Determinante di
una matrice Sia preso il minore di ordine 2:
Inversa di una
matrice
1 0
Rango di una H= .
matrice 4 2
Determinante di
una matrice 2 0 1 2
Inversa di una A = 1 −1 0 2 .
matrice
0 2 1 −2
Rango di una
matrice
Poiché è una matrice A ∈ M3,4 (R) non nulla, allora
Determinante di
una matrice riga e la 3◦ colonna della matrice, ottenendo il minore d’ordine 3:
Inversa di una
matrice
2 0 1
Rango di una
matrice H33 = 1 −1 0 .
0 2 1
Risulta che det H33 = 0 e quindi si dovrà di nuovo orlare il minore H22 ,
aggiungendo la 3◦ riga e la 4◦ colonna della matrice, ottenendo il minore d’ordine
3:
2 0 2
H34 = 1 −1 2 .
0 2 −2
Esempio
Matrici
Risulta che det H34 = 0 e, poiché non è possibile più orlare, allora si avrà:
Determinante di
una matrice
Inversa di una
vi è un minore d’ordine 2 con determinante non nullo e tutti i possibili suoi
matrice orlati, dunque minori d’ordine 3, hanno determinante nullo.
Rango di una
matrice
Si può concludere che ρ(A) = 2.
Per il Teorema (7) ci sono 2 righe (colonne) della matrice A linearmente
indipendenti e ogni altra riga (colonna) della matrice è una loro combinazione
lineare. Infatti, poiché det H22 6= 0, la 1◦ e la 2◦ riga della matrice sono
linearmente indipendenti e la 3◦ riga è una loro combinazione lineare:
0 2 1 −2 = 2 0 1 2 − 2 1 −1 0 2
Sistemi di
equazioni lineari
Un sistema di equazioni lineari è un sistema del tipo:
Criterio di
compatibilità
Regola di
a11 x1 + a12 x2 + · · · + a1n xn = c1
Cramer
a x + a x + · · · + a x = c
21 1 22 2 2n n 2
Analisi delle
soluzioni
S:
·········
Sistemi
omogenei
a x + a x + · · · + a x = c
m1 1 m2 2 mn n m
Criterio di
compatibilità
a11 a12 · · · a1n c1
Regola di
a a22 · · · a2n c2
• A0 = 21
Cramer ∈ Mm,(n+1) (K) la matrice dei coefficienti
Analisi delle
··· ··· ··· ···
soluzioni
am1 am2 · · · amn cm
Sistemi
omogenei con l’aggiunta dei termini noti come ultima colonna, detta matrice
completa.
Si indichino le n colonne della matrice A con
Sistemi di
equazioni lineari a11 a12 a1n
a21 a22 a2n
Criterio di
compatibilità A1 = 2 n
··· A = ··· ··· A = ···
Regola di
Cramer am1 am2 amn
Analisi delle
soluzioni Il sistema S può essere scritto in forma vettoriale:
Sistemi
omogenei
A1 x1 + A2 x2 + · · · + An xn = C
Se y1 , y2 , · · · , yn è una soluzione del sistema, allora il vettore C dei termini
noti è combinazione lineare dei vettori A1 , A2 , · · · , An .
Sistemi di
equazioni lineari
Criterio di
compatibilità
Regola di
Se il vettore C dei termini noti è combinazione lineare dei vettori A1 , A2 , · · · , An
Cramer colonne di A
Analisi delle
soluzioni
A1 y1 + A2 y2 + · · · + An yn = C
Sistemi
omogenei
allora y1 , y2 , · · · , yn è una soluzione del sistema .
Ci sono tante soluzioni quanti sono i modi in cui C si può ottenere come
combinazione lineare dei vettori A1 , A2 , · · · , An .
Sistemi di
equazioni lineari
Proposizione 1
Criterio di
compatibilità
Il sistema
Regola di
Cramer
a11 x1 + a12 x2 + · · · + a1n xn = c1
a x + a x + · · · + a x = c
Analisi delle
21 1 22 2 2n n 2
soluzioni S:
Sistemi
· · · · · · · · ·
omogenei
a x + a x + · · · + a x = c
m1 1 m2 2 mn n m
Criterio di
compatibilità
Regola di
Dimostrazione.
Cramer
Conclusione: Dunque ogni colonna della matrice A0 dipende linearmente dalle
Analisi delle
soluzioni colonne Aj1 , Aj2 , . . . , Ajp e, dato che sono colonne indipendenti nella matrice A,
Sistemi sono indipendenti anche nella matrice A0 . Si può concludere che il rango della
omogenei
matrice A0 è ρ(A0 ) = p = ρ(A).
Regola di Cramer
Sistemi di
equazioni lineari Si consideri il seguente sistema di equazioni lineari
Criterio di
compatibilità
a11 x1 + a12 x2 + · · · + a1n xn = c1
Regola di
a x + a x + · · · + a x = c
Cramer 21 1 22 2 2n n 2
S:
Analisi delle
soluzioni
·········
a x + a x + · · · + a x = c
Sistemi n1 1 n2 2 nn n n
omogenei
Criterio di
compatibilità Se risulta det A 6= 0 allora il sistema ha soluzioni perché ρ = ρ0 = n [Proposizione
Regola di 2]. In particolare il sistema ha una sola soluzione.
Cramer
Analisi delle
soluzioni
Infatti, scrivendo il sistema S in forma matriciale AX = C , nell’ipotesi che
Sistemi
det A 6= 0, la matrice A ammette inversa, A−1 . Dunque:
omogenei
Sistemi
omogenei
Osservazione
Le matrici A e B i differiscono solo nella i−sima colonna, allora i complementi
algebrici degli elementi dell’i−sima colonna di B i sono eguali ai complementi
algebrici degli elementi dell’i−sima colonna di A.
Criterio di
compatibilità
a11 x1 + a12 x2 + · · · + a1n xn = c1
Regola di
a x + a x + · · · + a x = c
Cramer 21 1 22 2 2n n 2
S:
Analisi delle
·········
soluzioni
a x + a x + · · · + a x = c
Sistemi n1 1 n2 2 nn n n
omogenei
Regola di
Cramer 4 1 1
Analisi delle x = 18 det 2 −1 1 = 16 8 =2
soluzioni
0 1 −3
Sistemi
omogenei 1 4 1
y = 8 det 1 2 1 = 88 = 1
1
1 0 −3
1 1 4
1
z = 8 det 1 −1 2 = 88 = 1
1 1 0
Analisi delle soluzioni
Si consideri il seguente sistema di equazioni lineari:
Sistemi di a11 x1 + a12 x2 + · · · + a1n xn + c1 = 0
equazioni lineari
a21 x1 + a22 x2 + · · · + a2n xn + c2 = 0
Criterio di
compatibilità
S : ········· .
Regola di
Cramer am1 x1 + am2 x2 + · · · + amn xn + cm = 0
Analisi delle
α1 x1 + α2 x2 + · · · + αn xn + α = 0
soluzioni
Sistemi
omogenei
Si supponga che una delle equazioni di S, α1 x1 + α2 x2 + · · · + αn xn + α = 0, sia
combinazione lineare di tutte le altre:
α1 x1 + α2 x2 + · · · + αn xn + α =λ1 (a11 x1 + a12 x2 + · · · + a1n xn + c1 )+
λ2 (a21 x1 + a22 x2 + · · · + a2n xn + c2 ) + · · ·
· · · + λm (am1 x1 + am2 x2 + · · · + amn xn + cm )
(3)
Si consideri il sistema
Sistemi di
equazioni lineari
a11 x1 + a12 x2 + · · · + a1n xn + c1 = 0
Criterio di
a x + a x + · · · + a x + c = 0
21 1 22 2 2n n 2
compatibilità
S0 :
Regola di
·········
Cramer
a x + a x + · · · + a x + c = 0
Analisi delle m1 1 m2 2 mn n m
soluzioni
è soluzione di S 0
y1 , y2 , · · · , yn è soluzione di S ⇔ y1 , y2 , · · · , yn
Sistemi di
Per determinare le soluzioni di un sistema S compatibile, ci si può limitare
equazioni lineari a considerare solo quelle equazioni di S che siano indipendenti e tali che
Criterio di
compatibilità
ogni altra equazione sia una loro combinazione lineare.
Regola di
Cramer
Sia assegnato un sistema compatibile:
Analisi delle
soluzioni
Sistemi
a11 x1 + a12 x2 + · · · + a1n xn + c1 = 0
omogenei
a x + a x + · · · + a x + c = 0
21 1 22 2 2n n 2
S:
· · · · · · · · ·
a x + a x + · · · + a x + c = 0
m1 1 m2 2 mn n m
ha rango ρ.
Vi è una sottomatrice quadrata H di ordine ρ con det H 6= 0 corrispondente a ρ
Sistemi di
equazioni lineari colonne indipendenti di A.
Criterio di
compatibilità
Regola di
Cramer
Analisi delle
Per semplicità, si supponga che siano le prime ρ colonne di A a determinare con le
soluzioni sue ρ righe tale sottomatrice H :
Sistemi
omogenei
a11 a12 · · · a1ρ a1ρ+1 · · · a1n
a21 a22 · · · a2ρ a2ρ+1 · · · a2n
A = ··· ··· ··· ···
· · · · · · · · ·
aρ1 aρ2 · · · aρρ aρρ+1 · · · aρn
| {z }
H
Si assegnino alle incognite xρ+1 , xρ+2 , · · · , xn i valori
Sistemi di yρ+1 , yρ+2 , · · · , yn . Il sistema S assume la seguente forma:
equazioni lineari
Criterio di
compatibilità
a11 x1 + a12 x2 + · · · + a1ρ xρ = −a1ρ+1 yρ+1 − · · · − a1n yn − c1
a x + a x + · · · + a x = −a
2ρ+1 yρ+1 − · · · − a2n yn − c2
Regola di
21 1 22 2 2ρ ρ
Cramer
S0 : .
Analisi delle
···
soluzioni
a x + a x + · · · + a x = −a
Sistemi ρ1 1 ρ2 2 ρρ ρ ρρ+1 yρ+1 − · · · − aρn yn − cρ
omogenei
La n−pla ζ = y1 , y2 , · · · yρ , yρ+1 , · · · , yn è una soluzione del sistema S.
I primi ρ valori della soluzione ζ sono determinati dai valori yρ+1 , · · · , yn che ζ
Sistemi di ha nei suoi ultimi n − ρ posti. Quindi si ha:
equazioni lineari
Criterio di
compatibilità
Regola di
• due soluzioni ζ e η che abbiano eguali i valori di posto ρ + 1, ρ + 2, · · · , n
Cramer
coincidono;
Analisi delle
soluzioni • indicando con Σ l’insieme delle soluzioni del sistema S, la funzione
Sistemi
è biettiva.
Per la biettività di f , si ha |Kn−ρ | = |Σ| e cioè le soluzioni del sistema S sono
tante quante le (n − ρ)−ple ordinate di elementi di K. Se K è infinito si dice che il
sistema S ha ∞n−ρ soluzioni.
Esempio
Si lavori nel campo dei numeri reali K = R. Risolvere il seguente sistema lineare:
Sistemi di
equazioni lineari
Criterio di
compatibilità
x + 2y + z = 2
Regola di
S : 3x + y + 2z = 0
Cramer
4x + 3y + 3z = 2
Analisi delle
soluzioni
Criterio di
• Vi sono due equazioni linearmente indipendenti che sono le due equazioni
compatibilità corrispondenti alle righe coinvolte nel minore H.
Regola di
Cramer • Vi è una sola incognita che è parametro del sistema ed è l’incognita
Analisi delle corrispondente alla colonna NON coinvolta nel minore H.
soluzioni
Criterio di
ha det H = −5. Applicando la [Proposizione 3], si ha:
compatibilità
2 − t 2
Regola di
Cramer
−2t 1
Analisi delle
soluzioni
x = −5 = − 2+3t 5
1 2 − t
Sistemi
omogenei
3
−2t
y= −5 = − t−6
5
z =t
Σ = − 2+3t t−6
5 , − 5 , t , t∈R
Sistemi omogenei
Sistemi
omogenei é detto sistema omogeneo.
rango ρ.
• se ρ = n, il sistema S ammette solo la soluzione banale 0, 0, · · · 0 .
Si supponga ρ < n in modo che il sistema S omogeneo ammetta |K|n−ρ soluzioni
e si denoti con Σ l’insieme delle soluzioni del sistema S.
Sistemi di
equazioni lineari
Proposizione 4
Criterio di
compatibilità
L’insieme Σ delle soluzioni di S è un sottospazio di Kn di dimensione n − ρ.
Regola di
Cramer
Sistemi
Si scriva il sistema omogeneo S in forma matriciale:
omogenei
AX = 0
e si indichi con
Σ = {Y ∈ Kn : AY = 0}
l’insieme delle soluzioni del sistema S. Siano Y , Z ∈ Σ, cioè sono due soluzioni
del sistema S: AY = 0 e AZ = 0.
Dimostrazione.
Sistemi di
equazioni lineari Dunque
Criterio di
compatibilità
A(Y + Z ) = AY + AZ = 0 + 0 = 0 ⇒ A(Y + Z ) = 0 ⇒ Y + Z ∈ Σ.
Regola di
Cramer
Analisi delle Sia Y ∈ Σ una soluzione del sistema S e λ ∈ K uno scalare, si ha:
soluzioni
Sistemi
omogenei
A(λY ) = λAY = λ0 = 0 ⇒ A(λY ) = 0 ⇒ λY ∈ Σ.
Sistemi ζ = (.|. . . . {z
. . . . . .}., yρ+1 , yρ+2 , . . . , yn ).
omogenei | {z }
ρ n−ρ
Ne consegue ζ = Y .
Conclusione: Il sistema {ζρ+1 , ζρ+2 , . . . , ζn } è un sistema di n − ρ vettori
linearmente indipendenti ed un sistema di generatori per lo spazio Σ. Dunque
{ζρ+1 , ζρ+2 , . . . , ζn } é una base per lo spazio delle soluzioni Σ e dunque la
dimensione di Σ è dim Σ = n − ρ.
Sistemi di
equazioni lineari Esempio
Criterio di
compatibilità Risolvere il seguente sistema lineare omogeneo:
Regola di (
Cramer
2x + y + z + 2t = 0
Analisi delle S: .
soluzioni x +y +z +t =0
Sistemi
omogenei
La matrice di tale sistema è
2 1 1 2
A=
1 1 1 1
Sistemi di
equazioni lineari Esempio
Criterio di
2 1
compatibilità
La matrice A ha rango ρ = 2, poiché la sottomatrice di ordine 2, H = ha
Regola di 1 1
Cramer
det H = 1 6= 0. Allora:
Analisi delle
soluzioni
lo spazio delle soluzioni Σ è un sottospazio di R4 di
Sistemi
omogenei dim Σ = n − ρ = 4 − 2 = 2
Bisogna determinare una base di Σ, i cui elementi sono ottenuti assegnando alle
incognite z e t (le incognite che corrispondono alle colonne non coinvolte nel
minore H), una prima volta i valori z = 1 e t = 0 e successivamente z = 0 e t = 1
Sistemi di
equazioni lineari
Criterio di
Esempio
compatibilità
Sistemi
omogenei
Applicando la [Proposizione 3], si trova x = −1 e y = 0.
La seconda soluzione di S è ζ2 = −1, 0, 0, 1
Criterio di
compatibilità AX = C , AX = 0 .
Regola di
Cramer
Si indichino:
Analisi delle
soluzioni • Σ è l’insieme delle soluzioni del sistema S;
Sistemi
omogenei
• Σ0 è il sottospazio delle soluzioni del sistema omogeneo S0 associato.
Si ha:
ζ ∈ Σ ⇒ Aζ = C
⇒ A(ζ + η) = Aζ + Aη = C + 0 = C ⇒ ζ + η ∈ Σ.
η ∈ Σ0 ⇒ Aη = 0
f (0V ) = 0W .
Dimostrazione.
Si consideri il vettore v ∈ V , allora:
∈W
z }| {
f (v ) = f (v + 0V ) = f (v ) + f (0V ) ⇒ f (0V ) = 0W
Per comodità si denoteranno i vettori nulli dei rispettivi spazi vettoriali V e W come
segue: 0V = 0W = 0.
Definizione
Sia f : V → W un’applicazione lineare tra i due spazi vettoriali, allora:
Applicazioni
lineari • se l’applicazione f è iniettiva, essa è chiamata monomorfismo;
Matrice
associata • se l’applicazione f è suriettiva, essa è chiamata epimorfismo;
• se l’applicazione f è biettiva, essa è chiamata isomorfismo.
Esempio
Sia V uno spazio vettoriale sul campo K di dimensione n e si consideri una base
ordinata( cioè un riferimento) di V :
B = {u1 , u2 , . . . , un } .
∃!α1 , α2 , . . . , αn ∈ K : v = α1 u1 + α2 u2 + . . . + αn un .
Esempio
Applicazioni La n-upla di scalari, (α1 , α2 , . . . , αn ) ∈ Kn , univocamente determinata per
lineari
esprimere la combinazione lineare del vettore v ∈ V rispetto alla base B, è detta
Matrice
associata n-upla delle coordinate del vettore v rispetto alla base assegnata. Si può
costruire la seguente funzione:
f: V −→ Kn
v −→ (α1 , α2 , . . . , αn ).
f (v ) = (α1 , α2 , . . . , αn )
⇒ f (v ) + f (w ) = (α1 + β1 , α2 + β2 , . . . , αn + βn )
f (w ) = (β1 , β2 , . . . , βn )
Esempio
Inoltre risulta che
Applicazioni
lineari
quindi si ha:
f (v + w ) = (α1 + β1 , . . . , αn + βn ) = f (v ) + f (w ).
Esempio
Si considerino:
• V uno spazio vettoriale di dimensione n;
• W uno spazio vettoriale di dimensione m;
• Z un spazio vettoriale di dimenzione r ;
• f : V → W un’applicazione lineare;
• g : W → Z un’applicazione lineare;
Esempio
L’applicazione lineare composta
Applicazioni
lineari
Matrice g ◦f : V →Z
associata
Matrice
• V uno spazio vettoriale sul campo K di dimensione n;
associata
• B = {e1 , e2 , . . . , en } una base di V ;
• W uno spazio vettoriale sul campo K di dimensione m;
• f : V → W un’applicazione lineare.
Una proprietà notevole delle applicazioni lineari é data dal seguente teorema:
Teorema 3
L’applicazione lineare f è determinata quando si conoscano i valori che essa
assume sulla base B di V , ovvero se sono noti f (e1 ), f (e2 ), . . . , f (en ).
Dimostrazione.
Preso un generico vettore v ∈ V , poiché B è una base di V , allora
Applicazioni
lineari
Matrice
∃!α1 , α2 , . . . , αn ∈ Kn : v = α1 e1 + α2 e2 + . . . + αn en .
associata
Segue l’asserto.
Seguiranno proposizioni importanti che caratterizzano le applicazioni lineari:
Proposizione 4
L’applicazione lineare f trasforma vettori dipendenti di V in vettori dipendenti di
W.
Dimostrazione.
Applicazioni
lineari
Si considerino v1 , v2 , . . . , vh , h vettori dipendenti di V , quindi esisteranno degli
Matrice
scalari α1 , α2 , . . . , αh non tutti nulli tale che:
associata
α1 v1 + α2 v2 + . . . + αh vh = 0.
f (α1 v1 + α2 v2 + . . . + αh vh ) = f (0)
⇓
α1 f (v1 ) + α2 f (v2 ) + . . . + αh f (vh ) = 0
cioé si ha una combinazione lineare dei vettori f (v1 ), f (v2 ), . . . , f (vh ), a scalari
non tutti nulli, che esprime il vettore nullo 0. Dunque i vettori
f (v1 ), f (v2 ), . . . , f (vh ) sono linearmente dipendenti in W .
Proposizione 5
Se f è un monomorfismo, allora trasforma vettori indipendenti di V in vettori
Applicazioni
lineari indipendenti di W .
Matrice
associata
Dimostrazione.
Siano v1 , v2 , . . . , vh , h vettori linearmente indipendenti di V . Si vuole dimostrare
che i vettori f (v1 ), f (v2 ), . . . , f (vh ) sono vettori linearmente indipendenti di W . In
particolare si vuole dimostrare che la seguente combinazione lineare:
Matrice
associata α1 v1 + α2 v2 + . . . + αh vh = 0.
Poiché v1 , v2 , . . . , vh sono vettori linearmente indipendenti, segue che gli scalari
α1 , α2 , . . . , αh sono tutti nulli.
ker f = {v ∈ V : f (v ) = 0} ⊆ V .
=f = {f (v ) : v ∈ V } ⊆ W .
Dimostrazione.
⇒) Se v ∈ V − {0} è un vettore non nullo, allora, per l’iniettività si ha
f (v ) 6= f (0) = 0. Dunque l’unico vettore presente nel nucleo
dell’applicazione f è il vettore nullo.
⇐) Siano considerati due vettori v , v 0 ∈ V tali che f (v ) = f (v 0 ). Si
dimostri che v = v 0 . Infatti segue che:
f (v ) = f (v 0 ) ⇒ f (v ) − f (v 0 ) = 0 ⇒ f (v − v 0 ) = 0 ⇒ v − v 0 ∈ ker f .
Dimostrazione.
Per ipotesi il solo vettore presente nel nucleo dell’applicazione lineare è il vettore
Applicazioni
lineari nullo, quindi
Matrice v − v 0 = 0 ⇒ v = v 0.
associata
Proposizione 8
Data un’applicazione lineare f : V → W , allora:
f epimorfismo ⇔ =f = W .
Dimostrazione.
⇒) Già è noto che =f ⊆ W , quindi è necessario dimostrare che
W ⊆ =f . Si consideri un vettore w ∈ W . Per definizione di
suriettività, esiste un vettore v ∈ V tale che f (v ) = w , cioé w ∈ =f .
Dimostrazione.
Applicazioni
lineari Si consideri un vettore w ∈ W , e bisogna dimostrare che esiste un vettore v ∈ V
Matrice tale che f (v ) = w . Per ipotesi W = =f , quindi w ∈ =f , cioé esiste un vettore
associata
v ∈ V tale che f (v ) = w .
Si considerino:
• V uno spazio vettoriale sul campo K;
• e1 , e2 , . . . , en un sistema di generatori di V ;
• W uno spazio vettoriale sul campo K;
Proposizione 9
Sia f : V → W un’applicazione lineare. Allora f (e1 ), f (e2 ), . . . , f (en ) è un sistema
di generatori di =f .
Dimostrazione.
Applicazioni
Si consideri un vettore w ∈ =f . Allora esiste un vettore v ∈ V tale che f (v ) = w .
lineari Poiché V = he1 , e2 , . . . , en i, segue che:
Matrice
associata
∃α1 , α2 , . . . , αn ∈ K : v = α1 e1 + α2 e2 + . . . + αn en .
Allora:
Corollario 10
Sia f : V → W un isomorfismo e B = {e1 , e2 , . . . , en } una base di V . Allora
B 0 = {f (e1 ), f (e2 ), . . . , f (en )} è una base di W .
Dimostrazione.
Per il Corollario (6), un isomorfismo trasforma un sistema di vettori linearmente
Applicazioni
lineari indipendenti di V in un sistema di vettori linearmente indipendenti di W , quindi
Matrice f (e1 ), f (e2 ), . . . , f (en ) sono linearmente indipendenti. Inoltre, per la Proposizione
associata
(9), l’applicazione lineare f trasforma un sistema di generatori V in un sistema di
generatori di =f , che, poiché f è in particolare un epimorfismo, è un sistema di
generatori di W .
Siano:
• V uno spazio vettoriale sul campo K di dimensione dim V = n;
• W uno spazio vettoriale sul campo K;
• f : V → W un’applicazione lineare.
Teorema 11 (Teorema della dimensione)
Siano ker f e =f rispettivamente il nucleo e l’immagine dell’applicazione lineare.
Allora: dim ker f + dim =f = n.
Dimostrazione.
Si consideri il nucleo dell’applicazione f , ker f . Se esso fosse un sottospazio banale
Applicazioni
lineari di V , allora:
Matrice
associata
ker f = {0} : dim ker f = 0 e dim =f = n;
ker f = V : ogni vettore v ∈ V ha immagine nulla f (v ) = 0 e quindi =f = {0},
ovvero dim =f = 0.
In entrambi i casi analizzati, segue la validità della formula.
Si suppoga che ker f sia un sottospazio proprio di V , ker f < V , e che abbia
dimensione dim ker f = m < n. Si consideri una sua base:
Bker f = {e1 , e2 , . . . , em }
BV = {e1 , e2 , . . . , em , vm+1 , . . . , vn } .
Dimostrazione.
Si dimostrerà che il sistema di vettori B = {f (vm+1 ), . . . , f (vn )} è una base per
Applicazioni
lineari =f .
Matrice
associata
Lineare indipendenza: si consideri la combinazione lineare:
αm+1 vm+1 + . . . + αn vn = α1 e1 + α2 e2 + . . . + αm em .
Dimostrazione.
Si ha:
Applicazioni
lineari αm+1 vm+1 + . . . + αn vn − α1 e1 − α2 e2 − . . . − αm em = 0.
Matrice
associata Poiché BV è una base, quindi in particolare un sistema di vettori linearmente
indipendenti, allora:
α1 = α2 = . . . = αm = αm+1 = . . . = αn = 0 ⇒ αm+1 = . . . = αn = 0.
v = α1 e1 + α2 e2 + . . . + αm em + αm+1 vm+1 + . . . + αn vn .
Dimostrazione.
Sfruttando la linearità dell’applicazione e tenendo in considerazione che i vettori
Applicazioni
lineari e1 , e2 , . . . , em ∈ ker f :
Matrice
associata =v
z }| {
w = f (v ) = f (α1 e1 + α2 e2 + . . . + αm em + αm+1 vm+1 + . . . + αn vn ) =
=0 =0 =0
z }| { z }| { z }| {
= α1 f (e1 ) +α2 f (e2 ) + . . . + αm f (em ) +αm+1 f (vm+1 ) + . . . + αn f (vn ) =
Matrice Proposizione 12
associata
Dimostrazione.
⇒) Poiché V e W sono isomorfi, allora esiste un isomorfismo tra di essi,
f : V → W . Per il Corollario (10), l’applicazione f trasforma una
base di V in una base di W , quindi dim V = dim W .
⇐) Si considerino le seguenti rispettive basi di V e W :
BV = {v1 , v2 , . . . , vn } , BW = {w1 , w2 , . . . , wn }
Applicazioni
Dimostrazione.
lineari
Si considerino la coordinazione dello spazio vettoriale V nel riferimento fissato BV
Matrice
associata e la coordinazione dello spazio vettoriale W nel riferimento fissato BW :
f : V → Kn , g : W → Kn
g −1 ◦ f : V → W .
Matrice
conoscono le rispettive immagini dei vettori della base B, f (u1 ), f (u2 ), . . . , f (un ).
associata Per definizione di base, si ha:
f (u1 ) = a11 u1 + a21 u2 + . . . + an1 un
f (u2 ) = a12 u1 + a22 u2 + . . . + an2 un
..
.
f (un ) = a1n u1 + a2n u2 + . . . + ann un
Disponendo i coefficienti ottenuti lungo le colonne di una matrice, si costruisce la
seguente:
a11 a12 . . . a1n
a21 a22 . . . a2n
Af =
. . . . . . . . . . . .
an1 an2 . . . ann
Applicazioni
lineari
Matrice
associata Assegnata una base B = {u1 , u2 , . . . , un } dello spazio vettoriale V e note le
rispettive immagini f (u1 ), f (u2 ), . . . , f (un ), allora resta determinata la matrice Af .
Viceversa, assegnata una base B = {u1 , u2 , . . . , un } dello spazio vettoriale V e
nota la matrice Af , allora restano determinate le immagini f (u1 ), f (u2 ), . . . , f (un ),
ovvero l’endomorfismo f .
Definizione
La matrice Af è chiamata matrice associata all’endomorfismo f .
Applicazioni
lineari
Si considerino:
a11 a12 · · · a1n
a a · · · a2n
• A = 21 22
· · · · · · · · · · · · una matrice quadrata di ordine n;
Matrice
• F : Kn → Kn la funzione definita F (v ) = Av , per ogni v ∈ Kn , dove A è la
associata seguente matrice:
a11 a12 · · · a1n
a21 a22 · · · a2n
A= · · · · · · · · · · · · ;
Proposizione 13
Sia f : V → V un endomorfismo. Considerato un vettore v ∈ V dello spazio
vettoriale V e la sua relativa immagine f (v ), allora la funzione F : Kn → Kn
trasforma le coordinate del vettore v rispetto alla base B nelle coordinate del
vettore f (v ) rispetto alla base B.
Dimostrazione.
Siano:
Applicazioni
lineari • (x1 , x2 , . . . , xn ) le coordinate del vettore v ∈ V rispetto alla base B;
Matrice
associata • (y1 , y2 , . . . , yn ) le coordinate del vettore f (v ) ∈ V rispetto alla base B.
Bisogna dimostrare che:
x
y1 a11 a12 ··· a1n 1
y2 x2
21 a22
a ··· a2n
.. =
··· ··· ··· · · · ...
.
yn an1 an2 ··· ann xn
e1 , e2 , . . . , en .
Applicazioni
Dimostrazione.
lineari
Dunque i vettori
Matrice
associata F (e1 ), F (e2 ), . . . , F (en )
rappresentano le colonne della matrice A. Consegue che:
A
z }| {
F (v ) = (F (e1 ) F (e2 ) . . . F (en )) v .
Proposizione 14
Si dimostra che f −1 : V → V é un isomorfismo e la matrice associata è A−1
rispetto alla base B.
Dimostrazione.
Poiché f è un isomorfismo, allora la matrice A è non degenere, cioé det A 6= 0,
quindi A è una matrice invertibile. Inoltre è banale dimostrare che l’applicazione
inversa f −1 è ancora un isomorfismo.
Si considerino:
Applicazioni
lineari • V uno spazio vettoriale di dimensione n;
Matrice
associata
• W uno spazio vettoriale di dimensione m;
• Z un spazio vettoriale di dimenzione r ;
• BV = {v1 , v2 , . . . , vn } una base di V ;
• BW = {w1 , w2 , . . . , wm } una base di W ;
• BZ = {z1 , z2 , . . . , zr } una base di Z ;
• f : V → W un’applicazione lineare;
• g : W → Z un’applicazione lineare;
• A ∈ Mm,n matrice associata all’applicazione f rispetto alle basi BV e BW ;
• B ∈ Mr ,m matrice associata all’applicazione g rispetto alle basi BW e BZ .
Applicazioni
lineari
Matrice
associata
Proposizione 15
L’applicazione lineare composta g ◦ f : V → Z è un’applicazione lineare la cui
matrice associata è il prodotto tra le matrici BA.
Dimostrazione.
Dall’esempio precedente, la composizione di applicazioni lineari è un’applicazione
lineare e con facili calcoli si trova la matrice associata.
Prodotto scalare
Si consideri:
• V uno spazio vettoriale di dimensione finita n definito sul campo dei numeri
Prodotto scalare reali R.
Sottospazi
ortogonali Definizione
Esempi
Un prodotto scalare definito positivo in V è un’applicazione
s: V ×V → R
e ∀α1 , α2 ∈ R.
definita positiva:
Prodotto scalare
s(u, u) ≥ 0 s(u, u) = 0 ⇔ u = 0.
Sottospazi
ortogonali
Esempi
Proposizione 1
Un prodotto scalare di V soddisfa:
1 s(0, v ) = 0 ∀v ∈ V ;
2 s(u, α1 v + α2 w ) = α1 s(u, v ) + α2 s(u, w ) ∀u, v , w ∈ V e ∀α1 , α2 ∈ R.
Esempio
Se x = (x1 , x2 , . . . , xn ) e y = (y1 , y2 , . . . , yn ) sono due vettori di Rn . Si definisca
la seguente applicazione:
h , i : Rn × Rn → R
Esempio
Prodotto scalare definita ponendo:
Sottospazi
ortogonali
Esempi
hx, y i = x1 y1 + x2 y2 + . . . + xn yn
Come è facile verificare, l’applicazione è un prodotto scalare definito positivo in
Rn ed è detto prodotto scalare euclideo.
Prodotto scalare
g: V ×V →R
Sottospazi
ortogonali tale che
Esempi
g (v , w ) = v1 w1 + v2 w2 + . . . + vn wn = hc(v ), c(w )i
Essa è un prodotto scalare definito positivo che, in termini di coordinate, coincide
col prodotto scalare euclideo.
Siano considerati:
• V uno spazio vettoriale di dimensione n;
• s : V × V → R un prodotto scalare definito positivo;
• B = {e1 , e2 , . . . , en } una base fissata di V ;
• (v1 , v2 , . . . , vn ) e (w1 , w2 , . . . , wn ) le componenti dei rispettivi vettori
v , w ∈ V nella base B;
• c : V → Rn la coordinazione determinata dalla base B.
Si ha:
n
X n
X n
X
Prodotto scalare
s(v , w ) = s vi ei , wj ej = vi wj s(ei , ej ).
Sottospazi i=1 j=1 i.j=1
ortogonali
Esempi
Ne segue che se i vettori della base B hanno le seguenti proprietà:
s(ei , ei ) = 1 ∀i = 1, . . . , n
e
s(ei , ej ) = 0 i 6= j
allora si ha:
n
X
s(v , w ) = vi wj = hc(v ), c(w )i.
i=1
e si denotano con u ⊥ v .
Definizione
Si definisce norma del vettore v ∈ V , la grandezza:
p
||v || = s(v , v ).
Prodotto scalare
Sottospazi
Si considerino:
ortogonali
• lo spazio vettoriale Rn dotato del prodotto scalare euclideo;
Esempi
• un vettore u ∈ V
Definizione
Si definisce norma di un vettore u e si indica con ||u|| il numero reale non negativo:
p q
||u|| = hu, ui = u12 + u22 + · · · + un2
Prodotto scalare
Esempio
Sottospazi
ortogonali
Si consideri lo spazio vettoriale R3 e siano u = (2, −1, 0) e v = (−1, −2, 0) vettori
Esempi
di R3 . Allora il prodotto scalare canonico di R3 è:
Prodotto scalare
Sottospazi Si considerino:
ortogonali
Esempi
• V uno spazio vettoriale dotato di un prodotto scalare definito positivo;
• {u1 , u2 , . . . , un } un insieme di vettori di V .
Definizione
L’insieme dei vettori dello spazio V si dice ortonormale se:
1 s(ui , uj ) = 0 per ogni i, j = 1, 2, . . . , n e i 6= j;
2 ||ui || = 1 per ogni i = 1, 2, . . . , n.
Prodotto scalare
Sottospazi
ortogonali
Esempio
Esempi Si consideri lo spazio vettoriale R2 con il prodotto scalare canonico e si consideri
la base canonica B = {e1 , e2 } con e1 = (1, 0) e e2 = (0, 1). Facilmente si ha:
• he1 , e2 i = 1 · 0 + 0 · 1 = 0, quindi è una base ortogonale;
√ √
• ||e1 || = 11 + 02 = 1 e ||e2 || = 02 + 12 = 1, quindi è una base
ortonormale.
Dimostrazione.
Supponiamo α1 v1 + α2 v2 + . . . αn vn = 0; per la proprietà di bilinearità risulta, per
ogni j = 1, 2, . . . , n
Xn
s( αi vi , vj ) = s(0, vj ) = αj s(vj , vj ) = 0
i=1
Dimostrazione.
Sia vt+1 un vettore non appartenente allo spazio Vt = hw1 , w2 . . . . , wt i generato
dai t vettori indipendenti w1 , w2 , . . . , wt . Il vettore wt+1 dato da:
W ⊥ = {u ∈ V : s(u, v ) = 0 ∀v ∈ W } .
Proposizione 5
W ⊥ è un sottospazio di V :
W⊥ ≤ V.
Dimostrazione.
Bisogna dimostrare che sono soddisfatte le proprietà della definizione di
sottospazio vettoriale.
Dimostrazione.
Prodotto scalare
Siano v1 , v2 ∈ W ⊥ , allora
Sottospazi
ortogonali
Esempi
s(v1 , w ) = 0, s(v2 , w ) = 0
Siano considerati:
• V uno spazio vettoriale con assegnato prodotto scalare definito positivo;
• W≤ V sottospazio vettoriale di V .
Proposizione 6
I sottospazi W e W ⊥ sono supplementari.
Prodotto scalare
Sottospazi
ortogonali Dimostrazione.
Esempi
Posto dim W = t, sia {e1 , . . . , et } una base ortonormale di W . Completiamo tale
base in una base ortonormale dello spazio V di dimensione n con l’aggiunta dei
vettori et+1 , . . . , en . L’asserto sarà provato se mostreremo che
W ⊥ = het+1 , . . . , en i.
Ogni vettore b dello spazio het+1 , . . . , en i è del tipo at+1 et+1 + . . . + an en ed esso
appartiene allo spazio W ⊥ . Infatti per ogni vettore w = h1 e1 + . . . + ht et di W , si
ha, tenendo presente che e1 , e2 , . . . , en è una base ortonormale,
b = m1 e1 + . . . + mt et + mt+1 et+1 + . . . + mn en .
Poichè e1 , e2 , . . . , et sono vettori di W si ha:
w1 = u1 = (1, −1, 0)
s(u2 ,w1 )
w2 = u2 − s(w1 ,w1 ) w1 = (2, 0, 1) − 22 (1, −1, 0) = (1, 1, 1)
Quindi si avrà:
w1 w2 w3
w1 = ||w1 || , w2 = ||w2 || , w3 = ||w3 ||
w1 = √1 , − √1 , 0 w2 = √1 , √1 , √1 w3 = − √16 , − √16 , √26
2 2 3 3 3
Prodotto scalare
Sottospazi
ortogonali
Esempi
Esempi
• Determinare il complemento ortogonale W ⊥ di W .
s(u, w1 ) = 0 s(u, w2 ) = 0 ∀u ∈ R4 .
W ⊥ = {(3q − p, p − 3q, p, q) : p, q ∈ R} .
Polinomio
caratteristico
Definizione
Esempio Un vettore v ∈ V − {0} si dice autovettore dell’endomorfismo F , se esiste uno
scalare λ tale che
F (v ) = λv .
Lo scalare λ ∈ K è chiamato autovalore relativo all’autovettore non nullo v ∈ V .
Sia λ ∈ K un autovalore per l’endomorfismo F , allora è possibile considerare il
sottoinsieme dello spazio vettoriale V di tutti gli autovettori di F che hanno λ
come autovalore:
{v ∈ V − 0 : F (v ) = λv } ⊂ V
Proposizione 1
Sia λ ∈ K un autovalore per l’endomorfismo F , allora
Autovalori e
Autovettori Vλ = {v ∈ V − 0 : F (v ) = λv } ∪ {0} è un sottospazio dello spazio vettoriale V .
Matrici simili
Polinomio Dimostrazione.
caratteristico
F (u) = λu
u, v ∈ Vλ ⇒ ⇒ F (u) + F (v ) = λu + λv .
F (v ) = λv
F (u + v ) = λ(u + v ) ⇒ u + v ∈ Vλ .
Autovalori e
Autovettori
Matrici simili
Polinomio
caratteristico Siano considerati α ∈ K e v ∈ Vλ . Allora, determinando αv e sfruttando che F
Esempio sia un endomorfismo, si ha:
Esempio
v ∈ ker F ⇒ F (v ) = 0 = 0v ⇒ v ∈ V0 ⇒ ker F ⊆ V0 .
Polinomio
Per poter stabilire se un endomorfismo è diagonalizzabile, è importante la
caratteristico seguente proposizione:
Esempio
Proposizione 2
Dimostrazione.
⇒ La matrice A collega i vettori della base B con i suoi trasformati, in
particolare:
Ne consegue che
λ1 0 . . . 0
0 λ2 . . . 0
(u1 , u2 , . . . , un )
. . . . . . . . . . . . = (F (u1 ), F (u2 ), . . . , F (un ))
0 0 0 λn
cioè
Polinomio
caratteristico F (u1 ) = λ1 u1 , F (u2 ) = λ2 u2 , . . . , F (un ) = λn un
Esempio
Ne consegue che la matrice che rappresenta F nella base B è la
matrice diagonale:
λ1 0 . . . 0
0 λ2 . . . 0
. . . . . . . . . . . . .
0 0 0 λn
Autovalori e
Autovettori
Esempio • f : V → V un endomorfismo;
• v1 , v2 autovettori di f associati ad autovalori λ1 e λ2 distinti.
Proposizione 3
L’insieme {v1 , v2 } è un sistema di vettori linearmente indipendenti.
Dimostrazione.
Se per assurdo v1 e v2 fossero proporzionali, si ha: αv1 = v2 . Allora:
Autovalori e
Autovettori
Matrici simili
λ2 v2 = f (v2 ) = f (αv1 ) = αf (v1 ) = αλ1 v1 = λ1 αv1 = λ1 v2 ⇒ λ2 v2 = λ1 v2 .
Polinomio
caratteristico Quindi:
Esempio λ2 v2 − λ1 v2 = 0 ⇒ (λ2 − λ1 )v2 = 0
Poiché v2 è un autovettore e quindi un vettore non nullo, si ha:
λ2 − λ1 = 0 ⇒ λ2 = λ1 .
Polinomio
caratteristico Dimostrazione.
Esempio
Si può ragionare per induzione sull’intero k ≥ 2 :
k = 2 Proposizione (3).
k > 2 si supponga l’asserto vero per k − 1, ovvero i vettori v1 , v2 , . . . , vk−1
sono linearmente indipendenti e si dimostri l’asserto per k. Siano per
assurdo v1 , v2 , . . . , vk−1 , vk vettori linearmente dipendenti. Segue
che il vettore vk è combinazione lineare dei vettori v1 , v2 , . . . , vk−1 :
vk = α1 v1 + α2 v2 + · · · + αk−1 vk−1 .
Dimostrazione.
Autovalori e
Applicando l’endomorfismo f ad ambo i membri, si ha:
Autovettori
vk = α1 v1 + α2 v2 + · · · + αk−1 vk−1 ,
e si ha:
λk vk = α1 λk v1 + α2 λk v2 + · · · + αk−1 λk vk−1 .
Sottraendo le combinazioni lineari, si ottiene:
Dimostrazione.
Autovalori e
Autovettori 0 = α1 (λk − λ1 )v1 + α2 (λk − λ2 )v2 + · · · + αk−1 (λk − λk−1 )vk−1 .
Matrici simili
α1 = α2 = · · · = αk−1 = 0.
Si considerino:
• V uno spazio vettoriale di dimensione n;
• f : V → V un endomorfismo.
Corollary 5
L’endomorfismo ha al più di n autovalori distinti.
Autovalori e
Autovettori
Dimostrazione.
⇒ Sia B una base di V . Poiché l’endomorsimo f è, per ipotesi,
diagonalizzabile, allora, per definizione, la matrice associata A,
rispetto alla base, è una matrice diagonale. Per la Proposizione (2),
allora i vettori della base B sono autovettori.
⇐ Se esiste una base di autovettori per l’endomorfismo f , allora la
matrice associata A rispetto a tale base è diagonale, per la
Proposizione (2).
Matrici simili
Si considerino:
• A ∈ Mn (K) una matrice quadrata di ordine n definita sul campo K;
Autovalori e
Autovettori • B ∈ Mn (K) una matrice quadrata di ordine n definita sul campo K.
Matrici simili
Polinomio
caratteristico
Definizione
Esempio Le due matrici A e B si dicono simili se esiste una matrice P ∈ Mn (K), non
degenere (det P =
6 0), tale che:
B = P −1 AP.
Esempio
Dimostrazione.
Siano indicate con
a11 a12 ... a1n b11 b12 . . . b1n
a21 a22 ... a2n b21 b22 . . . b2n
A=
. . . . . . B=
... . . . . . . . . . . . . . . .
an1 an2 ... ann bn1 bn2 . . . bnn
Polinomio
(f (u1 ), f (u2 ), . . . , f (un )) = (u1 , u2 , . . . , un )A
(1)
caratteristico
(f (u10 ), f (u20 ), . . . , f (un0 )) = (u10 , u20 , . . . , un0 )B
Esempio
In particolare si ha:
PB = AP ⇒ P −1 PB = P −1 AP ⇒ B = P −1 AP.
Autovalori e
Autovettori Si consideri una matrice A ∈ Mn (K).
Matrici simili
Polinomio
Proposizione 8
caratteristico
Esempio
A diagonalizzabile ⇔ A ∼ D
dove D è una matrice diagonale.
Dimostrazione.
Segue dalla proposizione (7).
Polinomio caratteristico
x1
x2
Sia A = (aij ) ∈ Mn (K) e x = . . L’equazione Ax = λx può essere riscritta
Autovalori e
Autovettori ..
Matrici simili xn
Polinomio
caratteristico
come (A − λI )x = 0. Si tratta di un sistema lineare omogeneo che, affinché
Esempio
ammetta soluzioni non nulle, deve avere il determinante della matrice dei
coefficienti uguale a zero.
Definizione
Il determinante
a11 − λ a12 ··· a1n
a21 a22 − λ ··· a2n
|A − λI | = .
.. ..
..
. .
an1 an2 ··· ann − λ
è un polinomio di grado n nella variabile λ, indicato con pA (λ) ed è chiamato polinomio
caratteristico.
Gli autovalori della matrice A sono radici del polinomio caratteristico pA (λ) :
λ0 autovalore di A ⇔ pA (λ0 ) = 0.
Autovalori e
Autovettori
Matrici simili
Dunque gli autovalori sono da ricercare come soluzioni dell’equazione pA (λ) = 0.
Polinomio
caratteristico
Definizione
Esempio Dato un autovalore λ della matrice A, si definisce molteplicità algebrica di λ,
ma (λ), la molteplicità di λ come radice del polinomio caratteristico.
Definizione
Un autovalore della matrice si dice semplice se la sua molteplicità algebrica è 1,
ma (λ) = 1.
Proposizione 9
Il polinomio caratteristico pA (λ) è indipendente dalla base scelta per rappresentare
f.
Dimostrazione.
Autovalori e Siano B e B 0 due basi dello spazio vettoriale V e siano A e A0 le matrici associate
Autovettori
all’applicazione f rispetto alle basi date.Per la Proposizione (7), le matrici A e A0
Matrici simili
sono simili. Per definizione allora esiste una matrice non degenere P ∈ Mn (K):
Polinomio
caratteristico
Esempio A0 = P −1 AP.
Si ha allora:
|A0 − λI | = |P −1 AP − λI | = |P −1 AP − P −1 λI P| = |P −1 (A − λI )P|.
|P −1 | · |A − λI | · |P| = |A − λI |
essendo |P −1 | · |P| = 1
Proposizione 10
Sia λ un autovalore della matrice A. Allora:
Autovalori e
Autovettori
Dimostrazione.
Se λ è un autovalore semplice della matrice, per definizione, si ha ma (λ) = 1. Per
la Proposizione precedente, si ha:
Esempio
Dimostrazione.
Proviamo che Vλ1 ∩ hVλ2 ∪ . . . Vλm i = {0} (in modo analogo si procede negli altri
casi). Sia per assurdo b un vettore non nullo appartenente a
Vλ1 ∩ hVλ2 ∪ . . . ∪ Vλm i. Allora si ha:
b ∈ hVλ2 ∪ . . . ∪ Vλm i ⇒ b = b2 + . . . + bm
Polinomio λ1 b = λ1 b2 + . . . + λ1 bm .
caratteristico
λ1 − λi = 0 ∀i = 2, . . . , m.
e ciò è assurdo avendo supposto λ1 , . . . , λm distinti.
Si considerino:
• V uno spazio vettoriale di dimensione n;
Autovalori e
Autovettori
• f : V → V un endomorfismo.
Matrici simili
Polinomio
Teorema 13 (Criterio di diagonalizzazione di una matrice)
caratteristico
Esempio
L’endomorfismo f è diagonalizzabile se e solo se il suo polinomio caratteristico ha
tutte le radici nel campo e ciascuna con molteplicità geometrica uguale a quella
algebrica.
Dimostrazione.
Supponiamo che il polinomio caratteristico abbia tutte le radici nel campo e siano
λ1 , . . . , λt , ciascuna con molteplicità algebrica uguale a quella geometrica:
ma (λi ) = mg (λi ) = si ∀i = 1, 2, . . . , t.
Dimostrazione.
Si ha in particolare che
Autovalori e
Autovettori
Matrici simili
dimVλi = si i = 1, 2, . . . , t
Polinomio
caratteristico con s1 + . . . + st = n. Sia Bi una base di Vλi per i = 1, 2, . . . , t. Il sistema di
Esempio vettori B = ∪ti=1 Bi ha cardinalità n ed è una base di autovettori di f , per la
proposizione 12. Allora per il Teorema (6) è diagonalizzabile.
Viceversa, supponiamo che f sia diagonalizzabile. Allora, per il Teorema (6),
esiste una base B = {v1 , . . . , vn } fatta da autovettori, i cui autovalori sono
λ1 , λ2 , . . . , λn . Indichiamo con λ1 , λ2 , . . . , λt gli autovalori distinti che figurano
tra λ1 , λ2 , . . . , λn e supponiamo inoltre che λ1 figuri s1 volte tra λ1 , λ2 , . . . , λn ,
. . . , λt figuri st volte tra λ1 , λ2 , . . . , λn . Si ha cosı̀:
s1 + . . . + st = n.
Diciamo h1 , . . . , ht le molteplicità algebriche delle radici λ1 , . . . , λt .
Dimostrazione.
Poichè l’autospazio Vλi contiene si vettori di B, per ogni i = 1, 2, . . . , t, si ha:
Autovalori e
Autovettori
Matrici simili
si ≤ dimVλi i = 1, 2, . . . , t.
Polinomio
caratteristico D’altra parte per la Proposizione (10), si ha:
Esempio
dim Vλi ≤ hi i = 1, 2, . . . , t.
si ≤ dim Vλi ≤ hi i = 1, 2, . . . , t.
Da queste si ottiene:
Polinomio
Dalla relazione precedente segue che h1 + . . . + ht = n e che si = hi , per ogni
caratteristico i = 1, 2, . . . , t.
Esempio E quindi che:
Esempio
ma (λ1 ) = 1, ma (λ2 ) = 2
Polinomio (A − λ1 I)v = 0,
caratteristico
(A − λ2 I)v = 0
Esempio
ovvero
1 − λ1 0 0 x 0
−1 2 − λ1 0 y = 0
−1 0 2 − λ1 z 0
1 − λ2 0 0 x 0
−1 2 − λ2 0 y = 0
−1 0 2 − λ2 z 0
Autovalori e 0 0 0 x 0
Autovettori
−1 1 0 y = 0
Matrici simili
Polinomio
caratteristico
• Stabilire se l’endomorfismo è diagonalizzabile.
Esempio
ma (1) = 1, ma (2) = 2
Esempio
mg (2) = dim V2 = 3 − ρ(A − λ2 I).
mg (2) = 3 − 1 = 2 = ma (2).
Matrici simili
Poiché la matrice A è diagonalizzabile, allora, per la Proposizione (8), essa sarà
Polinomio
caratteristico una matrice simile ad una matrice diagonale D. Per definizione esisterà una
Esempio matrice P invertibile tale che:
P −1 AP = D.
Matrici simili
Polinomio
caratteristico
La matrice diagonale D è la matrice che ha lungo la diagonale principale gli
Esempio
autovalori:
1 0 0
D = 0 2 0
0 0 2
Sistemi di riferimento
Si consideri una retta orientata, x, fissando un verso di percorrenza con la punta
di una freccia. Su di essa è fissato un punto, O, chiamato origine e si stabilisca
Sistemi di una unità di misura. Fissando un punto sulla retta x, P, resta individuato un
riferimento
P ∈ r → xP ∈ R
ed è un isomorfismo.
Piano nello
• y è chiamata asse delle ordinate;
spazio
• O è chiamato origine del sistema.
Posizione
reciproca tra
retta e piano
Tale sistema di riferimento si indica con π(O, x, y , ux , uy ), con ux e uy unità di
Fasci e stella di
misura fissate sui rispettivi assi.
piani
Le coniche La coppia dei valori reali (xP , yP ) ∈ R2 prende nome di coordinate del punto
P ∈ π. Qualora gli assi s’intersechino nel punto O perpendicolarmente, x⊥y , il
sistema di riferimento è detto ortogonale. Qualora si utilizzi la stessa unità su
entrambi gli assi, ux = uy = u il sistema di riferimento è detto monometrico.
Simbolicamente è indicato π(O, x, y , u).
Dato uno spazio euclideo S, si considerino tre rette orientate e non parallele a due
a due, x, y e z, indicando con O il punto d’intersezione. Restano individuati i
Sistemi di piani:
riferimento
• xy , piano individuato dalle rette x e y ;
Retta nel piano
Retta nello
• yz, piano individuato dalle rette y e z;
spazio
• xz, piano individuato dalle rette x e z.
Piano nello
spazio Su ciascuna delle tre rette si stabilisca una unità di misura. Si fissi un punto nello
Posizione
reciproca tra
spazio, P, allora:
retta e piano • conducendo dal punto P il piano parallelo al piano yz, questo interseca la
Fasci e stella di
piani retta x in un punto Px . Resta individuato il segmento OPx e quindi il valore
Le coniche reale, xP , che rappresenta il numero di volte che l’unità di misura, scelta sulla
retta x, entra nel segmento;
• conducendo dal punto P il piano parallelo al piano xz, questo interseca la
retta y in un punto Py . Resta individuato il segmento OPy e quindi il valore
reale, yP , che rappresenta il numero di volte che l’unità di misura, scelta sulla
retta y , entra nel segmento;
• conducendo dal punto P il piano parallelo al piano xy , questo interseca la
retta z in un punto Pz . Resta individuato il segmento OPz e quindi il valore
Sistemi di
riferimento
reale, zP , che rappresenta il numero di volte che l’unità di misura, scelta sulla
Retta nel piano
retta z, entra nel segmento.
Retta nello Dunque ad un punto P dello spazio è possibile associare una terna di numeri reali
spazio
e si può considerare l’applicazione:
Piano nello
spazio
Posizione P ∈ S → (xP , yP , zP ) ∈ R3
reciproca tra
retta e piano
Fasci e stella di
ed è un isomorfismo.
piani
Le coniche
==
Sistemi di
riferimento
Piano nello
unità di misura fissate sui rispettivi assi.
spazio
Posizione La terna dei valori reali (xP , yP , zP ) ∈ R3 prende nome di coordinate del punto
reciproca tra
retta e piano
P ∈ S. Qualora gli assi s’intersecano nel punto O perpendicolarmente a due a
Fasci e stella di due, x⊥y , y ⊥z e x⊥z, il sistema di riferimento è detto ortogonale. Qualora si
piani
utilizzi la stessa unità sugli assi, ux = uy = uz = u, il sistema di riferimento è
Le coniche
detto monometrico. Simbolicamente è indicato S(O, x, y , z, u).
Retta nel piano
Piano nello
λ = xB − xA µ = yB − yA
spazio
| {z } | {z }
asse x asse y
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
La coppia dei numeri reali non entrambi nulli (λ, µ) è chiamata coppia di numeri
direttori della retta r .
I numeri direttori della retta r sono determinati a meno di un fattore di
proporzionalità. Infatti se si considerano altri due punti C e D sulla retta r , resta
determinato il vettore CD.~
Sistemi di
riferimento
~ e CD
Poiché i vettori AB ~ giacciono sulla stessa retta r , allora sono proporzionali,
Retta nel piano ovvero:
Retta nello ∃ρ ∈ R − {0} : CD ~ = ρAB.~
spazio
Posizione
reciproca tra λ0 = xD − xC µ0 = yD − yC
retta e piano
Fasci e stella di
piani
~ rispetto al fattore di
queste sono proporzionali alle componenti del vettore AB,
Le coniche proporzionalità ρ, cioé:
(λ0 , µ0 ) = ρ(λ, µ)
~ le cui componenti
Si considerino i punti A e B sulla retta r , dunque il vettore AB,
sono:
Sistemi di λ = xB − xA µ = yB − yA
riferimento
Piano nello λ0 = x − xA µ0 = y − y A .
spazio
Posizione ~ è
Poiché entrambi i vettori giacciono sulla stessa retta, allora il vettore AP
reciproca tra
retta e piano ~
proporzionale al vettore AB:
Fasci e stella di
piani ∃ρ ∈ R − {0} : ~ = ρAB.
AP ~
Le coniche
Allora anche le componenti del vettore AP ~ sono proporzionali, rispetto al fattore
~ :
di proporzionalità ρ, alle componenti del vettore AB
( ( (
0 0 λ0 = ρλ x − xA = ρλ x = xA + ρλ
(λ , µ ) = ρ(λ, µ) ⇒ 0
⇒ ⇒
µ = ρµ y − yA = ρµ y = yA + ρµ
Definizione
Sistemi di
Data una retta r , determinata dai numeri direttori (λ, µ), le seguenti equazioni:
riferimento
(
Retta nel piano x = xA + ρλ
Retta nello
spazio y = yA + ρµ
Piano nello
spazio
sono dette equazioni parametriche della retta nel piano.
Posizione
reciproca tra
retta e piano
~ e AP,
Si può osservare che i vettori AB ~ poiché sono proporzionali, sono
Fasci e stella di linearmente dipendenti, ovvero la matrice, che ha per righe le rispettive
piani
componenti, ha determinante nullo:
Le coniche
0 0
x y 1
λ µ x − xA y − yA
= = xA yA 1 = 0.
λ µ xB − xA yB − yA
xB yB 1
Piano nello
spazio
I teoremi (1) e (2) possono essere riletti considerando le rette scritte in forma
Posizione
reciproca tra cartesiana. Siano:
retta e piano
• la retta r : ax + by + c = 0, determinata dai numeri direttori (λ, µ) = (−b, a);
Fasci e stella di
piani • la retta r 0 : a0 x + b 0 y + c 0 = 0, determinata dai numeri direttori
Le coniche (λ0 , µ0 ) = (−b 0 , a0 ).
Allora il teorema (1) sarà:
Teorema 3
Piano nello
spazio Il teorema (2) sarà:
Posizione
reciproca tra
retta e piano
Teorema 4
Fasci e stella di
piani
r ⊥r 0 ⇔ aa0 + bb 0 = 0
Le coniche
Dimostrazione.
Sfruttando il teorema (2), si ha:
Retta nello
spazio
r : ax + by + c = 0 r 0 : a0 x + b 0 y + c 0 = 0
Piano nello
spazio Ovviamente, poiché il punto P appartiene ad entrambe le rette, le sue coordinate
Posizione soddisfanno le rispettive equazioni cartesiane:
reciproca tra
retta e piano
Le coniche
Si prenda una combinazione lineare delle due equazioni cartesiani, quindi:
α(ax + by + c) + β(a0 x + b 0 y + c 0 ) = 0
Fasci e stella di
Dimostrazione.
piani
Le coordinate del punto P soddisfano la combinazione lineare delle due equazioni:
Le coniche
Dunque la combinazione lineare delle due rette è ancora una retta passante per il
punto P, al variare dei parametri α e β.
Dimostrazione.
Sia considerata una retta r 00 : a00 x + b 00 y + c 00 = 0 passante per il punto P. Si
metta a sistema l’equazioni delle tre rette r , r 0 e r 00 :
Sistemi di
riferimento
Fasci e stella di
piani x − x0 = 0 y − y0 = 0
Le coniche
Considerando la combinazione lineare delle due equazioni:
α(x − x0 ) + β(y − y0 ) = 0
Retta nello
spazio Definizione
Piano nello
spazio
L’equazione:
Posizione α(x − x0 ) + β(y − y0 ) = 0
reciproca tra
retta e piano
è detta equazione del fascio di rette di centro P.
Fasci e stella di
piani
Le coniche
Retta nello spazio
Si fissi in uno spazio euclideo S un sistema di riferimento ortogonale e
monometrico S(O, x, y , z, u) e si fissino due punti A e B con le rispettive
Sistemi di
riferimento ~ che giace
coordinate (xA , yA , zA ) e (xB , yB , zB ). Resta individuato un vettore AB
Retta nel piano sulla retta r . Di tale vettore si determinano le componenti distinte lungo gli assi,
Retta nello
spazio
date dai numeri reali:
Piano nello
spazio
λ = xB − xA µ = yB − yA ν = zB − zA
| {z } | {z } | {z }
Posizione asse x asse y asse z
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche La terna dei numeri reali non tutti nulli (λ, µ, ν) è chiamata terna dei numeri
direttori della retta r .
I numeri direttori della retta r sono determinati a meno di un fattore di
proporzionalità. Infatti se si considerano altri due punti C e D sulla retta r , resta
determinato il vettore CD.~
~ e CD
Poiché i vettori AB ~ giacciono sulla stessa retta r , allora sono proporzionali,
Sistemi di ovvero:
riferimento
∃ρ ∈ R − {0} : CD ~ = ρAB.~
Retta nel piano
Piano nello
spazio λ0 = xD − xC µ0 = yD − yC ν 0 = zD − zC
Posizione
reciproca tra
retta e piano queste sono proporzionali alle componenti del vettore AB, ~ rispetto al fattore di
Fasci e stella di proporzionalità ρ, cioé:
(λ0 , µ0 , ν 0 ) = ρ(λ, µ, ν)
piani
Le coniche
~ le cui componenti
Si considerino i punti A e B sulla retta r , dunque il vettore AB,
sono:
λ = xB − xA µ = yB − yA ν = zB − zA
Si fissi un punto P di coordinate (x, y , z) sulla retta , quindi resta determinato il
~ le cui componenti sono:
vettore AP,
Sistemi di
riferimento
λ0 = x − xA µ0 = y − yA ν 0 = z − zA .
Retta nel piano
Retta nello
spazio
~ è
Poiché entrambi i vettori giacciono sulla stessa retta, allora il vettore AP
Piano nello
~
proporzionale al vettore AB:
spazio
Posizione
∃ρ ∈ R − {0} : ~ = ρAB.
AP ~
reciproca tra
retta e piano
Fasci e stella di Allora anche le componenti del vettore AP ~ sono proporzionali, rispetto al fattore
piani
~ :
di proporzionalità ρ, alle componenti del vettore AB
Le coniche
λ 0 = ρλ x − x = ρλ
A x = xA + ρλ
0 0 0 0
(λ , µ , ν ) = ρ(λ, µ, ν) ⇒ µ = ρµ ⇒ y − yA = ρµ ⇒ y = yA + ρµ
0
ν = ρν z − zA = ρν z = zA + ρν
Definizione
Sistemi di Data una retta r , determinata dai numeri direttori (λ, µ, ν), le seguenti equazioni:
riferimento
Le coniche Teorema 7
Le rette r e r 0 sono perpendicolari se e solo se i numeri direttori dell’una e
dell’altra soddisfano la relazione λλ0 + µµ0 + νν 0 = 0, ovvero:
r ⊥r 0 ⇔ λλ0 + µµ0 + νν 0 = 0
Piano nello spazio
Si fissi in uno spazio euclideo S un sistema di riferimento ortogonale e
monometrico S(O, x, y , z, u). Si prenda un piano π si fissino su di esso tre punti
Sistemi di
riferimento A, B e C con le rispettive coordinate (xA , yA , zA ), (xB , yB , zB ) e (xC , yC , zC )..
Retta nel piano Restano determinati i vettori AB~ e AC~ , le cui componenti lungo gli assi sono i
Retta nello
spazio
numeri reali:
Piano nello
spazio (xB − xA , yB − yA , zB − zA ) (xC − xA , yC − yA , zC − zA )
Posizione
reciproca tra
retta e piano Sul piano π, si prenda un generico punto P di coordinate (x, y , z) e si consideri il
Fasci e stella di
~ Poiché i vettori AB,
vettore AP. ~ AC~ e AP~ giacciono sullo stesso piano π, essi
piani
sono linearmente dipendenti. Saranno linearmente dipendenti anche le rispettive
Le coniche
componenti lungo gli assi:
(xB − xA , yB − yA , zB − zA ) (xC − xA , yC − yA , zC − zA ) (x − xA , y − yA , z − zA )
| {z } | {z } | {z }
~
AB ~
AC ~
AP
Quindi:
Sistemi di
x − xA y − yA z − zA
riferimento
xB − xA yB − yA zB − zA = 0
Retta nel piano
xC − xA yC − yA zC − zA
Retta nello
spazio
Sviluppando il determinante, e raccogliendo i termini con la x, indicati con a, i
Piano nello
spazio termini con la y , indicati con b e i termini con la z, indicati con c, e i termini noti
Posizione indicati con d, si ottiene:
reciproca tra
retta e piano
Fasci e stella di ax + by + cz + d = 0.
piani
Le coniche
Definizione
L’equazione ax + by + cz + d = 0 è detta equazione cartesiana del piano π nello
spazio euclideo.
La terna (a, b, c) dei valori reali è chiamata numeri direttori del piano π.
Sistemi di
riferimento
Seguono i due teoremi che stabiliscono le condizioni di parallelismo e
Retta nel piano
perpendicolarità di due piani dati nello spazio euclideo. Siano:
Retta nello • il piano π : ax + by + cz + d = 0, determinato dai numeri direttori (a, b, c);
spazio
Piano nello
• il piano π 0 : a0 x + b 0 y + c 0 z + d 0 = 0, determinato dai numeri direttori
spazio
(a0 , b 0 , c 0 ).
Posizione
reciproca tra
retta e piano Teorema 8
Fasci e stella di
piani I piani π e π 0 sono paralleli se e solo se i numeri direttori dell’uno sono uguali o
Le coniche proporzionali ai numeri direttori dell’altro:
Piano nello
spazio
Si metta a sistema le equazioni dei due piani:
Posizione (
reciproca tra
retta e piano ax + by + cz + d = 0
.
Fasci e stella di
piani
a0 x + b 0 y + c 0 z + d 0 = 0
Le coniche Si tratta di un sistema con m = 2 equazioni in n = 3 incognite. Si discuta la sua
compatibilità. Si considerano la matrice incompleta e la matrice completa
associate al sistema:
a b c 0 a b c d
A= A =
a0 b 0 c 0 a0 b 0 c 0 d 0
Si analizzino vari casi:
Sistemi di ρ(A) = 1 : allora si determini il rango della matrice A0 e si analizzano due casi:
riferimento
Le coniche Quindi i numeri direttori, (λ, µ, ν), della retta r sono soluzioni del sistema:
(
aλ + bµ + cν = 0
a0 λ + b 0 µ + c 0 ν = 0
Retta nello
spazio Le soluzioni del sistema omogeneo possono essere calcolate nel seguente modo:
Piano nello
spazio b c a c a b
λ = 0 0 , µ = − 0 0 , ν = 0
a b0
Posizione
reciproca tra
b c a c
retta e piano
Fasci e stella di
piani
Le coniche
Posizione reciproca tra retta e piano
Si consideri uno spazio euclideo con un sistema di riferimento ortogonale e
monometrico S(O, x, y , z, u). Siano assegnati una retta e un piano e studiamo le
Sistemi di
riferimento
loro posizioni reciproche:
Retta nel piano
Retta nello x = xA + ρλ
spazio
r : y = yA + ρµ π : ax + by + cz + d = 0
Piano nello
z = zA + ρν
spazio
Posizione
reciproca tra
retta e piano Preso un generico punto P della retta r , esso ha coordinate:
Fasci e stella di
piani
(xA + ρλ, yA + ρµ, zA + ρν)
Le coniche
Posizione
A 6= 0 : l’equazione ammette una sola soluzione ρ, quindi vi è un solo punto
reciproca tra
retta e piano
P di intersezione. La retta r interseca il piano π nel punto P.
Fasci e stella di
A = 0: si distinguono due casi:
piani B 6= 0 : l’equazione è impossibile, quindi non vi sono punti
Le coniche
d’intersezione e si dice che la retta r e il piano π sono
paralleli propriamente
B = 0 : l’equazione è indeterminata, quindi ci sono infiniti
punti d’intersezione. Geometricamente la retta r giace
sul piano π e si dice che sono paralleli
impropriamente.
In funzione dell’analisi fatta precedente, la condizione di parallelismo
(propriamente e impropriamente) tra la retta r e un piano π è rappresentata dalla
Sistemi di condizione A = 0, ovvero aλ + bµ + cν = 0. In conclusione, siano:
riferimento
• r , una retta determinata dai numeri direttori (λ, µ, ν), di equazione
Retta nel piano
parametrica o cartesiana;
Retta nello
spazio • π, un piano determinato dai numeri direttori (a, b, c).
Piano nello
spazio Teorema 10
Posizione
reciproca tra
retta e piano
r //π ⇔ aλ + bµ + cν = 0
Fasci e stella di
piani
r ⊥π ⇔ (a, b, c) = γ(λ, µ, ν)
Dimostrazione.
Sia considerato il piano π 0 parallelo al piano π e passante per l’origine. Dunque,
Sistemi di
riferimento tenuto conto del teorema (8), la sua equazione è:
Retta nel piano
Retta nello ax + by + cz = 0.
spazio
Piano nello
spazio
Si considerino i punti A di coordinate (a, b, c) e un generico punto P del piano π 0
Posizione
di coordinate (x, y , z). Si prendano i vettori:
reciproca tra
retta e piano
~ vettore che giace sul piano π 0 ;
• OP,
Fasci e stella di ~ vettore che risulta perpendicolare al vettore OP,
• OA, ~ poiché risulta
piani
Le coniche ax + by + cz = 0.
~ è perpendicolare al vettore
Allora la retta che segue la direzione del vettore OA
~
OP che giace sul piano, quindi perpendicolare al piano π 0 . I numeri direttori della
retta sono proporzionali ai numeri direttori del piano. Dato che un retta
perpendicolare ad un piano è perpendicolare a qualsiasi altro piano parallelo ad
esso, allora si conclude: (a, b, c) = γ(λ, µ, ν).
Fasci e stella di piani
Si consideri uno spazio euclideo in cui è fissato un sistema
( di riferimento
ax + by + cz + d = 0
ortogonale e monometrico S(O, x, y , z, u). Sia: r :
Sistemi di
riferimento a0 x + b 0 y + c 0 z + d 0 = 0
Retta nel piano una retta scritta in equazione cartesiana, ergo data dall’intersezione dei due piani
Retta nello di equazioni
spazio
π : ax + by + cz + d = 0
Piano nello
spazio π : a0 x + b 0 y + c 0 z + d 0 = 0
0
Posizione .
reciproca tra
retta e piano Definizione
Fasci e stella di
piani Si definisce fascio di piani con asse la retta r è l’insieme dei piani passanti per la
Le coniche retta r .
Si fissi un punto P di coordinate (x0 , y0 , z0 ) appartenente alla retta r . Dunque le
sue coordinate soddisfano le equazioni del sistema:
(
ax0 + by0 + cz0 + d = 0
a0 x0 + b 0 y0 + c 0 z0 + d 0 = 0
Si prenda una combinazione lineare delle due equazioni, quindi:
α (ax + by + cz + d) +β (a0 x + b 0 y + c 0 z + d 0 ) = 0
Sistemi di | {z } | {z }
riferimento π π0
Retta nel piano con α e β non entrambi nulli.
Retta nello
spazio Proposizione 12
Piano nello
spazio La combinazione lineare delle due equazioni:
Posizione
reciproca tra
retta e piano α(ax + by + cz + d) + β(a0 x + b 0 y + c 0 z + d 0 ) = 0
Fasci e stella di
piani
è ancora un piano passante per la retta r , al variare dei parametri α e β. Inoltre
Le coniche
ogni altro piano passante per la retta r si scrive come combinazione lineare dei
due piani π e π 0 .
Dimostrazione.
Risulta chiaro che α(ax + by + cz + d) + β(a0 x + b 0 y + c 0 z + d 0 ) = 0 è
un’equazione di un piano.
Dimostrazione.
Inoltre, sostituendo le coordinate (x0 , y0 , z0 ) del punto P nella combinazione
Sistemi di
riferimento lineare, allora, poiché P è un punto della retta r , si ha:
Retta nel piano
Posizione
Passando per un generico punto P della retta r , allora si tratta di un piano
reciproca tra
retta e piano
passante per tutta la retta r , al variare dei parametri α e β. Sia considerato un
Fasci e stella di
piano π 00 : a00 x + b 00 y + c 00 z + d 00 = 0 passante per la retta r . Si metta a sistema
piani
l’equazioni dei tre piani π, π 0 e π 00 :
Le coniche
ax + by + cz + d = 0 −→ π
a0 x + b 0 y + c 0 z + d 0 = 0 −→ π 0
00
a x + b 00 y + c 00 z + d 00 = 0 −→ π 00
Le coniche Definizione
L’equazione:
α(ax + by + cz + d) + β(a0 x + b 0 y + c 0 z + d 0 ) = 0
Posizione
reciproca tra che si intersecano in un punto P di coordinate (x0 , y0 , z0 ), quindi le coordinate
retta e piano
soddisfano il seguente sistema lineare:
Fasci e stella di
piani
Le coniche ax + by + cz + d = 0
a0 x + b 0 y + c 0 z + d 0 = 0
00
a x + b 00 y + c 00 z + d 00 = 0
Definizione
Si definisce stella di piani di centro il punto P l’insieme dei piani passanti per il
Sistemi di
riferimento punto P.
Retta nel piano
Retta nello
Si prenda una combinazione lineare delle tre equazioni, quindi:
α (ax + by + cz + d) +β (a0 x + b 0 y + c 0 z + d 0 ) +γ (a00 x + b 00 y + c 00 z + d 00 ) = 0
spazio
Piano nello | {z } | {z } | {z }
spazio π π0 π 00
Posizione
reciproca tra con α, β e γ non tutti nulli.
retta e piano
Fasci e stella di
α (ax0 + by0 + cz0 + d) +β (a0 x + b 0 y + c 0 z + d 0 ) +γ (a00 x + b 00 y + c 00 z + d 00 ) = 0.
piani
| {z } | {z } | {z }
=0 =0 =0
Le coniche
Posizione
reciproca tra
Si tratta di un sistema di m = 4 equazioni in n = 3 incognite. Poiché i piani si
retta e piano intersecano nel punto P, allora il sistema è compatibile e ammette una sola
Fasci e stella di
piani
soluzione. Allora si ha:
Le coniche
a b c a b c d
a0 b 0 c 0 0 0 0 0
ρ 00 00 00
= ρ a00 b00 c00 d00 = 3
a b c a b c d
a b c a b c d
Dimostrazione.
Sistemi di
La 1◦ , 2◦ e 3◦ riga sono linearmente indipendenti, mentre la 4◦ riga è linearmente
riferimento
dipendente dalle restanti. Quindi il piano π è combinazione lineare dei piani π, π 0
Retta nel piano
e π 00 .
Retta nello
spazio
Posizione
Per un punto P di coordinate (x0 , y0 , z0 ), passano i piani paralleli ai piani yz, xz e
reciproca tra
retta e piano
xy :
Fasci e stella di
x − x0 = 0 y − y0 = 0 z − z0 = 0
piani
Le coniche
Dunque si può considerare la combinazione lineare dei tre piani:
che rappresenta tutti i piani passanti per il punto P, al variare dei parametri α, β e
γ.
Sistemi di
riferimento
Piano nello
Definizione
spazio
L’equazione
Posizione
reciproca tra α(x − x0 ) + β(y − y0 ) + γ(z − z0 ) = 0
retta e piano
Le coniche
Le coniche
Si consideri un piano euclideo π in cui è fissato un sistema di riferimento
ortogonale e monometrico π(O, x, y , u). Sia assegnata una proprietà P.
Sistemi di
riferimento Definizione
Retta nel piano
Un luogo geometrico, rispetto alla proprietà P, è l’ insieme dei punti del piano che
Retta nello
spazio soddisfano la proprietà P:
Piano nello
spazio
L = {P ∈ π : P soddisfa P}
Posizione
reciproca tra
retta e piano
Le coniche
P soddisfa P ⇔ P ∈ L ∀P ∈ π.
Esempio
Si consideri un segmento di estremi i punti A e B. Dato un generico punto P ∈ π,
si assegni la seguente proprietà:
Esempio
Sistemi di Il seguente insieme:
riferimento
Piano nello è un luogo geometrico. Il luogo geometrico con questa caratteristica prende nome
spazio
di asse del segmento di estremi i punti A e B.
Posizione
reciproca tra
retta e piano Le coniche sono ottenute tramite l’intersezione di un cono circolare retto con un
Fasci e stella di piano. Si possono definire tutte come luoghi geometrici e, di conseguenza,
piani
Le coniche
ricavarne l’equazione algebrica che le rappresenta nel piano cartesiano. Essi sono:
• circonferenza;
• ellisse;
• parabola;
• iperbole.
Circonferenza
La circonferenza si ottiene tagliando un cono con un piano perpendicolare al suo
asse. Sia fissato un punto C di coordinate (x0 , y0 ) e un numero reale r > 0. Si
Sistemi di assegna la seguente proprietà:
riferimento
Posizione
Il seguente insieme:
reciproca tra
retta e piano
C = {P ∈ π : d(P, C ) = r }
Fasci e stella di
piani
è un luogo geometrico. Il luogo geometrico con questa caratteristica prende nome
Le coniche di circonferenza di centro il punto C e raggio r .
Sia P ∈ C un generico punto di coordinate (x, y ) appartenente al luogo
geometrico C, allora si ha:
q
d(P, C ) = r ⇔ (x − x0 )2 + (y − y0 )2 = r ⇔ (x − x0 )2 + (y − yO )2 = r 2
Sviluppando i calcoli, si ottiene:
Sistemi di
riferimento x 2 + x02 − 2x0 x + y 2 + y02 − 2y0 y − r 2 = 0
Retta nel piano
Piano nello
spazio x 2 + y 2 + (−2x0 )x + (−2y0 )y + (x02 + y02 − r 2 ) = 0 ⇐ x 2 + y 2 + ax + by + c = 0
| {z } | {z } | {z }
Posizione =a =b =c
reciproca tra
retta e piano
Fasci e stella di
ponendo
piani a = −2x0 b = −2y0 c = x02 + y02 − r 2
Le coniche
Dalle sostituzioni, si ottiene:
q 2 2
x0 = − 2a y0 = − b2 r= − 2a + − b2 −c
La circonferenza C ha l’andamento della figura:
Sistemi di
riferimento
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
Sistemi di
riferimento
Se P = (x, y ) è un punto della circonferenza Γ rappresentata dall’equazione di
Retta nel piano
sopra, la tangente a Γ in P è rappresentata dall’equazione:
Retta nello
spazio x +x y +y
xx + y y + a +b + c = 0.
Piano nello 2 2
spazio
Siano considerati:
Sistemi di
riferimento • π;
Retta nel piano • F1 , F2 ∈ π;
Retta nello
spazio • u un’unità di misura per i segmenti;
Piano nello
spazio
• d(F1 , F2 ) = 2c la distanza tra i due punti F1 e F2
Posizione
reciproca tra
retta e piano
Definizione
Fasci e stella di Si definisce ellisse il luogo γ dei punti di π tali che la somma delle loro distanze
piani
da F1 e F2 sia un numero reale assegnato 2a con a > c. I punti F1 e F2 sono
Le coniche
chiamati fuochi, 2c è chiamata distanza focale ed e = ca è detta eccentricità.
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
Allora:
q q q q
(x − c)2 + y 2 + (x + c)2 + y 2 = 2a ⇒ (x − c)2 + y 2 = 2a− (x + c)2 + y 2
Sistemi di
riferimento
q 2 q 2
Retta nel piano
⇒ (x − c)2 + y 2 = 2a − (x + c)2 + y 2
Retta nello
spazio q
Piano nello
spazio
⇒ (x − c)2 + y 2 = 4a2 + (x + c)2 + y 2 − 4a (x + c)2 + y 2
Posizione
q
reciproca tra
retta e piano
⇒ x 2 + c 2 − 2cx + y2 = 4a2 + x 2 + c 2 + 2cx + y2 − 4a (x + c)2 + y 2
Fasci e stella di 4 4
q q
piani
⇒ 4a (x + c)2 + y 2 = 4a2 + 4cx ⇒ a (x + c)2 + y 2 = (a2 + cx)
Le coniche 4 4
q 2
2
⇒ a (x + c)2 + y 2 = (a2 + cx) ⇒ a2 (x + c)2 + y 2 = a4 + c 2 x 2 + 2a2 cx
⇒ a2 (x 2 + c 2 + 2cx + y 2 ) = a4 + c 2 x 2 + 2a2 cx
⇒ a2 x 2 + a2 c 2 + 2
cx + a2 y 2 = a4 + c 2 x 2 + 2
2a 2a cx
Sistemi di
riferimento ⇒ a2 x 2 − c 2 x 2 + a2 y 2 = a4 − a2 c 2 ⇒ x 2 (a2 − c 2 ) + a2 y 2 = a2 (a2 − c 2 )
Retta nel piano
Piano nello
spazio
b 2 x 2 + a2 y 2 = a2 b 2 .
Posizione
reciproca tra
retta e piano
Dividendo ambo i membri per a2 b 2 , si ottiene:
Fasci e stella di
piani b2 a2 a22
b
x2 + y2 =
Le coniche
a2 b 2 a2 b 2 a2
2
b
In conclusione si ha:
x2 y2
+ 2 =1
a2 b
Sistemi di
riferimento
Nel riferimento R di α avente u come unità di misura, la retta F1 F2 e l’asse del
Retta nel piano
segmento F1 F2 , comunque orientati, come assi x e y , l’equazione ordinaria:
Retta nello
spazio x2 y2
+ 2 −1=0
Piano nello a2 b
spazio
√
Posizione ove b = a2 − c 2 è chiamata equazione canonica dell’ellisse. Le rispettive
reciproca tra
retta e piano equazioni parametriche sono:
Fasci e stella di (
piani
x = a cos θ
Le coniche .
y = b sin θ
L’ellisse γ ha l’andamento della figura
Sistemi di
riferimento
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
Sistemi di
L’ellisse ha le seguenti caratteristiche:
riferimento
• è una curva chiusa;
Retta nel piano
Retta nello
• ha un centro di simmetria, chiamato centro di γ ed è nel punto medio di
spazio F1 F2 ;
Piano nello
spazio • ha due assi di simmetria ortogonali, chiamati assi di γ;
Posizione
reciproca tra
• l’asse che congiunge F1 F2 è chiamato asse dei fuochi;
retta e piano
• ciascuno degli assi cartesiani interseca γ in due punti, chiamati vertici, e
Fasci e stella di
piani sono indicati A1 , A2 i vertici di γ appartenenti all’asse dei fuochi e B1 , B2 i
Le coniche vertici appartenenti all’altro asse;
• ha d(A1 , A2 ) = 2a e d(B1 , B2 ) = 2b e i segmenti A1 A2 e B1 B2 prendono
nome rispettivamente asse maggiore ed asse minore dell’ellisse.
Dati l’ellisse γ e una retta r , questa può essere:
Sistemi di
riferimento secante: la retta r interseca γ in due punti:
Retta nel piano
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
tangente: la retta r interseca γ in un punto:
Sistemi di
riferimento
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
Parabola
Sistemi di Sia F un punto e sia d una retta non passante per F , del piano π.
riferimento
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
Sistemi di In particolare si ha:
riferimento
Piano nello
spazio
x2 + (y − p/2)2 = (y + p/2)2 ⇒ x 2 + y 2 +
(p/2)
2 − 2p/2y = y 2 + (p/2)
2 + py ⇒
Posizione
reciproca tra 2py = x 2 .
retta e piano
1
Fasci e stella di
Denotando a = 2p , si ha:
piani
y = ax 2
Le coniche
ed è chiamata equazione canonica della parabola γ. Si tratta di una parabola
con vertice nell’origine e asse di simmetria l’asse delle ordinate.
La parabola ha l’andamento indicato nella figura:
Sistemi di
riferimento
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
La parabola ha le seguenti caratteristiche:
• è una curva aperta costituita da un solo ramo;
Sistemi di • non possiede centri di simmetria;
riferimento
• ha un solo asse di simmetria ortogonale che interseca γ in un solo punto
Retta nel piano
Retta nello
detto vertice;
spazio • le rette parallele all’asse, detti diametri, sono secanti a γ.
Piano nello
spazio Si consideri la parabola γ di equazione y = ax 2 e si vuole traslare il vertice in un
Posizione punto V 0 = (x0 , y0 ) :
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
La traslazione è una trasformazione che permette di non cambiare la figura, quindi
una parabola di equazione y = ax 2 sarà traslata in una parabola di equazione
Sistemi di y 0 = a(x 0 )2 . La trasformazione che permette di traslare il sistema di riferimento
riferimento
0xy in un sistema di riferimento O 0 x 0 y 0 dove O 0 ha coordinate O = (x0 , y0 ) è
Retta nel piano
rappresentato da:
Retta nello ( (
spazio x 0 = x + x0 x = x 0 − x0
⇒
Piano nello
spazio y 0 = y + y0 y = y 0 − y0
Posizione
reciproca tra
Sostituendo nell’equazione canonica della parabola γ, si ottiene:
retta e piano
Fasci e stella di
y 0 − y0 = a(x 0 − x0 )2 ⇒ y 0 = a(x 0 )2 − 2ax0 x 0 + ax02 + y0 .
piani
Denotando:
Le coniche
b = −2ax0 c = ax02 + y0
e per comodità si pone y 0 = y e x 0 = x, si ottiene la sequente equazione canonica
della parabola traslata:
y = ax 2 + bx + c
con a 6= 0.
Sistemi di
riferimento
Retta nello
Data l’equazione della parabola traslata, allora si ha che il vertice V , posizionato
spazio nell’origine, sarà traslato nel punto di coordinate
Piano nello
spazio
b 2 − 4ac
0 b b ∆
Posizione V = (x0 , y0 ) = − , − = − ,−
reciproca tra 2a 4a 2a 4a
retta e piano
Fasci e stella di
piani denotando ∆ = b 2 − 4ac.
Le coniche
Dati la parabola γ e una retta r , questa può essere:
Sistemi di
riferimento secante: la retta r interseca γ in due punti:
Retta nel piano
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
Sistemi di
tangente: la retta r interseca γ in un punto:
riferimento
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
Sistemi di esterna: la retta r non ha alcun punto di intersezione con la parabola γ :
riferimento
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
Iperbole
Siano considerati:
Sistemi di
• π;
riferimento
• F1 , F2 ∈ π;
Retta nel piano
Retta nello
• u un’unità di misura per i segmenti;
spazio
• d(F1 F2 ) = 2c la distanza tra i due punti F1 e F2
Piano nello
spazio
Posizione Definizione
reciproca tra
retta e piano Si definisce iperbole il luogo γ dei punti di π le cui distanze da F1 e F2 hanno
Fasci e stella di
piani
differenza uguale, in valore assoluto, a un numero reale assegnato 2a, con
Le coniche
0 ≤ a < c. I punti F1 e F2 sono chiamati fuochi, c è chiamata distanza focale
ed e = ca è chiamata eccentricità
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche
Sistemi di
riferimento
Posizione
• ha un centro di simmetria (centro di γ), nel punto medio del segmento F1 F2 ;
reciproca tra
retta e piano • due assi di simmetria ortogonale (assi di γ), nella retta di F1 e F2 e nell’asse
Fasci e stella di di F1 F2 : il primo interseca γ in due punti (vertici) e si dice asse trasverso, il
piani
Le coniche
secondo non interseca γ e si dice asse non trasverso.
Sistemi di Si dicono asintoti di γ le rette che approssimano il comportamento dei rami
riferimento
Retta nello
spazio
Piano nello
spazio
Posizione
reciproca tra
retta e piano
Fasci e stella di
piani
Le coniche