Sei sulla pagina 1di 399

Insiemi

L’insieme é definito dagli oggetti che lo costituiscono, che si chiamano elementi.


Simbolicamente gli insiemi vengono indicati con le lettere maiuscole e gli elementi
Insiemi possono essere rappresentati come segue:
Applicazioni • per elencazione;
Gruppi • per proprietà caratteristica P(x).
Esempi di
Gruppi Descrivere un insieme per elencazione s’intende scrivere il nome dell’insieme
Anelli e Campi seguito dagli elementi intervallati da una virgola.
Esempi di
Campi Esempio
Il seguente insieme:
A = {a, b, c, d, ...}.
Si tratta di un insieme definito per elencazione.
Descrivere un insieme per proprietà caratteristica P(x) s’intende scrivere il nome
dell’insieme seguito dalla proprietà che gli elementi costituenti devono soddisfare.
Si scriverà:
A = {x | P(x)}
Esempio
Insiemi
Il seguente insieme:
Applicazioni

Gruppi
A = {x | x é una persona nata a Napoli nel 1950 }.
Esempi di
Gruppi

Anelli e Campi
Si tratta di un insieme definito per proprietà caratteristica: P(x) :=le persone
Esempi di nate a Napoli e nel 1950.
Campi

Se A è un insieme ed x è un elemento di A, si scrive:

x ∈ A.

Se invece l’elemento x non appartiene all’insieme A, si scrive:

x 6∈ A.
Insiemi

Applicazioni
Vi sono i seguenti insiemi numerici:
Gruppi
• N = {1, 2, 3, 4, ...};
Esempi di
Gruppi
• N0 = {0, 1, 2, 3, ...};
Anelli e Campi

Esempi di
• Z = {..., −2, −1, 0, 1, 2, ...};
Campi
• Q= m

n | m, n ∈ Z, n 6
= 0 ;
• R = {x | x reale } ;
• C = {x + iy | x, y ∈ R} .
Siano A e B due insiemi.
Definizione
Insiemi
B é un sottoinsieme o parte di A, B ⊆ A, se ogni elemento di B é anche
Applicazioni

Gruppi
elemento di A. Il simbolo ⊆ é chiamato inclusione.
Esempi di
Gruppi Gli insiemi A e B sono uguali se hanno gli stessi elementi, in particolare:
Anelli e Campi

Esempi di
A = B ⇔ A ⊆ B e B ⊆ A.
Campi

Inoltre un insieme privo di elementi é chiamato insieme vuoto ed é indicato con ∅.


Dato un insieme
A = {a, b, c, d, ...},
si possono considerare ad esempio le seguenti parti:
• ∅;
• A;
• {a}, {b}, {c}, ... che sono chiamati singleton.
Insiemi

Applicazioni ∅ e A sono chiamati parti improprie di A, mentre ogni altra parte, B, diversa
Gruppi dall’insieme vuoto e dall’insieme A stesso, é chiamata parte propria di A e viene
Esempi di indicato B ⊂ A. Il simbolo ⊂ é chiamato inclusione stretta.
Gruppi
Siano A e B insiemi.
Anelli e Campi

Esempi di Definizione
Campi
Si definisce unione di A e B il seguente insieme:

A ∪ B = {x | x ∈ A o x ∈ B}
Insiemi

Applicazioni

Gruppi Definizione
Esempi di
Gruppi Si definisce intersezione di A e B il seguente insieme:
Anelli e Campi

Esempi di
A ∩ B = {x | x ∈ A e x ∈ B}
Campi

Qualora l’intersezione dei due insiemi è un insieme vuoto, A ∩ B = ∅, i due insiemi


A e B si dicono disgiunti.
Definizione
Si definisce differenza di A e B il seguente insieme:
Insiemi

Applicazioni
A − B = {x | x ∈ A e x 6∈ B}
Gruppi

Esempi di
Gruppi
Se B ⊆ A, allora la differenza di A e B si chiama complemento di B rispetto ad
Anelli e Campi
A e si ha:
Esempi di
Campi A − B = {x ∈ A | x 6∈ B}.
Siano A, B e C insiemi, le operazioni di intersezione, unione e differenza si
combinano tra loro attraverso le seguenti proprietà:
A ∪ ∅ = A;
A ∩ ∅ = ∅;
A − ∅ = A;
A − A = ∅;
Iterativa dell’intersezione: A ∩ A = A;
Iterativa dell’unione: A ∪ A = A;
Insiemi Commutativa dell’intersezione: A ∩ B = B ∩ A;
Applicazioni Commutativa dell’unione: A ∪ B = B ∪ A;
Gruppi
Associativa dell’intersezione: A ∩ (B ∩ C ) = (A ∩ B) ∩ C ;
Esempi di
Gruppi
Associativa dell’unione: A ∪ (B ∪ C ) = (A ∪ B) ∪ C ;
Anelli e Campi

Esempi di
1◦ legge di assorbimento: A ∩ (A ∪ B) = A;
Campi
2◦ legge di assorbimento: A ∪ (A ∩ B) = A;
1◦ relazione di De Morgan: A − (B ∪ C ) = (A − B) ∩ (A − C );
2◦ relazione di De Morgan: A − (B ∩ C ) = (A − B) ∪ (A − C );
Distributiva dell’unione rispetto all’intersezione: A ∪ (B ∩ C ) = (A ∪ B) ∩ (A ∪ C );
Distributiva dell’intersezione rispetto all’unione: A ∩ (B ∪ C ) = (A ∩ B) ∪ (A ∩ C ).
Insiemi

Applicazioni

Gruppi

Esempi di
Seguono la dimostrazione della 1◦ e della 2◦ legge di assorbimento.
Gruppi

Anelli e Campi Dimostrazione.


Esempi di
Campi
É ovvio che x ∈ A ⇔ x ∈ A e x ∈ A ∪ B e quindi A = A ∩ (A ∪ B). Analogamente
x ∈ A ⇔ x ∈ A o x ∈ (A ∩ B) e quindi A = A ∪ (A ∩ B).
Segue la dimostrazione della 1◦ relazione di De Morgan.
Dimostrazione.
Insiemi

Applicazioni
Si procede dimostrando la doppia inclusione, ovvero dimostrare:
Gruppi
A − (B ∪ C ) ⊆ (A − B) ∩ (A − C ) (A − B) ∩ (A − C ) ⊆ A − (B ∪ C )
Esempi di
Gruppi

Anelli e Campi Sia considerato un elemento x ∈ A − (B ∪ C ), allora:


Esempi di
Campi
x ∈ A e x 6∈ B ∪ C ⇒ x ∈ A e (x 6∈ B e x 6∈ C ).

Ciò implica che l’elemento x 6∈ B e x 6∈ C e dunque é un elemento sia dell’insieme


differenza A − B e A − C , cioé x ∈ (A − B) ∩ (A − C ). Sia considerato un
elemento x ∈ (A − B) ∩ (A − C ), allora x è un elemento dell’insieme A che
contemporaneamente non è presente nell’insieme B e C . Allora x é un elemento
dell’insieme A tale che x 6∈ B ∪ C , ovvero x ∈ A − (B ∪ C ).

La 2◦ relazione di De Morgan è dimostrata in modo analogo.


Siano A e B due insiemi.
Definizione
Insiemi
Si definisce prodotto cartesiano di A e B l’insieme:
Applicazioni

Gruppi
A × B = {(a, b) : a ∈ A e b ∈ B}
Esempi di
Gruppi

Anelli e Campi ovvero l’insieme delle coppie (a, b), in cui la prima coordinata a é un elemento
Esempi di dell’insieme A e la seconda coordinata b é un elemento dell’insieme B.
Campi

Proposizione 1

A×B =B ×A⇔A=B

Dimostrazione.
Si osserva che, prese due coppie, (a, b) e (a0 , b 0 ), di A × B, allora:
0 0 0 0
Esempio

Insiemi
Siano considerati gli insiemi A = {a, b} e B = {1, 2, 3}, allora il prodotto
Applicazioni
cartesiano tra i due insiemi A e B é:
Gruppi

Esempi di
A × B = {(a, 1), (a, 2), (a, 3), (b, 1), (b, 2), (b, 3)}
Gruppi

Anelli e Campi mentre il prodotto cartesiano tra i due insiemi B e A è:


Esempi di
Campi
B × A = {(1, a), (1, b), (2, a), (2, b), (3, a), (3, b)}.

Si osserva che A × B 6= B × A.
La definizione di prodotto cartesiano può essere estesa ad un numero finito di
insiemi: A1 , A2 , . . . , An . Esso é definito come l’insieme delle n−uple ordinate
(a1 , a2 , . . . , an ) la cui i−sima coordinata ai é un elemento dell’insieme Ai . Tale
insieme si denota con:
A1 × A2 × · · · × An .
Siano considerati due insiemi A e B.

Insiemi
Definizione
Applicazioni Una relazione R fra i due insiemi A e B è un sottoinsieme del prodotto cartesiano
Gruppi tra A e B :
Esempi di R ⊆ A × B.
Gruppi

Anelli e Campi

Esempi di In particolare, presa una coppia (x, y ) ∈ A × B, se (x, y ) ∈ R, gli elementi, x e y ,


Campi
si diranno essere in relazione R e si scriverà: xRy . Una relazione R ⊆ A × A, tra
l’insieme A e A, si chiama relazione binaria. Una relazione binaria R può essere:
riflessiva se: ∀x ∈ A xRx;
antiriflessiva se: ∀x ∈ A x 6 Rx;
simmetrica se: xRy ⇒ y Rx
asimmetrica se: xRy e y Rx ⇒ x = y ;
transitiva se: xRy e y Rz ⇒ xRz.
Esempio
Sia considerato l’insieme dei numeri interi Z e in esso la parte R costituita dalle
Insiemi

Applicazioni
coppie ordinate (x, y ) tali che y − x ∈ N0 . Essa é una relazione binaria in Z. Si ha:
Gruppi
xRy ⇔ x ≤ y .
Esempi di
Gruppi

Anelli e Campi Tale relazione é riflessiva, asimmetrica e transitiva. Una relazione cosı̀ fatta é
Esempi di chiamata relazione d’ordine usuale in Z.
Campi

Esempio
Sia considerato l’insieme dei numeri interi Z e la parte R0 costituita dalle coppie
ordinate (x, y ) tali che y − x ∈ N. Essa é una relazione binaria in Z. Si ha:

xR0 y ⇔ x < y .

Tale relazione é antiriflessiva e transitiva. Una relazione cosı̀ fatta é chiamata


relazione d’ordine stretto usuale in Z.
Siano considerati:
Insiemi • A e B due insiemi;
Applicazioni
• C ⊆ A e D ⊆ B due sottoinsiemi;
Gruppi

Esempi di
• R ⊆ A × B una relazione tra i due insiemi.
Gruppi

Anelli e Campi Definizione


Esempi di
Campi L’insieme ottenuto come intersezione tra il prodotto cartesiano C × D e la
relazione, R, (C × D) ∩ R, é una relazione. Tale relazione é chiamata relazione
indotta da R sugli insiemi C e D.

Definizione
Una relazione binaria R sull’insieme A é detta relazione d’equivalenza in A se é
riflessiva, simmetrica e transitiva.
Applicazioni
Diamo qui una definizione intuitiva di applicazione. Una definizione piú precisa
sará data in seguito. Siano considerati due insiemi A e B. Una funzione o
Insiemi applicazione f consiste di un insieme A chiamato dominio di f , di un insieme B
Applicazioni chiamato codominio di f e di una legge che associa ad ogni elemento x ∈ A uno e
Gruppi
un solo elemento f (x) ∈ B. Simbolicamente é indicata come segue:
Esempi di
Gruppi

Anelli e Campi
f : A −→ B
Esempi di
x −→ y .
Campi

Come abbiamo detto i due insiemi sono chiamati rispettivamente:


• A dominio della funzione f ;
• B codominio della funzione f .
L’elemento y ∈ B al quale l’elemento x ∈ A é associato é chiamato immagine
dell’elemento x rispetto alla funzione f . Simbolicamente è indicata come segue:

y = f (x).
Insiemi Sia data una funzione f : A −→ B. Essa é:
Applicazioni • iniettiva, se
Gruppi
∀x1 , x2 ∈ A : f (x1 ) = f (x2 ) ⇒ x1 = x2 ;
Esempi di
Gruppi
• suriettiva, se
Anelli e Campi
∀y ∈ B, ∃x ∈ A : y = f (x);
Esempi di
Campi
• biettiva, se
∀y ∈ B, ∃!x ∈ A : y = f (x).
In particolare una funzione é biettiva se é iniettiva e suriettiva; infatti per ogni
elemento y ∈ B, la suriettività garantisce l’esistenza dell’elemento x ∈ A di cui é
immagine, mentre l’iniettività garantisce l’unicità del suddetto elemento x ∈ A.
Siano considerati:
• S e T due insiemi;
Insiemi
• f : S → T un’applicazione;
Applicazioni

Gruppi • A ⊆ S.
Esempi di
Gruppi Definizione
Anelli e Campi
L’applicazione fA : A → T tale che
Esempi di
Campi

fA (x) = f (x) ∀x ∈ A

é chiamata restrizione di f all’insieme A.


Se g : A → T é un’applicazione di A in T , ogni applicazione f : S → T tale che

f (x) = g (x) ∀x ∈ A

é chiamata prolungamento di g su S.
Siano considerati:
• S e T due insiemi;
Insiemi • f : S → T un’applicazione;
Applicazioni • A ⊆ S;
Gruppi • B ⊆ T.
Esempi di
Gruppi Definizione
Anelli e Campi
Il sottoinsieme:
Esempi di
Campi
f (A) = {y ∈ T | ∃x ∈ A tale che f (x) = y } ⊆ T

é chiamato immagine di A per mezzo di f .

Definizione
Il sottoinsieme:
f −1 (B) = {x ∈ S | f (x) ∈ B} ⊆ S
é chiamato antimmagine di B per mezzo di f .
Segue la proposizione che sottolinea le condizioni soddisfatte dall’antimmagine,
Insiemi per cui un’applicazione è iniettiva, suriettiva o biettiva:
Applicazioni

Gruppi
Proposizione 2
Esempi di
Gruppi
• 
Anelli e Campi { singleton }
 ∀y ∈ T
−1
Esempi di f iniettiva ⇔ f (y ) = oppure .
Campi 


f suriettiva ⇔ f −1 (y ) 6= ∅ ∀y ∈ T .

f biettiva ⇔ f −1 (y ) = { singleton } ∀y ∈ T .
Siano considerati:
• S, T e V tre insiemi;
Insiemi
• f : S → T un’applicazione;
Applicazioni

Gruppi
• g : T → V un’applicazione.
Esempi di
Gruppi Definizione
Anelli e Campi
L’applicazione:
Esempi di
Campi h: S → V
definita ponendo h(x) = g (f (x)), è chiamata applicazione composta da g e da
f . Si denota simbolicamente: g ◦ f .

Si osserva che l’operazione di composizione tra le due funzioni non è un’operazione


commutativa, ovvero: g ◦ f 6= f ◦ g . Basti considerare il seguente esempio:

f : x ∈ N → x2 ∈ N g : x ∈ N → x + 2 ∈ N.
Se si compongono le funzioni g ◦ f , si ottiene l’applicazione:
Insiemi
g ◦ f : x ∈ N → x 2 + 1 ∈ N. Se si compongono le funzioni f ◦ g , si ottiene
Applicazioni l’applicazione: f ◦ g : x ∈ N → (x + 2)2 ∈ N. Quindi:
Gruppi

Esempi di (g ◦ f )(x) = x 2 + 1 6= (x + 1)2 = (f ◦ g )(x) ∀x ∈ N.


Gruppi

Anelli e Campi L’operazione di composizioni di funzioni è un’operazione associativa, ovvero, se si


Esempi di
Campi
considerano le applicazioni:

f:A→B g: B →C h: C → D

allora
h ◦ (g ◦ f ) = (h ◦ g ) ◦ f .
In virtù della proprietà associativa, l’applicazione h ◦ (g ◦ f ) = (h ◦ g ) ◦ f si può
denotare semplicemente con h ◦ g ◦ f .
Sia considerato un insieme A
Insiemi Definizione
Applicazioni
L’applicazione f : A → A definita nel seguente modo
Gruppi

Esempi di
Gruppi f (x) = x ∀x ∈ A
Anelli e Campi

Esempi di ovvero ad ogni elemento dell’insieme A associa se stesso, è chiamata applicazione


Campi
identica nell’insieme A e si indica con IA .

L’applicazione identica è l’elemento neutro rispetto all’operazione di


composizione. In particolare, se f : A → B è un’applicazione e IA e IB le
rispettive applicazioni identiche nell’insieme A e B, si ha:

f ◦ IA = f IB ◦ f = f
Siano considerati:
• A e B due insiemi;
Insiemi • f : A → B un’applicazione.
Applicazioni
Teorema 3
Gruppi

Esempi di
Gruppi
f biettiva ⇔ ∃!g : B → A t.c. g ◦ f = IA e f ◦ g = IB .
Anelli e Campi

Esempi di
Campi
Dimostrazione.
La dimostrazione si compone in due parti:
• dimostrazione dell’esistenza dell’applicazione g ;
• dimostrazione dell’unicità dell’applicazione g .
⇒) Poiché f é un’applicazione biettiva, allora si ha:

∀y ∈ B∃!x ∈ A : f (x) = y .
Dimostrazione.
Sia definita l’applicazione g : B → A tale che g (y ) = x e la si componga con
Insiemi
l’applicazione f :
Applicazioni

Gruppi
(g ◦ f )(x) = g (f (x)) = g (y ) = x = IA .
Esempi di
Gruppi

Anelli e Campi Analogamente si procede se si considera la composizione f ◦ g .


Esempi di ⇐) Sia g : B → A un’applicazione per cui: g ◦ f = IA e f ◦ g = IB .
Campi
L’applicazione f è suriettiva, perché, preso un elemento y ∈ B:

y = IB (y ) = (f ◦ g )(y ) = f (g (y ))

dove g (y ) ∈ A. Dunque per ogni elemento y ∈ B, esiste un


elemento dell’insieme A per cui é immagine attraverso l’applicazione
f . L’applicazione f è iniettiva, perché, preso due elementi x1 , x2 ∈ A,
per cui f (x1 ) = f (x2 ). Allora si ha:
Dimostrazione.

Insiemi

Applicazioni
x1 = IA (x1 ) = (g ◦ f )(x1 ) = g (f (x1 )) = g (f (x2 )) = (g ◦ f )(x2 ) = IA (x2 ) = x2 .
Gruppi

Esempi di
Gruppi
Resta da dimostrare l’unicità dell’applicazione g . Sia considerata un’applicazione
Anelli e Campi g 0 : B → A soddisfacente le proprietà: g 0 ◦ f = IA e f ◦ g 0 = IB . Allora si ha:
Esempi di
Campi g 0 = IA ◦ g 0 = (g ◦ f ) ◦ g 0 = g ◦ (f ◦ g 0 ) = g ◦ IB = g .

In relazione al teorema precedente, data un’applicazione f : A → B biettiva, essa é


detta anche applicazione invertibile e l’applicazione g : B → A, la cui esistenza e
unicità é garantita dal teorema, é chiamata applicazione inversa di f e si denota
con f −1 . Inoltre si osserva che l’applicazione f −1 é a sua volta un’applicazione
biettiva, quindi invertibile e la sua inversa é l’applicazione f stessa. In base a ciò si
ha: (f −1 )−1 = f .
Sia considerata un’applicazione f : A → B.
Insiemi Definizione
Applicazioni
Il grafico di f é la relazione G (f ) ⊆ A × B cosı̀ definita:
Gruppi

Esempi di
Gruppi G (f ) := {(x, y ) ∈ A × B : y = f (x)}.
Anelli e Campi

Esempi di
Campi In generale si dimostra il seguente teorema:
Teorema 4
Sia considerata una relazione R ⊆ A × B, allora:

R = G (f ) ⇔ ∀x ∈ A, ∃!y ∈ B : xRy

con f : A → B applicazione e G (f ) grafico di f .


Insiemi

Applicazioni
Dimostrazione.
Gruppi
⇒) L’applicazione f : A → B, per definizione, associa ad ogni elemento
Esempi di
Gruppi x ∈ A uno ed un solo elemento y ∈ B : f (x) = y . Allora segue che:
Anelli e Campi

Esempi di
(x, y ) ∈ G (f ) ⇒ (x, y ) ∈ R ⇒ xRy .
Campi

⇐) Si definisce un’applicazione f : A → B che fa corrispondere ad ogni


x ∈ A l’unico elemento y ∈ B tale che xRy . Dunque y = f (x)
equivale ad xRy e quindi R = G (f ).
Insiemi

Applicazioni

Gruppi
Il teorema precedente permette di dare una definizione piú precisa di applicazione.
Esempi di
Gruppi
Definizione
Anelli e Campi

Esempi di
Siano A e B insiemi. Un’applicazione f : A → B di dominio A e codominio B é
Campi
una terna ordinata (A, B, R), dove R é una relazione fra A e B soddisfacente la
condizione del teorema 4. Si pone y = f (x) ⇔ xRy .
Gruppi

Sia considerato un insieme S non vuoto.


Insiemi

Applicazioni

Gruppi
Un’operazione interna ⊥ nell’insieme S é un’applicazione:
Esempi di
Gruppi ⊥: S × S → S
Anelli e Campi (x, y ) → x ⊥ y
Esempi di
Campi
per ogni coppia (x, y ) ∈ S × S. Il simbolo x ⊥ y é letto x composto y .

L’operazione ⊥ é detta:

associativa: ∀x, y , z ∈ S (x ⊥ y ) ⊥ z = x ⊥ (y ⊥ z);


commutativa: ∀x, y ∈ S x ⊥ y = y ⊥ x.
Definizione
Insiemi Un elemento u ∈ S è detto elemento neutro rispetto all’operazione ⊥ se:
Applicazioni

Gruppi ∀x ∈ S x ⊥ u = x = u ⊥ x.
Esempi di
Gruppi

Anelli e Campi
Proposizione 5
Esempi di
Campi
Se u ∈ S è l’elemento neutro rispetto all’operazione ⊥, allora u è unico.

Dimostrazione.
Si supponga che ci sia un altro elemento neutro u 0 ∈ S. Allora si ha:

u = u ⊥ u0 = u0 ⇒ u = u0.
Sia S un insieme non vuoto e ⊥ l’operazione interna. Inoltre si supponga che S sia dotato
di elemento neutro u rispetto all’operazione ⊥ .
Insiemi Definizione
Applicazioni
Un elemento x 0 ∈ S é detto simmetrico dell’elemento x ∈ S rispetto all’operazione ⊥ se:
Gruppi

Esempi di x ⊥ x 0 = u = x 0 ⊥ x.
Gruppi

Anelli e Campi

Esempi di Proposizione 6
Campi
Se l’operazione ⊥ è associativa e x 0 ∈ S è l’elemento simmetrico dell’elemento x ∈ S
rispetto all’operazione ⊥, allora x 0 é unico.

Dimostrazione.
Si supponga che ci sia un altro elemento x 00 ∈ S che é il simmetrico dell’elemento x ∈ S
rispetto all’operazione ⊥ . In base alla definizione si ha: x ⊥ x 00 = u = x 00 ⊥ x. Allora si
ha:
x 0 = x 0 ⊥ u = x 0 ⊥ (x ⊥ x 00 ) = (x 0 ⊥ x) ⊥ x 00 = u ⊥ x 00 = x 00 ⇒ x 0 = x 00 .
Insiemi
Una struttura algebrica è una coppia (S, ⊥), dove S è un insieme non vuoto e ⊥ è
Applicazioni
l’operazione interna definita nell’inisieme S.
Gruppi

Esempi di Definizione
Gruppi

Anelli e Campi La struttura algebrica (S, ⊥) è detta un gruppo se:


Esempi di 1 ⊥ è un’operazione associativa;
Campi
2 esiste l’elemento neutro rispetto all’operazione ⊥;
3 ogni elemento di S è dotato di simmetrico.
Inoltre se l’operazione ⊥ è commutativa, il gruppo (S, ⊥) é detto gruppo
abeliano.
Esempi

Si dice che è stata adottata la notazione additiva, quando il simbolo


Insiemi dell’operazione interna è +. Se nella struttura algebrica (S, +):
Applicazioni • esiste l’elemento neutro, esso è indicato con 0 ed è chiamato zero;
Gruppi
• ogni elemento x ∈ S è dotato di simmetrico, esso è indicato con −x ed é
Esempi di
Gruppi chiamato opposto di x.
Anelli e Campi

Esempi di Esempi
Campi

• Sia considerata la struttura algebrica (N, +), dove N é l’insieme dei numeri
interi positivi {1, 2, 3, . . .} . Esso NON é un gruppo, poiché non esiste
l’elemento neutro 0 e nessun numero naturale é dotato di opposto. Inoltre se
si considera l’insieme N0 , e quindi vi é anche lo 0, la struttura algebrica
(N0 , +) continua a NON essere un gruppo, poiché, sebbene esista l’elemento
neutro 0, nessun numero naturale é dotato di opposto.
Esempi
Insiemi

Applicazioni • Sia considerata la struttura algebrica (Z, +), dove Z è l’insieme dei numeri
Gruppi interi {. . . , −3, −2, −1, 0, 1, 2, 3, . . .} . Esso è un gruppo abeliano, poiché
Esempi di
Gruppi
esiste l’elemento neutro 0 e ogni numero intero è dotato di opposto, + è
Anelli e Campi associativa e commutativa.
Esempi di • Sia considerata la struttura algebrica (Q, +), dove Q è l’insieme dei numeri
Campi
razionali m

n : m, n ∈ Z e n 6= 0 . Esso è un gruppo abeliano, poiché esiste
l’elemento neutro 0 e ogni numero razionale è dotato di opposto e + é
associativa e commutativa.
• Sia considerata la struttura algebrica (R, +), dove R è l’insieme dei numeri
reali. Esso è un gruppo abeliano, poiché esiste l’elemento neutro 0, ogni
numero reale è dotato di opposto e + é associativa e commutativa.
Si dice che è stata adottata la notazione moltiplicativa, quando il simbolo
dell’operazione interna è ·. Se nella struttura algebrica (S, ·):
Insiemi • esiste l’elemento neutro, esso é indicato con 1 ed è chiamato unità;
Applicazioni • ogni elemento x ∈ S è dotato di simmetrico, esso è indicato con x −1 ed é
Gruppi chiamato inverso di x.
Esempi di
Gruppi Esempi
Anelli e Campi
Si osservi che nei nostri insiemi l’operazione · é associativa e commutativa.
Esempi di
Campi • La struttura algebrica (N, ·) NON è un gruppo, poiché nessun numero intero
positivo è dotato di inverso, eccetto l’unità stessa. Analogo se si considera la
struttura algebrica (N0 , +).
• La struttura algebrica (Z, ·) NON è un gruppo, poiché nessun numero intero
è dotato di inverso, eccetto l’unità 1 e −1.
• La struttura algebrica (Q∗ , ·), dove Q∗ é l’insieme dei numeri razionali privato
dello 0 è un gruppo abeliano, poiché é dotata dell’unità e ogni numero
razionale di Q∗ é dotato di inverso.
Esempi
Insiemi • La struttura algebrica (R∗ , ·), dove R∗ é l’insieme dei numeri reali privato
Applicazioni
dello 0 é un gruppo abeliano, poiché é dotata dell’unità e ogni numero reale
Gruppi
di R∗ é dotato di inverso.
Esempi di
Gruppi

Anelli e Campi Esempi Speciali


Esempi di
Campi Si consideri l’insieme R dei numeri reali e sia considerato un intero positivo n ≥ 2.
Si definisce l’insieme delle n-ple di numeri reali il seguente insieme:

Rn = {(a1 , a2 , . . . , an ) : ai ∈ R} .

Si definisca nell’insieme Rn l’operazione + nel seguente modo:

(a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = (a1 + b1 , a2 + b2 , . . . , an + bn ).


Esempi Speciali
La struttura algebrica (Rn , +) é un gruppo abeliano in cui l’elemento neutro é la
Insiemi

Applicazioni
n-pla (0, 0, . . . , 0) e ogni suo elemento (a1 , a2 , . . . , an ) ∈ Rn é dotato di opposto
Gruppi
che corrisponde alla n-pla (−a1 , −a2 , . . . , −an ).
Esempi di
Gruppi Esempi Speciali
Anelli e Campi

Esempi di
Siano m, n ∈ N due interi positivi. Una matrice A di tipo (m, n) ad elementi reali
Campi é una tabella di mn numeri reali disposti lungo m righe e n colonne:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= ··· ··· ··· ···.

am1 am2 · · · amn

Una matrice A può essere scritta in forma abbreviata: A = (aij ) con i = 1, . . . , m


e j = 1, . . . , n.
Esempi Speciali
Si definisce l’insieme delle matrice di m righe e n colonne:
Insiemi

Applicazioni
M m×n (R) = {A = (aij ) : aij ∈ R con i = 1, . . . , m e j = 1, . . . , n} .
Gruppi

Esempi di
Gruppi Si definisce nell’insieme M m×n (R) l’operazione + nel seguente modo:
Anelli e Campi

Esempi di A + B = (aij ) + (bij ) = (aij + bij ).


Campi

La struttura algebrica (M m×n (R), +) é un gruppo abeliano in cui l’elemento


neutro é la matrice, 0 = (0), ad elementi nulli, chiamata matrice nulla, e ogni suo
elemento A = (aij ) ∈ M m×n (R) é dotato di opposto che corrisponde alla matrice
−A = (−aij ).
Sia R l’insieme dei numeri reali e n ≥ 1 un intero. Si definisce l’insieme dei
polinomi di grado al più uno a coefficienti in R nelle indeterminate x1 , x2 , . . . , xn :

R[x1 , x2 , . . . , xn ] = {a0 + a1 x1 + . . . + an xn : ai ∈ R} .
Insiemi

Applicazioni
Esempi Speciali
Gruppi

Esempi di
Si definisca nell’insieme R[x1 , x2 , . . . , xn ] l’operazione + nel seguente modo:
Gruppi

Anelli e Campi (a0 +a1 x1 +. . .+an xn )+(b0 +b1 x1 +. . .+bn xn ) = (a0 +b0 )+(a1 +b1 )x1 +. . .+(an +bn )xn .
Esempi di
Campi La struttura algebrica (R[x1 , x2 , . . . , xn ], +) é un gruppo abeliano in cui
l’elemento neutro è il polinomio nullo 0 = 0 + 0x1 + . . . + 0xn , e ogni suo
elemento a0 + a1 x1 + . . . + an xn ∈ R[x1 , x2 , . . . , xn ] é dotato di opposto che
corrisponde al polinomio −a0 − a1 x1 − . . . − an xn .
Anelli e Campi

Sia K un insieme non vuoto e si definiscano le due operazioni + e ·.


Insiemi

Applicazioni
Definizione
Gruppi La struttura algebrica (K, +, ·) é detto un anello se:
Esempi di
Gruppi
1 (K, +) é un gruppo abeliano;
Anelli e Campi 2 l’operazione · é associativa;
Esempi di
Campi 3 l’operazione · é distributiva rispetto all’operazione +:

∀x, y , z ∈ A (x + y ) · z = x · z + y · z e x · (y + z) = x · y + x · z.

Inoltre se l’operazione · é commutativa, l’anello (K, +, ·) è detto anello


commutativo.
Se l’anello (K, +, ·) ammette l’unità 1 rispetto all’operazione ·, l’anello é detto
anello unitario.
Sia K un insieme con almeno due elementi e munito di due operazioni che
Insiemi indicheremo rispettivamente con + e ·.
Applicazioni

Gruppi
Definizione
Esempi di La terna (K, +, ·) é detta un campo se sono verificate le seguenti proprietà:
Gruppi

Anelli e Campi 1 (K, +) é un gruppo abeliano;


Esempi di
Campi
2 esiste in K − {0} un elemento 1 neutro rispetto al prodotto;
3 il prodotto é associativo e commutativo;
4 ogni elemento diverso da zero ha inverso;
5 per ogni terna a, b, c ∈ K si ha:

a(b + c) = ab + ac.
Insiemi

Applicazioni Proposizione 7
Gruppi
Sia K un campo, allora:
Esempi di
Gruppi ∀a ∈ K a0 = 0
Anelli e Campi

Esempi di
Campi Dimostrazione.

ab = a(b + 0) = ab + a0 ⇒ a0 = 0.
Proposizione 8
Insiemi Sia K un campo. Allora
Applicazioni

Gruppi ab = 0 ⇔ a = 0 oppure b = 0
Esempi di
Gruppi

Anelli e Campi
Dimostrazione.
Esempi di
Campi
⇐) Se a = 0 oppure b = 0, allora, per la Proposizione (7), ab = 0.
⇒) Se a = 0 l’asserto é provato; si supponga che a 6= 0 e quindi esso
ammette inverso a−1 . Allora, moltiplicando entrambi i membri
dell’uguaglianza ab = 0 con a−1 , si ha:

a−1 (ab) = a−1 0 ⇒ (a−1 a)b = 0 ⇒ 1b = 0 ⇒ b = 0.


Insiemi
Ne segue che se a e b sono due elementi di K diversi da zero allora il loro
Applicazioni
prodotto é diverso da zero. Se poniamo K∗ = K − {0} allora si verifica che (K∗ , ·)
Gruppi

Esempi di
è un gruppo abeliano.
Gruppi In relazione agli esempi precedenti, é possibile già affermare che le strutture
Anelli e Campi algebriche (N, +, ·) e (Z, +, ·) NON sono campi. In particolare (Z, +, ·) é un
Esempi di
Campi
anello commutativo e unitario.
Esempi
La struttura algebrica (Q, +, ·) é un campo. Analogo discorso é per le strutture
algebriche (R, +, ·) e (C, +, ·).
Insiemi

Applicazioni

Gruppi

Esempi di
Gruppi

Anelli e Campi

Esempi di
Campi
Spazio vettoriale su un campo

Siano considerati:
Spazio vettoriale
su un campo
• (K, +, ·) un campo i cui elementi sono chiamati scalari;
Proprietà • V un insieme non vuoto i cui elementi sono chiamati vettori.
Sottospazio
vettoriale Si definiscano:
Lineare • l’operazione interna nell’insieme V di addizione, +:
dipendenza e
basi

Operazioni tra +: V × V → V
sottospazi
(u, v ) → u + v

• l’operazione esterna all’insieme V rispetto al campo K di moltiplicazione, •:

•: K × V → V
(α, v ) → α • v
Definizione
Uno spazio vettoriale sul campo K è una quaterna (V , K, +, •) costituita
Spazio vettoriale
su un campo dall’insieme V , dal campo K, dall’operazione interna + e dall’operazione esterna
Proprietà •, tale che valgono le seguenti proprietà:
Sottospazio
vettoriale 1 (V , +) è un gruppo abeliano;
Lineare
dipendenza e 2 α • u + α • v = α • (u + v ) ∀α ∈ K e ∀u, v ∈ V ;
basi

Operazioni tra 3 α • u + β • u = (α + β) • u ∀α, β ∈ K e ∀u ∈ V ;


sottospazi
4 (α · β) • u = α • (β • u) ∀α, β ∈ K e ∀u ∈ V ;
5 1 • u = u con 1 l’unità del campo K e ∀u ∈ V .

Per convenzione:
• lo spazio vettoriale sul campo K sarà indicato con V ;
• si scriverà αβ per indicare α · β;
• si scriverà αu per indicare α • u;
Esempi
Sia considerato un campo K e sia n ≥ 2 un intero positivo.
Esempio
Spazio vettoriale
su un campo
Sia considerato il seguente insieme:
Proprietà

Sottospazio
vettoriale Kn := {(a1 , a2 , . . . , an ) : ai ∈ K}
Lineare
dipendenza e
basi
e si definisca l’operazione di addizione + (vedi Esempi Speciali nel paragrafo
Operazioni tra
Gruppi):
sottospazi

(a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = (a1 + b1 , a2 + b2 , . . . , an + bn ).

Inoltre si definisca l’operazione esterna • nel seguente modo:

α • (a1 , a2 , . . . , an ) = (αa1 , αa2 , . . . , αan ).

Per la convenzione fatta precedentemente, si scriverà α(a1 , a2 , . . . , an ) per indicare


α • (a1 , a2 , . . . , an ).
Esempio
Spazio vettoriale Valgono le proprietà richieste, infatti:
su un campo

Proprietà
• é risaputo che la struttura (Kn , +) è un gruppo abeliano, dunque segue la
Sottospazio proprietà (1).
vettoriale
• Siano α ∈ K e (a1 , a2 , . . . , an ), (b1 , b2 , . . . , bn ) ∈ Kn , allora:
Lineare
dipendenza e
basi
α(a1 , a2 , . . . , an ) + α(b1 , b2 , . . . , bn ) = (αa1 , αa2 , . . . , αan ) + (αb1 , αb2 , . . . , αbn ) =
Operazioni tra
sottospazi (αa1 + αb1 , αa2 + αb2 , . . . , αan + αbn ).

D’altro canto:

α((a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn )) = α(a1 + b1 , a2 + b2 , . . . , an + bn ) =


(α(a1 + b1 ), α(a2 + b2 ), . . . , α(an + bn )) = (αa1 + αb1 , αa2 + αb2 , . . . , αan + αbn ).

Dunque segue la proprietà (2).


Esempio
Spazio vettoriale • Siano α, β ∈ K e (a1 , a2 , . . . , an ) ∈ Kn , allora:
su un campo

Proprietà
α(a1 , a2 , . . . , an ) + β(a1 , a2 , . . . , an ) = (αa1 , αa2 , . . . , αan ) + (βa1 , βa2 , . . . , βan ) =
Sottospazio
vettoriale (αa1 + βa1 , αa2 + βa2 , . . . , αan + βan ).
Lineare
dipendenza e
basi
D’altro canto:
Operazioni tra
sottospazi (α + β)(a1 , a2 , . . . , an ) = ((α + β)a1 , (α + β)a2 , . . . , (α + β)an ) =
(αa1 + βa1 , αa2 + βa2 , . . . , αan + βan ).

Dunque segue la proprietà (3).


• Siano α, β ∈ K e (a1 , a2 , . . . , an ) ∈ Kn , allora:

(αβ)(a1 , a2 , . . . , an ) = ((αβ)a1 , (αβ)a2 , . . . , (αβ)an ) = (α(βa1 ), α(βa2 ), . . . , α(βan )).


Esempio
D’altro canto:
Spazio vettoriale
su un campo

Proprietà α(β(a1 , a2 , . . . , an )) = α(βa1 , βa2 , . . . , βan ) = (α(βa1 ), α(βa2 ), . . . , α(βan )).


Sottospazio
vettoriale Dunque segue la proprietà (4).
Lineare
dipendenza e
• Siano 1 l’unità del campo K e (a1 , a2 , . . . , an ) ∈ Kn , allora:
basi

Operazioni tra 1(a1 , a2 , . . . , an ) = (1a1 , 1a2 , . . . , 1an ) = (a1 , a2 , . . . , an ).


sottospazi

Dunque segue la proprietà (5).

Kn è detto spazio vettoriale numerico di dimensione n sul campo K.

Sia considerato un campo K e siano n, m ∈ N due interi positivi.


Esempio
Sia considerato l’insieme delle matrici di m righe e n colonne:
Esempio
Spazio vettoriale
su un campo
Mm,n (K) = {A = (aij ) : aij ∈ K con i = 1, . . . , m e j = 1, . . . , n} .
Proprietà

Sottospazio e si definisca l’operazione di addizione + (vedi Esempi Speciali nel paragrafo


vettoriale
Gruppi):
Lineare
dipendenza e A + B = (aij ) + (bij ) = (aij + bij ).
basi

Operazioni tra Inoltre si definisca l’operazione esterna • nel seguente modo:


sottospazi

α • A = α • (aij ) = (αaij ).

Per la convenzione fatta precedentemente, si scriverà αA per indicare α • A.


Procedendo come nell’esempio precedente, é facile dimostrare che Mm,n (K) è uno
spazio vettoriale.
Mm,n (K) è detto spazio vettoriale delle matrici di dimensione nm sul campo K.
Sia considerato un campo K e sia n ≥ 1 un intero positivo.
Esempio
Spazio vettoriale
su un campo Sia considerato l’insieme dei polinomi di grado al più uno:
Proprietà

Sottospazio
vettoriale
K[x1 , x2 , . . . , xn ] = {a0 + a1 x1 + . . . + an xn : ai ∈ K} .
Lineare
dipendenza e e si definisca l’operazione di addizione + (vedi Esempi Speciali nel paragrafo
basi
Gruppi):
Operazioni tra
sottospazi
(a0 +a1 x1 +. . .+an xn )+(b0 +b1 x1 +. . .+bn xn ) = (a0 +b0 )+(a1 +b1 )x1 +. . .+(an +bn )xn .

Inoltre si definisca l’operazione esterna • nel seguente modo:

α • (a0 + a1 x1 + . . . + an xn ) = αa0 + αa1 x1 + . . . + αan xn .

Per la convenzione fatta precedentemente, si scriverà α(a0 + a1 x1 + . . . + an xn )


per indicare α • (a0 + a1 x1 + . . . + an xn ).
Spazio vettoriale
su un campo

Proprietà Esempio
Sottospazio
vettoriale Procedendo come nel primo esempio, è facile dimostrare che K[x1 , x2 , . . . , xn ] è
Lineare uno spazio vettoriale.
dipendenza e
basi
K[x1 , x2 , . . . , xn ] è detto spazio vettoriale dei polinomi di grado
Operazioni tra
sottospazi al più uno sul campo K.

Di solito i vettori vengono denotati con una sottolineatura, per semplicità non li
sottolineeremo.
Proprietà

Sia V uno spazio vettoriale definito su un campo K, sfruttando le proprietà della


Spazio vettoriale
su un campo definizione di spazio vettoriale, si hanno le seguenti proposizioni:
Proprietà
Proposizione 1
Sottospazio
vettoriale

Lineare
dipendenza e ∀v ∈ V 0v = 0
basi

Operazioni tra
sottospazi
Dimostrazione.
Sia α ∈ K uno scalare.

αv = (α + 0)v = αv + 0v ⇒ 0v = 0
Spazio vettoriale
su un campo Proposizione 2
Proprietà

Sottospazio
vettoriale ∀α ∈ K α0 = 0
Lineare
dipendenza e
basi

Operazioni tra
Dimostrazione.
sottospazi
Sia v ∈ V un vettore.

αv = α(v + 0) = αv + α0 ⇒ α0 = 0.
Proposizione 3
Spazio vettoriale
su un campo

Proprietà
∀α ∈ K ∀v ∈ V αv = 0 ⇔ α = 0 o v = 0.
Sottospazio
vettoriale

Lineare
dipendenza e
basi
Dimostrazione.
Operazioni tra ⇒) Si supponga α 6= 0, allora, moltiplicando entrambi i membri
sottospazi
dell’uguaglianza αv = 0 per α−1 , si ha:

α−1 (αv ) = α−1 0 ⇒ (α−1 α)v = 0 ⇒ 1v = 0 ⇒ v = 0.

⇐) α = 0 o v = 0 ⇒ αv = 0.
Spazio vettoriale Proposizione 4
su un campo

Proprietà

Sottospazio ∀α ∈ K ∀v ∈ V − (αv ) = (−α)v = α(−v )


vettoriale

Lineare
dipendenza e
basi Dimostrazione.
Operazioni tra
sottospazi •
αv + (−α)v = (α − α)v = 0v = 0 ⇒ (−α)v = −(αv ).

αv + α(−v ) = α(v − v ) = α0 = 0 ⇒ α(−v ) = −(αv ).
Sottospazio vettoriale
Siano considerati:
• V uno spazio vettoriale definito su un campo K;
Spazio vettoriale
su un campo
• H ⊆ V un sottoinsieme non vuoto di V .
Proprietà
Definizione
Sottospazio
vettoriale Il sottoinsieme H dello spazio vettoriale V è definito sottospazio vettoriale se:
Lineare
dipendenza e
basi 1 ∀u, v ∈ H u + v ∈ H;
Operazioni tra
sottospazi
2 ∀α ∈ K, ∀u ∈ H αu ∈ H.
Si indicherà H ≤ V .

Osservazione
Sia H un sottospazio vettoriale di V , allora contiene almeno il vettore nullo 0.
Infatti, poiché H é un sottoinsieme non vuoto di V , dovrà possedere almeno un
vettore u. Considerando 0u = 0, per la proprietà (2), si ha 0 = 0u ∈ H, cioè
0 ∈ H.
Esempio
Spazio vettoriale
su un campo
Sia V uno spazio vettoriale sul campo K. Allora è facile dimostrare che H = {0} e
Proprietà
H = V sono sottospazi vettoriali di V . Essi si chiamano sottospazi banali.
Sottospazio
vettoriale

Lineare
dipendenza e
Esempio
basi

Operazioni tra
Siano considerati:
sottospazi
• V = R2 lo spazio vettoriale sul campo R;
• H = {(a, 2a) : a ∈ R} ⊆ R2 .
Allora H ≤ V . Infatti siano considerati due vettori u e v in H, dunque sono vettori
del tipo:
u = (a, 2a) v = (b, 2b) .
Spazio vettoriale
Esempio
su un campo

Proprietà
Allora:
Sottospazio
vettoriale u + v = (a, 2a) + (b, 2b) = (a + b, 2a + 2b) = (a + b, 2(a + b)).
Lineare
dipendenza e
basi La seconda componente del vettore ottenuto è il doppio della prima componente,
Operazioni tra risulta che u + v ∈ H. Segue la proprietà (1) della definizione.
sottospazi
Si α ∈ R uno scalare reale e sia u ∈ H un vettore del tipo (a, 2a). Allora:

α(a, 2a) = (αa, 2αa)

poiché la seconda componente è il doppio della prima componente, risulta che


αu ∈ H. Segue la proprietà (2) della definizione.
Esempio
Spazio vettoriale
su un campo Siano considerati:
Proprietà
• V = M2,3 (R) lo spazio vettoriale sul campo R;
Sottospazio   
vettoriale
a a a
Lineare
• H= :a∈R .
dipendenza e
a a 1
basi
Allora H 6≤ V . Infatti è sufficiente
 notare che, considerata la matrice A ∈ H,
Operazioni tra
sottospazi a a a
quindi del tipo A = e preso 0 ∈ R, si ha:
a a 1
   
a a a 0 0 0
0A = 0 = 6∈ H.
a a 1 0 0 0

Dunque viene meno la proprietà (2).


Lineare dipendenza e basi
Siano considerati:
• V uno spazio vettoriale sul campo K;
Spazio vettoriale • v1 , v2 , . . . , vn ∈ V n vettori di V ;
su un campo

Proprietà
• α1 , α2 , . . . , αn ∈ K n scalari di K.
Sottospazio
vettoriale
Definizione
Lineare Una combinazione lineare dei vettori v1 , v2 , . . . , vn rispetto agli scalari
dipendenza e
basi α1 , α2 , . . . , αn è:
Operazioni tra α1 v1 + α2 v2 + · · · + αn vn .
sottospazi

Il vettore u, ottenuto dalla combinazione lineare dei vettori v1 , v2 , . . . , vn rispetto


agli scalari α1 , α2 , . . . , αn ,

u = α1 v1 + α2 v2 + · · · + αn vn

si dice essere dipendente linearmente dai vettori v1 , v2 , . . . , vn . Gli scalari


α1 , α2 , . . . , αn , presenti nella combinazione lineare sono detti coefficienti della
combinazione lineare.
Siano considerati:
• V uno spazio vettoriale sul campo K;
Spazio vettoriale • v1 , v2 , . . . , vn ∈ V n vettori di V ;
su un campo
• H ⊆ V il sottoinsieme di V delle combinazioni lineari dei vettori
Proprietà
v1 , v2 , . . . , vn :
Sottospazio
vettoriale
H = {α1 v1 + α2 v2 + · · · + αn vn : αi ∈ K per i = 1, 2, . . . , n}
Lineare
dipendenza e
basi
Proposizione 5
Operazioni tra
sottospazi
Il sottoinsieme H ⊆ V è un sottospazio vettoriale di V : H ≤ V .

Dimostrazione.
Si considerino i vettori u, v ∈ V , quindi:

u = α1 v1 + α2 v2 + · · · + αn vn αi ∈ K per i = 1, 2, . . . , n
v = β1 v1 + β2 v2 + · · · + βn vn βi ∈ K per i = 1, 2, . . . , n
Dimostrazione.
Spazio vettoriale
su un campo
Dunque:
Proprietà

Sottospazio
vettoriale u + v = α1 v1 + α2 v2 + · · · + αn vn + β1 v1 + β2 v2 + · · · + βn vn =
Lineare
dipendenza e
(α1 + β1 )v1 + (α2 + β2 )v2 + . . . + (αn + βn )vn
basi

Operazioni tra ovvero u + v è combinazione lineare di vettori v1 , v2 , . . . , vn e quindi u + v ∈ H.


sottospazi
Siano α ∈ K e u ∈ H, allora:

αu = α(α1 v1 + α2 v2 + · · · + αn vn ) = αα1 v1 + αα2 v2 + · · · + ααn vn

ovvero αu è combinazione lineare di vettori v1 , v2 , . . . , vn e quindi αu ∈ H.


Valendo le due proprietà della definizione, si può concludere che H ≤ V .
Dalla proposizione (5) segue la definizione:
Definizione
Spazio vettoriale
su un campo Il sottospazio vettoriale H ≤ V delle combinazioni lineari dei vettori v1 , v2 , . . . , vn
Proprietà

Sottospazio H = {α1 v1 + α2 v2 + · · · + αn vn : αi ∈ K per i = 1, 2, . . . , n}


vettoriale

Lineare
dipendenza e é detto sottospazio generato dai vettori v1 , v2 , . . . , vn e viene indicato con il
basi
simbolo:
Operazioni tra
sottospazi H = hv1 , v2 , . . . , vn i.

Esempio
Si considerino lo spazio vettoriale R2 e i vettori u = (1, 0) e v = (2, 1). Allora

hu, v i = h(1, 0), (2, 1)i = {α(1, 0) + β(2, 1) : α, β ∈ R} = {(α + 2β, β) : α, β ∈ R}

I vettori del sottospazio generato dai vettori u e v saranno del tipo (α + 2β, β).
Si considerino:
Spazio vettoriale
• V uno spazio vettoriale sul campo K;
su un campo
• v1 , v2 , . . . , vn ∈ V n vettori di V ;
Proprietà

Sottospazio
vettoriale Definizione
Lineare
dipendenza e
Il sistema {v1 , v2 , . . . , vn } è detto un sistema di generatori per lo spazio vettoriale
basi V quando
Operazioni tra
sottospazi
V = hv1 , v2 , . . . , vn i
ovvero

∀v ∈ V ∃α1 , α2 , . . . , αn ∈ K : v = α1 v1 + α2 v2 + · · · + αn vn

Lo spazio vettoriale V è detto finitamente generato, poiché un numero finito di


vettori può generare tutti gli altri.
Esempio
Spazio vettoriale
Si considerino lo spazio vettoriale R2 e i vettori u = (1, 0) e v = (0, 2). Allora il
su un campo
sistema {u, v } é un sistema di generatori per R2 . Infatti per ogni vettore
Proprietà
(a, b) ∈ R2 risulta una loro combinazione lineare:
Sottospazio
vettoriale
b b
Lineare (a, b) = a(1, 0) + (0, 2) = au + v .
dipendenza e
basi
2 2
Operazioni tra
sottospazi

Esempio
Si considerino lo spazio vettoriale R2 e i vettori u = (1, 0), v = (0, 1) e
w = (2, 2). Allora il sistema {u, v , w } é un sistema di generatori per R2 . Infatti
per ogni vettore (a, b) ∈ R2 risulta una loro combinazione lineare:

(a, b) = a(1, 0) + b(0, 1) + 0(2, 2) = au + bv + 0w .


Esempio
Spazio vettoriale
Si considerino lo spazio vettoriale R2 e i vettori u = (1, 0) e v = (3, 1). Allora il
su un campo sistema {u, v } è un sistema di generatori per R2 . Infatti per ogni vettore
Proprietà
(a, b) ∈ R2 è possibile determinare due reali α e β tale che
Sottospazio
vettoriale

Lineare
(a, b) = α(1, 0) + β(3, 1) = (α + 3β, β).
dipendenza e
basi
Quindi basta scegliere
Operazioni tra
sottospazi α = a − 3b, β = b
cioé: (a, b) = (a − 3b)(1, 0) + b(3, 1) = (a − 3b)u + bv .

Esempio
Si considerino lo spazio vettoriale R2 e i vettori u = (1, 0) e v = (2, 0). Allora il
sistema {u, v } non é un sistema di generatori per R2 . Infatti i soli vettori che si
possono costruire con i vettori u e v sono del tipo (a, 0).
Si considerino:
• V uno spazio vettoriale sul campo K;
Spazio vettoriale
su un campo • v1 , v2 , . . . , vn ∈ V n vettori di V ;
Proprietà

Sottospazio Definizione
vettoriale

Lineare
I vettori v1 , v2 , . . . , vn sono detti linearmente indipendenti se l’unica possibilità per
dipendenza e
basi
ottenere il vettore nullo 0, come combinazione lineare dei vettori v1 , v2 , . . . , vn , è
Operazioni tra
moltiplicare scalarmente i suddetti vettori con 0. In particolare: se
sottospazi

∀α1 , α2 , . . . , αn ∈ K : α1 v1 + α2 v2 + . . . + αn vn = 0 ⇒ α1 = α2 = . . . = αn = 0.

Qualora esistano scalari α1 , α2 , . . . , αn non tutti nulli tale che

α1 v1 + α2 v2 + . . . + αn vn = 0

allora i vettori v1 , v2 , . . . , vn si dicono linearmente dipendenti.


Si considerino:
• V uno spazio vettoriale sul campo K;
Spazio vettoriale • v1 , v2 , . . . , vn ∈ V n vettori di V ;
su un campo

Proprietà
Si dimostreranno le seguenti proposizioni:
Sottospazio
vettoriale
Proposizione 6
Lineare
dipendenza e
basi I vettori v1 , v2 , . . . , vn sono linearmente dipendenti se e solo se uno di essi dipende
Operazioni tra dai rimanenti vettori.
sottospazi

Dimostrazione.
Siano considerati gli scalari α1 , α2 , . . . , αn ∈ K tale che:

α1 v1 + α2 v2 + . . . + αn vn = 0.

Se i vettori v1 , v2 , . . . , vn sono linearmente dipendenti, allora esiste un


i = 1, 2, . . . , n, tale che αi 6= 0.
Dimostrazione.
Spazio vettoriale Segue che:
su un campo

Proprietà
αi vi = −α1 v1 − α2 v2 − . . . − αi−1 vi−1 − αi+1 vi+1 − . . . − αn vn .
Sottospazio
vettoriale

Lineare Moltiplicando entrambi i membri dell’uguaglianza per αi−1 , si ha:


dipendenza e
basi

Operazioni tra αi−1 αi vi = αi−1 (−α1 v1 − α2 v2 − . . . − αi−1 vi−1 − αi+1 vi+1 − . . . − αn vn )


sottospazi
vi = −αi−1 α1 v1 − αi−1 α2 v2 − . . . − αi−1 αi−1 vi−1 − αi−1 αi+1 vi+1 − . . . − αi−1 αn vn

Ponendo βj = −αi−1 αj per j = 1, 2, . . . , n e j 6= i, si ottiene

vi = β1 v1 + β2 v2 + . . . + βi−1 vi−1 + βi+1 vi+1 + . . . + βn vn .

Dunque il vettore vi è scritto come combinazione lineare dei restanti vettori.


Spazio vettoriale
su un campo
Dimostrazione.
Proprietà Si supponga ora che esista un indice i = 1, 2, . . . , n per cui il vettore vi dipenda
Sottospazio linearmente dai restanti vettori:
vettoriale

Lineare
dipendenza e vi = α1 v1 + α2 v2 + . . . + αi−1 vi−1 + αi+1 vi+1 + . . . + αn vn .
basi

Operazioni tra
sottospazi
Si ha:

0 = α1 v1 + α2 v2 + . . . + αi−1 vi−1 + (−1)vi + αi+1 vi+1 + . . . + αn vn

ottenendo cosı̀ una combinazione lineare del vettore nullo 0 a scalari non tutti
nulli.
Come applicazione della Proposizione (6), seguono i corollari:
Spazio vettoriale
su un campo Corollary 7
Proprietà

Sottospazio
Siano u, v ∈ V − {0} due vettori non nulli, allora:
vettoriale

Lineare u, v linearmente dipendenti ⇔ v = αu con α ∈ K∗


dipendenza e
basi

Operazioni tra con K∗ = K − {0}.


sottospazi

Corollary 8
Dati i vettori v1 , v2 , . . . , vn ∈ V , allora:

∃i = 1, 2, . . . , n : vi = 0 ⇒ v1 , v2 , . . . , vn linearmente dipendenti.
Corollary 9
Spazio vettoriale Dati i vettori v1 , v2 , . . . , vn ∈ V , allora:
su un campo

Proprietà ∃i, j = 1, 2, . . . , n con i 6= j : vi = αvj ⇒ v1 , v2 , . . . , vn linearmente dipendenti.


Sottospazio
vettoriale

Lineare
dipendenza e
basi
Osservazione
Operazioni tra Se V è un qualunque spazio vettoriale, allora, per il Corollario (8), il sistema di
sottospazi
vettori
{v1 , v2 , . . . , vn , 0}
è sempre linearmente dipendente per ogni v1 , v2 , . . . , vn ∈ V .

Inoltre la Proposizione (6), che caratterizza la lineare dipendenza di un sistema di


vettori, può essere “riletta” come una proposizione che caratterizza la
lineare indipendenza di un sistema di vettori:
Proposizione 10
Spazio vettoriale I vettori v1 , v2 , . . . , vn ∈ V sono linearmente indipendenti se e solo se nessuno di
su un campo

Proprietà
essi dipende dai restanti vettori.
Sottospazio
vettoriale
Esempio
Lineare
dipendenza e
basi
Si consideri lo spazio vettoriale R3 e il sistema di vettori {u, v , w } con
Operazioni tra
sottospazi u = (1, 0, 0), v = (2, 1, 3), w = (0, −1, −3).

Si osservi che il vettore w è combinazione linare dei restanti vettori:

w = 2u − v

dunque, per la Proposizione (6), il sistema di vettori {u, v , w } è linearmente


dipendente.
Esempio
Spazio vettoriale Si consideri lo spazio vettoriale M2,3 (R) delle matrici e il sistema delle matrici
su un campo
{A, B} con
Proprietà    1 1

1 0 1 0
Sottospazio A= B= 2 2 .
vettoriale −2 0 −3 −1 0 − 32
Lineare
dipendenza e Si noti che A = 2B, ovvero le due matrici sono proporzionali e dunque, per il
basi
Corollario (7), il sistema di matrici {A, B} é linearmente dipendente.
Operazioni tra
sottospazi

Esempio
Si consideri il seguente spazio vettoriale R[x]≤2 , cioé lo spazio vettoriale dei
polinomi dipendenti da una sola variabile x, di grado al più 2. Sia preso il seguente
sistema di polinomi 1, x 2 + x, x, x 2 , 3x 2 + 3x . Si osservi che il polinomio
3x 2 + 3x è il triplo del polinomio x 2 + x, quindi sono proporzionali. Per il
Corollario (9), il sistema dato dei polinomi é linearmente dipendente.
Spazio vettoriale
su un campo

Proprietà
Esempio
Sottospazio
vettoriale
Si consideri lo spazio vettoriale R3 e il sistema di vettori {u, v , w } con
Lineare
dipendenza e
basi
u = (1, 2, 0), v = (−2, 1, 0), w = (0, 1, 1).
Operazioni tra
sottospazi
Poiché nessuno dei vettori del sistema dipende dai restanti vettori, allora, per la
Proposizione (10), è un sistema di vettori linearmente indipendenti.
Il teorema che segue caratterizza la cardinalità di un sistema di vettori di un dato
spazio vettoriale linearmente indipendenti sotto opportune ipotesi. Per cardinalità
Spazio vettoriale di un sistema di vettori è da intendersi il numero dei vettori che sono presenti nel
su un campo

Proprietà
sistema. Il teorema va sotto il nome di teorema di Steinitz, la cui dimostrazione
Sottospazio
è fatta per induzione su un intero positivo n. Ciò significa dimostrare il teorema
vettoriale seguendo i seguenti step:
Lineare
dipendenza e Step 1: dimostrare il teorema per n = 1 (Base dell’induzione);
basi

Operazioni tra
Step 2: ammettere il teorema vero per n − 1 (Ipotesi induttiva);
sottospazi
Step 3: dimostrare il teorema per n.

Teorema 11 (Steinitz)
Dato uno spazio vettoriale V e due sistemi di vettori S = {u1 , u2 , . . . , um } e
T = {v1 , v2 , . . . , vn }. Se i vettori di S sono linearmente indipendenti ed ognuno di
essi dipende dai vettori di T , allora la cardinalità di S è minore od uguale della
cardinalità di T , ovvero m ≤ n.
Dimostrazione.
Si ragiona per induzione su n ≥ 1.
Spazio vettoriale
su un campo Step 1: si ponga n = 1, ovvero si supponga che il sistema T sia costituito da un
Proprietà solo vettore: T = {v1 }. Allora anche il sistema S non può avere più di un
Sottospazio vettore, perché, se per assurdo S fosse costituito da due vettori u1 e u2 ,
vettoriale
ciascuno di essi, per ipotesi, dipenderebbe dal solo vettore v1 di T :
Lineare
dipendenza e
basi u1 = αv1 , u2 = βv1 .
Operazioni tra
sottospazi Essendo S un sistema di vettori linearmente indipendenti, deve risultare
α 6= 0 e dunque invertibile. Segue che v1 = α−1 u1 e, sostituendo v1 nella
seconda uguaglianza, si ottiene:

u2 = βα−1 u1

ovvero che i vettori u1 e u2 sono proporzionali e, per il Corollario (7),


linearmente dipendenti. Ciò è assurdo perché, per ipotesi, il sistema S é
linearmente indipendente.
Dimostrazione.
Spazio vettoriale
su un campo Step 2: sia n > 1 e si supponga il teorema vero per n − 1.
Proprietà
Step 3: si dimostra il teorema per n. Poiché, per ipotesi, ogni vettore ui ∈ S
Sottospazio
vettoriale dipende linearmente dagli n vettori di T , si ha:
Lineare
dipendenza e u1 = a11 v1 + a12 v2 + . . . + a1n vn
basi

Operazioni tra
u2 = a21 v1 + a22 v2 + . . . + a2n vn
sottospazi ·································
um = am1 v1 + am2 v2 + . . . + amn vn

con aij ∈ K scalari. L’indice i di aij é in riferimento al vettore ui , di


cui si esprime la combinazione lineare e l’indice j è in riferimento al
vettore vj nella medesima combinazione lineare.
Dimostrazione.
I vettori del sistema S sono linearmente indipendenti e dunque i suddetti vettori
Spazio vettoriale
su un campo ui 6= 0 per ogni i = 1, 2, . . . , n. Senza ledere la generalità si può considerare il
Proprietà vettore u1 e, richiedendo che non possa essere nullo, deve risultare:
Sottospazio
vettoriale
∃ j = 1, 2, . . . , n : a1j 6= 0
Lineare
dipendenza e
basi cioé vi deve essere almeno un coefficiente della combinazione lineare che non sia
Operazioni tra
sottospazi
nullo. Senza ledere la generalità si può considerare il coefficiente a11 6= 0. Allora:

a11 v1 = u1 − a12 v2 − . . . − a1n vn .


−1
Moltiplicando entrambi i membri dell’uguaglianza per a11 :
−1 −1 −1 −1
a11 a11 v1 = a11 u1 − a11 a12 v2 − . . . − a11 a1n vn ;

−1
v1 = a11 u1 + b12 v2 + . . . + b1n vn
Dimostrazione.
−1
denotando b1j = a11 a1j con j = 2, . . . , n. Si sostituisce l’espressione v1 nelle
Spazio vettoriale
su un campo relazioni di u2 , . . . , um e si ottiene:
Proprietà
−1
Sottospazio u2 = a21 (a11 u1 + b12 v2 + . . . + b1n vn ) + a22 v2 + . . . + a1n vn
vettoriale
···························
Lineare −1
dipendenza e um = am1 (a11 u1 + b12 v2 + . . . + b1n vn ) + am2 v2 + . . . + amn vn
basi

Operazioni tra
sottospazi
Svolgendo le operazioni al secondo membro dell’uguaglianza e trasportando il
termine che accompagna u1 al primo membro dell’uguaglianza, si ottiene:

u2 − c21 u1 = d22 v2 + . . . + d2n vn


···························
um − cm1 u1 = dm2 v2 + . . . + dmn vn
−1
indicando rispettivamente ci1 = ai1 a11 per i = 2, . . . , m e dij i coefficienti che
accompagnano i vettori v2 , . . . , vn .
Dimostrazione.
Costruendo i seguenti vettori:
Spazio vettoriale
su un campo

Proprietà
wi = ui − ci1 u1 i = 2, . . . , m
Sottospazio
vettoriale le precedenti relazioni diventano:
Lineare
dipendenza e
basi w2 = d22 v2 + . . . + d2n vn
Operazioni tra ··················
sottospazi
wm = dm2 v2 + . . . + dmn vn .

Il seguente sistema di vettori S 0 = {w2 , . . . , wm } soddisfa le seguenti proprietà:


• S 0 è un sistema di vettori linearmente indipendenti: perché, se cosı̀ non fosse,
ci sarebbe un vettore wi ∈ S 0 che dipenderebbe dai restanti vettori wj ∈ S 0
con j = 2, . . . , m e j 6= i. Ciò implicherebbe che anche il vettore ui ∈ S
dipenderebbe dai rimanenti vettori uj ∈ S con j = 2, . . . , m e j 6= i.
Spazio vettoriale
su un campo

Proprietà
Dimostrazione.
Sottospazio
vettoriale
• Ogni vettore di S 0 dipende linearmente dai vettori v2 , . . . , vn ∈ T .
Lineare
dipendenza e
basi
Per ipotesi induttiva (Step 2), allora la cardinalità del sistema di vettori S 0 è
Operazioni tra
minore od uguale alla cardinalità del sistema di vettori di T , ovvero:
sottospazi

m − 1 ≤ n − 1 ⇒ m ≤ n.

Segue l’asserto del teorema.


Si considerino:
• V uno spazio vettoriale sul campo K;
Spazio vettoriale
su un campo
• H ≤ V un sottospazio vettoriale di V .
Proprietà

Sottospazio
Definizione
vettoriale
Il sottospazio vettoriale H ≤ V si dice finitamente generato se esiste un numero
Lineare
dipendenza e finito di vettori v1 , v2 , . . . , vn ∈ V che lo generano, ovvero:
basi

Operazioni tra
sottospazi
H = hv1 , v2 , . . . , vn i.

Si considerino
• V uno spazio vettoriale sul campo K;
• v1 , v2 , . . . , vn ∈ V n vettori di V ;
• H = hv1 , v2 , . . . , vn i il sottospazio finitamente generato dai vettori
v1 , v2 , . . . , vn .
Proposizione 12
Se esiste un vettore vi per i = 1, 2, . . . , n, che dipende linearmente dai restanti vettori,
Spazio vettoriale
su un campo allora
Proprietà
H = hv1 , v2 , . . . , vi−1 , vi+1 , . . . vn i.
Sottospazio Ovvero il sottospazio vettoriale generato dal sistema di vettori v1 , v2 , . . . , vn coinciderà
vettoriale
con il sottospazio generato dal medesimo sistema di vettori, privato di quel vettore che
Lineare
dipendenza e dipende linearmente dai restanti.
basi

Operazioni tra
sottospazi
Dimostrazione.
Si supponga per semplicità che il vettore v1 dipenda linearmente dai restanti vettori. In
particolare il vettore v1 si potrà scrivere combinazione lineare dei vettori v2 , . . . , vn :

v1 = α2 v2 + . . . + αn vn .

Si procede dimostrando la proposizione con la doppia inclusione.


⊆: Si consideri un vettore u ∈ H = hv1 , v2 , . . . , vn i, quindi si scriverà la
combinazione lineare dei vettori v1 , v2 , . . . , vn :
Dimostrazione.

Spazio vettoriale
su un campo
u = β 1 v 1 + β2 v 2 + . . . + βn v n .
Proprietà Per quanto è stato detto prima, sostituendo l’espressione del vettore v1 nella relazione
Sottospazio precedente, si ha:
vettoriale

Lineare
dipendenza e
u = β1 (α2 v2 + . . . + αn vn ) + β2 v2 + . . . + βn vn .
basi

Operazioni tra Eseguendo le operazioni e raccogliendo a fattor comune si ottiene:


sottospazi

u = γ 2 v2 + . . . + γ n vn

denotando γi = β1 αi + βi per i = 2, . . . , n. Il vettore u è combinazione lineare dei vettori


v2 , . . . , vn e dunque u ∈ hv2 , . . . , vn i.

⊇: Si consideri un vettore u ∈ hv2 , . . . , vn i, quindi si scriverà combinazione


lineare dei vettori v2 , . . . , vn :

u = β v + ... + β v .
Dimostrazione.
Si può riscrivere tale combinazione lineare nel seguente modo:
Spazio vettoriale
su un campo

Proprietà
u = 0v1 + β2 v2 + . . . + βn vn .
Sottospazio
vettoriale Il vettore u è combinazione lineare dei vettori v1 , v2 , . . . , vn , in cui il coefficiente che
Lineare accompagna il vettore v1 è nullo. Segue che u ∈ H = hv1 , v2 , . . . , vn i. In conclusione si ha:
dipendenza e
basi
H ⊆ hv2 , . . . , vn i ⊆ H ⇒ H = hv2 , . . . , vn i.
Operazioni tra
sottospazi

La Proposizione (12) può essere iterata più volte fino ad avere solo vettori linearmente
indipendenti, ovvero:

Da un sistema di generatori é possibile eliminare tutti quei vettori che dipendono


linearmente dai restanti, ottenendo sempre un sistema di generatori per la Proposizione
(12), ma tale che i vettori costituenti siano linearmente indipendenti.
In base a ciò che è stato detto, è possibile fornire la seguente definizione:

Spazio vettoriale Definizione


su un campo
Un sistema di generatori linearmente indipendenti è chiamata base dello spazio vettoriale
Proprietà
V.
Sottospazio
vettoriale

Lineare Esempio
dipendenza e
basi
Si considerino lo spazio vettoriale R2 e il seguente sistema di vettori {(2, 1), (0, 2)} . Tale
Operazioni tra
sottospazi
sistema risulta soddisfare le seguenti proprietà:
• presa una combinazione lineare dei vettori (2, 1) e (0, 2), allora si ha:
( (
2α1 = 0 α1 = 0
α1 (2, 1)+α2 (0, 2) = 0 ⇒ (2α1 , α1 +2α2 ) = (0, 0) ⇒ ⇒
α1 + 2α2 = 0 α2 = 0.

Dunque è un sistema di vettori linearmente indipendenti.


Spazio vettoriale
su un campo
Esempio
Proprietà

Sottospazio • preso un generico vettore (a, b) ∈ R2 , si osserva che:


vettoriale

Lineare
 
a b a
dipendenza e
basi
(a, b) = (2, 1) + − (0, 2).
2 2 4
Operazioni tra
sottospazi
Dunque é un sistema di generatori per lo spazio vettoriale R2 , poiché ogni vettore di
R2 è scritto combinazione lineare dei vettori (2, 1) e (0, 2).
In conclusione: per definizione il sistema di vettori {(2, 1), (0, 2)} è una base per lo spazio
vettoriale R2 .
Proposizione 13
Spazio vettoriale
su un campo Sia V uno spazio vettoriale e B = {u1 , u2 , . . . , un } una sua base di cardinalità n. Allora
Proprietà qualsiasi altra base dello spazio vettoriale V ha cardinalità n.
Sottospazio
vettoriale
Dimostrazione.
Lineare
dipendenza e
basi
Si consideri un’altra base dello spazio vettoriale V : B 0 = {u10 , u20 , . . . , um
0
} . Per definizione
di base, si ha che i vettori di B sono linearmente indipendenti, ma, a loro volta dipendono,
Operazioni tra
sottospazi linearmente dai vettori di B 0 ; applicando il teorema di Steinitz (11), risulta n ≤ m. D’altro
canto anche i vettori di B 0 sono linearmente indipendenti, ma, a loro volta, dipendono
linearmente dai vettori di B; applicando nuovamente il teorema di Steinitz (11), risulta
m ≤ n. Allora, in conclusione:

n ≤ m ≤ n ⇒ n = m,

ovvero le due basi B e B 0 hanno la stessa cardinalità.


In base alla Proposizione (13), è possibile fornire la seguente definizione:
Definizione
Spazio vettoriale
su un campo Sia V uno spazio vettoriale finitamente generato le cui basi hanno cardinalità n. L’intero
Proprietà
positivo n è chiamato dimensione dello spazio vettoriale V e si indica: dim V = n.
Sottospazio
vettoriale
Da ora in poi si considereranno sempre spazi vettoriali finitamente generati. Le
Lineare
proposizioni che seguono evidenziano il significato di dimensione di un dato spazio
dipendenza e vettoriale. Si considerino:
basi

Operazioni tra
• V uno spazio vettoriale finitamente generato;
sottospazi
• v1 , v2 , . . . , vn , w ∈ V n + 1 vettori di V .

Proposizione 14
Se il sistema di vettori S = {v1 , v2 , . . . , vn , w } è linearmente dipendente e il sistema di
vettori S 0 = {v1 , v2 , . . . , vn } è linearmente indipendente, allora il vettore w dipende
linearmente dai vettori v1 , v2 , . . . , vn , cioé:

∃α1 , α2 , . . . , αn ∈ K : w = α1 v1 + α2 v2 + . . . + αn vn .
Dimostrazione.
Poiché, per ipotesi, il sistema di vettori S è linearmente dipendente, allora esistono scalari
Spazio vettoriale
su un campo
non tutti nulli tali che:
Proprietà
α1 v1 + α2 v2 + . . . + αn vn + αw = 0.
Sottospazio
vettoriale
Se, per assurdo α = 0, la relazione precedente sarà:
Lineare
dipendenza e
basi α1 v1 + α2 v2 + . . . + αn vn + 0w = 0 ⇒ α1 v1 + α2 v2 + . . . + αn vn = 0.
Operazioni tra
sottospazi
Dal momento in cui, per ipotesi, i vettori v1 , v2 , . . . , vn sono linearmente indipendenti,
segue che:
α1 = α2 = . . . = αn = 0.
Allora si avrebbe che la relazione precedente:

α1 v1 + α2 v2 + . . . + αn vn + αw = 0

avrebbe scalari tutti nulli: α1 = α2 = . . . = αn = α = 0. Ciò è contro l’ipotesi che il


sistema di vettori S é linearmente dipendente.
Dimostrazione.
Spazio vettoriale
su un campo Allora si dovrà avere α 6= 0 e quindi segue:
Proprietà
αw = −α1 v1 − α2 v2 − . . . − αn vn
Sottospazio
vettoriale

Lineare moltiplicando entrambi i membri dell’uguaglianza per α−1 , si avrà:


dipendenza e

α−1 αw = α−1 (−α1 v1 − α2 v2 − . . . − αn vn ) ⇒ w = β1 v1 + β2 v2 + . . . + βn vn


basi

Operazioni tra
sottospazi
indicando βi = −α−1 αi per i = 1, 2, . . . , n. In tal modo il vettore w è espresso come
combinazione linare dei vettori v1 , v2 , . . . , vn .

Proposizione 15
V è uno spazio vettoriale di dimensione n, dim V = n, se e solo se n è il massimo numero
di vettori linearmente indipendenti che lo spazio vettoriale V possiede.
Dimostrazione.

Spazio vettoriale
⇒: Sia V uno spazio vettoriale di dimensione n e B = {u1 , u2 , . . . , un } una sua
su un campo base. Si considerino un certo numero m di vettori v1 , v2 , . . . , vm ∈ V
Proprietà linearmente indipendenti. Poiché ciascuno di essi dipende linearmente dai
Sottospazio vettori di B, in qualità di base, allora, per il Teorema di Steinitz (11), deve
vettoriale
risultare m ≤ n. Pertanto n è il numero massimo di vettori linearmente
Lineare
dipendenza e
indipendenti.
basi

Operazioni tra
⇐: Sia n il numero massimo di vettori v1 , v2 , . . . , vn linearmente indipendenti.
sottospazi Si consideri un qualsiasi vettore w ∈ V distinto dai vettori vi per
i = 1, 2, . . . , n, allora il sistema di vettori

S = {v1 , v2 , . . . , vn , w }

ottenuto aggiungendo ai vettori v1 , v2 , . . . , vn il vettore w , ha cardinalità


n + 1 > n e, per la massimalità di n, il sistema di vettori S dovrà essere
linearmente dipendente. Poiché i vettori v1 , v2 , . . . , vn sono supposti
linearmente indipendenti, allora il vettore w dovrà dipendere dai vettori
v1 , v2 , . . . , vn per la Proposizione (14).
Dimostrazione.
Spazio vettoriale
Ciò vale per ogni vettore w ∈ V distinto dai vettori vi , per i = 1, 2, . . . , n, e inoltre, dato
su un campo che anche ciascun vettore vi , per i = 1, 2, . . . , n dipende linearmente dai vettori
Proprietà v1 , v2 , . . . , vn , si può concludere che il sistema di vettori {v1 , v2 , . . . , vn } è un sistema di
Sottospazio generatori per lo spazio vettoriale V . In aggiunta all’ipotesi che è un sistema di vettori
vettoriale
linearmente indipendenti, si può concludere che il sistema {v1 , v2 , . . . , vn } è una base per
Lineare
dipendenza e lo spazio vettoriale V , la cui cardinalità è n. Segue che la dimensione dello spazio
basi vettoriale V è dim V = n.
Operazioni tra
sottospazi La proposizione seguente offre una sorta di algoritmo che permette di costruire una base
di uno spazio vettoriale di una certa dimensione.

Proposizione 16
Sia V uno spazio vettoriale di dimensione n, dim V = n. Siano u1 , u2 , . . . , um , con m < n,
vettori linearmente indipendenti. Allora si possono aggiungere opportunatamente n − m
vettori um+1 , um+2 , . . . , un tali che il sistema di vettori,
{u1 , u2 , . . . , um , um+1 , um+2 , . . . , un } è una base per lo spazio vettoriale V .
Tenendo in considerazione la Proposizione (16), é possibile costruire una base di un dato
spazio vettoriale V di una certa dimensione, nel seguente modo: si consideri un vettore
Spazio vettoriale u1 ∈ V non nullo e si consideri il sottospazio generato dal vettore u1 : H1 = hu1 i. Sapendo
su un campo che il vettore u1 é indipendente, allora:
Proprietà
H1 =V
Sottospazio =⇒ {u1 } base di V
vettoriale
H1 = hu1 i oppure
Lineare
H1 ⊂V
dipendenza e
basi
=⇒ ∃u2 ∈ V : u2 6∈ H1 .
Operazioni tra
sottospazi Si consideri il sottospazio generato dai vettori u1 , u2 : H2 = hu1 , u2 i. Sapendo che, per la
Proposizione (14), il sistema di vettori {u1 , u2 } é linearmente indipendente, allora:
H2 =V
=⇒ {u1 , u2 } base di V
H2 = hu1 , u2 i oppure
H2 ⊂V
=⇒ ∃u3 ∈ V : u3 6∈ H2 .

Si consideri il sottospazio generato dai vettori u1 , u2 , u3 : H3 = hu1 , u2 , u3 i. Si itererà il


procedimento n volte, qualora lo spazio vettoriale V abbia dimensione n, dim V = n.
Si fornisce la proposizione seguente che completa le caratteristiche di una base. Prima è
opportuno dare le seguenti definizioni. Si considerino
Spazio vettoriale • S un insieme non vuoto;
su un campo

Proprietà
• X ⊆ S un sottoinsieme non vuoto di S;
Sottospazio • P é una certa proprietà assegnata.
vettoriale

Lineare
dipendenza e
basi
Definizione
Operazioni tra Il sottoinsieme X si dice munito della proprietà P, quando per ogni elemento x ∈ S:
sottospazi

x ∈ X ⇔ x soddisfa la proprietà P

Definizione
Il sottoinsieme X si dice massimale rispetto alla proprietà P, quando:

∀Y ⊆ S : X ⊂ Y ⇒ Y non ha la proprietà P.
In sostanza il concetto di sottoinsieme massimale é da intendersi nel seguente modo:
Spazio vettoriale
su un campo
il sottoinsieme Y , ottenuto dal sottoinsieme X con l’aggiunta di un elemento dell’insieme
Proprietà
S, non gode della proprietà P assegnata.
Sottospazio
vettoriale

Lineare Definizione
dipendenza e
basi Il sottoinsieme X si dice minimale rispetto alla proprietà P, quando:
Operazioni tra
sottospazi
∀Y ⊆ S : Y ⊂ X ⇒ Y non ha la proprietà P.

In sostanza il concetto di sottoinsieme minimale è da intendersi nel seguente modo:

il sottoinsieme Y , ottenuto dal sottoinsieme X sottraendo ad esso un suo elemento, non


gode della proprietà P assegnata.
Tenuto in considerazione ciò, è possibile, ora fornire la seguente proposizione:
Spazio vettoriale
su un campo
Proposizione 17
Proprietà

Sottospazio Per un sistema S = {u1 , u2 , . . . , un } di vettori dello spazio vettoriale V sono equivalenti le
vettoriale
seguenti affermazioni:
Lineare
dipendenza e
basi
1 S è una base;
Operazioni tra
sottospazi
2 S è massimale rispetto alla proprietà di essere indipendente;
3 S è minimale rispetto alla proprietà di essere un sistema di generatori;
4 S è un sistema indipendente di cardinalità massima;
5 S è un sistema di generatori di cardinalità minima.
Dimostrazione.
Si dimostri:
Spazio vettoriale
su un campo
(1) ⇔ (2)
Proprietà

Sottospazio
vettoriale ⇒: per ipotesi S è una base e, in particolare, i vettori u1 , u2 , . . . , un sono
Lineare linearmente indipendenti. Si consideri un vettore w ∈ V ; esso, per
dipendenza e
basi definizione di base, è combinazione lineare dei vettori u1 , u2 , . . . , un , quindi
Operazioni tra il sistema S 0 = {u1 , u2 , . . . , un , w }, ottenuto dal sistema S con l’aggiunta
sottospazi del vettore w , è un sistema di vettori dipendenti. Poichè ciò vale per ogni
w ∈ V , in conclusione si ha che S è un sistema massimale rispetto alla
proprietà di essere indipendente.
⇐: per ipotesi S è un sistema massimale rispetto alla proprietà di essere
indipendente e si deve dimostrare che è una base, cioé un sistema di
generatori. Per la massimalità, il sistema S 0 = {u1 , u2 , . . . , un , w }, ottenuto
dal sistema S con l’aggiunta del vettore w ∈ V , è un sistema dipendente.
Dimostrazione.
Per la Proposizione (14), si ha che il vettore w è combinazione lineare dei vettori di S. Ciò
Spazio vettoriale
su un campo
vale per ogni vettore w e, tenendo in considerazione che ogni vettore ui , per
i = 1, 2, . . . , n è combinazione lineare dei vettori di S, segue che S è un sistema di
Proprietà
generatori che è linearmente indipendente per ipotesi. In conclusione S è una base.
Sottospazio
vettoriale
Si dimostri:
Lineare
dipendenza e (1) ⇔ (3)
basi

Operazioni tra
sottospazi
⇒: per ipotesi S = {u1 , u2 , . . . , un } è una base. Si privi il sistema S di un
vettore ui , ottenendo il seguente sistema di vettori

S 0 = {u1 , u2 , . . . , ui−1 , ui+1 , . . . , un } ⊂ S.

Tale sistema non è più un sistema di generatori, infatti il vettore ui non


può essere generato come combinazione lineare dei vettori
u1 , u2 , . . . , ui−1 , ui+1 , . . . , un , perché il sistema
S = {u1 , u2 , . . . , ui−1 , ui , ui+1 , . . . , un } è linearmente indipendente.
Dimostrazione.
Spazio vettoriale
su un campo
In conclusione S è minimale rispetto alla proprietà di essere un sistema di generatori.
Proprietà ⇐: per ipotesi S è un sistema minimale rispetto alla proprietà di essere un
Sottospazio sistema di generatori e si deve dimostrare che è una base, cioé un sistema
vettoriale
di vettori indipendente. Se fosse un sistema di vettori dipendente, allora
Lineare
dipendenza e uno dei vettori ui , per i = 1, 2, . . . , n, dovrà dipendere dai restanti. Per la
basi
Proposizione (12), si ha:
Operazioni tra
sottospazi
hu1 , u2 , . . . , ui−1 , ui+1 , . . . , un i = hu1 , u2 , . . . , ui−1 , ui , ui+1 , . . . , un i = V .

Ovvero il sistema S 0 = {u1 , u2 , . . . , ui−1 , ui+1 , . . . , un }, ottenuto dal


sistema S privandolo del vettore ui , è ancora un sistema di generatori. Ciò
è assurdo per l’ipotesi di minimalità rispetto alla proprietà di essere un
sistema di generatori.
Dimostrazione.
Si dimostri:
Spazio vettoriale
su un campo
(1) ⇔ (4)
Proprietà Basta applicare la Proposizione (15).
Sottospazio
vettoriale Si dimostri:
Lineare (1) ⇔ (5)
dipendenza e
basi

Operazioni tra
sottospazi ⇒: per ipotesi S è una base, in particolare è un sistema di generatori. Se
esistessero m vettori v1 , v2 , . . . , vm generanti lo spazio vettoriale V , si
avrebbe, per il Teorema di Steinitz (11), n ≤ m. Ovvero qualsiasi altro
sistema di generatori avrebbe cardinalità almeno n. In conclusione n
esprime la minima cardinalità di un sistema di generatori e, dato che S è
un sistema di generatori, esso avrà cardinalità minima.
⇐: per ipotesi S é un sistema di generatori di cardinalità minima e si vuole
dimostrare che è una base, cioè è un sistema linearmente indipendente.
Dimostrazione.
Se non fosse un sistema linearmente indipendente, esisterebbe un vettore ui , per
Spazio vettoriale
su un campo i = 1, 2, . . . , n, dipendente dai restanti. Ma allora risulterebbe:
Proprietà

Sottospazio
hu1 , u2 , . . . , ui−1 , ui+1 , . . . , un i = hu1 , u2 , . . . , ui−1 , ui , ui+1 , . . . , un i = V .
vettoriale

Lineare Ovvero il sistema S 0 = {u1 , u2 , . . . , ui−1 , ui+1 , . . . , un }, ottenuto dal sistema S privandolo
dipendenza e
basi
del vettore ui , è ancora un sistema di generatori, nonostante la cardinalità di S 0 sia
Operazioni tra
n − 1 < n. Ciò è assurdo per l’ipotesi di cardinalità minima di essere un sistema di
sottospazi generatori.

Il tutto si può riassumere come segue:

Se V è uno spazio vettoriale finitamente generato di dimensione n, dim V = n, allora:


• n è il numero massimo di vettori linearmente indipendenti;
• n é il numero minimo di generatori per V .
Esempio
Spazio vettoriale
su un campo
Si consideri lo spazio vettoriale numerico R2 . Esso è finitamente generato e ha dimensione
Proprietà
dim R2 = 2. Dunque per costruire una sua base, sfruttando la Proposizione (17), saranno
necessari 2 vettori linearmente indipendenti:
Sottospazio
vettoriale

Lineare
(2, −1) (1, 2).
dipendenza e
basi
Facilmente si osserva che i vettori scelti sono linearmente indipendenti (anche perché non
Operazioni tra
sottospazi proporzionali tra loro). Inoltre, 2 è il minimo numero di vettori per generare lo spazio R2 ,
allora
h(2, −1), (1, 2)i = R2 .
Si può concludere che il seguente sistema:

B = {(2, −1), (1, 2)}

è una base per R2 .


Esempio Speciale
Spazio vettoriale Si consideri lo spazio vettoriale numerico Kn , con K campo, finitamente generato e di
su un campo dimensione dim Kn = n. Dunque per costruire una sua base, sfruttando la Proposizione
Proprietà (17), saranno necessari n vettori linearmente indipendenti e si considerano i seguenti:
Sottospazio
vettoriale
e1 e2 ... en
Lineare
dipendenza e
basi dove si definisce ei , per ogni i = 1, 2, . . . , n, il vettore tale che le sue componenti sono
Operazioni tra tutte zero eccetto che al i−simo posto dove vi è 1:
sottospazi

ei = (0, 0, . . . , 0, 1, 0, . . . , 0) i = 1, 2, . . . , n.

Facilmente si osserva che i vettori e1 , e2 , . . . , en sono linearmente indipendenti. Inoltre,


siccome n è il minimo numero di vettori per generare lo spazio Kn , allora

he1 , e2 , . . . , en i = Kn .

Si può concludere che il sistema: B = {e1 , e2 , . . . , en } è una base per Kn .


Spazio vettoriale
su un campo

Proprietà

Sottospazio
vettoriale

Lineare
Esempio Speciale
dipendenza e
basi La base di questo tipo è chiamata base canonica di Kn i cui vettori e1 , e2 , . . . , en sono
Operazioni tra chiamati vettori canonici dello spazio vettoriale Kn .
sottospazi
Operazioni tra sottospazi
Si considerino:
• V uno spazio vettoriale di dimensione dim V = n;
Spazio vettoriale
su un campo
• H, T ≤ V due sottospazi vettoriali.
Proprietà

Sottospazio
Proposizione 18
vettoriale

Lineare
dipendenza e H ∩ T ≤ V.
basi

Operazioni tra
sottospazi Dimostrazione.
Si deve dimostrare la validità delle due proprietà della definizione di sottospazio. Per ogni
vettore u, v ∈ H ∩ T , e ogni scalare α ∈ K si ha:
1

u, v ∈ H ∩ T ⇒ u, v ∈ H e u, v ∈ T ⇒ u + v ∈ H e u + v ∈ T ⇒ u + v ∈ H ∩ T .

2
u ∈ H ∩ T ⇒ u ∈ H e u ∈ T ⇒ αu ∈ H e αu ∈ T ⇒ αu ∈ H ∩ T .
Si può estendere la proposizione precedente anche ad una famiglia di sottospazi dello
spazio vettoriale V . Si considerino:
Spazio vettoriale
• V uno spazio vettoriale di dimensione dim V = n;
su un campo
• H = {H : H ≤ V } la famiglia dei sottospazi vettoriali dello spazio vettoriale V .
Proprietà

Sottospazio
vettoriale Osservazione
Lineare Risulta H 6= ∅, perché tra i sottospazi vettoriali ci sono quelli banali {0} e V .
dipendenza e
basi

Operazioni tra Proposizione 19


sottospazi
\
H ≤ V.
H∈H

Dimostrazione.
Si deve dimostrare
\ la validità delle due proprietà della definizione di sottospazio. Per ogni
vettore u, v ∈ H, e ogni scalare α ∈ K si ha:
H∈H
Dimostrazione.
Spazio vettoriale 1
su un campo
\ \
Proprietà u, v ∈ H ⇒ u, v ∈ H ∀H ∈ H ⇒ u + v ∈ H ∀H ∈ H ⇒ u + v ∈ H.
Sottospazio H∈H H∈H
vettoriale

Lineare
dipendenza e 2 \ \
basi u∈ H⇒u∈H ∀H ∈ H ⇒ αu ∈ H ∀H ∈ H ⇒ αu ∈ H.
Operazioni tra H∈H H∈H
sottospazi

La Proposizione (18) non vale quando si sostituisce l’operazione di intersezione con


l’operazione di unione. Segue un controesempio per cui l’unione di due sottospazi NON è
un sottospazio dello spazio vettoriale V .

Controesempio
Si consideri lo spazio vettoriale R2 e siano considerati i seguenti sottoinsiemi:
Controesempio
Spazio vettoriale
su un campo

Proprietà H = {(a, 0) : a ∈ R} , T = {(0, b) : b ∈ R} .


Sottospazio
vettoriale Facilmente si dimostra che H e T sono due sottospazi vettoriali di R2 , verificandone le
Lineare proprietà della definizione. Si consideri l’unione:
dipendenza e
basi
H ∪ T = {(a, b) : a = 0 o b = 0} .
Operazioni tra
sottospazi
Quest’ultimo non è un sottospazio, perché, se si considerano i vettori
(1, 0), (0, 1) ∈ H ∪ T e si sommano, si ottiene:

(1, 0) + (0, 1) = (1, 1) 6∈ H ∪ T .

Viene meno la prima proprietà della definizione di sottospazio e dunque H ∪ T non è un


sottospazio vettoriale di V .
Si considerino:
• V uno spazio vettoriale di dimensione dim V = n;
Spazio vettoriale
su un campo
• X ⊆ V un sottoinsieme non vuoto dello spazio vettoriale V ;
Proprietà • HX = {H : X ⊆ H ≤ V } la famiglia di sottospazi vettoriali dello spazio vettoriale V
Sottospazio contenente il sottoinsieme X .
vettoriale

Lineare
dipendenza e
Osservazione
basi
Risulta HX 6= ∅, perché tra i sottospazi vettoriali c’è quello banale V .
Operazioni tra
sottospazi
Considerando la Proposizione (19), si ha la seguente definizione:
Definizione
Si definisce sottospazio generato dal sottoinsieme X l’intersezione di tutti i sottospazi
dello spazio vettoriale V contenenti X :
\
hX i = H.
H∈HX
Proposizione 20
Il sottospazio generato dal sottoinsieme X è il più piccolo sottospazio che contiene X ,
Spazio vettoriale
su un campo ovvero ogni altro sottospazio che contiene X , deve contenere il sottospazio generato da X .
Proprietà

Sottospazio Dimostrazione.
vettoriale

Lineare
Per definizione risulta che: \
dipendenza e X ⊆ hX i = H.
basi
H∈HX
Operazioni tra \
sottospazi
Si consideri T ≤ V tale che X ⊆ T . Allora T ∈ HX e dunque H ⊆ T.
H∈HX

Si considerino:
• V uno spazio vettoriale di dimensione dim V = n;
• H, T ≤ V due sottospazi vettoriali di V .
Si sa che l’unione dei due sottospazi, H ∪ T , non è un sottospazio, ma è possibile
considerare il sottospazio generato dalla suddetta unione H ∪ T , cioè hH ∪ T i.
Si consideri il sottoinsieme L = {a + b : a ∈ H, b ∈ T } caratterizzato da tutti i vettori
ottenuti come somma di un vettore di H e di un vettore di T .
Spazio vettoriale Proposizione 21
su un campo

Proprietà

Sottospazio
L ≤ V.
vettoriale

Lineare
dipendenza e Dimostrazione.
basi

Operazioni tra
Si deve dimostrare la validità delle due proprietà della definizione di sottospazio. Per ogni
sottospazi vettore u, v ∈ L, e ogni scalare α ∈ K si ha:

⇒ ∃a ∈ H, ∃b ∈ T : u = a + b
u, v ∈ L ⇒
⇒ ∃a0 ∈ H, ∃b 0 ∈ T : v = a0 + b 0
∈H ∈T
z }| { z }| {
⇒ u + v = (a + b) + (a + b ) = (a + a ) + (b + b 0 ) ∈ L
0 0 0
Dimostrazione.
Spazio vettoriale
su un campo •
∈H ∈T
Proprietà z}|{ z}|{
Sottospazio u ∈ L ⇒ ∃a ∈ H, ∃b ∈ T : u = a + b ⇒ αu = α(a + b) = αa + αb ∈ L
vettoriale

Lineare
dipendenza e
basi

Operazioni tra Proposizione 22


sottospazi

L = hH ∪ T i.

Dimostrazione.
Bisogna dimostrare che L è il più piccolo sottospazio vettoriale contenente H ∪ T .
Dapprima si osserva per ogni vettore a ∈ H e ogni vettore b ∈ T che:
Spazio vettoriale
su un campo Dimostrazione.
Proprietà
∈H ∈T
Sottospazio z}|{ z}|{
vettoriale
a= a + 0 ∈L⇒H⊆L
Lineare
dipendenza e
⇒ H ∪ T ⊆ L.
basi b ∈L⇒T ⊆L
b = 0 + |{z}
|{z}
Operazioni tra ∈H ∈T
sottospazi
Si consideri J ≤ V tale che contenga H ∪ T :

H ∪ T ⊆ J ≤ V.
Dimostrazione.
Per ogni vettore a ∈ H e vettore b ∈ T , si ha che:
Spazio vettoriale
su un campo

Proprietà
a, b ∈ H ∪ T ⊆ J ⇒ a, b ∈ J
Sottospazio
vettoriale essendo J un sottospazio vettoriale, allora, per definizione, risulta che a + b ∈ J. Dunque
Lineare J contiene tutti vettori somma a + b :
dipendenza e
basi
a + b ∈ J ⇒ L ⊆ J.
Operazioni tra
sottospazi
Segue la dimostrazione.

Definizione
Il sottospazio generato dall’unione dei sottospazi H e T , hH ∪ T i, è chiamato
sottospazio congiungente. Per la Proposizione (22), il sottospazio congiungente è
indicato come segue:
H + T.
Le operazioni tra sottospazi vettoriali hanno conseguenze sulle rispettive dimensioni.
Siano considerati:
Spazio vettoriale
su un campo
• V uno spazio vettoriale di dimensione dim V = n;
Proprietà • H = {H : H ≤ V } la famiglia di sottospazi vettoriali dello spazio vettoriale V .
Sottospazio
vettoriale

Lineare Proposizione 23
dipendenza e
basi ∀H, T ∈ H :
Operazioni tra
sottospazi 1
H ⊆ T ⇒ dim H ≤ dim T ;

2
H ⊂ T ⇒ dim H < dim T ;

3
dim(H + T ) = dim H + dim T − dim(H ∩ T ).
Dimostrazione.
I primi due punti sono facilmente dimostrabili. Ci si concentrerà sul terzo punto. Se
Spazio vettoriale
su un campo
H ⊆ T , allora si avrà:
H ∪ T = T , H ∩ T = H.
Proprietà

Sottospazio Dunque segue:


vettoriale

Lineare dim(H + T ) = dim T dim H + dim T − dim(H ∩ T ) = dim H + dim T − dim H = dim T .
dipendenza e
basi

Operazioni tra Segue la validità della formula. Ora si supponga che nessuno dei due sottospazi vettoriali
sottospazi sia contenuto nell’altro. Indicando le dimensioni di H e T rispettivamente:

dim H = h, dim T = t

e le basi di H e T rispettivamente:

BH = {u1 , u2 , . . . , uh } , BT = {v1 , v2 , . . . , vt }

Si indichi infine con B = {u1 , u2 , . . . , uh , v1 , v2 , . . . , vt } il sistema di vettori ottenuto


dall’unione delle due basi BH e BT .
Dimostrazione.
Si dimostri:
Spazio vettoriale
su un campo
H ∩ T = {0} ⇒ B base di H + T .
Proprietà Infatti:
Sottospazio
vettoriale Lineare indipendenza: si consideri:
Lineare
dipendenza e =a =b
basi z }| { z }| {
Operazioni tra
α1 u1 + α2 u2 + . . . + αh uh + β1 v1 + β2 v2 + . . . + βt vt = 0
sottospazi
avendo posto:

a = α1 u1 + α2 u2 + . . . + αh uh , b = β1 v1 + β2 v2 + . . . + βt vt .

Poiché il vettore a è combinazione lineare dei vettori della base BH e il


vettore b è combinazione linerare dei vettori della base BT , allora
rispettivamente a ∈ H e b ∈ T . Inoltre la precedente combinazione lineare
diverrà:
a + b = 0 ⇒ a = −b.
Dimostrazione.
Spazio vettoriale Per definizione di sottospazio vettoriale, dato che b ∈ T , allora anche −b ∈ T . Ciò
su un campo
implica che
Proprietà
a ∈ H ∩ T, b ∈ H ∩ T
Sottospazio
vettoriale Per ipotesi H ∩ T = {0}, quindi
Lineare
dipendenza e
basi
a = 0, b = 0
Operazioni tra
sottospazi ovvero
α1 u1 + α2 u2 + . . . + αh uh = 0, β1 v1 + β2 v2 + . . . + βt vt = 0
Poiché BH e BT sono basi e in particolare i rispettivi vettori sono linearmente
indipendenti, si conclude:

α1 = α2 = . . . = αh = 0, β1 = β2 = . . . = βt = 0.

B è un sistema di vettori linearmente indipendenti di H + T .


Dimostrazione.

Spazio vettoriale
Sistema di generatori: si consideri un vettore v ∈ H + T , dunque
su un campo

Proprietà ∃a ∈ H, ∃b ∈ T : v = a + b.
Sottospazio
vettoriale I vettori a ∈ H e b ∈ T sono combinazione lineare dei vettori delle
Lineare rispettive basi BH e BT :
dipendenza e
basi

Operazioni tra
a = α1 u1 + α2 u2 + . . . + αh uh , b = β1 v1 + β2 v2 + . . . + βt vt .
sottospazi
Segue quindi

v = a + b = α1 u1 + α2 u2 + . . . + αh uh + β1 v1 + β2 v2 + . . . + βt vt ,

cioè il vettore v è combinazione lineare dei vettori di B. Per la generalità


del vettore v ∈ H + T , si ha che B è un sistema di generatori per H + T .
Allora, nel caso in cui H ∩ T = {0}, in particolare dim(H ∩ T ) = 0, una base di H + T é
ottenuta come unione delle rispettive basi di H e di T . Ciò implica che
Dimostrazione.
Si supponga ora che H ∩ T 6= {0} e dunque dim(H ∩ T ) = q 6= 0. Si consideri una base di
Spazio vettoriale
su un campo H ∩ T:
Proprietà BH∩T = {e1 , e2 , . . . , eq } .
Sottospazio
vettoriale
Dato che valgono le seguenti relazioni:
Lineare
dipendenza e H ∩T ⊆H dim(H ∩ T ) ≤ dim H q≤h
basi ⇒ ⇒
Operazioni tra
sottospazi
H ∩T ⊆T dim(H ∩ T ) ≤ dim T q≤t

allora per la Proposizione (16), è possibile aggiungere alla base BH∩T rispettivamente:
• h − q vettori per completarla ad una base di H, BH = {e1 , e1 , . . . , eq , uq+1 , . . . , uh },
scegliendo uq+1 , . . . , uh in H − (H ∩ T );
• t − q vettori per completarla ad una base di T , BT = {e1 , e1 , . . . , eq , vq+1 , . . . , vt } ,
scegliendo vq+1 , . . . , vt in T − (H ∩ T ).
Dimostrazione.
Si dimostri che B = {e1 , e2 , . . . , eq , uq+1 , . . . , uh , vq+1 , . . . , vt } è una base di H + T .
Spazio vettoriale
su un campo Lineare indipendenza: si consideri:
Proprietà
=a =b
Sottospazio z }| { z }| {
vettoriale
α1 e1 + . . . + αq eq + αq+1 uq+1 + . . . + αh uh + βq+1 vq+1 + . . . + βt vt = 0
Lineare
dipendenza e
basi avendo posto:
Operazioni tra
sottospazi a = α1 e1 + . . . + αq eq + αq+1 uq+1 + . . . + αh uh
b = βq+1 vq+1 + . . . + βt vt .

Poiché il vettore a è combinazione lineare dei vettori della base BH e il


vettore b é combinazione linerare dei vettori della base BT , allora
rispettivamente a ∈ H e b ∈ T . Inoltre la precedente combinazione lineare
diverrà:
a + b = 0 ⇒ a = −b.
Dimostrazione.
Spazio vettoriale Per definizione di sottospazio vettoriale, dato che b ∈ T , allora anche −b ∈ T . Ciò
su un campo
implica che
Proprietà
a ∈ H ∩ T, b ∈ H ∩ T
Sottospazio
vettoriale In particolare, poiché BH∩T è una base di H ∩ T allora:
Lineare
dipendenza e
basi βq+1 vq+1 + . . . + βt vt = b = δ1 e1 + . . . + δq eq .
Operazioni tra
sottospazi Trasportando tutti i termini al secondo membro, si ottiene:

δ1 e1 + . . . + δq eq − βq+1 vq+1 − . . . − βt vt = 0

Essendo BT una base, i vettori e1 , . . . , eq , vq+1 , . . . , vt sono linearmente indipendenti,


allora:
δ1 = . . . = δq = βq+1 = . . . = βt = 0
Dimostrazione.
Se βq+1 = . . . = βt = 0, allora la combinazione lineare iniziale diverrà:
Spazio vettoriale
su un campo
α1 e1 + . . . + αq eq + αq+1 uq+1 + . . . + αh uh = 0.
Proprietà

Sottospazio Essendo BH una base, i vettori e1 , . . . , eq , uq+1 , . . . , uh sono linearmente indipendenti,


vettoriale
allora:
Lineare
dipendenza e α1 = . . . = αq = αq+1 = . . . = αh = 0.
basi

Operazioni tra In conclusione:


sottospazi

α1 = . . . = αq = αq+1 = . . . = αh = β1 = . . . = βt = 0 ⇒ B linearmente indipendente

Sistema di generatori: si consideri un vettore v ∈ H + T , dunque

∃a ∈ H, ∃b ∈ T : v = a + b.
Dimostrazione.
I vettori a ∈ H e b ∈ T sono combinazioni lineari dei vettori delle rispettive basi BH e BT :
Spazio vettoriale
su un campo
a = α1 e1 + . . . + αq eq + αq+1 uq+1 + . . . + αh uh ,
Proprietà
b = β1 e1 + . . . + βq eq + βq+1 vq+1 + . . . + βt vt .
Sottospazio
vettoriale
Segue quindi
Lineare
dipendenza e
basi
v =a+b =
Operazioni tra
sottospazi = α1 e1 + . . . + αq eq + αq+1 uq+1 + . . . + αh uh + β1 e1 + . . . + βq eq + βq+1 vq+1 + . . . + βt vt
= δ1 e1 + . . . + δq eq + αq+1 uq+1 + . . . + αh uh + βq+1 vq+1 + . . . + βt vt

avendo posto δi = αi + βi per i = 1, 2, . . . , q. Il vettore v è combinazione lineare dei


vettori di B. Per la generalità del vettore v ∈ H + T , si ha che B è un sistema di
generatori per H + T . Segue:

dim(H + T ) = q + h − q + t − q = h + t − q = dim H + dim T − dim(H ∩ T ).


La formula dimostrata è chiamata formula di Grassmann.
Esempio
Spazio vettoriale
su un campo Si consideri lo spazio vettoriale R3 e si considerino i seguenti sottospazi:
Proprietà

Sottospazio
H = h(1, 0, 1), (−2, 0, −2)i, T = h(3, 0, 3)i.
vettoriale

Lineare
dipendenza e
basi • Si determini una base e la dimensione di H. Si osservi che {(1, 0, 1), (−2, 0, −2)} è
Operazioni tra un sistema di generatori per H e i due vettori sono proporzionali
sottospazi

(−2, 0, −2) = −2(1, 0, 1)

quindi linearmente dipendenti. Per determinare una base di H dunque è sufficiente


eliminare uno dei due vettori per garantire la lineare indipendenza. In conclusione si
ha:
BH = {(1, 0, 1)}
e dim H = 1.
Spazio vettoriale
su un campo
Esempio
Proprietà

Sottospazio
vettoriale
• Si determini una base e la dimensione di T . Si osservi che il sottospazio T é generato
Lineare
dal solo vettore (3, 0, 3) che é anche linearmente indipendente. In conclusione:
dipendenza e
basi
BT = {(3, 0, 3)}
Operazioni tra
sottospazi
e dim T = 1.
• Si determini una base e la dimensione di H ∩ T . E’ evidente che una base é (1, 0, 1)
e dim(H ∩ T ) = 1.
Spazio vettoriale
su un campo Esempio
Proprietà

Sottospazio • Si determini una base e la dimensione di H + T . Applicando la


vettoriale
formula di Grassmann, si ottiene:
Lineare
dipendenza e
basi dim(H + T ) = dim H + dim T − dim(H ∩ T ) = 1 + 1 − 1 = 1.
Operazioni tra
sottospazi Allora una base di H + T sarà costituita da un solo vettore e quindi sarà sufficiente
scegliere un vettore di H o T o H ∩ T . In conclusione:

BH+T = {(1, 0, 1)} .


Si consideri:
• V uno spazio vettoriale di dimensione dim V = n;
Spazio vettoriale • H, T ≤ V due sottospazi vettoriali di V .
su un campo

Proprietà
Definizione
Sottospazio
vettoriale I sottospazi H e T sono detti supplementari se:
Lineare
dipendenza e
basi H ∩ T = {0} , H + T = V .
Operazioni tra
sottospazi
La proposizione che segue permette di costruire due sottospazi supplementari:
Proposizione 24
Sia B = {u1 , u2 , . . . , un } una base di V e siano

H = hu1 , u2 , . . . , ut i T = hut+1 , ut+2 , . . . , un i

due sottospazi generati rispettivamente dai vettori u1 , u2 , . . . , ut e ut+1 , ut+2 , . . . , un .


Allora H e T sono supplementari.
Dimostrazione.
Si devono dimostrare le due proprietà della definizione.
Spazio vettoriale
su un campo H ∩ T = {0} : sia considerato un vettore v ∈ H ∩ T , allora:
Proprietà

Sottospazio
vettoriale
⇒ v ∈ H = hu1 , . . . , ut i ⇒ v = α1 u1 + . . . + αt ut
v ∈H ∩T ⇒
Lineare
dipendenza e ⇒ v ∈ T = hut+1 , . . . , ut i ⇒ v = αt+1 ut+1 + . . . + αn un
basi

Operazioni tra
sottospazi
⇒ α1 u1 + . . . + αt ut = αt+1 ut+1 + . . . + αn un ⇒
⇒ α1 u1 + . . . + αt ut − αt+1 ut+1 − . . . − αn un = 0.

Poiché B é una base e dunque un sistema di vettori linearmente


indipendenti, allora:

α1 = . . . = αt = αt+1 = . . . = αn = 0.

Ciò vale per ogni vettore v ∈ H ∩ T e si può concludere che H ∩ T = {0} .


Dimostrazione.
Spazio vettoriale H + T = V : si consideri un vettore v ∈ V , allora, sapendo che B è una base:
su un campo

Proprietà =a =b
z }| { z }| {
Sottospazio
vettoriale
v = α1 u1 + . . . + αt ut + αt+1 ut+1 + . . . + αn un = a + b
Lineare
dipendenza e ponendo
basi

Operazioni tra a = α1 u1 + . . . + αt ut , b = αt+1 ut+1 + . . . + αn un


sottospazi
⇓ ⇓
a∈H b∈T

poiché a è espresso come combinazione lineare dei vettori generatori di H e


b è espresso come combinazione lineare dei vettori generatori di T . Allora
ogni vettore di V è espresso come somma di un vettore di H e di un
vettore di T , quindi v ∈ H + T .
Spazio vettoriale
su un campo

Proprietà

Sottospazio
Esempio
vettoriale
Si consideri lo spazio vettoriale R3 e sia B = {(1, 2, 0), (0, 0, 1), (1, 0, 1)} una base di R3 .
Lineare
dipendenza e Allora i due seguenti sottospazi
basi

Operazioni tra
sottospazi
H = h(1, 2, 0), (0, 0, 1)i T = h(1, 0, 1)i

sono supplementari.
Spazio vettoriale
Esempio
su un campo
Dunque il solo vettore v ∈ H ∩ T è il vettore nullo 0. Inoltre, applicando la formula di
Proprietà
Grassmann, si ha:
Sottospazio
vettoriale

Lineare
dim(H + T ) = dim H + dim T − dim(H ∩ T ) = 2 + 1 = 3 = dim R3 ⇒ H + T = R3 .
dipendenza e
basi

Operazioni tra La proposizione che segue garantisce l’inverso della proposizione precedente:
sottospazi

Proposizione 25
Siano H e T sue sottospazi vettoriali supplementari di dimensione rispettivamente
dim H = t e dim T = n − t. Se BH = {u1 , u2 , . . . , ut } è una base di H e
BT = {ut+1 , ut+2 , . . . , un } è una base di T , allora B = {u1 , u2 , . . . , ut , ut+1 , ut+2 , . . . , un }
è una base di V .
Dimostrazione.
Bisogna dimostrare che il sistema di vettori B = {u1 , u2 , . . . , ut , ut+1 , ut+2 , . . . , un } é un
Spazio vettoriale
su un campo
sistema di generatori linearmente indipendente.
Proprietà Lineare indipendenza: si considerino gli scalari α1 , α2 , . . . , αt , αt+1 , . . . , αn ∈ K tale che:
Sottospazio
vettoriale =a =b
z }| { z }| {
Lineare
dipendenza e
α1 u1 + α2 u2 + . . . + αt ut + αt+1 ut+1 + . . . + αn un = 0
basi

Operazioni tra ponendo


sottospazi

a = α1 u1 + . . . + αt ut , b = αt+1 ut+1 + . . . + αn un
⇓ ⇓
a∈H b∈T

poiché a è espresso combinazione lineare dei vettori di BH e b è espresso


combinazione lineare dei vettori di BT . Allora

a + b = 0 ⇒ a = −b.
Dimostrazione.
Spazio vettoriale
Essendo T un sottospazio, anche b ∈ T . Quindi
su un campo

Proprietà a = b ∈ H ∩ T = {0}
Sottospazio
vettoriale per ipotesi di sottospazi supplementari e si può concludere che:
Lineare
dipendenza e a = 0, b=0
basi
⇓ ⇓
Operazioni tra
sottospazi α1 u1 + . . . + αt ut = 0, αt+1 ut+1 + . . . + αn un = 0

α1 = . . . = αt =
= αt+1 = . . . = αn = 0

B = {u1 , . . . , ut , ut+1 , . . . , un }
linearmente indipendenti.
Dimostrazione.
Spazio vettoriale Sistema di generatori: si consideri un generico vettore v ∈ V . Per ipotesi di sottospazi
su un campo supplementari si ha V = H + T e dunque:
Proprietà

Sottospazio ∃a ∈ H ∃b ∈ T : v = a + b.
vettoriale

Lineare Sapendo che BH e BT sono le due rispettive basi di H e T , si avrà:


dipendenza e
basi

Operazioni tra
a = α1 u1 + . . . + αt ut , b = αt+1 ut+1 + . . . + αn un .
sottospazi

Sostituendo a e b nell’espressione v = a + b, si può concludere:

v = α1 u1 + . . . + αt ut + αt+1 ut+1 + . . . + αn un

cioé il vettore v è combinazione lineare dei vettori u1 , . . . , ut , ut+1 , . . . , un .


Il sistema di vettori B = {u1 , . . . , ut , ut+1 , . . . , un } è un sistema di
generatori linearmente indipendente ovvero una base di V .
Proposizione 26
Sia H ≤ V un sottospazio vettoriale di V . Si può sempre costruire un sottospazio T
Spazio vettoriale
su un campo supplementare, cioè tale che.
Proprietà
H ∩ T = {0} , H + T = V
Sottospazio
vettoriale

Lineare
dipendenza e
basi
Proposizione 27
Operazioni tra Se H e T sono due sottospazi vettoriali supplementari di V allora:
sottospazi

∀v ∈ V ∃!a ∈ H ∃!b ∈ T : v = a + b.

Dimostrazione.
Si supponga che esistano i vettori a0 ∈ H e b 0 ∈ T tale che v = a0 + b 0 . Allora:

a + b = v = a0 + b 0 ⇒ a − a0 = b 0 − b ⇒ a − a0 , b 0 − b ∈ H ∩ T .
Spazio vettoriale
su un campo

Proprietà

Sottospazio
vettoriale
Dimostrazione.
Lineare Per ipotesi di sottospazi supplementari, cioé H ∩ T = {0} , si avrà:
dipendenza e
basi
a − a0 = 0 e b 0 − b = 0 ⇒ a = a0 e b = b 0 .
Operazioni tra
sottospazi
Spazio vettoriale Si considerino:
su un campo

Proprietà • V uno spazio vettoriale di dimensione dim V = n;


Sottospazio
vettoriale
• B = {u1 , u2 , . . . , un } e B 0 = {u10 , u20 , . . . , un0 } due basi di V .
Lineare
dipendenza e
Allora, per definizione di base, ogni vettore della base B 0 si scriverà come combinazione
basi lineare dei vettori della base B :
Operazioni tra  0
u1 = a11 u1 + a21 u2 + · · · + an1 un
sottospazi 
u 0 = a u + a u + · · · + a u

2 12 1 22 2 n2 n
. (1)
· · · · · · · · · · · · · · · · · ·


 0
un = a1n u1 + a2n u2 + · · · + ann un
La matrice che ha come colonne le coordinate dei vettori ui0 per ogni i = 1, 2, . . . , n:
 
a11 a12 . . . a1n
Spazio vettoriale
a21 a22 . . . a2n 
su un campo P= 
. . . . . . . . . . . .
Proprietà
an1 an2 . . . ann
Sottospazio
vettoriale è chiamata matrice di passaggio (o matrice di cambiamento di base). Le relazioni di
Lineare (1) possono essere scritte nella seguente forma compatta:
dipendenza e
basi
(u10 , u20 , . . . , un0 ) = (u1 , u2 , . . . , un )P.
Operazioni tra
sottospazi
Proposizione 28
La matrice di passaggio dalla base B alla base B 0 , P, è invertibile.

Dimostrazione.
Bisogna dimostrare che det P = 6 0. Il sottospazio generato hu10 , u20 , . . . , un0 i di V ha
dimensione pari al rango della matrice P. Poiché i vettori u10 , u20 , . . . , un0 costituiscono una
base, allora
dim(hu10 , u20 , . . . , un0 i) = n ⇒ ρ(P) = n ⇒ det P = 6 0.
Proposizione 29
Spazio vettoriale
su un campo Se la matrice P è la matrice di passaggio dalla base B alla base B 0 , allora la sua inversa
Proprietà P −1 è la matrice di passaggio dalla base B 0 alla base B.
Sottospazio
vettoriale

Lineare
Dimostrazione.
dipendenza e
basi
Poiché P è la matrice di passaggio dalla base B alla base B 0 , allora:
Operazioni tra
sottospazi (u10 , u20 , . . . , un0 ) = (u1 , u2 , . . . , un )P.

Inoltre, per la Proposizione (28), la matrice P è invertibile, quindi moltiplicando ambo i


membri per P −1 , si ottiene:

(u10 , u20 , . . . , un0 )P −1 = (u1 , u2 , . . . , un ).


Spazio vettoriale
su un campo

Proprietà

Sottospazio
Osservazione
vettoriale
Sia B = {e1 , e2 , . . . , en } la base canonica dello spazio vettoriale Kn e
Lineare
dipendenza e B 0 = {u1 , u2 , . . . , un } una base dello spazio vettoriale Kn . Allora la matrice di passaggio P
basi avrà come colonne i vettori u1 , u2 , . . . , un ;
Operazioni tra
sottospazi 
P = u1 u2 . . . un
Matrici

Sia K un campo e siano n ed m due interi positivi. Si definisce matrice una


Matrici tabella i cui elementi, appartenenti al campo K, sono disposti ordinatamente
Determinante di
una matrice
lungo m righe e n colonne, come segue:
Inversa di una  
matrice a11 a12 · · · a1n
Rango di una  a21 a22 · · · a2n 
matrice A= ··· ··· ··· ···

am1 am2 · · · amn

Si può scrivere la matrice in forma abbreviata:

A = (aij )

con aij ∈ K e indici i = 1, 2, . . . , m e j = 1, 2, . . . , n. Con Mm,n (K) si denota


l’insieme delle matrici di tipo m × n, i cui elementi sono definiti sul campo K.
Sia Mm,n (K) l’insieme delle matrici di tipo m × n, i cui elementi sono definiti sul
Matrici
campo K. Siano A = (aij ) e B = (bij ) due matrici del suddetto insieme con
Determinante di
una matrice i = 1, 2, . . . , m e j = 1, 2, . . . , n. Si definiscono:
Inversa di una somma: A + B = (aij ) + (bij ) = (aij + bij ), con i = 1, 2, . . . , m e
matrice

Rango di una
j = 1, 2, . . . , n.
matrice
prodotto per uno scalare: λA = λ(aij ) = (λaij ), con λ ∈ K e i = 1, 2, . . . , m e
j = 1, 2, . . . , n.

Esempio
         
2 −1 1 −1 3 −2 1 0 3 0
+ = , 3· =
−2 0 1 0 −1 0 −1 2 −3 6
La matrice di tipo m × n cosı̀ caratterizzata:
 
Matrici 0 0 ... 0
Determinante di 0 0 ... 0 
una matrice 0= 
. . . . . . . . . . . .
Inversa di una
matrice
0 0 ... 0
Rango di una
matrice
è chiamata matrice nulla ed è l’elemento neutro rispetto all’operazione di
somma, ovvero:
A + 0 = A = 0 + A.
Inoltre, presa una matrice A = (aij ) ∈ Mm,n (K), la matrice i cui elementi sono
−aij , con i = 1, 2, . . . , m e j = 1, 2, . . . , n, è chiamata matrice opposta. Essa è
denotata con −A ed è tale che:

A + (−A) = 0 = (−A) + A
Le due operazioni cosı̀ definite soddisfano le proprietà della definizione di spazio
vettoriale, cosicché si può concludere che l’insieme Mm,n (K) è uno spazio
Matrici vettoriale.
Determinante di
una matrice Definizione
Inversa di una
matrice
Mm,n (K) è chiamato spazio vettoriale delle matrici di tipo m × n. Inoltre la sua
Rango di una
dimensione è dim Mm,n (K) = mn.
matrice

Si può definire l’operazione di prodotto tra due matrici, richiedendo che:


la prima matrice deve avere un numero di colonne pari al numero delle righe della
seconda matrice.
Siano dunque A = (aij ) ∈ Mm,n (K) e B = (bij ) ∈ Mn,p (K) due matrici con la
caratteristica richiesta. Si definisce prodotto tra le due matrici A · B, la matrice
C = (chk ) ∈ Mm,p (K), i cui elementi sono ottenuti come segue:

chk = ah1 b1k + ah2 b2k + · · · + ahn bnk

con h = 1, 2, . . . , m e k = 1, 2, . . . , p.
Esempio
   
1 2 0 1 0
Matrici Siano A = ∈ M2,2 (R) e B = ∈ M2,3 (R), allora:
Determinante di
0 3 1 1 −1
una matrice
   
Inversa di una 1 · 0 + 2 · 1 1 · 1 + 2 · 1 1 · 0 + 2 · (−1) 2 3 −2
matrice A·B = =
Rango di una
0 · 0 + 3 · 1 0 · 1 + 3 · 1 0 · 0 + 3 · (−1) 3 3 −3
matrice

L’operazione di prodotto tra matrici gode della proprietà associativa:

A · (B · C ) = (A · B) · C

con A ∈ Mm,n (K), B ∈ Mn,p (K) e C ∈ Mp,q (K). Inoltre l’operazione di prodotto
tra matrici non gode della proprietà commutativa. Infatti se si considera
l’esempio precedente è stato svolto il prodotto A · B, ma non è possibile eseguire il
prodotto B · A, poiché il numero delle colonne della matrice B non coincide con il
numero delle righe della matrice A.
Data una matrice A ∈ Mm,n (K) del tipo m × n:
Matrici
 
Determinante di a11 a12 . . . a1n
una matrice
 a21 a22 . . . a2n 
Inversa di una A=
... ...

matrice ... ...
Rango di una am1 am2 . . . amn
matrice

Si definisce matrice trasposta di A, indica con il simbolo At , la matrice di Mn,m ,


ottenuta dalla matrice A in cui ogni riga si scambia con la rispettiva colonna,
ovvero:  
a11 a21 . . . am1
a12 a22 . . . am2 
At =  
. . . . . . . . . . . . 
a1n a2n . . . anm
Segue la proposizione con le proprietà della matrice trasposta:
Matrici
Proposizione 1
Determinante di
una matrice
Siano A, A0 ∈ Mm,n (K) e B ∈ Mn,p (K) e λ ∈ K, allora:
Inversa di una
matrice • (A + A0 )t = At + A0t ;
Rango di una
matrice
• (A · B)t = B t · At ;
• (λA)t = λ(At )

Definizione
Le matrici dell’insieme Mn,n (K) sono dette matrici quadrate di ordine n, i cui
elementi sono scalari del campo K. L’insieme Mn,n (K) si denota con Mn (K).
Inoltre gli elementi aii , con i = 1, 2, . . . , n, sono detti elementi che formano la
diagonale principale della matrice.
Nell’insieme Mn (K) è possibile definire la seguente matrice:
Matrici
 
Determinante di 1 0 ... 0
una matrice
0 1 ... 0 
Inversa di una In = . . .

matrice . . . . . . . . .
Rango di una
matrice
0 0 ... 1

Essa è chiamata matrice identica ed ha la caratteristica di avere 1 lungo la


diagonale principale e 0 altrove. Si può scrivere la matrice identica in forma
abbreviata, con l’uso del simbolo di Kronecker:
(
1 se i = j
In = (δij ) con δij = per i, j = 1, 2, . . . , n.
0 se i 6= j
Proposizione 2
Matrici Sia A ∈ Mm,n una matrice di tipo m × n, allora:
Determinante di
una matrice
• la matrice Im è l’elemento neutro a sinistra rispetto all’operazione di
Inversa di una prodotto tra matrici:
matrice
Im · A = A;
Rango di una
matrice
• la matrice In è l’elemento neutro a destra rispetto all’operazione di
prodotto tra matrici:
A · In = A.

Definizione
Una matrice A ∈ Mn (K) è detta essere invertibile, se esiste una matrice
B ∈ Mn (K), tale che:
A · B = In = B · A.
Determinante di una matrice

Sia considerato Mn (K) lo spazio vettoriale delle matrici quadrate di ordine n. Ad


Matrici ogni matrice A ∈ Mn (K) è possibile associare uno scalare chiamato determinante
Determinante di
una matrice
della matrice: |A| o det A. La definizione di determinante di una matrice A è come
Inversa di una
segue:
matrice
n = 1 : A = (a11 ), allora:
Rango di una
matrice |A| = a11 ;
 
a11 a12
n=2: A= , allora:
a21 a22

a11 a12
a21 a22 = a11 a22 − a12 a21

Sia considerato ora n > 2 e sia A = (aij ) ∈ Mn (K). Si fissi l’elemento ahk ,
ottenuto dall’incrocio dell’h−sima riga e la k−sima colonna della matrice.
Definizione
Si definisce minore complementare dell’elemento ahk , il determinante della
Matrici
matrice Ahk , ottenuta dalla matrice A, eliminando l’h−sima riga e la k−sima
Determinante di
una matrice colonna.
Inversa di una Lo scalare Γhk = (−1)h+k |Ahk | è detto complemento algebrico dell’elemento
matrice
ahk .
Rango di una
matrice
Segue il teorema che enuncia lo sviluppo di Laplace per righe, per il calcolo del
determinante della matrice:
Teorema 3
Pn
Per ogni indice 1 ≤ i ≤ n fissato, si ha: |A| = j=1 aij Γij .

Segue il teorema che enuncia lo sviluppo di Laplace per colonne, per il calcolo del
determinante della matrice:
Teorema 4
Pn
Per ogni indice 1 ≤ j ≤ n fissato, si ha: |A| = i=1 aij Γij .
Esempio
Sia considerata la seguente matrice di M3 (R) :
Matrici

Determinante di  
una matrice 1 0 1
Inversa di una A = 2 1 −1
matrice
0 2 −1
Rango di una
matrice
Si decide di seguire lo sviluppo di Laplace per righe, fissando, per esempio, la
prima riga:
1 −1 2 −1 2 1
|A| = 1 ·
−0· +1·
2 −1 0 −1 0 2
Calcolando il determinante delle matrici di ordine 2, come visto sopra, si ha:

|A| = 1 · (−1 + 2) − 0 · (−2 + 0) + 1 · (4 − 0) = 5.

Lo stesso risultato sarebbe stato ottenuto anche se si fosse deciso di sviluppare


secondo altra riga, oppure seguendo lo sviluppo di Laplace per una colonna fissata.
La scelta di seguire lo sviluppo di Laplace secondo righe o colonne e, soprattutto
Matrici
quale riga o quale colonna seguire, può essere indirizzata laddove sia presente
Determinante di
quella riga o quella colonna con più 0.
una matrice

Inversa di una Esempio


matrice

Rango di una Sia considerata la seguente matrice di M4 (R):


matrice
 
1 0 1 −1
0 1 0 1
A= 0 2 1

1
1 0 1 −2

La matrice è di ordine 4 e il calcolo del suo determinante potrebbe essere lungo e


laborioso. Si osserva che la prima colonna ha una presenza di 0, quindi è
conveniente seguire lo sviluppo di Laplace lungo la prima colonna:
Esempio
Matrici

Determinante di

una matrice
1 0 1 0 1 −1

Inversa di una |A| = 1 · 2 1 1 − 1 · 1 0 1
matrice 0 1 −2 2 1 1
Rango di una
matrice
Sviluppando i determinanti delle matrici di ordine 3, ovviamente, scegliendo quella
riga o quella colonna più conveniente per i calcoli, si ha:
   
1 1 0 1 1 1 1 0
|A| = 1 · 1 ·
−2· − 1 · −1 · −1·
=
1 −2 1 −2 2 1 2 1

= 1 · [1 · (−2 − 1) − 2 · (0 − 1)] − 1 · [−1 · (1 − 2) − 1 · (1 − 0)] =


= 1 · [−3 + 2] − 1 · [+1 − 1] = −1 + 0 = −1
Per le soli matrici di ordine 3, oltre allo sviluppo di Laplace, è possibile applicare
un’ulteriore regola per poter calcolare il determinante: la regola di Sarrus.
Matrici

Determinante di a11 a12 a13 a11 a12
una matrice
a21 a22 a23 a21 a22 =
Inversa di una
matrice a31 a32 a33 a31 a32
Rango di una
matrice
= (a11 a22 a33 ) + (a12 a23 a31 ) + (a13 a21 a32 ) − (a13 a22 a31 ) − (a11 a23 a32 ) − (a12 a21 a33 )

Esempio
Sia considerata la seguente matrice di ordine 3:
 
1 2 1
A = 0 2 1 .
0 1 0
Matrici

Determinante di
una matrice Esempio
Inversa di una
matrice

Rango di una
matrice 1 2 1 1 2

0 2 1 0 2 = (1 · 2 · 0) + (2 · 1 · 0) + (1 · 0 · 1) − (1 · 2 · 0) − (1 · 1 · 1) − (2 · 0 · 0) =

0 1 0 0 1

= 0 + 0 + 0 − 0 − 1 − 0 = −1.
Inversa di una matrice

Matrici
Sia A = (aij ) ∈ Mn (R) una matrice quadrata di ordine n a scalari reali. Si
Determinante di consideri la matrice quadrata di ordine n ottenuta dalla matrice A sostituendo
una matrice
l’elemento aij con il suo complemento algebrico Γij :
Inversa di una
matrice

Rango di una
A∗ = (Γij ) ∈ Mn (R).
matrice

Allora segue il teorema:


Teorema 5

A invertibile ⇔ det A 6= 0
Inoltre A−1 = 1 ∗ t
det A (A ) .
Esempio
Matrici
Sia data la seguente matrice:
Determinante di
una matrice  
Inversa di una
3 1 5
matrice A = 0 4 1  .
Rango di una
matrice
2 3 1

• Calcolare il determinante della matrice; poiché si tratta di una matrice


quadrata di ordine 3, è possibile utilizzare lo sviluppo di Laplace secondo una
riga o una colonna a scelta, oppure utilizzare la regola di Sarrus:

det A = 3 · (4 − 3) + 2 · (1 − 20) = 3 − 38 = −35.

Poiché det A 6= 0, allora, per il teorema, la matrice A è invertibile.


Esempio
Matrici • Determinare i complementi algebrici di ciascun elemento aij della matrice A :
Determinante di
una matrice 4 1 0 1 0 4
Inversa di una Γ11 = =1 Γ12 = −
=2
Γ13 = = −8
matrice 3
1
2 1 2 3

Rango di una 1 5 3 5 3 1
matrice Γ21 = − = 14 Γ22 = = −7 Γ23 = − = −7
3 1 2 1 2 3

1 5 3 5 3 1
Γ31 = = −19 Γ32 = − = −3 Γ33 = = 12
4 1 0 1 0 4

• La trasposta della matrice A∗ :


 
1 14 −19
(A∗ )t =  2 −7 −3 
−8 −7 12
Matrici

Determinante di
una matrice
Esempio
Inversa di una
matrice
• Abbiamo determinato l’inversa della matrice A, A−1 :
Rango di una
matrice  1
− 35 − 52 19

35
A−1 = − 35 2 1
5
3 
35
8 1
35 5 − 12
35
Rango di una matrice
Sia considerata una matrice A ∈ Mm,n (K), con K campo:
 
Matrici
a11 a12 · · · a1n
Determinante di
una matrice
 a21 a22 · · · a2n 
A=
··· ···
.
Inversa di una ··· ···
matrice
am1 am2 · · · amn
Rango di una
matrice
Si indichino rispettivamente:
  
a11 a12 ··· a1n ... ai1 ai2 ··· ain ... am1 am2 · · · amn
• | {z } | {z } | {z } le
r1 ri rm
m righe della matrice;
     
a11 a1i a1n
 a21   a2i   a2n 
• c1 =  .  · · · ci =  . 
  
··· cn =  .  le n colonne della matrice.
 
 ..   ..  .

 . 
am1 ami amn
Si supponga di aver individuato nella matrice p sue righe (per semplicità le prime
Matrici
p righe) con le seguenti proprietà:
Determinante di
una matrice

Inversa di una 1 r1 , . . . , rp sono indipendenti;


matrice

Rango di una
2 ogni altra riga è combinazione lineare di r1 , r2 . . . rp
matrice

Siano ri1 , . . . , rit , con i1 , . . . , it 6= 1, . . . p, t righe della matrice che sono


linearmente indipendenti tra loro. Per la Proprietà (2), queste dipendono da
r1 , . . . , rp e , dunque, per il Lemma di Steinitz, risulta t ≤ p.

Il numero massimo di righe indipendenti della matrice è p. Individuare nella


matrice un gruppo di righe con le Proprietà (1) e (2) equivale a determinare quale
sia il numero massimo di righe indipendenti che la matrice possiede.
Si supponga di aver individuato nella matrice s sue colonne (per semplicità le
Matrici
prime s colonne) con le seguenti proprietà:
Determinante di
una matrice

Inversa di una 1 c1 , . . . , cs sono indipendenti;


matrice

Rango di una
2 ogni altra colonna è combinazione lineare di c1 , c2 . . . cs
matrice

Siano cj1 , . . . , cjt , con j1 , . . . , jt 6= 1, . . . s, t colonne della matrice che sono


linearmente indipendenti tra loro. Per la Proprietà (2), queste dipendono da
c1 , . . . , cs e , dunque, per il Lemma di Steinitz, risulta t ≤ s.

Il numero massimo di colonne indipendenti della matrice è s. Individuare nella


matrice un gruppo di colonne con le Proprietà (1) e (2) equivale a determinare
quale sia il numero massimo di colonne indipendenti che la matrice possiede.
Matrici Proposizione 6
Determinante di
una matrice Il massimo numero di righe indipendenti di una matrice eguaglia il massimo
Inversa di una
matrice
numero di colonne indipendenti della matrice stessa.
Rango di una
matrice
Definizione
Il numero massimo di righe (colonne) indipendenti di una matrice è detto il rango
della matrice.
Se A ∈ Mm,n (K) è una matrice non nulla, il suo rango è indicato ρ(A) e risulta

1 ≤ ρ(A) ≤ min {m, n} .


Sia A ∈ Mm,n (K) una matrice:
 
Matrici
a11 a12 · · · a1n
Determinante di
una matrice
 a21 a22 · · · a2n 
A=
··· ···
.
Inversa di una ··· ···
matrice
am1 am2 · · · amn
Rango di una
matrice
Si scelgano h righe, ri1 , . . . , rih , e h colonne, cj1 , . . . , cjh , di A.

Un minore d’ordine h di A, sia H è una sottomatrice di A i cui elementi sono


quelli che si trovano contemporaneamente sulle righe e colonne scelte.

La prima riga di H sarà costituita dagli elementi della riga ri1 che occupano i posti
j1 , . . . , jh ; la seconda riga sarà costituita dagli elementi della riga ri2 che occupano
i posti j1 , . . . , jh ; l’ultima riga di H sarà costituita dagli elementi della riga rih che
occupano i posti j1 , . . . , jh .
Quindi  
ai1 j1 ai1 j2 · · · ai1 jh
Matrici
ai2 j1 ai2 j2 · · · ai2 jh 
H=
 ···

Determinante di ··· ··· ··· 
una matrice
aih j1 aih j2 · · · aih jh
Inversa di una
matrice

Rango di una
Esempio
matrice
Sia A la seguente matrice
 
1 2 5 1 0
A = 3 3 2 0 4 .
1 0 3 4 2

Se si scelgono la 1◦ e la 3◦ riga e la 4◦ e 5◦ colonna di A, il minore di ordine 2 è


 
1 0
H= .
4 2
Esempio
Matrici
Se, invece, si scelgono 1◦ e la 2◦ riga e la 1◦ e la 2◦ colonna di A, il minore di
Determinante di
una matrice ordine 2 è  
Inversa di una 0 1 2
H =
matrice
3 3
Rango di una
matrice

Sia H il minore di ordine h scegliendo le righe ri1 , . . . , rih e le colonne cj1 , . . . , cjh
della matrice A:  
ai1 j1 ai1 j2 . . . ai1 jh
ai2 j1 ai2 j2 . . . ai2 jh 
H=  ···

··· ··· ··· 
aih j1 aih j2 · · · aih jh
Si fissi una riga della matrice A, ri con i 6= i1 , . . . , ih e una colonna della matrice
A, cj con j 6= j1 , . . . , jh .
Definizione
Un orlato del minore H è il minore Hij d’ordine h + 1, ottenuto scegliendo le righe
Matrici
ri1 , . . . , rih , ri e le colonne cj1 , . . . , cjh , cj della matrice A:
Determinante di
una matrice
 
Inversa di una ai1 j1 ai1 j2 . . . ai1 jh ai1 j
matrice
ai2 j1 ai2 j2 . . . ai2 jh ai2 j 
Rango di una  
matrice
 ···
Hij =  ··· ··· ··· · · ·
ai j
h 1
aih j2 · · · aih jh aih j 
aij1 aij2 · · · aijh aij

Esempio
Sia A la seguente matrice:
 
1 2 5 1 0
A = 3 3 2 0 4 .
1 0 3 4 2
Matrici Esempio
Determinante di
una matrice Sia preso il minore di ordine 2:
Inversa di una  
matrice
1 0
Rango di una H= .
matrice 4 2

Scegliendo la 2◦ riga e la 1◦ colonna della matrice A, l’orlato di H è:


 
1 0 1
H21 = 4 2 3 .
0 4 1
Matrici
Teorema 7 (Teorema degli orlati)
Determinante di
una matrice
Sia A ∈ Mm,n (K) una matrice. Sia H un minore d’ordine h di A ottenuto
Inversa di una
scegliendo le righe ri1 , . . . , rih e le colonne cj1 , . . . , cjh di A. Se risulta:
matrice
1 det H 6= 0;
Rango di una
matrice 2 det Hij = 0 ∀i 6= i1 , . . . , ih e ∀j 6= j1 , . . . , jh
allora:
1 le righe ri1 , . . . , rih sono linearmente indipendenti ed ogni altra riga è una loro
combinazione lineare;
2 le colonne cj1 , . . . , cjh sono linearmente indipendenti e ogni altra colonna è
una loro combinazione lineare.
Ne consegue che il rango di A è h: ρ(A) = h.
Esempio
Determinare il rango della matrice
Matrici

Determinante di
 
una matrice 2 0 1 2
Inversa di una A = 1 −1 0 2  .
matrice
0 2 1 −2
Rango di una
matrice
Poiché è una matrice A ∈ M3,4 (R) non nulla, allora

1 ≤ ρ(A) ≤ min{3, 4} ⇒ 1 ≤ ρ(A) ≤ 3.

Dunque il rango di A, ρ(A), può essere 1 o 2 o 3.


Si scelga un minore di ordine 1 non nullo, ad esempio |2| = 2 6= 0 e si orli
aggiungendo la 2◦ riga e la 2◦ colonna della matrice, ottenendo il minore di ordine
2:  
2 0
H22 = .
1 −1
Esempio
Risulta che det H22 = −2 6= 0 e quindi si continua ad orlare, aggiungendo la 3◦
Matrici

Determinante di
una matrice riga e la 3◦ colonna della matrice, ottenendo il minore d’ordine 3:
Inversa di una  
matrice
2 0 1
Rango di una
matrice H33 = 1 −1 0 .
0 2 1

Risulta che det H33 = 0 e quindi si dovrà di nuovo orlare il minore H22 ,
aggiungendo la 3◦ riga e la 4◦ colonna della matrice, ottenendo il minore d’ordine
3:  
2 0 2
H34 = 1 −1 2  .
0 2 −2
Esempio
Matrici
Risulta che det H34 = 0 e, poiché non è possibile più orlare, allora si avrà:
Determinante di
una matrice

Inversa di una
vi è un minore d’ordine 2 con determinante non nullo e tutti i possibili suoi
matrice orlati, dunque minori d’ordine 3, hanno determinante nullo.
Rango di una
matrice
Si può concludere che ρ(A) = 2.
Per il Teorema (7) ci sono 2 righe (colonne) della matrice A linearmente
indipendenti e ogni altra riga (colonna) della matrice è una loro combinazione
lineare. Infatti, poiché det H22 6= 0, la 1◦ e la 2◦ riga della matrice sono
linearmente indipendenti e la 3◦ riga è una loro combinazione lineare:
  
0 2 1 −2 = 2 0 1 2 − 2 1 −1 0 2

Il discorso per le colonne è analogo.


Sistemi di equazioni lineari

Sistemi di
equazioni lineari
Un sistema di equazioni lineari è un sistema del tipo:
Criterio di
compatibilità 
Regola di 
 a11 x1 + a12 x2 + · · · + a1n xn = c1
Cramer


a x + a x + · · · + a x = c
21 1 22 2 2n n 2
Analisi delle
soluzioni
S:

 ·········
Sistemi 

omogenei
a x + a x + · · · + a x = c
m1 1 m2 2 mn n m

costituito da m equazioni in n incognite.


I coefficienti aij e i termini noti ci sono elementi di un fissato campo K.
Un sistema di equazioni lineari S può essere scritto in forma matriciale:
AX = C
Sistemi di
equazioni lineari
denotandocon: 
Criterio di
compatibilità
a11 a12 · · · a1n
 a21 a22 · · · a2n 
Regola di • A=  ∈ Mm,n (K) la matrice dei coefficienti;
Cramer ··· ··· ··· ···
Analisi delle
a a ··· amn
soluzioni  m1 m2
Sistemi x1
omogenei x2 
• X =  ..  ∈ Mn,1 (K)

la colonna delle incognite
.
xn
 
c1
 c2 
• C =
 ..  ∈ Mm,1 (K) la colonna dei termini noti.

 . 
cm
Dato un sistema di equazioni lineari S, AX = C una soluzione di S è un vettore
Sistemi di 
equazioni lineari Y = y1 , y2 · · · yn ∈ M1,n (K) tale che AY = C cioè
Criterio di
compatibilità

Regola di


 a11 y1 + a12 y2 + · · · + a1n yn = c1
Cramer

a y + a y + · · · + a y = c
21 1 22 2 2n n 2
Analisi delle
soluzioni 

 ·········
Sistemi

a y + a y + · · · + a y = c
omogenei m1 1 m2 2 mn n m

Quando un sistema ha almeno una soluzione, esso è detto compatibile


Quando un sistema non ha soluzione, esso è detto incompatibile.
Criterio di compatibilità

Si consideri un sistema di equazioni lineari


Sistemi di
equazioni lineari 
Criterio di


 a11 x1 + a12 x2 + · + a1n xn = c1
compatibilità 
a x + a x + · + a x = c
21 1 22 2 2n n 2
Regola di S: .
Cramer 

 · · ·
Analisi delle 
a x + a x + · + a x = c
soluzioni m1 1 m2 2 mn n m
Sistemi
omogenei
Si possono considerare due matrici:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
• A=  ∈ Mm,n (K) la matrice dei coefficienti, detta
··· ··· ··· ···
am1 am2 · · · amn
matrice incompleta;
Sistemi di
equazioni lineari

Criterio di  
compatibilità
a11 a12 · · · a1n c1
Regola di
a a22 · · · a2n c2 
• A0 =  21

Cramer  ∈ Mm,(n+1) (K) la matrice dei coefficienti
Analisi delle
··· ··· ··· ··· 
soluzioni
am1 am2 · · · amn cm
Sistemi
omogenei con l’aggiunta dei termini noti come ultima colonna, detta matrice
completa.
Si indichino le n colonne della matrice A con
Sistemi di
     
equazioni lineari a11 a12 a1n
 a21   a22   a2n 
Criterio di
compatibilità A1 =   2   n
··· A = ··· ··· A = ···
 
Regola di
Cramer am1 am2 amn
Analisi delle
soluzioni Il sistema S può essere scritto in forma vettoriale:
Sistemi
omogenei
A1 x1 + A2 x2 + · · · + An xn = C

denotando con C il vettore colonna dei termini noti.


Se y1 , y2 , · · · , yn è una soluzione del sistema, allora il vettore C dei termini
noti è combinazione lineare dei vettori A1 , A2 , · · · , An .
Sistemi di
equazioni lineari

Criterio di
compatibilità

Regola di
Se il vettore C dei termini noti è combinazione lineare dei vettori A1 , A2 , · · · , An
Cramer colonne di A
Analisi delle
soluzioni
A1 y1 + A2 y2 + · · · + An yn = C

Sistemi
omogenei
allora y1 , y2 , · · · , yn è una soluzione del sistema .

Ci sono tante soluzioni quanti sono i modi in cui C si può ottenere come
combinazione lineare dei vettori A1 , A2 , · · · , An .
Sistemi di
equazioni lineari
Proposizione 1
Criterio di
compatibilità
Il sistema 
Regola di
Cramer


a11 x1 + a12 x2 + · · · + a1n xn = c1

a x + a x + · · · + a x = c
Analisi delle
21 1 22 2 2n n 2
soluzioni S:
Sistemi 
· · · · · · · · ·
omogenei


a x + a x + · · · + a x = c
m1 1 m2 2 mn n m

ha soluzioni se e soltanto se il vettore C dei termini noti si può ottenere come


combinazione lineare dei vettori colonna A1 , A2 , · · · , An della matrice A.
Sistemi di
equazioni lineari
Proposizione 2 (Teorema di Rouchè-Capelli)
Criterio di
compatibilità
Il sistema 
Regola di
Cramer 

a11 x1 + a12 x2 + · · · + a1n xn = c1

a x + a x + · · · + a x = c
Analisi delle
21 1 22 2 2n n 2
soluzioni
S:
Sistemi 
· · · · · · · · ·
omogenei 

a x + a x + · · · + a x = c
m1 1 m2 2 mn n m

ha soluzioni se e soltanto se le due matrici A e A0 del sistema hanno lo stesso


rango.
Dimostrazione.
Si supponga che ρ(A) = ρ(A0 ) = p. Siano Aj1 , Aj2 , . . . , Ajp le p colonne
Sistemi di
equazioni lineari indipendenti della matrice A. Tali colonne sono anche colonne indipendenti della
Criterio di matrice A0 e, dato che ρ(A0 ) = p, sono di numero massimo. Ogni altra colonna di
compatibilità
A0 è combinazione lineare delle colonne Aj1 , Aj2 , . . . , Ajp . In particolare la colonna
Regola di
Cramer dei termini noti, C , è dipendente dalle colonne Aj1 , Aj2 , . . . , Ajp e quindi da tutte le
Analisi delle colonne di A. Per la [Proposizione 1], il sistema S ammette soluzioni.
soluzioni

Sistemi Si supponga che il sistema S ammetta soluzioni e si supponga che ρ(A) = p.


omogenei
Siano Aj1 , Aj2 , . . . , Ajp le p colonne indipendenti della matrice A e tale che ogni
altra colonna di A è combinazione lineare di esse. Poiché la matrice A0 è costituita
dalle colonne della matrice A con l’aggiunta della colonna dei termini noti allora:
• una qualunque colonna della matrice A0 , che non è la colonna dei termini noti
C , essendo anche colonna di A, dipende dalle colonne Aj1 , Aj2 , . . . , Ajp ;
• la colonna dei termini noti C , dipende dalle colonne Aj1 , Aj2 , . . . , Ajp , per
ipotesi [Proposizione 1].
Sistemi di
equazioni lineari

Criterio di
compatibilità

Regola di
Dimostrazione.
Cramer
Conclusione: Dunque ogni colonna della matrice A0 dipende linearmente dalle
Analisi delle
soluzioni colonne Aj1 , Aj2 , . . . , Ajp e, dato che sono colonne indipendenti nella matrice A,
Sistemi sono indipendenti anche nella matrice A0 . Si può concludere che il rango della
omogenei
matrice A0 è ρ(A0 ) = p = ρ(A).
Regola di Cramer

Sistemi di
equazioni lineari Si consideri il seguente sistema di equazioni lineari
Criterio di 
compatibilità 

 a11 x1 + a12 x2 + · · · + a1n xn = c1
Regola di 
a x + a x + · · · + a x = c
Cramer 21 1 22 2 2n n 2
S:
Analisi delle
soluzioni


 ·········

a x + a x + · · · + a x = c
Sistemi n1 1 n2 2 nn n n
omogenei

costituito da n equazioni in n incognite. Si considerino


• A ∈ Mn (K) la matrice incompleta di rango ρ;
• A0 ∈ Mn,(n+1) (K) la matrice completa di rango ρ0 .
Sistemi di
equazioni lineari

Criterio di
compatibilità Se risulta det A 6= 0 allora il sistema ha soluzioni perché ρ = ρ0 = n [Proposizione
Regola di 2]. In particolare il sistema ha una sola soluzione.
Cramer

Analisi delle
soluzioni
Infatti, scrivendo il sistema S in forma matriciale AX = C , nell’ipotesi che
Sistemi
det A 6= 0, la matrice A ammette inversa, A−1 . Dunque:
omogenei

A−1 AX = A−1 C ⇒ X = A−1 C (1)


La matrice A−1 ha nella i−sima riga i complementi algebrici degli elementi della
Sistemi di
equazioni lineari
i−sima colonna di A, divisi ciascuno per det A. Esplicitando la (1):
Criterio di     
compatibilità x1 A11 A21 · · · An1 c1
Regola di  x2  1 A12 A22 · · · An2   c2 
Cramer  =   
· · · det A  · · · · · · · · ·  · · ·
Analisi delle
soluzioni xn A1n A2n · · · Ann cn
Sistemi
omogenei
Segue:

A1i c1 + A2i c2 + · · · + Ani cn


∀i = 1, · · · , n, xi = (2)
det A
Si indichi con B i la matrice che si ottiene dalla matrice A sostituendo la sua
Sistemi di
i−sima colonna con la colonna dei termini noti:
equazioni lineari  
Criterio di a11 a12 · · · c1 · · · a1n
compatibilità a21 a22 · · · c2 · · · a2n 
Regola di Bi = · · · · · · · · · · · ·


Cramer

Analisi delle an1 an2 · · · cn · · · ann


soluzioni

Sistemi
omogenei
Osservazione
Le matrici A e B i differiscono solo nella i−sima colonna, allora i complementi
algebrici degli elementi dell’i−sima colonna di B i sono eguali ai complementi
algebrici degli elementi dell’i−sima colonna di A.

Ne segue che al numeratore di (2), ciascun ci dell’i−sima colonna di B i è


moltiplicato per il suo complemento algebrico. Dunque tale numeratore è il det B i .
Proposizione 3 (Regola di Cramer)
Sistemi di Assegnato un sistema
equazioni lineari

Criterio di

compatibilità
a11 x1 + a12 x2 + · · · + a1n xn = c1


Regola di

a x + a x + · · · + a x = c
Cramer 21 1 22 2 2n n 2
S:
Analisi delle 
·········
soluzioni 

a x + a x + · · · + a x = c
Sistemi n1 1 n2 2 nn n n
omogenei

avente n equazioni in n incognite. Se det A 6= 0, il sistema ha una sola soluzione


y1 , y2 , · · · , yn tale che:

det B 1 det B 2 det B n


y1 = det A y2 = det A · · · yn = det A

indicando con B i la matrice che si ottiene dalla matrice A sostituendo la i−sima


colonna con la colonna dei termini noti.
Esempio
Sistemi di
equazioni lineari
Risolvere il seguente sistema di equazioni lineari:
Criterio di
compatibilità 
Regola di
Cramer
x + y + z = 4

Analisi delle
S : x −y +z =2
soluzioni

x + y − 3z = 0

Sistemi
omogenei
Le due matrici del sistema sono
   
1 1 1 1 1 1 4
A = 1 −1 1  A0 = 1 −1 1 2
1 1 −3 1 1 −3 0
Esempio
Sistemi di
equazioni lineari Essendo det A = 8 6= 0, il sistema S ha una sola soluzione che si determina con la
Criterio di regola di Cramer [Proposizione 3]. Allora
compatibilità

Regola di
 
Cramer 4 1 1
Analisi delle x = 18 det 2 −1 1  = 16 8 =2
soluzioni
0 1 −3
Sistemi 
omogenei 1 4 1
y = 8 det 1 2 1  = 88 = 1
1 
1 0 −3
1 1 4
1
z = 8 det 1 −1 2 = 88 = 1

1 1 0
Analisi delle soluzioni
Si consideri il seguente sistema di equazioni lineari:

Sistemi di  a11 x1 + a12 x2 + · · · + a1n xn + c1 = 0
equazioni lineari


a21 x1 + a22 x2 + · · · + a2n xn + c2 = 0


Criterio di 
compatibilità
S : ········· .
Regola di 
Cramer am1 x1 + am2 x2 + · · · + amn xn + cm = 0



Analisi delle 
α1 x1 + α2 x2 + · · · + αn xn + α = 0

soluzioni

Sistemi
omogenei
Si supponga che una delle equazioni di S, α1 x1 + α2 x2 + · · · + αn xn + α = 0, sia
combinazione lineare di tutte le altre:
α1 x1 + α2 x2 + · · · + αn xn + α =λ1 (a11 x1 + a12 x2 + · · · + a1n xn + c1 )+
λ2 (a21 x1 + a22 x2 + · · · + a2n xn + c2 ) + · · ·
· · · + λm (am1 x1 + am2 x2 + · · · + amn xn + cm )
(3)
Si consideri il sistema
Sistemi di

equazioni lineari 

a11 x1 + a12 x2 + · · · + a1n xn + c1 = 0
Criterio di

a x + a x + · · · + a x + c = 0
21 1 22 2 2n n 2
compatibilità
S0 :
Regola di 
·········
Cramer 

a x + a x + · · · + a x + c = 0
Analisi delle m1 1 m2 2 mn n m
soluzioni

Sistemi ottenuto dal sistema S privandolo dell’equazione


omogenei
α1 x1 + α2 x2 + · · · + αn xn + α = 0. Allora, considerando la (3), si ha:

è soluzione di S 0
 
y1 , y2 , · · · , yn è soluzione di S ⇔ y1 , y2 , · · · , yn
Sistemi di
Per determinare le soluzioni di un sistema S compatibile, ci si può limitare
equazioni lineari a considerare solo quelle equazioni di S che siano indipendenti e tali che
Criterio di
compatibilità
ogni altra equazione sia una loro combinazione lineare.
Regola di
Cramer
Sia assegnato un sistema compatibile:
Analisi delle
soluzioni 
Sistemi


 a11 x1 + a12 x2 + · · · + a1n xn + c1 = 0
omogenei 
a x + a x + · · · + a x + c = 0
21 1 22 2 2n n 2
S:


 · · · · · · · · ·

a x + a x + · · · + a x + c = 0
m1 1 m2 2 mn n m

e siano A e A0 rispettivamente la matrice incompleta e completa del sistema.


Sistemi di
Poichè S é compatibile allora, per [Proposizione 2], le due matrici hanno lo stesso
equazioni lineari rango ρ.
Criterio di
compatibilità
Se H è la sottomatrice quadrata di ordine ρ di A con determinante diverso da zero
Regola di (ma che ha tutti i suoi orlati con determinante nullo), allora le ρ righe di A
Cramer
coinvolte dalla formazione di H sono un sistema massimo di righe indipendenti di
Analisi delle
soluzioni A.
Sistemi
omogenei Osservazione
Le stesse righe nella matrice A0 costituiscono anche in A0 (che ha lo stesso rango
ρ), un sistema massimo di righe indipendenti di A0 .

Conclusione: le equazioni corrispondenti a tali righe sono quindi indipendenti e


ogni altra equazione risulta una loro combinazione lineare.
Si analizzino 3 casi:
Sistemi di m = n e det A = 0 il rango ρ di A è minore di n e quindi si hanno ρ equazioni
equazioni lineari
indipendenti in n incognite con ρ < n;
Criterio di
compatibilità m > n poiché il rango di A esprime il massimo numero di colonne
Regola di
Cramer
indipendenti, risulta ρ ≤ n. Quindi:
Analisi delle ρ = n segue dalla [Proposizione 3];
soluzioni
ρ < n si hanno ρ equazioni indipendenti in n incognite
Sistemi
omogenei m < n poiché il rango di A esprime il massimo numero di righe
indipendenti, risulta ρ ≤ m < n. Quindi si hanno ρ equazioni
indipendenti in n incognite con ρ < n.

Nel sistema compatibile S di m equazioni in n incognite vi sono ρ equazioni


indipendenti con ρ ≤ n.
Si consideri un sistema compatibile con ρ equazioni indipendenti ed n incognite
Sistemi di con ρ < n: 
equazioni lineari

 a11 x1 + a12 x2 + · · · + a1n xn + c1 = 0
Criterio di 

compatibilità
a x + a x + · · · + a x + c = 0
21 1 22 2 2n n 2
Regola di
S: .
Cramer


 ·········

a x + a x + · · · + a x + c = 0
Analisi delle
soluzioni
ρ1 1 ρ2 2 ρn n ρ
Sistemi
omogenei
La matrice incompleta del sistema
 
a11 a12 ··· a1n
a21 a22 ··· a2n 
A= · · · · · ·

··· · · ·
aρ1 aρ2 ··· aρn

ha rango ρ.
Vi è una sottomatrice quadrata H di ordine ρ con det H 6= 0 corrispondente a ρ
Sistemi di
equazioni lineari colonne indipendenti di A.
Criterio di
compatibilità

Regola di
Cramer

Analisi delle
Per semplicità, si supponga che siano le prime ρ colonne di A a determinare con le
soluzioni sue ρ righe tale sottomatrice H :
Sistemi
omogenei   
a11 a12 · · · a1ρ a1ρ+1 · · · a1n
a21 a22 · · · a2ρ  a2ρ+1 · · · a2n 
  
A =  ··· ··· ··· ···
   · · · · · · · · · 

 aρ1 aρ2 · · · aρρ aρρ+1 · · · aρn 
| {z }
H

Si assegnino alle incognite xρ+1 , xρ+2 , · · · , xn i valori
Sistemi di yρ+1 , yρ+2 , · · · , yn . Il sistema S assume la seguente forma:
equazioni lineari

Criterio di
compatibilità
a11 x1 + a12 x2 + · · · + a1ρ xρ = −a1ρ+1 yρ+1 − · · · − a1n yn − c1



a x + a x + · · · + a x = −a
2ρ+1 yρ+1 − · · · − a2n yn − c2
Regola di
21 1 22 2 2ρ ρ
Cramer
S0 : .
Analisi delle 
···
soluzioni 

a x + a x + · · · + a x = −a
Sistemi ρ1 1 ρ2 2 ρρ ρ ρρ+1 yρ+1 − · · · − aρn yn − cρ
omogenei

S 0 è un sistema costituito da ρ equazioni in ρ incognite e con la matrice H dei


suoi coefficienti avente det H 6= 0.
Il sistema S 0 ha una sola soluzione y1 , y2 , · · · yρ per la [Proposizione 3].



La n−pla ζ = y1 , y2 , · · · yρ , yρ+1 , · · · , yn è una soluzione del sistema S.
I primi ρ valori della soluzione ζ sono determinati dai valori yρ+1 , · · · , yn che ζ
Sistemi di ha nei suoi ultimi n − ρ posti. Quindi si ha:
equazioni lineari

Criterio di
compatibilità

Regola di
• due soluzioni ζ e η che abbiano eguali i valori di posto ρ + 1, ρ + 2, · · · , n
Cramer
coincidono;
Analisi delle
soluzioni • indicando con Σ l’insieme delle soluzioni del sistema S, la funzione
Sistemi

f : yρ+1 , · · · , yn ∈ Kn−ρ → y1 , · · · , yρ , yρ+1 , · · · , yn ∈ Σ


omogenei
 

è biettiva.
Per la biettività di f , si ha |Kn−ρ | = |Σ| e cioè le soluzioni del sistema S sono
tante quante le (n − ρ)−ple ordinate di elementi di K. Se K è infinito si dice che il
sistema S ha ∞n−ρ soluzioni.
Esempio
Si lavori nel campo dei numeri reali K = R. Risolvere il seguente sistema lineare:
Sistemi di
equazioni lineari 
Criterio di
compatibilità
x + 2y + z = 2

Regola di
S : 3x + y + 2z = 0
Cramer

4x + 3y + 3z = 2

Analisi delle
soluzioni

Sistemi Si tratta di un sistema costituito da m = 3 equazioni in n = 3 incognite. Si


omogenei
scrivano le due matrici (completa e incompleta):
   
1 2 1 1 2 1 2
A = 3 1 2 A0 = 3 1 2 0
4 3 3 4 3 3 2
| {z } | {z }
incompleta completa

Si determini il rango della matrice A e il rango della matrice A0 .


Sistemi di
equazioni lineari
Esempio
 
Criterio di 1 2
compatibilità Poiché det A = 0 e H = è un minore di ordine 2 con det H = −5 6= 0,
3 1
Regola di
Cramer allora il rango della matrice A è ρ = 2.  
Analisi delle 1 2 2
soluzioni
Poiché l’orlato del minore H nella matrice A0 , H 0 = 3 1 0, ha det H 0 = 0,
Sistemi
omogenei 4 3 2
0
allora anche il rango della matrice A è ρ = 2.

Il sistema è compatibile per la [Proposizione 2]

Il sistema S ammette ∞n−ρ = ∞3−2 = ∞1 soluzioni.


Esempio
Sistemi di
equazioni lineari

Criterio di
• Vi sono due equazioni linearmente indipendenti che sono le due equazioni
compatibilità corrispondenti alle righe coinvolte nel minore H.
Regola di
Cramer • Vi è una sola incognita che è parametro del sistema ed è l’incognita
Analisi delle corrispondente alla colonna NON coinvolta nel minore H.
soluzioni

Sistemi Allora il sistema S sarà equivalente al sistema:


omogenei
(
0 x + 2y = 2 − t
S :
3x + y = −2t

ottenuto dal sistema S privandolo della 3◦ equazione e considerando l’incognita


z = t come parametro.
Esempio
Sistemi di La matrice incompleta del sistema S 0 è il minore H di ordine 2 della matrice A che
equazioni lineari

Criterio di
ha det H = −5. Applicando la [Proposizione 3], si ha:
compatibilità
2 − t 2

Regola di
Cramer
−2t 1

Analisi delle
soluzioni
x = −5 = − 2+3t 5
1 2 − t

Sistemi
omogenei
3

−2t
y= −5 = − t−6
5
z =t

Conclusione: l’insieme delle soluzioni del sistema S è

Σ = − 2+3t t−6
 
5 , − 5 , t , t∈R
Sistemi omogenei

Un sistema di equazioni lineari:


Sistemi di 
equazioni lineari
a11 x1 + a12 x2 + · · · + a1n xn = 0


Criterio di 
a x + a x + · · · + a x = 0
compatibilità 21 1 22 2 2n n
S:
Regola di
Cramer


 · · · · · · · · ·

a x + a x + · · · + a x = 0
Analisi delle m1 1 m2 2 mn n
soluzioni

Sistemi
omogenei é detto sistema omogeneo.

• Il sistema S è compatibile, poiché una sua soluzione è quella banale,


0 0 · · · 0 . Per [Proposizione 2], le due matrici A e A0 hanno lo stesso


rango ρ.
• se ρ = n, il sistema S ammette solo la soluzione banale 0, 0, · · · 0 .

Si supponga ρ < n in modo che il sistema S omogeneo ammetta |K|n−ρ soluzioni
e si denoti con Σ l’insieme delle soluzioni del sistema S.
Sistemi di
equazioni lineari
Proposizione 4
Criterio di
compatibilità
L’insieme Σ delle soluzioni di S è un sottospazio di Kn di dimensione n − ρ.
Regola di
Cramer

Analisi delle Dimostrazione.


soluzioni

Sistemi
Si scriva il sistema omogeneo S in forma matriciale:
omogenei

AX = 0

e si indichi con
Σ = {Y ∈ Kn : AY = 0}
l’insieme delle soluzioni del sistema S. Siano Y , Z ∈ Σ, cioè sono due soluzioni
del sistema S: AY = 0 e AZ = 0.
Dimostrazione.
Sistemi di
equazioni lineari Dunque
Criterio di
compatibilità
A(Y + Z ) = AY + AZ = 0 + 0 = 0 ⇒ A(Y + Z ) = 0 ⇒ Y + Z ∈ Σ.
Regola di
Cramer

Analisi delle Sia Y ∈ Σ una soluzione del sistema S e λ ∈ K uno scalare, si ha:
soluzioni

Sistemi
omogenei
A(λY ) = λAY = λ0 = 0 ⇒ A(λY ) = 0 ⇒ λY ∈ Σ.

Conclusione: L’insieme delle soluzioni del sistema omogeneo S, Σ, è un


sottospazio di Kn .

Poiché la matrice A ha rango ρ, per semplicità, si supponga che le prime ρ righe e


ρ colonne di A siano indipendenti.
Dimostrazione.
Sistemi di
equazioni lineari Il sistema omogeneo S è equivalente al sistema omogeneo:
Criterio di 
compatibilità 
 a11 x1 + a12 x2 + · · · + a1n xn = 0
Regola di


Cramer
a x + a x + · · · + a x = 0
21 1 22 2 2n n
Analisi delle
S0 :
soluzioni


 ·········

a x + a x + · · · + a x = 0
Sistemi
omogenei
ρ1 1 ρ2 2 ρn n

Ogni soluzione di S 0 è determinata sulla base della scelta dei valori


yρ+1 , yρ+2 , . . . , yn assegnati alle incognite xρ+1 , xρ+2 , . . . , xn . Allora si ha:
• ζρ+1 = (α1 , α2 , . . . , αρ , 1, 0, . . . , 0) la soluzione di S 0 ottenuta assegnando
alle incognite xρ+1 , xρ+2 , . . . , xn i valori (1, 0, . . . , 0).
Dimostrazione.
Sistemi di • ζρ+2 = (β1 , β2 , . . . , βρ , 0, 1, . . . , 0) la soluzione di S 0 ottenuta assegnando alle
equazioni lineari
incognite xρ+1 , xρ+2 , . . . , xn i valori (0, 1, . . . , 0).
Criterio di
compatibilità • ·········.
Regola di
Cramer • ζn = (γ1 , γ2 , . . . , γρ , 0, 0, . . . , 1) la soluzione di S 0 ottenuta assegnando alle
Analisi delle incognite xρ+1 , xρ+2 , . . . , xn i valori (0, 0, . . . , 1).
soluzioni

Sistemi Il sistema dei vettori {ζρ+1 , ζρ+2 , . . . , ζn } è un sistema di n − ρ vettori linearmente


omogenei
indipendenti, perché sono indipendenti i seguenti vettori numerici:

(1, 0, . . . , 0), (0, 1, . . . , 0), (0, 0, . . . , 1) .


| {z }
n−ρ

Si consideri Y = (y1 , y2 , . . . , yρ , yρ+1 , . . . , yn ) ∈ Σ una soluzione del sistema S.


Poiché Σ è un sottospazio, allora risulta anche yρ+1 ζρ+1 , yρ+2 ζρ+2 , . . . , yn ζn ∈ Σ.
Dimostrazione.
Sistemi di
equazioni lineari
Inoltre risulta anche:
Criterio di
compatibilità ζ = yρ+1 ζρ+1 + yρ+2 ζρ+2 + . . . + yn ζn ∈ Σ.
Regola di
Cramer
Si osservi che la soluzione ζ è cosı̀ caratterizzata:
Analisi delle
soluzioni

Sistemi ζ = (.|. . . . {z
. . . . . .}., yρ+1 , yρ+2 , . . . , yn ).
omogenei | {z }
ρ n−ρ

Ne consegue ζ = Y .
Conclusione: Il sistema {ζρ+1 , ζρ+2 , . . . , ζn } è un sistema di n − ρ vettori
linearmente indipendenti ed un sistema di generatori per lo spazio Σ. Dunque
{ζρ+1 , ζρ+2 , . . . , ζn } é una base per lo spazio delle soluzioni Σ e dunque la
dimensione di Σ è dim Σ = n − ρ.
Sistemi di
equazioni lineari Esempio
Criterio di
compatibilità Risolvere il seguente sistema lineare omogeneo:
Regola di (
Cramer
2x + y + z + 2t = 0
Analisi delle S: .
soluzioni x +y +z +t =0
Sistemi
omogenei
La matrice di tale sistema è
 
2 1 1 2
A=
1 1 1 1
Sistemi di
equazioni lineari Esempio
Criterio di
 
2 1
compatibilità
La matrice A ha rango ρ = 2, poiché la sottomatrice di ordine 2, H = ha
Regola di 1 1
Cramer
det H = 1 6= 0. Allora:
Analisi delle
soluzioni
lo spazio delle soluzioni Σ è un sottospazio di R4 di
Sistemi
omogenei dim Σ = n − ρ = 4 − 2 = 2

Bisogna determinare una base di Σ, i cui elementi sono ottenuti assegnando alle
incognite z e t (le incognite che corrispondono alle colonne non coinvolte nel
minore H), una prima volta i valori z = 1 e t = 0 e successivamente z = 0 e t = 1
Sistemi di
equazioni lineari

Criterio di
Esempio
compatibilità

Regola di z = 1 e t = 0 il sistema S diventa


Cramer
(
Analisi delle 2x + y = −1
soluzioni .
Sistemi x + y = −1
omogenei

Applicando la [Proposizione 3], si trova x = 0 e y = −1.



La prima soluzione di S è ζ1 = 0, −1, 1, 0
Sistemi di
Esempio
equazioni lineari

Criterio di z = 0 e t = 1 il sistema S diventa


compatibilità (
Regola di 2x + y = −2
Cramer .
Analisi delle x + y = −1
soluzioni

Sistemi
omogenei
Applicando la [Proposizione 3], si trova x = −1 e y = 0.

La seconda soluzione di S è ζ2 = −1, 0, 0, 1

Lo spazio Σ delle soluzioni di S è quindi lo spazio generato dalle due quaterne


trovate sopra.
Sia assegnato un sistema di equazioni lineari non omogeneo


 a11 x1 + a12 x2 + · + a1n xn = c1
Sistemi di

a x + a x + · + a x = c
equazioni lineari 21 1 22 2 2n n 2
S: .
Criterio di 
 · · ·
compatibilità

am1 x1 + am2 x2 + · + amn xn = cm

Regola di
Cramer
Imponendo i termini noti del sistema S, c1 , c2 , · · · , cn uguali a zero, si ottiene un sistema
Analisi delle
soluzioni omogeneo 
Sistemi 
 a11 x1 + a12 x2 + · + a1n xn = 0
omogenei 
a x + a x + · + a x = 0
21 1 22 2 2n n
S0 :


 · · ·
am1 x1 + am2 x2 + · + amn xn = 0

che è detto associato ad S.


Proposizione 5
Tutte le soluzioni del sistema S si ottengono sommando ad una sua soluzione tutte le
soluzioni del sistema S0 omogeneo associato.
Dimostrazione.
Sistemi di Si scrivano i sistemi S e S0 in forma matriciale:
equazioni lineari

Criterio di
compatibilità AX = C , AX = 0 .
Regola di
Cramer
Si indichino:
Analisi delle
soluzioni • Σ è l’insieme delle soluzioni del sistema S;
Sistemi
omogenei
• Σ0 è il sottospazio delle soluzioni del sistema omogeneo S0 associato.
Si ha:

ζ ∈ Σ ⇒ Aζ = C
⇒ A(ζ + η) = Aζ + Aη = C + 0 = C ⇒ ζ + η ∈ Σ.
η ∈ Σ0 ⇒ Aη = 0

Conclusione: Addizionando alla soluzione ζ una soluzione di S0 si ottiene ancora


una soluzione di S.
Sistemi di
equazioni lineari
Dimostrazione.
Criterio di
compatibilità Siano considerate ζ, ζ 0 ∈ Σ, allora:
Regola di
Cramer 
ζ ∈ Σ ⇒ Aζ = C
Analisi delle ⇒ A(ζ 0 − ζ) = Aζ 0 − Aζ = C − C = 0 ⇒ ζ 0 − ζ ∈ Σ0 .
soluzioni ζ 0 ∈ Σ ⇒ Aζ 0 = C
Sistemi
omogenei
Conclusione: La soluzione η = ζ 0 − ζ di S0 sommata a ζ fornirà la soluzione ζ 0 .

Sommando a ζ tutte le soluzioni η di S0 si ottengono tutte le soluzioni di


S.
Applicazioni lineari
Siano assegnati due spazi vettoriali V e W definiti su un campo K.
Definizione
Applicazioni
lineari
Un’ applicazione lineare è una funzione f tra i due spazi vettoriali:
Matrice
associata
f: V −→ W
v −→ w = f (v )

soddisfacente le seguenti proprietà:


1 f (u + v ) = f (u) + f (v ) ∀u, v ∈ V ;
2 f (αu) = αf (u) ∀α ∈ K e ∀u ∈ V .

Si possono condensare le due proprietà della definizione data in un’unica proprietà,


scrivendo semplicemente:

f (αu + βv ) = αf (u) + βf (v ) ∀α, β ∈ K e ∀u, v ∈ V .


Siano V e W due spazi vettoriali e si denotino con 0V e 0W i rispettivi vettori
nulli di V e W .
Applicazioni
lineari
Proposizione 1
Matrice
associata
Sia f : V → W un’applicazione lineare, allora:

f (0V ) = 0W .

Dimostrazione.
Si consideri il vettore v ∈ V , allora:
∈W
z }| {
f (v ) = f (v + 0V ) = f (v ) + f (0V ) ⇒ f (0V ) = 0W

Per comodità si denoteranno i vettori nulli dei rispettivi spazi vettoriali V e W come
segue: 0V = 0W = 0.
Definizione
Sia f : V → W un’applicazione lineare tra i due spazi vettoriali, allora:
Applicazioni
lineari • se l’applicazione f è iniettiva, essa è chiamata monomorfismo;
Matrice
associata • se l’applicazione f è suriettiva, essa è chiamata epimorfismo;
• se l’applicazione f è biettiva, essa è chiamata isomorfismo.

Esempio
Sia V uno spazio vettoriale sul campo K di dimensione n e si consideri una base
ordinata( cioè un riferimento) di V :

B = {u1 , u2 , . . . , un } .

Per definizione, per ogni vettore v ∈ V , si ha che:

∃!α1 , α2 , . . . , αn ∈ K : v = α1 u1 + α2 u2 + . . . + αn un .
Esempio
Applicazioni La n-upla di scalari, (α1 , α2 , . . . , αn ) ∈ Kn , univocamente determinata per
lineari
esprimere la combinazione lineare del vettore v ∈ V rispetto alla base B, è detta
Matrice
associata n-upla delle coordinate del vettore v rispetto alla base assegnata. Si può
costruire la seguente funzione:

f: V −→ Kn
v −→ (α1 , α2 , . . . , αn ).

Per l’unicità degli scalari (α1 , α2 , . . . , αn ) ∈ Kn , la funzione f è biettiva. Inoltre si


considerino i vettori v , w ∈ V , allora:

f (v ) = (α1 , α2 , . . . , αn )
⇒ f (v ) + f (w ) = (α1 + β1 , α2 + β2 , . . . , αn + βn )
f (w ) = (β1 , β2 , . . . , βn )
Esempio
Inoltre risulta che
Applicazioni
lineari

Matrice v + w = α1 u1 + . . . + αn un + β1 u1 + . . . + βn un = (α1 + β1 )u1 + . . . + (αn + βn )un


associata | {z } | {z }
=v =w

quindi si ha:

f (v + w ) = (α1 + β1 , . . . , αn + βn ) = f (v ) + f (w ).

Sia considerato uno scalare α ∈ K, allora si ha:


αv = αα1 u1 + . . . + ααn un αf (v ) = (αα1 , . . . , ααn )

f (αv ) = (αα1 , . . . , ααn ) = αf (v )

In conclusione la funzione f è un isomorfismo ed è chiamato coordinazione dello


spazio vettoriale V nel riferimento fissato B.
Dall’esempio precedente, segue quindi la seguente proposizione:
Applicazioni
lineari
Proposizione 2
Matrice Ogni spazio vettoriale V sul campo K di dimensione finita dim V = n è isomorfo
associata
allo spazio vettoriale numerico Kn .

Esempio
Si considerino:
• V uno spazio vettoriale di dimensione n;
• W uno spazio vettoriale di dimensione m;
• Z un spazio vettoriale di dimenzione r ;
• f : V → W un’applicazione lineare;
• g : W → Z un’applicazione lineare;
Esempio
L’applicazione lineare composta
Applicazioni
lineari

Matrice g ◦f : V →Z
associata

tale che (g ◦ f )(v ) = g (f (v )) per ogni vettore v ∈ V , è un’applicazione lineare.


Infatti, per ogni v1 , v2 ∈ V :

(g ◦ f )(v1 + v2 ) = g (f (v1 + v2 )) = g (f (v1 ) + f (v2 )) = g (f (v1 )) + g (f (v2 )) =


= (g ◦ f )(v1 ) + (g ◦ f )(v2 ).

Inoltre per ogni v ∈ V e scalare λ ∈ K :

(g ◦ f )(λv ) = g (f (λv )) = g (λf (v )) = λg (f (v )) = λ(g ◦ f )(v )

Conclusione: la composizione di applicazioni lineari è ancora un’applicazione


lineare.
Applicazioni Si considerino:
lineari

Matrice
• V uno spazio vettoriale sul campo K di dimensione n;
associata
• B = {e1 , e2 , . . . , en } una base di V ;
• W uno spazio vettoriale sul campo K di dimensione m;
• f : V → W un’applicazione lineare.
Una proprietà notevole delle applicazioni lineari é data dal seguente teorema:
Teorema 3
L’applicazione lineare f è determinata quando si conoscano i valori che essa
assume sulla base B di V , ovvero se sono noti f (e1 ), f (e2 ), . . . , f (en ).
Dimostrazione.
Preso un generico vettore v ∈ V , poiché B è una base di V , allora
Applicazioni
lineari

Matrice
∃!α1 , α2 , . . . , αn ∈ Kn : v = α1 e1 + α2 e2 + . . . + αn en .
associata

Conoscendo i valori f (e1 ), f (e2 ), . . . , f (en ), allora, sfruttando la definizione di


applicazione lineare, si ha:
=v
z }| {
f (v ) = f (α1 e1 + α2 e2 + . . . + αn en ) = α1 f (e1 ) + α2 f (e2 ) + . . . + αn f (en ).

Segue l’asserto.
Seguiranno proposizioni importanti che caratterizzano le applicazioni lineari:
Proposizione 4
L’applicazione lineare f trasforma vettori dipendenti di V in vettori dipendenti di
W.
Dimostrazione.
Applicazioni
lineari
Si considerino v1 , v2 , . . . , vh , h vettori dipendenti di V , quindi esisteranno degli
Matrice
scalari α1 , α2 , . . . , αh non tutti nulli tale che:
associata

α1 v1 + α2 v2 + . . . + αh vh = 0.

Applicando la funzione f ad entrambi i membri, si ha:

f (α1 v1 + α2 v2 + . . . + αh vh ) = f (0)

α1 f (v1 ) + α2 f (v2 ) + . . . + αh f (vh ) = 0

cioé si ha una combinazione lineare dei vettori f (v1 ), f (v2 ), . . . , f (vh ), a scalari
non tutti nulli, che esprime il vettore nullo 0. Dunque i vettori
f (v1 ), f (v2 ), . . . , f (vh ) sono linearmente dipendenti in W .
Proposizione 5
Se f è un monomorfismo, allora trasforma vettori indipendenti di V in vettori
Applicazioni
lineari indipendenti di W .
Matrice
associata
Dimostrazione.
Siano v1 , v2 , . . . , vh , h vettori linearmente indipendenti di V . Si vuole dimostrare
che i vettori f (v1 ), f (v2 ), . . . , f (vh ) sono vettori linearmente indipendenti di W . In
particolare si vuole dimostrare che la seguente combinazione lineare:

α1 f (v1 ) + α2 f (v2 ) + . . . + αh f (vh ) = 0

è a scalari tutti nulli. Sfruttando la definizione di applicazione lineare, si ha:

f (α1 v1 + α2 v2 + . . . + αh vh ) = 0 = f (0) ⇒ f (α1 v1 + α2 v2 + . . . + αh vh ) = f (0).

L’applicazione f è un monomorfismo, in particolare, iniettiva e dunque:


Applicazioni Dimostrazione.
lineari

Matrice
associata α1 v1 + α2 v2 + . . . + αh vh = 0.
Poiché v1 , v2 , . . . , vh sono vettori linearmente indipendenti, segue che gli scalari
α1 , α2 , . . . , αh sono tutti nulli.

Come conseguenza delle due proposizioni precedenti, si ha il seguente corollario:


Corollario 6
Se f è un isomorfismo, allora trasforma vettori linearmente dipendenti di V in
vettori linearmente dipendenti di W e trasforma vettori linearmente indipendenti
di V in vettori linearmente indipendenti di W , con la sua inversa.
Sia f : V → W un’applicazione lineare tra i due spazi vettoriali V e W , allora si
ha la seguente definizione:
Applicazioni
lineari Definizione
Matrice
associata
Il nucleo dell’applicazione lineare f , denotato simbolicamente con ker f , è il
sottoinsieme di V tale che:

ker f = {v ∈ V : f (v ) = 0} ⊆ V .

L’immagine dell’applicazione lineare f , denotato simbolicamente con =f , è il


sottoinsieme di W tale che:

=f = {f (v ) : v ∈ V } ⊆ W .

Per la Proposizione (1), si ha che:


0 ∈ ker f , 0 ∈ =f
ed è di facile dimostrazione provare che sono sottospazi rispettivamente di V e W .
Seguono due proposizioni che caratterizzano l’iniettività e la suriettività di
un’applicazione lineare:
Applicazioni
lineari Proposizione 7
Matrice
associata
Data un’applicazione lineare f : V → W , allora:

f monomorfismo ⇔ ker f = {0}

Dimostrazione.
⇒) Se v ∈ V − {0} è un vettore non nullo, allora, per l’iniettività si ha
f (v ) 6= f (0) = 0. Dunque l’unico vettore presente nel nucleo
dell’applicazione f è il vettore nullo.
⇐) Siano considerati due vettori v , v 0 ∈ V tali che f (v ) = f (v 0 ). Si
dimostri che v = v 0 . Infatti segue che:

f (v ) = f (v 0 ) ⇒ f (v ) − f (v 0 ) = 0 ⇒ f (v − v 0 ) = 0 ⇒ v − v 0 ∈ ker f .
Dimostrazione.
Per ipotesi il solo vettore presente nel nucleo dell’applicazione lineare è il vettore
Applicazioni
lineari nullo, quindi
Matrice v − v 0 = 0 ⇒ v = v 0.
associata

Proposizione 8
Data un’applicazione lineare f : V → W , allora:

f epimorfismo ⇔ =f = W .

Dimostrazione.
⇒) Già è noto che =f ⊆ W , quindi è necessario dimostrare che
W ⊆ =f . Si consideri un vettore w ∈ W . Per definizione di
suriettività, esiste un vettore v ∈ V tale che f (v ) = w , cioé w ∈ =f .
Dimostrazione.
Applicazioni
lineari Si consideri un vettore w ∈ W , e bisogna dimostrare che esiste un vettore v ∈ V
Matrice tale che f (v ) = w . Per ipotesi W = =f , quindi w ∈ =f , cioé esiste un vettore
associata
v ∈ V tale che f (v ) = w .

Si considerino:
• V uno spazio vettoriale sul campo K;
• e1 , e2 , . . . , en un sistema di generatori di V ;
• W uno spazio vettoriale sul campo K;

Proposizione 9
Sia f : V → W un’applicazione lineare. Allora f (e1 ), f (e2 ), . . . , f (en ) è un sistema
di generatori di =f .
Dimostrazione.
Applicazioni
Si consideri un vettore w ∈ =f . Allora esiste un vettore v ∈ V tale che f (v ) = w .
lineari Poiché V = he1 , e2 , . . . , en i, segue che:
Matrice
associata
∃α1 , α2 , . . . , αn ∈ K : v = α1 e1 + α2 e2 + . . . + αn en .

Allora:

w = f (v ) = f (α1 e1 + α2 e2 + . . . + αn en ) = α1 f (e1 ) + α2 f (e2 ) + . . . + αn f (en ).

Ogni vettore di =f si esprime come combinazione lineare dei vettori


f (e1 ), f (e2 ), . . . , f (en ).

Corollario 10
Sia f : V → W un isomorfismo e B = {e1 , e2 , . . . , en } una base di V . Allora
B 0 = {f (e1 ), f (e2 ), . . . , f (en )} è una base di W .
Dimostrazione.
Per il Corollario (6), un isomorfismo trasforma un sistema di vettori linearmente
Applicazioni
lineari indipendenti di V in un sistema di vettori linearmente indipendenti di W , quindi
Matrice f (e1 ), f (e2 ), . . . , f (en ) sono linearmente indipendenti. Inoltre, per la Proposizione
associata
(9), l’applicazione lineare f trasforma un sistema di generatori V in un sistema di
generatori di =f , che, poiché f è in particolare un epimorfismo, è un sistema di
generatori di W .

Siano:
• V uno spazio vettoriale sul campo K di dimensione dim V = n;
• W uno spazio vettoriale sul campo K;
• f : V → W un’applicazione lineare.
Teorema 11 (Teorema della dimensione)
Siano ker f e =f rispettivamente il nucleo e l’immagine dell’applicazione lineare.
Allora: dim ker f + dim =f = n.
Dimostrazione.
Si consideri il nucleo dell’applicazione f , ker f . Se esso fosse un sottospazio banale
Applicazioni
lineari di V , allora:
Matrice
associata
ker f = {0} : dim ker f = 0 e dim =f = n;
ker f = V : ogni vettore v ∈ V ha immagine nulla f (v ) = 0 e quindi =f = {0},
ovvero dim =f = 0.
In entrambi i casi analizzati, segue la validità della formula.
Si suppoga che ker f sia un sottospazio proprio di V , ker f < V , e che abbia
dimensione dim ker f = m < n. Si consideri una sua base:

Bker f = {e1 , e2 , . . . , em }

e la si completi ad una base di V , aggiungendo n − m vettori, ottenendo:

BV = {e1 , e2 , . . . , em , vm+1 , . . . , vn } .
Dimostrazione.
Si dimostrerà che il sistema di vettori B = {f (vm+1 ), . . . , f (vn )} è una base per
Applicazioni
lineari =f .
Matrice
associata
Lineare indipendenza: si consideri la combinazione lineare:

αm+1 f (vm+1 ) + . . . + αn f (vn ) = 0.

Sfruttando la linearità dell’applicazione, segue:

f (αm+1 vm+1 + . . . + αn vn ) = 0 ⇒ αm+1 vm+1 + . . . + αn vn ∈ ker f .

Poiché Bker f è una base, quindi in particolare un sistema di


generatori, allora αm+1 vm+1 + . . . + αn vn si scrive come
combinazione lineare dei vettori e1 , e2 , . . . , em :

αm+1 vm+1 + . . . + αn vn = α1 e1 + α2 e2 + . . . + αm em .
Dimostrazione.
Si ha:
Applicazioni
lineari αm+1 vm+1 + . . . + αn vn − α1 e1 − α2 e2 − . . . − αm em = 0.
Matrice
associata Poiché BV è una base, quindi in particolare un sistema di vettori linearmente
indipendenti, allora:

α1 = α2 = . . . = αm = αm+1 = . . . = αn = 0 ⇒ αm+1 = . . . = αn = 0.

Dunque B è un sistema di vettori linearmente indipendenti.


Sistema di generatori: si consideri un vettore w ∈ =f , dunque esiste un vettore
v ∈ V tale che f (v ) = w . Poiché BV è una base per V , il vettore v
è combinazione lineare dei vettori e1 , e2 , . . . , em , vm+1 , . . . , vn :

v = α1 e1 + α2 e2 + . . . + αm em + αm+1 vm+1 + . . . + αn vn .
Dimostrazione.
Sfruttando la linearità dell’applicazione e tenendo in considerazione che i vettori
Applicazioni
lineari e1 , e2 , . . . , em ∈ ker f :
Matrice
associata =v
z }| {
w = f (v ) = f (α1 e1 + α2 e2 + . . . + αm em + αm+1 vm+1 + . . . + αn vn ) =
=0 =0 =0
z }| { z }| { z }| {
= α1 f (e1 ) +α2 f (e2 ) + . . . + αm f (em ) +αm+1 f (vm+1 ) + . . . + αn f (vn ) =

= αm+1 f (vm+1 ) + . . . + αn f (vn ).

In conclusione i vettori f (vm+1 ), . . . , f (vn ) sono un sistema di generatori per =f .


Allora B = {f (vm+1 ), . . . , f (vn )} è una base per =f , e risulta che:

dim =f = n − m = n − dim ker f ⇒ dim ker f + dim =f = n.


Siano:
• V uno spazio vettoriale sul campo K;
Applicazioni • W uno spazio vettoriale sul campo K;
lineari

Matrice Proposizione 12
associata

V ' W ⇔ dim V = dim W .

Dimostrazione.
⇒) Poiché V e W sono isomorfi, allora esiste un isomorfismo tra di essi,
f : V → W . Per il Corollario (10), l’applicazione f trasforma una
base di V in una base di W , quindi dim V = dim W .
⇐) Si considerino le seguenti rispettive basi di V e W :

BV = {v1 , v2 , . . . , vn } , BW = {w1 , w2 , . . . , wn }
Applicazioni
Dimostrazione.
lineari
Si considerino la coordinazione dello spazio vettoriale V nel riferimento fissato BV
Matrice
associata e la coordinazione dello spazio vettoriale W nel riferimento fissato BW :

f : V → Kn , g : W → Kn

Considerando l’applicazione inversa di g , g −1 : Kn → W , che è ancora un


isomorfismo, e componendo le applicazioni, si ottiene:

g −1 ◦ f : V → W .

La composizione di isomorfismi è ancora un isomorfismo, quindi i due spazi


vettoriali V e W sono isomorfi.
Matrice associata
Si consideri V spazio vettoriale su un campo K e dim V = n. Un endomorfismo
è un’applicazione lineare del tipo: f : V → V . Assegnata una base
Applicazioni B = {u1 , u2 , . . . , un } di V , per il Teorema (3), si determina l’endomorfismo f se si
lineari

Matrice
conoscono le rispettive immagini dei vettori della base B, f (u1 ), f (u2 ), . . . , f (un ).
associata Per definizione di base, si ha:
f (u1 ) = a11 u1 + a21 u2 + . . . + an1 un
f (u2 ) = a12 u1 + a22 u2 + . . . + an2 un
..
.
f (un ) = a1n u1 + a2n u2 + . . . + ann un
Disponendo i coefficienti ottenuti lungo le colonne di una matrice, si costruisce la
seguente:  
a11 a12 . . . a1n
a21 a22 . . . a2n 
Af =  
. . . . . . . . . . . .
an1 an2 . . . ann
Applicazioni
lineari

Matrice
associata Assegnata una base B = {u1 , u2 , . . . , un } dello spazio vettoriale V e note le
rispettive immagini f (u1 ), f (u2 ), . . . , f (un ), allora resta determinata la matrice Af .
Viceversa, assegnata una base B = {u1 , u2 , . . . , un } dello spazio vettoriale V e
nota la matrice Af , allora restano determinate le immagini f (u1 ), f (u2 ), . . . , f (un ),
ovvero l’endomorfismo f .

Definizione
La matrice Af è chiamata matrice associata all’endomorfismo f .
Applicazioni
lineari

Matrice Analogamente se abbiamo un’applicazione lineare di uno spazio vettoriale V di


associata
dimensione n in uno spazio vettoriale W di dimensione m, assegnate due basi di
V e W rispettivamente, possiamo associare una matrice di tipo mxn .

Si considerino:
 
a11 a12 · · · a1n
a a · · · a2n 
• A =  21 22
 · · · · · · · · · · · ·  una matrice quadrata di ordine n;

an1 an2 · · · ann


n
• K lo spazio vettoriale numerico sul campo K di dimensione n.
Si definisca la funzione F : Kn → Kn come segue:
Applicazioni
lineari F (v ) = Av ∀v ∈ Kn
Matrice
associata
dove Av è il prodotto righe per colonne tra la matrice A e il vettore v ∈ Kn .

L’applicazione definita F è lineare.

Si considerino i vettori della base canonica di Kn :


     
1 0 0
0 1 0
e1 =  .  , e2 =  .  , · · · , en =  . 
     
 ..   ..   .. 
0 0 1
Determinando le rispettive immagini dei vettori e1 , e2 , . . . , en , attraverso
l’applicazione F , si ottiene:
Applicazioni      
lineari
a11 a12 a1n
Matrice a21  a22  a2n 
associata
F (e1 ) =  .  = a1 , F (e2 ) =  .  = a2 , . . . , F (en ) =  .  = an
     
 ..   ..   .. 
an1 an2 ann

dove a1 , a2 , . . . , an sono i vettori colonna della matrice A. Poiché i vettori


e1 , e2 , . . . , en costituiscono un sistema di generatori, allora, per la Proposizione
(9), anche le rispettive immagini, ovvero a1 , a2 , . . . , an , costituiscono un sistema di
generatori di =F . Dunque ne consegue:

• ρ(A) = p ⇒ dim =F = p e dim ker F = n − p;


• ρ(A) = n ⇒ F isomorfismo.
Si considerino:
• V uno spazio vettoriale di dimensione n;
Applicazioni • B = {u1 , u2 , . . . , un } una base di V ;
lineari

Matrice
• F : Kn → Kn la funzione definita F (v ) = Av , per ogni v ∈ Kn , dove A è la
associata seguente matrice:  
a11 a12 · · · a1n
a21 a22 · · · a2n 
A= · · · · · · · · · · · · ;

an1 an2 · · · ann


n
• g : V → K la coordinazione dello spazio vettoriale V nel riferimento B.

Proposizione 13
Sia f : V → V un endomorfismo. Considerato un vettore v ∈ V dello spazio
vettoriale V e la sua relativa immagine f (v ), allora la funzione F : Kn → Kn
trasforma le coordinate del vettore v rispetto alla base B nelle coordinate del
vettore f (v ) rispetto alla base B.
Dimostrazione.
Siano:
Applicazioni
lineari • (x1 , x2 , . . . , xn ) le coordinate del vettore v ∈ V rispetto alla base B;
Matrice
associata • (y1 , y2 , . . . , yn ) le coordinate del vettore f (v ) ∈ V rispetto alla base B.
Bisogna dimostrare che:
    x 
y1 a11 a12 ··· a1n 1
 y2    x2 
   21 a22
a ··· a2n 
 ..  =   
··· ··· ··· · · ·   ... 
 
.
yn an1 an2 ··· ann xn

Si considerino i vettori della base canonica di Kn :

e1 , e2 , . . . , en .
Applicazioni
Dimostrazione.
lineari
Dunque i vettori
Matrice
associata F (e1 ), F (e2 ), . . . , F (en )
rappresentano le colonne della matrice A. Consegue che:
A
z }| {
F (v ) = (F (e1 ) F (e2 ) . . . F (en )) v .

Analogamente se si considera un’applicazione di uno spazio vettoriale V di


dimensione n in uno spazio vettoriale W di dimensione m, abbiamo la matrice che
collega le coordinate del vettore v e di f(v).
Si considerino:
• V uno spazio vettoriale di dimensione n;
Applicazioni
lineari • B = {u1 , u2 , . . . , un } una base di V ;
Matrice
associata • f : V → V un isomorfismo;
• A è la matrice associata all’isomorfismo rispetto alla base B.

Proposizione 14
Si dimostra che f −1 : V → V é un isomorfismo e la matrice associata è A−1
rispetto alla base B.

Dimostrazione.
Poiché f è un isomorfismo, allora la matrice A è non degenere, cioé det A 6= 0,
quindi A è una matrice invertibile. Inoltre è banale dimostrare che l’applicazione
inversa f −1 è ancora un isomorfismo.
Si considerino:
Applicazioni
lineari • V uno spazio vettoriale di dimensione n;
Matrice
associata
• W uno spazio vettoriale di dimensione m;
• Z un spazio vettoriale di dimenzione r ;
• BV = {v1 , v2 , . . . , vn } una base di V ;
• BW = {w1 , w2 , . . . , wm } una base di W ;
• BZ = {z1 , z2 , . . . , zr } una base di Z ;
• f : V → W un’applicazione lineare;
• g : W → Z un’applicazione lineare;
• A ∈ Mm,n matrice associata all’applicazione f rispetto alle basi BV e BW ;
• B ∈ Mr ,m matrice associata all’applicazione g rispetto alle basi BW e BZ .
Applicazioni
lineari

Matrice
associata
Proposizione 15
L’applicazione lineare composta g ◦ f : V → Z è un’applicazione lineare la cui
matrice associata è il prodotto tra le matrici BA.

Dimostrazione.
Dall’esempio precedente, la composizione di applicazioni lineari è un’applicazione
lineare e con facili calcoli si trova la matrice associata.
Prodotto scalare
Si consideri:
• V uno spazio vettoriale di dimensione finita n definito sul campo dei numeri
Prodotto scalare reali R.
Sottospazi
ortogonali Definizione
Esempi
Un prodotto scalare definito positivo in V è un’applicazione

s: V ×V → R

con le seguenti proprietà:


simmetrica:
s(u, v ) = s(v , u) ∀u, v ∈ V
lineare: si richiede la linearità a sinistra:

s(α1 u + α2 v , w ) = α1 s(u, w ) + α2 s(v , w ) ∀u, v , w ∈ V

e ∀α1 , α2 ∈ R.
definita positiva:
Prodotto scalare
s(u, u) ≥ 0 s(u, u) = 0 ⇔ u = 0.
Sottospazi
ortogonali

Esempi
Proposizione 1
Un prodotto scalare di V soddisfa:
1 s(0, v ) = 0 ∀v ∈ V ;
2 s(u, α1 v + α2 w ) = α1 s(u, v ) + α2 s(u, w ) ∀u, v , w ∈ V e ∀α1 , α2 ∈ R.

Esempio
Se x = (x1 , x2 , . . . , xn ) e y = (y1 , y2 , . . . , yn ) sono due vettori di Rn . Si definisca
la seguente applicazione:

h , i : Rn × Rn → R
Esempio
Prodotto scalare definita ponendo:
Sottospazi
ortogonali

Esempi
hx, y i = x1 y1 + x2 y2 + . . . + xn yn
Come è facile verificare, l’applicazione è un prodotto scalare definito positivo in
Rn ed è detto prodotto scalare euclideo.

Utilizzando il prodotto scalare euclideo è possibile definire in ogni spazio vettoriale


V un particolare prodotto scalare definito positivo. Si considerino:
• V uno spazio vettoriale di dimensione n;
• B = {e1 , e2 , . . . , en } una base di V ;
• (v1 , v2 , . . . , vn ) e (w1 , w2 , . . . , wn ) le componenti dei rispettivi vettori
v , w ∈ V nella base B;
• c : V → Rn la coordinazione determinata dalla base B.
Si definisca la seguente applicazione:

Prodotto scalare
g: V ×V →R
Sottospazi
ortogonali tale che
Esempi

g (v , w ) = v1 w1 + v2 w2 + . . . + vn wn = hc(v ), c(w )i
Essa è un prodotto scalare definito positivo che, in termini di coordinate, coincide
col prodotto scalare euclideo.
Siano considerati:
• V uno spazio vettoriale di dimensione n;
• s : V × V → R un prodotto scalare definito positivo;
• B = {e1 , e2 , . . . , en } una base fissata di V ;
• (v1 , v2 , . . . , vn ) e (w1 , w2 , . . . , wn ) le componenti dei rispettivi vettori
v , w ∈ V nella base B;
• c : V → Rn la coordinazione determinata dalla base B.
Si ha:  
n
X n
X n
X
Prodotto scalare
s(v , w ) = s  vi ei , wj ej  = vi wj s(ei , ej ).
Sottospazi i=1 j=1 i.j=1
ortogonali

Esempi
Ne segue che se i vettori della base B hanno le seguenti proprietà:

s(ei , ei ) = 1 ∀i = 1, . . . , n
e
s(ei , ej ) = 0 i 6= j
allora si ha:
n
X
s(v , w ) = vi wj = hc(v ), c(w )i.
i=1

Queste considerazioni giustificano l’importanza di determinare nello spazio V basi


B che, rispetto ad un assegnato prodotto scalare s, abbiano le proprietà di sopra.
Per risolvere il problema indicato è necessario premettere la seguente definizione:
Prodotto scalare Definizione
Sottospazi
ortogonali Due vettori u, v ∈ V si dicono ortogonali se:
Esempi
s(u, v ) = 0

e si denotano con u ⊥ v .

Definizione
Si definisce norma del vettore v ∈ V , la grandezza:
p
||v || = s(v , v ).
Prodotto scalare

Sottospazi
Si considerino:
ortogonali
• lo spazio vettoriale Rn dotato del prodotto scalare euclideo;
Esempi
• un vettore u ∈ V

Definizione
Si definisce norma di un vettore u e si indica con ||u|| il numero reale non negativo:
p q
||u|| = hu, ui = u12 + u22 + · · · + un2
Prodotto scalare
Esempio
Sottospazi
ortogonali
Si consideri lo spazio vettoriale R3 e siano u = (2, −1, 0) e v = (−1, −2, 0) vettori
Esempi
di R3 . Allora il prodotto scalare canonico di R3 è:

hu, v i = 2 · (−1) + (−1) · (−2) + 0 · 0 = 0.

Si osserva che, per definizione, i vettori u e v sono ortogonali. Inoltre le rispettive


norme sono:
p √ p √
||u|| = 22 + (−1)2 + 02 = 5 ||v || = (−1)2 + (−2)2 + 02 = 5
Insiemi ortonormali

Prodotto scalare

Sottospazi Si considerino:
ortogonali

Esempi
• V uno spazio vettoriale dotato di un prodotto scalare definito positivo;
• {u1 , u2 , . . . , un } un insieme di vettori di V .

Definizione
L’insieme dei vettori dello spazio V si dice ortonormale se:
1 s(ui , uj ) = 0 per ogni i, j = 1, 2, . . . , n e i 6= j;
2 ||ui || = 1 per ogni i = 1, 2, . . . , n.
Prodotto scalare

Sottospazi
ortogonali
Esempio
Esempi Si consideri lo spazio vettoriale R2 con il prodotto scalare canonico e si consideri
la base canonica B = {e1 , e2 } con e1 = (1, 0) e e2 = (0, 1). Facilmente si ha:
• he1 , e2 i = 1 · 0 + 0 · 1 = 0, quindi è una base ortogonale;
√ √
• ||e1 || = 11 + 02 = 1 e ||e2 || = 02 + 12 = 1, quindi è una base
ortonormale.

In generale in uno spazio vettoriale Rn dotato del prodotto scalare canonico, la


base canonica è una base ortonormale.
Proviamo che:
Prodotto scalare Proposizione 2
Sottospazi
ortogonali Se v1 , v2 , . . . , vn sono n vettori nessuno dei quali è il vettore nullo e a due a due
Esempi ortogonali allora essi sono linearmente indipendenti.

Dimostrazione.
Supponiamo α1 v1 + α2 v2 + . . . αn vn = 0; per la proprietà di bilinearità risulta, per
ogni j = 1, 2, . . . , n

Xn
s( αi vi , vj ) = s(0, vj ) = αj s(vj , vj ) = 0
i=1

e ciò implica, essendo il prodotto scalare definito positivo, αj = 0. Si ha cosı̀


l’asserto.
Vediamo come costruire basi ortogonali e poi ortonormali.

Prodotto scalare Proposizione 3


Sottospazi
ortogonali Sia W = {w1 , w2 , . . . , wt } un sistema di t, con t < n, vettori non nulli ed a due a
Esempi due ortogonali. E’ possibile costruire un vettore wt+1 non nullo ortogonale a
ciascun vettore di W .

Dimostrazione.
Sia vt+1 un vettore non appartenente allo spazio Vt = hw1 , w2 . . . . , wt i generato
dai t vettori indipendenti w1 , w2 , . . . , wt . Il vettore wt+1 dato da:

s(vt+1 , w1 ) s(vt+1 , w2 ) s(vt+1 , wt )


wt+1 = vt+1 − w1 − w2 − . . . − wt
s(w1 , w1 ) s(w2 , w2 ) s(wt , wt )
è non nullo in quanto vt+1 non appartiene a Vt ed è ortogonale ad ognuno dei
vettori di W in quanto risulta, per ogni j = 1, 2, . . . , t
Dimostrazione.
Prodotto scalare s(vt+1 , wj )
Sottospazi s(wt+1 , wj ) = s(vt+1 , wj ) − s(wj , wj ) = 0.
ortogonali s(wj , wj )
Esempi

Dalla proposizione precedente segue facilmente che:


Proposizione 4
Nello spazio vettoriale V di dimensione n è possibile costruire una base ortogonale.

Sia B = {e1 , e2 , . . . , en } una base ortogonale di Vn . Si consideri per ogni


i = 1, . . . , n, il vettore seguente:
ei
wi = .
||ei ||

Si ha subito che il sistema {w1 , w2 , . . . , wn } è una base ortonormale di Vn .


Si considerino:
• V uno spazio vettoriale dotato di un prodotto scalare definito positivo;
Prodotto scalare • W ≤ V un sottospazio vettoriale di V .
Sottospazi
ortogonali Definizione
Esempi
Si definisce complemento ortogonale di W in V l’insieme:

W ⊥ = {u ∈ V : s(u, v ) = 0 ∀v ∈ W } .

Proposizione 5
W ⊥ è un sottospazio di V :
W⊥ ≤ V.

Dimostrazione.
Bisogna dimostrare che sono soddisfatte le proprietà della definizione di
sottospazio vettoriale.
Dimostrazione.
Prodotto scalare
Siano v1 , v2 ∈ W ⊥ , allora
Sottospazi
ortogonali

Esempi
s(v1 , w ) = 0, s(v2 , w ) = 0

per ogni vettore w ∈ W . Prendendo in considerazione α1 v1 + α2 v2 e sfruttando la


definizione di prodotto scalare, allora per ogni vettore w ∈ W :

s(α1 v1 + α2 v2 , w ) = α1 s(v1 , w ) + α2 s(v2 , w ) = 0 + 0 = 0 ⇒ α1 v1 + α2 v2 ∈ W ⊥ .

Siano considerati:
• V uno spazio vettoriale con assegnato prodotto scalare definito positivo;
• W≤ V sottospazio vettoriale di V .
Proposizione 6
I sottospazi W e W ⊥ sono supplementari.
Prodotto scalare

Sottospazi
ortogonali Dimostrazione.
Esempi
Posto dim W = t, sia {e1 , . . . , et } una base ortonormale di W . Completiamo tale
base in una base ortonormale dello spazio V di dimensione n con l’aggiunta dei
vettori et+1 , . . . , en . L’asserto sarà provato se mostreremo che

W ⊥ = het+1 , . . . , en i.

Ogni vettore b dello spazio het+1 , . . . , en i è del tipo at+1 et+1 + . . . + an en ed esso
appartiene allo spazio W ⊥ . Infatti per ogni vettore w = h1 e1 + . . . + ht et di W , si
ha, tenendo presente che e1 , e2 , . . . , en è una base ortonormale,

s(b, w ) = s(at+1 et+1 + . . . + an en , h1 e1 + . . . + ht et ) = 0.


Prodotto scalare Dimostrazione.
Sottospazi
ortogonali Viceversa, sia b un vettore di W ⊥ . Poichè e1 . . . . en è una base, risulta:
Esempi

b = m1 e1 + . . . + mt et + mt+1 et+1 + . . . + mn en .
Poichè e1 , e2 , . . . , et sono vettori di W si ha:

s(b, e1 ) = m1 = 0, s(b, e2 ) = m2 = 0. . . . , s(b, et ) = mt = 0


e quindi b = mt+1 et+1 + . . . + mn en è un vettore di het+1 , . . . , en i. Si osserva che
dalle due proprietà della proposizione precedente, W ⊥ e W sono due sottospazi
vettoriali supplementari dello spazio vettoriale V .
Esempio

Si considerino lo spazio vettoriale R3 e un sistema di vettori


Prodotto scalare
{(1, −1, 0), (2, 0, 1), (0, −1, 1)}.
Sottospazi
ortogonali • Stabilire che il sistema di vettori è una base.
Esempi

Si dispongano i vettori lungo le righe di una matrice:


 
1 −1 0
A = 2 0 1
0 −1 1

e si calcoli il suo determinante: det A = 3 6= 0. Allora i vettori sono linearmente


indipendenti ed è un sistema massimale di vettori indipendenti per R3 . Quindi
sono una base per R3 .
• Ortonormalizzare la base.

Prodotto scalare Ortogonalizzazione


Sottospazi
ortogonali Si applichi la Proposizione (3); denotando i vettori della base con u1 , u2 e u3 , si
Esempi costruiscano i vettori w1 , w2 , e w3 :

w1 = u1 = (1, −1, 0)

s(u2 ,w1 )
w2 = u2 − s(w1 ,w1 ) w1 = (2, 0, 1) − 22 (1, −1, 0) = (1, 1, 1)

s(u3 ,w1 ) s(u3 ,w2 )


w3 = u3 − s(w 1 ,w1 )
w1 − s(w 2 ,w2 )
w2 =
1 0
(0, −1, 1) − 2 (1, −1, 0) −  3 (1, 1, 1) =
1 1
−2, −2, 1

Quindi la base ortogonale è (1, −1, 0), (1, 1, 1), − 21 , − 21 , 1


 
Normalizzazione
Prodotto scalare
Per individuare la base ortonormale è necessario dividere ciascun vettore della base
Sottospazi
ortogonale con la sua rispettiva norma.
ortogonali
w1 w2 w3
Esempi w1 = ||w1 || , w2 = ||w2 || , w3 = ||w3 ||

Calcolando le norme dei vettori, si ottiene:


√ √ √
6
||w1 || = 2, ||w2 || = 3, ||w3 || = 2

Quindi si avrà:
w1 w2 w3
w1 = ||w1 || , w2 = ||w2 || , w3 = ||w3 ||

     
w1 = √1 , − √1 , 0 w2 = √1 , √1 , √1 w3 = − √16 , − √16 , √26
2 2 3 3 3
Prodotto scalare

Sottospazi
ortogonali

Esempi

In conclusione si ha che la base ortonormalizzata è:


     
1 1 1 1 1 1 1 2
√ , −√ , 0 , √ , √ , √ , −√ , −√ , √
2 2 3 3 3 6 6 6
Esempio
Si considerino lo spazio vettoriale R4 e il sottospazio generato dai vettori
w1 = (1, 1, 0, 0) e w2 = (1, 2, −1, 3):
Prodotto scalare
W = hw1 , w2 i.
Sottospazi
ortogonali

Esempi
• Determinare il complemento ortogonale W ⊥ di W .

Per definizione il complemento ortogonale W ⊥ è il sottospazio vettoriale dei


vettori ortogonali ai vettori w1 e w2 , cioè tali che:

s(u, w1 ) = 0 s(u, w2 ) = 0 ∀u ∈ R4 .

Si consideri un generico vettore (x, y , z, t) ∈ R4 e, affinché sia un vettore di W ⊥ ,


si deve avere che:

s((x, y , z, t), w1 ) = 0 s((x, y , z, t), w2 ) = 0


Prodotto scalare
Quindi W ⊥ è lo spazio delle soluzioni del seguente sistema lineare omogeneo:
Sottospazi
ortogonali (
Esempi x +y =0
.
x + 2y − z + 3t = 0

Si tratta di un sistema lineare omogeneo caratterizzato da due equazioni in 4


incognite. La matrice associata al sistema:
 
1 1 0 0
1 2 −1 3

il cui rango è pari a 2.Dunque il sistema lineare omogeneo ammette ∞2 soluzioni


con la scelta di 2 parametri che sono z = p e t = q.
Prodotto scalare Dunque: (
Sottospazi
ortogonali
x +y =0
.
Esempi x + 2y = p − 3q
Applicando il metodo di Cramer, si ha quindi:

W ⊥ = {(3q − p, p − 3q, p, q) : p, q ∈ R} .

In particolare W ⊥ è generato dai vettori (−1, 1, 1, 0) e (3, −3, 0, 1) :

W ⊥ = h(−1, 1, 1, 0), (3, −3, 0, 1)i.

Poiché i vettori sono linearmente indipendenti, si ha che i vettori costituiscono una


base per W ⊥ .
Autovalori e Autovettori
Si considerino:
• V uno spazio vettoriale sul campo K di dimensione n;
Autovalori e
Autovettori
• F : V → V un endomorfismo.
Matrici simili

Polinomio
caratteristico
Definizione
Esempio Un vettore v ∈ V − {0} si dice autovettore dell’endomorfismo F , se esiste uno
scalare λ tale che

F (v ) = λv .
Lo scalare λ ∈ K è chiamato autovalore relativo all’autovettore non nullo v ∈ V .
Sia λ ∈ K un autovalore per l’endomorfismo F , allora è possibile considerare il
sottoinsieme dello spazio vettoriale V di tutti gli autovettori di F che hanno λ
come autovalore:
{v ∈ V − 0 : F (v ) = λv } ⊂ V
Proposizione 1
Sia λ ∈ K un autovalore per l’endomorfismo F , allora
Autovalori e
Autovettori Vλ = {v ∈ V − 0 : F (v ) = λv } ∪ {0} è un sottospazio dello spazio vettoriale V .
Matrici simili

Polinomio Dimostrazione.
caratteristico

Esempio Per definizione si ha 0 ∈ Vλ ∪ {0}. Siano considerati due autovettori u, v ∈ Vλ e


si dimostri che u + v ∈ Vλ . Infatti:

F (u) = λu
u, v ∈ Vλ ⇒ ⇒ F (u) + F (v ) = λu + λv .
F (v ) = λv

Poiché F è un endomorfismo e quindi un’applicazione lineare, risulta che


F (u) + F (v ) = F (u + v ). Inoltre λu + λv = λ(u + v ). In conclusione si ha:

F (u + v ) = λ(u + v ) ⇒ u + v ∈ Vλ .
Autovalori e
Autovettori

Matrici simili

Polinomio
caratteristico Siano considerati α ∈ K e v ∈ Vλ . Allora, determinando αv e sfruttando che F
Esempio sia un endomorfismo, si ha:

F (αv ) = αF (v ) = α(λv ) = λ(αv ).

ovvero αv ∈ Vλ . Segue, per definizione, che Vλ ∪ {0} è un sottospazio vettoriale


di V .
Autovalori e Definizione
Autovettori

Matrici simili Il sottospazio vettoriale Vλ di V è chiamato autospazio corrispondente


Polinomio all’autovalore λ ∈ K. La dimensione dell’autospazio Vλ è chiamata molteplicità
caratteristico
geometrica dell’autovalore λ.
Esempio

Si indichi con mg (λ) la rispettiva molteplicità geometrica dell’autovalore λ, allora,


poiché gli autovettori sono tutti non nulli, risulta mg (λ) ≥ 1.
Esempio
Sia F : V → V un endomorfismo non iniettivo. Si vuole determinare l’autospazio
relativo all’autovalore 0, V0 , ovvero si vogliono determinare tutti gli autovettori
non nulli che hanno autovalore nullo. Allora:
Autovalori e
Autovettori
v ∈ V0 ⇒ F (v ) = 0v = 0 ⇒ v ∈ ker F ⇒ V0 ⊆ ker F .
Matrici simili

Polinomio Inoltre, poiché ker F 6= {0}, in quanto F non è iniettivo, si ha


caratteristico

Esempio
v ∈ ker F ⇒ F (v ) = 0 = 0v ⇒ v ∈ V0 ⇒ ker F ⊆ V0 .

In conclusione risulta che V0 = ker F .


Si considerino:
• V uno spazio vettoriale di dimensione n;
• F : V → V un endomorfismo;
• B = {u1 , u2 , . . . , un } una base di V ;
• A ∈ Mn (K) è la matrice associata all’endomorfismo rispetto alla base B.
Definizione
L’endomorfismo F si dice diagonalizzabile se esiste una base B = {u1 , u2 , . . . , un }
Autovalori e
Autovettori tale che la matrice associata, A, rispetto a tale base B, è una matrice diagonale.
Matrici simili

Polinomio
Per poter stabilire se un endomorfismo è diagonalizzabile, è importante la
caratteristico seguente proposizione:
Esempio
Proposizione 2

A diagonale ⇔ {u1 , u2 , . . . , un } è una base di autovettori per F .

Dimostrazione.
⇒ La matrice A collega i vettori della base B con i suoi trasformati, in
particolare:

(u1 , u2 , . . . , un )A = (F (u1 ), F (u2 ), . . . , F (un ))


Se la matrice A è una matrice diagonale, allora sarà del tipo:
Autovalori e
Autovettori  
λ1 0 ... 0
Matrici simili
 0 λ2 ... 0 
Polinomio  .
caratteristico . . . . . . . . . . . .
Esempio 0 0 0 λn

Ne consegue che
 
λ1 0 . . . 0
 0 λ2 . . . 0 
(u1 , u2 , . . . , un ) 
. . . . . . . . . . . . = (F (u1 ), F (u2 ), . . . , F (un ))

0 0 0 λn

cioè

F (u1 ) = λ1 u1 , F (u2 ) = λ2 u2 , . . . , F (un ) = λn un ⇒ u1 , u2 , . . . , un autovettori


Autovalori e
Autovettori
⇐ Poiché u1 , u2 , . . . , un sono autovettori per F , allora:
Matrici simili

Polinomio
caratteristico F (u1 ) = λ1 u1 , F (u2 ) = λ2 u2 , . . . , F (un ) = λn un
Esempio
Ne consegue che la matrice che rappresenta F nella base B è la
matrice diagonale:
 
λ1 0 . . . 0
 0 λ2 . . . 0 
. . . . . . . . . . . . .
 

0 0 0 λn
Autovalori e
Autovettori

Matrici simili Si considerino:


Polinomio • V uno spazio vettoriale di dimensione n;
caratteristico

Esempio • f : V → V un endomorfismo;
• v1 , v2 autovettori di f associati ad autovalori λ1 e λ2 distinti.

Proposizione 3
L’insieme {v1 , v2 } è un sistema di vettori linearmente indipendenti.
Dimostrazione.
Se per assurdo v1 e v2 fossero proporzionali, si ha: αv1 = v2 . Allora:
Autovalori e
Autovettori

Matrici simili
λ2 v2 = f (v2 ) = f (αv1 ) = αf (v1 ) = αλ1 v1 = λ1 αv1 = λ1 v2 ⇒ λ2 v2 = λ1 v2 .
Polinomio
caratteristico Quindi:
Esempio λ2 v2 − λ1 v2 = 0 ⇒ (λ2 − λ1 )v2 = 0
Poiché v2 è un autovettore e quindi un vettore non nullo, si ha:

λ2 − λ1 = 0 ⇒ λ2 = λ1 .

Ciò è assurdo perché gli autovalori λ1 e λ2 sono distinti.


Si considerino:
• V uno spazio vettoriale di dimensione n;
• f : V → V un endomorfismo;
• v1 , v2 , . . . , vk autovettori di f associati ad autovalori λ1 , λ2 , . . . , λk distinti.
Proposizione 4
Autovalori e L’insieme {v1 , v2 , . . . , vk } è un sistema di vettori linearmente indipendenti, cioè
Autovettori
autovettori associati ad autovalori distinti sono linearmente indipendenti.
Matrici simili

Polinomio
caratteristico Dimostrazione.
Esempio
Si può ragionare per induzione sull’intero k ≥ 2 :
k = 2 Proposizione (3).
k > 2 si supponga l’asserto vero per k − 1, ovvero i vettori v1 , v2 , . . . , vk−1
sono linearmente indipendenti e si dimostri l’asserto per k. Siano per
assurdo v1 , v2 , . . . , vk−1 , vk vettori linearmente dipendenti. Segue
che il vettore vk è combinazione lineare dei vettori v1 , v2 , . . . , vk−1 :

vk = α1 v1 + α2 v2 + · · · + αk−1 vk−1 .
Dimostrazione.
Autovalori e
Applicando l’endomorfismo f ad ambo i membri, si ha:
Autovettori

Matrici simili f (vk ) = f (α1 v1 + α2 v2 + · · · + αk−1 vk−1 ).


Polinomio
caratteristico
Sfruttando la linearità dell’applicazione e la definizione di autovettore, si ha:
Esempio

λk vk = α1 λ1 v1 + α2 λ2 v2 + · · · + αk−1 λk−1 vk−1

Si moltiplichi per λk la precedente combinazione lineare

vk = α1 v1 + α2 v2 + · · · + αk−1 vk−1 ,

e si ha:
λk vk = α1 λk v1 + α2 λk v2 + · · · + αk−1 λk vk−1 .
Sottraendo le combinazioni lineari, si ottiene:
Dimostrazione.
Autovalori e
Autovettori 0 = α1 (λk − λ1 )v1 + α2 (λk − λ2 )v2 + · · · + αk−1 (λk − λk−1 )vk−1 .
Matrici simili

Polinomio Per la lineare indipendenza dei vettori v1 , v2 , . . . , vk−1 , segue:


caratteristico

Esempio α1 (λk − λ1 ) = 0 α2 (λk − λ2 ) = 0 · · · αk−1 (λk − λk−1 ) = 0

Dato che gli autovalori λ1 , λ2 e λk sono distinti, consegue:

α1 = α2 = · · · = αk−1 = 0.

Allora vk = 0, ma è assurdo poiché vk è un autovettore.

Si considerino:
• V uno spazio vettoriale di dimensione n;
• f : V → V un endomorfismo.
Corollary 5
L’endomorfismo ha al più di n autovalori distinti.
Autovalori e
Autovettori

Matrici simili Teorema 6


Polinomio
caratteristico

Esempio f diagonalizzabile ⇔ ∃B base di autovettori

Dimostrazione.
⇒ Sia B una base di V . Poiché l’endomorsimo f è, per ipotesi,
diagonalizzabile, allora, per definizione, la matrice associata A,
rispetto alla base, è una matrice diagonale. Per la Proposizione (2),
allora i vettori della base B sono autovettori.
⇐ Se esiste una base di autovettori per l’endomorfismo f , allora la
matrice associata A rispetto a tale base è diagonale, per la
Proposizione (2).
Matrici simili
Si considerino:
• A ∈ Mn (K) una matrice quadrata di ordine n definita sul campo K;
Autovalori e
Autovettori • B ∈ Mn (K) una matrice quadrata di ordine n definita sul campo K.
Matrici simili

Polinomio
caratteristico
Definizione
Esempio Le due matrici A e B si dicono simili se esiste una matrice P ∈ Mn (K), non
degenere (det P =
6 0), tale che:

B = P −1 AP.

Per indicare che due matrici sono simili, si indica: A ∼ B.


Si considerino:
• V uno spazio vettoriale di dimensione dim V = n;
• B = {u1 , u2 , . . . , un } e B 0 = {u10 , u20 , . . . , un0 } due basi di V ;
• f : V → V un endomorfismo.
Proposizione 7
Autovalori e
Autovettori Le matrici che rappresentano l’endomorfismo f nelle basi B e B 0 rispettivamente
Matrici simili sono simili.
Polinomio
caratteristico

Esempio
Dimostrazione.
Siano indicate con
   
a11 a12 ... a1n b11 b12 . . . b1n
a21 a22 ... a2n   b21 b22 . . . b2n 
A=
. . . . . . B= 
... . . . . . . . . . . . . . . .
an1 an2 ... ann bn1 bn2 . . . bnn

le matrici che rappresentano l’endomorfimo nelle basi B e B 0 rispettivamente.


Dimostrazione.
Dunque risulterà, per definizione di matrice associata all’endomorfismo rispetto
Autovalori e
Autovettori alla base assegnata:
Matrici simili

Polinomio
(f (u1 ), f (u2 ), . . . , f (un )) = (u1 , u2 , . . . , un )A
(1)
caratteristico
(f (u10 ), f (u20 ), . . . , f (un0 )) = (u10 , u20 , . . . , un0 )B
Esempio

Inoltre si consideri la matrice di passaggio dalla base B alla base B 0 :


 
p11 p12 . . . p1n
p21 p22 . . . p2n 
P= . . . . . . . . .
.
. . .
pn1 pn2 . . . pnn

In particolare si ha:

(u10 , u20 , . . . , un0 ) = (u1 , u2 , . . . , un )P. (2)


Dimostrazione.
Applicando ad ambo i membri l’applicazione f e considerando la linearità, si
Autovalori e
Autovettori ottiene:
Matrici simili (f (u10 ), f (u20 ), . . . , f (un0 )) = (f (u1 ), f (u2 ), . . . , f (un ))P.
Polinomio
caratteristico Sostituendo in essa le relazioni (1), si ottiene:
Esempio
(u 0 , u 0 , . . . , u 0 )B = (u1 , u2 , . . . , un )A P.
| 1 2 {z n } | {z }
(f (u10 ),f (u20 ),...,f (un0 )) (f (u1 ),f (u2 ),...,f (un ))

Tenuto conto della relazione (2), allora:

(u1 , u2 , . . . , un )PB = (u1 , u2 , . . . , un )AP.

Per l’indipendenza dei vettori u1 , u2 , . . . , un , si ottiene:

PB = AP ⇒ P −1 PB = P −1 AP ⇒ B = P −1 AP.
Autovalori e
Autovettori Si consideri una matrice A ∈ Mn (K).
Matrici simili

Polinomio
Proposizione 8
caratteristico

Esempio
A diagonalizzabile ⇔ A ∼ D
dove D è una matrice diagonale.

Dimostrazione.
Segue dalla proposizione (7).
Polinomio caratteristico
 
x1
 x2 
Sia A = (aij ) ∈ Mn (K) e x =  . . L’equazione Ax = λx può essere riscritta
 
Autovalori e
Autovettori  .. 
Matrici simili xn
Polinomio
caratteristico
come (A − λI )x = 0. Si tratta di un sistema lineare omogeneo che, affinché
Esempio
ammetta soluzioni non nulle, deve avere il determinante della matrice dei
coefficienti uguale a zero.
Definizione
Il determinante
a11 − λ a12 ··· a1n

a21 a22 − λ ··· a2n
|A − λI | = .

.. ..
..

. .

an1 an2 ··· ann − λ
è un polinomio di grado n nella variabile λ, indicato con pA (λ) ed è chiamato polinomio
caratteristico.
Gli autovalori della matrice A sono radici del polinomio caratteristico pA (λ) :
λ0 autovalore di A ⇔ pA (λ0 ) = 0.
Autovalori e
Autovettori

Matrici simili
Dunque gli autovalori sono da ricercare come soluzioni dell’equazione pA (λ) = 0.
Polinomio
caratteristico
Definizione
Esempio Dato un autovalore λ della matrice A, si definisce molteplicità algebrica di λ,
ma (λ), la molteplicità di λ come radice del polinomio caratteristico.

Definizione
Un autovalore della matrice si dice semplice se la sua molteplicità algebrica è 1,
ma (λ) = 1.

Proposizione 9
Il polinomio caratteristico pA (λ) è indipendente dalla base scelta per rappresentare
f.
Dimostrazione.
Autovalori e Siano B e B 0 due basi dello spazio vettoriale V e siano A e A0 le matrici associate
Autovettori
all’applicazione f rispetto alle basi date.Per la Proposizione (7), le matrici A e A0
Matrici simili
sono simili. Per definizione allora esiste una matrice non degenere P ∈ Mn (K):
Polinomio
caratteristico

Esempio A0 = P −1 AP.

Si ha allora:

|A0 − λI | = |P −1 AP − λI | = |P −1 AP − P −1 λI P| = |P −1 (A − λI )P|.

Applicando il teorema di Binet, si ha:

|P −1 | · |A − λI | · |P| = |A − λI |

essendo |P −1 | · |P| = 1
Proposizione 10
Sia λ un autovalore della matrice A. Allora:
Autovalori e
Autovettori

Matrici simili mg (λ) ≤ ma (λ)


Polinomio
caratteristico

Esempio Dalla proposizione precedente segue:


Proposizione 11
Ogni autovalore λ semplice della matrice A è tale che: mg (λ) = ma (λ).

Dimostrazione.
Se λ è un autovalore semplice della matrice, per definizione, si ha ma (λ) = 1. Per
la Proposizione precedente, si ha:

1 ≤ mg (λ) ≤ ma (λ) = 1 ⇒ mg (λ) = ma (λ) = 1.


Proposizione 12
Se λ1 , λ2 . . . , λm sono m autovalori distinti di f , i corrispondenti autospazi
Autovalori e
Autovettori Vλ1 , Vλ2 . . . , Vλm sono tali che ciascuno di essi interseca nel solo vettore nullo lo
Matrici simili spazio generato dai rimanenti.
Polinomio
caratteristico

Esempio
Dimostrazione.
Proviamo che Vλ1 ∩ hVλ2 ∪ . . . Vλm i = {0} (in modo analogo si procede negli altri
casi). Sia per assurdo b un vettore non nullo appartenente a
Vλ1 ∩ hVλ2 ∪ . . . ∪ Vλm i. Allora si ha:

b ∈ hVλ2 ∪ . . . ∪ Vλm i ⇒ b = b2 + . . . + bm

con bi ∈ Vλi per i = 2, . . . , m. Riducendo il numero degli addendi, possiamo


supporre che sia b2 6= 0, . . . , bm 6= 0. Dalla relazione b = b2 + . . . + bm , segue,
applicando f :
λ1 b = λ2 b2 + . . . + λm bm .
Dimostrazione.
Autovalori e
Autovettori Moltiplicando b = b2 + . . . + bm per λ1 si ha:
Matrici simili

Polinomio λ1 b = λ1 b2 + . . . + λ1 bm .
caratteristico

Esempio Dalle due espressioni precedenti, sottraendo membro a membro, si ha:

(λ1 − λ2 )b2 + . . . + (λ1 − λm )bm = 0.


Per la Proposizione (4), gli autovettori b2 , . . . , bm sono linearmente indipendenti e
quindi:

λ1 − λi = 0 ∀i = 2, . . . , m.
e ciò è assurdo avendo supposto λ1 , . . . , λm distinti.
Si considerino:
• V uno spazio vettoriale di dimensione n;
Autovalori e
Autovettori
• f : V → V un endomorfismo.
Matrici simili

Polinomio
Teorema 13 (Criterio di diagonalizzazione di una matrice)
caratteristico

Esempio
L’endomorfismo f è diagonalizzabile se e solo se il suo polinomio caratteristico ha
tutte le radici nel campo e ciascuna con molteplicità geometrica uguale a quella
algebrica.

Dimostrazione.
Supponiamo che il polinomio caratteristico abbia tutte le radici nel campo e siano
λ1 , . . . , λt , ciascuna con molteplicità algebrica uguale a quella geometrica:

ma (λi ) = mg (λi ) = si ∀i = 1, 2, . . . , t.
Dimostrazione.
Si ha in particolare che
Autovalori e
Autovettori

Matrici simili
dimVλi = si i = 1, 2, . . . , t
Polinomio
caratteristico con s1 + . . . + st = n. Sia Bi una base di Vλi per i = 1, 2, . . . , t. Il sistema di
Esempio vettori B = ∪ti=1 Bi ha cardinalità n ed è una base di autovettori di f , per la
proposizione 12. Allora per il Teorema (6) è diagonalizzabile.
Viceversa, supponiamo che f sia diagonalizzabile. Allora, per il Teorema (6),
esiste una base B = {v1 , . . . , vn } fatta da autovettori, i cui autovalori sono
λ1 , λ2 , . . . , λn . Indichiamo con λ1 , λ2 , . . . , λt gli autovalori distinti che figurano
tra λ1 , λ2 , . . . , λn e supponiamo inoltre che λ1 figuri s1 volte tra λ1 , λ2 , . . . , λn ,
. . . , λt figuri st volte tra λ1 , λ2 , . . . , λn . Si ha cosı̀:

s1 + . . . + st = n.
Diciamo h1 , . . . , ht le molteplicità algebriche delle radici λ1 , . . . , λt .
Dimostrazione.
Poichè l’autospazio Vλi contiene si vettori di B, per ogni i = 1, 2, . . . , t, si ha:
Autovalori e
Autovettori

Matrici simili
si ≤ dimVλi i = 1, 2, . . . , t.
Polinomio
caratteristico D’altra parte per la Proposizione (10), si ha:
Esempio

dim Vλi ≤ hi i = 1, 2, . . . , t.

Dalle due relazioni precedenti segue:

si ≤ dim Vλi ≤ hi i = 1, 2, . . . , t.
Da queste si ottiene:

n = s1 + . . . + st = dim Vλ1 + . . . + dim Vλt ≤ h1 + . . . + ht ≤ n.


Autovalori e
Autovettori
Dimostrazione.
Matrici simili

Polinomio
Dalla relazione precedente segue che h1 + . . . + ht = n e che si = hi , per ogni
caratteristico i = 1, 2, . . . , t.
Esempio E quindi che:

dim Vλ1 = h1 , . . . , dim Vλt = ht ,

e cosı̀ λ1 , λ2 , . . . , λt sono tutte le radici del polinomio caratteristico di f e


ciascuna ha molteplicità geometrica uguale a quella algebrica. Cosı̀ il teorema è
provato.
Esempio
Sia considerato un endomorfismo f : R3 → R3 la cui matrice associata rispetto
alla base canonica è la seguente:
Autovalori e  
Autovettori 1 0 0
Matrici simili A = −1 2 0 .
Polinomio
caratteristico
−1 0 2
Esempio
• Determinare gli autovalori di f e le relative molteplicità.

Per determinare gli autovalori di f è necessario determinare il polinomio


caratteristico:

1 − λ 0 0
0 = (λ − 1)(λ − 2)2 = 0

pA (λ) = −1 2 − λ

−1 0 2 − λ

Gli autovalori sono le radici del polinomio caratteristico e quindi si ha:


Autovalori e
Autovettori
λ1 = 1, λ2 = 2
Matrici simili

Polinomio e rispettive molteplicità algebriche sono:


caratteristico

Esempio
ma (λ1 ) = 1, ma (λ2 ) = 2

• Determinare gli autospazi di f .

Per determinare gli autospazi di f è necessario determinare i seguenti sottospazi:

Vλ1 = v ∈ R3 − {0} : Av = λ1 v ∪ {0}, Vλ2 = v − ∈ R3 − {0} : Av = λ2 v ∪ {


 
Autovalori e
Autovettori In particolare è necessario risolvere i seguenti sistemi lineari omogenei:
Matrici simili

Polinomio (A − λ1 I)v = 0,
caratteristico
(A − λ2 I)v = 0
Esempio

ovvero     
1 − λ1 0 0 x 0
 −1 2 − λ1 0  y = 0
 
 −1 0 2 − λ1  z  0
1 − λ2 0 0 x 0
 −1 2 − λ2 0  y = 0
 
−1 0 2 − λ2 z 0
    
Autovalori e 0 0 0 x 0
Autovettori
−1 1 0 y  = 0
Matrici simili

Polinomio −1 0 1 z  0


caratteristico −1 0 0 x 0
Esempio −1 0 0 y  = 0
−1 0 0 z 0
I sistemi lineari omogenei che si ottengono sono:
(
x −y =0 n
, x =0
x −z =0

Dai rispettivi sistemi lineari omogenei si ottiene come soluzione:

V1 = h(1, 1, 1)i, V2 = h(0, 1, 0), (0, 0, 1)i


Una base di R3 di autovettori sarà dunque:
Autovalori e
Autovettori
B = {(1, 1, 1), (0, 1, 0), (0, 0, 1)} .
Matrici simili

Polinomio
caratteristico
• Stabilire se l’endomorfismo è diagonalizzabile.
Esempio

Bisogna verificare il Criterio di diagonalizzazione, verificando che le rispettive


molteplicità algebriche coincidono con le rispettive molteplicità geometriche degli
autovalori. Avendo calcolato gli autovalori come radici del polinomio
caratteristico, si ha che le rispettive molteplicità algebriche sono:

ma (1) = 1, ma (2) = 2

In relazione al primo autovalore λ1 = 1, sfruttando la Proposizione (10), si ha:

m (1) ≤ m (1) = 1 ⇒ m (1) = m (1) = 1.


Autovalori e
Autovettori Quindi la molteplicità algebrica del primo autovalore coincide con la sua
Matrici simili molteplicità geometrica. In relazione al secondo autovalore λ2 = 2, invece, è
Polinomio necessario calcolare la rispettiva molteplicità geometrica. Per definizione si ha:
caratteristico

Esempio
mg (2) = dim V2 = 3 − ρ(A − λ2 I).

Il rango della matrice A − λ2 I = 1, quindi

mg (2) = 3 − 1 = 2 = ma (2).

Poichà ogni autovalore ha molteplicità algebrica coincidente con la rispettiva


molteplicità geometrica, allora per il criterio di diagonalizzazione, la matrice è
diagonalizzabile, ovvero l’endomorfismo è diagonalizzabile.
• Determinare la matrice P che diagonalizza la matrice A e la matrice
diagonale D.
Autovalori e
Autovettori

Matrici simili
Poiché la matrice A è diagonalizzabile, allora, per la Proposizione (8), essa sarà
Polinomio
caratteristico una matrice simile ad una matrice diagonale D. Per definizione esisterà una
Esempio matrice P invertibile tale che:

P −1 AP = D.

La matrice P è la matrice che ha come colonne gli autovettori della base


individuata precedentemente, dunque:
 
1 0 0
P = 1 1 0  .
1 0 1
Autovalori e
Autovettori

Matrici simili

Polinomio
caratteristico
La matrice diagonale D è la matrice che ha lungo la diagonale principale gli
Esempio
autovalori:  
1 0 0
D = 0 2 0 
0 0 2
Sistemi di riferimento
Si consideri una retta orientata, x, fissando un verso di percorrenza con la punta
di una freccia. Su di essa è fissato un punto, O, chiamato origine e si stabilisca
Sistemi di una unità di misura. Fissando un punto sulla retta x, P, resta individuato un
riferimento

Retta nel piano


segmento OP. Al punto P è possibile associare un valore reale, xP , che
Retta nello
rappresenta il numero di volte che l’unità di misura entra nel segmento OP.
spazio Lavorando su una retta orientata, per convenzione:
Piano nello
spazio
• se il punto P è fissato dopo l’origine O, il valore reale associato ad esso sarà
Posizione positivo;
reciproca tra
retta e piano • se il punto P è fissato prima dell’origine O, il valore reale associato ad esso
Fasci e stella di sarà negativo.
piani
Si può considerare l’applicazione:
Le coniche

P ∈ r → xP ∈ R
ed è un isomorfismo.

Si parla di sistema di riferimento su una retta x.


Dato un piano π, si considerino due rette orientate e non parallele, x e y ,
indicando con O il punto d’intersezione. Su ciascuna delle due rette si stabilisca
Sistemi di una unità di misura. Si fissi un punto nel piano individuato dalle due rette, P,
riferimento
allora:
Retta nel piano
• conducendo dal punto P la retta parallela alla retta y , questa interseca la
Retta nello
spazio retta x in un punto Px . Resta individuato il segmento OPx e quindi il valore
Piano nello
spazio
reale, xP , che rappresenta il numero di volte che l’unità di misura, scelta sulla
Posizione
retta x, entra nel segmento;
reciproca tra
retta e piano
• conducendo dal punto P la retta parallela alla retta x, questa interseca la
Fasci e stella di
retta y in un punto Py . Resta individuato il segmento OPy e quindi il valore
piani
reale, yP , che rappresenta il numero di volte che l’unità di misura, scelta sulla
Le coniche
retta y , entra nel segmento.
Dunque ad un punto P del piano è possibile associare una coppia di numeri reali e
si può considerare l’applicazione:
P ∈ π → (xP , yP ) ∈ R2
ed è un isomorfismo.
Sistemi di Si parla di sistema di riferimento in un piano π. Le rette orientate, x e y , si
riferimento

Retta nel piano


chiamano assi, in particolare:
Retta nello • x è chiamata asse delle ascisse;
spazio

Piano nello
• y è chiamata asse delle ordinate;
spazio
• O è chiamato origine del sistema.
Posizione
reciproca tra
retta e piano
Tale sistema di riferimento si indica con π(O, x, y , ux , uy ), con ux e uy unità di
Fasci e stella di
misura fissate sui rispettivi assi.
piani

Le coniche La coppia dei valori reali (xP , yP ) ∈ R2 prende nome di coordinate del punto
P ∈ π. Qualora gli assi s’intersechino nel punto O perpendicolarmente, x⊥y , il
sistema di riferimento è detto ortogonale. Qualora si utilizzi la stessa unità su
entrambi gli assi, ux = uy = u il sistema di riferimento è detto monometrico.
Simbolicamente è indicato π(O, x, y , u).
Dato uno spazio euclideo S, si considerino tre rette orientate e non parallele a due
a due, x, y e z, indicando con O il punto d’intersezione. Restano individuati i
Sistemi di piani:
riferimento
• xy , piano individuato dalle rette x e y ;
Retta nel piano

Retta nello
• yz, piano individuato dalle rette y e z;
spazio
• xz, piano individuato dalle rette x e z.
Piano nello
spazio Su ciascuna delle tre rette si stabilisca una unità di misura. Si fissi un punto nello
Posizione
reciproca tra
spazio, P, allora:
retta e piano • conducendo dal punto P il piano parallelo al piano yz, questo interseca la
Fasci e stella di
piani retta x in un punto Px . Resta individuato il segmento OPx e quindi il valore
Le coniche reale, xP , che rappresenta il numero di volte che l’unità di misura, scelta sulla
retta x, entra nel segmento;
• conducendo dal punto P il piano parallelo al piano xz, questo interseca la
retta y in un punto Py . Resta individuato il segmento OPy e quindi il valore
reale, yP , che rappresenta il numero di volte che l’unità di misura, scelta sulla
retta y , entra nel segmento;
• conducendo dal punto P il piano parallelo al piano xy , questo interseca la
retta z in un punto Pz . Resta individuato il segmento OPz e quindi il valore
Sistemi di
riferimento
reale, zP , che rappresenta il numero di volte che l’unità di misura, scelta sulla
Retta nel piano
retta z, entra nel segmento.
Retta nello Dunque ad un punto P dello spazio è possibile associare una terna di numeri reali
spazio
e si può considerare l’applicazione:
Piano nello
spazio

Posizione P ∈ S → (xP , yP , zP ) ∈ R3
reciproca tra
retta e piano

Fasci e stella di
ed è un isomorfismo.
piani

Le coniche

==
Sistemi di
riferimento

Retta nel piano

Retta nello Tale sistema di riferimento si indica con S(O, x, y , z, ux , uy , uz ), con ux , uy e uz


spazio

Piano nello
unità di misura fissate sui rispettivi assi.
spazio

Posizione La terna dei valori reali (xP , yP , zP ) ∈ R3 prende nome di coordinate del punto
reciproca tra
retta e piano
P ∈ S. Qualora gli assi s’intersecano nel punto O perpendicolarmente a due a
Fasci e stella di due, x⊥y , y ⊥z e x⊥z, il sistema di riferimento è detto ortogonale. Qualora si
piani
utilizzi la stessa unità sugli assi, ux = uy = uz = u, il sistema di riferimento è
Le coniche
detto monometrico. Simbolicamente è indicato S(O, x, y , z, u).
Retta nel piano

Si fissi in un piano π euclideo un sistema di riferimento ortogonale e monometrico


Sistemi di π(0, x, y , u) e si fissino i due punti A e B con le rispettive coordinate (xA , yA ) e
riferimento
(xB , yB ). Resta individuato un vettore AB ~ che giace sulla retta r . Di tale vettore
Retta nel piano
si determinano le componenti distinte lungo gli assi date dai numeri reali:
Retta nello
spazio

Piano nello
λ = xB − xA µ = yB − yA
spazio
| {z } | {z }
asse x asse y
Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
La coppia dei numeri reali non entrambi nulli (λ, µ) è chiamata coppia di numeri
direttori della retta r .
I numeri direttori della retta r sono determinati a meno di un fattore di
proporzionalità. Infatti se si considerano altri due punti C e D sulla retta r , resta
determinato il vettore CD.~
Sistemi di
riferimento
~ e CD
Poiché i vettori AB ~ giacciono sulla stessa retta r , allora sono proporzionali,
Retta nel piano ovvero:
Retta nello ∃ρ ∈ R − {0} : CD ~ = ρAB.~
spazio

Piano nello ~ lungo gli assi:


Se si considerano le componenti del vettore CD
spazio

Posizione
reciproca tra λ0 = xD − xC µ0 = yD − yC
retta e piano

Fasci e stella di
piani
~ rispetto al fattore di
queste sono proporzionali alle componenti del vettore AB,
Le coniche proporzionalità ρ, cioé:
(λ0 , µ0 ) = ρ(λ, µ)
~ le cui componenti
Si considerino i punti A e B sulla retta r , dunque il vettore AB,
sono:
Sistemi di λ = xB − xA µ = yB − yA
riferimento

Retta nel piano


~ le
Si fissi un punto P di coordinate (x, y ), quindi resta determinato il vettore AP,
Retta nello cui componenti sono:
spazio

Piano nello λ0 = x − xA µ0 = y − y A .
spazio

Posizione ~ è
Poiché entrambi i vettori giacciono sulla stessa retta, allora il vettore AP
reciproca tra
retta e piano ~
proporzionale al vettore AB:
Fasci e stella di
piani ∃ρ ∈ R − {0} : ~ = ρAB.
AP ~
Le coniche
Allora anche le componenti del vettore AP ~ sono proporzionali, rispetto al fattore
~ :
di proporzionalità ρ, alle componenti del vettore AB
( ( (
0 0 λ0 = ρλ x − xA = ρλ x = xA + ρλ
(λ , µ ) = ρ(λ, µ) ⇒ 0
⇒ ⇒
µ = ρµ y − yA = ρµ y = yA + ρµ
Definizione
Sistemi di
Data una retta r , determinata dai numeri direttori (λ, µ), le seguenti equazioni:
riferimento
(
Retta nel piano x = xA + ρλ
Retta nello
spazio y = yA + ρµ
Piano nello
spazio
sono dette equazioni parametriche della retta nel piano.
Posizione
reciproca tra
retta e piano
~ e AP,
Si può osservare che i vettori AB ~ poiché sono proporzionali, sono
Fasci e stella di linearmente dipendenti, ovvero la matrice, che ha per righe le rispettive
piani
componenti, ha determinante nullo:
Le coniche

0 0
x y 1
λ µ x − xA y − yA
= = xA yA 1 = 0.
λ µ xB − xA yB − yA
xB yB 1

Sviluppando il determinante, si ha:


(x − xA )(yB − yA ) − (y − yA )(xB − xA ) = 0 ⇒ ax + by + c = 0
Sistemi di
riferimento denotando con:
Retta nel piano
• a, il termine yB − yA , ovvero µ;
Retta nello
spazio • b, il termine xA − xB , ovvero −λ;
Piano nello
spazio • c, il termine yA (xB − xA ) − xA (yB − yA ).
Posizione
reciproca tra In conclusione: tutti i punti della retta r hanno le coordinate che soddisfanno
retta e piano
l’equazione ax + by + c = 0.
Fasci e stella di
piani
Definizione
Le coniche
Data una retta r , determinata dai numeri direttori (λ, µ) = (−b, a), la seguente
equazione:
ax + by + c = 0
è detta equazione cartesiana della retta.
Seguono i due teoremi che stabiliscono le condizioni di parallelismo e
Sistemi di perpendicolarità di due rette date nel piano in forma parametrica. Siano:
riferimento (
x = xA + ρλ
Retta nel piano • la retta r : , determinata dai numeri direttori (λ, µ);
Retta nello y = yA + ρµ
spazio (
Piano nello x = xA + ρλ0
spazio • la retta r 0 : , determinata dai numeri direttori (λ0 , µ0 ).
Posizione
y = yA + ρµ0
reciproca tra
retta e piano

Fasci e stella di Teorema 1


piani
Le rette r e r 0 sono parallele se e solo se i numeri direttori dell’una sono uguali o
Le coniche
proporzionali ai numeri direttori dell’altra:

r //r 0 ⇔ (λ, µ) = γ(λ0 , µ0 )


Teorema 2
Le rette r e r 0 sono perpendicolari se e solo se i numeri direttori dell’una e
dell’altra soddisfano la relazione λλ0 + µµ0 = 0, ovvero:
Sistemi di
riferimento

Retta nel piano

Retta nello r ⊥r 0 ⇔ λλ0 + µµ0 = 0


spazio

Piano nello
spazio
I teoremi (1) e (2) possono essere riletti considerando le rette scritte in forma
Posizione
reciproca tra cartesiana. Siano:
retta e piano
• la retta r : ax + by + c = 0, determinata dai numeri direttori (λ, µ) = (−b, a);
Fasci e stella di
piani • la retta r 0 : a0 x + b 0 y + c 0 = 0, determinata dai numeri direttori
Le coniche (λ0 , µ0 ) = (−b 0 , a0 ).
Allora il teorema (1) sarà:
Teorema 3

r //r 0 ⇔ (a, b) = γ(a0 , b 0 )


Dimostrazione.
Sfruttando il teorema (1), si ha:
Sistemi di
riferimento

Retta nel piano


r //r 0 ⇔ (λ, µ) = γ(λ0 , µ0 ) ⇔ (−b, a) = γ(−b 0 , a0 ) ⇔ (a, b) = γ(a0 , b 0 )
Retta nello
spazio

Piano nello
spazio Il teorema (2) sarà:
Posizione
reciproca tra
retta e piano
Teorema 4
Fasci e stella di
piani
r ⊥r 0 ⇔ aa0 + bb 0 = 0
Le coniche

Dimostrazione.
Sfruttando il teorema (2), si ha:

r ⊥r 0 ⇔ λλ0 + µµ0 = 0 ⇔ (−b)(−b 0 ) + aa0 = 0 ⇔ aa0 + bb 0 = 0


Si consideri un piano euclideo in cui è fissato un sistema di riferimento ortogonale
Sistemi di
monometrico π(O, x, y , u). Si fissi un punto P di coordinate (x0 , y0 ) e si
riferimento considerino due rette passanti per il punto P scritte in forma cartesiana:
Retta nel piano

Retta nello
spazio
r : ax + by + c = 0 r 0 : a0 x + b 0 y + c 0 = 0
Piano nello
spazio Ovviamente, poiché il punto P appartiene ad entrambe le rette, le sue coordinate
Posizione soddisfanno le rispettive equazioni cartesiane:
reciproca tra
retta e piano

Fasci e stella di ax0 + by0 + c = 0 a0 x0 + b 0 y0 + c 0 = 0


piani

Le coniche
Si prenda una combinazione lineare delle due equazioni cartesiani, quindi:

α(ax + by + c) + β(a0 x + b 0 y + c 0 ) = 0

con α e β non entrambi nulli.


Proposizione 5
La combinazione lineare delle due equazioni:
Sistemi di
riferimento

Retta nel piano α(ax + by + c) + β(a0 x + b 0 y + c 0 ) = 0


Retta nello
spazio
è ancora una retta passante per il punto P, al variare dei parametri α e β. Inoltre
Piano nello
spazio ogni altra retta passante per il punto P si scrive come combinazione lineare delle
Posizione due rette r e r 0 .
reciproca tra
retta e piano

Fasci e stella di
Dimostrazione.
piani
Le coordinate del punto P soddisfano la combinazione lineare delle due equazioni:
Le coniche

α (ax0 + by0 + c) +β (a0 x0 + b 0 y0 + c 0 ) = 0.


| {z } | {z }
=0 =0

Dunque la combinazione lineare delle due rette è ancora una retta passante per il
punto P, al variare dei parametri α e β.
Dimostrazione.
Sia considerata una retta r 00 : a00 x + b 00 y + c 00 = 0 passante per il punto P. Si
metta a sistema l’equazioni delle tre rette r , r 0 e r 00 :
Sistemi di
riferimento

Retta nel piano 


Retta nello
spazio
ax + by + c = 0

Piano nello
a0 x + b 0 y + c 0 = 0

 00
spazio
a x + b 00 y + c 00 = 0
Posizione
reciproca tra
retta e piano Si tratta di un sistema con m = 3 equazioni in n = 2 incognite, compatibile
Fasci e stella di
piani
perché ammette come soluzione le coordinate del punto P. La matrice incompleta
Le coniche e la matrice completa hanno lo stesso rango:
   
a b a b c a b c
ρ  a0 b 0  = ρ  a0 b 0 c 0  = 2 ⇒ a0 b 0 c 0 = 0

a00 b 00 a00 b 00 c 00 a00 b 00 c 00


Dimostrazione.
Sistemi di Essendo il determinante nullo, allora le righe sono linearmente dipendenti; in
riferimento

Retta nel piano


particolare la 1◦ e la 2◦ riga sono linearmente indipendenti, mentre la 3◦ riga è
Retta nello
dipendente dalle altre. Dunque la 3◦ equazione è linearmente dipendente dalle
spazio altre due equazioni.
Piano nello
spazio
Per semplicità è possibile considerare le due rette, passanti per il punto P,
Posizione
reciproca tra parallele ai rispettivi assi:
retta e piano

Fasci e stella di
piani x − x0 = 0 y − y0 = 0
Le coniche
Considerando la combinazione lineare delle due equazioni:

α(x − x0 ) + β(y − y0 ) = 0

al variare dei parametri α e β si determinano tutte le rette passanti per il punto.


Sistemi di
riferimento

Retta nel piano

Retta nello
spazio Definizione
Piano nello
spazio
L’equazione:
Posizione α(x − x0 ) + β(y − y0 ) = 0
reciproca tra
retta e piano
è detta equazione del fascio di rette di centro P.
Fasci e stella di
piani

Le coniche
Retta nello spazio
Si fissi in uno spazio euclideo S un sistema di riferimento ortogonale e
monometrico S(O, x, y , z, u) e si fissino due punti A e B con le rispettive
Sistemi di
riferimento ~ che giace
coordinate (xA , yA , zA ) e (xB , yB , zB ). Resta individuato un vettore AB
Retta nel piano sulla retta r . Di tale vettore si determinano le componenti distinte lungo gli assi,
Retta nello
spazio
date dai numeri reali:
Piano nello
spazio
λ = xB − xA µ = yB − yA ν = zB − zA
| {z } | {z } | {z }
Posizione asse x asse y asse z
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche La terna dei numeri reali non tutti nulli (λ, µ, ν) è chiamata terna dei numeri
direttori della retta r .
I numeri direttori della retta r sono determinati a meno di un fattore di
proporzionalità. Infatti se si considerano altri due punti C e D sulla retta r , resta
determinato il vettore CD.~
~ e CD
Poiché i vettori AB ~ giacciono sulla stessa retta r , allora sono proporzionali,
Sistemi di ovvero:
riferimento
∃ρ ∈ R − {0} : CD ~ = ρAB.~
Retta nel piano

Retta nello ~ lungo gli assi:


Se si considerano le componenti del vettore CD
spazio

Piano nello
spazio λ0 = xD − xC µ0 = yD − yC ν 0 = zD − zC
Posizione
reciproca tra
retta e piano queste sono proporzionali alle componenti del vettore AB, ~ rispetto al fattore di
Fasci e stella di proporzionalità ρ, cioé:
(λ0 , µ0 , ν 0 ) = ρ(λ, µ, ν)
piani

Le coniche
~ le cui componenti
Si considerino i punti A e B sulla retta r , dunque il vettore AB,
sono:
λ = xB − xA µ = yB − yA ν = zB − zA
Si fissi un punto P di coordinate (x, y , z) sulla retta , quindi resta determinato il
~ le cui componenti sono:
vettore AP,
Sistemi di
riferimento
λ0 = x − xA µ0 = y − yA ν 0 = z − zA .
Retta nel piano

Retta nello
spazio
~ è
Poiché entrambi i vettori giacciono sulla stessa retta, allora il vettore AP
Piano nello
~
proporzionale al vettore AB:
spazio

Posizione
∃ρ ∈ R − {0} : ~ = ρAB.
AP ~
reciproca tra
retta e piano

Fasci e stella di Allora anche le componenti del vettore AP ~ sono proporzionali, rispetto al fattore
piani
~ :
di proporzionalità ρ, alle componenti del vettore AB
Le coniche
  
λ 0 = ρλ x − x = ρλ

 
 A x = xA + ρλ

0 0 0 0
(λ , µ , ν ) = ρ(λ, µ, ν) ⇒ µ = ρµ ⇒ y − yA = ρµ ⇒ y = yA + ρµ

 0  
ν = ρν z − zA = ρν z = zA + ρν
 
Definizione
Sistemi di Data una retta r , determinata dai numeri direttori (λ, µ, ν), le seguenti equazioni:
riferimento

Retta nel piano 


Retta nello x = xA + ρλ

spazio
y = yA + ρµ
Piano nello 
z = zA + ρν
spazio

Posizione
reciproca tra
retta e piano sono dette equazioni parametriche della retta nello spazio.
Fasci e stella di
piani Seguono i due teoremi che stabiliscono le condizioni di parallelismo e
Le coniche perpendicolarità di due rette date nello spazio in forma parametrica. Siano:

x = xA + ρλ

• la retta r : y = yA + ρµ , determinata dai numeri direttori (λ, µ, ν);

z = zA + ρν


0
x = xA + ρλ

• la retta r 0 : y = yA + ρµ0 , determinata dai numeri direttori (λ0 , µ0 , ν 0 ).

Sistemi di
z = zA + ρν 0

riferimento

Retta nel piano


Teorema 6
Retta nello
spazio
Le rette r e r 0 sono parallele se e solo se i numeri direttori dell’una sono uguali o
Piano nello
spazio proporzionali ai numeri direttori dell’altra:
Posizione
reciproca tra
retta e piano
r //r 0 ⇔ (λ, µ, ν) = γ(λ0 , µ0 , ν 0 )
Fasci e stella di
piani

Le coniche Teorema 7
Le rette r e r 0 sono perpendicolari se e solo se i numeri direttori dell’una e
dell’altra soddisfano la relazione λλ0 + µµ0 + νν 0 = 0, ovvero:

r ⊥r 0 ⇔ λλ0 + µµ0 + νν 0 = 0
Piano nello spazio
Si fissi in uno spazio euclideo S un sistema di riferimento ortogonale e
monometrico S(O, x, y , z, u). Si prenda un piano π si fissino su di esso tre punti
Sistemi di
riferimento A, B e C con le rispettive coordinate (xA , yA , zA ), (xB , yB , zB ) e (xC , yC , zC )..
Retta nel piano Restano determinati i vettori AB~ e AC~ , le cui componenti lungo gli assi sono i
Retta nello
spazio
numeri reali:
Piano nello
spazio (xB − xA , yB − yA , zB − zA ) (xC − xA , yC − yA , zC − zA )
Posizione
reciproca tra
retta e piano Sul piano π, si prenda un generico punto P di coordinate (x, y , z) e si consideri il
Fasci e stella di
~ Poiché i vettori AB,
vettore AP. ~ AC~ e AP~ giacciono sullo stesso piano π, essi
piani
sono linearmente dipendenti. Saranno linearmente dipendenti anche le rispettive
Le coniche
componenti lungo gli assi:

(xB − xA , yB − yA , zB − zA ) (xC − xA , yC − yA , zC − zA ) (x − xA , y − yA , z − zA )
| {z } | {z } | {z }
~
AB ~
AC ~
AP
Quindi:
Sistemi di
x − xA y − yA z − zA
riferimento

xB − xA yB − yA zB − zA = 0
Retta nel piano

xC − xA yC − yA zC − zA
Retta nello
spazio
Sviluppando il determinante, e raccogliendo i termini con la x, indicati con a, i
Piano nello
spazio termini con la y , indicati con b e i termini con la z, indicati con c, e i termini noti
Posizione indicati con d, si ottiene:
reciproca tra
retta e piano

Fasci e stella di ax + by + cz + d = 0.
piani

Le coniche
Definizione
L’equazione ax + by + cz + d = 0 è detta equazione cartesiana del piano π nello
spazio euclideo.
La terna (a, b, c) dei valori reali è chiamata numeri direttori del piano π.
Sistemi di
riferimento
Seguono i due teoremi che stabiliscono le condizioni di parallelismo e
Retta nel piano
perpendicolarità di due piani dati nello spazio euclideo. Siano:
Retta nello • il piano π : ax + by + cz + d = 0, determinato dai numeri direttori (a, b, c);
spazio

Piano nello
• il piano π 0 : a0 x + b 0 y + c 0 z + d 0 = 0, determinato dai numeri direttori
spazio
(a0 , b 0 , c 0 ).
Posizione
reciproca tra
retta e piano Teorema 8
Fasci e stella di
piani I piani π e π 0 sono paralleli se e solo se i numeri direttori dell’uno sono uguali o
Le coniche proporzionali ai numeri direttori dell’altro:

π//π 0 ⇔ (a, b, c) = γ(a0 , b 0 , c 0 )


Teorema 9
I piani π e π 0 sono perpendicolari se e solo se i numeri direttori dell’uno e dell’altro
Sistemi di
riferimento soddisfano la relazione aa0 + bb 0 + cc 0 = 0, ovvero:
Retta nel piano

Retta nello π⊥π 0 ⇔ aa0 + bb 0 + cc 0 = 0


spazio

Piano nello
spazio
Si metta a sistema le equazioni dei due piani:
Posizione (
reciproca tra
retta e piano ax + by + cz + d = 0
.
Fasci e stella di
piani
a0 x + b 0 y + c 0 z + d 0 = 0
Le coniche Si tratta di un sistema con m = 2 equazioni in n = 3 incognite. Si discuta la sua
compatibilità. Si considerano la matrice incompleta e la matrice completa
associate al sistema:
   
a b c 0 a b c d
A= A =
a0 b 0 c 0 a0 b 0 c 0 d 0
Si analizzino vari casi:
Sistemi di ρ(A) = 1 : allora si determini il rango della matrice A0 e si analizzano due casi:
riferimento

Retta nel piano


ρ(A0 ) = 1 : si avrà che ρ(A) = 1 = ρ(A0 ), quindi il sistema è
Retta nello compatibile e ammetterà ∞3−1 = ∞2 soluzioni. In
spazio
questo caso i due piani si dicono paralleli
Piano nello
spazio impropriamente, poiché ogni punto del piano π è
Posizione anche punto del piano π 0 , ovvero i due piani sono
reciproca tra
retta e piano coincidenti.
Fasci e stella di ρ(A0 ) = 2 : si avrà ρ(A) 6= ρ(A0 ), quindi il sistema è incompatibile.
piani
In questo caso, non s’intersecheranno in alcun punto e
Le coniche
si dicono paralleli propriamente.
ρ(A) = 2: si avrà ρ(A) = 2 = ρ(A0 ), quindi il sistema è compatibile e
ammetterà ∞3−2 = ∞1 soluzioni. In questo caso i due piani si
intersecano in una retta.
Sistemi di
riferimento
L’equazione della retta r data dall’intersezione di due piani nello spazio euclideo:
Retta nel piano (
Retta nello
ax + by + cz + d = 0
spazio
a0 x + b 0 y + c 0 z + d 0 = 0
Piano nello
spazio

Posizione è chiamata equazione cartesiana.


reciproca tra
retta e piano
Si consideri una retta:
Fasci e stella di
piani (
Le coniche
ax + by + cz + d = 0
r:
a0 x + b 0 y + c 0 z + d 0 = 0

e siano A e B due punti di coordinate rispettivamente (xA , yA , zA ) e (xB , yB , zB )


della retta r . Dunque le coordinate soddisferanno l’equazioni del sistema:
( (
axA + byA + czA + d = 0 axB + byB + czB + d = 0
Sistemi di
riferimento
a0 xA + b 0 yA + c 0 zA + d 0 = 0 a0 xB + b 0 yB + c 0 zB + d 0 = 0
Retta nel piano Sottraendo membro a membro le rispettive equazioni, si ottiene:
Retta nello
spazio 
Piano nello a (x
 B − xA ) +b (yB − yA ) +c (zB − zA ) = 0
spazio

 | {z } | {z } | {z }
=λ =µ =ν
Posizione
reciproca tra 
a0 (xB − xA ) +b 0 (yB − yA ) +c 0 (zB − zA ) = 0
retta e piano 
 | {z } | {z } | {z }
Fasci e stella di =λ =µ =ν
piani

Le coniche Quindi i numeri direttori, (λ, µ, ν), della retta r sono soluzioni del sistema:
(
aλ + bµ + cν = 0
a0 λ + b 0 µ + c 0 ν = 0

Si tratta di un sistema lineare omogeneo di m = 2 equazioni in n = 3 incognite.


Sistemi di
riferimento

Retta nel piano

Retta nello
spazio Le soluzioni del sistema omogeneo possono essere calcolate nel seguente modo:
Piano nello  
spazio b c a c a b
λ = 0 0 , µ = − 0 0 , ν = 0
a b0

Posizione
reciproca tra
b c a c
retta e piano

Fasci e stella di
piani

Le coniche
Posizione reciproca tra retta e piano
Si consideri uno spazio euclideo con un sistema di riferimento ortogonale e
monometrico S(O, x, y , z, u). Siano assegnati una retta e un piano e studiamo le
Sistemi di
riferimento
loro posizioni reciproche:
Retta nel piano 
Retta nello x = xA + ρλ

spazio
r : y = yA + ρµ π : ax + by + cz + d = 0
Piano nello 
z = zA + ρν
spazio

Posizione
reciproca tra
retta e piano Preso un generico punto P della retta r , esso ha coordinate:
Fasci e stella di
piani
(xA + ρλ, yA + ρµ, zA + ρν)
Le coniche

Sostituendo le coordinate nell’equazione del piano π, si ha:

a(xA + ρλ) + b(yA + ρµ) + c(zA + ρν) + d = 0

Eseguendo i calcoli e raccogliendo i termini con ρ, si ottiene:


(aλ + bµ + cν) ρ + (axA + byA + czA + d) = 0
| {z } | {z }
Sistemi di =A =B
riferimento

Retta nel piano


ovvero l’equazione di 1◦ grado nell’incognita ρ:
Retta nello
spazio
Aρ + B = 0.
Piano nello Si analizzeranno vari casi:
spazio

Posizione
A 6= 0 : l’equazione ammette una sola soluzione ρ, quindi vi è un solo punto
reciproca tra
retta e piano
P di intersezione. La retta r interseca il piano π nel punto P.
Fasci e stella di
A = 0: si distinguono due casi:
piani B 6= 0 : l’equazione è impossibile, quindi non vi sono punti
Le coniche
d’intersezione e si dice che la retta r e il piano π sono
paralleli propriamente
B = 0 : l’equazione è indeterminata, quindi ci sono infiniti
punti d’intersezione. Geometricamente la retta r giace
sul piano π e si dice che sono paralleli
impropriamente.
In funzione dell’analisi fatta precedente, la condizione di parallelismo
(propriamente e impropriamente) tra la retta r e un piano π è rappresentata dalla
Sistemi di condizione A = 0, ovvero aλ + bµ + cν = 0. In conclusione, siano:
riferimento
• r , una retta determinata dai numeri direttori (λ, µ, ν), di equazione
Retta nel piano
parametrica o cartesiana;
Retta nello
spazio • π, un piano determinato dai numeri direttori (a, b, c).
Piano nello
spazio Teorema 10
Posizione
reciproca tra
retta e piano
r //π ⇔ aλ + bµ + cν = 0
Fasci e stella di
piani

Le coniche Segue il teorema che esprime la condizione di perpendicolarità tra la retta r e il


piano π:
Teorema 11

r ⊥π ⇔ (a, b, c) = γ(λ, µ, ν)
Dimostrazione.
Sia considerato il piano π 0 parallelo al piano π e passante per l’origine. Dunque,
Sistemi di
riferimento tenuto conto del teorema (8), la sua equazione è:
Retta nel piano

Retta nello ax + by + cz = 0.
spazio

Piano nello
spazio
Si considerino i punti A di coordinate (a, b, c) e un generico punto P del piano π 0
Posizione
di coordinate (x, y , z). Si prendano i vettori:
reciproca tra
retta e piano
~ vettore che giace sul piano π 0 ;
• OP,
Fasci e stella di ~ vettore che risulta perpendicolare al vettore OP,
• OA, ~ poiché risulta
piani

Le coniche ax + by + cz = 0.
~ è perpendicolare al vettore
Allora la retta che segue la direzione del vettore OA
~
OP che giace sul piano, quindi perpendicolare al piano π 0 . I numeri direttori della
retta sono proporzionali ai numeri direttori del piano. Dato che un retta
perpendicolare ad un piano è perpendicolare a qualsiasi altro piano parallelo ad
esso, allora si conclude: (a, b, c) = γ(λ, µ, ν).
Fasci e stella di piani
Si consideri uno spazio euclideo in cui è fissato un sistema
( di riferimento
ax + by + cz + d = 0
ortogonale e monometrico S(O, x, y , z, u). Sia: r :
Sistemi di
riferimento a0 x + b 0 y + c 0 z + d 0 = 0
Retta nel piano una retta scritta in equazione cartesiana, ergo data dall’intersezione dei due piani
Retta nello di equazioni
spazio
π : ax + by + cz + d = 0
Piano nello
spazio π : a0 x + b 0 y + c 0 z + d 0 = 0
0

Posizione .
reciproca tra
retta e piano Definizione
Fasci e stella di
piani Si definisce fascio di piani con asse la retta r è l’insieme dei piani passanti per la
Le coniche retta r .
Si fissi un punto P di coordinate (x0 , y0 , z0 ) appartenente alla retta r . Dunque le
sue coordinate soddisfano le equazioni del sistema:
(
ax0 + by0 + cz0 + d = 0
a0 x0 + b 0 y0 + c 0 z0 + d 0 = 0
Si prenda una combinazione lineare delle due equazioni, quindi:
α (ax + by + cz + d) +β (a0 x + b 0 y + c 0 z + d 0 ) = 0
Sistemi di | {z } | {z }
riferimento π π0
Retta nel piano con α e β non entrambi nulli.
Retta nello
spazio Proposizione 12
Piano nello
spazio La combinazione lineare delle due equazioni:
Posizione
reciproca tra
retta e piano α(ax + by + cz + d) + β(a0 x + b 0 y + c 0 z + d 0 ) = 0
Fasci e stella di
piani
è ancora un piano passante per la retta r , al variare dei parametri α e β. Inoltre
Le coniche
ogni altro piano passante per la retta r si scrive come combinazione lineare dei
due piani π e π 0 .

Dimostrazione.
Risulta chiaro che α(ax + by + cz + d) + β(a0 x + b 0 y + c 0 z + d 0 ) = 0 è
un’equazione di un piano.
Dimostrazione.
Inoltre, sostituendo le coordinate (x0 , y0 , z0 ) del punto P nella combinazione
Sistemi di
riferimento lineare, allora, poiché P è un punto della retta r , si ha:
Retta nel piano

Retta nello α (ax0 + by0 + cz0 + d) +β (a0 x0 + b 0 y0 + c 0 z0 + d 0 ) = 0.


spazio | {z } | {z }
=0 =0
Piano nello
spazio

Posizione
Passando per un generico punto P della retta r , allora si tratta di un piano
reciproca tra
retta e piano
passante per tutta la retta r , al variare dei parametri α e β. Sia considerato un
Fasci e stella di
piano π 00 : a00 x + b 00 y + c 00 z + d 00 = 0 passante per la retta r . Si metta a sistema
piani
l’equazioni dei tre piani π, π 0 e π 00 :
Le coniche

ax + by + cz + d = 0 −→ π

a0 x + b 0 y + c 0 z + d 0 = 0 −→ π 0

 00
a x + b 00 y + c 00 z + d 00 = 0 −→ π 00

Si tratta di un sistema con m = 3 equazioni in n = 3 incognite.


Dimostrazione.
I tre piani si intersecano nella retta r , quindi il sistema ammetterà ∞1 soluzioni.
Sistemi di
riferimento Allora si ha:    
Retta nel piano
a b c a b c d
Retta nello ρ  a0 b 0 c 0  = ρ  a0 b 0 c 0 d 0  = 2.
spazio
a00 b 00 c 00 a00 b 00 c 00 d 00
Piano nello
spazio
Le prime due righe sono linearmente indipendenti poiché rappresentano
Posizione
reciproca tra l’equazione cartesiana della retta r , mentre la 3◦ riga è linearmente dipendente
retta e piano
dalle altre due. Quindi il piano π 00 è combinazione lineare dei piani π e π 0 .
Fasci e stella di
piani

Le coniche Definizione
L’equazione:

α(ax + by + cz + d) + β(a0 x + b 0 y + c 0 z + d 0 ) = 0

è detta equazione del fascio di piani con asse la retta r .


Si consideri uno spazio euclideo in cui è fissato un sistema di riferimento
Sistemi di
riferimento
ortogonale e monometrico S(O, x, y , z, u). Siano considerati i piani:
Retta nel piano
π : ax + by + cz + d = 0
Retta nello
spazio π 0 : a0 x + b 0 y + c 0 z + d 0 = 0
Piano nello π 00 : a00 x + b 00 y + c 00 z + d 00 = 0
spazio

Posizione
reciproca tra che si intersecano in un punto P di coordinate (x0 , y0 , z0 ), quindi le coordinate
retta e piano
soddisfano il seguente sistema lineare:
Fasci e stella di
piani 
Le coniche ax + by + cz + d = 0

a0 x + b 0 y + c 0 z + d 0 = 0

 00
a x + b 00 y + c 00 z + d 00 = 0
Definizione
Si definisce stella di piani di centro il punto P l’insieme dei piani passanti per il
Sistemi di
riferimento punto P.
Retta nel piano

Retta nello
Si prenda una combinazione lineare delle tre equazioni, quindi:
α (ax + by + cz + d) +β (a0 x + b 0 y + c 0 z + d 0 ) +γ (a00 x + b 00 y + c 00 z + d 00 ) = 0
spazio

Piano nello | {z } | {z } | {z }
spazio π π0 π 00
Posizione
reciproca tra con α, β e γ non tutti nulli.
retta e piano

Fasci e stella di Proposizione 13


piani

Le coniche La combinazione lineare delle tre equazioni:

α(ax + by + cz + d) + β(a0 x + b 0 y + c 0 z + d 0 ) + γ(a00 x + b 00 y + c 00 z + d 00 ) = 0

è ancora un piano passante per il punto P, al variare dei parametri α, β e γ.


Inoltre ogni altro piano passante per il punto P si scrive come combinazione
lineare dei tre piani π, π 0 e π 00 .
Sistemi di Dimostrazione.
riferimento

Retta nel piano


Risulta chiaro che
Retta nello α(ax + by + cz + d) + β(a0 x + b 0 y + c 0 z + d 0 ) + γ(a00 x + b 00 y + c 00 z + d 00 ) = 0 è
spazio
un’equazione di un piano. Inoltre, sostituendo le coordinate (x0 , y0 , z0 ) del punto
Piano nello
spazio P nella combinazione lineare, allora, poiché P è il punto in comune tra i tre piani,
Posizione si ha:
reciproca tra
retta e piano

Fasci e stella di
α (ax0 + by0 + cz0 + d) +β (a0 x + b 0 y + c 0 z + d 0 ) +γ (a00 x + b 00 y + c 00 z + d 00 ) = 0.
piani
| {z } | {z } | {z }
=0 =0 =0
Le coniche

Sia considerato un piano π : ax + by + cz + d = 0 passante per il punto P. Si


metta a sistema l’equazione dei quattro piani:
Dimostrazione.

Sistemi di
riferimento


ax + by + cz + d = 0 −→ π
Retta nel piano
a0 x + b 0 y + c 0 z + d 0 = 0 −→ π 0

Retta nello
spazio


a00 x + b 00 y + c 00 z + d 00 = 0 −→ π 00

ax + by + cz + d = 0 −→ π
Piano nello
spazio

Posizione
reciproca tra
Si tratta di un sistema di m = 4 equazioni in n = 3 incognite. Poiché i piani si
retta e piano intersecano nel punto P, allora il sistema è compatibile e ammette una sola
Fasci e stella di
piani
soluzione. Allora si ha:
Le coniche
   
a b c a b c d
 a0 b 0 c 0   0 0 0 0
ρ 00 00 00
 = ρ  a00 b00 c00 d00  = 3
a b c  a b c d 
a b c a b c d
Dimostrazione.
Sistemi di
La 1◦ , 2◦ e 3◦ riga sono linearmente indipendenti, mentre la 4◦ riga è linearmente
riferimento
dipendente dalle restanti. Quindi il piano π è combinazione lineare dei piani π, π 0
Retta nel piano
e π 00 .
Retta nello
spazio

Piano nello Osservazione


spazio

Posizione
Per un punto P di coordinate (x0 , y0 , z0 ), passano i piani paralleli ai piani yz, xz e
reciproca tra
retta e piano
xy :
Fasci e stella di
x − x0 = 0 y − y0 = 0 z − z0 = 0
piani

Le coniche
Dunque si può considerare la combinazione lineare dei tre piani:

α(x − x0 ) + β(y − y0 ) + γ(z − z0 ) = 0

che rappresenta tutti i piani passanti per il punto P, al variare dei parametri α, β e
γ.
Sistemi di
riferimento

Retta nel piano


In base alla proposizione e all’osservazione precedente, segue la definizione:
Retta nello
spazio

Piano nello
Definizione
spazio
L’equazione
Posizione
reciproca tra α(x − x0 ) + β(y − y0 ) + γ(z − z0 ) = 0
retta e piano

Fasci e stella di è detta equazione della stella dei piani di centro P.


piani

Le coniche
Le coniche
Si consideri un piano euclideo π in cui è fissato un sistema di riferimento
ortogonale e monometrico π(O, x, y , u). Sia assegnata una proprietà P.
Sistemi di
riferimento Definizione
Retta nel piano
Un luogo geometrico, rispetto alla proprietà P, è l’ insieme dei punti del piano che
Retta nello
spazio soddisfano la proprietà P:
Piano nello
spazio
L = {P ∈ π : P soddisfa P}
Posizione
reciproca tra
retta e piano

Fasci e stella di In particolare risulta che:


piani

Le coniche
P soddisfa P ⇔ P ∈ L ∀P ∈ π.

Esempio
Si consideri un segmento di estremi i punti A e B. Dato un generico punto P ∈ π,
si assegni la seguente proprietà:
Esempio
Sistemi di Il seguente insieme:
riferimento

Retta nel piano


L = {P ∈ π : d(P, A) = d(P, B)}
Retta nello
spazio

Piano nello è un luogo geometrico. Il luogo geometrico con questa caratteristica prende nome
spazio
di asse del segmento di estremi i punti A e B.
Posizione
reciproca tra
retta e piano Le coniche sono ottenute tramite l’intersezione di un cono circolare retto con un
Fasci e stella di piano. Si possono definire tutte come luoghi geometrici e, di conseguenza,
piani

Le coniche
ricavarne l’equazione algebrica che le rappresenta nel piano cartesiano. Essi sono:
• circonferenza;
• ellisse;
• parabola;
• iperbole.
Circonferenza
La circonferenza si ottiene tagliando un cono con un piano perpendicolare al suo
asse. Sia fissato un punto C di coordinate (x0 , y0 ) e un numero reale r > 0. Si
Sistemi di assegna la seguente proprietà:
riferimento

Retta nel piano


d(P, C ) = r ∀P ∈ π.
Retta nello
spazio

Piano nello Definizione


spazio

Posizione
Il seguente insieme:
reciproca tra
retta e piano
C = {P ∈ π : d(P, C ) = r }
Fasci e stella di
piani
è un luogo geometrico. Il luogo geometrico con questa caratteristica prende nome
Le coniche di circonferenza di centro il punto C e raggio r .
Sia P ∈ C un generico punto di coordinate (x, y ) appartenente al luogo
geometrico C, allora si ha:
q
d(P, C ) = r ⇔ (x − x0 )2 + (y − y0 )2 = r ⇔ (x − x0 )2 + (y − yO )2 = r 2
Sviluppando i calcoli, si ottiene:
Sistemi di
riferimento x 2 + x02 − 2x0 x + y 2 + y02 − 2y0 y − r 2 = 0
Retta nel piano

Retta nello ovvero:


spazio

Piano nello
spazio x 2 + y 2 + (−2x0 )x + (−2y0 )y + (x02 + y02 − r 2 ) = 0 ⇐ x 2 + y 2 + ax + by + c = 0
| {z } | {z } | {z }
Posizione =a =b =c
reciproca tra
retta e piano

Fasci e stella di
ponendo
piani a = −2x0 b = −2y0 c = x02 + y02 − r 2
Le coniche
Dalle sostituzioni, si ottiene:
q 2 2
x0 = − 2a y0 = − b2 r= − 2a + − b2 −c
La circonferenza C ha l’andamento della figura:

Sistemi di
riferimento

Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
Sistemi di
riferimento
Se P = (x, y ) è un punto della circonferenza Γ rappresentata dall’equazione di
Retta nel piano
sopra, la tangente a Γ in P è rappresentata dall’equazione:
Retta nello
spazio x +x y +y
xx + y y + a +b + c = 0.
Piano nello 2 2
spazio

Posizione La circonferenza C di centro C = (x0 .y0 ) e raggio r ammette, in un riferimento


reciproca tra
retta e piano monometrico ortogonale, la rappresentazione parametrica:
Fasci e stella di (
piani
x − x0 = r cos θ,
Le coniche
y − y0 = r sin θ.
Ellisse

Siano considerati:
Sistemi di
riferimento • π;
Retta nel piano • F1 , F2 ∈ π;
Retta nello
spazio • u un’unità di misura per i segmenti;
Piano nello
spazio
• d(F1 , F2 ) = 2c la distanza tra i due punti F1 e F2
Posizione
reciproca tra
retta e piano
Definizione
Fasci e stella di Si definisce ellisse il luogo γ dei punti di π tali che la somma delle loro distanze
piani
da F1 e F2 sia un numero reale assegnato 2a con a > c. I punti F1 e F2 sono
Le coniche
chiamati fuochi, 2c è chiamata distanza focale ed e = ca è detta eccentricità.

Se c = 0, γ è la circonferenza di centro F1 = F2 e raggio a. In quel che segue si


supporrà c > 0.
Nel riferimento R si consideri l’ellisse γ con i due punti F1 = (−c, 0) e F2 = (c, 0)
sull’asse delle ascisse (analogo si procederà nel caso in cui si prendano i due punti
Sistemi di F1 e F2 sull’asse delle ordinate). Si consideri un punto P = (x, y ) ∈ γ , allora per
riferimento
definizione di ellisse, intesa come luogo geometrico, si ha che:
Retta nel piano

Retta nello d(P, F1 ) + d(P, F2 ) = 2a


spazio

Piano nello dove 2a è costante.


spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
Allora:
q q q q
(x − c)2 + y 2 + (x + c)2 + y 2 = 2a ⇒ (x − c)2 + y 2 = 2a− (x + c)2 + y 2
Sistemi di
riferimento
q 2  q 2
Retta nel piano
⇒ (x − c)2 + y 2 = 2a − (x + c)2 + y 2
Retta nello
spazio q
Piano nello
spazio
⇒ (x − c)2 + y 2 = 4a2 + (x + c)2 + y 2 − 4a (x + c)2 + y 2
Posizione
q
reciproca tra
retta e piano
⇒ x 2 + c 2 − 2cx + y2 = 4a2 + x 2 + c 2 + 2cx + y2 − 4a (x + c)2 + y 2
Fasci e stella di 4 4
q q
piani
⇒ 4a (x + c)2 + y 2 = 4a2 + 4cx ⇒ a (x + c)2 + y 2 = (a2 + cx)
Le coniche 4 4
 q 2
2
⇒ a (x + c)2 + y 2 = (a2 + cx) ⇒ a2 (x + c)2 + y 2 = a4 + c 2 x 2 + 2a2 cx
  

⇒ a2 (x 2 + c 2 + 2cx + y 2 ) = a4 + c 2 x 2 + 2a2 cx
⇒ a2 x 2 + a2 c 2 +  2
cx + a2 y 2 = a4 + c 2 x 2 +  2
 
2a 2a cx
Sistemi di
riferimento ⇒ a2 x 2 − c 2 x 2 + a2 y 2 = a4 − a2 c 2 ⇒ x 2 (a2 − c 2 ) + a2 y 2 = a2 (a2 − c 2 )
Retta nel piano

Retta nello Si denoti b 2 = a2 − c 2 , quindi si ha:


spazio

Piano nello
spazio
b 2 x 2 + a2 y 2 = a2 b 2 .
Posizione
reciproca tra
retta e piano
Dividendo ambo i membri per a2 b 2 , si ottiene:
Fasci e stella di
piani b2 a2 a22
b
x2 + y2 =

Le coniche
a2 b 2 a2 b 2 a2

2
b
In conclusione si ha:
x2 y2
+ 2 =1
a2 b
Sistemi di
riferimento
Nel riferimento R di α avente u come unità di misura, la retta F1 F2 e l’asse del
Retta nel piano
segmento F1 F2 , comunque orientati, come assi x e y , l’equazione ordinaria:
Retta nello
spazio x2 y2
+ 2 −1=0
Piano nello a2 b
spazio

Posizione ove b = a2 − c 2 è chiamata equazione canonica dell’ellisse. Le rispettive
reciproca tra
retta e piano equazioni parametriche sono:
Fasci e stella di (
piani
x = a cos θ
Le coniche .
y = b sin θ
L’ellisse γ ha l’andamento della figura

Sistemi di
riferimento

Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
Sistemi di
L’ellisse ha le seguenti caratteristiche:
riferimento
• è una curva chiusa;
Retta nel piano

Retta nello
• ha un centro di simmetria, chiamato centro di γ ed è nel punto medio di
spazio F1 F2 ;
Piano nello
spazio • ha due assi di simmetria ortogonali, chiamati assi di γ;
Posizione
reciproca tra
• l’asse che congiunge F1 F2 è chiamato asse dei fuochi;
retta e piano
• ciascuno degli assi cartesiani interseca γ in due punti, chiamati vertici, e
Fasci e stella di
piani sono indicati A1 , A2 i vertici di γ appartenenti all’asse dei fuochi e B1 , B2 i
Le coniche vertici appartenenti all’altro asse;
• ha d(A1 , A2 ) = 2a e d(B1 , B2 ) = 2b e i segmenti A1 A2 e B1 B2 prendono
nome rispettivamente asse maggiore ed asse minore dell’ellisse.
Dati l’ellisse γ e una retta r , questa può essere:
Sistemi di
riferimento secante: la retta r interseca γ in due punti:
Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
tangente: la retta r interseca γ in un punto:

Sistemi di
riferimento

Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche

Se il punto di tangenza è un punto P = (x, y ), allora la retta


tangente a γ ha equazione:
xx yy
+ 2 − 1 = 0.
a2 b
Sistemi di esterna: la retta r non ha alcun punto di intersezione con l’ellisse γ :
riferimento

Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
Parabola

Sistemi di Sia F un punto e sia d una retta non passante per F , del piano π.
riferimento

Retta nel piano Definizione


Retta nello
spazio Si definisce parabola il luogo γ dei punti di π equidistanti da F e da d. Il punto
Piano nello F è detto fuoco e la retta d è chiamata direttrice.
spazio

Posizione Fissata un’unità di misura u per i segmenti, sia p la distanza di F da d


reciproca tra
retta e piano (parametro di γ). Nel riferimento R si ha:
Fasci e stella di • u come unità di misura;
piani

Le coniche • l’asse y perpendicolare per F a d ed orientata in modo che la semiretta


positiva di origine F non incontri d;
• l’asse x la parallela a d ed equidistante da F e da d e comunque orientata.
Nel riferimento R si consideri la parabola γ con il fuoco F = (0, p/2) e direttrice
di equazione d : y = −p/2. Si consideri un punto P = (x, y ) ∈ γ , allora per
Sistemi di definizione di parabola, intesa come luogo geometrico, si ha che:
riferimento

Retta nel piano d(P, F ) = d(P, d)


Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
Sistemi di In particolare si ha:
riferimento

Retta nel piano q q 2


Retta nello x 2 + (y − p/2)2 = |y + p/2| ⇒ x 2 + (y − p/2)2 = |y + p/2|2 ⇒
spazio

Piano nello
spazio
x2 + (y − p/2)2 = (y + p/2)2 ⇒ x 2 + y 2 + 
(p/2)
2 − 2p/2y = y 2 + (p/2)
 2 + py ⇒


Posizione
reciproca tra 2py = x 2 .
retta e piano
1
Fasci e stella di
Denotando a = 2p , si ha:
piani
y = ax 2
Le coniche
ed è chiamata equazione canonica della parabola γ. Si tratta di una parabola
con vertice nell’origine e asse di simmetria l’asse delle ordinate.
La parabola ha l’andamento indicato nella figura:

Sistemi di
riferimento

Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
La parabola ha le seguenti caratteristiche:
• è una curva aperta costituita da un solo ramo;
Sistemi di • non possiede centri di simmetria;
riferimento
• ha un solo asse di simmetria ortogonale che interseca γ in un solo punto
Retta nel piano

Retta nello
detto vertice;
spazio • le rette parallele all’asse, detti diametri, sono secanti a γ.
Piano nello
spazio Si consideri la parabola γ di equazione y = ax 2 e si vuole traslare il vertice in un
Posizione punto V 0 = (x0 , y0 ) :
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
La traslazione è una trasformazione che permette di non cambiare la figura, quindi
una parabola di equazione y = ax 2 sarà traslata in una parabola di equazione
Sistemi di y 0 = a(x 0 )2 . La trasformazione che permette di traslare il sistema di riferimento
riferimento
0xy in un sistema di riferimento O 0 x 0 y 0 dove O 0 ha coordinate O = (x0 , y0 ) è
Retta nel piano
rappresentato da:
Retta nello ( (
spazio x 0 = x + x0 x = x 0 − x0

Piano nello
spazio y 0 = y + y0 y = y 0 − y0
Posizione
reciproca tra
Sostituendo nell’equazione canonica della parabola γ, si ottiene:
retta e piano

Fasci e stella di
y 0 − y0 = a(x 0 − x0 )2 ⇒ y 0 = a(x 0 )2 − 2ax0 x 0 + ax02 + y0 .
piani
Denotando:
Le coniche
b = −2ax0 c = ax02 + y0
e per comodità si pone y 0 = y e x 0 = x, si ottiene la sequente equazione canonica
della parabola traslata:
y = ax 2 + bx + c
con a 6= 0.
Sistemi di
riferimento

Retta nel piano

Retta nello
Data l’equazione della parabola traslata, allora si ha che il vertice V , posizionato
spazio nell’origine, sarà traslato nel punto di coordinate
Piano nello
spazio
b 2 − 4ac
   
0 b b ∆
Posizione V = (x0 , y0 ) = − , − = − ,−
reciproca tra 2a 4a 2a 4a
retta e piano

Fasci e stella di
piani denotando ∆ = b 2 − 4ac.
Le coniche
Dati la parabola γ e una retta r , questa può essere:
Sistemi di
riferimento secante: la retta r interseca γ in due punti:
Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
Sistemi di
tangente: la retta r interseca γ in un punto:
riferimento

Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
Sistemi di esterna: la retta r non ha alcun punto di intersezione con la parabola γ :
riferimento

Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
Iperbole
Siano considerati:
Sistemi di
• π;
riferimento
• F1 , F2 ∈ π;
Retta nel piano

Retta nello
• u un’unità di misura per i segmenti;
spazio
• d(F1 F2 ) = 2c la distanza tra i due punti F1 e F2
Piano nello
spazio

Posizione Definizione
reciproca tra
retta e piano Si definisce iperbole il luogo γ dei punti di π le cui distanze da F1 e F2 hanno
Fasci e stella di
piani
differenza uguale, in valore assoluto, a un numero reale assegnato 2a, con
Le coniche
0 ≤ a < c. I punti F1 e F2 sono chiamati fuochi, c è chiamata distanza focale
ed e = ca è chiamata eccentricità

Nel riferimento R di π avente u come unità di misura, la retta F1 F2 e l’asse del


segmento F1 F2 , comunque orientati, come assi x e y , l’iperbole γ è rappresentata
dall’equazione ordinaria:
Sistemi di
riferimento

Retta nel piano


x2 y2
Retta nello
− 2 − 1 = 0,
spazio
a2 b
Piano nello √
spazio con b = c 2 − a2 (equazione canonica) o dalle equazioni parametriche
Posizione
reciproca tra (
retta e piano x = cosa θ
Fasci e stella di
.
piani y = b tan θ
Le coniche
L’iperbole γ ha l’andamento indicato in figura:
Sistemi di
riferimento

Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche
Sistemi di
riferimento

Retta nel piano L’iperbole ha le seguenti caratteristiche:


Retta nello
spazio
• è una curva aperta;
Piano nello • formata da due rami e senza punti comuni;
spazio

Posizione
• ha un centro di simmetria (centro di γ), nel punto medio del segmento F1 F2 ;
reciproca tra
retta e piano • due assi di simmetria ortogonale (assi di γ), nella retta di F1 e F2 e nell’asse
Fasci e stella di di F1 F2 : il primo interseca γ in due punti (vertici) e si dice asse trasverso, il
piani

Le coniche
secondo non interseca γ e si dice asse non trasverso.
Sistemi di Si dicono asintoti di γ le rette che approssimano il comportamento dei rami
riferimento

Retta nel piano


dell’iperbole all’infinito, in altri termini a mano a mano che i rami dell’iperbole si
Retta nello
sviluppano tendono ad aderire agli asintoti dell’iperbole senza mai toccarli. In
spazio termini piu’ rigorosi, presi due punti di uguale ascissa di cui uno appartenente
Piano nello
spazio
all’iperbole e l’altro all’ asintoto, la distanza tra i due punti tendera’ a zero a mano
Posizione a mano che ci allontaniamo dai vertici dell’iperbole, come mostrato in figura.
reciproca tra
retta e piano
Gli asintoti sono rappresentati in R dalle equazioni:
Fasci e stella di
piani x y x y
a − b =0 a + b =0
Le coniche
e separano le rette per l’origine che intersecano γ da quelle che non l’intersecano.
Le rette propriamente parallele a un asintoto sono unisecanti l’iperbole.
Se gli asintoti sono perpendicolari tra loro, γ si dice equilatera:
Sistemi di
riferimento

Retta nel piano

Retta nello
spazio

Piano nello
spazio

Posizione
reciproca tra
retta e piano

Fasci e stella di
piani

Le coniche

In tal caso si ha a = b e gli asintoti coincidono con le bisettrici degli assi.


Sistemi di
riferimento Dati un’iperbole γ e una retta r , in modo del tutto analogo alla parabola, ellisse e
Retta nel piano circonferenza, può essere:
Retta nello
spazio la retta interseca l’iperbole in due punti,
Piano nello
spazio la retta interseca l’iperbole in un punto,
Posizione se P = (x, y ) è un punto di γ, la tangente a γ in P ha equazione:
reciproca tra
retta e piano
xx yy
Fasci e stella di
2
− 2 − 1 = 0,
piani a b
Le coniche
la retta non ha alcun punto in comune con l’iperbole.
Gli asintoti non intersecano γ.

Potrebbero piacerti anche