Sei sulla pagina 1di 51

LEZ: 008

01. Parlare brevemente dei vettori geometrici

Un vettore geometrico è una classe di equivalenza della relazione di equivalenza


appena definita sull’insieme delle frecce. Per distinguere i vettori geometrici non
applicati (ossia le classi di equivalenza) da quelli applicati, i primi sono anche
detti liberi.

I vettori geometrici liberi sono rappresentanti dei vettori geometrici applicati◮.


L’insieme di tutti i vettori geometrici del piano è indicato con V 2 , mentre
l’insieme di tutti i vettori geometrici dello spazio è indicato conV 3.
LEZ: 009

01. Parlare brevemente delle operazioni dei gruppi e/o campi

Una operazione su un insieme X è una funzione •: X×X→X.

Dati due elementi x,y ∈ X, l’immagine della coppia (x,y) è detta risultato
dell’operazione ed è indicata con x • y.

Un gruppo abeliano o gruppo commutativo è un insieme G dotato di una


operazione

•: G×G→G

che soddisfa le seguenti proprietà:



(G1) per ogni g1,g2,g3 ∈ G si ha g1 •(g2 •g3) = (g1 •g2)•g3 (proprietà

associativa),

(G2) esiste e∈ G tale che g•e=e•g=g per ogni g∈G (esistenza dell’elemento
neutro),
• • •
( G 3 ) per ogni g ∈ G esiste g ∈ G tale che g • g = g • g = e (esistenza
dell’opposto/inverso),

Un campo è un insieme K dotato di due operazioni, una detta addizione

⊕: K×K→K

e una detta moltiplicazione ⊙:
K×K→K,

che soddisfano le seguenti proprietà:



(K1) l’insieme K dotato dell’operazione di addizione ⊕ è un gruppo abeliano,
ossia

a) per ogni λ,μ,ν ∈ K si ha λ⊕(μ⊕ν) = (λ⊕μ)⊕ν (proprietà associativa per


l’addizione),

b) esiste 0 ∈ K tale che λ ⊕ 0 = 0 ⊕ λ = λ per ogni λ ∈ K (esistenza


dell’elemento neutro per l’addizione),
c) per ogni g∈K esiste⊖ g∈K tale che g⊖g=(⊖g)⊕g=0 (esistenza dell’opposto),

d) per ogni λ,μ ∈ K si ha λ⊕μ = μ⊕λ (proprietà commutativa per l’addizione);


LEZ: 009

02. Dare la definizione di spazio vettoriale

Uno spazio vettoriale su un campo K◮ è un insieme V dotato di due operazioni,


una detta addizione +: V ×V →V

e una detta moltiplicazione per scalare ·: K×V →V,

che soddisfano le seguenti proprietà:

(SV1) l’insieme V dotato dell’operazione di addizione + è un gruppo abeliano,


ossia

a) per ogni v, w, u ∈ V si ha v+(w+u) = (v+w)+u (proprietà associativa per


l’addizione),

b)esiste 0∈V tale che 0+v=v+0=v for each v∈V (esistenza dell’elemento neutro
per l’addizione),

c) per ogni v ∈ V esiste (−v) ∈ V tale che v+(−v) = (−v)+ v = 0 (esistenza


dell’opposto),

d) per ogni v, w ∈ V si ha v+w=w+v(proprietà commutativa per l’addizione);

(SV2) per ogni v ∈ V and λ,μ ∈ K si ha λ·(μ·v) = (λ·μ)·v (compatibilità della


moltiplicazione per scalare e della moltiplicazione di K);

(SV3)  per ogni v ∈ V and λ,μ ∈ K si ha (λ+μ)·v = (λ·v)+(μ·v) (proprietà


distributiva della moltiplicazione per scalare rispetto all’addizione di K); 


(SV4)  per ogni v, w, ∈ V and λ∈K si ha λ·(v+w)=(λ·v)+(λ·w) (proprietà


distributiva della moltiplicazione per scalare rispetto all’addizione di V ); 


(SV5) per ogni v∈V si ha1·v=v.



Gli elementi di V sono detti vettori, e quelli di K sono detti scalari.
LEZ: 009

03. Enunciare un risultato (teorema, proposizione, corollario) sugli spazi


vettoriali

Proposizione: Sia V uno spazio vettoriale su un campo K con l’addizione + e la


moltiplicazione per scalare ·. Allora, le seguenti proprietà sono soddisfatte:

(SV6) per ogni v∈V si ha 0·v=0;



(SV7) per ogni v∈V si ha(−1)·v=(−v);

(SV8) per ogni λ∈K si ha λ·0=0;

(SV9) per ogni λ∈K\{0},se v∈V eλ·v=0 allora si ha v=0.
LEZ: 011

01. Parlare brevemente delle combinazioni lineari

Le combinazioni lineari sono la più semplice espressione che possiamo scrivere


uno spazio vettoriale: sono somme di prodotti per scalare. Esse sono anche le più
generali, perché ogni espressione in uno spazio vettoriale può essere ridotta a una
combinazione lineare attraverso le proprietà degli spazi vettoriali.
LEZ: 012

01. Parlare brevemente dei sottospazi vettoriali

I sottospazi vettoriali sono sottoinsiemi di spazi vettoriali che ereditano la


struttura di spazio vettoriale.

02. Parlare brevemente del concetto di insieme di generatori e dei sottospazi


vettoriali finitamente generati

Definizione: Un sottospazio vettoriale W di uno spazio vettoriale V è detto


finitamente generato se esiste un sottoinsieme finito {w1,w2,...,wn} di W tale che
Span(w1,w2,...,wn) = W.

Uno spazio vettoriale V è detto finitamente generato se V , pensato



come sottospazio vettoriale di sé stesso, è finitamente generato, ossia se esiste un
sottoinsieme finito{v1,v2,...,vn}diV tale che Span(v1,v2,...,vn)= V.

03. Enunciare un risultato (teorema, proposizione, corollario) sui sottospazio


vettoriali

Proposizione: Sia V uno spazio vettoriale dotato di addizione + e moltiplicazione


per scalare · su un campo K. Un sottoinsieme W di V è un sottospazio vettoriale
di V se e solo se valgono le seguenti proprietà:

(SSV1) 0 ∈ W;

(SSV2) per ogni v,w ∈ W si ha v+w ∈ W;

(SSV3) per ogni v ∈ W e λ ∈ Ksi ha λ·v ∈ W.


LEZ: 013

01. Parlare brevemente della dipendenza e dell’indipendenza lineare

Definizione: Sia V uno spazio vettoriale su un campo K, e siano v1,v2,...,vn vettori


di V .

• I vettori v1, v2, . . . , vn sono detti linearmente indipendenti se il vettore nullo è


il risultato di una sola combinazione lineare dei vettori v1, v2, . . . , vn (quella
con tutti i coefficienti nulli), ossia se, comunque vengono scelti i coefficienti λ1,
λ2, . . . , λn ∈ K non nulli, il risultato della combinazione lineare
λ1v1+λ2v2+···+λnvn non è il vettore nullo.

• I vettori v1, v2, . . . , vn sono detti linearmente dipendenti se il vettore nullo è il


risultato di una combinazione lineare dei vettori v1,v2,...,vn con coefficienti non
tutti nulli, ossia se esistono λ1,λ2,...,λn ∈ K non tutti nulli tali che
0=λ1v1+λ2v2+···+ λnvn.

02. Enunciare un risultato (teorema, proposizione, corollario) sulla dipendenza o


sull’indipendenza lineare

Proposizione: Sia V uno spazio vettoriale, e siano v1, v2, . . . , vn vettori di V con
n ≥ 2. Essi sono linearmente dipendenti se e solo se uno di essi è il risultato di una
combinazione lineare degli altri.

Proposizione: Sia V uno spazio vettoriale, e siano v1, v2, . . . , vn vettori di V .


Essi sono linearmente indipendenti se e solo se ogni vettore di Span(v ,v ,...,v ) è
il risultato di una sola combinazione lineare dei vettori v1,v2,...,vn.
LEZ:014

01. Parlare brevemente delle coordinate di un vettore rispetto a una base

Definizione: Sia B = {v1, v2, . . . , vn} una base di uno spazio vettoriale V , e sia v
un vettore di V . Le coordinate di v rispetto alla base B sono i coefficienti λ1,
λ2, . . . , λn della (unica) combinazione lineare di v1,v2,...,vn il cui risultato è v◮,

v = λ1v1 + λ2v2 + · · · + λnvn.

02. Parlare brevemente delle basi degli spazi vettoriali

Definizione: Una base di uno spazio vettoriale V è un insieme finito ordinato B =


{v1,v2,...,vn} i cui vettori v1,v2,...,vn generano V e sono linearmente indipendenti.

03. Parlare brevemente dell’algoritmo di estrazione di una base

Algoritmo: (Estrazione di una base). Sia X = {v1, v2, . . . , vn} un insieme finito
ordinato di generatori di uno spazio vettoriale V . I passi

dell’algoritmo sono n. Al passo i-esimo si decide se tenere o scartare il

vettore vi:

• il vettore vi viene tenuto se esso, insieme agli altri vettori tenuti fino a quel
momento, forma un insieme di vettori linearmente indipendenti; 


• il vettore vi viene scartato altrimenti (ossia se esso, insieme agli altri vettori
tenuti fino a quel momento, forma un insieme di vettori linearmente
dipendenti).

I vettori tenuti dopo gli n passi, ordinati come in X, sono il risultato


dell’algoritmo. 

LEZ: 014

04. Enunciare un risultato (teorema, proposizione, corollario) sulle basi degli


spazi vettoriali

Proposizione (Wikipedia): Sia B = {v1,v2,…,vn} una base di uno spazio


vettoriale V. Allora B è un insieme massimale di vettori linearmente
indipendenti in V.
LEZ: 015

01. Parlare brevemente della dimensione degli spazi vettoriali finitamente


generati

Definizione: La dimensione di uno spazio vettoriale finitamente generato V è il


numero degli elementi di una qualsiasi delle sue basi, ed è indicata con dim(V ).

02. Parlare brevemente dell’algoritmo di completamento a una base

Algoritmo(Completamento a una base): Sia X = {v1, v2, . . . , vm} un


sottoinsieme ordinato di vettori linearmente indipendenti di uno spazio vettoriale
finitamente generato V . Al passo i-esimo,

• se Span(v1,v2,…,vm+i−1)≠ V, si sceglie un vettore vm+i che non appartiene a Span


(v1, v2, . . . , vm+i−1);

• se Span(v1,v2,…,vm+i−1)= V, l’algoritmo termina e il risultato è l’insieme


ordinato {v1, v2, . . . , vm+i−1}.

03. Enunciare un risultato (teorema, proposizione, corollario) sulle


dimensione degli spazi vettoriali

Corollario: Sia n la dimensione di uno spazio vettoriale finitamente generato V ,


e siano v1, v2, . . . , vk vettori di V . Le seguenti proprietà sono soddisfatte:

• se v1, v2, . . . , vk sono linearmente indipendenti, allora k ≤ n;


• se v1,v2,...,vk generano V , allora n ≤ k.
LEZ: 016

09. Parlare brevemente delle operazioni elementari sulle matrici, e di uno dei
metodi di eliminazione di Gauss con normalizzazione o di Gauss- Jordan

Definizione: Una operazione elementare sulle righe su una matrice A ∈ Kn,m è


una delle seguenti modifiche di A:

. I)  scambio di due righe di A; 


. II)  moltiplicazione di una riga di A per un elemento λ ∈ K \ {0}; 


. III)  sostituzione di una riga di A con la somma della riga stessa e di un


multiplo di un’altra riga. 


Definizione: Una operazione elementare sulle colonne su una

matrice A ∈ Kn,m è una delle seguenti modifiche di A:

. I)  scambio di due colonne di A; 


. II)  moltiplicazione di una colonna di A per un elemento λ ∈ K \ {0}; 


. III)  sostituzione di una colonna di A con la somma della colonna stessa 



e di un multiplo di un’altra colonna. 


Algoritmo: (Metodo di eliminazione di Gauss): Sia A ∈ Kn,m una matrice. Si


ripetono i seguenti passi al più n − 1 volte, una per ogni riga. Al primo passo si
lavora sulla matrice A, e poi, ad ogni passo successivo, si fissa la prima riga e si
lavora sulla sottomatrice che si ottiene cancellandola.

Algoritmo: (Metodo di eliminazione di Gauss con normalizzazione):


Sia A ∈ Kn,m una matrice. Si applica il metodo di eliminazione di

Gauss e si ottiene la matrice a scalini B ∈ Kn,m. Per ogni riga non nulla
si applica un’operazione elementare sulle righe di tipo II con fattore 1, dove p è il
pivot della riga considerata. In questo modo il pivot della riga considerata diventa
1. Il risultato dell’algoritmo è la matrice C ∈ Kn,m ottenuta da B applicando le
operazioni elementari di tipo II indicate.

Algoritmo: (Metodo di eliminazione di Gauss-Jordan):


Sia A ∈ Kn,m una matrice. Si applica il metodo di eliminazione di Gauss con
normalizzazione e si ottiene la matrice a scalini B ∈ Kn,m con tutti i pivot uguali
ad 1 (e con tutte le righe nulle in basso). Si fa un passo per ogni riga non nulla.
All’i-esimo passo, si considera l’i-esima riga (che non è nulla). Sia (i,k) il posto
del pivot della i-esima riga. Per ogni j < i, se l’elemento x al posto (j,k) è diverso
da 0, si applica un’operazione elementare sulle righe di tipo III, sommando alla j-
esima riga la i-esima riga moltiplicata per −x. Il risultato dell’algoritmo è la
matrice C ∈ Kn,m ottenuta da B applicando le operazioni elementari sulle righe di
tipo III indicate.
LEZ: 017

01. Parlare brevemente del prodotto righe per colonne tra matrici e dell’inversa
di una matrice

Solo le matrici quadrate possono essere invertibili. LA matrice A-1 è detta inversa
di A

02. Parlare brevemente dello spazio vettoriale delle matrici Kn,m sul campo
K

L’insieme Kn,m con l’addizione +: Kn,m× Kn,m → Kn,m e la moltiplicazione per


scalare · : K × Kn,m → Kn,m definite sopra è uno spazio vettoriale su K.
LEZ: 018

09. Parlare brevemente del determinante

Il determinante è definito solo per le matrici quadrate.

Il determinante di una matrice 1x1(a11) è l’elemento nell’unica entrata della


matrice, infatti la somma è formata da un solo addendo a11.

10. Parlare brevemente dell’interpretazione geometrica del determinante


delle matrici con entrate reali

Wikipedia: il significato geometrico principale del determinante si ottiene


interpretando la matrice quadrata A di ordine n come trasformazione lineare di
uno spazio vettoriale a n-dimensioni: con questa interpretazione il valore assoluto
di det(A) è il fattore con cui vengono modificati i volumi degli oggetti contenuti
nello spazio. Se è diverso da zero, il segno del determinante indica inoltre se la
trasformazione A preserva o cambia l’orientazione dello spazio rispetto agli assi
di riferimento.
LEZ 019

08. Descrivere brevemente come utilizzare il metodo di eliminazione di


Gauss per il calcolo del determinante

Il metodo di eliminazione di Gauss riduce la matrice A in una matrice a scalini B


∈ Kn,n attraverso operazioni elementari sulle righe di tipo I e di tipo III. Le
operazioni elementari sulle righe di tipo III non cambiano il determinante◮,
mentre le operazioni elementari sulle righe di tipo I cambiano il segno del
determinante◮. Quindi, se abbiamo fatto k operazioni elementari sulle righe di
tipo I (e un qualsiasi numero di operazioni elementari sulle righe di tipo III)
abbiamo

det(A) = (−1)k det(B).

Visto che B è una matrice a scalini, B è triangolare◮, quindi il suo determinante


può essere calcolato facilmente: esso è il prodotto degli elementi sulla diagonale
principale◮.

09. Descrivere brevemente alcune proprietà del determinante


Wikipedia:
• Se tutti gli elementi di una riga (o colonna) sono nulli, allora det(A)= 0


.
• Se A ha due righe (o colonne) eguali, o proporzionali, allora det(A)= 0 


.
• Se una riga (o colonna) è combinazione lineare di due o più altre righe (o
colonne) a essa parallele, allora det(A)= 0 


• Se A viene modificata tramite mosse di Gauss sulle colonne (invece che


sulle righe), l'effetto è sempre quello descritto nella definizione
assiomatica.

. In particolare, scambiando tra di loro due righe o due colonne il


determinante cambia segno, restando uguale in valore assoluto. Ne
consegue che un numero pari di scambi non varia né il segno né il
modulo del determinante.
• Se una riga (o una colonna) è somma di due righe (o colonne), det(A) è
la somma dei due determinanti che si ottengono sostituendo a quella
riga (o colonna) rispettivamente le due righe (o colonne) di cui è
somma.


10. Descrivere brevemente lo sviluppo di Laplace per il calcolo del determinante

Il teorema di Laplace riduce il calcolo del determinante di una matrice di ordine n al


calcolo di determinante di matrici di ordini n-1. Applicando ripetutamente il teorema
di Laplace, possiamo calcolare il determinante di una matrice di qualsiasi ordine.

Wikipedia: Lo sviluppo di Laplace è una formula che permette di calcolare il


determinante di una matrice con un procedimento ricorso. Lo sviluppo può essere
eseguito per righe oppure per colonne.
LEZ 020

09. Parlare brevemente del rango di una matrice

Definizione: Il massimo numero di colonne linearmente indipendenti di una


matrice n × m matrice A è detto rango di A, ed è indicato con

rank(A).


10. Descrivere brevemente la relazione tra il determinante di una matrice e


la dipendenza/indipendenza lineare delle colonne e delle righe della matrice

Corollario: Sia A una matrice quadrata. Le righe di A sono linearmente


indipendenti se e solo se le colonne sono linearmente indipendenti.

11. Enunciare un risultato (teorema, proposizione, corollario) sul rango di


una matrice

Proposizione: Il rango di A è uguale alla dimensione del sottospazio vettoriale di


Kn,1 generato dalle colonne di A.

Teorema(Kronecker): Se A non è la matrice nulla, il rango di A coincide con


l’ordine r di un minore detr(B) di A tale che

• detr(B)̸= 0, e

• detr+1(C) = 0 per ogni orlato detr+1(C) di detr(B).


LEZ 021

01. Descrivere la formula esplicita dell’inversa di una matrice

Teorema: Una matrice A ∈ Kn,n è invertibile se e solo se detn(A)

è diverso da 0. La matrice inversa ha determinante detn A−1 = 1 /detn (A)

ed è la trasporta della matrice dei complementi algebrici moltiplicata per 1 /det (A)
n

02. Descrivere brevemente come utilizzare il metodo di eliminazione di Gauss-


Jordan per il calcolo dell’inversa di una matrice

Data la matrice quadrata di ordine n A, si considera la matrice A In ∈ Kn,2n, che


ha A come sottomatrice corrispondente alle prime n colonne e In come
sottomatrice corrispondente alle ultime n colonne. Si applica il metodo di
eliminazione di Gauss- Jordan.◮ Il risultato dell’algoritmo è una matrice a scalini

(B C) . Se si ha B = In, allora A è invertibile e si ha A−1 = C. Altrimenti, A non è


invertibile.


LEZ: 022

01. Parlare brevemente delle applicazioni lineari dandone in particolare la


definizione

Le applicazioni lineari sono le mappe tra spazi vettoriali che preservano la struttura di
spazio vettoriale.

Definizione: Dati due spazi vettoriali V e W sullo stesso campo K, un’applicazione


f : V → W è detta lineare, o K-lineare, se valgono le seguenti proprietà:

(AL1) per ogni v1,v2 ∈ V si ha f(v +v )=f(v )+f(v );

(AL2) per ogni v∈V e λ∈K si ha f(λ · v) = λ · f(v).

L’insieme delle applicazioni lineari da V a W è indicato con Lin(V ,W).

02. Parlare brevemente delle applicazioni lineari associate alle matrici

Definizione: Sia A ∈ Kn,m data. L’applicazione fA : Km → Kn definita da

fA(X) := A · X

è detta applicazione lineare associata alla matrice A.

L’applicazione lineare associata ad una matrice A è effettivamente lineare. Le


proprietà della definizione di applicazione lineare◮ sono una conseguenza della
proprietà distributiva a destra del prodotto righe per colonne .

03. Enunciare un risultato (teorema, proposizione, corollario) sulle applicazioni


lineari

Proposizione: La funzione da Kn,m a Lin (Km, Kn), che associa ad una matrice A
l’applicazione lineare fA,

Kn,m ∋ A −→ fA ∈ Lin(Km,Kn), è bigettiva.


LEZ 023

01. Enunciare il Teorema fondamentale dell’algebra lineare

Teorema fondamentale dell’algebra lineare: Sia f : V → W un’applicazione


lineare, e sia V finitamente generato. Allora, si ha l’uguaglianza

dim (Ker(f )) + dim (Im(f )) = dim(V ).

02. Parlare brevemente dell’immagine e del rango delle applicazioni lineari

L’immagine di un’applicazione è definita a prescindere dal fatto che l’applicazione


sia lineare o meno.

Ricordiamo che l’immagine di una generica applicazione lineare f : V → W è◮

Im(f)={w∈W|∃v∈V conf(v)=w}.

Osservazione: Il vettore nullo di W appartiene sempre all’immagine di


un’applicazione lineare f : V → W . Infatti, abbiamo f (0) = 0.◮

Proposizione: L’immagine di un’applicazione K-lineare f : V → W è un


sottospazio vettoriale del codominio W .

03. Parlare brevemente del nucleo delle applicazioni lineari, dandone in


particolare la definizione

Definizione: Sia f : V → W un’applicazione K-lineare. La controimmagine


Preimf (0W ) del vettore nullo di W rispetto a f è detta nucleo di f, ed è indicata
con

Ker(f):={v∈V|f(v)=0 W }.
LEZ 024

01. Parlare brevemente degli isomorfismi

Definizione: Un’applicazione lineare invertibile è detta isomorfismo.

Un’applicazione lineare invertibile da uno spazio vettoriale in sé stesso è detta


automorfismo

02. Enunciare il Teorema di isomorfismo

Teorema di isomorfismo

Due spazi vettoriali sullo stesso campo so- no isomorfi se e solo se hanno la stessa
dimensione. Il fatto che due spazi vettoriali sullo stesso campo hanno la stessa
dimensione non ci assicura che i due spazi sono uguali, ma ci assicura che sono
isomorfi

Teorema di isomorfismo: Siano V e W due spazi vettoriali finitamente generati


sullo stesso campo K. Allora, si ha

V ∼= W ⇐ ⇒ dim (V) = dim (W) .


LEZ 025

01. Parlare brevemente delle matrici associate alle applicazioni lineari


LEZ 026

01. Parlare brevemente dei cambiamenti di base

Cambiano le coordinate di un vettore se cambia la base.

Siano B = {v1,v2,...,vn} e Bʹ = {vʹ1,vʹ2,...,vʹn} due basi di uno spazio vettoriale


finitamente generato V . Sia v un vettore di V . Cerchiamo di capire il legame tra
le coordinate λ1, λ2, . . . , λn di v rispetto alla base B e le coordinate λʹ1, λʹ2, . . . ,
λʹn di v rispetto alla base Bʹ. Ossia, cerchiamo un modo per ottenere le coordinate
λʹ1, λʹ2, . . . , λʹn di v rispetto alla base Bʹ dalle coordinate λ1, λ2, . . . , λn di v
rispetto alla base B.
LEZ 027

07. Parlare brevemente della relazione tra le soluzioni di un sistema di equazioni


lineari e le soluzioni del sistema di equazioni lineari omogeneo associato

Definizione: Un sistema di m equazioni lineari e n incognite in un campo K, o


semplicemente un sistema lineare, è un sistema in cui i membri delle equazioni
sono polinomi in K di grado al più 1.

Definizione: Dato il sistema di equazioni lineari A · X = B, il sistema di


equazioni lineari A · X = 0 è detto il sistema di equazioni lineari omogeneo
associato to the system A · X = B.

Le soluzioni di un sistema di equazioni lineari e le soluzioni di quello omogeneo


associato sono legate tra loro.
LEZ 028

17. Enunciare il Teorema di Rouché -Capelli

Teorema Rouché-Capelli: Un sistema di equazioni lineari A · X = B è


compatibile, se e solo se la matrice incompleta e la matrice completa hanno lo
stesso rango, ossia

rank(A) = rank A B .
LEZ 029

06. Descrivere l regola di Cramer

Wikipedia: Un sistema di equazioni lineari può essere rappresentato usando


moltiplicazione fra matrici come:
Ax = c
dove A è una matrice e x,c sono due vettori. Se A è una matrice quadrata
(cioè il numero di incognite del sistema è pari al numero di equazioni) ed è
anche invertibile (determinante diverso da zero cioè rango della matrice
uguale al numero di incognite), il teorema di Rouché-Capelli asserisce che il
sistema ha esattamente una soluzione.
In questo caso, la regola di Cramer fornisce un algoritmo per calcolare la
soluzione
(x1,…,xn) usando il determinante nel modo seguente:
xi = det(Ai) / det(A)
dove Ai è la matrice formata sostituendo la i-esima colonna di A con il
vettore c. Si nota che la condizione di invertibilità di A garantisce che il
denominatore det(A) sia diverso da zero, e quindi che l'espressione descritta
abbia sempre senso.
LEZ 030

05. Descrivere l’applicazione di uno dei metodi di eliminazione di Gauss, di


Gauss con normalizzazione o di Gauss- Jordan, per la soluzione dei sistemi di
equazioni lineari

Il metodo di Gauss per la soluzione un sistemi di equazioni lineari è una


procedura, per decidere se il sistema è risolubile, contemporaneamente,
trasformarlo in uno equivalente più facile da risolvere.
Il metodo di Gauss è un algoritmo che trasforma il sistema dato in uno equivalente e
delle forme indicata. le operazioni consentite per ottenere un sistema equivalente a
quello dato sono:

1. scambiare tra loro due equazioni

2. moltiplicare una equazione per una costante diversa da zero

3. sommare a una equazione un’altra equazione

Metodo di Gauss-Jordan

Il metodo di Gauss-Jordan è una variazione del metodo di eliminazione di Gauss.


La principale differenza consiste nel fatto che una variabile si elimina da tutte le
equazioni invece di farlo solo dalle successive. In più tutte le righe si
normalizzano. In questo modo, il procedimento di eliminazione genera una
matrice identità e non è necessario quindi sostituire all’indietro per ottenere la
soluzione.
LEZ 031

21. Dare la definizione di autosalone e autovetture, e parlare brevemente della


molteplicità geometrica

Definizione: Sia f ∈ Lin (V , V ) un endomorfismo di uno spazio vettorialeV sul


campo K. Se v ∈ V \{0}e λ ∈ K sono tali che

f(v) = λv, allora il vettore v è detto autovettore di f , e lo scalare λ è detto


autovalore di f. L’autovettore v è detto relativo all’autovalore λ.


Un autovettore di una funzione tra spazi vettoriali è un vettore non nullo la cui
immagine è il vettore stesso moltiplicato per un numero (reale o complesso) detto
autovalore.[1] Se la funzione è lineare, gli autovettori aventi in comune lo stesso
autovalore, insieme con il vettore nullo, formano uno spazio vettoriale,
La molteplicità geometrica è la dimensione dell'autospazio associato
all’autovalore λ.

22. Parlare brevemente dei polinomio caratteristico di applicazioni lineari e/o


matrici

Definizione: Sia V uno spazio vettoriale finitamente generato, e sia f ∈


Lin(V ,V ) un endomorfismo di V . Il polinomio, in λ,

pf (λ) := det (f − λidV )

è detto polinomio caratteristico di f.

23. Enunciare un risultato (teorema, proposizione, corollario) su autovalori e/o


autovettori

Proposizione: L’autospazio (V )f,λ relativo ad un autovalore λ

di un endomorfismo f ∈ Lin (V , V ) è un sottospazio vettoriale di V .


Proposizione: Sia f ∈ Lin (V , V ) un endomorfismo. Se λ1 e

λ2 sono due autovalori distinti di f, si ha l’uguaglianza (V)f,λ1 ∩(V)f,λ2 ={0}.

Teorema: Sia f ∈ Lin(V,V) un endomorfismo di uno spa- zio vettoriale V. Siano


λ1,λ2,...,λp autovalori distinti di f, e siano v1,v2,...,vp autovettori relativi a questi
autovalori (con vi relativo a λi, per i = 1,...,p). Allora, i vettori v1,v2,...,vp sono
linearmente indipendenti.
LEZ 032

18. Descrivere brevemente le disuguaglianze relative alle molteplicità geometrica


e algebrica, e applicarle alla diagonalizzazione di applicazioni lineari e/o matrici
(Criterio di diagonalizzabilità)

Teorema: (Criterio di diagonalizzabilità). Un endomorfismo f di uno spazio vettoriale


finitamente generato V di dimensione n, con autovalori λ1, λ2, . . . , λk, è
diagonalizzabile, se e solo se

• il polinomio caratteristico pf ha n zeri, contato ciascuno con la propria molteplicità

(ossia ki=1 m. a. f, λi = n);

• per ogni i = 1,2,...,k, si ha l’uguaglianza m.g. f,λi = m.a. f,λi .

• Condizione necessaria e sufficiente affinché una matrice A sia diagonalizzabile è


che per ciascun autovalore λ si abbia che la molteplicita` algebrica di λ coincida
con la sua molteplicità geometrica.

19. Dare la definizione di autovalore e autovetture, e parlare brevemente della


molteplicità algebrica

Definizione: Sia f ∈ Lin (V , V ) un endomorfismo di uno spazio vettorialeV sul


campo K. Se v ∈ V \{0} e λ ∈ K sono tali che

f(v) = λv, (31.1) allora il vettore v è detto autovettore di f , e lo scalare λ è detto


autovalore di f. L’autovettore v è detto relativo all’autovalore λ.


Definizione: Sia λ un autovalore di f ∈ Lin (V , V ), con V finitamente generato.


La molteplicità di λ come zero del polinomio caratteristico pf è detta molteplicità

algebrica di λ, ed è indicata con m.a. f,λ .



20. Enunciare un risultato (teorema,proposizione,corollario) sulla
diagonalizzazione di applicazioni lineari e/o matrici

Proposizione: Una matrice A ∈ Kn,n è diagonalizzabile◮, se e solo se


l’applicazione lineare fA ∈ Lin (Kn, Kn) è diagonalizzabile.

Proposizione: Se un endomorfismo di uno spazio vettoriale fi-

nitamente generato di dimensione n ha n autovalori distinti, è diagonalizzabile.


LEZ 033

17. Parlare brevemente della forma parametrica e della forma cartesiana dei
piani nello spazio

Sia S un sottospazio affine di uno spazio vettoriale finitamente generato V.


Chiamiamola dimensione di S. Se S =P0+W, possiamo scegliere una base B =
{v1,v2,...,vm} della giacitura W di S e scrivere ogni punto P di S come

P =P0 +λ1v1 +λ2v2 +···+λmvm (33.1) in modo unico, ossia con i coefficienti λ∗
univocamente determiminati.◮

Abbiamo parametrizzato S, quindi diamo la seguente definizione.

Definizione: Uguaglianza vettoriale (33.1) è detta forma parametrica di S. Il


punto P0 è detto punto base della parametrizzazione. I coefficienti λ∗ sono detti
parametri della parametrizzazione.

18. Parlare brevemente della forma parametrica e della forma cartesiana delle
rette nello spazio

La forma parametrica è molto utile per trovare la retta per due punti e il piano per
tre punti.

Dati due punti distinti A e B in V 2E o V 3E , c’è un’unica retta r che li contiene.◮


Una sua forma parametrica è facile da calcolare, infatti se scegliamo A come
punto base e il vettore B − A come vettore direttore, otteniamo la seguente forma
parametrica di r:

P =A+λ(B−A).

LEZ 034

27. Parlare brevemente della posizione di una retta rispetto a un piano nello
spazio

Una retta rispetto a un piano nello spazio può essere:

• contenuta, se la retta è contenuta nel piano;

• parallela ma non contenuta, se non si intersecano;

• incidente, se la retta interseca il piano in un punto.

28. Parlare brevemente della mutua posizione di due rette nello spazio

Due rette distinte (ossia non coincidenti) nello spazio possono essere:

• parallele, se i loro vettori direttori sono multipli l’uno dell’altro;

• incidenti, se si intersecano in un punto;

• sghembe, se non si intersecano e i loro vettori direttori non sono multipli l’uno
dell’altro;

29. Parlare brevemente della mutua posizione di due piani nello spazio

Due piani distinti (ossia non coincidenti) nello spazio possono essere:

• paralleli, se non si intersecano;

• incidenti, se si intersecano in una retta.



LEZ 035

01. Parlare brevemente della applicazioni affini

Definizione: Una funzione φ : V 1 → V 2 tra due spazi vettoriali sullo stesso campo
e della forma φ=T◦f, dove f: V1 →V2 è un’applicazione lineare e T : V 2 → V 2 è una
traslazione, è detta applicazione affine.

Notazione 35.3. Come per altri casi, se un’applicazione affine è applicata a un


vettore colonna che è scritto esplicitamente, le parentesi non sono scritte:

02. Parlare brevemente della forma matriciale delle applicazioni affini


LEZ 036

01. Parlare brevemente dei prodotti scalari e delle norme associate

Definizione: Dato uno spazio vettoriale reale V , un prodotto scalare su V è una


forma

⟨·,·⟩: V ×V −→R

bilineare, simmetrica e definita positiva

Per verificare che un’applicazione è un prodot- to scalare è sufficiente verificare


soltanto le Proprietà (Bil-Sx), (Sim) e (Pos). Infatti, la Proprietà (Bil-Dx) può
essere facilmente dedotta dalle Proprietà (Bil-Sx) e (Sim).

La norma è definita per ogni vettore v dello spazio vettoriale reale V , ossia
l’argomento della radice quadrata è sempre maggiore o uguale a 0. Infatti,
abbiamo ⟨v,v⟩ 0 per ogni v ∈ V .◮

02. Enunciare un risultato (teorema, proposizione, corollario) sui prodotti scalari


e/o sulle norme

Proposizione: Il prodotto scalare standard è effettivamente un prodotto scalare.

Proposizione: Sia ∥·∥ la norma associata al prodotto scalare ⟨·, ·⟩ su uno spazio
vettoriale reale V . Allora, le seguenti proprietà sono soddisfatte:

1. per ogni v ∈ V si ha la disuguaglianza∥v∥ 0, con ∥v∥= 0 se e solo se v = 0;

2. per ogni v ∈ V e λ ∈ R si ha l’uguaglianza ∥λ·v∥=|λ|·∥v∥.


LEZ 037 Parlare brevemente degli angoli tra rette e/o piani nello spazio

Teorema: (Disuguaglianza di Cauchy-Schwarz). Sia ∥·∥ la norma associata al


prodotto scalare ⟨·, ·⟩ su uno spazio vettoriale reale V . Allora, per ogni v, w ∈ V si ha
la disuguaglianza
|⟨v, w⟩| ∥v∥ · ∥w∥;

l’uguaglianza |⟨v, w⟩| = ∥v∥ · ∥w∥ vale se e solo se v e w sono linearmente
dipendenti.

38. Parlare brevemente degli angoli negli spazi vettoriali euclidei

Lo spazio euclideo è più che un semplice spazio vettoriale. Per ottenere la


geometria euclidea si deve poter parlare di distanze e angoli, iniziando con la
distanza fra due punti e l'angolo formato da due rette o da due vettori. Il modo
intuitivo per fare questo è l'introduzione di quello che viene chiamato prodotto
scalare standard su
Rn
Analogamente, consideriamo due sottospazi vettoriali W e Wʹ di

V 3E, di dimensione 2, ossia due piani passanti per l’origine.◮ Conside-

riamo una forma implicita di ciascuno di essi (pensati come sottospazi

affini): rispettivamente
LEZ 038

05. Parlare brevemente delle basi ortonormali negli spazi vettoriali euclidei

Definizione: Una base O di uno spazio vettoriale reale finitamente generato con
un prodotto scalare è detta ortonormale se è formata da vettori ortonormali.

La proprietà di essere ortonormali, o no, dipende dal prodotto scalare, ossia alcuni
vettori possono essere ortonormali rispetto a un prodotto scalare e non
ortonormali rispetto a un prodotto scalare diverso.

06. Descrivere brevemente il processo di ortonormalizzazione di Gram-Schmidt

Processo di ortonormalizzazione di Gram–Schmidt: Siano v1, v2, . . . , vm vettori


linearmente indipendenti di uno spazio vettoriale reale V con un prodotto scalare
⟨·, ·⟩. I passi dell’algoritmo sono m: uno per ogni vettore vi, per i = 1,...,m.

Ad ogni passo dell’algoritmo partiamo con il vettore vi, otteniamo il vettore wi


ortogonale ai vettori e∗ (o, equivalentemente, w∗) già trovati, e troviamo il suo
versore ei. Per ottenere wi sottraiamo la proiezione vettoriale di vi sui v∗ già
trovati da vi stesso.
LEZ 039

05. Enunciare il Teorema spettrale

Teorema Spettrale: Una matrice reale è simmetrica◮ se e solo se è


diagonalizzabile◮ con una matrice diagonalizzante ortogonale

06. Parlare brevemente delle matrici ortogonali

Definizione: Una matrice N ∈ Rn,n è detta ortogonale se è invertibile e N−1 = tN,


ossia

N · tN = tN · N = In.

L’insieme delle matrici ortogonali n × n è indicato con Orto (n)

07. Parlare brevemente delle isometrie


08. Parlare brevemente delle forme quadratiche e della matrice associata

Per ogni forma quadratica abbiamo Q(0n) = 0.

Ogni forma quadratica può essere rappresentata da una matrice simmetrica,


09. Parlare brevemente delle forme quadratiche definite positivo, definite
negative, semidefinite positive, semidefinite negative e indefinite

Definizione: Una forma quadratica Q su Rn è detta essere

• definita positiva se soddisfa la seguente proprietà:



(QPD) per ogni X ∈ Rn \ {0n} vale la disuguaglianza Q(X) > 0,

• definita negativa se soddisfa la seguente proprietà:



(QND) per ogni X ∈ Rn \ {0n} vale la disuguaglianza Q(X) < 0,

• semidefinita positiva se soddisfa la seguente proprietà:



(QPsD) per ogni X ∈ Rn \ {0n} vale la disuguaglianza Q(X) 0,

• semidefinita negativa se soddisfa la seguente proprietà:

(QNsD) per ogni X ∈ Rn \ {0n} vale la disuguaglianza Q(X) 0.

• indefinita se soddisfa la seguente proprietà:

(QID) esistono X, Y ∈ Rn \ {0n } tali che valgono le disuguaglianze Q(X) > 0 e


Q(Y ) < 0.
LEZ 040

01. Parlare brevemente degli spazi proiettivi

La geometria proiettiva è basata sulla prospettiva. Per esempio, formalizza il fatto


che due rette parallele (come i binari della ferrovia) sembrano incontrarsi in un
qualche punto. Questo punto sarà detto punto all’infinito, infatti non può essere
raggiunto, quindi sembra essere “a una distanza infinta.”

Definizione: Lo spazio proiettivo P3(R) è l’insieme quoziente◮ dell’insieme


R4 \ {04} per la relazione di equivalenza ∼ data da

v ∼ w se e solo se w = λv con λ ∈ R \ {0}.



LEZ 041

01. Parlare brevemente delle curve algebriche

Definizione: Una curva algebrica di grado d > 0 è l’insieme dei punti del
piano che soddisfano un’equazione polinomiale

p(x, y) = 0 con deg(p) = d > 0.

Una curva algebrica in 𝔸2(𝕂) è una classe di equivalenza (di proporzionalità)


di polinomi non costanti di 𝕂[x,y].
LEZ 042

26. Dare la definizione di conica e di conica degenere

Definizione: Una conica è una curva algebrica di grado 2, ossia è l’insieme dei
punti del piano che soddisfano un’equazione polinomiale di grado 2:

ax2 +bxy+cy2 +dx+ey+f =0

con (a,b,c)̸= (0,0,0)◮.

Definizione: Una conica p(x,y) = 0 è detta degenere se p è il prodotto di due


polinomi di grado 1. Consentiamo che i due polinomi abbiano coefficienti
complessi.
LEZ 043

13. Descrivere brevemente le matrici associate alle coniche e un loro utilizzo per
la classificazione e/o per lo studio delle coniche (dal punto di vista euclideo,
affine o proiettivo)

Definizione 43.2: Data una conica C con equazione omogenea aX2 +bXY +cY2
+dXT +eYT +fT2 =0, la matrice

è detta matrice associata alla conica C.


Teorema: Una conica non degenere C con matrice associata A può essere
rappresentata da una (e una sola) delle seguenti forme ca- noniche euclidee con
una scelta opportuna di un sistema di riferimento cartesiano:

• ax2 + by2 = 1 (ellisse reale),

• • ax2 + by2 = −1 (ellisse immaginaria),

• • ax2 − by2 = 1 (iperbole),

• • ax2 − y = 0 (parabola),

con a,b > 0. Le direzioni degli assi sono dati dagli autovettori della matrice A(3,3)
LEZ 044

01. Dare la definizione di retta polare di un punto rispetto a una conica non
degenere e descriverne una proprietà

L’equazione tP ·A·P0 = 0 non può diventare 0 = 0, quindi rappresenta una retta.


Infatti, la matrice A ha determinante non nullo (perché C non è degenere)◮ e
quindi A è invertibile, allora almeno un’entrata di A · P0 è diversa da zero ◮.

Proposizione: Sia C una conica non degenere. Valgono i seguenti risultati (la
polarità è rispetto alla conica C).

1. Ogni retta è la retta polare di uno e un solo punto. 


2. La funzione da P2(R) all’insieme delle rette di P2(R) che associa ad ogni


punto la sua retta polare è bigettiva. 

3. Un punto P appartiene alla sua polare se e solo se P appartiene a C. 


4. Un punto P appartiene a C se e solo se la sua polare è tangente a C. 


5. Un punto P appartiene alla retta polare di un punto Q, se e solo se il punto


Q appartiene alla retta polare del punto P. 


LEZ 045

01. Parlare brevemente dei centri, dei diametri, degli assi o degli asintoti di una
conica

Definizione: Sia C una conica non degenere. Se il polo della retta all’infinito
rispetto alla conica C non è un punto all’infinito, esso è detto centro di C.

Definizione: Sia C una conica non degenere. Se la retta polare di un punto


all’infinito P∞ rispetto alla conica C non è la retta all’infinito, essa è detta
diametro di C coniugato a P∞, o anche alla direzione definita da P∞.

Definizione: Sia C una conica non degenere. Se il diametro di C coniugato a P∞ è


ortogonale alla direzione definita da P∞, esso è detto asse di C.

Definizione: Sia C una conica non degenere. Se il diametro di C

coniugato a P∞ contiene P∞ ◮, esso è detto asintoto di C.


LEZ 046

09. Parlare brevemente delle superfici algebriche

Definizione: Una superficie algebrica di grado d > 0 è l’insieme dei punti dello
spazio che soddisfano un’equazione polinomiale

p(x,y,z) = 0

con deg(p) = d > 0.

Esempio:

1. Sfere, coni e cilindri sono superfici algebriche di grado 2.

2. L’equazione x3 − 2y2 + yz = 0 definisce una superficie algebrica di grado 3.

3. L’equazione x2 + y2 + z2 = 0 definisce una superficie algebrica di grado 2.

Essa ha solo un punto, l’origine 


4. L’equazione(x−y+z+2)(x+3y−2z−4)=0 rappresenta una

superficie algebrica di grado 2, che è l’unione di due piani. 



LEZ 047

01. Dare la definizione di quadriga e di quadriga degenere

Definizione: Una quadrica è una superficie algebrica di grado 2, ossia è


l’insieme dei punti dello spazio che soddisfano un’equazione
polinomiale p(x, y, z) = 0 di grado 2.

Esempio:

1. Le sfere, i coni e i cilindri sono quadriche. Per esempio, l’equazione di una


sfera generica è (x − xC )2 +(y − yC )2 + (z − zC )2 − r2 = 0, che è un’equazione
polinomiale di grado 2, e l’equazione di un cono generico rispetto a un sistema di
riferimento cartesiano opportuno è ax2+by2−z2 = 0, con a,b>0.

2. Una coppia di piani è una quadrica. Infatti la sua equazione


(ax + by + cz + d)(aʹx + bʹy + cʹz + dʹ) = 0 è un’equazione polinomiale di grado 2.

Definizione: Una quadrica con matrice associata A è detta degenere if det(A) = 0.

Osservazione: La definizione di sopra è diversa da quella data per le coniche.◮


Non è vero che il polinomio di una quadrica degenere S è sempre il prodotto di
due polinomi di grado 1, o equivalentemente che S è sempre una coppia di piani.
Proposizione: Una quadrica è degenere se e solo se ha un punto singolare.

LEZ 048

01. Parlare brevemente delle curve differenziali nello spazio

In fisica, una curva differenziabile rappresenta la traiettoria di una particella che si


muove nello spazio, dove t rappresenta il tempo.

Potrebbero piacerti anche