Sei sulla pagina 1di 20

Università degli Studi di Trieste

Piazzale Europa 1, 34100 Trieste

Facoltà di INGEGNERIA
Corso di Laurea in

INGEGNERIA INFORMATICA

Anno Accademico 2001/2002

Geometria ed algebra lineare

Studente: Giorgio Davanzo Docente:


giorgio.davanzo@gmail.com Prof. Michela Brundu
GEOMETRIA
di Giorgio DAVANZO
STRUTTURE ALGEBRICHE ELEMENTARI:
Prodotto cartesiano: presi due insiemi A,B (anche ∞) si dice prodotto cartesiano AxB={(a,b)| a∈A, b∈B},
dove (a,b) è la generica coppia ordinata.
Relazione binaria: sia A insieme; una relazione binaria in A è un sottoinsieme di AxA detto R. Due elementi
di A a,b sono in relazione tra loro se (a,b)∈ R e si scrive a R b
Relazione d’equivalenza: è una relazione binaria con le seguenti proprietà (es: uguaglianza, triangoli simili,//):
 riflessiva: aRa ∀a∈A;
 simmetrica: aRb => bRa ∀a,b∈A;
 transitiva: aRb e bRc => aRc ∀a,b,c∈A;
Classe d’equivalenza: sia A dotato di una R. ∀a∈A l’insieme {x∈A | xRa} si dice classe d’equivalenza di a e
si scrive [a]. Ogni x di [a] si dice rappresentante di [a]. Una classe gode delle proprietà:
 se aRb allora [a]=[b];
 se (a,b)∉R, allora [a]∩[b]=∅;
 l’unione A=Ua∈A[a] è disgiunta.
Insieme quoziente: {[a] | a∈A}, indicato con A/R, è l’insieme quoziente di A modulo R; si dice proiezione
normale sul quoziente l’applicazione π: A→A/R definita da π(x)=[x];
GRUPPI:
Struttura algebrica: insieme dotato di una o più operazioni (se sono più di una devono essere compatibili).
Operazione binaria: un’operazione binaria * nell’insieme G è f:GxG→G. Il risultato dell’operazione tra due
elementi a e b si denota a * b; (G,*) indica che nella struttura algebrica G è presente l’operazione *.
Definizione proprietà: sia G dotato dell’operazione binaria *:
 associativa: * è associativa se a*(b*c)=(a*b)*c ∀a,b,c ∈ G
 commutativa: * è commutativa se a*b=b*a ∀a,b ∈ G.
Elemento neutro: sia (G,*); e è elemento neutro di G se a*e=e*a=a ∀a ∈G. Se (G,*) ha elemento neutro si
scriverà (G,*,e).
Inverso (o opposto se * è la somma): (G,*,e) y∈G si dice inverso di x∈G se x*y=y*x=e.
Gruppo: sia (G,*); se valgono le proprietà (G,*,e) è un gruppo:
 * è associativa;
 ∃ e∈G che sia elemento neutro rispetto a *;
 ∀x∈G, ∃ y∈G inverso di x.
Se inoltre * è commutativa allora G è un gruppo commutativo o abeliano. Se (G,*,e) è un gruppo allora
• l’elemento neutro è unico;
• l’inverso di un elemento è unico;
Anello: sia A un insieme con 2 operazioni binarie +, •. A è un anello se:
 (A, +, OA) è un gruppo commutativo
 • (cioè il prodotto) è associativo
 1 è elemento neutro rispetto al prodotto
 (a+b)•c=ac+bc; c(a+b)=ca+cb ∀a,b,c ∈A
Anello commutativo: un anello è commutativo se anche • è commutativo. Notazione: (A,+,0A,•,1A). Per
esempio, (Z,+,0Z,•,1Z) è un anello commutativo ma (Z,•,1Z) non è un gruppo (mancano i reciproci).
n
Anello dei polinomi a coefficienti interi: p(x)= ∑ ai x con ai∈Z e n∈N grado del polinomio se an≠ 0. Chiamiamo
i

i =o
Z[x] l’insieme dei polinomi ad una variabile x a coefficienti in Z, cioè l’insieme dei p(x). L’insieme Z[x] è un
anello commutativo le cui operazioni sono:
max( n , m )
 p(x)+q(x)= ∑ ci x i con ci=ai+bi dove a e b sono i coefficienti di p(x) e q(x).
i =o
n+m
p(x)•q(x)= ∑ hi x e hi= Σ
i
 j+k=1 ajbk .
i =o

CLASSI DI RESTO:
Si consideri in Z la relazione aR2b (a,b∈Z) <=> a-b=2q per qualche q∈Z. R è una relazione di equivalenza e le
classi di equiv. di Z/R2 sono due: [0]=[2]=..=[2n] e [1]=[3]=..=[2n+1]. In generale, per p∈N si definisce la
r.d.eq. Rp e, con le operazioni di somma e prodotto, Rp diventa un anello commutativo.
NUMERI RAZIONALI:
Z*=Z\{0}; definiamo Q=(ZxZ*)/R dove R è la relazione (a,b)R(c,d) ad=bc; questa è una r.d.eq e si scrive
[(a,b)]=a/b.
N.B.: N non è un anello; Z è un anello; Q è un gruppo abeliano (ha il reciproco).
Campo: sia K un anello commutativo; K è un campo se ogni elemento non nullo ammette inverso
moltiplicativo. es: Q,R,C sono campi e anche Zp se p è primo. n
Esempio: K campo; K[x]= {polinomi a coefficienti reali in K}; p(x)= ∑ ai x i con ai∈K
i =o
; allora K[x] è un anello commutativo.
VETTORI GEOMETRICI:
Vettore applicato: è determinato da direzione, verso, modulo e punto di applicazione. Detto S uno spazio
ordinario e A,B∈S; il vettore B-A ha per direzione la retta AB, verso da A a B, modulo ||B-A|| la lunghezza del
segmento e punto di applicazione in A.
Notazione: W3 è l’insieme dei vettori applicati nello spazio S, cioè W3={B-A| A,B∈S}. VA3 ={B-A|B∈S}⊂ W3
è l’insieme dei vettori applicati in A. Si osservi che W3=UA∈S VA3 .
Osservazione: fissato O, Vo3={B–O|B∈S}è in corrispondenza biunivoca con S.
Somma di vettori: avviene con la regola del parallelogrammo e ha come proprietà: 1) esiste l’elemento nullo
O–O; 2) è commutativa; 3) è associativa; 4) esiste l’opposto: è identico all’originale ma con verso
opposto.Proposizione: (Vo3, +, 0) è un gruppo commutativo.
Prodotto di uno scalare per un vettore: v=A–O, λ v ha direzione di A–O, modulo pari a |λ |·||A–O|| e verso
pari a A–O se λ >0, opposto se <0. Se λ =0, λ v è il vettore nullo per definizione. Proprietà: λ ,µ ∈ R e
A,B∈S
 λ (µ (A–O))=(λ µ )(A–O)
 1(A–O)=(A–O)
 (λ +µ )(A–O)=λ (A–O)+µ (A–O)
 λ ((A–O)+(B–O))=λ (A–O)+λ (B–O)
Spazio vettoriale reale: Un insieme V non vuoto si dice R-s.v. se (es.: Vo3):
1. in V è definita la somma
2. è definito un prodotto tra elementi di V e scalari di R
3. sono soddisfatte le proprietà:
 ∃ un elemento 0v tale che (V,+,0v) sia un gruppo commutativo
 ∀ λ , λ ’ ∈R, ∀ v, v’ ∈V:
a. (λ +λ ’)v = λ v+λ ’v
b. λ (v+v’) = λ v+λ v’
c. λ (λ ’v) = ( λ λ ’)v
d. 1·v = v
Isomorfismo: V,V’ R-s.v.; un’applicazione biunivoca f: VV’ si dice isomorfismo se ∀u,v∈V
 ∀u,v∈V f(u+v)=f(u) + f(v)
 ∀ λ∈ R, ∀v∈V f(λ v)= λ ·f(v)
Vettori liberi: sia nell’insieme W3 dei vettori applicati nello spazio la rel.d’eq. (B–A)R(D–C)<=> B–A e D–
C sono equipollenti, cioè se sono i vertici ordinati di un parallelogramma; l’insieme V3=W3/R è l’insieme dei
vettori liberi: dunque un vettore libero è costituito da infiniti vettori applicati. Scriveremo v=vett.libero=[B–
A]=B–A.
trasferimento di proprietà: se scelgo ∀v∈V3 un rappresentante applicato in un punto fisso O∈S (cioè v=A–O)
esiste una corrispondenza biunivoca tra V3 e Vo3: v=[A–O]→A–O e, viceversa, [B–O]←B–O; in questo modo
trasferisco la struttura di R-s.v. da Vo3 a V3, cioè definisco la somma di vettori (v+w=[(A–O)+Vo³(B–O)]) è il
prodotto per scalare (λ v=[λ (A–O)]). Tali operazioni rendono V3 un R-s.v. automaticamente.
SISTEMI DI RIFERIMENTO:
Terna destrorsa: preso un sistema di 3 assi ortogonali, guardando dall’asse z si vede y andare verso x
compiendo π /2 gradi in senso antiorario.
Sistema di riferimento cartesiano ortogonale: Nello spazio S un sistema cartesiano ort. Σ è dato da:
 un punto O∈S
 una terna destrorso di vettori a due a due ortogonali: i=[A–O],j=[A2–O], k=[A3–O] con ||Ai–O|| costante.
||A1–O|| si dice unità di misura di Σ , mentre i,j,k sono i versori fondamentali (vettori con modulo 1), attraverso
cui è possibile individuare ogni vettore dello spazio. Questo sistema si indica Σ =(O;i,j,k).
Componenti del vettore: preso un vettore v∈V3; v=x·i+y·j+z·k= vx·i+vy·j+vz·k ; x,y,z sono le componenti.
Modulo: v∈V3 e v=(vx,vy,vz). ||v||=√( vx2+vy2+vz2)
Operazioni: ∀v=(vx,vy,vz) e w=(wx,wy,wz) ∈V3, ∀ λ∈ R si ha:
 v+w=(vx+wx, vy+wy, vz+wz).
 λ v=(λ vx, λ vy, λ vz).
Proposizione: per la linearità di V3 e R3, V3 è in relazione biunivoca con R3 e R3 è un R-s.v. con le operazioni
sopra descritte.
Corollario: V3 e R3 sono isomorfi e si in dica con V3≅ R3.
SPAZI VETTORIALI:
K-spazio vettoriale: sia V un insieme non vuoto, K un campo; siano date le operazioni di somma S:VxVV e
di prodotto per scalare P:KxVV tali che:
 (V,+,Ov) sia un gruppo commutativo
 ∀ λ , λ ’ ∈K, ∀ v, v’ ∈V:
• (λ +λ ’)v = λ v+λ ’v
• λ (v+v’) = λ v+λ v’
• λ (λ ’v) = ( λ λ ’)v
• 1k·v = v
allora V si dice K-spazio vettoriale (o spazio vett. su K). Un elemento di V si dice vettore. Kn={(x1,..,xn)|xi∈K}
Notazione: v=(x1,…,xn)∈Kn; xi è la i-esima componente di v; se K=R ogni elemento di Kn si dice n-upla reale.
Il campo dei complessi: C è un campo con somma e prodotto si definisce il prodotto di reale per complesso
(z=a+ib∈R se b=0)è un R-spazio vettoriale. (come lo è anche K[x]).
Polinomi di grado limitato: r∈N, k[x]r={polinomi ∈k[x] con grado≤r}è un K-s.v.;ha grado <0 se è il pol.nullo
Proposizione: se V,V’ sono K-s.v., allora VxV’ è un K-s.v. rispetto alle operazioni di somma e prodotto.
Osservazione: poiché (v,+,0v) è un gruppo commutativo (additivo) si ha:
• 0v è unico.
• l’opposto è unico.
• vale la legge della cancellazione della somma: a,b,c∈V. se a+c=b+ca=b.
IV.1.6 - Proprietà dei K-s.v.: sia V un K-s.v.; ∀k∈K, ∀v∈V si ha che:
i. 0k·v=0v
ii. k·0v=0v
iii. k·v=0v, allora o k=0k o v=0v.
iv. (–k)v= –(kv)=k(–v).
Legge di annullamento del prodotto vettore-scalare: deriva da i.+ii.+iii. ; k·v=0v ↔ k=0k V v=0v
SOTTOSPAZI VETTORIALI:
IV.2.2 - Definizione di ssv: sia V un k-s.v.; W si dice sottospazio vettoriale di V se è uno spazio vettoriale
rispetto alle stesse operazioni di V. Se W⊆V sono equivalenti:
i. W è un sottospazio vettoriale di V
ii. W è chiuso rispetto alle due operazioni di V, cioè i loro risultati appartengono a W
iii. W è chiuso rispetto alle combinazioni lineari, cioè λ v+λ ’v’ ∈W
Sottospazi banali: {0v}è un ssv di V, come lo è anche V stesso: sono sempre presenti in uno s.v.,
rappresentando il più piccolo ed il più grande ssv ma sono detti banali perché non danno informazioni sullo s.v.
Retta vettoriale: v(≠ 0v)∈V; la retta vettoriale generata da v è L(v):={λ v|λ ∈ K}. Passa sempre per l’origine
perché 0kv=0v e ogni L(v) è un ssv.
IV.2.3 - Intersezioni di
ssv: siano W1 e W2 due ssv di V (K-s.v.). Allora W1∩W2 è un ssv di V.
Unione di ssv: in generale l’unione non porta a ssv; si pensi alla somma di due rette vettoriali: il vettore somma
è la diagonale del parallelogramma  non appartiene alle due rette.
IV.2.5 - Sottospazio somma: siano W1 e W2 ssv di V e W1+W2:={v∈V|v=w1+w2; w1∈W1; w2∈W2}. Allora
W1+W2 è il più piccolo ssv di V contenente W1∪W2, cioè la somma è contenuta in tutti i ssv contenenti
l’unione.
COMBINAZIONI LINEARI:
Definizione di combinazione lineare: V K-s.v.; v1,…,vn∈V. un vettore V è combinazione lineare di v1,…,vn se
∃ λ 1,…,λ n∈K tale che v=λ 1v1+…+λ nvn. Le comb. lin. di v1…vn si denotano con L(v1,…,vn).
IV.3.2 - Teorema: L(v1,…,vn) è un ssv generato da v1,…,vn.
Spazio vettoriale finitamente generato: V K-s.v. si dice finitamente generato se ∃ v1,…,vn∈V tali che V=L(v1,
…,vn). Allora v1,…,vn si dice sistema di generatori per V.
Vettori linearmente indipendenti: dato un insieme di vettori I={v1,…,vn} di un K-s.v. essi si dicono
linearmente indipendenti sei il vettore nullo si ottiene come loro combinazione lineare solo con coefficienti
nulli, cioè λ 1v1+…+λ nvn=0v  λ 1=…=λ n=0k. I è libero se ogni suo sottoinsieme finito lo è.
IV.3.6 - Proprietà relative agli insiemi di vettori: sia I={v1,…,vn} e V un K-s.v.; Valgono:

i. 0v∈II non è libero.


ii. se n=1, cioè I={v1}, allora I è libero (se v1≠ 0v).
iii. molto importante: I non è libero ↔ almeno uno dei vi è combinazione degli altri.

iv. se I non è libero e J⊇ I  J non è libero


v. se I è libero e J⊆ I  J è libero.
IV.4.1 - Teorema: V è K-s.v.; v1,…,vn ∈V. Sono equivalenti:
i. v1,…,vn sono linearmente indipendenti
ii. v1≠ 0v e ogni v non è comb. lin. dei precedenti.
IV.4.2 - Teorema: Ogni sistema finito di generatori contiene un sistema libero di generatori. dim: I={v1,…,vn}
generatori di V K-s.v.; I1:={v1∈I | v1≠ 0v}; I1 genera V. Osserviamo ora v2: ci sono due possibilità; 1) se ∈L(v1) allora I2:=I1\{v2}. 2) se
∉ L(v ) allora I :=I . E’ un procedimento ricorsivo, e I ⊇ I : I genera V perché L(I )=L(I )=V. Questo è il metodo degli scarti
1 2 1 i i+1 2 1 2
successivi.

BASI:
Base di V: sia V un K-sv; un suo sistema libero di generatori si dice base di V. (è un teorema!!!). In altre
parole, una base è un insieme ordinato di vettori e si indicherà con parentesi rotonde.
Corollario: ogni spazio vettoriale finitamente generato ammette una base.
IV.4.5 - Teorema: Un insieme I={v1,…,vn} è libero se e solo se ogni elemento di L(v1,…,vn) si scrive in modo
unico come combinazione lineare di v1,…,vn. In particolare, I=(v1,…,vn) è una base di V ses ogni v∈V si scrive
in modo unico v=λ 1v1+…+λ nvn.
Notazione: sia I=(v1,…,vn) una base di V K-sv; ∀v∈V esiste un’unica scrittura v=λ 1v1+…+λ nvn e λ 1,…,λ n
si dicono componenti di v rispetto a I e si scrive v=(λ 1,…,λ n)I
Base canonica: e1=(1,0,0,….0) e2=(0,1,0,…0) en=(0,…,0,1). E=(e1,…,en) è la base canonica, l’unica base in cui
gli elementi di v coincidono con le componenti: v=(α 1,… α n)= α 1e1+…+α nen=(α 1,… α n)E
Componenti di somma e prodotto per scalare: sono la somma e il prodotto per scalare delle componenti.
4.4.11Teorema del completamento ad una base: Sia V un K-sv finitamente generato; allora ogni insieme libero
di vettori è contenuto in una base. Osservazione.: l’insieme che si ottiene non è più libero (i v1 generavano già tutto lo spazio).
Teorema: Sia V un K-sv avente una base di n elementi; allora:
1. Ogni insieme libero di V è finito e ha al più n elementi
2. Ogni base di V ha n elementi
3. Ogni sistema di generatori di V ha almeno n elementi.
Corollario: Ogni sistema di generatori di n elementi è una base, come anche ogni insieme libero di n elementi.
Dimensione di V: V K-sv finitamente generato; si dice dimensione di V il numero di elementi di una sua
qualunque base e si indica con dim(V). dim(0v)=0, e dim(V)=∞ se V non è finitamente generato. Inoltre se W è
un ssv di Vdim W ≤ dim V.
IV.5.3 - Corollario: V K-sv; dim(V)=n; v1,…,vn ∈V. Sono equivalenti:
i. (v1,…,vn) è una base
ii. {v1,…,vn} è un insieme libero
iii. {v1,…,vn} è un sistema di generatori.
IV.5.4 - Teorema di Grassmann: V è K-sv; U,W ssv di V. Allora dim(U+V)=dim(U)+dim(W)–dim(U∩W).
MATRICI:
Matrice: una matrice mxn (n,m ∈N+) a elementi in K è una tabella di elementi di K di m righe e n colonne; si
indica anche con A=(aij) e aij è l’elemento che occupa la i-esima riga e la j-esima colonna
Matrici particolari: matrice riga: se m=1; matrice colonna: se n=1; matrice quadrata: se n=m>1. gli
elementi del tipo aii sono la diagonale principale di A.
Matrici e vettori: una matrice può essere vista anche come una tabella di vettori riga o vettori colonna. Si
indica con Km,n := {matrici mxn a elementi in K} e Kn,n := {matrici quadrate di ordine n a elementi in K}.
Matrice nulla: è la matrice E=(eij) con eij =0 sempre; è indicata con 0(km,n) .
Operazioni: A,B ∈Km,n A=(aij) e B=(bij). λ ∈ K. Si definiscono le operazioni:
• somma: A+B=C∈Km,n dove C=(cij) e cij := aij + bij ∀i=1,…m ∀j=1,…,n .
• prodotto per scalare: λ A=D ∈Km,n dove D=(dij) e dij := λ aij .
Osservazione (Km,n è un gruppo comm.): la somma è associativa e commutativa e ogni A∈Km,n ammette opposto
 Km,n è un gruppo commutativo; inoltre il prodotto scalare è distributivo,…,Km,n é un K-sv.
Proposizione (dimensione di Km,n): col le operazioni precedenti Km,n è un K-sv di dimensione mn.
Matrice prodotto: A=(aij)∈Km,n e B=(bij)∈Kn,p . AB=C=(cij)∈Km,p è la matrice prodotto di A per B, dove cij=
n
∑ aik ⋅ bkj cioè i-esima riga di A per j-esima colonna di B. Ha come proprietà:
i =1

• non è commutativo
• è associativo , cioè A(BC)=(AB)C (lo si verifica calcolando le dimensioni delle matrici risultanti dai sottoprodotti)
• distributivo rispetto alla somma: A(B+C)=AB+AC
Corollario: Km,n è un anello non commutativo
Matrice identica: In ∈Kn,n = (aij) con aij pari a 1 se i=j, 0 se i≠ j.
Gruppo lineare generale: è l’insieme delle matrici invertibili di Kn,n. sin indica con GL(n,K).
Matrice trasposta: data A=(aij) di dice trasposta di A la matrice tA=(bij) con bij=aji ∀i,j. Proprietà:
• A,B∈Km,nt(A+B)= tA+tB
• A∈Km,n, B∈Kn,p  t(AB)=tBtA (≠ tAtB)
• se A∈GL(n)t(A)∈GL(n) e (tA)–1 = t(A-1).
Matrice simmetrica: A∈Kn,n se A=tA si dice simmetrica.
Spazio delle righe e delle colonne: Km,n ∋ A=(aij) che può essere espressa come:
• una colonna di vettori riga t(R1…Rn) dove Ri=(ai1,…,ain) è il vettore riga e ∈Kn. Le righe generano L(R1,
…,Rm)⊆Kn che si dice spazio delle righe di A: R(A).
• una riga di vettori colonna dove Cj è il vettore colonna ∈Km. Come le righe, C(A):=L(C1,…,Cn) è lo
spazio delle colonne di A.
Teorema: A∈Km,n. Allora dim(R(A))=dim(C(A)) e tale numero si dice rango di A, indicato con ρ (A).
Corollario: ρ (A)=ρ (tA).
V.2.9 - Sottomatrice: una sottomatrice si ottiene intersecando p righe e q colonne di A. Se B è una sottomatrice
di A, allora ρ (A)≥ ρ (B). Da questo deriva che se B è ottenuta da A aggiungendo righe nulle ρ (A)=ρ (B)
perché R(A)=R(B).
Matrice diagonale: A∈Km,n; A=(aij) è diagonale se aij=0 ∀i≠ j; allora ρ (A) è il numero
di elementi non nulli della diagonale.  a11 * * * * 
 
Matrici triangolari: sia A∈Km,n. Vi sono tre tipi di triangolare:  0 ... * * * 
 0 0 ... * * 
• TS: triangolare superiore, cioè sotto la diagonale principale ci sono solo 0  
 0 0 0 ... * 
• TI: triangolare inferiore, cioè sopra la diagonale principale ci sono solo 0  0
 0 0 0 a nn 
• TSC(TIC): triangolare superiore completa: aij = 0 ∀j<i e aij≠ 0 se i=j.
A∈Kn,n è TSC; allora ρ (A)=n.
V.2.13 - Proposizione (rango di una tsc quadrata):
m,n
Proposizione: A∈K TSC; posto p=min(m,n) allora la sottomatrice di A ottenuta intersecando le prime p
righe e le prime p colonne è TSC quadrata di ordine p. In particolare ρ (A)=p.
Osservazione: la sottomatrice B ottenuta da A permutando le righe ha lo stesso rango (lo stesso per le colonne)
Matrice ridotta per righe: A matrice si dice ridotta per righe se, eliminate le eventuali righe nulle, esiste una
permutazione delle colonne per cui si ottiene una TSC che sotto al termine amm ha solo elementi nulli.
Teorema (indipendenza lineare): se A è una matrice ridotta per righe allora le righe non nulle sono linearmente
indipendenti; il numero di righe non nulle è ρ (A).
Teorema di caratterizzazione delle matrici ridotte: una matrice è ridotta per righe se e solo se verifica la
seguente proprietà: in ogni riga non nulla esiste un elemento non nullo al di sotto del quale ci sono solo zeri; gli
elementi non nulli che al di sotto hanno solo 0 sono detti elementi speciali.
Conversione di matrici qualunque: avviene per mezzo delle trasformazioni elementari, che sono: S) scambio;
λ ) moltiplicazione per scalare ≠ 0; D) RiRi+α Rj .
V.4.2 Matrice trasformata per righe di A: se R(A)=R(B) allora B si dice che è trasformata per righe di A;Se B
si ottiene da A con una successione di trasformazioni elementari allora B è trasf.ta per righe di A e
ρ (A)=ρ (B).
Applicazioni (calcolo di una base di V): sia V=L(v1,…,vr)⊂Kn. Voglio determinare una base di V: scrivo la
matrice A che ha sulle righe i vettori di V; V=R(A). Ora la riduco per righe e il rango che ottengo è la dim(V).
SISTEMI LINEARI:
Equazione lineare: un’equazione in n incognite a coefficienti in campo K si dice lineare se è della forma a1x1+
…+anxn=b con a1,b∈K. Le xi si dicono incognite, mentre una sua soluzione è α 1,…,α n tale che a1α 1+…
+α nxn=b . Osservazione: mentre la prima è un’equazione la seconda è un’eguaglianza tra insiemi.
Sistema lineare: è dato da un’insieme di equazioni lineari e si indica con Σ . Una sua soluzione è α 1,
…,α n∈Kn che è soluzione di ogni equazione di Σ .
Matrice dei coefficienti: quella che ha su ogni riga i coefficienti di un’equazione del sistema; si indica con A.
Matrice completa: è la matrice dei coefficienti a cui si aggiunge alla fine una colonna contenente i termini “b”.
Si in dica con (A,B).
Sistema risolubile o compatibile:se Σ ha soluzioni si dice che è risolubile (o compatibile), altrimenti lo si
definisce incompatibile.
Spazio delle soluzioni: l’insieme delle soluzioni di Σ .
Sistema rindondante: se tutte le equazioni di Σ sono linearmente combinate.
Sistemi equivalenti: due sistemi sono equivalenti se lo spazio delle soluzioni è lo stesso per entrambi.
Notazione: sia AX la matrice contenente sulle righe i termini “ax” del sistema; allora Σ : AX=B .
Sistema ridotto: un sistema è ridotto se A è ridotta per righe; allora Σ si risolve col metodo delle eliminazioni
successive, ma prima di togliere righe nulle si deve controllare che Σ non sia incompatibile.
Notazione: si indica con ∞ k le infinite soluzioni dipendenti da k parametri. k=numero incognite – ρ (A).
Teorema: sia AX=B un sistema lineare e (A’,B’) la matrice trasformata per righe di (A,B). Allora i sistemi
AX=B e A’X=B’ sono equivalenti. Σ : a11x1+…+a1mxn=b1 ; Σ ’: (a11+λ a21)x1+…+(a1n+λ a2n)xn=b1+λ b2 .
Teorema di Rouchè–Cappelli: Sia Σ : AX=B un sistema lineare a n incognite; ρ =ρ (A). Allora:
a) Σ è risolubile se e solo se ρ (A,B)=ρ (A).
b) se è risolubile le incognite libere sono in numero n–ρ
c) si possono scegliere come incognite libere quelle corrispondenti a colonne di A tali che le restanti
colonne siano linearmente indipendenti.
Sistemi omogenei: un sistema Σ : AX=B è omogeneo se la matrice B è composta di soli 0. Un sistema
omogeneo è sempre risolubile; lo si vede sostituendo a X: (0…0).
Proposizione (dimensione di SΣ ): Σ : AX=B in n incognite. Allora SΣ ⊆Kn è un ssv di Kn di dimensione n-ρ (A).
APPLICAZIONI LINEARI:
Matrice associata ad un’applicazione: sia A=(aij)∈Km,n a cui associo f:KnKm definita da f(X)=AX dove X è
una matrice formata solo da una colonna. Dalle proprietà del prodotto di matrici si ricavano le proprietà:
• L1 additività: f(X+Y)=A(X+Y)=…dim : eseguire i calcoli=f(X)+f(Y).
• L2 omogeneità: f(λ X)= λ f(X).
Applicazione lineare: V,W K-sv e f:VW applicazione; f si dice lineare se verifica L1 e L2. Si può generare
il procedimento per associare un’applicazione ad una matrice a spazi vettoriali qualunque. Siano V,W K-sv e
B=(v1,…,vn), C=(w1,…,wn) due rispettive basi. Ad una matrice A=(aij)∈Km,n si associa l’applicazione f: VW
definita come segue: ∀v∈V v=v1x1+…+vnxn=(v1,…,vn)B ∈V. Posto X=t(x1,…,xn) ∈Km, AX=t(y1,…,yn). w:=(y1,
…,yn)c∈W. Definisco f(v)=w, cioè f((x1,…,xn)B)=(At(x1,…,xn))C . La f così definita si denota con fAB,C.
Proposizione: con la notazione precedente fAB,C è lineare.
Matrice associata a f: data un’applicazione lineare f:VW, con B base di V e C base di W si può associare a f
una matrice MfB,C; definiamo la prima colonna di MfB,C come le componenti rispetto a C del primo vettore di B,
e così via fino all’n-esimo vettore di B.
Proposizione: V,W K-sv, B e C rispettive basi.
• se f:VW, posta A= MfB,C, allora fAB,C≡ f.
• se A∈Km,n, posta fAB,C=f allora MfB,C=A.
Corollario: fissati W,V,B e C esiste una corrispondenza biunivoca tra {f:Vw lineari} e Km,n
VII.1.7 - Proposizione (proprietà appl.lin.):
• f(av1+bv2)=a·f(v1)+b·f(v2)
• f(Σ aivi)=Σ aif(vi)
• f(0v)=0w
• f(–v)=-(f(v))
VII.1.10 - Proposizione: v,w K-sv. B=(v1,…,vn) base di V e siano w1,…,wn ∈W; allora ∃ ! applicazione lineare
f:VW tale che f(vi)=wi ∀i.
Osservazione: le colonne di A sono le componenti dei wi rispetto a C.
Immagine: A,B insieme; f: AB applicazione. B⊇Im(f):={y∈B| ∃ x∈A: f(x)=y}
Nucleo: sia V,W k-sv; f:VW applicazione lineare. Ker(f):={x∈V|f(x)=0w}⊆V. Proprietà:
• ker(f) è un ssv di V.
• Im(f) è ssv di W.
• se B=(v1,…,vn) è una base di VIm(f)=L(f(v1),…f(vn)).
Osservazione (sul nucleo e i sistemi): A=MfB,C. Ker(f)={(x1,…,xn)B∈V| (At(x1,…,xn))C=0w}={(x1,…,xn)B∈V|
(At(x1,…,xn)=t(0…0)}={(x1,…,xn)B∈V| ((x1,…,xn)∈SΣ } dove Σ : AX=0.
Proposizione: f:VW applicazione lineare; dim ker(f)=dim(SΣ )=dimV–ρ (A) dove A è una qualunque
matrice associata ad f.
Controimmagine di w: f–1(w):={v∈V|f(v)=w}⊂V è eventualmente vuoto. Se w=0w, allora f–1(0w)=ker f
Proposizione (come calcolare f–1(w)): posto A=MfB,C e B=t(y1,…,ym) f–1(w) è in rel. biunivoca con SΣ , dove
Σ :AX=B.
VII.2.2 - Proposizione (calcolo dell’immagine): f:VW B base di V; allora Im(f)=L(f(v1),…,f(vn)). A=MfB,C. Si
prova che facilmente che la corrispondenza binaria Km⊃C(A)⇔Im(f)= L(f(v1),…,f(vn)) è isomorfismo di K-s.v.
Bisogna ridurre per colonne la matrice A: le colonne non nulle di A’ sono una base per C(A). Oppure, si può
calcolare ρ (A) e scegliere ρ (A) colonne linearmente indipendenti.
Criterio di iniettività: f: VW; sono equivalenti:
i. f è iniettiva
ii. ker f={0v}
iii. ρ (A)=dim (V), ∀A associata ad f.
Osservazione (sull’iniettività): n=dimV, m=dim W. A∈Km,n. Se f è iniettiva allora n≥ m di sicuro, cioè
dimW≥ dimV.
Criterio di surriettività: f:VW; è surriettiva se dim(V)≥ dim(W); è equivalente a dire che ρ (A)=dim W.
Proposizione: dim ker(f)+dim Im(f)=dim V. dim: ovvia, vedi sopra.
VII.2.19 - Criterio di isomorfismo: un’applicazione lineare è un isomorfismo se è iniettiva e surriettiva, cioè se
dimV=dim W
Corollario: se V K-sv, allora V è isomorfo a Kn, per n opportuno.
Composizione di applicazioni lineari: V,W,Z K-sv. f:VW, g:WZ sono applicazioni lineari; (g○f)(v):=
g(f(v).
Notazione: si indica con VB lo spazio vettoriale V riferito alla base B.
Teorema (sulla composta): f:VW, g:WZ sono applicazioni lineari; B,C,D basi rispettive di V,W,Z. M g○fB,D=
MgC,D·MfB,C.
Proposizione: una applicazione lineare è invertibile ⇔è biunivoca ⇔ è iniettiva e surriettiva
Proposizione: f:VW a.l.; sono equivalenti:
i. f è invertibile
ii. f è isomorfa
iii. ∀B base di V, ∀C base di W MfB,C è quadrata e invertibile: (MfB,C)–1= MfC,B.
Cambiamento di base: V k-sv; B,C basi di V. v∈V, v=(x1,…,xn)B=(y1,…,yn)C. Allora MidVB,C · t(x1,…,xn)= t(y1,
…,yn).
Matrice del cambio di base:la matrice MidvB,Csi indica con MB,Ce si chiama matrice del cambio di b. da B a C.
Matrice del cambio di base inverso: è la matrice MC,B=(MB,C)–1. MC,B · MB,C=MB,B=IV
VII.5.6 - Teorema: f:VW appl.lineare, B e B’ basi di V, C e C’ basi di W. MfB’,C’=M(idw o f o idv)B’,C’=
MC,C’·MfB,C·MB’,B.
IL DETERMINANTE:
Definizione: sia A una matrice ∈ K2,2. det(A)=|A|:= a11a22 – a12a21
Minore complementare: A=(aij) ∈Kn,n; scelgo (i,j) con i,j∈{1,…,n}: si dice minore complementare di (i,j) la
sottomatrice di A ottenuta cancellando la i-esima riga e la j-esima colonna : Aij∈Kn-1,n-1.
Complemento algebrico: il complemento algebrico di Aij è il numero (-1)i+j|Aij|, denotato con α ij
Determinante di Laplace: A=(ai,j)∈Kn,n. det(A) = a11α 11+…+ a1nα 1n . Può essere calcolato con qualunque riga
o colonna (qui è stato fatto con la prima riga, da qui la presenza costante dell’uno).
Proprietà: (valgono anche per le righe)
• det(α C1,…,Cn) = α ⋅ det(A) ∀C, ∀α∈ K
• se Ci=0 per qualche i allora det(A)=0
• se C1=Cj allora det(A)=0
• det(α 2C2+…+α nCn)=0
• det(C1+α 2⋅ C2,…, α nCn , C2, ... ,Cn) = det(A)
• se B è ottenuta da A scambiando due colonne  det(B) = - det(A)
Lemma (calcolo del det di una TS): A=(aij)∈Kn,n TS  det(A) = a11⋅ a22⋅ …⋅ ann
Metodo di calcolo del det:
1. Riduco A per righe e ottengo A’
2. r := numero di scambi di colonne per ottenere A’’, TSC
3. det(A)=det(A’)=(-1)r⋅ det(A’’)
Proposizione: A∈Kn,n; se ρ (A)=n  det(A)≠ 0
Corollario: f:VV det(MfB,C)≠ 0  f è un isomorfismo
Proprietà di matrici invertibili: sia A∈Kn,n una matrice invertibile (cioè ∈GL(n))
• ρ (A)=n;
• A=(v1,…,vn) vettori colonna: sono linearmente indipendenti
• B=(v1,…,vn) è una base di Kn  A=MB,E

DIAGONALIZZAZIONE DI MATRICI:
Endomorfismo: sia V un k-s.v.; Un’applicazione lineare ϕ :VV si dice endomorfismo di V; si definisce
inoltre l’insieme End(V)={endomorfismi di V}  ϕ∈ End(V). Consideriamo per ogni endom. la matrice
associata all’applicazione Mϕ B,B dove B è una base di V
Matrici simili: A,B∈Kn si dicono simili se sono associate allo stesso endomorfismo di Kn e si indica A~B
KBn φ AφB,B KBn IX.1.3 - Proposizione: si osservi il diagramma a lato, commutativo: B=P-1AP (P è
P=MC,B MB,C=P-1 invertibile), A,B ∈ Kn,n. A~B  ∃ P∈ GL(n) tale che B= P-1AP
Osservazione: “~” è una relazione d’equivalenza. dim: 1) riflessiva: A~A, basta prendere P=In
KCn φ BφC,C KCn 2) simmetrica: A~BB~A. Ipotesi: ∃ P: B=P-1AP; Tesi: ∃ Q: B=Q-1BQ.basta prendere Q=P-1∈GL(n) e si
-1 -1 -1 -1 -1
ha che B=Q BQ=P(P AP)P =(PP )A(PP )= IA = A 3) transitiva: A~B, B~CA~C. ipotesi:
∃ P: B = P-1AP, ∃ Q: C=Q-1AQ. Tesi : ∃ R: C=R-1AR. Basta prendere R=PQ
Matrice diagonalizzabile: A∈Kn,n si dice diagonalizzabile se ∃ una matrice diagonale ∆∈ Kn,n t.c. A~∆
IX.1.6 - Proposizione: V sia un K-s.v.; φ ∈ End(V). Sono equivalenti:
1. ∃ base B di V tale che MΦ B,B è diagonalizzabile
2. ∀base C di V MΦ C,C è diagonalizzabile
3. ∃ base D di V tale che MΦ D,D è diagonale
Applicazione semplice: φ ∈ End(V) si dice semplice se verifica le condizioni precedenti. Da ciò deriva che
∃ D tale che Mφ D,D è diagonale, cioè φ (v1)=a11v1.
Autovettore e autovalore: ϕ :VV; v∈V, v≠ OV. Se ∃ λ ∈ K t.c. ϕ (v)=λ v allora v si dice autovettore e λ
autovalore.
Osservazione (su φ semplici): φ semplice  ∃ base D di V composta da autovettori; in tal caso Mφ D,D è
diagonale
Autospazio associato a λ : V∈End(V), λ ∈ K autovalore. Sia Vλ ={v∈V|ϕ (V)=λ v}⊃ e ≠ {autovettori di
λ } (≠ perché c’è anche 0v . Allora Vλ è un ssv di V detto autospazio associato a λ .
Osservazione: B base di V, A=Mϕ B,B. Allora Mϕ rB,B = Mϕ B,B - λ MidVB,B = A - λ I
Somma diretta: siano W1,W2 ssv di V. La loro somma si dice diretta se ogni vettore di W1+W2 si scrive come
w1+w2 in modo unico. Si indica con ⊕.
Proposizione: W1+W2è somma diretta  W1∩W2 = 0v .
IX.1.12 - Proposizione (legame tra autovalori e insiemi liberi): ϕ∈ End(V), siano λ 1,…,λ s ∈K autovalori distinti
di ϕ e siano ∀i= 1,…,s dei vettori vi≠ 0v, vi∈Vλ i . Allora {v1,…,vs} è libero.
Corollario: V K-s.v., dim V=n. ϕ∈ End(V). allora:
1. ϕ ha al più n autovalori distinti .
2. se λ 1,…,λ s ∈K sono autovalori distinti. allora Vλ 1+…+Vλ s è somma diretta.
Proposizione: deriva dal T.di Grassman; siano V1,…,Vn ⊂W. dim(V1⊕…⊕Vn) = Σ (i=1…n) dim Vi .
Osservazione: φ : VV, λ ∈ K. φ (λ ): VV, φ λ =φ -idv. Allora λ è autovalore  Vλ ≠ {0v}
ker(φ λ )≠ {0v} non è un isomorfismo (né iniettiva né surriettiva)  det(Mφ λ B,B)=0. Ricordo anche che
f:VV è un isomorfismo  Mfx,y è invertibile ρ (Mf) ha rango massimo  |Mf| ≠ 0.
Proposizione: ϕ∈ End(V), λ ∈ K. allora λ autovalore di ϕ  |Mϕ B,B - λ In| = 0 dove B è una base di V
qualunque
POLINOMIO CARATTERISTICO:
Polinomio caratteristico: A∈Kn,n. PA(T) := |A – TIn| è un polinomio di grado n in T.
Proposizione: se A~B∈Kn,n allora PA(T)=PB(T).
Polinomio caratteristico di ϕ : sia A associata a ϕ∈ End(V). PA(T) è detto polinomio caratteristico di ϕ e si
scrive Pϕ (T).
Teorema: φ ∈ End(V), λ ∈ K. Allora λ è autovalore di φ  λ è una radice di Pφ (T).
Corollario: V K-s.v. ϕ∈ End(V). Gli autovalori di ϕ sono le radici di Pϕ (T) appartenenti a K
Fattorizza totalmente: K campo, P(x)∈K[x]. P(x) si fattorizza totalmente in K se P(x)=a(x-α 1)⋅ …⋅ (x-α n)
Polinomio irriducibile: è un polinomio che non si fattorizza totalmente.
Proposizione: P(x)∈K[x], α∈ K è radice P(x) è divisibile per (x-α ).
Molteplicità: è il numero di volte in cui una radice compare in un polinomio.
Proposizione: φ ∈ End(V). λ ∈ K autovalore: 1≤ dim(Vλ )≤ m(λ ) dove m(λ ) sono le molteplicità.
IX.2.10 - Teorema: V K-s.v. , ϕ∈ End(V). siano λ 1,..., λ sle radici distinte di Pϕ (T) di molteplicità
rispettivamente m1,…,ms. Sono equivalenti:
1. ϕ è semplice
2. ∃ base costituita da autovettori
3. V=Vλ 1⊕…⊕Vλ s
4. λ 1,...,λ s∈K e dim(Vλ i)=mi ∀i=1,…,s.
Molteplicità nel campo complesso: ϕ è semplice se λ 1∈C e m(λ 1)=1∀i
SPAZI EUCLIDEI:
Prodotto scalare: si dice prodotto scalare in Rn a valori reali l’applicazione •: RnxRnR tale che:
1. v•w=w•v 3. v•v ≥ 0
2. (a1v1+a2v2) •w=a1(v1•w)+a2(v2•w) 4. v•v=0  v = 0Rn
Prodotto scalare canonico: sia • : RnxRnR che associa ((x1,…,xn),(y1,…,yn))x1y1+…+xnyn.
Spazio euclideo: è lo spazio (Rn, • ) con “•” = prodotto scalare canonico, e si indica con En
Norma: l’applicazione ||…||: RnR definita da ||v||:=√v⋅ v si dice norma; per n=2 è il teorema di Pitagora.
Proprietà della norma:
1. ||v|| > 0
2. ||v||=0 v=0Rn
3. ||av||=|a|⋅ ||v||. NB: ||v||+||w||≠ ||v+w|| (regola del parallelogramma)
Ortogonalità: v,w ∈En si dicono ortogonali se v⋅ w = 0, e si scrive v⊥w
Proposizione: siano v,w1,…,ws ∈En. se v⊥wi ∀i=1…s allora lo è a ogni loro combinazione lineare. dim:
v(λ 1w1+…+λ nwn)=λ 1(v⋅ w1)+…+λ n(v⋅ wn), (v⋅ wi)=0 per ipotesi  il tutto è pari a 0.
Proposizione: Siano v1,…,vs ∈En\{0Rn} tali che vi⋅ vj=0 ∀i,j (i≠ j). Allora v1,…,vs sono linearmente
indipendenti.

Sottospazio ortogonale: W ssv di En; si dice ortogonale di W l’insieme W ={v∈En|v⋅ w=0 ∀w∈W}

Proposizione: W è un ssv di En.

Proposizione: se W=L(w1,…,ws) allora W ={v∈En|v⋅ wi=0 ∀i=1,…,s}
Insieme ortonormale: En, un insieme {v1,…,vr} si dice ortonormale se vi⊥vj ∀i≠ j e ||vi||=1 i.
Base ortonormale: B=(v1,…,vn) base di En si dice ortonormale se è un insieme ortonormale.
Ortonormalizzazione di Gram-Schmidt: (v1,…,vn)  e1 = v1/||v1||; eh=[vh - Σ (i=1…h-1)(vh⋅ ei)ei)]/||nominatore||.
Proposizione: ortonormalizzando con G-S si ottiene una base ortonormale.
GEOMETRIA LINEARE:
Nomenclatura: in En vi siano due punti P e Q: v=Q-P è il vettore da P a Q
Retta per l’origine: in En è una retta vettoriale di Rn
Sistema di riferimento: in En è (O,B) dove O∈En è un punto, detto origine, e B è una base ortonormale di En
Equazioni vettoriali e parametriche di una retta: in En, l’equazione di una retta r per l’origine ha forma
P=λ v, con P=(x1,…,xn)B e v=(v1,…,vn)B. L’equazione parametrica è x1=λ v1,…,xn=λ vn
Retta di En: è l’insieme dei punti P∈En tali che P=Q+λ V con λ ∈ R, Q∈En, V∈Rn.
Equazione cartesiana di una retta: si ottiene eliminando il parametro λ dall’equazione parametrica.
Proposizione: una retta in E2 è il luogo dei punti che soddisfano l’equazione ax+by+c=0 per opportuni a,b,c.
Piano per l’origine: è un sottospazio di R3 di dimensione 2.
Equazione vettoriale di un piano di E3: P=Q+λ V1+µ V2
Equazione parametrica di un piano in E3: Q=(xo,yo,zo), V1=(a1,a2,a3), V2=(b1,b2,b3) π : x=x0+λ a1+µ b1, …
Equazione cartesiana di un piano in E3: si eliminano i parametri λ ,µ e si ha ax+by+cz+d=0.
Osservazione (unicità delle equazioni): l’equazione di una retta in E2 o di un piano in E3 sono uniche a meno di un
coefficiente di proporzionalità.
Varietà lineare: in En, è un insieme di punti definito da L:P=Q+λ 1v1+...+λ rvr con Q∈En, λ i∈R, vi∈Rn.
Giacitura: la giacitura di una varietà lineare L è il sottospazio vettoriale di Rn SL=L(v1,...,vr).
Osservazione: L individua univocamente SL, in quanto L=Q+SL.
Varietà lineari parallele: due varietà lineari L e L’ si dicono parallele in En se dimL=dimL’ e SL=SL’
Varietà lineari di tipo diverso parallele: L,L’ varietà lineari in En sono parallele se SL⊆SL’ o se SL⊇SL’ .
Varietà lineari incidenti: L,L’ var. lineari di En. Sono incidenti se L∩L’ ≠ ∅
Varietà lineari sghembe: L,L’ var. lineari di En. Sono sghembe se non sono nè parallele nè incidenti
Proposizione (retta per due punti): A,B∈En, A≠ B. Allora ∃ ! retta per A e B e una sua equazione è r:P=A+λ (B-
A)
Proposizione (piano per tre punti): A,B,C ∈En, non allineati, allora ∃ ! piano per A,B,C di equazione π :
P=A+λ (B-A)+µ (C-A).
Proposizione: la giacitura di una retta r:ax+by+c=0 di E2 ha equazione
Sr:ax+by=0.(per il piano: 1 incognita in più). ρ (A) ρ (A,B) SΣ r∩r’
2
Intersezione di due rette in E : r: ax+by+c=0 e r’: a’x+b’y+c’=0. Ci 1 1 ∞ 1
r≡ r’
sono tre possibilità: r//r’, r∩r’=1 punto, r ≡ r’. Scrivo la matrice (A,B) 1 2 incomp. r//r’
2 2 1 r∩r’={P}
a b c
del sistema delle due equazioni: (A,B)=  a ' b' c'  .
Intersezione retta-piano: definisco la retta come l’intersezione di due ρ (A) ρ (A,B) SΣ r∩r’
piani e il piano come π : α x+β y+γ z+δ =0. r ∩ π =SΣ ; Se scrivo la 2 2 ∞1 r⊂ π
 ax + by + cz + d = 0 a b c d 2 3 incomp. r//π
retta come r: a ' x + b' y + c' z + d ' = 0 la matrice è (A,B)=  a ' b' c' d'  . Di 3 3 1 r∩ π ={P
 α β γ δ  }
sicuro ρ (A) è >1 (se fosse 1 avrei due piani paralleli → r non
esisterebbe); inoltre ρ (A,B) deve essere ≥ 2 (se fosse <2 i due piani ρ (A) ρ (A,B) SΣ r∩r’
generanti r sarebbero coincidenti← r non esisterebbe) 1 1 ∞2 π ≡π ’
Intersezione di due piani in E:3
π :ax+by+cz+d=0; 1 2 ∅ π //π
a b c d 2 2 ∞1 π ∩ π ’=re
π ’:a’x+b’y+c’z+d’=0. π ∩ π ’=? (A,B)=  a ' b' c' d'  tta
------->
Intersezione di due rette in E3: prendiamo due rette definite come ρ (A) ρ (A,B) SΣ r∩r’
l’intersezione di quattro piani e vediamo il sistema Σ : r ∩ r’ . 2 21 ∞1 r≡ r’
a x+b y+c z+d =0  a 'x + b ' y + c 'z + d '= 0 2 3 ∅ r//r’
r: a 1x + b 1 y + c1 z + d1 = 0 e r’: a 1' x + b 1 ' y + c1 ' z + d1 ' = 0
 2 2 2 2  2 2 2 2 3 3 1! r∩r’={P}
Non è presente la combinazione π (A)=2 e ρ (A,B)=4 in quanto un 3 4 ∅ r,r’sghembe
teorema sulle matrici dice che l’aggiunta di una riga o di una colonna non può far aumentare di due il rango
iniziale.
Iperpiano: è una varietà linearedi En la cui giacitura è L(v1,…,vr) con r = n-1. Si indicano con H
Equazione normale di r: se A∈R, u⊥r. (P-A)u=0 è l’equazione normale di r

Osservazione: in En, sia H:a1x1+…+anxn=b iperpiano; SH: a1x1+…+anxn=0 ha dim=n-1ed è ⊂En. SH ha dim=1

 SH =L(u) è l’equazione normale di H. (P-A)u=0, A∈H è un punto qualunque.
Varietà lineari ortogonali: Siano L1,L2 due varietà lineari di En tali che dim(L1)+dim(L2)=n; esse si dicono
⊥ ⊥
ortogonali se SL1=(SL2) o, equivalentemente, se (SL1) =SL2
⊥ ⊥
Ortogonalità: Siano L1,L2 due varietà lineari di En; esse sono ortogonali se SL1⊇(SL2) o se (SL1) ⊆SL2.
Rette ortogonali: due rette r e r’ si dicono ortogonali se lo sono i due vettori v//r e v’//r’
Proposizione: Siano r,r’ rette in E3; sono equivalenti:
• r e r’ sono ortogonali
• ∃ ! piano α ⊃r, α ⊥ r’ (e viceversa)

Osservazione: osserviamo i ssv di En W e W
1. la loro somma è diretta;

2. W⊕W =En.

3. dimW + dimW =n.
Piani ortogonali: α ,β piani di E3 si dicono ortogonali se lo sono due vettori ad essi ortogonali.
DISTANZE:
Distanza: A,B ∈En (serve la norma). Si dice distanza tra A e B d(A,B):=||A-B||. Ha come proprietà:
1. d(A,B)≥ 0 ∀A,B∈En
2. d(A,B)=0 <=> A=B
3. d(A,B)=d(B,A)
4. siano A,B,C i vertici di un triangolo : d(A,B)≤ d(A,C)+d(B,C) (dalla disuguaglianza triangolare)
Definizione astratta di distanza: In En si dice distanza un’applicazione d: EnxEnR tale che valgono le 4
precedenti proprietà.

Proposizione: L varietà lineare, A punto di En. ∃ Ao∈L tale che d(A,P)≥ d(A,Ao) ∀P∈L; Ao=L∩(A+SL ). dim:
graficamente, basta pensare ad L come ad un piano e A un punto sopra di esso.
Distanza punto-varietà lineare: Sia L var. lin., A punto di En. d(A,L) è il minimo delle distanze d(A,P), P∈L
Xbis.2.9 - Proposizione (distanza punto-iperpiano): A punto, H iperpiano di En, u versore normale ad H. allora
d(A,H)=|(A-B)⋅ u| dove B è un qualunque punto di H e |(A-B)⋅ u| la componente normale ad H del segmento
AB. Poniamo A=(α 1,…,α n) e H:a1x1+…+anxn+b=0. B∈H: B=(β 1,…,β n) tale che β 1x1+…+β nxn+b=0.
(a ,..., a ) 1 α 1 a 1 + ... + α n a n + b
Allora d(A,H) = ( α 1 − β1 ,..., α n − β n ) ⋅ ( a ,..., a ) = ( a ,..., a ) ( α 1 − β1 )a 1 ,..., (α n − β n ) a n =
1 n
. NB: vale
1 n 1 n a 12 + ... + a 2n
solo tra punti e iperpiani!
Distanza tra varietà lineari: L,L’ varietà lineari di En. d(L,L’):=min{d(P,P’)|P∈L,P’∈L’}
Xbis.2.12 - Distanza tra due rette parallele: prese due rette in forma cartesiana di E2 d(r,r’)=|c-c’|/√(a2+b2)
Osservazione (sulle rette sghembe e i piani): se r e r’ sono rette sghembe di E3allora esistono dei piani paralleli ad
entrambe. r:Sr=L(v), r’:Sr’=L(v’). Tutti i piani di giacitura L(v,v’) sono paralleli a r e r’.
Distanza tra due rette sghembe in E3 (teorema): siano r,r’ sghembe
1. ∃ ! retta l ortogonale e incidente r e r’, detta retta della minima distanza; .
2. Posti A0=l∩r’, Ao’=l∩r’ d(r,r’)=d(Ao,Ao’);
3. posti v,v’ vettori paralleli a r e r’ rispettivamente, allora d(r,r’)=|(A-A’)⋅ (v∧v’)/||v∧v’|| | dove A∈r, A’∈r’
qualunque
FASCI DI RETTE:
Fascio di rette: sia A un punto di E2; si dice fascio di rette di centro A l’insieme di tutte le rette passanti per A
e si denota con FA.
Xbis.5.2 - Proposizione: Sia A il punto di intersezione delle rette r: ax+by+c=0 e r’: a’x+b’y+c’=0. Allora F A è
costituito da tutte e sole le rette di equazione λ (ax+by+c)+µ (a’x+b’y+c’)=0, λ ,µ ∈ R e (λ ,µ )≠ (0,0).
Rette generatrici: Se FA ha equazione λ (ax+by+c)+µ (a’x+b’y+c’)=0 le due rette r: ax+by+c=0 e r’:
a’x+b’y+c’=0 si dicono generatori di FA=F(r,r’).
Osservazione: qualunque coppia di rette di FA genera FA.
Osservazione: A=(xo,yo). x-xo=0 e y-yo=0 sono due rette per A  FA:λ (x-xo)+µ (y-yo)=0
Osservazione: le coppie (λ ,µ ) e (hλ ,hµ ), con h≠ 0, individuano la stessa retta di FA.
MATRICI ORTOGONALI:
Matrice ortogonale: una matrice A∈Rn,n si dice ortogonale se le sue colonne costituiscono una base
ortonormale di En. (cioè Ci⋅ Cj=0 e Ci⋅ Ci=1)
X.2.22 - Proposizione: A∈Rn,n è ortogonale  tA⋅ A=In
Teorema: A,B∈Rn,n. det(AB)=det(A)⋅ det(B).
Osservazione (sul determinante): A ortogonale  tAA=In det(tAA)=det(In)det(tA)⋅ det(A)=1,
det(tA)=det(A) det(A)2=1det(A)=± 1. NB: non vale il ragionamento opposto!
Ortogonale speciale e non: A ortogonale è speciale se |A|=1, non speciale se |A|=-1
Osservazione: B base di En. P=MB,E P ortogonale B ortonormale
Teorema: Sia C una base ortonormale di En. Se B è una qualunque base di En e P=MB,C; allora P è ortogonale
 B è ortonormale.
Lemma: P è ortogonale  tP=P-1
Teorema: Sia A∈Rn,n (non vale per Cn,n); allora ∃ matrice ortogonale P tale che tPAP è diagonale.
TRASLAZIONI:
Traslazione: Siano (O,B) e (O’,B) due sistemi di riferimento cartesiani ortogonali di En, con B base
ortonormale. Il cambio di riferimento dal primo al secondo si dice traslazione mediante O-O’
Proposizione: Dati due sistemi di riferimento (O,B) e (O’,B) di En e un punto P∈En di coordinate (x1,…,xn)
rispetto a (O,B) e (x1’,…,xn’) rispetto a (O’,B); posto T=O’-O=(α 1,…,α n) allora X=X’+T
ROTAZIONI:
Prendiamo due sistemi di riferimento(O,B) e (O,B’) con B=(e1,e2) e B’=(e1’,e2’) basi ortonormali, B’ ottenuta
ruotando di ϕ (∈[o,2π [) gradi B. P=(x,y) rispetto a (O,B) = (x’,y’) rispetto a (O,B’). P-O=xe1+ye2= xe1’+ye2’;
poiché B è ortonormale v=(v⋅ e1)e1+(v⋅ e2)e2 ∀v∈E2. Allora e1’=(e1’⋅ e1)e1+(e1’⋅ e2)e2 e e2’=(e2’⋅ e1)e1+(e2’⋅ e2)e2
 ricordo che v⋅ w=|v|⋅ |w|⋅ cosϕ  e1’=cosϕ ⋅ e1+cos(π /2-ϕ )⋅ e2 e e2’=(-sinϕ )⋅ e1+cosϕ ⋅ e2
e1’=cosϕ ⋅ e1+sinϕ ⋅ e2 e e2’=-sinϕ ⋅ e1+cosϕ ⋅ e2  xe1+ye2=x’(cosϕ ⋅ e1+sinϕ ⋅ e2)+y’(-sinϕ ⋅ e1+cosϕ ⋅ e2)
 
x  cos ϕ − sin ϕ  x ' 
  y  =  sin ϕ cos ϕ  y'  la matrice con i sin e cos è MB’,B in quanto le colonne sono le componenti di B’ su B;
allora posto P=MB’,B X=PX’
Osservazione: P è ortogonale e speciale (basta fare i conti)
Rotazione: Presi in En due sistemi di riferimento (O,B) e (O,B’) si dice che un si ottiene dall’altro per rotazione
se MB’,B è ortogonale speciale.
Sistema di riferimento cartesiano ortogonale: lo è (O,B) se MB,E è ortogonale speciale
Osservazione: se (O,B) e (O,B’) sono entrambi sistemi di riferimento cartesiani ortonormali sono legati da
una rotazione.
Teorema: A,B ortogonali => AB è ortogonale
ROTOTRASLAZIONI:
Considero in E2 (O,B) e (O’,B’). P∈E2 ha coordinate (x,y) in (O,B) e (x’,y’) in (O’,B’). Sia MB’,B la matrice
p p  a  x  p p a  x ' 
della traslazione MB’,B =  p 11 p 12  è T il vettore di traslazione, T=  b  . Allora  y  =  p 11 p 21 b  y'  ma posso
 21 22   21 22  1
 
  p
x p a   x' p p a
 11 12   11 12 
anche scrivere  y  =  p 21 p 22 b  y'  è chiamo Q la matrice  p 21 p 22 b  , detta di rototraslazione.
   0 1 
1  0 0 1  1   0
Osservazione: P è ortogonale speciale; Q non è ortogonale ma |Q|=1.
CONICHE:
Definizione:
a) parabola: fissata una retta δ detta direttrice e un punto F del piano detto fuoco, il luogo dei punti
equidistanti da δ e da F si dice parabola;
b) ellisse: fissati due punti F1 e F2 del piano detti fuochi il luogo dei punti tali che la somma delle distanze
da F1 e F2 sia costante si dice ellisse;
c) iperbole: fissati due punti F1 e F2 del piano detti fuochi il luogo dei punti tali che la differenza delle
distanze da F1 e F2 sia costante si dice ellisse;
Parabola: cerchiamo l’equazione di una parabola centrata nell’origine. Sia δ =-P/2 F(0,P/2).
P(x,y)∈parabolad(P,F)=d(P,δ ),cioè d(P,F)=d(P,P’) con P’=(x,-p/2)||(x,y-P/2)||2=||(0,y+P/2)||2x2+(y-P/2)2
= (y+P/2)2  x2=2Py.
Ellisse: ne cerco l’equazione.F1=(-q,0) e F2=(q,0) con q>0, P=(x,y).d(P,F1)+d(P,F2)=k>2q. A=(a,0),A’=(-a,
0),B=(0,b),B’=(o,-b) le intersezioni con l’asse. A∈ellisse d(A,F1)+d(A,F2)=k=d(A,A’)k=2a; inoltre
B∈ellisse  d(B,F1)+d(B,F2)=k  ||(q,b)||+||(-q,b)||=k  2√(q2+b2)=k=2a  q2+b2=2°  q2=a2-b2. Allora la
relazione iniziale diventa ||(x+q,y)||+||(x-q,y)||=kelevo al quadrato(x+q)2+y2+(x-q)2+y2+2√([(x+q)2+y2][(x-
q)2+y2])=k2b2k2+a2y2=a2b2x2/a2+y2/b2=1. Allora F1=(+√(a2-b2),0)
Osservazione: se q=0a=b ho una circonferenza: x2+y2=a2 di raggio a e centro l’origine.
Iperbole: ponendo b2:=q2-a2 si dimostra analogamente che ha equazione x2/a2-y2/b2=1
Punto simmetrico: un punto A’ è simmetrico di A rispetto a M se e solo se M è punto medio di AA’
Simmetrie: Sia C una curva e r una retta; C è simmetrica rispetto a r se ∀P∈C il punto P’, simmetrico di P
rispetto a r, appartiene a C. r si chiama asse di simmetria. Analogamente un punto M è centro di simmetria per
C se ∀P∈C il punto P’ simmetrico rispetto a M appartiene a C.
Definizioni:
a) la retta r ⊥ δ passante per F si dice asse;
b) la retta che unisce i due fuochi è asse di simmetria, come anche l’asse del segmento F1F2. L’intersezione
dei due assi è centro di simmetria ed è detto centro dell’ellisse;
c) la retta che unisce i fuochi e l’asse del segmento F1F2 sono detti assi e la loro intersezione determina un
centro di simmetria detto centro dell’iperbole.
Proposizione:
1. se C è una parabola, il suo asse è asse di simmetria e il suo vertice è equidistante da fuoco e
direttrice.
2. C ellisse (non circonferenza) o iperbole, allora i suoi assi sono assi di simmetria e il suo centro è
centro di simmetria.
Conica degenere: una conica si dice degenere se è unione di due rette (distinte o coincidenti,reali o complesse)
E’ doppiamente degenere se è data dall’unione di due rette coincidenti, altrimenti è semplicemente degenere.
Conica: luogo dei punti con equazione a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0
Matrici associate alla conica:
 a 11 a 12 a 13 
• matrice completa o dei coefficienti: B =  a 12 a 22 a 23  è simmetrica
a 
 13 a 23 a 33 
a a 
• matrice della forma quadratica: A =  a 11 a 12  è simmetrica
 12 22 
t
Equazione matriciale di C: (x y 1) B (x y 1) = 0 mi dà il polinomio
Forma canonica: si dice forma canonica di una conica C non degenere una sua equazione che è del tipo i) o ii):
(P) parabola i) x2=2py ii) y2=2px (ruotata di 90°)
2 2 2 2
(E) ellisse i) x /a +y /b =1 ii) x2/a2+y2/b2= -1 (ellisse immaginaria)
(I) iperbole i) x2/a2 - y2/b2=1 ii) x2/a2 - y2/b2= -1
Forma canonica di una conica degenere : si indicano con iii)
• parabola: x2=q o y2=q; si ottiene con casi particolari del completamento del quadrato; le due rette
possono essere reali o complesse ma sono sempre parallele;
• ellisse: x2/a2+y2/b2=0 ; è una conica formata dalle rette complesse x= ±iay/bè semplicemente degen.
• iperbole: x2/a2 - y2/b2=0 ; sono due rette reali distinte non parallele.
Teorema: Sia C una conica (anche degenere) di equazione priva del monomio “xy” in (O; x,y). Allora ∃ un sdr
(O’;X,Y) (ottenuto con una traslazione) in cui C ha un’equazione canonica.
Teorema: C conica (O;x,y) con matrici A,B. Se (O’;X,Y) si ottiene con una rototraslazione associata a Q e P
allora le matrici B’ e A’ associate a C in (O’;X,Y) sono B’=tQBQ e A’=tPAP=P-1AP
Metodo di riduzione a forma canonica: Sia C conica in forma generale nel sdr (O;x,y) con matrici B e A.
1) diagonalizzare A; se a12=0a diagonalizzatasi passa a 2); se a12≠ 0base ortonormale di autovettori
per fA: v1=(p11,p21), v2=(p12,p22).
 p 11 p 12 0 
 
2) posta Q’=  p 21 p 22 0  si opera la rotazione t(x y 1)=Q’ t(x’ y’ 1).In (O;x’,y’) la conica a matrici A’ e B’,
 0 0 1 

ma B’=tQ’ B Q’B’ non ha il monomio x’y’.
3) Si opera il completamento dei quadrati, cioè una traslazione da (O;x’,y’) a (O’;X,Y): X=x’+α ,
Y=y’+β ; si sostituisce nell’equazione di C in (O;x’,y’) si ha la forma canonica.
Teorema: Sia C data in (O;x,y). Allora ∃ un sdr (O’;X,Y) ottenuto dal precedente con una rototraslazione in
cui C ha un’equazione in forma canonica.
Teorema: Sia C una conica di matrici B e A in (O;x,y) e B’ e A’ in (O’;X,Y). Allora:
1) PA(T)≡ PA’(T)
2) det(B’)=det(B)
3) det(A’)=det(A)
Teorema di classificazione affine delle coniche: Il suo enunciato deriva da una tabella che raffronta i vari
valori di |A| e |B|; Sia C una conica e A,B le matrici associate in un qualunque sdr. allora:
1) C è degenere  |B|=0;
2) se C non è degenere, allora:
• C parabola  |A|=0;
• C ellisse |A|>0;
• C iperbole  |A|<0.
Metodo rapido di riduzione a forma canonica: si divide in due casi:
α 0 0 
 
1) |A|=0; siano α e β autovalori di A; |A|=α β =0 α o β =0; supponiamo β =0  B =  0 0 − γ   |
0 −γ 0  
B|=-α γ 2
 γ =±√(-|B|/α )
α 0 0 
 
2) |A|≠ 0; siano α e β autovalori di A; |A|=α β ; B =  0 β 0  |B|=-α β γ . Se |B|=0γ =0
 0 0 − γ
(degenere); altrimenti γ = -|B|/|A|.
XIII.6.2 – Proposizione: se C ha per centro l’origine nella sua equazione i monomi in x e y non compaiono.
XIII.6.3 – Osservazione (calcolo del centro): C ha equazione a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 e sia M=(u,v)
il suo centro. Quanto valgono (u,v)? faccio la traslazione: X=x-u, Y=y-v; sostituisco e raccolgo i coefficienti
dei monomi di X e Y; (u,v) è centro se i coefficienti di X e Y sono 0sistema lineare a due equazioni (inc:u,v).
Osservazione: il sistema lineare la cui soluzione è il centro ha per matrice completa la sottomatrice di B
costituita dalle prime due righe.
Lemma: C con matrice A,B. Gli autospazi di A sono invarianti rispetto al sistema di riferimento.
Proposizione: C conica degenere; A,B matrici associate a C (in un qualunque sdr). Allora:
1. se C è al centro, allora i sui assi sono le due rette passanti per il centro e aventi per giacitura gli
autospazi di A
2. se C è una parabola, l’asse è la ratta per il vertice avente per giacitura l’autospazio associato
all’autovalore nullo.
Proposizione (intersez. conica-retta): una conica non degenere e una retta hanno in comune al più due punti reali.
Tangente: L’intersezione retta(r)-conica(C) (non degenere) porta a un’equazione di secondo grado di una
variabile, e se le due soluzioni sono coincidenti e reali allora r si dice tangente a C in P.
Molteplicità d’intersezione: nel caso della tangente r e C hanno molteplicità 2 in P e si indica con P2.
Definizione: sia C conica non degenere e r una retta; r si dice
• secante: r interseca C in due punti reali e distinti
• tangente: r interseca C in due punti reali e coincidenti
• esterna: r interseca C in due punti complessi e coniugati
Notazione (per la tangente): Po ∈C; la retta tangente a C in Po si denota con TPo(C).
Vettore tangente: è un vettore parallelo a TPo(C) e si indica con tPo(C).
XIII.7.7 – Proposizione (tangente all’origine): Sia C una conica per l’origine: a11x2+2a12xy+a22y2+2a13x+2a23y=0;
Allora esiste ed è unica la retta TPo(C) : a13x+a23y=0.
XIII.7.9 – Proposizione (tangente generica): Sia C una conica di forma a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 di
cui vogliamo calcolare la tangente in Po=(xo,yo). Procediamo traslando la conica in modo che il punto sia
l’origine: x=X+xo, y=Y+yo. Sostituisco: a11(X+xo)2+2a12(X+xo)(Y+yo)+a22(Y+yo)2+2a13(X+xo)+2a23(Y+yo)+
a33=0; allora (2a11xo+2a12yo+2a13)X+(2a12xo+2a22yo+2a23)Y=0 è la tangente nel sdr traslato nel sdr originale ha
equazione (a11xo+a12yo+a13)(x-xo)+(a12xo+a22yo+a23)(y-yo)=0
Metodo per il calcolo della tangente da un punto esterno: si interseca il fascio di rette del punto con la
conica: le due soluzioni devono coincidere  ∆ =0.
Lemma 1 (assi e vertici di parab.): l’asse di una parabola e la retta tangente nel vertice sono ortogonali
Lemma 2: il vertice di una parabola è l’unico punto in cui la tangente alla parabola in V e l’asse sono ortog.
Metodo per determinare asse e vertice di una parabola: C parabola, B e A matrici associate
i. determinare la giacitura dell’asse: Vo=ker(fAE,E)=L(v1)
ii. sia v1=(a,b); rh:ax+by+h=0 (fascio improprio di rette ortogonali a v1). tra queste si sceglie l’unica
tangente a C: rho: ax+by+ho=0. Per lemma 1 e 2 rho∩C=V
iii. la retta parallela a v1 e passante per V è l’asse
Metodo alternativo: i’. = i.
ii’. si determina il vettore tPo(C)=(-∂f/∂y|Po , ∂f/∂x|Po) nel generico punto Po=(xo,yo)∈C
iii’. si impone che tPo(C) sia ortogonale a v1. Per il lemma 2, l’unico punto Po in cui accade è il vertice.
IV.1.6 - Proprietà dei K-s.v.: sia V un K-s.v.; ∀k∈K, ∀v∈V si ha che:
i. 0k·v=0v. dim: 0k·v=(0k+0k)·v=0k·v+0k·v legge della cancellazione 0v=0k·v.
ii. k·0v=0v dim: analoga alla precedente
iii. k·v=0v, allora o k=0k o v=0v. dim: se k≠ 0k ∃ k-1∈K k-1(kv)= k-1·0v(k-1k)v=0v1k·v=0vv=0v
iv. (–k)v= –(kv)=k(–v). dim: banale
IV.2.2 - Definizione di ssv: sia V un k-s.v.; W si dice sottospazio vettoriale di V se è uno spazio vettoriale
rispetto alle stesse operazioni di V. Se W⊆V sono equivalenti:
i. W è un sottospazio vettoriale di V
ii. W è chiuso rispetto alle due operazioni di V, cioè i loro risultati appartengono a W
iii. W è chiuso rispetto alle combinazioni lineari, cioè λ v+λ ’v’ ∈W
dim: i.ii. e ii.iii. è ovvio; iii.ii. : prendo, per la somma, λ =λ ’=1k , per il prodotto λ ’=0k. ii.i. : le proprietà ass., comm. e
distributiva valgono in Vvalgono in W (per ii.); se 0v∈W allora è anche zero di W: ∀w∈W 0v+w=w+0v=w poiché w∈V. allora
0k·w=0v (prodotto per scalare). Analog. per l’opposto.
IV.2.3 - Intersezioni di ssv: siano W1 e W2 due ssv di V (K-s.v.). Allora W1∩W2 è un ssv di V. dim: a,b∈K e
v,w∈ W1∩W2. so che av+bw∈W1 e a W2; allora av+bw appartiene all’intersezione.
IV.2.5 - Sottospazio somma: siano W1 e W2 ssv di V e W1+W2:={v∈V|v=w1+w2; w1∈W1; w2∈W2}. Allora
W1+W2 è il più piccolo ssv di V contenente W1∪W2, cioè la somma è contenuta in tutti i ssv contenenti
l’unione. dim: x,y∈W1+W2. Tesi: x+y∈W1+W2. x=w1+w2, y=v1+v2 (w1,v1∈W1 e w2,v2∈W2). x+y=(w1+w2)+(v1+v2)=(w1+v1)[∈W1]+
(w2+v2)[∈W2]∈ W1+W2. analogamente, ∀ λ∈ K ∀x∈ W1+W2 λ x∈W1+W2. Inoltre W1è contenuto in W1+W2: nella somma si prende
w2=0V
IV.3.2 - Teorema: L(v1,…,vn) è un ssv generato da v1,…,vn. dim: banale, si prendono x,y∈L(v1,…,vn) e si fa la somma per
componenti, lo stesso per il prodotto.
IV.3.6 - Proprietà relative agli insiemi di vettori: sia I={v1,…,vn} e V un K-s.v.; Valgono:

i. 0v∈II non è libero. dim: sia v1=0v , λ 1=5 e tutti gli altri λ ≠ 0v: allora λ 1v1+…+λ nvn=0v anche se non sono tutti
λ =0.

ii. se n=1, cioè I={v1}, allora I è libero (se v1≠ 0v). dim: se v1≠ 0v, λ 1v1=0v ses λ 1=0k.
iii. molto importante: I non è libero ↔ almeno uno dei vi è combinazione degli altri. dim: “⇒”: Se I non è libero
∃ almeno un λ =0 ;supponiamo sia λ ; λ v +…+λ · v =–(λ v ). allora, moltip. per –(λ )-1 ho v = –λ –1 λ v –…–λ –
v n 1 1 n–1 n–1 n n n n n 1 1 n
1λ v “⇐”: se v =α v +α v  1·v +(–α v –…–α v )=0 e so che v non ha coefficiente nullo.
n–1 n–1 1 2 2 n n 1 2 2 n n v 1

iv. se I non è libero e J⊇ I  J non è libero dim: sia J=I∪{w1,…,wr}; se I non è libero allora esistono λ 1,…,λ n ∈K e
≠ (0,..,0) tali che λ v +…+λ v =0 . per provare che J non è libero basta considerare λ v +…+λ v +0w +…+0w =0
1 1 n n V 1 1 n n 1 r v

v. se I è libero e J⊆ I  J è libero.dim: sia J={v1,…,vs} con s≤ n. Se esistono degli scalari λ 1,…λ s tali che v1λ 1+…
+vsλ s= =0v, allora v1λ 1+…+vsλ s+0vs+1+…+0vn=0.
IV.4.1 - Teorema: V è K-s.v.; v1,…,vn ∈V. Sono equivalenti:
i. v1,…,vn sono linearmente indipendenti
ii. v1≠ 0v e ogni v non è comb. lin. dei precedenti. dim: “i⇒ii”: Se sono indipendenti non vi è il vettore nullo e dal
teorema prec. non ci sono comb.lin. “ii⇒i”: λ 1v1+…+λ nvn=0v se ci fosse un λ ≠ 0k potrei isolarlo e dividere per quel λ .
IV.4.2 - Teorema: Ogni sistema finito di generatori contiene un sistema libero di generatori. dim: I={v1,…,vn}
generatori di V K-s.v.; I1:={v1∈I | v1≠ 0v}; I1 genera V. Osserviamo ora v2: ci sono due possibilità; 1) se ∈L(v1) allora I2:=I1\{v2}. 2) se
∉ L(v ) allora I :=I . E’ un procedimento ricorsivo, e I ⊇ I : I genera V perché L(I )=L(I )=V. Questo è il metodo degli scarti
1 2 1 i i+1 2 1 2
successivi
Teorema: Un insieme I={v1,…,vn} è libero se e solo se ogni elemento di L(v1,…,vn) si scrive in modo
IV.4.5 -
unico come combinazione lineare di v1,…,vn. In particolare, I=(v1,…,vn) è una base di V ses ogni v∈V si scrive
in modo unico v=λ 1v1+…+λ nvn. dim: “⇒”: Sia I libero; λ 1v1+…+λ nvn=µ 1v1+…+µ nvn  (λ 1–µ 1)v1+…+(λ n–
µ n)vn=0v  ogni λ i–µ i = 0 perché I è libero; allora λ i=µ i ∀i. “⇐”:λ 1v1+…+λ nvn=0v Tesi: λ i=0 ∀i; allora 0v=0kv1+…+0kvn 
per ipotesi λ i=0k∀i.
4.4.11Teorema del completamento ad una base: Sia V un K-sv finitamente generato; allora ogni insieme libero
di vettori è contenuto in una base. dim: sia I={v1,…,vs} insieme libero e ordinato; Per il teorema di esistenza di una base ∃
B=(e1,…,en) base di V. B∪I genera V: applico gli scarti successivi e di sicuro non elimino gli elementi v1,…,vs perché sono liberi; alla
fine ho una base C=(v1,…,vs,e1,…,ek). Osservazione.: l’insieme che si ottiene non è più libero (i v1 generavano già tutto lo spazio).
IV.5.3 - Corollario: V K-sv; dim(V)=n; v1,…,vn ∈V. Sono equivalenti:
i. (v1,…,vn) è una base
ii. {v1,…,vn} è un insieme libero
iii. {v1,…,vn} è un sistema di generatori. dim: “i⇒ii” e “i⇒iii” sono ovvie; “ii⇒i”: sia W=L(v1,…,vn) (v1,…,vn) è
una base di W. dimW=n, ma W⊆V  W=V. “iii⇒i”: applico gli scarti successivi.
IV.5.4 - Teorema di Grassmann: V è K-sv; U,W ssv di V. Allora dim(U+V)=dim(U)+dim(W)–dim(U∩W).
dim: r=dim(U), s=dim(W), p=dim(U∩W). Tesi: esiste una base di U+W di r+s-p elementi. Base di U∩W: (v1,…,vp). completo ad
una base di U: (v1,…,vp,u1,…,ur–p) e completo ad una base di W: (v1,…,vp,w1,…,ws–p). Allora considero I=(v1,…,vp,u1,…,ur–p,w1,…,Ws–
p): sono r+s-p. Provo che I è base di U+W: 1) “I genera”: x∈U+W: x=y+z; ma y∈L(v1,…,vp,u1,…,ur–p) e z∈L(v1,…,vp,w1,…,ws–

p)x∈L(I)  I genera U+W. 2) “I è libero”: sia v=α 1v1+…+α pvp u=β 1u1+…+β r–pur–p w=γ 1w1+…+γ s–pws–p e u+v+w=0 v. w= –

v–uw∈U∩W w=λ 1v1+…+λ pvpλ i=0 e γ i=0. v+w=0vα i=β i=0.


V.2.9 - Sottomatrice: Se B è una sottomatrice di A, allora ρ (A)≥ ρ (B). dim: sia B la sottomatrice ottenuta
intersecando le colonne Ci1…Cis con le righe Rj1…Rjp. Posta, ad esempio, B’=(Ci1…Cis) si ha che ρ (B)≤ ρ (B’)≤ ρ (A).
V.2.13 - Preposizione (rango di una tsc quadrata): A∈Kn,n è TSC; allora ρ (A)=n. dim: vedi la matrice disegnata ⇑⇑.
Provo che C1…Cn sono linearmente indipendenti, cioè se λ 1c1+…+λ ncn=0vλ i=0k ∀i. esplicitamente posso scrivere al posto di C i
vettori associati; allora ottengo che 1) λ 1a11+…+λ na1n=0; 2) λ 2a22+…+λ na2n=0; …3) λ n–1an–1,n–1+λ nan-1,n=0. 4) λ nan,n=0 : so che
an,n≠ 0λ n=0. Ora sostituisco all’indietro e ho la tesi.
V.4.2 Matrice trasformata per righe di A: se R(A)=R(B) allora B si dice che è trasformata per righe di A;Se B
si ottiene da A con una successione di trasformazioni elementari allora B è trasf.ta per righe di A e
ρ (A)=ρ (B). dim: sia A’ ottenuta da A con una trasformazione di tipo D), ad es. Riri+aRj.R(A’)⊆R(A), perché R(A’)=L(R1,
…,Ri-1,Ri+aRj,…, Rm) e R(A)=L(R1,…,Ri-1,Ri,Ri+1,…,Rm). Ora dim. che R(A)⊆R(A’): tutte le righe di A’ sono uguali a quelle di A
eccetto che per la i-esima  basta provare che questa è comb.lin. delle righe di A’: infatti Ri=(Ri+aRj)-aRj. Per le altre trasf: evidente.
VII.1.7 - Preposizione (proprietà appl.lin.):
• f(av1+bv2)=a·f(v1)+b·f(v2) dim: 1)prima dimostro che f(v1+…+vp)=f(v1)+…+f(vp). Vale per p=2 (L1), la suppongo vera
per p-1 e proviamo per p (induzione): w=v1+…+vp-1 -->f(w+vp)=f(w)+f(vp) per L1. Ma per l’ipotesi induttiva f(w)=f(v 1)+…
+f(vp-1), dunque la tesi. 2) f(a1v1+…+apvp)=f(a1v1)+…+f(apvp)=a1f(v1)+...+apf(vp)
• f(0v)=0w dim: f(0v)=f(0k0v)=0kf(0v)=0w
• f(–v)=-(f(v)) dim: -v=(-1)v (per L2) --> f(-v)=f((-1)v)=(-1)f(v)= -f(v)
VII.1.10 - Preposizione: v,w K-sv. B=(v1,…,vn) base di V e siano w1,…,wn ∈W; allora ∃ ! applicazione lineare
f:VW tale che f(vi)=wi ∀i. dim: definisco f ∀v∈V: v=λ 1v1+…+λ nvn (unico). Pongo f(v):=λ 1w1+…+λ nwn . Ovviamente
f(vi)=wi ∀i. Devo provare che tale f è lineare: x,y∈V , α∈ K. x=x1v1+…+xnvn=(x1,…,xn)B . y= y1v1+…+ynvn=(y1,…,yn)B x+y= (x1+y1+
…+xnyn)B. Ma f(x+y)=(x1w1+...+xnwn)+(y1w1+...+ynwn) --> vale L1. lo stesso per L2, procedendo per assurdo.
VII.2.2 - Preposizione (calcolo dell’immagine): data un’applicazione lineare f:V-->W, ker(f) è un sottospazio
vettoriale di V e Im(f) è un sottospazio vettoriale di W. In particolare Im(f)=L(f(v1),…,f(vn)), ove (v1,…,vn) è
una qualunque base di V. dim: v,v’∈ ker(f) e λ ,λ ’∈K. λ v+λ ’v’∈ker(f), cioè f(λ v+λ ’v’)=0W. Per ipotesi
f(v)=0W=f(v’); f(λ v+λ ’v’)=λ f(v)+λ ’f(v’)=0W-->ker(f) è un ssv di V. Siano ora w,w’∈Im(f) e λ ,λ ’∈K. Per ipotesi
esistono v,v’∈V tali che w=f(v) e w’=f(v’); dunque λ w+λ ’w’=λ f(v)+λ ’f(v’)=f(λ v+λ ’v’)∈Im(f). Dunque Im(f) è un
ssv di V. Infine sia w∈Im(f), cioè w=f(v) per un opportuno v∈V. Poiché (v1,…,vn) è una base di V si può scrivere
v=a1v1+…+anvn; dunque w=a1f(v1)+…+anf(vn). Pertanto Im(f)⊆L(f(v1),…,f(vn)). Il viceversa è ovvio, perché Im(f) è un
ssv di V.
- Criterio di isomorfismo: un’applicazione lineare è un isomorfismo se è iniettiva e surriettiva, cioè se
VII.2.19
dimV=dim W dim: basta costruire un isomorfismo f:V-->W. Per questo fissiamo una base B=(v1,…vn) di V e una base C=(w1,…
wn) di W. sia f(vi)=wi per ogni i; tale f esiste ed è unica. Poiché MfB,C=In e ρ (In)=n, si ha che f è un isomorfismo.
VII.5.6 - Teorema: f:VW appl.lineare, B e B’ basi di V, C e C’ basi di W. sia f:V-->W un’applicazione
lineare; allora MfB’,C’=MC,C’⋅ MfB,C⋅ MB,B’. dim: tutto si basa sul diagramma a lato, che è VB f Wc
commutativo e riassume il problema. f=idW ⋅ f ⋅ idV . Con le matrici: MfB’,C’=Midw ⋅ f ⋅ ifv B’,C’.idV idW
Applicando l’associatività della composizione delle app.lin. si ha M fB’,C’=Midw ⋅ f ⋅ ifv B’,C’ = MidwC,C’ ⋅ VB’ f WC’
MfB,C ⋅ MidvB’,B .
IX.1.3 - Preposizione: due matrici A,B ∈Kn,n si dicono simili se e solo se esiste una matrice P∈GL(n) tale che P-
1
AP=B. dim: supponiamo che A~B; allora esiste un endomorfismo φ :Kn-->Kn e due basi B e C di Kn tali che A=Mφ B,B e B=Mφ C,C.
Pertanto B=MB,CAMC,B, Ma MC,B è invertibile e (MC,B)-1=MB,C. Si conclude ponendo P=MC,B. Viceversa, supponiamo che esista
P∈GL(n) tale che P-1AP=B. Esiste una base C di Kn tale che P=MC,E e quindi P-1=ME,C. Sia quindi φ =FAE,E l’endomorfismo di Kn
associato alla matrice A rispetto alla base canonica E, da cui A=Mφ E,E. Pertanto B=P-1AP=ME,CMφ E,EMC,E=Mφ C,C. Quindi anche B è
associata allo stesso endomorfismo di φ ; pertanto A e B sono simili.
IX.1.6 - Preposizione: V sia un K-s.v.; φ ∈ End(V). Sono equivalenti:
1. ∃ base B di V tale che MΦ B,B è diagonalizzabile
2. ∀base C di V MΦ C,C è diagonalizzabile
3. ∃ base D di V tale che MΦ D,D è diagonale dim: 2)1) ovvio; 1)2): per ipotesi ∃ ∆ diagonalizz. t.c. Mφ ~∆ . B,B

∀base C Mφ ~ Mφ . Per la transitività di “~”Mφ ~∆ . 1)3): per ipotesi ∃ ∆ diagonale tale che Mφ ~∆ , cioè ∆ è
B,B C,C C,C B,B

associata a φ rispetto a una certa base D: ∆ := Mφ D,D. 3)2): ∀base C, per def., Mφ C,C~ Mφ D,D, che è diagonale per
ipotesi.
IX.1.12 - Preposizione (legame tra autovalori e insiemi liberi): ϕ∈ End(V), siano λ 1,…,λ s ∈K autovalori distinti
di ϕ e siano ∀i= 1,…,s dei vettori vi≠ 0v, vi∈Vλ i . Allora {v1,…,vs} è libero. dim: per assurdo, siano tutti liberi
tranne vio combinazione lineare dei precedenti, cioè vio= α 1v1+…+α io-1 ⋅ vio-1 . Applico ϕ all’equazione e ottengo ϕ (vio)=
ϕ (α 1v1)+…+ϕ (α io-1 ⋅ vio-1). so che ϕ (vk)=λ kvk, quindi riscrivo l’equazione ϕ (vio)=λ iovio=λ io(α 1v1+…+α io-1 ⋅ vio-1).
scomponendo ho λ ioα 1 - α 1λ 1=0,… λ ioα io-1 - α io-1λ io-1=0  raccogliendo nel primo si ha α 1(λ io-λ 1)= 0  α 1=0 (tutti i
λ sono distinti), lo stesso per le altre equazioni. Allora vio=0v, ma è assurdo: tutti i vettori v sono non nulli!
IX.2.10 - Teorema: V K-s.v. , ϕ∈ End(V). siano λ 1,..., λ sle radici distinte di Pϕ (T) di molteplicità
rispettivamente m1,…,ms. Sono equivalenti:
1. ϕ è semplice
2. ∃ base costituita da autovettori
3. V=Vλ 1⊕…⊕Vλ s
4. λ 1,...,λ s∈K e dim(Vλ i)=mi ∀i=1,…,s. dim: 1)2) già vista; 2)3): n=dimV, ∃ base B=(v1,…,vn) di autovettori.
Ogni vi ∈ a qualche autospazioL(v1,…,vn)⊆ Vλ 1+…+Vλ s V⊆ Vλ 1⊕…⊕Vλ s . “⊇”è ovvia. 3)4) vale n=dimV=
dim(Vλ 1⊕…⊕Vλ S)=(grassman)=dimVλ 1+...+dimVλ S ≤ m1+...+ms(per la prop.prec.)≤ n, perchè m=m1+...+ms+deg(q) e
Pϕ (T)= (x-λ 1)m1…(x-λ s)ms⋅ q(x)  non è una disequazione, vale solo come uguaglianzadimVλ i = mi ∀i. 4)3):
dimV=n=m1+…+ ms= dimVλ 1+...+dimVλ S= dim(Vλ 1⊕…⊕Vλ S)V= Vλ 1⊕…⊕Vλ s . 3)2): Sia Bi la base di Vλ 1 ∀ λ i , i
=1,…,s. B=B1∪…∪Bs è anche una base di V costituita da autovettori.

X.2.22 - Preposizione: A∈Rn,n è ortogonale  tA⋅ A=In dim: prendiamo una matrice 2x2; perché sia ortonormale devo
avere tutte le colonne ortogonali e norma 1: C 1⋅ C2=0, C1⋅ C1=1, C2⋅ C2=1. Ora prendo la trasposta e riscrivo i prodotti: C 1⋅ R2(tA)=0,
C1⋅ R1(tA)=1, C2⋅ R2(tA)=1. quindi ho 0 ovunque tranne che sulla diagonale, formata da 1 tA⋅ A=In
Xbis.2.9 - Preposizione (distanza punto-iperpiano): A punto, H iperpiano di En, u versore normale ad H. allora
d(A,H)=|(A-B)⋅ u| dove B è un qualunque punto di H e |(A-B)⋅ u| la componente normale ad H del segmento
AB. Poniamo A=(α 1,…,α n) e H:a1x1+…+anxn+b=0. B∈H: B=(β 1,…,β n) tale che β 1x1+…+β nxn+b=0.
(a ,..., a ) 1 α 1 a 1 + ... + α n a n + b
Allora d(A,H) = ( α 1 − β1 ,..., α n − β n ) ⋅ ( a ,..., a ) = ( a ,..., a ) ( α 1 − β1 )a 1 ,..., (α n − β n ) a n =
1 n
. NB: vale
1 n 1 n a 12 + ... + a 2n
solo tra punti e iperpiani!
Xbis.2.12 - Distanza tra due Iperpiani: presi due iperpiani d(H,H’)=|b’-b|/√(a12+…+an2) dim: H:a1x1+…+anxn+b=0
e H’: a1’x1+…+an’xn+b’=0, la distanza è quella tra A e H’, dove A è un qualunque punto di H.
Xbis.5.2 - Preposizione: Sia A il punto di intersezione delle rette r: ax+by+c=0
e r’: a’x+b’y+c’=0. Allora FA è
costituito da tutte e sole le rette di equazione λ (ax+by+c)+µ (a’x+b’y+c’)=0, λ ,µ∈ R e (λ ,µ )≠ (0,0). dim:
λ (ax+by+c)=0 è l’equazione di una retta per A, come l’altra. Sia t:α x+β y+γ =0 l’equazione di una qualunque retta per A. Il
sistema delle tre equazioni deve dare una sola soluzione per ipotesi: A, quindi il grado della matrice associata al sistema è 2  visto
che le prime due righe sono l.i. la terza è combinazione lineare delle altre.
Xbis.5.12 - Fascio di piani: Sia A∈R3 e siano π 1,π 2,π 3 tre piani di equazione π i:aix+biy+ciz+di=0 tali che
A=loro intersezione. Allora la stella di piani di centro A è costituita da tutti e soli i piani di equazione
λ 1(a1x+b1y+c1z+d1) +λ 2(a2x+b2y+c2z+d2)+ λ 3(a3x+b3y+c3z+d3)=0. con λ 1,λ 2,λ 3 ≠ (0,0,0). i tre piani sono
detti generatori di SA. dim: ognuno dei piani di SA passa per A perché ognuno dei piani passa per A. Viceversa, sia τ :
ax+by+cz+d=0 un piano per A; vogliamo provare che esiste una terna (α ,β ,γ ) ≠ (0,0,0) tale che π α ,β ,γ =τ . Scrivo il sistema dei
tre piani: ha una sola soluzione --> ρ (A)=3- Le prime tre linee sono linearmente indipendenti (A=intersez. dei tre)--> la quarta è c.l.
delle altre
XIII.6.2 – Preposizione: se C ha per centro l’origine nella sua equazione i monomi in x e y non compaiono.
dim: partiamo da α x2+β y2=γ (centro (0,0)); resta al centro quando è solo ruotatala ruoto: X=p11x+p12y; Y=p21x+p22y. Svolgendo
i conti si ottiene ax2+bxy+cy2+d=0.
XIII.6.3 – Osservazione (calcolo del centro): C ha equazione a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 e sia M=(u,v)
il suo centro. Quanto valgono (u,v)? faccio la traslazione: X=x-u, Y=y-v; sostituisco e raccolgo i coefficienti
dei monomi di X e Y; (u,v) è centro se i coefficienti di X e Y sono 0sistema lineare a due equazioni (inc:u,v).
XIII.7.7 – Preposizione (tangente all’origine): Sia C una conica per l’origine: a11x2+2a12xy+a22y2+2a13x+2a23y=0;
Allora esiste ed è unica la retta TPo(C) : a13x+a23y=0. dim: sia r: P=λ (m,n) r//(m,n). Calcolo r∩C:
a11λ 2m2+2a12λ mn+a22λ 2n2+2a13λ m+2a23λ n=0; deve essere a13m+a23n=0  (m,n)//(a23,-a13)  To(C) : P=λ (a23,-a13)a13x+a23y=0
XIII.7.9 – Preposizione (tangente generica): Sia C una conica di forma a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 di
cui vogliamo calcolare la tangente in Po=(xo,yo). Procediamo traslando la conica in modo che il punto sia
l’origine: x=X+xo, y=Y+yo. Sostituisco: a11(X+xo)2+2a12(X+xo)(Y+yo)+a22(Y+yo)2+2a13(X+xo)+2a23(Y+yo)+
a33=0; allora (2a11xo+2a12yo+2a13)X+(2a12xo+2a22yo+2a23)Y=0 è la tangente nel sdr traslato nel sdr originale ha
equazione (a11xo+a12yo+a13)(x-xo)+(a12xo+a22yo+a23)(y-yo)=0