Sei sulla pagina 1di 4

Geometria e Algebra Lineare,

Programma svolto a.a. 2015-16

Gli studenti sono tenuti a conoscere tutte le definizioni e gli enunciati. Degli enunciati
contrassegnati con (*) occorre conoscere la dimostrazione.

Testi di riferimento

(1) E. Schlesinger, Algebra lineare e geometria, Ed. Zanichelli.


(2) E. Sernesi, Geometria 1, Ed. Bollati Boringhieri.

Sistemi lineari

Matrici. Somma, prodotto di una matrice per uno scalare e proprieta, prodotto righe per
colonne e proprieta. Potenze di una matrice quadrata. Determinante di una matrice quadrata:
definizione, proprieta. Teoremi di Laplace (I e II) e di Binet. Proprieta del determinante.
Matrici invertibili. Unicita dellinversa di una matrice (*). Condizione necessaria e suciente
per lesistenza dellinversa di una matrice. Calcolo dellinversa di una matrice, cenno al metodo
di Gauss-Jordan per il calcolo dellinversa. GL(n,K) e un gruppo. Rappresentazione matriciale
di un sistema. Matrici a scala. Operazione elementari sulle righe di una matrice. Il metodo di
Gauss (MEG): riduzione a scala di una matrice (*). Pivots e rango di una matrice. Rango e
teorema di Kronecker. Sistemi omogenei e nucleo di una matrice. Sistemi lineari: generalita.
Sistemi equivalenti. Teorema di struttura delle soluzioni di un sistema lineare (*). Teorema di
Cramer (*). Regola di Cramer. Teorema di Rouche-Capelli.
Riferimenti: Da (1), Cap. 2, sez. 1, 2, 3, 5, 6. Cap. 3, sez. 2, 3, 4 (no p. 130), 5, 6. Cap. 6,
sez. 7. Esercizi consigliati: tutti gli esempi svolti nelle sezioni indicate. Esercizi dalla dispensa
di algebra delle matrici fino a p. 16.
Inoltre: p. 106 e seguenti n. 18, 19 26, p. 127 n. 28, 13, 15.
p. 133 n. 1619.

Spazi vettoriali

Spazi vettoriali su un campo K e prime proprieta; sottospazi vettoriali. Esempi; lo spazio


vettoriale Kn . Il nucleo ker(A) e sottospazio vettoriale di Kn (*). Combinazioni lineari di
vettori. Dipendenza e indipendenza lineare. Sottoinsieme generato da un insieme di vettori e
sottospazio(*). Intersezione e somma di sottospazi sono sottospazi (*). Formula di Grassmann.
Costruzione di insiemi di vettori linearmente indipendenti (*) (Proposizione 5.2 in (1) p.170).

Base di uno spazio vettoriale1 . Coordinate rispetto ad una base. Unicita delle coordinate 2 di
un vettore rispetto ad una base fissata (*).
Caratterizzazione di una base (*) (Proposizione 6.2 in (1)). Esempi. Mappa di parametrizzazione e delle coordinate sono additive e omogenee. Insieme massimale di vettori linearmente
indipendenti e una base (*). Base per il nucleo di una matrice. Teorema fondamentale (Teorema
6.5). Esistenza di una base di un sottospazio di uno spazio vettoriale di dimensione finita (*)
(Teorema 6.7) e invarianza del numero degli elementi di una base (*) (Corollario 6.8). Dimensione. Coordinate rispetto ad una base. Spazio riga e spazio colonna. Rango per righe e per
colonne. Il rango per righe e uguale al numero di pivots di una ridotta a scala (*) (ovvero
uguale al rango). Il rango per colonne e uguale al rango. Equazioni cartesiane di un sottospazio.
Riferimenti: Da (1), cap. 4, sez. 1, 2, 3, 4, 5, 6, 7 fino a p. 186, 8, 9, 10 fino a p. 212.
Esercizi consigliati: tutti gli esempi svolti nelle sezioni indicate.
p. 162 n. 39, p. 167 n. 10 17, 24, p. 172 n. 2535, p. 183 n. 3749, p. 191 n. 50, 51, 53,
55, p. 200, 5665, p. 214 n. 6971.

Applicazioni lineari. Diagonalizzazione di matrici

Definizione di applicazione lineare, esempi. Applicazione lineare associata ad una matrice. Fibre, Nucleo, Immagine. Nucleo e immagine sono sottospazi (*). Le fibre di L sono descritte
come v0 + ker(L) (*). Applicazioni lineari iniettive, suriettive, biiettive. Criterio di iniettivita. Limmagine di un sottospazio vettoriale di V tramite f sottospazio vettoriale di W .
Unapplicazione lineare e caratterizzata dalle immagini dei vettori di una base. Composizione
di applicazioni lineari. Inversa di unapplicazione lineare. Isomorfismi. Ogni spazio vettoriale di
dimensione n e isomorfo a Kn . Teorema di rappresentazione (*). Cambiamento di base e matrice
associata (*) (Proposizione 7.3 p. 189). Formula di cambiamento della matrice rappresentativa
(Proposizione 5.5 p. 250) (*). Lo spazio vettoriale HomK (V, W ) e isomorfo a MK (m, n). Rango
di unapplicazione lineare. Teorema di nullita pi
u rango per matrici (*) e per applicazioni lineari.
Condizioni di iniettivita, suriettivita e rango.
Autovalori e autovettori di unapplicazione lineare e di una matrice. Autospazi. Esempi. Polinomio caratteristico e sue proprieta. Matrici diagonalizzabili. Criterio di diagonalizzabilita
(Proposizione 3.4 p. 310) (*). Autospazi. Autovettori relativi ad autovalori distinti sono linearmente indipendenti (*). Conseguenza: Condizione suciente anch una matrice sia diagonalizzabile (*) (Teorema 4.7 p. 321) (*). Molteplicita algebrica e geometrica di un autovalore.
Autovalori regolari. Condizione necessaria e suciente anche una matrice sia diagonalizzabile
(Teorema 4.11 p. 325) (*). Similitudine di matrici. Matrici simili hanno lo stesso polinomio
caratteristico (*). Teorema di Cayley-Hamilton.
Riferimenti: Da (1), cap. 5, sez. 1, 2, 3, 4, 5. Cap. 7, fino a pag. 333 (no p. 327). Esercizi
consigliati: tutti gli esempi svolti nelle sezioni indicate; p. 225 n. 17, p. 231 n. 911, p. 238
n. 1218; p. 251 n. 20, 21, 22, 2428, 30, p. 257 n. 3644, 46; p. 279 n. 11, 12, 13; p. 288 n.
15 18. p. 311, n. 5, 6, 7. p. 328, n. 124, p. 330 n. 27, 28, 30, 31, p. 337, n. 3241, 43.
1

Si veda (2), Definizione 4.11


Si noti che in (1) si usa questa come definizione e si dimostra quindi quella che per noi e la definizione. Si
tratta di un approccio equivalente.
2

Spazi euclidei

Prodotto scalare (o interno) in uno spazio vettoriale reale. Esempi; Rn con prodotto interno
standard, funzioni continue su [a, b] con prodotto L2 (ovvero integrale del prodotto di funzioni).
Norma di un vettore e sue proprieta; ortogonalita. Teoremi di Carnot e di Pitagora (*). Disuguaglianza di Schwarz (*). Angolo fra due vettori. Proiezione ortogonale su una retta. Basi
ortonormali. Sottospazio ortogonale a un insieme di vettori. Coecienti di Fourier. Proiezione
ortogonale su un sottospazio finito dimensionale di cui si conosce una base ortogonale. Algoritmo di Gram-Schmidt (*). Matrici ortogonali e loro caratterizzazione (colonne formano base
ortonormale di Rn ) (*). Varie proprieta delle matrici ortogonali. Matrici ortogonali 22. Cenno
al Teorema di Eulero.
Riferimenti: Da (1), cap. 8 e da , sez. 1, 2, 3, 4 (no p. 386-387), 5 (fino a p. 397).
Esercizi consigliati: tutti gli esempi svolti.
Da (2), cap. 2, sez. 17 fino a p. 236.
Esercizi consigliati: tutti gli esempi svolti.

Teorema spettrale e applicazioni

Matrici reali e simmetriche hanno autovalori reali (*) e autovettori relativi ad autovalori distinti
ortogonali (*). Una matrice reale ortogonalmente diagonalizzabile e simmetrica. La trasformazione associata ad una matrice ortogonale e una isometria. Teorema spettrale per matrici
reali e simmetriche (*). Forme quadratiche. Segno di una forma quadratica. Massimo e minimo
di una forma quadratica e autovalori (Proposizione 3.4 (*)) e Corollario 3.5. Ellisse, iperbole, parabola, proprieta di simmetria, centro di una conica. eccentricita. Coniche degeneri e
non degeneri. Riduzione a forma canonica dellequazione di una conica. Classificazione delle
coniche. Polare di un punto. Legge di reciprocita (*). Fasci di coniche. Punti base di un
fascio. Quadriche: sfera, ellissoide, iperboloide a una falda, iperboloide a due falde, paraboloide
ellittico, paraboloide iperbolico (sella), coni e cilindri e loro equazioni. Quadriche di rotazione.
Forma canonica. Invarianti di una quadrica e riconoscimento di una quadrica. Centro di una
quadrica. Conica intersezione di una quadrica con un piano e suo riconoscimento. Piano tangente. Quadriche rigate.
Riferimenti: Da (1), cap. 9, sez. 1, 2, 3 fino a p. 449 sez. 6 classificazione delle coniche a
p. 494-495. Esercizi consigliati: tutti gli esempi svolti nelle sezioni/pagine indicate; p. 439, n.
13, 5, 6, 9, 10. Dispensa sulle coniche. p. 496, n. 4548. Esercizi sulle quadriche (su Beep,
archivio esercizi e temi degli anni scorsi. Attenzione: non abbiamo usato la nomenclatura punti
ellittici, iperbolici, parabolici, ma sapete lo stesso risolvere gli esercizi). Da (2) sez. 31, pagina
377, sez. 32

Vettori nello spazio. Geometria analitica nello spazio.

Vettori applicati e vettori liberi. Somma di vettori. Prodotto per uno scalare. Sistemi di riferimento (nel piano e nello spazio). Componenti di un vettore e loro linearita. Insieme dei vettori
liberi nel piano e vettori in R2 . Insieme dei vettori liberi nello spazio e vettori in R3 . Prodotto
scalare. Vettori ortogonali. Prodotto vettoriale. Prodotto misto. Equazioni parametriche e
cartesiane di una retta nello spazio ed equazione di un piano nello spazio. Posizione reciproca
di due rette. Posizione reciproca di una retta e un piano. Distanze (tra due punti, tra un punto
e un piano, tra un punto e una retta, minima tra due rette).

Riferimenti: Da (1), cap. 1, sez. 3, 4, 5, 6, 7, 8.1 (fino a p. 50), 8.2, 8.3, 8.4, 8.6, 8.7, 8.8.
Esercizi consigliati: tutti gli esempi svolti nelle sezioni indicate; p. 39 n. 9, 10, 11, 14, 15 p. 65
n. 27 35, 37, 40, 41, 42, 43, 44.