Sei sulla pagina 1di 30

Appunti di Geometria 1

delle dispense della prof Elena Rubei

Corpi e Campi
CORPO: Un corpo ` un insieme K, che contiene almeno due elementi distine ti 0, 1 e su cui sono denite due operazioni binarie di somma (+) e prodotto () che godono delle propriet: a Associativa della somma: (a + b) + c = a + (b + c) a,b,c K Commutativa della somma: a + b = b + a a,b, K 0 ` lelemento neutro della somma: 0 + a = a + 0 = 0 e aK Esistenza dellopposto: a K -a K t. c. a + (-a) = -a + a = 0 Associativa del prodotto: (ab)c = a(bc) a,b,c K 1 ` lelemento neutro del prodotto: 1 a = a 1 = a e aK 1 1 Esistenza dellinverso: a = 0 K a K t. c. a a = a a1 = 1 Distributiva: a,b,c K a(b+c) = ab + bc (a+b)c = ac + bc Se il prodotto gode della propriet commutativa, a ab = ba a,b K diciamo che K ` un CORPO COMMUTATIVO o CAMPO. e PROPRIETA DEI CORPI: a,b,c K a+b=a+cb=c a0 = 0a = 0 (-1)a = -a (-a)b = a(-b) = -ab (-a)(-b) = ab ab = 0 a = 0 o b = 0 Lopposto e linverso sono unici. ESEMPI DI CAMPI: Q, R e C sono dei campi. Fissato un intero p > 1 Zp linsieme delle classi di resto degli interi modulo p. Zp un campo se e e e solo se p ` primo. e CAMPI ORDINATI: Un campo K si dice ordinato se contiene un sottoinsieme P (insieme degli elementi positivi) che gode delle propriet: a 0 P se k K - {0} e k P, allora -k P P { -k | k P } = k1 + k2 , k1 k2 P per ogni k1 , k2 P Dati k1 , k2 K vale una e una sola delle tre relazioni: k 1 < k2 , k1 = k2 ,
1

k1 > k2

Matrici

MATRICE: Siano m ed n numeri naturali positivi. Una matrice m n una tabella con m righe ed n colonne. Si dice a coecienti in un corpo K e se tutti gli elementi sulla tabella sono elementi di K. M(m n, K) = { A | A matrice m n a coecienti in K} M(m n, K) uno spazio vettoriale su K. e n K linsieme delle matrici n 1. e SOMMA E PRODOTTO PER SCALARI: Siano A,B M(m n, K) allora si denisce A+B come la matrice m n tale che: (A + B)i,j = Ai,j + Bi,j i = 1,...,m i = 1,...,m j = 1,...,n Sia K, allora si denisce A come la matrice m n tale che: (A)i,j = Ai,j j = 1,...,n

PRODOTTO SCALARE STANDARD E NORMA: Si denisce prodotto scalare standard fra due elementi v e w di K n lo scalare: n (v,w) = vi wi
i=1

con le seguenti propriet: a Simmetria: (v,w) = (w,v) v,w K n Bilinearit: linearit al primo ed al secondo argomento a a Se K = R, (v,v) 0 v R e (v,v) = 0 v=0 Sia v Rn , si dice norma o lunghezza di v il numero reale |v| = (v, v) con le seguenti propriet: a |v| 0 v Rn : inoltre |v| = 0 se e solo se v = 0. |v| = |||v| K, v Rn .

PRODOTTO DI MATRICI: Sia A M(m n, K) e B M(n l, K). Si denisce AB la matrice m l cos denita: (AB)i,j = i = 1,.....m
n k=1

Ai,k Bk,j

j = 1,.....n, o equivalentemente, (AB)i,j = (t A(i) ,B (j) )

Il prodotto di matrici gode delle seguenti propriet: a (AB)C = A(BC) A(B+C) = AB + AC (A+B)C = AC + BC (AB) = (A)B = A(B) AIn = Im A Se K ` un campo, t (AB) = t B t A e TIPI DI MATRICI: Siano A,B M(m n, K). Si denisce Trasposta di A (e si indica con t A) la matrice n m cos denita: (t A)i,j = Aj,i i = 1,...,m j = 1,...,n
t

con le seguenti propriet: a t t ( A) = A t( A + B ) = tA + tB

( A) = t A

Sia A M(n n, K). A si dice matrice quadrata e: Antisimmetrica: Se ai,j = -aj,i i,j {1,...,n} Se in K 1 + 1 = 0 allora gli elementi sulla diagonale principale di una matrice antisimmetrica sono nulli. A antisimmetrica se e solo se A = -t A e Diagonale: Se ai,j = 0 per i = j Identit: Se la matrice ha tutti 1 sulla diagonale e 0 altrove a Invertibile: A invertibile se esiste B M(n n, K), tale che: e AB = BA = In GL(n,K) = {A M(n n, K) | A invertibile} Propriet: a La matrice inversa unica e Se A, B GL(n,K) AB GL(n,K) e (AB)1 = B 1 A1 Se A GL(n,K) A1 GL(n,K) e (A1 )1 = A Se AB = I BA = I
3

A GL(n,K) rk(A) = n det(A) = 0 Come trovare linversa, primo metodo: 1) Aancare ad A, a destra la matrice In , ottenendo (A|In ) 2) Fare operazioni elementari di riga su (A|In ) no ad ottenere una matrice del tipo (In |B). 3) La matrice B linversa di A. e Come trovare linversa, secondo metodo: (A1 )i,j = (1)i+j det(A ) j,i det(A)

Ortogonale: Se t AA = At A = In , ovvero le righe e le colonne di A sono di norma 1 e ortogonali fra loro per il prodotto scalare standard (tali che il prodotto scalare standard sia nullo). Propriet: le matrici ortogonali sono invertibili: A1 = t A a Singolare: A ` singolare se det(A) = 0. Le matrici singolari non sono e invertibili. Simmetrica: Se ai,j = aj,i i,j {1,...,n} A ` simmetrica se e solo se A = t A e Traccia: E la somma degli elementi della diagonale. Triangolare inferiore: Se ai,j = 0 per i < j Triangolare superiore: Se ai,j = 0 per i > j

Risoluzione di sistemi lineari


SISTEMA LINEARE: Un sistema lineare un sistema di equazioni lie neari, cio un sistema di equazioni i cui membri sono polinomi di grado 1 e nelle incognite. Un sistema lineare di m equazioni e n incognite x1 ,...,xn pu o essere scritto nella forma: Ax = b per una certa matrice A M(m n, K) e un certo b K m , dove x ln-upla e delle incognite. La matrice A si dice incompleta del sistema. La matrice (A|b) si dice completa del sistema. Se b = 0 il sistema si dice omogeneo. OPERAZIONI ELEMENTARI DI RIGA Compiendo operazioni elementari di riga su una matrice completa di un sistema, non si alterano le soluzioni del sistema. Tipo I: Scambiare due righe Tipo II: Moltiplicare una riga per uno scalare non nullo. Tipo III: Sommare ad una riga un multiplo di unaltra riga. MATRICE A SCALINI: Una matrice si dice a scalini (per righe) se soddisfa le seguenti propriet: se in una riga i primi k elementi sono nulli, allora a la riga successiva (se esiste) o ` tutta nulla o almeno i primi k+1 elementi e sono nulli. Data una qualsiasi matrice, si pu ottenere da essa, con operazioni elementari o di riga di tipo I e III, una matrice a scalini. Pivot: E il primo elemento non nullo di ogni riga non nulla di una matrice a scalini. TEOREMI: Un sistema lineare omogeneo ha sempre una soluzione: quella nulla. Un sitema lineare omogeneo con pi incognite che equazioni ha una soluu zione non nulla. Un sistema lineare ha soluzione se e solo se, riducendo a scalini con operazioni elementari di riga la matrice completa, non ci sono pivots nellultima colonna. Supponiamo che esista una soluzione x del sistema lineare Ax = b. Allora: { x K n | Ax = b } = { x + y | y K n e Ay = 0 }
5

REGOLA DI CRAMER: Sia A GL(n,K) e b = t (b1 , ..., bn ) e Ax = b il sistema associato. Lunica soluzione x ` data dalla formula: e n (1)i+k Ak, i xi =
k=1

det(A)

Spazi vettoriali
SPAZIO VETTORIALE: Sia K un campo. Sia V un insieme che contiene due elementi, 0 e 1 e dotato di due operazioni binarie di somma (+): V V V e laltra detta prodotto per scalari (): K V V che godono delle propriet`: a Associativa della somma: (v + w) + u = v + (w + u) v,w,u V Commutativa della somma: v + w = w + v v,w V 0 ` lelemento neutro della somma: 0 + v = v + 0 = 0 e vV Esistenza dellopposto: v V -v V t. c. v + (-v) = -v + v = 0 Distributiva per la somma in K: ( + )v = v + v v V, , K Distributiva per la somma in V: (v + w) = v + w v,w V, , K 1 ` lelemento neutro del prodotto: 1 v = v v V e ()v = (v) v V, , K PROPRIETA DEGLI SPAZI VETTORIALI: v,w,u V v+w=v+uw=u v0 = 0v = 0 (-1)v = -v Lopposto e linverso sono unici. Gli elementi di uno spazio vettoriale si dicono vettori. SOTTOSPAZI VETTORIALI: Sia V uno spazio vettoriale su K. Un sottospazio di V ` un sottoinsieme non vuoto S di V tale che v,w S e K: Chiusura per la somma: v + w V Chiusura per la moltiplicazione per scalari: v V Propriet`: a Un sottospazio vettoriale S di uno spazio vettoriale V contiene 0V Un sottospazio vettoriale S di uno spazio vettoriale V con le operazioni di somma e di prodotto per scalari ereditate da V ` lui stesso uno spazio e vettoriale.

COMBINAZIONE LINEARE E SPAN: Sia V uno spazio vettoriale. Siano v1 ,...,vk V e 1 ,...,k K. Si denisce combinazione lineare di v1 ,...,vk con coecienti 1 ,...,k il vettore 1 v1 + ... + k vk Linsieme delle combinazioni lineari di v1 ,...,vk , cio` e { 1 v1 + ... + k vk | 1 ,...,k K } ` un sottopsazio vettoriale di V, denotato con v1 ,...,vk , detto span di e v1 ,...,vk Lo span di v1 ,...,vk non cambia: Cambiando lordine dei generatori Moltiplicando un generatore per uno scalare non nullo Sommando ad un generatore un multiplo di un altro generatore. Linsieme delle soluzioni di un sistema lineare in n incognite ` un sottospazio e n vettoriale di K se e solo se il sistema lineare ` omogeneo. e VETTORI DIPENDENTI E INDIPENDENTI Sia V uno spazio vettoriale: Si dice che un insieme di vettori v1 ,...,vk ` un insieme di vettori linearmente e dipendenti se esistono 1 ,...,k K non tutti nulli tali che: 1 v1 + ... + k vk = 0 Propriet`: Se {v1 ,...,vk } ` un insieme di vettori dipendenti di V allora esiste a e i {1, ..., k} tale che v1 si pu` scrivere come combinazione lineare di v1 ,...,vk . o Si dice che un insieme di vettori v1 ,...,vk ` un insieme di vettori linearmente e indipendenti se: 1 v1 + ... + k vk = 0 1 = ... = k = 0 Propriet`: Un sottoinsieme di un insieme di vettori linearmente indipendenti a ` ancora un insieme di vettori linearmente indipendenti. e GENERATORI: Sia V uno spazio vettoriale. Un insieme di vettori di V si dice un insieme di generatori per V se ogni elemento di V ` una loro e combinazione lineare. BASE: Sia V uno spazio vettoriale. Una base di V ` un insieme di vettori e linearmente indipendenti, generatori di V. Propriet`: a - Qualsiasi spazio vettoriale V ammette una base. - Le basi nite di uno stesso spazio vettoriale hanno tutte la stessa cardinalit`. a
8

DIMENSIONE: Si dice dimensione di uno spazio vettoriale la cardinalit` a di una sua base. M(m n, K) ha dimensione mn Kd [x] = { a0 + a1 x + ... + ad xd | a0 ,...,ad K } ha dimensione d + 1. Il sottospazio costituito dal solo vettore nullo ha dimensione 0. TEOREMA DEL COMPLETAMENTO: Dato un insieme di vettori linearmente indipendenti {v1 ,...,vk } in uno spazio vettoriale V di dimensione n, allora: k n, inoltre se k = n {v1 ,...,vk } ` una base di V, e se k < n ` sempre possibile trovare {vk+1 ,...,vn } tali che {v1 ,...,vn } sia e una base di V. TEOREMA DELLESTRAZIONE DI BASE: Se v1 ,...,vk generano uno spazio vettoriale V, si pu` trovare un sottoinsieme di essi che formi una base o di V. CONDIZIONI SUFFICIENTI PER UNA BASE: Se {v1 ,...,vn } V spazio vettoriale di dimensione n, anch {v1 ,...,vn } sia una base ` suciente e e che v1 ,...,vn siano linearmente indipendenti, oppure che siano generatori di V. DIMENSIONE DEI SOTTOSPAZI: Sia S un sottospazio vettoriale di dimensione k di uno spazio vettoriale V di dimensione n, allora kn e Se k = n S = V . DIMENSIONE PRODOTTO CARTESIANO: Siano V e W due spazi vettoriali sullo stesso campo K. Sul prodotto cartesiano V W si possone denire le operazioni: (v, w) + (v, w) := (v + v, w + w) c(v, w) := (cv, cw) v, v in V, w, w W v V , w W , c K.

Con tali operazioni V W ` uno spazio vettoriale su K e: e dim(V W) = dim(V) + dim(W) FORMULA DI GRASSMAN: Siano A e B due sottospazi di uno stesso spazio vettoriale V. Sia A+B = { a + b | a A, b B }. Allora: dim(A+B) = dim(A) + dim(B) - dim(A B)
9

Applicazioni lineari
APPLICAZIONE LINEARE: Siano V e W due spazi vettoriali su K. Si dice che f : V W ` una applicazione lineare se e solo se valgono le see guenti propriet`: a Additivit`: a f (v + w) = f(v) + f(w) v,w V Omogeneit`: a f (v) = f (v) vV,K NUCLEO E IMMAGINE: Siano V e W due spazi vettoriali su K e sia F : V W una funzione lineare. Si denisce nucleo (kernel) di f il seguente sottoinsieme di V: Ker(f ) = { v V | f (v) = 0 } Si denisce immagine di f il seguente sottoinsieme di W: Im(f ) = { w W | v V t.c. f (v = w) } = { f (v) | v V } PROPRIETA DELLE FUNZIONI LINEARI: f (0V ) = 0W Ker(f ) ` un sottospazio vettoriale di V e Im(f ) ` un sottospazio vettoriale di W e f ` iniettiva Ker(f ) = {0V } e f ` bigettiva = f1 ` lineare. e e RELAZIONE FONDAMENTALE: Siano V e W due spazi vettoriali su K con dim V < + . Sia f : V W una funzione lineare. Allora: dimKer(f ) + dim Im(f ) = dim V FISSARE LIMMAGINE DI UNA BASE Siano V e W due spazi vettoriali su K. Sia {v1 ,...,vn } una base di V e siano w1 ,...,wn W. Allora esiste una e una sola applicazione lineare f : V W tale che f (vi ) = wi per i = 1, ..., n. Inoltre: se w1 ,...,wn sono indipendenti = f ` iniettiva. e se w1 ,...,wn sono generatori di V = f ` surgettiva. e se {w1 ,...,wn } ` una base di V = f ` bigettiva. e e
10

ISOMORFISMI: Siano V e W due spazi vettoriali su un campo K. Un isomorsmo da V a W ` unapplicazione lineare bigettiva f : V W. e Due spazi vettoriali V e W su uno stesso campo K si dicono isomor se esiste un isomorsmo fra V e W. Propriet`: Due spazi vettoriali su uno stesso campo sono isomor se e solo a se hanno la stessa dimensione. APPLICAZIONE ASSOCIATA AD UNA MATRICE: Sia A M(m n, K). Lapplicazione associata ad A ` lapplicazione e n m f : K K cos` denita: fA (x) = Ax x Kn Propriet`: a fA ` lineare. e Per ogni f : K n K m esiste A M(m n, K) tale che f = fA Dette ed le basi canoniche ordinate, di K n e K m A = M, (f) Limmagine di fA ` generata dalle colonne di A. e MATRICE ASSOCIATA AD UNA APPLICAZIONE LINEARE: Siano V e W due spazi vettoriali di dimensione nita n e m ripsettivamente. Sia P = {p1 ,...,pn } una base ordinata di V e A = {a1 ,...,an } una base ordinata di W. Sia f : V W unapplicazione lineare. Siano mi,j K per i = 1, ..., m, j = 1, ..., n, cos` deniti: m f (pj ) = mi,j ai
i=1

Si denisce matrice associata a f nelle basi ordinate P ed A, e si denota MA,P (f), la matrice m n cos` denita: (MA,P (f ))i,j = mi,j ai ISOMORFISMI E MATRICE ASSOCIATA: Sia v V e sia x = P (v), dove P ` lisomorsmo che associa a v ln-upla delle coordinate di v rispetto e a P. Allora il seguente diagramma ` commutativo: e

11

PROPRIETA DELLA MATRICE ASSOCIATA: Siano V,W,U tre spazi vettoriali su un campo K di dimensione nita e siano P ,B, A basi ordinate rispettivamente di V, W, U. Siano f : V W g: W U due applicazioni lineari. Allora: MA,P (g f ) = MA,B (g) MB,P (f ) Siano V e W due spazi vettoriali sullo stesso campo e siano P e P due basi di V e A e A due basi di W. Sia f : V W unapplicazione lineare. Allora: MA,P (f ) = MA,A (IW ) MA,P (f ) MP,P (IV ) Sia V uno spazio vettoriale su un campo K di dimensione nita n e siano B e B due basi ordinate. Allora: MB,B (IV ) = MB,B (IV )1

12

Determinante e rango
RANGO: Sia A M(m n, K). Si denisce rango per righe di A la dimensione del sottospazio di K n generato dalle righe di A: rkr (A) = dim( A(1) ,...,A(m) ) Si denisce rango per colonne di A la dimensione del sottospazio di K m generato dalle colonne di A: rkc (A) = dim( A(1) ,...,A(nm) ) PROPRIETA DEL RANGO: Il rango per righe ` uguale al rango per colonne e Il rango non cambia facendo operazioni elementari di riga o di colonne Il rango di una matrice ridotta a scalini ` uguale al numero di scalini e dim(Ker(fA )) = n - rk(A) dim(Im(fA )) = rk(A) Sia A M(m n, K). Allora rk(A) min{m,n} Se A e B possono essere moltiplicate rk(AB) min{rk(A),rk(B)} Siano A e C invertibili e tali che i prodotti AB e BC siano leciti rk(AB) = rk(B) = rk(BC) ROUCHE-CAPELLI: Sia A M(m n, K) e sia b K m . Il sistema lineare Ax = b ha soluzione se e solo se: rk(A) = rk(A|b) MULTILINEARITA: Una funzione D: M(n n, K) K si dice una funzione multilineare nelle righe se vale seguente propriet`: a A M(m n, K) tale che A(k) = v + w (, K) si ha: D(A) = D(A) + D(A) dove A, A sono le matrici n n tali che i = k A(i) = A(i) = A , (i) A(k) = v e A = w (k) Analogamente si denisce la multilinearit` nelle colonne. a ALTERNANZA: Una funzione D: M(n n, K) K si dice alternante delle righe se D(A) = 0 per qualsiasi A M(m n, K) con due righe uguali. Analogamente si denisce lalternanza delle colonne.
13

MULTILINEARITA E ALTERNANZA: Sia D: M(n n, K) K una funzione multilineare nelle righe (valgono teo remi analoghi per le colonne). Sia A M(n n, K) una matrice ottenuta da A scambiando due righe. Allora: Se D ` alternante nelle righe = D(A) = - D(A), e Se D(A) = - D(A) e 1K + 1K = 0K = D ` alternante nelle righe. e Se D ` alternante nelle righe e D(I) = 1 e = D ` invariante per operazioni elementari di riga di tipo III e se A ` una matrice con una riga nulla, allora D(A) = 0 e se A ` una matrice diagonale, D(A) ` il prodotto degli elementi sulla e e diagonale. Esiste una sola funzione D multilineare e alternante nelle righe che valga 1 sullidentit`: il determinante. a DETERMINANTE: Si denisce detc : M(n n, K) K (determinante sviluppato per una colonna) nel modo seguente. Sia A M(m n, K): Se n = 1 e quindi A = (a) per un certo a K, si denisce detc (A) = a Sia n 2. Sia j {1, ..., n}. Deniamo: det (A) =
c n i=1

(-1)i+j ai,j (A ) i,j

dove A ` la matrice ottenuta da A togliendo la riga i-esima e la colonna i,j e j-esima. Si denisce detr : M(n n, K) K (determinante sviluppato per una riga) nel modo seguente. Sia A M(m n, K): Se n = 1 e quindi A = (a) per un certo a K, si denisce detr (A) = a Sia n 2. Sia i {1, ..., n}. Deniamo: det (A) =
c n j=1

(-1)i+j ai,j (A ) i,j

14

PROPRIETA DEL DETERMINANTE: A,B M(m n, K): detr (A) = detc (A) := det(A) Il determinante ` lunica funzione multilineare e alternante nelle righe e e nelle colonne che valga 1 sullidentit`. a Il determinante ` indipendente dalla riga/colonna scelta per lo sviluppo. e Il determinante cambia di segno se scambio due righe/colonne. Sommando ad una riga un multiplo di unaltra riga il determinante non cambia. Il determinante ` zero sulle matrici con una riga nulla. e t det(A) = det( A) det(AB) = det(A)det(B) Il determinante di una matrice triangolare ` il prodotto degli elementi e sulla diagonale. ( ) A D det = det(A)det(C) 0 C A M(n n, K), D M(n m, K), C M(m m, K). 1 Se A ` invertibile det(A1 ) = e det(A)

DETERMINANTE, RANGO E MATRICI INVERTIBILI: Sia A M(n n, K): A GL(n, K) rk(A) = n det(A) = 0 CRITERIO DEI MINORI ORLATI: Sia A M(m n, K). Allora rk(A) ` k se e solo se esite una sottomatrice k k con determinante diverso da 0 e e tutte le sottomatrici (k + 1) (k + 1) contenenti tale sottomatrice hanno determinante uguale a 0. COFATTORE E SUE PROPRIETA: Sia A M(n n, K). Il cofattore di A ` la matrice C cos` denita: e Ci,j = (1)i+j det(A ) i,j Propriet`: a At C = t CA = det(A)In La matrice inversa di A, ovvero A1 pu` essere cos` costruita: o (A )i,j =
1

(1)i+j det(A ) j,i det(A)

Cj,i det(A)

15

SIGNIFICATO GEOMETRICO DEL DETERMINANTE: I: Sia A una matrcice reale di ordine 2. Siano r1 e r2 le colonne di tale matrice. Il valore assoluto del determinante di A ` uguale allarea del paralleloe gramma di vertici (0,0), r1 , r2 , r1 + r2 e al doppio dellarea del triangolo di vertici (0,0), r1 , r2 . Analogamente, sia B una matrice reale di ordine 3. Siano r1 , r2 , r3 le colonne di tale matrice. Il valore assoluto del determinante di B ` uguale al volume del parallelee 3 pipedo di R di vertici (0,0,0), r1 , r2 , r3 , r1 + r2 , r2 + r3 , r3 + r1 , r1 + r2 + r3 e a 6 volte il volume del tetraedro di vertici (0,0,0), r1 , r2 , r3 . II: Interpretando la matrice quadrata A di ordine n come trasformazione lineare di uno spazio vettoriale ad n dimensioni, il valore assoluto di det(A) ` il fattore con cui vengono modicati i volumi degli oggetti contenuti e nello spazio. Se ` diverso da zero, il segno del determinante indica inoltre e se la trasformazione A preserva o cambia lorientazione dello spazio rispetto agli assi di riferimento.

16

Autovettori, autovalori, diagonalizzabilit a


AUTOVETTORE, AUTOVALORE, SPETTRO Sia V uno spazio vettoriale di dimensione n su un campo K e f : V V unapplicazione lineare. Un vettore v V si dice autovettore di f se diverso da 0 e se esiste e K tale che: f (v) = v detto autovalore di f. Linsieme degli autovalori di f detto spettro. e e Autovettori e autovalori di una matrice quadrata A M(m n, K) sono per denizione autovalori ed autovettori di fA . Sia n la dimensione di V e B una sua base. Allora v un autovettore per e f se e solo se, detta x ln-upla delle coordinate di v rispetto a B, x ` e unautovettore di MB,B (f). MATRICI SIMILI Due matrici A e B si dicono simili se esiste C invertibile tale che: A = C 1 BC POLINOMIO CARATTERISTICO Sia A M(n n, K). Il polinomio caratteristico di A : e pA (t) := det(A - tI) Il polinomio caratteristico di f : e pA (t) := det(MB,B (f) - tI) Dove I lidentit n n e B una qualsiasi base di V. e a Propriet: a Il polinomio caratteristico non dipende dalla base scelta. Due matrici simili hanno lo stesso polinomio caratteristico. K autovalore di f se e solo se radice del polinomio caratteristico. e e Il polinomio caratteristico di f : V V, con n:=dim(V), ha grado n. Il coeciente del termine di grado massimo del polinomio caratteristico 1. e

17

AUTOSPAZIO DI f RELATIVO A : Linsieme degli autovettori di f con autovalore detto autospazio di f relativo a e coincide, unito al e vettore 0 con Ker(f - I) ed quindi un sottospazio vettoriale di V. e MOLTEPLICITA ALGEBRICA E GEOMETRICA: La dimensione di Ker(f - I) si dice molteplicit geometrica di e si indica con mg (). a La molteplicit di come radice del polinomio caratteristico di f (cio il a e s massimo s tale che (t - ) divide pf ) si dice molteplicit algebrica di f e a si indica con ma (). 1 mg () ma () Se MB,B (f) diagonale, allora sulla diagonale appaiono gli autovalori di f e e detto un qualunque autovalore di f, mg () = ma ()

DIAGONALIZZABILITA: f si dice diagonalizzabile se esiste una base di V: fatta di autovettori per f o, equivalentemente, tale che MB,B (f) sia diagonale. Una matrice quadrata A si dice diagonalizzabile se fA diagonalizzabile, e ovvero se A simile a una matrice diagonale. e MULTIPLI DI AUTOVETTORI: Se v unautovettore per f di autoe valore , allora anche un multiplo diverso da 0 di v autovettore per f di e autovalore . AUTOVETTORI INDIPENDENTI: Siano v1 ,......, vk autovettori di f corrispondenti ad autovalori distinti. Allora v1 ,......, vk sono linearmente indipendenti. CRITERIO DI DIAGONALIZZABILITA: Lapplicazione f diagonae lizzabile se e solo se il polinomio caratteristico di f si fattorizza completamente in fattori di grado 1 a coecienti in K e per ogni autovalore di f mg () = ma () TEOREMA FONDAMENTALE DELLALGEBRA: Ogni polinomio di grado n ammette n radici in C.

18

Forme bilineari

FORMA BILINEARE: Sia V uno spazio vettoriale su un campo K. Unapplicazione b: V V K si dice bilineare se v,w,u V, , K: 1) b(v + w, u) = b(v,u) + b(w,u) 2) b(u,v + w) = b(u,v) + b(u,w) b si dice simmetrica se: b(v,w) = b(w,u) v,w V. Propriet`: b ` simmetrica se e solo se MB (b) ` simmetrica. a e e DEFINITA POSITIVA E NEGATIVA: Sia V uno spazio vettoriale su R e sia b: V V R una forma bilineare: Si dice denita positiva se b(v, v) > 0 v V, v = 0. Si dice denita negativa se b(v, v) < 0 v V, v = 0. Si dice sedenita positiva se b(v, v) 0 v V. Si dice sedenita negativa se b(v, v) 0 v V. Nota: v V b(0V , v) = b(v,0v ) = 0K MATRICE ASSOCIATA: Sia V uno spazio vettoriale di dimensione nita su un campo K e sia b : V V K una forma bilineare. Sia B = {v1 ,...,vn } una base di V su K. Si denisce matrice associata a b nella base B la matrice n n il cui coeciente i,j `: e b(vi ,vj ) i,j {1,...,n}. Essa si denota MB (b) Propriet`: Siano x e y rispettivamente le n-uple dei coecienti di v e w a rispetto a B: b(v,w) = t xMB (b)y

19

FORMULA DI CAMBIO DI BASE: Sia V uno spazio vettoriale su un campo K di dimensione nita e sia b: V V K una forma bilineare. Siano B = {v1 ,...,vn } e B = {w1 ,...,wn } due basi di V su K. Allora: MB (b) = t MB,B (IV ) MB (b) MB,B (IV ) ORTOGONALE: Sia V uno spazio vettoriale su un campo K e sia b una forma bilineare simmetrica. Sia W un sottospazio vettoriale di V . Si denisce lortogonale di W (rispetto a b): W = {v V | b(v,w) = 0 w W} Propriet`: W ` un sottospazio vettoriale di V. a e ISOTROPO: Sia V uno spazio vettoriale su un campo K. Sia b una forma bilineare simmetrica su V. Un vettore v V si dice isotropo per b se: b(v,v) = 0 TEOREMI DI GRAM-SCHMIDT: I: Sia V uno spazio vettoriale su R di dimensione n. Sia b una forma bilineare simmetrica e denita positiva su V. Allora esiste una base di V ortonormale per b, cio` una base B = {v1 ,...,vn } di V tale che: e MB (b) = In II: Sia V uno spazio vettoriale di dimensione n, su un campo K tale che 1k + 1k = 0. Sia b una forma bilineare simmetrica su V. Allora esiste una base ortogonale per V, cio` una base B = {v1 ,...,vn } tale che: e MB (b) ` diagonale e III: Sia V uno spazio vettoriale su R di dimensione nita e sia b: V V R una forma bilineare simmetrica. Allora esiste una base B di V tale che: MB (b) ` diagonale con gli elementi sulla diagonale appartenenti a {0,1,-1} e RANGO E SEGNATURA: Sia V uno spazio vettoriale su R di dimensione nita e sia b: V V R una forma bilineare simmetrica. Si denisce rango di b il rango di MB (b) per una qualsiasi base B Sia B una base di V tale che MB (b) ` diagonale con gli elementi della diagonale e appartenenti a {0,1,-1}. Il numero p dei +1 si dice positivit` di b a Il numero dei -1 si dice negativit` di b. a La coppia (p, ) si dice segnatura. La somma di positivit` e negativit` ` uguale al rango. a ae
20

PROPRIETA DELLA SEGNATURA: Sia V uno spazio vettoriale su R di dimensione nita n e sia b: V V K una forma bilineare simmetrica: La segnatura di b non dipende dalla base scelta. (Teorema di Inerzia) Sia MB (b) la matrice associata ad una forma bilineare. Il segno del determinante di MB (b) non varia al variare della base B. det(MB (b)) < 0 ` dispari. e det(MB (b)) > 0 ` pari. e Sia (p,) la segnatura di b. Allora: b ` denita positiva (p,) = (n,0) e b ` denita negativa (p,) = (0,n) e b ` semidenita positiva = 0 e b ` semidenita negativa p = 0 e Sia B = {v1 ,...,vk ,vk+1 ,...,vn } una base di V tale che: ( ) R 0 MB (b) = 0 S con R M(k k, R) e S M((n-k) (n-k), R) Sia (p,) la segnatura di b|v1 ,...,vk e sia (p,) la segnatura di b|vk+1 ,...,vnk Allora: (p,) = (p,) + (p,) CRITERIO DEI MINORI PRINCIPALI: Sia A M(N n, K). Allora A ` denita positiva se e solo se per qualsiasi i da 1 a n il determinante della e sottomatrice di A formata dalle prime i righe e i colonne ` positivo. e FORME QUADRATICHE: Sia V uno spazio vettoriale su un campo K. Sia b: V V K una forma bilineare simmetrica. Si dice forma quadratica associata a b lapplicazione q: V K cos` denita: q(v) := b(v,v) v V.

Propriet`: Fissata una base nita B di V la forma quadratica si pu` esprimere a o come polinomio di grado 2 nelle coordinate rispetto alla base: sia x ln-upla delle coordinate di V rispetto a B; allora: q(v) = b(v,v) = t xMB (b)x = xi xj MB (b)i,j
i,j=1,...,n

21

che ` un polinomio omogeneo di grado 2 in x1 ,...,xn e FORMA BILINEARE SIMM. E FORMA QUADRATICA: Sia V uno spazio vettoriale su un campo K in cui 1K + 1K = 0. Siano v,w V. Allora, b(v,w) = q(v + w) q(v, v) q(w, w) 2

IL METODO BABILONESE: Sia P(x1 ,...,xn ) un polinomio omogeneo di grado 2 a coecienti in un campo K tale che 1K + 1K = 0. Cambiando opportunamente coordinate, (con sostituzioni di tipo lineare), si pu` trasforo mare P in un polinomio che sia una combinazione lineare di quadrati nelle incognite, utilizzando i prodotti notevoli: (a + b)2 - b2 = a2 + 2ab (a - b)(a + b) = a2 - b2 a,b K a,b K

Il metodo babilonese ` utile per calcolare la segnatura di forme bilineari. e AUTOVALORI DI MATRICI SIMMETRICHE: Sia A M(n n, K) simmetrica. Allora il polinomio caratteristico di A ` completamente fattorize zabile in fattori di grado 1 a coecienti reali (in altre parole tutte le radici complesse del polinomio caratteristico di A, cio` tutti gli autovalori come plessi di A, sono numeri reali). TEOREMA SPETTRALE: Sia A M(n n, R) simmetrica. Allora A ` e ortogonalmente simile ad una matrice diagonale reale, cio` esiste una matrice e P ortogonale tale che: P 1 AP (che ` uguale a t P AP ) ` diagonale. e e APPLICAZIONE DEL TEOREMA SPETTRALE: Il teorema spettrale ` utile per calcolare la segnatura di forme bilineari simmetriche. Infatti, e grazie ad esso possiamo aermare che calcolare la segnatura di MB (b) equivale a contare il numero dei suoi autovalori positivi e di quelli negativi.

22

Forme hermitiane, matrici hermitiane, normali, unitarie

MATRICE HERMITIANA: Sia V uno spazio vettoriale su C. Una forma hermitiana (o prodotto hermitiano) su V ` una applicazione e h: V V C tale che: 1) h(v,w) = h(w, v) v,w V 2) h(v + u,w) = h(v,w) + h(u,w) u,v,w V , C (C -lineare nel primo argomento) Propriet` C-lineare nel secondo argomento: a u,v,w V , C h(w,v + u) = h(w,v) + h(w,u) MATRICE HERMITIANA, UNITARIA, NORMALE: Sia H M(n n, K). Sia H = t H. Allora: H si dice hermitiana se H = H H si dice unitaria se HH = H H = I H si dice normale se HH = H H Propriet`: a H hermitiana = H normale H unitaria = H normale Se H M(n n, R), allora H ` hermitiana H ` simmetrica e e Se H M(n n, R), allora H ` unitaria H ` ortogonale. e e FORME E MATRICI HERMITIANE: Sia V uno spazio vettoriale su C di dimensione nita n. Sia B = {v1 ,...,vn } una sua base. Sia h: V V C una forma hermitiana su V. Sia H M(n n, C) la matrice associata a h cos` denita: Hi,j = h(vi ,vj ). Allora H ` hermitiana. In altre parole, la e matrice associata ad una forma hermitiana, ` hermitiana. e Inoltre, siano v,w due elementi di V. Sia x ln-upla delle coordinate di v rispetto a B e y ln-upla delle coordinate di w rispetto a B, allora: h(v,w) = t xHy

23

AUTOVALORI DI MATRICI HERMITIANE: Gli autovalori di matrici hermitiane a coecienti in C sono tutti reali. TEOREMA SPETTRALE PER MATRICI HERMITIANE: Sia A M(n n, C) hermitiana. Allora A ` unitariamente simile ad una e matrice diagonale reale, cio` esiste una matrice U unitaria tale che: e U 1 AU ` diagonale. e Inoltre: H ` normale H ` unitariamente simile ad una matrice diagonale e e H ` hermitiana H ` unitariamente simile ad una matrice diagonale e e reale H ` unitaria H ` unitariamente simile ad una matrice diagonale e e con coecienti sulla diagonale di norma 1.

24

Per eventuali errori, scrivete a: Andrea.dei92@gmail.com

25

Potrebbero piacerti anche