L insieme V è detto Spazio vettoriale sul campo K se è chiuso rispetto alla somma e prodotto per uno
scalare, essi verificano la proprità:
commutativa v+w=w+v
associtativa v+(w+u)=(v+w)+u
esiste l’elemento neutro per cui esiste un solo elemento w tale che per ogni v si ha che v+w=v e lo si indica
con 0
esistenza dell’opposto tale per cui v+w=0
associativa del prodotto (ab)v=b(av)
distributiva del prodotto rispetto alla somma si vettori a(v+w)=av+aw
distributiva del prodotto rispetto alla somma di scalari (a+b)v=av+bv
normalizzazione del prodotto con l’unità v=1v
propietà di annullamento av se e solo se a=0 o v=0
propeità di cancellazione v+w=v+u w=u, av=aw ,av=bv a=b
combinazione lineare di alcuni vettori v1…vk appartenenti a V l’espressione
il vettore w è combinazione lineare dei k vettori v1..vk se esistono a1…ak scalari tali che w può essere scritto
come a1v1….akvk
I vettori v1..vk si dicono linearmente indipendenti se esistono k sclari per cui a1v1…akvk=0 se a1, … ak sono
tutti nulli.
I vettori v1..vl appartenti a V si dicono lin. Dip se esistono k sclari per cui a1v1….akvk=0 con almeno un ai
diverso da 0
Dati v1..vk vettori definiamo span dei seguenti vettori l’inseme delle combinazioni lineari di questi ultimi
dove v1..vk prendono il nome di generatori
Sia V uno spazio vettoriale un inisme di generatiri che siano linearmente indipendeti è detto base
Se B è una base di V allora ogni vettore di V può essere espresso in uno e uno solo modo come
combinazione lineare degli elementi di B
Sia un v1..vn insieme di elementi di V(spazio vettoriale), preso r intero positivo r<=n, allora diremo che v1..vr
è contenuto di v1..vn ed è un sottoinsieme massimale di elementi indipendenti se i vettori v1…vr sono lin.
Inidp e inoltre se per ogni j con r<j<=n si ha che i vettori v1…vrvj sono lin dip.
Sia V lo span di v1..vn se v1…vr contenuto in v1…vn è un sottoinsieme massimale di elementi indipendenti
allora v1..vr è una base di V
Sia V uno spazio vettoriale Sia B (base) v1..vr , siano w1..wn n elementi di V con n>r allora i wi sono lin dip.
Sia V uno spazio vett, B(base)=v1…vr e W(base) w1…ws, allora r=s
Sia V uno spazio vettoriale si dice che V ha dimensione r se una qualsiasi base di V è costituita da r elementi
se dim{0}=0
Sia V uno sapzio vettoriale di dimensione n e siano v1…vn vettori linearmente indipendnenti allora v1…vn
costituiscono una base di V
Sia V uno spazio di dim=n siano v1..vr con r<n linearmente indip, allora è possibili completare con vr+1…vn
vettori tali per cui v1…vr+vr+1…vn sono base per V
Sottospazio vettoriale: Dato lo stapzio vettoriale V un sosuo sottoinsieme è detto sottospazio se npn è vuoto
se è chiuso rispetto alla somma tra vettori e al prodotto per uno sclare
Se W è un sottospazio allora o apprtiente
Se i vettori v1..vk appartengono allo spazio vettoriale V lo span è un sottospazio vett di V
Sia V uno spazio vettoriale con dimV=n Sia W un sottospazio non composto dal solo 0v allora W ha una base
e dimW<=n
Siano V uno spazio vett di dim=n e W un sottospazio di dim=n allora v e w coincidono
Siano V uno spazio vett, e U e W sottospazi allora U intersecato W oltre ad essere sottonisime è sottospazio
e anche il sottoinisme U+W è sottopaszio di V
Dato un spazio vettoriale V e due sottospazi U e W se per ogni v appartente a U+W la decomposizione di
v=w+u è unica allora si dice che U+W è somma diretta
Sia V uno spazio vettoriale e U e W due sottospazi di V allora è somma diretta se e solo se U intersecato W è
uguale a vet nullo.
Sia V uno spazio vettoriale con dimV=n sia U un sottospazio di V non costituito dal solo vettore nullo allora
esiste un sottospazio W tale che U+W somma diretta (lin indip)
Formula di grassmann: Dato uno spazio vettoriale V di dim finita e due sottospazi U e W la
dim(U+W)=dim(U)+dim(W)-dim(uintersecatoW)
Matrice una tabella composta da n*m numeri
Matrici quadrate possono essere simmetriche asismmetriche diagonali tiangolari inf e sup
Matrice a scala se il primo elelemnto non nullo di ciascuna riga(pivot) si trova più a destra di quello della
riga superiore e eventuali righe formate da 0ri si trovano in fondo
Date due matrici A e B appartenteti ENTRAMBE a M(n.m) si definisce somma la matirce C appartente a
M(n,m) che ha come elemento la rispettiva somma degli elementi corrispondeti in A e B
Prodotto per uno scalare data A appartenente a M(m,n) la matrice lamdaA è la matrice formata dagli
elementi di A ciascuno moltiplicato per lambda.
La somma di matrici gode delle proprità di uno spazio vettoriale
Sia A appartenenet a M(m,n) si dice trasposta AT la matrice appatenete ad M(n,m) in cui sono scambiate le
righe con le colonne di A. aij=bji
Prodotto tra matriciPer moltiplicare tra loro due matrici A e B occore che il numero di colonne della prima
sia uguale al numero di righe della seconda cosi facendo le due matric si dicono conformabili
Date due matrici conformabili definiamo C = AB appartenete a M(m,n) la matrice che ha per cij
Proprietà associativa, distributiva della somma , omogeneità rispetto al prodotto per un numero
Il prodotto delle trasposte di un due matrici è la trasposta del protto delle due trasposte in ordine inverso
E detta matrice identità (a n righe) la matriche quadrata n*n i cui elementi sulla diagonale (aii) sono tutti 1 e
tutti gli altri elementi sono 0
La matirce quadrata A si dice invertibile se esiste una matrice B tale per cui AB=BA=I e B si dice inversa
L’inversa se esiste è UNICA
Se A è invertibile anche At è invertibile inoltre l’inversa della trasposta è la trasposta dell’inversa
Se A B n*n sono enetrmabe invertibili anche il loro prodotto p invertibile inoltre l’inversa del prodotto è il
prodotto delle inverse a fattori scambiati
Operazioni di gauss le seguenti sommare a una riga il multiplo di un altrà riga e scambiare tra loro due righe
Megqualsiasi matrice può essere ridotta a scala attraverso il Meg in un numero finito di passaggi
Il numero e laposizione dei pivot della matrice ridotta a scala sono indipendenti dalla particolare riduzione
ottenuta
Il rango di una matrice rkA è il numero di pivot presenti successivamente ad un opportuna riduzione a scala
Per ogni matrice lo spazio riga e lo spazio colonna hanno le stesse dimensioni
E quindi rkA = rkAt
Determinante-> def opertaiva per mat 2*2
Minore il determinante di una qualsiasi sottomatrice quadrata di A
E’ detto minore complementare dell’elemento a ij di una matrice quadrata A il determinante ottenuto
eliminando la iesima riga e jesima colonna di A
E’ detto complemento algebrico (-1)^i+j * Minore
Teroema di laplace data A n*n per ogni i,j compresi tra 1 e n si ha ai1Ai1+….an1An1= colonne
Data una matrice n*n è detto determinante di A il valore ottenuto da una delle seguenti espressioni ai1
Se detA=0 SINGOLARE seno non singolare
Proprità del det allora:
Se ha una riga / colonna di 0 det=0
Scambaiando tra loro due righe il det cambia di segno
Se ha due righe uguali detA=0
Se una riga moltipklicta per uno scalare det è raccolgo lo sclare per det senza , idem per somma
Se ad una riga/colonna si aggiunge una combinazione lineare delle altre rig/colonne determiannte non
cambia
Se det(kA)=k^n detA
Se una riga è combinazione lineare delle altre det=0
Se a trinagolare detA= prdotto diago
Teorema di Bine siano A e B entrambe n*n
Det(AB)=detAdetB
Sia A una matrice n*n allora detADiverso da 0 se e solo se rango=n
Teorema sia M n*n se rkM=r allora si può estrarre una sottomatrice quadrata r*r con det diverso da 0
Ogni sottomatrice r+1 quadrata estratta ha determiante 0
Teroema di Kronecker: Condizione necessaria e sufficiente affinche M abbia rango r è che esista una
sottomatrice quadrata di ordine r con det diverso da 0 e che tutte le matrici ottenute orlando quest’ultima
abbiano det=0
La matrice A è invertibile se e solo se è non singolare
Se il sistema Ax=b ammette due solzuioni x1 e x2 allora ne è soluzione ogni vettore nella forma x=vx1+(1-
v)x2 quindi ha infinte soluzioni MAI SOLO DUE DISTINTE
Due sistemi Ax=b e Cx=d si dicono equivalenti se tutte le soluzioni del primo sono spluzioni anche del
secondoe viceversa
Sistema omogeneo quando il vettore dei termini noti è il vettore 0
Sia A appartenente a M(m,n) se rkA<n il sistema Ax=0 ammette soluzioni non banali se invece il rkA=n
ammatte unicmente la soluzione banale
Si chiama nucleo di una matrice l’insiem delle solzuioni ala sistema Ax=0
Sia A m*n allora kerA è un sottospazio vettoriale di R^n
Sia A m*n r=rkA allora dimKerA=n-r
Se Ax=b ammette x* come soluzione allora tutte e solo le solzuioni di Ax=b si possono scrivere nella forma
x*+x0 dove x0 appartiente al kerA.
Teorema di Rochè capelli: Siano A m*n, x n*1, b m*1 allora il sistema ammaette soluzione se e solo se
rk(A)=rk(A|b), posto rkA=r, se r=n allora il sistema ammette una e una sola solzuione se invece r<n ammette
infinte solzuioni dipendenti da n-r paramentri liberi
Teorema di cramer sia a n*n il sistema Ax=b ammette una e una solo soluzione per ogni b se e solo se A è
non singolare si ha che xj=detBj/detA dove Bj è la matrice che si ottiene dalla matrice A sostituendo il
vettore b alla jesima colonna di A
L’algoritmo di gauss jordan-> sfruttiamo la catena di sistemi equivalenti Ax=b MEGgo A^x=b^ Meggo
all’indietro Ix=x applicabile poi al calcolo dell’inevrsa
Siano V e W due spazi vettoriali la funzione V->W è detta trasformazione lineare o applicazione lineare se
verifica le seguenti proprietà per ogni v1,v2 appartenente a V si ha che F(v1+v2)=F(v1)+F(v2) e per ogni v
appartenete a V e per ogni alfa appartenenete a K si ha che F(alfav)=alfaF(v) posso unirle in una data una
trasformazione F:V->W è lineare se per ogni v1,v2 alfa1 alfa2 somma ugulae di la ok
Trasformazione lineare si dice iniettiva se per ogni v1,v2 appartente a V v1 diverso v2 se L(v1) diverso da
L(v2) invece si dice suriettiva se per ogni w appartentne a W esiste v appartenente V tale che L(v)=w
Se sia iniettiva che suriettiva biettiva
Data una trasf lin da V a W si dice ker(F) l insieme di tutti i vettori di v che hanno come immagine il vettore
nullo cioe kerF
Si dice Im(F9 l insieme dei vettori w apparteneti a W che sono immagine di almeno un elemento di V
ImF è un sottospazio vettoriale di W
KerF è un sottospazio vettoriale
La trasformazione è iniettiva se e solo se dimker=0
Teorema di nullità piu rango: Data una trasformazione lineare L:V.>W( con dimesione finita)
Dim(V)=dimIm+dimKer
Da questo teorema discendono se
dimV<dimW la trasformazione non può essere suriettiva
dimV>dimW non è sicuramente iniettiva
dimV=dimW è iniettiva se e solo se è sureittiva
Teorema di rappresentazione: dati due spazi vettoriali Ve W su K con dimV=n e dimW=m data la
trasformazione lineare da V a W fissate le basi Bv con n vettori e Bw con m vettori esiste un'unica matrice A
appartentente a m*n tale che L(v)=w allora Av=w la matrice si dice rappresentativa di L
Il nucleo della trasformazione lineare è formato da tutti e soli i vettori di V le cui coordinate nella base Bv
appartengono al nucleo di A
L’immagine della trasformazione linearwew è formata da tuttti e soli i vettori di W che appartengono allo
spazio colonna di A
Siano U V e W spazi vettoriali date le trasformazioni lineari L1:U->V e L2: V->W la loro composta L2 ° L1 a L2
metto dentro L1 fissate le opprotune basi AL2*AL1
Sia V uno spazio vettoriale di dimensione n supponiamo di avere 2 basi B e X preso il generico v
apparteneentne a V ci chiediamo che relazione sussite tra i termini a B e C esprimiamo ogni vettore della
base B in termini di quelli di X bj=c1ju1….cnjun
Posto Cda B a X = [cij] con i e j <=n quindi v(X)=Cv( nella base B) incolonno il vettore bj generico
Dato uno spazio vettoriale V su R è dettp prodotto scalare una regoale che permette di associare ad ogni
coppia di vettori uno sclaare denotato con v.W o parentesi <> e soddisfa la proprietà communitativa ,
distributiva rispetto alla somma, omogeneità rispetto al prodotto per uno scalare e positività norma
Uno spazio vettoriale du R in cui è definitop il prodotto scalare è detto euclideo
Norma o modulo di un vettore radice prod sclare
La distanza tra elelemnti di v è la norma della differenza tra v-w
In V spazio euclideo si definisce angolo compreso tra v e w il valore teta tra 0 e pi che dato prdotto scalre tra
v e w fratto norma di v per norma di w
Proiezione ortogonale nella direzione di w è prdotto scalare tra v e w fratto w scalare w tutto per w
Sia V una bse dello spazio euclideo si dice ortogonale se per ogni elelemnto della base prodotto scalre tra bi
e bj con i ej diversi =0
Se inoltre norma di bi =1 per ogni i allora si dice ortonormale
Metodo di orttogonalizzazione di gram smith Sia V uno spazio euclideo dati n vettori è possibile ricavareda
essi un insieme w1…wm tali che b = w1…wm è una base ortogonale pper lo span v1…vn Se i vettori v1..vn
sono lin indip allora m=n
Sia V uno spazio euclideo data una generica base v1..vn è possibile ricavare una se ortonormale w1…wn
SIA V uno spaio euclideo se w1…wh è base ortogonale per il sottospazio W esistono k vettori vh+1…vh+k tali
che tutti formano base ortogonale per V
Sia W un sottospazio di V l’insieme v appartente a V tale che <v,w>=0 per ogni w appartennte a W è detto W
perpendicolare cioè sottospazio perpepndicolare a W
Se B è orotognale il generico vettore v puo essere scirro come combinazione lineare dei vettori della base B
dove i coefficienti sono <v,bi>/<bi,bi> se orotonormale sotto 1questi sono detti coefficienti di fourirer
Sia W un generico sottospazio di V presa la base di W w1…wkorotonormale preso il generico vettorw v di V
diciamo che il vettore v pedice w = sommatoria rispetto a j del <v,wj>wj il vettore proiezione orotogonale di
v su W questultimo è l’elemento di W a minima distanza da v poi se a v-vw è la proiezione sul sottospazio W
perpepdnicpalre
La matrice si definisceo orotogonale se U tras per U o viceversaa = I
Se la matrice è orotogonale i vettori colonna sono tra loro orotogonale stesso pe rle rigghe
Se U e V sono ortogonali anche UV lo è
Se U è ortogonale il deterimanante di U è 1 o -1
Sia U una matricce orotogonale di ordine N
Sia A una matrice quadrata di ordine n se v diverso da 0 è un vettore per cui Av=kv allora v èeddetto
autevveotre e k autoivolare
Se lamda è autovalore allora il det di ( a-kI)=0
L espressione pa(k) = det(A-kI) è detta polinomio caratteristico di A e le radici sono i rispettivi autovalori
Per ogni atrice produttoria dei autoivoalri è detA e la traccia è somma autovalori
Se a è tr sup o inf o diagionale autovalori sono gli elelementi della diagonale
Autovettori associati a autovlaori distinti sono lin indip
Autospazio relativo a l ‘autovlaore lamda l insimee dei vettori v tali che av=lamda v
Quest’ultimo è sottospazio vettoriale di Rn
Dato l’autovalore lamda è detta molteplicità gemeotrica la dimensione del suo autospazio in simboli dim
Vlamda*
Moltelpicià algebrica l’ordine con cui lamda è radice del polinomio caratteristico
Per ogni autovalore 1<=mg<=ma
Le matrici A e B sono dette simili se esiste una matrice di passaggio invertibile tale che P-1AP=B
La relazione di similitudine è una relazione di equivalenza che verifica le proprietà:
riflessiva ogni matrice A e simile a se stessa
proprità simmetrica se A è simile a B quindi B è simile a A
propietà transitiva A simile B simile C a simile c
Se A e B sono simili allora pA(k)=pb(k)
La matrice A è diagonalizzabile se è simile alla matrice D cioè se esiste una matrice di passaggio P
Se A simile a D sulla diagonale di D compaiono gli autolvalori
La matrice è diagonalizzabile se e solo se possiede tutti autovalori regolari. In tal caso detta P la matirce
formata da na utovettori lineramenten indiepndenti si ha che P-1AP=D
Teorema spettrale Se A è reale e simmetrica alllora titti autovalori regolari e reali e tutti autovettori relativi
ad autovalori distinti sono tra loro perpendicolari
Se A è reale e simmetrica allora è senz’altro diagonalizzabile inoltre la matrice di passaggiopuò essere scelta
ortogonale Se A è reale e simmetrica eisste U tale che UtAU=D
Si chaiama forma quadratica nelle variabile x1..xn un qualsiasii polinomio omogeneo d secondo grado
Definita positiva se >0 per tutti i valor escluso lo 0 idem def neg
Semidef se >=0 per tuttti i valori escluso lo 0 e esiste un x* diverso da zero per cui la quadratica è 0
Indefinita se esiste un x* per cui>0 e un x** per cui <0
Il segno della forma quadratica dipende dal segno deegli autovalori della matrice Q
Se lamda >0 per ogni i allora positivia def idem con lamda<0
Se lamda>=0 semidef pos esiste un
Autovalori discordi indefinitia
Data una matrice A chiamaiamo minore di nord ovest di ordine k il determinate Ak della matrice quadrata di
ordine k ottenuta dalle prime k righe e colonne
Sia A una matrice quadrata glia autovalori di A sono tutti positivi se ogni minore di Nord ovest è positivo
Gli autovalori sono tutti negativi se ogni minore di nord ovest di ordine pari è positivo e ogni minore di nord
ovest di ordine dispari è negativo
Equazione differenziale un equazione funzionale cio in cui l incognita è una funzione che compare una o più
voltte
Ordine di un eq diffeenziale e il più alto ordine di derivazione in tale equazione copare
Si dice in forma normale se è resa esplicita rispetto alla derivata di ordine maggiore
Una funzione che verifica l equazione è detta integrale chiamaiamo intgrale generale linsieme idi tutte
lesolizone dell’equazine diffrenziale integrale particolare una singola soluzione
La coppia composta dall’equazione differenziale e da una condizione del tipo y(t0)y0 è detto problema di
cauchy
Un equaizone diffferenziale lineare del primo ordine è scritta y’+ay=f(t) dove f(t) è il termine noto e a(t) è il
coefficiente di y
Omogena associata la corrispondete con f(t)=0
Principio di sovrapposizione Date due equazioni differenziali line ari aventi lo stesso coefficiente a(t) se y1(t)
è solzuoone di E1 e y2t è sol di E2 allora y*=y1+y2 è soluzione dell ‘eq differenziale con f(t)1+f(t)2
Se y è soluzione di y’+a(t)y=f(t) anche Ky* è soluzione di y’+a(t)y=Kf(t)
Se y* è soluzione di y’+ay=0 anche tutte le funzioni del tipo Ky* sono soluzioni
Se y1 e y2 sono soluzioni di y’+ay=0 anche Hy1+Ky2 sono soluzioni
Se y1 e y2 sono soluzioni di y’+ay=f(t) allora la funzione y1-y2 è soluzione di omogenea
L integrale generale di y’+ay=f(t) si ottiene sommando alla singola soluzione quella dell’omogenena
associata
Teroema di esistenza e unicità: Siano a(t) e f(t) due funzioni continue negli insiemi Da e Df e sia I il più
grande intervallo aperto contenenete t0 e contenuto in Da intersecato Df allora per ogni valore y0
appartennte a R il problema di Cauchy ammette una e una sola soluzione definita in tutto I
Euqaizoni omogenee se y=y(t) è soluzione per il principio di sovrapposizione lo sono anche ttute quelle della
forma cy(t).
Una soluzione è data da liebniz con l ‘esponenziale e ricerca inserendo svolgendo l’integrale unicità data da l
teo sopra citato
Euqaizoni complete la soluzione è data dalla somma dell’integrale generale dell’equazione omogenea
associta e una singola soluzione y*(t) dell’equazione
La tecnica è la variazione delle costanti arbitrarie sappiamo che la funzione Ce^-a(t) è soluzione
dell’equazione omogenea cerchiamo una soluzione del tipo C(t) e alla roba li ok,
Prolungabilità -> il teorema di esistenza e unicità garanatisce che la soluzione di un porblema di cauchy è
definita sull’intervallo comuna a a(t9 e f(t) puo capitare che si può estendere la soluzione / prolugnare in un
inetrevallo più ampio
Equazioni a variabili separabili y’=f(t)g(y)
Tre teoremi
Teorema di sola esistenza Dato il problema di cauchy se f è continua in un uìintorno di t0 e g è continua in
un intorno di y0 allora esiste almeno una soluzione y(t9 dell’equazione che soddisafa il precedente
problema di cuachy in un intorno di t0
Teorema di esistenza e unictà in piccolo: Dato il prblema di cuachy se f è continua in un intorno di t0 e g e g’
sono continue in un intorno di y0 allora esiste una e una sola solzuione del problema di cauchy definita
nell’intorno di t0
Teorema di esistenza e unictà in grande Data l’equazione diff a vb separaibili se esistono un valore K e un
intervallo I = {a<=x<=b} tali che:
f è continua in [ab]
modulo di f(t)<=K per ogni t app all intervallo
g e g’ sono continue in tutto R
esiste un valore M tale per cui modulo g’<=M per ogni y appartente ai R
allora preso un qualisaisi punto (t0,y0) con t0 appartentne a I il probelma di cauchy ammette una e una solo
soluzione definita per t [ab[
ricerca sol in variabili separabili-> prima soluzioni costanti poi generiche integro protando di la fine
Euazioni di ordine sup al primo ove l’ordine dell’equazione è maggiore del primoe saminamo quelle del
secondo ordine y’’=f(y’,y,t)
Probelam di cauchy del secondo ordine, le soluzioni dipendono da due costanti quindi una condizione
necessaria in più nel problema di cauchy
Euzioni lineari a coeffcienti costanti di ordine n è una qulaisia ayn…..y=f(t) come nel caso del primo rodine
vale il principio di sovrapposizione quindi la sol sarà una particolare più quelle dell’omogeno associato
Equaizoni omogenee Eulero suggerisce ealla lamda t sostiutendo
Metodo di somiglianza permette di determinare l’integrale particolare dell’equazione comopleta nel caso
che il termine noto sia un esponenziale un polinomio una combinazione lin di seni e coseno o una somma o
prodotto di questi
Il metodo si base sul fatto che la y* sia dello stesso ypo di f(t) e che sia possibile determinare l’espressioe
semplicemnte aggiustando le costanti se è un esponenziale ft=aeallaht allora y*=Ae^hta è da determinare in
base all’equazione data se h è radice iesami del polinomio/eq carrrateristica moltiplico per t allai i numero
di malgebrica
Se ft è un polinomio y*=Antn… a meno che h=0 non è soluzione isiama dell polinomio caratteristico seno
moltiplico per t alla i
Se f(t) è conbinazione di seni e coseni a meno che alfa cioe vb nel seno e percio0+-alfai non sia radice iesima
del polinomio caratteristico seno moltiplico per t^i