Sei sulla pagina 1di 19

1

Richiami di Algebra lineare


Buona posizione

Denition.

un problema ben posto se in un certo insieme di denizione ha 1 ed 1 sola soluzione e questa dipende con continuit dai dati iniziali. Ps: Continuit vuol dire che al variare dell'input l'output non pu variare estremamente.

Denition.
x x

Numero di condizionamento relativo k

d d
Condizionamento

Denition.
1.1

K(A) = A

A1

Matrici

A Rmn

Denition.
AT

Matrice trasposta

AT A

si ottiene scambiando righe e colonne di Matrice aggiunta

Denition.
AH

AH A
e coniugando ogni elemento. Per elementi reali o

si ottiene scambiando righe e colonne di Prodotto scalare tra vettori

AH = AT

Denition. Denition.
Una matrice

< x, y >

(x, y)

< x, y >= xT y
Matrice invertibile

invertibile se

A1

tc

AA1 = A1 A = I .

Tutte queste condizioni sono equivalenti: matrice

invertibile, matrice a rango pieno, righe e colonne linearmente indipendenti,

det(A) = 0.

Denition.
A A

Matrice simmetrica/hermitiana

simmetrica hermitiana

A = AT A = AH

con con

A Rn,n A Cn,n

Propriet

(AB)T = B T AT (AB)1 = B 1 A1 (AT )1 = (A1 )T = AT


1

Denition.
Una matrice

Matrice denita positiva

quadrata denita positiva se

xT Ax > 0 x Rn \{0}.

Nei complessi vale con

xH .

Condizione necessaria e suciente: tutti gli autovolari sono positivi.

Theorem. Data una matrice A quadrata simmetrica (o hermitiana): Denition.


Matrice unitaria (ortogonale in

A ha autovalori reali ed esiste una base di autovettori l.i. per Rn (Cn ). Se A anche denita positiva i suoi autovalori sono positivi > 0. Rnn )

AH = A1 (AT = A1 )

Theorem. Sia Q unitaria: |det(Q)| = 1 e Denition. Matrice di permutazione Denition.


A

Qx

= x

P una matrice di pertmutazione se si pu ottenere permutando le righe della matrice Matrice riducibile

I = P T P = I

riducibile se

permutazione

t.c.

P AP T =
dove

B11 0

B12 B22
(

Dal sistema

Ax = b

si pu scrivere

By = c

B = P AP T , y = P x, c = P b

B11 0

B12 B22

y1 y2

c1 c2

) e

risolvere il sistema:

B11 y1 + B12 y2 = c1 B22 y2 = c2

Dimostrazione. Ax = b = P Ax = P b = P AP T P x = P b = By = c
Inoltre

det(B) = det(B11 )det(B22 )

det(B I) = det(B11 I)det(B22 I).

Theorem.
connesso.

A irriducibile il grafo orientato dove V = {i} {j}i, j e (i, j) E aij = 0 fortemente


Matrice a diagonale dominate per riga/colonna

Denition.

n
Una matrice quadrata

a diagonale dominante per riga (colonna) se

|aii | j=1 j=i

|aij |.

E' strettamente a

diagonale dominante se vale

>

invece di

Denition.

indice vale il 

A irriducibile > .

a diagonale dominante se

irriducibile ed a diagonale dominante e per almeno un

Theorem. Se A strettamente a diagonale dominante o irriducibile a diagonale dominante allora non singolare.
2

1.2

Autovalori ed autovettori
Autovalori ed autovettori

Denition.
Ax = x
con

x=0

dove

autovalore e

autovettore associato a

. (A k I)x = 0.

Per determinare autovalori:

det(A I) = 0. (A)

Per determinare autovettori:

Spettro = insieme degli autovalori. Raggio spettrale =

(A) = maxi |i |

Propriet:

det(A) =

n j=1

(AT ) = (A)
1 1 (A1 ) = { 1 , 2 , ..., 1 } n
Autovalori distinti

= autovettori

indipendenti.

Molteplicit algebrica: molteplicit delle radici del polinomio caratteristico. Molteplicit geometrica: dimensione dell'autospazio generato: numero degli autovettori indipendenti.

1 MG MA N
Una matrice difettiva se

MG < MA

Norme

Una norma un funzione che soddisfa gli assiomi di norma:

Positivit:

x 0

x = 0 x = 0

Omogeneit:

x = || x x+y x + y

Disuguaglianza triangolare:

2.0.1 Norme vettoriali


x

= max |xi | x

|xi | x

xT x =

x2 i

2.0.2 Norme matriciali


Una norma matriciale deve essere anche:

Submoltiplicativa: Consistente: se

AB A
b

B
a dove

Ax A

A =
i,j

ae

b sono due norme vettoriali qualsiasi.

Norma di Frobenius:

|ai,j |2

2.0.3 Norme indotte


|||A||| = sup
x=0

Ax = max Ax x x =1 |||I||| = 1. perch I F = n = 1.

Ogni norma indotta submoltriplicativa. Frobenius non una norma indotta

= max

i=1..m

|aij |
j=1 m

(il massimo tra la somma degli elementi delle righe in modulo)

A A

= max =

j=1..n

|aij |
i=1

(il massimo tra la somma degli elementi delle colonne in modulo)

(AT A)

(oppure

AH A

nei complessi)

Theorem. Se A simmetrica ad elementi reali allora


Dim:
x || ||x|| ||

= (A). Deriva da (A2 ) = ((A))2 .

Data una norma consistente ed una matrice A quadrata allora (A) A .

= Ax ||A|| ||x|| ||A|| ||A||

||x|| = ||Ax||

(A)

Gershgorin
Cerchio riga

Denition.

Ri

(Cerchio colonna

Cj )

Ri = {z C : |z aii |
j=1
j=i

|aij |}

(l'elemento sulla diagonale il centro, la somma dei moduli degli altri elementi

sulla riga il raggio).

Theorem. 1 di Gershgorin: (A) n Ri i=1 n n Corollary. (A) (i=1 Ri ) (j=1 Cj )


autovalori e S2 i restanti n k.

Theorem. 2 di Gershgorin: se

S1 = k Ri e S2 = n i=1 i=k+1 Ri e S1 S2 = = S1 contiene esattamente k

3 di Gershgorin: Sia A irriducibile. Se un autovalore appartiene alla frontiera dell'unione dei cerchi (riga/colonna) allora appartiene alla frontiera di ciascun cerchio.

Memorizzazione dei numeri


Errore assoluto:

Denition.

= |a a |.

Errore relativo:

|a| .

Proposition. Se n = a ha circa n cifre che coincidono con a. Denition. Insieme dei numeri macchina: F(, t, L, U ) = {0} {x R : x = sgn(x) m p }.
Con

base,

numero massimo di cifre della mantissa,

esponente della base,

L p U.

Denition.
1. 2. 3. 4.

fl : R F

x F = f l(x) = x |x| < L1 = f l(x) = 0 |x| U = f l(x) =? |x| F


e non soddisfa 2 e 3

= f l(x)
t

approssima

(l'errore commesso si chiama errore inerente).

(a) Troncamento: le cifre della mantissa in eccesso non vengono memorizzate. Errore: unerrore dell'ordine di

pt

(si comette

per le cifre della mantissa troncate, tale errore va moltiplicato per l'espontente p t+1 memorizzato: ) ( l'erore relativo diviso per una minorazione dell'ordine di grandezza del p1 numero eettovo: ). t =

(b) Arrotondamento:

t se t < 1 2 . t + 1 set 1 2

Errore:

1 pt , 1 t+1 2 2

Denition. Precisione di macchina u = 1 t+1 2 y x Example. Errore di cancellazione: x+y = x+y x + x+y y .
x+y .
x+y

Se x e y sono vicini in modulo ma opposti in segno

= |(x + y) x(1 + x ) y(1 + y )| = |xx + yy |


|xx +yy | |x+y| |x| |y| = |x | |x+y| + |y | |x+y|

x+y =

Denition. Example.
5

Denormalizzazione processo che permette di evitare l'errore di cancellazione, scrivendo formule equiv-

alenti che non fanno uso di somme pericolose.

x+

x=

x+

x++x x++ x

x++ x

Approssimazione e calcolo di sistemi lineari


Ax = b
e una perturbazione sui termini noti si ha il sitema perturbato

Considerando il sistema esatto

A(x + x) =

b + b.
x x

A1
K(A)

b b

che equivale a

x K(A)b .

Dimostrazione.

A(x + x) = b + b Ax = b

= Ax = b = x = A1 b = ||x|| = ||A1 b|| = ||x|| ||A1 || ||b||

(1)

Ax = b = ||Ax|| = ||b|| = ||A|| ||x|| ||b|| = ||x||

||b|| 1 ||A|| = ||A|| ||x|| ||b||

(2)

(1)

(2) =

||x|| ||b|| ||A1 || ||A|| ||x|| ||b||

Considerando invece una perturbazione anche su Se

A:
A A

1 A1

allora vale

x K(A) x 1 K(A)

A b + ), A b

che equivale a

K(A) 1K(A)A

(A + b ).

Sistemi lineari
T

Per sistemi diagonali o triangolari la soluzione immedita. Per sistemi ortogonali (A

= A1 ) x = AT b.

NB: Applicando operazioni elementari sulla matrice (e sul vettore dei t.n) il sistema rimane equivalente. Il determinante il prodotto della diagonale della matrice triangolare che si ottiene con Gauss solo se non si sono eettuate moltiplicazioni sulle righe. Ogni scambio di riga inverte il segno del determinante. In generale le operazioni elementari modicano gli autovalori.
Per migliorare la stabilit dell'algoritmo di Gauss possibile utilizzare:

Pivoting parziale: ad ogni passo seleziono la riga con il coeciente maggiore in modulo ed eventualmente eettuo uno scambio. Pivoting totale: ad ogni passo seleziono l'elemento (riga e colonna) con il coeciente maggiore ed eettuo i relativi scambi rinominando le variabili.

Denition.

Errore algoritmico: l'errore relativo commesso dall'algoritmo.

Errore inerente: errore commesso per la memorizzazione.

(A + F )x = b.
Se

Theorem. di Wilkinson: Gauss sul sistema


n2 t 1 = F

Ax = b equivalente a risolvere esattamente il sistema perturbato

2g(n) t (n + 1)3 A

con

g(n) =

2n1 1 1 1 1 1 n 2 (2 3 2 4 3 ... n n1 ) 2
x

se pivoting parziale se pivoting totale

x =
6.1

x x

A1 F 1 A1 F

Fattorizzazione LU

Dopo l'esecuzione dell'Algoritmo di Gauss su

si ottiene gratis la fattorizzazione

A = LU .

Scrivendo, negli stessa posizione degli zeri, il moltiplicatore usato per azzerare l'elemento (facendo la triangolare inferiore che contiene i moltiplicatori e che ha tutti gli elementi sulla diagonale a 1.

dierenza) si

ottengono le matrici L ed U. U la matrice triangolare superiore che contiene il risultato di Gauss. L la matrice

Example.

u11 A = l21 l31

u12 u22 l32

u13 u11 u23 U = 0 u33 0

u12 u22 0

u13 1 u23 L = l21 u33 l31

0 1 l32

0 0 1 Lyj = bj U xj = yj

Per risolvere pi sistemi con la stessa matrice:

Axj = bj = L U xj = bj =
yj

Per calcolare l'inversa di A (con

I = [e1 |e2 |...|en ]): Axi = ei i = 1..n P A = LU


con

Se per Gauss viene usato il pivoting parziale:

matrice di permutazione.

6.2
Se

Fattorizzazione di Cholesky
simmetrica e denita positiva

= L : B = LLT

con

triangolare inferiore (elementi diagonale

= 1).

6.3

Fattorizzazione QR

Per ogni matrice

esiste

Q, R

t.c.

A = QR

con

ortogonale e

triangolare superiore.

Problemi ai minimi quadrati


> n)
si pu cercare una soluzione quanto pi vicina possibile alla soluzione in

Per sistemi sovradeterminati (m senso classico (che non esiste).

r = Ax b

(resto)

= min Ax b n
xR

2 ( la distanza dalla soluzione in senso classico).

f (x) = (fx1 (x), fx2 (x), ..., fxn (x))T , AT A XLS = (AT A)1 AT
inversa generalizzata

poniamo il gradiente del resto = 0, si ottiene

(AT A)x = AT b.

una matrice: quadrata, a rango pieno, simmetrica denita positiva.

Usando la fattorizzazione di Cholesky:

AT A = LLT = L LT x = AT b =
y 1 xLS = R1 c1
e resto :

Ly = AT b y = LT x C = QT b
(matrici e vettori vengono

Usando la fattorizzazione divisi dopo

QR

su

si ha:

C2

2 2 con

righe). ( pi stabile)

Dimostrazione.

||Ax b||2 = ||QRx b||2 = ||Rx QT b||2 ora guardando al struttura di R si ha 2 2 2 R1 C1 T 2 T . Scriviamo ||R1 x Q b||2 . La struttura di Q b Ai ni della norma, C2 pu essere considerato 0 C2 2 2 separatamente (non dipende da R) e otteniamo ||R1 x C1 ||2 + ||C2 ||2 . La prima parte un sistema standard che 1 2 possiamo risolvere come x = R1 C1 e quindi ha norma 0. La parte restante il resto .
Si parte da

7.1

Retta di regressione
incognite sono m e b)

yk = m xk + b (le mx1 + b = y1 ... mxn + b = yn Az = c


con

x1 A = ... xn

1 ... z = 1

m b

y1 c = ... yn = (AT A)1 AT c)


1 b = n ( P yk P P k ) m x xk xk m = n n P yk P xk )2 yk x2 ( k

Possiamo risolvere questo sistema sovradeterminato con il metodo dei minimi quadrati (ZLS oppure usare la formula chiusa per questo caso: risolvere a partire da

. Oppure si pu costruire il sistema da

AT Az = AT c

scrivendo la struttura del sistema risultante.

Metodi iterativi per la soluzione di S. Lineari


xk
che converge ad

Ad ogni iterazione si ottiene un'approssimazione mem.

x.

(Costo computaz. basso, non necessita di

A)
Errore analitico: errore che si commette interrompendo la procedura dopo un numero nito di passi.

Denition.

Un metodo iterativo stazionario se nella forma: Un metodo iterativo convergente se

x(k) = Bx(k1) + f x(k) x = 0 x(k) = P 1 N x(k1) + P 1 b x(0)

x(0)

si ha

lim

Scriviamo il sistema (con

Ax = b

come

(P N )x = b = P x = N x + b =

assegnato

invertibile) Un metodo iterativo consistente se

Denition.
Errore:

x(k) = x = x(k+1) = x.
Inoltre:

e(k) = x(k) x = P 1 N e(k1) = ... = (P 1 N )k e(0) . K(A) r(k) b


(x

e(k) P 1 N

e(0)

e(k) x
Resto:

K(A)b )

r(k) = b Ax(k) P 1 N 1 in una qualasiasi norma.

Theorem. Condizione suciente per la convergenza che


A=L+U +D
la diagonale. dove

triangolare inferiore (senza diagonale), U triangolare superiore (senza diagonale) e D

E = L, F = U

quindi

A=DEF

Theorem. Se A strettamente a diagonale dominante sia Jacobi che Gauss-Seidel convergono.


Se A simmetrica e denita positiva Gauss-Seidel converge.

8.0.1 Criteri di arresto


x(k) x(k1) < x(k) x(k1) < x(k1)


(del tipox

<

anche se non si conosce

x )

Numero massimo di iterazioni ssato

r (k) b

< (b < ) e(k)


2

Theorem. Sia A simmetrica e denita positiva:

1 x(k+1) x(k) 1 (P 1 N )

8.1

Metodo di Jacobi

P =D N =E+F x(k+1) = D1 (E + F )x(k) + D1 b


8.2 Metodo di Gauss-Seidel

P =DE N =F x(k+1) = (D E)1 F x(k) + (D E)1 b


8.3
for { r=bAx a=( r , r ) / ( Ar , r ) x=x+a r } [ sono prodotti scalari !]

Metodo del gradiente ( proiettivo )


1 = 1 . . . . max : i t

Metodi iterativi per equazioni non lineari


una radice di

f : R R,

f . ek = xk
k

Denition.

Un metodo convergente se

lim ek = 0 |ek+1 | =c |ek |p c < 1 se p = 1 c 0 se p > 1

Una successione

{xn }

converge con ordine

p1

ad

se:

lim

dove

Se

p = 1e c = 0

converge superlinearmente.

radice semplice di

f (x)

se

f (x) = (x a)h(x)
di

h() = 0
e

radice con molteplicit

f (x)

se

f (x) = (x a)m h(x)

h() = 0

Theorem. ha molteplicit m f (k) () = 0k = 0..m 1 e f m () = 0 Example. x2 2x + 1 ha molteplicit 2 in 1 perch: f (0) (1) = 0, f (1) = 2x 2 = 0, f
Volendo approssimare della radice piccola allora la sensibilit alta (taylor all'ordine 0 centrato in

(1) = 2.

numericamente dobbiamo cercare valori x in cui |f (x)| = |f () + f ()(x )| = |f ()(x )|

. Se la derivata prima nell'intorno con resto).

Dimostrazione. Se |f (x)|

= |x |

|f ()|

10

9.1
Se

Bisezione
continua in

f (x)

[a, b]

f (a)f (b) < 0 = (a, b) : f () = 0.


Se

Scegliamo il punto considero

c=

1 2 (a

+ b).

f (c) = 0

allora

c = .

Se

f (a)f (c) < 0

considero l'intervallo

[a, c],

altrimenti

[c, b].

Reitero. L'intervallo al passo

1 |xk+1 | 2 |xk |.

di lunghezza:

ba . Se voglio precisione 2k

ba 2k

9.1.1 Taylor:
f (x) = f (n) (x0 )(x x0 )n n! n=0 f (n) (x0 )(x x0 )n + o(xk ) n! n=0 f (k+1) ()(x x0 )k+1 f (n) (x0 )(x x0 )n + n! (k + 1)! n=0
k
con

f (x) =

f (x) =

[x0 , x]

9.2

Metodo delle Tangenti o di Newton


f (xk ) f (xk ) con

xk+1 = xk

f (xk ) = 0xk xk
troncato al primo ordine:

Dimostrazione.

Zeri di taylor centrato in

0 = f (x) = f (xk ) + f (xk )(x xk ) = x f (xk ) = f (xk ) xk f (xk ) = x = xk

f (xk ) f (xk )

Theorem. Sia
Dimostrazione.

quadraticamente.

f C 2 (B(, r)) per qualche r > 0 e f (x) = 0x B(, r) = la successione {xk } converge

Taylor centrato in

xk

valutato su

0 = f () 0 xk+1 = xk f (xk ) f (xk )

1 = f (xk ) + f (xk )( xk ) + f (k )( xk )2 2 1 f (k ) f (xk ) = + ( xk ) + ( xk )2 f (xk ) 2 f (xk ) 1 f (k ) = ( xk )2 2 f (xk )

Denizione di convergenza (quadratica):

|ek+1 | |xk+1 | 1 f (k ) lim = lim = 2 2 n |ek | n |xk | 2 n f (xk ) lim


11

Se vale il teorema allora esiste

M 1|f 2 f

(x) (y) |x, y

B(, r).
il metodo converge. E' vero per ogni

|ek | M |ek1 |2

1 2k quindi se M |M e0 |

|M e0 | < 1

x0 B(

1 M ).

Nel caso di radici multiple Newton converge con

c=1

1 m dove

la molteplicit.

10

Approssimazione di Funzioni (e di dati)


La funzione

Denition.
g(x)

g(x)
n

interpola

f (x)

in

x0 , x1 , ..., xn

(detti nodi) se

f (xi ) = g(xi )

con

i = 0..n.

nella forma:

g(x) =
j=0

aj j (x)

dove

aj

sono scalari e

sono dette funzioni base.

Theorem. Di Weiestrass: sia f C[a, b]


Dimostrazione.

= > 0n intero e polinomio pn (x) t.c. f pn < .

! pn (x) t.c. pn (xi ) = yi con xi = xj per i = j con i = 0..n


Il polinomio deve soddisfare:

si ottiene la matrice dei coecienti:

x0 0 x0 1 = . . . x0 n

aj xj = yi i = 0..n. Scrivendo questo sistema in forma matriciale i x1 . . . xn 0 0 x1 . . . xn 1 1 (xi xj ) = 0 . . . Si pu dimostrare che det() = .. . . . . . i>j x1 . . . xn n n

Denition.
n

Funzioni base di Lagrange

Li (x) = j=0 i=j

x xj . xi xj Li .

Si ha che

Li (xj ) = 1

se

i=j

se

i = j.

Se l'argomento non un nodo non conosciamo

a priori il valore di

Denition.
n

Polinio interpolatore di Lagrange.

Pn (x) =
k=0

yk Lk (x)

Denition. Resto: En (x) = f (x) pn (x) Theorem. Sia f C n+1 ([a, b]) e sia pn (xi )
f (n+1) () En (x) = n (x). (n + 1)!

= yi i = 0..n allora x [a, b] I(x, x0 , x1 , ..., xn ) t. c.

n (x) = (x x0 )(x x1 )...(x xn ).

12

Dimostrazione.

Deniamo una funzione ausiliaria

cercando di calcolare l'errore. Scegliamo

Q(x)

in modo tale che sia

G(z) = En (z) Q(x)n (z). G(x) = 0. xi n+1


un nodo allora

Dove

Quindi

x il punto per il quale stiamo 0 = En (x) Q(x)n (x) =


(per

En (x) = Q(x)n (x).


Ricordando che la scelta di

G(z)

si annulla su tutti gli

n+1

nodi (se

Q), z

possiamo applicare il teorema di Rolle possiamo calcolare

volte, e dimostrare che

En (xi ) = 0 e wn (xi ) = 0) e su x ! zero x di G(n+1) .

Derivando in Risolvendo:

G(n+1) (x ).

Si ottiene:

0 = G(n+1) (x ) = f (n+1) (x ) Q(x)(n + 1)!.


Quindi la sua derivata

Q(x) =

f (n+1) (x ) (n+1)! . (n (z) nella forma

xn+1 +O(xn ).

(n+1)-esima (n+1)!)

Theorem. di Rolle: Sia (x) derivabili in [a, b] e (a) = (b) = 0

= (a, b) : () = 0.

di Faber: per ogni distribuzione di nodi esiste almeno una funzione tale che En (f ) n .

non converge a zero per

per ogni funzione conitnua in [a, b] esiste una distribuzione di nodi tale che En (f ) 0 per n . se f C 1 ([a, b]) e se i nodi sono gli zeri del polinomio di Chebyshev di grado n allora En (f )

0 per n .

Denition. Denition.
in

Polinomio di Chebishev di grado

n:

Tn (x) = cos(n arcos(x)).


Funzione polinomiale a tratti: una funzione polinomiale a tratti se possiible dividerla in

n intervalli

e se su ciascun intervallo polinomiale.

g(x) si dice spline di grado p n (o di ordine p + 1) se polinomiale a tratti e se ha derivata di ordine p 1 continua [a, b].

11
I(f ) =

Formule di quadratura
b
a

f (x)dx
n j=0

In (f ) =

j f (xj )
con

Approssiamo

I(f )

In (f )

sui nodi

x0 , ..., xn . r
se

Denition.

Grado di precisione:

In

ha grado di precisione

In (p) = I(p)p r

(approssima esattamente ogni

polinomio di grado r). (r l'insieme dei polinomi di grado

r).

Metodo dei coecienti indeterminati


Se vogliamo il grado di precisione

possiamo determinare i pesi necessari utilizzando il metodo dei coecienti

indeterminati che consiste nell'imporre che gli integrali approssimati degli

b i n i i j=0 j xj = a x associata diverso da 0.

xi

concidano con quelli esatti.

= 0..n.

Tale sistema ha

n + 1 incognite ed n + 1 equazioni, e il determinante della matrice

Questo metodo non conveniente dal punto di vista numerico per complessit e stabilit. Un metodo alternativo costituito dalle formule di quadratura interpolate, che calcolano il polinomio interpolatore della funzione e successivamente lo integrano.

13

Formule di quadratura interpolatorie


n
Cerchiamo il polinomio interppolatore di

f (x)

che nella forma

pn (x) =
j=0 n

f (xj )Lj (x). f (xj )


a j b n

Quindi lo integriamo:

b n

In (f ) =
a

pn (x)dx =
a j=0

f (xj )Lj (x)dx =


j=0

Lj (x)dx =
j=0

j f (xj ).

(Si usato il fatto che somme di

f (xj )

una costante, e che integrale di somme = somme di integrale)

Newton-Cotes
Supponendo nodi equidistanti (non il caso migliore) abbiamo formule semplici (Newton-Cotes): Calcolando i coecienti

una volta ssato

n,

questi saranno gli stessi per tutte le

f (x).

Per le formule chiuse:

xj = x0 + j h h = ba n

con

j = 0..n, x0 = a, xn = b

xj = x0 + j h con j = 0..n, x0 = a + h, xn = b h ba h = n+2 b n Calcoliamo quindi i coecienti j : L (x)dx, ora eettuiamo il cambio di variabile x = x0 +ht: h 0 Lj (x0 +ht)dx. a j n tk Sostituendo anche in Lj (x) si ottiene: Lj (xo + ht) = = j (t) che non dipende da x ma solo da t. jk k=0 j=k n Si ha quindi: j = h j (t)dt = hj .
Per le formule aperte:

0 j n
La formula di quadratura completa :

In (x) = h
j=0

j f (xj ) 1
a

Per le formule aperte l'integrale lo stesso ma tra

n + 1. 2

Formula chiusa per n=2 (di Simpson, 3 punti!)


0 (t) =
0=k

tk (t 1) (t 2) 3 = = 1 t2 2 t + 1 2 0k 1 2 tk (t 0) (t 2) = = t2 + 2t 1k 1 1 (t 0) (t 1) tk = = 1 t2 1 t 2 2 2k 2 1

0 =

1 2 t 0 2

3 t + 1dt = 2
2 0 2 0

1 3 6t 4 3

3 t2 + t 4

2 0

4 3

3+2 =

1 3

1 (t) =
1=k

1 1 = 3 t3 + t2 1 3 6t

8 = 3 + 4 = 4 3

2 (t) =
2=k

2 =

1 t2 4

1=

1 3

1 I2 = h( 3 f (x0 ) + 4 f (x1 ) + 1 f (x2 )) 3 3

14

Formule composte
Le formule semplici non garantiscono una buona approssimazione se non per funzioni molto semplici (per via del basso numero di punti). D'altra parte non possibile aumentare il numero di punti perch noto che l'interpolazione su un numero elevato di punti equispaziati non garantisce la convergenza dell'errore. Per ovviare a questo possiamo applicare pi volte le formule semplici su piccoli intervalli della funzione da integrare, e sommare i risultati. Tali formule si chiamano composte.

Theorem. Sia In con n pari (nodi equidisanti)


Dimostrazione.

b
Se

= In ha grado di precisione n + 1. tn+1 + qn (t)dt = tn+1 dt +


1 1

pari:

qn+1 (t)dt =

qn (t)dt =

I(pn+1 ) =
a
Dove

pn+1 (x)dx =
1

q(t)dt = In (q)
1

qn+1

si ottiene con la sostituzione

x=

ba 2 t

a+b 2

Theorem.

En (f ) = I(f ) In (f ) =
a

f (x) pn (x)dx =
a

E(x)dx

(resto)

=
b

M una maggiorazione M della derivata, si pu scrivere En (f ) (n + 1)!

f (n+1) () n (x)dx. Se si conosce (n + 1)!

|n (x)|dx.

Teorema della media: sia f continua in [a, b], g(x) integrabile e senza cambi di segno in [a, b] = [a, b] t.c. b b f (x)g(x)dx = f () a g(x)dx. a
Integrali con singolarit:
Nel caso la funzione

f (x)

da integrare abbia una singolarit in un estremo di integrazione, possiamo usare una for-

mula aperta e scegliere arbitrariamente i nodi. Scriviamo quindi conto del peso:

della singolarit. Possiamo usare il metodo dei coecienti indeterminati per calcolare i coecienti

f (x) = g(x)(x) dove (x) il fattore responsabile j che tengono

n j=0

aj xi = j

(xi )

i = 0..n In (f ) =
n j=0

L'integrale risultante quindi (come sempre):

j f (xj )

Grado di precisione massimo:

2n + 1

Se vogliamo fare in modo che il grado di precisione sia il pi alto possibile possiamo applicare il metodo dei coecienti indeterminati, ma senza ssare i nodi. Cos facendo abbiamo determinare, ma solo di precisione

n+1

equazioni. Perci il sistema risultante ha

n + 1 coecienti j e n + 1 variabili xj da n + 1 gradi di libert e la formula avr grado

2n + 1.

15

11.1

Formule di quadratura

rett (A) trap (C) simp (C) I2 (f ) =

semplice a+b I0 (f ) = 2hf ( ) 2 I1 (f ) = h (f (a) + f (b)) 2


C I2 (f ) =

composta n1 xi1 + x1 c I0 (f ) = h ) f( 2 i=1


c I1 (f ) =

h (f (a) + 2 f (xi ) + f (b)) 2 i=1


n/2 n/21

n1

a+b h (f (a) + 4f ( ) + f (b)) 3 2

h (f (a) + 4 f (x2i1 ) + 2 3 i=1

f (x2i ) + f (b))
i=1

11.2

Formule dell'Errore

semplice (b a)3 rett (A) f () 24 (b a)3 trap (C) f () 12 f (4) () b a 5 simp (C) ( ) 90 2

composta (b a) 2 f () h 24 (b a) 2 f () h 12 (4) f ()(b a)h4 180

12

Calcolo di autovalori e autovettori

Denition. A e B sono matrici simili se s non singolare t.c. B = S 1 AS . Theorem. Due matrici simili hanno stessi autovalori (ma autovettori diversi, in generale).
Dimostrazione.
Se

sono simili:

Bx = x = S 1 ASx = x = ASx = Sx = Ay = y .
y
non singolare t.c.

Denition.

A diagonalizzabile se X

X 1 AX = D

con

matrice diagonale (

= gli elementi

della diagonale sono gli autovalori).

Theorem. A quadrata diagonalizzabile ha n autovettori linearmente indipendenti (se A diagonalizzabili il det = 0 ma non detto il contrario).
Decomposizione di Sckur. H (Unitaria: U = U 1 ).

Denition.

A C nn

unitaria t.c.

U H AU = T

con

triangolare superiore

Theorem. Sia A hermitiana (A = AH ) allora A diagonalizzabile e D = X 1 AX con X unitaria.


Dimostrazione.
T
Per Sckur:

T = U H AU = T H = (U H AU )H = U H (U H A)H = U H AH U = T H = T
triangolare inferiore

A hermitiana

U H AU = T .

per il teorma di Sckur triangolare superiore

= T

diagonale.

Denition.

normale se

AAH = AH A.
16

Theorem.

A diagonalizzabile con trasformazioni di similitudine unitarie A normale.

Bauer-Fike: A Cnn diagonalizzabile (D = X 1 AX ). E Cnn perturbazione t.c. u (A + E) = min | u| K2 (X) E 2 . (A)


u (A + E)

(Un autovalore della matrice perturabata non pu essere pi distante da uno della matrice esatta di K2 (X) E 2 )

Corollary. Se A normale (o hermitiana):


Inoltre K per A matrice difettiva.
Metodo delle potenze
Supponiamo:

min| u| E

( = K 1).

|1 | > |2 | |3 | ... |n | A
diagonalizzabile ha componente non nulla lungo l'autovettore

x(0)

v1

associato a

Il prossimo autovettore approssimato sar:

x(k+1) = Ax(k) = Ak+1 x(0) 1 =


H v1 Av1 H v1 v1

Conoscendo l'autovettore (approssimato) possiamo calcolare l'autovalore (approssimato):

Theorem. Se le ipotesi sono vericate il metodo genera una successione {x(k) } che converge a v1 .
Dimostrazione.
n
Siccome

diagonalizzabile possiamo scrivere

x0

come combinazione lineare degli autovettori:

x(0) =
i=1

i vi

inoltre

a1 = 0

per ipotesi.

x(k) = Ak x(0) =
Per ipotesi

n i=1

i Ak v i =

n i=1

i k vi = 1 k v1 + 1 i

n i=2

i k vi = (1 k )(v1 + 1 i
la somma tende a

i k n i i=2 1 k vi ) 1

l'autovalore di modulo massimo, quindi per

x(k) 1 1 v1 .

Prossono sorgere problemi di condizionamento perch

x(k)

0 se |1 | < 1 se |1 | > 1

Criterio di arresto:

|1 1

(k)

(k1)

| < |1

(k1)

| x(k) .
Deniamo

Per evitare problemi di condizionamento possibile normalizzare il vettore Il metodo diventa:

q (k) =

x(k) . ||x(k) ||

x(k+1) = Aq (k) .

La formula per calcolare l'autovalore, rimane quella precedente e si calcola su

(k)

Inoltre:

||q (k) ||2 = (q (k) )H q (k) 2

17

Metodo delle potenze inverse


Se invece di

usiamo

A1

allora gli autovalori diventano

massimo (quindi possiamo ottenre

1 e il metodo ci restituisce l'autovettore per cui 1 1 di modulo minimo). L'ordinamento deve essere 1 > 2 ....

1 ||

Ricerca di un autovalore
Se conosco gi un approssimazione gli autovalori in modulo

u di un autovalore i . 1 diventano | u |.

Posso applicare il metodo alla matrice

(A uI)1 ,

perch

Invece di invertire la matrice, si risolve il sistema:

(A uI)x(k) = x(k1) x(0)

k = 1, 2, 3, .. assegnato

Per

molto vicini a

la matrice diventa quasi singolare.

Potenze con fattorizzazione QR


A0 = A A0 = Q0 R0 A1 = R0 Q0 A1 = Q1 R1 A2 = R1 Q1 Ak+1
Se simile ad

Ak : Ak+1 = Rk Qk = QT Qk Rk Qk = QT Ak Qk k k
allora il procedimento converge ad una matrice

A simmetrica ed esiste un ordinamento stretto degli autovalori,

diagonale.

Problemi di Cauchy
I problemi di Cauchy sono nella forma

y = f (x, y) y(xo ) = y0

con

x Io = [a, b]. L > 0


t.c.

Denition.
L|z y|

f z, y

si dice Lipschitziana rispetto alla seconda variabile se

x I0 |f (x, z) f (x, y)|

Theorem. Se f continua in I0 D con D R in un intorno di (x0 , y0 )


LOCALE.

= il P.C. ha una e 1 sola soluzione

Se f ha derivata parziale rispetto a y continua in I0 allora L = max|fy (x, y)|

18

Metodo di eulero esplicito


Stabiliamo dei punti di grigia (equidistanti) Approssimiamo l'equazione

h=

ba n

xj = x0 + j h. = f (x, y).

y = f (x, y)

con

yk+1 yk h

Metodo di eulero esplicito: yk+1 = yk + hf (xk , yk ) 1 Denition. Errore locale in x: (x, h) = h (y(x + h) y(x)) f (x, y(x))
f

Metodi ad un passo: metodi nella forma yk+1 = yk + h(xk , yk , yk+1 ) Metodo consistente di ordine p: se (h) = O(hp ) (maggioro x) Metodo zero stabile: Se l'errore complessivo 0 per h 0. Theorem. Convergenza Consistenza + Stabilit
I metodo ad un passo sono tutti Stabili. (Convergono se sono consistenti)

Eulero implicito: Trapezi:

yk+1 = yk + hf (xk+1 , yk+1 )

yk+1 = yk + h (f (xk , yk ) + f (xk+1 , yk+1 )) 2

19

Potrebbero piacerti anche