Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1.1.1 Densit`
a e migliore approssimazione
(!) sia (X, k k) uno spazio funzionale normato, ad esempio (C[a, b], k k )
oppure (L2 (, ), k k2 ), e S0 S1 . . . Sn . . . una successione cres-
cente di sottospazi di dimensione finita Nn = dim(Sn ), ad esempio i poli-
nomi Pn = h1, x, x2 , . . . , xn i con Nn = n + 1, oppure i polinomi trigono-
metrici reali Tn = TRn = h1, cos(x), sin(x), . . . , cos(nx), sin(nx)i o complessi
TCn = h1, exp(ix), exp(ix), . . . , exp(inx), exp(inx)i con Nn = 2n + 1 (si veri-
fichi che TCn TRn ).
Si dimostri in generale che En (f ) = inf pSn kp f k 0, n se e solo se
S
n Sn `
e denso in X.
linf del primo esercizio `e in realt`a un minimo (in generale, dato uno spazio
normato e un suo sottospazio di dimensione finita S = h1 , . . . , N i, dim(S) =
N, esiste in S almeno un elemento di distanza minima da f X); sugg.:
inf pS {kp f k} k0 f k = kf k ed essendo in dimensione finita le palle
chiuse ... .
1
f C r [a, b], r 0, allora
(b a)r
En (f ) = kpn f k cr osc(f (r)
; (b a)/n) , n>r
n(n 1) . . . (n r + 1)
2
Sn . . ., si ha che limn kSn f k = 0 se e solo se limn kSn k2 = kf k2
(identit`a di Parseval).
1.1.2 Interpolazione
(!) dato un sottospazio di dimensione finita S = h1 , . . . , N i C(K) (lo
spazio delle funzioni continue su un compatto K Rd , d 1), un insieme di
punti {x1 , . . . , xN } K si dice unisolvente per il problema di interpolazione se
det(V ) 6= 0, dove V = V (x1 , . . . , xN ) `e la matrice quadrata di tipo Vandermonde
V = {vij } = {j (xi )}; si controlli che data f C(K) la funzione (unica) in S
che interpola f su {x1 , . . . , xN } si pu`o scrivere in forma di Lagrange
N
X
Lf (x) = L{xi } f (x) = f (xi ) i (x)
i=1
3
(!) dato un insieme unisolvente di punti di interpolazione, la norma delloperatore
lineare e continuo di interpolazione L : (C(K), k k ) S, f 7 Lf =
P N
i=1 f (xi ) i , `
e definita da kLk = supf 6=0 kLf k /kf k = supkf k =1 kLf k ,
e si ha
X N
kLk max |i (x)|
xK
i=1
PN
(() in realt`a kLk = maxxK i=1 |i (x)|; si noti che kLk dipende solo dai punti
di interpolazione). Si studi il ruolo di kLk per la stabilit`a dellinterpolazione
(risposta dellinterpolante agli errori su f ).
kf Lf k (1 + kLk) min kp f k
pS
4
studi la velocit`a di convergenza dellinterpolazione sui punti di tipo Chebyshev
(sugg.: in base al t. di Jackson ...).
(F) interpolazione polinomiale bivariata di tipo prodotto tensoriale: si consideri
lo spazio dei polinomi bivariati prodotto tensoriale di grado n, P1n P1n =
hxh y k , 0 h, k ni (si osservi che Pn P1n P1n P2n e che dim(P1n P1n ) =
(n+1)2 ). In qualsiasi rettangolo [a, b][c, d], linsieme prodotto {x1 , . . . , xn+1 }
{y1 , . . . , yn+1 }, dove {xi } [a, b] e {yj } [c, d] sono insiemi di n + 1 punti
distinti, `e unisolvente per linterpolazione in P1n P1n e linterpolante si scrive
n+1
X
Lf (x, y) = f (xi , yj )i (x)j (y)
i,j=1
5
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0.2 0.2
0.4 0.4
0.6 0.6
0.8 0.8
1 1
1 0.5 0 0.5 1 1 0.5 0 0.5 1
(!) teorema sugli zeri dei polinomi ortogonali: si consideri una misura d =
w(x)dx con funzione peso w non negativa, continua e integrabile in (a, b): gli
zeri dei corrispondenti polinomi ortogonali sono tutti reali, semplici e contenuti
nellintervallo aperto (a, b).
(sugg. (): se uno zero di n non stesse in (a, b), allora se reale n (x) =
(x )q(x), se complesso n (x) = (x )(x )q(x), in ogni caso il polinomio
n (x)q(x) sarebbe sempre non negativo o non positivo in (a, b) ...). Si osservi
che il teorema resta valido se la funzione peso `e (quasi ovunque) non negativa
e integrabile in (a, b), e positiva su un sottoinsieme di misura positiva.
Jacobi: (a, b) = (1, 1), w(x) = (1+x) (1x) , , > 1; casi particolari
notevoli
i polinomi di Chebyshev Tn (x) = cos(n arccos(x)) per w(x) =
1/ 1 x2 ( = = 1/2) e i polinomi di Legendre per w(x) 1 ( =
= 0)
6
Laguerre: (a, b) = (0, +), w(x) = ex
2
Hermite: (a, b) = (, +), w(x) = ex
1.1.4 Quadratura
una formula di quadratura su n+1 punti distinti x0 , . . . , xn [a, b] `e una somma
pesata di valori della funzione integranda
n
X Z b
n (f ) = wj f (xj ) (f ) = f (x)w(x)dx , w L1 (a, b)
j=0 a
(n)
in cui in punti {xj } = {xj } sono detti nodi di quadratura e i coefficienti
(n)
{wj } = {wj } pesi di quadratura; si dimostri che , n : (C[a, b], k k ) R
sono funzionali lineari e continui, e vale
b n
|(f )|
Z X
kk = sup = kwk1 = |w(x)|dx , kn k = |wj |
f 6=0 kf k a j=0
7
per n multiplo di s: si dimostri che le formule composte hanno effettivamente
la forma di somme pesate descritte sopra (e sono esatte su Ps ). Chi sono i pesi
della formula composta dei trapezi (s = 1) e delle parabole (s = 2) nel caso di
passo costante h = (b a)/n e w(x) 1?
(!) formule gaussiane: le formule algebriche corrispondenti agli zeri del poli-
nomio ortogonale n+1 di grado n + 1 rispetto a d = w(x)dx con w positiva,
continua e integrabile, si chiamano formule gaussiane; tali formule sono esatte
su P2n+1 ed hanno pesi positivi.
(sugg. (): per lesattezza si osservi che dato p P2n+1 di grado maggiore di
n, si ha p = n+1 q + r, dove q ed r hanno grado minore di n + 1, e utilizzando
lortogonalit`a e il teorema sugli zeri dei polinomi ortogonali ...; per la positivit`a
basta osservare che la formula `e esatta su 2j (x), ...)
(i) converge su P
Pn
(ii) K > 0 tale che j=0 |wj | K n
8
(!) corollari: una formula algebrica `e convergente su C[a, b] se e solo se la somma
dei moduli dei pesi `e limitata; una formula a pesi positivi `e convergente su C[a, b]
se e solo se `e convergente su P (questultimo garantisce ad esempio che le formule
gaussiane, dei trapezi, delle parabole, di Clenshaw-Curtis sono convergenti su
C[a, b]); le formule di Newton-Cotes, che sono le formule algebriche su nodi
equispaziati, non sono convergenti su C[a, b], si pu`o infatti far vedere (NR) che
la somma dei moduli dei corrispondenti pesi non `e limitata. Pensare ad un
esempio di funzione su cui le formule di Newton-Cotes sono convergenti (sugg.:
esistono casi di convergenza uniforme dellinterpolazione polinomiale su nodi
equispaziati?)
si pu`o ottenere una formula di quadratura su qualsiasi intervallo [a, b] con fun-
zione peso w(x), utilizzando una formula di quadratura su [1, 1] con funzione
peso w((t)), x = (t) = (b a)t/2 + (b + a)/2; detti {tj } e {wj } i nodi e
pesi per w((t)), avremo nodi xj = (tj ) e pesi (b a)wj /2 (sugg.: tramite il
cambio di variabile x = (t) lintegrale diventa ...). Cosa si pu`o dire del grado
di esattezza di questa formula?
V t = m , m = (m0 , . . . , mn )t ,
9
Rb
dove gli mj = a j (x) w(x) dx sono i momenti di una base polinomiale {j } e
V t = {i (xj )} `e la trasposta della matrice di Vandermonde in quella base (sugg.:
la formula `e esatta su ogni p Pn se e solo se `e esatta su tutti gli elementi di
una base, ...). Si controlli chep se la base `e ortonormale rispetto a d = w(x) dx
allora mj = 0, j > 0, m0 = kwk1 . (F) Si calcolino i momenti della base di
Chebyshev su [1, 1] per d = dx (da cui si possono ricavare i pesi delle formule
di Clenshaw-Curtis e di Fejer visto che la matrice di Vandermonde nella base
di Chebyshev risulta molto meglio condizionata della matrice di Vandermonde
nella base monomiale canonica).
10
1.2 Algebra lineare numerica
(!) teorema fondamentale di invertibilit`a: data una norma matriciale in Cmm
tale che kABk kAk kBk (come sono tutte le norme indotte da norme vettori-
ali, ovvero kAk = supx6=0 kAxk/kxk = supkxk=1 kAxk), se kAk < 1 allora I A
`e invertibile e si ha
1
X 1
(I A) = Aj , k(I A)1 k
j=0
1 kAk
si verifichi che kAk = maxi,j |aij | `e una norma matriciale ma non soddisfa la
disuguaglianza kABk kAk kBk per ogni coppia di matrici.
localizzazione rozza degli autovalori: data una norma matriciale come sopra,
gli autovalori di A Cmm stanno in C[0, kAk] (il cerchio complesso chiuso di
centro 0 e raggio kAk).
(sugg.: se C, || > kAk, scrivendo (I A) = (I A/), ...).
11
come limite della successione di approssimazioni successive xn+1 = Bxn + c
n 0, a partire da un qualsiasi vettore iniziale x0 .
(sugg.: il sistema ha soluzione unica se e solo se I B `e invertibile, ...).
il metodo di Jacobi: P = D, N = E + F
il metodo di Gauss-Seidel: P = D E, N = F
xn+1 = xn + P 1r(xn )
12
(sugg.: xt Ax = Ax + At x, ...). I metodi di discesa corrispondono a costruire
uniterazione del tipo
xn+1 = xn + n dn , n 0
per diverse scelte della direzione di discesa dn , dove il parametro n viene scelto
in modo di minimizzare F (xn+1 ). Si mostri che
dtn r(xn )
n =
dtn Adn
test di arresto dello step: lerrore del metodo delle approssimazioni successive
con (B) < 1, supposta B diagonalizzabile (ovvero B = Q1 Q con matrice
diagonale degli autovalori di B) si pu`o stimare come
k(Q)
kx xn k kxn+1 xn k
1 (B)
(!) test di arresto del residuo: dato un qualsiasi metodo iterativo convergente
per la soluzione di un sistema lineare non singolare Ax = b con b 6= 0 (approssi-
mazioni successive, gradiente, ...), si mostri che vale la seguente stima dellerrore
relativo
kx xn k kr(xn )k
k(A)
kxk kbk
dove (A) `e lo spettro di A e k2 (Q) = kQk2 kQ1 k2 (da cui si vede che il prob-
lema degli autovalori per una matrice hermitiana `e ottimamente condizionato).
13
(sugg.: se autovalore di A + E non `e autovalore di A, A I `e non singo-
lare e A + E I `e invece singolare: allora esiste un vettore z 6= 0 tale che
Q(A + E I)Q1 z = ( I + QEQ1 )z = 0 e raccogliendo I si ottiene
z = ( I)1 QEQ1 z, da cui kzk2 . . .).
(!) metodo delle potenze per il calcolo degli autovalori estremali: data una ma-
trice complessa diagonalizzabile A Cmm , con un unico autovalore di modulo
massimo (di qualsiasi molteplicit`a), e la successione di vettori xn+1 = Axn ,
n 0 dove x0 abbia componente non nulla nellautospazio corrispondente,
i quozienti di Rayleigh R(xn ) = (Axn , xn )/(xn , xn ) (dove (x, y) `e il prodotto
scalare euclideo di x, y Cm ) convergono a tale autovalore e xn /kxn k2 tende ad
un autovettore (normalizzato) corrispondente; come si pu`o modificare il metodo
per calcolare lautovalore di modulo minimo quando A `e non singolare? (sugg.:
si scriva x0 nella base di autovettori, ...; per lautovalore di modulo minimo, si
osservi che gli autovalori di A1 sono ...).
Il metodo modificato zn+1 = Ayn , yn+1 = zn+1 /kzn+1 k2 , n 0 a partire da y0 =
x0 evita overflow e underflow in aritmetica di macchina quando lautovalore di
modulo massimo `e molto grande o molto piccolo (si mostri che yn = xn /kxn k2 ).
Perch`e facendo una scelta random di x0 ci si aspetta comunque convergenza in
aritmetica di macchina?
(F) cosa succede se lautovalore di modulo massimo non `e unico? come si pu`o
modificare il metodo per calcolare lautovalore pi`
u vicino ad un valore prefissato?
metodo QR per il calcolo dellintero spettro: se gli autovalori di A sono tutti
distinti in modulo, si pu`o dimostrare (NR) che la successione di matrici {An }
definita da
An = Qn Rn , An+1 = Rn Qn , n 0 ; A0 = A
dove Qn `e ortogonale (unitaria nel caso complesso) ed Rn triangolare superiore,
converge ad una matrice triangolare T ; perch`e T ha gli stessi autovalori di A?
(e quindi la diagonale di An converge agli autovalori di A). Si osservi che se
A `e simmetrica tali sono le An da cui si vede che T `e una matrice diagonale.
Il metodo pu`o essere adattato al caso in cui ci siano autovalori con lo stesso
modulo (NR).
dato un polinomio p() = a0 + a1 + . . . + am m , am 6= 0, si vede facilmente per
induzione che la matrice (m + 1) (m + 1)
0 0 . . . 0 a0 /am
1 0 . . . 0 a1 /am
0 1 . . . 0 a2 /am
C(p) =
.. .. .. ..
. . ... . .
0 0 . . . 1 am1 /am
detta matrice companion di p, ha polinomio caratteristico det(I C(p)) =
` quindi possibile calcolare tutti gli zeri di un polinomio applicando
p()/am . E
il metodo QR (modificato per moduli non distinti) alla matrice companion.
14
1.3 Algebra non lineare numerica
sia : (K Rm ) K, dove K `e un sottoinsieme chiuso (anche non limitato),
una mappa tale che k(x) (y)k kx yk, 0 < < 1, per una qualche
norma in Rm (contrazione): allora per il metodo delle approssimazioni successive
(iterazione di punto fisso)
xn+1 = (xn ) , x0 K
(!) teorema delle contrazioni: dato il sistema di punto fisso x = (x) con
contrazione di K in K, il metodo delle approssimazioni successive converge, per
qualsiasi scelta di x0 C, allunico K tale che = ().
(sugg.: dalla disuguaglianza fondamentale e da kxn+1 xn k n kx1 x0 k, si
ricava che la successione {xn } `e di Cauchy, ...; si osservi che lenunciato `e valido
in qualsiasi spazio normato completo).
un sistema lineare quadrato della forma x = Bx + c con kBk < 1 (in una norma
matriciale indotta da una norma vettoriale) `e un caso particolare di sistema di
punto fisso con una contrazione (x) = Bx + c definita su K = Rm .
a priori
n
k xn k kx1 x0 k
1
k xn k n k x0 k
15
a posteriori
1
k xn k kxn+1 xn k
1
velocit`a di convergenza del metodo delle approssimazioni successive nelle ipotesi
del teorema delle contrazioni: la convergenza `e comunque almeno lineare visto
che k xn+1 k k xn k; se `e C 2 in un intorno del punto fisso e J() = 0
la convergenza diventa localmente almeno quadratica, ovvero k xn+1 k
ck xn k2 con una opportuna costante c per n abbastanza grande.
(sugg.: detta B2 [, r] una palla euclidea centrata in tale che C 2 (B2 [, r]),
utilizzando al formula di Taylor centrata in arrestata al secondo ordine si ha
xn+1 = (xn )() = J()(xn )+n con (n )i = 21 (xn )t Hi (zn,i )(xn
), dove Hi `e la matrice Hessiana della componente i e zn,i sta nel segmento
di estremi xn e , da cui |(n )i | 12 max1im maxxB2 [,r] kHi (x)k2 kxn k22
e quindi kn k2 ...).
(!) stabilit`a del metodo delle approssimazioni successive: dato il seguente mod-
ello di metodo perturbato
xn+1 = (
xn ) + n+1 , n 0
dove verifica le ipotesi del teorema delle contrazioni, vale la seguente stima
per ogni N > 0
1
max k xn xn k max kn k
1nN 1 1nN
si studi lapplicabilit`a del metodo delle approssimazione successive al sistema
x1 = arctan (x1 + x2 ) sin(x2 )/10, x2 = cos(x1 /4) + sin (x2 /4) e al sistema 2x21 +
x22 = 5, x1 + 2x2 = 3 (nel secondo caso si consideri la soluzione nel semipiano
destro isolandola in un rettangolo opportuno tramite uninterpretazione grafica
del sistema).
(!) dato il sistema non lineare f (x) = 0, dove f : ( Rm ) Rm `e un campo
vettoriale differenziabile definito su un aperto contenente tale che f () = 0,
il metodo di Newton corrisponde alla linearizzazione iterativa
f (xn ) + Jn (x xn ) = 0 , n 0
a partire da un opportuno vettore iniziale x0 , dove Jn = Jf (xn ) `e la matrice
Jacobiana (purche xn e Jn sia invertibile ad ogni iterazione), ovvero
xn+1 = xn Jn1 f (xn ) , n 0
16
dove Hfi `e la matrice Hessiana della componente fi .
(sugg.: dalla formula di Taylor centrata in xn arrestata al secondo ordine, 0 =
f () = f (xn ) + Jn ( xn ) + n , e dalla definizione del metodo, si arriva a
xn+1 = Jn1 n , dove (n )i = 12 ( xn )t Hfi (zn,i )( xn ), con zn,i che sta
nel segmento di estremi xn e , ...).
(sugg.: per induzione en+1 (cen )en < en e quindi xn+1 B2 [, r], ...).
en = k xn k kxn+1 xn k
17
1.4 Differenze finite per ODEs e PDEs
(!) dato un problema ai valori iniziali y = f (t, y), t [t0 , tf ]; y(t0) = y0 , con
f di classe C 1 tale che |f /y| L, si dimostri che la legge di propagazione
dellerrore en = |yn y(tn )| dei metodi di Eulero esplicito
yn+1 = yn + hf (tn , yn ) , 0 n N 1
ed Eulero implicito
18
(F) dopo aver individuato un opportuno modello di metodo perturbato che
fornisca una sequenza yn yn per Eulero esplicito ed implicito tenendo conto
degli errori introdotti ad ogni passo, si studi la stabilit`a dei due metodi nei casi
Lipschtiziano e dissipativo, ottenendo una legge di propagazione degli errori e
una stima delleffetto globale di tali errori. Ci si aspetta che max |
yn y(tn )| 0
per h 0?
n = ((h))n 0 , n > 0
dove c `e una costante positiva, si assuma che la soluzione u sia di classe C 4 [a, b] e
si consideri una discretizzazione dellintervallo a passo costante h = (ba)/(n+
1), con nodi xi = a+ih, 0 i n+1. Tramite lapprossimazione della derivata
seconda ottenuta con le differenze centrate
u(x + h) 2u(x) + u(x h)
u (x) h2 u(x) =
h2
19
si vede che il vettore {u(xi )}1in soddisfa un sistema lineare del tipo
A{u(xi )} = {g(xi )} + {i }
dove A Rnn `e una matrice tridiagonale con 2h2 c sulla diagonale prin-
cipale e h2 sulle due diagonali adiacenti, e |i | Mh2 (sugg.: si utilizzi la
formula di Taylor di centro xi in xi h = xi1 e xi + h = xi+1 ). La matrice
A risulta simmetrica e definita negativa, con (A) [(c + 4h2 ), c] (si usi il
teorema di Gershgorin).
Detto {ui } il vettore soluzione del sistema lineare
A{ui } = {g(xi )}
si vede che il vettore {u(Pij )}1in,1jm soddisfa un sistema lineare del tipo
20
simmetrica, tridiagonale a blocchi con una diagonale di blocchi n n che sono
matrici tridiagonali con c 2(h2 + k 2 ) sulla diagonale principale e h2 sulle
due diagonali adiacenti, e due diagonali adiacenti di blocchi n n che sono
matrici diagonali con k 2 sulla diagonale principale. Inoltre (A) [(c +
4(h2 + k 2 )), c], quindi A `e definita negativa (questo `e vero (NR) anche per
c = 0, equazione di Poisson bidimensionale). Detto {uij } il vettore soluzione
del sistema lineare
A{uij } = {g(Pij )}
si provi che vale la stima
k{uij } {u(Pij )}k2
= O(h2 ) + O(k 2 )
nm
p
(si osservi che ku(Pij )k2 / nm kukL2 () / mis()). In questo caso il metodo
di eliminazione di Gauss non `e conveniente (perche?), essendo A fortemente
sparsa (su ogni riga ci sono al massimo 5 elementi non nulli) e tendenzialmente
di grande dimensione sono pi` u adatti metodi iterativi, opportunamente precon-
dizionati visto che A `e mal condizionata, k2 (A) = O(h2 + k 2 ) (sugg.: si usi il
teorema di Gershgorin per stimare il condizionamento di A).
(!) metodo delle linee per lequazione del calore: dato il problema evolutivo alle
derivate parziali con condizioni iniziali e al contorno
u
(P, t) = u(P, t) + g(P, t) , t (0, +)
t
u(P, 0) = u0 (P ) , u(P, t)|P 0
nel caso unidimensionale con P = x = (a, b) o bidimensionale con P =
(x, y) = (a, b) (c, d), la discretizzazione nelle variabili spaziali tramite
u 2 u, posto rispettivamente y(t) = {ui (t)} {u(xi , t)} o y(t) = {uij (t)}
{u(Pij , t)}, porta ad un sistema di equazioni differenziali ordinarie nel tempo
y = Ay + b(t) , t > 0 ; y(0) = y0
dove A `e la matrice di discretizzazione del laplaciano vista sopra (tridiagonale o
tridiagonale a blocchi). Si mostri che il metodo di Eulero esplicito `e stabile con
un passo temporale dellordine del quadrato dei passi spaziali, mentre i metodi
di Eulero implicito e di Crank-Nicolson sono incondizionatamente stabili.
(sugg.: essendo la matrice A simmetrica e definita negativa si tratta di un
sistema stiff, ...).
si osservi che le matrici (simmetriche definite positive) dei sistemi lineari ad
ogni passo dei metodi di Eulero implicito e di Crank-Nicolson sono molto meglio
condizionate della matrice A; infatti, considerando ad esempio Eulero implicito,
detto t il passo di discretizzazione nel tempo, si ha che
1 + t|max (A)| |max (A)|
k2 (I tA) = t|max (A)| = k2 (A)
1 + t|min (A)| |min (A)|
21
(F) la soluzione dellequazione del calore discretizzata nello spazio col metodo
delle linee si pu`o scrivere esplicitamente usando lesponenziale di matrice come
Z t
y(t) = exp(tA)y0 + exp((t s)A) b(s) ds ,
0
dove exp(B) = j0 B j /j! con B matrice quadrata. Nel caso in cui g(P, t) =
P
g(P ) `e indipendente dal tempo, si ha b(t) b vettore costante e quindi
22