di Alberto Cella
1
Teorema (1.2) Condizione necessaria e su ciente a nch n funzioni 1 ; :::; n
denite in I = [a; b] e ivi continue e limitate siano linearmente indipendenti
che risulti non nullo il determinante della matrice G di Gram associata alle n
funzioni:
Z b
Gij := i (x) j (x)dx (1.2)
a
d( 0; 1 ; :::; n) = kf f k (1.3.2)
si dice deviazione di f da S.
jd ( ) d ( )j Ck k2
2
dove con il simbolo k k2 intendiamo la ben nota norma euclidea. Infatti si ha:
n
X n
X
jd ( ) d ( )j = f k k f k k
k=0 k=0
n
! n
!
X X
f k k f k k =
k=0 k=0
n
X n
X
= ( k k) k k( k k) kk
k=0 k=0
n
X n
X
j k kj k kk j k k j1 k kk
k=0 k=0
Bf = h 2 C 0 (I) : kh fk kf k
min kh fk inf kh fk
h2Bf \S h2Bfc \S
cio
min kh f k = min kh fk
h2Bf \S h2S
3
Se non garantita lunicit si scopre in generale che linsieme delle soluzioni
minimizzanti nel senso della generica norma k k convesso.
kf gk = kf g 0 k = min kf hk (1.4.1)
h2S
gt = tg + (1 t) g 0 , 8t 2 [0; 1] (1.4.2)
Dimostrazione (1.4).
kf [tg + (1 t) g 0 ]k = kf tg g 0 + tg 0 k =
= kt (f g) + (1 t) (f g 0 )k
t k(f g)k + (1 t) kf g 0 k =
= t + (1 t) =
Pn (I) := fp : I ! R : deg p ng
kf p k1 kf pk1 8p 2 Pn (I)
R = kf p k1
4
dove le costanti di hanno tutte lo stesso segno e inoltre sono non nulle, allora
Dimostrazione (1.5).
e per come si caratterizza q(x); dunque possiamo aermare che per ogni indice
i esistono n + 2 scalari i 2 ( 1; 1) tali che
f (xi ) q(xi ) = i di
Allora
s(xi ) = ( 1)i+1 di + i di = ( 1)i+1 + i di
e dunque si vede che il segno di s(xi ) corrisponde necessariamente a quello di
( 1)i+1 . In eetti avendo supposto di > 0 si ha una alternanza di segni di
questo tipo :
5
Esempio 1.6 Consideriamo la funzione f (x) = sin(x) nellintervallo chiuso e
limitato I = [ ; ] e andiamo a prendere il polinomio di primo grado p1 (x) =
3x 1
4 4 passante per i punti A( ; 1) e B( ; 12 ), come riportato nella gura
sottostante:
x0 = , x1 = , x2 = , x3 =
2 2
e le rispettive dierenze tra la funzione seno e il polinomio di primo grado
diventano:
3 1
f (x0 ) p1 (x0 ) = sin( ) =1
4 4
3 1 3
f (x1 ) p1 (x1 ) = sin( ) =
2 8 4 8
3 1 7
f (x2 ) p1 (x2 ) = sin( ) =
2 8 4 8
3 1 1
f (x3 ) p1 (x3 ) = sin( ) =
4 4 2
6
Teorema (1.7) Sia f 2 C 0 (I) con I intervallo chiuso e limitato, allora il
polinomio costante di miglior approssimazione
1
p0 = max f + min f (1.7.1)
2 I I
allora dobbiamo distinguere tre casi in cui p0 viene a collocarsi rispetto al codo-
minio dellintervallo I:
Supponiamo in principio che p0 max f , allora il massimo scostamento R
I
diventa:
Iinf : = fx 2 I :f (x) p0 g
Isup : = fx 2 I :f (x) p0 g
7
chiusi sono chiusi se la funzione continua). Allora possiamo calcolare il resto
tra la funzione e il polinomio costante nella norma innito.
R = kf p0 k1 = max jf p0 j =
I
Siccome
1
p0 = max f + min f
2 I I
allora si ha immediatamente
L L L
R = max ; + = +j j
2 2 2
8
17 9
f (x0 ) p1 (x0 ) = 02 + 4 0 + 1 0+ =
8 8
!
2
3 3 3 17 9
f (x1 ) p1 (x1 ) = +4 +1 + =
2 2 2 8 8
17 9
f (x2 ) p1 (x2 ) = 32 + 4 3 + 1 3+ =
8 8
9
Siccome R il miglior resto possibile e il polinomio pn realizza un resto tut-
talpi minore (non strettamente) di R , allora facile convincersi che pn
proprio il miglior polinomio di approssimazione, cio pn = pn : Adesso veniamo
allaltra parte della dimostrazione. Dimostriamo quindi che se pn eettiva-
mente il miglior polinomio di approssimazione mini-max allora devono esistere
necessariamente n + 2 punti di equioscillazione. Per fare questo utilizziamo an-
cora una volta la dimostrazione per assurdo e negando la tesi facciamo vedere
che viene negata pure lipotesi. Dimostreremo quindi che se esistono k punti di
equioscillazione, con k < n + 2 allora pn non puo essere il miglior polinomio.
Supponiamo inizialmente
_
che k = 1, cio che esista solamente
_ _
un unico punto di
equioscillazione x 2 I tale che d = kf pn k1 = f (x) pn (x) . Naturalmente
poich tale punto unico allora segue necessariamente che d strettamente
positivo, altrimenti in caso contrario si avrebbe perfetta uguaglianza tra f e
pn . Consideriamo ora la funzione resto r (x) = f (x) p_ n (x) , 8x 2 I, e senza
alcuna
_
perdita di generalit assumiamo pure che in x = x il resto sia positivo:
r (x) = d > 0, dato che il ragionamento pu essere parimenti eettuato anche
al caso negativo. Sicuramente si pu aermare che il resto compreso tutto
nella striscia I x [ d; d], come mostrato in gura.
= min (r (x) + d)
x2I
Questo valore non solo esiste perch esiste chiaramente il minimo del resto
r (x), ma anche strettamente positivo perch infatti abbiamo detto che il
resto non raggiunge_ mai la quota d, ma solamente laltra quota d nel punto
di equioscillazione x. Proviamo allora sotto queste circostanze a traslare il
cosiddetto polinomio di miglior approssimazione pn (x) in alto di un valore pari
alla met di :
pn (x) = pn (x) +
2
10
Calcoliamo allora il nuovo resto:
max jr(x)j = d
I 2
Abbiamo dimostrato quindi che pn non poteva essere il miglior polinomio ap-
prossimante. _ _ _
Supponiamo ora che il numero k dei punti di equioscillazione x0 ; x1 ; ...; xk 1
sia strettamente compreso tra 1 e n + 2:
1<k <n+2
Si noti che tra ogni coppia di punti di equioscillazione esiste
_
certamente
_
almeno
uno zero del resto r (x), per cui in ogni intervallo xi 1 ; xi delimitato dai
punti di equioscillazione, con i = 1; :::; k 1, esiste (almeno) un punto i tale
che r ( i ) = 0: Per semplicit, supponiamo inizialmente che gli zeri della funzione
resto compresi dentro ciascun intervallo siano unici e che non ci siano altri zeri
in [a; b], successivamente discuteremo il caso in cui ci potranno essere anche due
o eventualmente pi zeri nel medesimo intervallo o in prossimit degli estremi
a e b: Questa ipotesi comporta ovviamente che la funzione resto_
si_mantenga di
segno positivo o negativo su tutti i punti degli intervalli a; x0 e xk 1 ; b presi
singolarmente.
La gura seguente illustra bene la situazione attuale.
11
e normalizziamolo introducendo la costante s := max jH(x)j
[a;b]
H(x)
h(x) :=
s
in modo tale che il codominio di h(x) sia interamente contenuto tra 1 e 1:
Si osservi inoltre che il polinomio h(x) ha la peculiarit di avere sempre verso
concorde o discorde con quello di r : se vale questultimo caso bisogna cambiare
il segno di h(x) per renderlo equiverso a r . In queste condizioni allora facile
mostrare che esiste un polinomio pn che approssima meglio la funzione f di p
nella norma innito ed cos denito:
si annulla solo nei punti i e risulta in modulo sempre minore di r (x) proprio
perch equiverso con dh(x), da cui lassurdo:
12
Ad esempio in gura abbiamo
_ _
ben 3 zeri che fanno perdere la corrispondenza
del segno nellintervallo x0 ; x1 . Occorre quindi cercare una via alternativa
a quella presentata precedentemente quando gli zeri erano unici e tentare di
costruire in un altro modo un polinomio migliore di p . Sia m il numero di zeri
(purtroppo in generale non inferiore a n) 1 ; :::; m del resto r interni ad (a; b)
e consideriamo linsieme di punti
che costituiscono un set di nodi ordinato in modo crescente denito sopra [a; b] :
A partire da questi nodi estraiamo un sottoinsieme (ordinato) che contenga
ancora gli estremi a; b in modo da formare degli intervalli (chiusi) che rispettino
le regole seguenti:
Per esempio
_
nella gura precedente sono _stati scelti 3 intervalli: [a; 4 ] per
il
_
nodo x 0 (intervallo +); [ 4 ; 6 ] per il nodo x1 (intervallo -); [ 6 ; b] per il nodo
x2 (intervallo +). Poich i punti di equioscillazione sono k in tutto, allora anche
questi intervalli Ii sono in totale k: Adesso deniamo
min [r (x) + d] , se Ii e di tipo +
"i := x2Ii , 8i = 1; :::; k
min [d r (x)] , se Ii e di tipo
x2Ii
13
Si noti che per denizione tutti gli "i sono strettamente positivi. Sia allora " il
minimo tra tutti questi valori:
kf pn k1 = kf p0n k1 = r
Allora sappiamo anche (v. teorema 1.4) che linsieme delle funzioni minimizzanti
convesso, cio per ogni t 2 [0; 1] se qn = tpn + (1 t) p0n , allora
kf qn k1 = r
jf (y) qn (y)j = r
Si ha
1
jf (y) qn (y)j = f (y) (pn (y) + p0n (y))
2
1 1 1 1 0
f (y) pn (y) + f (y) p (y)
2 2 2 2 n
1 1
r + r =r
2 2
Di conseguenza
jf (y) pn (y)j = jf (y) p0n (y)j = r
e dunque si hanno soltanto due possibilit.
14
1. Se f (y) pn (y) = f (y) + p0n (y), allora
1 1
f (y) pn (y) + p0n (y) = f (y) qn (y) = 0
2 2
che impossibile, perch f (y) qn (y) = r > 0
2. Se invece f (y) pn (y) = f (y) p0n (y), allora
Teorema (1.11) Se f (x) una funzione di classe C n+1 (I), con I = [a; b]
intervallo chiuso e limitato di R e inoltre f (n+1) (x) 6= 0 8x 2 I, allora gli
estremi x = a e x = b sono punti di equioscillazione per il polinomio di miglior
approssimazione di grado n.
n k n+2
ma allora abbiamo trovato un assurdo perch per ipotesi f (n+1) doveva essere
non nullo in tutto lintervallo. Stesso ragionamento se k = n + 2 per cui si ha di
nuovo un assurdo, quindi lunico caso possibile k = n: Dato che k rappresenta
il numero di punti equioscillanti interni allora signica che rimangono disponibili
i due punti di frontiera.
15
costanti) che aermava che p andava scelto come semisomma della limitazione
superiore e inferiore del codominio di f , ora invece siamo in grado di ottenere
un risultato importante al caso dei polinomi di primo grado sfruttando proprio
il teorema enunciato sopra.
f (a) ma q = d (1.12.1)
_ _
f (x) mx q = d (1.12.2)
f (b) mb q = d (1.12.3)
_
f 0 (x) m = 0 (1.12.4)
f (b) f (a)
m= (1.12.5)
b a
_
Grazie alla 4 equazione ricavo il punto x di equioscillazione interno, in generale
per non sempre si in grado di trovare una soluzione in formula chiusa e diventa _
necessario ricorrere a particolari algoritmi numerici. Una volta noto il valore di x
diventa facile anche calcolare il termine noto q della miglior retta approssimante
sommando la 1 e la 2 equazione tra di loro:
1 _ f (b) f (a) _
q= f (a) + f (x) a+x (1.12.6)
2 b a
d = jf (a) ma qj
16
Esempio 1.12 Riprendiamo in esame lesempio 1.9 dove la funzione f era
una parabola di equazione y = x2 + 4x + 1 nellintervallo [0; 3] e la retta
approssimante aveva equazione y = x + 17=8.
Si era anche detto che tale retta era la migliore tra tutte le rette approssi-
manti in virt del teorema di equioscillazione.
In eetti la conferma di quanto stato detto si pu avere anche risolvendo
il sistema di equazioni perch questo esempio rispetta la condizione basilare
f 00 (x) = 2 6= 0.
Infatti troviamo
f (3) f (0) 1
m= = ( 9 + 12 + 1 1) = 1
3 0 3
Il punto interno di equioscillazione dato da
_
2x + 4 1=0
cio
_ 3
x =
2
e il termine noto risulta essere
1 3 3
q = f (0) + f ( ) 1 0 + =
2 2 2
1 19 3 17
= 1+ 1 0+ =
2 4 2 8
Enaturale aspettarsi nella maggior parte dei casi il mancato rispetto della
condizione sulla derivata seconda, in questo caso si pu tentare di risolvere il
sistema supponendo che gli estremi siano di equioscillazione e dopo aver calco-
lato lequazione della presunta retta di miglior approssimazione, vericare se la
funzione resto rimane connata allinterno del valore di massimo scostamento.
Se ci non accade occorre fare la supposizione che i punti di equioscillazione
interni siano almeno due, concedendo ad uno degli estremi di poter essere un
punto di equioscillazione.
Inne se nemmeno questa ipotesi trova verica, allora si procede alla ricerca
esclusiva di tre punti di equioscillazione interni.
Si badi bene per, che il teorema di Chebyshev non vieta al problema di
minimax per i polinomi di primo grado lesistenza di eventuali altri punti di
equioscillazione oltre ai tre gi dedotti.
17
Infatti un eventuale quarto oppure quinto punto di equioscillazione (o ad-
dirittura di ordine maggiore) dovr necessariamente collocarsi sulla linea della
retta migliore.
Il discorso ovviamente generalizzabile a polinomi di grado superiore al
primo, sicch ad esempio in certi problemi di tipo minimax con approssimazioni
mediante parabole si potranno avere anche pi di 4 punti di equioscillazione.
Il prossimo esempio illustra bene questa possibilit nel caso di una retta.
1+m q = d
_3 _
x mx q = d
1 m q = d
_2
3x = m
1 5p 1
r p = 3>d= p
3 9 3 3
18
Proviamo
_ _
a supporre allora che vi siano _ben 2 punti di equioscillazione interni
x1 e x2 e uno di frontiera, ad esempio x3 = 1: Il nuovo sistema di equazioni
diventa:
_3 _
x1 mx1 q = d
_3 _
x2 mx2 q = d
1 m q = d
_2
3x1 = m
_2
3x2 = m
con soluzioni:
3 _ 1 _ 1 1
m= , q = 0 , x1 = , x2 = , d=
4 2 2 4
19
corrisponde proprio a C 0 (I) che, come ben noto, uno spazio metrico completo
nella norma del massimo. Inoltre ricordiamo anche che la convergenza nella
norma del massimo dei polinomi pn viene detta uniforme.
Premettiamo alla dimostrazione la seguente denizione:
dove i Bin (x) sono elementi della base dei polinomi di Bernstein su I deniti
come:
n i i
n (b x) (x a)
Bin (x) := n (1.15.2)
i (b a)
1. Bn (f; x) 2 Pn
2. Bn (f; a) = a , 8n 2 N+
3. Bn (f; b) = b , 8n 2 N+
4. Bn (1; x) = 1 , 8n 2 N+
5. Bn (t; x) = x , 8n 2 N+
n 1 2 a+b ab
6. Bn (t2 ; x) = n x + n x n , 8n 2 N+ , n > 1
20
Dimostrazione della propriet (5)
n
X n i i
i n (b x) (x a)
Bn (t; x) = a + (b a) n =
i=0
n i (b a)
n
X n i i
n (b x) (x a)
= a n +
i=0
i (b a)
Xn n i i
n 1 (b x) (x a)
+ n 1 =
i=1
i 1 (b a)
a n
= n [(b x) + (x a)] +
(b a)
Xn n i i 1
n 1 (b x) (x a)
+ (x a) n 1
i=1
i 1 (b a)
Sia j = i 1
n
X1 n j 1 j
n 1 (b x) (x a)
Bn (t; x) = a + (x a) n 1 =
j=0
j (b a)
(x a) n 1
= a+ n 1 [(x a) + (b x)] =a+x a=
(b a)
= x
n
X 2 n i i
i n (b x) (x a)
Bn (t2 ; x) = a + (b a) n =
i=0
n i (b a)
Xn n i i
n (b
2 x) (x a)
= a n +
i=0
i (b a)
Xn n i i
i n (b x) (x a)
+2a (b a) n +
i=0
n i (b a)
Xn n i i
i2 n (b x) (x a)
+(b a)2 n =
i=0
n2 i (b a)
Xn n i i
n 1 (b x) (x a)
= a2 + 2a(b a) n +
i=1
i 1 (b a)
Xn n i i
i n 1 (b x) (x a)
+(b a)2 n
i=1
n i 1 (b a)
21
Possiamo riscrivere in modo conveniente il rapporto numerico i=n:
i i 1 1 n 1i 1 1
= + = +
n n n n n 1 n
di conseguenza si ha
i n 1 n 1i 1 1 (n 1)!
= + =
n i 1 n n 1 n (i 1)!(n i)!
n 1 (n 2)! 1 (n 1)!
= + =
n (i 2)!(n i)! n (i 1)!(n i)!
n 1 n 2 1 n 1
= + , n; i 2
n i 2 n i 1
n
X1 n j 1 j
n 1 (b x) (x a)
= a2 + 2a(b a) (x a) n +
j=0
j (b a)
n 1
1 (b x) (x a)
+(b a)2 n +
n (b a)
Xn n i i
n 1 n 2 1 n 1 (b x) (x a)
+(b a)2 + n =
i=2
n i 2 n i 1 (b a)
2a(b a) (x a) n 1
= a2 + n [(b x) + (x a)] +
(b a)
1 n 1
+ (b a)2 n
(b x) (x a) +
n
n
X n i i
n 1 n 2 (b x) (x a)
+(b a)2 n +
n i=2
i 2 (b a)
Xn n i i
1 n 1 (b x) (x a)
+ (b a)2 n
n i=2
i 1 (b a)
22
1 n 1 2 n 1
= a2 + 2a(x a) + (b a)2 n
(b x) (x a) + (x a) +
n n
1 h i
n 1 n 1
+ (b a)2 n
(x a) (b a) (b x)
n
1 n 1 2 n 1
= a2 + 2ax 2a2 +
(b a)2 n (b x) (x a) + (x a) +
n n
1 1 n 1
+ (b a)(x a) (b a)2 n (x a) (b x)
n n
2 n 1 1
= 2ax a2 + (x a) + (b a)(x a) =
n n
1 2 2
= x n x + xa + bx ab =
n
n 1 2 a+b ab
= x + x
n n n
8" > 0 9 > 0 : 8x1 ; x2 2 I se jx1 x2 j < =) jf (x1 ) f (x2 )j < "
M = maxf minf + 1
I I
Per andare avanti nella dimostrazione introduciamo una novit sul modo di
rappresentare la funzione f , cercando di esplicitare una forma polinomiale par-
ticolarmente conveniente che sfrutta la formula del binomio di Newton:
b a (b x) + (x a)
f (x) = f (x) 1 = f (x) = f (x) =
b a b a
n
(b x) + (x a)
= f (x) =
b a
n
f (x) X n n i i
= n (b x) (x a) =
(b a) i=0 i
n
X f (x) n n i i
= n (b x) (x a)
i=0
(b a) i
23
Lintento chiaramente quello di stimare la dierenza puntuale e(x) tra la fun-
zione f e il corrispondente polinomio di Bernstein di grado n:
Si osservi che tutti i tn;i (x) sono non negativi per ogni x 2 I e inoltre la som-
matoria fatta sullindice i vale esattamente 1, sicch possiamo comprendere che
essi non possono che essere tutti minori di 1:
n
X
tn;i (x) = 1 , tn;i (x) 0 =) tn;i (x) 1
i=0
d 1 n h n i 1 i n i i 1
i
tn;i (x) = n (n i) (b x) (x a) + i (b x) (x a) =
dx (b a) i
1 n n i 1 i 1
= n (b x) (x a) [ (n i) (x a) + i (b x)]
(b a) i
i i
H1 : = i2H:x2I, x (1 )a b <
n n
i i
H2 : = i2H:x2I, x (1 )a b
n n
24
insiemi di indici H1 e H2 :
X n
X
je(x)j "tn;i (x) + M tn;i (x) =
i2H1 i2H2
X n
X
= " tn;i (x) + M tn;i (x)
i2H1 i2H2
i i
x (1 )a b
n n
2
i i 2
x (1 )a b
n n
i 2
x (1 n )a b ni
1 2
25
Quindi si ha in particolare:
n
X n
M X
2
i i
M tn;i (x) 2 x (1 )a b tn;i (x)
n n
i2H2 i2H2
Xn 2
M i i
2 x (1 )a + b tn;i (x) =
i=0
n n
Xn n
M 2M x X i i
= 2 x2 tn;i (x) 2 (1 )a + b tn;i (x) +
i=0 i=0
n n
Xn 2
M i i
+ 2 (1 )a + b tn;i (x)
i=0
n n
M M M n 1 2 a+b ab
= 2 x2 2x2 2 + 2 x + x =
n n n
M M (b a)2
= 2 (b x) (x a) 2
n n 4
Abbiamo sfruttato chiaramente le propriet (5) e (6) dei polinomi di Bernstein
e nellultima disuguaglianza abbiamo maggiorato la stima scegliendo come x
proprio la semisomma degli estremi dellintervallo in modo tale da avere un
massimo nella funzione (b x) (x a) : Ritornando allora a considerare lerrore
puntuale e(x) si ha dunque:
X n
X n
X M (b a)2
je(x)j " tn;i (x) + M tn;i (x) " tn;i (x) + 2 =
i=0
n 4
i2H1 i2H2
M (b a)2
= "+ 2
n 4
Tale disuguaglianza che vera per ogni elemento x di I, vera per anche
scegliendo un qualsivoglia " positivo piccolo a piacere. Siccome dipende stret-
tamente dalla scelta di " logico che n quando " tende a zero, anche non pu
altrimenti che tendere a zero, in modo che se vogliamo comunque controllare in
norma innito je(x)j con un errore assoluto "a piccolo quanto si vuole, allora il
grado n dei polinomi di Bernstein dovr di conseguenza avere un ordine di in-
nito superiore a 2 : In denitiva, supponendo di scegliere " e "a , con " < "a , si
determina il conseguente (dipendente da ") per lipotesi di continuit uniforme
e si determina n in modo tale che soddis questa disuguaglianza:
2
1 4
< ("a ")
n M (b a)2
M (b a)2
n >
4 2 ("a ")
26
2. I Polinomi di Chebyshev nel problema minimax
I polinomi di Chebyshev si possono denire attraverso una relazione di ri-
correnza:
T0 (x) : = 1 (2.1.1)
T1 (x) : = x (2.1.2)
Tn+1 (x) : = 2xTn (x) Tn 1 (x) , 8n > 0 (2.1.3)
Lemma (2.2)
8n 0 Tn (cos ) = cos (n ) (2.2)
T0 (cos ) = 1 = cos (0 )
1. jTn (cos )j 1 8 2R
2 k n
2. Tn (cos ) = 1 , 2 [0; ] () = n , k = 0; 1; :::; 2 , n 2 N+
(2k+1) n 1
3. Tn (cos ) = 1 , 2 [0; ] () = n , k = 0; 1; :::; 2 ,
n 2 N+
27
Il simbolo b c indica la funzione parte intera. Grazie alle propriet (2) e (3)
si deduce che la funzione composta Tn (cos ) assume valore massimo o minimo
in modo alternato, solo in corrispondenza di k = k =n, con k = 0; 1; :::; n, cio
soltanto per quelle ascisse x comprese in [ 1; 1] tali che
k
xk = cos , k = 0; 1; :::; n
n
Tn 1
max jpn (x)j max = n (2.4)
[ 1;1] [ 1;1] 2n 1 2 1
28
sapevamo dal lemma precedente, era il miglior polinomio approssimante, quindi
abbiamo ottenuto lassurdo.
29
Introduciamo adesso una matrice triangolare inferiore X = xnj di ordine
N > 0 grande quanto si vuole (j; n = 0; 1; :::; N 1), detta matrice di interpo-
lazione, in cui ogni singola riga n-esima composta da nodi xn0 , xn1 , ... , xnn
dellintervallo [a; b] scelti in modo arbitrario purch tutti gli elementi siano dis-
tinti. Per esempio si pu costruire la matrice X facendo s che i nodi compaiano
in ordine strettamente crescente lungo ciascuna riga, anche se comunque tale
richiesta non strettamente necessaria ma rende lo schema logico formalmente
corretto. 2 3
x00 0 0 0 0
6 x10 x11 0 0 0 7
6 7
X=6 6 x 2
x 2
x 2
0 0 7 (2.6)
0 1 2 7
4 :: :: :: :: :: 5
xN
0
1
x1N 1 x2N 1 :: xN N 1
1
30
correlata in qualche modo al pi piccolo errore massimo esistente
En = kf pn k1 (2.11)
passando ai moduli si ha
n
X (n)
jf (x) pn (x)j jf (x) pn (x)j + pn xnj pn xnj lj (x)
j=0
ricordiamo peroche pn stato scelto per interpolare f nei nodi della riga n + 1-
esima di X, per cui si ha:
n
X (n)
jf (x) pn (x)j jf (x) pn (x)j + pn xnj f xnj lj (x)
j=0
n
X (n)
En + E n lj (x) En (1 + n (X))
j=0
e siccome la disuguaglianza vera per ogni x dellintervallo [a; b], allora vera
in particolare per quei elementi x che massimizzano il resto tra f e pn :
En En (1 + n (X))
31
Per quanto concerne la costante di Lebesgue sono stati ottenuti vari risul-
tati nel secolo scorso per determinarne sia landamento asintotico che eventuali
limitazioni sotto forma di disuguaglianza.
A titolo di informazione citiamo limportante stima ottenuta dai ricercatori
Ehlich e Zeller (nel 66) valevole solo per i nodi di Chebyshev:
2 2
a0 + ln(n + 1) < n (X) < ln(n + 1) + 1 (2.13)
3. Lalgoritmo di Remez
Il problema dellapprossimazione minimax non ammette in generale soluzioni
polinomiali esatte poich non sempre possibile ricorrere con successo al calcolo
simbolico.
Per ovviare a questo inconveniente si sfruttano particolari algoritmi iterativi
che facendo leva sul teorema di equioscillazione, costruiscono una successione
di polinomi pn 2 Pn che interpolano una data funzione f sopra n + 2 nodi
(modicabili ad ogni passo) e che convergono a p :
Uno degli algoritmi pi noti preposti a questo tipo di operazione noto come
algoritmo di Remez.
In questo lavoro noi presenteremo una versione modicata dellalgoritmo di
Remez e ne evidenzieremo le principali dierenze con relativi vantaggi e svan-
taggi.
Scriviamo per comodit del lettore lunico e il solo criterio (esplicitato sotto
forma di sistema di equazioni algebriche) con il quale siamo certi che un poli-
nomio pn di grado n sia di migliore approssimazione in norma lagrangiana per
una data funzione f denita in [a; b] :
a x0 < x1 < ::: < xn+1 b (3.1.1)
i
f (xi ) pn (xi ) = ( 1) d , 8i = 0; 1; :::; n + 1 (3.1.2)
d = max jf (x) pn (x)j , j j = 1 (3.1.3)
[a;b]
32
1. I dati da fornire in input sono lespressione analitica della funzione f
tramite il comando inline(che nelle future versioni di Matlab verr sop-
presso), il grado n del polinomio e gli estremi a; b dellintervallo di stu-
dio. Alla prima iterazione si possono scegliere indierentemente n + 2
punti interni in (a; b), messi a random con distribuzione uniforme. Questi
nodi vengono memorizzati in un vettore che per semplicit battezziamo
con il termine nodi, inoltre indispensabile anche inizializzare un altro
vettore che conterr le ascisse dei nodi alliterazione precedente e lo chi-
ameremo nodi_old. Alcuni algoritmi innestano inizialmente in (a; b) una
collocazione standard pressata dei nodi (ad esempio optano per la dis-
tribuzione uniforme o quella di Chebyshev), ma questa procedura potrebbe
risultare inopportuna se disgraziatamente la funzione resto dovesse an-
nullarsi proprio in quel set di punti. Una distribuzione randomizzata porta
con s evidentemente lindiscusso vantaggio di far s che lutente possa ri-
cominciare il ciclo con una congurazione nodale iniziale dierente se il
ciclo precedente non fosse andato a buon ne.
e il massimo del vettore dei moduli dei valori delle ordinate in corrispon-
denza degli n + 2 nodi:
33
calcolati al ciclo i esimo e i due massimi d, D corrispondono quantitati-
vamente.
V=zeros(n+2,n+2);
for i = 1 : n+2
for j = 1 : n+1
V(i,j)=nodi(i)^(n-j+1);
end
end
for i = 1 : n+2
V(i,n+2)=(-1)^(i-1);
end
% vettore dei termini noti
yf=[f(nodi)];
% coe cienti polinomiali e termine equioscillatorio
p=Vnyf;
d=p(end);
p=p(1:end-1);
34
locali. Qui, va rilevato per che si apre la sostanziale modica rispetto
allalgoritmo classico di Remez. Infatti nella versione classica, non si pro-
cedeva aatto alla ricerca di tutti gli zeri, ma bastava soltanto cercare un
solo zero compreso tra un nodo e quello immediatamente successivo. Lo
zero ivi compreso, certamente esisteva grazie alla propriet di oscillazione
dei valori nodali e pertanto per determinarlo esplicitamente si poteva ri-
correre per esempio al metodo di bisezione. In questa modica invece,
gli zeri devono essere trovati tutti indistintantemente perch si vuole par-
tizionare lintervallo [a; b] nei sottointervalli in cui la funzione resto solo
positiva (interv. di tipo +) o solo negativa (interv di tipo -). Il compito
di partizionare [a; b] viene a dato ad una sottofunzione appositamente
creata allo scopo, tralasciamo quindi gli aspetti prettamente tecnici che
riguardano questa operazione. Ora, su ciascun intervallo si cerca il punto
sullasse x e il valore di massimo scostamento della funzione resto dalla
retta y = 0. In altre parole, per ogni intervallo di tipo + si va a cercare il
massimo e il punto di massimo e per ogni intervallo di tipo - si cerca invece
il minimo e il corrispondente punto di minimo. Tutti questi valori vanno
memorizzati in due vettori dierenti. In particolare, dopo aver memoriz-
zati i nodi delliterazione precedente nel vettore nodi_old, possiamo molto
astutamente salvare le ascisse corrispondenti agli estremi locali proprio nel
vettore nodi, salvo poi eliminare quelli in eccesso secondo un criterio che
verr studiato nel passo (5). Si badi bene infatti, che i nodi devono essere
in tutto n + 2 per il teorema di equioscillazione, questo per non implica
assolutamente il fatto che non ci possano essere estremi locali in numero
maggiore.
35
In mancanza di informazioni qualitative sulla funzione f pn e sulla sua
derivata f 0 p0n lalgoritmo classico prevedeva di suddividere ogni volta gli
intervalli compresi tra due zeri consecutivi (ottenuti col metodo di bisezione)
con passi che tuttalpi potevano essere anche di lunghezza variabile per meglio
adattarsi alla geometria di f , invece in questa versione modicata si eettua
una volta per tutte un unico calcolo complessivo delle ordinate della funzione
resto risparmiando allelaboratore laggiunta di tanti altri sottocicli interni.
Naturalmente il numero di suddivisioni deve essere comunque molto elevato
se vogliamo avere perlomeno la speranza di aver trovato tutti gli intervalli di
tipo + e - (tipicamente intorno alle 50.000 suddivisioni).
Per quanto concerne invece la risoluzione del sistema algebrico dobbiamo
chiederci se eettivamente siano garantite lesistenza e lunicit della soluzione.
La risposta per fortuna positiva perch ci viene in soccorso un teorema che
assicura queste propriet.
Pi approfonditamente notiamo che la matrice associata al sistema sostanzial-
mente lunione di una matrice di Vandermonde con laggiunta di una colonna a
j
destra di termini oscillatori del tipo ( 1) :
2 3
1 x0 x20 :: xn0 1
6 1 x1 x21 :: xn1 1 7
6 7
6 1 x x 2
:: x n
1 7
6 2 2 2 7 (3.2)
6 1 x x 2
:: x n
1 7
6 3 3 3 7
4 :: :: :: :: :: :: 5
2 n n+1
1 xn+1 xn+1 :: xn+1 ( 1)
36
r e desidera cercare il suo miglior polinomio approssimante con un grado non
inferiore a r stesso!
Eevidente che in questo singolare caso il miglior polinomio approssimante
coincide proprio con la funzione stessa e quindi il resto identicamente nullo su
tutto linsieme di denizione.
Laltro grosso inconveniente dato purtroppo dal malcondizionamento della
matrice propria del sistema lineare.
Se non si dispone di metodi numerici mirati a trovare le soluzioni di sistemi
malcondizionati occorre accontentarsi di risolvere sistemi di ordine relativa-
mentepiccolo.
Abbiamo constatato infatti gi notevoli problemi di accuratezza per gradi
superiori a 10.
Si consiglia pertanto di non eccedere con il grado ed eettuare semplici test
puramente a scopo didattico con funzioni non troppo complicate (ad esempio
non troppo oscillanti) e valori di n non superiori a 9.
In ogni caso Matlab avvisa lutente del problema stampando un messaggio
a video che aerma :
Warning: Matrix is close to singular or badly scaled.
Esempio (3.1)
Si consideri la funzione
37
Si noti che il numero di equioscillatori pari a 6, cio due in pi del grado
scelto, ma questo era perfettamente previsto e voluto dal metodo. Il massimo
scostamento rilevato stato pari a d = D = 8:017758:
38
39
In ogni iterazione sono stati indicati in verde le ordinate dei nodi precedenti
e in blu le ordinate dei nodi nuovi che rimpiazzano i precedenti disponendosi
nei picchi e nelle valli locali pi alte secondo il criterio gi discusso al punto (5).
Esempio (3.2)
40
Esempio (3.3)
41
Polinomio approssimante migliore trovato dal metodo :
Bibliograa
42