Sei sulla pagina 1di 42

Approssimazione ottimale nella norma uniforme

di Alberto Cella

Nota: questo lavoro una rivisitazione ampliata ed informale di appunti universitari


personali e frutto di consultazione di testi indicati in bibliograa. Eventuali errori ricadono
esclusivamente sotto la mia diretta responsabilit.

1. Risultati e formalizzazione del problema


Lintento di questo elaborato quello di approssimare una funzione continua
f denita in un pressato intervallo chiuso e limitato I = [a; b], con a < b,
mediante polinomi p in I cercando di minimizzare lerrore commesso che in
questo caso sar quello che discende direttamente dalla cosiddetta norma innito
(o del massimo o lagrangiana):

kf pk1 = max jf (x) p(x)j (1.0)


x2[a;b]

Il problema cos posto prende il nome di problema della approssimazione mini-


max in quanto si cerca appunto il polinomio che minimizza lerrore nella norma
del massimo.
Pi avanti dimostreremo lesistenza di tale polinomio, per ora si noti che
grazie al teorema di Weierstrass la funzione f ammette certamente un valore di
massimo e uno di minimo nel codominio di I:
Consideriamo allora lo spazio vettoriale C 0 (I) delle funzioni continue sopra
un intervallo compatto I.

Denizione (1.1) Dato un intero positivo n, si dice che le funzioni k 2


C 0 (I), con k = 1; :::; n sono linearmente indipendenti in I se lunica combi-
nazione lineare identicamente nulla in I si ha soltanto quando tutti i coe cienti
ak sono identicamente nulli:
n
X
ak k (x) = 0 , 8x 2 I () ak = 0 , 8k = 1; :::; n (1.1)
k=1

In caso contrario le funzioni si dicono linearmente dipendenti. Si badi bene


comunque che per il nostro scopo le funzioni che saranno utilizzate nel problema
dellapprossimazione nella norma innito sono solamente i monomi della forma
k 1
k =x :
Il seguente teorema fornisce una condizione equivalente per mostrare se le
funzioni k sono linearmente indipendenti.

1
Teorema (1.2) Condizione necessaria e su ciente a nch n funzioni 1 ; :::; n
denite in I = [a; b] e ivi continue e limitate siano linearmente indipendenti
che risulti non nullo il determinante della matrice G di Gram associata alle n
funzioni:
Z b
Gij := i (x) j (x)dx (1.2)
a

Il teorema pu essere esteso anche a funzioni denite in domini sottoinsiemi


di Rq .
In questo lavoro non ci interessa dare una dimostrazione del teorema, per
sottolineiamo che facile constatare per esercizio che i monomi del tipo k =
xk 1 sono linearmente indipendenti.
Ora supponiamo di munire lo spazio C 0 (I) di una norma qualsiasi k k (non
necessariamente la norma lagrangiana) e di considerare un suo sottospazio S di
dimensione nita n + 1 generato dalle n + 1 funzioni linearmente indipendenti
0
0 (x), 1 (x); :::; n (x) 2 C (I) :
Il seguente risultato di fondamentale importanza nello studio del problema
di approssimazione lineare.

Teorema (1.3) di esistenza. Data una funzione f 2 C 0 (I) esiste almeno


un elemento f nel sottospazio S generato dalle n + 1 funzioni k (x) 2 C 0 (I),
con k = 0; 1; :::; n , tale che
n
X
kf f k= minn+1 f k k (1.3.1)
( )2R
k=0

dove ( ) = ( 0; 1 ; :::; n) un vettore di Rn+1

La funzione f che minimizza la norma si chiama polinomio generalizzato di


miglior approssimazione di f in S nella norma k k, mentre la quantit

d( 0; 1 ; :::; n) = kf f k (1.3.2)

si dice deviazione di f da S.

Dimostrazione (1.3). Consideriamo la funzione d ( ) : Rn+1 ! R


denita come
n
X
d ( ) := f k k
k=0

e dimostriamo preliminarmente che essa continua (uniformemente). Esu -


ciente mostrare allora che esiste una costante C > 0 tale che presi due vettori
qualsiasi ; 2 Rn+1 allora

jd ( ) d ( )j Ck k2

2
dove con il simbolo k k2 intendiamo la ben nota norma euclidea. Infatti si ha:
n
X n
X
jd ( ) d ( )j = f k k f k k
k=0 k=0
n
! n
!
X X
f k k f k k =
k=0 k=0
n
X n
X
= ( k k) k k( k k) kk
k=0 k=0
n
X n
X
j k kj k kk j k k j1 k kk
k=0 k=0

Daltra parte ricordiamo che in Rn+1 le norme k k1 e k k2 sono equivalenti


(in particolare
Pn vero che k k1 k k2 ), quindi la costante cercata proprio
C = k=0 k k k : Consideriamo ora la sfera Bf di centro f e raggio kf k

Bf = h 2 C 0 (I) : kh fk kf k

e notiamo che Bf \ S ha intersezione non vuota perch contiene almeno la fun-


zione nulla. Incidentalmente se il miglior polinomio generalizzato approssimante
fosse proprio la funzione identicamente nulla, avremmo allora che la deviazione
sarebbe uguale a kf k e poich non siamo sicuri della presenza di altri elementi
non possibile cercare un eventuale minimo in sfere a raggio pi piccolo. Inoltre
Bf \ S un insieme limitato (sottoinsieme di uno spazio a dimensione nita)
perch lo Bf , ma anche chiuso perch intersezione di due chiusi, quindi
compatto. Grazie alla continuit della funzione d segue per il teorema di Weier-
strass che esiste almeno un minimo nellinsieme Bf \S: Echiaro che ad esempio
se f appartiene ad S allora esiste una combinazione lineare nelle funzioni k e
la deviazione cercata vale proprio zero, che certamente il valore pi piccolo
ammissibile per una norma. E chiaro altres che il minimo non va ricercato
nellintersezione tra il complementare di Bf ed S, perch altrimenti avremmo
dei valori superiori a kf k e quindi inaccettabili poich in Bf \ S abbiamo scop-
erto un minimo. Questa osservazione implica quindi

min kh fk inf kh fk
h2Bf \S h2Bfc \S

cio
min kh f k = min kh fk
h2Bf \S h2S

Il teorema precedente garantisce dunque lesistenza di almeno un minimo


per purtroppo non garantita in generale lunicit. Prossimamente faremo
vedere comunque che il problema di approssimazione minimax ammette soluzione
unica.

3
Se non garantita lunicit si scopre in generale che linsieme delle soluzioni
minimizzanti nel senso della generica norma k k convesso.

Teorema (1.4) Data una funzione continua f : I ! R e g, g 0 : I !R


due funzioni continue appartenenti al sottospazio S tali che

kf gk = kf g 0 k = min kf hk (1.4.1)
h2S

allora tutte le combinazioni lineari del tipo

gt = tg + (1 t) g 0 , 8t 2 [0; 1] (1.4.2)

appartengono ad S e sono soluzioni del problema di minimax.

Dimostrazione (1.4).

Lappartenenza ad S ovvia perch si tratta di una combinazione lineare di


funzioni appartenenti allo spazio vettoriale S: Indichiamo con la deviazione di
f in S ottenuta dalle funzioni g, g 0 , cio = kf gk = kf g 0 k : Si ha:

kf [tg + (1 t) g 0 ]k = kf tg g 0 + tg 0 k =
= kt (f g) + (1 t) (f g 0 )k
t k(f g)k + (1 t) kf g 0 k =
= t + (1 t) =

Quindi linsieme delle funzioni minimizzanti convesso.

Fissato il grado n 0 del polinomio generico p(x), consideriamo linsieme


Pn (I) di tutti i polinomi di grado al pi n deniti nellintervallo I:

Pn (I) := fp : I ! R : deg p ng

e cerchiamo il polinomio di miglior approssimazione p 2 Pn (I) tale che:

kf p k1 kf pk1 8p 2 Pn (I)

Inoltre indichiamo con R il miglior resto possibile:

R = kf p k1

Abbiamo un primo notevole risultato che fornisce una limitazione inferiore al


valore di R , noto come:

Teorema (1.5) di de la Valle - Poussin: Sia f 2 C 0 (I) e sia pn (x) 2


Pn (I) un polinomio di grado n 0 per cui esistono n + 2 punti in I; x0 < x1 <
::: < xn+1 ; in cui vale

f (xi ) pn (xi ) = ( 1)i di 8i = 0; 1; :::; n + 1 (1.5.1)

4
dove le costanti di hanno tutte lo stesso segno e inoltre sono non nulle, allora

R min jdi j (1.5.2)


i

Il teorema aerma che se riusciamo a trovare il polinomio minimizzante,


allora non si riesce ad approssimare nella norma innito la funzione di partenza
con un errore pi piccolo del pi piccolo dei valori assoluti di questi di :

Dimostrazione (1.5).

La dimostrazione si eettua per assurdo. Senza perdere in generalit sup-


poniamo che tutti i di siano positivi. Supponiamo per assurdo dunque che esista
un polinomio q(x) 2 Pn (I) che contraddica la tesi:

kf (x) q(x)k1 < min jdi j


i

Allora andiamo a considerare la funzione s(x) = pn (x) q(x) e calcoliamone i


suoi valori in corrispondenza dei punti xi :

s(xi ) = pn (xi ) q(xi ) = [pn (xi ) f (xi )] + [f (xi ) q(xi )] =


= ( 1)i+1 di + [f (xi ) q(xi )]

Daltra parte tutte le dierenze f (xi ) q(xi ) sono in modulo pi piccole di


kf (x) q(x)k1 per denizione di norma, quindi in particolare ricordando il
ruolo di q(x) abbiamo

jf (xi ) q(xi )j < kf (x) q(x)k1 min jdi j jdi j 8i = 0; 1; :::; n + 1


:

e per come si caratterizza q(x); dunque possiamo aermare che per ogni indice
i esistono n + 2 scalari i 2 ( 1; 1) tali che

f (xi ) q(xi ) = i di

Allora
s(xi ) = ( 1)i+1 di + i di = ( 1)i+1 + i di
e dunque si vede che il segno di s(xi ) corrisponde necessariamente a quello di
( 1)i+1 . In eetti avendo supposto di > 0 si ha una alternanza di segni di
questo tipo :

s(x0 ) < 0 , s(x1 ) > 0 , s(x2 ) < 0 ... ecc.

Tuttavia siamo arrivati ad un contradditorio perch abbiamo trovato un poli-


nomio s(x) 2 Pn (I) avente n + 1 variazioni di segno allinterno di I e che quindi
dovrebbe avere almeno n + 1 radici, cosa del tutto impossibile visto che il grado
di s(x) al pi n e per un noto teorema fondamentale dellalgebra il numero
massimo di radici reali non pu superare n stesso.

5
Esempio 1.6 Consideriamo la funzione f (x) = sin(x) nellintervallo chiuso e
limitato I = [ ; ] e andiamo a prendere il polinomio di primo grado p1 (x) =
3x 1
4 4 passante per i punti A( ; 1) e B( ; 12 ), come riportato nella gura
sottostante:

I 4 nodi scelti sono:

x0 = , x1 = , x2 = , x3 =
2 2
e le rispettive dierenze tra la funzione seno e il polinomio di primo grado
diventano:
3 1
f (x0 ) p1 (x0 ) = sin( ) =1
4 4
3 1 3
f (x1 ) p1 (x1 ) = sin( ) =
2 8 4 8
3 1 7
f (x2 ) p1 (x2 ) = sin( ) =
2 8 4 8
3 1 1
f (x3 ) p1 (x3 ) = sin( ) =
4 4 2

Dunque tali dierenze hanno segno alterno e rispettano pertano la condizione


richiesta dal teorema, quindi ne consegue immediatamente che il massimo scosta-
mento dalla funzione sin(x) del polinomio di miglior approssimazione (nella
norma lagrangiana) non pu sicuramente scendere al di sotto di 3=8:
In eetti dimostreremo pi avanti che il valore di R (circa) 0.68246.

Unaltro teorema che andiamo a presentare ed anche abbastanza intuitivo


da comprendere asserisce che il miglior polinomio costante p0 tra tutti i polinomi
costanti che approssimano una data funzione quello dato dalla semisomma del
massimo e del minimo della funzione stessa. Il risultato di per s ha natural-
mente valore puramente a scopo didattico.

6
Teorema (1.7) Sia f 2 C 0 (I) con I intervallo chiuso e limitato, allora il
polinomio costante di miglior approssimazione

1
p0 = max f + min f (1.7.1)
2 I I

e inoltre il miglior resto possibile vale


L
R0 = (1.7.2)
2
dove L = max f min f
I I

Dimostrazione (1.7). Se f costante allora il massimo e il minimo di f


coincidono e dunque per denizione p0 = f e daltra parte il massimo scosta-
mento di f da se stesso non pu che essere evidentemente nullo, per cui R0 = 0:
Supponiamo ora invece che valga una diseguaglianza stretta tra il massimo e il
minimo
min f < max f
I I

allora dobbiamo distinguere tre casi in cui p0 viene a collocarsi rispetto al codo-
minio dellintervallo I:
Supponiamo in principio che p0 max f , allora il massimo scostamento R
I
diventa:

R = max jf p0 j = max (p0 f ) = p0 min f =


I I I

= p0 max f + max f min f L


I I I

Dunque lo scostamento R supera (o tuttalpi eguaglia) in questo caso il gap


esistente tra il massimo e il minimo di f e quindi non pu andare bene perch
il teorema asserisce che il miglior resto possibile L=2: Alla stessa conclusione
si perviene se si suppone che p0 min f e quindi lo lasciamo per esercizio al
I
lettore. Ipotizziamo ora invece che p0 sia strettamente compreso tra il minimo
e il massimo della funzione e indichiamo
1
= max f + min f p0
2 I I

Indichiamo con Iinf e Isup gli insiemi:

Iinf : = fx 2 I :f (x) p0 g
Isup : = fx 2 I :f (x) p0 g

ed entrambi sicuramente contengono (almeno) un punto di massimo e un punto


di minimo perch sono insiemi chiusi e limitati (le controimmagini di insiemi

7
chiusi sono chiusi se la funzione continua). Allora possiamo calcolare il resto
tra la funzione e il polinomio costante nella norma innito.

R = kf p0 k1 = max jf p0 j =
I

= max max (jf p0 j) ; max (jf p0 j) =


Iinf Isup

= max max (p0 f ) ; max (f p0 ) =


Iinf Isup

= max p0 min f ; max f p0


I I

Siccome
1
p0 = max f + min f
2 I I

allora si ha immediatamente
L L L
R = max ; + = +j j
2 2 2

da cui si deduce facilmente che il minimo pu essere raggiunto solo in corrispon-


denza per = 0, cio quando R = L=2 e la tesi cos dimostrata.

Denizione (1.8) Dati f 2 C 0 (I), pn (x) 2 Pn (I) e k intero positivo, diremo


che i punti x0 , x1 , ... , xk appartenenti ad I sono punti di equioscillazione se

f (xi ) pn (xi ) = ( 1)i kf pn k1 8i = 0; 1; :::; k (1.8)

dove pu assumere solo valore +1 oppure -1.

In eetti la denizione (1.8) rispetta pienamente la condizione imposta dal


teorema di de La Valle - Poussin perch basta imporre ad esempio che tutti i
di siano uguali proprio a kf pn k1 . Vediamo ora un facile esempio di questa
denizione.

Esempio 1.9 Consideriamo come funzione generica f la parabola di equazione


y = x2 +4x+1 e scegliamo la retta y = x+17=8 come polinomio approssimante
p1 di primo grado limitatamente allintervallo I = [0; 3] :
I punti sullasse delle ascisse di coordinate x0 = 0, x1 = 3=2, x2 = 3 sono
punti di equioscillazione. Per dimostrarlo dovremo aspettare lenunciato del
prossimo teorema, tuttavia possiamo gi calcolare le dierenze in ogni nodo e
constatare che eettivamente esse sono uguali in modulo e di segno alterno.

8
17 9
f (x0 ) p1 (x0 ) = 02 + 4 0 + 1 0+ =
8 8
!
2
3 3 3 17 9
f (x1 ) p1 (x1 ) = +4 +1 + =
2 2 2 8 8
17 9
f (x2 ) p1 (x2 ) = 32 + 4 3 + 1 3+ =
8 8

In gura vediamo i punti A1, A2, A3 appartenenti alla retta in corrispon-


denza dei nodi di equioscillazione e i punti P 1, P 2, P 3 della parabola congiunti
da segmenti segnati in verde che stanno a rappresentare la lunghezza della dif-
ferenza tra le rispettive ordinate. Per il teorema di equioscillazione p1 (x) sar
proprio il miglior polinomio del problema di minimax.

Teorema (1.10) di equioscillazione di Chebyshev: Sia f 2 C 0 (I) e sia


Pn (I) linsieme dei polinomi di grado n intero non nullo. Allora il polinomio
di miglior approssimazione pn per f esiste ed unico se e solo se esistono in I
n + 2 punti x0 , x1 , ... , xn+1 di equioscillazione.

Dimostrazione (1.10). Supponiamo che esistano questi n + 2 punti di


equioscillazione per un certo polinomio pn , allora per il teorema di de La Valle
- Poussin
R min jf (xi ) pn (xi )j = kf pn k1
i=0;:::;n+1

9
Siccome R il miglior resto possibile e il polinomio pn realizza un resto tut-
talpi minore (non strettamente) di R , allora facile convincersi che pn
proprio il miglior polinomio di approssimazione, cio pn = pn : Adesso veniamo
allaltra parte della dimostrazione. Dimostriamo quindi che se pn eettiva-
mente il miglior polinomio di approssimazione mini-max allora devono esistere
necessariamente n + 2 punti di equioscillazione. Per fare questo utilizziamo an-
cora una volta la dimostrazione per assurdo e negando la tesi facciamo vedere
che viene negata pure lipotesi. Dimostreremo quindi che se esistono k punti di
equioscillazione, con k < n + 2 allora pn non puo essere il miglior polinomio.
Supponiamo inizialmente
_
che k = 1, cio che esista solamente
_ _
un unico punto di
equioscillazione x 2 I tale che d = kf pn k1 = f (x) pn (x) . Naturalmente
poich tale punto unico allora segue necessariamente che d strettamente
positivo, altrimenti in caso contrario si avrebbe perfetta uguaglianza tra f e
pn . Consideriamo ora la funzione resto r (x) = f (x) p_ n (x) , 8x 2 I, e senza
alcuna
_
perdita di generalit assumiamo pure che in x = x il resto sia positivo:
r (x) = d > 0, dato che il ragionamento pu essere parimenti eettuato anche
al caso negativo. Sicuramente si pu aermare che il resto compreso tutto
nella striscia I x [ d; d], come mostrato in gura.

Allora andiamo a cercare quel valore positivo che minimizza in modulo la


distanza tra il resto e la retta orizzontale y = d; cio

= min (r (x) + d)
x2I

Questo valore non solo esiste perch esiste chiaramente il minimo del resto
r (x), ma anche strettamente positivo perch infatti abbiamo detto che il
resto non raggiunge_ mai la quota d, ma solamente laltra quota d nel punto
di equioscillazione x. Proviamo allora sotto queste circostanze a traslare il
cosiddetto polinomio di miglior approssimazione pn (x) in alto di un valore pari
alla met di :
pn (x) = pn (x) +
2

10
Calcoliamo allora il nuovo resto:

r(x) = f (x) pn (x) = f (x) pn (x) =


2
= r (x)
2
e vediamo quindi che il massimo dei moduli di r(x) inferiore a d, assurdo!

max jr(x)j = d
I 2
Abbiamo dimostrato quindi che pn non poteva essere il miglior polinomio ap-
prossimante. _ _ _
Supponiamo ora che il numero k dei punti di equioscillazione x0 ; x1 ; ...; xk 1
sia strettamente compreso tra 1 e n + 2:
1<k <n+2
Si noti che tra ogni coppia di punti di equioscillazione esiste
_
certamente
_
almeno
uno zero del resto r (x), per cui in ogni intervallo xi 1 ; xi delimitato dai
punti di equioscillazione, con i = 1; :::; k 1, esiste (almeno) un punto i tale
che r ( i ) = 0: Per semplicit, supponiamo inizialmente che gli zeri della funzione
resto compresi dentro ciascun intervallo siano unici e che non ci siano altri zeri
in [a; b], successivamente discuteremo il caso in cui ci potranno essere anche due
o eventualmente pi zeri nel medesimo intervallo o in prossimit degli estremi
a e b: Questa ipotesi comporta ovviamente che la funzione resto_
si_mantenga di
segno positivo o negativo su tutti i punti degli intervalli a; x0 e xk 1 ; b presi
singolarmente.
La gura seguente illustra bene la situazione attuale.

In ciascun intervallo [a; 1 ], [ 1 ; 2 ], [ 2 ; 3 ],... , k 1 ; b esiste quindi un solo


punto di equioscillazione. Consideriamo allora il polinomio di grado k 1 ( n)
passante per gli zeri del resto in [a; b] denito come
kY1
H(x) := ( i x)
i=1

11
e normalizziamolo introducendo la costante s := max jH(x)j
[a;b]

H(x)
h(x) :=
s
in modo tale che il codominio di h(x) sia interamente contenuto tra 1 e 1:
Si osservi inoltre che il polinomio h(x) ha la peculiarit di avere sempre verso
concorde o discorde con quello di r : se vale questultimo caso bisogna cambiare
il segno di h(x) per renderlo equiverso a r . In queste condizioni allora facile
mostrare che esiste un polinomio pn che approssima meglio la funzione f di p
nella norma innito ed cos denito:

pn (x) := p (x) + dh(x)

Infatti il nuovo resto

r(x) = f (x) pn (x) = r (x) dh(x)

si annulla solo nei punti i e risulta in modulo sempre minore di r (x) proprio
perch equiverso con dh(x), da cui lassurdo:

In gura sono rappresentati sia il presunto miglior resto che la funzione


dh(x), la loro dierenza d origine ad un nuovo resto (rappresentato dalla zona
segnata con linee blu) che non supera mai in modulo (in senso stretto) il valore
d:
Ora ci occupiamo del caso in cui tra due punti di equioscillazione consecu-
tivi esistono pi zeri della funzione resto, come mostrato nella prossima gura.
Naturalmente_ la presenza
_
di uno o pi zeri pu riguardare anche gli intervalli
periferici a; x0 e xk 1 ; b :

12
Ad esempio in gura abbiamo
_ _
ben 3 zeri che fanno perdere la corrispondenza
del segno nellintervallo x0 ; x1 . Occorre quindi cercare una via alternativa
a quella presentata precedentemente quando gli zeri erano unici e tentare di
costruire in un altro modo un polinomio migliore di p . Sia m il numero di zeri
(purtroppo in generale non inferiore a n) 1 ; :::; m del resto r interni ad (a; b)
e consideriamo linsieme di punti

a< 1 < 2 < ::: < m <b

che costituiscono un set di nodi ordinato in modo crescente denito sopra [a; b] :
A partire da questi nodi estraiamo un sottoinsieme (ordinato) che contenga
ancora gli estremi a; b in modo da formare degli intervalli (chiusi) che rispettino
le regole seguenti:

1. allinterno di due nodi consecutivi deve esserci soltanto un solo punto


di equioscillazione e linsieme di tutti gli intervalli deve costituire una
partizione dellinsieme [a; b]
2. se lordinata del punto di equioscillazione positiva allora lintervallo che lo
contiene deve essere tale che in ogni suo punto x si deve avere r (x) > d
e verr chiamato intervallo +, mentre se negativa allora ogni punto x
dellintervallo che lo contiene deve rispettare la condizione r (x) < d e in
tal caso si parler di intervallo -.

Per esempio
_
nella gura precedente sono _stati scelti 3 intervalli: [a; 4 ] per
il
_
nodo x 0 (intervallo +); [ 4 ; 6 ] per il nodo x1 (intervallo -); [ 6 ; b] per il nodo
x2 (intervallo +). Poich i punti di equioscillazione sono k in tutto, allora anche
questi intervalli Ii sono in totale k: Adesso deniamo
min [r (x) + d] , se Ii e di tipo +
"i := x2Ii , 8i = 1; :::; k
min [d r (x)] , se Ii e di tipo
x2Ii

13
Si noti che per denizione tutti gli "i sono strettamente positivi. Sia allora " il
minimo tra tutti questi valori:

" = min f"i g


i=1;:::;k

Il polinomio pn (x) che approssima meglio di p (x) si costruisce cos:


"
pn (x) = p (x) + h(x)
2
dove h(x) il solito polinomio di grado al pi n, di segno positivo negli intervalli
+ e di segno negativo in quelli di tipo - e passante solo negli zeri (n in tutto)
che delimitano detti intervalli e contenuto nella fascia tra 1 e 1:
Infatti il nuovo resto diventa
"
r(x) = f (x) pn (x) = r (x) h(x)
2
e il valore della sua norma lagrangiana risulta essere strettamente minore a
quello di r (x), da cui lassurdo.

Veniamo allunicit di pn e supponiamo per assurdo che esistano due poli-


nomi pn , p0n 2 Pn distinti tali che

kf pn k1 = kf p0n k1 = r

Allora sappiamo anche (v. teorema 1.4) che linsieme delle funzioni minimizzanti
convesso, cio per ogni t 2 [0; 1] se qn = tpn + (1 t) p0n , allora

kf qn k1 = r

Scegliamo ad esempio qn in corrispondenza del valore t = 1=2, grazie al teorema


di equioscillazione di Chebyshev esistono pertanto n+2 punti di equioscillazione
per qn : Sia y 2 [a; b] un punto di equioscillazione per qn , tale che

jf (y) qn (y)j = r

Si ha
1
jf (y) qn (y)j = f (y) (pn (y) + p0n (y))
2
1 1 1 1 0
f (y) pn (y) + f (y) p (y)
2 2 2 2 n
1 1
r + r =r
2 2
Di conseguenza
jf (y) pn (y)j = jf (y) p0n (y)j = r
e dunque si hanno soltanto due possibilit.

14
1. Se f (y) pn (y) = f (y) + p0n (y), allora
1 1
f (y) pn (y) + p0n (y) = f (y) qn (y) = 0
2 2
che impossibile, perch f (y) qn (y) = r > 0
2. Se invece f (y) pn (y) = f (y) p0n (y), allora

pn (y) = p0n (y)

ma y un generico punto di equioscillazione tra gli n + 2 casi possibili,


quindi i due polinomi coincidono su tutto lintervallo pn = p0n e la tesi
cos dimostrata.

Teorema (1.11) Se f (x) una funzione di classe C n+1 (I), con I = [a; b]
intervallo chiuso e limitato di R e inoltre f (n+1) (x) 6= 0 8x 2 I, allora gli
estremi x = a e x = b sono punti di equioscillazione per il polinomio di miglior
approssimazione di grado n.

Dimostrazione (1.11). Sia k il numero di punti di equioscillazione interni


ad [a; b], allora sicuramente per il teorema di Chebyshev k non pu essere supe-
riore a n + 2, per nel caso in cui due punti di equioscillazione siano proprio gli
estremi allora k non pu essere inferiore certamente ad n:

n k n+2

In ogni punto di equioscillazione interno si ha per denizione un massimo o un


minimo della funzione resto:
d d
r (x) = [f (x) pn (x)] = 0
dx dx
Ora proviamo ad applicare ripetutamente il teorema di Rolle alla funzione resto:
0 00
k zeri di (r ) implicano (almeno) k 1 zeri di (r ) , che implicano a loro volta
000
k 2 zeri per (r ) e cos via. In particolare si avr almeno uno zero per la
funzione r (k) : Se k = n + 1 allora r (n+1) (che continua) ha evidentemente
almeno uno zero, tuttavia poich pn ha grado n allora
(n+1) (n+1)
r = [f pn ] = f (n+1)

ma allora abbiamo trovato un assurdo perch per ipotesi f (n+1) doveva essere
non nullo in tutto lintervallo. Stesso ragionamento se k = n + 2 per cui si ha di
nuovo un assurdo, quindi lunico caso possibile k = n: Dato che k rappresenta
il numero di punti equioscillanti interni allora signica che rimangono disponibili
i due punti di frontiera.

Precedentemente avevamo mostrato un risultato abbastanza semplice ed in-


tuitivo sui polinomi di miglior approssimazione di grado nullo (cio le funzioni

15
costanti) che aermava che p andava scelto come semisomma della limitazione
superiore e inferiore del codominio di f , ora invece siamo in grado di ottenere
un risultato importante al caso dei polinomi di primo grado sfruttando proprio
il teorema enunciato sopra.

Problema di mini - max per polinomi lineari

Sia dunque f (x) 2 C 2 (I) con I = [a; b] e supponiamo anche f 00 (x) 6= 0 8x 2 I,


allora andiamo a cercare il polinomio p1 (x) = mx + q; con m; q 2 R , di miglior
approssimazione nella norma del massimo.
Per il teorema (1.11) i punti estremi di I sono di _
equioscillazione e pertanto
esiste un unico punto di equioscillazione
_
interno x: In totale abbiamo cos 4
equazioni nelle 5 incognite m; q; x; ; d; dove un numero che pu assumere
soltanto valore pari a +1 oppure -1 e invece d = kf p1 k1 :

f (a) ma q = d (1.12.1)
_ _
f (x) mx q = d (1.12.2)
f (b) mb q = d (1.12.3)
_
f 0 (x) m = 0 (1.12.4)

Le prime tre equazioni si ottengono evidentemente dalla denizione data sui


punti di equioscillazione, mentre la quarta equazione discende
_
direttamente dal
fatto che la funzione resto ha derivata nulla proprio in x: Non di cile risol-
vere questo sistema di equazioni, infatti sottraendo membro a membro la prima
equazione dalla terza si ricava subito il valore del coe ciente angolare m:

f (b) f (a)
m= (1.12.5)
b a
_
Grazie alla 4 equazione ricavo il punto x di equioscillazione interno, in generale
per non sempre si in grado di trovare una soluzione in formula chiusa e diventa _
necessario ricorrere a particolari algoritmi numerici. Una volta noto il valore di x
diventa facile anche calcolare il termine noto q della miglior retta approssimante
sommando la 1 e la 2 equazione tra di loro:

1 _ f (b) f (a) _
q= f (a) + f (x) a+x (1.12.6)
2 b a

Noti i valori di m e q la retta completamente determinata, mentre lerrore


massimo assoluto pu essere calcolato scegliendo indierentemente una delle
prime tre equazioni, ad esempio la prima

d = jf (a) ma qj

e il valore si ottiene di conseguenza anche se non rilevante.

16
Esempio 1.12 Riprendiamo in esame lesempio 1.9 dove la funzione f era
una parabola di equazione y = x2 + 4x + 1 nellintervallo [0; 3] e la retta
approssimante aveva equazione y = x + 17=8.
Si era anche detto che tale retta era la migliore tra tutte le rette approssi-
manti in virt del teorema di equioscillazione.
In eetti la conferma di quanto stato detto si pu avere anche risolvendo
il sistema di equazioni perch questo esempio rispetta la condizione basilare
f 00 (x) = 2 6= 0.
Infatti troviamo
f (3) f (0) 1
m= = ( 9 + 12 + 1 1) = 1
3 0 3
Il punto interno di equioscillazione dato da
_
2x + 4 1=0

cio
_ 3
x =
2
e il termine noto risulta essere
1 3 3
q = f (0) + f ( ) 1 0 + =
2 2 2
1 19 3 17
= 1+ 1 0+ =
2 4 2 8

mentre il massimo errore assoluto vale


17 17 9
d = f (0) 1 0 = 1 =
8 8 8

Come si vede abbiamo ritrovato gli stessi valori gi noti.

Enaturale aspettarsi nella maggior parte dei casi il mancato rispetto della
condizione sulla derivata seconda, in questo caso si pu tentare di risolvere il
sistema supponendo che gli estremi siano di equioscillazione e dopo aver calco-
lato lequazione della presunta retta di miglior approssimazione, vericare se la
funzione resto rimane connata allinterno del valore di massimo scostamento.
Se ci non accade occorre fare la supposizione che i punti di equioscillazione
interni siano almeno due, concedendo ad uno degli estremi di poter essere un
punto di equioscillazione.
Inne se nemmeno questa ipotesi trova verica, allora si procede alla ricerca
esclusiva di tre punti di equioscillazione interni.
Si badi bene per, che il teorema di Chebyshev non vieta al problema di
minimax per i polinomi di primo grado lesistenza di eventuali altri punti di
equioscillazione oltre ai tre gi dedotti.

17
Infatti un eventuale quarto oppure quinto punto di equioscillazione (o ad-
dirittura di ordine maggiore) dovr necessariamente collocarsi sulla linea della
retta migliore.
Il discorso ovviamente generalizzabile a polinomi di grado superiore al
primo, sicch ad esempio in certi problemi di tipo minimax con approssimazioni
mediante parabole si potranno avere anche pi di 4 punti di equioscillazione.
Il prossimo esempio illustra bene questa possibilit nel caso di una retta.

Esempio 1.13 Consideriamo la funzione f (x) = x3 nellintervallo [ 1; 1] e


proviamo a determinare la miglior retta approssimante ad f:
In questo esempio non vale pi la condizione sul segno della derivata seconda
perch infatti f 00 (x) = 6x:
Supponiamo comunque di cercare i punti di equioscillazione tra gli estremi
1 e 1 dellintervallo, pi un punto
_
di equioscillazione interno incognito che
denotiamo al solito con il simbolo x:
Se non dovessimo riuscire a risolvere il sistema si pu abbandonare lipotesi
di cercare tutte e due i punti proprio negli estremi al posto invece di due o al
massimo tre punti interni.
La funzione resto r (x) = x3 mx q, mentre il sistema di equazioni
diventa:

1+m q = d
_3 _
x mx q = d
1 m q = d
_2
3x = m

Risolvendo il sistema si trova m = 1 per il coe ciente angolare e due soluzioni


distinte per il punto di equioscillazione interna da considerare singolarmente
_ 1 _ 1
x1 = p , x2 = p
3 3
_
Se scegliamo ad esempio x2 si trovano di conseguenza il presunto termine noto
q e il presunto massimo errore assoluto d :
1 1
q= p , d= p
3 3 3 3
ma si vede che questi valori non sono corretti perch la funzione resto esce
purtroppo dal range [ d; d] : Infatti ad esempio:

1 5p 1
r p = 3>d= p
3 9 3 3

18
Proviamo
_ _
a supporre allora che vi siano _ben 2 punti di equioscillazione interni
x1 e x2 e uno di frontiera, ad esempio x3 = 1: Il nuovo sistema di equazioni
diventa:
_3 _
x1 mx1 q = d
_3 _
x2 mx2 q = d
1 m q = d
_2
3x1 = m
_2
3x2 = m

con soluzioni:
3 _ 1 _ 1 1
m= , q = 0 , x1 = , x2 = , d=
4 2 2 4

La funzione resto quindi r (x) = x3 43 x e rimane sempre connata tra


1
4 e 14 , inoltre si scopre sorprendentemente che anche il punto x = 1 di
equioscillazione, cos resta vericato che in questo esempio i punti erano quattro
in totale e non soltanto tre, come mostrato in gura.

Teorema (1.14) di approssimazione di Weierstrass. Per ogni funzione


f continua in un intervallo chiuso e limitato I = [a; b] e ssato un valore "
positivo piccolo a piacere esiste un polinomio pn di grado opportuno n tale che

kf pn k1 < " (1.14)

La dimostrazione che vogliamo far vedere tra poco di tipo costruttivo


perch introduce una certa classe di polinomi (sul campo reale) in grado di
approssimare bene tanto quanto si vuole una data funzione.
Tale dimostrazione (che non lunica possibile) dovuta al matematico
sovietico Sergej Bernstein, grazie al quale infatti la classe dei polinomi scelti
prende il nome appunto dal suo stesso ideatore. Dal punto di vista teorico il
teorema di Weierstrass rappresenta un interessante risultato di densit sullo
spazio delle funzioni continue C 0 (I) reali di variabile reale denite sopra un
dominio compatto. In sostanza stiamo aermando che la chiusura di Pn (I)

19
corrisponde proprio a C 0 (I) che, come ben noto, uno spazio metrico completo
nella norma del massimo. Inoltre ricordiamo anche che la convergenza nella
norma del massimo dei polinomi pn viene detta uniforme.
Premettiamo alla dimostrazione la seguente denizione:

Denizione (1.15) Si dice polinomio di Bernstein B(x) di grado n 0


sullintervallo I = [a; b] la sommatoria:
n
X
B(x) = ci Bin (x) , ci 2 R (1.15.1)
i=0

dove i Bin (x) sono elementi della base dei polinomi di Bernstein su I deniti
come:
n i i
n (b x) (x a)
Bin (x) := n (1.15.2)
i (b a)

Aiutandosi con la denizione appena riportata, i polinomi approssimanti


ideati da Bernstein per ogni funzione data f e per ogni intervallo chiuso e limi-
tato [a; b] si costruiscono con la formula seguente:
n
X n i i
i i n (b x) (x a)
Bn (f; x) = f (1 )a + b n (1.15.3)
i=0
n n i (b a)

Qui di seguito elenchiamo alcune importanti propriet dei polinomi di Bernstein,


alcune delle quali torneranno utili nella dimostrazione successiva del teorema di
approssimazione. Daremo anche la dimostrazione matematica delle propriet
(5), (6), lasciando al lettore interessato il compito di dimostrare le prime quattro
propriet.

1. Bn (f; x) 2 Pn
2. Bn (f; a) = a , 8n 2 N+
3. Bn (f; b) = b , 8n 2 N+

4. Bn (1; x) = 1 , 8n 2 N+
5. Bn (t; x) = x , 8n 2 N+
n 1 2 a+b ab
6. Bn (t2 ; x) = n x + n x n , 8n 2 N+ , n > 1

20
Dimostrazione della propriet (5)

n
X n i i
i n (b x) (x a)
Bn (t; x) = a + (b a) n =
i=0
n i (b a)
n
X n i i
n (b x) (x a)
= a n +
i=0
i (b a)

Xn n i i
n 1 (b x) (x a)
+ n 1 =
i=1
i 1 (b a)

a n
= n [(b x) + (x a)] +
(b a)
Xn n i i 1
n 1 (b x) (x a)
+ (x a) n 1
i=1
i 1 (b a)

Sia j = i 1
n
X1 n j 1 j
n 1 (b x) (x a)
Bn (t; x) = a + (x a) n 1 =
j=0
j (b a)
(x a) n 1
= a+ n 1 [(x a) + (b x)] =a+x a=
(b a)
= x

Dimostrazione della propriet (6)

n
X 2 n i i
i n (b x) (x a)
Bn (t2 ; x) = a + (b a) n =
i=0
n i (b a)
Xn n i i
n (b
2 x) (x a)
= a n +
i=0
i (b a)
Xn n i i
i n (b x) (x a)
+2a (b a) n +
i=0
n i (b a)
Xn n i i
i2 n (b x) (x a)
+(b a)2 n =
i=0
n2 i (b a)
Xn n i i
n 1 (b x) (x a)
= a2 + 2a(b a) n +
i=1
i 1 (b a)
Xn n i i
i n 1 (b x) (x a)
+(b a)2 n
i=1
n i 1 (b a)

21
Possiamo riscrivere in modo conveniente il rapporto numerico i=n:

i i 1 1 n 1i 1 1
= + = +
n n n n n 1 n
di conseguenza si ha

i n 1 n 1i 1 1 (n 1)!
= + =
n i 1 n n 1 n (i 1)!(n i)!
n 1 (n 2)! 1 (n 1)!
= + =
n (i 2)!(n i)! n (i 1)!(n i)!
n 1 n 2 1 n 1
= + , n; i 2
n i 2 n i 1

e sviluppando ulteriormente i calcoli si trova:


Xn n i i
n 1 (b x) (x a)
Bn (t2 ; x) = a2 + 2a(b a) n +
i=1
i 1 (b a)
Xn n i i
i n 1 (b x) (x a)
+(b a)2 n =
i=1
n i 1 (b a)

n
X1 n j 1 j
n 1 (b x) (x a)
= a2 + 2a(b a) (x a) n +
j=0
j (b a)
n 1
1 (b x) (x a)
+(b a)2 n +
n (b a)
Xn n i i
n 1 n 2 1 n 1 (b x) (x a)
+(b a)2 + n =
i=2
n i 2 n i 1 (b a)
2a(b a) (x a) n 1
= a2 + n [(b x) + (x a)] +
(b a)
1 n 1
+ (b a)2 n
(b x) (x a) +
n
n
X n i i
n 1 n 2 (b x) (x a)
+(b a)2 n +
n i=2
i 2 (b a)
Xn n i i
1 n 1 (b x) (x a)
+ (b a)2 n
n i=2
i 1 (b a)

22
1 n 1 2 n 1
= a2 + 2a(x a) + (b a)2 n
(b x) (x a) + (x a) +
n n
1 h i
n 1 n 1
+ (b a)2 n
(x a) (b a) (b x)
n
1 n 1 2 n 1
= a2 + 2ax 2a2 +
(b a)2 n (b x) (x a) + (x a) +
n n
1 1 n 1
+ (b a)(x a) (b a)2 n (x a) (b x)
n n
2 n 1 1
= 2ax a2 + (x a) + (b a)(x a) =
n n
1 2 2
= x n x + xa + bx ab =
n
n 1 2 a+b ab
= x + x
n n n

Dimostrazione (1.14). Costruiamo i polinomi di Bernstein Bn (f; x) come


indicato e dimostriamo che per ogni " > 0 esiste n tale che kf Bn k1 < ":
Intanto possiamo aermare grazie al teorema di Heine - Borel che f uniforme-
mente continua:

8" > 0 9 > 0 : 8x1 ; x2 2 I se jx1 x2 j < =) jf (x1 ) f (x2 )j < "

Ricordiamo inoltre che il codominio di I attraverso f limitato in R (per il


teorema di Weierstrass), cio esiste una costante M > 0 tale per cui:

8x1 ; x2 2 I jf (x1 ) f (x2 )j < M

Ad esempio si pu scegliere per M il valore:

M = maxf minf + 1
I I

Per andare avanti nella dimostrazione introduciamo una novit sul modo di
rappresentare la funzione f , cercando di esplicitare una forma polinomiale par-
ticolarmente conveniente che sfrutta la formula del binomio di Newton:
b a (b x) + (x a)
f (x) = f (x) 1 = f (x) = f (x) =
b a b a
n
(b x) + (x a)
= f (x) =
b a
n
f (x) X n n i i
= n (b x) (x a) =
(b a) i=0 i
n
X f (x) n n i i
= n (b x) (x a)
i=0
(b a) i

23
Lintento chiaramente quello di stimare la dierenza puntuale e(x) tra la fun-
zione f e il corrispondente polinomio di Bernstein di grado n:

e(x) = f (x) Bn (f; x) =


Xn n i i
i i n (b x) (x a)
= f (x) f (1 )a + b n
i=0
n n i (b a)

Indichiamo ora per ragioni di comodit


n i i
n (b x) (x a)
tn;i (x) = n
i (b a)

in modo tale che la dierenza puntuale si possa scrivere in modo pi compatto


come:
Xn
i i
e(x) = f (x) f (1 )a + b tn;i (x)
i=0
n n

Si osservi che tutti i tn;i (x) sono non negativi per ogni x 2 I e inoltre la som-
matoria fatta sullindice i vale esattamente 1, sicch possiamo comprendere che
essi non possono che essere tutti minori di 1:
n
X
tn;i (x) = 1 , tn;i (x) 0 =) tn;i (x) 1
i=0

Una conferma pi approfondita si ha calcolando e annullando la derivata prima


per ogni tn;i (x) quando i 6= 0; n:

d 1 n h n i 1 i n i i 1
i
tn;i (x) = n (n i) (b x) (x a) + i (b x) (x a) =
dx (b a) i
1 n n i 1 i 1
= n (b x) (x a) [ (n i) (x a) + i (b x)]
(b a) i

e si scopre cos che in x = a + ni (b a) si ha un punto di massimo con valore


minore di 1. Teniamo in sospeso questo fatto che utilizzeremo a breve per
maggiorare lerrore e andiamo ad eettuare una bipartizione sullinsieme degli
indici H = f0; 1; 2; :::; ng nel modo seguente:

i i
H1 : = i2H:x2I, x (1 )a b <
n n
i i
H2 : = i2H:x2I, x (1 )a b
n n

Allora lerrore puntuale si pu riscrivere per mezzo di due sommatorie sugli

24
insiemi di indici H1 e H2 :

e(x) = f (x) Bn (f; x) =


X i i
= f (x) f (1 )a + b tn;i (x) +
n n
i2H1
n
X i i
+ f (x) f (1 )a + b tn;i (x)
n n
i2H2

Grazie alluniforme continuit si sa per che per ogni indice i 2 H1 la dierenza


sottostante controllata in modulo da ":
i i
f (x) f (1 )a + b <"
n n

mentre per ogni indice i 2 H2 tale dierenza si mantiene sempre in modulo


limitata dalla costante M :
i i
f (x) f (1 )a + b <M
n n

e pertanto sfruttando le disuguaglianze sopra descritte, possiamo nalmente


trovare una prima maggiorazione allerrore puntuale e(x):

X n
X
je(x)j "tn;i (x) + M tn;i (x) =
i2H1 i2H2
X n
X
= " tn;i (x) + M tn;i (x)
i2H1 i2H2

Per ogni indice appartenente allinsieme H2 si ha:

i i
x (1 )a b
n n
2
i i 2
x (1 )a b
n n

i 2
x (1 n )a b ni
1 2

25
Quindi si ha in particolare:
n
X n
M X
2
i i
M tn;i (x) 2 x (1 )a b tn;i (x)
n n
i2H2 i2H2
Xn 2
M i i
2 x (1 )a + b tn;i (x) =
i=0
n n
Xn n
M 2M x X i i
= 2 x2 tn;i (x) 2 (1 )a + b tn;i (x) +
i=0 i=0
n n
Xn 2
M i i
+ 2 (1 )a + b tn;i (x)
i=0
n n
M M M n 1 2 a+b ab
= 2 x2 2x2 2 + 2 x + x =
n n n
M M (b a)2
= 2 (b x) (x a) 2
n n 4
Abbiamo sfruttato chiaramente le propriet (5) e (6) dei polinomi di Bernstein
e nellultima disuguaglianza abbiamo maggiorato la stima scegliendo come x
proprio la semisomma degli estremi dellintervallo in modo tale da avere un
massimo nella funzione (b x) (x a) : Ritornando allora a considerare lerrore
puntuale e(x) si ha dunque:

X n
X n
X M (b a)2
je(x)j " tn;i (x) + M tn;i (x) " tn;i (x) + 2 =
i=0
n 4
i2H1 i2H2

M (b a)2
= "+ 2
n 4
Tale disuguaglianza che vera per ogni elemento x di I, vera per anche
scegliendo un qualsivoglia " positivo piccolo a piacere. Siccome dipende stret-
tamente dalla scelta di " logico che n quando " tende a zero, anche non pu
altrimenti che tendere a zero, in modo che se vogliamo comunque controllare in
norma innito je(x)j con un errore assoluto "a piccolo quanto si vuole, allora il
grado n dei polinomi di Bernstein dovr di conseguenza avere un ordine di in-
nito superiore a 2 : In denitiva, supponendo di scegliere " e "a , con " < "a , si
determina il conseguente (dipendente da ") per lipotesi di continuit uniforme
e si determina n in modo tale che soddis questa disuguaglianza:
2
1 4
< ("a ")
n M (b a)2
M (b a)2
n >
4 2 ("a ")

26
2. I Polinomi di Chebyshev nel problema minimax
I polinomi di Chebyshev si possono denire attraverso una relazione di ri-
correnza:

T0 (x) : = 1 (2.1.1)
T1 (x) : = x (2.1.2)
Tn+1 (x) : = 2xTn (x) Tn 1 (x) , 8n > 0 (2.1.3)

Ogni polinomio Tn (x) ha grado n e ha coe ciente di grado massimo uguale a


2n 1 , per n > 0:
I polinomi di Chebyshev sono stati costruiti secondo questa relazione per
poter soddisfare la seguente notevole propriet:

Lemma (2.2)
8n 0 Tn (cos ) = cos (n ) (2.2)

Dimostrazione (2.2). La dimostrazione viene eettuata per induzione. La


base dellinduzione manifestamente vera perch

T0 (cos ) = 1 = cos (0 )

Verichiamo il passo induttivo e supponiamo vera la formula per n generico e


dimostriamo quindi che vera anche per n + 1 :

Tn+1 (cos ) = 2 cos Tn (cos ) Tn 1 (cos ) =


= 2 cos cos (n ) cos ((n 1) ) =
= 2 cos cos (n ) [cos (n ) cos + sin (n ) sin ] =
= cos (n ) cos sin (n ) sin =
= cos ((n + 1) )

Se compreso tra 0 e radianti il suo coseno varia chiaramente in tutto


lintervallo [ 1; 1] e pertanto non serve allargare lo studio dei polinomi di Cheby-
shev su domini pi grandi.
Elenchiamo alcune evidenti caratteristiche che godono questi polinomi riser-
vandoci di trarre immediate e importanti conclusioni.

1. jTn (cos )j 1 8 2R
2 k n
2. Tn (cos ) = 1 , 2 [0; ] () = n , k = 0; 1; :::; 2 , n 2 N+
(2k+1) n 1
3. Tn (cos ) = 1 , 2 [0; ] () = n , k = 0; 1; :::; 2 ,
n 2 N+

27
Il simbolo b c indica la funzione parte intera. Grazie alle propriet (2) e (3)
si deduce che la funzione composta Tn (cos ) assume valore massimo o minimo
in modo alternato, solo in corrispondenza di k = k =n, con k = 0; 1; :::; n, cio
soltanto per quelle ascisse x comprese in [ 1; 1] tali che

k
xk = cos , k = 0; 1; :::; n
n

In particolare si noti che se k pari allora il polinomio Tn ha valore massimo 1


nel punto xk e viceversa se k dispari allora ha un minimo che vale 1:
Abbiamo dunque scoperto che i polinomi di Chebyshev di grado n assumono
valore massimo o minimo n + 1 volte nellintervallo [ 1; 1]:

Lemma (2.3) Il polinomio qn 2 (x) = 2n1 1 Tn (x) + xn ha grado n 2, con


n 2 ed il miglior polinomio di approssimazione uniforme per la funzione xn
nellintervallo [ 1; 1] tra tutti i polinomi di grado al pi n 1:

Dimostrazione (2.3). Siccome il grado di Tn (x) n e i coe cienti direttivi


valgono tutti 2n 1 , allora q(x) non pu avere grado superiore ad n 1: Tuttavia
per come vengono costruiti i polinomi di Chebyshev il coe ciente relativo al
termine xn 1 sempre nullo, per cui il grado di q(x) eettivamente pari a
n 2: Daltronde la dierenza tra i polinomi
1
xn qn 2 (x) = Tn (x)
2n 1
rappresenta la funzione resto che contiene esattamente n + 1 punti di equioscil-
lazione per quanto visto precedentemente, quindi il teorema di equioscillazione
ci assicura che qn 2 (x) il miglior polinomio approssimante tra tutti i polinomi
di grado n 1 (nonostante il coe ciente direttivo valga zero).

Lemma (2.4) Propriet di minimax. Se pn (x) un qualsiasi polinomio


monico di grado (al pi) n, allora si ha:

Tn 1
max jpn (x)j max = n (2.4)
[ 1;1] [ 1;1] 2n 1 2 1

Dimostrazione (2.4). Ricordiamo che un polinomio si dice monico se il


coe ciente direttivo (cio quello del termine di grado massimo) identicamente
uguale ad uno. Per dimostrare questa propriet, supponiamo che esista un
polinomio p(x) monico di grado al pi n tale che:
1
kp(x)k1 < , x 2 [ 1; 1]
2n 1
Allora evidente che il polinomio q(x) = p(x) + xn di grado n 1 approssima
meglio xn in [-1,1] di quanto non faccia lo stesso 2n1 1 Tn (x) + xn che, come

28
sapevamo dal lemma precedente, era il miglior polinomio approssimante, quindi
abbiamo ottenuto lassurdo.

Lemma (2.5). Posto


(b a)n 2x (b + a)
Tn (a; b) := Tn (2.5.1)
22n 1 b a
e detto pn (x) un qualsiasi polinomio monico di grado (al pi) n risulta
(b a)n
max jpn j max jTn (a; b)j = (2.5.2)
[a;b] [a;b] 22n 1

Dimostrazione (2.5). Lunica funzione lineare che trasforma lintervallo


[a; b] nellintervallo [ 1; 1] la retta
2x (b + a)
y=
b a
quindi per composizione il polinomio di Chebyshev sul generico intervallo [a; b]
diventa
2x (b + a)
Tn ( )
b a
La sua forma si sviluppa inizialmente come
n
2x (b + a)
T = 2n 1
b a
perci il coe ciente direttivo vale
22n 1
(b a)n
e conseguentemente il polinomio monico corrispondente
(b a)n 2x (b + a)
Tn (a; b) = Tn ( )
22n 1 b a
Poich la norma lagrangiana di Tn vale 1 in [a; b], la norma lagrangiana di
Tn (a; b) vale quanto il reciproco del coe ciente direttivo. Per il lemma prece-
dente per essendo Tn (a; b) monico fa s che la tesi sia soddisfatta.

Per quanto riguarda la distribuzione delle radici di Tn (x) nellintervallo


[ 1; 1], dobbiamo ricordare il lemma (quello induttivo) in modo tale da es-
sere ricondotti al semplice studio della equazione trigonometrica Tn (cos ) =
cos(n ) = 0 che ha evidentemente per soluzioni:
(1 + 2k)
k = , k = 0; 1; :::; n 1
2n
(1 + 2k)
xk = cos , k = 0; 1; :::; n 1
2n

29
Introduciamo adesso una matrice triangolare inferiore X = xnj di ordine
N > 0 grande quanto si vuole (j; n = 0; 1; :::; N 1), detta matrice di interpo-
lazione, in cui ogni singola riga n-esima composta da nodi xn0 , xn1 , ... , xnn
dellintervallo [a; b] scelti in modo arbitrario purch tutti gli elementi siano dis-
tinti. Per esempio si pu costruire la matrice X facendo s che i nodi compaiano
in ordine strettamente crescente lungo ciascuna riga, anche se comunque tale
richiesta non strettamente necessaria ma rende lo schema logico formalmente
corretto. 2 3
x00 0 0 0 0
6 x10 x11 0 0 0 7
6 7
X=6 6 x 2
x 2
x 2
0 0 7 (2.6)
0 1 2 7
4 :: :: :: :: :: 5
xN
0
1
x1N 1 x2N 1 :: xN N 1
1

Si possono fare naturalmente inniti esempi di matrici di interpolazione, in


particolare se scegliamo come intervallo [a; b] proprio quello delimitato dagli
estremi a = 1 e b = 1 possiamo facilmente dedurre le matrici rispettivamente
nel caso di nodi equispaziati
2j
xnj = 1+ , j = 0; 1; :::; n
n
e nei nodi di Chebyshev
2j + 1
xnj = cos , j = 0; 1; :::; n (2.7)
2(n + 1)
Fissata dunque una matrice X, sia n f lunico polinomio di grado n che inter-
pola la funzione f (x) in corrispondenza dei nodi della riga n + 1-esima di X,
cio tale che
n n
n f xj = f xj , 8j = 0; 1; :::; n (2.8)
Senza addentrarci troppo in profondit, sappiamo dalla teoria che il polinomio
n f si costruisce per mezzo di una combinazione lineare di particolari polinomi
(n)
lj (x) detti polinomi caratteristici:
n
X (n)
nf (x) = f xnj lj (x) (2.9.1)
j=0

la cui forma data da


n
Y
(n) x xi
lj (x) := (2.9.2)
xj xi
i=0 , i6=j

La formula (2:9:1) viene detta forma di Lagrange del polinomio interpolatore.


Consideriamo inoltre il polinomio pn (x) di miglior approssimazione uniforme e
proviamo a dimostrare che esiste una sovrastima allerrore massimo di interpo-
lazione, denito come
En := kf n f k1 (2.10)

30
correlata in qualche modo al pi piccolo errore massimo esistente

En = kf pn k1 (2.11)

come in eetti assicurato dalla seguente proposizione.

Teorema (2.12) Se f 2 C 0 ([a; b]) e X una matrice di interpolazione su


[a; b], allora
En (1 + n (X)) En (2.12.1)
dove n (X) viene detta costante di Lebesgue di X e vale
0 1
Xn
@ (n)
n (X) = max lj A (2.12.2)
[a;b]
j=0

Dimostrazione (2.12). Anche il polinomio di miglior approssimazione


uniforme si presta ad essere interpolato secondo il metodo di Lagrange
n
X (n)
pn (x) = pn xnj lj (x)
j=0

perch infatti il grado di pn vale esattamente n mentre i nodi di interpolazione


sono proprio n+1: Consideriamo allora la funzione resto tra f e pn riadattandola
con opportuni artici:

f (x) pn (x) = [f (x) pn (x)] + [pn (x) pn (x)] =


Xn
(n)
= [f (x) pn (x)] + pn xnj pn xnj lj (x)
j=0

passando ai moduli si ha
n
X (n)
jf (x) pn (x)j jf (x) pn (x)j + pn xnj pn xnj lj (x)
j=0

ricordiamo peroche pn stato scelto per interpolare f nei nodi della riga n + 1-
esima di X, per cui si ha:
n
X (n)
jf (x) pn (x)j jf (x) pn (x)j + pn xnj f xnj lj (x)
j=0
n
X (n)
En + E n lj (x) En (1 + n (X))
j=0

e siccome la disuguaglianza vera per ogni x dellintervallo [a; b], allora vera
in particolare per quei elementi x che massimizzano il resto tra f e pn :

En En (1 + n (X))

31
Per quanto concerne la costante di Lebesgue sono stati ottenuti vari risul-
tati nel secolo scorso per determinarne sia landamento asintotico che eventuali
limitazioni sotto forma di disuguaglianza.
A titolo di informazione citiamo limportante stima ottenuta dai ricercatori
Ehlich e Zeller (nel 66) valevole solo per i nodi di Chebyshev:
2 2
a0 + ln(n + 1) < n (X) < ln(n + 1) + 1 (2.13)

dove a0 una costante che vale approssimativamente 0.9625. Come si vede


landamento asintotico della costante n nel caso di tipo logaritmico, che
certamente molto pi vantaggiosa di una semplice interpolazione con nodi
equispaziata, poich infatti si trova che in tal caso la convergenza di tipo
esponenziale:
2n+1
n (X) (2.14)
en log n
Nota : vedi Matematica Numericadi A. Quarteroni , p.239-240 oppure la wiki inglese al
sito http://en.wikipedia.org/wiki/Lebesgue_constant_(interpolation)

3. Lalgoritmo di Remez
Il problema dellapprossimazione minimax non ammette in generale soluzioni
polinomiali esatte poich non sempre possibile ricorrere con successo al calcolo
simbolico.
Per ovviare a questo inconveniente si sfruttano particolari algoritmi iterativi
che facendo leva sul teorema di equioscillazione, costruiscono una successione
di polinomi pn 2 Pn che interpolano una data funzione f sopra n + 2 nodi
(modicabili ad ogni passo) e che convergono a p :
Uno degli algoritmi pi noti preposti a questo tipo di operazione noto come
algoritmo di Remez.
In questo lavoro noi presenteremo una versione modicata dellalgoritmo di
Remez e ne evidenzieremo le principali dierenze con relativi vantaggi e svan-
taggi.
Scriviamo per comodit del lettore lunico e il solo criterio (esplicitato sotto
forma di sistema di equazioni algebriche) con il quale siamo certi che un poli-
nomio pn di grado n sia di migliore approssimazione in norma lagrangiana per
una data funzione f denita in [a; b] :
a x0 < x1 < ::: < xn+1 b (3.1.1)
i
f (xi ) pn (xi ) = ( 1) d , 8i = 0; 1; :::; n + 1 (3.1.2)
d = max jf (x) pn (x)j , j j = 1 (3.1.3)
[a;b]

Il metodo di Remez stato sviluppato con il potente software di simulazione


numerica Matlab. Per quanto riguarda la struttura del suo impianto algoritmico
abbiamo deciso di schematizzarlo in questi punti:

32
1. I dati da fornire in input sono lespressione analitica della funzione f
tramite il comando inline(che nelle future versioni di Matlab verr sop-
presso), il grado n del polinomio e gli estremi a; b dellintervallo di stu-
dio. Alla prima iterazione si possono scegliere indierentemente n + 2
punti interni in (a; b), messi a random con distribuzione uniforme. Questi
nodi vengono memorizzati in un vettore che per semplicit battezziamo
con il termine nodi, inoltre indispensabile anche inizializzare un altro
vettore che conterr le ascisse dei nodi alliterazione precedente e lo chi-
ameremo nodi_old. Alcuni algoritmi innestano inizialmente in (a; b) una
collocazione standard pressata dei nodi (ad esempio optano per la dis-
tribuzione uniforme o quella di Chebyshev), ma questa procedura potrebbe
risultare inopportuna se disgraziatamente la funzione resto dovesse an-
nullarsi proprio in quel set di punti. Una distribuzione randomizzata porta
con s evidentemente lindiscusso vantaggio di far s che lutente possa ri-
cominciare il ciclo con una congurazione nodale iniziale dierente se il
ciclo precedente non fosse andato a buon ne.

2 Si determinano le costanti globali obbligatorie, come il passo dx di dis-


cretizzazione in intervalli piccoli (e uniformi) dellintervallo [a; b] per gener-
are il corrispondente vettore delle ascisse (xx = [a : dx : b]), il numero
massimo di iterazioni (it_max ) consentite e la tolleranza massima (toll )
consentita sul test nodale per bloccare il ciclo. Inoltre deniamo altre
variabili fondamentali che verranno aggiornate ad ogni iterazione, quali il
massimo del vettore dei moduli delle ordinate del resto:

D = max abs(f (xx) polyval(p; xx))

e il massimo del vettore dei moduli dei valori delle ordinate in corrispon-
denza degli n + 2 nodi:

d = max abs(f (nodi) polyval(p; nodi))

Si apre quindi un ciclo while al cui interno contiene ovviamente le speciche


del metodo stesso e i test iniziali sono tre in tutto e richiedono che il
massimo tra i moduli delle singole dierenze tra i nodi nuovi e i nodi del
ciclo precedente continuino a superare la tolleranza (test nodale), che la
dierenza tra D e d continui ad essere in valore assoluto superiore ad un
certo valore pressato piccolo (test sul massimo) e che lindice (k) relativo
alliterazione corrente non abbia ancora superato il numero massimo di
iterazioni. In linguaggio Matlab si pu tradurre il tutto con la riga di
codice
while((max(abs(nodi nodi_old)) > toll jj
abs(abs(d) abs(D)) > 0:05) & k < it_max)
E evidente che il metodo sar andato a buon ne solo quando i nodi
calcolati alla generica iterazione i + 1 sono abbastanza prossimia quelli

33
calcolati al ciclo i esimo e i due massimi d, D corrispondono quantitati-
vamente.

3 Le successive tre fasi ancora da descrivere (n 3,4,5) valgono solo allinterno


del ciclo while principale. La funzione f data in partenza, i nodi ci
vengono assegnati con un vettore, allora quello che manca calcolare i
coe cienti dellunico polinomio che interpola f mantenendosi equidistante
dai nodi con oscillazione alternata. Per essere pi precisi, se indichiamo
con p(j) il vettore Matlab che contiene i coe cienti del polinomio, con
j = 1; :::; n + 1 , allora deve risultare vero il sistema di n + 2 equazioni

p(n+1) x(i)^n+:::+p(3) x(i)^2+p(2) x(i)+p(1)+( 1)^i d = f (nodi(i))

per ogni i = 1; :::; n + 2: Il codice Matlab responsabile della risoluzione del


sistema lineare il seguente:

V=zeros(n+2,n+2);
for i = 1 : n+2
for j = 1 : n+1
V(i,j)=nodi(i)^(n-j+1);
end
end
for i = 1 : n+2
V(i,n+2)=(-1)^(i-1);
end
% vettore dei termini noti
yf=[f(nodi)];
% coe cienti polinomiali e termine equioscillatorio
p=Vnyf;
d=p(end);
p=p(1:end-1);

Avremo modo di specicare tra breve alcune caratteristiche importanti di


questo sistema lineare.

4 Noti i coe cienti del polinomio approssimante, siamo in grado di ricostru-


ire globalmente in tutto [a; b] il vettore delle ordinate della funzione resto

r = f (xx) polyval(p; xx);

Questo vettore molto importante perch contiene logicamente tra i suoi


elementi i massimi e i minimi locali (e globali) della funzione resto. Giunti
alla fase (4) lobiettivo diventa proprio quello di rilevare prima tutti gli zeri
interni ad [a; b] del resto e poi tutti quanti i punti di massimo e minimo

34
locali. Qui, va rilevato per che si apre la sostanziale modica rispetto
allalgoritmo classico di Remez. Infatti nella versione classica, non si pro-
cedeva aatto alla ricerca di tutti gli zeri, ma bastava soltanto cercare un
solo zero compreso tra un nodo e quello immediatamente successivo. Lo
zero ivi compreso, certamente esisteva grazie alla propriet di oscillazione
dei valori nodali e pertanto per determinarlo esplicitamente si poteva ri-
correre per esempio al metodo di bisezione. In questa modica invece,
gli zeri devono essere trovati tutti indistintantemente perch si vuole par-
tizionare lintervallo [a; b] nei sottointervalli in cui la funzione resto solo
positiva (interv. di tipo +) o solo negativa (interv di tipo -). Il compito
di partizionare [a; b] viene a dato ad una sottofunzione appositamente
creata allo scopo, tralasciamo quindi gli aspetti prettamente tecnici che
riguardano questa operazione. Ora, su ciascun intervallo si cerca il punto
sullasse x e il valore di massimo scostamento della funzione resto dalla
retta y = 0. In altre parole, per ogni intervallo di tipo + si va a cercare il
massimo e il punto di massimo e per ogni intervallo di tipo - si cerca invece
il minimo e il corrispondente punto di minimo. Tutti questi valori vanno
memorizzati in due vettori dierenti. In particolare, dopo aver memoriz-
zati i nodi delliterazione precedente nel vettore nodi_old, possiamo molto
astutamente salvare le ascisse corrispondenti agli estremi locali proprio nel
vettore nodi, salvo poi eliminare quelli in eccesso secondo un criterio che
verr studiato nel passo (5). Si badi bene infatti, che i nodi devono essere
in tutto n + 2 per il teorema di equioscillazione, questo per non implica
assolutamente il fatto che non ci possano essere estremi locali in numero
maggiore.

5 In questa fase si determinano i nodi miglioritra tutti quelli gi memoriz-


zati nel vettore nodi. Echiaro quindi che bisogna operare una eliminazione
tra i nodi ritenuti scartabili, qualora eccedessero in numero il valore n+2:
Leliminazione deve essere fatta comunque rispettando sempre due basi-
lari regole, cio il mantenimento delloscillatoriet tra nodi consecutivi e la
presenza ssa del nodo con valore di scostamento piugrande in assoluto
rispetto a tutti gli altri. Per rispettare la prima regola, necessario pro-
cedere alla eliminazione diretta solo di coppie di nodi consecutivi oppure
solo uno dei nodi pi periferici. Questo stratagemma permette ovviamente
di salvaguardare il requisito della oscillazione. Il rispetto della seconda re-
gola ci induce a pensare di creare una sorta di funzione di preferibilit
tra coppie di nodi consecutivi e tra i due nodi periferici. Sorge abbas-
tanza naturale proporre allora il seguente criterio di scelta: una coppia di
nodi consecutivi preferibile ad unaltra coppia di nodi consecutivi se la
somma dei valori assoluti delle ordinate risulta essere maggiore, un nodo
periferico preferibile allaltro nodo periferico se il valore assoluto della
ordinata corrispondente risulta essere maggiore. A questo punto i nodi
sono n + 2 in tutto e si puoiterare il procedimento ntantoch non si esce
dal ciclo while per superamento dei test del punto (2).

35
In mancanza di informazioni qualitative sulla funzione f pn e sulla sua
derivata f 0 p0n lalgoritmo classico prevedeva di suddividere ogni volta gli
intervalli compresi tra due zeri consecutivi (ottenuti col metodo di bisezione)
con passi che tuttalpi potevano essere anche di lunghezza variabile per meglio
adattarsi alla geometria di f , invece in questa versione modicata si eettua
una volta per tutte un unico calcolo complessivo delle ordinate della funzione
resto risparmiando allelaboratore laggiunta di tanti altri sottocicli interni.
Naturalmente il numero di suddivisioni deve essere comunque molto elevato
se vogliamo avere perlomeno la speranza di aver trovato tutti gli intervalli di
tipo + e - (tipicamente intorno alle 50.000 suddivisioni).
Per quanto concerne invece la risoluzione del sistema algebrico dobbiamo
chiederci se eettivamente siano garantite lesistenza e lunicit della soluzione.
La risposta per fortuna positiva perch ci viene in soccorso un teorema che
assicura queste propriet.
Pi approfonditamente notiamo che la matrice associata al sistema sostanzial-
mente lunione di una matrice di Vandermonde con laggiunta di una colonna a
j
destra di termini oscillatori del tipo ( 1) :
2 3
1 x0 x20 :: xn0 1
6 1 x1 x21 :: xn1 1 7
6 7
6 1 x x 2
:: x n
1 7
6 2 2 2 7 (3.2)
6 1 x x 2
:: x n
1 7
6 3 3 3 7
4 :: :: :: :: :: :: 5
2 n n+1
1 xn+1 xn+1 :: xn+1 ( 1)

Si pu dimostrare infatti che essa ha sempre determinante nullo, purch non


esistano ovviamente nodi uguali.
Per convincersene su ciente applicare il teorema di Laplace allultima
colonna della matrice, si ottiene quindi una sommatoria con stesso segno di
n + 1 determinanti di dierenti matrici di Vandermonde.
Un teorema di algebra lineare assicura che se gli xi sono tutti distinti allora
il determinante non nullo.
Possiamo per dire di pi, perch in realt tutti i determinanti di Vander-
monde hanno medesimo segno perch questi nodi sono ordinati in modo cres-
cente, per cui sopprimendone uno alla volta con Laplace non si altera questa
relazione dordine.
Sommando algebricamente tutti questi risultati parziali si ottiene a maggior
ragione un risultato necessariamente non nullo.
Ora per doveroso mettere in luce anche alcuni inconvenienti tipici del
metodo, in particolare citiamo i due pi signicativi.
In primo luogo il metodo non pu andare a buon ne allorquando il massimo
scostamento nodale d troppo vicino allo zero (con ordine di grandezza pari a
10e-15) e pertanto occorre prevenire questo fenomeno con opportuni messaggi
di richiamo allutente.
Una situazione abbastanza comune in cui pu vericarsi questo evento avviene
quando lutente cerca di introdurre in input una funzione polinomiale di grado

36
r e desidera cercare il suo miglior polinomio approssimante con un grado non
inferiore a r stesso!
Eevidente che in questo singolare caso il miglior polinomio approssimante
coincide proprio con la funzione stessa e quindi il resto identicamente nullo su
tutto linsieme di denizione.
Laltro grosso inconveniente dato purtroppo dal malcondizionamento della
matrice propria del sistema lineare.
Se non si dispone di metodi numerici mirati a trovare le soluzioni di sistemi
malcondizionati occorre accontentarsi di risolvere sistemi di ordine relativa-
mentepiccolo.
Abbiamo constatato infatti gi notevoli problemi di accuratezza per gradi
superiori a 10.
Si consiglia pertanto di non eccedere con il grado ed eettuare semplici test
puramente a scopo didattico con funzioni non troppo complicate (ad esempio
non troppo oscillanti) e valori di n non superiori a 9.
In ogni caso Matlab avvisa lutente del problema stampando un messaggio
a video che aerma :
Warning: Matrix is close to singular or badly scaled.

Results may be inaccurate.

Concludiamo questa breve trattazione presentando tre esempi di applicazione


dellalgoritmo di Remez con il programma implementato in Matlab.

Esempio (3.1)

Si consideri la funzione

f (x) = 10 sin(x) cos(3x)

denita nellintervallo [2; 9] : Trovare il miglior polinomio p di approssimazione


in norma innito di 4 grado, plottare il graco di f e p evidenziando gli scosta-
menti equioscillatori e plottare tutti i graci della funzione resto ottenuti ad
iterazioni successive.

Polinomio approssimante migliore trovato dal metodo :

p(x) = 0:109368 x4 2:361709 x3 + 18:039067 x2 56:677579 x + 59:864238

In rosso plottata la funzione f , mentre in blu evidenziato il polinomio p,


i segmenti in verde sono gli scostamenti equioscillanti cercati.

37
Si noti che il numero di equioscillatori pari a 6, cio due in pi del grado
scelto, ma questo era perfettamente previsto e voluto dal metodo. Il massimo
scostamento rilevato stato pari a d = D = 8:017758:

La funzione resto stata plottata allultima iterazione e ha 6 nodi di equioscil-


lazione evidenziati sempre con linee verdi. Di seguito vediamo levoluzione della
funzione resto nelle varie iterazioni occorse allalgoritmo.

38
39
In ogni iterazione sono stati indicati in verde le ordinate dei nodi precedenti
e in blu le ordinate dei nodi nuovi che rimpiazzano i precedenti disponendosi
nei picchi e nelle valli locali pi alte secondo il criterio gi discusso al punto (5).

Esempio (3.2)

In riferimento allesempio (1.6) cerchiamo la miglior retta approssimante per


la funzione seno in [ ; ] e plottiamo i graci relativi.

Polinomio approssimante migliore trovato dal metodo :

p(x) = 0:217229 x + 0:000000

Massimo scostamento rilevato d = D : 0:682466

40
Esempio (3.3)

Si vuole approssimare la campana di Gauss standard ( = 0 e = 1)


con un polinomio di 5 grado, trovare il massimo scostamento tra le due curve
nellintervallo [ 3; 3] e plottare soltanto i graci delle due funzioni.

41
Polinomio approssimante migliore trovato dal metodo :

P (x) = +0:000000 x5 +0:008598 x4 0:000002 x3 0:114748 x2 +0:000002 x+0:369833

Massimo scostamento rilevato D = d : 0:029109

I nodi equispaziati sono 7 in tutto e il polinomio approssimante migliore


risultato in realt solo di 4 grado per motivi di simmetria della campana.

Bibliograa

1. Cheney, E. W., Introduction to Approximation Theory, 2nd.ed. Provi-


dence, RI: Amer. Math. Soc., 1999.
2. A. Quarteroni, R. Sacco, F. Saleri, Matematica Numerica, 2nd.ed., Springer
Verlag, 2007.

prima revisione: 15/11/2008


seconda revisione: 24/02/2017

42