Sei sulla pagina 1di 8

Radici approssimate di un’equazione

di Antonino Giambò

1. Oggigiorno, nell’era del calcolo automatico, trovare le radici approssimate di un’equazione non è
un’impresa complicata. Tutt’altro. Ma così non era quando non esisteva il computer. Come facevano allora i
matematici a risolvere la questione? Naturalmente mi riferisco ad equazioni delle quali non si conoscevano
formule idonee a calcolarne le soluzioni, come, tanto per dire, le equazioni algebriche di 1° e 2° grado.
Ebbene, i matematici hanno inventato dei metodi idonei allo scopo. Al giorno d’oggi questi metodi, a parte
la loro utilizzazione nella programmazione di software capaci di trovare per l’appunto soluzioni approssimate,
possono essere considerati veri e propri reperti storici. Ma la loro valenza didattica rimane intatta.
Ed è per questa ragione che su questi metodi intendo soffermarmi in questo contributo. Evidenziando, però,
solo quegli aspetti per i quali è garantita la soluzione. Dico questo perché, dei tre metodi che descriverò, gli
ultimi due non sempre la garantiscono senza prefissate condizioni.
Questi i tre metodi: metodo di bisezione, metodo delle tangenti, metodo delle corde.

2. Prima di andare alla ricerca delle soluzioni approssimate di un’equazione bisogna accertarsi che queste
soluzioni effettivamente esistano.
C’è al riguardo un teorema che mi limito ad enunciare, non prima di aver ricordato che, data un’equazione
f(x)=0, ogni valore reale c tale che f(c)=0, si denomina, oltre che radice o soluzione, anche zero
dell’equazione.
TEOREMA (di esistenza e unicità degli zeri).
Se una funzione f(x) è continua e crescente (figura 1a) o decrescente (figura 1b) in un intervallo chiuso e
limitato [a, b] e se f(a) e f(b) sono discordi, allora esiste uno ed un solo punto c ∈ ]a, b[ tale che f(c)=0.

figura 1

Detto questo, indicato con ]x1 , x2 [ l’intervallo in cui è contenuta la radice c , il procedimento per
determinarne un valore approssimato richiede, quale che sia il metodo adottato, di stabilire l’approssimazione
della radice da determinare.
Per questo è necessario fissare un valore reale positivo ε tale che esista un intervallo ]x1 , x2 [, contenuto
nell’intervallo ]x1 , x2 [, contenente a sua volta c e avente ampiezza uguale o minore di ε. Il valore fissato ε è
per l’appunto l’approssimazione voluta.

3. METODO DI BISEZIONE (o DI DIMEZZAMENTO)


Sia l’equazione f(x)=0. Se ne ricerca una radice c con un’approssimazione prefissata ε.
Supponiamo disegnato in un piano cartesiano ortogonale (Oxy) il grafico della funzione y=f(x) (figura 2).
La radice c è chiaramente l’ascissa di uno dei punti in cui questo grafico interseca l’asse x.
Scegliamo un conveniente intervallo in cui sia contenuta c ed essa soltanto, nell’eventualità di altri zeri di
f(x): lo chiamiamo [a, b] e deve essere tale che f(a)⋅f(b)<0. Per fissare le idee supponiamo che sia f(a)>0 ed
f(b)<0.
a+b
Calcoliamo l’ascissa xM del punto medio di [a, b]: xM = 2 .
figura 2

Se f(xM)=0 è evidente che c=xM; altrimenti:


- se f(a)f(xM)>0 (cioè se f(a) e f(xM) hanno lo stesso segno, come in figura 2a), mettiamo xM al posto di
a; ciò perché xM è più prossimo a c di quanto non lo sia a;
- se f(a)f(xM)<0 (cioè se f(a) e f(xM) hanno stesso segno opposto, come in figura 2b), mettiamo xM al
posto di b; ciò perché xM è più prossimo a c di quanto non lo sia b;
- ripetiamo la procedura eseguita su [a, b] col calcolo del punto medio del nuovo intervallo – [xM , b]
oppure [a, xM ] a seconda dei casi – e continuiamo così fino a che l’intervallo, che passo dopo passo
chiaramente si accorcia, risulta essere di ampiezza uguale o minore della precisione ε prestabilita,
Si può affermare che un valore approssimato di c è il valore x̅M del punto medio dell’ultimo intervallo.
Infatti – indicato con ]xn−1 , xn [ l’ultimo intervallo – risulta chiaramente: |c– x̅M |<|xn – xn–1 |≤ε.

Come si nota facilmente, questo metodo è una semplice applicazione del teorema di esistenza e unicità
degli zeri. Considerato che il teorema di esistenza è noto anche come teorema di Bolzano (1), il metodo di
bisezione è denominato a volte metodo di Bolzano. Impropriamente, ad onor del vero, giacché il teorema,
quantunque a livello intuitivo, era noto e applicato da tempo. Bolzano ne fornì una dimostrazione rigorosa.

4. METODO DELLE TANGENTI


Il metodo delle tangenti permette di calcolare un valore approssimato dello zero di una funzione in un
determinato intervallo a condizione però che, in aggiunta alle condizioni espresse dal teorema di esistenza ed
unicità degli zeri, la funzione soddisfi ad un’ulteriore condizione:
la condizione che nell’intervallo in cui cade lo zero essa non cambi concavità.
Questo significa ovviamente che, indicata con f(x) la funzione, essa sia derivabile almeno due volte, in
ogni x dell’intervallo e risulti f ′′ (x) > 0 aut f ′′ (x) < 0.
Supponiamo allora che la funzione f(x) sia continua e derivabile almeno due volte nell’intervallo [a, b] ed
ammettiamo, tanto per fissare le idee, che sia f(a)<0 e f(b)>0, ed inoltre f ′ (x) > 0 ed f ′′ (x) > 0 per ogni
x]a, b[ (figura 3).

figura 3
Sappiamo che essa ammette nell’intervallo ]a, b[ uno ed un solo zero c, il quale è l’ascissa del punto in cui

1
Bernhard Bolzano, matematico e filosofo praghese, 1781-1848.
Si deve principalmente a lui l’introduzione del concetto di rigore in Analisi Matematica.
il grafico della funzione interseca l’asse x del sistema di riferimento cartesiano.
Posto, per comodità, b=x0, si traccia la retta tangente al grafico nel suo punto di ascissa x0; la sua equazione,
com’è noto, è la seguente: y– f(x0 ) = f ′ (x0 )(x– x0 ).
Indicata con x1 l’ascissa del punto in cui tale retta interseca l’asse x (y=0), risolvendo la precedente
equazione rispetto ad x e denominata x1 la soluzione, si trova:
f(x0 )
x1 = x0 – ′ ;
f (x0 )
x1 è chiaramente più prossimo a c di quanto non lo sia x0 .
Si ripete dunque il procedimento mettendo x1 al posto di x0 . Si ottiene il valore x2 tale che:
f(x1 )
x2 = x1 – ′ .
f (x1 )
Continuando allo stesso modo, si determinano altri valori x3, x4, …, xn, il generico dei quali, vale a dire xk ,
è tale che:
f(xk−1 )
xk = xk−1 – ′ .
f (xk−1 )
Si ottiene così la successione numerica x0, x1, x2, …, xn, i cui termini sono valori sempre più prossimi alla
radice c della funzione, pur rimanendo comunque maggiori di c. Tale successione è per l’appunto una
successione di valori approssimati per eccesso dello zero c.
È facile rendersi conto che la successione in esame può essere definita ricorsivamente. Basta constatare
infatti che si ha:
x0 se n=0
xn = { f(xn−1 )
xn−1 – ′ se n>0
f (xn−1 )
All’atto pratico, siccome in questo caso i valori approssimati di c cadono tutti alla sua destra, essendo valori
approssimati per eccesso, se si cerca un’approssimazione della radice c, a meno di 10−k , non si può sperare di
trovare un intervallo entro il quale è contenuto c e abbia ampiezza minore di 10−k . Bisogna trovare una via
alternativa. Ebbene, è sufficiente osservare quando, nella successione sopraddetta, si stabilizzano le prime k
cifre decimali. Il primo termine della successione, per il quale accade ciò, fornisce l’approssimazione cercata.

NOTA.
Se la funzione f(x), continua e derivabile nell’intervallo [a, b], fosse tale che f(a)<0 e f(b)>0 ed inoltre,
per ogni x]a, b[, fosse f ′ (x) > 0 ma f ′′ (x) < 0, diversamente dal caso precedente, allora la successione
suddetta sarebbe una successione di valori approssimati per difetto dello zero c.
Se fosse f(a)>0, f(b)<0, f ′ (x) < 0 e f ′′ (x) > 0, la successione sarebbe ancora una successione di valori
approssimati per difetto di c.
Se fosse infine f(a)>0, f(b)<0, f ′ (x) < 0 e f ′′ (x) < 0, allora di nuovo si avrebbe una successione di valori
approssimati per eccesso di c.

UN BREVE CENNO STORICO.


Dopo contributi iniziali del matematico persiano al-Kashi (1380 circa – 1429) e del francese François Viète
(1540-1603) alla ricerca degli zeri approssimati di un polinomio, l’inglese Isaac Newton (1642-1726) ideò un
metodo equivalente, ma non simile, a quello che oggigiorno denominiamo metodo delle tangenti. Newton lo
descrisse sia nell’opera De Analysi per aequationes numero terminorum infinitas (scritta nel 1699 ma
pubblicata anni dopo) sia nell’opera De metodis fluxionum et serierum infinitarum (scritta nel 1671 ma
anch’essa pubblicata qualche tempo dopo). In queste opere Newton applicò il metodo ai polinomi, ma nel 1687
lo applicò per la prima volta ad un’equazione non polinomiale nella sua opera principale Philosophiae
Naturalis Principia Mathematica.
Successivamente, dopo altri contributi del matematico britannico Joseph Raphson (1648-1715), che fornì
una versione semplificata del metodo di Newton nell’opera Analysis aequationum universalis (1690), il suo
connazionale Thomas Simpson (1710-1761) ricavò nel 1740 il moderno metodo delle tangenti.
Ed è per questi motivi che il metodo è denominato anche metodo di Newton oppure metodo di Newton-
Raphson. Ma forse sarebbe più giusto denominarlo metodo di Newton-Raphson-Simpson.

5. METODO DELLE CORDE


Devono essere soddisfatte le medesime condizioni stabilite per il metodo delle tangenti.
Supponiamo allora che la funzione f(x) sia continua e derivabile almeno due volte nell’intervallo [a, b] ed
ammettiamo, tanto per fissare le idee, che sia f(a)<0 e f(b)>0, ed inoltre f ′ (x) > 0 ed f ′′ (x) > 0 per ogni
x]a, b[ (figura 4).

figura 4

Siano A, B i due punti del grafico di coordinate A(a, f(a)), B(b, f(b)). La corda AB intersechi l’asse x nel
punto a1 . Siccome AB ha equazione:
f(b) − f(a)
y − f(a) = (x − a) ,
b−a
ponendo qui y=0, dopo qualche semplice passaggio algebrico si trova il valore di x, vale a dire a1 :
a f(b) − b f(a)
a1 = .
f(b) − f(a)
Costatato che a1 <c e che a1 è chiaramente più prossimo a c di quanto non lo sia a. mettiamo a1 al posto
di a nell’intervallo [a, b] e operiamo sul nuovo intervallo [a1 , b] come prima abbiamo operato su [a, b].
Otteniamo un nuovo punto a2 <c tale che:
a1 f(b) − b f(a1 )
a2 = .
f(b) − f(a1 )
Continuando allo stesso modo, si determinano altri valori a3, a4, …, an, il generico dei quali, vale a dire ak ,
è tale che:
a𝑘−1 f(b) − b f(a𝑘−1 )
ak = .
f(b) − f(a𝑘−1 )
Si ottiene così la successione numerica a0, a1, a2, …, an, i cui termini sono valori sempre più prossimi alla
radice c della funzione, pur rimanendo comunque minori di c. Tale successione è per l’appunto una successione
di valori approssimati per difetto dello zero c.
È facile rendersi conto che la successione in esame può essere definita ricorsivamente. Basta constatare
infatti che, posto a0 =a, si ha:
a0 se n=0
an = { a𝑛−1 f(b) − b f(a𝑛−1 )
se n>0
f(b) − f(a𝑛−1 )
All’atto pratico, siccome in questo caso i valori approssimati di c cadono tutti alla sua sinistra, essendo
valori approssimati per difetto, se si cerca un’approssimazione della radice c, a meno di 10−k , non si può
sperare di trovare un intervallo entro il quale è contenuto c e abbia ampiezza minore di 10−k . Bisogna trovare
una via alternativa. Ebbene, è sufficiente osservare quando, nella successione sopraddetta, si stabilizzano le
prime k cifre decimali. Il primo termine della successione, per il quale accade ciò, fornisce l’approssimazione
cercata. Insomma, come con il metodo delle tangenti.

NOTA.
Qualora i segni di f(a), f(b), f ′ (x), f ′′ (x) fossero diversi da quelli supposti nel caso precedente, varrebbero
considerazioni simili a quelle esposte nella nota relativa al caso del metodo delle tangenti.

6. UN ESEMPIO A CHIARIMENTO DI QUANTO SU ESPOSTO.


Consideriamo la seguente funzione:
f(x) = x 2 2x − 1
e disegniamone il grafico in un piano riferito ad un sistema di assi cartesiani ortogonali (Oxy) (figura 5).

figura 5

Esso mostra che la funzione ammette due zeri esatti, −2 e −4, il che è confermato dal fatto che si ha:
f(–2)=0, f(–4)=0. Ma la funzione ammette un terzo zero, c, compreso fra 0 e 1. Ci proponiamo di
determinarne un’approssimazione a meno di 1/100 e, per puro esercizio, lo facciamo in tre maniere diverse,
utilizzando appunto i tre metodi descritti, in modo da poterli comparare.
Osserviamo, in via preliminare, che nell’intervallo [a, b] = [0, 1] la funzione è continua, crescente e
concava verso l’alto, e inoltre che nell’intervallo non ci sono altre radici oltre c e infine che risulta
f(a)=f(0)=–1<0 e f(b)=f(1)=1>0. Insomma, sono soddisfatte tutte le condizioni per il calcolo del valore
approssimato di c con ciascuno dei tre metodi.

• Calcolo con il metodo di bisezione.


Il punto medio xM0 del segmento di estremi a=0, b=1 è evidentemente xM0 =0,5. Calcoliamo f(x) in xM0 e
troviamo: f(xM0 )=f(0,5)≈–0,6. Siccome f(a)⋅f(xM0 )=(–1)⋅(–0,6)>0, bisogna mettere xM0 al posto di a
nell’intervallo [a, b] e considerare il nuovo intervallo [xM0 , b]=[0,5;1]. Il punto c appartiene a questo
intervallo, contenuto chiaramente nell’intervallo [0, 1] ma la cui ampiezza, 1–0,5=0,5, è maggiore della
precisione prefissata ε=0,01.
Bisogna proseguire e bisogna farlo fintantoché non si trova un intervallo, ovviamente contenuto in [0, 1],
al quale appartenga c e abbia ampiezza uguale o minore di 0,01.
Dunque, in successione:
0,5+1
- il punto medio del segmento di estremi xM0 =0,5, b=1 è xM1 = 2
=0,75. f(xM1 )=f(0,75)≈–0,05. Il
fatto che sia f(xM0 )⋅f(xM1 )=(–0,6)⋅(–0,05)>0 implica che xM1 vada messo al posto di xM0 in [xM0 , b]. Nuovo
intervallo [xM1 , b]=[0,75;1]. Questo intervallo, cui appartiene c, ha ampiezza 1–0,75=0,25, maggiore di 0,01.
Bisogna proseguire;
0,75+1
- il punto medio del segmento di estremi xM1 =0,75, b=1 è xM2 = 2
≈0,87. f(xM2 )=f(0,87)≈0,38. Il
fatto che sia f(xM1 )⋅f(xM2 )=(–0,05)⋅0,38<0 implica mettere xM2 al posto di b in [xM1 , b]. Il nuovo intervallo
è dunque [xM1 , xM2 ]≈[0,75; 0,87]. Questo intervallo, cui appartiene c, ha ampiezza 0,87–0,75=0,12, ancora
maggiore di 0,01. Bisogna proseguire;
0,75+0,87
- il punto medio del segmento di estremi xM1 =0,75, xM2 =0,87 è xM3 = 2
≈0,81.
f(xM3 )=f(0,81)≈0,15. Il fatto che sia f(xM1 )⋅f(xM3 )=(–0,05)⋅0,15<0 implica mettere xM3 al posto di xM2
nell’intervallo [xM1 , xM2 ]. Nuovo intervallo [xM1 , xM3 ]≈[0,75; 0,81]. Questo intervallo, cui appartiene c, ha
ampiezza 0,81–0,75=0,06, maggiore di 0,01. Bisogna proseguire.
0,75+0,81
- il punto medio del segmento di estremi xM1 =0,75, xM3 =0,81 è xM4 = =0,78.
2
f(xM4 )=f(0,78)≈0,04. Il fatto che sia f(xM1 )⋅f(xM4 )=(–0,05)⋅0,04<0 implica mettere xM4 al posto di xM3 in
[xM1 , xM3 ]. Nuovo intervallo [xM1 , xM4 ]≈[0,75; 0,78]. Questo intervallo, cui appartiene c, ha ampiezza
0,78–0,75=0,03, maggiore di 0,01. Bisogna proseguire.
0,75+0,78
- il punto medio del segmento di estremi xM1 =0,75, xM4 =0,78 è xM5 = 2
=0,76. Il fatto che sia
f(xM5 )=f(0,76)≈–0,02. f(xM1 )⋅f(xM5 )=(–0,05)⋅(–0,02)>0 implica mettere xM5 al posto di xM1 in [xM1 ,xM4 ].
Nuovo intervallo [xM5 , xM4 ]≈[0,76; 0,78]. Questo intervallo, cui appartiene c, ha ampiezza 0,78–0,76=0,02,
maggiore di 0,01. Bisogna proseguire ancora;
0,76+0,78
- il punto medio del segmento di estremi xM5 =0,76, xM4 =0,78 è xM6 = =0,77.
2
f(xM6 )=f(0,77)≈0,01. Il fatto che sia f(xM5 )⋅f(xM6 )=(–0,005)⋅0,01<0 implica mettere xM6 al posto di xM4
in [xM5 ,xM6 ]. Nuovo intervallo [xM5 , xM6 ]≈[0,76; 0,77]. Questo intervallo, cui appartiene c, ha ampiezza
0,77–0,76=0,01. La ricerca è terminata: 0,76 è il valore cercato. Precisamente è il valore approssimato per
difetto a meno di 0,01 dello zero dell’equazione compreso fra 0 e 1; mentre 0,77 ne è il valore approssimato
per eccesso.
Una tabella (tabella 1) riassume il precedente procedimento e nello stesso tempo ne rende forse più facile
la lettura. Si può notare che ci sono voluti 7 passaggi (iterazioni) per giungere al risultato.

Intervallo xM0 = f(xM0 )=f(0,5) = f(a)∙f(xM0 )


[a, b]=[0, 1] f(a) = −1 f(b) = 1 0+1 = –0,6 >0
= =0,5
1 − 0 = 1 > 0,01 2
Intervallo 0,5 + 1 f(xM1 )=f(0,75) = f(xM0 )⋅f(xM1 )
x M1 = =
[xM0 , b]=[0,5;1] f(xM0 ) = −0,6 f(b) = 1 2 = –0,05 >0
1 − 0,5 > 0,01 = 0,75
Intervallo 0,75+1 f(xM2 )=f(0,87) ≈ f(xM0 )⋅f(xM2 )
x M2 = =
[xM1 , b] = [0,75;1] f(xM1 ) ≈ – 0,05 f(b) = 1 2 ≈ 0,38 <0
1 − 0,75 > 0,01 ≈ 0,87
Intervallo 0,75+0,87 f(xM3 )=f(0,81) ≈ f(x1 )⋅f(xM3 )
xM3 = =
[xM1 , xM2 ]≈[0,75; 0,87] f(xM1 ) ≈ – 0,05 f(xM2 ) ≈ 0,38 2 ≈ 0,15 <0
0,87 − 0,75 > 0,01 = 0,81
Intervallo 0,75+0,81 f(xM4 )=f(0,78) ≈ f(x1 )⋅f(xM4 )
xM4 = =
[xM1 , xM3 ]≈[0,75; 0,81] f(xM1 ) ≈ – 0,05 f(xM3 )≈ 0,15 2 ≈ 0,04 <0
0,81 − 0,75 > 0,01 = 0,78
Intervallo 0,75+0,78 f(xM5 )=f(0,76) ≈ f(x1 )⋅f(xM5 )
xM5 = =
[xM1 , xM4 ]≈[0,75; 0,78] f(xM1 ) ≈ – 0,05 f(xM4 )≈ 0,04 2 ≈ –0,02 >0
0,78 − 0,75 > 0,01 = 0,76
Intervallo 0,76+0,78 f(xM6 )=f(0,77) ≈ f(x5 )⋅f(xM6 )
xM6 = =
[xM5 , xM4 ]≈[0,76; 0,78] f(xM5 )≈ –0,02 f(xM4 )≈ 0,04 2 ≈ 0,01 <0
0,78 − 0,76 > 0,01 = 0,77
Intervallo
[xM5 , xM6 ]≈[0,76; 0,77] La ricerca è terminata: 0,76 è il valore cercato
0,77 − 0,76 = 0,01
tabella 1
• Calcolo con il metodo delle tangenti.
È necessario conoscere la derivata f ' (x). Si ha:
f ' (x) = x ∙ 2 x+1 + x 2 ∙ 2x ∙ ln 2 .
Si costruisce la successione suggerita dal metodo e precisamente, dopo aver posto x0 =b=1:
f(x0 ) f(x1 ) 1
x1 = x0 – ′ =1– ′ =1− ≈ 0,814343 ;
f (x0 ) f (x1 ) 4 − 2 ln 2
f(x1 ) f(0,8143) 0,1661
x2 = x1 – ′ ≈ 0,8143 – ′ ≈ 0,8143 − ≈ 0,7691 ;
f (x1 ) f (0,8143) 3,6723
f(x2 ) f(0,7691) 0,0081
x3 = x2 – ′ ≈ 0,7691 – ′ ≈ 0,7691 − ≈ 0,7666 .
f 2(x ) f (0,7691) 3,3202
Il terzo termine della successione garantisce la stabilizzazione della seconda cifra decimale, che è quella
che ci interessa. Ragion per cui possiamo dire che il valore approssimato per difetto di c, con 2 cifre decimali
esatte è 0,76.
Si può costatare come, con questo metodo, la successione dei valori approssimati converga più rapidamente
rispetto al metodo di bisezione.

• Calcolo con il metodo delle corde.


Si costruisce la successione prevista dal metodo, vale a dire:
a f(b) − b f(a) 0 − (−1)
a1 = = = 0,5 ;
f(b) − f(a) 1 − (−1)
a1 f(b) − b f(a1 ) 0,5 ⋅ 1 − 1 ⋅ (−0,6464)
a2 = = ≈ 0,6963 ;
f(b) − f(a1 ) 1 − (−0,6464)
a2 f(b) − b f(a2 ) 0,6963 ⋅ 1 − 1 ⋅ (−0,2144)
a3 = = ≈ 0,7499 ;
f(b) − f(a2 ) 1 − (−0,2144)
a3 f(b) − b f(a3 ) 0,7499 ⋅ 1 − 1 ⋅ (−0,0543)
a4 = = ≈ 0,7627 ;
f(b) − f(a3 ) 1 − (−0,0543)
a4 f(b) − b f(a4 ) 0,7627 ⋅ 1 − 1 ⋅ (−0,0130)
a5 = = ≈ 0,7657 .
f(b) − f(a4 ) 1 − (−0,0130)
Il quinto termine della successione garantisce la stabilizzazione della seconda cifra decimale, che è quella
che ci interessa. Ragion per cui possiamo dire che il valore approssimato per difetto di c, con 2 cifre decimali
esatte, è 0,76.
Come con il metodo delle tangenti ma appena un po’ più lentamente. Sempre, comunque, più velocemente
del metodo di bisezione.

Per la cronaca, il valore approssimato di c con 4 cifre decimali esatte – trovato, s’intende, con uno strumento
di calcolo automatico – è 0,7666 .

7. Ho introdotto questo argomento sottolineando il fatto che prima dell’avvento del calcolo automatico i
matematici inventarono metodi idonei al calcolo approssimato delle radici di un’equazione. Metodi che non
necessitavano del calcolo automatico, che appunto non c’era ancora.
Ora, però, per i calcoli presenti negli esempi proposti, dovendo calcolare per esempio f(0,8143),
′ (0,8143)
f e altri valori, proprio del calcolo automatico io mi sono servito.
Sembra, dunque, che non ci sia coerenza con quello che ho appena detto.
No, nessuna contraddizione. Solo che io, disponendo del calcolo automatico, ho preferito risparmiare tempo
e fatica.
Ma non così per coloro che dovevano eseguire quei calcoli prima dell’avvento del computer.
Insomma, quello che voglio dire è che pur seguendo i metodi di approssimazione su descritti, i calcoli da
fare non erano esattamente una passeggiata di salute.
Per comprendere meglio il concetto mi soffermo sul calcolo (approssimato) del valore della funzione:
f(x) = x 2 2x – 1
nel punto 0,75.
Ovviamente: f(0,75)=0,75 2 × 2 0,75 –1.
Posto z = 0,75 2 × 2 0,75 , ricorrendo ai logaritmi decimali e alle tavole relative, si ha:
log z = 2 log 0,75 + 0,75 log 2 = 2 × (−12493) + 0,75 × 0,30103 ≈ −0,0241 = −1 + 0,9759;
e dunque, sempre con l’uso delle tavole dei logaritmi decimali: z≈0,9461.
In definitiva:
f(0,75) ≈ 0,9461 − 1 ≈ −0,05 .
Valore che avremmo trovato immediatamente calcolando con uno strumento di calcolo automatico.

BIBLIOGRAFIA.
[1] P. Buzano – F. Fava – G. Geymonat, Lezioni di matematica per allievi ingegneri, vol. I, Torino,
Levrotto e Bella, 1971.
[2] Sandro Faedo, Complementi ed esercizi di analisi matematica, vol. I, Pisa, Litografia Tacchi, 1960.
[3] Ilio Galligani, Elementi di analisi numerica, Bologna, Calderini, 1987.
[4] Paolo Marcellini – Carlo Sbordone, Elementi di calcolo, Napoli, Liguori, 2004.
[5] Anatolij Dmitrievič Myškis, Lezioni di matematica generale, Mosca, Edizioni Mir, 1979.
[6] Wikipedia, libera enciclopedia on-line.

Potrebbero piacerti anche