Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Laboratorio di Fisica
Leonardo Merola
1
METODOLOGIA DELLE
SCIENZE FISICHE
Duplice obiettivo:
2
GRANDEZZE FONDAMENTALI
E DERIVATE
MISURE DIRETTE
GRANDEZZE FONDAMENTALI
GRANDEZZE DERIVATE
Esempio.
Esempio.
l
T∝
g
Esempio.
Conseguentemente:
6
STRUMENTI DI MISURA
Rivelatore:
elemento sensibile rispetto alla grandezza da misurare che si mette
in “equilibrio” con essa.
Trasduttore:
eventuale sistema di trasformazione dell’informazione per
l’elaborazione e la presentazione della stessa.
Visualizzatore:
sistema di presentazione grafica o numerica del risultato della
misura.
Strumento
Chiamiamo:
G: la grandezza fisica.
V(G): il valore “vero” della grandezza.
R(G): la risposta propria dello strumento.
M(G): il risultato della misura.
7
Esempio: TERMOMETRO A MERCURIO
Esempio: VOLTMETRO
8
Per passare dalla risposta dello srumento al risultato della misura
occorre conoscere la relazione esistente fra R(G) e M(G), occorre
cioè TARARE lo strumento.
R(G)
Curva di taratura
R*
M* M(G)
9
CARATTERISTICHE DI UNO STRUMENTO DI MISURA
Intervallo di funzionamento
Prontezza
Sensibilità
Giustezza
Precisione
INTERVALLO DI FUNZIONAMENTO
R(G)
Intervallo di funzionamento
PRONTEZZA
GIUSTEZZA
n n n
M M M
∆Μ ∆Μ
∆Μ
∆Μ << σ ∆Μ >> σ ∆Μ ≈ σ
12
ERRORI DI MISURA
OGNI PROCESSO DI MISURAZIONE FISICA E’ SOGGETTO
AD ERRORI PER CUI AD OGNI MISURA E’ NECESSARIO
ASSOCIARE UN ERRORE O INCERTEZZA.
IN FISICA E’ FONDAMENTALE VALUTARE GLI ERRORI
IN MODO DA ATTRIBUIRE UN GRADO DI
ATTENDIBILITA’ AL RISULTATO DELLA MISURA, IN
RELAZIONE AL VALORE VERO ESATTO DELLA
GRANDEZZA CHE RESTA “INCONOSCIBILE”.
ERRORE DI SENSIBILITA’.
E’ la minima variazione della grandezza apprezzabile da uno
strumento; quando si legge una scale graduata l’errore di
sensibilità è l’errore di lettura della scala.
13
ERRORE MASSIMO.
ERRORE SISTEMATICO.
14
E’ il tipo di errore più subdolo perché non sempre si è consapevoli
di commetterlo. Spesso, se ce se ne accorge, si cerca di renderlo il
più piccolo possibile o di eliminarlo o di correggere il risultato
finale per tener conto di tale errore se non è sperimentalmente
eliminabile.
Esempio.
h = ½ g (t mis – t suono ) 2
h
dove t suono = h / v suono
x = x best ± δ x
x ∈ [x best - δ x , x best + δ x]
∑x i
xbest = x = i =1
→ µ
N
σx
σ ( xbest ) = σ x =
N
∑ (x i − x) 2
σx = i =1
→ σ
N −1
σ x 2 si chiama varianza.
σ x si chiama deviazione standard della media o errore standard.
17
Se si esegue una singola misura aggiuntiva, questa ha la
probabilità del 68,3 % di trovarsi nell’intervallo x ± σ x . Tale
valore discende dallo studio della distribuzione gaussiana.
Se si esegue una serie di misure ripetute e se ne fa la media, tale
media ha la probabilità del 68,3 % di trovarsi nell’intervallo
x ±σ x .
x ±σ x
L’attendibilità è la probabilità che il valore vero sia compreso
nell’intervallo, supposto che non sussistano errori sistematici.
CIFRE SIGNIFICATIVE.
18
Esempio:
4,8 0,48 0,0048 hanno 2 cifre significative (4 e 8)
130 1,30 0,0130 hanno 3 cifre significative (1, 3 e 0)
δ (δx ) 1
≈
(δx ) 2( N − 1)
N. cifre Errore
significative relativo
dell’errore sull’errore
1 5 % - 50 %
2 0,5 % - 5 %
3 0,05 % - 0,5%
19
Nelle misure di laboratorio di fisica non particolarmente
sofisticate, cioè quando il numero di misure è limitato a poche
decine (per motivi di tempo o per semplicità di esecuzione delle
misure), è opportune scrivere l’errore con una (se la cifra è > 2) o
al massimo due cifre significative (se la cifra più significativa è 1
o 2); ad es. 15; 3; 2,1; 6; 0,7 ecc.
( x−µ )2
−
f ( x) ∝ e 2σ 2
f(x)
x
µ
∞
∫ −∞
f ( x) dx = 1
21
conduce alla forma:
( x−µ )2
1 −
f µ ,σ ( x ) = e 2σ 2
σ 2π
SIGNIFICATO DEI PARAMETRI µ e σ.
+∞
x = ∫ x f ( x) dx
−∞
da cui, ponendo y = x- µ:
( x−µ )2 y2 y2
− − −
[ ∫ ye ]
+∞ 1 1 +∞ +∞
x =∫ x e 2σ 2
dx = 2σ 2
dy + ∫ µ e 2σ 2
dy
−∞
σ 2π σ 2π −∞ −∞
=
σ
1
2π
[0 + µσ 2π ] ⇒
x =µ
( x− µ )2
+∞ 1 −
(x − µ )2 = ∫ (x − µ )2 e 2σ 2
dx
−∞
σ 2π
22
Tale integrale si risolve per parti e dà:
(x − µ )2 = σ 2
23
La distribuzione gaussiana ci consente, grazie al suo significato di
densità di probabilità, di dedurre i seguenti importanti risultati:
( x − µ )2
1
b −
P ( x ∈ [a, b]) ≡ ∫ e 2σ 2
dx
a
σ 2π
( x−µ )2
µ + kσ 1 −
P ( x ∈ [ µ − kσ , µ + kσ ]) ≡ ∫ e 2σ 2
dx
µ − kσ σ 2π
24
PROPAGAZIONE DEGLI ERRORI
z = f ( x, y )
2
∂f ∂f
2
σ z = σ x2 + σ y2
∂x ∂y
25
2
∂f ∂f ∂f ∂f
2
σ z = σ x2 + σ y2 + 2 σ xy
∂x ∂y ∂x ∂y
1
σ xy = ∑ ( xi − x ) ( y i − y )
N
N − 1 i =1
∆z ∆x ∆y ∆w σ σ y
2
σ z σw
2 2 2
= +n +m = x + n + m
z x y w z x y w
26
Esempi:
L L
T = 2πk ⇒ g = 4π 2 ⇒
g T2
σg σ σ
2 2
= L + 4 T (errori statistici)
g L T
∆g ∆L ∆T
= +2 (errori massimi)
g L T
M = m1 ± m2 ⇒
σ M = m1 2 + m2 2 (errori statistici)
∆M = ∆m1 + ∆m2 (errori massimi)
1 1 1 qp
+ = ⇒ f = ⇒
p q f q+ p
2 2
q2 p2
σ f = σ p +
2
2
σ q 2 (errori statistici)
( q + p ) (q + p)
2
q2 p2
∆f = ∆p + ∆q (errori massimi)
(q + p) 2 (q + p) 2
∑
N
x 1
2
σ
⇒ σ x = ∑i =1 σ x ⇒ σ x = x
N
x= i =1 i 2 2
N N N
27
Che cosa si fa quando bisogna combinare grandezze che hanno
errore statistico con altre che hanno errore massimo (che quindi
hanno differenti significati probabilistici) ?
Esempio:
σ T ⇒ ∆T ≈ 3σ T ⇒
∆L ∆T ∆L 3σ
∆g = +2 g = +2 T g
L T L T
Nel caso in cui uno degli errori relativi fosse molto più piccolo
dell'altro, si può trascurare l'errore sulla grandezza corrispondente
e si può effettuare la propagazione solo dell'errore sull'altra
grandezza.
28
DISCREPANZA STATISTICA
x1 − x2
t=
σ 12 + σ 2 2
29
PRINCIPIO DELLA
MASSIMA VEROSIMIGLIANZA
ovvero :
N ∑
N
[ x −µ ]2
i =1 i
−
1 2σ2
P= e dx1 ⋅ dx2 ⋅ ⋅ ⋅ dxN
σ 2π
≡ L dx1 ⋅ dx2 ⋅ ⋅ ⋅ dxN
30
Infatti:
∂L
= 0 ⇒ ∑iN=1 [xi − µ ] = 0 ⇒ ∑ xi − Nµ = 0
2
∂µˆ
⇒ µˆ =
∑ x i
≡x
N
∂L
= 0 ⇒ σ = ∑ ( xi − µ )
2 1 2
ˆ
∂σˆ N
⇒ σˆ 2 =
1
N −1
∑ i
x − x
2
≡ σ x
2
( )
Il fattore N-1 piuttosto che N è dovuto al fatto che il numero di
gradi di libertà è N-1 in quanto i dati vengono utilizzati una volta
per stimare il valor medio.
[ xi − µ ]2
1 −
∂L (x − µ)
L=Π N
i =1 e 2 σ i2
⇒ =0 ⇒∑ i 2 =0
σ i 2π ∂µˆ σi
⇒ µˆ =
∑ wx i i i
≡ x pesato
∑w i i
31
1
dove wi ≡ vengono chiamati pesi.
σ i2
2 2
∂x wi
σ x2 = ∑ σ i = ∑i σ = 1
2 ∑
(w σ )2
=
∂xi
∑w
i
i
(∑ w )i
i i
1 1
=
(∑ w ) ∑ w = ⇒
∑ wi
2 i
i
1
σx =
∑w i
32
METODO DEI MINIMI QUADRATI
y = A + Bx
y
(xi, yi)
A: intercetta
B: pendenza = dy/dx
33
IL METODO DEI MINIMI QUADRATI
RISOLVE IL PROBLEMA.
IPOTESI N.1
Gli errori relativi su una delle due grandezze siano molto minori di
quelli sull’altra grandezza. Chiamiamo x tale grandezza e
scegliamola come variabile indipendente:
σ xi σ
<<
yi
xi yi
IPOTESI N.2
Ciascun valore sperimentale yi è distribuito normalmente, cioè
secondo una distribuzione normale (gaussiana), attorno al valore
vero yivero =A + B xi , con dispersione (deviazione standard) nota
σ yi .
IPOTESI N.3
Gli errori casuali (statistici) σ yi sulle yi siano tutti uguali: σ y=σ yi .
34
La probabilità di ottenere l’insieme delle misure yi è data dal
prodotto delle N probabilità P(yi) (osservazioni indipendenti):
PA,B ( y1 ,K, y N ) = P( y1 ) ⋅ P( y2 ) ⋅ K ⋅ P( y N )
∑i =1
N
[ yi −( A+ Bxi )]2
− 1 2
1 2σy 2
1 − χ
∝ e ≡ e 2
σy N
σy N
χ =∑
2
N
[ yi − ( A + Bxi )]2
i =1 σy 2i
∂χ 2 N
∑ [ y − ( A + Bx )] = 0
2
=− 2
∂A σy
i i
i =1
∂χ 2 N
∑ {x [y − ( A + Bx )]} = 0
2
=− 2
∂B σy
i i i
i =1
35
Le due equazioni danno luogo al sistema:
N N
− ∑ yi + N A + B ∑ xi = 0
i=1 i =1
N N N
− x y + A x + B x 2 = 0
∑
i =1
i i ∑
i =1
i ∑
i =1
i
A=
∑ (x )⋅ ∑ y − ∑ x ⋅ ∑ ( x y )
i
2
i i i i
N ∑ (xi y i ) − ∑ xi ⋅ ∑ y i
B=
∆
dove:
∆ = N ∑( xi ) − (∑ xi )2
2
∑x
2
N
σA =σ i
σB =σ
∆ ∆
y y
xC =
∑x ; i
yC =
∑y i
N N
y
yC
xC x
∑ xi
cov( A, B) = −σ y 2
F = f ( A, B) ⇒
2 2
∂ f ∂ f ∂ f ∂ f
σF = σ A 2 + σ B 2 + 2 cov(A, B)
∂ A ∂B ∂ A ∂ B
37
RILASCIAMO L’IPOTESI N. 3, supponiamo cioè che:
B=
∑ w ⋅ ∑ w x y − ∑ w x ⋅∑ w y
i i i i i i i i
∆ = ∑ w ⋅∑ w x
i i i
2
− (∑ w i x i )
2
σA =
∑wx i i
2
σ =
∑w i
∆ ∆
B
xC =
∑ (w x ) ; i i
yC =
∑ (w y ) i i
∑w i ∑w i
∑ wi xi
cov( A, B) = −
∆
38
RILASCIAMO L’IPOTESI N. 2, supponiamo cioè che:
N
[
∑ iy − ( A + Bxi )] 2
σy = i =1
N −2
dove al denominatore c’è N-2 giacché gli N dati sono stati usati
per stimare i 2 parametri A e B e pertanto i GRADI DI LIBERTA’
sono N-2.
39
RILASCIAMO L’IPOTESI N. 1, supponiamo cioè che:
χ2 = ∑
N
[ yi − ( A + Bxi )]2
i =1 σ i
2
∂ y Bmax + Bmin
≈
∂x 2
Bmin
Bmax
40
FORMULE RIASSUNTIVE DEL
FIT DEI MINIMI QUADRATI DI UNA RETTA y =A+Bx
y
y=A+Bx
x
A) FIT NON PESATO (ERRORI STATISTICI σyi IGNOTI, ERRORE
STATISTICO COMUNE σy CALCOLATO)
A=
∑ x ⋅∑ y
i
2
i − ∑ x i ⋅ ∑ xi yi
∆
N ⋅ ∑ xi yi − ∑ xi ⋅ ∑ yi
B=
∆
dove
∆ = N ⋅ ∑ x i2 − ( ∑ x i ) 2
41
σy = ∑ (y i − A − B ⋅ xi ) 2
N −2
∑ ∑x
2
xi N
σA =σy ⋅ σB =σy ⋅ cov( A , B ) = −
i
σ y2
∆ ∆ ∆
A=
∑ w x ⋅∑ w y i i
2
i i − ∑ wi x i ⋅ ∑ wi x i y i
∆
B=
∑ w ⋅ ∑ w x y − ∑ w x ⋅∑ w y
i i i i i i i i
∆
1
w =
dove wi sono chiamati “pesi” i
σ i2
∆ = ∑ w ⋅∑ w x
i i i
2
− (∑ w i x i )
2
σA =
∑wx i i
2
σ =
∑w i cov( A, B) = −
∑ wi xi
∆
∆ ∆
B
42