Sei sulla pagina 1di 75

Técnicas Laboratoriais de Física

Introdução à análise e tratamento


de dados experimentais

Liliana Ferreira
Dep. Física, FCTUC, 2012/13
Índice (provisório)

Capítulo I – Noções básicas sobre incerteza em medidas experimentais 5


Capítulo II – Análise estatística de incertezas aleatórias 21
Capítulo III – Propagação de erros independentes e aleatórios 31
Capítulo IV – Histogramas e curvas de distribuição 43
Capítulo V – A distribuição normal ou Gaussiana 53
Capítulo VI – Média Pesada 71
Capítulo VII – Ajuste dos mínimos quadrados
Capítulo VIII – Covariância e correlação linear
Capítulo IX – Teste do qui-quadrado
Apêndices
Referências bibliográficas
Capítulo I

Noções básicas sobre incerteza em medidas


experimentais

1.1. Verdadeiro valor de uma grandeza. Dispersão de resultados.


Incerteza ou erro. 7
1.2. Erro absoluto, relativo e percentual. 8
1.3. Erros de observação: sistemáticos e acidentais. 8
1.4. Precisão e Exatidão. 10
1.5. Medidores analógicos e digitais. Incertezas associadas. 11
1.6. Incerteza em medidas diretas. 13
1.6.1. Um caso particular: contagem de acontecimentos. 14
1.7. Incerteza expressa nos algarismos significativos. Arredondamentos. 15
1.8. Discrepância entre medidas de uma mesma grandeza. 17
1.9. Diferença relativa entre medidas experimentais e constantes físicas. 19

5
6
Noções básicas sobre incerteza em
medidas experimentais

1.1. Verdadeiro valor de uma grandeza. Dispersão de resultados. Incerteza ou erro.

A ciência experimental mostra-nos que nenhuma medida, por mais cuidada que seja a
sua preparação e execução, está completamente livre de imprecisões e incertezas. Isso
verifica-se facilmente sempre que realizamos várias medidas de uma mesma quantidade. Na
generalidade dos casos essa série de medidas dá origem a resultados ligeiramente diferentes
uns dos outros. As imprecisões e incertezas que estão na origem dessa dispersão de valores
provêm:

- de limitações da aparelhagem [sensibilidade, precisão (nº dígitos do mostrador), desvio


do zero, etc.];
- do experimentador [da estimativa que faz (avaliar uma posição numa escala), dos seus
reflexos (ligar ou desligar um cronómetro), etc.];
- do próprio método experimental, que põe em relevo certos aspetos e menoriza outros.

Podemos afirmar, por isso, que nunca é possível conhecer o verdadeiro valor de uma
grandeza. Ainda assim, admitamos que esse verdadeiro valor existe e chamemos-lhe x0.

O facto de existirem sempre imprecisões e incertezas nas medidas experimentais


implica então que, sempre que possível, devemos realizar várias medidas da mesma
grandeza 1 nas mesmas condições experimentais. Normalmente, os valores vão diferir uns dos
outros (há sempre dispersão de valores) e deveremos dispor de modos de, a partir desse
conjunto de dados obtidos, escolhermos um valor como a melhor estimativa para representar
o verdadeiro valor da grandeza medida. Chamaremos a esse melhor valor xbest. Se os valores
medidos não se afastarem muito uns dos outros, ou seja, apresentarem uma dispersão
pequena, é natural admitirmos que o xbest que venhamos a adotar esteja perto do “tal”
verdadeiro valor x0. Pelo contrário, se os valores estiverem muito dispersos, o grau de
confiança com que adotaremos xbest será obviamente pequeno.

Assim, ao adotarmos xbest como a melhor estimativa do verdadeiro valor x0, devemos também
dar informação sobre o grau de confiança que temos nesse resultado. Em análise de dados
esse grau de confiança é traduzido pelo intervalo de valores à volta de xbest onde confiamos
estar o verdadeiro valor da grandeza, x0. 2 Esse intervalo é definido como a incerteza ou
erro 3, δx, que atribuímos à nossa estimativa, confiando que:

[1] É claro que, embora seja sempre aconselhável repetirmos várias vezes as medidas experimentais,
há situações em que apenas se pode realizar uma medição. É o caso de acontecimentos
astronómicos ou de experiências de elevado custo, complexidade ou duração.
[2] Veremos mais tarde que o próprio grau de confiança também deve ser quantificado. Em geral, não
temos 100% de confiança no intervalo que apresentamos!...
[3] Embora “incerteza” seja o termo mais adequado, é vulgar a utilização da palavra “erro” para
designar a incerteza experimental associada à medida da grandeza. Ambos os termos serão
utilizados em TLF.
7
.

Dito de outro modo, a incerteza numa medida traduz a probabilidade de o verdadeiro valor
da grandeza pertencer ao intervalo .

O resultado final da grandeza, depois de efetuadas várias medições e de procedermos à análise


dos dados, deve ser apresentado como
(xbest ± δx) unidades.

Por exemplo, se o tratamento de dados nos levar a concluir que xbest = 36.5 mm e δx = 0.4
mm, deveremos apresentar o resultado num dos formatos:

xbest = (36.5 ± 0.4) mm ou

xbest = 36.5(4) mm.

No último formato, o nº entre parêntesis significa que o nº imediatamente antes vem afetado
por esse valor de incerteza. Repare que a incerteza tem sempre a mesma unidade da
grandeza a que está associada.

1.2. Erro absoluto, relativo e percentual

A incerteza δx associada a xbest, é conhecida por erro absoluto. Por conveniência


toma-se δx > 0, de modo a que x+δx seja sempre o valor mais alto do intervalo. δx é, portanto,
o limite superior do erro ou incerteza.
É muitas vezes útil, em vez de tomarmos apenas δx, utilizarmos o erro relativo,
definido como
δx
εr = , (1.1)
xbest
ou o erro percentual, definido como
δx
εr = × 100% . (1.2)
xbest

1.3. Erros de observação: sistemáticos e acidentais

Quando realizamos experiências, as medições efetuadas podem vir afetadas por dois
tipos de incerteza: erros sistemáticos e erros aleatórios.

Os erros sistemáticos estão associados aos instrumentos e às técnicas ou


metodologias experimentais. Influenciam todas as medições da mesma quantidade e no
mesmo sentido, ou por excesso ou por defeito, e podem ser corrigidos, se a causa for
descoberta e eliminada. Porém, são muitas vezes difíceis de avaliar, exigem conhecimento da
técnica e dos aparelhos utilizados e muito cuidado e perícia por parte do experimentador.
Exemplos deste tipo de erros de observação são a má calibração de um aparelho de medida ou
uma simplificação incorreta do modelo matemático usado na análise dos dados (por ex.,
desprezar forças de atrito em experiências onde os seus efeitos afetam seriamente os
resultados).

8
Os erros acidentais estão associados a flutuações aleatórias dos resultados das
medidas, provenientes quer da aparelhagem quer do experimentador. Ao contrário dos erros
sistemáticos, este tipo de erros resulta de fatores incertos e ocasionais, variam em grandeza e
em sentido de modo aleatório e podem ser minimizados repetindo a medida várias vezes.
Exemplos de erros aleatórios que acontecem no decorrer de uma experiência são: variações da
temperatura ou da pressão atmosférica (correntes de ar); variações da tensão de alimentação
dos aparelhos; vibrações mecânicas (por exemplo, induzidas por camiões que passam na rua);
limitações da visão humana (na leitura de escalas, por ex.)).
A melhor estimativa do valor de uma grandeza cuja dispersão de valores medidos é
apenas causada por erros aleatórios é dada pela média desses valores; a sua dispersão é
caracterizada pelo desvio padrão. Estes conceitos serão trabalhados no próximo capítulo.

A distinção entre erros sistemáticos e aleatórios não é sempre evidente e um mesmo


problema pode gerar erros aleatórios numa dada situação e erros sistemáticos noutra.
Vejamos, por exemplo, os erros de paralaxe, ou seja, erros de leitura de escalas originados
pelo incorreto posicionamento da linha de visão (Fig. 1.1). Esse posicionamento deve ser
sempre perpendicular ao plano da escala no ponto de leitura mas, se a linha de visão for
deslocada umas vezes mais para a esquerda, outras vezes mais para a direita da perpendicular
ao ponto de leitura, os valores obtidos vêm afetados por erros de paralaxe, umas vezes por
defeito outras por excesso. São, sem dúvida, erros aleatórios. Contudo, se o ponto de leitura
estiver num plano inferior ao dos nossos olhos e não nos baixarmos para olhar a escala na
perpendicular, cometeremos sistematicamente um erro de paralaxe que vai influenciar todos
os resultados no mesmo sentido. Neste caso, os erros de paralaxe são erros sistemáticos.

Figura 1.1 – a) Posicionamento correto para leitura de escala; b) posicionamento com erro de paralaxe.

Um outro bom exemplo está relacionado com a incerteza associada a medidas de


tempo utilizando um cronómetro e com o tempo de reflexo do operador, ou seja, o tempo que
medeia entre a decisão do operador (“vou ligar o cronómetro”) e o instante em que, de facto, a
ação se concretiza ou, de modo análogo, entre a tomada de decisão de desligar o cronómetro e
o momento em tal realmente acontece. Este tempo pode ser grosseiramente avaliado pelo
operador ligando e desligando rapidamente o cronómetro. Imaginemos que vamos largar um
carrinho num plano inclinado e medir o tempo que ele demora a percorrer determinada
distância. Previamente, ligámos e desligámos rapidamente o cronómetro e avaliámos o nosso
tempo de reflexo (para as duas ações) como sendo, por exemplo, 0.16 s. Será que posso tomar
esse tempo de reflexo como a incerteza que virá afetar a minha medida? E de que tipo é essa
incerteza? Sistemático ou aleatório? Na figura 1.2 apresentam-se esquematicamente os
diferentes instantes e as diferenças temporais associadas.
À partida, o tempo de reflexo parece ser um erro de tipo sistemático, uma vez que
atrasa sempre tanto o início como o fim da medida de tempo. Se os atrasos 1 e 2 são iguais
entre si, então ∆t = ∆t’ e a incerteza que se configurava como um erro sistemático não tem
9
afinal qualquer importância (1-2 = 0 s; não há erro associado ao tempo de reflexo). Contudo,
se 1 for superior ou inferior a 2, isso fará com que ∆t seja maior ou menor, respetivamente, do
que ∆t’. Em ambos os casos 1-2 ≠ 0 e há erro associado ao tempo de reflexo. Tem pois
carácter aleatório mas o seu valor é igual a 1-2 (e não a 1+2) e é, portanto, desconhecido.

∆t
∆t’ i = início real do movimento
L = instante em que o cronómetro liga
f = fim do movimento
1 2 D = instante em que o cronómetro pára
i f ∆t = duração do movimento real
L D ∆t’= intervalo de tempo medido pelo cronómetro
1 e 2 = atrasos devidos ao tempo de reflexo
(sendo 1 + 2 ≈ 0,16 s, no exemplo dado)

Figura 1.2 - Representação esquemática dos instantes e intervalos de tempo envolvidos no


movimento de um carrinho num plano inclinado

Os tratamentos estatísticos que serão considerados nestas notas dizem apenas respeito a
incertezas aleatórias.

Não esqueçamos, contudo, que deve ser dada muita atenção a possíveis fontes de erros
sistemáticos (à partida desconhecidos). Se os erros sistemáticos forem importantes podem
chegar a invalidar as conclusões que pretendemos tirar das nossas experiências. Não há
teorias simples que nos digam como proceder quanto a erros sistemáticos mas há duas
orientações muito sensatas:

1) sistemas experimentais bem calibrados ajudam a precaver erros


sistemáticos; logo, é importante haver padrões de calibração para os
instrumentos utilizados;
2) variar métodos e procedimentos pode revelar erros sistemáticos de que, à
partida, não suspeitávamos.

Quando identificadas as fontes de erro sistemático, elas devem ser reduzidas até que as
incertezas que daí advêm sejam menores do que a precisão desejada.

1.4. Precisão e Exatidão

Os termos precisão (ou rigor) e exatidão (ou fidelidade) 4 são também utilizados para
caracterizar os erros associados aos valores medidos experimentalmente.

A precisão (ou rigor) traduz quão bem determinado foi um resultado, sem o relacionar
com o verdadeiro valor da grandeza. A precisão é boa (ou o resultado rigoroso), quando os
erros acidentais são pequenos comparados com o valor medido δx << xbest. Por outro lado, a
exatidão (ou fidelidade) avalia quão perto o resultado está do verdadeiro valor. A exatidão é
grande (ou o resultado fiel) se os erros sistemáticos são pequenos.
A figura 1.3 ajuda a relacionar os quatro conceitos anteriores (erros sistemáticos, erros
aleatórios, precisão e exatidão), admitindo que o verdadeiro valor da grandeza é conhecido e
está situado no círculo mais interno de cada conjunto de circunferências. Como se pode ver

[4] Em inglês usam-se os termos precision e accuracy para precisão e exatidão, respetivamente.
10
nas figuras (b), (c) e (e), os erros sistemáticos originam conjuntos de medidas que estão
descentradas do verdadeiro valor, sendo má a exatidão. Contudo, se os erros acidentais ou
aleatórios cometidos forem pequenos (figuras (e) e (f)), originando valores pouco dispersos, a
precisão é boa.
Repare-se contudo que, como o verdadeiro valor da grandeza medida não é
conhecido, o resultado das nossas medições assemelha-se mais à figura 1.4, onde a dispersão
os ajuda a perceber se existiram ou não erros aleatórios mas não nos informa sobre a eventual
existência de erros sistemáticos. 5

(a) (b)

(c) (d) (e) (f)

Figura 1.3

Figura 1.4

1.5. Medidores analógicos e digitais. Incertezas associadas.

Quando realizamos uma experiência, um dos aspetos a cuidar é a seleção dos


instrumentos de medida que serão utilizados. Os instrumentos devem ser escolhidos de acordo

[5] Em muitas experiências que serão realizadas em TLF e noutras disciplinas, embora não se conheça
o verdadeiro valor de uma grandeza, conhece-se o seu valor esperado (quando se trata, por ex., da
aceleração da gravidade, da carga do eletrão, etc.), sendo por isso possível perceber a eventual
ocorrência de erros sistemáticos.
11
com a finalidade da experiência e a natureza das grandezas a medir e podem ser de tipo
analógico ou digital. São instrumentos analógicos, aqueles em que o valor da grandeza
medida envolve a leitura de uma escala (régua, termómetro, voltímetro, osciloscópio, etc.) e
são aparelhos digitais, aqueles que apresentam um mostrador digital, dando diretamente o
valor numérico da grandeza (relógio digital, termómetro digital, multímetro, osciloscópio
digital, etc.). Uma escolha e utilização corretas dos instrumentos de medida implica
conhecermos bem as suas características, nomeadamente, o seu intervalo de funcionamento
e a sua sensibilidade, e sabermos manuseá-los corretamente.
O intervalo de funcionamento diz respeito aos valores mínimo e máximo que é
possível medir com o instrumento. Dentro desse intervalo de funcionamento o fabricante
garante que a resposta do aparelho é fiável e que ele não se danifica. A sensibilidade do
aparelho está relacionada com a razão entre uma variação do estímulo (ou seja, da intensidade
do sinal que entra no aparelho) e da resposta (intensidade do sinal lido na escala ou no
mostrador digital). Um aparelho de elevada sensibilidade varia muito a resposta fornecida no
mostrador quando o sinal à entrada varia pouco. Muitas vezes usa-se também o termo
resolução do aparelho para designar a sua capacidade de discriminar (distinguir) pequenos
sinais: é a variação mínima do sinal à entrada do aparelho que provoca uma variação
percetível na resposta do mesmo.
Outro cuidado muito importante na utilização de instrumentos de medida é que se
verifique (sempre que possível) se eles estão bem calibrados. A calibração de um aparelho é
precisamente a operação ou conjunto de operações que estabelecem a correspondência correta
entre os valores indicados no mostrador do aparelho e a intensidade da grandeza física que se
pretende medir com ele. Como já referimos, quando um instrumento de medida não está bem
calibrado (por exemplo, quando um voltímetro tem o zero mal ajustado e indica o valor
0.00 volts para uma tensão contínua à entrada que na realidade é de 0.01 volts) todos os
valores medidos virão afetados por esse erro sistemático (neste caso, por defeito). O bom
funcionamento e calibração do aparelho e o seu correto manuseamento são, portanto,
condições essenciais para evitar erros sistemáticos no processo de medição.
Admitindo então que os instrumentos de medida estão bem calibrados e funcionam
corretamente, como podemos avaliar a incerteza associada à medição com determinado
instrumento? 6

Medida analógica

Quando a fonte de incerteza é a leitura de uma escala, é costume tomar-se como


incerteza associada à leitura metade da menor divisão da escala (por exemplo, 0.5 mm no
exemplo da figura 1.5, uma vez que a menor divisão mede 1 mm).

Comprimento do prego = 3.00 ± 0.05 cm ou 3.00(5) cm


Figura 1.5

Contudo, por vezes as escalas têm as divisões bastante espaçadas e é possível dividi-las
visualmente em mais do que duas partes, ou são tão pequenas que não é possível perceber se o

[6 ] Refere-se aqui “incerteza associada à medição com determinado instrumento” porque, como já
foi referido, o ato de medir envolve não só o instrumento mas também o operador.
12
ponteiro ou o ponto de medida está para cá ou para lá do meio da menor divisão. Nesses
casos, a “sensatez” aconselha que se tome como incerteza o menor valor que defina um
intervalo de erro que “dê confiança” à medida realizada; pode ser a menor divisão (e não
metade) se a divisão for muito pequena; pode ser ¼ da menor divisão se conseguirmos dividi-
la visualmente em 4 partes, etc.

Medida digital

Quando se utiliza um medidor digital, as especificações do aparelho fornecidas pelo


fabricante costumam indicar a incerteza associada a cada medida e, em geral, essa incerteza é
dada sob a forma percentual. Por exemplo, se estiver indicado no manual da balança digital da
figura 1.6 que as medidas com ela efetuadas têm uma incerteza percentual associada de 1%,
isso significa que a massa dos pregos terá um erro absoluto associado de 0.0035 g, ou seja, a
massa dos pregos seria de 0.3500±0.0035 g. Poderemos arredondar este valor e apresentar a
massa dos pregos como 0.350±0.004 g ou 0.350(4) g.
Quando desconhecemos as especificações do aparelho utilizado e temos a certeza que
ele não trunca os valores mostrados, ou seja, arredonda-os adequadamente, é costume
tomar-se como incerteza absoluta metade da unidade do último dígito (mais à direita, o menos
significativo) do mostrador (o dígito 5, no exemplo da figura 1.6). (Veremos na secção
seguinte o que se entende por algarismos significativos.) Se suspeitamos que o aparelho
trunca os valores (0.352 e 0.358 dariam sempre 0.35, sem arredondamento), então é mais
razoável usar como incerteza uma unidade no último dígito do mostrador (0.01g no exemplo
da figura 1.6)

Leitura do mostrador da balança = 0.35 g


Massa dos pregos = 0.350±0.005 g ou 0.350(5) g

Figura 1.6 – Incerteza associada: metade de uma unidade no algarismo menos significativo do
mostrador, ou seja, metade de 0.01 (= 0.005).

Em princípio, é mais fácil utilizar um medidor digital do que um medidor analógico


convencional. Todos os dígitos no mostrador de um medidor digital são significativos, a
menos que esteja defeituoso. Contudo, não devemos deixar que a utilização de aparelhos
digitais nos dê uma falsa ideia de precisão. Por exemplo, um cronómetro digital pode fornecer
medidas de tempo com grande precisão (imaginemos que até às centésimas de segundo) e, no
entanto, a medida pode vir afetada de uma grande imprecisão devida a outros fatores.

1.6. Incerteza em medidas diretas

De facto, há outras fontes de incerteza mais difíceis de quantificar do que a simples


leitura de escalas ou mostradores. Uma delas é a dificuldade em definir o ponto de leitura que
surge em certas realizações experimentais. Este tipo de problema é conhecido como problema
de definição e exemplos frequentes são a dificuldade em obter uma imagem nítida num ecrã
(como exemplificado na figura 1.7) ou de decidir o instante em que se deve ligar ou desligar
um cronómetro quando estamos a realizar uma medida de tempo. Estes e outro tipo de
dificuldades experimentais (ver ponto 1.3 sobre erros acidentais) podem gerar erros aleatórios
maiores do que os associados à simples leitura das escalas ou mostradores dos aparelhos de
medida.
13
Assim, sempre que possível, devemos realizar várias medições da mesma grandeza,
nas mesmas condições experimentais, e utilizar o tratamento estatístico da dispersão de
valores obtidos (média, desvio padrão e desvio padrão da média, definidos no Cap. II) como a
estimativa mais real para o erro associado à grandeza.

Figura 1.7 – Fixando as posições do objeto (lâmpada) e da lente, é muitas vezes difícil obter uma
imagem bem focada do objeto, verificando que há um pequeno intervalo de valores da régua ótica
dentro das quais a imagem parece nítida.

Haverá circunstâncias em que se atribui à grandeza apenas a incerteza associada ao


instrumento de medida? Sim, se por qualquer razão apenas se pode realizar uma medida e não
se considera necessário atribuir-lhe um erro superior ao associado ao instrumento 7, ou se, ao
realizar várias medidas, todas elas dão o mesmo valor, ou seja, não há dispersão de valores.

1.6.1. Um caso particular: contagem de acontecimentos.

Quase todas as medições diretas envolvem a leitura de uma escala (digital ou analógica)
e a incerteza associada pode ser estimada facilmente, a partir das caraterísticas da escala e da
maior ou menor facilidade de leitura, como vimos.
Contudo, há um outro tipo de medidas diretas cuja incerteza associada é de natureza
diferente. Trata-se de experiências que requerem a contagem de acontecimentos que
ocorrem aleatoriamente no tempo mas a uma taxa média bem definida. Ou seja, a
ocorrência do instante em que se dá um acontecimento não é previsível (é aleatória) mas o
número médio de acontecimentos que ocorre num determinado intervalo de tempo pode ser
definido. O exemplo mais conhecido deste tipo de experiência é o decaimento radioativo 8.
Cada núcleo de um material radioativo decai num instante aleatório mas, para a amostra como
um todo, pode definir-se uma taxa média de decaimento.
Para encontrar essa taxa média de decaimento basta contar o número ν de
decaimentos num dado intervalo de tempo ∆t conveniente. A incerteza nesta contagem
direta é simplesmente dada pela quantidade
ν. (1.3)

Assim, o nº médio de acontecimentos medidos diretamente no intervalo de tempo ∆t é


dado por:

[7] Se nos limitarmos às características dos instrumentos de medição para avaliarmos os erros
associados a uma medida quando existirem outras fontes de erro, as incertezas poderão vir
subestimadas. Por exemplo, ao medirmos uma única vez a posição do extremo de uma mola,
subestimaremos o erro se apenas considerarmos a incerteza associada à régua no caso de a mola
oscilar ligeiramente, dificultando a leitura da posição do seu extremo. Contudo, também não
devemos sobrestimar os erros, pois corremos o risco de tornar as medidas inúteis. (Lembremos a
medida do Artur, no caso da coroa falsa!)
[8] Outro exemplo conhecido é a contagem do nº de bebés que nasce por mês num determinado
hospital.
14
Nº médio de acontecimentos no intervalo de tempo ∆t = ν ± ν . (1.4)

Este tipo de experiência é bem descrito por uma distribuição de Poisson. 9

Vejamos um exemplo, para ilustrar o que foi dito.

A fim de verificar a atividade de uma amostra radioativa, um investigador coloca a


amostra perto de um detetor de radiação adequado. O detetor emite um som cada vez que
deteta um partícula que provém da desintegração de um núcleo e o operador conta o nº de
decaimentos ocorridos durante um intervalo de tempo de 2 minutos, obtendo 33 contagens.

a) Que valor do nº de contagens deve registar? Deve registar:

Nº médio de acontecimentos no intervalo de 2 minutos = 33 ± 33 = 33 ± 6.

b) E se, em vez desse procedimento, tivesse contado o nº de decaimentos ocorrido


durante um intervalo de tempo de 50 minutos e obtido 907 contagens? Nesse caso deveria
registar:
Nº médio de acontecimentos no intervalo de 50 minutos = 910 ± 910 = 910 ± 30.

c) Determine as incertezas percentuais em ambos os casos e comente.

A incerteza percentual é de cerca de 18% no caso da alínea a) e de 3% no da alínea


b), mostrando que é útil contar durante períodos de tempo mais longos pois diminui
a incerteza relativa.

1.7. Incerteza expressa nos algarismos significativos. Arredondamentos.

Uma vez que a quantidade δx é a incerteza estimada associada ao valor da grandeza


física x, não tem sentido essa incerteza ser dada com demasiada precisão. Por exemplo, seria
absurdo medirmos a aceleração da gravidade e apresentarmos o seguinte resultado:

g (medido experimentalmente) = 9.84 ± 0.03258 m/s2.

Com quantos algarismos significativos devemos apresentar o valor de uma incerteza?


Vejamos, primeiro, o que são algarismos significativos.

Algarismos significativos são os algarismos com significado na


medida efetuada. No caso do medidor de pH representado na figura
1.8, o valor lido deve ser exatamente o que está indicado, ou seja,
pH = 7.00 e não apenas pH = 7. Os zeros à direita da vírgula têm
significado para o valor da grandeza a medir: são algarismos
significativos.

Como se determinam os algarismos significativos de um número? pH = 7.00


(por exemplo, de 2350, ou 0.0780, ou 6.41x10-2) Figura 1.8

[9] Ver apêndice A2.


15
1) O dígito mais à esquerda que não seja zero é o dígito mais significativo.
(2 no 1º exemplo; 7 no 2º; 6 no 3º)

2) Se não houver ponto (vírgula) decimal, o dígito mais à direita que não seja zero é o dígito
menos significativo.
(5 no 1º exemplo)

3) Se houver ponto (vírgula) decimal, o dígito mais à direita é o dígito menos significativo,
mesmo que seja um zero.
(0 no 2º exemplo; 1 no 3º)

4) Todos os dígitos situados entre o mais e o menos mais significativo (inclusive) são dígitos
significativos.

Outros exemplos: 1234, 123400, 123.4, 1001, 10.10, 0.0001010 são números com 4 dígitos
significativos; 3.20x102 tem 3 dígitos significativos; 320 tem apenas 2
dígitos significativos.

Com quantos algarismos significativos deve ser apresentado o valor de uma incerteza?

1) Em resultados parciais, devemos usar um nº de dígitos conveniente para não favorecer a


propagação de erros por arredondamento.

2) Num resultado final, não devemos apresentar mais do que dois algarismos significativos.

Muitos autores e tabelas de dados publicados seguem a seguinte orientação para resultados
finais: para incertezas cujos dígitos mais significativos sejam menores ou iguais a 35 usam
dois dígitos significativos; para incertezas superiores a 35 usam apenas um algarismo
significativo.

Em TLF seguiremos esta orientação na apresentação de resultados finais. Por exemplo, se


T = 12.34 K e δT = 0.27 K, escreveremos 12.34 ± 0.27 K (pois 27 < 35); se r = 23.54 m e δr =
0.75 m, escreveremos 23.5 ± 0.8 m (visto que 75 > 36).

Orientação para operações com algarismos significativos

Em resultados parciais, devemos usar um nº de dígitos conveniente para não favorecer a


propagação de erros por arredondamento.

Em resultados finais:

Adições e subtrações

O resultado final terá o mesmo número de casas decimais significativas da parcela que tiver o
menor número delas:

4.573 + 0.6 = 5.173 = 5.2 4.573 - 0.60 = 3.973 = 3.97

Produtos, divisões

O resultado final terá o mesmo número de algarismos significativos do número interveniente


com menos algarismos significativos:

16
4.573 x 0.6 = 2.74 = 3 4.573 : 0.60 = 7.62 = 7.6 6.73 = 300.76 = 3.0x102

Raiz quadrada, exponenciais, logaritmos, funções trigonométricas, etc.

O resultado final tem o mesmo nº de algarismos significativos do valor de partida.

log 2.774 = 0.4431 e3.004= 20.17

Regras para arredondamentos

1) Se o algarismo final é maior do que 5, o arredondamento é feito por incremento do


algarismo anterior (Ex.: 14.67 arredonda para 14.7).

2) Se o algarismo final é menor do que 5, o arredondamento é feito deixando igual o


algarismo anterior (Ex.: 7.821 arredonda para 7.82).

3) Se o algarismo final é exatamente 5, o algarismo anterior só é incrementado se for um nº


ímpar. Por exemplo, 15.5 é arredondado para 16 e 16.5 é arredondado para 16.

A razão de ser da 3ª regra é evitar erros sistemáticos que apareceriam se arredondássemos os


números cujo algarismo final é 5 incrementando sempre o dígito anterior ou mantendo-o
sempre igual. Assim, arredondam-se uns números por excesso e outros por defeito, o que não
dá um comportamento sistemático.

Lembremos também que, em cálculos, os valores intermédios devem sempre manter mais
algarismos do que o número de algarismos significativos estritamente necessário, para que os
erros por arredondamento sejam minimizados.

Por exemplo:
4.50 × 2.6 / 4.5 = 1.170 / 4.50 = 2.60 = 2.6

e não 4.50 × 2.6 / 4.5 = 1.2 / 4.50 = 2.67 = 2.7

Além disso, as constantes matemáticas são consideradas exatas e, quando tal tem sentido,
devem ser sempre utilizadas com mais algarismos significativos do que a parcela com menor
número de algarismos significativos.
Por exemplo:
y = 2x x = 1.576 => y = 3.152

r = 5.0 cm => πr2 = 3.1416 × 5.02 = 78.54 = 79 cm2

1.8. Discrepância entre medidas de uma mesma grandeza

Imaginemos que foram realizadas várias medidas do valor de uma mesma resistência
elétrica por dois métodos diferentes (A e B). Cada um dos conjuntos de medidas realizadas
por cada um dos métodos foi devidamente tratado, tendo-se chegado aos seguintes resultados
finais apresentados a seguir sob a forma xbest ± δx:
Método A: R = 15 ± 1 Ω (εr = 7%)
17
Método B: R = 25 ± 2 Ω (εr = 8%),

onde εr representa o erro relativo percentual.


A figura 1.9-(a) ilustra os mesmos resultados, onde o melhor valor de cada medida, xbest, é
representado pelo ponto e o intervalo de valores prováveis (intervalo de confiança ou
intervalo de incerteza) de cada resultado é representado pelas barras de erro vertical.

Define-se discrepância entre os dois resultados como o valor da diferença entre os dois
melhores valores correspondentes (neste exemplo, a discrepância = 25 – 15 = 10 Ω).
Considera-se que a discrepância é significativa quando o seu valor é maior do que a
combinação das incertezas das duas medidas. É o que acontece neste caso, uma vez que a
soma das incertezas dá 3 Ω, sendo, portanto, menor do que a diferença encontrada. Isto
indica-nos que pelo menos uma das medidas está incorreta (embora, repare-se, os erros
relativos sejam aceitáveis…).

Consideremos agora outros dois métodos (C e D), que conduziram aos seguintes resultados
finais:
Método C: R = 16 ± 8 Ω (εr = 50%)

Método D: R = 26 ± 9 Ω (εr = 35%).

Figura 1.9
(Ref. Bibliográfica [2])

Neste caso (fig. 1.9-(b)), a discrepância tem o mesmo valor (26 – 16 = 10 Ω) mas é
considerada não-significativa, uma vez que as margens de erro se sobrepõem (8 + 9 = 17 >
10). Embora os resultados sejam bastante mais imprecisos do que no caso (a) (repare-se que
os erros relativos são grandes!), não há razão para duvidarmos deles. Ambos podem estar
certos.
Conclui-se, portanto, que a discrepância entre duas medidas não deve ser ponderada
apenas pela diferença entre os seus melhores valores mas, e mais importante, por quão grande
a discrepância é quando comparada com as incertezas que afetam esses melhores valores.

18
1.9. Diferença relativa entre medidas experimentais e constantes físicas

Outra situação que acontece com frequência em trabalhos laboratoriais que pretendem
ilustrar as leis da Natureza é a realização de experiências para medirmos grandezas já bem
estabelecidas e publicadas, como a aceleração da gravidade, a carga do eletrão, a temperatura
do zero absoluto, a constante universal dos gases, etc. Essas grandezas são tomadas como
constantes físicas mas, na verdade, foram também determinadas experimentalmente e,
portanto, há sempre incerteza experimental associada aos seus valores. Contudo, como se
trata de experiências já muitas vezes repetidas, com metodologias e instrumentação de
elevada sensibilidade e criteriosamente selecionadas, os níveis de precisão e exatidão
atingidos são muito elevados e a incerteza experimental é muito pequena. Assim, para todos
os fins práticos, esses valores podem ser tomados como constantes.
Então, quando obtemos resultados experimentais (medidos direta ou indiretamente)
dessas constantes físicas devemos compará-los do seguinte modo

i) Ver se o nosso intervalo experimental xbest ± δx contém o valor da constante


(chamemos-lhe, genericamente, valor esperado, xesp), ou seja, se

x esp ∈ [x best − δx, x best − δx] .

Se tal acontece, o resultado da experiência pode ser considerado bom (estamos a


admitir que δx é “razoável”, claro).

ii) Se o intervalo experimental não contém o valor esperado, podemos então analisar a
diferença relativa
x best − x esp
.
x esp

Se a diferença relativa é pequena (o que nos indica que o resultado experimental em


si mesmo é bom), então, provavelmente, o nosso erro experimental δx foi
subestimado e devemos tentar perceber porquê. Se a diferença relativa é grande,
então isso indica-nos que um ou vários fatores estão a introduzir erros sistemáticos
importantes e, eventualmente, também aleatórios, e a experiência deve ser repensada.

19
20
Capítulo II

Análise estatística
de incertezas aleatórias

2.1. Determinação do melhor valor: a média 23


2.2. Dispersão das medidas: desvio padrão. Estimativa da precisão na medida. 24
2.3. Significado estatístico do desvio padrão 27
2.4. Incerteza na incerteza 29
2.5. A incerteza associada ao valor médio 29

21
22
Análise estatística
de incertezas aleatórias
2.1. Determinação do melhor valor: a média

Como foi referido no capítulo anterior, uma das formas de aumentar o grau de confiança
no valor resultante da medida de determinada grandeza é repetirmos várias vezes essa medida
nas mesmas condições experimentais. Verifica-se, regra geral, que os valores obtidos nas
diferentes medições diferem entre si. Como devemos então proceder para escolher o valor que
melhor representa essa grandeza, aquele que estará mais perto do idealizado verdadeiro
valor?
Comecemos por sublinhar mais uma vez que uma correta utilização do tratamento
estatístico dos dados obtidos exige que as incertezas de tipo sistemático associadas à
aparelhagem, metodologia, etc., tenham sido reduzidas ao mínimo. Se assim for, a dispersão
de valores encontrada, e devida apenas a erros de tipo aleatório, deve estar centrada no
verdadeiro valor da grandeza 10 e os resultados das diferentes medidas podem ser analisados
recorrendo a métodos estatísticos.

Chamaremos população ao conjunto de todos os valores possíveis que uma dada


grandeza pode tomar. Quando realizamos medidas experimentais para conhecer o valor dessa
grandeza estamos então a obter um subconjunto finito (uma amostra) desse conjunto infinito
que designámos por população. Pode mostrar-se que o melhor valor que podemos associar
a uma grandeza quando realizamos uma amostra de N medidas dessa grandeza é a média
ou valor médio x , que se define como:

∑x i
x= i =1
. (2.1)
N

Ilustremos com um exemplo. Numa dada experiência, tendo reduzido a um nível desprezável
os erros sistemáticos, realizámos várias medidas de um determinado comprimento L e
obtivemos a seguinte amostra de resultados:

Tabela 2.1
Li (mm) 72 73 71 72 73

Depois da análise do instrumento de medida utilizado, pareceu razoável tomar-se como erro
de leitura a incerteza de 1 mm.

Então, de acordo com o que foi dito acima, o melhor valor para representar a grandeza L é o
valor médio dos resultados das medidas efetuadas, ou seja,

[10] Lembremos os diagramas da figura 1.3, pág. 11.


23
72 + 73 + 71 + 72 + 73
Lbest = L = = 72.2 mm. 11
5

2.2. Dispersão das medidas: desvio padrão. Estimativa da precisão na medida.

No exemplo escolhido, admitimos que a incerteza associada a cada medida efetuada foi
a correspondente à precisão do aparelho de medida, ou seja, 1 mm. Digamos que se trata de
uma incerteza estimada à partida, antes de qualquer cálculo estatístico sobre um número
razoável de medidas efetuadas nas mesmas condições. Haverá maneira de avaliarmos, depois
das medidas realizadas, se essa incerteza foi bem escolhida ou se, pelo contrário, a
imprecisão cometida na medição terá sido superior (ou muito inferior) à precisão do
instrumento?
Sendo a repetição de medidas a melhor maneira de reduzir o efeito dos erros aleatórios,
a dispersão dos valores obtidos deve dar-nos uma ideia da precisão com que efetuámos essas
medidas. Comecemos então por avaliar a dispersão dos valores medidos em torno do valor
médio calculado, determinando a diferença entre o valor obtido em cada medida e esse valor
médio:
xi − x = d i . (2.2)

A diferença, di, designada por desvio ou resíduo, informa sobre quanto a medida xi se afasta
do valor médio. É fácil percebermos que se os desvios são grandes isso significa que os
pontos estão muito dispersos uns dos outros, ou seja, que a amostra é pouco precisa. Pelo
contrário, se os desvios são pequenos, a dispersão das medidas é pequena e a precisão é boa.
Então, se somarmos todos os desvios e dividirmos a soma pelo nº de medidas obtemos um
desvio médio, d , que poderíamos usar como forma de avaliar o erro médio associado a cada
medida da nossa amostra:
N

∑d i
d = i =1
.
N

Apliquemos este raciocínio às medidas do comprimento L de um objeto (tabela 2.2).

Tabela 2.2
Medida Li (mm) di (mm)

1 72 0.2
2 73 -0.8
3 71 1.2
4 72 0.2
5 73 -0.8
5
L = 72.2 mm ∑d
i =1
i =0

[11] Repare-se que a média tem mais algarismos significativos do que cada um dos valores medidos.
Tal é aceitável uma vez que se considera que a média é uma estimativa melhor do verdadeiro valor
da grandeza do que qualquer um dos valores individuais. Ainda assim, a razoabilidade da precisão
do valor final depende da incerteza associada a esse valor. A incerteza da média será determinada
no ponto 2.4.
24
A Tabela 2.2 mostra que a soma dos desvios é nula
e, assim sendo, a média dos desvios não é uma
quantidade útil para caracterizar a incerteza média
dos resultados! De facto, tal acontece pela própria
definição de média, que assegura que di umas vezes
é positivo e outras negativo de forma a que ∑ d i
i
seja zero 12.
Outra possibilidade, de avaliação mais direta,
seria estimarmos a incerteza nas medidas
a posteriori (ou seja, depois das medidas efetuadas)
tomando o desvio máximo obtido, em vez de
fazermos a média dos desvios. Repare-se, contudo,
que no exemplo da medida dos comprimentos esse
desvio dmax (= 1.2 mm, tabela 2.2) é superior à
estimativa inicial de 1 mm (correspondente à
precisão do aparelho) e que os outros 4 valores
medidos têm desvios inferiores a 1 mm. Façamos
uma abordagem mais geral.
Imaginemos que aumentamos o nº de
medidas efetuadas, primeiro para 50, depois para
100 e finalmente para 1000 medidas. A figura 2.1
contém quatro gráficos de barras, também
conhecidos por histogramas, que representam o nº
de vezes que obtemos cada um dos valores
medidos (nº de ocorrências). A figura ilustra bem a
forma como os valores medidos na amostra de 5,
50, 100 e 1000 medições se vão dispersando
(distribuindo) à medida que o número de medições
aumenta. Repare-se que, com o aumento desse
número, a dispersão de resultados estende-se até
valores extremos mais afastados do centro da
distribuição, ao passo que as medições com
resultados mais próximos desse valor central são
obtidas mais vezes. Percebe-se assim que tomar o
desvio máximo como incerteza a posteriori
constitui uma sobrevalorização inadequada da
imprecisão da medida, tanto mais exagerada
quanto maior for nº de medidas. Precisamos,
portanto, de um parâmetro que dependa de todas as
medidas e não só dos valores extremos obtidos.

Mostra-se que uma quantidade adequada para


estimar a incerteza média a partir da dispersão dos
resultados obtidos está relacionada com a média da Figura 2.1 – Histogramas de representação
soma dos quadrados dos desvios (e não com a soma dos resultados de 5 (A), 50 (B), 100 (C) e
dos desvios), ou seja, com 1000 (D) medidas do comprimento L.

N N N N N N ∑x i
[12] Como se comprova: ∑ d = ∑ (x
i =1
i
i =1
i − x ) = ∑ x i − ∑ x = ∑ x i − Nx = ∑ x i − N
i =1 i =1 i =1 i =1
i =1

N
=0

25
N

∑d
i =1
i
2

.
N

Assim, define-se a grandeza variância, σ x2 , como

∑d i
2

σ x2 = i =1
, (2.3)
N

e a grandeza desvio padrão, σ x , como


N

∑d i
2

σx = i =1
. (2.4)
N

Pelas unidades da grandeza medida (milímetros quadrados, no exemplo dado), vê-se que a
variância não pode ser diretamente associada aos resultados das medidas. O desvio padrão,
pelo contrário, tem as mesmas unidades da grandeza em causa.

Façamos um reparo importante às fórmulas 2.3 e 2.4. Na verdade, elas dizem respeito à
variância e ao desvio padrão de uma população, ou seja, de um conjunto inumerável de
medidas, e não de uma amostra, o conjunto finito de medidas que, de facto, realizamos.
Vejamos porquê. Quando o universo de valores medidos é infinito, o valor médio e o desvio
padrão são dois parâmetros independentes entre si e o cálculo de um não retira graus de
liberdade à determinação do outro. 13 Contudo, quando realizamos um conjunto finito de N
medidas e calculamos o valor médio correspondente, o número de graus de liberdade
(inicialmente N, de N medidas independentes umas das outras), passa a ser de N-1 depois do
cálculo da média, uma vez que aquele conjunto de N dados passou a estar relacionado pelo
valor da média. N-1 é portanto o número de graus de liberdade disponível quando se efetua o
cálculo da variância ou do desvio padrão. Demonstra-se que o denominador das fórmulas 2.3
e 2.4 corresponde ao nº de graus de liberdade, o que justifica a substituição de N por N-1
quando trabalhamos com uma amostra. A variância e o desvio padrão de uma amostra
devem, portanto, ser definidos por:

∑ (x − x )
i
2

variância da amostra = σ x2 = i =1
(2.5)
N −1

∑ (x i − x)
2

desvio padrão da amostra = σ x = i =1


(2.6)
N −1

[13] – O número de variáveis não constrangidas de um sistema (ou seja, que podem variar livremente) é
conhecido por número de graus de liberdade do sistema. Nesta situação, em que queremos avaliar o valor de
determinado parâmetro, o nº de graus de liberdade corresponde ao nº de medidas independentes que contribuirão
para fazer uma estimativa desse parâmetro. Regra geral, podemos dizer que o nº de graus de liberdade (d) é
igual ao nº de dados independentes usados na estimativa (N) menos o nº de parâmetros usados na estimativa que
tenham sido já determinados a partir do mesmo conjunto de dados (c): d = N – c. c é também conhecido como nº
de constrangimentos.
26
Repare-se que, fazendo uma análise meramente qualitativa, esta alteração corrige a tendência
das equações 2.3 e 2.4 para subestimarem a incerteza quando o nº de medidas é pequeno. Essa
tendência pode ser compreendida se tomarmos o caso extremo (e absurdo) de N = 1. Quando
só há uma medida, a média é igual ao próprio valor e a incerteza é nula, o que está,
evidentemente, incorreto. Todas as medidas experimentais vêm afetadas por certo grau de
incerteza! Com a divisão por N-1 obtém-se o valor indeterminado 0/0, refletindo corretamente
a nossa ignorância sobre a incerteza quando realizamos apenas uma medida.

Note-se, para terminar este ponto, que a diferença entre o resultado das equações 2.3 e 2.5 ou
2.4 e 2.6 é pequena, como pode ser facilmente verificado, e tanto mais pequena quanto maior
for o número de medidas N. 14

Relativamente ao exemplo escolhido podemos então calcular os valores dos dois


parâmetros agora definidos (Tabela 2.3).

Tabela 2.3
σ L2 (mm2) σ L (mm)
2 2
Medida Li (mm) d (mm )
i

1 72 0.04
2 73 0.64
3 71 1.44 0.700 mm2 0.837 mm
4 72 0.04
5 73 0.64
5
L = 72.2 mm ∑d
i =1
i
2
= 2.80 mm2

Resumindo, o desvio padrão traduz a incerteza média que caracteriza a amostra das N
medidas e cada uma das medidas individuais realizadas. Começámos por estimar como
incerteza associada a cada valor medido 1 mm. Contudo, ao ter em conta a dispersão dos
dados experimentais, o desvio padrão mostra-nos que, estatisticamente, o erro médio
cometido em cada medida foi menor, foi de cerca de 0.84 mm.

2.3. Significado estatístico do desvio padrão

Como será desenvolvido num próximo capítulo, pode mostrar-se que quando as
medidas de uma quantidade x (repetidas muitas e muitas vezes) estão sujeitas a variações
pequenas, independentes e aleatórias, em qualquer dos sentidos, a dispersão dos valores
medidos em torno do seu valor médio, x , é bem reproduzida por uma curva envolvente
designada por distribuição Normal ou Gaussiana – também vulgarmente conhecida como
distribuição em forma de sino (Fig. 2.2). Veremos que o desvio padrão dos valores medidos
tende (à medida que aumenta o número de medidas) para a largura dessa curva envolvente 15
e que aproximadamente 68% dos valores medidos se situam dentro do intervalo [ x ± σx]. Isto

[14] Atenção às máquinas de calcular. As mais completas têm as duas definições (divisão por N e por
N-1) mas quando disponibilizam apenas uma das fórmulas é necessário perceber qual a definição
utilizada. Atenção, também, na utilização de software para cálculo estatístico.
[15] Na verdade, é o dobro do desvio padrão que tende para a largura da Gaussiana, tal como definida
na figura 2.2.
27
significa que se fizermos uma nova medida de x nas mesmas condições experimentais, há
68% de probabilidade de esse novo resultado cair no intervalo [ x ± σx].
Doravante, sempre que fizermos várias medidas de uma grandeza x adotaremos σx
como estimativa da incerteza ou erro nas medidas, ou seja, consideraremos δx = σx, não
esquecendo que a probabilidade do intervalo [xi ± σx] conter o verdadeiro valor da grandeza é
também de 68%.

Figura 2.2 – Histograma do número de medidas da grandeza x (dividido por 10 mil) e curva contínua
envolvente (função Gaussiana).

Exemplo: determinar a constante elástica de um conjunto de molas idênticas.

Comprámos um conjunto de 10 molas e o fabricante garante que as suas constantes elásticas


são idênticas. Como não temos muito tempo, decidimos confiar na informação
disponibilizada pelo fabricante e medir 20 vezes a constante elástica de uma só mola. A partir
da análise dos dados obtidos encontrámos os seguintes valores para a média e o desvio
padrão:

K = 85.7 N/m e σ K = 2.2 N/m .

Se agora medirmos uma vez o valor da constante elástica de uma 2ª mola e obtivermos o valor
84 N/m, uma vez que as molas são idênticas, podemos tomar a incerteza como

δK = σK = 2.2 N/m

e estabelecer, com 68% de confiança, que o valor da constante elástica da 2ª mola está no
intervalo
84.0 ± 2.2 N/m.

28
2.4. Incerteza na incerteza

Uma vez que à medida que aumentamos o número de medições de uma dada grandeza
x, o desvio padrão se aproxima cada vez mais da largura da distribuição Gaussiana para a qual
tende o histograma experimental (fig. 2.2), podemos considerar que o desvio padrão é uma
estimativa da verdadeira largura da distribuição Gaussiana 16. Qual a incerteza associada a
essa estimativa? Ou seja, qual o grau de confiança que podemos ter no próprio desvio padrão?
É possível mostrar que a incerteza relativa em σx é dada por:

δσx 1
= . (2.7)
σx 2( N − 1)

Embora não demonstremos este resultado, ele torna clara a necessidade de numerosas
medições para que a incerteza na medida de uma grandeza possa ser determinada com um
grau de confiança aceitável. Por exemplo, se realizarmos apenas 3 medições de uma dada
grandeza nas mesmas condições experimentais (N = 3), a definição 2.7 mostra que o desvio
padrão 17 é 50% incerto! O procedimento muitas vezes usado nos trabalhos práticos de TLF é
δσx
o de repetir 5 vezes cada medição. Neste caso, = 0.35 . Ou seja, mesmo com 5 medidas,
σx
ainda há 35% de incerteza sobre o desvio padrão calculado com base das medidas realizadas!

2.5. A incerteza associada ao valor médio

Tratemos agora de outra questão: qual a incerteza associada à própria média?

Uma conclusão algo surpreendente quando aumentamos o nº de medidas efetuadas e


vamos avaliando a média e o desvio padrão ao fim de determinado nº total de medidas (por
exemplo, ao fim de 5, 50, 100 e 1000 medidas) é que tanto o valor médio como o desvio
padrão (e, portanto, também a variância) não se alteram significativamente. Isto deve parecer
estranho, pois temos vindo a sublinhar que a forma de diminuir os erros aleatórios é realizar
várias medidas (nunca menos de 5, pois o tratamento estatístico perde significado, como
veremos no ponto seguinte). Onde se reflete, afinal, o aumento na precisão a que o incremento
do nº total de medidas da amostra supostamente conduz?

Debrucemo-nos sobre a situação ilustrada nos histogramas da figura 2.3. Fizeram-se


2500 medidas da grandeza x e o gráfico de barras demonstrativo da distribuição de resultados
é o histograma (A). O tratamento estatístico desses resultados conduz ao valor médio e ao
desvio padrão σx. Suponhamos agora que, em vez de esperarmos pelo final das 2500 medidas,
ao fim de cada conjunto de 5 medidas determinamos o valor médio dessas 5 medidas. Ao fim
das 2500 medidas, representamos os 500 valores médios assim obtidos no histograma (B). Os
histogramas (C) e (D) correspondem às situações em que calculamos a média ao fim de cada

[16] A verdadeira largura seria aquela que obteríamos se realizássemos um nº infinito de medidas.
[17] Mais uma vez, o desvio padrão corresponde a uma incerteza média que afeta os valores medidos
experimentalmente. Essa incerteza média é determinada a posteriori, depois de analisados
estatisticamente os valores obtidos experimentalmente. Pelo contrário, podemos chamar incerteza a
priori àquela que atribuímos aos valores medidos experimentalmente e que é estimada apenas a
partir das características do instrumento de medida utilizado e da análise das condições de medida,
ou seja, sem realizar qualquer cálculo estatístico. Quando a estimativa inicial é boa os dois valores
estão próximos.
29
amostra de 10 e 50 medidas, respetivamente. Assim, em (C) estão representados os resultados
de 250 valores médios e em (D) os resultados de 50 valores médios.

Nas figuras 2.2 e 2.3-(A), como vimos, a


largura do histograma está relacionada com o desvio
padrão da amostra e é uma medida da precisão das
medidas de x. Correspondentemente, nos
histogramas (B), (C) e (D) a largura do histograma é
uma medida da precisão da média . Vê-se bem que,
quando o nº de medidas envolvido no cálculo da
média aumenta, a largura do histograma das médias
diminui, ou seja, a precisão do valor médio aumenta.
Aqui está, então, o efeito direto do aumento do nº de
medidas: aumentar a precisão do valor médio.
Na prática, para conhecermos a incerteza na
média não é costume seguir procedimentos como os
que levaram à criação dos histogramas (B), (C) e
(D). Regra geral, medimos apenas uma amostra com
N medidas, sabendo que a incerteza na média
decrescerá tanto mais quanto maior for a amostra.
Como veremos, é fácil provar que o valor médio
vem afetado por uma incerteza dada por:
σ
σx = x (2.8)
N
e designada por Desvio Padrão da Média (ou Erro
Padrão ou Erro Padrão da Média).

Repare-se que o fator


10
N cresce de modo
8
lento com o aumento
6
de N. Por exemplo, se
N1/2

4 quisermos aumentar 10
2 vezes a precisão da
0 média, teremos que
0 20 40 60 80 100
N multiplicar N por 100!

(E não esqueçamos que os erros sistemáticos não


diminuem nem se eliminam aumentando o número
de medidas. Portanto, na prática, se queremos
melhorar apreciavelmente a qualidade dos nossos
resultados experimentais, a melhor maneira de o
conseguirmos pode ser aperfeiçoando a técnica e
calibrando muito bem o sistema experimental.)

Aplicando a fórmula 2.8 aos dados da tabela


Figura 2.3 – (A): histograma de 2500
2.3, o melhor valor para xbest ± δxbest do
medidas de x; (B): histograma de 500 ,
comprimento do objeto é então calculados de 5 em 5 medidas; (C):
histograma de 250 , calculados de 10 em
L ± σ L = 72.20 ± 0.37 mm (ou 72.2 ± 0.4 mm). 10 medidas; (D): histograma de 50 ,
calculados de 50 em 50 medidas.
30
Capítulo III

Propagação de incertezas
independentes e aleatórias

3.1. Funções de uma variável


3.1.1. Propagação de incertezas usando a relação funcional 33
3.1.2. Propagação de incertezas utilizando o cálculo diferencial 35
3.1.3. Exemplos de aplicação 37
3.2. Funções dependentes de várias grandezas
3.2.1. Propagação de incertezas usando a relação funcional 38
3.2.2. Propagação de incertezas utilizando o cálculo diferencial 38
3.2.3. Exemplos de aplicação para funções de duas variáveis 40
3.2.4. Determinação da incerteza final por etapas 40
3.2.5. Erros de compensação 41

31
32
Propagação de incertezas

Como sabemos, muitas vezes não é possível medir diretamente determinadas grandezas
físicas (por exemplo, por não termos os aparelhos adequados disponíveis) e só se podem
conhecer os valores dessas grandezas a partir de outras grandezas com elas relacionadas.
Nesses casos:

1º) mede-se diretamente a ou as quantidades a partir das quais a grandeza em causa


pode ser determinada (por exemplo, uma distância e um tempo);
2º) usam-se os valores medidos dessas quantidades para calcular a grandeza de
interesse (por exemplo, uma velocidade média).

Quando a determinação da grandeza física envolve os dois passos anteriores, a avaliação da


incerteza também envolve várias etapas:

1º) estimam-se as incertezas nas quantidades medidas diretamente;


2º) investiga-se como é que essas incertezas se “propagam” ao longo dos cálculos
realizados;
3º) determina-se a incerteza que vai afetar a grandeza final.

Na investigação da forma como a incerteza se propaga usaremos duas metodologias: uma


que corresponde à aplicação da relação funcional entre a grandeza medida e a grandeza
calculada aos extremos do intervalo de variação da grandeza medida, e outra que usa o
cálculo diferencial. Quando as incertezas são pequenas, como é sempre desejável, os dois
métodos dão valores muito aproximados.

3.1. Funções de uma variável

3.1.1. Propagação de incertezas usando a relação funcional

Um método direto para se determinar a propagação da incerteza na variável medida para


a incerteza na grandeza que dela depende consiste na aplicação da relação funcional entre as
duas grandezas ao ponto médio e aos extremos do intervalo de variação da grandeza medida.
Suponhamos que, depois de muitas medidas e do tratamento estatístico adequado,
concluímos que determinada grandeza x mede xbest ± δx e que depois pretendemos determinar
a função f(x) ± δf. Tomamos então os três valores xbest, (xbest - δx) e (xbest + δx) da variável
medida e calculamos os valores correspondentes f(xbest), f(xbest - δx) e f(xbest + δx).
Ilustremos com o gráfico da figura 3.1. Começamos por marcar os pontos xbest, xbest – δx
e xbest + δx no eixo das abcissas. Percebe-se, a partir da figura, que:

• fbest corresponde a f(xbest)


• fmin corresponde a f(xbest – δx)
• fmax corresponde a f(xbest + δx)
• fbest - fmin = δf
• fmax - fbest = δf

33
Figura 3.1 – Representação gráfica da função f(x), ilustrando como partir de xbest ± δx para obter
fbest ± δf.

Conclui-se, portanto, que a aplicação da função f(x) a xbest e aos extremos do intervalo
xbest ± δx, permite obter diretamente fbest ± δf.

Repare-se que, no exemplo ilustrado no gráfico da figura 3.1, o erro simétrico que afeta
xbest (± δx) deu origem a uma incerteza que também parece simétrica em fbest (± δf). Contudo,
se f(x) for não-linear e a incerteza δx não for muito pequena 18, é muito possível que a
incerteza propagada não seja simétrica, ou seja,

(fbest - fmin) = δf- ≠ δf+ = (fmax - fbest).

Além disso, se a variação de f em função de x for do tipo representado na figura 3.2, ou


seja, se a tangente a cada um dos pontos do intervalo considerado tiver declive negativo, neste
caso δx+ [= (xbest+δx) - xbest] vai dar origem a δf- (= fbest – fmin) e δx- [= xbest - (xbest -δx)] vai dar
origem a δf+ (= fmax – fbest). Se δf- = δf+ podemos calcular δf como

δf = |fmax – fbest| ou δf = |fbest – fmin| ou mesmo δf = |fmax – fmin|/2.

Figura 3.2 – Representação gráfica de outra função f(x).

[18] Pequeno e grande são dois termos relativos. Pequeno (ou grande) relativamente a quê?
Relativamente ao valor da próprio valor da grandeza! Medir o comprimento de uma sala de 5 m
com uma incerteza de 1 m correspondente a um erro relativo de 20%, o que não pode ser
considerado bom! Medir a distância entre a Coimbra e Porto (~117 km) com a mesma incerteza
de 1 m corresponde a um erro relativo de ~9x10- 4 %, o que é muito bom! Portanto, é o erro
relativo, e não o erro absoluto, que deve ser analisado para percebermos se os erros são grandes
ou pequenos.
34
Vejamos um exemplo: medida experimentalmente a grandeza Z = 2.20 ± 0.10 (εr = 4.5%)
pretende-se calcular a quantidade R = eZ:

• Rbest (Z = 2.20) = 9.03


• Rmax (Z = 2.30) = 9.97
• Rmin (Z = 2.10) = 8.17
• Rmax – Rbest = 0.94
• Rbest – Rmin = 0.86

Então .

Se Z = 2.20 ± 0.01 (er = 0.45%):

• Rbest (Z = 2.20) = 9.03


• Rmax (Z = 2.21) = 9.12
• Rmin (Z = 2.19) = 8.94
• Rmax – Rbest = 0.09
• Rbest – Rmin = 0.09

Então .

3.1.2. Propagação de incertezas utilizando o cálculo diferencial

Consideremos agora uma outra abordagem à propagação de erros.

Sabemos do cálculo diferencial que, para qualquer função f(x) contínua e diferenciável
num determinado intervalo e para qualquer pequena variação ∆x à volta de x (por exemplo,
para qualquer pequena variação δx à volta de x = xbest) se tem:

f ( x + ∆x ) − f ( x ) df
lim = . (3.1)
∆x →o ∆x dx

Sendo a variação ∆x pequena mas não nula, podemos recorrer à fórmula de Taylor, 19
2 n
f (x + ∆x ) = f ( x ) + ∆x + (∆x ) ( )
df 1 2 d f 1 n d f
+ ... + ∆x (3.2)
dx 2! dx 2 n! dx n

e utilizar apenas os primeiros termos da eq. 3.2, adotando a aproximação

f (x + ∆x ) − f ( x) ≈
df
∆x . (3.3)
dx

Tomando agora x ≡ xbest e ∆x ≡ δx, vimos, pela figura 3.1, que δf = f(xbest + δx) – f(xbest).
Então, desde que a incerteza δx seja pequena (e assumimos que é), a comparação entre δf e a
expressão (3.3) dá

[19] O teorema de Taylor permite expandir uma função f(x), contínua e de derivadas contínuas num
certo intervalo, numa série de potências em x dada pela fórmula 3.2.
35
df
δf = δx ,
dx

ou seja, a incerteza em f é dada pela derivada de f em ordem a x, multiplicada pela incerteza


em x.

Por outro lado, recorrendo à figura 3.2 e à definição de derivada (eq. 3.1) como o declive da
reta tangente à função f(x) no ponto xbest, vê-se que nesse ponto o declive é negativo, como já
referido. Assim, nesse caso
df
δf = − δx .
dx

Generalizando, podemos então definir que a incerteza numa qualquer função f(x), quando a
incerteza em x é pequena e aleatória, é dada por:

df
δf = δx (3.4)
dx

Repare-se que a incerteza propagada por este método é sempre simétrica, ou seja, tem-se
sempre que δf- = δf+ .

Analisemos esta metodologia aproximada de uma forma gráfica. Consideremos a figura


3.3 que representa a linha tracejada a função não linear f(x) e a linha contínua a tangente a f(x)
df
no ponto x = xbest. O declive da reta tangente corresponde, como se disse, à derivada no
dx
ponto x = xbest. A figura 3.3-B representa uma grande ampliação do mesmo gráfico na
vizinhança do ponto P (xbest, fbest), para valores de x superiores a xbest.

A B

Figura 3.3 – A) Representação gráfica da função f(x) e da sua tangente no ponto x = xbest; B)
Ampliação de f(x) na vizinhança do ponto P, para x > xbest.

Como se pode perceber na ampliação da figura 3.3-B, devido à existência da incerteza δx que
afeta xbest, o valor de fmax (= f(xbest + δx) deveria corresponder ao ponto S da função f. Contudo,
como estamos a aproximar a curva f pela reta tangente no ponto x = xbest, fmax será aproximado
pelo ponto R sobre a reta tangente e não pelo ponto S sobre f. Por simples inspeção do
36
gráfico, é fácil admitir que quando mais pequena for a incerteza δx, menor será a diferença
entre o δf correto (indicado na figura) e o δf aproximado fornecido pelo cálculo diferencial.

3.1.3. Exemplos de aplicação

Apresentam-se na tabela 3.1 alguns exemplos de propagação do erro no caso de funções


de uma variável.

Tabela 3.1
df
f(x) δf
dx

1/x 1/x2 (1/x2)δx


xn nxn-1 |nxn-1|δx
ex ex |ex|δx
ln x 1/x |1/x|δx
sen x cos x |cos x|δx

Para terminar esta secção apliquemos esta metodologia ao exemplo do ponto anterior.

Medida experimentalmente a grandeza Z = 2.20 ± 0.10 pretende-se calcular a quantidade


R = eZ. Usando a relação 3.4 tem-se:

dR
δR = δZ = e Z δZ .
dZ

Então .

Se Z = 2.20 ± 0.01:

Então .

3.2. Funções dependentes de múltiplas variáveis

Importante – As considerações feitas neste capítulo aplicam-se a medidas independentes das


grandezas envolvidas, não estando as respetivas incertezas correlacionadas entre si. 20 Mais
tarde, consideraremos a propagação de erros no caso de incertezas correlacionadas.

[20] Ou seja, por exemplo, sempre que a incerteza na medida de uma das grandezas é positiva
(incrementa o valor da grandeza), a incerteza na medida da outra também é positiva (também
aumenta o valor da grandeza).
37
3.2.1. Propagação de incertezas usando a relação funcional

Comecemos por considerar uma grandeza Z,


função de apenas duas variáveis, X e Y. Admitindo
que X e Y vêm afetadas por incertezas pequenas e
aleatórias, δX e δY, estimadas depois de um conjunto
razoável de medidas, pretende-se conhecer o erro
propagado para Z, δZ. Como se pode perceber a
partir da figura 3.4, se X vier afetado por uma
incerteza δX, o ponto Z vem afetado pelo incremento Figura 3.4
δZX e é deslocado para o ponto Z(X+δX, Y). Como,
de forma independente, a variável Y também tem associada a incerteza δY, o ponto Z(X+δX,
Y) será deslocado para a posição Z(X+δX, Y+δY), ou seja, para Z+δZ. Assim, a propagação
devida apenas à incerteza em X escreve-se:

δZX = Z(X+δX, Y) – Z(X,Y),

e a propagação devida apenas à incerteza em Y é:

δZY = Z(X, Y+δY) – Z(X,Y).

Como X e Y são variáveis independentes e as respetivas incertezas não estão correlacionadas,


o erro de propagação total de X e Y para Z é dado por aplicação do teorema de Pitágoras à
variação esquematizada na figura 3.4:

Generalizando, se a grandeza Z depender de múltiplas variáveis independentes e de incertezas


não correlacionadas, Z(A,B,C,…), podemos escrever:

δZ2 = [Z(A+δA, B, C,…)-Z(A,B,C,…)]2 +


[Z(A, B+δB, C,…)-Z(A,B,C,…)]2 +
[Z(A, B, C+δC,…)-Z(A,B,C,…)]2+…, (3.5)
ou seja,

(3.6)

Este tratamento assume que a variação da grandeza Z é a mesma quando a variável


independente é aumentada ou diminuída pela sua incerteza. Ora vimos no caso da função de
uma variável que a incerteza propagada para Z só é simétrica se a relação entre Z e as suas
variáveis for linear ou, no caso de Z ser não-linear, se as incertezas em A, B, C, etc., forem
pequenas, condição, aliás sempre desejável. Devemos, portanto, ser cautelosos no cálculo da
propagação de erros e trabalhar sempre com incertezas relativas pequenas.

3.2.2. Propagação de incertezas utilizando o cálculo diferencial

Vejamos agora como calcular a propagação do erro dos valores medidos para o valor
calculado utilizando o cálculo diferencial. Vamos explicitar a fórmula para o caso da função Z

38
depender apenas de duas grandezas, X e Y, e no final apresentaremos a fórmula geral aplicável
a qualquer número de variáveis.
Para determinar δZ aplicamos a expansão de Taylor (eq. 3.2) a cada um dos termos
definidos pelos parêntesis retos da relação 3.5. Assim, quando as variáveis X e Y sofrem, de
forma independente e aleatória, pequenos incrementos δX e δY, Z varia segundo:

 ∂Z  1  ∂2Z  1  ∂nZ 
Z ( X + δX ,Y ) = Z ( X ,Y ) +  δ +   (δ ) + +   (δX )n
2
 X X ...
 ∂X Y 2!  ∂X 2 Y n!  ∂X n Y (3.7)
e

 ∂Z  1  ∂2Z  1  ∂nZ 
Z ( X ,Y + δY ) = Z ( X ,Y ) +   δY +  2  (δY ) + ... +  n  (δY )
2 n

 ∂Y  X 2!  ∂Y  X n!  ∂Y  X . (3.8)

 ∂Z   ∂Z 
  e   são as derivadas parciais de 1ª ordem de Z em ordem a X e Y, mantendo Y e
 ∂X  Y  ∂Y  X
X constantes, respetivamente, e as restantes derivadas são derivadas parciais de ordem
superior. Sendo δX e δY incertezas de pequena magnitude, as derivadas de ordem igual e
superior a 2 são desprezáveis relativamente às de 1ª ordem. Assim, as equações 3.7 e 3.8
correspondem à propagação parcial dos erros em Z devido a X e a Y:

 ∂Z 
Z ( X + δX ,Y ) − Z ( X ,Y ) ≈   δX
 ∂X  Y , (3.9)

 ∂Z 
Z ( X ,Y + δY ) − Z ( X ,Y ) ≈   δY
 ∂Y  X . (3.10)

Reconhece-se em cada uma das duas aproximações, a relação


estabelecida em 3.3 para o caso da dependência numa só variável.
Assim, a generalização desta relação (3.3) para o caso em que a
grandeza Z depende das duas variáveis X e Y é sugerida pela figura
3.5 e mais uma vez pelo teorema de Pitágoras:

2 2
 ∂Z    ∂Z  
δZ =   δX  +   δY  . (3.11)
 ∂X  Y   ∂Y  X  Figura 3.5

Generalizando agora para a função Z = Z(A, B, C,…)

2 2 2
 ∂Z    ∂Z    ∂Z  
δZ =  
2
δA +   δB  +   δC  + ... (3.11)
 ∂A  B ,C ,...   ∂B  A ,C ,...   ∂C  A ,B ,... 

que é a fórmula geral de propagação de erros independentes e aleatórios usando o cálculo


diferencial.

39
3.2.3. Exemplos de aplicação para funções de duas variáveis

Vejamos o resultado da propagação de erros no caso de duas operações simples e


frequentes entre grandezas medidas diretamente: a sua soma ou diferença e o seu produto ou
divisão.

Soma ou diferença

Se Z = X – Y, tem-se, aplicando a fórmula geral de propagação de erros:

2 2
 ∂Z    ∂Z  
δZ = 
2
 δX  +   δY 
 ∂X Y   ∂Y  X  .

Calculando as derivadas parciais, vem:

δZ = (δX )2 + (δY )2 . (3.12)

Obtém-se o mesmo resultado para a soma Z = X + Y.

Multiplicação ou divisão

Se Z = XY, tem-se, aplicando a fórmula geral de propagação de erros:


2 2
 ∂Z    ∂Z  
δZ =   δX  +   δY  = (YδX ) + ( XδY )
2 2 2

 ∂X Y   ∂Y  X 

Multiplicando e dividindo o conteúdo do 1º parêntesis por X e o do 2º por Y, obtém-se:

2 2
δZ  δX   δY 
=   +  . (3.13)
Z  X   Y 

Obtém-se o mesmo resultado para a divisão Z = X/Y. 21

3.2.4. Determinação da incerteza final por etapas

A determinação da incerteza associada a uma grandeza que depende de várias outras


grandezas pode ser realizada através de uma sequência de passos, cada um envolvendo o
cálculo da incerteza associada a determinado tipo de operação matemática, escolhendo um
dos métodos descritos anteriormente. Por exemplo, dadas as seguintes grandezas

x ± δx, y ± δy, z ± δz, e u ± δu

pretende-se determinar a função

[21] Repare-se que só é possível somar incertezas se elas se referirem à mesma grandeza física. Caso
contrário, como tantas vezes acontece, as incertezas usadas deverão ser as relativas, ou seja, as
parcelas devem ser adimensionais. É o que está garantido na relação 3.13.
40
f(x,y,z,u) ± δf
definida por
x( y − z )
f = .
cos u

Para tal podemos proceder ao cálculo da incerteza por etapas, através dos passos seguintes:

1) δu → δ(cos u)
2) δy e δz → δ(y – z)
3) δx e δ(y – z) → δ[x(y – z)]
4) δ[x(y – z)] e δ(cos u) → δ[x(y – z)/cos u)] = δf

3.2.5. Erros de compensação

Embora pareça de aplicação simples, o procedimento anterior tem uma desvantagem


que interessa ter em conta, e que pode acontecer quando alguma das variáveis aparece mais
do que uma vez na definição da função.
Suponhamos que fazemos medidas diretas das variáveis x, y e z e pretendemos
determinar a grandeza f definida por:

x + y2
f = ,
3z + x

onde a variável x aparece mais do que uma vez. Se calcularmos δf por etapas, determinamos
as incertezas de x + y2 e 3z + x separadamente, e só depois a incerteza no quociente. Contudo,
ao proceder deste modo, não precavemos a possibilidade de erros em x no numerador
poderem ser cancelados por erros em x no denominador. Este efeito é por vezes designado por
erro de compensação. Se, por exemplo, δx estiver sobrestimado, o resultado final da
determinação da incerteza por passos amplificará essa sobrestimativa do erro. A solução é
determinar a incerteza total de uma única vez, recorrendo à fórmula geral de propagação de
erros.

41
42
Capítulo IV

Histogramas
e
curvas de distribuição

4.1. Distribuições e histogramas 45


4.2. Distribuição limite 48
4.3. Significado da distribuição limite: frequência esperada
e probabilidade de um resultado 49
4.4. Valor médio e desvio padrão de uma distribuição limite 51

43
44
Histogramas e curvas de distribuição

4.1. Distribuições e histogramas

Uma análise estatística séria requer, em geral, um número apreciável de dados. Quando
esse número é significativo, um modo vantajoso de os apresentar consiste na construção de
um histograma (ou gráfico de barras), como fizemos no capítulo II.

Vejamos um exemplo. Numa dada experiência, tendo reduzido a um nível desprezável


os erros sistemáticos, medimos um comprimento x várias vezes e obtemos os resultados que
se apresentam na tabela 4.1.

Tabela 4.1
xi – resultados de N = 10 medidas do comprimento x
xi (cm) 25 23 24 26 28 25 24 26 26 24

Estes mesmos resultados podem ser organizados de acordo com o número de vezes nk que
cada resultado xk acontece, tornando a avaliação dos dados mais imediata (Tabela 4.2):

Tabela 4.2
xk – resultados do comprimento x; nk – nº de vezes que se obteve o resultado xk
xk (cm) 23 24 25 26 27 28
nk 1 3 2 3 0 1

Tendo em conta esta nova forma de organizar os resultados, o seu valor médio pode ser
reescrito utilizando os nk e xk:

∑x i ∑x nk k
x= i
= k
. (4.1)
N N

A nova fórmula da média é designada por média pesada, visto que cada valor xk é “pesado”
pelo nº de vezes que acontece, nk:
23 + (24 × 3) + (25 × 2 ) + (.26 × 3) + 28
x= .
10

Note que ∑nk


k = N , onde N é o número total de medidas.

O nº de vezes, nk, que um dado resultado xk foi obtido pode ser apresentado como uma
fração do nº total de medidas N. Este novo parâmetro é designado por frequência de xk e
define-se, portanto, como:
n
Fk = k , (4.2)
N
45
Em termos de Fk, a média pode agora reescrever-se como:

x = ∑ xk Fk , (4.3)
k

sendo, portanto, a soma de todos os diferentes valores xk, cada um pesado pela sua frequência
nk
Fk. O resultado ∑n
k
k = N e a definição Fk =
N
implicam que

∑F k
k = 1. (4.4)

A condição acima é uma condição de normalização e a série dos Fk diz-se normalizada. A


tabela 4.3 completa a tabela 4.2 com os novos dados.

Tabela 4.3
xk – resultados do comprimento x; nk – nº de vezes que se obteve o resultado xk;
Fk – frequência de cada xk

N = ∑ nk ∑F k

xk (cm) 23 24 25 26 27 28
nk 1 3 2 3 0 1 10

Fk 0.1 0.3 0.2 0.3 0 0.1 1

As frequências Fk especificam a distribuição de resultados, uma vez que descrevem a


forma como as medidas estão distribuídas pelos diferentes valores possíveis. Uma
distribuição de resultados pode ser apresentada graficamente num histograma ou gráfico de
barras. A figura 4.1 mostra o histograma correspondente aos resultados das medidas do
comprimento x (Tabela 4.3).

0,30
N = 10
0,25

0,20

Fk 0,15

0,10

0,05

0,00
23 24 25 26 27 28
x (cm)

Figura 4.1 – Histograma da distribuição de frequências do comprimento x.

No histograma da figura 4.1, como os valores xk são inteiros discretos, as frequências


são representadas pela altura das linhas em cada ponto da abcissa xk. Na verdade, este gráfico
46
seria idêntico (a menos de um factor de escala) ao gráfico que se obteria se na ordenada
fossem introduzidos diretamente os valores dos nk e não dos Fk. Contudo, nesse caso o gráfico
não estaria normalizado, o que seria uma desvantagem, como veremos mais tarde.

Muitas medidas de grandezas físicas apresentam um intervalo contínuo de valores (e


não discreto, como no exemplo anterior). Suponhamos que se realizam 50 medidas de tempo
com um cronómetro, a fim de se determinar o tempo de queda de um corpo, e que os valores
obtidos se situam todos entre 0.91 s e 1.06 s. Com resultados deste tipo, o melhor
procedimento é dividir o intervalo total de valores obtidos num nº conveniente de pequenos
intervalos iguais. Para tal procede-se da seguinte forma geral (que ilustraremos com o
exemplo da medida dos tempos):

i) Deteta-se o menor valor (de tempo) medido: (0.91 s)


ii)Deteta-se o maior valor (de tempo) medido: (1.06 s)
iii)
Calcula-se a diferença entre os dois valores anteriores: (1.06 – 0.91 = 0.15s)
iv)Divide-se esse intervalo total num nº conveniente de intervalos iguais: (tomando,
por exemplo, 5 intervalos iguais, cada intervalo terá uma largura de 0.03 s).
v) Calculam-se os valores extremos desses intervalos (repare nos extremos abertos e
fechados):
(∆1 = [0.91,0.94[ s
∆2 = [0.94,0.97[ s
∆3 = [0.97,1.00[ s
∆4 = [1.00,1.03[ s
∆5 = [1.03,1.06] s.)

vi) Conta-se o número de valores medidos (do tempo) que caiem em cada um dos
intervalos escolhidos: (Tabela 4.4).
vii) Finalmente, representam-se os resultados através de um histograma ou gráfico de
barras: (Figura 4.2).

Tabela 4.4
∆k – intervalos de valores, com largura 0.03 s; nk – nº de vezes que se obteve um tempo dentro do
Fk
intervalo ∆k; Fk – frequência de cada ∆k; f k = .
∆k

k 1 2 3 4 5 N = ∑ nk ∑F k

∆k (s) [0.91,0.94[ [0.94,0.97[ [0.97,1.00[ [1.0,1.03[ [1.03,1.06]


nk 5 12 25 5 3 50

Fk 0.10 0.24 0.50 0.10 0.06 1

fk (s-1) 3.33 8.00 16.67 3.33 2.00

Neste tipo de histograma, a frequência de cada intervalo ∆k continua a ser dada pela razão n k ,
N
mas corresponde à área de cada coluna da figura 4.2, ou seja,
n
Fk = k = f k ∆ k . (4.5)
N

47
fk é a grandeza que surge na ordenada do gráfico e a partir da equação 4.5 vê-se que
nk
corresponde a f k = .
N∆ k

18
N = 50
16
14
12
-1
fk (s ) 10
8
6
4
2
0 0,91 0,94 0,97 1,00 1,03 1,06
∆κ (s)

Figura 4.2 – Histograma da distribuição de frequências do tempo de queda de um corpo.

Uma nota final sobre a construção de histogramas:


• Se os intervalos são demasiado largos, muitas medidas caem no mesmo intervalo e o
histograma acaba por ser um conjunto de retângulos sem interesse.
• Se os intervalos são demasiado estreitos, vários deles conterão apenas um único
resultado e o histograma resultante será constituído por um conjunto numeroso de
retângulos estreitos quase todos com a mesma altura.
• A largura do intervalo deve ser escolhida, portanto, de forma a que várias leituras
caiam dentro de cada intervalo.

4.2. Distribuições Limite


Com a ajuda da figura 4.3, podemos ver o que acontece ao histograma da experiência
da medida do tempo quando aumentamos o número total de medidas N de 50 para 500 e
depois para 5000. À medida que N aumenta, é possível diminuir a largura dos intervalos ∆k e,
como se pode verificar, a diferença entre a altura de colunas vizinhas vai-se tornando menos
abrupta e mais regular. A partir do histograma c) podemos antecipar que, se o número de
medidas continuasse a crescer, o padrão do histograma se aproximaria cada vez mais de uma
curva envolvente contínua e simétrica em relação ao valor central.
Este comportamento já foi referido no capítulo II e é característico de muitas
grandezas físicas. A curva contínua envolvente, obtida para um nº infinito de medidas, é
conhecida por Distribuição Limite. Trata-se, obviamente, de uma construção teórica, uma
vez que nunca pode ser verdadeiramente testada experimentalmente. Só um nº infinito de
medidas e intervalos de medida infinitesimais poderiam gerar a distribuição limite. Contudo,
temos boas razões para crer que a medida experimental de muitas grandezas físicas está
associada a uma distribuição limite, da qual o histograma se aproxima tanto mais quanto mais
medidas forem realizadas.

48
18
N = 50 N = 500
16 12

14 10
12
8
fK (s-1) 10 fK (s-1)
8 6

6 4
4
2
2

0 0
0,91 0,94 0,97 1,00 1,03 1,06 0,91 0,95 0,99 1,03 1,07
∆Κ (s) ∆Κ (s)
a) b)
N = 5000
10

fK (s-1) 6

0
0,91 0,94 0,97 1,00 1,03 1,06
∆Κ (s)
c)
Figura 4.3 – Variação da distribuição de frequências do tempo de queda de um corpo com o
aumento do nº de medidas: a) N = 50; b) N = 500; c) N = 5000.

4.3. Significado da distribuição limite: frequência esperada e probabilidade de um


resultado

Designemos por f(x) a função que representa a distribuição limite associada à grandeza
x. O significado dessa função será compreendido com a ajuda da figura 4.4.

Figura 4.4 – Distribuição limite da grandeza x: (a) intervalo de largura dx; (b) intervalo de largura
[a, b].

Como vimos anteriormente, num histograma a área de cada coluna é dada pelo produto
f k ∆ k e essa área corresponde à frequência das medidas que caem no intervalo ∆k. Com a
função contínua f(x), vamos considerar um intervalo infinitesimal de largura dx, ou seja
compreendido entre x e x+dx. A frequência das medidas que caem nesse intervalo

49
infinitesimal é igual à área f(x)dx sombreada na figura 4.4-a). Ou seja, f ( x)dx dá-nos a
fração de medidas (frequência) que cai no intervalo [x, x+dx].
Então, generalizando, a frequência das medidas que caem entre dois valores a e b da
grandeza x é dada pela área do gráfico definida pela função f(x) e compreendida entre x = a e
x = b (área sombreada da figura 4.4-b)). Ora essa área corresponde ao integral de f(x) entre a e
b, como sabemos. Temos assim o importante resultado:

b
∫ a
f ( x)dx = frequência esperada das medidas que se situam entre x = a e x = b.

Usamos o termos “frequência esperada” para lembrar que se trata da frequência que
esperaríamos obter se realizássemos um nº infinito de medidas!

Por outro lado, f ( x)dx é também uma forma de avaliar a probabilidade de uma
b
qualquer medida dar um valor que pertença ao intervalo entre x e x+dx. Então, ∫a
f ( x)dx
corresponde à probabilidade de uma qualquer medida dar um resultado que se situe no
intervalo entre x = a e x = b.
Podemos assim concluir que, se fosse conhecida a distribuição limite f(x) associada à
medida de uma certa quantidade x, então também seria conhecida a probabilidade de se obter
um qualquer resultado num qualquer intervalo a ≤ x ≤ b.

Como a probabilidade total de se obter um valor qualquer entre –∞ e +∞ deve ser 1, a


distribuição limite f(x) tem que satisfazer a condição de normalização:
+∞
∫ −∞
f ( x)dx = 1 , (4.6)
ou seja, f(x) 22 diz-se normalizada.

25

20
Boa

15
f(x) (s -1)

10

5
Baixa

0
0,91 0,96 1,01 1,06 1,11 1,16
t (s)

Figura 4.5 – Duas distribuições limite normalizadas, correspondentes a duas experiências diferentes da
medida da mesma grandeza física, permitem comparar a precisão com que foram realizadas as
medições nos dois casos.

+∞
[22] Em ∫ −∞
f ( x)dx = 1 , os limites ±∞ são usados por desconhecermos o intervalo real em que se
situarão os valores medidos numa dada experiência (e não porque se obterão valores desde +∞ até
–∞).
50
A vantagem das distribuições limite serem normalizadas é que podemos comparar
resultados da mesma grandeza física realizadas, por exemplo, com sistemas experimentais
diferentes. A figura 4.5 mostra duas funções limite resultantes de medidas da mesma grandeza
x. Ambas apresentam o mesmo valor médio, x = 1,06 s . Contudo, o facto de ambas cobrirem a
mesma área (porque as duas funções estão normalizadas) permite-nos concluir que uma das
experiências foi executada com razoável precisão (os valores obtidos estarão perto do melhor
valor), dando origem a uma curva mais estreita e alta, enquanto que as medidas da outra
experiência foram realizadas com baixa precisão. Neste caso, como a respetiva distribuição
limite é larga e achatada, isso significa que os valores encontrados apresentam elevada
dispersão.

4.4. Valor médio e desvio padrão de uma distribuição limite

Uma vez que a distribuição limite f(x) das medidas de uma certa quantidade x descreve
como é que os resultados estariam distribuídos depois de um nº infinito de medidas, então, se
f(x) fosse conhecida à partida, poderíamos determinar o valor médio que encontraríamos ao
fim de muitas medidas.
Vimos que a média de qualquer nº de medidas de uma mesma quantidade x pode ser
avaliada por (eq. 4.3):
x = ∑ xk Fk
k
onde Fk é a frequência de xk. Na distribuição limite f(x) podemos dividir todo o intervalo de
valores em pequenos intervalos ∆xk, que vão de xk a xk+∆xk. A frequência de valores em cada
intervalo pode escrever-se como
Fk = f ( x k )∆x k . (4.7)
No limite, quando todos os intervalos tenderem para o intervalo infinitesimal dx, a média dada
por 4.3 pode escrever-se:
+∞
x = ∫ xf ( x )dx , (4.8)
−∞

que corresponde ao valor esperado para a média x da grandeza x se se realizasse um nº


infinito de medidas.

Quanto à variância (e, portanto, ao desvio padrão), partindo da definição para um nº total de
medidas N,
1 N
σ 2x = ∑ (xi − x )2 ,
N − 1 i =1

substituindo os diferentes xi por nkxk e atendendo a que no limite de um nº infinito de medidas


perde significado a diferença entre N e N-1, vem, seguindo considerações semelhantes às
utilizadas para obter a equação 4.8:

∑ n (x − x)
2
k k
σ 2x = = ∑ Fk ( x k − x ) = ∑ ( x k − x ) f ( x k )∆x k
k 2 2

N k k

+∞
σ 2x = ∫
−∞
(x − x )2 f (x )dx , (4.9)

que corresponde ao valor esperado para a variância σ 2x (e, a partir dele, para o desvio padrão
σ x ) se se realizasse um nº infinito de medidas.
51
52
Capítulo V

A distribuição normal ou
Gaussiana

5.1. Definição 55
5.2. Largura da distribuição Gaussiana 56
5.3. Valor médio e desvio padrão 57
5.4. Significado do desvio padrão: intervalo de confiança de 68%. 58
5.5. Grau de confiança
5.5.1. Valor médio 60
5.5.2. Discrepância entre o valor medido e o valor esperado 61
5.6. Tabela da Função Erro (erf(t)) 63
5.7. Princípio da Máxima Probabilidade. Justificação das melhores
estimativas para x ± δx.
5.7.1. Média: melhor estimativa do verdadeiro valor 65
5.7.2. Desvio padrão: melhor estimativa da incerteza
associada a cada medida 66
5.7.3. Desvio padrão da média: melhor estimativa
da incerteza na média 68

53
54
A distribuição normal ou Gaussiana
As medidas experimentais de muitas grandezas físicas tem como distribuição limite a
curva simétrica e em forma de sino apresentada no capítulo anterior, designada genericamente
por f(x). Na verdade, é possível provar que se as medições estão sujeitas a erros aleatórios
pequenos e a erros sistemáticos desprezáveis, os valores medidos dessas grandezas estão
distribuídos de acordo com essa curva, centrada no verdadeiro valor da grandeza 23. Este tipo
de distribuição limite é conhecido por distribuição normal, de Gauss ou Gaussiana (Fig.
5.1).

Figura 5.1 – Distribuição Normal de largura σ, associada à grandeza x e centrada no seu verdadeiro
valor.

5.1. Definição

Continuando a utilizar o conceito idealizado de verdadeiro valor de uma grandeza


(tomando-o como aquela quantidade da qual nos aproximamos tanto mais quanto maior for o
número de medidas realizado e o cuidado com que as efetuamos), designemos os verdadeiros
valores das grandezas x, y, z, etc. por X, Y, Z, etc.
A função matemática que descreve a distribuição Normal tem como componente
fundamental o termo:
x2

2 σ2
e (5.1)

onde σ é um parâmetro fixo designado simplesmente por largura. A forma mais alargada e
achatada ou mais estreita e alta da curva Gaussiana está relacionada com um valor maior ou
menor deste parâmetro, respetivamente. A curva descrita pelo termo 7.1 é simétrica em torno
de x = 0, pois dá os mesmos resultados para x e para –x, e decresce, tendendo para zero, à
medida que x se afasta de x = 0.
Para se obter uma curva centrada num valor x = X (Fig. 5.1), diferente de zero, basta
substituir o termo 5.1 por

( x − X )2
2 σ2
e (5.2)

A forma final da distribuição Normal é obtida recorrendo à condição de normalização a


que todas as distribuições devem submeter-se, como vimos. Vamos então definir a função:

( x − X )2
f ( x ) = Ae 2 σ2
(5.3)

[23] Lembremos que a existência de erros sistemáticos traduzir-se-ia no facto de a distribuição limite
vir centrada num outro valor que não o verdadeiro valor.
55
onde o fator A não muda a forma da curva Gaussiana nem altera a posição do máximo em
x = X. A função definida em 5.3 tem então que satisfazer a condição:


( x − X )2
+∞ +∞
∫ −∞
f ( x )dx = ∫
−∞
Ae 2 σ2
dx = 1 (5.4)

Simplifiquemos o integral através das seguintes mudanças de variáveis:

1º) x − X = y ⇒ dx = dy (lembremos que X é um valor constante, o verdadeiro valor de x) e


o integral em 5.4 vem:
y2
+∞ −

∫ −∞
Ae 2 σ2
dy (5.5)
y
2º) = z ⇒ dy = σdz (lembremos que σ é um parâmetro constante, a largura da curva
σ
(Fig. 5.1) e o integral 5.5 vem:
z2
+∞ −
Aσ ∫ e 2
dz (5.6)
−∞

Prova-se que o integral contido em 5.6 tem a solução:

z2
+∞ −
∫ −∞
e 2
dz = 2π (5.7)
Verifica-se assim que

+∞ 1
∫ −∞
f ( x )dx = 1 = Aσ 2π ⇒ A =
σ 2π
(5.8)

A fórmula final da distribuição de Normal ou distribuição Gaussiana é então:


( x − X )2 (5.9)
1
G X ,σ ( x ) = e 2 σ2

σ 2π

É o centro da distribuição, ou seja, é É a largura da distribuição


o ponto relativamente ao qual a
distribuição é simétrica

5.2. Largura da distribuição Gaussiana

Como vimos, a largura de uma distribuição Gaussiana é caracterizada pelo parâmetro σ,


cujo dobro, como se pode ver na figura 5.2-a), corresponde à distância horizontal entre os dois
pontos de inflexão da curva, ou seja, entre os pontos onde a curvatura muda de sinal e,
portanto, a 2ª derivada é zero.
Um parâmetro alternativo com uma interpretação geométrica simples e muito
frequentemente usado é a largura a meia altura (FWHM - Full Width at Half Maximum).

56
Este parâmetro corresponde à distância entre os dois pontos x onde GX,σ(x) tem metade do seu
valor máximo (Fig. 5.2-b). Pode provar-se que

FWHM = 2σ 2 ln 2 = 2.35σ .

Pontos de
inflexão

a) b)
Figura 5.2 – a) O parâmetro σ, largura da Gaussiana, é medido no ponto de inflexão da curva; b) A
FWHM é a largura total, a meio da altura máxima da curva normalizada.

A figura 5.3 permite avaliar visualmente o efeito, já referido, do parâmetro σ, presente


no denominador do expoente da função 5.9: um σ mais pequeno assegura uma distribuição
mais estreita, com um valor mais alto no centro. A normalização das funções possibilita a sua
comparação.

Figura 5.3 – Duas distribuições Gaussianas centradas em diferentes valores e caracterizadas por
diferentes larguras. O facto de serem normalizadas assegura que ambas as áreas medem 1.

5.3. - Valor Médio e Desvio Padrão

Vimos que o conhecimento da distribuição limite associada às medidas de uma


grandeza x nos permitia conhecer o valor médio esperado, x , depois de inúmeras medidas
(Eq. 4.8). Fazendo a substituição de f(x) pela distribuição normal, f(x) = GX,σ(x), a eq. 4.8
vem:
+∞
x = ∫ xG X ,σ ( x )dx
−∞


( x − X )2
1 +∞
=
σ 2π ∫ −∞
xe 2 σ2
dx

Fazendo a mudança de variáveis x − X = y ⇒ dx = dy e x = y + X , podemos dividir o


integral anterior em dois termos:

57
1  +∞ − 2σ2 
2 2
y y
+∞ − 2

x=

σ 2π  ∫ −∞
ye dy + X ∫ −∞
e 2σ
dy

(5.10)

O 1º integral do parêntesis é nulo porque a contribuição de qualquer valor y é exatamente


cancelada pela do valor –y. O 2º integral do parêntesis é o integral de normalização da eq. 5.7
que, como referido, vale σ 2π . Assim, o resultado final da eq. 5.10 é, como esperado depois
de um nº infinito de medidas, x = X . Ou seja, se as medidas estão distribuídas de acordo com
uma função Gaussiana, então, depois de um nº infinito de medidas, o valor médio corresponde
ao verdadeiro valor da grandeza, no qual a função Gaussiana está centrada. A utilidade
prática deste resultado é que se fizermos um nº grande de medidas (embora não infinito),
podemos confiar que o valor médio obtido estará perto de X (na ausência de erros
sistemáticos, é claro!).

Considerando, agora, a variância (e, portanto, desvio padrão), de acordo com a eq. 4.9,
temos:

+∞
σ 2x = ∫
−∞
(x − x )2G X ,σ ( x )dx .

y
Substituindo o valor médio por X, fazendo as mudanças de variáveis x − X = y e =z e
σ
integrando por partes, obtém-se:

σ 2x = σ 2 .

Ou seja, o parâmetro σ, largura da distribuição Gaussiana, é exatamente o desvio padrão que


obteríamos se realizássemos um nº infinito de medidas. σ é, por isso, também designado por
desvio padrão da distribuição Gaussiana.

5.4. Significado do desvio padrão: intervalo de confiança de 68%.

Como vimos no capítulo anterior, a distribuição limite f(x) para medidas de uma
quantidade x, dá-nos a probabilidade de se obter qualquer um dos resultados possíveis para x.
b
Especificamente o integral ∫ a
f ( x )dx é a probabilidade de uma qualquer medida dar um
resultado no intervalo a ≤ x ≤ b. Se a distribuição limite for uma distribuição de Gauss, esse
integral pode ser sempre determinado. Em particular, podemos calcular a probabilidade de
uma medida fornecer um resultado que caia dentro do intervalo correspondente a um desvio
padrão σ do verdadeiro valor X. Essa probabilidade define-se como:

X +σ
Prob (no intervalo σ) = ∫ G X ,σ ( x )dx
X −σ


( x − X )2 (5.11)
1 X +σ
=
σ 2π ∫ X −σ
e 2 σ2
dx

e corresponde à área sombreada definida na figura 5.4.

58
Figura 5.4 – Distribuição Normal. A área sombreada corresponde à probabilidade de um valor medido
cair no intervalo X ± σ, calculado pela eq. 5.11.

(x − X )
O integral pode ser simplificado através da substituição = z , com a qual dx = σdz e
σ
os limites de integração passam a ser z = ±1. Vem então:

z2
1 1 −
Prob (no intervalo σ) =
2π ∫ −1
e 2
dz . (5.12)

A probabilidade de encontrarmos uma resposta dentro do intervalo 2σ, 1.5σ ou qualquer outro
valor tσ 24, para qualquer valor t positivo em torno de X, é também possível. Essa
probabilidade é dada pela área da figura 5.5, que corresponde a:

z2
1 t −
Prob (no intervalo tσ) =
2π ∫ −t
e 2
dz . (5.13)

Figura 5.5 – Distribuição Normal. A área sombreada corresponde à probabilidade de um valor medido
cair no intervalo X ± tσ, calculado pela eq. 5.13.

O integral 5.13 não pode ser avaliado analiticamente mas é facilmente calculado
numericamente, num computador. É muitas vezes designado por função erro ou integral
normal do erro, erf(t). A tabela 5.1 e a figura 5.6 apresentam o integral normal do erro
calculado para diferentes valores de t:

Tabela 5.1 – Probabilidade de um valor medido cair no intervalo X ± tσ, calculada recorrendo ao
integral normal do erro (eq. 5.13).

t 0 0.25 0.5 0.75 1.0 1.25 1.5 1.75 2.0 2.5 3.0 3.5 4.0
Prob (%) 0 20 38 55 68 79 87 92 95.4 98.8 99.7 99.95 99.99

[24] Repare que, por abuso de linguagem, referenciamos a largura do intervalo apenas por tσ e não por
2tσ.
59
Como se pode ver, a probabilidade de uma medida cair dentro de um intervalo de largura σ
em volta do verdadeiro valor é de 68%. Assim, se tomarmos como incerteza na nossa medida
um desvio padrão, estaremos 68% seguros da nossa resposta.

Figura 5.6 – Representação da função erro (eq. 5.13) em função de t.

Como se vê na figura 5.6, a probabilidade cresce rapidamente para 100%. A


probabilidade de uma medida cair no intervalo de largura 2σ é de 95.4% e 3σ é de 99.7%.
Visto de outra maneira: a probabilidade de que o resultado de uma medida caia fora de σ é
apreciável (32%), mas é muito menor se se tratar de 2σ (4.6%), etc.

Por vezes, em vez de σ, usa-se um outro parâmetro de avaliação: o erro provável (PE).
O erro provável define-se como a distância para a qual há 50% de probabilidade de uma
medida cair no intervalo [X-PE, X+PE]. A figura 5.6 mostra que, para distribuições normais,
a relação entre o erro provável e σ é PE = 0.67σ.

5.5. Grau de confiança

5.5.1. Valor médio

Sabemos já que, se medirmos a quantidade x várias vezes, a média dos valores obtidos,
x , é a melhor estimativa de x. Além disso, também já sabemos que se realizarmos uma
medição da grandeza x conhecendo que a sua distribuição limite é uma função Gaussiana, o
desvio padrão σx (largura da Gaussiana) nos dá a probabilidade (neste caso 68%) do resultado
dessa medição se situar no intervalo x ± σ x .
Voltando ao valor médio x , sabemos que o desvio padrão da média, σ x , é uma boa
medida da sua incerteza, o que nos permite escrever:

xbest ± dx = x ± σ x .

À semelhança do que acontece com o desvio padrão, o parâmetro σ x significa que temos 68%
de confiança de que o verdadeiro valor de x se encontra no intervalo x ± σ x . Ou, dito de outra
forma, que se realizássemos novo conjunto de medidas nas mesmas condições experimentais
haveria 68% de probabilidade de o novo valor médio pertencer ao intervalo x ± σ x .

60
Selecionar o intervalo σ x para apresentar o resultado é a escolha mais comum. Mas
podemos sempre fazer outras como, por ex., x ± 2σ x . Neste caso, o valor médio de qualquer
conjunto de medidas realizadas nas mesmas condições teria 95% de probabilidade de
pertencer ao intervalo x ± 2σ x .

5.5.2. Discrepância entre o valor medido e o valor esperado

Quando comparamos um valor obtido xbest com o valor que esperávamos obter xesperado
(quer devido a uma expectativa teórica quer baseados em outro resultado experimental), como
decidimos se o acordo ou a discrepância entre os dois valores é aceitável?

Suponhamos que um estudante mede várias vezes uma certa quantidade x (por ex., a
carga de um eletrão), a apresenta na forma xbest ± dx = x ± σ x e a pretende comparar com o
valor xesperado. Podemos argumentar, como sugerido no capítulo I, que se a discrepância
xbest − xesperado for menor (ou apenas ligeiramente maior) do que σ x , então o acordo é
razoável 25. O critério é aceitável mas não nos dá uma medida quantitativa sobre quão bom ou
mau é o acordo. Na verdade não há limites definidos para a fronteira da “aceitabilidade” de
uma discrepância. Por exemplo, uma discrepância de 1.5σ x seria ainda aceitável?

Para ponderar estes aspetos vamos admitir que as medidas realizadas pelo estudante
seguem uma distribuição Normal, com as seguintes características (hipóteses admitidas pelo
aluno):
1) está centrada no valor esperado, xesp;
2) a largura da distribuição é igual ao desvio padrão estimado pelo estudante, ou seja,
σx.

O primeiro ponto corresponde a uma expectativa legítima do estudante. Ele reduziu os erros
sistemáticos a um nível desprezável de modo a que a distribuição estivesse centrada no
verdadeiro valor e confia que esse valor é xesp. O segundo ponto é uma aproximação, uma vez
que σx só é uma boa estimativa para a largura da Gaussiana se o nº de medidas do qual se
extraiu σx for grande. 26

Para testarmos as hipóteses do aluno, vamos então começar por determinar a


discrepância xbest − xesp e depois o parâmetro t, tal que:
xbest − xesp
t= . (5.14)
σx

Vemos, portanto, que o parâmetro t (Figuras 5.5 e 5.6 e Tabela 5.1) também pode ser
entendido como correspondendo ao nº de desvios padrão (neste caso, da média) pelo qual xbest
difere de xesp. A partir dos valores do Integral Normal do Erro apresentados na Tabela 5.1
(que nos dá a probabilidade de medir um valor dentro do intervalo t σ x ), podemos achar a

[25] Em termos práticos, a incerteza experimental associada ao valor esperado da carga do eletrão
pode considerar-se nula.
[26] Se o nº de medidas em que nos baseámos para o cálculo de σ for “irrazoavelmente” pequeno, σ
merece pouca confiança (ainda que possa sempre ser um guia útil). Para um nº pequeno de
medidas, um cálculo exato dos limites de confiança requer a utilização da chamada distribuição t
de Student.
61
probabilidade de obter um xbest que difere do xesp por t ou mais desvios padrão. Esta
probabilidade é:
Prob (fora de t σ x ) = 1 – Prob (dentro de t σ x ).

Se a probabilidade de obter xbest fora do intervalo t σ x for grande, a discrepância xbest − xesp é
perfeitamente razoável e o resultado xbest é aceitável. Se a probabilidade for pequena, a
discrepância deve ser considerada significativa e é necessário ponderar o que se terá passado
na experiência. Por exemplo, se
xbest − xesp = σ

Com uma probabilidade de 32%, podemos dizer que é bastante provável que haja
discrepância entre o valor esperado e obtido e, portanto, considera-se que a discrepância não é
significativa. Contudo, se
xbest − xesp = 3σ

a probabilidade de uma discrepância de 3σ é muito pequena e, portanto, bastante improvável.


Ou, dito de outro modo, se a discrepância for de 3σ, as hipóteses do estudante estão
provavelmente incorretas.

A fronteira entre “aceitabilidade” ou “não-aceitabilidade” de uma discrepância (e,


portanto, de um resultado) depende do nível abaixo do qual julgamos a discrepância como
“irrazoavelmente improvável”. Esse nível é decidido pelo experimentador, tendo em conta as
condições experimentais de que dispõe e a metodologia que segue. Em alguns casos
considera-se que 5% é um bom valor para a “improbabilidade irrazoável”. Ou seja,
consideram-se como inaceitáveis as discrepâncias que correspondam a uma probabilidade
fora inferior a 5%. Como a
Prob (fora de 2σ) = 4.6 %,

tal significa que uma discrepância de 2σ é inaceitável, por já ter um valor abaixo dos 5%.

Como podemos ver na Tabela 5.2, que é uma extensão da Tabela 5.1 para mais valores
do parâmetro t, qualquer discrepância maior do que 1.96σ é inaceitável para o nível de 5%.
Estas discrepâncias designam-se geralmente por significativas.
Pode também definir-se um nível de 1%. Para este caso, vê-se na Tabela 5.2 que
qualquer discrepância maior do que 2.58σ seria inaceitável. Estas discrepâncias designam-se
geralmente por altamente significativas.

Um procedimento seguido por muitos físicos é o seguinte: se uma discrepância é menor


que 2.0σ, o resultado é julgado aceitável; se a discrepância é maior do que 2.5σ, o resultado é
considerado inaceitável. Se fica entre 2.0σ e 2.5σ, o resultado é inconclusivo. Se a
experiência é importante, o melhor é repeti-la.
62
5.6. Tabela da Função Erro (erf(t))

X + tσ
Tabela 5.2 – Probabilidade % (dentro tσ) = ∫ G X ,σ ( x )dx , em função de t
X −tσ

63
64
5.7. Princípio da Máxima Probabilidade. Justificação das melhores estimativas
para x ± δx.

Os resultados apresentados nesta secção 27 dependem do facto de se admitir que as


medidas seguem uma distribuição normal (e sem erros sistemáticos!). Contudo, veremos em
capítulos posteriores que, mesmo quando a distribuição de medidas experimentais não segue
uma distribuição normal, é quase sempre possível tomarmos esta distribuição como uma boa
aproximação da distribuição real.

5.7.1. Média: melhor estimativa para o verdadeiro valor

Se a distribuição limite f(x) associada à medida de uma dada grandeza x fosse conhecida
poderíamos calcular a média e o desvio padrão correspondentes a um nº infinito de medidas e,
pelo menos para a distribuição normal, poderíamos também conhecer o verdadeiro valor X.
Infelizmente não conhecemos, à partida, a distribuição limite pois fazemos sempre um nº
finito de medidas. Portanto, em termos práticos, o nosso problema é chegar à melhor
estimativa para X e para σ baseando-nos apenas nos N valores medidos, x1, x2,…, xN, da nossa
amostra.

Comecemos, contudo, por admitir que as medidas da grandeza x seguem uma


distribuição normal GX,σ(x) e que conhecemos à partida os parâmetros X e σ. Podemos, então,
calcular as probabilidades de obter os valores x1, x2,…, xN que foram, de facto, obtidos nas
nossas medições. Se tal fosse possível, definiríamos que a probabilidade de obter um valor
perto de x1 num pequeno intervalo dx1 seria:


( x1 − X )2
1
Prob (entre x1 e x1+dx1) = e 2 σ2
dx1 .
σ 2π

Na prática, não estamos interessados no tamanho do intervalo dx1 e o fator 2π não tem
importância para as considerações que seguem. Assim, podemos utilizar uma forma mais
simples da equação anterior e escrever:
( x1 − X )2
1 −
Prob (x1 ) ∝ e 2 σ2
. (5.15)
σ

Embora abusivamente, consideraremos a eq. 5.15 como sendo a probabilidade de obter o


valor x1. De forma semelhante, a probabilidade de obter x2 numa segunda medida será:

( x2 − X )2
1 −
Prob (x 2 ) ∝ e 2 σ2
(5.16)
σ

e assim sucessivamente até à probabilidade de obter xN:

( xN − X )2
1 −
Prob (x N ) ∝ e 2 σ2
. (5.17)
σ

As equações 5.15 a 5.17 dão, portanto, as probabilidades de obter cada um dos valores
x1, x2, …, xN, calculadas através da distribuição GX,σ(x). Então, a probabilidade de

[27] O ponto 5.7 segue de muito perto o desenvolvimento apresentado na referência bibliográfica [2].
65
observarmos toda a série de leituras das N medidas feitas é dada pelo produto das
probabilidades separadas, ou seja,
Prob X,σ ( x1 , x2 ,...x N ) = Prob(x1 ) × Prob(x2 ) × ... × Prob( x N ) ,

o que dá, substituindo:


N

∑ ( xi − X )2
1 − i =1
Prob X,σ ( x1,x2 ,...,x N ) ∝ e 2 σ2
. (5.18)
σN

Os números x1, x2, …, xN são os resultados das várias medidas; são, portanto,
conhecidos, são fixos. A quantidade definida por 5.18 é a probabilidade de obter os N
resultados, calculada em termos de X e σ. Contudo, voltando à questão inicial, o nosso
problema é precisamente que desconhecemos os valores de X e σ. Na verdade, o que
pretendemos é encontrar as melhores estimativas para X e σ, baseadas nas N observações
x1, x2,…, xN que fizemos.
Ora, apesar de os valores reais de X e σ não serem conhecidos, podemos sempre
imaginar valores X’ e σ’ e, partindo desses valores, calcular a probabilidade:

Prob X',σ ' (x1 , x2 ,...x N ) .

Em seguida, podemos imaginar outro par de valores X’’ e σ’’ e, se a probabilidade calculada
a partir desses novos valores, ou seja,

Prob X",σ" ( x1 , x2 ,...x N ) ,

for maior, então eles passam a ser considerados melhores estimativas para X e σ do que os
valores iniciais X’ e σ’. Podemos depois considerar outro novo par, X’’’ e σ’’’, repetir o
cálculo de probabilidades, e assim sucessivamente, procurando sempre o par que nos dá a
probabilidade mais elevada. Este procedimento, eventualmente moroso mas plausível, para
encontrar as melhores estimativas de X e σ é conhecido por Princípio da Máxima
Probabilidade e pode ser enunciado da seguinte forma:

Dado um conjunto de N resultados de medições de uma grandeza, x1, x2, …, xN, as


melhores estimativas para X e σ são os valores que tornam máxima a probabilidade de
ocorrência conjunta desses resultados.

Ora, a probabilidade definida pela relação 5.18 é máxima se a soma no expoente for mínima.
Ou seja, a melhor estimativa para X é o valor para o qual

∑ (x − X)
2
i
i =1
(5.19)
2σ 2

é mínimo. Para encontrarmos esse valor, diferenciamos em ordem a X e igualamos a zero,


obtendo-se:
N N

∑ (xi − X ) = 0 ⇔ ∑ xi − NX
i =1 i =1
=0

66
∑x i
(melhor estimativa para X ) = i
. (5.20)
N

Ora a relação 5.20 é precisamente a definição de valor médio de um conjunto de N valores


x1, x2, …, xN. Provamos assim que a melhor estimativa para o verdadeiro valor, X, de uma
grandeza x é a média dos valores medidos, x1, x2, …, xN.

5.7.2. Desvio padrão: melhor estimativa para a incerteza associada a cada medida

Continuando as considerações do ponto anterior, falta ainda encontrarmos a melhor


estimativa para σ, a largura da distribuição limite, partindo dos N valores x1, x2, …, xN obtidos
experimentalmente.
Para tal, voltamos a pensar em termos de obter os valores de X e σ que maximizam a
probabilidade definida em 5.18 e, aplicando novamente o Princípio da Máxima
Probabilidade e o procedimento desenvolvido no ponto anterior, concluímos que devemos
agora diferenciar o expoente 5.19 em ordem a σ e igualar a derivada a zero. Desta forma,
obtemos o valor de σ que maximiza a probabilidade da eq. 5.18, sendo portanto a melhor
estimativa para σ, é:

N
(melhor estimativa para σ) = 1
∑ (x − X ) i
2
. (5.21)
N i =1

Como o verdadeiro valor X é desconhecido, na prática substituímos X pela sua melhor


estimativa, que provámos na secção anterior ser o valor médio das medidas x1, x2, …, xN. A
eq. 5.21 vem, então:
N

∑ (x − x )
1
σ=
2
i , (5.22)
N i =1

ou seja, a melhor estimativa para a largura σ da distribuição limite é o desvio padrão dos N
valores medidos x1, ..., xN.

Uma questão que surge nesta altura é termos obtido o fator N na eq. 5.22 e não a
definição com o fator (N – 1), que considerámos mais adequada para uma amostra de N
medidas (embora não o tenhamos provado). Note-se, contudo, que ao passar da eq. 5.21 para
a eq. 5.22 substituindo X (verdadeiro valor) por x (a melhor estimativa do verdadeiro valor),
o resultado da eq. 5.22 é sempre menor 28 do que o resultado da eq. 5.21. De facto, se
pensarmos na eq. 5.21, vimos na secção anterior que esta função é mínima para X = x .
Assim, 5.22 é sempre menor que 5.21 e ao passarmos da uma para a outra subestimamos a
largura σ. Ora, pode demonstrar-se que esta imprecisão é corrigida quando se substitui o fator
N por (N – 1). Então a melhor estimativa para σ quando temos uma amostra de N medidas
x1, x2, …, xN continua a ser:

1 N
σ= ∑ (xi − x )2 . (5.23)
N − 1 i =1

[28] Ou, quando muito, igual, se aumentássemos muito o número de medidas, tornando a diferença
entre N e N-1 irrisória.
67
5.7.3. Desvio padrão da média: melhor estimativa para a incerteza na média

Vamos agora justificar o resultado da incerteza associada ao valor médio, ou seja, do


σ
desvio padrão da média: σ x = x .
N
Como anteriormente, admitamos que as medidas da grandeza x seguem uma
distribuição normal em volta do verdadeiro valor X, com largura σx. Queremos agora
investigar o grau de confiança da própria média dos N resultados obtidos nas medições.
Para tal vamos imaginar que repetimos muitas vezes um conjunto de N medidas de x.
De cada uma das vezes que concluímos N medidas, determinamos a seguir o valor médio
desse conjunto de N medidas. Ou seja, para o 1º conjunto, fazemos as N medidas e
determinamos:
x + ... + x N
x1 = 1 .
N
Para o 2º conjunto de N medidas, determinamos:
x ' + ... + x N'
x2 = 1
N
x + ... + x N
'' ''

Para o 3º conjunto, obtemos: x3 = 1 . E assim por diante, vamos obter x4 , …, xn .


N
Como será a distribuição de valores médios que vamos obter?

Como o valor médio é uma função simples das quantidades medidas x1, …, xN,
podemos determinar a largura da distribuição de x aplicando a fórmula de propagação de
erros à definição de valor médio. O único facto estranho é que todas as medidas (x1, …, xN),
(x’1, …, x’N), (x’1, …, x’’N), etc., são medidas da mesma grandeza x e, portanto, têm o mesmo
verdadeiro valor X e a mesma incerteza σx.
Notemos, em primeiro lugar, que como as medidas da grandeza x, x1, … xN, seguem
uma distribuição normal, o seu valor médio x também segue o mesmo tipo de distribuição.
Em 2º lugar, o verdadeiro valor de cada x1, … , xN é X. Assim, o verdadeiro valor da média é
dado por:
X + ... + X
=X.
N

Então, depois de obtermos muitos conjuntos de N medidas e de calcularmos as respetivas


médias, os nossos muitos resultados xi estarão certamente distribuídos também em torno de
X. Logo, o verdadeiro valor da distribuição Normal dos valores médios continua a ser X.

Resta encontrar a largura dessa distribuição. A partir da definição de valor médio e de


acordo com a fórmula geral de propagação dos erros, a incerteza associada ao valor médio é
dada por:

2 2 2
 ∂x   ∂x   ∂x 
σ x =  σ x1  +  σ x2  + ... +  σ x N  .
 ∂x1   ∂x2   ∂x N 

Como x1, …, xN são medidas da mesma quantidade x, as suas larguras (incertezas) são todas
iguais a σx:
σ x1 = ... = σ xN = σ x .

68
As derivadas parciais também são iguais:

∂x ∂x 1
= ... = = .
∂x1 ∂x N N
De onde:

σ 
2 2 2
1  1 
σ x =  σ x  + ... +  σ x  = N  x 
N  N  N
Logo,

σx
σx = .
N

Portanto, depois de repetirmos muitas vezes um conjunto de N medidas de uma dada


grandeza x e de calcularmos a média de cada conjunto, concluímos que o valor médio x
também segue uma distribuição Gaussiana, centrada no verdadeiro valor X e com largura
σ
dada por σ x = x . Esta largura corresponde a um intervalo de confiança de 68%. Traduz,
N
portanto, a incerteza na média, ou seja, o desvio padrão da média.

Figura 5.7 – Curva tracejada: distribuição normal, centrada em X e de incerteza σx, para muitas
medidas individuais de x. Curva contínua: distribuição normal, também centrada em X
σx
mas mais estreita, de largura σ x = , para um nº grande de determinações da média
10
de 10 medidas de x.

69
70
Capítulo VI

Média pesada

6.1. Combinação de medidas independentes 73


6.2. Média pesada 73
6.3. Incerteza associada 75
6.4. Exemplo 75

71
72
Média Pesada

6.1. Combinação de medidas independentes

Acontece com frequência uma certa grandeza ser medida por métodos diferentes e/ou
em laboratórios diferentes. Põe-se, então, a questão de saber como combinar os resultados das
diversas medidas de modo a obter uma única melhor estimativa.
Suponhamos que são obtidos dois resultados de uma determinada grandeza x, ambos
fruto de (muitas) medições cuidadosamente efetuadas utilizando dois métodos experimentais
diferentes, A e B. x A ± σ A e xB ± σ B constituem, portanto, os melhores valores da grandeza x
obtidos por cada um dos métodos.
Como combinar os dois valores, xA e xB, de modo a obtermos um único melhor valor
para a grandeza?

6.2. Média pesada

Admitindo que os dois resultados são consistentes 29, qual é a melhor estimativa xbest
para o verdadeiro valor da grandeza? Assumimos que ambas as medidas seguem uma
distribuição normal em volta do verdadeiro valor X. Então, como vimos no capítulo anterior,
de acordo com a definição e significado da função Gaussiana, podemos considerar que a
probabilidade de se obter o valor específico xA é proporcional a:
( x A − X )2
1 −
Prob X ( x A ) ∝ e 2 σ 2A
.
σA

De modo semelhante, a probabilidade de se obter o valor específico xB é proporcional a:

( xB − X )2
1 −
Prob X ( xB ) ∝ e 2 σ 2B
.
σB

Então, a probabilidade combinada de encontrarmos os valores xA e xB é o produto das


probabilidades anteriores, ou seja, é proporcional a:

χ2

Prob X ( x A , xB ) ∝
1
e 2, (6.1)
σ Aσ B

[29] Nota importante: como referimos no capítulo I, se a discrepância x A − xB entre os dois


resultados for maior do que a soma das suas incertezas (σA + σB), ou seja, se as barras de erro
associadas aos dois valores não se intersetarem, devemos suspeitar que alguma coisa terá corrido
mal na realização experimental ou no registo de dados de, pelo menos, uma das medidas. Se a
discrepância for significativa, os dois resultados são inconsistentes e deveremos examinar
cuidadosamente as condições em que foram obtidos, procurando, nomeadamente, erros
sistemáticos.
73
2 2
x −X   xB − X 
onde χ =  A
2
 +   . (6.2)
 σA   σB 

A quantidade definida por 6.2 30 é a soma dos quadrados dos desvios dos dois
resultados relativamente ao verdadeiro valor X, cada um deles dividido pela correspondente
incerteza ao quadrado. O Princípio da Máxima Probabilidade, introduzido na secção 5.7.1,
assegura que a melhor estimativa para X é o valor para o qual a probabilidade definida pela
eq. 6.1 é máxima ou, dito de modo equivalente, para o qual o expoente χ2 é mínimo. 31
Diferenciando a eq. 6.2 em ordem a X e igualando a zero, vem:

xA − X x −X
2 +2 B 2 =0. (6.3)
σA2
σB

Reescrevendo em ordem a X, obtém-se:


 x A xB 
 2 + 2 
σ σB 
(melhor estimativa para X) =  A (6.4)
 1 1 
 2 + 2 
 σ A σB 

Se definirmos
1 1
wA = e wB = (6.5)
σ 2A σ 2B

como “pesos” associados às medidas xA e xB, respetivamente, podemos dizer que a melhor
estimativa para X é a média pesada:

wA x A + wB xB
xp = . (6.6)
wA + wB

Generalizando, considerando diferentes resultados x1, …, xN da grandeza x, aos quais


estão associadas, respetivamente, as incertezas σ1, …, σN diferentes entre si, ou seja, dados:

x1 ± σ1 , x2 ± σ 2 , ..., x N ± σ N ,

a melhor estimativa para o verdadeiro valor da grandeza x é dada pela média pesada obtida
através de

∑w x i i
xp = i
, (6.7)
∑w i
i

[30] χ2 – lê-se “qui-quadrado”; χ - letra grega que se designa por “qui”


[31] Uma vez que maximizar a probabilidade impõe minimizar o χ2, ou seja, minimizar “a soma dos
quadrados, este método para estimar X é por vezes designado por “método dos mínimos
quadrados”.
74
1
onde wi = .
σi2
(6.8)

Uma vez que o peso associado a cada medida envolve o quadrado da correspondente
incerteza, as medidas mais imprecisas contribuem bastante menos para o resultado final do
que as medidas que apresentam menor erro.

6.3. Incerteza associada

Uma vez que a média pesada é uma função das medidas x1, x2, …, xN, a incerteza na
média pesada pode ser calculada recorrendo à fórmula geral de propagação de erros. Como se
pode facilmente confirmar, o resultado dá:
1
σxp = . (6.9)
∑ wi i

1
Atendendo a que 6.8 se pode escrever como σi = , podemos dizer que a incerteza
wi
em cada medida é o inverso da raiz quadrada do seu peso. Então, olhando para 6.9, também
podemos dizer que a incerteza em x p é o inverso da raiz quadrada da soma dos pesos
individuais.

6.4. Exemplo

Consideremos que a medida de uma dada resistência elétrica R utilizando duas


metodologias experimentais diferentes, A e B, conduzia, depois do tratamento estatístico dos
dados recolhidos por cada um dos métodos, aos seguintes melhores resultados:

R A ± σ A = 8.27 ± 0.25 Ω e RB ± σ B = 8.09 ± 0.12 Ω .

Uma vez que os dois resultados são consistentes (ver nota rodapé nº 29), podemos calcular a
média pesada correspondente

∑w R σ R p (Ω ) =
1
( )
i i
1
σi (Ω) wi Ω −2 = (Ω ) =
∑w
i
Ri (Ω) Rp
σ i2 ∑w i
i
i
i

A 8.27 0.25 16
8.12 0.11
B 8.09 0.12 69

obtendo-se o valor final: R ± δR = 8.12 ± 0.11 Ω .

75

Potrebbero piacerti anche