Sei sulla pagina 1di 5

Probabilidade A probabilidade mede a verosimilhana com que um evento ocorre e a base da Inferncia Estatstica.

. Apesar de ter uma histria longa, foi Kolmogorov no sculo XX que definiu as suas axiomas:

Essencial para a aplicao da probabilidade para problemas de estatstica a sua definio frequencista que declara a probabilidade de um evento a proporo de ocorrncias deste evento se a experincia for repetida at chegar ao seu limite. Existem vrias inovaes dentro da probabilidade que nos tm permitido perceber a natureza de fenmenos. Vamos agora examinar o Teorema de Bayes para entender um destas evolues. Se os eventos qualquer evento de constituem uma participao do espao amostral , temos: , ento, para

A probabilidade de

por causa do evento

Bernoulli e as distribuies discretas Na base da estatstica o estudo da incerteza e a probabilidade de eventos. Apesar de ter sido estudado desde os tempos de Galileu, o primeiro grande passo para o estabelecimento da estatstica como cincia foi dado pelo J. Bernoulli. A sua lei fraca dos grandes nmeros diz que a probabilidade P tende para a certeza quando o nmero de observaes N cresce indefinidamente. Isso pode ser observado num processo de Bernoulli - por exemplo no lanamento de uma moeda no qual a funo de probabilidade :

Foi notado depois que a distribuio do processo de Bernoulli, a Distribuio de Bernoulli, um caso da Distribuio Binomial. A Distribuio Bernoulli permite o clculo da probabilidade para o caso de n tentativas independentes e tem, portanto, x como uma varivel aleatria na seguinte funo de probabilidade:

Uma outra distribuio discreta importante a Distribuio de Poisson. Usa-se para calcular a probabilidade de um nmero definido de eventos que ocorrem num dado intervalo de tempo ou espao.

O nmero e o nmero de Napier e intervalo de tempo.

o nmero mdio de eventos que ocorrem num dado

As distribuies contnuas comearam com De Moivre A descoberta da funo de densidade contnua, que calculou o limite da funo de probabilidade binomial para um nmero infinito de tentativas, foi a primeira vez que algum notou numa distribuio contnua. Porm, a importncia da distribuio normal foi estabelecida mais tarde por Gauss e Laplace atravs da distribuio de erros e do Teorema do Limite Central respectivamente. A distribuio normal a mais importante distribuio porque representa muitos fenmenos no mundo real e, por consequente, muito usada na inferncia estatstica. Tambm, como De Moivre demonstrou, outras distribuies podem ser aproximada pela distribuio normal.

Ao variar , a mdia, ou , o desvio padro, alteramos a localizao e forma da curva respectivamente. O grfico esquerda mostra um desvio padro de 2 e direita uma mdia de 1.

A variao mais conhecida a distribuio normal estandardizada que tem Utilizando a frmula:

=0 e

=1.

podemos calcular o nmero de desvios padres entre

e a mdia.

Relacionada com esta frmula o Teorema do Limite Central de Laplace que diz que para uma amostra suficientemente grande, a distribuio da varivel aleatria ser aproximadamente normal:

Amostragem O Laplace tambm conhecido por ter utilizado a amostragem na estimao da populao da Frana, embora as tcnicas no sejam as mesmas que so utilizadas hoje; foi mbito das cincias naturais que as tcnicas modernas foram desenvolvidas. De forma a poder fazer inferncias sobre a mdia de uma populao a partir de uma amostra, e quando no se sabe a varincia, a distribuio t-Student foi elaborada. A distribuio de t-Student ajuda porque as suas caudas so mais pesadas que as da normal que significa que quantos mais graus de liberdade uma amostra tem, mais aproxima-se a distribuio normal. Desta forma, consegue calcular um valor, a mdia por exemplo, mas com menos confiana.

Os mtodos de seleccionar a amostra tambm avanaram na altura de Student. A amostragem aleatria simplesmente permite que qualquer elemento da populao tenha a mesma probabilidade de ser selecionado e pode ser feito com ou sem reposio. Foi Kiaer que props amostrar com base na estratificao. Este mtodo pede a diviso da populao em grupos relativamente homogneos (em termos das caractersticas que no queremos investigar) e selecionar amostras aleatrias simples e independentes de cada estrato. Assim podemos fazer inferncias acerca de subgrupos da populao. Se conhecermos a distribuio de probabilidade da populao, podemos basear o processo de amostragem nela. Se a distribuio for normal, podemos gerar cada elemento da populao de acordo com a mdia e a varincia desejada. Estimao Com base numa amostra aleatria, ao utilizar mtodos de estimao, podemos fazer inferncias acerca dos parmetros populao. O mtodo da mxima verosimilhana, dada uma amostra de valores j observados x1, x2,...,xn, escolhe o valor do parmetro , da distribuio de probabilidade que maximiza o valor da funo de verosimilhana. Utiliza-se a funo de probabilidade conjunta com uma varivel discreta ou a funo densidade de probabilidade conjunta com uma varivel contnua para na maximizao da funo de verosimilhana:

A estimativa de mxima verosimilhana , a estimativa que melhor explica os valores observados da amostra. Se, por exemplo, quisermos calcular o valor de que maximiza a verosimilhana da mdia de uma varivel com distribuio normal, o valor ser a mdia da amostra, visto que a mdia ser o vrtice na parbola da funo quadrtica derivada. A melhor escolha para estimar parmetros, quando a amostra grande e no tem casos anormais, optar por mtodo de mxima verosimilhana. Os estimadores, como as variveis aleatrias, tm as suas propriedades. O estimador , que utilizado para gerar um nico valor como estimativa do parmetro, tambm uma varivel aleatria e tem o seu desvio padro que definido como o erro padro . A estimao do erro padro permite que seja avaliada a qualidade do estimador . Por outro lado, o enviesamento a diferena entre a mdia de e o parmetro . Tambm temos de considerar a eficincia de um estimador, o que a varincia da sua distribuio amostral. De vez em quando, pode ser necessrio comparar dois estimadores, um que sofre de uma varincia significante e outro que enviesado. Qual ser o melhor estimador da varivel? De forma a combinar a varincia e o enviesamento de cada estimador criar um nico parmetro que indica a melhor aproximao da varivel, calculamos o erro quadrtico mdio (EQM) de cada estimador .

aconselhvel, quando se estima de uma populao, conhecer o erro de amostragem que definido como a diferena entre a estimativa obtida da amostra e a estimativa que seria obtida de um censo nas mesmas condies da amostra. Um caminho para chegar a esta informao determinar um intervalo no qual se possa esperar encontrar o valor do parmetro - um intervalo de confiana. O intervalo de confiana de (1 - )x 100% para o parmetro demarcado pelos limites de confiana e para que

Tipicamente, os valores do coeficiente de confiana 1 - so 0.99 ( = 0.01), 0.95 ( = 0.05) e 0.90 ( = 0.1). Este coeficiente deve ser interpretado como uma probabilidade que depender da populao e a sua distribuio, do mtodo de amostragem, do tamanho da amostra e da definio de e . Os intervalos de confiana podem ser usados para calcular a confiana na mdia, na diferena entre mdias, em propores de uma populao que tm uma caracterstica predefinida (e que seguir a distribuio Bernoulli) e na varincia. Teste de Hipteses De forma a possibilitar concluses definitivas com uma pergunta a qual se pode responder sim ou no, Fisher, seguido por Neyman e Pearson definiram o Teste de Hiptese. Antes de estudar um fenmeno e tentar chegar a uma concluso acerca de um parmetro, definem-se a hiptese alternativa ( ) que se considera verosmil e contm, em geral, uma desigualdade (>, < ou ). A hiptese nula ( ) considerada inverosmil e contm, em geral, uma igualdade. Encontra-se abaixo um exemplo.

Se aceitarmos , implica que a evidncia no basta para rejeitar - ao contrrio do que era esperada. Ao rejeitarmos , sabemos que a probabilidade de obter a amostra quando verdadeiro muito reduzido. O resultado, portanto, que o teste conclusivo e podemos aceitar como foi postulado. utilizada a estatstica de teste para atingir esta concluso; se o teste for um de um parmetro, a estatstica de teste ser um estimador deste parmetro. A fim de finalizar a tomada de deciso, essencial que haja uma regra de tomada de deciso. Por exemplo, com o teste bilateral apresentado acima, se a estimativa for bem longe do valor , podemos rejeitar . Para podermos fazer isso, temos de estabelecer, antes da experincia, a regio de rejeio de . Um outro factor para levar em considerao durante um teste paramtrico a possibilidade de cometer um erro de inferncia: tirar a concluso errada num teste estatstico a partir da informao contida na amostra. Encontra-se abaixo um sumrio dos possveis erros. Tipo de erro de inferncia Aceitar Rejeitar verdadeira
Deciso correcta Risco 1 - Erro tipo I Risco Nvel de significncia

falsa
Erro tipo II Risco Deciso correcta Risco 1 - Potncia de teste

Quando se comete um erro tipo I, uma verdadeira rejeitada e comete-se um erro tipo II quando aceite uma falsa. A probabilidade de um erro tipo I tem a probabilidade (ou nvel de significncia):

mas a probabilidade de rejeitar uma

falsa (a potncia do teste) :

Temos de definir o valor crtico para ser capaz de fixar o valor de , e por conseguinte . A relao interdependente entre e faz com que, ao diminuir , aumente.

Potrebbero piacerti anche