Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
2010
Nome da turma que realizaram o trabalho
Osvaldo Martins
Tatiani Botini
Marcia Matos
Herena Naoco
Edson Junior
Edson Eguchi
Marice Cristine
Samuel laudelino
Cristiano da Cruz
Mauricio Arantes
3
Introdução
É fato que todo trabalho científico inicia a análise de seus dados através de uma esta-
tística descritiva que tende a culminar sempre com o teste de média, simplesmente pelo
fato que não há nenhum tratamento que o substitua, por mais que um tratamento possa
utilizar primeiramente a análise de variância, ou sugerir de imediato o estudo de modelos.
A explicação para tal fato está relacionado a necessidade de tomar decisões, onde a
partir das hipóteses, que na maioria das vezes tenta-se rejeitar, por este fato estas são
denominadas de hipóteses da nulidade H0, contudo admitindo-se que esta é verdadeira,
esta torna a ser rejeitada em favor de outra, denominada de hipótese alternativa (H1), este
processo de aceitação ou rejeição de hipótese só é possível com base nos testes de hipóteses
ou testes de significância (Banzatto & Kronka, 1995).
Contudo segundo Sampaio (2010) a eleição de um teste pelo pesquisador deve contem-
plar aquele cujas conclusões advindas de seu uso sejam menos sujeitas a erros tidos como
indesejáveis, e esta é uma análise que poucos pesquisadores fazem e se quer compreendem
ao fazer a escolha do teste, tanto que Cardellino e Siewerdt (1992) e Bertoldo et al (2008) já
comprovaram isto estatisticamente através da revisão de artigos publicados em periódicos
Qualis nacional onde avaliaram a correta aplicação dos testes de comparação de médias e
concluiram que existe dificuldade na escolha do teste em relação ao tipo de fator experi-
mental estudado, sendo os que utilizam mais de um fator são os que mais apresentaram
erro na escolha do procedimento.
A dificuldade na aplicação do teste sempre decorre da falta de compreensão da situação
que conduzirá a comparação dos valores médios. Segundo Sampaio (2010) dois aspectos
são essenciais para a escolha do teste adequado:
• O primeiro refere-se à caracterização da resposta a ser medida (variável alvo) quanto
à sua natureza (qualitativa ou quantitativa), à sua distribuição (normal ou não), à sua
continuidade (contínua ou discreta) e à sua instabilidade (muito ou pouco instável)
• A segunda está ligada à percepção do anterior, onde após a utilização de um teste na
comparação de médias, existem dois tipos de erro reconhecidos pela teoria estatística: erro
tipo I (atribuir uma significância quando ela realmente não existir) e o erro tipo II (atribuir
4
Testes de Média
Tukey (1991) apresenta uma discussão filosófica sobre os testes de múltipla compara-
ção, de modo que o mesmo inicia questionando a questão básica de todo trabalho científico
"Are the effects of A and B different?"ou seja devemos rejeitar uma afirmação como total-
mente inadequada? Por isso Magnusson e Mourão (2005) citam o teste de Bonferroni para
corrigir a probabilidade de rejeitar a hipótese nula geral, de ausência de diferenças entre as
amostras, multiplicando a probabilidade de cada teste pelo número de testes realizados. O
problema do Bonferroni é que ele tende a aceitar a hipótese nula no caso de muitos testes
por ser conservativo. Uma alternativa seria o método de Holm, contudo este por sua vez
não leva em conta a correlação entre os resultados dos diferentes testes.
5
Outro pressuposto acerca dos testes a serem apresentados é que a média amostral
ou a diferença de médias amostrais, no caso de duas populações, tenham distribuição
aproximadamente normal. Para isso é necessário que a amostragem seja aleatória e com
boa aproximação para outras distribuições e suficientemente grande para representar o
universo da população (Andrade e Ogliari, 2007).
Antes de aprofundarmos nesta análise seguiremos para a apresentação dos testes de
média.
Teste F
O teste F foi formulado por George Snedecor, contudo este baseou-se na fundamentação
teórica de Ronald A. Fischer em 1924 e por isso o seu nome em homenagem a este, ou
pode ainda ser denominado como Razão de Variança, termo este dado pelo próprio Fisher,
contudo permaneceu a homenagem a ele. Este teste visa avaliar a variação da média de
uma determinada fonte em relação à variação individual, contudo o teste de F é adequado
quando a fonte sendo testada não é uma interação e se referir a apenas um grau de liberdade
(Banzatto & Kronka, 1995; Magnusson e Mourão, 2005; Sampaio, 2010).
As tabelas utilizadas para este teste (Anexo 1 e 2) são geralmente apresentadas ao
nível de 5% ou 1% de probabilidade e são apresentadas em função do grau de liberdade do
tratamento e do resíduo (Pimentel-Gomes e Garcia, 2002) .
Lima e Abreu (2000) apresentam este teste quanto a sua aplicação em relação às hipó-
teses sobre os efeitos dos tratamentos, ou seja, considerando-se sempre que:
• H0: Não existem diferenças entre os efeitos dos tratamentos
• H1: Existe, pelo menos, uma diferença entre os efeitos dos tratamentos.
Para tanto Lima e Abreu (2000) consideram que para o teste das hipóteses é necessário
que os dados experimentais satisfaçam algumas pressuposições
• Aesperança matemática do Quadrado Médio do Erro Experimental (QMErro) é σ 2 e,
para o Quadrado Médio de Tratamentos (QMTratamento) é Σ2 + k t2 , onde k é uma
P
• Variância de um contrates
Dentre estes contrastes Pimentel-Gomes e Garcia (2002) destaca a importância do con-
traste ortogonal na utilização do teste t e na análise de variância, no ponto de vista prática,
a ortogonalidade indica que a variação de um contraste é inteiramente independente da
variação de outro qualquer que lhe seja ortogonal.
Segundo Corrêa, Silva e Torres (2008) a partir do interesse de se conhecer onde ocorrem
às diferenças entre as médias há duas alternativas a serem seguidas: na primeira os tra-
tamentos referem-se a níveis de variáveis quantitativas e neste caso os graus de liberdade
de tratamentos devem ser decompostos em efeitos lineares, quadráticos, cúbicos etc sobre
a variável resposta, visando estabelecer um relacionamento funcional entre a variável res-
posta e os níveis dos fatores; a segunda alternativa consiste na comparação das médias dos
tratamentos por meio de contrastes utilizando testes apropriados de comparação múltipla.
Não existe um teste melhor do que outro isto dependerá da forma que as médias serão
comparadas em razão da forma como os dados foram coletados, e convém lembrar que estes
testes devem ser vistos como um indicadores da realidade ao invés de uma solução exata
(Vieira, 2006).
Teste de Dunnett
Este teste deve ser aplicado quando o interesse é comparar as médias dos grupos trata-
dos apenas com a média do controle, indicando quais tratamentos são iguais ao controle e
tem recebido destaque em ensaios de melhoramento. Este é um teste semelhante ao teste t
de Student, exceto pelo valor de D, aqui ajustado para um maior número de tratamentos,
a utilização deste teste, é pouco freqüente dada a limitação que impede outras compara-
ções não contidas em suas condições iniciais (Banzatto e Kronka, 1995; Pimentel-Gomes e
Garcia, 2002; Vieira, 2006).
A Diferença mínima significativa (DMS)de Dunnett, segundo (Sampaio, 2001) é dada
por:
v
u
u X t
dmsDunnett 2
= D Se
t Ci2 /ri
i=1
Teste de Scheffé
Este teste segundo Vieira (2006) é um teste de comparações múltiplas porque pode ser
usado para comparar qualquer contraste de médias. O contraste caracteriza-se pelo fato
de a soma algébrica de seus coeficientes ser igual a zero e deste modo o teste de Scheffé
verifica se um contraste de médias é estatisticamente significante a determinado nível.
v
u
u t
X
dms(Schef f e) = t(t − 1)F.s2e Ci2 /ri
i=1
p
dms(Schef f e) = (t − 1)F.2s2e /r
Deste modo, o teste visando comparar qualquer contraste entre médias sob diferentes
números de observações por tratamento caracteriza-se por ser mais rigoroso do que Tukey,
mas mantendo-se também sujeito ao aumento do erro tipo II. Dificilmente apresentará
diferença significativa para comparação de apenas duas médias (Corrêa, Silva e Torres,
2008).
É um teste que só deve ser aplicado quando o teste F tiver dado resultado significativo
e deste pelo menos um dos contrastes entre tratamentos será significativo, mas este pode
ser muito complicado ou sem interesse prático, ou que nenhum dos contrastes entre duas
médias apenas seja significativo, contudo o mesmo permite julgar qualquer contraste, as-
sim de uso bem geral, ao contrário dos testes de Tukey e Duncan que são mais criteriosos
9
O teste t de Student
A−B
t= p
(s2e /ra ) + (s2e /rb )
Do mesmo modo Pimentel-Gomes e Garcia (2002) destacam que o problema da dife-
rença mínima significativa (dms) no teste t é que ele freqüentemente é usado para testar
todos os contrastes entre duas médias do experimento, o que não é correto, pois contraria
10
as restrições impostas ao uso do teste t. Contudo os mesmos autores relatam que é possível
tolerar o uso deste teste para alguns contrastes, mesmo que não sejam ortogonais, desde
que seu número não exceda o número de graus de liberdade para tratamentos.
Deste modo Sampaio (2010) destaca que o etudo de respostas muito instáveis (CV>30%),
onde o erro tipo II é mais frequente, poderia se valer deste teste para então contrabalançar
tal probabilidade, com isso o valor da fierença mínima significativa seria:
s
s2e s2
dms(Student) = tglerro + e
rA rB
r
see
dms(SN K = qi
r
Quando as médias comparadas A e B apresentarem diferente número de repetições a
diferença mínima significativa seria:
s
s2e
1 1
dms(SN K) = qi +
2 r A rB
Teste de Tukey
11
Sampaio (2010) relata que Tukey (1953) considerou muito trabalhoso o procedimento
proposto por Newman (1939), mas compactuava com a preocupação no controle do erro
tipo I. Tanto que o valor único proposto por Tukey coincide com o valor máximo do SNK,
ou seja, equivalente à comparação entre a maior e a menor média.
p
dms(T ukey) = q s2e /r
Vieira (2006) apresenta que este teste baseia-se em encontrar a diferença mínima entre
duas médias para que estas possam ser consideradas diferentes a determinado nível de
significância, esta diferença mínima significante é indicada pela letra grega ∆ (delta), mas
Tukey a chamou de diferença honestamente significante cuja sigla em inglês é HSD. De
acordo com este teste, duas médias são estatisticamente diferentes toda vez que o valor
absoluto da diferença entre elas for igual ou maior do que a diferença mínima significante,
ou seja, igual ou maior que o valor de delta
De outra maneira Pimentel-Gomes e Garcia (2002) apresentam o teste de Tukey ba-
seado na amplitude total estudentizada, ou seja o resultado da divisão de uma variável
aleatória pelo respectivo desvio padrão.
Segundo Banzatto e Kronka (1995) o teste de Tukey é muito versátil, mas que não
permite comparar grupos entre si. Outro fato a ser considerado para que o teste seja
exato, exige que todas as médias possuam o mesmo número de repetições, neste caso se
as duas médias confrontadas no contraste não possuírem o mesmo número de repetições,
podemos aplicar o teste de forma aproximada, calculado-se o valor da d.m.s. representada
por ∆.
O teste de Tukey desta maneira apresenta-se como um teste muito rigoroso e que
controla o erro tipo I, contudo fica sujeito a permitir o erro tipo II.
Todavia Sampaio (2010) considera que em um ensaio com muitos tratamentos e envol-
vendo uma variável muito instável (CV>25%) favorecerá sobremaneira o aparecimento do
erro tipo II, assim se as médias comparadas A e B tiverem diferente número de repetições,
apica-se a mesma fórmula da diferença mínima significativa de SNK.
Teste de Duncan
12
Este teste foi sugerido por Duncan em 1955 baseando-se na mesma argumentação do
teste de Student-Newman-Keuls, tentando reduzir as diferenças mínimas significativas im-
postas pelas comparações mais dramáticas. Neste teste os valores não sobem tão rapida-
mete quanto aqueles do teste Student-Newman-Keuls, controlando assim o aparecimento
do erro tipo II na comparação de médias mais afastadas (Sampaio, 2010).
r
s2e
dms(Duncan) = qi
r
Este é um teste que fornece resultados mais discriminados que os do teste de Tukey,
sendo menos rigorosos que ele, mas de aplicação mais trabalhosa visto que exige que as
médias sejam colocadas em ordem decrescente e que todas elas possuam o mesmo número
de repetições. É aplicado ao nível de 5% de probabilidade e é um teste que baseia-se
na amplitude total mínima significativa(Di) (Banzatto e Kronka, 1995; Pimentel-Gomes e
Garcia, 2002).
Segundo Pimentel-Gomes e Garcia (2002) para uso deste teste são necessárias tabelas
especiais da variável aleatória z, uma ao nível de 5% e outra a 1% de probabilidade.
Corrêa, Silva e Torres (2008) fazem as seguintes considerações sobre o teste de Duncan:
discrimina mais que o teste de Tukey; quando a maior média não diferir significativamente
da menor, pelo teste Duncan, não se admitirão diferenças significativas, pelo mesmo teste,
entre as médias intermediárias; é indicado para experimentos com número de tratamento
acima de 4, e para variáveis com CV ≥ 30%, que estão mais sujeitas ao erro tipo II. Assim
se as médias comparadas A e B contiverem diferente número de repetições a dms seria:
s
s2e
1 1
dms(Duncan) = qi +
2 rA rB
Teste de Bonferroni
mais liberdade de escolha dos contrastes. Deste modo este teste é considerado um meio-
termo entre esses dois extremos e presta bons serviços quando não é grande o número de
contrastes a que se aplica.
Corrêa, Silva e Torres (2008) aplicam este teste quando se tem interesse em realizar
pequeno número de comparação de médias e os contrastes não são ortogonais, sendo este
de maior potência comparado à maioria dos procedimentos de comparação de médias, após
o conhecimento dos dados.
Assim o teste de Bonferroni é semelhante ao teste t e é definido por:
q¯k
TB = q P
t 2
i=1 cik /ri QM E
Teste de Conagin
α
δBM = [1 + P (F )]
k
Onde P(F) é dado pela tabela de Conagin, resultante do quociente F0 /Fc e do nú-
mero (r) de repetições do experimento. Conagin aplica esta probabilidade unicamente
a contrastes entre duas médias, mas poderia ser aplicado a contrastes mais complexos
(Pimentel-Gomes e Garcia, 2002).
14
A escolha do teste
Figura 1: Definição da escolha do teste com base no tipo de contraste (adaptado de Ban-
zatto e Kronka, 1995)
Deste modo o nível de significância e a rigorosidade dos testes torna-se por fim um crité-
rio para a escolha onde os testes de SNK, Tukey, Dunnett, Scheffé e Bonferroni destacam-se
como os mais rigorosos e consequentemente sujeitos ao erro tipo II, enquanto que os testes
de Duncan e t Student, com menor sensibilidade podem espelhar o erro tipo I.
2.Tamanho da Amostra
Introdução
Se o pesquisador trabalha com todo o grupo que ele tenta compreender, dizemos que
está trabalhando com a população. A população consiste em um conjunto de indivíduos
que compartilham de, pelo menos, uma característica comum, seja ela cidadania, filiação
a uma associação de voluntários, etnia, matrícula na universidade, etc. Entretanto, o
pesquisador trabalha com tempo, energia e recursos econômicos limitados. Portanto, são
16
raras as vezes em que pode trabalhar com todos os elementos da população. Geralmente,
o pesquisador estuda um pequeno grupo de indivíduos retirados da população. Este grupo
denomina-se amostra (Levin, 1987).
Amostra é um subconjunto de indivíduos extraídos de uma população. O processo de
escolha dos indivíduos que pertencerão a uma amostra, é denominado de amostragem.
A utilização de técnicas de amostragem se faz necessária quando, por questões práticas
e principalmente econômicas, é impossível (ou quase) estudar toda uma população.
Métodos de Amostragem
Em algumas circunstâncias pode ser conveniente proceder à seleção das unidades para a
amostra por etapas. Em um delineamento de amostragem múltipla a amostra é constituída
por unidades que são selecionadas da população objetivo em etapas sucessivas. Dependendo
dos resultados observados em cada etapa, podem ser dispensadas etapas subseqüentes. Esse
processo de amostragem é freqüentemente empregado em inspeção por amostragem para
teste ou controle de qualidade de produtos.
Não há dúvida de que uma amostra não representa perfeitamente uma população.
Ou seja, a utilização de uma amostra implica na aceitação de uma margem de erro que
denominaremos erro amostral.
O Erro Amostral é a diferença entre um resultado amostral e o verdadeiro resultado
populacional; tais erros resultam de flutuações amostrais aleatórias. Ocorrem erros não-
amostrais quando:
Os dados amostrais são coletados, registrados ou analisados incorretamente.
Há uma utilização de um instrumento defeituoso durante a realização de mensurações.
Questionário ou formulário possui questões formuladas de modo tendencioso [Triola,
1999].
Não podemos evitar a ocorrência do erro amostral, porém podemos limitar seu valor
20
Um estimador é uma estatística amostral (como a média amostral ) utilizada para obter
uma aproximação de um parâmetro populacional.
Uma estimativa é uma valor específico, ou um intervalo de valores, usado para apro-
ximar um parâmetro populacional. Há duas razões importantes que explicam por que a
media amostral é um melhor estimador de uma media populacional µ, do que quaisquer
outros estimadores, como a mediana ou a moda.
1 Para muitas populações, a distribuição das medias amostrais tendem a ser mais
consistente (apresentar menor variação) do que as de outras estatísticas amostrais.
2 Para todas as populações, dizemos que a media amostral um estimador não ten-
dencioso da media populacional , o que significa que a distribuição das medias amostrais
21
e 99% (com α=0,01). A opção mais comum é 95% porque proporciona bom equilíbrio entre
a precisão (refletiva na Amplitude do intervalo de confiança) e a confiabilidade (expressa
pelo grau de confiança).
Pelo Teorema Central do Limite, sabemos que as medias amostrais x̄ tendem a distribuir-
se normalmente, apresentando uma chance relativamente pequena de estar em uma das
α
caudas extremas da figura 2. Denotado por 2 a área sombreada de cada cauda, vemos
que há uma probabilidade total α da média amostral estar em uma das duas caudas. Pela
regra do complemento decorre que há uma probabilidade (1-α) de uma media amostral
estar na região não sombreada da figura 2. O escore Z que separa a região da cauda di-
reita é denotada por Z α2 e é chamado de valor critico porque está na fronteira que separa
as médias amostrais passíveis de ocorrerem, das médias amostrais que provavelmente não
ocorrerão.
Os valores críticos mais comuns são:
Quando coletamos um conjunto de dados amostrais para estimar uma media popula-
cional µ, a margem de erro, denotada por E ou (epslom) é a diferença máxima provável
(com probabilidade 1-α) entre a media amostral observada e a verdadeira media popula-
cional µ. A margem de erro E é chamada também erro máximo de estimativa e pode ser
obtida multiplicando-se o valor critico pelo desvio padrão das medias amostrais, conforme
formula abaixo:
σ
E = Z α2 √ (1)
n
σ
x̄ − E < µ < x̄ + E onde E = Z α2 √ (2)
n
2
Z α2 σ
n= (3)
E
Onde:
n = Número de indivíduos na amostra
Z α2 = Valor crítico que corresponde ao grau de confiança desejado.
σ = Desvio-padrão populacional da variável estudada.
E = Margem de erro ou erro máximo de estimativa, identifica a diferença máxima entre
a média amostral x̄ e a verdadeira média populacional µ.
Ao determinar o tamanho da amostra n, da equação (2) nem sempre se conduz a um
número inteiro, neste caso sempre aumente o valor de n para o próximo inteiro.
A formula deve ser usado quando conhecemos o valor do σ e queremos determinar o
tamanho da amostra necessária para estabelecer, com um nível de confiança de 1-α, o valor
da média a menos de ±E. Em geral não se conhece o σ sem conhecer a µ, mas o valor do σ
pode ser conhecido de um estudo anterior, ou pode ser estimado com base em um estudo
piloto ou uma regra empírica.
E se o desvio padrão σ não for conhecido?
A Equação 2 exige que se substitua por algum valor o desvio-padrão populacional
σ, mas se este for desconhecido, devemos poder utilizar um valor preliminar obtido por
processos como os que se seguem:
1 Utilizar a aproximação: σ correspondente a amplitude/4.
2 Realizar um estudo piloto, iniciando o processo de amostragem. Com base na pri-
meira coleção de pelo menos 31 valores amostrais selecionados aleatoriamente, calcular o
desvio-padrão amostral S e utilizá-lo em lugar de σ. Este valor pode ser refinado com a
obtenção de mais dados amostrais.
normal com a mesma margem de erro da seção precedente, desde que a população original
tenha distribuição normal e que se conheça o desvio padrão populacional µ.
x̄ − µ
t= (4)
√S
n
r
p̂ q̂
p̂ − E < p < p̂ + E onde E = Z α2 (5)
n
Para determinação do tamanho da amostra, quando desejamos achar o valor apro-
ximado de uma proporção populacional, partimos da expressão da margem de erro E e
resolvemos em relação a n como nos outros casos: Quando se conhece uma estimativa p̂ :
Z 2α p̂q̂
2
n= (6)
E2
Quando não se conhece uma estimativa de p̂ , substituímos p̂ por 0,50 e q̂ por 0,50:
Z 2α 0, 25
2
n= (7)
E2
26
Onde:
n = Número de indivíduos na amostra
Z α2 = Valor crítico que corresponde ao grau de confiança desejado.
p̂ = Proporção populacional de indivíduos que pertence a categoria que estamos interessa-
dos em estudar (amostrar).
q̂ = proporção populacional de indivíduos que não pertence à categoria que estamos inte-
ressados em estudar (q̂ = 1 − p̂ ).
E = margem de erro ou erro máximo de estimativa. identifica a diferença máxima entre a
proporção amostral e a verdadeira proporção populacional (p).
Delineamento Experimental
Introdução
Diagrama de dispersão
28
y = α + βx +
onde
y = Dados observados
α = Coeficiente linear ou intercepto-Y;
β = Coeficiente angular;
= Variações aleatórias.
A fórmula geral na amostra é
Ŷ = a + bx
onde
a= estimador do coeficiente linear;
29
SXY
b=
SXX
onde
P P
X X Y
SXY = XY −
n
( X)2
X P
2
SXX = X −
n
a = Ȳ − b.X̄
( Y )2
X P
2
SY Y = Y −
n
Segundo Downing e Clark (2005) antes de começar a fazer predições, deve-se atentar
para várias advertências importantes:
• Qualquer predição baseada em um modelo de regressão é uma predição condicional
, pois a predição da variável dependente está sujeita ao valor da variável independente.
Suponha que tenhamos encontrado uma expressão que descreva perfeitamente bem a re-
lação entre x e y. Nesse caso, é possível predizer valores futuros de y se (mas somente se)
conhecermos o valor futuro de x.
• A reta de regressão foi estimada utilizando-se dados passados. Essa reta não poderá
predizer dados futuros se a relação entre x e y se modificar.
30
sP
y − Ȳ
σ̂ =
n−2
Divide-se por n − 2 pois perde-se dois graus de liberdade com as estimativas de α e β.
Fórmula alternativa:
rP
y2 + a y2 − b
P P
x.y
σ̄ =
n−2
Para construir um intervalo de predição para Y dado X, usa-se σ̂ e duas hipóteses
básicas:
• a dispersão de y é a mesma em todos os pontos da reta;
• a cada ponto, os valores de y são normalmente distribuídos em relação à reta de
regressão.
h i
Ŷ ± tn−2;α/2 .σ̂
O erro-padrão de b é:
σ̂
σ̂b = pP
x2 − nX̄ 2
31
b ± tn−2;α/2 .σ̂b
H0 : β = β0
b − β0
tc = ∼ tn−2gl
σ̂b
Para utilizar o modelo de regressão para predizer valores de y Downing e Clark (2005)
apresentam o seguinte exemplo, suponha que se tenha determinado que x efetivamente
causa y, que esse relacionamento ainda seja válido no futuro, e que possa ser descrito
com precisão pela reta de regressão y = 2, 905x + 14, 577 sabe-se que o valor de y será
2, 905x16 + 14, 577 = 61, 06.
A próxima questão é: quão precisa é essa predição? Com o objetivo de construir um
intervalo que tivesse 95% de chance de conter o valor de y (dado que x = 16).Esse tipo
de intervalo é chamado intervalo de predição. Note sua semelhança com os intervalos
de confiança estabelecidos para parâmetros desconhecidos. Supondo que se conheça os
verdadeiros valores de m, b e σ. Então, se x = xnovo , sabemos que y tem distribuição
normal com média ŷ = mxnovo + b e variância σ 2 . Assim, há 95% de chance de o valor de
y estar entre [(mxnovo + b) − 1, 96σ] e [(mxnovo + b)1, 96σ].
Contudo, neste caso, as coisas pioram consideravelmente, porque desconhecemos os
verdadeiros valores de m, b e σ, ao mesmo tempo, existem duas fontes de incerteza envol-
vidas na predição de valores de y: não se conhece a verdadeira reta de regressão, e o valor
32
predito de u apresentará um desvio aleatório em relação à reta. Com base nisto a fórmula
da variância estimada de y, para um dado valor de x, é:
" #
1 (xnovo − x̄)2
V ar(y)EQM 1 = + P
n (xi − x̄)2
Observe que a variância aumenta quando o valor de xnovo está mais próximo de x̄,
temos mais confiança em que nossa reta de regressão estimada esteja próxima da verdadeira
reta de regressão. Entretanto, se a estimativa do coeficiente angular da reta é ligeiramente
diferente do verdadeiro valor, então essa diferença fará com que a reta de regressão estimada
se afaste mais e mais da verdadeira reta, quando nos distanciamos de x̄.
Quando x toma o valor xnovo , e calculamos ŷxnovo = m̂xnovo + b̂ e Var(y) com a fórmula
acima, então o intervalo de predição para y é:
p
ŷnovo ± a V ar (y)
em que:
P r(−a < t < a) = N C
t é uma variável aleatória com distribuição t e com n-2 graus de liberdade
NC é o nível de confiança (com 0,95)
4. Intervalo de Confiança
Introdução
V
P U <θ< =1−α
θ
então o intervalo aleatório (U,V) é um intervalo de confiança "100(1-α)% para θ".
Portanto, podemos interpretar o intervalo de confiança como um intervalo que contém os
valores "plausíveis"que o parâmetro pode assumir. Assim, a amplitude do intervalo está
associada a incerteza que temos a respeito do parâmetro.
Considere X1,X2,· · · ,Xn uma amostra aleatória retirada de uma população com distri-
buição que depende do parâmetro θ. Por exemplo, tomamos X1,X2,· · · ,Xn uma amostra
aleatória com distribuição normal com média µ desconhecida e desvio padrão conhecido
σ=1. Para propormos um intervalo de confiança para o parâmetro θ, vamos introduzir o
conceito de quantidade pivotal. Uma função Q da amostra X1,X2,· · · ,Xn e do parâmetro θ
cuja distribuição de probabilidade não depende do parâmetro θ é denominada quantidade
pivotal. Desta forma, dado o nível de confiança (1-α), tomamos
pela média amostral X̄ de uma amostra de tamanho n. Assim, temos a seguinte quantidade
pivotal
σ2
e = (X̄ − µ) ∼ N 0,
n
Se X1, X2,· · · , Xn for uma amostra aleatória de uma população normal, então obtidas
a média X̄ e a variância σ 2 da amostra, a função a seguir segue a distribuição t de Student.
√
X̄ − µ n X̄ − µ
t= =
√S S
n
Se afirmarmos que:
√ !
n X̄ − µ
P −t α2 ≤ t ≤ t α2 =P −t α2 ≤ ≤ t α2 = 1 − α
S
S S
P X̄ − t α2 √ ≤ µ ≤ X̄ + t α2 √ =1−α
n n
A interpretação da equação acima mostra que "a probabilidade de o intervalo limitado
por X̄ − t α2 √Sn e X̄ + t α2 √Sn incluir µ é igual a 1-α. "Esse intervalo é conhecido por
intervalo de confiança (abreviado por IC) para µ. O valor X̄ − t α2 √Sn é chamado de limite
inferior de confiança (abreviado por LI); e X̄ + t α2 √Sn é chamado de limite superior de
confiança (abreviado por LS). Dessa forma, o intervalo de confiança pode ser concisamente
apresentado pela equação a seguir:
Pn 2 Pn 2
i=1 X1 − X̄ i=1 Z1 − Z̄
=
σ2 σ2
tem distribuição qui-quadrado com v = n-1 graus de liberdade. Sendo que Zi ∼ N (0,1).
Pn 2
2 (X1 −X̄ )
Se S = i=1 σ2 é obtido de uma amostra aleatória de uma distribuição normal com
(n−1)S 2
média µ e a variância σ 2 , então, a variável χ2 = σ2
possui distribuição qui-quadrado
com v = n-1 graus de liberdade.
A distribuição qui-quadrado possui várias aplicações em estatística. Uma delas é a
de propiciar mecanismos para a realização de inferências sobre o parâmetro σ 2 de uma
população normal.
Dessa forma, se S 2 é o estimador da variância obtido de uma amostra aleatória X1 ,
vS 2
X2 ,...,Xn de uma população normal, então χ2 = σ2
tem distribuição de qui-quadrado com
v = n - l graus de liberdade.
Se forem considerados os quantis superiores χ21− α ;v e χ2α ;v da distribuição qui-quadrado,
2 2
P χ21− α ;v ≤ χ2 ≤ χ2α ;v = 1 − α
2 2
38
(n − 1)S 2
P χ21− α ;v ≤ ≤ χ2α ;v =1−α
2 σ2 2
" #
(n − 1)S 2 2 (n − 1)S 2
P ≤ σ ≤ =1−α
χ2α ;v=n−1 χ21− α ;v=n−1
2 2
" #
(n − 1)S 2 (n − 1)S 2
IC1−α (σ 2 ) : ;
χ2α ;v=n−1 χ21− α ;v=n−1
2 2
Para o desvio padrão (σ) de uma população normal, o intervalo de confiança é obtido
tomando-se a raiz quadrada dos limites do intervalo de confiança da variância. Na equação
abaixo, apresenta-se esse intervalo de confiança para σ de uma normal por:
"s s #
(n − 1)S 2 (n − 1)S 2
IC1−α (σ) : ;
χ2α ;v=n−1 χ21− α ;v=n−1
2 2
Pn
N o deelementosdaamostracomacaracterstica i=1 xi
p̂ = = = x̄
T otaldeelementosdaamostra n
Utilizaremos três métodos diferentes para encontrar o intervalo de confiança para a
proporção: Aproximação normal, aproximação normal com correção de continuidade e
binomial exata.
Aproximação Normal
p (1 − p)
p̂ ∼ N p
n
Observa-se que a variância de p̂ depende do parâmetro desconhecido p. No entanto,
pelo fato de n ser grande, pode-se substituir p por p̂. Com isso temos que:
p̂ − p
q ∼ N (0, 1)
p̂(1−p̂)
n
Considerando o mesmo procedimento de montagem do intervalo para a média, constrói-
se o intervalo com 100 (1 − α)% de confiança para a proporção p:
r r !
p̂(1 − p̂) p̂(1 − p̂)
IC(p, 1 − α) = p̂ − Zα/2 , p̂ + Zα/2
n n
40
p̂ + 1
2n sep̂ < 0, 5
pˆc
p̂ − 1
2n sep̂ > 0, 5
r r !
p̂c (1 − p̂c ) p̂c (1 − p̂c )
IC(p, 1 − α) = p̂c − Zα/2 , p̂c + Zα/2
n n
O fator de continuidade é utilizado para melhorar a aproximação de uma variável
aleatória discreta p̂ pela distribuição normal que é contínua.
Binomial Exata
α
Tem-se que P1 = 1 − 2 = 1 − 0, 025 = 0, 975, x = 3 e n = 19. Assim, obtém-se na
tabela da distribuição binomial o limite inferior 0,05. Por outro lado, P2 = 0, 025 e x = 4,
obtém-se que o limite superior é igual a 0,45.
Então o intervalo com 95% de confiança para a proporção de defeituosas é (0,05; 0,45).
Observação: Este método é utilizado apenas para amostras de tamanho pequeno. Para
amostras grandes, utiliza-se o Teorema Central do Limite para obter o intervalo de confi-
ança.
Referência Bibliográfico