Sei sulla pagina 1di 42

UNIVERSIDADE ESTADUAL DE MARINGÁ CENTRO DE

CIÊNCIAS AGRÁRIAS PROGRAMA DE PÓS-GRADUAÇÃO EM


ZOOTECNIA (PPZ) CURSO DE DOUTORADO
INTERINSTITUCIONAL EM ZOOTECNIA UEM/UNEMAT/CAPES

DZO4020 Delineamentos e Análise de Experimentos em Zootecnia

Prof. Dr. Elias Nunes Martins

2010
Nome da turma que realizaram o trabalho

Osvaldo Martins
Tatiani Botini
Marcia Matos
Herena Naoco
Edson Junior
Edson Eguchi
Marice Cristine
Samuel laudelino
Cristiano da Cruz
Mauricio Arantes
3

1. Aplicação dos Testes de Médias

Introdução

É fato que todo trabalho científico inicia a análise de seus dados através de uma esta-
tística descritiva que tende a culminar sempre com o teste de média, simplesmente pelo
fato que não há nenhum tratamento que o substitua, por mais que um tratamento possa
utilizar primeiramente a análise de variância, ou sugerir de imediato o estudo de modelos.
A explicação para tal fato está relacionado a necessidade de tomar decisões, onde a
partir das hipóteses, que na maioria das vezes tenta-se rejeitar, por este fato estas são
denominadas de hipóteses da nulidade H0, contudo admitindo-se que esta é verdadeira,
esta torna a ser rejeitada em favor de outra, denominada de hipótese alternativa (H1), este
processo de aceitação ou rejeição de hipótese só é possível com base nos testes de hipóteses
ou testes de significância (Banzatto & Kronka, 1995).
Contudo segundo Sampaio (2010) a eleição de um teste pelo pesquisador deve contem-
plar aquele cujas conclusões advindas de seu uso sejam menos sujeitas a erros tidos como
indesejáveis, e esta é uma análise que poucos pesquisadores fazem e se quer compreendem
ao fazer a escolha do teste, tanto que Cardellino e Siewerdt (1992) e Bertoldo et al (2008) já
comprovaram isto estatisticamente através da revisão de artigos publicados em periódicos
Qualis nacional onde avaliaram a correta aplicação dos testes de comparação de médias e
concluiram que existe dificuldade na escolha do teste em relação ao tipo de fator experi-
mental estudado, sendo os que utilizam mais de um fator são os que mais apresentaram
erro na escolha do procedimento.
A dificuldade na aplicação do teste sempre decorre da falta de compreensão da situação
que conduzirá a comparação dos valores médios. Segundo Sampaio (2010) dois aspectos
são essenciais para a escolha do teste adequado:
• O primeiro refere-se à caracterização da resposta a ser medida (variável alvo) quanto
à sua natureza (qualitativa ou quantitativa), à sua distribuição (normal ou não), à sua
continuidade (contínua ou discreta) e à sua instabilidade (muito ou pouco instável)
• A segunda está ligada à percepção do anterior, onde após a utilização de um teste na
comparação de médias, existem dois tipos de erro reconhecidos pela teoria estatística: erro
tipo I (atribuir uma significância quando ela realmente não existir) e o erro tipo II (atribuir
4

uma equivalência quando realmente houver uma diferença significativa).


Com base nos pontos elencados por Sampaio (2001) verifica-se que a estatística con-
vencional é construída para se resguardar do erro tipo I contudo estes nem sempre são os
mais custosos, tal como destaca Magnusson e Mourão (2005) onde para uma amostra de
determinado tamanho, a probabilidade de se cometer o erro tipo II é inversamente pro-
porcional à probabilidade de se cometer o erro do tipo I, por isso muitos cientistas usam
níveis de significância muito maiores do que 0,05 quando o erro tipo II envolve um custo
alto, principalmente na área da saúde humana, contudo em outras áreas da ciência muitos
profissionais estão prontos para aceitá-lo. Verifica-se que esses dois tipos de erros estão
de tal forma associados que, se diminuirmos a probabilidade de ocorrência de um deles
automaticamente aumentamos a probalidade de ocorrência do outro (Banzatto & Kronka,
1995).
Deste modo a avaliação da importância do tipo de erro, principalmente o erro tipo II,
é um fator crucial para o desenvolvimento da pesquisa. E o procedimento adequado para
a discriminação da variação entre os tratamentos deve ser realizado de acordo com o fator
em estudo e o delineamento aplicado.
Portanto, este trabalho tem como objetivo apresentar os testes estatísticos de compara-
ção de média (teste F, teste t de Student, Teste de Student-Newman-Keuls, teste de Tukey,
Teste de Scheffé, teste de Duncan e teste de Dunnett) de acordo com a sua viabilidade e
os principais erros de aplicação.

Testes de Média

Tukey (1991) apresenta uma discussão filosófica sobre os testes de múltipla compara-
ção, de modo que o mesmo inicia questionando a questão básica de todo trabalho científico
"Are the effects of A and B different?"ou seja devemos rejeitar uma afirmação como total-
mente inadequada? Por isso Magnusson e Mourão (2005) citam o teste de Bonferroni para
corrigir a probabilidade de rejeitar a hipótese nula geral, de ausência de diferenças entre as
amostras, multiplicando a probabilidade de cada teste pelo número de testes realizados. O
problema do Bonferroni é que ele tende a aceitar a hipótese nula no caso de muitos testes
por ser conservativo. Uma alternativa seria o método de Holm, contudo este por sua vez
não leva em conta a correlação entre os resultados dos diferentes testes.
5

Outro pressuposto acerca dos testes a serem apresentados é que a média amostral
ou a diferença de médias amostrais, no caso de duas populações, tenham distribuição
aproximadamente normal. Para isso é necessário que a amostragem seja aleatória e com
boa aproximação para outras distribuições e suficientemente grande para representar o
universo da população (Andrade e Ogliari, 2007).
Antes de aprofundarmos nesta análise seguiremos para a apresentação dos testes de
média.

Teste F

O teste F foi formulado por George Snedecor, contudo este baseou-se na fundamentação
teórica de Ronald A. Fischer em 1924 e por isso o seu nome em homenagem a este, ou
pode ainda ser denominado como Razão de Variança, termo este dado pelo próprio Fisher,
contudo permaneceu a homenagem a ele. Este teste visa avaliar a variação da média de
uma determinada fonte em relação à variação individual, contudo o teste de F é adequado
quando a fonte sendo testada não é uma interação e se referir a apenas um grau de liberdade
(Banzatto & Kronka, 1995; Magnusson e Mourão, 2005; Sampaio, 2010).
As tabelas utilizadas para este teste (Anexo 1 e 2) são geralmente apresentadas ao
nível de 5% ou 1% de probabilidade e são apresentadas em função do grau de liberdade do
tratamento e do resíduo (Pimentel-Gomes e Garcia, 2002) .
Lima e Abreu (2000) apresentam este teste quanto a sua aplicação em relação às hipó-
teses sobre os efeitos dos tratamentos, ou seja, considerando-se sempre que:
• H0: Não existem diferenças entre os efeitos dos tratamentos
• H1: Existe, pelo menos, uma diferença entre os efeitos dos tratamentos.
Para tanto Lima e Abreu (2000) consideram que para o teste das hipóteses é necessário
que os dados experimentais satisfaçam algumas pressuposições
• Aesperança matemática do Quadrado Médio do Erro Experimental (QMErro) é σ 2 e,
para o Quadrado Médio de Tratamentos (QMTratamento) é Σ2 + k t2 , onde k é uma
P

constante e t2 representa o efeito do tratamento i. Isto significa que os Quadrados Médios


são estimativas de variâncias
• Se H0 for verdadeira, então o QMTratamentos e o QMErro serão estimativas do mesmo
parâmetros e, portanto, a razão entre eles deverá ser próxima de 1.
6

• Se H0 for falsa, as reais diferenças entre os tratamentos aumentarão o valor de SQTra-


tamentos mas não afetarão SQErro. Logo a razão entre QMTratamentos e QMErro será
maior que 1.
• A distribuição de probabilidade para a razão entre duas variância é conhecida como dis-
tribuição de F. A estatística Fc = QMTratamentos/QMErro tem distribuição de F com
(l-1) e (N-1) graus de liberdade.
Deste modo verifica-se que este teste tem realmente como finalidade comparar a estima-
tiva de variância, e segundo Banzatto e Kronka (1995) é definido como sendo o quociente
de duas estimativas de variância, s21 e s22 , supostas independentes e calculadas com n1 e
n2 graus de liberdade respectivamente. Por este fato como resultado sempre rejeitamos
uma hipótese e aceitamos a outra, caracterizando-o como um teste unilateral. Embora o
teste de F possa ser aplicado independentemente da análise de variância, é na análise de
variância dos delineamentos experimentais que ele encontra sua maior aplicação. Deste
modo os testes de comparação de médias servem como um complemento do teste F, para
detectar o que é diferente do que.

Comparação entre médias

Quando o resultado do teste de F da Análise de variância é significativo, demonstra-se


a existência de evidências para a não aceitação de H0 ao nível de α% de probabilidade e
que há um efeito diferenciado entre os tratamentos, com base nisso inicia-se a comparação
das médias, esta comparação também é apresentada como um contraste entre as médias
(Banzatto e Kronka, 1995; Lima e Abreu, 2000).
Banzatto e Kronka (1995) apresentam quatro maneiras para se realizar o contraste:
• Contraste de médias: decorrente de uma função linear e o pesquisador deve selecionar
os que sejam de maior interesse, visto que em função dos dados coletados pode-se ter um
número muito grande de contrastes, onde podem ser feitas comparações entre grupos ou
dentro dos grupos.
• Covariância de dois contrastes.
• Contrastes ortogonais: na prática a ortogonalidade entre dois contrastes indica uma
independência entre suas comparações, ou seja, a variação de um contraste é inteiramente
independente da variação do outro, deste modo a covariância entre eles é nula.
7

• Variância de um contrates
Dentre estes contrastes Pimentel-Gomes e Garcia (2002) destaca a importância do con-
traste ortogonal na utilização do teste t e na análise de variância, no ponto de vista prática,
a ortogonalidade indica que a variação de um contraste é inteiramente independente da
variação de outro qualquer que lhe seja ortogonal.
Segundo Corrêa, Silva e Torres (2008) a partir do interesse de se conhecer onde ocorrem
às diferenças entre as médias há duas alternativas a serem seguidas: na primeira os tra-
tamentos referem-se a níveis de variáveis quantitativas e neste caso os graus de liberdade
de tratamentos devem ser decompostos em efeitos lineares, quadráticos, cúbicos etc sobre
a variável resposta, visando estabelecer um relacionamento funcional entre a variável res-
posta e os níveis dos fatores; a segunda alternativa consiste na comparação das médias dos
tratamentos por meio de contrastes utilizando testes apropriados de comparação múltipla.
Não existe um teste melhor do que outro isto dependerá da forma que as médias serão
comparadas em razão da forma como os dados foram coletados, e convém lembrar que estes
testes devem ser vistos como um indicadores da realidade ao invés de uma solução exata
(Vieira, 2006).

Teste de Dunnett

Este teste deve ser aplicado quando o interesse é comparar as médias dos grupos trata-
dos apenas com a média do controle, indicando quais tratamentos são iguais ao controle e
tem recebido destaque em ensaios de melhoramento. Este é um teste semelhante ao teste t
de Student, exceto pelo valor de D, aqui ajustado para um maior número de tratamentos,
a utilização deste teste, é pouco freqüente dada a limitação que impede outras compara-
ções não contidas em suas condições iniciais (Banzatto e Kronka, 1995; Pimentel-Gomes e
Garcia, 2002; Vieira, 2006).
A Diferença mínima significativa (DMS)de Dunnett, segundo (Sampaio, 2001) é dada
por:

v
u
u X t
dmsDunnett 2
= D Se
t Ci2 /ri
i=1

• D é o valor encontrado na tabela de Dunnett (anexo 3) proposta em função dos


8

(t-1) graus de liberdade (t= número de tratamentos) e os graus de liberdade do resíduo


(relativos a σe2 )
• Se2 é a estimativa do quadrado médio do resíduo obtida da análise de variância.
• Ci é o coeficiente utilizado no contraste, para o tratamento i com ri repetições.
Quando todos os tratamentos têm igual número de observações Sampaio (2010) pro-
põem: r
2Se2
dmsDunnett = D
r
Esta é semelhante ao teste t de Student, exceto pelo valor de D, aqui ajustado para
um maior número de tratamentos.

Teste de Scheffé

Este teste segundo Vieira (2006) é um teste de comparações múltiplas porque pode ser
usado para comparar qualquer contraste de médias. O contraste caracteriza-se pelo fato
de a soma algébrica de seus coeficientes ser igual a zero e deste modo o teste de Scheffé
verifica se um contraste de médias é estatisticamente significante a determinado nível.

v
u
u t
X
dms(Schef f e) = t(t − 1)F.s2e Ci2 /ri
i=1

p
dms(Schef f e) = (t − 1)F.2s2e /r

Deste modo, o teste visando comparar qualquer contraste entre médias sob diferentes
números de observações por tratamento caracteriza-se por ser mais rigoroso do que Tukey,
mas mantendo-se também sujeito ao aumento do erro tipo II. Dificilmente apresentará
diferença significativa para comparação de apenas duas médias (Corrêa, Silva e Torres,
2008).
É um teste que só deve ser aplicado quando o teste F tiver dado resultado significativo
e deste pelo menos um dos contrastes entre tratamentos será significativo, mas este pode
ser muito complicado ou sem interesse prático, ou que nenhum dos contrastes entre duas
médias apenas seja significativo, contudo o mesmo permite julgar qualquer contraste, as-
sim de uso bem geral, ao contrário dos testes de Tukey e Duncan que são mais criteriosos
9

(Pimentel-Gomes e Garcia, 2002)

O teste t de Student

Embora os estudos iniciais da distribuição de t fossem encetados por Gosset em 1908,


o domínio, aplicação e divulgação deste teste deveu-se novamente a Fisher, em 1926. Este
é o teste mais antigo (Corrêa, Silva e Torres, 2008; Sampaio, 2010).
Banzatto e Kronka (1995) consideram que para a aplicação correta deste teste, devemos
considerar os seguintes requisitos básicos:
a) Os contrastes a serem testados devem ser ortogonais entre si;
b) Os contrastes devem ser estabelecidos antes de serem examinados os dados;
Deste modo semelhante ao teste de Scheffé este teste serve para confrontar médias ou
grupos de médias. A aplicação do teste tem como interesse verificar se a sua estimativa
difere significativamente de zero. Outra aplicação do teste t é na comparação de uma média
com um valor estabelecido. Independente da aplicação do teste, o valor da estatística t
deve ser comparado com os valores críticos de t, tabelados em função do número de graus
de liberdade associado à variância e do nível de significância do teste (Banzatto e Kronka,
1995).
Sampaio (2010) descreve que a existência de vários tratamento conduzirá a mesma
estima da variância do resíduo ( Se2 ) estimada pela análise de variância, mas a medida que
as médias se distanciarem umas das outras, haverá maior chance de ocorrência do erro tipo
I, e para retirar este risco deve-se colocar as médias em ordem decrescente e somente as
médias adjacentes podem ser comparadas sem o risco. Deste modo este teste não deveria ser
aplicado quando existisse um grande número de tratamentos, sendo sugerido pelo referido
autor que o número de tratamentos não ultrapasse quatro para a utilização deste teste.

A−B
t= p
(s2e /ra ) + (s2e /rb )
Do mesmo modo Pimentel-Gomes e Garcia (2002) destacam que o problema da dife-
rença mínima significativa (dms) no teste t é que ele freqüentemente é usado para testar
todos os contrastes entre duas médias do experimento, o que não é correto, pois contraria
10

as restrições impostas ao uso do teste t. Contudo os mesmos autores relatam que é possível
tolerar o uso deste teste para alguns contrastes, mesmo que não sejam ortogonais, desde
que seu número não exceda o número de graus de liberdade para tratamentos.
Deste modo Sampaio (2010) destaca que o etudo de respostas muito instáveis (CV>30%),
onde o erro tipo II é mais frequente, poderia se valer deste teste para então contrabalançar
tal probabilidade, com isso o valor da fierença mínima significativa seria:

s
s2e s2
dms(Student) = tglerro + e
rA rB

Teste de Student-Newman-Keuls (SNK)

Segundo Sampaio (2010) Newman em 1939 apresentou um teste que contornava os


inconvenientes do teste t para ensaios com mais de dois tratamentos, através do ajuste do
valor de t dependendo da distância entre as médias então ordenadas. Os valores tabelados
qi (t ajustado) diminuem com o aumento dos gl, mas aumentam com a distância entre as
médias corrigindo os excessos de erro tipo I. Deste modo, os valores de qi diminuem com
o aumento dos gl mas aumentam com a distância entre as médias, corrigindo os execessos
de erro tipo I. Com isso a diferença mínima significativa entre duas médias com distância
i entre elas e com igual número de repetições é:

r
see
dms(SN K = qi
r
Quando as médias comparadas A e B apresentarem diferente número de repetições a
diferença mínima significativa seria:

s
s2e
 
1 1
dms(SN K) = qi +
2 r A rB

Teste de Tukey
11

Sampaio (2010) relata que Tukey (1953) considerou muito trabalhoso o procedimento
proposto por Newman (1939), mas compactuava com a preocupação no controle do erro
tipo I. Tanto que o valor único proposto por Tukey coincide com o valor máximo do SNK,
ou seja, equivalente à comparação entre a maior e a menor média.

p
dms(T ukey) = q s2e /r

Vieira (2006) apresenta que este teste baseia-se em encontrar a diferença mínima entre
duas médias para que estas possam ser consideradas diferentes a determinado nível de
significância, esta diferença mínima significante é indicada pela letra grega ∆ (delta), mas
Tukey a chamou de diferença honestamente significante cuja sigla em inglês é HSD. De
acordo com este teste, duas médias são estatisticamente diferentes toda vez que o valor
absoluto da diferença entre elas for igual ou maior do que a diferença mínima significante,
ou seja, igual ou maior que o valor de delta
De outra maneira Pimentel-Gomes e Garcia (2002) apresentam o teste de Tukey ba-
seado na amplitude total estudentizada, ou seja o resultado da divisão de uma variável
aleatória pelo respectivo desvio padrão.
Segundo Banzatto e Kronka (1995) o teste de Tukey é muito versátil, mas que não
permite comparar grupos entre si. Outro fato a ser considerado para que o teste seja
exato, exige que todas as médias possuam o mesmo número de repetições, neste caso se
as duas médias confrontadas no contraste não possuírem o mesmo número de repetições,
podemos aplicar o teste de forma aproximada, calculado-se o valor da d.m.s. representada
por ∆.
O teste de Tukey desta maneira apresenta-se como um teste muito rigoroso e que
controla o erro tipo I, contudo fica sujeito a permitir o erro tipo II.
Todavia Sampaio (2010) considera que em um ensaio com muitos tratamentos e envol-
vendo uma variável muito instável (CV>25%) favorecerá sobremaneira o aparecimento do
erro tipo II, assim se as médias comparadas A e B tiverem diferente número de repetições,
apica-se a mesma fórmula da diferença mínima significativa de SNK.

Teste de Duncan
12

Este teste foi sugerido por Duncan em 1955 baseando-se na mesma argumentação do
teste de Student-Newman-Keuls, tentando reduzir as diferenças mínimas significativas im-
postas pelas comparações mais dramáticas. Neste teste os valores não sobem tão rapida-
mete quanto aqueles do teste Student-Newman-Keuls, controlando assim o aparecimento
do erro tipo II na comparação de médias mais afastadas (Sampaio, 2010).

r
s2e
dms(Duncan) = qi
r

Este é um teste que fornece resultados mais discriminados que os do teste de Tukey,
sendo menos rigorosos que ele, mas de aplicação mais trabalhosa visto que exige que as
médias sejam colocadas em ordem decrescente e que todas elas possuam o mesmo número
de repetições. É aplicado ao nível de 5% de probabilidade e é um teste que baseia-se
na amplitude total mínima significativa(Di) (Banzatto e Kronka, 1995; Pimentel-Gomes e
Garcia, 2002).
Segundo Pimentel-Gomes e Garcia (2002) para uso deste teste são necessárias tabelas
especiais da variável aleatória z, uma ao nível de 5% e outra a 1% de probabilidade.
Corrêa, Silva e Torres (2008) fazem as seguintes considerações sobre o teste de Duncan:
discrimina mais que o teste de Tukey; quando a maior média não diferir significativamente
da menor, pelo teste Duncan, não se admitirão diferenças significativas, pelo mesmo teste,
entre as médias intermediárias; é indicado para experimentos com número de tratamento
acima de 4, e para variáveis com CV ≥ 30%, que estão mais sujeitas ao erro tipo II. Assim
se as médias comparadas A e B contiverem diferente número de repetições a dms seria:

s
s2e
 
1 1
dms(Duncan) = qi +
2 rA rB

Teste de Bonferroni

Segundo Pimentel-Gomes e Garcia (2002) o teste de Bonferroni é um aperfeiçoamento


do teste t, cujas modificações visam afastar as restrições feitas ao uso do teste t e dar
13

mais liberdade de escolha dos contrastes. Deste modo este teste é considerado um meio-
termo entre esses dois extremos e presta bons serviços quando não é grande o número de
contrastes a que se aplica.
Corrêa, Silva e Torres (2008) aplicam este teste quando se tem interesse em realizar
pequeno número de comparação de médias e os contrastes não são ortogonais, sendo este
de maior potência comparado à maioria dos procedimentos de comparação de médias, após
o conhecimento dos dados.
Assim o teste de Bonferroni é semelhante ao teste t e é definido por:

q¯k
TB = q P
t 2

i=1 cik /ri QM E

Teste de Conagin

Este é um teste recente segundo Pimentel-Gomes e Garcia (2002)tendo sido publicado


por Armando Conagin em 2001, que o denominou de Bonferroni Modificado, demonstrado
por simulação em computador. Consiste na aplicação do teste t, ao nível α de probabili-
0
dade, com valores de t correspondentes à probabilidade α = α/k, onde k é o número de
contrastes escolhidos previamente para estudo. O mesmo parte de uma análise da variân-
cia relativa a ensaio de tratamentos qualitativos, em blocos ao acaso, que tenha dado um
valor F0 , significativo ao nível de 5%, quando comparado ao valor Fc da tabela F, ou seja,
o mesmo substitui então a probabilidade α de Bonferroni por uma probabilidade mais alta
δBM (BM = Bonferroni Modificado).

α
δBM = [1 + P (F )]
k
Onde P(F) é dado pela tabela de Conagin, resultante do quociente F0 /Fc e do nú-
mero (r) de repetições do experimento. Conagin aplica esta probabilidade unicamente
a contrastes entre duas médias, mas poderia ser aplicado a contrastes mais complexos
(Pimentel-Gomes e Garcia, 2002).
14

A escolha do teste

Todos os procedimentos para a comparação de médias exigem o cálculo do quadrado


médio do resíduo da análise de variância, deste modo é obrigatória a análise de variância
bem como por ela fornecer o valor de F, que permite decidir se as médias são ou não, iguais,
a determinado nível de significância, e assim segundo Vieira (2006) cabe ao pesquisador
optar por um dos seguintes procedimentos:
a) Comparar as médias somente se o valor de F for significante a determinado nível,
com isso o método usado para a comparação de médias é dito protegido;
b) Comparar as médias qualquer que seja o resultado do teste F, neste caso o método
é dito não protegido.
Considerando estes procedimentos os testes de Tukey e Dunnett por suas características
podem ser aplicados sem proteção, enquanto que o teste de Scheffé deve ser protegido.
Outro ponto a ser considerado segundo Vieira (2006) é o nível de significância de um
teste, e com isso deve-se destacar que alguns testes controlam o nível de significância para
experimentos (experimentwise), outros controlam o nível de significância para a compara-
ção de médias (comparisonwise: Tukey, Dunnett e Scheffé), isto é de muita importância
quando o número de tratamento é grande.
Avaliando esta questão Corrêa, Silva e Torres (2008) apresentam a tabela 1 com os
critérios para a escolha do teste com base no número de tratamento bem semelhante a
discussão feita por Sampaio (2010) e o Quadro 1 (ANEXO) que resume as características
de cada teste, indicação de uso e seus possíveis inconvenientes.

Tabela 1: Condições a serem consideradas para a escolha do teste de média.


Condições Número de tratamentos Teste a ser adotado
CV≥30 Se até 5 tratamentos T Student
Mais de 5 tratamentos Duncan
CV≤15 Se até 5 tratamentos SNK, Tukey ou Scheffé
Mais de 5 tratamentos SNK ou Tukey
15 < CV <30 Se até 5 tratamentos T Student
Mais de 5 tratamentos Duncan ou SNK
15

Figura 1: Definição da escolha do teste com base no tipo de contraste (adaptado de Ban-
zatto e Kronka, 1995)

Deste modo o nível de significância e a rigorosidade dos testes torna-se por fim um crité-
rio para a escolha onde os testes de SNK, Tukey, Dunnett, Scheffé e Bonferroni destacam-se
como os mais rigorosos e consequentemente sujeitos ao erro tipo II, enquanto que os testes
de Duncan e t Student, com menor sensibilidade podem espelhar o erro tipo I.

2.Tamanho da Amostra

Introdução

Se o pesquisador trabalha com todo o grupo que ele tenta compreender, dizemos que
está trabalhando com a população. A população consiste em um conjunto de indivíduos
que compartilham de, pelo menos, uma característica comum, seja ela cidadania, filiação
a uma associação de voluntários, etnia, matrícula na universidade, etc. Entretanto, o
pesquisador trabalha com tempo, energia e recursos econômicos limitados. Portanto, são
16

raras as vezes em que pode trabalhar com todos os elementos da população. Geralmente,
o pesquisador estuda um pequeno grupo de indivíduos retirados da população. Este grupo
denomina-se amostra (Levin, 1987).
Amostra é um subconjunto de indivíduos extraídos de uma população. O processo de
escolha dos indivíduos que pertencerão a uma amostra, é denominado de amostragem.
A utilização de técnicas de amostragem se faz necessária quando, por questões práticas
e principalmente econômicas, é impossível (ou quase) estudar toda uma população.

Métodos de Amostragem

Há diversos métodos de amostragem. Para o pesquisador social, interessam os métodos


que permitem que qualquer indivíduo da população possa vir a fazer parte da amostra.
Estes métodos de amostragem são denominados probalísticos.
A amostragem probabilista tem as seguintes propriedades:
a) Cada unidade da população objetivo tem uma probabilidade conhecida de ser sele-
cionada para a amostra;
b) A amostra é extraída por algum método de seleção consistente com essas probabili-
dades;
c) Podem ser derivadas inferências objetivas para a população objetivo por procedi-
mentos estatísticos que levem em conta essas probabilidades de seleção.
Delineamentos de amostragem probabilista também são convenientes por possibilitarem
a determinação do erro de amostragem, ou seja, do grau em que a população amostrada
difere da população objetivo. Essa informação permite a avaliação, objetiva da represen-
tatividade da amostra.
Delineamentos de amostragem não probabilista não possibilitam essa avaliação. Os
delineamentos de amostragem probabilista mais usuais são os seguintes:

Amostragem Aleatória Simples

O processo de amostragem aleatória simples é a forma mais pura de amostragem ale-


atória: as unidades da amostra são escolhidas aleatoriamente da população objetivo sem
17

qualquer restrição. Um delineamento de amostragem aleatória simples consiste em sele-


cionar as unidades da população objetivo de modo irrestrito e tal que todas as unidades
tenham probabilidade igual de constituir a amostra. Equivalentemente, um delineamento
de amostragem aleatória simples de tamanho n consiste em selecionar a amostra com a
propriedade de que todos os subconjuntos de n unidades da população objetivo tenham a
mesma probabilidade de seleção.

Amostragem Aleatória Estratificada

Um processo de amostragem apropriado para constituir uma amostra representativa de


uma população objetivo que compreende grupos de unidades consideravelmente heterogê-
neos pode ser a escolha aleatória e independente de um subconjunto de unidades de cada
um desses grupos, que são denominados estratos
Um delineamento de amostragem aleatória estratificada de tamanho n consiste em
classificar as unidades da população objetivo em k grupos (estratos) e, então, seleci-
onar uma amostra aleatória simples de tamanho ni do i-ésimo estrato, de modo que
n1 + n2 + · · · + nk = n

Amostragem Aleatória por Conclomerados

Quando o tamanho da população objetivo é muito grande, o levantamento por amos-


tragem aleatória pode tornar-se mais fácil e conveniente quanto à preparação, custo e
administração quando as unidades constituem grupos naturais relativamente homogêneos.
Nessas circunstâncias, um processo de amostragem apropriado para constituir uma amos-
tra representativa pode compreender a seleção aleatória de um subconjunto desses grupos,
usualmente designados de conglomerados, em vez de um subconjunto de unidades indivi-
duais:
Um delineamento de amostragem aleatória por conglomerados consiste em classificar as
unidades da população objetivo em grupos (conglomerados) e, então, extrair uma amostra
aleatória simples dos conglomerados.
18

A amostra pode ser constituída de todas as unidades dos conglomerados selecionados


ou de uma amostra aleatória simples de cada um desses conglomerados.
Nesse último caso, pode ser adotada alocação igual ou alocação proporcional aos tama-
nhos dos conglomerados. A alocação proporcional é mais freqüentemente utilizada. Muito
freqüentemente, os conglomerados compreendem unidades geograficamente próximas e são
áreas correspondentes a divisões de uma região que constitui a população objetivo. Nessas
circunstâncias, o delineamento é usualmente designado de amostragem aleatória por área.

Amostragem Aleatória Estratificada por Conglomerados

Em algumas situações pode ser conveniente um delineamento misto de amostragem


aleatória estratificada e amostragem aleatória por conglomerados:
Em um delineamento de amostragem aleatória estratificada e por conglomerados a po-
pulação objetivo é dividida em grupos (estratos); cada um desses grupos é subdividido em
subgrupos (conglomerados); de cada um dos extratos é extraída uma amostra aleatória
simples de conglomerados; então, de cada conglomerado (de cada estrato) é selecionado
aleatoriamente um subconjunto de unidades por algum critério apropriado.

Amostragem Aleatória em Estágios

Na amostragem aleatória em estágios, o delineamento de amostragem aleatória es-


tratificada e por conglomerados é um delineamento de amostragem em dois estágios: o
primeiro estágio consiste na amostragem aleatória simples dos conglomerados dentro de
cada estrato; o segundo estágio, na amostragem aleatória das unidades de cada conglo-
merado selecionado no primeiro estágio. Essa idéia de amostragem em estágios pode ser
convenientemente estendida para situações de populações muito grandes e complexas.

Amostragem Aleatória Sistemática

A amostragem aleatória sistemática é um processo de amostragem probabilistica uti-


lizado com alguma freqüência quando é possível listar ou ordenar todas as unidades da
19

população objetivo. Um delineamento de amostragem aleatória sistemática de tamanho


n de uma população de tamanho N consiste em escolher aleatoriamente uma unidade do
subconjunto das primeiras k = [N/n] unidades, seja a c-ésima unidade, e, então, tomar
cada uma das k-ésimas unidades a partir desta, de modo que a amostra resulta constituída
pelas unidades da população objetivo de ordens c, c+k, c+2k,· · · r, denota o maior número
inteiro que não supera o número racional r. Neste delineamento a escolha aleatória da pri-
meira unidade da amostra determina toda a amostra. Em particular, para selecionar uma
amostra aleatória de p% (p inteiro positivo) das N unidades de uma população objetivo,
escolhe-se aleatoriamente um número do conjunto dos números inteiros 1, 2, ..., p, seja c,
e, então, toma-se cada uma das p-ésimas unidades a partir de c, ou seja, as unidades c,
c+p, c+2p, e assim sucessivamente.

Amostragem Aleatória Múltipla

Em algumas circunstâncias pode ser conveniente proceder à seleção das unidades para a
amostra por etapas. Em um delineamento de amostragem múltipla a amostra é constituída
por unidades que são selecionadas da população objetivo em etapas sucessivas. Dependendo
dos resultados observados em cada etapa, podem ser dispensadas etapas subseqüentes. Esse
processo de amostragem é freqüentemente empregado em inspeção por amostragem para
teste ou controle de qualidade de produtos.
Não há dúvida de que uma amostra não representa perfeitamente uma população.
Ou seja, a utilização de uma amostra implica na aceitação de uma margem de erro que
denominaremos erro amostral.
O Erro Amostral é a diferença entre um resultado amostral e o verdadeiro resultado
populacional; tais erros resultam de flutuações amostrais aleatórias. Ocorrem erros não-
amostrais quando:
Os dados amostrais são coletados, registrados ou analisados incorretamente.
Há uma utilização de um instrumento defeituoso durante a realização de mensurações.
Questionário ou formulário possui questões formuladas de modo tendencioso [Triola,
1999].
Não podemos evitar a ocorrência do erro amostral, porém podemos limitar seu valor
20

através da escolha de uma amostra de tamanho adequado. Obviamente, o erro amostral e


o tamanho da amostra seguem sentidos contrários.
Obviamente, o erro amostral e o tamanho da amostra seguem sentidos contrários (Fi-
gura 1). Quanto maior o tamanho da amostra, menor o erro cometido e vice-versa.

Figura 2: Relação intuitiva entre o tamanho da amostra e o erro amostral.

Determinação do Tamanho de uma Amostra com Base na Estimativa


da Média Populacional

Um estimador é uma estatística amostral (como a média amostral ) utilizada para obter
uma aproximação de um parâmetro populacional.
Uma estimativa é uma valor específico, ou um intervalo de valores, usado para apro-
ximar um parâmetro populacional. Há duas razões importantes que explicam por que a
media amostral é um melhor estimador de uma media populacional µ, do que quaisquer
outros estimadores, como a mediana ou a moda.
1 Para muitas populações, a distribuição das medias amostrais tendem a ser mais
consistente (apresentar menor variação) do que as de outras estatísticas amostrais.
2 Para todas as populações, dizemos que a media amostral um estimador não ten-
dencioso da media populacional , o que significa que a distribuição das medias amostrais
21

tendem a centrar-se em torno da media populacional µ , (não tende a sobreestimam nem


subestimam o valor de µ ).
Como a média amostral é um valor único que corresponde a um ponto na escala nu-
mérica, a denominamos de uma estimativa pontual. Devido ao fato de não possuirmos
qualquer indicação sobre quão boa é a estimativa pontual, os estatísticos desenvolveram
outro tipo de estimativa que indica quão boa é uma estimativa pontual. Essa estimativa
chamada Intervalo de Confiança ou estimativa intervalar, consiste em uma amplitude (ou
um intervalo) de valores, em lugar de um único valor que tem probabilidade de conter o
verdadeiro valor do parâmetro populacional.
O grau de confiança é assim uma medida de nossa certeza de que o intervalo contenha
o parâmetro populacional. A definição de grau de confiança utiliza α (alfa) para descrever
uma probabilidade que corresponde a uma área. Essa probabilidade α está dividida entre
as duas regiões extremas (caudas) na distribuição normal padronizada (figura 2).

Figura 3: A distribuição normal padronizada: o valor crítico

O grau de confiança é a probabilidade 1-α (comumente expressa como o valor percentual


equivalente ) de o intervalo de confiança conter o verdadeiro parâmetro populacional. O
grau de confiança é também chamado nível de confiança, ou coeficiente de confiança.
São escolhas comuns para o grau de confiança: 90% (com α=0,10), 95% (com α=0,05)
22

e 99% (com α=0,01). A opção mais comum é 95% porque proporciona bom equilíbrio entre
a precisão (refletiva na Amplitude do intervalo de confiança) e a confiabilidade (expressa
pelo grau de confiança).
Pelo Teorema Central do Limite, sabemos que as medias amostrais x̄ tendem a distribuir-
se normalmente, apresentando uma chance relativamente pequena de estar em uma das
α
caudas extremas da figura 2. Denotado por 2 a área sombreada de cada cauda, vemos
que há uma probabilidade total α da média amostral estar em uma das duas caudas. Pela
regra do complemento decorre que há uma probabilidade (1-α) de uma media amostral
estar na região não sombreada da figura 2. O escore Z que separa a região da cauda di-
reita é denotada por Z α2 e é chamado de valor critico porque está na fronteira que separa
as médias amostrais passíveis de ocorrerem, das médias amostrais que provavelmente não
ocorrerão.
Os valores críticos mais comuns são:

Grau de confiança α Valor Critico Z α2


90% 0,10 1,645
95% 0,05 1,96
99% 0,01 2,575

Quando coletamos um conjunto de dados amostrais para estimar uma media popula-
cional µ, a margem de erro, denotada por E ou  (epslom) é a diferença máxima provável
(com probabilidade 1-α) entre a media amostral observada e a verdadeira media popula-
cional µ. A margem de erro E é chamada também erro máximo de estimativa e pode ser
obtida multiplicando-se o valor critico pelo desvio padrão das medias amostrais, conforme
formula abaixo:

σ
E = Z α2 √ (1)
n

O calculo da margem de erro E, exige o conhecimento do desvio padrão populacional


σ, mas, na realidade, é raro conhecermos σquando a media populacional não é conhecida.
É comum o método seguinte:
a) se n > 30, podemos substituir σ na formula anterior pelo desvio padrão amostral s.
23

b) se n ≤ 30, a população deve ter distribuição normal, e devemos conhecerσ para


aplicar a formula.
Com base na definição da margem de erro E, podem, os agora identificar o intervalo
de confiança para a média populacional µ.

σ
x̄ − E < µ < x̄ + E onde E = Z α2 √ (2)
n

Os valores x̄ -E e x̄ + E são chamados limites do intervalo de confiança. Processo de


construção de um intervalo de confiança para
µ, (para n > 30).
1. Determinar o valor crítico Z α2 2 correspondente ao grau de confiança desejado.
2. Calcular a margem de erro, E = Z α2 √σn . Se o desvio padrão populacional σ não é
conhecido, utilizar o desvio padrão amostral s, desde que n > 30.
3. Com o valor calculado da margem de erro E e o valor da media amostral , calcular
os limites x̄ -E e x̄ + E.
4. Arredondar os resultados de acordos com a regra seguinte:
a) quando utilizar o conjunto original de dados para construir um intervalo de confiança,
arredondar os limites do intervalo para uma casa decimal além das usadas naquele conjunto.
b) quando o conjunto original de dados é desconhecido, utilizando-se apenas as esta-
tísticas resumos (n,x̄ ,s), arredondar os limites do intervalo de confiança para o mesmo
número de casas decimais utilizadas na média amostral.
Abordamos até o momento como encontrar estimativas pontuais e estimativas inter-
valares para uma média populacional . Suponhamos que ainda não tenhamos coletados
os dados. Como saberemos quantos elementos da população devem ser escolhidos? A
determinação do tamanho de uma amostra é problema de grande importância, porque:
amostras desnecessariamente grandes acarretam desperdício de tempo e de dinheiro, e
amostras excessivamente pequenas podem levar a resultados não confiáveis.
Em muitos casos é possível determinar o tamanho mínimo de uma amostra para estimar
um parâmetro estatístico, como por exemplo, a média populacional µ. A fórmula para
cálculo do tamanho da amostra para uma estimativa confiável da média populacional µ
parte da expressão da margem de erro E é dada por:
24

2
Z α2 σ

n= (3)
E
Onde:
n = Número de indivíduos na amostra
Z α2 = Valor crítico que corresponde ao grau de confiança desejado.
σ = Desvio-padrão populacional da variável estudada.
E = Margem de erro ou erro máximo de estimativa, identifica a diferença máxima entre
a média amostral x̄ e a verdadeira média populacional µ.
Ao determinar o tamanho da amostra n, da equação (2) nem sempre se conduz a um
número inteiro, neste caso sempre aumente o valor de n para o próximo inteiro.
A formula deve ser usado quando conhecemos o valor do σ e queremos determinar o
tamanho da amostra necessária para estabelecer, com um nível de confiança de 1-α, o valor
da média a menos de ±E. Em geral não se conhece o σ sem conhecer a µ, mas o valor do σ
pode ser conhecido de um estudo anterior, ou pode ser estimado com base em um estudo
piloto ou uma regra empírica.
E se o desvio padrão σ não for conhecido?
A Equação 2 exige que se substitua por algum valor o desvio-padrão populacional
σ, mas se este for desconhecido, devemos poder utilizar um valor preliminar obtido por
processos como os que se seguem:
1 Utilizar a aproximação: σ correspondente a amplitude/4.
2 Realizar um estudo piloto, iniciando o processo de amostragem. Com base na pri-
meira coleção de pelo menos 31 valores amostrais selecionados aleatoriamente, calcular o
desvio-padrão amostral S e utilizá-lo em lugar de σ. Este valor pode ser refinado com a
obtenção de mais dados amostrais.

Estimativa de uma Média Populacional: Pequenas Amostras

Em primeiro lugar, no caso de pequenas amostras, n ≤ 30, a média amostral x̄ é


a melhor estimativa pontual da média populacional µ . E em segundo lugar, podem-
se construir intervalos de confiança para pequenas amostras utilizando-se a distribuição
25

normal com a mesma margem de erro da seção precedente, desde que a população original
tenha distribuição normal e que se conheça o desvio padrão populacional µ.

x̄ − µ
t= (4)
√S
n

O número de graus de liberdade para um conjunto de dados corresponde ao numero de


valores que podem variar após terem sido impostas certas restrições a todos os valores. A
margem de erros para a estimativa de µ (com base em uma amostra pequena (n ≤ 30) e
σ desconhecido): , onde E = t α2 √Sn tem n-1 graus de liberdade.
O intervalo de confiança para a estimativa µ (com base em uma amostra pequena n ≤
30 e σ desconhecido): E = x̄ - E < µ < x̄ - E, onde E = t α2 √σn

Estimativa de uma Proporção Populaciona

Enfatizemos a proporção populacional p (proporção, probabilidade, equivalente decimal


x
de uma porcentagem e p̂ (p chapéu) que é p̂ = n proporção amostral de x sucessos em uma
amostra de tamanho n. Também q̂ = 1 − p̂.
A estimativa pontual da proporção amostral p̂ é a melhor estimativa pontual da pro-
porção populacional p.
q
p̂ q̂
A margem de erros para a estimativa de p: E = Z α
2 n

O intervalo de confiança para a proporção populacional p.

r
p̂ q̂
p̂ − E < p < p̂ + E onde E = Z α2 (5)
n
Para determinação do tamanho da amostra, quando desejamos achar o valor apro-
ximado de uma proporção populacional, partimos da expressão da margem de erro E e
resolvemos em relação a n como nos outros casos: Quando se conhece uma estimativa p̂ :

Z 2α p̂q̂
2
n= (6)
E2
Quando não se conhece uma estimativa de p̂ , substituímos p̂ por 0,50 e q̂ por 0,50:

Z 2α 0, 25
2
n= (7)
E2
26

Onde:
n = Número de indivíduos na amostra
Z α2 = Valor crítico que corresponde ao grau de confiança desejado.
p̂ = Proporção populacional de indivíduos que pertence a categoria que estamos interessa-
dos em estudar (amostrar).
q̂ = proporção populacional de indivíduos que não pertence à categoria que estamos inte-
ressados em estudar (q̂ = 1 − p̂ ).
E = margem de erro ou erro máximo de estimativa. identifica a diferença máxima entre a
proporção amostral e a verdadeira proporção populacional (p).

Tamanho de Amostra e Número de Repetições em Experimentação


Agropecuária

Na maioria dos estudos com o milho, os principais caracteres de produtividade e de


qualidade de grãos são avaliados por meio de amostragens nas parcelas experimentais. É
sabido que quanto maior o tamanho de amostra, maior a precisão amostral e experimental
e, conseqüentemente, o coeficiente de variação tende a diminuir. Isso acontece porque um
aumento do tamanho da amostra (n) reduz a variância da média amostral Sx̄2 desde que a
S2
variância amostral S 2 permaneça constante, pois = Sx̄2 = n .

Delineamento Experimental

Segundo Catapatti et al.,2008, para avaliar caracteres de pré-colheita de milho pipoca,


podem ser adotadas amostras de 5 a 25 plantas parcela−1 , sem afetar a precisão experimen-
tal. Com o aumento do número de repetições houve aumento na quantidade de caracteres
significativos a 1% de probabilidade, para o efeito de genótipos. Houve maior quantidade
de diferenças significativas entre médias de genótipos, para os caracteres de pré-colheita e
produtividade, nos números de repetições acima de quatro. Assim podem ser amostradas
cinco plantas na parcela, e utilizar quatro repetições.
27

3.Análise de Regressão Linear

Introdução

A teoria da Regressão trabalha com modelos matemáticos, onde a relação entre as


variáveis que o compõem são controláveis, tornando-se assim um sistema fechada. Contudo,
em sistemas biológicos existem variáveis que são desconhecidas ou que não podem ser
determinadas e destee modo não fazem parte do modelo, que passa então a ser um sistema
aberto. Por isso os resultados obtidos serão aproximações cujo erro irá depender da maior
ou menor capacidade que as variáveis selecionadas como fatores tiverem com relação a
explicar o comportamento da variável objetivo (Arango, 2001).
O objetivo principal da análise de regressão é predizer o valor da variável dependente
Y dado que seja conhecido o valor da variável independente X.
A equação de regressão é a fórmula algébrica pela qual se determina Y.
A Análise de Regressão Simples diz respeito à predição de Y por uma única variável
X.
A Análise de Regressão Múltipla diz respeito à predição de Y por mais de uma variável
X ( x1, x2,· · · ,etc).
As hipóteses gerais são:
• Y é uma variável aleatória obtida de uma amostra;
• Y e X estão associadas linearmente;
• homocedasticidade - as variâncias das distribuições condicionais de Y dado X são
todas iguais.
Se em conjunto com a análise de regressão, utiliza-se a estimação por intervalo, é ne-
cessária a hipótese de que as distribuições condicionais de Y dado X são todas distribuídas
normalmente para os valores da população.

Diagrama de dispersão
28

É um gráfico no qual cada ponto representa um par de valores (x;y). Os valores de X


são colocados no eixo horizontal e Y no vertical.
Transformação Linear - se a relação ente X e Y for curvilínea, usa-se logaritmos para
transforma-la em linear e aplicar a Análise de Regressão Linear. Para voltar à escala
original usa-se o antilogarítmo.
Se o diagrama indica uma relação linear, então ajusta-se aos dados uma linha que seja
a melhor função ajustada.
A localização precisa desta linha é determinada pelo Método dos Mínimos Quadrados
(MMQ).
Exemplos de diagramas de dispersão:

Método dos Mínimos Quadrados (MMQ)

O princípio geral do Método de Mínimos Quadrados segundo Arango (2001) consiste


em minimizar o quadrado da soma das distâncias entre os valores das ordenadas correspon-
dentes às observações (valores reais) e das ordenadas correspondentes ao modelo (função)
proposto (valores estimados), o resultado é a máxima aproximação possível entre a reali-
dade e o modelo matemático que pretende imitá-la.
A fórmula geral na população é

y = α + βx + 

onde
y = Dados observados
α = Coeficiente linear ou intercepto-Y;
β = Coeficiente angular;
 = Variações aleatórias.
A fórmula geral na amostra é

Ŷ = a + bx

onde
a= estimador do coeficiente linear;
29

b= estimador do coeficiente angular;


Pelo MMQ, a reta resultante tem duas características importantes:
• A soma dos desvios verticais dos pontos em relação a reta é zero.
• A soma dos quadrados desses desvios é mínima.
As fórmulas de cálculo para a e b são:

SXY
b=
SXX

onde

P P
X X Y
SXY = XY −
n

( X)2
X P
2
SXX = X −
n

a = Ȳ − b.X̄

( Y )2
X P
2
SY Y = Y −
n

A estimação de Y deve ser feita apenas dentro do intervalo de variação de X original-


mente amostrado. A equação fornece a base de uma estimativa por ponto.

Segundo Downing e Clark (2005) antes de começar a fazer predições, deve-se atentar
para várias advertências importantes:
• Qualquer predição baseada em um modelo de regressão é uma predição condicional
, pois a predição da variável dependente está sujeita ao valor da variável independente.
Suponha que tenhamos encontrado uma expressão que descreva perfeitamente bem a re-
lação entre x e y. Nesse caso, é possível predizer valores futuros de y se (mas somente se)
conhecermos o valor futuro de x.
• A reta de regressão foi estimada utilizando-se dados passados. Essa reta não poderá
predizer dados futuros se a relação entre x e y se modificar.
30

• Muitas predições de regressão procuram prever valores de y em situações em que o


valor de x está fora do intervalo de valores de x observados anteriormente. Neste caso,
estas predições são menos confiáveis.
Do mesmo modo deve-se considerar que o simples fato de existir uma forte associação
entre duas variáveis não significa que haja entre elas uma relação de causa e efeito.

Erro Padrão de Estimação (predição) e Intervalos de Predição

O erro padrão de estimação é um desvio-padrão condicional, na medida em que indica


o desvio-padrão da variável Y dado um valor específico de X. O erro padrão de estimação
é

sP 
y − Ȳ
σ̂ =
n−2
Divide-se por n − 2 pois perde-se dois graus de liberdade com as estimativas de α e β.
Fórmula alternativa:

rP
y2 + a y2 − b
P P
x.y
σ̄ =
n−2
Para construir um intervalo de predição para Y dado X, usa-se σ̂ e duas hipóteses
básicas:
• a dispersão de y é a mesma em todos os pontos da reta;
• a cada ponto, os valores de y são normalmente distribuídos em relação à reta de
regressão.

Intervalos de Predição para a Variável Dependente Y

h i
Ŷ ± tn−2;α/2 .σ̂

Intervalo de Predição para a declividade β

O erro-padrão de b é:

σ̂
σ̂b = pP
x2 − nX̄ 2
31

O parâmetro β pode ser estimado através do intervalo de predição.

 
b ± tn−2;α/2 .σ̂b

Se o valor zero estiver no intervalo, não há declividade.

Teste de Hipótese para β

H0 : β = β0

H1 : β 6= β0 ouβ > β0 ouβ < β0

b − β0
tc = ∼ tn−2gl
σ̂b

Predição de Valores da Variável Dependente

Para utilizar o modelo de regressão para predizer valores de y Downing e Clark (2005)
apresentam o seguinte exemplo, suponha que se tenha determinado que x efetivamente
causa y, que esse relacionamento ainda seja válido no futuro, e que possa ser descrito
com precisão pela reta de regressão y = 2, 905x + 14, 577 sabe-se que o valor de y será
2, 905x16 + 14, 577 = 61, 06.
A próxima questão é: quão precisa é essa predição? Com o objetivo de construir um
intervalo que tivesse 95% de chance de conter o valor de y (dado que x = 16).Esse tipo
de intervalo é chamado intervalo de predição. Note sua semelhança com os intervalos
de confiança estabelecidos para parâmetros desconhecidos. Supondo que se conheça os
verdadeiros valores de m, b e σ. Então, se x = xnovo , sabemos que y tem distribuição
normal com média ŷ = mxnovo + b e variância σ 2 . Assim, há 95% de chance de o valor de
y estar entre [(mxnovo + b) − 1, 96σ] e [(mxnovo + b)1, 96σ].
Contudo, neste caso, as coisas pioram consideravelmente, porque desconhecemos os
verdadeiros valores de m, b e σ, ao mesmo tempo, existem duas fontes de incerteza envol-
vidas na predição de valores de y: não se conhece a verdadeira reta de regressão, e o valor
32

predito de u apresentará um desvio aleatório em relação à reta. Com base nisto a fórmula
da variância estimada de y, para um dado valor de x, é:

" #
1 (xnovo − x̄)2
V ar(y)EQM 1 = + P
n (xi − x̄)2
Observe que a variância aumenta quando o valor de xnovo está mais próximo de x̄,
temos mais confiança em que nossa reta de regressão estimada esteja próxima da verdadeira
reta de regressão. Entretanto, se a estimativa do coeficiente angular da reta é ligeiramente
diferente do verdadeiro valor, então essa diferença fará com que a reta de regressão estimada
se afaste mais e mais da verdadeira reta, quando nos distanciamos de x̄.
Quando x toma o valor xnovo , e calculamos ŷxnovo = m̂xnovo + b̂ e Var(y) com a fórmula
acima, então o intervalo de predição para y é:

p
ŷnovo ± a V ar (y)

em que:
P r(−a < t < a) = N C
t é uma variável aleatória com distribuição t e com n-2 graus de liberdade
NC é o nível de confiança (com 0,95)

Tabela 2: Eis alguns cálculos amostrais


Valor de x valor predito de y = m̂x + b̂ Intervalo de predição de 95% para y
2 20,39 11,29 - 29,48
6 32,01 23,67 - 40,34
10 43,63 35,56 - 51,69
14 55,25 46,91 - 63,58
18 66,87 57,77 - 75,96
20 72,68 63,05 - 82,30

A seguinte figura ilustra os intervalos de predição comparados com a reta de regressão.


Pode-se ver como os intervalos se ampliam na medida em que x se agasta de x̄.
33

Figura 4: Intervalos de predição comparados com a reta de regressão.

4. Intervalo de Confiança

Introdução

Admiti-se que a grande totalidade dos trabalhos experimentais apresentam resultados


amostrais, ou seja, decorrem da análise de uma parcela da população, cuja totalidade é
desconhecida, deste modo o valor de µ é desconhecido. Consequentemente, uma das aplica-
ções importantes do conhecimento da distribuição de t é a possibilidade de, conhecendo-se
a média amostral (x̄ de uma variável x e o erro da média (sx̄ ), pode-se estimar quais os
valores que x̄ poderá assumir dentro de um intervalo em torno da média µ (Beiguelman,
2002).
Arango (2001) coloque que o intervalo de confiança é, na verdade, uma consequencia
lógica do fato dos parâmetros populacionais serem desconhecidos, visto que os dados re-
presentam um conjunto de valores possíveis, e não é cem porcento segura, a não ser que se
tome um intervalo infinido.
34

Um intervalo de confiança (IC) é um intervalo estimado de um parâmetro de interesse de


uma população. Em vez de estimar o parâmetro por um único valor, é dado um intervalo de
estimativas prováveis. Quão prováveis são estas estimativas é determinado pelo coeficiente
de confiança (1 - α), para α  (0, 1).
Intervalos de confiança são usados para indicar a confiabilidade de uma estimativa. Por
exemplo, um IC pode ser usado para descrever quão confiáveis são os resultados de uma
pesquisa. Sendo todas as estimativas iguais, uma pesquisa que resulte num IC pequeno é
mais confiável do que uma que resulte num IC maior.
Se U e V são estatísticas (isto é, funções da amostra) cuja distribuição de probabilidade
dependa do parâmetro θ, e

 
V
P U <θ< =1−α
θ
então o intervalo aleatório (U,V) é um intervalo de confiança "100(1-α)% para θ".
Portanto, podemos interpretar o intervalo de confiança como um intervalo que contém os
valores "plausíveis"que o parâmetro pode assumir. Assim, a amplitude do intervalo está
associada a incerteza que temos a respeito do parâmetro.
Considere X1,X2,· · · ,Xn uma amostra aleatória retirada de uma população com distri-
buição que depende do parâmetro θ. Por exemplo, tomamos X1,X2,· · · ,Xn uma amostra
aleatória com distribuição normal com média µ desconhecida e desvio padrão conhecido
σ=1. Para propormos um intervalo de confiança para o parâmetro θ, vamos introduzir o
conceito de quantidade pivotal. Uma função Q da amostra X1,X2,· · · ,Xn e do parâmetro θ
cuja distribuição de probabilidade não depende do parâmetro θ é denominada quantidade
pivotal. Desta forma, dado o nível de confiança (1-α), tomamos

1 − α = P [q1 ≤ Q(X1, X2, · · · , Xn ; θ) ≤ q2 ]

Se a quantidade pivotal Q for inversível, podemos resolver a inequação acima em relação


a θ e obter um intervalo de confiança.
Motivação
Suponha que queiramos estimar a média µ de uma população normal com variância
conhecida. O estimador de máxima verossimilhança para a média populacional µ é dado
35

pela média amostral X̄ de uma amostra de tamanho n. Assim, temos a seguinte quantidade
pivotal

σ2
 
e = (X̄ − µ) ∼ N 0,
n

P |e| < 1.96σ 2 /n = 0.95


 

P [X̄ − 1.96σ 2 /n < µ < X̄ + 1.96σ 2 /n] = 0.95

Para interpretar o intervalo de confiança da média, assumimos que os valores foram


amostrados de forma independente e aleatória de um população normal com média µ e
variância σ 2 . Dado que estas suposições são válidas, temos 95% de "chance"do intervalo
conter o verdadeiro valor da média populacional. Em outras palavras, se produzirmos diver-
sos intervalos de confiança provenientes de diferentes amostras independentes de mesmo
tamanho, podemos esperar que aproximadamente 95% destes intervalos devem conter o
verdadeiro valor da média populacional.

Intervalo de Confiança para a Média de uma População Normal

Se X1, X2,· · · , Xn for uma amostra aleatória de uma população normal, então obtidas
a média X̄ e a variância σ 2 da amostra, a função a seguir segue a distribuição t de Student.

√ 
X̄ − µ n X̄ − µ
t= =
√S S
n

Se afirmarmos que:

√  !
  n X̄ − µ
P −t α2 ≤ t ≤ t α2 =P −t α2 ≤ ≤ t α2 = 1 − α
S

É possível especificar o intervalo de confiança, porque o quantil superior t α2 da dis-


tribuição t de Student - que não depende de µ - pode ser obtido da tabela dos quantis
superiores da distribuição t de Student (tα ) com v graus de liberdade e para diferentes
valores de probabilidade α, de acordo com a seguinte afirmativa probabilística: P (t > tα)
= α.
36

Isolando µ na afirmativa probabilística acima, obtém-se

 
S S
P X̄ − t α2 √ ≤ µ ≤ X̄ + t α2 √ =1−α
n n
A interpretação da equação acima mostra que "a probabilidade de o intervalo limitado
por X̄ − t α2 √Sn e X̄ + t α2 √Sn incluir µ é igual a 1-α. "Esse intervalo é conhecido por
intervalo de confiança (abreviado por IC) para µ. O valor X̄ − t α2 √Sn é chamado de limite
inferior de confiança (abreviado por LI); e X̄ + t α2 √Sn é chamado de limite superior de
confiança (abreviado por LS). Dessa forma, o intervalo de confiança pode ser concisamente
apresentado pela equação a seguir:

IC1−α (µ) : X̄ ± tα/2

E necessário esclarecer que o quantil superior tα/2 é obtido da distribuição t de Student.


Esse quantil depende da fixação de α, que é a probabilidade de se afirmar que o intervalo
cobre o verdadeiro parâmetro quando na realidade não cobre, e dos graus de liberdade v =
n-l. O valor y= l - α é denominado de coeficiente de confiança ou coeficiente de cobertura.
O uso do termo coeficiente de cobertura se justifica, pois se for obtido um número muito
grande de intervalos, uma proporção de 1 - α deles, em média, conteria o verdadeiro valor
da média populacional.
Para a validade do intervalo estabelecido acima, supõe-se necessariamente que a dis-
tribuição da população, da qual a amostra aleatória foi obtida, seja normal com média e
variância desconhecida. Supõe-se, ainda, que os pares de elementos X, e Xi ’ são indepen-
dentes, para todo i 6= i, = 1,2,· · · , n, e identicamente distribuídos.
O coeficiente de confiança é escolhido para garantir uma alta probabilidade de cobertura
para o verdadeiro valor do parâmetro. Esses valores são, em geral, iguais a 90%, 95% e
99%. Por que não garantir a cobertura máxima, ou seja, y= 100%? A resposta é baseada
no fato de que o aumento do coeficiente de confiança, fixado o tamanho amostral n, causa
concomitantemente um aumento de comprimento do intervalo de confiança. Isso ocorre
porque uma redução de α provoca um aumento do quantil superior tα/2. Se o valor de α
é reduzido a zero ou, equivalentemente, o coeficiente de confiança é aumentado a 100%, o
intervalo de confiança é ]−∞; +∞[. O intervalo terá confiança máxima, no entanto, não
37

terá nenhuma utilidade. A única forma de aumentar a confiança e reduzir o tamanho do


intervalo é aumentar o tamanho da amostra. Um balanço, entre a utilidade e a confiança,
deve ser buscado para um tamanho fixo de amostra.
A conseqüência da violação da pressuposição da normalidade na acurácia do intervalo
de confiança depende da forma da distribuição da população amostrada. Se a população
amostrada possuí distribuição com forma bastante diferenciada da distribuição normal, a
probabilidade de cobertura pode ser bastante comprometida. Para distribuições aproxi-
madamente normais, a distribuição t é robusta, ou seja, a probabilidade de cobertura do
intervalo será pouco afetada.

Intervalo de Confiança para a Variância de uma População Normal

Sejam X1, X2,· · · , Xn variáveis aleatórias independentes de uma distribuição normal


com média µ e a variância σ 2 , então a variável

Pn 2 Pn 2
i=1 X1 − X̄ i=1 Z1 − Z̄
=
σ2 σ2
tem distribuição qui-quadrado com v = n-1 graus de liberdade. Sendo que Zi ∼ N (0,1).
Pn 2
2 (X1 −X̄ )
Se S = i=1 σ2 é obtido de uma amostra aleatória de uma distribuição normal com
(n−1)S 2
média µ e a variância σ 2 , então, a variável χ2 = σ2
possui distribuição qui-quadrado
com v = n-1 graus de liberdade.
A distribuição qui-quadrado possui várias aplicações em estatística. Uma delas é a
de propiciar mecanismos para a realização de inferências sobre o parâmetro σ 2 de uma
população normal.
Dessa forma, se S 2 é o estimador da variância obtido de uma amostra aleatória X1 ,
vS 2
X2 ,...,Xn de uma população normal, então χ2 = σ2
tem distribuição de qui-quadrado com
v = n - l graus de liberdade.
Se forem considerados os quantis superiores χ21− α ;v e χ2α ;v da distribuição qui-quadrado,
2 2

a afirmativa probabilística é válida.

 
P χ21− α ;v ≤ χ2 ≤ χ2α ;v = 1 − α
2 2
38

Assim, substituindo-se a estatística qui-quadrado pela definição e explicitando-se σ 2 ,


com algumas simples manipulações algébricas, o intervalo de confiança pode ser facilmente
construído.

(n − 1)S 2
 
P χ21− α ;v ≤ ≤ χ2α ;v =1−α
2 σ2 2

" #
(n − 1)S 2 2 (n − 1)S 2
P ≤ σ ≤ =1−α
χ2α ;v=n−1 χ21− α ;v=n−1
2 2

A afirmativa probabilística anterior possibilita a construção do intervalo de 1-α de


confiança. O intervalo resultante está apresentado abaixo,

" #
(n − 1)S 2 (n − 1)S 2
IC1−α (σ 2 ) : ;
χ2α ;v=n−1 χ21− α ;v=n−1
2 2

Para o desvio padrão (σ) de uma população normal, o intervalo de confiança é obtido
tomando-se a raiz quadrada dos limites do intervalo de confiança da variância. Na equação
abaixo, apresenta-se esse intervalo de confiança para σ de uma normal por:

"s s #
(n − 1)S 2 (n − 1)S 2
IC1−α (σ) : ;
χ2α ;v=n−1 χ21− α ;v=n−1
2 2

Intervalo de Confiança para Razão entre duas Variâncias

A seguir, são apresentados os passos de como construir um intervalo de confiança para


a razão entre duas variâncias de populações Normais independentes. Para isso retira-se
uma amostra aleatória X1 , X2 ,· · · ,Xn da população 1, com distribuição N(µ1 ; σ12 ), e uma
amostra Y1 , Y2 ,· · · ,Yn da população 2, com distribuição N(µ2 ; σ22 ). Como

Intervalo de Confiança para Proporção

Consideremos X a variável aleatória que representa a presença (ou não) de determi-


nada característica de uma população. Assim temos que X tem distribuição de Bernoulli
com parâmetro p, no qual p representa a probabilidade de um determinado elemento da
amostra ter a característica de interesse. Retiramos uma amostra aleatória X1 , ...Xn desta
população. Cada Xi , i = 1, ...n tem distribuição de Bernoulli com parâmetro p, isto é,Xi
39

Consideremos X a variável aleatória que representa a presença (ou não) de determi-


nada característica de uma população. Assim temos que X tem distribuição de Bernoulli
com parâmetro p, no qual p representa a probabilidade de um determinado elemento da
amostra ter a característica de interesse. Retiramos uma amostra aleatória X1 , ...Xn desta
população. Cada Xi , i = 1, ...n tem distribuição de Bernoulli com parâmetro p, isto é,X1 ,
X2 , ...Xn sim Bernoulli (p), com média µ = p e variância σ 2 = p(1 − p).
Neste caso, o estimador de máxima verossimilhança p̂ para o parâmetro populaciona p
é dado por:

Pn
N o deelementosdaamostracomacaracterstica i=1 xi
p̂ = = = x̄
T otaldeelementosdaamostra n
Utilizaremos três métodos diferentes para encontrar o intervalo de confiança para a
proporção: Aproximação normal, aproximação normal com correção de continuidade e
binomial exata.

Aproximação Normal

Vejamos como construir intervalos de confiança para a proporção p, utilizando a apro-


ximação Normal. Consideremos p̂a proporção amostral. Pelo Teorema Central do Limite
temos que para um tamanho de amostra grande podemos considerar a proporção amostral
como tendo aproximadamente distribuição Normal com média p e variância p(1 − p)/n.
Desse modo segue que:

 
p (1 − p)
p̂ ∼ N p
n
Observa-se que a variância de p̂ depende do parâmetro desconhecido p. No entanto,
pelo fato de n ser grande, pode-se substituir p por p̂. Com isso temos que:

p̂ − p
q ∼ N (0, 1)
p̂(1−p̂)
n
Considerando o mesmo procedimento de montagem do intervalo para a média, constrói-
se o intervalo com 100 (1 − α)% de confiança para a proporção p:

r r !
p̂(1 − p̂) p̂(1 − p̂)
IC(p, 1 − α) = p̂ − Zα/2 , p̂ + Zα/2
n n
40

Aproximação Normal com Correção de Continuidade

Uma outra maneira de obter um intervalo de confiança para proporção é através da


aproximação normal com correção de continuidade. Considerando o processo anterior, a
única diferença é que aqui não se considera simplesmente a proporção amostral p̂, mas
sim uma correção dela. Assim, para determinar o intervalo de confiança considera-se uma
modificação da proporção p̂, dada por:


 p̂ + 1
2n sep̂ < 0, 5
pˆc
 p̂ − 1
2n sep̂ > 0, 5

Assim, o intervalo de onfiança para proporção p com correção de continuidade, é dado


por;

r r !
p̂c (1 − p̂c ) p̂c (1 − p̂c )
IC(p, 1 − α) = p̂c − Zα/2 , p̂c + Zα/2
n n
O fator de continuidade é utilizado para melhorar a aproximação de uma variável
aleatória discreta p̂ pela distribuição normal que é contínua.

Binomial Exata

Consideremos uma amostra aleatória X1 ...Xn de uma ppulação com distribuição de


Bernoulli com parâmetro p. Vamos ver como obter um intervalo de confiança para a
proporção utilizando o médoo da Binomial Exata (sem utilizar o Teorema Central do
Limite).
Seja 1 − α o nível de confiança. Considere P1 = 1 − α2 . Seja Y o número de sucessos
(ocorrências do evento de interesse) e considere o valor x = Y − 1. Encontre na Tabela
da distribuição Binomial o valor de P1 correspondente aos valores de n w x. O valor p
encontrado no topo da coluna que contém o valor P1 é o limite inferior do intervalo de
α
confiança. Para encontrar o limite superior considere P2 = 2,x = Y e entre na mesma
tabela comos valores de n e x até encontrar o valor de P2 . O valor correspondente de p no
topo da tabela é o limite superior do intervalo de confiança.
Exemplo: Em um lote com 19 peças, 4 eram defeituosas. Obter um intervalo de
confiança, com α = 0, 005, para a proporção p de peças defeituosas.
41

α
Tem-se que P1 = 1 − 2 = 1 − 0, 025 = 0, 975, x = 3 e n = 19. Assim, obtém-se na
tabela da distribuição binomial o limite inferior 0,05. Por outro lado, P2 = 0, 025 e x = 4,
obtém-se que o limite superior é igual a 0,45.
Então o intervalo com 95% de confiança para a proporção de defeituosas é (0,05; 0,45).
Observação: Este método é utilizado apenas para amostras de tamanho pequeno. Para
amostras grandes, utiliza-se o Teorema Central do Limite para obter o intervalo de confi-
ança.

Referência Bibliográfico

ANDRADE, D. F.; OGLIARI,P. J. ESTATÍSTICA PARA AS CIÊNCIAS AGRÁRIAS


E BIOLÓGICAS: COM NOÇÕES DE EXPERIMENTAÇÃO. Editora UFSC. Florianópo-
lis, 2007.

ARANGO, H. G. BIOESTATÍSTICA: TEÓRICA E COMPUTACIONAL.Ed Guana-


bara Koogan. Rio de Janeiro - RJ, 2001.
BANZATTO, D.A.; KRONKA, S. N. EXPERIMENTAÇÃO AGRÍCOLA. 3a Ed. FU-
NEP. Jaboticabal - SP, 1995.

BEIGUELMAN, B. CURSO PRÁTICO DE BIOESTATÍSTICA. 5a ed. FUNPEC-


Editora. Ribeirão Preto - SP, 2002.

CORRÊA, G. S. S.; SILVA, M. A.; TORRES, R. A. Cap. 9 Procedimentos para com-


parações Múltiplas. IN: SILVA, M. A.; VALENTE, B. D. CONCEITOS DE ANÁLISE
DE DADOS. 2a Ed. Editora FEPMVZ. Belo Horizonte - MG, 2008.

DOWNING,D.; CLARK, J. ESTATÍSTICA APLICADA. 2a Ed. Editora Saraiva. São


Paulo - SP, 2005.

LIMA, P. C.; ABREU, A. R. DELINEAMENTO E ANÁLISE DE EXPERIMENTOS.


FAEPE. UFLA - MG, 2000.
42

PIMENTEL-GOMES, F.;GARCIA, C. H. ESTATÍSTICA APLICADA A EXPERI-


MENTOS AGRONÔMICOS E FLORESTAI: EXPOSIÇÃO COM EXEMPLOS E ORI-
ENTAÇÕES PARA USO DE APLICATIVOS. Editora FEALQ. Piracicaba - SP, 2002.

SAMPAIO, I. B.M. ESTATÍSTICA APLICADA À EXPERIMENTAÇÃO ANIMAL.


2a Ed. Editora FEPMVZ. Belo Horizonte - MG, 2002.

SILVA. E. M.;SILVA, E. M.; GONÇALVES, V.;MUROLO, A. C. ESTATÍSTICA PARA


OS CURSOS DE: ECONOMIA, ADMINISTRAÇÃO E CIÊNCIAS CONTÁBEIS. Vol. 2.
2a Ed. Editora Atlas. São Paulo - SP, 1997.

VIEIRA, F. ANÁLISE DE VARIÂNCIA (ANOVA). Editora Atlas. São Paulo, 2006.

Potrebbero piacerti anche