Sei sulla pagina 1di 18

Aula 4 - Probabilidades

Objetivos

• Entender os conceitos básicos de probabilidades e suas relações


com a análise estatística de uma amostra;

• Aprender a trabalhar com probabilidades aplicadas aos diversos


tipos de variáveis.

Assunto
Neste módulo, vamos entender como funciona a Estatística e como pode-
mos confiar que uma amostra seja representativa de uma população. Vimos
no primeiro módulo que a Estatística é baseada em probabilidades, então,
vamos compreender como as leis da probabilidade podem ser usadas para
estimar parâmetros de uma população.

Introdução
O termo “probabilidade” vem do latim probabilis, provável. Esse termo era
empregado, desde os tempos romanos, principalmente no contexto jurídico
e se referia à qualidade de uma testemunha legal ou à medida de autoridade
de um cidadão, e era, geralmente, relacionada à nobreza. Assim, um nobre
era provavelmente (probabilis) uma testemunha mais confiável que um
plebeu.

Até o século XVII, o termo probabilis era usado no sentido de “aprovação”


de uma opinião ou ação. Uma opinião “provável” era aquela que as pessoas
sensatas teriam. Só quando o estudo matemático das “chances” se tornou
mais profundo, foi cunhado o termo “probabilidade” com o sentido que
usamos hoje.

Estatística 85 UAB
Uma Ciência de Jogadores
O estudo das probabilidades é tão antigo quanto os chamados “jogos de
azar”. Há milênios que jogadores tentam entender as chances em jogos
diversos e apostam dinheiro, calculando a probabilidade de que os ganhos
cubram o investimento inicial.

O italiano renascentista Girolamo Cardano (1501-1576, fig. 1) era filósofo,


médico, matemático e advogado, foi pioneiro em muitas ciências, resolveu
as primeiras equações algébricas, descreveu os sintomas e desenvolvimento
da febre tifóide, e descobriu a diferença entre energia elétrica e magnética.
Amigo de Leonardo da Vinci, também era um jogador inveterado e escre-
veu, em 1560, o Líber de Ludo Aleae, o Livro dos Jogos de Dados. Nele, há
o primeiro tratamento sistemático das probabilidades (ou ‘chances’) e um
capítulo inteiro em como trapacear. O livro só foi publicado quase um século
após sua morte.

Figura 1: Girolamo Cardano (1501-1576). Fonte: Wikimedia Commons.

O Nascimento da Ciência Probabilística


Considera-se que o estudo das probabilidades se tornou formal com a cor-
respondência entre os matemáticos e filósofos franceses Pierre de Fermat
(1601-1665) e Blaise Pascal (1623 – 1662, fig. 2). Fermat era também advo-
gado, mas desenvolveu teoremas que servem de base ao Cálculo Diferencial
moderno. Já Pascal, que também era médico, inventou a primeira calculado-
ra mecânica e desenvolveu muitas ideias sobre a natureza física do universo,
mais tarde revisadas por outros intelectuais. Os dois franceses passaram anos
trocando ideias sobre probabilidades, porque Pascal começou a se interessar
pelas recém-criadas ciências econômicas e sociais.

UAB 86 Licenciatura em Matemática


Figura 2: Blaise Pascal (1623-1662). Fonte: Wikimedia Commons.

O primeiro livro, exclusivamente, dedicado ao estudo formal das probabili-


dades foi escrito por Christiaan Huygens (1629-1695), físico e matemático
holandês. Huygens descobriu que a luz se propaga em ondas, o que serviu
mais tarde para o estudo das partículas subatômicas. Seu livro sobre proba-
bilidades foi escrito, porque Pascal o encorajou.

Dois livros importantes, do século XVIII, colocaram o estudo das probabili-


dades como um ramo formal da Matemática: Ars Conjectandi, ou a Arte da
Conjectura, de Jakob Bernoulli (1654 – 1705) e The Doctrine of Chances, a
Doutrina das Chances, de Abraham de Moivre (1667 – 1754, fig. 3). Vários
matemáticos desenvolveram o tema através dos séculos XIX e XX. Já no sé-
culo XXI, o uso dos computadores permite cálculos quase infinitos, usando
teoremas com séculos de vida.

Figura 3: Abraham de Moivre (1667-1754). Fonte: Wikimedia Commons.

Estatística 87 UAB
Conceitos básicos da Probabilidade
O estudo da probabilidade surgiu por causa dos chamados “jogos de azar”.
Desde a Grécia antiga, apostadores querem saber quais as chances que suas
apostas têm de ganhar “a sorte grande”. Essa relação entre jogos e proba-
bilidade perdura até hoje nos termos que usamos em Estatística: a palavra
“aleatório” vem do latim Alea, ou “dado de jogar”. É conhecida a frase de
Júlio César antes de uma dura campanha militar cujo resultado dependia
quase, totalmente, da sorte: Alea jacta est, o dado foi lançado.

No contexto da Estatística, o termo probabilidade refere-se à frequência re-


lativa de ocorrência de um valor ou evento qualquer, ou à chance que esse
valor ou evento ocorra ao acaso. Dizemos que a probabilidade associada
a um evento é o número de vezes que tal evento pode ocorrer em relação
ao número total de eventos. Por exemplo, em um dado de jogar temos seis
faces numeradas. A probabilidade de obtermos um três quando lançamos
um dado vai ser:

Probabilidade de obter um três = = 0, 166666667 = 16,67%, já que o


dado tem seis faces e só uma tem o valor três. Isso vale para cada um dos
valores em um dado.

Mas, isso só se aplica a um dado de jogar “honesto”, ou seja, há a mesma


chance de cair em qualquer uma das seis faces. Sabemos que existem dados
“desonestos”, feitos para sempre dar valores mais altos. Com um dado de
jogar honesto, toda vez que o lançarmos, teremos quase 17% de chance de
que ele caia em um número em particular.

Esse é um conceito muito importante para entendermos sobre a probabili-


dade: que não é cumulativa, ou seja, se jogarmos um dado três vezes e obti-
vermos três 1, isso não quer dizer que temos mais chance de que saia um 6.
Toda vez que lançamos o dado, temos quase 17% de chance que saia um 6.

Se usarmos um dado honesto e o jogarmos apenas seis vezes, provavel-


mente, não conseguiremos um número diferente em cada jogada. Nossa
amostra é pequena demais para representar as probabilidades de todos os
possíveis lançamentos de dados, então podemos ter uma distribuição como
a representada na figura 4.

UAB 88 Licenciatura em Matemática


Figura 4: Distribuição de frequências da ocorrência das faces de um dado em seis
lançamentos.

Não conseguimos nem um 4 ou 5 nas seis vezes que jogamos os dados; no


entanto, a face 1 e a face 6 apareceram duas vezes cada. Apenas as faces 2
e 3 tiveram a frequência esperada.

Vejamos o que acontece quando jogamos o dado 20 vezes (fig. 5):

Figura 5: Distribuição de frequências da ocorrência das faces de um dado em 20 lan-


çamentos.

Dessa vez, todas as faces aparecem. Mas, ainda, há uma grande diferença
entre as frequências com que as faces aparecem. Lembremos que, no caso
de um dado de jogar “honesto”, todas as faces têm chances iguais de apa-

Estatística 89 UAB
recer. Vamos continuar jogando o dado e anotando os resultados. Após 200
lançamentos, chegamos à distribuição vista na Figura 6.

Figura 6: Distribuição de frequências da ocorrência das faces de um dado em 200


lançamentos.

Quanto mais cresce o tamanho de nossa amostra, mais próximas as frequ-


ências se encontram do esperado, que é ter repetições de ocorrência de
cada face muito próximas das outras, ou quase iguais (afinal, cada face tem
16,67% de chance de ocorrer em cada lançamento de dado). Se continuar-
mos jogando o dado, após mil lançamentos, teremos pouca diferença entre
as frequências de ocorrência de cada uma das faces. Um exemplo é o gráfico
abaixo, mostrando a frequência relativa da ocorrência de cada face do dado
após mil lançamentos (fig. 7).

Figura 7: Distribuição de frequências da ocorrência das faces de um dado em 1000


lançamentos.

UAB 90 Licenciatura em Matemática


Podemos ver que nos aproximamos muito das frequências relativas espera-
das, ou seja, da probabilidade calculada de ocorrência de cada face. Pode-
mos dizer, então, que o dado que usamos é “honesto”, “balanceado” e não
tem viés. Nossa amostra de mil lançamentos é um exemplo de amostragem
aleatória e representa a população de todos os lançamentos de dados possí-
veis, se aproximando das frequências esperadas.

Digamos que, após mil lançamentos de um dado de jogar, chegamos à se-


guinte distribuição (fig. 8):

Figura 8: Distribuição de frequências da ocorrência das faces de um dado em 1000


lançamentos.

Nesse caso, podemos afirmar que esse não é um dado “honesto”: se o cor-
tamos ao meio, é possível que achemos um peso dentro dele para que caia
com mais frequência na face 6. A distribuição de frequências desvia tanto
dos valores esperados, que não há dúvida de que algo (no caso, o peso den-
tro do dado) está enviesando os resultados.Assim, dizemos que esses valores
não são aleatórios, mas são influenciados por algum fator (o peso).

Entender o conceito de valores que estão dentro das probabilidades espera-


das ao acaso (randômicos ou aleatórios) e de valores que desviam do espera-
do (não randômicos ou não aleatórios, também chamados determinísticos)
servem de base para descobrirmos se fatores externos ou internos afetam
os valores de um conjunto de dados estatísticos. Essa é a base da Estatística
Inferencial.

Estatística 91 UAB
Algumas Ideias Sobre Probabilidades
Há algumas ideias gerais sobre probabilidades que nada mais são do que o
óbvio. Por exemplo, a probabilidade de um evento impossível ocorrer é zero.
Algo que vá contra as propriedades da matéria, por exemplo, tem 0% de
chance de acontecer, ao menos no que se pode detectar do universo. Já um
evento certo tem probabilidade de 1, ou 100%. Tudo o mais tem uma pro-
babilidade entre 0 e 1, ou 0 e 100%, de acontecer, mesmo que infinitesimal.
Algo que possa ser respondido com um sim ou não tem 50% de chance de
acontecer ou não.

Charlatães, que se passam por adivinhos, usam probabilidades de “senso


comum” para parecer que acertaram o futuro. Se conseguirem acertar 50%
de dez previsões do tipo “sim-ou-não”, o público só vai lembrar-se dos cinco
acertos e esquecerá os cinco erros.

Logo, um adivinho de verdade teria que acertar 100% das previsões para
poder ser considerado, realmente, alguém com visão do futuro, ou pelo
menos alguém de muita sorte: a probabilidade que acerte, ao acaso, dez
previsões tipo “sim-ou-não” seguidas é de 0, 00098.

Leis da Probabilidade
Vimos como probabilidade é a chance que um evento ocorra ao acaso. Essa
chance é calculada, dividindo o número de vezes que o evento pode ocorrer
pelo número total de eventos possíveis.

Assim, a chance da face de um dado de jogar aparecer em um lançamento é


de 1/6 e a chance de sair cara ou coroa ao se lançar uma moeda é de ½. Se
usarmos um baralho de cartas completo, com 52 cartas, podemos calcular
que a chance de tirarmos, digamos, um ás de espadas é de 1/52. Mas como
fazemos, quando um evento possui dois ou mais termos? Aí, entra a aplica-
ção das chamadas “Leis da Probabilidade”.

A primeira lei da probabilidade que vamos aplicar aqui é a Lei Multipli-


cativa. Ela afirma que a chance de dois ou mais eventos independentes
ocorrerem juntos é o produto da probabilidade dos eventos ocorrerem
separadamente. Vamos ver como isso se aplica se lançarmos dois dados de
jogar em vez de um só.

Vimos que a probabilidade de conseguirmos um 6, ao lançarmos um dado é


de 1/6. Qual a probabilidade de conseguirmos dois 6, formando um 12, se
lançarmos dois dados?

UAB 92 Licenciatura em Matemática


Probabilidade de conseguirmos um seis em um dado = = 16,67%

Probabilidade de conseguirmos um seis em cada dado = = 2,78%

Aqui já descobrimos que o evento “um seis em cada um dos dois dados” é
uma possibilidade em 36. Será que há 36 configurações diferentes ao se jo-
gar dois dados? Vamos colocar, na tabela 1, todas as configurações possíveis
ao se lançar dois dados de jogar.

Tabela 1: Configurações possíveis dos lançamentos de dois dados de jogar,


representados por (x, y), sendo:
x= primeiro dado e y = segundo dado.

(1,1) (2,1) (3,1) (4,1) (5,1) (6,1)


(1,2) (2,2) (3,2) (4,2) (5,2) (6,2)
(1,3) (2,3) (3,3) (4,3) (5,3) (6,3)
(1,4) (2,4) (3,4) (4,4) (5,4) (6,4)
(1,5) (2,5) (3,5) (4,5) (5,5) (6,5)
(1,6) (2,6) (3,6) (4,6) (5,6) (6,6)

Temos, então, os 36 resultados possíveis ao lançarmos dois dados de jogar e


apenas um deles representa o evento que calculamos acima: os dois dados
com um seis.

Vejamos outro problema: qual a probabilidade de conseguirmos um valor


específico, lançando dois dados de jogar? Se jogarmos dois dados, obtere-
mos qualquer valor entre o mínimo de dois (1,1) e um máximo de doze (6,6).
Mas, exceto esses dois valores, que só podem ser conseguidos em uma das
36 configurações possíveis, outros valores podem ser conseguidos de mais
de uma maneira. Por exemplo, podemos conseguir o valor de nove de qua-
tro formas diferentes: (3,6), (6,3), (4,5) e (5,4).

Para calcular a probabilidade de conseguirmos um nove ao lançar dois dados


de jogar, devemos aplicar a Lei Aditiva da Probabilidade: ela calcula a
probabilidade de que um evento ocorra em duas ou mais formas diferentes
e é calculada, simplesmente, através da soma das probabilidades de cada
forma do evento.

Estatística 93 UAB
No caso que estamos estudando, o evento em questão é o valor de nove
com dois dados de jogar. Há quatro maneiras diferentes de conseguirmos
um nove e cada uma das formas tem 1/36, ou 2,78% de chance de ocorrer.
Vamos, então, ao cálculo:

Probabilidade de conseguir um nove com dois dados = (3,6) + (6,3) + (4,5) +


(5,4) = = 11,11%.

Vejamos quantas maneiras diferentes há de se conseguir os valores possíveis


com dois dados (tabela 2).

Tabela 2: Valores possíveis no lançamento de dois dados de jogar e configu-


rações necessárias.

(1,6)
(1,5) (6,1) (2,6)
(1,4) (5,1) (2,5) (6,2) (3,6)
(1,3) (4,1) (2,4) (5,2) (3,5) (6,3) (4,6)
(1,2) (3,1) (2,3) (4,2) (3,4) (5,3) (4,5) (6,4) (5,6)
(2,1) (2,2) (3,2) (3,3) (4,3) (4,4) (5,4) (5,5) (6,5) (6,6)

2 3 4 5 6 7 8 9 10 11 12

Está claro que o valor de sete é o mais provável de ser conseguido com dois
dados, pois há seis formas diferentes de rolar um sete. Vejamos qual a pro-
babilidade de conseguir um sete com dois dados:

P(sete) = (1,6) + (6,1) + (2,5) + (5,2) + (3,4) + (4,3) =


16,67%

Ou seja, a probabilidade de conseguirmos um sete, jogando dois dados, é


a mesma de se conseguir qualquer uma das faces ao se jogar apenas um
dado: 1/6. Por isso, em países onde o jogo de dados é legal, sempre se paga
menos por um sete do que por um dois ou um doze, que têm menor pro-
babilidade de sair.

UAB 94 Licenciatura em Matemática


Consideremos a tabela dos valores possíveis de dois dados acima e as formas
que esses valores podem tomar, vemos que a probabilidade de conseguir-
mos qualquer uma das 36 configurações é igual, 1/36 ou 2,78%. Então, se
lançarmos os dados de forma a obter uma amostra representativa (digamos,
2000 lançamentos) da população de lançamentos de dois dados possíveis
(que tende ao infinito), vamos conseguir uma distribuição de frequências
cuja forma se assemelha à “pirâmide” que conseguimos acima (fig. 9).

Figura 9: Frequências relativas (em %) dos valores possíveis em 2000 lançamentos


de dois dados.

Podemos dizer que, nesse grupo de dados estatísticos, a moda é sete, já que
esse é o valor mais comum. Se destrincharmos os valores, as configurações
dos dois dados de jogar - (3,4), (6,3), (2,2), etc. – teríamos todas as 36 barras
do mesmo tamanho, pois as 36 configurações têm chances iguais de ocorrer.

Mas, atenção: probabilidades não têm “memória”! Se jogarmos os dados


três vezes e obtivermos três (6,6), isso não quer dizer que temos mais ou
menos chance de conseguirmos outro (6,6). Todas as vezes que lançarmos
os dados, teremos a mesma chance de conseguir uma das 36 configurações
e uma chance em seis de conseguir um valor de sete.

O exemplo que vimos é bem simples, mas podem ser usadas as mesmas leis
para entender a probabilidade de eventos muito complexos.

Estatística 95 UAB
O estudo das probabilidades é extremamente intricado e alguns matemáti-
cos dedicam suas carreiras a essa área, chamada Probabilística. Não é nossa
intenção, portanto, ter o entendimento profundo ou minucioso do cálculo
das probabilidades. Os conceitos básicos, no entanto, deverão nos servir
para que entendamos suas aplicações nos cálculos de estimativas que são
fundamentais nas análises estatísticas.

Prevendo Erros
Um dos pontos fundamentais da Estatística é que toda amostra contém er-
ros que variam com o tamanho da amostra em relação à população estu-
dada. A probabilidade de que nossos dados não representem a população
está, explicitamente, inserida em todo cálculo estatístico. Por isso mesmo,
como veremos mais tarde, nunca se tem certeza absoluta da validade de
uma amostra.

Usando os mesmo cálculos probabilísticos, no entanto, pode-se garantir a


validade de uma amostra em 95%, 98% ou até 99,99%. Nunca 100%. Eis
a razão pela qual devemos ter cautela quando interpretamos resultados de
estatísticas, pois são estimativas generalizadas passíveis de erro. Quanto
maior o tamanho da amostra, menor fica o erro e podemos ter mais segu-
rança quando interpretamos os resultados.

Esperado x Observado
Tudo em Estatística é baseado na ideia que as frequências de ocorrência de
todo evento ao acaso vão assumir probabilidades que podem ser calculadas.
Elas servem de base para a estimação das frequências de ocorrência desses
eventos em uma população.

Assim, quando analisamos uma amostra, comparamos os dados que temos


com aqueles calculados através de probabilidades. Muito do que se testa,
estatisticamente, envolve comparar a nossa amostra (os valores observa-
dos), com aqueles valores conseguidos através dos cálculos de probabilidade
(esperados). Se os mesmos diferem muito dos valores esperados, há fatores
influenciando as frequências da amostra.

Teoremas básicos
No estudo da probabilidade, há dois teoremas básicos.

O primeiro é a chamada “Lei dos Grandes Números”, que descreve a


estabilidade em longo termo da média de uma variável aleatória. Dada uma

UAB 96 Licenciatura em Matemática


variável com um valor esperado finito, se seus valores forem amostrados
repetidamente, à medida que a amostra cresce, a média tende para o valor
esperado. Nós vimos um exemplo com as frequências de um dado de jogar:
cada valor de um dado tem 1/6 de chance de ocorrer, mas essas frequências
só aparecem quando jogamos o dado muitas vezes.

O segundo é o “Teorema do Limite Central”, que diz que a soma de mui-


tas variáveis aleatórias independentes, que tenham uma mesma distribuição
de probabilidades, vai produzir uma distribuição que se aproxima da distri-
buição normal.

Em nosso curso, vimos que é o que ocorre quando jogamos dois dados de
jogar juntos: a soma dessas duas variáveis aleatórias independentes (dois
dados) vai produzir, depois de muitas jogadas, uma distribuição que muito
se assemelha a uma curva gaussiana.

Probabilidade na Estatística
Agora que temos uma noção do cálculo das probabilidades, podemos co-
meçar a entender como isso se relaciona à Estatística. Primeiro, vimos como
as probabilidades são calculadas dentro de um número possível de even-
tos, como se comportam e são equivalentes às frequências relativas de uma
amostra.

Depois, vimos como o tamanho da amostra é fundamental para validar as


estimativas dos parâmetros da população da qual a mesma foi retirada:
quanto maior a amostra, mas próximo chegamos às frequências esperadas
dos eventos dentro de uma população.

Quando vamos aplicar os conceitos de probabilidade em Estatística, estamos


nos referindo à capacidade de estimar os parâmetros populacionais, usando
uma amostra representativa dessa população.

Isso funciona da seguinte maneira: se usarmos uma amostra representativa


de uma população, poderemos descrever as frequências de ocorrência dos
eventos em uma distribuição de frequências, como vimos acima, com os
dois dados de jogar.

Neste exemplo, nós calculamos as probabilidades de cada número sair de


forma bem simples, já que se trata de uma variável aleatória discreta,

Estatística 97 UAB
ou seja, têm apenas números inteiros e que se situam dentro de uma am-
plitude restrita (no caso, entre 2 e 12). Esse tipo de distribuição é chamado
binomial. Mas é possível calcular as probabilidades de quaisquer eventos,
mesmo de variáveis aleatórias contínuas, desde que se faça primeiro, uma
distribuição de frequências a partir de uma amostra. Então, estimam-se os
parâmetros populacionais que serão usados nos cálculos das probabilidades.

Usando essas ideias, podemos construir, com base em uma distribuição de


frequências de uma amostra válida, uma distribuição de probabilidades
de ocorrências dos eventos em uma população.

Um gráfico que represente uma distribuição de probabilidades qualquer vai


se parecer muito com um gráfico de distribuição de frequências de uma boa
amostra, afinal, elas se aproximam das frequências das probabilidades de
uma população.

Matemáticos probabilistas usam cálculos mais elaborados para calcular as


probabilidades de todos os eventos possíveis, mesmo aqueles que ainda não
foram observados. É possível extrapolar valores observados para incluir va-
lores que são possíveis de ocorrer, mas ninguém nunca viu, pois são eventos
muito raros.

Por exemplo, um pesquisador coletou uma amostra da distância de 319


casas de uma região para um grande oleoduto, para tentar entender qual
seria o risco para a população no caso de um vazamento. Com base nessa
amostra, ele construiu um histograma das frequências relativas (fig. 10).

Figura 10: Histograma das frequências relativas da distância entre 319 domicílios e
um oleoduto.

UAB 98 Licenciatura em Matemática


Vemos aqui que, a distribuição das frequências é um tanto irregular, mas há
um grande número de casas entre 160 e 400 metros de distância do oleo-
duto.

Nosso amigo pesquisador, que não poderia medir a distância de todas as


casas da região em questão do oleoduto, usou um programa de estatística
para estimar, usando as leis da probabilidade, qual a distribuição das proba-
bilidades das distâncias de todas as casas para o oleoduto.

O programa estimou os dados que faltavam à amostra e criou uma distribui-


ção de probabilidades correspondente. E também avaliou qual a média e o
desvio padrão para a amostra que foi coletada, pois em cima desses valores,
as probabilidades foram calculadas (fig. 11).

Figura 11: Histograma de frequências relativas com curva normal da distância entre
319 domicílios e um oleoduto.

A linha que forma uma curva em sino é chamada Curva Normal. É uma curva
estimada que dá uma ideia da forma da distribuição e permite que se saiba
a probabilidade de ocorrência de qualquer evento dentro de uma população
com base em amostras.

Vamos entender mais sobre ela na próxima aula.

Estatística 99 UAB
Estatística no Computador
Os programas de computador para Estatística são fundamentais para a análi-
se de grandes bases de dados e para o uso adequado dos testes de Estatísti-
ca Inferencial. Há vários programas disponíveis, desde os muito sofisticados,
usados por astrônomos, até programas mais simples, que ajudam a calcular
testes básicos.

Alguns programas são de graça e podem ser baixados pela internet:

• BioEstat 5.0 – Do Instituto Mamirauá, serve para a análise descritiva


e alguns testes inferenciais com mais de uma variável (multivariados).
Apesar de voltado para as Ciências Biológicas, esse programa pode ser
usado para ajudar qualquer pesquisa científica que utilize a Estatística. A
melhor característica do BioEstat é seu manual de instrução, que expli-
ca em detalhes como são feitos os cálculos oferecidos pelo programa e
como evitar problemas. A versão em Português pode ser encontrada no
endereço http://www.mamiraua.org.br/download/

• Winidams 1.3 – Para validação, manipulação e análise de dados. Em


inglês.

• ADE 4 (2004) – Para análises básicas, também em inglês.

• Expansões do Excel – Podem ser baixados para que o editor de plani-


lhas também possa realizar análises mais complexas. Alguns deles são o
XLStatistics e o BiPlot.

Programas avançados são, geralmente, caros, mas realizam todos os testes e


ainda criam gráficos editáveis. Alguns dos mais conhecidos são o Statistica,
o SPSS e o MINITAB. Muitos possuem versões demo em suas páginas da
internet que podem ser usados, de graça, por um mês, e possuem versões
em português. Todos os programas se baseiam nas mesmas regras. O que
importa é saber utilizá-los.

Resumo
A análise de amostras retiradas de uma população pode servir de base para
a estimação de parâmetros populacionais através de estatísticas amostrais.
O tamanho da amostra é fundamental para que ela seja válida na estimação
dos parâmetros com base nas estatísticas. A Estatística se baseia na proba-

UAB 100 Licenciatura em Matemática


bilística para assumir que muitas variáveis vão ter um padrão de distribuição
normal, simétrico, que pode ser descrito, usando-se a média e o desvio pa-
drão. Os pressupostos matemáticos sobre a distribuição normal permitem o
cálculo da significância de testes de hipóteses.

Referências
CHATFIELD, C.: Problem Solving – A Statistician’s Guide. London: CHAPMAN & HALL.
1991.
LEME, R. A. DA S.: Curso de Estatística – Elementos. Rio de Janeiro: AO LIVRO TÉCNICO.
1967.
LEVIN, J.: Estatística Aplicada às Ciências Humanas. São Paulo: HARPER & ROW DO
BRASIL. 1978.
SCHMULLER, J.: Statistical Analysis with Excel. Hoboken: Willey Publishing Inc. 2009.
SPIEGEL, M. R, Estatística. MAKRON. 1994

Estatística 101 UAB


UAB 102 Licenciatura em Matemática

Potrebbero piacerti anche