Sei sulla pagina 1di 12

54

DISTRIBUCIONES DE PROBABILIDAD
Autores: Juan Espinoza B, Jorge Campos P.
Eacultad de Agronomia Universidad de Concepcion
INTRODUCCION
En las civilizaciones antiguas, el azar se explicaba mediante la voluntad divina. En Grecia
y Roma, se utilizaban los resultados de lanzar cuatro dados para predecir el Iuturo y revelar
la voluntad Iavorable o desIavorable de los dioses, las culturas antiguas atribuyeron a la
voluntad divina los resultados de Ienomenos aleatorios (lanzamiento de dados, presencia de
lluvias o Ienomenos climaticos, etc.). El desarrollo del analisis matematico de los juegos
de azar durante el Renacimiento supone un nuevo enIoque que condujo al abandono
progresivo de explicaciones teologicas y a una reconsideracion de los experimentos
aleatorios simples. El calculo de probabilidades se consolida como disciplina desde la
segunda mitad del siglo XVII hasta comienzos del siglo XVIII, siendo el principal impulsor
Isaac Newton (1642-1727), un primer problema Iue el tratamiento de los errores de
medicion en un conjunto de problemas de astronomia y Iisica, que surgen ligados a la
contrastacion empirica de la teoria de Newton. Daniel Bernoulli (1700-1783)
proporciona la primera solucion al problema de estimar una cantidad desconocida a partir
de un conjunto de mediciones de su valor, que por el error experimental , presentan
variabilidad. Este autor Iue pionero en la aplicacion del calculo inIinitesimal al calculo de
probabilidades. Pierre Simon, Marques de Laplace (1749-1827), introdujo la primera
deIinicion explicita de probabilidad y desarrollo la ley normal como modelo par describir la
variabilidad de errores de medida. La segunda contribucion Iundamental de este periodo
es debida a Adrien Legendre (1752-1833) y Carl Gauss (1777-1855) que resuelven de
manera general el problema siguiente de estimacion de modelos estaticos: segun la teoria,
la posicion de un planeta en el instante t, que llamaremos Y
t
es Iuncion de las posiciones de
k cuerpos, que representaremos por x
1
, x
2
, ...,x
k
y de ciertas constantes desconocidas T
1
, T
2
,
..., T
h
. Es decir,
Y
t
f(T
1
, T
2
, ..., T
h
, x
1
, x
2
, ...,x
k
)
Disponemos de ciertas observaciones con cierto error de medida- de las posiciones del
planeta y de los cuerpos en cuestion. El problema es Como determinar las constantes T
1
,
T
2
, ..., T
h
? Como predecir Y
t
con la mayor precision posible dada una observacion concreta
de valores x
1
, x
2
, ...,x
k
?. Legendre resolvio estos problemas inventando el metodo de
estimacion de minimos cuadrados, que es todavia hoy la herramienta mas utilizada para
estimar modelos estadisticos, y Gauss demostro su optimalidad cuando los errores de
medida siguen una distribucion normal. En 1900 Karl Pearson(1857-1936) en la
universidad de Londres popularizo el criterio de la chi-cuadrado. El primer ao del nuevo
siglo se anunciaba ya propicio para las aplicaciones de la teoria de probabilidades tanto a la
Iisica como a la genetica, puesto que en 1901 publicaba Jossiah Willard Gibbs (1839-1903),
su obra 'Elementarv Principles in Statistical Mechanics`, y el mismo ao Iue Iundada la
revista Biometrika por Pearson. Borel habia dedicado ya en 1909 sus "Elements de la
theorie des probabilites". En Rusia se inicio el estudio de las cadenas de sucesos
eslabonados o procesos de Markov, especialmente en 1906-1907, por obra de Andrei
55
Andreyevich Markov (1856-1922), discipulo de TchebycheII. En Rusia mismo, Andrel
Nicolaevich Kolmogorov hizo importantes progresos en la teoria de procesos de Markov
(1931) y dio solucion a una parte del sexto problema de Hilbert, en el que se pedia una
fundamentacion axiomatico de la teoria de probabilidades, utilizando la medida de
Lebesgue.
VARIABLES ALEATORIAS
Recordemos que el Espacio Muestral O es el conjunto de todos los resultados
asociados a un experimento. Si O tiene un numero Iinito o numerable de terminos se dice
que O es Discreto. Por el contrario si tiene como elementos todos los puntos de algun
intervalo de la recta real diremos que O es un Espacio Muestral Continuo.
Recordemos tambien que un evento o suceso es un subconjunto cualquiera del
Espacio Muestral.
Practicamente todas las areas de la ciencia moderna estan relacionadas con
mediciones numericas cuyos valores estan aIectados, en algun sentido por mecanismos
aleatorios. Asi cada resultados asociado a un experimento puede ser asociado con un
numero que puede ser especiIicado por una regla de asociacion; por ejemplo, el numero de
componentes electronicos que Iallan antes de 100 horas en una muestra de 10 de ellas, el
peso del equipaje de 25 pasajeros de un avion. Tal regla de asociacion se llama Variable
Aleatoria. Las Variables Aleatorias asocian un valor numerico a un conjunto de resultados
del espacio muestral O. Estos resultados son aleatorios, de aqui el nombre de Variables
Aleatorias.
DeIinicion. Una Variable Aleatoria (v.a.) X es una Iuncion de variable real evaluada en los
elementos del Espacio Muestral
J O . X
) ( X x Z Z =
Dependiendo del recorrido la Variable Aleatoria la clasiIicaremos en Discreta o Continua.
VARIABLES ALEATORIAS DISCRETAS:
DeIinicion. Una Variable Aleatoria X es Discreta si su recorrido Iorma un conjunto de
numeros reales discretos, Iinito o numerable.
Ejemplo. Consideremos el lanzamiento de tres monedas. Sea X la v. a. que indica el
numero de caras que ocurren. En este caso O lo podemos escribir como:
O e: e (e
1
, e
2
, e
3
); e
i
c, s, i 1, 2, 3}
Entonces
56
0 s i ( s , s , s )
1 s i ( s , s , c ), ( c , s , s ) , (s , c , s )
X ( )
2 s i ( c , c, s ), ( c , s , c ), ( s , c , c )
3 s i ( c , c, c )

El recorrido de X es el conjunto 0, 1, 2, 3}, por lo tanto X es una v. a. Discreta.


Es evidente que el recorrido variara de acuerdo a la deIinicion de v. a., aunque se
trate de un mismo experimento. Por ejemplo, si consideramos el mismo experimento del
ejemplo anterior y deIinimos X(e) como la diIerencia entre el numero de caras y sellos,
entonces el recorrido de la v. a. es -3, -1, 1, 3}
A toda v. a. Discreta le podemos asociar una Iuncion de probabilidades.
DeIinicion. La Euncion de Probabilidades para una v. a. discreta X se deIine y denota por:
P
x
(x) P(X(e) x) x e J
y debe satisIacer las condiciones:
i) P
x
(x) t 0 x e J
ii) E P
x
(x) 1
Si A es un suceso relacionado con la v. a. Discreta X; esto es si A es un subconjunto del
recorrido de X, entonces:

e
=
A x
x
) x ( P ) A ( P
Ejemplo.
Dos ampolletas son seleccionadas al azar desde una caja que contiene 5 azules (a) y 3 rojas
(r). Si se deIine una v. a. X como el numero de ampolletas azules seleccionadas, entonces X
toma los valores 0, 1 y 2 por lo tanto R
x
0, 1, 2} indicando que X corresponde a un v. a.
discreta.
X 0 si y solo si las dos ampolletas extraidas son rojas, de las cuales hay tres resultados
Iavorables, por lo tanto
3
2 3
( 0)
8 28
2
P X
| |
|
\ .
= = =
| |
|
\ .
57
X 1 si y solo si se extrae una ampolleta azul y una roja, de estos hay 15 resultados
Iavorables y luego
5 3
1 1 15
( 1)
8 28
2
P X
| || |
| |
\ .\ .
= = =
| |
|
\ .
X 2 si y solo si las dos ampolletas seleccionadas son azules, por lo que
5
2 10
( 2)
8 28
2
P X
| |
|
\ .
= = =
| |
|
\ .
ya que hay 10 resultados Iavorables de un total de 28.
Esta inIormacion, usualmente se dispone en una tabla como la siguiente:
X 0 1 2
P(X x) 3/28 15/28 10/28
Ejemplo. Consideremos el lanzamiento de una moneda balanceada en cuatro ocasiones.
Determinar la Iuncion de probabilidades de la variable aleatoria X que indica el numero de
caras observadas.
El espacio muestral lo podemos escribir como O (c, c, c, c), (c, c, c, s),....., (s, s, s, s)} el
que consta de 16 elementos, cada uno de los cuales tiene probabilidad 1/16, por ser la
moneda balanceada. El recorrido de la variable aleatoria X es R
x
0, 1, 2, 3, 4} por lo que
es una variable aleatoria discreta, y
X 0 P(X 0) 1/16 X 1 P(X 1) 4/16
X 2 P(X 2) 6/16 X 3 P(X 3) 4/16
X 4 P(X 4) 1/16
Luego la Iuncion de probabilidades es:
x 0 1 2 3 4
P(X x) 1/16 4/16 6/16 4/16 1/16
Si deIinimos en este ejemplo, el evento A x. x es par}, tenemos que la
probabilidad de A esta dada por:
P(A) p
x
(0) p
x
(2) p
x
(4) 8/16
La Iuncion de probabilidad para X, 'numero de caras observadas, la podemos
resumir en la expresion siguiente:
4
4 4
1 1
( )
2 16
x
p x
x x
| | | |
| |
= =
| | |
\ .
\ . \ .
con x 0, 1, 2, 3, 4
58
Esta Iuncion de probabilidades la podemos representar graIicamente como un
histograma o graIico de barras, donde cada barra tiene ancho 1 y la altura la probabi lidad
p
x
(x) correspondiente.
VARIABLES ALEATORIAS CONTINUAS:
DeIinicion. Diremos que una variable aleatoria X es continua si su recorrido es un
intervalo de la recta real.
Sea X una v. a. continua. A toda variable continua se le asocia una Iuncion f
x
(x)
llamada Euncion de Densidad de Probabilidad, que debe satisIacer la siguientes
condiciones:
i) f
x
(x) t 0 x e J
ii) }
+

= 1 dx ) x ( f
x
Ademas, para cualquier par de numeros reales a y b con a b se tiene
}
= s s
b
a
x
dx ) x ( f ) b x a ( P
Ejemplo. Un estudiante toma un bus para ir a la universidad y sabe que cada 5 minutos
pasa el bus por el paradero. El estudiante no siempre llega a la misma hora al paradero, de
manera que el tiempo de espera, X para tomar el proximo bus es una v. a. continua. El
recorrido de X es el intervalo |0, 5| y se encontro que la siguiente Iuncion de densidad de
probabilidades apropiada para X.

=
0
5
1
) x ( f
x
Claramente
Si 0 s x s 5
En otro caso
0 1 2 3 4
Figura1. Distribucion de probabilidades
para el numero de caras
6/16
4/16
1/6
59
f
x
(x) t 0 x y
1 dx
5
1
5
0
=
}
La probabilidad de que el estudiante tenga que esperar entre 1 y 3 minutos es:
5
2
dx
5
1
) 3 x 1 ( P
3
1
= = s s
}
Similarmente la probabilidad de que tenga que esperar mas de 4 minutos es:
5
1
dx
5
1
) 5 x 4 ( P
5
4
= = s s
}
EUNCION DE DISTRIBUCION
Toda v. a. tiene siempre asociada otra Iuncion, llamada Euncion de Distribucion o Euncion
de Distribucion Acumulada. Esta Iuncion puede utilizarse para evaluar probabilidades
asociadas con la v. a. en cuestion y presenta la ventaja de que es apropiada tanto para v. a.
Discretas como Continuas.
Sea X una v. a., la Euncion de Distribucion de X denotada por F
x
(t), es una Iuncion de
variable real t tal que el dominio de F
x
es toda la recta real y:
F
x
(t) P(X s t), t e J
Dado que la Euncion de Distribucion nos proporciona el valor de la probabilidad que X s t,
donde t es un numero real, existen las siguientes reglas para que una Iuncion de variable
real H(t) sea una Euncion de Distribucion para alguna v. a. Estas son:
1)
0 ( ) 1, H t t s s e J
2)
lim ( ) 0
t
H t

=
y
3)
( ) ( ), H a H b a b s <
(H es monotona no decreciente)
4)
0
lim ( ) ( ),

+ =
h
H b h H b b
(continuidad a derecha)
1 ) t ( H lim
t
=
+
60
Sea H(x) deIinida como sigue:
Note que H(x) presenta un punto de discontinuidad en x 1. Esta Iuncion esta deIinida para
todo numero real y satisIace las propiedades de una Iuncion de distribucion.
Ejemplo.
Sea H(x) una Iuncion deIinida por:

2
x
2
e 1
0
) x ( H
Si x s 0
Si x ~ 0
2
0 si 0
si 0 1
2
3
( ) si 1 2
4
1
si 2 3
4
1 3
<

s <

= s <

+
s <

>

x
x
x
H x x
x
x
si x
0.75
0.5 1 1.5 2 2.5 3 3.5 4
H(x)
:
:
x
1
0.5
0.25
1
0.8
0.6
0.4
0.2
H(x)
x
2 4 6 8 9 10
61
Claramente H(x) satisIace las condiciones, por lo tanto H corresponde a la Iuncion de
distribucion acumulada de alguna variable aleatoria .
Si conocemos la Iuncion de probabilidades para una v. a. discreta, podemos determinar
Iacilmente su Iuncion de distribucion mediante la expresion

s
J e =
t x
x x
t ), x ( p ) t ( F
Analogamente, si X es una v. a. continua con Iuncion de densidad f
x
(x) entonces
determinamos su Iuncion de distribucion como:
}

J e =
t
x x
t , dx ) x ( f ) t ( F
Ejemplo. Consideremos la Iuncion de probabilidades dada en la tabla siguiente:
x 2 3 4
P(X x) 1/4 1/2 1/4
Para determinar la Iuncion de distribucion de X, notemos que
F
x
(2) P(X s 2) p
x
(2) /
F
x
(3) P(X s 3) p
x
(2) p
x
(3) /
F
x
(4) P(X s 4) p
x
(2) p
x
(3) p
x
(4) 1
Asi, tenemos deIinida la Iuncion de distribucion para los numeros 2, 3 y 4 Cual es el valor
de F
x
(x) para x distinto de 2, 3 y 4?
Recordemos que F
x
(x) esta deIinida para todo numero real, de manera que debemos
calcular F
x
(x) para valores positivos y negativos de x. Es claro en este ejemplo que el valor
mas pequeo que puede ocurrir para X es 2. Asi para cualquier x 2, el evento X s x} es
vacio, por lo tanto, F
x
(x) 0 para x 2.
El evento X s 2} ocurre cuando el valor observado de X es 2 y entonces p
x
(2) /.
Ahora, si consideramos cualquier 2 x 3, el evento X s x} ocurre si observamos x 2;
esto es, F
x
(x)
1
4
x e |2, 3| y asi, la Iuncion de distribucion es constante en dicho
intervalo. El evento X s 3} ocurre si ocurre 2 o 3, entonces F
x
(x) P(X s 3) p
x
(2)
p
x
(3) /
Dado que no hay valores observados para X en el intervalo|3, 4|, F
x
(x) debe permanecer
constante en este intervalo y F
x
(x) / x e |3, 4|.
El evento X s 4} ocurre si ocurre 2 o 3 o 4, de tal manera que
62
F
x
(x) P(X s 4) p
x
(2) p
x
(3) p
x
(4) 1
El evento X s x}, donde x es cualquier numero real mayor que 4, ocurre si X 2 o X 3 o
X 4, por lo tanto F
x
(x) 1 x ~ 4.
Resumiendo, tenemos que la Iuncion de distribucion de X esta dada por

=
1
4
3
4
1
0
) x ( F
x
A continuacion se presenta el graIico de F
x
(x)
El graIico de la Iuncion de distribucion de una v. a. discreta tiene siempre la Iorma
escalonada y presenta saltos en los puntos donde la variable asume valores.
MEDIDAS CARACTERISTICAS DE UNA V. A.
MEDIDAS DE CENTRALIZACION
La medida de centralizacion mas utilizada es la media (P) o Esperan:a Matematica E(x) de
la variable, que se obtiene promediando cada posible valor por su probabilidad. En el caso
discreto: E|X|

x
x
) x ( xp ; y E|X| dx x xf
x
}
; si X es una v. a. continua.
E|X| esta deIinida como la serie indicada siempre que dicha serie sea absolutamente
convergente; de otra Iorma, diremos que la media no existe. Analogamente para una v. a.
continua, E|X| esta deIinida, solo si la integral existe.
Si x 2
Si 2 s x 3
Si 3 s x 4
Si x > 4
0.75
0.50
0.25
1
2 3 4
x
F
x
(x)
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
63
MEDIDAS DE DISPERSION
Como en las distribuciones de Irecuencias, podemos asociar a cada medida de
centralizacion una medida de dispersion. A la media se le asocia la desviacion tipica cuyo
cuadrado es la varian:a.
DeIinicion. La Varianza o Dispersion de una v. a. X, que denotaremos por
2
x
V o Var(X), se
deIine por
2
x
V E|(X -
x
)
2
|
2
( ) ( ) x f x dx P

}
y su raiz cuadrada positiva,
x
V se le llama Desviacion Estandar o Tipica de X .
Algunas propiedades de la varianza estan dadas en el siguiente teorema. La demostracion se
deja como ejercicio
Teorema: Sea X una v. a. con media y varianza
2
V Entonces:
i) Var (k) 0, con k constante
ii) Var(k X) Var(X)
iii) Var(kX) k
2
Var(X)
La varianza es por deIinicion una cantidad no negativa y proporciona la variabilidad
de las mediciones en torno a la media. En el caso discreto corresponde a una suma
ponderada de las distancias desde los valores asumidos por la variable al centro de la
distribucion, representado por la esperanza de la variable en cuestion. Asi tanto la varianza
como la desviacion estandar son medidas de dispersion de una variable. Como tales no son
unicas, existiendo otras medidas de dispersion utiles en situaciones determinadas. Por
ejemplo, la desviacion media D E|,X - ,| y el recorrido intercuartilico Q P
75
P
25
Conocida la media y la varianza de una v. a. X podemos aproximar probabilidades
respecto de ella sin conocer explicitamente su distribucion. De hecho, lo que se obtiene es
una cota para dichas probabilidades. Para establecer la cota, consideremos previamente el
siguiente teorema general.
Teorema: Sea X una v. a. y g(X) una Iuncion no negativa de X con dominio en J Entonces
P(g(X) > k) s
> @
k
X g E
, k ~ 0
Teorema: (desigualdad de Chebyshev) Sea X una v. a. con media
x
y desviacion estandar
x
V Entonces:
P(,X -
x
, > r
x
V ) s
2
r
1
con r ~ 0
64
Notemos que la desigualdad de Chebyshev la podemos escribir en Iorma alternativa como
P(,X -
x
, r
x
V ) > 1 -
2
r
1
O lo que es lo mismo P(
x
- r
x
V X
x
r
x
V ) > 1 -
2
r
1
La desigualdad de Chebyshev, como ya lo hemos mencionado, es muy util para aproximar
probabilidades acerca de una v. a. cuya Iuncion de probabilidad y/o densidad no es
conocida. Se puede veriIicar, conocida la distribucion de probabilidades, que la cota de
Chebyshev es razonablemente buena si r es un numero grande.
MODELOS UNIVARIANTES DE DISTRIBUCION DE PROBABILIDAD
Entre los modelos de distribucion de probabilidades mas conocidos tenemos:
Distribuciones discretas: Binomial, Poisson, Hipergeometrica.
Distribuciones continuas: Normal, Chi
2
de Pearson, t de Student, E de Snedecor, Erlang,
Exponencial, Weibull. Por problema de espacio solo estudiaremos en parte la mas
importantes de las distribuciones la distribucion normal.
DISTRIBUCION NORMAL
La distribucion normal o de Gauss es sin duda la mas importante de cuantas hay, tanto por
razones practicas como teoricas, su Iuncion de densidad es:
2
2
1 1
( ) exp ( )
2 2
f x x P
V V S
(
=
(

, x < <
La Iuncion f depende de dos parametro: , que es al mismo tiempo, la media, la mediana y
la moda de la distribucion, y o, que es la desviacion tipica.
La distribucion normal aproxima lo observado en muchos procesos de medicion sin errores
sistematicos. Por ejemplo, las medidas Iisicas del cuerpo humano en una poblacion, las
caracteristicas psiquicas medidas por test de inteligencia o personalidad, las medidas de
calidad en muchos proceso industriales o los errores de las observaciones astronomicas
Euncion de densidad de la distribucion normal
65
siguen distribuciones aproximadamente normales. Una justiIicacion de la Irecuente
aparicion de la distribucion normal es el teorema central del limite, que dice, en terminos
simples, si x
1
, ..., x
n
son v.a. independientes con media
i
y varianza o
i
y una
distribucion cualquiera - no necesariamente la misma - y Iormamos la variable suma Y
x
1
. . . x
n
entonces, cuando n crece, la variable
2
i
i
Y
:
P
V

tiende hacia una


distribucion normal con media cero y varianza uno. El resultado anterior implica que si n
es grande (n~30), podemos aproximar las probabilidades de Y utilizando el hecho que Y
se distribuye aproximadamente normal con media
i
P

y varianza
2
i
V

esto se
anota Y ~N(
2
;
i i
P V

) . El teorema del limite central es muy importante en
inIerencia estadistica. Muchos estimadores o estadisticos que se usan para hacer inIerencia
acerca de los parametros de una poblacion, son sumas o promedios de las observaciones
muestrales, cuando esto es cierto y cuando tenemos un tamao de muestra suIicientemente
grande, podemos esperar, de acuerdo con el teorema central del limite, que el estadistico
posea una distribucion normal, cuando se repite el muestreo muchas veces.
BIBLIOGRAEIA
1. Mora/Cid/Valenzuela. Probabilidades y estadistica. Universidad de Concepcion
1996.
2. Mendenhall, William. Introduccion a la Probabilidad y la Estadistica. Grupo
Editorial Iberoamerica. Mexico, D.E. 1994.
3. Pea Sanchez de Rivera, Daniel. Estadistica Modelos y Metodos. Vol 1. Alianza
Editorial, Madrid Espaa. 1995.

Potrebbero piacerti anche