Sei sulla pagina 1di 23

Nociones básicas de probabilidad

La noción de probabilidad mide la frecuencia y posibilidad con la que puede suceder un


resultado ya sea en un experimento aleatorio, del que se conocen todos los resultados
posibles, bajo condiciones suficientemente estables; O en tu vida diaria donde tienes que
tomar distintas decisiones donde puedes suponer los resultados y haya la probabilidad de
que algo en específico suceda. La teoría de la probabilidad se usa extensamente en
materias como la estadística, la física, la matemática, las ciencias y la filosofía para sacar
conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecánica
subyacente de sistemas complejos.

Tipos de probabilidades

Una de las características de un experimento aleatorio es que no se sabe qué resultado


particular se obtendrá al realizarlo. Es decir, si A es un suceso asociado con un experimento
aleatorio, no podemos indicar con certeza si A ocurrirá o no en una prueba en particular.
Por lo tanto, puede ser importante tratar de asociar un número al suceso A que mida la
probabilidad de que el suceso ocurra. Este número es el que llamaremos P(A).
Espacios muestrales finitos

Al conjunto formado por todos los posibles resultados elementales de un experimento


aleatorio se le denomina espacio muestral de dicho experimento. Dependiendo de cómo sea
este conjunto, los espacios muestrales pueden ser:
 Espacio muestral discreto finito. Consta de un número finito de elementos, por
ejemplo lanzar un dado.
 Espacio muestral discreto infinito. Consta de un número infinito numerable de
elementos, por ejemplo lanzar un dado hasta que salga un cinco.
 Espacio muestral continuo. Consta de un número infinito no numerable de
elementos, por ejemplo todas las medidas posibles de espárragos extraídos
aleatoriamente de una población.
Consideremos por ejemplo:
1. El experimento consistente en el lanzamiento de un dado y anotar el resultado de la
cara superior. El espacio muestral sería:
E={ 1 , 2 , 3 , 4 , 5 , 6 }
2. El experimento consistente en el lanzamiento de dos monedas al aire. El espacio
muestral o conjunto de todos los resultados elementales posibles sería:
E = { CCC , CCF , CFC , FCC , CFF , FCF , FFC , FFF}
3. El experimento consistente en elegir aleatoriamente cualquier número de tres cifras
mediante la extracción con reemplazamiento de bolas de una urna en la que
aparecen las diez cifras significativas. En este caso el espacio muestral sería:
E = { 000 , 001 ,................... , 999 }
4. El experimento consistente en el lanzamiento de dos dados de los que después se
escogerá la mejor de las puntuaciones. El espacio muestral sería:
E=[ 1 , 2 , 3 , 4 , 5 , 6 ]
5. El experimento consistente en abrir aleatoriamente un libro y anotar después la
primera letra de la página de la izquierda. El espacio muestral en este caso sería:
E = { A , B , ................. , Z}
En la siguiente escena puedes observar algunos ejemplos de experimentos aleatorios, sus
espacios muestrales y cómo construirlos.
Leyes de probabilidad

La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la


matemáticas, las ciencias y la filosofía para sacar conclusiones sobre la probabilidad
discreta de sucesos potenciales y la mecánica subyacente discreta de sistemas complejos.

La probabilidad constituye un importante parámetro en la determinación de las diversas


casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico.

Existen diversas formas como método abstracto, como la teoría de dempster y la teoría de
la relatividad numérica, esta última con un alto grado de aceptación si se toma en cuenta
que disminuye considerablemente las posibilidades hasta un nivel mínimo ya que somete a
todas las antiguas reglas a una simple ley de relatividad.

La probabilidad de un evento se denota con la letra p y se expresa en términos de una


fracción y no en porcentajes, por lo que el valor de p cae entre 0 y 1. Por otra parte, la
probabilidad de que un evento “no ocurra” equivale a 1 menos el valor de p y se denota con
la letra q

P(Q) = 1 - P(E)

Los tres métodos para calcular las probabilidades son la regla de la adición, la regla de la
multiplicación.
Regla de la adición

La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de


cualquier evento en particular es igual a la suma de las probabilidades individuales, si es
que los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo
tiempo.

P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente. P(A o B) =


P(A) + P(B) − P(A y B) si A y B son no excluyentes.

Siendo: P(A) = probabilidad de ocurrencia del evento A. P(B) = probabilidad de ocurrencia


del evento B. P(A y B) = probabilidad de ocurrencia simultánea de los eventos A y B.

Regla de la multiplicación

La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más


eventos estadísticamente independientes es igual al producto de sus probabilidades
individuales.

P(A y B) = P(A B) = P(A)P(B) si A y B son independientes. P(A y B) = P(A B) =


P(A)P(B|A) si A y B son dependientes
La regla de Laplace establece que:

La probabilidad de ocurrencia de un suceso imposible es 0.

La probabilidad de ocurrencia de un suceso seguro es 1, es decir, P(A) = 1.

Para aplicar la regla de Laplace es necesario que los experimentos den lugar a sucesos
equiprobables, es decir, que todos tengan o posean la misma probabilidad.

La probabilidad de que ocurra un suceso se calcula así:

P(A) = Nº de casos favorables / Nº de resultados posibles

Esto significa que: la probabilidad del evento A es igual al cociente del número de casos
favorables (los casos dónde sucede A) sobre el total de casos posibles.

Probabilidad condicional

Como la probabilidad está ligada a nuestra ignorancia sobre los resultados de la


experiencia, el hecho de que ocurra un suceso, puede cambiar la probabilidad de los demás.
El proceso de realizar la historia clínica, explorar y realizar pruebas complementarias
ilustra este principio.
La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se
denomina probabilidad condicionada y se define
Esta definición es consistente, es decir cumple los axiomas de probabilidad.
Cuando ocurre un suceso cambia el espacio muestral, por eso cambia la probabilidad. A
veces es más fácil calcular la probabilidad condicionada teniendo en cuenta este cambio de
espacio muestral.
Ejemplo
Una mujer es portadora de la enfermedad de Duchenne ¿Cuál es la probabilidad de que su
próximo hijo tenga la enfermedad?
Según las leyes de Mendel, todos los posibles genotipos de un hijo de una madre portadora
(xX) y un padre normal (XY) son xX, xY, XX, XY y tienen la misma probabilidad. El
espacio muestral es W = {xX, xY, XX, XY}
El suceso A={hijo enfermo} corresponde al genotipo xY, por tanto, según la definición
clásica de probabilidad
p(A) = 1/4 = 0,25
La mujer tiene el hijo y es varón ¿qué probabilidad hay de que tenga la enfermedad?
Se define el suceso B = {ser varón} = {xY, XY}
La probabilidad pedida es p(A|B) y aplicando la definición anterior
p(B) = 0,5; A Ç B = {xY}; p(A ÇB) = 0,25; p(A|B) = 0,25/0,5 = 0,5
Si sabemos que es varón, el espacio muestral ha cambiado, ahora es B. Por lo tanto se
puede calcular p(A|B) aplicando la definición clásica de probabilidad al nuevo espacio
muestral
p(A|B) = 1/2 = 0,5
Independencia y regla de la multiplicación

Si A y B son dos eventos independientes en un experimento de probabilidad , entonces la


probabilidad que ambos eventos ocurran simultáneamente es:

En caso de los eventos dependientes , la probabilidad que ambos eventos ocurran


simultáneamente es:

(La notación significa "la probabilidad de B , dado que A ha ocurrido".)


Ejemplo:
Suponga que saca dos cartas de un paquete de cartas una después de la otra, sin reemplazar
la primera carta. Cuál es la probabilidad de que la primera carta sea un as y la segunda carta
sea una de espadas?
Los dos eventos son eventos dependientes porque la primera carta no es reemplazada.
Teorema de Bayes

El teorema de Bayes parte de una situación en la que es posible conocer las probabilidades
de que ocurran una serie de sucesos Ai.

A esta se añade un suceso B cuya ocurrencia proporciona cierta información, porque las
probabilidades de ocurrencia de B son distintas según el suceso Ai que haya ocurrido.

Conociendo que ha ocurrido el suceso B, la fórmula del teorema de Bayes nos indica como
modifica esta información las probabilidades de los sucesos Ai.

El teorema de Bayes es un procedimiento para obtener probabilidades condicionales


(probabilidades de ocurrencia de acontecimientos condicionadas a la ocurrencia de otros
acontecimientos). La expresión del teorema de Bayes para dos variables discretas es:

Para variables que toman más de dos valores, la expresión es:

El teorema de Bayes da respuesta a cuestiones de tipo causal, predictivas y de diagnóstico.


En las cuestiones causales queremos saber cuál es la probabilidad de acontecimientos que
son la consecuencia de otros acontecimientos. En las cuestiones predictivas queremos saber
cuál es la probabilidad de acontecimientos dada información de la ocurrencia de los
acontecimientos predictores. En las cuestiones de tipo diagnóstico queremos saber cuál es
la probabilidad del acontecimiento (o acontecimientos) causales o predictivos dado que
tenemos información de las consecuencias. Para resumir, en las situaciones causales o
predictivas desconocemos las consecuencias y tenemos evidencia de las causas. Por el
contrario, en las situaciones de diagnóstico desconocemos las causas y tenemos evidencia
de las consecuencias.
Ejemplo

Unos psicólogos especializados en el tratamiento de trastornos de personalidad están


interesados en diagnosticar el trastorno que afecta un paciente, en el que observan un
conjunto de síntomas que indican que el paciente podría sufrir el trastorno A o el trastorno
B. Además saben que los porcentajes de individuos afectados por los trastornos A, B o
ningún trastorno son 10, 30 y 70. También saben que el porcentaje de individuos afectados
por el trastorno A y que muestran el síntoma X es igual al 60%, el porcentaje de individuos
que sufren el trastorno B y muestran el síntoma X es el 30% y el porcentaje de individuos
no afectados que muestran los síntomas de trastorno es el 10%. Resumiendo, la
información que disponemos es:

Sustituyendo en el teorema de Bayes:

La probabilidad de que el individuo padezca el trastorno A es 0.27. Las probabilidades de


que esté afectado por el trastorno B o el C son:
La conclusión es que lo más probable es que el individuo padezca el trastorno B, pero es un
valor moderado y los psicólogos piensan que hay que obtener más evidencia.

El teorema de Bayes es especialmente adecuado para actualizar las conclusiones a medida


que disponemos de nueva información. Pasado un tiempo observan que el paciente muestra
un nuevo síntoma (Y), y saben que presentan Y el 70% de los individuos que sufren el
trastorno A, el 20% de los individuos que sufren B y el 10% de los individuos que padecen
el trastorno C. Para obtener las probabilidades incorporando la nueva información hacemos
que las probabilidades posteriores pasen a ser las probabilidades previas:

Una vez hechos los cálculos la probabilidad de que el individuo esté afectado por el
trastorno A ha pasado de 0.27 a 0.62
Variables aleatorias discretas unidimensionales

Definición

Una variable aleatoria es un valor numérico asociado al resultado de un experimento


aleatorio. Toda variable aleatoria tiene asociada dos tipos de funciones: la función de
distribución y la función de densidad.

La función de distribución de una variable aleatoria [que llamaremos F(x)] permite conocer
cómo se reparte la probabilidad sobre los valores que toma la variable; es una función que a
cada número real x le asocia la probabilidad de que la variable tome los valores menores o
iguales que x. Formalmente: F(x) = Pr(w/-∞ ˂ X ≤ x) = Pr(X ≤ x) donde x pertenece a los
reales. Entonces F(x) representa la probabilidad acumulada hasta el punto x.
F(x) debe satisfacer ciertas condiciones:

· F(x) es una función monótona no decreciente (esto lo verificamos derivando a la función


y viendo si es positiva en todo su dominio).

· F(-∞) = 0 (tomar límite con x tendiendo a -∞)

· F(∞) = 1 (tomar límite con x tendiendo a ∞)

· F(x) es continua por la derecha.

De estas condiciones se desprenden las siguientes propiedades:

1. Pr(X ≤ b) = F(b)

2. Pr(a ˂ X ≤ b) = F(b) – F(a)

Existen tres tipos de variables aleatorias: discretas, continuas, mixtas.

Variables aleatorias discretas: una variable aleatoria X se dice que es discreta si el


conjunto de valores que toma con probabilidad no nula (dominio) es finito o infinito
numerable. La probabilidad con que la variable toma cada uno de los posibles valores:
Pr(Xi = xi) con i= 1,2,3,….,n,… se le denomina función de densidad discreta o función de
cuantía; y cumple las siguientes dos propiedades: 1) 0 ≤ Pr(X=xi) ≤ 1; 2) Σ Pr(X=xi) = 1.
Es importante entender que las probabilidades son puntuales, o sea que la probabilidad
pertenece a un punto dado de x.

Variables aleatorias continuas: una variable aleatoria X se dice que es continua si puede
tomar (con probabilidad no nula) los infinitos valores de un intervalo; en este caso, la
probabilidad puntual es cero; en este tipo de variables sólo tiene sentido calcular
probabilidades de intervalos de valores. La función de distribución se puede expresar como
la integral de una determinada función f(x), llamada función de densidad, de modo que:
F(x) = Pr(X ≤ x) = ∫-∞x f(x) dx. Si f(x) es continua, tenemos la relación: (d/dx) F(x) = f(x).
La función de densidad tiene que cumplir las siguientes condiciones: 1) es no negativa: f(x)
≥ 0 para todo x perteneciente a los reales, 2) la integral en toda la recta es igual a la unidad:
∫-∞∞ f(x) dx = 1.

Podemos nombrar algunas propiedades:

1. Pr(a ˂ X ≤ b) = F(b) – F(a) = ∫ab f(x) dx

2. Pr(X ˃ a) = 1 – Pr(X ≤ a) = ∫a∞ f(x) dx

3. Pr( X ≤ b) = F(b) = ∫-∞b f(x) dx = 1 - ∫b∞ f(x) dx

Variables aleatorias mixtas: una variable aleatoria X tiene una distribución mixta si tiene
una parte continua y otra discreta. Es decir, existe una función f(.) y un conjunto de
números reales xi con probabilidades Pr(X = xi) ˃ 0 , i ≥ 1 tales que para cada A contenido
en los reales se verifica: Pr(X ϵ A) = ∫A f(x) dx + ΣA Pr(X = xi)
Distribución de probabilidad

Una distribución de probabilidad indica toda la gama de valores que pueden representarse
como resultado de un experimento si éste se llevase a cabo. Es decir, describe la
probabilidad de que un evento se realice en el futuro, constituye una herramienta
fundamental para la prospectiva, puesto que se puede diseñar un escenario de
acontecimientos futuros considerando las tendencias actuales de diversos fenómenos
naturales
Toda distribución de probabilidad es generada por una variable (porque puede tomar
diferentes valores) aleatoria x (porque el valor tomado es totalmente al azar), y puede ser de
dos tipos:
Variable aleatoria discreta (x). Porque solo puede tomar valores enteros y un número
finito de ellos. Por ejemplo: X Variable que nos define el número de alumnos aprobados en
la materia de probabilidad en un grupo de 40 alumnos (1, 2 ,3…ó los 40).
Propiedades de una variable aleatoria discreta (x) p(xi)<1 Las probabilidades asociadas
a cada uno de los valores que toma x deben ser mayores o iguales a cero y menores o
iguales a 1. E p(xi) = 1 La sumatoria de las probabilidades asociadas a cada uno de los
valores que toma x debe ser igual a 1.
Ejemplo de la distribución de pesos. La distribución normal continua puede describir la
distribución del peso de hombres adultos. Por ejemplo, usted puede calcular la probabilidad
de que un hombre pese entre 160 y 170 libras.
Gráfica de distribución del peso de hombres adultos
El área sombreada debajo de la curva en este ejemplo representa el rango de 160 a 170
libras. El área de este rango es 0.136; por lo tanto, la probabilidad de que un hombre
seleccionado aleatoriamente pese entre 160 y 170 libras es de 13.6%. Toda el área por
debajo de la curva equivale a 1.0.
Esperanza y varianza

Esperanza matemática: sea X una variable aleatoria discreta que toma los valores
X={x1,x2,……} con probabilidades Pr(X=xi), i=1,2,…. Llamaremos media, esperanza
matemática o valor esperado de X, a la cantidad:
E(X) = Σ xi Pr(X=xi), siempre que la serie anterior sea absolutamente convergente. Si X es
una variable aleatoria continua con función de densidad f(x), la media, esperanza
matemática o valor esperado se define como: E(X) = ∫ x f(x) dx, siempre que el valor de la
integral sea finito.
Cuando la serie o integral que definen la esperanza son divergentes, es decir, con valor
infinito, se dice que la variable X no tiene esperanza, o que X no presenta una regularidad
media.
Una propiedad interesante es: sea X una variable aleatoria continua y positiva con función
de distribución F(x) y media finita, entonces la esperanza matemática se puede obtener de
forma alternativa por medio de la expresión:
E(X) = ∫0∞ [1-F(x)] dx

Varianza: es una medida de dispersión y permite estudiar la representatividad de la media.


Es una medida que da cuenta de cómo están concentrados los valores de la variable
alrededor de su media. Para tal fin parecería una posibilidad, considerar las diferencias
entre los valores de la variable y el valor esperado, para luego calcular el valor medio de
tales diferencias; pero si recordamos la propiedad 1 de la esperanza, vimos que este
resultado da 0 porque se compensan los valores que sobrepasan la media con aquellos que
están por debajo de dicho valor; para solucionar este problema, elevamos al cuadrado la
diferencia:
Var(X) = E [X – E(X)]^2 = E(X^2) – [E(X)]^2 (se comprueba la igualdad al desarrollar el
cuadrado).
Llamamos desvío típico a la raíz cuadrada de la varianza, y se expresa por: σ(x). Es
importante tener en cuenta que la varianza no tiene la misma medida de unidad que la
variable, sino que es esa medida al cuadrado; mientras que el desvío trabaja con la misma
unidad que la variable.
La varianza verifica las siguientes propiedades:
La varianza es siempre no negativa, Var(X) ≥ 0. Además: Var(X) = 0 sii X =c donde c es
una constante.
Sea Y=a+bX, entonces Var(Y) = b^2 Var(X); σ(y) = |b| σ(x)
Si X es una variable aleatoria con media E(X) y varianza Var(X) y definimos la variable
tipificada como: Z= [X – E(X)] / σ(x), se verifica que E(Z) = 0 y Var(Z)=1.
Sean X e Y dos variables independientes, entonces Var(X + Y) = Var(X) + VAR(Y).
Además, Var(X – Y) = Var(X) + Var(Y).
Distribuciones de probabilidad de variables aleatorias discretas

Distribución binomial

Una distribución binomial es una distribución de probabilidad discreta que describe el


número de éxitos al realizar n experimentos independientes entre sí, acerca de una variable
aleatoria.

Existen una gran diversidad de experimentos o sucesos que pueden ser caracterizados bajo
esta distribución de probabilidad. Imaginemos el lanzamiento de una moneda en el que
definimos el suceso “sacar cara” como el éxito. Si lanzamos 5 veces la moneda y contamos
los éxitos (sacar cara) que obtenemos, nuestra distribución de probabilidades se ajustaría a
una distribución binomial.

Formula de la distribución binomial

La fórmula para calcular la distribución normal es:


Dónde:
n = número de ensayos/experimentos
x = número de éxitos
p = probabilidad de éxito
q = probabilidad de fracaso (1-p)
Es importante resaltar que la expresión entre corchetes no es una expresión matricial, sino
que es un resultado de una combinatoria sin repetición. Este se obtiene con la siguiente
formula:
Ejemplo de distribución binomial
Imaginemos que un 80% de personas en el mundo han visto el partido de la final del último
mundial de futbol. Tras el evento, 4 amigos se reúnen a conversar, ¿Cuál es la probabilidad
de que 3 de ellos hayan visto?
Definamos las variables del experimento:
n = 4 (es el total de la muestra que tenemos)
x = número de éxitos, que en este caso es igual a 3, dado que buscamos la probabilidad de
que 3 de los 4 amigos lo hayan visto.
p = probabilidad de éxito (0,8)
q = probabilidad de fracaso (0,2). Este resultado se obtiene al restar 1-p.
Tras definir todas nuestras variables, simplemente sustituimos en la formula.

El numerador del factorial se obtendría de multiplicar 4*3*2*1 = 24 y en el denominador


tendríamos 3*2*1*1 = 6. Por lo tanto el resultado del factorial sería 24/6=4.
Fuera del corchete tenemos dos números. El primero sería 0,8^3=0,512 y el segundo 0,2
(dado que 4-3 = 1 y cualquier número elevado a 1 es el mismo).
Por tanto nuestro resultado final sería: 4*0,512*0,2 = 0,4096. Si multiplicamos por 100
tenemos que hay una probabilidad del 40,96% de que 3 de los 4 amigos hayan visto el
partido de la final del mundial.
Distribución geométrica

Definamos una experiencia aleatoria cuyo resultado sólo puede ser el suceso A o su
complementario Ac, y que se repite secuencialmente hasta que aparece el suceso A por
primera vez.
Definamos la variable aleatoria X como el número de veces que repetimos la experiencia en
condiciones independientes hasta que se dé A por primera vez. Bajo estas condiciones,
decimos que la variable X sigue una distribución geométrica o de Pascal de parámetro p =
P(A).
La función de densidad puede deducirse fácilmente de la definición:
f(k) = P[X = k] = (1 − p)k p k = 0, 1, 2, ...
En el programa siguiente podéis ver su forma y obtener los valores de la función de
densidad y de la de distribución:
Algunas puntualizaciones de la definición de X:
 Nótese que, en esta definición, condiciones independientes significa que p, la
probabilidad de A, y 1 − p, la de su complementario Ac, no varían a lo largo de las
sucesivas repeticiones de la experiencia.
 Tal y como la hemos definido, X se refiere al número de lanzamientos hasta que se
produce A, pero sin contabilizar el último caso en que se da A. Por dicha
razón X puede tomar los valores k = 0, 1, 2, ... con probabilidad no nula.
Un ejemplo de este modelo podría ser la experiencia consistente en lanzar sucesivamente
un dado regular hasta que aparezca el número 6. Si definimos la variable aleatoria X como
el número de lanzamientos de un dado regular hasta que aparezca un 6, queda claro
que X sigue una distribución geométrica de parámetro p = 1/6.
Preguntas:
 ¿A que suceso nos referimos cuando decimos X = 0?

Cuando decimos que X = 0 nos referimos al caso en que el 6 aparece en el primer


lanzamiento. La probabilidad de que esto suceda, suponiendo un dado regular, es de
1/6:

 P[X = 0] = 1/6
 ¿Cuál es la probabilidad de que el primer 6 aparezca en el cuarto lanzamiento?
La probabilidad de que el primer 6 aparezca en el cuarto lanzamiento corresponde a:

P[X = 3] = (5/6)3 ´ 1/6 = 0,0965

Fijémonos en que, si definimos A como el suceso sale un 6, la probabilidad anterior


corresponde a la del suceso: {Ac Ac Ac A} (en este orden).

Propiedades del modelo Geométrico o de Pascal


1) Esperanza: E(X) = (1 − p)/p
2) Varianza: V(X) = (1 − p)/p2
Distribución de Poisson

La distribución de Poisson es una distribución de probabilidad discreta que se aplica a las


ocurrencias de algún suceso durante un intervalo determinado. Nuestra variable
aleatoria x representará el número de ocurrencias de un suceso en un intervalo
determinado, el cual podrá ser tiempo, distancia, área, volumen o alguna otra unidad
similar o derivada de éstas.
La probabilidad de nuestra variable aleatoria X viene dada por la siguiente expresión:

dónde:

 Nuestra variable aleatoria discreta puede tomar los valores:


 donde es la media del número de sucesos en el intervalo que estemos tomando, ya
sea de tiempo, distancia, volumen, etc. Es importante entender que este valor es una
media en el sentido estrictamente estadístico de la palabra y como tal se calculará
mediante dicha expresión y no debe calcularse nunca con una regla de
proporcionalidad o regla de tres.

 Se debe cumplir la condición de normalización

 La desviación típica es
 Cuando realizamos un experimento contando sucesos y obtenemos un valor x, su error

vendrá determinado por la raíz de x.


La distribución de Poisson debe de cumplir los siguientes requisitos:
 La variable discreta es el número de ocurrencias de un suceso durante un intervalo
(esto es la propia definición que hemos dado anteriormente).
 Las ocurrencias deben ser aleatorias y no contener ningún vicio que favorezca unas
ocurrencias en favor de otras.
 Las ocurrencias deben estar uniformemente distribuidas dentro del intervalo que se
emplee.
Se trata de un modelo discreto, pero en el que el conjunto de valores con probabilidad no
nula no es finito, sino numerable. Se dice que una variable aleatoria X sigue la distribución
de Poisson si su función de densidad viene dada por:


 Como vemos, este modelo se caracteriza por un sólo parámetro λ, que debe ser
positivo.
 Esta distribución suele utilizarse para contajes del tipo número de individuos por
unidad de tiempo, de espacio, etc.
Propiedades del modelo de Poisson
1) Esperanza: E(X) = λ.
2) Varianza: V(X) = λ.
En esta distribución la esperanza y la varianza coinciden.
3) La suma de dos variables aleatorias independientes con distribución de Poisson resulta
en una nueva variable aleatoria, también con distribución de Poisson, de parámetro igual a
la suma de parámetros:
X1 ~ P(λ = λ1) y X2 ~ P(λ = λ2)
y definimos Z = X1 + X2, entonces,
Z ~ P(λ = λ1 + λ2)
Este resultado se extiende inmediatamente al caso de n variables aleatorias independientes
con distribución de Poisson. En este caso, la variable suma de todas ellas sigue una
distribución de Poisson de parámetro igual a la suma de los parámetros.

Potrebbero piacerti anche