Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Tipos de probabilidades
Existen diversas formas como método abstracto, como la teoría de dempster y la teoría de
la relatividad numérica, esta última con un alto grado de aceptación si se toma en cuenta
que disminuye considerablemente las posibilidades hasta un nivel mínimo ya que somete a
todas las antiguas reglas a una simple ley de relatividad.
P(Q) = 1 - P(E)
Los tres métodos para calcular las probabilidades son la regla de la adición, la regla de la
multiplicación.
Regla de la adición
Regla de la multiplicación
Para aplicar la regla de Laplace es necesario que los experimentos den lugar a sucesos
equiprobables, es decir, que todos tengan o posean la misma probabilidad.
Esto significa que: la probabilidad del evento A es igual al cociente del número de casos
favorables (los casos dónde sucede A) sobre el total de casos posibles.
Probabilidad condicional
El teorema de Bayes parte de una situación en la que es posible conocer las probabilidades
de que ocurran una serie de sucesos Ai.
A esta se añade un suceso B cuya ocurrencia proporciona cierta información, porque las
probabilidades de ocurrencia de B son distintas según el suceso Ai que haya ocurrido.
Conociendo que ha ocurrido el suceso B, la fórmula del teorema de Bayes nos indica como
modifica esta información las probabilidades de los sucesos Ai.
Una vez hechos los cálculos la probabilidad de que el individuo esté afectado por el
trastorno A ha pasado de 0.27 a 0.62
Variables aleatorias discretas unidimensionales
Definición
La función de distribución de una variable aleatoria [que llamaremos F(x)] permite conocer
cómo se reparte la probabilidad sobre los valores que toma la variable; es una función que a
cada número real x le asocia la probabilidad de que la variable tome los valores menores o
iguales que x. Formalmente: F(x) = Pr(w/-∞ ˂ X ≤ x) = Pr(X ≤ x) donde x pertenece a los
reales. Entonces F(x) representa la probabilidad acumulada hasta el punto x.
F(x) debe satisfacer ciertas condiciones:
1. Pr(X ≤ b) = F(b)
Variables aleatorias continuas: una variable aleatoria X se dice que es continua si puede
tomar (con probabilidad no nula) los infinitos valores de un intervalo; en este caso, la
probabilidad puntual es cero; en este tipo de variables sólo tiene sentido calcular
probabilidades de intervalos de valores. La función de distribución se puede expresar como
la integral de una determinada función f(x), llamada función de densidad, de modo que:
F(x) = Pr(X ≤ x) = ∫-∞x f(x) dx. Si f(x) es continua, tenemos la relación: (d/dx) F(x) = f(x).
La función de densidad tiene que cumplir las siguientes condiciones: 1) es no negativa: f(x)
≥ 0 para todo x perteneciente a los reales, 2) la integral en toda la recta es igual a la unidad:
∫-∞∞ f(x) dx = 1.
Variables aleatorias mixtas: una variable aleatoria X tiene una distribución mixta si tiene
una parte continua y otra discreta. Es decir, existe una función f(.) y un conjunto de
números reales xi con probabilidades Pr(X = xi) ˃ 0 , i ≥ 1 tales que para cada A contenido
en los reales se verifica: Pr(X ϵ A) = ∫A f(x) dx + ΣA Pr(X = xi)
Distribución de probabilidad
Una distribución de probabilidad indica toda la gama de valores que pueden representarse
como resultado de un experimento si éste se llevase a cabo. Es decir, describe la
probabilidad de que un evento se realice en el futuro, constituye una herramienta
fundamental para la prospectiva, puesto que se puede diseñar un escenario de
acontecimientos futuros considerando las tendencias actuales de diversos fenómenos
naturales
Toda distribución de probabilidad es generada por una variable (porque puede tomar
diferentes valores) aleatoria x (porque el valor tomado es totalmente al azar), y puede ser de
dos tipos:
Variable aleatoria discreta (x). Porque solo puede tomar valores enteros y un número
finito de ellos. Por ejemplo: X Variable que nos define el número de alumnos aprobados en
la materia de probabilidad en un grupo de 40 alumnos (1, 2 ,3…ó los 40).
Propiedades de una variable aleatoria discreta (x) p(xi)<1 Las probabilidades asociadas
a cada uno de los valores que toma x deben ser mayores o iguales a cero y menores o
iguales a 1. E p(xi) = 1 La sumatoria de las probabilidades asociadas a cada uno de los
valores que toma x debe ser igual a 1.
Ejemplo de la distribución de pesos. La distribución normal continua puede describir la
distribución del peso de hombres adultos. Por ejemplo, usted puede calcular la probabilidad
de que un hombre pese entre 160 y 170 libras.
Gráfica de distribución del peso de hombres adultos
El área sombreada debajo de la curva en este ejemplo representa el rango de 160 a 170
libras. El área de este rango es 0.136; por lo tanto, la probabilidad de que un hombre
seleccionado aleatoriamente pese entre 160 y 170 libras es de 13.6%. Toda el área por
debajo de la curva equivale a 1.0.
Esperanza y varianza
Esperanza matemática: sea X una variable aleatoria discreta que toma los valores
X={x1,x2,……} con probabilidades Pr(X=xi), i=1,2,…. Llamaremos media, esperanza
matemática o valor esperado de X, a la cantidad:
E(X) = Σ xi Pr(X=xi), siempre que la serie anterior sea absolutamente convergente. Si X es
una variable aleatoria continua con función de densidad f(x), la media, esperanza
matemática o valor esperado se define como: E(X) = ∫ x f(x) dx, siempre que el valor de la
integral sea finito.
Cuando la serie o integral que definen la esperanza son divergentes, es decir, con valor
infinito, se dice que la variable X no tiene esperanza, o que X no presenta una regularidad
media.
Una propiedad interesante es: sea X una variable aleatoria continua y positiva con función
de distribución F(x) y media finita, entonces la esperanza matemática se puede obtener de
forma alternativa por medio de la expresión:
E(X) = ∫0∞ [1-F(x)] dx
Distribución binomial
Existen una gran diversidad de experimentos o sucesos que pueden ser caracterizados bajo
esta distribución de probabilidad. Imaginemos el lanzamiento de una moneda en el que
definimos el suceso “sacar cara” como el éxito. Si lanzamos 5 veces la moneda y contamos
los éxitos (sacar cara) que obtenemos, nuestra distribución de probabilidades se ajustaría a
una distribución binomial.
Definamos una experiencia aleatoria cuyo resultado sólo puede ser el suceso A o su
complementario Ac, y que se repite secuencialmente hasta que aparece el suceso A por
primera vez.
Definamos la variable aleatoria X como el número de veces que repetimos la experiencia en
condiciones independientes hasta que se dé A por primera vez. Bajo estas condiciones,
decimos que la variable X sigue una distribución geométrica o de Pascal de parámetro p =
P(A).
La función de densidad puede deducirse fácilmente de la definición:
f(k) = P[X = k] = (1 − p)k p k = 0, 1, 2, ...
En el programa siguiente podéis ver su forma y obtener los valores de la función de
densidad y de la de distribución:
Algunas puntualizaciones de la definición de X:
Nótese que, en esta definición, condiciones independientes significa que p, la
probabilidad de A, y 1 − p, la de su complementario Ac, no varían a lo largo de las
sucesivas repeticiones de la experiencia.
Tal y como la hemos definido, X se refiere al número de lanzamientos hasta que se
produce A, pero sin contabilizar el último caso en que se da A. Por dicha
razón X puede tomar los valores k = 0, 1, 2, ... con probabilidad no nula.
Un ejemplo de este modelo podría ser la experiencia consistente en lanzar sucesivamente
un dado regular hasta que aparezca el número 6. Si definimos la variable aleatoria X como
el número de lanzamientos de un dado regular hasta que aparezca un 6, queda claro
que X sigue una distribución geométrica de parámetro p = 1/6.
Preguntas:
¿A que suceso nos referimos cuando decimos X = 0?
P[X = 0] = 1/6
¿Cuál es la probabilidad de que el primer 6 aparezca en el cuarto lanzamiento?
La probabilidad de que el primer 6 aparezca en el cuarto lanzamiento corresponde a:
dónde:
La desviación típica es
Cuando realizamos un experimento contando sucesos y obtenemos un valor x, su error
Como vemos, este modelo se caracteriza por un sólo parámetro λ, que debe ser
positivo.
Esta distribución suele utilizarse para contajes del tipo número de individuos por
unidad de tiempo, de espacio, etc.
Propiedades del modelo de Poisson
1) Esperanza: E(X) = λ.
2) Varianza: V(X) = λ.
En esta distribución la esperanza y la varianza coinciden.
3) La suma de dos variables aleatorias independientes con distribución de Poisson resulta
en una nueva variable aleatoria, también con distribución de Poisson, de parámetro igual a
la suma de parámetros:
X1 ~ P(λ = λ1) y X2 ~ P(λ = λ2)
y definimos Z = X1 + X2, entonces,
Z ~ P(λ = λ1 + λ2)
Este resultado se extiende inmediatamente al caso de n variables aleatorias independientes
con distribución de Poisson. En este caso, la variable suma de todas ellas sigue una
distribución de Poisson de parámetro igual a la suma de los parámetros.