Sei sulla pagina 1di 17

Historia

Artículo principal: Historia de la probabilidad

La definición de probabilidad se produjo debido al deseo del ser humano por conocer con
certeza los eventos que sucederán en el futuro, por eso a través de la historia se han
desarrollado diferentes enfoques para tener un concepto de la probabilidad y determinar sus
valores.

El diccionario de la Real Academia Española (R.A.E) define «azar» como una casualidad, un caso
fortuito, y afirma que la expresión «al azar» significa «sin orden».1 La idea de probabilidad está
íntimamente ligada a la idea de azar y nos ayuda a comprender nuestras posibilidades de ganar
un juego de azar o analizar las encuestas. Pierre-Simon Laplace afirmó: "Es notable que una
ciencia que comenzó con consideraciones sobre juegos de azar haya llegado a ser el objeto más
importante del conocimiento humano". Comprender y estudiar el azar es indispensable, porque
la probabilidad es un soporte necesario para tomar decisiones en cualquier ámbito.2

Según Amanda Dure, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable)
significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una
acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en
las circunstancias."3

Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la
doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal
(1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al
concepto, seguido por la Kybeia de Juan Caramuel (1670). Varios de los citados autores -Fermat,
Pascal y Caramuel- mencionan en sus respectivas correspondencias un Ars Commutationes de
Sebastián de Rocafull (1649), hoy perdido. El fundamental Ars Conjectandi (póstumo, 1713) de
Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una
rama de las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of
Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de
probabilidad matemática.

La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo, 1722)
de Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756)
aplicó por primera vez la teoría para la discusión de errores de observación. La reimpresión
(1757) de esta memoria expone los axiomas de que los errores positivos y negativos son
igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que
caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación
de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley
de la probabilidad de error con una curva {\displaystyle y=\phi (x)} y = \phi(x), siendo
{\displaystyle x} x cualquier error e {\displaystyle y} y su probabilidad, y expuso tres
propiedades de esta curva:

es simétrica al eje {\displaystyle y} y;

el eje {\displaystyle x} x es una asíntota, siendo la probabilidad del error {\displaystyle \infty }
\infty igual a 0;

la superficie cerrada es 1, haciendo cierta la existencia de un error.

Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula
para la ley de facilidad de error (un término debido a Lagrange, 1774), pero su fórmula llevaba a
ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el principio del máximo producto de
las probabilidades de un sistema de errores concurrentes.

El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en


su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la
determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un escritor
irlandés estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez
la ley de facilidad de error,

{\displaystyle \phi (x)=ce^{-h^{2}x^{2}}} \phi(x) = ce^{-h^2 x^2}

siendo {\displaystyle c} c y {\displaystyle h} h constantes que dependen de la precisión de la


observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de John
Herschel (1850). Gauss expuso la primera demostración que parece que se conoció en Europa (la
tercera después de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace
(1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W.
F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis
(1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters
(1856) para {\displaystyle r} r, el error probable de una única observación, es bien conocida.

En el siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix (1816),
Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann
Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoraron la
exposición de la teoría.

PROBABILIDAD.- Es el conjunto de posibilidades de que un evento ocurra o no en un momento


y tiempo determinado. Dichos eventos pueden ser medibles a través de una escala de 0 a 1, donde
el evento que no pueda ocurrir tiene una probabilidad de 0 (evento imposible) y un evento que
ocurra con certeza es de 1 (evento cierto).
La probabilidad de que ocurra un evento, siendo ésta una medida de la posibilidad de que un
suceso ocurra favorablemente, se determina principalmente de dos formas: empíricamente (de
manera experimental) o teóricamente (de forma matemática).

i) Probabilidad empírica.- Si E es un evento que puede ocurrir cuando se realiza un experimento,


entonces la probabilidad empírica del evento E, que a veces se le denomina definición de
frecuencia relativa de la probabilidad, está dada por la siguiente fórmula:

Nota: P(E), se lee probabilidad del evento E

ii) Probabilidad teórica.- Si todos los resultados en un espacio muestral S finito son igualmente
probables, y E es un evento en ese espacio muestral, entonces la probabilidad teórica del evento E
está dada por la siguiente fórmula, que a veces se le denomina la definición clásica de la
probabilidad,expuesta por Pierre Laplace en su famosa Teoría analítica de la probabilidad
publicada en 1812:

EXPRESION DE PROBABILIDAD

EXPRECION DE LA PROBABILIDAD
Si queremos conocer la probabilidad del evento A según este enfoque debemos calcular el
siguiente cociente: N(A) P(A) = ------------- N(S)
Donde: N(A): resultados elementales posibles son favorables en el evento A
N(S): posibles resultados en el espacio muestral
EJEMPLOS 1) En un mazo de cartas bien barajadas que contiene 4 ases y 48 cartas de otro tipo, la
probabilidad de obtener un as (A) en una sola extracción es N(A) 4 1 P(A) = ------ = ----- = ---- N(S) 52
13
2) El experimento es lanzar un dado. ¿Cuál es la probabilidad de que caiga un dos hacia arriba? P(
caiga 2 ) = 1 = .166 ---- 6
B.ENFOQUE DE FRECUENCIAS RELATIVAS (a posteriori o empírico)
Este enfoque permite determinar la probabilidad con base en la proporción de veces que ocurre
un resultado favorable en cierto número experimentos.
No implica ningún supuesto previo de igualdad de probabilidades.
A este enfoque se le denomina también enfoque empírico debido a que para determinar los
valores de probabilidad se requiere de la observación y de la recopilación de datos. También se le
denomina a posteriori, ya que el resultado se obtiene después de realizar el experimento un cierto
número de veces.
Si queremos conocer la probabilidad del evento A según este enfoque debemos calcular el
siguiente cociente: Número de observaciones de A n(A)
P(A) = -------------------------------------- = ------- Tamaño de la muestra n
EJEMPLOS
1) Antes de incluir la cobertura para ciertos tipos de problemas dentales en pólizas de seguros
médicos para adultos con empleo, una compañía de seguros desea determinar la probabilidad de
ocurrencia de esa clase de problemas, para que pueda fijarse la prima de seguros de acuerdo con
esas cifras. Por ello, un especialista en estadística recopila datos para 10,000 adultos que se
encuentran en las categorías de edad apropiadas y encuentra que 100 de ellos han experimentado
el problema dental específico durante el año anterior. Por ello, la probabilidad de ocurrencia es:
100
P(A) = --------------- = 0.01, o 1%
10,000
2) Se sabe que una moneda está cargada. Para determinar la probabilidad de que caiga águila se
lanza 60 veces la moneda al aire, de las cuales 25 veces cayó águila. Si aplicamos la fórmula: P ( cae
águila ) = 25 = 0.41 ---------- 60

Distribución de probabilidad
En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable
aleatoria es una función que asigna a cada evento definido sobre la variable aleatoria
una probabilidad. La distribución de probabilidad describe el rango de valores de la variable
aleatoria así como la probabilidad de que el valor de la variable aleatoria esté dentro de un
subconjunto de dicho rango.
Cuando la variable aleatoria toma valores en el conjunto de los números reales, la distribución de
probabilidad está completamente especificada por la función de distribución, cuyo valor en cada
real x es la probabilidad de que la variable aleatoria sea menor o igual que x.

Definición de función de distribución


Dada una variable aleatoria X, se define su función de distribución, FX(x), definida por:
Para simplificar la notación, cuando no hay lugar a confusión se omite el subíndice X, y se escribe
simplemente F(x).
Por las propiedades de la probabilidad se cumplen las siguientes tres condiciones:
y
Es continua por la derecha.
Es monótona no decreciente.

La función de distribución es la acumulada de la función de densidad de probabilidad f(x). Es decir,


se calcula directamente según:
Si x es una variable aleatoria discreta
Si x es una variable aleatoria continua
Propiedades
Para dos números reales cualesquiera a y b tal que (a < b), los sucesos y serán mutuamente
excluyentes y su unión es el suceso , por lo que tenemos entonces que:
y finalmente
Por lo tanto una vez conocida la función de distribución F(x) para todos los valores de la variable
aleatoria x conoceremos completamente la distribución de probabilidad de la variable.
Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin embargo para
ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad.
Distribuciones de variable discreta

Distribución binomial.
Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma
valores positivos en un conjunto de valores de X finito o infinito numerable. A dicha función se le
llama función de masa de probabilidad. En este caso la distribución de probabilidad es el
sumatorio de la función de masa, por lo que tenemos entonces que:
Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión representa
la suma de todas las probabilidades desde hasta el valor x.
Distribuciones de variable discreta más importantes
Las distribuciones de variable discreta más importantes son las siguientes:
Distribución binomial
Distribución binomial negativa
Distribución Poisson
Distribución geométrica
Distribución hipergeométrica
Distribución de Bernoulli
Distribución Rademacher, que toma el valor 1 con probabilidad 1 / 2 y el valor -1 con probabilidad
1 / 2.
Distribución uniforme discreta, donde todos los elementos de un conjunto finito son igualmente
probables.
Distribuciones de variable continua
Distribución normal.
Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores
existentes dentro de un intervalo. En el caso de variable continua la distribución de probabilidad
es la integral de la función de densidad, por lo que tenemos entonces que:
Distribuciones de variable continua más importantes
Las distribuciones de variable continua más importantes son las siguientes:
Distribución ji cuadrado
Distribución exponencial
Distribución t de Student
Distribución normal
Distribución Gamma
Distribución Beta

EVENTOS MUTUAMENTE EXCLUYENTES Y NO EXCLUYENTES, DEPENDIENTES E INDEPENDIENTE

Eventos no excluyentes

 Sacar un 5 y una carta de espadas. Son eventos no excluyentes pues podemos tomar un 5
de espadas.

 Sacar una carta roja y una carta de corazones. Son eventos no excluyentes pues las cartas
de corazones son uno de los palos rojos.
 Sacar un 9 y una carta negra. Son eventos no excluyentes pues podemos tomar el 9 de
espadas o el 9 de tréboles.

Eventos mutuamente excluyentes

Los eventos mutuamente excluyentes son aquellos en los que si un evento sucede significa que el
otro no puede ocurrir. Si bien suelen usarse en teorías científicas, también son parte de las leyes y
los negocios. Como resultado, entender los eventos mutuamente excluyentes puede ser
importante para una variedad de disciplinas.

Fórmula

La fórmula matemática para determinar la probabilidad de los eventos mutuamente excluyentes


es P(A U B) = P(A) + P(B). Dicho en voz alta, la fórmula es "Si A y B son evento mutuamente
excluyentes, entonces la probabilidad de que A o B suceda es equivalente a la probabilidad del
evento A más la probabilidad del evento B".

 Sacar una carta de corazones y una carta de espadas. Son eventos mutuamente
excluyentes, las cartas o son de corazones o son de espadas.

 Sacar una carta numerada y una carta de letras. Son eventos mutuamente excluyentes, las
cartas o son numeradas o son cartas con letra.

 Sacar una carta de tréboles roja. Son eventos mutuamente excluyentes pues las cartas de
tréboles son exclusivamente negras.

No es posible encontrar una sola carta que haga posible que los eventos sucedan a la vez.

EVENTOS DEPENDIENTES, INDEPENDIENTES Y CONDICIONALES

Eventos Independientes

Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no


tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso típico de
eventos independiente es el muestreo con reposición, es decir, una vez tomada la muestra se
regresa de nuevo a la población donde se obtuvo.

Dos eventos, A y B, son independientes si la ocurrencia de uno no tiene que ver con la ocurrencia
de otro.

Por definición, A es independiente de B si y sólo si:A y B, son independientes si la ocurrencia de


uno no tiene que ver con la ocurrencia de otro.

Por definición, A es independiente de B si y sólo si:A es independiente de B si y sólo si:

(PnA)=P(A)P(B)
Eventos dependientes

Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos
afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso, empleamos
entonces, el concepto de probabilidad condicional para denominar la probabilidad del evento
relacionado. La expresión P (A|B) indica la probabilidad de ocurrencia del evento A sí el evento B
ya ocurrió.

Se debe tener claro que A|B no es una fracción.

P (A|B) = P(A y B) / P (B) o P (B|A) = P(A y B) / P(A)

Probabilidad Condicional = P(A y B) / P (B) o P (B|A) = P(A y B) / P(A)

Probabilidad Condiciona
Si A y B son dos eventos en S, la probabilidad de que ocurra A dado que ocurrió el evento B es la
probabilidad condicional de A dado B, y se denota:A y B son dos eventos en S, la probabilidad de
que ocurra A dado que ocurrió el evento B es la probabilidad condicional de A dado B, y se denota:
P(AlB)

Ejercicios

1. si se tira un dado calcular la probabilidad de:


A caen 3 puntos o menos o
B caen 5 puntos o mas
Como son Mutuamente excluyentes AnB=0
P(AoB)=P(a)+P(B)
=P(salen 3 o menos)+P(salen 5 o mas)
=3/6 + 2/6
=5/6

Si A y B son dos eventos no mutuamente excluyentes (eventos intersecantes), es decir, de modo


que ocurra A o bien B o ambos a la vez (al mismo tiempo), entonces se aplica la siguiente regla
para calcular dicha probabilidad:

El espacio muestral (S) corresponde al conjunto universo en la teoría de conjuntos

Ejemplos ilustrativos

1) Sea A el suceso de sacar un As de una baraja estándar de 52 cartas y B sacar una carta con
corazón rojo. Calcular la probabilidad de sacar un As o un corazón rojo o ambos en una sola
extracción.

Solución:

A y B son sucesos no mutuamente excluyentes porque puede sacarse el as de corazón rojo.

Las probabilidades son:

Reemplazando los anteriores valores en la regla general de la adición de probabilidades para


eventos no mutuamente excluyentes se obtiene:
Regla de la adición

La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier


evento en particular es igual a la suma de las probabilidades individuales, si es que los eventos son
mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo.

Entonces, si A y B son mutuamente excluyentes,

P(A o B) = P(A) U P(B) = P(A) + P(B)

Si A y B no son mutuamente excluyentes,

P(A o B) = P(A) + P(B) − P(A y B)

Siendo: P(A) = probabilidad de ocurrencia del evento A, P(B) = probabilidad de ocurrencia del
evento B, y P(A y B) = probabilidad de ocurrencia simultánea de los eventos A y B.

Otra forma de verlo, sería expresar la probabilidad de sucesos mutuamente no excluyentes


mediante el sumatorio de las probabilidades de un evento determinado en función de otros
eventos:

{\displaystyle P(x)=\sum _{y}{P(x,y)}=\sum _{y}{P(y)P(x|y)}} {\displaystyle P(x)=\sum


_{y}{P(x,y)}=\sum _{y}{P(y)P(x|y)}}

Regla de la multiplicación

La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos


estadísticamente independientes es igual al producto de sus probabilidades individuales.

P (A y B) = P (A B) = P (A) P (B) si A y B son independientes.

P (A y B) = P (A B) = P (A) P (B|A) si A y B son dependientes.

siendo P (B|A) la probabilidad de que ocurra B habiéndose dado o verificado el evento A.

Un lote contiene "100" objetos de los cuales "20" son defectuosos. Los objetos son seleccionados
uno después del otro para ver si ellos son defectuosos. Suponga que dos objetos son seleccionados
sin reemplazo (significa que el objeto que se selecciona al azar se deja por fuera del lote). ¿Cuál es
la probabilidad de que los dos objetos seleccionados sean defectuosos?

Solución:

Sea los eventos

A1 = {primer objeto defectuoso}, A2 {segundo objeto defectuoso}

entonces dos objetos seleccionados serán defectuosos, cuando ocurre el evento A1∩ A2 que es la
intersección entre los eventos A1 y A2. De la información dada se tiene que:

P (A1) = 20/100 ; P (A2/A1) = 19/99


así probabilidad de que los dos objetos seleccionados sean defectuosos es

P (A1 ∩ A2) = P (A1) P (A2/A1)

(20/100)(19/99)

19/495 = 0.038

Ahora suponga que selecciona un tercer objeto, entonces la probabilidad de que los tres objetos
seleccionados sean defectuosos e

P (A1 ∩ A2 ∩ A3) = P (A1) P (A2/A1) P (A3/A1∩A2)

(20/100)(19/99)(18/98)

Teorema De Bayes (Fórmula E Importancia)

By Matias Riquelme On Sep 3, 2018 7,129 0

Se le conoce como teorema de Bayes, a la preposición recopilada de las memorias del matemático
y sacerdote de origen Inglés Thomas Bayer. Quien a dos años de su muerte en 1761, expresa la
probabilidad (la medida de certidumbre vinculada a un evento) de carácter condicional de un
evento aleatorio dada cierta información de antemano sobre el suceso.

Es decir dicho teorema calcula la probabilidad “A” condicionado por la información “B”. Logrando
la determinación de la probabilidad de las causas a partir de los efectos que han podido ser
observados.

Se conoce como una probabilidad probatoria que evalúa la probabilidad de una hipótesis,
especificando una alguna posibilidad a priori, actualizada a continuación a la luz nuevos datos.

Bayes proporciono un conjunto de procedimientos y formulas estándar para realizar este cálculo.

En esta operación matemática intervienen 3 clases de probabilidades, que son las siguientes:

P (Ai) o probabilidad a priori de un suceso “A”.

P (Ai/B) o probabilidad a posteriori de un suceso “A”, (cuando se obtiene la información de que ha


ocurrido un suceso B).

P (B/Ai) o verosimilitudes del suceso “B” son supuestos que habrían de ocurrir a cada suceso Ai.

Matemáticamente el teorema de Bayes es igual al cociente del producto de la probabilidad “B”


dados (Ai), P (B/Ai) (siendo B el suceso conocido y “Ai” los sucesos condicionados) por la
probabilidad P (Ai) entre la sumatoria de cada probabilidad que contenga el suceso conocido por
cada suceso conocido.

En síntesis, el numerador es la probabilidad condicionada y el denominador es la probabilidad


total.
Teorema de Bayes

Debilidades del problema de Bayes

Los estadistas han cuestionado el teorema basándose en las limitaciones de su aplicación, ya que
es válido únicamente cuando se cumplen sucesos disjuntos y exhaustivos.

De igual manera los especialistas en estadística tradicional ratifican que solo pueden ser admisibles
las estadísticas basadas en experimentos repetibles y de comprobación empírica, debido a que las
probabilidades estadísticas Bayesianas admiten condiciones relativas

Aplicaciones del Teorema De Bayes

El teorema de Bayes sirve para calcular las posibilidades de un suceso que está dado o no por otro
suceso anterior, lo cual consiente evaluar de qué manera se transforman las probabilidades
subjetivas, mientras más información nueva se posee de un hecho.

Además de ser aplicable a modelos basados en el conocimiento subjetivo y la evidencia empírica.


Se aplica también a modelos que se utilizan, por ejemplo, en la fusión de datos de un sistema.

Así mismo, es considerado como un excelente modelo o método para evaluar nueva información y
revisar estimaciones anteriores sustentadas en datos limitados, para conocer entonces si se
encuentran en un estado u otro, si es aplicado de manera idónea entonces se hace eficaz la reunión
de datos para tomar mejores decisiones.

Condiciones para aplicar el teorema de Bayes

Los sucesos “Ai” deben ser mutuamente excluyentes, es decir solo puede suceder uno de ellos.

La unión de sus posibilidades es el total, es decir la unidad es decir debe ser un sistema completo. Y
cada una debe ser distinta de cero.

Está establecido un caso “B” del cual se conocen todas las probabilidades.

Se conocen todas las probabilidades condicionales P(B/Ai).

Ventajas de la aplicación del teorema de Bayes en la cotidianidad

Se puede enfocar de manera tal de que se obtengan beneficios en algunos campos.

Es posible el análisis continuo de la información, aunque si la variabilidad entre datos es elevada es


necesario algún método que permita llegar a soluciones confiables.

Meta-Análisis: buscar acumular información variada para llegar a una apreciación exacta de un
problema

Evaluación de estudios a pequeña escala con la información de otros, debido a que el desarrollo de
estos a escala global no siempre es posible, y a nivel muestra no cuenta con una total veracidad, el
enfoque bayesiano permite ratificar y refutar.

Estudios de decisión.

Importancia del Teorema de Bayes


En el campo estadístico el teorema de Bayes permitió la resolución de problemas de múltiples
probabilidades, su importancia radica en la aplicación de la misma, pues es fundamental en
cualquier ciencia, ya que permite demostrar la relación intrínseca con la comprensión de las
probabilidades de los sucesos causados una vez establecidos los efectos acontecidos.

La probabilidad Bayesiana permite convertir una probabilidad subjetiva en una real cuando esta se
va modificando en base a las nuevas informaciones.

Las evidencias empíricas que según los estadistas actúan como base para la aplicación de este
teorema tienen aplicaciones puntuales en las distintas ramas de la medicina, desde el diagnóstico
de cáncer, hasta para la prevención de la diabetes, también tiene usos menos sofisticado como el
evaluar las posibilidades en un juego de barajas.

Recapitulando, este teorema sirve para evaluar sucesos a priori y a posteriori, teniendo en cuenta
hechos que pueden ser subjetivos o no y en base a las posibilidades que desencadenen estos
hechos, obtener un dato que como conocimiento permitirá o no establecer un plan de acción.
19/2695 = 0.007

Teorema de Bayes

El teorema de Bayes se utiliza para revisar probabilidades previamente calculadas cuando se posee
nueva información. Desarrollado por el reverendo Thomas Bayes en el siglo XVII, el teorema de
Bayes es una extensión de lo que ha aprendido hasta ahora acerca de la probabilidad condicional.

Comúnmente se inicia un análisis de probabilidades con una asignación inicial, probabilidad a


priori. Cuando se tiene alguna información adicional se procede a calcular las probabilidades
revisadas o a posteriori. El teorema de Bayes permite calcular las probabilidades a posteriori y es:

Ejemplos ilustrativos

1) Una compañía de transporte público tiene tres líneas en una ciudad, de forma que el 45% de los
autobuses cubre el servicio de la línea 1, el 25% cubre la línea 2 y el 30% cubre el servicio de la línea
3. Se sabe que la probabilidad de que, diariamente, un autobús se averíe es del 2%, 3% y 1%
respectivamente, para cada línea.

a) Calcular la probabilidad de que, en un día, un autobús sufra una avería

b) Calcular la probabilidad de que, en un día, un autobús no sufra una avería

c) ¿De qué línea de transporte es más probable que un autobús sufra una avería?
Solución:

a) Calcular la probabilidad de que, en un día, un autobús sufra una avería

Empleando la fórmula de probabilidad total se obtiene:

b) Calcular la probabilidad de que, en un día, un autobús no sufra una avería

Empleando la fórmula de probabilidad total se obtiene:

c) ¿De qué línea de transporte es más probable que un autobús sufra una avería?

Se debe calcular las tres probabilidades aposteriori empleando el Teorema de Bayes


La probabilidad de que sea de la línea 1, sabiendo que sufre una avería es:

La probabilidad de que sea de la línea 2, sabiendo que sufre una avería es:

La probabilidad de que sea de la línea 3, sabiendo que sufre una avería es:

Entonces, sabiendo que el autobús sufre una avería, lo más probable es que sea de la línea 1, ya
que esta probabilidad

, es la mayor.

Los cálculos en Excel se muestran en la siguiente figura:

2) Una empresa dedicada a la comercialización de televisores está considerando comercializar un


nuevo televisor. En el pasado el 90% de los televisores que comercializó tuvieron éxito y el 10% no
fueron exitosos. Se sabe que la probabilidad que habría recibido un reporte favorable
de investigación fue del 85% y 35%, respectivamente.
Solución:

a) Escribir la simbología del problema

A1 = Televisores exitosos

A2 = Televisores no exitosos

B1 = Reporte favorable de investigación

B2 = Reporte desfavorable de investigación

La solución del problema en Excel se muestra en la siguiente figura:


 Inicio >

 Investigación >

 Experimentos >

 Muestreo probabilístico

Explorable.com 206.6K visitas

El muestreo probabilístico es una técnica de muestreo en virtud de la cual las muestras son
recogidas en un proceso que brinda a todos los individuos de la población las mismas
oportunidades de ser seleccionados.

En esta técnica de muestreo, el investigador debe garantizar que cada individuo tenga las mismas
oportunidades de ser seleccionado y esto se puede lograr si el investigador utiliza
la aleatorización.

La ventaja de utilizar una muestra aleatoria es la ausencia de sesgos de muestreo y sistemáticos. Si


la selección aleatoria se hace correctamente, la muestra será representativa de toda la población.

El efecto de esto es un sesgo sistemático ausente o mínimo que es la diferencia entre los
resultados de la muestra y los resultados de la población. El sesgo de muestreo también se elimina
ya que los sujetos son elegidos al azar.

Tipos de muestreo probabilístico

Muestreo aleatorio simple

El muestreo aleatorio simple es la forma más fácil de muestreo probabilístico. Lo único que el
investigador tiene que hacer es asegurarse de que todos los miembros de la población sean
incluidos en la lista y luego seleccionar al azar el número deseado de sujetos.
Existen muchos métodos para hacer esto. Puede ser tan mecánico como sacar tiras de papel de un
sombrero con nombres escritos mientras el investigador tiene los ojos vendados o puede ser tan
fácil como usar un software de computadora para hacer la selección aleatoria.

Muestreo aleatorio estratificado

El muestreo aleatorio estratificado también es conocido como muestreo aleatorio proporcional.


Ésta es una técnica de muestreo probabilístico en donde los sujetos son inicialmente agrupados en
diferentes categorías, tales como la edad, el nivel socioeconómico o el género.

Luego, el investigador selecciona aleatoriamente la lista final de sujetos de los distintos estratos.
Es importante tener en cuenta que los estratos no se superpongan.

Generalmente, los investigadores utilizan un muestreo aleatorio estratificado si quieren estudiar


un determinado subgrupo dentro de la población. También es preferible el muestreo aleatorio
simple porque garantiza resultados estadísticos más precisos.

Muestreo aleatorio sistemático

El muestreo aleatorio sistemático se puede comparar con una progresión aritmética en donde la
diferencia entre dos números consecutivos es la misma. Por ejemplo, supongamos que estás en
una clínica y tienes 100 pacientes.

1. Lo primero que tienes que hacer es elegir un número entero que sea menor que el
número total de la población. Éste será tu primer sujeto, por ejemplo (3).

2. Selecciona otro número entero que será el número de individuos entre los sujetos, por
ejemplo, (5).

3. Tus sujetos serán los pacientes 3, 8, 13, 18, 23 y así sucesivamente.

No existe una ventaja clara en la utilización de esta técnica.

Muestreo aleatorio por conglomerados

El muestreo aleatorio por conglomerados se realiza cuando es imposible el muestreo aleatorio


simple debido al tamaño de la población. Imagínate hacer un muestreo aleatorio simple cuando la
población en cuestión es toda la población de Asia.

4. En el muestreo por conglomerados, la investigación identifica primero las fronteras, en el


caso de nuestro ejemplo. Pueden ser los países de Asia.

5. El investigador selecciona aleatoriamente un número de áreas identificadas. Es importante


que todas las áreas (países) dentro de la población tengan las mismas posibilidades de ser
seleccionadas.

6. El investigador puede incluir todos los individuos dentro de las áreas seleccionadas o
seleccionar aleatoriamente a los sujetos de las áreas identificadas.

Muestreo aleatorio mixto/por etapas múltiples


Esta técnica de muestreo probabilístico implica una combinación de dos o más técnicas de
muestreo enumeradas anteriormente. En la mayoría de las investigaciones complejas realizadas
en el campo o en el laboratorio, no es adecuado utilizar un solo tipo de muestreo probabilístico.

La mayoría de las investigaciones se realizan en diferentes etapas y en cada etapa se aplica una
técnica de muestreo aleatorio diferente.

Potrebbero piacerti anche