Sei sulla pagina 1di 10

UNIVERSIDAD LAICA “ELOY

ALFARO DE MANABI”

INTEGRANTES:

CEDEÑO CEDEÑO GENESSIS

COBEÑA ROSALES LILIBETH

MANTUANO ANCHUNDIA DANIELA

BIOQUIMICA EN ACTIVIDADES
PESQUERAS

3 SEMESTRE

ESTADISTICA
Teoría de probabilidades

La teoría de probabilidades se ocupa de asignar un cierto número a cada posible


resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar
dichos resultados y saber si un suceso es más probable que otro.

Probabilidad nace con el deseo del hombre de conocer con certeza los eventos
futuros. Es por ello que el estudio de probabilidades surge como una herramienta
utilizada por los nobles para ganar en los juegos y pasatiempos de la época. El
desarrollo de estas herramientas fue asignado a los matemáticos de la corte.

Con el tiempo estas técnicas matemáticas se perfeccionaron y encontraron otros


usos muy diferentes para la que fueron creadas. Actualmente se continuó con el
estudio de nuevas metodologías que permitan maximizar el uso de la computación
en el estudio de las probabilidades disminuyendo, de este modo, los márgenes de
error en los cálculos.

Muchos fenómenos naturales son aleatorios, pero existen algunos como el


lanzamiento de un dado, donde el fenómeno no se repite en las mismas
condiciones, debido a que las características del material hace que no exista una
simetría del mismo, así las repeticiones no garantizan una probabilidad definida.

En los procesos reales que se modernizan mediante distribuciones de probabilidad


corresponden a modelos complejos donde no se conocen a priori todos los
parámetros que intervienen; ésta es una de las razones por las cuales la
estadística, que busca determinar estos parámetros, no se reduce inmediatamente
a la teoría de la probabilidad en sí.

La teoría de la probabilidad es una rama de las matemáticas que estudia los


fenómenos aleatorios y estocásticos. Los fenómenos aleatorios se contraponen a
los fenómenos deterministas, los cuales son resultados únicos y/o previsibles de
experimentos realizados bajo las mismas condiciones determinadas, por ejemplo,
si se calienta agua a 100 ºC a nivel del mar se obtendrá vapor.

Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen de


experimentos realizados, otra vez, bajo las mismas condiciones determinadas
pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el
lanzamiento de un dado o de una moneda.

Andréi Kolmogórov 1933 propuso un sistema de axiomas para la teoría de la


probabilidad, basado en la teoría de conjuntos y en la teoría de la medida,
desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.
Esta aproximación axiomática que generaliza el marco clásico de la probabilidad,
la cual obedece a la regla de cálculo de casos favorables sobre casos posibles,
permitió la vigorización de muchos argumentos ya utilizados, así como el estudio
de problemas fuera de los marcos clásicos.

Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas


ramas del conocimiento, como puede ser la física (donde corresponde mencionar
el desarrollo de las difusiones y el movimiento Browniano), o la economía (donde
destaca el modelo de Black y Scholes para la valuación de acciones).

Definición y propiedades de la probabilidad

La probabilidad es una medida de la incertidumbre asociada aun suceso o evento


en el futuro y suele expresarse como un numero entre 0 y 1 (o entre 0% y 100%).

la teoría de la probabilidad se usa extensamente en áreas como la estadística, la


física, la matemática, las ciencias entre otras.

Las propiedades son:

espacio muestral (e): es el conjunto de los diferentes resultados que pueden darse
en un experimento aleatorio.
Suceso: subconjunto del espacio muestral. Se representa con una letra
mayúscula, con sus elementos entre llaves y separados por comas.

Operaciones con sucesos

unión: la unión de dos sucesos es el suceso que ocurre cuando se da uno de


ellos.
Intersección: la intersección dos sucesos es el suceso que ocurre cuando se dan
ambos a la vez.
Tipos de sucesos seguro: se tiene la certeza de que se producirá porque contiene
todos los resultados posibles de la experiencia (coincide con el espacio muestral).

Suceso imposible: se tiene la certeza de que nunca se puede presentar, ya que no


tiene elementos (es el conjunto vacío).

Suceso contrario de a: es el que ocurre cuando no se da a; es su complementario


respecto al espacio muestral (a’ ).
Suceso elemental: es el que tiene un solo resultado, es un conjunto unitario.
Sucesos incompatibles: la intersección es conjunto vacío, es decir, no pueden los
dos sucesos darse al mismo tiempo.
Sucesos compatibles: la intersección de dos sucesos contiene algún elemento.
Probabilidad y estadística
la probabilidad y la estadística se encargan del estudio del azar desde el punto de
vista de las matemáticas: la probabilidad propone modelos para los fenómenos
aleatorios, es decir, los que se pueden predecir con certeza, y estudia sus
consecuencias lógicas.

Propiedades de la probabilidad

 La probabilidad de un suceso A es un valor comprendido entre 0 y 1.

Ejemplo 1:

Como la probabilidad se introduce a partir de la frecuencia relativa de un suceso,


y la frecuencia
relativa es siempre un valor positivo y menor o igual que 1, por tanto se deduce
que:

 La probabilidad del suceso imposible es siempre 0.

P (Ø) = 0

Ejemplo 2:

Al lanzar el dado consideramos el suceso B: obtener un 9. Sea cual sea el


resultado nunca
obtendremos un 9 por tanto este suceso no tiene resultados favorables, es un
suceso imposible.

 La probabilidad de un suceso seguro es 1.

P(E) = 1

Ejemplo 3:
Al lanzar el dado consideramos el suceso B: obtener un número menor o igual
que 6. Sea cual sea el resultado del lanzamiento, siempre se verificará, es un
suceso seguro

 La suma de las probabilidades de los sucesos elementales es 1.

Ejemplo 4:

En el experimento lanzar un dado consideramos los sucesos elementales que


constituyen el
espacio muestral y calculamos sus respectivas probabilidades:

 La probabilidad de un suceso es la suma de las probabilidades de sus


sucesos elementales:
Ejemplo 5:

En el experimento lanzar un dado consideramos el suceso I : obtener un número


impar, y
calcular su probabilidad.

 Si dos sucesos A y son contrarios , entonces sus probabilidades


suman 1:

Ejemplo 6:
En el experimento lanzar un dado consideramos los sucesos C : obtener un 2, y
el suceso
el contrario de C: no obtener un 2. Sus respectivas probabilidades son:

Distribuciones de probabilidades para variables discretas y continúas

Distribuciones de probabilidades para variables discretas


Se denomina distribución de variable discreta a aquella cuya función de
probabilidad solo toma valores positivos en un conjunto de valores

de finito o infinito numerable. A dicha función se le llama función de masa de


probabilidad.
Tipos de distribuciones de variable discreta
Definidas sobre un dominio finito

 La distribución binomial, que describe el número de aciertos en una serie de n


experimentos independientes con posibles resultados binarios, es decir, de "sí"
o "no", todos ellos con probabilidad de acierto p y probabilidad de fallo q = 1 −
p.
 La distribución de Bernoulli, la clásica binomial, que toma valores "1", con
probabilidad p, o "0", con probabilidad q = 1 − p (ensayo de Bernoulli).
 La distribución de Rademacher, que toma valores "1" o "-1" con probabilidad
1/2 cada uno.
 La distribución beta-binomial, que describe el número de aciertos en una serie
de n experimentos independientes con posibles resultados "sí" o "no", cada
uno de ellos con una probabilidad de acierto variable definida por una beta.
 La distribución degenerada en x0, en la que X toma el valor x0 con
probabilidad 1. A pesar de que no parece una variable aleatoria, la distribución
satisface todos los requisitos para ser considerada como tal.
 La distribución uniforme discreta, que recoge un conjunto finito de valores que
son resultan ser todos igualmente probables. Esta distribución describe, por
ejemplo, el comportamiento aleatorio de una moneda, un dado, o una ruleta de
casino equilibrado -sin sesgo-.
 La distribución hipergeométrica, que mide la probabilidad de obtener x (0 ≤ x ≤
d) elementos de una determinada clase formada por d elementos
pertenecientes a una población de N elementos, tomando una muestra de n
elementos de la población sin reemplazo.
 La ley de Benford, que describe la frecuencia del primer dígito de un conjunto
de números en notación decimal.
Definidas sobre un dominio infinito

 La distribución geométrica, que describe el número de intentos necesarios


hasta conseguir el primer acierto.
 La distribución beta-binomial negativa, que describe el número de
experimentos del tipo "si/no" necesarios para conseguir n aciertos, cuando la
probabilidad de éxito de cada uno de los intentos está distribuida de acuerdo
con una beta.
 La distribución binomial negativa extendida.
 La distribución de Boltzmann, importante en mecánica estadística, que
describe la ocupación de los niveles de energía discretos en un sistema en
equilibrio térmico. Varios casos especiales son:.

 La distribución de Poisson, que describe el número de eventos individuales


que ocurren en un periodo de tiempo. Existen diversas variantes como
la distribución de Poisson desplazada, la hiperdistribución de Poisson,
la distribución binomial de Poisson y la distribución de Conway–Maxwell–
Poisson, entre otras.
 La distribución Skellam, que describe la diferencia de dos variables
aleatorias independientes con distribuciones de Poisson de distinto valor
esperado.
 La distribución zeta, que utiliza la función zeta de Riemman para asignar
una probabilidad a cada número natural.
Distribuciones de probabilidades para variables continúas
Se denomina variable continua a aquella que puede tomar cualquiera de los
infinitos valores existentes dentro de un intervalo. En el caso de variable continua
la distribución de probabilidad es la integral de la función de densidad, por lo que
tenemos entonces que:
Distribuciones definidas en un intervalo acotado

 La distribución arcoseno, definida en el intervalo [a,b].


 La distribución beta, definida en el intervalo [0, 1], que es útil a la hora de
estimar probabilidades.
 La distribución del coseno alzado, sobre el intervalo [\mu-s,\mu+s].
 La distribución degenerada en x0, en la que X toma el valor x0 con
probabilidad 1. Puede ser considerada tanto una distribución discreta como
continua.
 La distribución de Irwin-Hall o distribución de la suma uniforme, es la
distribución correspondiente a la suma de n variables aleatorias i.i.d. ~ U(0, 1).
 La distribución de Kent, definida sobre la superficie de una esfera unitaria.
 La distribución de Kumaraswamy, tan versátil como la beta, pero con FDC y
FDP más simples.
 La distribución triangular, definida en [a, b], de la cual un caso particular es la
distribución de la suma de dos variables independientes uniformemente
distribuidas (la convolución de dos distribuciones uniformes).
 La distribución uniforme continúa definida en el intervalo cerrado [a, b], en el
que la densidad de probabilidad es constante.
 La distribución rectangular es el caso particular en el intervalo [-1/2, 1/2].
 La distribución U-cuadrática, definida en [a, b], utilizada para modelar procesos
bimodales simétricos.
 La distribución von Mises, también llamada distribución normal circular o
distribución Tikhonov, definida sobre el círculo unitario.
 La distribución von Mises-Fisher, generalización de la anterior a una esfera N-
dimensional.
 La distribución semicircular de Wigner, importante en el estudio de las matrices
aleatorias.
Definidas en un intervalo semi-infinito, usualmente [0,∞)

 La distribución beta prima.


 La distribución de Birnbaum–Saunders, también llamada distribución de
resistencia a la fatiga de materiales, utilizada para modelar tiempos de fallo.
 La distribución chi.
 La distribución chi no central.
 La distribución χ² o distribución de Pearson, que es la suma de cuadrados de n
variables aleatorias independientes gaussianas. Es un caso especial de la
gamma, utilizada en problemas de bondad de ajuste.

Bibliografía

https://www.monografias.com/trabajos32/teoria-probabilidades/teoria-
probabilidades.shtml

https://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_probabilidad

https://prezi.com/hvooe_-frsf5/las-propiedades-de-la-probabilidad/

https://www.vitutor.com/pro/2/a_8.html

http://calculo.cc/temas/temas_estadistica/probabilidad/teoria/propiedades_probabi.
html

https://es.wikipedia.org/wiki/Distribuci%C3%B3n_de_probabilidad

https://support.minitab.com/es-mx/minitab/18/help-and-how-to/probability-
distributions-and-random-data/supporting-topics/basics/continuous-and-discrete-
probability-distributions/

https://www.sergas.es/Saude-
publica/Documents/1899/Ayuda_Epidat_4_Distribuciones_de_probabilidad_Octubr
e2014.pdf

Potrebbero piacerti anche