0 valutazioniIl 0% ha trovato utile questo documento (0 voti)
7 visualizzazioni5 pagine
Breve resumen sobre conceptos básicos introductorios de estadástica 1. Medidas de tendencia central (media, mediana, moda). Diagramas (bastones, circular, histograma, polígonos de frecuencias). Varianza y desviación estándar. Regla empírica. Cuartiles y percentiles.
Breve resumen sobre conceptos básicos introductorios de estadástica 1. Medidas de tendencia central (media, mediana, moda). Diagramas (bastones, circular, histograma, polígonos de frecuencias). Varianza y desviación estándar. Regla empírica. Cuartiles y percentiles.
Breve resumen sobre conceptos básicos introductorios de estadástica 1. Medidas de tendencia central (media, mediana, moda). Diagramas (bastones, circular, histograma, polígonos de frecuencias). Varianza y desviación estándar. Regla empírica. Cuartiles y percentiles.
Un experimento es un acontecimiento cuyo resultado es incierto.
El conjunto de todos los resultados posibles se llama el espacio muestral del experimento. Dado un espacio muestral S, entonces un suceso E es un subconjunto de S. Los resultados en E se llaman los resultados favorables. Decimos que ocurre E en un experimento particular si el resultado de aquel experimento es uno de los elementos de E, es decir, si es favorable el resultado del experimento. Tutorial en-lnea comenzando con este tpico Inicio de pgina Combinacin de sucesos Si E y F son sucesos en un experimento, entonces: E' es el suceso que E no ocurra. E F es el suceso que ocurra E o F (o todos dos). E F es el suceso que ocurran E y F todos dos. E y F se llaman disjuntos o mutuamente exclusivos si (E F) es vaco. Inicio de pgina Frecuencia relativa Si est realizado N veces un experimento, y el suceso E ocurre fr(E) veces, entonces la razn P( E) = fr(E)
N se llama la frecuencia relativa o probabilidad estimada de E. El nmero fr(E) se llama la frecuencia de E. N, el nmero de veces que est realizado el experimento, se llama el nmero de pruebas o el tamao de muestra. Si E consiste en un solo resultado, s, entonces llamamos a P(E) la frecuencia relativa del resultado s, y lo escribimos como P(s). Tutorial en-lnea sobre frecuencia relativa Inicio de pgina Probabilidad modelada La probabilidad modelada se refiere a un modelo matemtico que prueba predecir la frecuencia relativa de los resultados de un experimento, determinado por la naturaleza del experimento en vez de experimentacin. Idealmente, la frecuencia relativa se acerca a la probabilidad modelada a medida que el nmero N de pruebas sea ms y ms grande. Notas 1. Usamos la misma anotacin P(E) para la frecuencia relativa y la probabilidad modelada. La a cual referimos debera estar claro del contexto. 2. Probabilidad modelada satisface las mismas propiedades (muestran ms arriba) que frecuencia relativa. Inicio de pgina Computacin de probabilidad modelada para resultados equiprobables En un experimento en lo que todos los resultados son equiprobables (es decir, tienen la misma probabilidad de ocurrir), la probabilidad de un suceso E se expresa por P ( E ) = nmero de resultados favoribles
nmero total de resultados
= n(E)
n(S)
en la que n(E) es el nmero de elementos en E, y n(S) es el nmero de elementos en S. Inicio de pgina Distribuciones de probabilidad Pues comparten propiedades similares las distintas formas de probabilidad, referimos colectivamente a frecuencia relativa y probabilidad modelada simplemente como probabilidad. Lo que tienen en comn es ;a idea de unadistribucin de probabilidad: Un espacio muestral finito es simplemente un conjunto finito S. Una distribucin de probabilidad es una asignacin de un nmero P(si) a cada resultado si en un espacio muestral S ={s1, s2, ... , sn} de modo que (a) 0 P(si) 1 (b) P(s1) + P(s2) + ... + P(sn) = 1. P(si) se llama la probabilidad de si. Dado una distribucin de probabilidad, obtenemos la probabilidad de un suceso Epor sumar las probabilidades de los resultados en E. Si P(E) = 0, llamamos a E un suceso imposible. El suceso es siempre imposible, pues tiene que suceder algo. Notas 1. Todas las propiedades ms arriba aplican a frecuencia relativa y tambin probabilidad modelada. Entonces, cuando hablamos solo de "probabilidad," podemos significar cualquiera de los dos, dependiendo del contexto. Tutorial en-lnea sobre distribuciones de probabilidad Inicio de pgina Principio aditivo Sucesos mutuamente exclusivos Si E y F son sucesos mutuamente exclusivos, entonces P(E F) = P(E) + P(F). Una formula similar aplica a la situacin de ms que dos sucesos: Si E1, E2, . . . , En son sucesos mutuamente exclusivos (es decir, la interseccin de cada par es vaca) y E es la unin de E1, E2, . . . , En, entonces P(E) = P(E1) + P(E2) + . . . + P(En). Principio aditivo general Si E y F son cualquier dos sucesos, entonces P(E F) = P(E) + P(F) - P(E F). Inicio de pgina Propiedades adicionales de probabilidad Tenemos las siguientes propiedades para cualquier espacio muestral S y cualquier suceso E. P(S) = 1 La probabilidad de sucede algo es 1. P( ) = 0 La probabilidad de sucede nada es 0. P(E') = 1-P(E) La probabilidad de no sucede E es 1 menos la probabilidad de E. Inicio de pgina Probabilidad condicional Si E y F son dos sucesos, la probabilidad condicional, P(E | F), es la probabilidad que E ocurra, dado que (ya) ocurriF, y se define por P( E | F) = P(E F)
P(F) . Podemos reescribir esta formula en una forma conocida como el principio multiplicativo: P(E F) = P(F)P(E | F). Probabilidad condicional estimada Si E y F son sucesos y P es frecuencia relativa, entonces P( E | F) = fr(E F)
fr(F) . Probabilidad condicional para resultados equiprobables Si todos los resultados en S son equiprobables, entonces P( E | F) = n(E F)
n(F) . Tutorial en-lnea comenzando con este tpico Inicio de pgina Sucesos independientes Los sucesos E y F son independientes si P(E | F) = P(E) o, equivalentemente, (suponiendo que P(F) no es igual a 0), tenemos la: Prueba de independencia Los sucesos E y F son independientes siempre y cuando P(E F) = P(E)P(F). Los sucesos E y F se llaman dependientes cuando no son independientes. Dado cualquier nmero de sucesos mutuamente independientes (es decir, cada uno de ellos es independiente de la interseccin de cualquier combinacin de los dems), la probabilidad de su interseccin es el producto de las probabilidades de los sucesos individuales. Inicio de pgina El teorema de Bayes La forma corta del teorema de Bayes afirma que, si E y F son sucesos, entonces P( F | E) = P(E | F)P(F)
P(E | F)P(F) + P(E | F')P(F') . Podemos frecuentemente calcular P(F | E) en cambio por construir un rbol de probabilidad. (Para ver como hacerlo, vaya al tutorial siguiendo el enlace ms abajo.) Una forma ampliada del teorema de Bayes afirma que, si E es un suceso, y si F1, F2, y F3 forman una particin del espacio muestral S, entonces P(F1 | E) = P(E | F1)P(F1)
P(E | F1)P(F1) + P(E | F2)P(F2) + P(E | F3)P(F3) . Una formula similar es vlida para una particin de S en cuatro o ms sucesos. Tutorial en-lnea comenzando con este tpico Inicio de pgina