Sei sulla pagina 1di 22

Inferencia estadistica

Algunas veces es posible y prctico examinar a cada persona o elemento de la poblacin que deseamos describir. A esto lo llamamos enumeracin completa o censo. Utilizamos el muestreo cuando no es posible contar o medir todos los elementos de la poblacin. Los estadsticos usan la palabra poblacin para referirse no slo a personas sino a todos los elementos que han sido elegidos para un estudio, y emplean la palabra muestra para describir una porcin elegida de la poblacin. Condiciones que debe reunir una muestra: Homogeneidad: debe ser extrada de la misma poblacin. Independencia: las observaciones no deben estar mutuamente condicionadas entre s. Representatividad: la muestra debe ser el mejor reflejo posible del conjunto del cual proviene.

Estadsticas y parmetros. Matemticamente, podemos describir muestras y poblaciones al emplear mediciones como la media, la mediana, la oda y la desviacin estndar. Cuando estos trminos describen las caractersticas de una poblacin, se llaman parmetros. Cuando describen las caractersticas de la muestra, se llaman estadsticos. Una estadstica es una caracterstica de una muestra y un parmetro es una caracterstica de la poblacin. Se emplean letras latinas minsculas para denotar estadsticas de muestra y letras griegas o latinas maysculas para representar parmetros de poblacin. PRUEBAS DE HIPTESIS. Una hiptesis es una afirmacin acerca de algo. En estadstica, puede ser una suposicin acerca del valor de un parmetro desconocido. Pasos en la prueba de hiptesis: 1. 2. 3. 4. 5. 6. 7. Definir la hiptesis nula: suponer una hiptesis acerca de una poblacin. Formular una hiptesis alternativa: es una contra-hiptesis. Definir un criterio de decisin para rechazar o no la hiptesis nula. Recabar datos de la muestra. Calcular una estadstica de muestra. Utilizar la estadstica de muestra para evaluar la hiptesis.

Generalmente, se habla de "no rechazar" una hiptesis en lugar de "aceptar", ya que las pruebas no son concluyentes. Introduccin.

La prueba de hiptesis comienza con una suposicin, llamada hiptesis, que hacemos con respecto a un parmetro de poblacin. Despus recolectamos datos de muestra, producimos estadsticas de muestra y usamos esta informacin para decidir qu tan probable es que sea correcto nuestro parmetro de poblacin acerca del cual hicimos la hiptesis. Debemos establecer el valor supuesto o hipotetizado del parmetro de poblacin antes de comenzar a tomar la muestra. La suposicin que deseamos probar se conoce como hiptesis nula, y se simboliza H0. Siempre que rechazamos la hiptesis, la conclusin que s aceptamos se llama hiptesis alternativa y se simboliza H1. Interpretacin del nivel de significancia. El propsito de la prueba de hiptesis no es cuestionar el valor calculado de la estadstica de muestra, sino hacer un juicio respecto a la diferencia entre esa estadstica de muestra y un parmetro de poblacin hipotetizado. El siguiente paso despus de establecer la hiptesis nula alternativa consiste en decidir qu criterio utilizar para decidir si aceptar o rechazar la hiptesis nula. Si suponemos que la hiptesis es correcta, entonces el nivel de significancia indicar el porcentaje de medias de muestra que est fuera de ciertos lmites. Siempre que afirmemos que aceptamos la hiptesis nula, en realidad lo que queremos decir es que no hay suficiente evidencia estadstica para rechazarla. El empleo del trmino aceptar, en lugar de rechazar, se ha vuelto de uso comn. Significa simplemente que cuando los datos de la muestra n hacen que rechacemos una hiptesis nula, nos comportamos como si fuera cierta.

Intervalos de confianza
En inferencia estadstica se llama estimacin al conjunto de tcnicas que permiten dar un valor aproximado de un parmetro de una poblacin a partir de los datos proporcionados por una muestra. Por ejemplo, una estimacin de la media de una determinada caracterstica de una poblacin de tamao N podra ser la media de esa misma caracterstica para una muestra de tamao n.[1] La estimacin se divide en tres grandes bloques, cada uno de los cuales tiene distintos mtodos que se usan en funcin de las caractersticas y propsitos del estudio:

Estimacin puntual:[2] Mtodo de los momentos; Mtodo de la mxima verosimilitud; Mtodo de los mnimos cuadrados;

Estimacin por intervalos. Estimacin bayesiana.

[editar] Estimador Un estimador de un parmetro poblacional es una funcin de los datos muestrales, tambin llamado estadstico. En pocas palabras, es una frmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.[3]

Formalmente, si es un parmetro poblacional, se dice que

es un estimador puntual de si

, donde x1,x2,...,xn son las variables aleatorias que integran una muestra aleatoria de tamao n de la poblacin en cuestin. Por ejemplo, un estimador de la media poblacional, , puede ser la media muestral, , segn la siguiente frmula:

donde (x1, x2, ..., xn) sera el conjunto de de datos de la muestra. -- xXx --El estimador es una variable aleatoria que asigna a cada posible valor de la muestra un valor numrico. Como tal, tiene sentido calcular su esperanza, su varianza y otras caractersticas propias de las variables aleatorias. [editar] Estimador insesgado Por supuesto, cualquier funcin de la muestra, con la definicin anterior, podra ser un estimador, pero es deseable que las estimaciones que surjan a partir de un estimador "se parezcan", en cierto modo, al parmetro que se desea estimar. Con este propsito, se dice que un estimador de un parmetro es insesgado si su esperanza es el propio . [editar] Estimador eficiente Un estimador de un parmetro es eficiente si su varianza es mnima. Esto hace que haya menos variabilidad entre las distintas estimaciones que podemos obtener (cada muestra dar una estimacin diferente). De esta forma, la estimacin ser ms fiable. Hay una cota mnima dentro de las varianzas que se puede obtener para cualquier estimador con un sesgo determinado. Esta cota se llama cota de Cramr-Rao. Si la varianza de un estimador es igual a esta cota, sabremos que su varianza es mnima, y por tanto, estaremos seguros de que es eficiente. Sin embargo, no siempre esta cota es alcanzable, por lo que no siempre podremos saber si el estimador que hemos utilizado es el ms eficiente de todos. Para ello, cuando dudamos entre dos estimadores diferentes, y ninguno de ellos tiene una varianza igual a la cota de Cramr-Rao se utiliza el coeficiente de eficiencia relativa. [editar] Estimacin puntual Consiste en la estimacin del valor del parmetro mediante un slo valor, obtenido de una frmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimacin puntual la talla media de los individuos. Lo ms importante de un estimador, es que sea un estimador eficiente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza mnima) [editar] Estimacin por intervalos Consiste en la obtencin de un intervalo dentro del cual estar el valor del parmetro estimado con una cierta probabilidad. En la estimacin por intervalos se usan los siguientes conceptos: [editar] Intervalo de confianza El intervalo de confianza es una expresin del tipo [1, 2] 1 2, donde es el parmetro a estimar. Este intervalo contiene al parmetro estimado con una determinada certeza o nivel de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circustancial. [editar] Variabilidad del Parmetro Si no se conoce, puede obtenerse una aproximacin en los datos aportados por la literatura cientfica o en un estudio piloto. Tambin hay mtodos para calcular el tamao de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviacin tpica poblacional y se denota . [editar] Error de la estimacin Es una medida de su precisin que se corresponde con la amplitud del intervalo de confianza. Cuanta ms precisin se desee en la estimacin de un parmetro, ms estrecho deber ser el intervalo de confianza y, si se quiere mantener o disminuir el error, ms ocurrencias debern incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, ms error se comete al aumentar la precisin. Se suele llamar E, segn la frmula E = 2 - 1. [editar] Lmite de Confianza

Es la probabilidad de que el verdadero valor del parmetro estimado en la poblacin se site en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-), aunque habitualmente suele expresarse con un porcentaje ((1)100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores de 0,05 y 0,01 respectivamente. [editar] Valor Tambin llamado nivel de significacin. Es la probabilidad (en tanto por uno) de fallar en nuestra estimacin, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-). Por ejemplo, en una estimacin con un nivel de confianza del 95%, el valor es (100-95)/100 = 0,05 [editar] Valor crtico Se representa por Z/2. Es el valor de la abscisa en una determinada distribucin que deja a su derecha un rea igual a /2, siendo 1- el nivel de confianza. Normalmente los valores crticos estn tabulados o pueden calcularse en funcin de la distribucin de la poblacin. Por ejemplo, para una distribucin normal, de media 0 y desviacin tpica 1, el valor crtico para = 0,05 se calculara del siguiente modo: se busca en la tabla de la distribucin ese valor (o el ms aproximado), bajo la columna "rea"; se observa que se corresponde con -1,64. Entonces Z/2 = 1,64. Si la media o desviacin tpica de la distribucin normal no coinciden con las de la tabla, se puede realizar el cambio de variable t =(X-)/ para su clculo. Con estas definiciones, si tras la extraccin de una muestra se dice que "3 es una estimacin de la media con un margen de error de 0,6 y un nivel de confianza del 99%", podemos interpretar que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen restando y sumando, respectivamente, la mitad del error, para obtener el intervalo de confianza segn las definiciones dadas. Para un tamao fijo de la muestra, los conceptos de error y nivel de confianza van relacionados. Si admitimos un error mayor, esto es, aumentamos el tamao del intervalo de confianza, tenemos tambin una mayor probabilidad de xito en nuestra estimacin, es decir, un mayor nivel de confianza. [editar] Otros usos del trmino El trmino estimacin tambin se utiliza en ciencias aplicadas para hacer referencia a un clculo aproximado, que normalmente se apoya en la herramienta estadstica aunque puede no hacerlo. En

Regresin y Correlacin
La regresin y la correlacin son dos tcnicas estrechamente relacionadas y comprenden una forma de estimacin. En forma ms especifica el anlisis de correlacin y regresin comprende el anlisis de los datos muestrales para saber que es y como se relacionan entre si dos o mas variables en una poblacin. El anlisis de correlacin produce un nmero que resume el grado de la correlacin entre dos variables; y el anlisis de regresin da lugar a una ecuacin matemtica que describe dicha relacin. El anlisis de correlacin generalmente resulta til para un trabajo de exploracin cuando un investigador o analista trata de determinar que variables son potenciales importantes, el inters radica bsicamente en la fuerza de la relacin. La correlacin mide la fuerza de una entre variables; la regresin da lugar a una ecuacin que describe dicha relacin en trminos matemticos Los datos necesarios para anlisis de regresin y correlacin provienen de observaciones de variables relacionadas. Regresin lineal La regresin lineal simple comprende el intento de desarrollar una lnea recta o ecuacin matemtica lineal que describe la reaccin entre dos variables. La regresin puede utilizadas de diversas formas. Se emplean en situaciones en la que las dos variables miden aproximadamente lo mismo, pero en las que una variable es relativamente costosa, o, por el contrario, es poco interesante trabajar con ella, mientras que con la otra variable no ocurre lo mismo. La finalidad de una ecuacin de regresin seria estimar los valores de una variable con base en los valores conocidos de la otra. Otra forma de emplear una ecuacin de regresin es para explicar los valores de una variable en trmino de otra. Es decir se puede intuir una relacin de causa y efecto entre dos variables. El anlisis de regresin nicamente indica qu relacin matemtica podra haber, de existir una. Ni

con regresin ni con la correlacin se pude establecer si una variable tiene causa ciertos valores de otra variable. Ecuacin Lineal Dos caractersticas importantes de una ecuacin lineal la independencia de la recta la localizacin de la recta en algn punto. Una ecuacin lineal tiene la forma y = a + bx En la que a y b son valores que se determina a partir de los datos de la muestra; a indica la altura de la recta en x= 0, y b seala su pendiente. La variable y es la que se habr de predecir, y x es la variable predictora. Determinacin de la ecuacin matemtica En la regresin, los valores de y son predichos a partir de valores de x dados o conocidos. La variable y recibe le nombre variable dependiente y la variable x, el de variable independiente. Mtodos de mnimos cuadrados EL procedimiento mas utilizado por adaptar una recta aun conjunto de punto se le que conoce como mtodo de mnimos cuadrados. La recta resultante presenta 2 caracterstica importantes es nula la suma desviaciones verticales en los puntos a partir de la recta es mnima la suma de los cuadrados de dicha desviaciones (yi - yc)2 En el cual Yi = valor esperado de y Yc= valor calculado de y utilizando la ecuacin de mnimos cuadrados con el valor correspondientes x para yi Los valores de a y b para la recta es Yc = a + bx que minimiza la suma de los cuadrados de la desviacin ecuaciones normales y = na + (x) xy= a (x) +b (x2) En las que n es el numero de pares de observaciones. Evaluando las cantidades x, y, etc. Se puede resolver estas dos ecuaciones simultneamente para determinar a b. la ecuaciones puede despejarse. Se obtuvieron dos formulas aun para a y otra para b. n(xy)- (x)(y) b= n(x2)-(x)2 y-bx a= n Inferencia en el anlisis de regresin Los supuestos para el anlisis de regresin son como: Existen datos de medicin para a x y z. la variable dependiente es una variable aleatoria. para cada valor de x, existe una distribucin condicional de la qu es de naturaleza normal la desviacin estndar de toda las distribuciones condicionales son iguales

EL error estndar de estimacin La determinante primaria de la exactitud es el grado de dispersin de la poblacin: cuanto mas dispersa este, menor ser la exactitud de la estimacin. El grado de dispersin en la poblacin se puede estimar a partir del grado de dispersin en las observaciones de la muestra con respecto a la lnea de regresin calculada, utilizando la formula. Se = " (yi -yc) n-2 en la cual: yi = cada valor de y yc = valor de lnea de regresin correspondiente a partir de la ecuacin de regresin. n = nmeros de observaciones. La formula anterior no se utiliza por lo general para clculos reales, es mas fcil trabajar con la formula simplificada Se "y2 - a y - b xy n-2 Inferencia de acerca de la pendiente de una lnea de regresin Aun cuando es muy poca o nula relacin entre dos variables de aun poblacin, es posible obtener valores maestrales que hacen que parezca que la variables estn relacionadas, es importantes probar los resultados tales de caculo, a fin determinar si son significativos (es decir si los parmetros verdaderos no son cero), Si no existe ninguna relacin se esperara obtener aun pendiente cero, se pone a prueba la hiptesis nula contra la hiptesis alternativa. La significacin del coeficiente de regresin se puede probar comparndolo con su desviacin estndar t = valor de la muestra - valor esperado Desviacin estndar Anlisis de regresin lineal mltiple La regresin mltiple comprende tres o ms variables. Existe solo una variable dependiente, pero hay dos o mas tipo independiente. Esta operacin al desarrollo de una ecuacin que se pede utilizar para predecir valore de y, respecto a valores dados de la diferencia variables independientes adicionales es incrementar la capacidad predicativa sobre la de la regresin lineal simple. Las tcnicas de los mnimos cuadrados se utilizan para obtener ecuaciones de regresin. Yc= a +b1x1+b2x2+bkxk a = ordenada en el origen b1= pendiente k = numero de variables independientes Un anlisis de regresin simple de dos variable da lugar a la ecuacin de una recta, un problema de tres variables produce un plano, y un problema de k variables implica un hiperplano de a (k +1) dimensiones. Anlisis de Correlacin EL objetivo de un estudio de correlacin es determinar la consistencia de una relacin entre observaciones por partes. EL termino correlacin significa relacin mutua, ye que indica el grado en el que los valores de una variable se relacionan con los valores de otra. Se considera tres tcnicas de correlacin uno para datos de medicin, otro para datos jerarquizados y el ltimo para clasificaciones nominales

Funcin de probabilidad

Lgicamente, una vez tenemos un suceso, nos preocupa saber si hay muchas o pocas posibilidades de que al realizar la experiencia se haya verificado. Por lo tanto, sera interesante el tener alguna funcin que midiera el grado de confianza a depositar en que se verifique el suceso. A esta funcin la denominaremos funcin de probabilidad. La funcin de probabilidad ser, pues, una aplicacin entre el conjunto de resultados y el conjunto de nmeros reales, que asignar a cada suceso la probabilidad de que se verifique. La notacin: P(A) significar: probabilidad de que se verifique el suceso A. Pero claro, de funciones de probabilidad asociadas a priori a una experiencia aleatoria podran haber muchas. Lo que se hace para decir qu es y qu no es una funcin de probabilidad es construir una serie de propiedades (denominadas axiomas) que se exigirn a una funcin para poder ser catalogada como funcin de probabilidad. Y, cules son estos axiomas? Pues los siguientes: Sea S el conjunto de sucesos. Axioma 1: Para cualquier suceso A, la probabilidad debe ser mayor o igual que 0. Axioma 2: P() = 1 Axioma 3: Para sucesos Ai, de modo que cada par de sucesos no tengan ningn resultado comn, se verifica que:

De este modo, pueden haber muchas funciones de probabilidad que se podran asociar con la experiencia. El problema pasa entonces al investigador para decidir cual o cuales son las funciones de probabilidad ms razonables asociadas con la experiencia que est manejando.

Distribucin binomial De Wikipedia, la enciclopedia libre Saltar a: navegacin, bsqueda Binomial redirige aqu. Para otras acepciones, vase binomial (desambiguacin). En estadstica, la distribucin binomial es una distribucin de probabilidad discreta que mide el nmero de xitos en una secuencia de n ensayos de Bernoulli independientes entre s, con una probabilidad fija p de ocurrencia del xito entre los ensayos.

Un experimento de Bernoulli se caracteriza por ser dicotmico, esto es, slo son posibles dos resultados. A uno de estos se denomina xito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribucin binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado nmero de xitos. Para n = 1, la binomial se convierte, de hecho, en una distribucin de Bernoulli. Para representar que una variable aleatoria X sigue una distribucin binomial de parmetros n y p, se escribe:

La distribucin binomial es la base del test binomial de significacin estadstica. Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por esta distribucin:

Se lanza un dado diez veces y se cuenta el nmero X de treses obtenidos: entonces X ~ B(10, 1/6) Se lanza una moneda dos veces y se cuenta el nmero X de caras obtenidas: entonces X ~ B(2, 1/2) Una partcula se mueve unidimensionalmente con probabilidad q de moverse de aqui para all y 1-q de moverse de all para ac

[editar] Experimento binomial Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir slo dos categoras (a las que se denomina xito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p). Se designa por X a la variable que mide el nmero de xitos que se han producido en los n experimentos. Cuando se dan estas circunstancias, se dice que la variable X sigue una distribucin de probabilidad binomial, y se denota B(n,p). [editar] Caractersticas analticas Su funcin de probabilidad es

donde

siendo [editar] Ejemplo

las combinaciones de

en

elementos tomados de

en

Supongamos que se lanza un dado 50 veces y queremos la probabilidad de que el nmero 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6) y la probabilidad sera P(X=20):

[editar] Propiedades caractersticas

[editar] Relaciones con otras variables aleatorias Si n tiende a infinito y p es tal que producto entre ambos parmetros tiende a , entonces la distribucin de la variable aleatoria binomial tiende a una distribucin de Poisson de parmetro . Por ltimo, se cumple que cuando n es muy grande (usualmente se exige que distribucin binomial puede aproximarse mediante la distribucin normal. [editar] Propiedades reproductivas Dadas n variables binomiales independientes, de parmetros ni (i = 1,..., n) y p, su suma es tambin una variable binomial, de parmetros n1+... + nn, y p, es decir, ) la

[editar] Referencias

Distribucin hipergeomtrica De Wikipedia, la enciclopedia libre Saltar a: navegacin, bsqueda En teora de la probabilidad la distribucin hipergeomtrica es una distribucin discreta relacionada con muestreos aleatorios y sin reemplazo. Supngase que se tiene una poblacin de N elementos de los cuales, d pertenecen a la categora A y N-d a la B. La distribucin hipergeomtrica mide la probabilidad de obtener x ( en una muestra de n elementos de la poblacin original. [editar] Propiedades La funcin de probabilidad de una variable aleatoria con distribucin hipergeomtrica puede deducirse a travs de razonamientos combinatorios y es igual a ) elementos de la categora A

donde N es el tamao de poblacin, n es el tamao de la muestra extrada, d es el nmero de elementos en la poblacin original que pertenecen a la categora deseada y x es el nmero de

elementos en la muestra que pertenecen a dicha categora. La notacin

hace referencia al

coeficiente binomial, es decir, el nmero de combinaciones posibles al seleccionar b elementos de un total a. El valor esperado de una variable aleatoria X que sigue la distribucin hipergeomtrica es

y su varianza,

En la frmula anterior, definiendo

se obtiene

La distribucin hipergeomtrica es aplicable a muestreos sin reemplazo y la binomial a muestreos con reemplazo. En situaciones en las que el nmero esperado de repeticiones en el muestreo es presumiblemente bajo, puede aproximarse la primera por la segunda. Esto es as cuando N es grande y el tamao relativo de la muestra extrada, n/N, es pequeo.

Distribucin normal

En estadstica y probabilidad se llama distribucin normal, distribucin de Gauss o distribucin gaussiana, a una de las distribuciones de probabilidad de variable continua que con ms frecuencia aparece aproximada en fenmenos reales. La grfica de su funcin de densidad tiene una forma acampanada y es simtrica respecto de un determinado parmetro. Esta curva se conoce como campana de Gauss. La importancia de esta distribucin radica en que permite modelar numerosos fenmenos naturales, sociales y psicolgicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenmenos son desconocidos, por la enorme cantidad de variables incontrolables

que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observacin se obtiene como la suma de unas pocas causas independientes. De hecho, la estadstica es un modelo matemtico que slo permite describir un fenmeno, sin explicacin alguna. Para la explicacin causal es preciso el diseo experimental, de ah que al uso de la estadstica en psicologa y sociologa sea conocido como mtodo correlacional. La distribucin normal tambin es importante por su relacin con la estimacin por mnimos cuadrados, uno de los mtodos de estimacin ms simples y antiguos. Algunos ejemplos de variables asociadas a fenmenos naturales que siguen el modelo de la normal son:

caracteres morfolgicos de individuos como la estatura; caracteres fisiolgicos como el efecto de un frmaco; caracteres sociolgicos como el consumo de cierto producto por un mismo grupo de individuos; caracteres psicolgicos como el cociente intelectual; nivel de ruido en telecomunicaciones; errores cometidos al medir ciertas magnitudes; etc.

La distribucin normal tambin aparece en muchas reas de la propia estadstica. Por ejemplo, la distribucin muestral de las medias muestrales es aproximadamente normal, cuando la distribucin de la poblacin de la cual se extrae la muestra no es normal.[1] Adems, la distribucin normal maximiza la entropa entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la eleccin natural de la distribucin subyacente a una lista de datos resumidos en trminos de media muestral y varianza. La distribucin normal es la ms extendida en estadstica y muchos tests estadsticos estn basados en una supuesta "normalidad". En probabilidad, la distribucin normal aparece como el lmite de varias distribuciones de probabilidad continuas y discretas

Distribucin de Poisson De Wikipedia, la enciclopedia libre Saltar a: navegacin, bsqueda En teora de probabilidad y estadstica, la distribucin de Poisson es una distribucin de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado nmero de eventos durante cierto periodo de tiempo. Fue descubierta por Simon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilit des jugements en matires criminelles et matire civile (Investigacin sobre la probabilidad de los juicios en materias criminales y civiles).

[editar] Propiedades La funcin de masa de la distribucin de Poisson es

donde

k es el nmero de ocurrencias del evento o fenmeno (la funcin nos da la probabilidad de que el evento suceda precisamente k veces).

es un parmetro positivo que representa el nmero de veces que se espera que ocurra el fenmeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribucin de Poisson con = 104 = 40. e es la base de los logaritmos naturales (e = 2,71828 ...)

Tanto el valor esperado como la varianza de una variable aleatoria con distribucin de Poisson son iguales a . Los momentos de orden superior son polinomios de Touchard en cuyos coeficientes tienen una interpretacin combinatorio. De hecho, cuando el valor esperado de la distribucin de Poisson es 1, entonces segn la frmula de Dobinski, el n-simo momento iguala al nmero de particiones de tamao n. La moda de una variable aleatoria de distribucin de Poisson con un no entero es igual a , el mayor de los enteros

menores que (los smbolos representan la funcin parte entera). Cuando es un entero positivo, las modas son y 1. La funcin generadora de momentos de la distribucin de Poisson con valor esperado es

Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles. La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parmetro 0 a otra de parmetro es

[editar] Relacin con otras distribuciones [editar] Sumas de variables aleatorias de Poisson La suma de variables aleatorias de Poisson independientes es otra variable aleatoria de Poisson cuyo parmetro es la suma de los parmetros de las originales. Dicho de otra manera, si

son N variables aleatorias de Poisson independientes, entonces

. [editar] Distribucin binomial La distribucin de Poisson es el caso lmite de la distribucin binomial. De hecho, si los parmetros n y de una distribucin binomial tienden a infinito y a cero de manera que obtenida es de Poisson. [editar] Aproximacin normal Como consecuencia del teorema central del lmite, para valores grandes de , una variable aleatoria de Poisson X puede aproximarse por otra normal dado que el cociente se mantenga constante, la distribucin lmite

converge a una distribucin normal de media nula y varianza 1. [editar] Distribucin exponencial Supngase que para cada valor t > 0, que representa el tiempo, el nmero de sucesos de cierto fenmeno aleatorio sigue una distribucin de Poisson de parmetro t. Entonces, los tiempos discurridos entre dos sucesos sucesivos sigue la distribucin exponencial. [editar] Ejemplos Si el 2% de los libros encuadernados en cierto taller tiene encuadernacin defectuosa, para obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan encuadernaciones defectuosas usamos la distribucin de Poisson. En este caso concreto, k es 5 y , , el valor esperado de libros defectuosos es el 2% de 400, es decir, 8. Por lo tanto, la probabilidad buscada es

Este problema tambin podra resolverse recurriendo a una distribucin binomial de parmetros k = 5, n = 400 y =0,02. probabilidad y estadstica, la distribucin t (de Student) es una distribucin de probabilidad que surge del problema de estimar la media de una poblacin normalmente distribuida cuando el tamao de la muestra es pequeo. Aparece de manera natural al realizar la prueba t de Student para la determinacin de las diferencias entre dos medias muestrales y para la construccin del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviacin tpica de una poblacin y sta debe ser estimada a partir de los datos de una muestra. [editar] Caracterizacin La distribucin t de Student es la distribucin de probabilidad del cociente

donde

Z tiene una distribucin normal de media nula y varianza 1 V tiene una distribucin chi-cuadrado con Z y V son independientes grados de libertad

Si es una constante no nula, el cociente central con parmetro de no-centralidad .

es una variable aleatoria que sigue la distribucin t de Student no

[editar] Aparicin y especificaciones de la distribucin t de Student Supongamos que X1,..., Xn son variables aleatorias independientes distribuidas normalmente, con media y varianza 2. Sea

la media muestral. Entonces

sigue una distribucin normal de media 0 y varianza 1. Sin embargo, dado que la desviacin estndar no siempre es conocida de antemano, Gosset estudi un cociente relacionado,

donde

es la varianza muestral y demostr que la funcin de densidad de T es

donde

es igual a n 1.

La distribucin de T se llama ahora la distribucin-t de Student. El parmetro representa el nmero de grados de libertad. La distribucin depende de muy importante en la prctica. [editar] Intervalos de confianza derivados de la distribucin t de Student El procedimiento para el clculo del intervalo de confianza basado en la t de Student consiste en estimar la desviacin , pero no de o , lo cual es

tpica de los datos S y calcular el error estndar de la media

, siendo entonces el intervalo de confianza para la

media =

Es este resultado el que se utiliza en el test de Student: puesto que la diferencia de las medias de muestras de dos distribuciones normales se distribuye tambin normalmente, la distribucin t puede usarse para examinar si esa diferencia puede razonablemente suponerse igual a cero. para efectos prcticos el valor esperado y la varianza son: E(t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3

Distribucin Distribucin (ji-cuadrado)

Funcin de densidad de probabilidad

Funcin de distribucin de probabilidad

Parmetr os

grados de libertad

Dominio

Funcin de densidad (pdf)

Funcin de distribuci n (cdf)

Media

Mediana aproximadamente

Moda

if

Varianza

Coeficient e de simetra

Curtosis

Entropa

Funcin generador a de momento s (mgf) for

Funcin caracters tica En estadstica, la distribucin (de Pearson), llamada Chi cuadrado o Ji cuadrado, es una distribucin de probabilidad continua con un parmetro k que representa los grados de libertad de la variable aleatoria

donde Zi son variables aleatorias normales independientes de media cero y varianza uno. El que la variable aleatoria X tenga esta distribucin se representa habitualmente as:
[2] [3]

Es conveniente tener en cuenta que la letra griega se transcribe al latn como chi[1] y se pronuncia en castellano como ji. [editar] Propiedades [editar] Funcin de densidad Su funcin de densidad es:

donde es la funcin gamma. [Mostrar] Demostracin La funcin densidad de X1 = Z2 si Z es tipo N(0,1) viene dada por

Despejando y teniendo en cuenta contribuciones positivas y negativas de z:

La funcin distribucin de X = X1 + X2 + ... + Xn viene dada por su convolucin f(x;k) = f(x1) * f(x2) * ... * f(xk) Aplicando transformada de Laplace

Aplicando antitransformada se obtiene f(x;k)

[editar] Funcin de distribucin acumulada Su funcin de distribucin es

donde

es la funcin gamma incompleta.

El valor esperado y la varianza de una variable aleatoria X con distribucin son, respectivamente, k y 2k. [editar] Relacin con otras distribuciones

La distribucin es un caso especial de la distribucin gamma. De hecho, consecuencia, cuando k = 2, la distribucin es una distribucin exponencial de media k = 2.

Como

Cuando k es suficientemente grande, como consecuencia del teorema central del lmite, puede aproximarse por una distribucin normal:

[editar] Aplicaciones La distribucin tiene muchas aplicaciones en inferencia estadstica. La ms conocida es la de la denominada prueba utilizada como prueba de independencia y como prueba de bondad de ajuste y en la estimacin de varianzas. Pero tambin est involucrada en el problema de estimar la media de una poblacin normalmente distribuida y en el problema de estimar la pendiente de una recta de regresin lineal, a travs de su papel en la distribucin t de Student. Aparece tambin en todos los problemas de anlisis de varianza por su relacin con la distribucin F de Snedecor, que es la distribucin del cociente de dos variables aleatorias independientes con distribucin . [editar] Referencias

Distribucin F De Wikipedia, la enciclopedia libre Saltar a: navegacin, bsqueda

Fisher-Snedecor

Funcin de densidad de probabilidad

Funcin de distribucin de probabilidad

Parmetros libertad

grados de

Dominio

Funcin de densidad (pdf)

Funcin de distribucin (cdf)

Media para d2 > 2

Moda para d1 > 2

Varianza para d2 > 4

Coeficiente de simetra

para d2 > 6 Usada en teora de probabilidad y estadstica, la distribucin F es una distribucin de probabilidad continua. Tambin se la conoce como distribucin F de Snedecor (por George Snedecor) o como distribucin F de Fisher-Snedecor. Una variable aleatoria de distribucin F se construye como el siguiente cociente:

donde

U1 y U2 siguen una distribucin chi-cuadrado con d1 y d2 grados de libertad respectivamente, y U1 y U2 son estadsticamente independientes.

La distribucin F aparece frecuentemente como la distribucin nula de una prueba estadstica, especialmente en el anlisis de varianza. Vase el test F. La funcin de densidad de una F(d1, d2) viene dada por

para todo nmero real x 0, donde d1 y d2 son enteros positivos, y B es la funcin beta. La funcin de distribucin es

donde I es la funcin beta incompleta regularizada. [editar] Distribuciones relacionadas

es una distribucin ji-cuadrada cuando

para XF(1,2).

Esperanza matemtica De Wikipedia, la enciclopedia libre Saltar a: navegacin, bsqueda

En estadstica la esperanza matemtica (tambin llamada esperanza, valor esperado, media poblacional o media) de una variable aleatoria X, es el nmero que formaliza la idea de valor medio de un fenmeno aleatorio.

Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado nmero de veces. Cabe decir que el valor que toma la esperanza matemtica en algunos casos puede no ser "esperado" en el sentido ms general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible. Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el clculo

y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media aritmtica. Una aplicacin comn de la esperanza matemtica es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo nmero paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, as que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemtica del beneficio para apostar a un solo nmero es:

que es -0,0526 aproximadamente. Por lo tanto uno esperara, en media, perder unos 5 cntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.9474 euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no ganamos ni perdemos) se llama un "juego justo". Nota: El primer parntesis es la "esperanza" de perder tu apuesta de $1, por eso es negativo el valor. El segundo parntesis es la esperanza matemtica de ganar los $35. La esperanza matemtica del beneficio es el valor esperado a ganar menos el valor esperado a perder. [editar] Definicin Para una variable aleatoria discreta con valores posibles funcin de probabilidad p(xi) la esperanza se calcula como: y sus probabilidades representadas por la

Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la funcin de densidad :

La definicin general de esperanza se basa, como toda la teora de la probabilidad, en el marco de la teora de la medida y se define como la siguiente integral:

La esperanza tambin se suele simbolizar con

Las esperanzas centrados [editar] Propiedades

para .

se llaman momentos de orden

. Ms importantes son los momentos

No todas las variables aleatorias tienen un valor esperado. Por ejemplo, la distribucin de Cauchy no lo tiene. La esperanza es un operador lineal, ya que:

Combinando estas propiedades, podemos ver que -

donde

son variables aleatorias y

son tres constantes cualesquiera

Potrebbero piacerti anche