Sei sulla pagina 1di 4

Universidad Autónoma de Santo Domingo

(UASD)
Facultad de Ingeniería y Arquitectura

Nombre:
Leydy Estefany Padilla Concepción
Matricula:
100180078
Seccion:
Z02
Asignatura:
Diseño De Experimento Por Comp. (IND-5410)
Tema:
Resumen CapítuloII. Experimentos Comparativos Simples.

Maestro:

Felipe Llaugel Emiliano


Diseño De Experimento Por Computadora.

Experimentos Comparativos Simples.

Los experimentos comparativos simples son básicamente, experimentos en los cuales la muestra
se compara por sus efectos medios sobre una variable respuesta. El objetivo de ellos es
determinar cuál de ellos es mejor en algún sentido. Por lo tanto, vamos a examinar los
experimentos comparativos simples.

La fuerza de la tensión de adhesión del mortero de cemento portland es una característica


importante del producto. Un ingeniero está interesado en comparar la fuerza de una formulación
modificada en la que se han agregado emulsiones de látex de polímeros durante el mezclado, con
la fuerza del mortero sin modificar.

Descripción Grafica De La Variabilidad.

Es frecuente usar métodos gráficos simples como ayuda para analizar los datos de un experimento.
El diagrama de puntos, es un recurso muy útil para representar un cuerpo reducido de datos. El
diagrama de puntos le permite al experimentador ver de inmediato la localización o tendencia
central de las observaciones y su dispersión.

El diagrama de caja (o diagrama de caja y bigote) es una manera muy útil de representar
gráficamente los datos. Los diagramas de puntos, los histogramas y los diagramas de cajas son
útiles para resumir la información de una muestra de datos.

Distribución De Probabilidad.

La estructura de la probabilidad de una variable aleatoria, por ejemplo “y” se describe mediante
su distribución de probabilidad. Cuando “y” es discreta, es común hacer referencia a su
distribución de probabilidad, por ejemplo f (y), como la función de densidad de probabilidad.

La media, de una distribución de probabilidad es una media de su tendencia central o localización.


Esta también puede expresarse en términos de valor esperado o valor promedio a la larga de la
variable aleatoria.

La varianza es una medida de dispersión definida como la esperanza del cuadro de la desviación
de dicha variable respeto a su media. La covarianza es una medida de la asociación lineal entre 𝑌1
y 𝑌2 .
Muestreo Y Distribución De Muestreo.

El objetivo de la inferencia estadística es sacar conclusiones acerca de una población utilizando


una muestra de la misma. En la inferencia estadística se utilizan profusamente cantidades
calculadas a partir de las observaciones de la muestra. Un estadístico se define como cualquier
función de las observaciones de una muestra que no contiene parámetros desconocidos.

La media muestral ȳ es un estimador puntual de la media población µ, y la varianza muestral 𝒔𝟐


es un estimador puntual de la varianza poblacional 𝛔𝟐. En general, un estimador de un parámetro
desconocido es un estadístico que corresponde con dicho parámetro. Observe que un estimador
puntual es una variable aleatoria. El valor numérico particular de un estimador, calculado a partir
de los datos muestrales, se les llama una estimación.

Un buen estimador puntual debe tener varias propiedades. Dos de las más importantes son las
siguientes:

El estimador puntual deberá ser insesgado. Es decir, el parámetro que se está


estimando debería ser el promedio o valor esperado a la larga del estimador puntual.

Un estimador insesgado debería tener la varianza mínima. Esta propiedad establece


que el estimador puntual de varianza mínima tiene una varianza que es menor que la
varianza de cualquier otro estimador del parámetro en cuestión.

Prueba de Hipótesis.

El procedimiento para decidir si se acepta o se rechaza las proposiciones se denomina prueba de


hipótesis. Una prueba de hipótesis es una herramienta de análisis de datos que puede en general
formar parte de un experimento comparativo más completo.

Una hipótesis estadística es un enunciado o afirmación ya sea acerca de los parámetros de una
distribución probabilidad o de los parámetros de un modelo. La hipótesis refleja alguna conjetura
acerca de la situación del problema. Por ejemplo, en el experimento del cemento portland, pude
pensarse que las fuerzas de la tensión de adhesión promedio de las dos formulaciones del morteo
son iguales. Esto puede enunciarse formalmente como:

𝐻0 : µ1 = µ2
𝐻1 : µ1 ≠ µ2

Donde al enunciado 𝑯𝟎 : µ𝟏 = µ𝟐 se le llama hipótesis nula y a 𝑯𝟏 : µ𝟏 ≠ µ𝟐 se le llama hipótesis


alternativa. A la hipótesis alternativa que se especifica aquí se llama hipótesis alternativa de dos
colas porque sería verdadera si µ𝟏 < µ𝟐 o si µ𝟏 > µ𝟐 . Para probar una hipótesis se proyecta un
procedimiento para tomar una muestra aleatoria, calcular un estadístico de prueba apropiado para
después rechazar o no estar en posición de rechazar la hipótesis nula 𝐻0 . Parte de este
procedimiento cosiste en especificar el conjunto de valores del estadístico de prueba que llevan al
rechazo de 𝐻0 . A este conjunto de valores se le llama la región critica o región de rechazo de la
prueba.

Pueden cometerse dos tipos de errores cuando se prueban hipótesis. Si la hipótesis nula se
rechaza cuando es verdadera, ha ocurrido un error tipo I. si la hipótesis nula no se rechaza
cuando es falsa, se ha cometido un error tipo II.

Elección Del Tamaño De La Muestra.

La elección de un tamaño de la muestra apropiado es uno de los aspectos más importantes de


cualquier problema de diseño experimental. La elección del tamaño de la muestra y la probabilidad
β del error tipo II guardan una estrecha relación. Supongamos que se está probando la hipótesis

𝐻0 : µ1 = µ2

𝐻1 : µ1 ≠ µ2

Y que las medias no son iguales, por lo que σ = µ𝟏 − µ𝟐 . Puesto que 𝐻0 : µ1 = µ2 no es


verdadera, la preocupación principal es cometer la equivocación de no rechazar.

Intervalos de confianza.

Aun cuando la prueba de hipótesis es un procedimiento útil, en ocasiones no cuenta la historia


completa. Muchas veces es preferible proporcionar un intervalo dentro del cual cabría esperar que
estaría incluido el valor del parámetro o los parámetros en cuestión. A las declaraciones de estos
intervalos se les llama intervalos de confianza. Tenemos que un intervalo de confianza a un par
o varios pares de números entre los cuales se estima que estará cierto valor desconocido con una
determinada probabilidad de acierto. Formalmente, estos números determinan un intervalo, que se
calcula a partir de datos de una muestra, y el valor desconocido es un parámetro poblacional.
Debido a su naturaleza aleatoria, es poco probable que dos muestras de una población en particular
generen intervalos de confianza idénticos. Sin embargo, si usted repitiera muchas veces su
muestra, un determinado porcentaje de los intervalos de confianza resultantes incluiría el
parámetro de población desconocido.

Para definir un intervalo de confianza, suponga θ que es un parámetro desconocido. Para obtener
una estimación del intervalo de θ, es necesario encontrar dos estadísticos L y U tales que la
declaración de probabilidad P (L ≤ θ ≤ U) = 1- α sea verdadera. Al intervalo L≤ θ ≤ U se le llama
intervalo de confianza de 100 (1- α) por ciento para el parámetro θ.

La interpretación de este intervalo es que si, en muestreos aleatorios repetidos, se construye gran
número de estos intervalos, 100 (1- α) por ciento de ellos contendrán el verdadero valor de θ. A
los estadísticos L y U se les llama los límites de confianza inferior y superior, respectivamente, y
a 1- α se le llama el coeficiente de confianza.

Potrebbero piacerti anche