Sei sulla pagina 1di 16

Capítulo 1 Montgomery Runger

Un ingeniero es alguien que resuelve problemas de interés para la sociedad por la aplicación eficiente.
de los principios científicos. Los ingenieros logran esto al refinar un producto existente o
proceso o diseñando un nuevo producto o proceso que satisfaga las necesidades de los clientes. La
ingenieria,O científico, el método es el enfoque para formular y resolver estos problemas. Los pasos en
El método de ingeniería es el siguiente:

1. Desarrollar una descripción clara y concisa del problema.


2. Identifique, al menos provisionalmente, los factores importantes que afectan este
problema o que pueden Juega un papel en su solución.
3. Proponer un modelo para el problema, usando conocimiento científico o de
ingeniería del Fenómeno en estudio. Indique las limitaciones o suposiciones del
modelo.
4. Lleve a cabo experimentos apropiados y recopile datos para probar o validar el
modelo tentativo o las conclusiones hechas en los pasos 2 y 3.

5. Refinar el modelo sobre la base de los datos observados.


6. Manipule el modelo para ayudar a desarrollar una solución al problema.
7. Lleve a cabo un experimento apropiado para confirmar que la solución propuesta
para el problema es efectiva y eficiente.
8. Sacar conclusiones o hacer recomendaciones basadas en la solución del problema.

Los pasos en el método de ingeniería se muestran en la Fig. 1-1.}

Tenga en cuenta que el método de ingeniería presenta una fuerte interacción entre el problema, los
factores que pueden influir en su solución, una modelo del fenómeno y experimentación para verificar la
adecuación del modelo y la Solución propuesta al problema. Los pasos 2 a 4 en la Fig. 1-1 están
encerrados en una caja, lo que indica que Pueden requerirse varios ciclos o iteraciones de estos pasos para
obtener la solución final.
En consecuencia, los ingenieros deben saber cómo planificar experimentos, recopilar datos, analizar
e interpretar los datos, y comprender cómo los datos observados están relacionados con el modelo que
Se han propuesto para el problema en estudio.

El campo de las estadísticas se ocupa de la recopilación, presentación, análisis y uso de datos


para Tomar decisiones, resolver problemas y diseñar productos y procesos. Porque muchos
aspectos de la práctica de ingeniería involucra trabajar con datos, obviamente, algunos
conocimientos de estadística son Importante para cualquier ingeniero. Específicamente, las
técnicas estadísticas pueden ser una ayuda poderosa en el diseño. nuevos productos y
sistemas, mejorando los diseños existentes, y diseñando, desarrollando y Mejora de los
procesos productivos.

Los métodos estadísticos se utilizan para ayudarnos a describir y comprender la variabilidad. Por
variabilidad,queremos decir que las observaciones sucesivas de un sistema o fenómeno no producen
exactamente el mismo resultado Todos encontramos variabilidad en nuestra vida cotidiana, y el
pensamiento estadístico puede danos una manera útil de incorporar esta variabilidad en nuestros procesos
de toma de decisiones. Por Por ejemplo, considere el rendimiento de gasolina de su automóvil. ¿Siempre
obtienes exactamente el ¿El mismo rendimiento de kilometraje en cada tanque de combustible? Por
supuesto que no, de hecho, a veces el kilometraje
El rendimiento varía considerablemente. Esta variabilidad observada en el kilometraje de la gasolina
depende de muchos factores, como el tipo de conducción más reciente (ciudad versus carretera),
los cambios en la condición del vehículo a lo largo del tiempo (que podrían incluir factores tales como
Inflación, compresión del motor o desgaste de la válvula), la marca y / o el número de octano de la
gasolina utilizado, o posiblemente incluso las condiciones climáticas que se han experimentado
recientemente. Estos factores representan fuentes potenciales de variabilidad en el sistema. La estadística
nos da un marco para describiendo esta variabilidad y para aprender sobre cuáles fuentes potenciales de
variabilidad son los más importantes o que tienen el mayor impacto en el rendimiento del kilometraje de
la gasolina.

También encontramos variabilidad en el tratamiento de problemas de ingeniería. Por ejemplo,


supongamos que un ingeniero está diseñando un conector de nylon para ser usado en un motor automotriz
solicitud. El ingeniero está considerando establecer la especificación de diseño en el espesor de la pared
en 3 32 pulgadas, pero no está seguro del efecto de esta decisión en el conector
Fuerza de arranque. Si la fuerza de extracción es demasiado baja, el conector puede fallar cuando se
instala en un motor. Se producen ocho unidades prototipo y se miden sus fuerzas de arranque, lo que
resulta en los siguientes datos (en libras): 12.6, 12.9, 13.4, 12.3, 13.6, 13.5, 12.6, 13.1. Como habíamos
anticipado, No todos los prototipos tienen la misma fuerza de arranque. Decimos que hay variabilidad en
las mediciones de fuerza de extracción. Debido a que las mediciones de la fuerza de extracción exhiben
variabilidad, considere la fuerza de extracción como una variable aleatoria. Una forma cómoda de pensar
en un azar. La variable, digamos X, que representa una medida, es mediante el uso del modelo.

Donde U es una constante y E es una perturbación aleatoria. La constante sigue siendo la misma con cada
Medición, pero pequeños cambios en el medio ambiente, equipos de prueba, diferencias en el individuo.
partes mismas, y así sucesivamente cambian el valor de E. Si no hubiera disturbios, siempre sería igual a
cero y X siempre sería igual a la constante. Sin embargo, esto nunca Ocurre en el mundo real, por lo que
las mediciones reales X exhiben variabilidad. A menudo necesitamos describir, cuantificar y finalmente
reducir la variabilidad.

La Figura 1-2 presenta un diagrama de puntos de estos datos. El diagrama de puntos es un diagrama muy
útil para mostrando un pequeño conjunto de datos, por ejemplo, hasta aproximadamente 20
observaciones. Este diagrama nos permite ver fácilmente. dos características de los datos; la ubicación, o
el medio, y la dispersión o variabilidad. Cuando el el número de observaciones es pequeño, generalmente
es difícil identificar algún patrón específico en la variabilidad, aunque el diagrama de puntos es una forma
conveniente de ver cualquier característica de datos inusual

La necesidad de pensamiento estadístico surge a menudo en la solución de problemas de


ingeniería. Considere el ingeniero que diseña el conector. De probar los prototipos, él sabe que
el La fuerza promedio de arranque es de 13.0 libras. Sin embargo, él piensa que esto puede
ser demasiado bajo para la aplicación prevista, por lo que decide considerar un diseño
alternativo con una pared más grande. espesor, 1 8 pulgadas. Se construyen ocho prototipos
de este diseño, y la fuerza de extracción observada las medidas son 12.9, 13.7, 12.8, 13.9,
14.2, 13.2, 13.5 y 13.1. El promedio es de 13.4. Los resultados para ambas muestras se trazan
como diagramas de puntos en la Fig. 1-3, página 3

Esta pantalla da La impresión de que aumentar el grosor de la pared ha provocado un aumento


de la fuerza de arranque. Sin embargo, hay algunas preguntas obvias que hacer. Por ejemplo,
¿cómo sabemos que otra muestra de prototipos no dará resultados diferentes? ¿Es adecuada
una muestra de ocho prototipos para dar resultados confiables? Si utilizamos los resultados de
las pruebas obtenidas hasta el momento para concluir que aumentar el grosor de la pared
aumenta la resistencia, ¿qué riesgos están asociados con esta decisión? Por ejemplo, es
posible que el aumento aparente en la fuerza de arranque observado en los prototipos más
gruesos se deba únicamente a la variabilidad inherente en el sistema y al aumento de ¿El
grosor de la pieza (y su costo) realmente no tiene efecto en la fuerza de extracción?

A menudo, las leyes físicas (como la ley de Ohm y la ley del gas ideal) se aplican para ayudar a diseñar
Productos y procesos. Estamos familiarizados con este razonamiento de las leyes generales a los casos
específicos. Pero también es importante razonar desde un conjunto específico de mediciones hasta casos
más generales para responder las preguntas anteriores. Este razonamiento es de una muestra (como los
ocho conectores) a una población (como los conectores que se venderán a los clientes). El razonamiento
se conoce como inferencia estadística.
Vea la figura 1-4. Históricamente, se obtuvieron mediciones de una muestra de personas y generalizada a
una población, y la terminología se ha mantenido. Claramente, el razonamiento basado en mediciones de
algunos objetos a mediciones en todos los objetos puede dar lugar a errores (llamados errores de
muestreo). Sin embargo, si la muestra se selecciona correctamente, estos riesgos se pueden cuantificar y
se puede determinar el tamaño de muestra apropiado.

En algunos casos, la muestra se selecciona realmente de una población bien definida. La


muestra es un subconjunto de la población. Por ejemplo, en un estudio de resistividad, se
puede seleccionar una muestra de tres obleas de un lote de producción de obleas en la
fabricación de semiconductores. Sobre la base de los datos de resistividad recopilados en las
tres obleas de la muestra, queremos sacar una conclusión acerca de la resistividad de todas
las obleas en el lote.
En otros casos, la población es conceptual (como con los conectores), pero podría pensarse como futuras
réplicas de los objetos en la muestra. En esta situación, los ocho prototipos de conectores deben ser
representativos, en cierto sentido, de los que se fabricarán.
en el futuro. Claramente, este análisis requiere cierta noción de estabilidad como un supuesto adicional.
Por ejemplo, podría suponerse que las fuentes de variabilidad en la fabricación de los prototipos (como la
temperatura, la presión y el tiempo de curado) son las mismas que las de los conectores que se fabricarán
en el futuro y se venderán a los clientes.

El ejemplo de wafers-from-lots se llama estudio enumerativo. Se utiliza una muestra para hacer
una inferencia a la población de la que se selecciona la muestra. El ejemplo de conector se
llama estudio analítico. Una muestra se utiliza para hacer una inferencia a una población
conceptual (futura). Los análisis estadísticos son generalmente los mismos en ambos casos,
pero un estudio analítico claramente requiere un supuesto de estabilidad. Vea la Fig. 1-5, en la
página 4.

RECOLECCIÓN DE DATOS DE
INGENIERÍA
Principios básicos
En la sección anterior, ilustramos algunos métodos simples para resumir datos. En la ingenieria
medio ambiente, los datos son casi siempre una muestra que se ha seleccionado de alguna
población. Tres métodos básicos de recolección de datos son
Un estudio retrospectivo a partir de datos históricos.
Un estudio observacional
Un experimento diseñado
Un procedimiento efectivo de recolección de datos puede simplificar enormemente el análisis y conducir
a una mejor comprensión de la población o el proceso que se está estudiando. Ahora consideramos
algunos ejemplos de estos métodos de recolección de datos.

Estudio retrospectivo
Montgomery, Peck y Vining (2001) describen una columna de destilación de acetona-alcohol butílico
para la cual la concentración de acetona en la corriente de producto destilado o de salida es una
Variable importante. Los factores que pueden afectar al destilado son la temperatura de recalentamiento,
el condensado, temperatura, y la tasa de reflujo. El personal de producción obtiene y archiva los
siguientes registros:
La concentración de acetona en una muestra de prueba por hora del producto de salida.
El registro de temperatura de reboil, que es un gráfico de la temperatura de reboil a lo largo del tiempo.
El registro del controlador de temperatura del condensador.
La tasa nominal de reflujo cada hora

La tasa de reflujo debe mantenerse constante para este proceso. En consecuencia, el personal
de producción. cambia esto con muy poca frecuencia. Un estudio retrospectivo usaría todos o
una muestra de los datos históricos del proceso archivados durante un período de tiempo. El
objetivo del estudio podría ser descubrir las relaciones. entre las dos temperaturas y la tasa de
reflujo en la concentración de acetona en la salida flujo de producto Sin embargo, este tipo de
estudio presenta algunos problemas:
1. Es posible que no podamos ver la relación entre la tasa de reflujo y la concentración de
acetona, porque la tasa de reflujo no cambió mucho a lo largo del período histórico.
2. Los datos archivados de las dos temperaturas (que se registran casi continuamente) No
corresponden perfectamente a las mediciones de concentración de acetona. (que se hacen por
hora). Puede que no sea obvio cómo construir una correspondencia aproximada.
3. La producción mantiene las dos temperaturas lo más cerca posible de los objetivos o puntos
de ajuste deseados. Debido a que las temperaturas cambian tan poco, puede ser difícil evaluar
su impacto real en la concentración de acetona.
4. Dentro de los rangos estrechos en que varían, la temperatura del condensado tiende a
aumentar con la temperatura de recalentamiento. En consecuencia, los efectos de estas dos
variables de proceso en la concentración de acetona pueden ser difíciles de separar.

Como puede ver, un estudio retrospectivo puede involucrar una gran cantidad de datos, pero esos datos
pueden contener relativamente poca información útil sobre el problema. Además, algunos de los
relevantes es posible que falten datos, que haya errores de transcripción o registro que resulten en valores
atípicos (o valores inusuales), o que no se hayan recopilado y archivado datos sobre otros factores
importantes. En la columna de destilación, por ejemplo, las concentraciones específicas de alcohol
butílico y la acetona en la corriente de alimentación de entrada es un factor muy importante, pero no se
archiva porque las concentraciones son demasiado difíciles de obtener de forma rutinaria. Como resultado
de este tipo de problemas, el análisis estadístico de datos históricos a veces identifica fenómenos
interesantes, pero las explicaciones sólidas y confiables de estos fenómenos a menudo son difíciles de
obtener.

Estudio observacional
En un estudio de observación, el ingeniero observa el proceso o la población, lo perturba lo menos posible
y registra las cantidades de interés. Debido a que estos estudios generalmente se realizan durante un
período de tiempo relativamente corto, a veces se pueden incluir variables que no se miden de manera
rutinaria. En la columna de destilación, el ingeniero diseñaría una forma para registrar las dos
temperaturas y la velocidad de reflujo cuando se realizan las mediciones de concentración de acetona.
Incluso puede ser posible medir las concentraciones de la corriente de alimentación de entrada para que se
pueda estudiar el impacto de este factor. En general, un estudio observacional tiende a resolver los
problemas 1 y 2 anteriores y ayuda a obtener datos precisos y confiables. Sin embargo, los estudios
observacionales pueden no ayudar a resolver los problemas 3 y 4.
Experimentos diseñados
En un experimento diseñado, el ingeniero realiza cambios deliberados o intencionados en lo
controlable. variables del sistema o proceso, observa los datos de salida del sistema
resultantes y luego hace una inferencia o decisión sobre qué variables son responsables de los
cambios observados en el rendimiento de salida. El ejemplo de conector de nylon en la Sección
1-1 ilustra un experimento diseñado; es decir, se realizó un cambio deliberado en el grosor de
la pared del conector con el objetivo de descubrir si se podría obtener o no una mayor fuerza
de extracción. Los experimentos diseñados desempeñan un papel muy importante en el diseño
y desarrollo de ingeniería y en la Mejora de los procesos de fabricación. Generalmente, cuando
se diseñan productos y procesos. y desarrollados con experimentos diseñados, disfrutan de un
mejor rendimiento, mayor confiabilidad y menores costos generales. Los experimentos
diseñados también desempeñan un papel crucial en la reducción del tiempo de espera para el
diseño de ingeniería y las actividades de desarrollo.
Por ejemplo, considere el problema que implica la elección del grosor de pared para el conector de nylon.
Esta es una simple ilustración de un experimento diseñado. El ingeniero eligió dos espesores de pared
para el conector y realizó una serie de pruebas para obtener mediciones de la fuerza de extracción en cada
espesor de pared. En este sencillo experimento comparativo, el ingeniero está interesado en determinar si
hay alguna diferencia entre los diseños de 3 32 y 1 8 pulgadas. Un enfoque que podría usarse para
analizar los datos de este experimento es comparar la fuerza de extracción promedio para el diseño de 3
pulgadas de 32 pulgadas con la fuerza de extracción promedio para el diseño de 1 8 pulgadas usando una
prueba estadística de hipótesis. que se analiza en detalle en los capítulos 9 y 10. En general, una hipótesis
es una afirmación sobre algún aspecto del sistema en el que estamos interesados. Por ejemplo, el
ingeniero puede querer saber si la fuerza de extracción promedio de un diseño de 3 32 pulgadas excede la
carga máxima típica que se espera encontrar en esta aplicación, digamos 12.75 libras. Por lo tanto,
estaríamos interesados en probar la hipótesis de que la fuerza media supera las 12.75 libras. Esto se llama
un problema de prueba de hipótesis de muestra única. También es un ejemplo de un estudio analítico.
Capítulo 9
Presenta técnicas para este tipo de problema. Alternativamente, el ingeniero podría estar interesado en
probar la hipótesis de que aumentar el grosor de la pared de 3 32 a 1 8 pulgadas da como resultado un
aumento en la fuerza de extracción promedio. Claramente, este es un estudio analítico; También es un
ejemplo de un problema de prueba de hipótesis de dos muestras. Los problemas de prueba de hipótesis de
dos muestras se discuten en el Capítulo 10

Los experimentos diseñados son un enfoque muy poderoso para estudiar sistemas complejos,
como la columna de destilación. Este proceso tiene tres factores, las dos temperaturas y la
velocidad de reflujo, y queremos investigar el efecto de estos tres factores en la concentración
de acetona de salida. Un buen diseño experimental para este problema debe garantizar que
podamos separar los efectos de los tres factores en la concentración de acetona. Los valores
especificados de los tres factores utilizados en el experimento se denominan niveles de factor.
Por lo general, utilizamos una pequeña cantidad de niveles para cada factor, como dos o tres.
Para el problema de la columna de destilación, supongamos que usamos un nivel "alto" y "bajo"
(denotado +1 y 1, respectivamente) para cada uno de los factores. Por lo tanto, utilizaríamos
dos niveles para cada uno de los tres factores. Una estrategia de diseño de experimento muy
razonable utiliza cada combinación posible de los niveles de factor para formar un experimento
básico con ocho configuraciones diferentes para el proceso. Este tipo de experimento se llama
un experimento factorial. La tabla 1-1 presenta este diseño experimental.
La Figura 1-6, en la página 8, ilustra que este diseño forma un cubo en términos de estos
niveles altos y bajos. Con cada ajuste de las condiciones del proceso, permitimos que la
columna alcance el equilibrio, tomar una muestra de la corriente del producto y determinar la
concentración de acetona. Entonces podemos hacer inferencias específicas sobre el efecto de
estos factores. Este enfoque nos permite estudiar proactivamente una población o un proceso.
Los experimentos diseñados juegan un papel muy importante en la ingeniería y la ciencia. Los
capítulos 13 y 14 discuten muchos de los principios y técnicas importantes del diseño
experimental

Procesos de observación a lo largo del tiempo.


A menudo los datos se recopilan a lo largo del tiempo. En este caso, generalmente es
muy útil trazar los datos en función del tiempo en una gráfica de series de tiempo. Los
fenómenos que pueden afectar el sistema o proceso a menudo se vuelven más
visibles en una trama orientada en el tiempo y el concepto de estabilidad se puede
juzgar mejor. La Figura 1-7 es un diagrama de puntos de las lecturas de concentración
de acetona tomadas cada hora de la columna de destilación descrita en la Sección 1-
2.2. La gran variación que se muestra en el diagrama de puntos indica una gran
variabilidad en la concentración, pero el gráfico no ayuda a explicar la razón de la
variación.
La gráfica de la serie temporal se muestra en la Figura 1-8, en la página 9.
Un cambio en el nivel promedio del proceso es visible en la gráfica y se puede obtener
una estimación del tiempo del cambio.

W. Edwards Deming, un estadístico industrial muy influyente, destacó que es


importante comprender la naturaleza de la variabilidad en los procesos y sistemas a lo
largo del tiempo. Llevó a cabo un experimento en el que intentó colocar canicas lo más
cerca posible de un objetivo en una mesa. Utilizó un embudo montado en un soporte
de anillo y las canicas se dejaron caer en el embudo. Vea la figura 1-9. El embudo se
alineó lo más cerca posible del centro del objetivo. Luego utilizó dos estrategias
diferentes para operar el proceso. (1) Nunca movió el embudo. Simplemente dejó caer
una canica tras otra y registró la distancia desde el objetivo. (2) Dejó caer la primera
canica y registró su ubicación en relación con el objetivo. Luego movió el embudo a
una distancia igual y opuesta en un intento de compensar el error. Continuó haciendo
este tipo de ajuste después de que se cayó cada canica.

Una vez que se completaron ambas estrategias, notó que la variabilidad de la


distancia con respecto al objetivo para la estrategia 2 era aproximadamente 2 veces
mayor que para la estrategia 1. Los ajustes Al embudo aumentaron las desviaciones
del objetivo. La explicación es que el error (la desviación de la posición de la canica
del objetivo) para una canica no proporciona información sobre el error que ocurrirá
para la siguiente canica. En consecuencia, los ajustes al embudo no disminuyen los
errores futuros. En su lugar, tienden a mover el embudo más lejos del objetivo.
Este interesante experimento señala que los ajustes a un proceso basado en perturbaciones aleatorias
pueden aumentar la variación del proceso. Esto se conoce como control excesivo
(El experimento siempre va a presentar variables aleatorias, y si se va cambiando la
base de donde se hace exp, se va a gregando más y más error)

Esto se conoce como control excesivo o manipulación. Los ajustes deben aplicarse solo para compensar
un cambio no aleatorio en el proceso, luego pueden ayudar. Se puede usar una simulación por
computadora para demostrar las lecciones del experimento del embudo. La Figura 1-10 muestra una
gráfica de tiempo de 100 mediciones (denotadas como y) de un proceso en el que solo están presentes
perturbaciones aleatorias. El valor objetivo para el proceso es de 10 unidades. La figura muestra los datos
con y sin ajustes que se aplican a la media del proceso en un intento de producir datos más cercanos al
objetivo. Cada ajuste es igual y opuesto a la desviación de la medición anterior del objetivo.
Por ejemplo, cuando la medición es 11 (una unidad por encima del objetivo), la media se reduce en una
unidad antes de que se genere la siguiente medición. El exceso de control ha aumentado las desviaciones.
desde el objetivo

La Figura 1-11 muestra los datos sin ajuste de la Fig. 1-10, excepto que las
mediciones después del número de observación 50 se incrementan en dos unidades
para simular el efecto de un cambio en la media del proceso. Cuando hay un
verdadero cambio en la media de un proceso, un ajuste puede ser útil. La Figura 1-11
también muestra los datos obtenidos cuando se aplica un ajuste (una disminución de
dos unidades) a la media después de que se detecta el cambio (en el número de
observación 57). Tenga en cuenta que este ajuste disminuye las desviaciones del
objetivo

La pregunta de cuándo aplicar los ajustes (y en qué cantidades) comienza con una
comprensión de los tipos de variación que afectan un proceso. Un gráfico de control es
una forma invaluable de examinar la variabilidad en los datos orientados al tiempo. La
Figura 1-12 presenta un gráfico de control para los datos de concentración de la Fig. 1-
8. La línea central en el gráfico de control es solo el promedio de las mediciones de
concentración para las primeras 20 muestras (95,1g/l) cuando el proceso es estable.
El límite de control superior y el límite de control inferior son un par de límites
derivados estadísticamente que reflejan la variabilidad natural o inherente en el
proceso. Estos límites se ubican en tres desviaciones estándar de los valores de
concentración por encima y por debajo de la línea central. Si el proceso está
funcionando como debería, sin ninguna fuente externa de variabilidad presente en el
sistema, las mediciones de concentración deberían fluctuar aleatoriamente alrededor
de la línea central, y casi todas deberían estar entre los límites de control.
En el cuadro de control de la Fig. 1-12, el marco de referencia visual proporcionado por la línea central y
los límites de control indican que el trastorno o la perturbación han afectado el proceso alrededor de la
muestra 20 porque todas las siguientes observaciones están debajo de la línea central y dos de ellos
realmente caen por debajo del límite de control inferior. Esta es una señal muy fuerte de que se requieren
acciones correctivas en este proceso. Si podemos encontrar y eliminar la causa subyacente de este
trastorno, podemos mejorar considerablemente el rendimiento del proceso.
Los cuadros de control son una aplicación muy importante de las estadísticas para monitorear, controlar y
mejorar un proceso. La rama de estadísticas que utiliza los gráficos de control se llama control de proceso
estadístico, o SPC. En el Capítulo 16, analizaremos el SPC y los gráficos de control.

MODELOS MECANISTICOS Y EMPIRICOS.


Los modelos juegan un papel importante en el análisis de casi todos los problemas de ingeniería. Gran
parte de la educación formal de los ingenieros implica aprender sobre los modelos relevantes para campos
específicos y las técnicas para aplicar estos modelos en la formulación y solución de problemas. Como un
simple ejemplo, supongamos que estamos midiendo el flujo de corriente en un cable de cobre delgado.
Nuestro modelo para este fenómeno podría ser la ley de Ohm:

I=V/R Corriente= voltaje/ resistencia


Llamamos a este tipo de modelo un modelo mecanicista porque se construye a partir de nuestro
conocimiento subyacente del mecanismo físico básico que relaciona estas variables. Sin embargo, si
realizamos este proceso de medición más de una vez, quizás en diferentes momentos, o incluso en días
diferentes, la corriente observada podría diferir ligeramente debido a pequeños cambios o variaciones en
factores que no están completamente controlados, como los cambios en la temperatura ambiente,
fluctuaciones en el rendimiento del medidor, pequeñas impurezas presentes en diferentes ubicaciones en
el cable y derivas en la fuente de voltaje. En consecuencia, un modelo más realista de la corriente
observada podría ser

donde E es un término agregado al modelo para tener en cuenta el hecho de que los
valores observados del flujo de corriente no se ajustan perfectamente al modelo
mecanicista. Podemos pensar en E como un término que incluye los efectos de todas
las fuentes de variabilidad no modificadas que afectan a este sistema. A veces los
ingenieros trabajan con problemas para los cuales no existe un modelo mecánico
simple o bien comprendido que explique el fenómeno. Por ejemplo, supongamos que
estamos interesados en el peso molecular promedio en número (Mn) de un polímero.
Ahora sabemos que el Mn está relacionado con la viscosidad del material (V) y
también depende de la cantidad de catalizador (C) y la temperatura (T) en el reactor
de polimerización cuando se fabrica el material. La relación entre Mn y estas variables
es

digamos, donde la forma de la función f es desconocida. Quizás se pueda desarrollar un modelo de trabajo
a partir de una expansión de la serie de Taylor de primer orden, lo que produciría un modelo de la forma.
donde los B son parámetros desconocidos. Ahora, al igual que en la ley de Ohm, este
modelo no describirá exactamente el fenómeno, por lo que deberíamos explicar las
otras fuentes de variabilidad que pueden afectar el peso molecular al agregar otro
término al modelo; por lo tanto

Es el modelo que usaremos para relacionar el peso molecular con las otras tres variables. Este tipo de
modelo se llama modelo empírico; es decir, utiliza nuestro conocimiento científico y de ingeniería del
fenómeno, pero no se desarrolla directamente a partir de nuestra comprensión teórica o de los primeros
principios del mecanismo subyacente.
Para ilustrar estas ideas con un ejemplo específico, considere los datos en la Tabla 1-2. Esta tabla contiene
datos sobre tres variables que se recopilaron en un estudio observacional en una planta de fabricación de
semiconductores. En esta planta, el semiconductor terminado se enlaza con un marco. Las variables
informadas son la fuerza de tracción (una medida de la cantidad de fuerza requerida para romper el
enlace), la longitud del cable y la altura de la matriz. Nos gustaría encontrar un modelo que relacione la
fuerza de tracción con la longitud del alambre y la altura del troquel. Desafortunadamente, no hay un
mecanismo físico que podamos aplicar fácilmente aquí, por lo que no parece probable que un enfoque de
modelado mecánico sea exitoso.
La Figura 1-13 presenta una gráfica tridimensional de las 25 observaciones sobre la
fuerza de tracción, la longitud del cable y la altura del troquel. Al examinar esta trama,
vemos que la resistencia a la tracción aumenta a medida que aumentan la longitud del
alambre y la altura del troquel. Además, parece razonable pensar que un modelo como
el

Sería apropiado como modelo empírico para esta relación. En general, este tipo de
modelo empírico se denomina modelo de regresión. En los capítulos 11 y 12
mostramos cómo construir estos modelos y probar su adecuación como funciones
aproximadas. Utilizaremos un método para estimar los parámetros en los modelos de
regresión, llamado método de mínimos cuadrados, que rastrea sus orígenes para
trabajar por Karl Gauss. Esencialmente, este método elige los parámetros en el
modelo empírico (la B) para minimizar la suma de las distancias cuadradas entre cada
punto de datos y el plano representado por la ecuación del modelo. La aplicación de
esta técnica a los datos de la Tabla 1-2 da como resultado:

donde el "sombrero", o circunflejo, sobre la fuerza de tracción indica que se trata de una cantidad
estimada o predicha.
La Figura 1-14 es una gráfica de los valores predichos de resistencia a la tracción frente a la longitud del
alambre y la altura del troquel obtenidos de la Ecuación 1-7. Observe que los valores predichos se
encuentran en un plano sobre el espacio de la longitud del troquel y la longitud del cable. A partir de la
gráfica de los datos en la figura 1-13, este modelo no parece irrazonable. El modelo empírico en la
Ecuación 1-7 podría usarse para predecir los valores de resistencia de tracción para varias combinaciones
de longitud de alambre y altura de matriz que sean de interés.
Esencialmente, un ingeniero podría usar el modelo empírico exactamente de la misma manera que un
modelo mecanicista.
PROBABILIDAD Y MODELOS DE PROBABILIDAD
En la Sección 1-1, se mencionó que las decisiones a menudo deben basarse en mediciones de solo un
subconjunto de objetos seleccionados en una muestra. Este proceso de razonamiento de una muestra de
objetos a conclusiones para una población de objetos se denominó inferencia estadística. Una muestra de
tres obleas seleccionadas de un lote de producción más grande de obleas en la fabricación de
semiconductores fue un ejemplo mencionado. Para tomar buenas decisiones, un análisis de qué tan bien
una muestra representa a una población es claramente necesario. Si el lote contiene obleas defectuosas,
¿qué tan bien detectará esto la muestra? ¿Cómo podemos cuantificar el criterio para "detectar bien"?
Básicamente, ¿cómo podemos cuantificar los riesgos de las decisiones basadas en muestras? Además,
¿cómo deben seleccionarse las muestras para proporcionar buenas decisiones, con riesgos aceptables?
Los modelos de probabilidad ayudan a cuantificar los riesgos involucrados en la inferencia estadística, es
decir, los riesgos involucrados en las decisiones tomadas todos los días.

Más detalles son útiles para describir el papel de los modelos de probabilidad. Supongamos que un lote de
producción contiene 25 obleas. Si todas las obleas son defectuosas o todas son buenas, claramente
cualquier muestra generará todas las obleas defectuosas o todas buenas, respectivamente. Sin embargo,
supongamos que solo una oblea en el lote es defectuosa. Luego, una muestra podría o no detectar (incluir)
la oblea. Se puede utilizar un modelo de probabilidad, junto con un método para seleccionar la muestra,
para cuantificar los riesgos de que la oblea defectuosa se detecte o no. Con base en este análisis, el
tamaño de la muestra puede aumentar (o disminuir). El riesgo aquí se puede interpretar de la siguiente
manera. Supongamos que se muestrean una serie de lotes, cada uno con exactamente una oblea
defectuosa. Los detalles del método utilizado para seleccionar la muestra se posponen hasta que se analice
la aleatoriedad en el siguiente capítulo. No obstante, suponga que la muestra del mismo tamaño (como
tres obleas) se selecciona de la misma manera en cada lote. La proporción de los lotes en los que se
incluye la oblea defectuosa en la muestra o, más específicamente, el límite de esta proporción a medida
que el número de lotes en la serie tiende a infinito, se interpreta como la probabilidad de que se detecte la
oblea defectuosa.

Se utiliza un modelo de probabilidad para calcular esta proporción bajo supuestos razonables para la
manera en que se selecciona la muestra. Esto es afortunado porque no queremos intentar muestrear de una
serie infinita de lotes. Los problemas de este tipo se resuelven en los Capítulos 2 y 3. Más importante aún,
esta probabilidad proporciona información valiosa y cuantitativa con respecto a
Cualquier decisión sobre la calidad del lote basada en la muestra.
Recuerde de la Sección 1-1 que una población podría ser conceptual, como en un estudio analítico que
aplica la inferencia estadística a la producción futura basándose en los datos de la producción actual.
Cuando las poblaciones se extienden de esta manera, el papel de la inferencia estadística y los modelos de
probabilidad asociados se vuelve aún más importante.

En el ejemplo anterior, cada oblea en la muestra solo se clasificó como defectuosa o no.
En su lugar, se puede obtener una medición continua de cada oblea. En la sección 1-2.6, concentración
Las mediciones se tomaron a intervalos periódicos de un proceso de producción. La Figura 1-7 muestra
que la variabilidad está presente en las mediciones, y puede haber preocupación de que el proceso se haya
movido de la configuración del objetivo para la concentración. Similar a la oblea defectuosa, uno podría
querer cuantificar nuestra capacidad para detectar un cambio de proceso basado en los datos de muestra.
Los límites de control se mencionaron en la Sección 1-2.6 como reglas de decisión para ajustar o no un
proceso. La probabilidad de que se detecte un cambio de proceso en particular puede calcularse con un
modelo de probabilidad para las mediciones de concentración. Los modelos para mediciones continuas se
desarrollan en base a supuestos plausibles para los datos y un resultado conocido como el teorema del
límite central, y la distribución normal asociada es un modelo de probabilidad particularmente valioso
para la inferencia estadística. Por supuesto, una verificación de suposiciones es importante. Estos tipos de
modelos de probabilidad se discuten en el Capítulo 4. El objetivo todavía es cuantificar los riesgos
inherentes a la inferencia hecha a partir de los datos de la muestra.

Generalmente, si hay k factores y cada uno tiene dos niveles, un diseño experimental
factorial requerirá 2k corridas. Por ejemplo, con k=4, el diseño 24 en la figura S1-3
requiere 16 pruebas. Claramente, a medida que aumenta la cantidad de factores, la
cantidad de pruebas requeridas en un experimento factorial aumenta rápidamente; por
ejemplo, ocho factores cada uno en dos niveles requerirían 256 pruebas. Esto
rápidamente se vuelve inviable desde el punto de vista del tiempo y otros recursos.

Afortunadamente, cuando hay cuatro o cinco factores o más, generalmente no es necesario probar todas
las combinaciones posibles de niveles de factores. Un experimento factorial fraccional es una variación de
la disposición factorial básica en la que solo se prueba un subconjunto de las combinaciones de factores.
La Figura S1-4 muestra un diseño experimental factorial fraccional para la versión de cuatro factores del
experimento del conector. Las combinaciones de prueba circuladas en esta figura son las únicas
combinaciones de prueba que deben ejecutarse. Este diseño experimental requiere solo 8 carreras en lugar
de las 16 originales; en consecuencia se llamaría media fracción. Este es un excelente diseño
experimental para estudiar los cuatro factores. Proporcionará buena información sobre los efectos
individuales de los cuatro factores y cierta información sobre cómo interactúan estos factores.

Potrebbero piacerti anche