Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Índice de Contenidos
1 Variabilidad........................................................................................... 2
1.1 Variables deterministas y variables aleatorias ...................................... 2
1.2 La variación inevitable ..................................................................... 2
1.3 Causas de la variabilidad .................................................................. 3
1.4 Comportamiento de la variabilidad debido a causas aleatorias ............... 6
Estudio de la variabilidad
1 Variabilidad
Está claro que no va a resultarnos igual de complicado tomar una decisión cuando
nos encontremos en la situación de:
Resulta que siempre existen variaciones en las variables que afectan al proceso y,
en consecuencia, existen también diferencias en las características de salida. Por
ejemplo, si en una línea de envasado de sacos de pienso pesamos todas las
unidades producidas observaremos (si la báscula tiene suficiente precisión) que no
todas tienen exactamente el mismo peso. Las causas pueden estar en la
variabilidad en la materia prima, en vibraciones que afectan al sistema de
regulación, en las condiciones ambientales, o pueden ser otras, pero lo cierto es
que seguro que hay variabilidad en el peso. Otra tema es que esa variabilidad sea o
no tolerable.
Métodos
Operarios
Materiales
Mantenimiento
Maquinaria
Entorno
Otros
Si el enemigo a que nos enfrentamos es la variabilidad, habrá que saber cuales son
las causas que la producen para dirigir contra ellas nuestras acciones. Estas causas
se dividen en dos grandes grupos: las aleatorias y las asignables.
Las causas aleatorias son las más frecuentes, sus características más relevantes
son:
• Son parte permanente del sistema. Siempre están presentes y son difíciles
de eliminar.
Las causas aleatorias pueden tener su origen, por ejemplo, en las ligeras
variaciones de las materias primas o en las condiciones ambientales. Conceptos
como inevitable, estable, predecible o permanente están ligados a las causas
aleatorias. Si a una máquina sólo le afectan causas de variación aleatorias, se
encuentra en una situación estable que se define como estado de control.
En el caso de la línea de envasado, el hecho de que el peso exacto que tome una
unidad sea debido al azar, no significa que no presente un cierto tipo de
regularidad. Si las únicas causas que le afectan son aleatorias, la frecuencia con
que se observarán los distintos valores del peso tiende a estabilizarse siguiendo una
distribución conocida.
Por tanto, no podemos predecir el peso de una unidad concreta, pero si podemos
estimar cual será la proporción de unidades que tendrá un peso por debajo de un
determinado valor mínimo. En general, si la característica estudiada toma valores
que pueden desviarse con la misma libertad por encima o por debajo de su media,
la distribución que se obtiene recibe el nombre de ley Normal.
9 15
8
7
6 10
Frequency
Frequency
5
4
3 5
2
1
0 0
42 44 46 48 50 52 54 56 58 60 62 35 45 55 65
nn=50
= 50 n=100
n = 100
90
70
80
60 70
50 60
Frequency
Frequency
50
40
40
30
30
20 20
10 10
0
0
30 40 50 60 70
40 50 60 70
n=1000
n n=500
= 500 n = 1000
Figura 3 Histogramas construidos a partir de 50, 100, 500 y 1000 valores de una
distribución normal
99,7 %
95,4 %
68,3 %
2 La ley Normal
Por tanto, si sabemos que una variable se distribuye según una normal y
conocemos su media y desviación tipo, el cálculo de probabilidades se reduce a un
cálculo de áreas.
X ~ N (µ, σ)
(Esta es la forma de indicar que una variable aleatoria sigue una distribución
normal con media µ y desviación tipo σ.)
x−µ
z =
σ
El papel con estas ordenadas se llama Papel Probabilístico Normal (ppn). La función
de distribución de la Normal, representada en ppn se denomina Recta de Henry. La
representación de datos en ppn sirve para analizar la hipótesis de normalidad de la
población.
Si los datos se distribuyen en el ppn de manera que forman una recta podremos
asumir la hipótesis de normalidad, en caso contrario rechazaremos dicha hipótesis.
Con los siguientes ejemplos se verá que es fácil discernir cuando se asume o
rechaza la normalidad de los datos:
Figura 12 Representación en ppn de los datos de: Normal (50;5), Chi cuadrado con
5 grados de libertad y Equiprobable entre 1 y 6.
Los datos que provienen de una Normal se alinean formando aproximadamente una
recta. En cambio, los datos de la Chi cuadrado se curvan en los extremos. Como la
ley equiprobable (todos los valores entre 1 y 6 tienen la misma probabilidad de
salir) es discreta, los valores se distribuyen verticalmente; en ningún caso
podríamos pensar que estos datos provienen de una Normal.
Sigamos con la línea de envasado. El contenido de cada saco debe ser de 20kg,
pero incluso en las condiciones óptimas de trabajo los sacos no salen con este peso
exactamente, sino que puede estar comprendido, por ejemplo, entre 19,8 y 20,2kg.
40 70
60
30
50
Frequency
Frequency
40
20
30
10 20
10
0 0
19,80 19,85 19,90 19,95 20,00 20,05 20,10 20,15 20,20 19,80 19,85 19,90 19,95 20,00 20,05 20,10 20,15 20,20
Peso 1 Peso 2
80
70
60
50
Frequency
40
30
20
10
Como esta variabilidad debida a causas aleatorias sigue una distribución normal, la
capacidad de una máquina se define tradicionalmente como 6σ (desde µ−3σ hasta
µ+3σ), que es el intervalo en el que obtendrán el 99,7 % de las observaciones. Para
no dejar de considerar el 3 por mil que queda fuera de este intervalo, algunas
empresas prefieren emplear 8σ (µ ± 4σ) como medida de capacidad.
Se ve clara, por tanto, la necesidad de definir un índice que relacione las tolerancias
del producto con la capacidad de la máquina. Este se denomina índice de capacidad
y viene definido por:
LTS − LTI
CP =
6σ
Siendo LTS: Límite de Tolerancia Superior, LTI: Límite de Tolerancia Inferior y 6σ:
Capacidad de la máquina
Capacidad = 6σ
Tolerancias
Capacidad
Tolerancias
Capacidad
Figura 16 Definición de una máquina como capaz o no capaz (de fabricar con unas
determinadas especificaciones)
Supongamos que el peso de los sacos de pienso tiene una tolerancia de ± 250 g. y
que la desviación tipo calculada de una muestra de sacos tomada con el proceso en
estado de control es σ = 0,06 g. Tendremos:
LTS = 20,25 g
LTI = 19,75 g
6σ = 6 · 0,06 g = 0,36 g
20,25 − 19,75
Por tanto: CP = = 1,39
0,36
Otro índice también muy usado es el Cpk, que mide lo centrada que está la
máquina respecto al valor nominal. Su valor es el mínimo entre el Cp superior y el
Cp inferior, siendo:
LTS − µ µ - LTI
Cp superior: CpU = ; Cp inferior: CpL =
3σ 3σ
µ − LTI
CpL =
3σ
LTS − µ
CpU =
3σ
3σ 3σ
20,25 − 19,85
Cp superior = = 2,22
3 ⋅ 0,06
19,85 - 19,75
Cp inferior = = 0,056
3 ⋅ 0,06
Por tanto, como Cpk = mínimo (Cp superior, Cp inferior) tendremos que:
Cpk = 0,056
4.2 Variabilidad
Cuando decimos que un proceso tiene seis sigmas (o cuatro, o las que sean) no nos
estamos refiriendo a su variabilidad. Esas sigmas no son medida de variabilidad.
Las sigmas del proceso relacionan variabilidad y tolerancias, igual que ocurre con el
Cp. Un proceso Seis Sigma es aquél que tiene las tolerancias a 6 sigmas del valor
objetivo.
Se producen 0,002 ppm de defectos (0,002 defectos por cada millón de unidades)
en un proceso Seis Sigma perfectamente centrado. Pero es muy optimista pensar
que estará siempre centrado. Para ser más realista, se cuenta la proporción de
defectos cuando el proceso se ha descentrado 1,5 sigmas. En este caso resulta que
los defectos son 3,4 ppm. Este valor de 1,5 sigmas de descentramiento es un poco
arbitrario; así lo plantearon los “pioneros” y así se ha quedado.
Seis Sigma propone una medida distinta: defectos por millón de oportunidades
(DPMO). Las oportunidades de defecto son todos aquellos aspectos que pueden
fallar en el producto/servicio y están ligadas con las CCC’s (características críticas
de calidad).
Número
de Error en:
factura
34 Dirección
34 Importe
112 A la atención de
512 Descripción
512 Importe
512 Condiciones
Calculando los DPMO estamos siendo más exigentes con nuestro proceso ya que si
una factura tiene más de un defecto lo tenemos en cuenta mientras que con la
métrica convencional pasábamos por alto este hecho.
Sigmas
del DPMO
proceso
6 3,4
5 233
4,6 968
4,5 1320
4 6.210
3 66.807
2 308.538
1 691.462
Si comparamos la métrica convencional con la métrica que usa Seis Sigma, vemos
que tiene ciertas ventajas, estas son:
El hecho que sea una medida subjetiva no tiene por qué ser algo contraproducente,
pues cada organización debe ajustarla a su proceso sin caer en el error de definir
oportunidades ni por exceso ni por defecto ya que “nos estaremos engañando”. Si
exageramos las oportunidades de defecto tendremos un proceso con muchas
sigmas (pero nos estaremos engañando). En consecuencia, una comparación del
tipo “Este proceso tiene 5 sigmas y aquél tiene 4, luego este proceso es mejor que
aquél”, no nos estará informando realmente de cómo son los procesos.
Una oportunidad de defecto debe tener una posibilidad razonable de que se cometa
ese tipo de error. Si se definen bien las oportunidades de defecto, entonces sí
podremos comparar nuestro proceso con otro. También podremos ver la evolución
de un mismo proceso y el aumento notable de las sigmas del proceso: “Al inicio del
proyecto nuestro proceso tenía 2,7 sigmas y hemos logrado situarlo en 5,2”.
Cuando se están cometiendo muy pocos defectos, las DPMO miden las mejoras de
una manera más clara. Dicen lo mismo: “Hemos pasado de un 0,003% de DPMO a
un 0,0003%” que “Hemos pasado de un proceso 5 Sigma a un proceso 6 Sigma”;
en cambio, la segunda expresión es más comprensible.
Las sigmas del proceso tienen que ver con el nombre pero no con la esencia ni con
lo más importante de los programas Seis Sigma.
Para calcular las sigmas de sus procesos puede utilizar la siguiente plantilla:
Pasos 1 2 3
1. Número de oportunidades de defecto por unidad O=
2. Número de unidades procesadas N=
3. Número total de defectos identificados D=
4. Defectos por oportunidad DPO= D/(N x O) =
5. Defectos por millón de oportunidades DPMO = DPO x 106 =
6. Sigmas del proceso (tabla equivalencias DPMO y Sigmas del proceso)
Observe que este indicador nada dice de las vueltas que han dado las 1.477
unidades antes de salir del proceso. Podrían salir las 1.500, y tener un rendimiento
final del 100%, pero reprocesando cada una varias veces. Medido de esta forma, el
rendimiento no es un buen indicador del rendimiento del proceso.