martes, 4 de noviembre de 2025

CÓMO MEDIR LA CAPACIDAD DE PROCESOS EN UN LABORATORIO DE ENSAYO USANDO SIX SIGMA Y MINITAB

El principal objetivo de un proyecto DMAIC de Six Sigma es reducir el número de defectos o la variabilidad de un proceso. Cuando además se logra cuantificar esta mejora en términos económicos —por ejemplo, reduciendo pérdidas por un monto mínimo de 90.000 dólares—, el proyecto alcanza una envergadura propia de un Black Belt o cinturón negro. Sin embargo, en el caso de los laboratorios de ensayo, el enfoque puede ser diferente. Si el objetivo es disminuir los defectos asociados al reporte de resultados erróneos a los clientes, en muchos casos, el impacto económico directo podría ser modesto, considerando el costo unitario de cada análisis. Sin embargo, si se incorpora el valor intangible de la confianza del cliente, una sola falla puede representar la pérdida de un contrato o del negocio completo. En este contexto, emprender un proyecto DMAIC Six Sigma no solo es pertinente, sino también estratégico para la sostenibilidad del laboratorio

El presente artículo tiene como propósito explicar cómo se mide un proyecto Six Sigma mediante sus métricas de desempeño, las cuales incorporan indicadores estadísticos como el nivel Z, la capacidad del proceso y su grado de centramiento. Además, busca describir el significado de cada una de estas métricas y mostrar cómo construirlas en Minitab, de manera que puedan convertirse en indicadores clave de desempeño (KPI) aplicables a los laboratorios de ensayo.


Capacidad de Procesos

Se dice que un proceso es capaz cuando su variación natural es menor que el intervalo de especificación y no es capaz cuando esta variación natural sobrepasa al intervalo de especificación.
En términos matemáticos se define como:
donde Cp es el índice de capacidad de proceso de corto plazo, LES: Límite de especificación Superior, LEI: Límite de especificación inferior y sigma sombrero: el estimador de sigma.

Sin embargo, los fundadores de Six-sigma, establecieron que en el largo plazo se produce un corrimiento de 1,5 desviaciones estándar debido al desgaste de estos procesos, por lo que establecieron además medir la capacidad de procesos a largo plazo mediante la siguiente métrica:

donde Pp es el índice de capacidad de proceso de largo plazo, LES: Límite de especificación Superior, LEI: Límite de especificación inferior y sigma sombrero: el estimador de sigma.

La diferencia en el cálculo entre ambos indicadores está en la forma como se estima sigma. Para sigma de corto plazo el estimador es: 


donde RM es el rango móvil promedio y d2 es una constante de corrección de sesgo que para este caso es 1,128.
Para sigma de largo plazo en cambio es:

La siguiente tabla presenta los diferentes niveles que se aceptan para que un proceso sea capaz:


 Centramiento del proceso

Un proceso puede ser capaz pero no estar centrado. Para saber si un proceso, además, está centrado se puede visualizar su Histograma comparándolo con los límites de especificación o bien se pueden comparar los estadísticos de CpK y Cp en el caso de corto plazo o Ppk y Pp en el caso del largo plazo.

Para estimar CpK, por ejemplo, deben estimarse la capacidad de proceso inferior (CpL) y superior (CpU), como se detalla a continuación:


CpK = min(CpL, CpU)

Si CpK es igual o aproximadamente igual a Cp entonces el proceso se considera centrado en el corto plazo.
 
Lo mismo realizar para PpL y PpU cambiando sólo el sigma estimado por el de largo plazo.

PpK =min(PpL, PpU)

Si PpK es igual o aproximadamente igual a Pp entonces el proceso se considera centrado en el largo plazo.


Cálculo del Nivel Z

El nivel Z al igual que el de la capacidad de procesos nos da una idea de que tan cerca o lejos estamos del objetivo, que es el de reducir el numero de defectuosos o defectos en el proceso.

La forma como se determina el nivel Z considera estimar tanto el Z.LEI como el Z.LES tanto para el corto plazo como para el largo plazo.



Si sólo tenemos un LES, entonces el Z.LES (corto plazo) nos ayuda a evaluar la capacidad sigma potencial del proceso en relación con el límite de especificación superior. La capacidad potencial indica la capacidad que se podría alcanzar si se eliminaran los cambios rápidos y graduales del proceso.

Si sólo tenemos un LEI, entonces el Z.LEI (corto plazo) nos ayuda a evaluar la capacidad sigma potencial del proceso en relación con el límite de especificación inferior. La capacidad potencial indica la capacidad que se podría alcanzar si se eliminaran los cambios rápidos y graduales del proceso.

En cambio, si tenemos un LES y un LEI, el Nivel Z va a considerar la suma de ambas especificaciones.


Construyendo las métricas de Six-sigma para evaluar la mejora en el proceso

El siguiente ejemplo parte del supuesto de que, durante los últimos seis meses, el laboratorio ha registrado aproximadamente un 10% de resultados analíticos erróneos detectados por el cliente (5.000 errores reportados por mes) y, por lo tanto, han debido ser repetidos conforme a su esquema de control de calidad.

En este caso, los defectos en el laboratorio son los resultados erróneos reportados. Disminuir el número de defectos o su variabilidad implica un proyecto Six-sigma clásico.

Ahora bien, dado que en este caso el interés se centra exclusivamente en reducir el número de resultados erróneos reportados al cliente, el análisis se enfocará únicamente en determinar un límite de especificación superior (LES) —sin necesidad de establecer un límite de especificación inferior (LEI)— y, a partir de este, evaluar el progreso de la mejora alcanzada.

Después de un estudio previo, se determinó que el objetivo SMART del proyecto DMAIC será reducir en un 55% el número de repeticiones producto de errores reportados al cliente, es decir, llegar a 2.250 repeticiones por mes, que equivale a establecer un LES de 75 defectos por día en un plazo de 6 meses.

Para construir las métricas que nos ayudarán a medir el proceso durante el tiempo, tenemos que saber primero si los datos se pueden ajustar a una distribución normal. 


Si bien podemos trabajar con datos normales o no normales para realizar el estudio de la capacidad de procesos, lamentablemente en nuestro caso, Minitab no distingue el tipo de distribución que se ajusta a nuestros datos. 

Minitab > Estadísticas > Herramientas de calidad > Identificación de la distribución individual ...



 Aquí se puede apreciar claramente que ninguna de las 14 distribuciones que nos presenta Minitab se ajusta a los datos. Pero también nos indica que, si hacemos una transformación de Johnson a los datos éstos pueden ser modelados claramente por una distribución normal. Por lo tanto, el siguiente paso es transformar estos datos mediante este tipo de transformación. 


Minitab > Estadísticas > Herramientas de calidad > Transformación de Johnson...


Aceptar. Colocar en c2 como título "Datos tr."


Para realizar nuestro análisis de capacidad de procesos a los datos transformados, vamos a necesitar contar con el LES también transformado a esta nueva escala. Para ello podemos recurrir a la ecuación de Johnson que fue desplegada cuando realizamos la transformación:

La función de transformación es; -0,0185566+0,582353*Ln((X-60,2674)/(352,920-X)). Por lo tanto, el LES transformado es -1,729

Si aplicamos el criterio estadístico podemos saber cuánto es el porcentaje de defectos que se encuentran fuera de especificación. 

Minitab > Gráfica > Gráfica de distribución de probabilidad > Ver probabilidad



Aquí se puede ver claramente que el porcentaje fuera de especificación asciende a 95,22%.

Para realizar el análisis de la capacidad de procesos:

Minitab > Estadísticas > Herramientas de calidad > Análisis de capacidad > Normal...



En Opciones:


Y los resultados de este estudio son:


Donde se aprecia que la capacidad de procesos a largo plazo es de -0,56, muy lejos del 1,33 para que el proceso sea considerado capaz. Además, podemos observar que el porcentaje de defectos fuera de especificación a largo plazo (95,22%) coincide con el gráfico de distribución presentado anteriormente. 

En nuestro caso, como solo tenemos un límite de especificación superior, LES, no es correcto hablar de centramiento del proceso, sino únicamente de su capacidad para mantenerse por debajo de dicho límite.

Veamos, si consideramos el equivalente según las métricas de Six-sigma , los DPMO y el nivel Z del proceso. Para ello sólo cambiamos las opciones que se nos presentan en el cuadro de diálogo ya visto anteriormente.




Aquí se puede ver claramente que el nivel Z de largo plazo es de -1,67 muy lejos del nivel Z de 6 sigma e incluso de 3 sigma y los DPMO = 952241 que son considerados muy alto para un laboratorio de ensayo.

Conclusión

Este tipo de análisis evidencia que la aplicación del enfoque DMAIC de Six Sigma en un laboratorio de ensayo permite cuantificar objetivamente el desempeño del proceso y orientar los esfuerzos de mejora continua. En el caso presentado, el diagnóstico inicial muestra que el proceso presenta una muy baja capacidad (Z = -1,67) y un nivel de defectos extremadamente alto (DPMO = 952.241), lo que se traduce en un porcentaje de errores fuera de especificación cercano al 95%.

Estos resultados confirman la necesidad de implementar acciones correctivas que apunten a reducir la variabilidad del proceso y, especialmente, el número de resultados analíticos erróneos reportados al cliente. Más allá del impacto económico directo, el beneficio principal radica en fortalecer la confiabilidad del laboratorio y su sostenibilidad a largo plazo, al evitar pérdidas asociadas a la repetición de ensayos, reclamos o pérdida de confianza del cliente.

En síntesis, un proyecto Six Sigma bien estructurado en este contexto no solo contribuye a mejorar la calidad técnica de los resultados, sino que también se convierte en una herramienta estratégica de gestión de la calidad y competitividad institucional.


Referencias

1. Gutierrez Pulido H., De la Vara Salazar R. - Control estadístico de la calidad y seis sigma - Ed 2013
2. Montgomery Douglas - Introduction to Statistical Quality Control - Ed. 2013
3. Ayuda Minitab - Módulo Análisis de Capacidad de Procesos
4. Minitab 22







viernes, 3 de enero de 2025

EL USO INCORRECTO DE LOS CONCEPTOS "NIVEL O INTERVALOS DE CONFIANZA" EN METROLOGÍA

El concepto de incertidumbre se asocia a las mediciones. La ciencia que estudia las mediciones se llama metrología. Y actualmente, existen 7 unidades fundamentales que han sido establecidas por el Bureau internacional de pesas y medidas, BIPM, con el fin de que todas las magnitudes a nivel mundial se tracen o se comparen directa o indirectamente con estas unidades. En metrología se parte de la base que todas las magnitudes son parámetros desconocidos porque tienen asociada una incertidumbre. Y es esa Incertidumbre la que se define como duda. Por lo tanto, "la incertidumbre de la medida", corresponde a la duda que tenemos respecto de un resultado de una medición y se relaciona con la dispersión de los valores que podrían razonablemente ser atribuidos a la magnitud que deseamos medir (mensurando).

En la estadística clásica, también conocida como frecuentista, los parámetros de la población también son considerados desconocidos. Para poderlos conocer debemos estimarlos a partir de una muestra, proceso conocido como "inferencia estadística". Sin embargo, para conocer esos parámetros desconocidos debemos tener claro qué es lo que deseamos conocer y es ahí donde radica el problema de la metrología. Más específicamente cuando tratamos con incertidumbres tipo A.

Es ahí precisamente donde se producen las inconsistencias, en la forma cómo se calculan las incertidumbres tipo A, y como Eurachem y Nordtest se refieren a los intervalos de incertidumbre calculados, como intervalos de confianza.

El concepto de intervalo de confianza no tiene sentido aplicarlo en la forma como lo hacen estas publicaciones, debido a que el concepto se refiere a la precisión cómo se estima el parámetro a través de un estadístico. Es decir, existe una estimación puntual cuando obtenemos un sólo valor numérico, pero cuando hacemos repeticiones para tener una mejor estimación de ese parámetro, lo que se hace es una estimación por intervalos de ese parámetro, que también se conoce como estimación por intervalo de confianza, pero esto se puede hacer con diferentes parámetros, tales como la media poblacional, la desviación estándar, una proporción, la pendiente, el coeficiente de correlación, etc. En resumen, esa estimación depende de n, del número de repeticiones.
Pero, ¿realmente el concepto de incertidumbre debe estar centrado principalmente en este tipo de intervalos?. A mi juicio, creo que ahí radica el error, ya que los procesos que necesitamos medir, para la repetibilidad por ejemplo, tienen sus propias dispersiones, y que no dependen del tamaño de muestra, me refiero al sistema de medición; operadores, equipos, método, etc. Para medir sus incertidumbres debemos recurrir a otro tipo de intervalos o más precisamente semi-intervalos, que se asocian a los "intervalos de tolerancia estadístico" y que corresponde a una proporción p de la población. Pero como igual tenemos que usar muestras para estimarlas, esa proporción se debe calcular con un nivel de confianza dado.
Por lo tanto, el intervalo de confianza obtenido debe ser lo más pequeño posible, insignificante respecto del intervalo de tolerancia estadístico. Si ese no es el caso, entonces y sólo entonces, el intervalo de confianza deberá sumarse al intervalo de tolerancia estadístico para obtener el intervalo de cobertura final, y la mitad de ese intervalo corresponderá a la incertidumbre total de la medida.

Y qué ocurre si en vez de valores individuales consideramos réplicas

Bueno, en este caso, ya no hablaríamos de la población de valores individuales, sino de una nueva población, que podríamos denominarle "la población de las medias individuales", con el objeto de que la media aritmética de la nueva población debería sea considerada como un valor individual. De esta forma si tenemos duplicados, el intervalo de tolerancia estadístico correspondería a los nuevos valores individuales (medias). Pero como igual debemos tomar una muestra, la respuesta más precisa obedece al área de las probabilidades. Es decir, igual debemos establecer un nivel de confianza dado para entregar esa proporción de la nueva población de duplicados.


Mi propuesta

Mi propuesta es usar los intervalos o semi-intervalos de tolerancia estadístico con un nivel de confianza dado para la estimación de la repetibilidad. Intervalo asociado a los valores individuales.
Incluso cuando se quiere mejorar la incertidumbre de la medida utilizando réplicas. En este último caso, el intervalo de tolerancia estadístico corresponderá a las medias aritméticas, las cuales deberán ser consideradas como los nuevos valores individuales de la nueva población, pero como esa proporción p de la nueva población de replicados se hace respecto de una muestra, entonces la estimación de p se debería realizar con un nivel de confianza dado.

Referencias:

[1] artículo de mi autoría: NO CONFUNDAS INTERVALOS DE CONFIANZA CON INTERVALOS DE TOLERANCIA ESTADÍSTICO
[2] Meeker, Hans, Escobar - Statistical Intervals_ A Guide for Practitioners and Researchers - Ed. 2017
(2) Montgomery, Runger - Applied Statistics and Probability for Engineers, - 7ª Ed, 2018
(3) Walpole, Myers, Myers, Ye - Probability & Statistics for Engineers & Scientists - Ed. 2016
(4) Norma ISO 16269-6:2014 - Statistical interpretation of data — Part 6: Determination of statistical tolerance intervals - Ed 2014