martes, 4 de noviembre de 2025

CÓMO MEDIR LA CAPACIDAD DE PROCESOS EN UN LABORATORIO DE ENSAYO USANDO SIX SIGMA Y MINITAB

El principal objetivo de un proyecto DMAIC de Six Sigma es reducir el número de defectos o la variabilidad de un proceso. Cuando además se logra cuantificar esta mejora en términos económicos —por ejemplo, reduciendo pérdidas por un monto mínimo de 90.000 dólares—, el proyecto alcanza una envergadura propia de un Black Belt o cinturón negro. Sin embargo, en el caso de los laboratorios de ensayo, el enfoque puede ser diferente. Si el objetivo es disminuir los defectos asociados al reporte de resultados erróneos a los clientes, en muchos casos, el impacto económico directo podría ser modesto, considerando el costo unitario de cada análisis. Sin embargo, si se incorpora el valor intangible de la confianza del cliente, una sola falla puede representar la pérdida de un contrato o del negocio completo. En este contexto, emprender un proyecto DMAIC Six Sigma no solo es pertinente, sino también estratégico para la sostenibilidad del laboratorio

El presente artículo tiene como propósito explicar cómo se mide un proyecto Six Sigma mediante sus métricas de desempeño, las cuales incorporan indicadores estadísticos como el nivel Z, la capacidad del proceso y su grado de centramiento. Además, busca describir el significado de cada una de estas métricas y mostrar cómo construirlas en Minitab, de manera que puedan convertirse en indicadores clave de desempeño (KPI) aplicables a los laboratorios de ensayo.


Capacidad de Procesos

Se dice que un proceso es capaz cuando su variación natural es menor que el intervalo de especificación y no es capaz cuando esta variación natural sobrepasa al intervalo de especificación.
En términos matemáticos se define como:
donde Cp es el índice de capacidad de proceso de corto plazo, LES: Límite de especificación Superior, LEI: Límite de especificación inferior y sigma sombrero: el estimador de sigma.

Sin embargo, los fundadores de Six-sigma, establecieron que en el largo plazo se produce un corrimiento de 1,5 desviaciones estándar debido al desgaste de estos procesos, por lo que establecieron además medir la capacidad de procesos a largo plazo mediante la siguiente métrica:

donde Pp es el índice de capacidad de proceso de largo plazo, LES: Límite de especificación Superior, LEI: Límite de especificación inferior y sigma sombrero: el estimador de sigma.

La diferencia en el cálculo entre ambos indicadores está en la forma como se estima sigma. Para sigma de corto plazo el estimador es: 


donde RM es el rango móvil promedio y d2 es una constante de corrección de sesgo que para este caso es 1,128.
Para sigma de largo plazo en cambio es:

La siguiente tabla presenta los diferentes niveles que se aceptan para que un proceso sea capaz:


 Centramiento del proceso

Un proceso puede ser capaz pero no estar centrado. Para saber si un proceso, además, está centrado se puede visualizar su Histograma comparándolo con los límites de especificación o bien se pueden comparar los estadísticos de CpK y Cp en el caso de corto plazo o Ppk y Pp en el caso del largo plazo.

Para estimar CpK, por ejemplo, deben estimarse la capacidad de proceso inferior (CpL) y superior (CpU), como se detalla a continuación:


CpK = min(CpL, CpU)

Si CpK es igual o aproximadamente igual a Cp entonces el proceso se considera centrado en el corto plazo.
 
Lo mismo realizar para PpL y PpU cambiando sólo el sigma estimado por el de largo plazo.

PpK =min(PpL, PpU)

Si PpK es igual o aproximadamente igual a Pp entonces el proceso se considera centrado en el largo plazo.


Cálculo del Nivel Z

El nivel Z al igual que el de la capacidad de procesos nos da una idea de que tan cerca o lejos estamos del objetivo, que es el de reducir el numero de defectuosos o defectos en el proceso.

La forma como se determina el nivel Z considera estimar tanto el Z.LEI como el Z.LES tanto para el corto plazo como para el largo plazo.



Si sólo tenemos un LES, entonces el Z.LES (corto plazo) nos ayuda a evaluar la capacidad sigma potencial del proceso en relación con el límite de especificación superior. La capacidad potencial indica la capacidad que se podría alcanzar si se eliminaran los cambios rápidos y graduales del proceso.

Si sólo tenemos un LEI, entonces el Z.LEI (corto plazo) nos ayuda a evaluar la capacidad sigma potencial del proceso en relación con el límite de especificación inferior. La capacidad potencial indica la capacidad que se podría alcanzar si se eliminaran los cambios rápidos y graduales del proceso.

En cambio, si tenemos un LES y un LEI, el Nivel Z va a considerar la suma de ambas especificaciones.


Construyendo las métricas de Six-sigma para evaluar la mejora en el proceso

El siguiente ejemplo parte del supuesto de que, durante los últimos seis meses, el laboratorio ha registrado aproximadamente un 10% de resultados analíticos erróneos detectados por el cliente (5.000 errores reportados por mes) y, por lo tanto, han debido ser repetidos conforme a su esquema de control de calidad.

En este caso, los defectos en el laboratorio son los resultados erróneos reportados. Disminuir el número de defectos o su variabilidad implica un proyecto Six-sigma clásico.

Ahora bien, dado que en este caso el interés se centra exclusivamente en reducir el número de resultados erróneos reportados al cliente, el análisis se enfocará únicamente en determinar un límite de especificación superior (LES) —sin necesidad de establecer un límite de especificación inferior (LEI)— y, a partir de este, evaluar el progreso de la mejora alcanzada.

Después de un estudio previo, se determinó que el objetivo SMART del proyecto DMAIC será reducir en un 55% el número de repeticiones producto de errores reportados al cliente, es decir, llegar a 2.250 repeticiones por mes, que equivale a establecer un LES de 75 defectos por día en un plazo de 6 meses.

Para construir las métricas que nos ayudarán a medir el proceso durante el tiempo, tenemos que saber primero si los datos se pueden ajustar a una distribución normal. 


Si bien podemos trabajar con datos normales o no normales para realizar el estudio de la capacidad de procesos, lamentablemente en nuestro caso, Minitab no distingue el tipo de distribución que se ajusta a nuestros datos. 

Minitab > Estadísticas > Herramientas de calidad > Identificación de la distribución individual ...



 Aquí se puede apreciar claramente que ninguna de las 14 distribuciones que nos presenta Minitab se ajusta a los datos. Pero también nos indica que, si hacemos una transformación de Johnson a los datos éstos pueden ser modelados claramente por una distribución normal. Por lo tanto, el siguiente paso es transformar estos datos mediante este tipo de transformación. 


Minitab > Estadísticas > Herramientas de calidad > Transformación de Johnson...


Aceptar. Colocar en c2 como título "Datos tr."


Para realizar nuestro análisis de capacidad de procesos a los datos transformados, vamos a necesitar contar con el LES también transformado a esta nueva escala. Para ello podemos recurrir a la ecuación de Johnson que fue desplegada cuando realizamos la transformación:

La función de transformación es; -0,0185566+0,582353*Ln((X-60,2674)/(352,920-X)). Por lo tanto, el LES transformado es -1,729

Si aplicamos el criterio estadístico podemos saber cuánto es el porcentaje de defectos que se encuentran fuera de especificación. 

Minitab > Gráfica > Gráfica de distribución de probabilidad > Ver probabilidad



Aquí se puede ver claramente que el porcentaje fuera de especificación asciende a 95,22%.

Para realizar el análisis de la capacidad de procesos:

Minitab > Estadísticas > Herramientas de calidad > Análisis de capacidad > Normal...



En Opciones:


Y los resultados de este estudio son:


Donde se aprecia que la capacidad de procesos a largo plazo es de -0,56, muy lejos del 1,33 para que el proceso sea considerado capaz. Además, podemos observar que el porcentaje de defectos fuera de especificación a largo plazo (95,22%) coincide con el gráfico de distribución presentado anteriormente. 

En nuestro caso, como solo tenemos un límite de especificación superior, LES, no es correcto hablar de centramiento del proceso, sino únicamente de su capacidad para mantenerse por debajo de dicho límite.

Veamos, si consideramos el equivalente según las métricas de Six-sigma , los DPMO y el nivel Z del proceso. Para ello sólo cambiamos las opciones que se nos presentan en el cuadro de diálogo ya visto anteriormente.




Aquí se puede ver claramente que el nivel Z de largo plazo es de -1,67 muy lejos del nivel Z de 6 sigma e incluso de 3 sigma y los DPMO = 952241 que son considerados muy alto para un laboratorio de ensayo.

Conclusión

Este tipo de análisis evidencia que la aplicación del enfoque DMAIC de Six Sigma en un laboratorio de ensayo permite cuantificar objetivamente el desempeño del proceso y orientar los esfuerzos de mejora continua. En el caso presentado, el diagnóstico inicial muestra que el proceso presenta una muy baja capacidad (Z = -1,67) y un nivel de defectos extremadamente alto (DPMO = 952.241), lo que se traduce en un porcentaje de errores fuera de especificación cercano al 95%.

Estos resultados confirman la necesidad de implementar acciones correctivas que apunten a reducir la variabilidad del proceso y, especialmente, el número de resultados analíticos erróneos reportados al cliente. Más allá del impacto económico directo, el beneficio principal radica en fortalecer la confiabilidad del laboratorio y su sostenibilidad a largo plazo, al evitar pérdidas asociadas a la repetición de ensayos, reclamos o pérdida de confianza del cliente.

En síntesis, un proyecto Six Sigma bien estructurado en este contexto no solo contribuye a mejorar la calidad técnica de los resultados, sino que también se convierte en una herramienta estratégica de gestión de la calidad y competitividad institucional.


Referencias

1. Gutierrez Pulido H., De la Vara Salazar R. - Control estadístico de la calidad y seis sigma - Ed 2013
2. Montgomery Douglas - Introduction to Statistical Quality Control - Ed. 2013
3. Ayuda Minitab - Módulo Análisis de Capacidad de Procesos
4. Minitab 22







viernes, 3 de enero de 2025

EL USO INCORRECTO DE LOS CONCEPTOS "NIVEL O INTERVALOS DE CONFIANZA" EN METROLOGÍA

El concepto de incertidumbre se asocia a las mediciones. La ciencia que estudia las mediciones se llama metrología. Y actualmente, existen 7 unidades fundamentales que han sido establecidas por el Bureau internacional de pesas y medidas, BIPM, con el fin de que todas las magnitudes a nivel mundial se tracen o se comparen directa o indirectamente con estas unidades. En metrología se parte de la base que todas las magnitudes son parámetros desconocidos porque tienen asociada una incertidumbre. Y es esa Incertidumbre la que se define como duda. Por lo tanto, "la incertidumbre de la medida", corresponde a la duda que tenemos respecto de un resultado de una medición y se relaciona con la dispersión de los valores que podrían razonablemente ser atribuidos a la magnitud que deseamos medir (mensurando).

En la estadística clásica, también conocida como frecuentista, los parámetros de la población también son considerados desconocidos. Para poderlos conocer debemos estimarlos a partir de una muestra, proceso conocido como "inferencia estadística". Sin embargo, para conocer esos parámetros desconocidos debemos tener claro qué es lo que deseamos conocer y es ahí donde radica el problema de la metrología. Más específicamente cuando tratamos con incertidumbres tipo A.

Es ahí precisamente donde se producen las inconsistencias, en la forma cómo se calculan las incertidumbres tipo A, y como Eurachem y Nordtest se refieren a los intervalos de incertidumbre calculados, como intervalos de confianza.

El concepto de intervalo de confianza no tiene sentido aplicarlo en la forma como lo hacen estas publicaciones, debido a que el concepto se refiere a la precisión cómo se estima el parámetro a través de un estadístico. Es decir, existe una estimación puntual cuando obtenemos un sólo valor numérico, pero cuando hacemos repeticiones para tener una mejor estimación de ese parámetro, lo que se hace es una estimación por intervalos de ese parámetro, que también se conoce como estimación por intervalo de confianza, pero esto se puede hacer con diferentes parámetros, tales como la media poblacional, la desviación estándar, una proporción, la pendiente, el coeficiente de correlación, etc. En resumen, esa estimación depende de n, del número de repeticiones.
Pero, ¿realmente el concepto de incertidumbre debe estar centrado principalmente en este tipo de intervalos?. A mi juicio, creo que ahí radica el error, ya que los procesos que necesitamos medir, para la repetibilidad por ejemplo, tienen sus propias dispersiones, y que no dependen del tamaño de muestra, me refiero al sistema de medición; operadores, equipos, método, etc. Para medir sus incertidumbres debemos recurrir a otro tipo de intervalos o más precisamente semi-intervalos, que se asocian a los "intervalos de tolerancia estadístico" y que corresponde a una proporción p de la población. Pero como igual tenemos que usar muestras para estimarlas, esa proporción se debe calcular con un nivel de confianza dado.
Por lo tanto, el intervalo de confianza obtenido debe ser lo más pequeño posible, insignificante respecto del intervalo de tolerancia estadístico. Si ese no es el caso, entonces y sólo entonces, el intervalo de confianza deberá sumarse al intervalo de tolerancia estadístico para obtener el intervalo de cobertura final, y la mitad de ese intervalo corresponderá a la incertidumbre total de la medida.

Y qué ocurre si en vez de valores individuales consideramos réplicas

Bueno, en este caso, ya no hablaríamos de la población de valores individuales, sino de una nueva población, que podríamos denominarle "la población de las medias individuales", con el objeto de que la media aritmética de la nueva población debería sea considerada como un valor individual. De esta forma si tenemos duplicados, el intervalo de tolerancia estadístico correspondería a los nuevos valores individuales (medias). Pero como igual debemos tomar una muestra, la respuesta más precisa obedece al área de las probabilidades. Es decir, igual debemos establecer un nivel de confianza dado para entregar esa proporción de la nueva población de duplicados.


Mi propuesta

Mi propuesta es usar los intervalos o semi-intervalos de tolerancia estadístico con un nivel de confianza dado para la estimación de la repetibilidad. Intervalo asociado a los valores individuales.
Incluso cuando se quiere mejorar la incertidumbre de la medida utilizando réplicas. En este último caso, el intervalo de tolerancia estadístico corresponderá a las medias aritméticas, las cuales deberán ser consideradas como los nuevos valores individuales de la nueva población, pero como esa proporción p de la nueva población de replicados se hace respecto de una muestra, entonces la estimación de p se debería realizar con un nivel de confianza dado.

Referencias:

[1] artículo de mi autoría: NO CONFUNDAS INTERVALOS DE CONFIANZA CON INTERVALOS DE TOLERANCIA ESTADÍSTICO
[2] Meeker, Hans, Escobar - Statistical Intervals_ A Guide for Practitioners and Researchers - Ed. 2017
(2) Montgomery, Runger - Applied Statistics and Probability for Engineers, - 7ª Ed, 2018
(3) Walpole, Myers, Myers, Ye - Probability & Statistics for Engineers & Scientists - Ed. 2016
(4) Norma ISO 16269-6:2014 - Statistical interpretation of data — Part 6: Determination of statistical tolerance intervals - Ed 2014


sábado, 7 de septiembre de 2024

CÓMO APLICAR LA TEORÍA DE PIERRE GY EN LA PRÁCTICA

El objetivo del muestreo correcto es identificar los errores que se pueden producir en el proceso de muestreo y una vez identificados, cancelarlos o minimizarlos según corresponda. Pero para poder realizar esto, debemos recurrir a la teoría, al modelo que nos facilita este trabajo. En nuestro caso a la teoría de Pierre Gy. 
De esto se trata este artículo, presentar un resumen de la teoría y una estrategia de cómo aplicar esto en la práctica.

Definición del muestreo
Para Pierre Gy, el muestreo corresponde una secuencia de operaciones selectivas y no selectivas que finalizan con la selección de una o diferentes porciones de ensayo del proceso analítico.  
De aquí podemos desprender lo siguiente, el muestreo más que el acto de extraer una fracción de un lote (operación selectiva), es un proceso que involucra además otro tipo de operaciones que él denomina no selectiva en donde podría ocurrir también alteraciones de la integridad del lote y que corresponde a operaciones tales como la carga y descarga del material, traslados, transporte, secado, chancado, pulverizado, almacenamiento, homogenizado, tamizado, ingreso y procesamiento de datos, etc. 

Estrategia para aplicar la teoría de Pierre Gy en la práctica
La siguiente es una estrategia que corresponde a la estrategia implementada por Arech Consultores SpA para minimizar o cancelar según corresponda los diferentes tipos de errores del muestreo que se pueden presentar en un proceso.
Los fenómenos podemos verlos a pequeña escala y a gran escala. Para ver los fenómenos a gran escala, tenemos que alejarnos y ver en su conjunto como por ejemplo los resultados de la planta durante un tiempo determinado. 

A pequeña escala

a) Identificar los tipos de operación en todo el proceso de muestreo
Si partimos de la base de la definición de P Gy, entonces, lo primero que debemos realizar es identificar aquellas operaciones selectivas que tenemos en todo el proceso de muestreo. Y al mismo tiempo, identificar y clasificar por etapas las operaciones de tipo no selectivas del proceso hasta llegar a la porción de ensayo en el laboratorio.

Una vez identificadas cada una de las operaciones (tanto selectivas como no selectivas), podemos partir de un principio, que, si bien no sale de esta forma en el libro de P. Gy, podríamos desprenderla de su definición y que nos va a servir para implementar esta estrategia. Y estos dos principios corresponden a qué es lo que deberíamos considerar para que no se produzcan desviaciones tanto en las operaciones selectivas como en las operaciones no selectivas. 
1.- Principio del muestreo correcto asociado a las operaciones selectivas:
"Todos los constituyentes de interés (también conocidos como características o componentes) del lote deben ser bien representados en la muestra"
2.- Principio del muestreo correcto asociado a las operaciones no selectivas:
"El material no debe sufrir alteración a lo largo de todo proceso de muestreo que afecten los resultados. Que en todo el proceso de muestreo se mantenga las características del lote original (Integridad del lote)"

Nota. - Para cumplir con estos dos principios del muestreo correcto, se deben respetar las 4 reglas del muestreo correcto de Pierre Gy.
1. Todos los fragmentos o grupos de fragmentos deben tener la misma oportunidad de formar parte de la muestra (El no hacerlo provoca el error de delimitación de los incrementos, ED).
2. La herramienta de muestreo no debe volverse selectiva en lo que está tomando (sí lo hace provoca el error de extracción de los incrementos, EE).
3. La masa de los incrementos recolectados debe ser proporcional a la cantidad de material presentado a la herramienta de muestreo (Si no es proporcional se provoca el error de ponderación de los incrementos, EW).
4. La integridad de los incrementos no debe ser alterada bajo ninguna circunstancia (si se altera se provoca el error de preparación de los incrementos, EP).

Las 3 primeras reglas están asociadas a las operaciones selectivas y la cuarta regla a las operaciones no selectivas. Sin embargo, cada vez que realicemos una operación selectiva, para que se cumple el primer principio del muestreo correcto, es decir para que todos los constituyentes de interés sean bien representados en la muestra, en muchos casos vamos a tener que disminuir el tamaño de partícula o aumentar la masa para que la muestra obtenida sea representativa del lote.
Por lo tanto, es importante distinguir entre "fragmentos o partículas", y "constituyentes de interés". Un constituyente de interés se refiere al objetivo del muestreo, por ejemplo, determinar el contenido de oro, el contenido de cobre, el contenido de humedad, el tamaño de partículas, etc. En cambio, cuando hablamos de fragmentos o partículas, aunque realizáramos una selección equiprobable de los fragmentos a partir del lote, el constituyente podría no estar liberado y por lo tanto, después de realizada la selección, el constituyente podría no ser bien representado en la muestra.

b) analizar los errores asociados en cada operación selectiva (OS) y operación no selectiva (ONS)
Si analizamos las operaciones selectivas, vamos a encontrar, que en este tipo de operación sólo se pueden producir los siguientes errores:
1. El error fundamental
2. El error de segregación y agrupamiento
3. El error de delimitación de los incrementos
4. El error de extracción de los incrementos
5. El error de ponderación

Si analizamos las operaciones no selectivas, el único error que se puede asociar es:
6. El error de preparación de los incrementos.

En el caso de las OS, se debe analizar cada error por cada operación y ver cómo poder evitarlo para que el dispositivo o la técnica asociado a este tipo de operación no provoque desviaciones al proceso.
En el caso de las ONS, la estrategia sería dividir el proceso en etapas y en cada etapa ver qué tipo de alteración se produce o puede producir y realizar un análisis de criticidad de riesgos. Una clasificación práctica sería considerar alteraciones en la composición física (ACF), alteración en la composición química (ACQ), alteración en la data (ADD) u otros tipos de alteración según sea el alcance del muestreo.

Hay que entender que los dos primeros errores existen en la naturaleza, independiente del proceso de muestreo, por lo que estos errores no pueden ser eliminados. 
Los errores 3, 4, 5 y 6, por lo menos en teoría si pueden ser cancelados, si se respetan las reglas del muestreo correcto o los 2 principios del muestreo correcto, ya que estos errores son introducidos en el proceso de muestreo.

Conclusión.  Si cumplimos con los 2 principios del muestreo correcto o las 4 reglas de la corrección del muestreo de P. Gy, entonces, los únicos errores que prevalecerán serán el fundamental y el error de segregación y agrupamiento.

A gran escala

Clasificación de los lotes
Según la teoría de Pierre Gy, los lotes pueden ser vistos de tres formas diferentes, cada lote puede verse de forma continua o discontinua, ordenado o desordenado o verse según el número de dimensiones consideradas para su muestreo. 
Generalmente, es más fácil ver estos lotes desde el punto de vista continuo cuando analizamos estos fenómenos a gran escala (es decir, viendo los resultados de la planta como series, por ejemplo)
Ahora bien, según esta teoría, antes de aplicar estos principios o reglas de la corrección del muestreo, cuando se trata de lotes continuos, los lotes a ser muestreados deben ser transformados, en lo posible, primero a lotes de 1 dimensión o de 0 dimensión según corresponda.

Para entender esta clasificación de los lotes, partimos de la base de la existencia en nuestro universo de 3 dimensiones espaciales. Es decir, ancho, largo y profundidad (en la física corresponde a la presentación de los ejes x, y, z en un gráfico tridimensional).

Lote 3d
Un lote de 3 dimensiones (3d), es aquel donde en las 3 dimensiones no se cumple la regla 1 de la corrección del muestreo, es decir "todos los fragmentos o grupos de fragmentos no tienen la misma oportunidad de ser seleccionados y formar parte de la muestra" en los 3 ejes de coordenadas de un gráfico tridimensional.
Un ejemplo típico, es cuando se muestrea con una pala sobre una pila de acopio, una sonda que no alcanza a llegar el fondo en un maxisaco o en el cargamento de un camión, vagón de tren, motonave, etc. El uso de lanzas o medialunas para muestrear pulpas en la planta.

Lote 2d
Sin embargo, este lote 3d lo podemos transformar a un lote de 2 dimensiones si aplanamos el lote o alargamos el dispositivo de muestreo, de tal forma que ahora sí pueda llegar al fondo. En este caso, se cumple la regla 1, sólo en una de sus dimensiones. Es decir "todos los fragmentos o grupos de fragmentos no tienen la misma oportunidad de ser seleccionados y formar parte de la muestra" sólo en 2 de los ejes de coordenadas de un gráfico tridimensional.


Un ejemplo típico, es cuando la sonda para muestrear el maxisaco, la lanza o el cortador sobre un cargamento en un camión, vagón de tren, pila de acopio donde el dispositivo ahora sí llega al fondo.

Lote 1d
Pero, también podemos transformar un lote 3d o 2d en un lote de una dimensión si el lote lo alargamos y muestreamos ancho y espesor como se muestra en la figura. Es decir, en dos de sus dimensiones se cumpliría la regla 1. Y sólo en 1 dimensión los fragmentos o grupos de fragmentos no tendrían la misma oportunidad de ser seleccionados y formar parte de la muestra". O sea, en 1 de los ejes de coordenadas de un gráfico tridimensional.
Un ejemplo típico, el muestreo sobre una correa transportadora detenida, o en la descarga de una cinta transportadora donde se corta el ancho y espesor del material. Lo mismo puede aplicarse a las pulpas y líquidos donde el cortador debe interceptar el flujo en la descarga de ésta, cortando el ancho y el espesor.

Lote 0d
Un lote de 0 dimensión se refiere a aquel lote donde el número de dimensiones llega a ser irrelevante.
El orden de las unidades es irrelevante. Se pueden tratar como poblaciones estadísticas, donde cada unidad (no correlacionada) tiene la misma probabilidad de ser escogido.
Es de 0d en la medida que estos lotes sean considerados como unidades aleatorias y discontinuas.
Ejemplo de unidades que pueden ser enumeradas; maxisacos, camiones, tambores, vagones de tren. Pero cuando muestreamos al interior de estas unidades, pueden ser de 3d, 2d o 1d según la forma del lote o el dispositivo que usemos.
También podemos considerar lotes de 0d cuando los lotes son pequeños y pueden ser manipulados en su totalidad. Un ejemplo típico es homogenizar el lote para extraer una muestra representativa, siempre y cuando se encuentren en el lado seguro en un diagrama de muestreo respecto de la masa a tomar.

Conclusión. Si podemos transformar, en lo posible, los lotes a lotes de 1d, en la planta por ejemplo, entonces estamos en condiciones de identificar los siguientes errores:
7. El error de tendencia
8. El error de fluctuación periódica

Una forma de cuantificar estos errores es a través de un estudio variográfico. Este estudio además puede cuantificar los errores a pequeña escala. 
Para cuantificar el error de tendencia, hay que tomar tantos incrementos como sea posible. La variografía nos entrega una herramienta para determinar el intervalo de muestreo óptimo.
Para disminuir el error de fluctuación cíclica se debe realizar una investigación de sus causas para ver por qué se producen y así poder minimizarla.

Resumen de los errores de la teoría de Pierre Gy
En resumen, los errores son los que se presentan a continuación:

A pequeña escala:

1. Error fundamental, EF.- Error asociado a las diferencias entre fragmentos en cuanto a su forma, tamaño, densidad, composición química, propiedades físicas.
Es un error que se puede estimar con anterioridad, depende de cada unidad geológica.
2. Error de segregación y agrupamiento, ESG.- Error asociado a las diferencias entre grupos de fragmentos. Es un fenómeno cambiante y transitorio.
3. Error de delimitación de los incrementos, ED.- Es un error que se asocia a los dispositivos y técnicas. Se refiere a la forma no equiprobable de considerar la selección de los incrementos.
4. Error de extracción de los incrementos, EE.- Se asocia a los dispositivos de muestreo Se refiere a la forma incorrecta de extraer los incrementos al no respetar el principio de equiprobabilidad. 
5. Error de ponderación, EW.- Error que se produce cuando la masa o volumen del incremento no es proporcional al tonelaje o volumen que está siendo muestreado
6. Error de preparación de los incrementos, EP.- Error no asociado a las etapas de selección y que se relaciona con la alteración de las muestras debido a pérdida de finos, material, descomposición, oxidación, degradación, contaminación, manipulación, etc.
7. Efecto nugget in situ, EN.- Error asociado al muestreo que no toma en cuenta la presencia de pepitas (nuggets) aisladas (material no quebrado), o agrupaciones de vetillas o agrupación de partículas aisladas que no se encuentran diseminados por todo el material. 

A gran escala:
8. Error de fluctuación de la heterogeneidad de largo plazo, HFE2.- Error no aleatorio, de tipo continuo, asociado a la planta y que representa las tendencias entre unidades. También podría ser definido como la segregación a largo plazo.
9. Error de fluctuación de la heterogeneidad periódica, HFE3.- Error no aleatorio, de tipo continuo, caracterizado por ciclos que pueden ser originados por un sinnúmero de causas, como cambio de material a horas establecidas, acciones sobre el proceso a intervalos regulares, etc. 

A continuación, se presenta un resumen de los errores de Pierre Gy, sus causas y como minimizarlos o cancelarlos según corresponda:



Referencias:
(1) P. Gy. "Sampling of Particulates Material. Theory and Practice". Ed. 1979. Ed. Elsevier Scientific Publishing Company.
(2) P. Gy. "Sampling of heterogeneous and dynamic material systems. Theories of heterogeneity, sampling and homogenizing". Ed 1992. Ed. Elsevier Scientific Publishing Company.
(3) Curso: Teoría y práctica del muestreo en minería" de Mauricio Arancibia G. Curso-taller muestreo en minería (arech.cl)

sábado, 24 de agosto de 2024

TRANSFORMACIÓN DE BOX-COX CON EXCEL

Una de las herramientas más comunes que se usa en estadística para transformar datos no normales a datos normales es la famosa transformación de Box-Cox, que consiste en usar el siguiente estadístico como punto de partida, cuando λ ≠ 0.  
Donde Zi es el puntaje de una distribución normal estándar, G es la media geométrica, Yi son los datos originales y λ es un coeficiente que sirve para determinar la mejor ecuación para la transformación de los datos originales a datos que se pueden ajustar mejor a una distribución normal.

Cuando λ = 0 o muy próximo a 0, entonces, la transformación se puede calcular directamente por:
Para resolver esta ecuación de tipo iterativa y obtener un lambda óptimo, se procede de la siguiente manera.
Se fija un objetivo a minimizar que en este caso es la desviación estándar, la cual se obtiene para datos individuales a partir del rango móvil promedio y en el caso de subgrupos a partir del rango promedio, según la siguiente expresión:


Por lo tanto, la función objetivo, que es la desviación estándar estimada se minimiza cambiando el valor inicial de lambda.
Una vez terminada la iteración y obtenido el valor de lambda, éste se compara con los lambda de la siguiente tabla y se usa la expresión correspondiente más próxima. Por ejemplo, si el lambda obtenido es 1,7, se puede usar la expresión que corresponde a lambda = 2 para transformar los datos.
Aquí, Wi significa datos transformados.

Ejemplo en Excel

Antes de proceder a realizar estos cálculos en Excel, previamente se debe descargar el paquete estadístico SOLVER desde complementos de Excel. 
Archivo < Opciones < Complementos. En administrar hacer clic en IR, y luego clickear Solver y aceptar. El paquete estadístico quedará disponible en datos.

Para entender cómo se usa esta herramienta con Excel, supongamos que tenemos los siguientes datos, los cuales claramente no se ajustan a una distribución normal como se aprecia en el siguiente gráfico.

Si se realiza un test de normalidad a los datos, el p-valor Anderson Darling < 0,005

Para realizar la transformación, se deben colocar los siguientes datos en una planilla de Excel. En la columna A colocar los datos originales, y en la columna B calcular los Zi de acuerdo con la ecuación correspondiente, pero partiendo de la base de un valor inicial de iteración, que en nuestro ejemplo podría ser l = 0,5. Para calcular la desviación estándar (sigma) se debe proceder a calcular los rangos móviles de cada valor respecto del anterior en la columna C, luego calcular el rango móvil promedio, y ese valor dividirlo por d2 = 1,128 para obtener sigma. Ver la siguiente figura.

Una vez realizado todos estos cálculos se procede a usar la función SOLVER de Excel

Datos < Solver

Aquí de lo que se trata es minimizar el valor de sigma cambiando el valor de lambda, sujeto a la restricción de que lambda no puede ser mayor que 1. 

Las siguientes figuras muestran como completar los cuadros de diálogo para obtener el lambda que buscamos.


Colocando las siguientes restricciones

Aceptar, y en opciones colocar 500 iteraciones.

aceptar


Y finalmente, aceptar.


El resultado de lambda final para este ejemplo es 0,44. Como l = 0,44 está más próximo a l = 0,5. Por lo tanto, la transformación que procede es


Y los datos transformados serán


Los cuales según se puede ver en esta gráfica se ajustan mejor a una distribución normal que los datos originales.





Referencias:
(3) Curso "Estadística con Excel aplicado a procesos mneros" de Mauricio Arancibia G.



jueves, 21 de marzo de 2024

ENSAYO SOBRE UNA NUEVA PROPUESTA DE MEDICIÓN DE LA VARIABILIDAD E INCERTIDUMBRE

Ronald Fisher fue quien se dio cuenta que había que diferenciar entre población y muestra. Fue él, precisamente, quien introdujo los términos de parámetros (asociados a la población) y estadísticos (asociados a la muestra). A la vez, también se percató que los parámetros desconocidos, teníamos que "estimarlos" a partir de una muestra, proceso denominado "inferencia estadística".

Hasta aquí, tenemos una población con parámetros desconocidos, donde la estimación de los parámetros se hace a través de una muestra, cuyos términos a evaluar se denominan ahora "estadísticos". Y la inferencia estadística se denomina al proceso mediante el cual se hace afirmaciones válidas acerca de la población o proceso con base en la información contenida en una muestra.

Sin embargo, algo que no nos dicen los libros de estadística clásico o introductorio, la mayoría al menos, es que para poder estimar el valor del parámetro a partir de una muestra, debemos necesariamente realizar "MEDICIONES" sobre esta última. Y la inclusión de este nuevo factor en la estimación del parámetro, lo cambia todo, porque necesariamente se tiene que incorporar nuevas fuentes de ruido que hacen que la estimación se haga menos precisa.

De eso se trata este artículo, de identificar cuáles son esas fuentes de variaciones e incertidumbres que se nos presentan en la minería y la industria para que podamos medirlas de la forma más óptima posible. 


ESTIMACIÓN DE LOS PARÁMETROS DE UNA POBLACIÓN EN AUSENCIA DE SESGO

En este primer apartado, vamos a tratar de la estimación de los parámetros, media y variación natural de la característica de interés, de una población, estática o dinámica (proceso). Y esta estimación la vamos a realizar en ausencia de sesgo para facilitar nuestro análisis del modelo.

Por lo tanto, la secuencia para realizar una estimación del parámetro en el mundo real es: 

POBLACIÓN - Muestreo - MUESTRA - Medición - RESULTADO

La siguiente figura corresponde a un modelo, todavía en calidad de borrador, que muestra tentativamente los factores involucrados en la estimación de parámetros de una población a través de una muestra. Lo que interesa aquí es estimar tanto la media como la variación de la característica en esa población.

Ojo con esta clasificación. La incertidumbre sólo se aplica a la segunda fila, es decir, sólo a la estimación de la variación natural de la característica de interés en el muestreo y en el sistema de medición. En cambio, el error estándar de la media no debería formar parte de ésta, porque se debería entender, en base a este modelo, que la incertidumbre corresponde a la semi - proporción o a la mitad del intervalo de tolerancia estadístico, que debería ser expresado con un intervalo de confianza dado, Intervalo que debería ser mucho más pequeño, insignificante, comparado con el intervalo de tolerancia dado para que la estimación tenga sentido práctico. Cuando el intervalo de confianza no cumple con esta condición, entonces, y sólo entonces, este intervalo debería sumarse al del intervalo de tolerancia estadístico.

Figura 1 - Estimación de la media de la característica de interés y la variación natural de la característica de interés en la población. La primera fila trata de la estimación de la media de la población, mediante x̄ . La segunda fila trata en cambio de la variación de los valores individuales, X

donde: 
      µ                 : Media de la población
      x̄                 : Media de la muestra
      σNAT (P)     : Variación natural de la población
      SNAT (P)    : Variación natural de la muestra que representa a la de la población
      SNAT (M)   : Variación natural asociada al muestreo (incertidumbre del muestreo)
      SNAT (SM) : Variación natural del sistema de medición (incertidumbre del sistema de medición)
      SNAT (T)     : Variación natural total
      S                : Variación debido a la estimación de la media (Error estándar de la media)

En esta figura, se presenta la estimación de la variación natural de la característica de la población considerando todas las etapas hasta obtener un resultado. Como se puede apreciar, en el proceso de muestreo se introduce una variación adicional que corresponde a la variación natural del muestreo. Sin embargo, en el proceso de medición se vuelve a introducir una nueva variación, que corresponde a la variación natural del sistema de medición. 

En todas estas etapas se han introducido variaciones que he denominado "natural" para diferenciarla de un cuarto componente, que no corresponde a la variación natural de las etapas anteriores, que es la que se asocia a la estimación del parámetro a través de un estadístico, en este caso, la desviación estándar de la media (error estándar de la media).

Diferenciar entre variación natural y variación para la estimación del parámetro es importante por varias razones. 

  1. Las variaciones naturales son constantes a estimar, no dependen del tamaño de muestra. En cambio, la variación debido a la estimación del parámetro (error estándar de la media) depende fuertemente del tamaño de muestra.
  2. La variación para la estimación de la media poblacional sólo nos dice que tan confiables es el resultado obtenido. En cambio, la variación natural está asociada con la variabilidad de los procesos.
Veamos de qué depende cada variabilidad.

Variación asociada a la estimación de la media depende:
        a) de la variación natural total o de la variación natural de cada proceso, según corresponda
        b) del tamaño de muestra, n
        c) del Nivel de confianza, 1 - α

Variación natural (de la característica de interés) asociada al sistema de medición depende:  
        a) de la variación (de la característica de interés) asociada a equipos
        b) de la variación (de la característica de interés) asociada a operadores
        c) de la variación (de la característica de interés) asociada a método
        d) de la variación (de la característica de interés) asociada a factores ambientales
        e) de otras fuentes

Variación natural (de la característica de interés) asociada al muestreo depende:    
        a) de la variación (de la característica de interés) asociada a las operaciones selectivas
            (debido al error fundamental, de segregación/agrupamiento, de delimitación, de extracción,
            de ponderación,)
        b) de la variación (de la característica de interés) asociada a las operaciones no selectivas 
            (debido al error de preparación)
        c)  de la variación (de la característica de interés) asociado a modelos continuos a gran escala
             (de tendencia y/o cíclico)

En resumen, la variación total, en ausencia de sesgo, asociada a un resultado va a depender de 3 variaciones.
  1. De la variación natural de los valores originales (de la característica de interés) de la población o proceso 
  2. De la variación natural (de la característica de interés) en el muestreo (incertidumbre del muestreo)
  3. De la variación natural (de la característica de interés) en el sistema de medición (incertidumbre del sistema de medición)
Sin embargo, minimizar las diferentes fuentes de variación e incertidumbre va a depender del objetivo que se persiga. A saber:
  1. Si queremos que nuestra estimación de la media y de la variación natural de la característica de interés en nuestra población o proceso originales sea lo más precisa posible, entonces debemos minimizar las variaciones 2 y 3.
  2. Si solo estamos interesados en estimar la variación o incertidumbre de la característica de interés introducida por el muestreo, entonces 1 y 3 deberán ser insignificantes,
  3. Y cuando nuestro objetivo, o nuestra población sea estimar la variación o incertidumbre de la característica de interés del sistema de medición, entonces, 1 y 2 deberán ser insignificantes.
  4. Sin embargo, si nuestro interés es estimar la variación de la característica de interés del muestreo más la del sistema de medición, entonces sólo 1 deberá ser insignificante o cero.
En todos estos casos, lo que estamos calculando es la variación natural de la característica de interés, asociadas al intervalo de tolerancia estadístico, y que corresponde a la proporción p de estas poblaciones (1, 2 o 3 o sus combinaciones). Pero, cada una de las estimaciones de esas proporciones deberá estar acompañada por una estimación por intervalos (o intervalo de confianza) de la media, debiendo ser esta última insignificante para que el resultado tenga sentido práctico.
Cuando la estimación por intervalos de la media (o intervalo de confianza) no es insignificante, sólo entonces debería sumarse a las variaciones e incertidumbres anteriores.


Conclusión

Por lo tanto, la variación total de la característica de interés respecto a la media, en ausencia de sesgo, va a depender del objetivo que se persiga. Sin embargo, en todos estos casos debemos diferenciar entre intervalo de confianza e intervalo de tolerancia estadístico. En todos estos casos, lo que nos interesa es calcular la proporción p de la población escogida (1 a 4) pero con un nivel de confianza dado (ya que se trata de una muestra).
Es importante destacar que el intervalo de confianza sea lo más pequeño posible, o por lo menos mucho menor que el intervalo de tolerancia estadístico obtenido, insignificante, para que este resultado tenga sentido práctico. Si ese no fuera el caso, sólo entonces, debería sumarse el intervalo de confianza a la variabilidad total.

Para una mejor comprensión de este artículo, favor leer: 

NO CONFUNDAS INTERVALOS DE CONFIANZA CON INTERVALOS DE TOLERANCIA ESTADÍSTICO


Referencias

  1. Meeker, Hans, Escobar - Statistical Intervals_ A Guide for Practitioners and Researchers - Ed. 2017
  2. Montgomery, Runger - Applied Statistics and Probability for Engineers, - 7ª Ed, 2018
  3. Walpole, Myers, Myers, Ye - Probability & Statistics for Engineers & Scientists - Ed. 2016
  4. Norma ISO 16269-6:2014 - Statistical interpretation of data — Part 6: Determination of statistical tolerance intervals - Ed 2014

sábado, 10 de febrero de 2024

ESTADÍSTICA DE DUPLICADOS PARA EL CONTROL DE CALIDAD DE MUESTRAS GEOQUÍMICAS

El presente artículo tiene por objeto mostrar la estadística que actualmente se usa en el tratamiento de los datos en muestras geoquímicas para determinar la precisión en condiciones de repetibilidad o reproducibilidad en base sólo a muestras duplicadas.

Algunos de los estadísticos más comunes que aparecen en este control, son, la media aritmética, la desviación estándar, el rango, el error relativo, el coeficiente de variación y la varianza relativa.

La siguiente tabla presenta un resumen de estos estadísticos en base sólo a pares de duplicados:

Nota (1). - X1 es el dato original y X2 es el dato duplicado.

Desde el punto de vista práctico, principalmente existen tres tipos de errores que deben ser considerados ya sea en la implementación y/o mantención de cualquier sistema de control de calidad; el error sistemático, el error aleatorio y el error grueso.

El error sistemático, es aquel error en donde los valores de las observaciones tienden a ser persistentemente más altos que la media esperada o persistentemente menor que esta. Las causas pueden ser variadas, como un equipo descalibrado, un material de referencia no válido, un método analítico no adecuado, temperaturas no controladas, etc. Este error puede ser corregido. 

El error aleatorio, en cambio, es aquel error donde los resultados individuales caen a ambos lados de la media, regidos sólo por el azar, de acuerdo con un tipo de distribución. Este error puede ser mejorado, pero nunca cancelado, ya que está asociado a las limitantes propias de cada proceso.

Por último, el "error grueso" o "error grosero" es aquel que está asociado a los errores personales, a las equivocaciones, tales como una mala transcripción de los datos, un intercambio de muestras, errores de tipeo, etc. Es decir, errores que son ajenos a la población o al proceso mismo. Estos errores se deben identificar, investigar sus causas y evitar su recurrencia a través de un sistema de calidad preventiva. Este error puede ser minimizado si se cuenta con un buen sistema de calidad.

Por lo tanto, con estos antecedentes, el objetivo de cualquier sistema de control de calidad es la de identificar estos tipos de errores y corregirlos y/o minimizarlos según corresponda.

A continuación, se presentan algunas herramientas de control que pueden ser útiles en la detección y corrección principalmente de este tipo de errores, pero que están asociados principalmente a la estadística de los pares de duplicados.

a) Análisis de la dispersión de duplicados

Los pares de datos, original y duplicado pueden ser analizados mediante un gráfico de dispersión, donde en el eje de la ordenada se coloca el valor duplicado y en el eje de la absisa, el valor original. 

Estos valores se plotean en este tipo de gráfico, y se traza una línea 1:1, de 45 grados respecto a la horizontal con el fin de visualizar si existen ciertos patrones que puedan caracterizar el conjunto de los datos, como, por ejemplo, verificar el tipo y magnitud de la dispersión respecto a lo esperado, presencia de error sistemático y/o presencia datos anómalos (outliers).


En el caso de usar un análisis de regresión a los datos pareados, para visualizar la existencia de sesgo estadístico, se debe partir de la base que, en el concepto de regresión, ambos pares no pueden ser tratados de la misma forma, ya que una de las variables debe definirse como aleatoria (variable respuesta) en función de la otra variable que es definida como fija (variable predictora). En nuestro caso, es el valor duplicado, la que se debe escoger como una variable aleatoria o variable respuesta y el valor original como fijo, y no viceversa.

Una desventaja de este gráfico, si se usan los límites de control tal cual se muestra en la figura, es que los valores de aquellas muestras con concentraciones cerca del límite de detección van a tender a ser rechazadas en circunstancias que pueden ser muestras completamente válidas. Para evitar esto último, se recomienda usar líneas de control de función hiperbólicas (Ver método hiperbólico).


b) Gráfico MIN-MAX

Este gráfico considera en el eje de la absisa colocar el valor mínimo y en el eje de las ordenadas el valor máximo correspondientes a un par de duplicados.

  1. En Excel, disponer de los pares de resultados, por ejemplo, en una columna A el original y en una columna B el duplicado.
  2. En una columna C, calcular el máximo por cada par de resultados
  3. En otra columna D, calcular el mínimo por cada par de resultados
  4. Plotear en un gráfico los valores máximos versus el mínimo
  5. Considerar una recta 1:1 de 45°



c) Gráfico hiperbólico

Este método considera que, a bajas concentraciones, es altamente probable que muchas observaciones de muestras completamente válidas con el gráfico anterior pueden quedar fuera de los límites de control, debido a que a bajas concentraciones la dispersión de los resultados tiende a aumentar. Para evitar este problema, se construye este gráfico en la que el límite de control obedece a una función hiperbólica de la forma y2 = x2m2 + b2, donde m es la pendiente, x es el valor mínimo de la observación y b el intercepto.



d) Análisis de la Diferencia relativa absoluta (ARD) versus el porcentaje de datos acumulados

Para construir esta relación en un gráfico, se debe estimar la diferencia relativa absoluta de los pares de duplicados y graficarlo en función del porcentaje acumulado como sigue:

  1. Calcular el error relativo (diferencia relativa absoluta) para cada par de duplicados y colocarlo en una columna de Excel
  2. Ordenar el error relativo de menor a mayor
  3. En otra columna calcular el porcentaje de datos acumulados según la posición que tiene el error relativo.
  4. Plotear en un gráfico el error relativo, en porcentaje versus el % de datos acumulados
  5. Evaluar el desempeño de los datos duplicados en base al criterio previamente establecido para los diferentes tipos de duplicados.

Reglas recomendadas: 
Dup pulpas : >90 % de los datos con un ER<10%
Dup preparación -8#Ty: >90 % de los datos con un ER<20%
Dup terreno/Muestras gemelas: >90% de los datos con un ER<30%


e) Gráfico de la diferencia relativa versus la ley promedio

Otro de los gráficos que pueden ser útiles para ver el comportamiento de los datos es el de la diferencia relativa versus la ley promedio del elemento de interés. 


Regla
Lo que se espera es que, a bajas concentraciones la dispersión tiende a aumentar. Un patrón diferente estaría indicando que existe una causa asignable que debería ser investigada.


f) Análisis de la precisión de Howarth-Thompson

Este método, al igual que los gráficos de dispersión anteriores tiene por objeto establecer límites de control para rechazar aquellas observaciones (y muestras) que son inconsistentes con lo que se espera en el proceso. Estas muestras deberían ser nuevamente chequeadas en el laboratorio.


Para la construcción de este gráfico de control, la curva se obtiene a partir de datos históricos, donde el CV (Precisión de HT) se plotea en función de la concentración media.

El Control de calidad se puede efectuar en base al estadístico muestral ARD o HARD, que es representado por cada punto en el gráfico. Si El ARD o HARD, según corresponda es mayor al límite de la curva, entonces esa muestra se rechaza.

Nota. - Para más información sobre este estadístico, ver mi otro post: 

Estimación de la precisión mediante el estadístico de Howarth-Thompson


Cuantificación de la precisión

Para estimar la precisión de las diferentes etapas del proceso se deben tener en consideración las siguientes observaciones:

  1. La precisión del proceso sólo tiene sentido si el proceso es estable y si está libre de observaciones anómalas que no pertenecen al proceso mismo. En otras palabras, está asociada al error aleatorio. Por lo tanto, es importante que para estimar la precisión deben eliminarse aquellos outliers, que no forman parte del proceso.
  2. La precisión es función de la concentración. A medida que la concentración disminuye, el CV tiende a ser más grande. Por lo tanto, se recomienda para cuantificar y comparar la precisión a través del tiempo, hacerlo no sólo de una manera global, sino por rangos de concentración adecuados.
  3. Si se quiere estimar la precisión de los duplicados de preparación, deberá entenderse que la precisión así obtenida en el laboratorio corresponde a la suma de la precisión de la preparación y del análisis. Por lo que para obtener la precisión sólo de la preparación de muestras, la precisión total deberá restarse a la precisión del análisis.
  4. Si se quiere estimar la precisión de los duplicados de terreno, deberá entenderse que la precisión así obtenida en el laboratorio corresponde a la suma de la precisión del muestreo, de la preparación y del análisis. Por lo que para obtener la precisión sólo del muestreo, la precisión total deberá restarse a la precisión de la preparación y del análisis.
  5. Hay dos formas de restar estas precisiones a la precisión total para obtener las precisiones de preparación y de terreno, a) haciéndolo de una manera aproximada, considerando una estimación media del análisis y preparación en el mes por ejemplo y b) considerando un modelo anidado de acuerdo con la siguiente figura. Aquí la forma de generar los duplicados de preparación es hacerlo sobre los duplicados de terreno ya existentes, y para generar los duplicados de análisis hacerlo sobre los duplicados a la vez de preparación ya existente

Para obtener una estimación de la precisión, la recomendación es hacerlo por niveles de concentración, ya que la precisión que engloba todas concentraciones del elemento de interés puede ir cambiando a través del tiempo, ya que las leyes pueden ir disminuyendo a medida que la mina va envejeciendo.
Una forma de medir esta precisión es calcular la varianza relativa por cada par de duplicados y al final estimar la precisión como coeficiente de variación promedio.


Referencias

  1. Abzalov M – Applied Mining Geology-Springer International Publishing – Ed. 2016.
  2. MRDI - Assay Quality Assurance Quality Control Program for drilling projects at the pre-feasibility report level – 3°Ed.2000
  3. Thompson M, Howarth R. -Duplicate Analysis in Geochemical Practice. Part 1. Theoretical Approach and Estimation of Analytical Reproducibility. Ed 1976.
  4. ISO 12744:2006 - Copper, lead, zinc and nickel concentrates — Experimental methods for checking the precision of sampling
  5. Curso-Taller de Tratamiento de datos con Excel para Control de calidad aplicado a procesos mineros de Mauricio Arancibia G.