Mostrando entradas con la etiqueta qaqc. Mostrar todas las entradas
Mostrando entradas con la etiqueta qaqc. Mostrar todas las entradas

sábado, 10 de febrero de 2024

ESTADÍSTICA DE DUPLICADOS PARA EL CONTROL DE CALIDAD DE MUESTRAS GEOQUÍMICAS

El presente artículo tiene por objeto mostrar la estadística que actualmente se usa en el tratamiento de los datos en muestras geoquímicas para determinar la precisión en condiciones de repetibilidad o reproducibilidad en base sólo a muestras duplicadas.

Algunos de los estadísticos más comunes que aparecen en este control, son, la media aritmética, la desviación estándar, el rango, el error relativo, el coeficiente de variación y la varianza relativa.

La siguiente tabla presenta un resumen de estos estadísticos en base sólo a pares de duplicados:

Nota (1). - X1 es el dato original y X2 es el dato duplicado.

Desde el punto de vista práctico, principalmente existen tres tipos de errores que deben ser considerados ya sea en la implementación y/o mantención de cualquier sistema de control de calidad; el error sistemático, el error aleatorio y el error grueso.

El error sistemático, es aquel error en donde los valores de las observaciones tienden a ser persistentemente más altos que la media esperada o persistentemente menor que esta. Las causas pueden ser variadas, como un equipo descalibrado, un material de referencia no válido, un método analítico no adecuado, temperaturas no controladas, etc. Este error puede ser corregido. 

El error aleatorio, en cambio, es aquel error donde los resultados individuales caen a ambos lados de la media, regidos sólo por el azar, de acuerdo con un tipo de distribución. Este error puede ser mejorado, pero nunca cancelado, ya que está asociado a las limitantes propias de cada proceso.

Por último, el "error grueso" o "error grosero" es aquel que está asociado a los errores personales, a las equivocaciones, tales como una mala transcripción de los datos, un intercambio de muestras, errores de tipeo, etc. Es decir, errores que son ajenos a la población o al proceso mismo. Estos errores se deben identificar, investigar sus causas y evitar su recurrencia a través de un sistema de calidad preventiva. Este error puede ser minimizado si se cuenta con un buen sistema de calidad.

Por lo tanto, con estos antecedentes, el objetivo de cualquier sistema de control de calidad es la de identificar estos tipos de errores y corregirlos y/o minimizarlos según corresponda.

A continuación, se presentan algunas herramientas de control que pueden ser útiles en la detección y corrección principalmente de este tipo de errores, pero que están asociados principalmente a la estadística de los pares de duplicados.

a) Análisis de la dispersión de duplicados

Los pares de datos, original y duplicado pueden ser analizados mediante un gráfico de dispersión, donde en el eje de la ordenada se coloca el valor duplicado y en el eje de la absisa, el valor original. 

Estos valores se plotean en este tipo de gráfico, y se traza una línea 1:1, de 45 grados respecto a la horizontal con el fin de visualizar si existen ciertos patrones que puedan caracterizar el conjunto de los datos, como, por ejemplo, verificar el tipo y magnitud de la dispersión respecto a lo esperado, presencia de error sistemático y/o presencia datos anómalos (outliers).


En el caso de usar un análisis de regresión a los datos pareados, para visualizar la existencia de sesgo estadístico, se debe partir de la base que, en el concepto de regresión, ambos pares no pueden ser tratados de la misma forma, ya que una de las variables debe definirse como aleatoria (variable respuesta) en función de la otra variable que es definida como fija (variable predictora). En nuestro caso, es el valor duplicado, la que se debe escoger como una variable aleatoria o variable respuesta y el valor original como fijo, y no viceversa.

Una desventaja de este gráfico, si se usan los límites de control tal cual se muestra en la figura, es que los valores de aquellas muestras con concentraciones cerca del límite de detección van a tender a ser rechazadas en circunstancias que pueden ser muestras completamente válidas. Para evitar esto último, se recomienda usar líneas de control de función hiperbólicas (Ver método hiperbólico).


b) Gráfico MIN-MAX

Este gráfico considera en el eje de la absisa colocar el valor mínimo y en el eje de las ordenadas el valor máximo correspondientes a un par de duplicados.

  1. En Excel, disponer de los pares de resultados, por ejemplo, en una columna A el original y en una columna B el duplicado.
  2. En una columna C, calcular el máximo por cada par de resultados
  3. En otra columna D, calcular el mínimo por cada par de resultados
  4. Plotear en un gráfico los valores máximos versus el mínimo
  5. Considerar una recta 1:1 de 45°



c) Gráfico hiperbólico

Este método considera que, a bajas concentraciones, es altamente probable que muchas observaciones de muestras completamente válidas con el gráfico anterior pueden quedar fuera de los límites de control, debido a que a bajas concentraciones la dispersión de los resultados tiende a aumentar. Para evitar este problema, se construye este gráfico en la que el límite de control obedece a una función hiperbólica de la forma y2 = x2m2 + b2, donde m es la pendiente, x es el valor mínimo de la observación y b el intercepto.



d) Análisis de la Diferencia relativa absoluta (ARD) versus el porcentaje de datos acumulados

Para construir esta relación en un gráfico, se debe estimar la diferencia relativa absoluta de los pares de duplicados y graficarlo en función del porcentaje acumulado como sigue:

  1. Calcular el error relativo (diferencia relativa absoluta) para cada par de duplicados y colocarlo en una columna de Excel
  2. Ordenar el error relativo de menor a mayor
  3. En otra columna calcular el porcentaje de datos acumulados según la posición que tiene el error relativo.
  4. Plotear en un gráfico el error relativo, en porcentaje versus el % de datos acumulados
  5. Evaluar el desempeño de los datos duplicados en base al criterio previamente establecido para los diferentes tipos de duplicados.

Reglas recomendadas: 
Dup pulpas : >90 % de los datos con un ER<10%
Dup preparación -8#Ty: >90 % de los datos con un ER<20%
Dup terreno/Muestras gemelas: >90% de los datos con un ER<30%


e) Gráfico de la diferencia relativa versus la ley promedio

Otro de los gráficos que pueden ser útiles para ver el comportamiento de los datos es el de la diferencia relativa versus la ley promedio del elemento de interés. 


Regla
Lo que se espera es que, a bajas concentraciones la dispersión tiende a aumentar. Un patrón diferente estaría indicando que existe una causa asignable que debería ser investigada.


f) Análisis de la precisión de Howarth-Thompson

Este método, al igual que los gráficos de dispersión anteriores tiene por objeto establecer límites de control para rechazar aquellas observaciones (y muestras) que son inconsistentes con lo que se espera en el proceso. Estas muestras deberían ser nuevamente chequeadas en el laboratorio.


Para la construcción de este gráfico de control, la curva se obtiene a partir de datos históricos, donde el CV (Precisión de HT) se plotea en función de la concentración media.

El Control de calidad se puede efectuar en base al estadístico muestral ARD o HARD, que es representado por cada punto en el gráfico. Si El ARD o HARD, según corresponda es mayor al límite de la curva, entonces esa muestra se rechaza.

Nota. - Para más información sobre este estadístico, ver mi otro post: 

Estimación de la precisión mediante el estadístico de Howarth-Thompson


Cuantificación de la precisión

Para estimar la precisión de las diferentes etapas del proceso se deben tener en consideración las siguientes observaciones:

  1. La precisión del proceso sólo tiene sentido si el proceso es estable y si está libre de observaciones anómalas que no pertenecen al proceso mismo. En otras palabras, está asociada al error aleatorio. Por lo tanto, es importante que para estimar la precisión deben eliminarse aquellos outliers, que no forman parte del proceso.
  2. La precisión es función de la concentración. A medida que la concentración disminuye, el CV tiende a ser más grande. Por lo tanto, se recomienda para cuantificar y comparar la precisión a través del tiempo, hacerlo no sólo de una manera global, sino por rangos de concentración adecuados.
  3. Si se quiere estimar la precisión de los duplicados de preparación, deberá entenderse que la precisión así obtenida en el laboratorio corresponde a la suma de la precisión de la preparación y del análisis. Por lo que para obtener la precisión sólo de la preparación de muestras, la precisión total deberá restarse a la precisión del análisis.
  4. Si se quiere estimar la precisión de los duplicados de terreno, deberá entenderse que la precisión así obtenida en el laboratorio corresponde a la suma de la precisión del muestreo, de la preparación y del análisis. Por lo que para obtener la precisión sólo del muestreo, la precisión total deberá restarse a la precisión de la preparación y del análisis.
  5. Hay dos formas de restar estas precisiones a la precisión total para obtener las precisiones de preparación y de terreno, a) haciéndolo de una manera aproximada, considerando una estimación media del análisis y preparación en el mes por ejemplo y b) considerando un modelo anidado de acuerdo con la siguiente figura. Aquí la forma de generar los duplicados de preparación es hacerlo sobre los duplicados de terreno ya existentes, y para generar los duplicados de análisis hacerlo sobre los duplicados a la vez de preparación ya existente

Para obtener una estimación de la precisión, la recomendación es hacerlo por niveles de concentración, ya que la precisión que engloba todas concentraciones del elemento de interés puede ir cambiando a través del tiempo, ya que las leyes pueden ir disminuyendo a medida que la mina va envejeciendo.
Una forma de medir esta precisión es calcular la varianza relativa por cada par de duplicados y al final estimar la precisión como coeficiente de variación promedio.


Referencias

  1. Abzalov M – Applied Mining Geology-Springer International Publishing – Ed. 2016.
  2. MRDI - Assay Quality Assurance Quality Control Program for drilling projects at the pre-feasibility report level – 3°Ed.2000
  3. Thompson M, Howarth R. -Duplicate Analysis in Geochemical Practice. Part 1. Theoretical Approach and Estimation of Analytical Reproducibility. Ed 1976.
  4. ISO 12744:2006 - Copper, lead, zinc and nickel concentrates — Experimental methods for checking the precision of sampling
  5. Curso-Taller de Tratamiento de datos con Excel para Control de calidad aplicado a procesos mineros de Mauricio Arancibia G.