martes, 29 de septiembre de 2015

Análisis de cobre secuencial

A continuación reproduzco un articulo que les puede ser de utilidad a los químicos y metalurgistas para comprender de que se trata el análisis de cobre secuencial que se realiza en algunos laboratorios relacionados con la minería:

Análisis de Cobre secuencial 

En los últimos años, con el objeto de “optimizar” la producción de cobre, se ha incrementado la explotación de depósitos cupríferos que utilizan como método de procesamiento la lixiviación en pilas, extracción con solvente y la electrodepositación. Inicialmente, este proceso se dirigió a la explotación de depósitos de óxidos, pero este concepto cambió rápidamente, ya que el enfoque de un depósito como óxido no consideraba que también son lixiviables los sulfuros secundarios como calcosina y covelina, y algunos sulfuros primarios como la bornita.

Mediante pruebas de lixiviación en pilas, en el nivel de laboratorio simulando las condiciones industriales, se demostró que el uso de la solución de ácido sulfúrico es bastante exitoso para lixiviar óxidos en un tiempo menor a cien días; pero sólo se lixivian cantidades muy pequeñas de sulfuros secundarios y primarios aun en períodos de tiempo mayores. También las investigaciones demostraron que los sulfuros secundarios son solubles en un medio sulfúrico férrico; en tanto los sulfuros primarios, principalmente la calcopirita, requieren períodos de tiempo mayores y una acción bacteriana para ser lixiviados

Para definir el proceso minero metalúrgico de los minerales de cobre, se emplea como herramienta el método de análisis de cobre secuencial, el cual se basa sobre lo siguiente.

Tal como se aprecia en la Tabla N° 1, los distintos minerales de cobre muestran distinto grado de solubilidad en soluciones de ácido sulfúrico y de cianuro. Sobre la base de este comportamiento, se tienen los argumentos que permiten su identificación.

El método consiste en tratar primero una muestra mediante una digestión con ácido sulfúrico, con lo que disolvemos y obtenemos el contenido de cobre como óxido soluble en ácido. Luego, en el remanente de la misma muestra, mediante una digestión con una solución de cianuro de sodio o potasio, se obtiene el cobre contenido en los sulfuros secundarios y la bornita –sulfuro primario-. Finalmente, se efectúa el ensayo del residuo analítico anterior por cobre, que es llamado cobre residual, el cual es mayormente el cobre presente en la calcopirita –sulfuro primario–

Una verificación de que todo el cobre presente en la muestra ha sido detectado y cuantificado mediante este método secuencial es la comparación de la sumatoria del cobre soluble en ácido, el cobre soluble en cianuro y el cobre residual. Esta sumatoria debe ser igual o casi igual al contenido de cobre total de la muestra, determinado mediante el método tradicional.

Tabla 1.- Porcentajes de disolución en soluciones de ácido sulfúrico y cianuro de sodio de varios minerales de cobre.

Con la información del método secuencial, SPCC se pueden definir los siguientes conceptos:

“Indice de Solubilidad” (IS): Para SPCC se define por la siguiente fórmula

            (1)

%CuSAc: % de cobre soluble en ácido sulfúrico al 5%
%CuSCN: % de cobre soluble en cianuro de potasio al 10%
%Cut: % de cobre total

Cobre Soluble (CS) para SPCC se define por la siguiente fórmula:

  C,S, = (%CuSAc + %CuSCN) x 100                      (2)

Como referencia, para el grupo México en Cananea y Nacosari, el I.S. se define por la siguiente fórmula:

  I.S. = %CuSAc + %CuSCN                                   (3)

El cobre total, Cut, también puede ser calculado sobre la base de cobre secuencial de acuerdo con la siguiente fórmula:

  %Cut = %CuSAc + %CuSCN + %CuR                  (4)

%CuR: % de cobre residual secuencial.

En la Tabla N° 2 se tiene una propuesta para determinar la clasificación mineralógica, la clasificación metalúrgica y la clasificación geológica de un yacimiento de cobre sobre la base del análisis de cobre por método secuencial.

Tabla 2.- Clasificaciones de propuesta mineralógica, metalúrgica y geológica basadas en análisis de cobre secuencial

Fuente: articulo extraído del documento titulado "ANÁLISIS DE COBRE POR EL MÉTODO SECUENCIAL COMO HERRAMIENTA PARA DEFINIR EL MODELO MINEROMETALÚRGICO EN SOUTHERN PERU COPPER CORPORATION" de los autores Vicente Palacios - Bertha Arias - Eva Venero Southern Perú Copper Corporation,
Link; http://es.scribd.com/doc/99202388/Analisis-Del-Cu-Por-El-Metodo-SecuencialSouther-Peru#scribd

ANEXO

Figura 1.- Zonas donde se presentan los principales tipos de especies mineralógicas de cobre.
 Figura 2.- Procesos clásicos para la obtención de cobre (no incluye los actuales procesos de lixiviación bacterial)

Tabla 3.- Minerales de cobre; nombre, fórmula y contenido de cobre en el mineral puro.


Fuente: https://es.wikipedia.org/wiki/Metalurgia_del_cobre

Pincha aquí para saber más acerca de los cursos que se ofrecen en 2023: CURSOS ONLINE

viernes, 25 de septiembre de 2015

Liderazgo de los 7 hábitos

Stephen Covey (1932 - 2012) es considerado uno de los consultores más influyente en el tema del liderazgo del mundo contemporáneo. Su obra clásica "Los 7 hábitos de las personas altamente efectivas" ha vendido más de 25 millones de copias en todo el mundo.
Fue asesor de multinacionales como Sears Roebuck y Black & Decker, así como de agencias gubernamentales como el Servicios de Recaudación Interna y la NASA.

Aquí presento un breve resumen de su obra.

Los siete hábitos de la efectividad humana de Stephen Covey

Para Covey existen dos tipos de textos que tratan sobre el tema; aquéllos que utilizan la ética del carácter y quiénes utilizan la ética de la personalidad. La ética de la personalidad es aquella que trata de nuestro envoltorio, la imagen que proyectamos hacia los demás, de las actitudes y conductas, por lo que basta con aprenderse las "técnicas" y "habilidades" para lograr los objetivos en un corto plazo. La ética del carácter en cambio, trata de nuestro interior, es más profundo y se requiere mucho más tiempo para poder asimilarla y tiene que ver con cosas tales como la integridad, el valor, la humildad, el esfuerzo, la modestia, etc.
En resumen, la propuesta de Covey es un cambio de "adentro hacia afuera" en el mediano y largo plazo basado en la "etica del carácter". Tiene por objeto entender nuestros propios paradigmas acerca de la vida y saber cómo cambiarlo si fuese necesario. Es un proceso para enraizar nuevos hábitos de efectividad humana que nos garantizan el éxito y la felicidad humana en el mediano y largo plazo.
Para Covey, los "hábitos" son una intersección entre el conocimiento, la capacidad y la actitud. Conocimiento, porque se necesita saber qué hacer y por qué. Capacidad es el cómo hacer. Y la actitud es la motivación, el querer hacer. Sólo a través de estos tres elementos podemos convertir algo en un hábito de nuestra vida.
Para alcanzar un alto grado de efectividad humana, los siete hábitos propuestos por Covey deben ser asimilados en un orden lógico, gradual y secuencial, ya que parte de la base de nuestro propio "yo"  Es un camino que va desde la dependencia hacia la independencia y hasta la interdependencia. No hay atajos. A las victorias públicas las anteceden las victorias privadas.

Los siete hábitos

Dependencia                               1.- Sea Proactivo
                                                    2.- Empiece con un fin en mente
                                                    3.- Primero lo primero
Independencia                             4.- Piense en ganar/ganar
                                                    5.- Procure primero comprender ...  y después ser comprendido
                                                    6.- Sinergice
Interdependencia                         7.- Autorrenovación equilibrada 



Vea los 52 videos sobre liderazgo en :youtube

Descargue el libro en la siguiente página: http://www.dgsc.go.cr/dgsc/documentos/cecades/los-7-habitos-de-la-gente-altamente-efectiva.pdf


miércoles, 23 de septiembre de 2015

Sensibilidad versus Límite de detección en espectroscopía de Absorción Atómica

A continuación reproduzco un artículo editado por la Corporación Perkin Elmer probablemente impreso entre 2004 y 2011, que aclara las diferencias entre sensibilidad y Límite de detección.

Sensibilidad versus límite de detección

Los primeros espectrómetros de absorción atómica (AA) entregaban resultados en términos de porcentaje de absorción (%A = 100 - %T). Aquellos primeros instrumentos eran significativamente menos estables que los modernos equipos de hoy en día, y virtualmente todos los análisis se realizaban sin una expansión de escala. Para muchos elementos, la concentración más pequeña que podía ser detectada era aquella que producía una señal de absorción de aproximadamente del 1 %A (equivalente a 0,0044 unidades de absorbancia), la cual llegaba a ser aceptable como una medida aproximada del rendimiento conocido como "sensibilidad", un término utilizado en la espectroscopía de emisión y en otras técnicas. Sin embargo, el mejoramiento de los sistemas de AA pronto permitieron el uso de altos grados de expansión de escala, permitiendo que pudieran ser determinados concentraciones mucho más bajas que los representados por el valor de la sensibilidad. El término "límite de detección" fue acuñado para referirse a la concentración más baja que puede ser detectada por absorción atómica.

El cambio en la terminología usada para describir la cantidad detectable más pequeña por AA tuvo un efecto colateral desafortunado - el frecuente uso intercambiable (y erróneo) de los términos "sensibilidad" y "límite de detección".

La diferencia entre sensibilidad y límite de detección

La sensibilidad es una medida que corresponde solamente a la magnitud de la señal, la concentración en solución o peso de un elemento que produce una señal de 0,0044A (1%A) para mediciones continuas o altura peak o 0,0044A*s para área peak integrada. También se conoce como concentración caracteristica de AA con llama o masa característica de AA con horno.

El límite de detección es una medida de la concentración más pequeña que puede ser determinada con una precisión o reproducibilidad especificada. Más frecuentemente, la precisión especificada se define en términos de la concentración que produce una señal equivalente a tres veces la desviación estándar de una serie de lecturas de blancos (línea base) o lecturas para un estándar con una concentración cercana al límite de detección anticipado. Esta definición es equivalente a un nivel de confianza del 99%. Es decir. la respuesta obtenida bajo estas condiciones será correcta 99 veces de 100.

Tal como se definió anteriormente, el límite de detección es una función tanto de la amplitud de la señal (sensibilidad) como de la estabilidad de ésta.

Para una representación visual de la diferencia entre sensibilidad y límite de detección, observe las gráficas de abajo. Aquí, las señales A y B representan la misma concentración y dan absorbancias comparables o señal (S). Por lo tanto, las sensibilidades son iguales. Sin embargo, la mejor estabilidad de la señal o nivel de "ruido" más bajo (N) de la señal B proporciona una mejor reproducibilidad (precisión) y permite que se midan exactamente concentraciones más bajas.

La señal B proporcionará una mejor precisión y límites de detección debido a que tiene una mejor (es decir, más alta) relación señal-ruido (S/N).

Una sensibilidad más grande por sí solo no proporciona mejores límites de detección o precisión tal como lo ilustra las señales C y D, las cuales nuevamente tienen la misma concentración. El sistema que produce la señal C equivale a dos veces la señal o sensibilidad de la que produce la señal D, pero también genera dos veces el nivel de ruido. Las relaciones señal-ruido para estas dos señales son, por lo tanto, la misma (S/N =8 para cada una). Como resultado, el desempeño también es el mismo para los dos sistemas.

La sensibilidad no puede por sí sola relacionarse con el desempeño del sistema, debido a que solamente es una indicación de la amplitud de la señal. Los límites de detección son indicadores directos del desempeño del sistema , puesto que tanto los limites de detección como el desempeño son funciones de la relación señal-ruido.

Referencia: http://www.perkinelmer.com/CMSResources/Images/44-127540AASensitivityvsDetectionLimitTechNote.pdf

MÁS INFORMACIÓN EN ARECCL CAPACITACIÓN

domingo, 13 de septiembre de 2015

La teoría de Pierre Gy aplicada a los minerales

Han pasado más de 40 años de que Pierre M. Gy publicara su famoso libro “Sampling of particulates materials. Theory and Practice” (ed. 1979) y más de 50 años que estableciera su famosa expresión del error fundamental (1953). Sin embargo su legado sigue vigente hasta el día de hoy.


A continuación presento un breve resumen de su aplicación a la minería; 

En la moderna teoría del muestreo de P. Gy, se puede desprender que, existen dos principios (que son equivalentes a las 4 reglas cardinales del muestreo correcto de la teoría de Pierre Gy) que deben ser tomados siempre en consideración:
1.- El principio de la Equiprobabilidad.- “Que todas las partículas o fragmentos tengan la misma probabilidad de ser escogidas y que formen parte de la muestra”.
2.- El principio de la Integridad.- "Que en todo el proceso de muestreo se mantenga las características del lote original".

El primer principio está asociado al proceso de selección (a las operaciones selectivas), es decir aquella etapa donde se extrae una fracción a partir de un lote. Y están ligadas a ellas los siguientes errores; fundamental, segregación y/o agrupamiento, delimitación, extracción y ponderación.

El segundo principio, en cambio, está asociado a las operaciones no selectivas, es decir, a aquellas etapas del proceso donde no se extrae una fracción a partir del lote, como, por ejemplo; almacenamiento temporal, traslado, secado, conminución, homogenizado o mezclado, ensobrado, entre otros. En todas estas etapas sólo se puede producir el error de preparación.

Sin embargo, con el tiempo se han ido agregando otros errores contabilizando nueve hasta la fecha. Estos son:

A.- Heterogeneidad de corto plazo (EQ1)  
(asociados al proceso de selección, a excepción de EP)
1.- Efecto pepita (In situ Nugget); EN
2.- Fundamental; EF
3.- De Segregación y/o agrupamiento; ESG
4.- De Delimitación de los incrementos; ED
5.- De Extracción de los incrementos; EE
6.- De Ponderación; EW
7.- De Preparación; EP

B.- Heterogeneidad de largo plazo
(asociados al proceso de la planta)
8.- De fluctuación de la calidad (tendencias y desvíos); EQ2
9.- De fluctuación periódica (ciclos); EQ3

Nota.- El error analítico (EA) no se le considera parte del error de muestreo).

En síntesis el error total de muestreo (ET) se puede descomponer en los siguientes componentes :

ET =  [EN + EF + ESG + EQ2 + EQ3] + [ED + EE + EW] + EP

Los primeros cinco errores nunca podrán ser eliminados, pero si pueden ser minimizados, ya que los tres primeros forman parte inherente de la heterogeneidad con que se presentan los materiales en la naturaleza y los otros dos errores de largo alcance corresponden a la variabilidad que presenta el muestreo del material en la planta (en base a tiempo) o en la corteza terrestre (en base a masa), por ejemplo.

Los tres errores siguientes, ED, EE y EW es posible eliminarlos. Pero si no se aplican las prácticas del muestreo correcto, éstas pueden llegar a constituir fuentes importantes de sesgo. Los errores ED y EE están asociados a los dispositivos y a las técnicas de muestreo. En este sentido es importante utilizar la geometría correcta de estos dispositivos y la forma correcta como llevar a cabo el proceso de selección para evitar romper con los principios de equiprobabilidad y de integridad en el muestreo.

La geometría correcta de los dispositivos es la siguiente:     
a) Para lotes circulares, el dispositivo de muestreo debe ser radial
b) Para lotes lineales, el dispositivo de muestreo debe contemplar un paralelogramo o un rectángulo

Lo mismo aplica para las técnicas de muestreo.

Por último, en el caso del error de preparación, EP, las fuentes de sesgo que pueden ser completamente eliminadas al principio en el diseño correcto del sistema de muestreo y de preparación de muestras incluyen la pérdida de muestra, la contaminación de la muestra y la incorrecta extracción de los incrementos. Mientras, que las fuentes que pueden ser minimizadas pero no completamente eliminadas incluyen los cambios en el contenido de humedad, pérdida de polvo y degradación en el tamaño de partícula (para la determinación del tamaño).


Acerca del Error fundamental

El error fundamental corresponde a aquella variación producida por la heterogeneidad de constitución de las partículas o fragmentos, es decir, la variabilidad de una característica en particular entre partículas o fragmentos en cuanto a su composición química y/o mineralógica, forma, tamaño, densidad u otras propiedades.

La siguiente expresión corresponde a la varianza relativa del error fundamental:


donde:

S2(FE): varianza relativa del error fundamental;
Ms: Masa de la muestra (g);
ML: Masa del lote (g);
d: Tamaño de partícula (cm3);
C: Constante de muestreo (g/cm3);
x̄: concentración del constituyente de interés.
s2: varianza del constituyente de interés.

La importancia de conocer el error fundamental para cada unidad geológica es que podemos estimar la masa mínima que necesitamos obtener en cada etapa de selección, y según esta ecuación esta masa mínima depende del tamaño de partícula y de la precisión que necesitamos para la toma de decisiones sin que introduzcamos sesgo en el proceso.

Para determinar la varianza del error fundamental, según esta ecuación, sólo necesitamos conocer la masa de la muestra, la masa del lote, el tamaño de partícula y la constante C.
Sin embargo, conocer la masa y el tamaño de partícula no reviste mayor dificultad en la práctica. Pero sí la constante C (que en realidad no es una constante para todos los estado de conminución).
Existen dos formas para determinar la constante C; una estimación "simplificada" o aproximada y la determinación experimental a través del Test de Heterogeneidad.
Para la estimación "simplificada" de la constante C necesitamos tener cierta información previa, ya sea de la literatura o de nuestro historial.
En este primer caso la constante C se descompone en 4 factores; factor de forma (f), el factor dependiente del rango de tamaño (g), el factor mineralógico (c) y el factor de liberación (l):

C = fcgl

En la determinación experimental mediante el Test de heterogeneidad, el material escogido para la prueba se somete a conminución después del secado y se pasa a través de un harnero vibratorio, donde se escoge una fracción para el test, que generalmente es de 1/2" a 1/4". De esa fracción, una cantidad exacta de diferentes fragmentos (n = 35 por ejemplo) deben ser escogidos al azar para conformar la muestra. Este procedimiento generalmente se repite unas 100 veces (100 muestras de x fragmentos cada uno), los cuales posteriormente se procesan como muestras independientes para la determinación de la característica de calidad.
La constante C obtenida en este test para esa fracción, luego se extrapola al resto de los estados de conminución, a través de una nueva constante que se denomina constante K para todos los estados de conminución.
El resultado final es la construcción de un gráfico log-log denominado "Nomograma" que permite visualizar el procedimiento más adecuado para las distintas etapas de selección sin que se introduzca sesgo en el proceso.
Cabe destacar, que la constante K se deriva de la siguiente expresión:


En esta expresión son constantes para todos los estados de conminución los siguientes términos: f, g, c, dl.

donde dl corresponde al diámetro de partícula donde se libera el mineral.
La constante C obtenida del test de heterogeneidad para esa fracción en particular nos sirve para determinar la constante K para todos los estados de conminución:
Las diferentes constantes C para cada estado de conminución, por lo tanto ahora la podemos obtener a partir de la expresión anterior:

Finalmente, con todos estos datos se construye el gráfico o nomograma respectivo a partir de la ecuación simplificada de la varianza relativa del error fundamental cuando la masa del lote (ML) es mayor a 10 veces la masa de la muestra (Ms):
A partir de esta expresión se construye el nomograma, llevando la ecuación a escala logarítmica:
Aquí la pendiente de esta ecuación es -1.


En este diagrama de muestreo, las líneas diagonales representan los diferentes tamaños de partículas y la línea roja horizontal corresponde al límite de seguridad. Bajo esa línea, el proceso se encuentra en el lado seguro y sobre esa línea el proceso pasa a ubicarse en el lado inseguro.

Sobre cómo determinar la línea de seguridad del nomograma de Pierre Gy, visitar el siguiente post:
Línea de seguridad de Pierre Gy
Si quieres conocer el diagrama de muestreo preferido de Pierre Gy, visitar el siguiente post:
El diagrama de muestreo preferido de Pierre Gy


(ARTÍCULO REVISADO Y CORREGIDO EN AGOSTO DE 2024)

Nota.- El siguiente artículo está basado en las siguientes fuentes:
(1) P. Gy. "Sampling of Particulates Material. Theory and Practice". Ed. 1979. Ed. Elsevier Scientific Publishing Company.
(2) P. Gy. "Sampling of heterogeneous and dynamic material systems. Theories of heterogeneity, sampling and homogenizing". Ed 1992. Ed. Elsevier Scientific Publishing Company.
(3) R.C.A. Minnitt*, P.M. Rice† and C. Spangenberg. "Part 1: Understanding the components of the fundamental sampling error: a key to good sampling practice". Ed. 2007. The Journal of The Southern African Institute of Mining and Metallurgy.
(4) ISO 3082: 2000. "Iron Ores - Sampling and sample preparation procedures".
(5) Curso de muestreo de minerales, de Mauricio Arancibia G,

Pincha aquí para saber más acerca de los cursos que se ofrecen en 2023: CURSOS ONLINE

sábado, 12 de septiembre de 2015

Aportes e influencias históricas a la Gestión de la Calidad 

Los conceptos de Frederick Taylor


Si bien fueron muchos los que hicieron su aporte a la Escuela de la Administración Científica, el legado de Frederick W. Taylor sin duda es el más sobresaliente. Taylor llegó a la conclusión que para lograr niveles más eficientes en la industria, era necesario separar el trabajo de planificación del de ejecución. Fundamentaba su teoría en que los capataces y operarios de aquel entonces no tenían los conocimientos necesarios para poder decidir cómo debía hacerse el trabajo, ni siquiera sabían en qué consistía un día de labor en su industria. Así, los capataces y operarios debían conformarse con realizar únicamente los planes preparados por otros. Este pensamiento de separar la planificación de la ejecución se mantuvo como norma práctica de dirección en Estados Unidos por muchas décadas. Incluso, hoy en día muchas empresas occidentales siguen utilizando este enfoque de gestión, al incluir nuevos tipos de especialistas (ingenieros de control de calidad, ingenieros de fiabilidad) en sus filas para realizar las tareas de planificación y análisis, dejando a los supervisores de línea, a los operarios y a los inspectores el trabajo de ejecución. Actualmente, este enfoque de dirección, ha resultado ser un obstáculo al Modelo de la Administración Participativa, ya que impide obtener una significativa contribución del personal en los resultados de la calidad. Algunos autores señalan que debido a la presente complejidad de los productos y situaciones y relaciones organizativas de todo tipo, resultará casi imposible, por razones de costo entre otras cosas, mantener una estructura organizativa en la que sólo un grupo reducido de personas prevea, organice y determine todos los detalles de cómo realizar los trabajos de una empresa para que otro grupo solamente los ejecute. Sin embargo, hay que reconocer y no olvidar el gran aporte que ha hecho la Administración científica al desarrollo de la administración en general.

El legado de la Escuela de las Relaciones Humanas

Si el centro de la Administración científica es el trabajador individual, la perspectiva de las relaciones humanas se concentra en los grupos de personas en el trabajo. La idea de esta escuela es prestar mayor atención en lo que la gente opina de su labor, y así pretender manipular los factores psíquicos y sociales en el trabajo, a fin de incrementar la productividad y mejorar el bienestar.

A partir de los años veinte en adelante, ha habido una gran proliferación de teorías y estudios acerca del comportamiento humano y su relación con la eficiencia y efectividad en la industria. Son significativas las contribuciones hechas por nombres de la talla de Elton Mayo, Abraham Maslow y Douglas McGregor, por nombrar sólo algunos. A continuación se detallan algunos aportes de esta Escuela y su influencia en la gestión de la calidad moderna.

a) Los trabajadores reaccionan frente a situaciones laborales como grupo y no como individuos.
b) La cantidad de trabajo que puede llevar a cabo un trabajador dado, está determinada por su "capacidad social", -- la importancia que le da él a ser miembro integrado de un grupo --, y no por su capacidad física.
c) La retribución económica no es la única fuente de motivación para el trabajador. Son también importantes el reconocimiento, el prestigio, el estatus, la aceptación de grupo, la seguridad, etc.
d) El líder no es necesariamente la persona designada para el cargo de jefatura. Pueden surgir líderes informales.
e) La organización racionalmente planificada es sólo un aspecto de lo que ocurre en la organización. A la par de la organización formal, con sus políticas, estructuras y formulismos, existe una organización informal, surgida espontáneamente producto de la interacción humana y la formación de grupos.
f) El supervisor centrado en las personas es más efectivo que el supervisor centrado en la tarea, pues la motivación mejora la eficiencia y la efectividad en el trabajo.
g) La información y la participación en la toma de decisiones son algunas de las más importantes recompensas que pueden ofrecerse para obtener el compromiso y adhesión de los trabajadores.
h) Los trabajadores tienen sus propios sistemas de control del trabajo, establecen sus propias reglas y sanciones, idean muchas veces sus propios métodos de trabajo y crean grupos y a veces hasta camarillas. Se establecen estatus y papeles informales como producto de estos grupos.

La Contribución de Maslow y Herzberg


Maslow señala que la gente trabaja para satisfacer necesidades, pero según un orden jerárquico de importancia. Las necesidades básicas son las primeras que se satisfacen y tienen que ver con el deseo de la supervivencia (comer, vestirse, tener techo, salud, etc.). Una vez satisfechas éstas, se empieza a trabajar para satisfacer una necesidad de nivel superior. Así, en la moderna teoría de la motivación, su logro está en señalar que sólo se pueden motivar las necesidades insatisfechas de la persona.

 

Otro enfoque del comportamiento humano fue propuesto por Frederick Herzberg. Este señala que los factores motivadores existen en el propio trabajo; reconocimiento, progreso, responsabilidad, aprendizaje, estatus, aceptación de grupo. Si bien estos factores dan satisfacción, no estimulan una mejor actuación, a menos que el trabajo se realice en adecuadas condiciones, con un adecuado salario y con otros factores que Herzberg llama "de higiene". La inadecuada aplicación de estos factores de higiene son fuentes de insatisfacción.

Teoría X e Y de Douglas McGregor

Es quizás una de las contribuciones más importantes realizadas por la Escuela de Relaciones Humanas. McGregor propone dos formas alternativas de Administración, basado en la naturaleza del comportamiento humano.

Teoría X
1.- El ser humano normal rehuye el trabajo.
2.- Debido a su aversión por el trabajo, a la mayor parte de los empleados hay que obligarlos, controlarlos, dirigirlos y amenazarlos con el castigo para lograr que pongan suficiente esfuerzo en la obtención de los objetivos de la empresa
3.- El ser humano normal evita las responsabilidades, prefiere ser dirigido, tiene poca ambición y desea la seguridad ante todo.
Según la teoría X, se asume que los operarios no tienen ningún interés en la calidad. Esta actitud de los trabajadores provoca que la dirección establezca y haga cumplir detalladas rutinas y procedimientos de trabajo. El departamento de recursos humanos o el departamento de personal trabaja sólo sobre la base de premios y castigos. Se hace necesario, la evaluación del desempeño de los empleados y los trabajos deben ser divididos en operaciones específicas, simples, repetitivas y fáciles de aprender. La calidad de los productos se alcanza mediante la utilización de un equipo separado de inspectores y de ingenieros de la calidad.

Teoría Y
1.- El trabajo puede ser fuente de satisfacción, por lo que el empleado trabajará en forma voluntaria. El trabajador normal no siente aversión por el trabajo, ya que lo toma como algo natural. El trabajador es el principal activo de la empresa.
2.- Se considera que la mayor parte de los trabajadores son aptos y no son necesarios el control externo y la amenaza del castigo para que trabaje en pos de los objetivos organizacionales. Ellas mismas pueden practicar la autodirección y el autocontrol.
3.- El más importante premio para el trabajador, aparte de la contribución económica es la satisfacción del ego y de las necesidades de autorrealización.
4.- Al ser humano le gusta asumir responsabilidades. La evitación de la responsabilidad, la falta de ambición y la importancia concedida a la seguridad son casi siempre consecuencia de la experiencia, no características inherentes al hombre.
5.- La capacidad de cultivar la imaginación, el ingenio y la creatividad en alto grado en la solución de los problemas, es una característica de casi todos los seres humanos.
6.- Las capacidades intelectuales y emocionales del hombre en la vida moderna se utilizan muy escasamente.

Japón y la Gestión de la Calidad

Uno de los hechos más relevantes del siglo XX, en materia de Gestión de Empresas, ha sido el cambio de paradigmas que se ha producido en la orientación de la mercadotecnia. Stanton y Kottler, señalan que la orientación hacia el producto fue seguida por una orientación hacia las ventas, y que sólo durante la década de los cincuenta, las empresas asumieron una orientación hacia el cliente. La idea de que "los clientes siempre tienen la razón", "al cliente no sólo hay que satisfacerlo, sino endiosarlo", y "ama a tu cliente, y no tu producto", asentaron sus raíces en el lejano oriente allá por los años de la postguerra.

En 1946, un grupo de científicos e ingenieros nipones, con sus propios medios crearon una organización que sería más tarde de vital importancia en el desarrollo del país; el JUSE, La unión de científicos e ingenieros japoneses. En los años treinta, Walter Shewart de la Bell Laboratories había escrito su famoso libro acerca del Control estadístico y sus documentos eran traducidos más tarde al japonés por este grupo de precursores. En 1950, Edward Deming visita el Japón, tras una invitación del JUSE para dictar una serie de conferencias organizadas por ellos. Sus ideas acerca de la calidad calaron hondo en los miembros del JUSE, y éste volvió al país en los años 1951 y 1952. Sin embargo, un exagerado énfasis en los métodos estadísticos y una falta de adecuación por parte de la alta gerencia, motivaron en 1954, la invitación al Japón, del Dr. Joseph Juran, quien se encargó de crear un ambiente propicio en todos los niveles para el Control de Calidad, tal cual como se conoce hoy día.

El legado de Deming y Juran ha cruzado las fronteras y su reconocimiento mundial se hizo evidente en los años ochenta, con la transformación de ese país y su mérito de haberse convertido en una de las potencias económicas del planeta.

Después de Deming y Juran, otros han seguido su ejemplo, como el caso del Dr. Kaoru Ichikawa, que llegó a convertirse en toda una celebridad. Ichikawa pregonó la aplicación del estilo japonés basado en lo que ellos denominan "el Control de Calidad Total". Su legado sin duda ha sido la introducción en Japón de los "Círculos de Calidad", y de los diagramas de Causa y Efecto, el cual se hizo extensivo a todo el mundo.

Otros teóricos que también han dado su aporte a la Gestión de la Calidad han sido: Noriaki Kano, Armand Feigenbaum, Philip Crosby, Genichi Taguchi, y otros.

Fuente.- Este es un artículo que publiqué en www.geocities.com aprox. en 1999 y está basado en las siguientes fuentes:
(1) Hampton David. "Administración". Traducido de la 3a edición "Management". Ed. 1998. Ed. Interamericana de Mexico S.A.
(2) Kaoru Ishikawa. "Introducción al Control, de Calidad". Traducido de la versión en inglés "Introduction to Quality Control". Ed. 1989 y publicada en 1994 por Ed. Diaz de Santos S.A.
(3) Kaoru Ishikawa. "¿Qué es el Control, de Calidad?. Modalidad japonesa". Traducido de la versión en inglés "What is the Quality Control?. Japanese way". Ed. 1985 y publicada en 1995 por Grupo Editorial Norma.
La calidad en la historia reciente

La Calidad como concepto y su evolución en la historia tiene como referencia más cercana los planteamientos que comenzaron a hacer a principios del siglo XX innumerables maestros y escuelas del mundo de la administración. Frederick Taylor, padre de la administración científica, origina un nuevo concepto en la producción, al descomponer el trabajo en tareas individuales, separando las tareas de inspección de las de producción, y el trabajo de planificación del de ejecución. De esto deriva que en los años 20, la Western Electric Company crea un departamento de inspección independiente para respaldar a las compañías operativas de la Bell Telephone. De este departamento nacen los pioneros del aseguramiento de la calidad; Walter Shewart, Harold Dodge, y George Edward.

De los tres, Walter Shewart es sin duda el más sobresaliente, se le considera el padre de los sistemas de Gestión de la Calidad actual. Crea en 1924 las Gráficas o fichas de Control, las cuales se hacen muy populares a mediados de la Segunda Guerra Mundial, con la creación y utilización de la producción en serie. Shewart también es el creador del Ciclo PHVA, que más tarde los japoneses rebautizaron como Ciclo Deming.

Durante la Segunda Guerra Mundial, los militares estadounidenses comienzan a utilizar procedimientos estadísticos de muestreo, y establecer requisitos o normas estrictas a sus proveedores. Se crean las tablas de muestreo "MIL-STD" (Military Standar, norma militar). En 1944 se publica la primera revista sobre Control de Calidad, la Industrial Quality Control y en 1946 se funda en Estados Unidos, la American Society for Quality Control, la ASQC.

Durante la década de los años cincuenta, los japoneses hacen suyo las ideas del Control de Calidad para mejorar la tan golpeada economía nipona de postguerra. Nace el JUSE, Unión de científicos e Ingenieros japoneses (1946), entidad independiente del gobierno y no lucrativa, que aúna a un grupo de empresarios, gente del gobierno y académicos. Pronto, ésta se da a la tarea de desarrollar y difundir las ideas del Control de Calidad en todo el país. Para ello, invitan al Japón en 1950 al Dr. Walter Shewart, quien no se encontraba disponible, por lo que la invitación se hace extensiva al Dr. W. Edward Deming, profesor de la Universidad de Columbia, para que dictara una serie de seminarios y conferencias por espacio de 2 meses. Deming introduce en el Japón mucho de los conceptos actuales del Control de Calidad moderno; el Control de Calidad Estadístico y el PHVA de Shewart. En 1951, y como resultado de esta visita, los japoneses crean el Premio Deming de la calidad para motivar a las empresas al mejoramiento continuo kaizen. Sin embargo, el exagerado énfasis en los métodos estadístico que hace Deming unido a la poca motivación de parte de la alta dirección empresarial, hicieron que el JUSE invitara en 1954 al Dr. Joseph M. Juran, para que diera un seminario a ejecutivos y directores de departamento y sección. Juran consigue resolver estos problemas y se inicia en el Japón una transición gradual desde el Control de Calidad Estadístico al Control de Calidad Total.

Mientras en occidente los niveles de calidad pemanecieron estacionarios hasta los años 80, en el Japón la calidad se convirtió en un asunto de estado. En 1951, Armand Feigenbaum publica "Total Quality Control", TQC. En 1957, Kaoru Ishikawa publica un libro que resalta la importancia de la Administración y las Políticas Operacionales, base de lo que se conoce hoy como "Control de Calidad en Toda la Compañía". Al mismo tiempo Ishikawa pregona la difusión en el Japón de los Círculos de Calidad.

Durante los años sesenta Shigueo Shingo desarrolla Poka Yoke y los sistemas de inspección en la fuente y para 1977 plantea formalmente el Cero Control de Calidad como una estrategia para conseguir el "Cero Defecto", ZD, lo cual -a su criterio- nunca se conseguiría con la forma en que el Control Estadístico de la Calidad enfocaba el problema. En 1972, Yoji Akao y colaboradores desarrollan el DFC, Despliegue de la función de calidad, en el astillero de la Mitsubishi en Kobe, profundizando y centrando los conceptos del Hoshin Kanri. Se comienzan a utilizar las matrices de la casa de la calidad. En 1970 Estados Unidos sufre la importación masiva de productos japoneses de mejor calidad y mucho más baratos. En los 80, Japón se convierte en una de las principales potencias económicas del planeta.

En esos años, Genichi Taguchi plantea la Función Taguchi de pérdida. Motorola crea six-sigma, una técnica para mejorar la calidad. En Estados Unidos, los consumidores se organizan y forman la "Comisión para la Seguridad de Productos al Consumidor", y en 1987 se crea el Premio Nacional Malcolm Baldrige. Es justamente en los años ochenta, que el mundo occidental comienza a tomar conciencia de la Gestión de la Calidad, y comienza a adoptar gran parte de las ideas y prácticas del Control de Calidad japonés para producir los cambios que se requerían en sus respectivos países, así pues se comienza hablar de TQM (Gestión de la Calidad Total).

Origen de las Normas ISO 9000

En los años 80 con el auge en la globalización de la economía y la formación de grandes bloques económicos como la CEE, las exigencias hechas en un principio a los proveedores militares, y luego a los proveedores de la industria nuclear y aeroespacial se le comenzaron a hacer a la industria y al comercio. En 1985 a algunos países miembros del ISO, se le encarga a través del Comité Técnico TC-176 la publicación de una serie de normas a nivel internacional sobre aseguramiento de la calidad. Para ello, se toman como modelo las normas británicas BS 5750 nacidas en 1977. En 1987 sale publicado la primera edición de la familia de la serie ISO 9000, en 1994 su primera revisión. Luego se editan las versiones de 2000 y 2008 respectivamente.

Fuente.- Este es un artículo que publiqué en www.geocities.com aprox. en 1999 y está basado en las siguientes fuentes:
(1) Hampton David. "Administración". Traducido de la 3a edición "Management". Ed. 1998. Ed. Interamericana de Mexico S.A.
(2) Kaoru Ishikawa. "Introducción al Control, de Calidad". Traducido de la versión en inglés "Introduction to Quality Control". Ed. 1989 y publicada en 1994 por Ed. Diaz de Santos S.A.
(3) Kaoru Ishikawa. "¿Qué es el Control, de Calidad?. Modalidad japonesa". Traducido de la versión en inglés "What is the Quality Control?. Japanese way". Ed. 1985 y publicada en 1995 por Grupo Editorial Norma.
(4) Evans y Lindsay. "Administración y Control de la Calidad". Versión en español de la obra "The Management and Control of Quality". Ed.1995. Ed Grupo Editorial Iberoamericana S.A.
(5) Sarv Singh Soin. "Control de Calidad Total. Claves, Metodologías y Administración para el éxito". Traducida de la 1a edición en inglés "Total Quality Control Essentials. Keys elements, Methodologies and Managing for Success". Ed. en México en 1997. Ed. Iberoamericana Ediciones S.A.

miércoles, 9 de septiembre de 2015

El control de calidad en los laboratorios de ensayos

¿Cómo puedo asegurar que los resultados analíticos sean confiables? Esta es la pregunta que probablemente se han hecho en más de una ocasión quienes están a cargo de un laboratorio analítico. A pesar del esfuerzo que se invierte en evitar los errores, éstas siguen ocurriendo y a pesar de repetir los ensayos una y otra vez, el laboratorio no puede estabilizarse.
En mi experiencia de más de 20 años en distintas empresas  lo largo del país, me he podido dar cuenta que existe una analogía con los accidentes que sufren las personas en el trabajo. Por una parte están las acciones y por otra las condiciones subestándar. La pregunta que uno siempre se hace cuando estas se relacionan con acciones, es decir cuando hay involucradas personas es: ¿no sabe? ¿no puede? o ¿no quiere?. Y la no atención a las respuesta a estas preguntas constituye una de las principales razones de que volvamos a equivocarnos en los resultados.
Si la persona no sabe, primero hay que ver si tiene las competencias para ese trabajo y de ahí decidir capacitarla, estamos en el plano cognoscitivo.
Si la persona no puede, hay que buscar la causa, Puede ser cansancio, problemas a la vista o falta de concentración motivada por diferentes motivos. Estamos aquí ante un problema físico o un problema emocional que produce distracción.
Pero si la persona no quiere, estamos ante un tema relacionado con la actitud. Probablemente, estamos en un plano emocional o valórico.

Sin embargo, en los eventos relacionados con las condiciones, se pueden citar entre otros; los errores sistemáticos, o tendencias producidos por la propia metodología, los que proceden de una incorrecta calibración de los equipos, de la contaminación debido a algún reactivo, o de las características propias de la muestra que exceden la de un ensayo de rutina. Entonces, ¿Cómo podemos asegurar que nuestros resultados sean confiables?
De esto se trata este blog, compartir con Ustedes mis conocimientos y experiencias y las de otras personas con el objetivo de crear comunidades de intercambio de ideas, conocimientos y expertiz.