Con respecto a la variabilidad a pequeña escala esta la optimización del protocolo de muestreo lo definimos la clase pasada como los métodos que debo realizar para tomar una muestra y determinar una ley de concentrado vamos a definir el error de segregación y agrupamiento, y estos dos errores son los mas importantes, que agregan al error final al tomar una muestra. Existen otro tipo de errores como de delimitación, extracción y preparación y todas estas cosas tienen que ver con los costos operacionales y la metodología de como estoy tomando la muestra como contaminación perdida, alteración, humanos, fraudes. En la variabilidad a gran escala se separan error de interpolación, ponderación y periódico que usualmente se da cuando tomamos muestras analíticas de medio ambiente.
El primer error que aparece acá, el error fundamental es el error mas importante es casi el 5 %del error al momento de que yo tomo una muestra y cuantifico su valor este es causado por la heterogeneidad de constitución depende que las partículas en sí, si yo tomo aleatoriamente en una muestra, si yo tomo aleatoriamente 10 muestras de este lote las 10 muestras entre si van a ser todas diferentes. Independiente si yo mezclo mi lote o si segrego el lote, si yo tomo 10 muestras aleatorias siempre van a ser diferentes entre si y eso tiene que ver con la variabilidad a pequeña escala es lo que ustedes conocen como el efecto pepita. El error fundamental se produce cuando tenemos un lote, por ejemplo tenemos acá todo este detrito que sale de la perforación de un pozo y nosotros tomamos diferentes muestras atreves del agrupado que están metiendo en el pozo y están recuperando lo que es el detrito, cuando se genera esa reducción de masa nosotros estamos implementando un error fundamental que es un error constituido por la heterogeneidad de constitución, no es lo mismo muestrear en B que en A o en C, pero todas esas muestras si pueden ser representativas, entonces si es representativa pero tiene un error asociado, hay que cuantificar cuál es ese error. Si nosotros no queremos error en la medición tenemos que tomar toda esa masa y analizarla, pero eso no se puede hacer por eso tomo muestras representativas.
El error fundamental es importante que se entienda como un error aleatorio, yo tengo el valor real de la muestra y tengo la ley estimada de la muestra y el error aleatorio oscila en torno al valor real pero la ley estimada promedio no cambia, vamos a definir lo que es el error sistemático y ese si es grave en minería, cuando yo tengo el valor real y el valor estimado esta corrido del valor real y los valores oscilan entorno al valor estimado, ese es un sesgo sistemático y eso es muy grave en minería.
El error fundamental se calcula a través de la optimización y los diferentes protocolos de muestreo y en este caso se genera un nomograma, en nomograma esta definiendo el error que yo estoy generando cada vez que realizo un protocolo de muestreo.
Acá tengo un protocolo típico, en este caso son leyes de cobre donde tengo un bloque inicial L, genero una muestra primaria S!, me genera diferentes rechazos que tienen que ver con la granulometría de la muestra que yo estoy tomando, la muestra primaria la preparo para generar una segunda muestra, y así voy separando la masa de la muestra, paso de lote a muestra y la preparando en chancado y molienda para llegar a una muestra chiquita y genero un análisis chiquitito, este protocolo se genera para llevar esa masa para llegar a un grano de muestra. Este protocolo lo caracterizo en base al error que produzco cada vez que reduzco de masa. Ese es el error fundamental. Se cuantifica en el nomograma. Es un grafico que en el Y sale la varianza, el error que produzco cuando reduzco la masa, y en el eje x la masa que yo estoy considerando y esas líneas en diagonales representan el diámetro equivalente en las partículas, cuando me muevo en el eje x cambio la masa. No tengo que pasarme del 5%del error, reduzco la masa para lograr eso. No cambia la masa peor si la granulometría, entonces chanque, vuelvo hacer un cuarteo.
Tenemos que saber como se hizo el protocolo de muestreo hay que verificar que el error total sea menos del 5%, en cuarteo reduce la masa, en chanqueo cambia el diámetro, pero la masa cambia muy poco.
En el error de agrupamiento y segregación, la heterogeneidad de constitución a lo que se debe el error fundamental viene dado porque en una muestra tenemos diferentes partículas, ya sean de minerales o de estéril entonces si escojo5 muestras aleatorias acá probablemente escoja 5 muestra de minerales, pero si vuelvo a escoger tal vez escoja 5 de estéril y esos dos resultados serán diferentes. En el caso de la de la heterogeneidad de distribución ocurre cuando separo lo que tiene mas ley de lo que tiene menos ley, segrego material fino del grueso. Generando un sesgo sistemático, es un error porque yo tome mala la muestra. Si yo no revuelvo la muestra tengo error de distribución. El problema de este error es que la ley de cobre total va a depender de la granulometría, entre mas grande la malla tenemos una granulometría mas chiqutita, entonces a medida que la granulometría es más chica, después de la malla 50 la ley empieza a aumentar por lo tanto donde están los finos y lo ultrafino tengo mayor ley de cobre, después baja, tengo puro polvo y mezcla, lo grueso tiene poca ley de cobre, y la heterogeneidad de distribución se produce por eso.
Los gruesos caen más rápido se acumulan en os bordes. Eso es segregación por tamaño, eso producen una heterogeneidad de distribución en un flujo, si no lo revuelvo voy a estar generando un error sistemático.