Skip to main content
All CollectionsVRIFY AIVRIFY AI Recursos en EspañolMapas de predicción de IA de VRIFY
Interpretación de los gráficos de resultados de VRIFY AI
Interpretación de los gráficos de resultados de VRIFY AI

Aprenda a interpretar los resultados de VRIFY AI en Target Generation y consejos para optimizar sus resultados en función de los resultados.

Updated over 3 weeks ago

Este artículo fue traducido mediante Google Translate.

Descripción general

Analizar de cerca los resultados de VRIFY AI a través de nuestros gráficos visuales es esencial para garantizar la precisión y confiabilidad de las predicciones de prospectividad.

Estos gráficos le permiten evaluar claramente qué tan bien se está desempeñando el modelo, explorar dónde comete errores y qué características influyen en sus decisiones. Este proceso ayuda a identificar áreas de mejora y garantiza que el modelo se alinee con los datos y los objetivos de exploración, lo que en última instancia mejora la calidad de las predicciones.


Análisis visual de los resultados

Los usuarios deben examinar la puntuación VPS y su distribución espacial para asegurarse de que se alinee con su comprensión del área. Esta revisión ayuda a validar que los datos destacan las regiones ya identificadas como mineralizadas o consideradas objetivos potenciales.


Matriz de confusión

Lo que te dice este gráfico

La matriz de confusión visualiza el rendimiento del modelo predictivo al mostrar si el modelo realiza predicciones correctas con mayor frecuencia en comparación con clasificaciones erróneas. Compara las predicciones del modelo con resultados conocidos dentro de su conjunto de datos.

La matriz de confusión se utiliza para evaluar el desempeño de las predicciones de VRIFY AI comparando los resultados reales con las predicciones del modelo, del conjunto de validación. Esto se prueba utilizando datos de validación (u exclusión) de su conjunto de datos, que es el 20% de los datos. Muestra cuatro valores clave:

  • Verdadero positivo: el modelo predice correctamente un resultado positivo (por encima del umbral) en el punto de validación.

  • Verdadero negativo: el modelo predice correctamente un punto de aprendizaje negativo (por debajo del umbral).

  • Falso positivo: el modelo predice incorrectamente un resultado positivo cuando en realidad era negativo (error tipo I)

  • Falso negativo: el modelo predice incorrectamente un resultado negativo cuando en realidad era positivo. (Error tipo II)

Cómo interpretar este gráfico

Hay cuatro cuadrantes en este gráfico que representan colectivamente la frecuencia con la que el modelo de IA realizó predicciones precisas en comparación con predicciones inexactas.

  • El cuadrante inferior derecho muestra los verdaderos positivos (predicciones positivas correctas).

  • El cuadrante superior izquierdo muestra los Verdaderos Negativos (predicciones negativas correctas).

  • El cuadrante superior derecho muestra falsos positivos (predichos erróneamente como positivos).

  • El cuadrante inferior izquierdo muestra falsos negativos (predichos erróneamente como negativos).

Idealmente, los cuadros Verdadero positivo y Verdadero negativo deberían tener los valores más altos, mientras que los cuadros Falso positivo y Falso negativo deberían ser lo más bajos posible, lo que indica que el modelo está haciendo predicciones precisas.

Al configurar su modelo y evaluar los resultados, es importante lograr el equilibrio adecuado entre sobreajuste y desajuste:

  • Sobreajuste: ocurre cuando un modelo es demasiado complejo y captura el ruido junto con los patrones, lo que da como resultado una alta precisión en los datos de entrenamiento pero un rendimiento deficiente con los datos nuevos.

  • Desajuste: ocurre cuando un modelo es demasiado simple y le faltan patrones clave, lo que genera un rendimiento deficiente tanto en los datos de entrenamiento como en los de prueba.

Si el modelo identifica con precisión un objetivo (Verdadero Positivo) o descarta correctamente áreas estériles (Verdadero Negativo), esto indica una mayor confiabilidad de las predicciones. Si bien los otros gráficos de resultados pueden indicar que se necesitan ajustes, tener una alta tasa de verdaderos positivos y verdaderos negativos es un fuerte indicador de un modelo bien entrenado.

Por el contrario, una alta tasa de falsos positivos significa que el modelo identificó incorrectamente un área estéril como terrenos de exploración valiosos, mientras que una alta tasa de falsos negativos indicaría que el modelo omitió un área con mineralización real. En este caso, deberá realizar ajustes en los parámetros establecidos en los pasos anteriores.

Damos prioridad a maximizar los Verdaderos Negativos en nuestro modelado (sobre los Verdaderos Positivos) para descartar áreas estériles con mayor precisión, asegurando que no se pase por alto ningún sistema mineral. Dar seguimiento a objetivos que arrojan malos resultados es un enfoque de exploración más pragmático que perderse descubrimientos potenciales.

Qué hacer si los resultados no son óptimos

Si tiene una alta tasa de falsos negativos y/o falsos positivos, esto es una indicación de que el modelo no proporcionará predicciones objetivo confiables.

Hay configuraciones avanzadas en el paso Modelado predictivo que se pueden ajustar para ayudar a optimizar sus resultados. En este caso, comuníquese con su contacto exclusivo de VRIFY AI para que le ayude a realizar los ajustes.


Valores SHAP e importancia de las funciones

¿Qué son los valores SHAP?

Los valores SHAP (explicaciones aditivas de SHapley) son una forma de explicar el resultado de cualquier modelo de IA. Utiliza un enfoque de teoría de juegos que mide la contribución de cada característica al resultado final (valor del modelo predictivo). En IA, a cada característica se le asigna un valor de importancia que representa su contribución al resultado del modelo. Esto puede verse como el valor % además del nombre de la función. Los valores SHAP muestran cómo cada característica afecta cada predicción final, la importancia de cada característica en comparación con otras y la dependencia del modelo en la interacción entre características.

Lo que te dice este gráfico

El gráfico de valores SHAP muestra cuánto contribuyó cada característica (como datos geológicos, elementos geoquímicos, anomalías geofísicas, etc.) a las predicciones del modelo de IA, lo que le ayuda a comprender la importancia y el impacto de las diferentes características en los resultados del modelo, brindándole conocimientos más profundos. en el razonamiento detrás de las recomendaciones del modelo.

Las características están clasificadas por importancia, con la característica de mayor importancia en la parte superior del gráfico y la más baja en la parte inferior. Cuanto mayor sea el valor SHAP de una característica (consulte % junto al nombre de la característica), más peso tendrá la característica a la hora de realizar una predicción. Idealmente, queremos que los datos de exploración confiables e imparciales tengan valores SHAP más altos.

Para cada característica, los valores SHAP se informan a lo largo del eje x del gráfico, junto con el valor de entrada de la característica como escala de color. Si observa la función "bedding_strike_field", verá que en su mayoría se trata de valores de entrada altos (rojo) con un valor SHAP positivo (valor positivo en el eje x).

Cómo interpretar este gráfico

Los valores SHAP para cada característica se indican mediante la distribución del eje x, la escala de colores representa los valores de la característica de entrada y la importancia se indica por su clasificación en el gráfico (cuanto mayor sea la característica, mayor importancia), así como por un porcentaje.

Una característica con un valor SHAP alto indica que jugó un papel importante en el proceso de toma de decisiones del modelo para una predicción particular. Por ejemplo, si los valores SHAP muestran que ciertas anomalías geofísicas contribuyeron en gran medida a la identificación del modelo de un objetivo de perforación prometedor, sugiere que estas anomalías son críticas para el descubrimiento de minerales en su conjunto de datos. Por el contrario, las características con valores SHAP bajos tuvieron menos impacto en la predicción.

Comprender los valores SHAP le permite priorizar las características más importantes en su estrategia de exploración y evaluar si el enfoque del modelo se alinea con su comprensión geológica. Si características inesperadas impulsan las predicciones, esto puede indicar áreas donde el modelo necesita refinamiento.

Qué hacer si los resultados no son óptimos

Los resultados no se consideran óptimos si ciertas características que usted esperaba que fueran influyentes (por ejemplo, anomalías geofísicas) se muestran como de baja importancia, o si las características con alta importancia parecen irrelevantes para su modelo geológico. Esto puede indicar que el modelo de IA no está alineado con los principios de exploración minera del mundo real.

En este caso, es posible que deba volver a visitar los datos de entrenamiento del modelo o ajustar las funciones seleccionadas para mejorar la precisión del modelo. Algunos enfoques son:

  • Vuelva a visitar Seleccionar funciones y ajuste las funciones incluidas en el experimento (omita las funciones que considere que pueden no ser relevantes para su modelo).


Precisión de predicción de coordenadas Z

Lo que te dice este gráfico

El gráfico de regresión lineal compara las coordenadas z predichas de VRIFY para cada celda en el modelo predictivo con las coordenadas z reales (verdaderas) de los datos de perforación existentes. Cada punto del gráfico representa un punto de aprendizaje que forma parte del conjunto de validación, donde los ejes x e y corresponden a las ubicaciones z previstas y reales. Idealmente, los puntos deberían estar alineados estrechamente a lo largo de la línea diagonal 1:1, lo que indica que las predicciones están muy cerca de las profundidades verdaderas del valor z.

Este gráfico de predicción de coordenadas versus coordenadas reales de puntos de aprendizaje le ayuda a visualizar con qué precisión el modelo predice la profundidad de posibles objetivos ricos en minerales.

Cuanto más cerca estén los puntos de la diagonal, mejor funcionará el modelo.

Cómo interpretar este gráfico

En un diagrama de dispersión que compara las coordenadas previstas con las verdaderas, la línea diagonal representa predicciones perfectas donde las coordenadas estimadas de la IA coinciden exactamente con las coordenadas verdaderas. Los puntos cercanos a esta línea muestran predicciones precisas, mientras que los puntos más alejados representan mayores errores en la predicción.

Por ejemplo, si la IA predice que la ubicación de un objetivo de perforación está a 10 metros de la ubicación real conocida, esto aparecerá como un punto que se desvía de la diagonal en una cierta distancia. Cuanto mayor sea la distancia desde la línea, mayor será el error en la predicción de coordenadas.

Qué hacer si los resultados no son óptimos

Si ve que muchos puntos están lejos de la línea diagonal, sugiere que el modelo no predice con precisión las ubicaciones de los objetivos de perforación.

Es posible que deba volver a visitar las entradas de datos seleccionadas en Funciones de entrada o ajustar los parámetros del modelo en Incrustar funciones visuales y dentro de la sección Crear modelos predictivos para mejorar la precisión.


Curva ROC

Lo que te dice este gráfico

La curva ROC (característica operativa del receptor) visualiza el rendimiento del modelo de IA al trazar la tasa de verdaderos positivos (sensibilidad) frente a la tasa de falsos positivos (1 - especificidad) en diferentes niveles de umbral. Este gráfico le ayuda a comprender qué tan bien el modelo distingue entre ejemplos positivos y negativos (por ejemplo, ejemplos de aprendizaje ricos en minerales versus ejemplos de aprendizaje estériles). Un modelo con un buen rendimiento tendrá una curva que abraza la esquina superior izquierda, lo que indica una tasa alta de verdaderos positivos con una tasa baja de falsos positivos.

En la IA minera, la curva ROC muestra la eficacia con la que el modelo puede predecir objetivos de perforación prometedores frente a áreas estériles, lo que le permite evaluar la capacidad del modelo para reducir los descubrimientos falsos e identificar con precisión sitios de exploración valiosos.

¿Qué significan los resultados?

La curva ROC le permite visualizar las compensaciones entre sensibilidad (qué tan bien el modelo identifica puntos de aprendizaje positivos) y especificidad (qué tan bien evita falsos positivos). Una curva que permanece cerca de la esquina superior izquierda del gráfico indica un sólido rendimiento del modelo, con una alta tasa de objetivos correctamente identificados y mínimas falsas alarmas. El área bajo la curva ROC (AUC) proporciona una puntuación única para el rendimiento del modelo: un AUC de 1,0 es perfecto y 0,5 indica que no es mejor que una conjetura aleatoria.

Si la curva ROC está más cerca de la línea diagonal (AUC cerca de 0,5), esto sugiere que el modelo está funcionando mal y tiene dificultades para distinguir entre áreas ricas en minerales y áreas áridas.

Los modelos que están demasiado cerca de la esquina superior izquierda pueden considerarse demasiado ajustados, consulte la sección sobre ajuste excesivo o insuficiente.

Qué hacer si los resultados no son óptimos

Si su curva ROC está cerca de la diagonal o muestra un rendimiento deficiente, sugiere que el modelo de IA no distingue eficazmente entre objetivos de perforación valiosos y estériles. Es posible que necesite volver a entrenar el modelo con datos más relevantes, ajustar su configuración de umbral para mejorar la clasificación o cambiar los parámetros avanzados del modelo predictivo para permitir predicciones más ajustadas. Por el contrario, para limitar el sobreajuste, es posible que deba revisar la función seleccionada para sus predicciones y también los parámetros avanzados del modelado predictivo. El objetivo es aumentar la tasa de verdaderos positivos y al mismo tiempo minimizar la tasa de falsos positivos sin sobreajuste.


¿Aún tienes preguntas?

Comuníquese con su contacto exclusivo de VRIFY AI o envíe un correo electrónico a Support@VRIFY.com para obtener más información.

Did this answer your question?