Descripción general
Este artículo explica cómo interpretar el indicador de Precisión de Predicción y la Matriz de Confusión en el Mapa de Predicción. Estos resultados le ayudan a evaluar que tan bien el modelo distingue entre áreas mineralizadas y no mineralizadas, y qué hacer si los resultados no son confiables.
Indicador de precisión de predicción
Al abrir los resultados por primera vez, verá un indicador de Precisión de Predicción en forma de medidor circular (similar a un odómetro), que muestra:
Puntuación de Precisión: porcentaje de predicciones correctas
Etiqueta – Estado cualitativo basado en el rango de precisión
Las etiquetas se aplican de la siguiente manera:
0–75% = Subajuste (underfitted)
76–90% = Óptimo (Optimal)
91–100% =Sobreajuste (overfitted)
Un puntaje óptimo significa que el modelo se generaliza bien en función de todo su conjunto de datos y de la configuración de entrada.
Para explorar los resultados en mayor detalle, haga clic en la flecha de la esquina superior derecha para ver las salidas detallados del modelo.
¿Qué es una matriz de confusión?
Debajo del indicador encontrará la matriz de confusión. Una matriz de confusión muestra qué tan bien las predicciones del modelo coinciden con los resultados reales de todo su conjunto de datos.
Sus datos de aprendizaje, configurados en Paso 3: Cómo configurar datos de aprendizaje es la base de esta salida. Estos datos ayudan al modelo a aprender a distinguir entre zonas mineralizadas y no mineralizadas, lo cual se refleja en los resultados de la matriz.
Esta matriz contiene cuatro resultados clave:
Verdadero Positivo (TP): El modelo predice correctamente una ubicación mineralizada.
Verdadero negativo (VN): El modelo predice correctamente una ubicación estéril.
Falso positivo (FP): El modelo predice incorrectamente una ubicación mineralizada cuando en realidad es estéril.
Falso negativo (FN): El modelo predice incorrectamente una ubicación estéril cuando en realidad está mineralizado.
Estos resultados se organizan en un formato de cuadrícula, lo que facilita ver cuántos de cada tipo produce el modelo.
La Precisión mide cuántos de las ubicaciones predichas como mineralizadas realmente lo son.
Cómo se calcula la Precisión: Verdaderos positivos / (Verdaderos positivos + Falsos positivos)
El Recall mide cuántas de las ubicaciones mineralizadas reales el modelo identificó correctamente.
Cómo se calcula el Recall :Verdaderos positivos / (Verdaderos positivos + Falsos negativos)
Un puntaje de precisión alto significa que el modelo evita falsos positivos.
Un puntaje alto de Recall significa que el modelo encuentra la mayoría de las áreas mineralizadas reales.
La puntuación F1 es un equilibrio entre Precisión y Recall, y ayuda a evaluar la confiabilidad general del modelo.
Cómo interpretar
Idealmente, los verdaderos positivos y los verdaderos negativos deberían ser altos, mientras que los falsos positivos y los falsos negativos deberían ser lo más bajos posible.
Un alto índice de verdaderos positivos confirma que el modelo identifica correctamente las áreas mineralizadas.
Un alto número de verdaderos negativos confirma que las áreas estériles se descartan de manera confiable.
Un alto índice de falsos positivos significa que un terreno árido se clasifica erróneamente como prometedor, lo que conlleva un esfuerzo desperdiciado.
Un alto índice de falsos negativos significa que se pasa por alto áreas potencialmente mineralizadas.
También es importante verificar el sobreajuste (cuando un modelo es demasiado complejo y funciona mal con datos nuevos) y el subajuste (cuando un modelo es demasiado simple y pasa por alto patrones clave). Un modelo equilibrado debería generalizar correctamente en datos no vistos.
En nuestro modelo, damos prioridad a maximizar los Verdaderos Negativos (por encima de los Verdaderos Positivos) para descartar áreas estériles con mayor precisión, asegurando que los sistemas minerales no se pasen por alto. Dar seguimiento a los objetivos que arrojan resultados deficientes es un enfoque de exploración más pragmático que perder posibles descubrimientos.
Qué hacer si los resultados no son óptimos
Si observa una alta tasa de falsos positivos (puntaje de Precisión bajo) y/o falsos negativos (puntaje de Recall bajo), significa que el modelo no proporciona predicciones confiables. Esto suele reflejarse en un puntaje F1 bajo, que combina tanto la Precisión como Recall.
En este caso, es posible que deba ajustar sus entradas, parámetros o configuración del modelo para mejorar el rendimiento.
Ajustes recomendados (en este orden):
Revisar los parámetros del modelo
En Paso 5: Cómo construir un modelo predictivo, ajuste el tamaño de los clústeres y el número mínimo de puntos por clúster.
Explore la sección Configuración avanzada para un mayor control sobre el rendimiento del algoritmo.
Revisar sus características de entrada
En el Paso 2: Cómo seleccionar características de entrada confirme que solo se incluyan capas de geocientíficas relevantes. Elimine las entradas ruidosas o no relacionadas.
Revisar sus umbrales de destino
En Paso 3: Cómo configurar los datos de aprendizaje, ajuste los umbrales destino.
Ajustar la resolución del AOI
En Paso 1: Cómo seleccionar el Área de Interés modifique la altura y el ancho de su Área de Interés para que se adapten mejor al contexto geológico y a la cobertura de datos.
Revisar los archivos de datos de aprendizaje
Verifique su archivo Learning Points shapefile (Paso 3: Cómo configurar datos de aprendizaje) para asegurarse de que los datos sean precisos y cubran el AOI.
Más información
Interpretar otros gráficos de resultados de DORA:
Crear un mapa de predicción DORA:
¿Aún tiene preguntas?
Comuníquese con su contacto exclusivo de DORA o envíe un correo electrónico a support@VRIFY.com para obtener más información.
