Visão geral
Este artigo explica como interpretar o indicador de Precisão da Previsão e a Matriz de Confusão no seu Mapa de Previsão. Esses resultados ajudam você a avaliar o quão bem o modelo distingue entre áreas mineralizadas e áreas estéreis, e o que fazer se os resultados não forem confiáveis.
Medidor de precisão de previsão
Ao abrir os resultados pela primeira vez, você verá um indicador de precisão da previsão na forma de um medidor circular, ou odômetro, mostrando:
Índice de Precisão – Percentagem de previsões corretas
Rótulo – Status qualitativo com base na faixa de precisão
Os rótulos são aplicados da seguinte forma:
0–75% = Subajustado (Underfitted)
76–90% = Ideal
91–100% = Sobreajustado (Overfitted)
Uma pontuação "Ótima" (optimal) significa que o modelo está generalizando bem com base em todo o seu conjunto de dados e recursos de entrada.
Para explorar os resultados mais detalhadamente, clique na seta no canto superior direito para visualizar os resultados do modelo.
O que é uma Matriz de Confusão?
Abaixo do indicador, você encontrará a Matriz de Confusão. Uma Matriz de Confusão mostra o quão bem as previsões do modelo correspondem aos resultados reais de todo o seu conjunto de dados.
Seus dados de aprendizagem, que foram configurados em Etapa 3: Configurar os dados de aprendizagem, é a base para essa saída. Ela ajuda o modelo a aprender a distinguir entre zonas mineralizadas e não mineralizadas, o que se reflete nos resultados da matriz.
Esta matriz contém quatro resultados principais:
Verdadeiro Positivo (VP) “True Positive”: O modelo prevê corretamente uma localização mineralizada.
Verdadeiro Negativo (VN) “True Negative”: O modelo prevê corretamente um local estéril.
Falso Positivo (FP) “False positive”: O modelo prevê incorretamente uma localização mineralizada quando, na verdade, ela é estéril.
Falso Negativo (FN) “False Negative”: O modelo prevê incorretamente um local estéril quando, na realidade, ele é mineralizado.
Esses resultados são organizados em formato de grade, facilitando a visualização da quantidade de cada tipo que o modelo está produzindo.
A precisão mede quantas das localizações previstas como mineralizadas de fato o são.
Como a precisão é calculada: Verdadeiro Positivo / (Verdadeiro Positivo + Falso Positivo)
A métrica de recall mede quantas das localizações mineralizadas reais o modelo identificou com sucesso.
Como o recall é calculado: Verdadeiro Positivo / (Verdadeiro Positivo + Falso Negativo)
Uma alta pontuação de Precisão (Precision) significa que o modelo evita falsos positivos.
Uma alta pontuação de Recall significa que o algoritmo encontra a maioria das áreas verdadeiramente mineralizadas.
A pontuação F1 (F1 Score) é um equilíbrio entre precisão e recall, ajudando você a avaliar a confiabilidade geral.
Como interpretar
Idealmente, os índices de verdadeiros positivos e verdadeiros negativos devem ser altos, enquanto os de falsos positivos e falsos negativos devem ser os mais baixos possíveis.
A alta taxa de verdadeiros positivos confirma que o modelo identifica corretamente as áreas mineralizadas.
Altos índices de verdadeiros negativos confirmam que áreas estéreis são descartadas de forma confiável.
Um alto índice de falsos positivos significa que terrenos baldios são sinalizados incorretamente como promissores, levando a esforços desperdiçados.
Um alto índice de falsos negativos significa que potenciais solos mineralizados estão sendo ignorados.
Também é importante procurar por sobreajuste “overfitting” (quando um modelo é muito complexo e apresenta baixo desempenho com novos dados) e subajuste “underfitting” (quando um modelo é muito simples e não identifica padrões importantes). Um modelo equilibrado deve generalizar bem para dados não vistos anteriormente.
Priorizamos a maximização dos Verdadeiros Negativos em nossa modelagem (em detrimento dos Verdadeiros Positivos) para descartar áreas estéreis com maior precisão, garantindo que nenhum sistema mineral seja negligenciado. Dar seguimento a alvos que apresentam resultados insatisfatórios é uma abordagem de exploração mais pragmática do que perder potenciais descobertas.
O que fazer se os resultados não forem os ideais
Se você observar uma alta taxa de falsos positivos (baixa pontuação de precisão) e/ou falsos negativos (baixa pontuação de recall), significa que o modelo não está fornecendo previsões confiáveis. Isso geralmente se reflete em uma baixa pontuação F1, que combina precisão e recall.
Nesse caso, talvez seja necessário ajustar as entradas, os parâmetros ou as configurações do modelo para melhorar o desempenho.
Experimente os seguintes ajustes, nesta ordem:
Revisar os parâmetros do modelo
Em Etapa 5: Construir o Modelo Preditivo, ajustar o tamanho do agrupamento (cluster) e o número mínimo de pontos por agrupamento.
Analise suas funcionalidades
Em Etapa 2: Selecione os recursos de entrada, confirme se apenas as camadas geocientíficas relevantes estão incluídas. Remova entradas ruidosas ou irrelevantes.
Reveja os seus limites de alvos
Em Etapa 3: Configurar os dados de aprendizagem, revise os limites dos alvos.
Ajuste a resolução da AOI
Em Passo 1: Selecione a AOI (Área de Interesse), modifique a altura e a largura da sua Área de Interesse para melhor corresponder ao contexto geológico e à cobertura de dados.
Analise os arquivos de dados de aprendizagem.
Verifique seu arquivo shapefile de Pontos de Aprendizagem (Etapa 3: Configurar os dados de aprendizagem) para garantir que os dados sejam precisos e cubram a AOI.
Saber mais
Interprete outros gráficos de resultados do DORA:
Criar um mapa de previsão DORA:
Ainda tem dúvidas?
Entre em contato com seu contato dedicado DORA ou envie um e-mail para support@VRIFY.com para obter mais informações.
