Ir para conteúdo principal

Interpretando os gráficos de resultados de DORA

Aprenda como interpretar os resultados de DORA em Geração de Alvos e dicas para otimizar seus resultados com base nos resultados.

Atualizado ontem

Visão geral

Analisar de perto os resultados da DORA através dos nossos gráficos visuais é essencial para garantir a precisão e confiabilidade das previsões de prospectividade.

Esses gráficos permitem avaliar claramente o desempenho do modelo, explorar onde ele está cometendo erros e quais recursos estão influenciando suas decisões. Este processo ajuda a identificar áreas de melhoria e garante que o modelo esteja alinhado com os dados e os objetivos de exploração, melhorando, em última análise, a qualidade das previsões.


Análise Visual dos Resultados

Os usuários devem examinar a pontuação VPS (VRIFY Prospectivity Score / Pontuação de Prospectividade VRIFY) e sua distribuição espacial para garantir que ela esteja alinhada com seu conhecimento da área. Esta revisão ajuda a validar que os dados destacam regiões já identificadas como mineralizadas ou consideradas alvos potenciais.


Matriz de confusão (Confusion Matrix)

O que este gráfico diz a você

A matriz de confusão visualiza o desempenho do modelo de previsão, mostrando se o modelo está ou não fazendo previsões corretas com mais frequência em comparação com classificações incorretas. Ele compara as previsões do modelo com resultados conhecidos em seu conjunto de dados.

A matriz de confusão (confusion matrix) é usada para avaliar o desempenho das previsões do DORA comparando os resultados reais com as previsões do modelo, a partir do conjunto de validação. Isso é testado usando dados de validação (ou holdout) do seu conjunto de dados, que representa 20% dos dados. Ele mostra quatro valores principais:

  • Verdadeiro Positivo: O modelo prevê corretamente um resultado positivo (acima do limite) no ponto de validação.

  • Verdadeiro Negativo: o modelo prevê corretamente um ponto de aprendizagem negativo (abaixo do limite).

  • Falso Positivo: O modelo prevê incorretamente um resultado positivo quando na verdade era negativo (erro Tipo I)

  • Falso Negativo: O modelo prevê incorretamente um resultado negativo quando na verdade era positivo. (Erro tipo II)

Como interpretar este gráfico

Existem quatro quadrantes neste gráfico que coletivamente representam a frequência com que o modelo de IA fez previsões precisas em comparação com previsões imprecisas.

  • O quadrante inferior direito mostra os verdadeiros positivos (previsões positivas corretas).

  • O quadrante superior esquerdo mostra os verdadeiros negativos (previsões negativas corretas).

  • O quadrante superior direito mostra falsos positivos (previstos erroneamente como positivos).

  • O quadrante inferior esquerdo mostra falsos negativos (previstos erroneamente como negativos).

Negative) devem ter os valores mais altos, enquanto as caixas Falso Positivo (False Positive) e Falso Negativo (False Negative) devem ser os mais baixos possíveis, indicando que o modelo está fazendo previsões precisas.

Ao configurar seu modelo e avaliar os resultados, é importante encontrar o equilíbrio certo entre overfitting (sobreajuste) e underfitting (Subajuste):

  • Overfitting: acontece quando um modelo é muito complexo, capturando ruído junto com padrões, resultando em alta precisão nos dados de treinamento, mas baixo desempenho em novos dados.

  • Underfitting: ocorre quando um modelo é muito simples, faltando padrões-chave, levando a um desempenho insatisfatório tanto nos dados de treinamento quanto nos dados de teste.

Se o modelo identificar com precisão um alvo (Verdadeiro Positivo) ou descartar corretamente áreas áridas (Verdadeiro Negativo), isso indica maior confiabilidade das previsões. Embora os outros gráficos de resultados possam indicar que são necessários ajustes, ter uma alta taxa de verdadeiros positivos e verdadeiros negativos é um forte indicador de um modelo bem treinado.

Por outro lado, uma alta taxa de falsos positivos significa que o modelo identificou incorretamente uma área árida como terreno de exploração valioso, enquanto altos falsos negativos indicariam que o modelo não percebeu uma área com mineralização real. Neste caso, você deverá fazer ajustes nos parâmetros definidos nas etapas anteriores.

Nós priorizamos o máximo de Verdadeiros Negativos em nossa modelagem (em vez de Verdadeiros Positivos) para descartar áreas áridas com mais precisão, garantindo que nenhum sistema mineral seja negligenciado. Acompanhar alvos que produzem resultados insatisfatórios resulta em uma abordagem de exploração mais pragmática do que perder potenciais descobertas.

O que fazer se os resultados não forem ideais

Se você tiver uma alta taxa de falsos negativos e/ou falsos positivos, isso é uma indicação de que o modelo não fornecerá previsões de alvos confiáveis.

Existem configurações avançadas na etapa Modelagem de Previsão (Predictive Modelling) que podem ser ajustadas para ajudar a otimizar seus resultados. Neste caso, contacte o seu contacto dedicado DORA para o ajudar a fazer ajustes.


Valores SHAP e importância do recurso

O que são valores SHAP

Os valores SHAP (SHapley Additive exPlanations) são uma forma de explicar a saída de qualquer modelo de IA. Ele usa uma abordagem teórica de jogos que mede a contribuição de cada recurso para o resultado final (valor do modelo de previsão). Na IA, cada recurso recebe um valor de importância que representa sua contribuição para a saída do modelo. Isso pode ser visto como o valor percentual (%) ao lado do nome do recurso. Os valores SHAP mostram como cada recurso afeta cada previsão final, a importância de cada recurso em comparação com outros e a dependência do modelo na interação entre os recursos.

O que este gráfico diz a você

O gráfico de valor SHAP mostra o quanto cada recurso (como dados geológicos, elementos geoquímicos, anomalias geofísicas, etc.) contribuiu para as previsões do modelo de IA, ajudando você a compreender a importância e o impacto de diferentes recursos nos resultados do modelo, fornecendo conhecimento mais profundo sobre o raciocínio por trás das recomendações do modelo.

Os recursos são classificados por importância, com a maior importância na parte superior do gráfico e a menor na parte inferior. Quanto maior o valor SHAP de um recurso (veja o “%” ao lado do nome do recurso), mais peso o recurso terá na previsão. Idealmente, queremos que dados de exploração confiáveis ​​e imparciais tenham valores SHAP mais altos.

Para cada recurso, os valores SHAP são relatados ao longo do eixo x do gráfico, juntamente com o valor de entrada do recurso como escala de cores. Se você observar o recurso “bedding_strike_field”, verá que são principalmente valores de entrada altos (vermelho) com um valor SHAP positivo (valor positivo no eixo x).

Como interpretar este gráfico

Os valores SHAP para cada recurso são indicados pela distribuição no eixo x, pela escala de cores que representa os valores do recurso de entrada, e a importância indicada por sua classificação no gráfico (quanto maior o recurso, maior importância), bem como por uma porcentagem.

Um recurso com um valor SHAP alto indica que desempenhou um papel significativo no processo de tomada de decisão do modelo para uma previsão específica. Por exemplo, se os valores SHAP mostram que certas anomalias geofísicas contribuíram fortemente para a identificação do modelo de um alvo de perfuração promissor, isso sugere que estas anomalias são críticas para a descoberta mineral no seu conjunto de dados. Por outro lado, recursos com valores SHAP baixos tiveram menos impacto na previsão.

Compreender os valores SHAP permite priorizar os recursos mais importantes em sua estratégia de exploração e avaliar se o foco do modelo está alinhado com seu conhecimento geológico. Se recursos inesperados estiverem gerando previsões, isso poderá indicar áreas onde o modelo precisa de refinamento.

O que fazer se os resultados não forem ideais

Os resultados não serão considerados ideais se certos recursos que você espera que sejam influentes (por exemplo, anomalias geofísicas) forem apontados como sendo de baixa importância ou se recursos apontados como de alta importância parecerem irrelevantes para seu modelo geológico. Isto pode indicar que o modelo de IA não está alinhado com os princípios de exploração mineral do mundo real.

Nesse caso, talvez seja necessário revisar os dados de treinamento do modelo ou ajustar os recursos selecionados para melhorar a precisão do modelo. Algumas abordagens são:

  • Revise “Select Features” (Selecionar Recursos) e ajuste os recursos incluídos no experimento (omita os recursos que você acha que podem não ser relevantes para o seu modelo).


Precisão de previsão da coordenada Z

O que este gráfico diz a você

O gráfico de regressão linear compara as coordenadas z previstas pelo DORA para cada célula no modelo de previsão com as coordenadas z reais (verdadeiras) dos dados de perfuração existentes. Cada ponto no gráfico representa um ponto de aprendizagem que faz parte do conjunto de validação, onde os eixos x e y correspondem às localizações z previstas e reais. Idealmente, os pontos devem estar alinhados ao longo da linha diagonal 1:1, indicando que as previsões estão muito próximas das verdadeiras profundidades do valor z.

Este gráfico de previsão de coordenadas versus coordenadas reais de pontos de aprendizagem ajuda a visualizar a precisão com que o modelo está prevendo a profundidade de possíveis alvos ricos em minerais.

Quanto mais próximos os pontos estiverem da diagonal, melhor será o desempenho do modelo.

Como interpretar este gráfico

Em um gráfico de dispersão comparando coordenadas previstas versus coordenadas verdadeiras, a linha diagonal representa previsões perfeitas onde as coordenadas estimadas da IA ​​correspondem exatamente às coordenadas verdadeiras. Os pontos próximos a esta linha mostram previsões precisas, enquanto os pontos mais distantes representam maiores erros na previsão.

Por exemplo, se a IA prever a localização de um alvo de perfuração a 10 metros da localização real conhecida, isto aparecerá como um ponto que se desvia da diagonal por uma certa distância. Quanto maior a distância da linha, maior será o erro na previsão das coordenadas.

O que fazer se os resultados não forem ideais

Se você observar que muitos pontos estão longe da linha diagonal, isso sugere que o modelo está prevendo incorretamente a localização dos alvos de perfuração.

Talvez seja necessário revisar as entradas de dados selecionadas em Recursos de Entrada (Input Features) ou ajustar os parâmetros do modelo em Incorporação de Recursos Visuais (Embed Visual Features) e na seção Construir Modelos de Previsão (Build Predictive Models) para melhorar a precisão.


Curva ROC

O que este gráfico diz a você

A curva ROC (Receiver Operating Characteristic ou Característica Operacional do Receptor) visualiza o desempenho do modelo de IA traçando a Taxa de Verdadeiro Positivo (Sensibilidade) em relação à Taxa de Falso Positivo (1 - Especificidade) em diferentes níveis de limite. Este gráfico ajuda você a entender quão bem o modelo distingue entre exemplos positivos e negativos (por exemplo, exemplos de aprendizagem ricos em minerais versus exemplos de aprendizagem estéreis). Um modelo com forte desempenho terá uma curva que envolve o canto superior esquerdo, indicando uma alta taxa de verdadeiros positivos com uma baixa taxa de falsos positivos.

Na IA de mineração, a curva ROC mostra a eficácia com que o modelo pode prever alvos de perfuração promissores versus áreas áridas, permitindo avaliar a capacidade do modelo de reduzir falsas descobertas e identificar com precisão locais de exploração valiosos.

O que os resultados significam

A curva ROC permite visualizar as compensações entre sensibilidade (quão bem o modelo identifica pontos de aprendizagem positivos) e especificidade (quão bem ele evita falsos positivos). Uma curva que fica próxima ao canto superior esquerdo do gráfico indica um forte desempenho do modelo, com uma alta taxa de alvos identificados corretamente e um mínimo de alarmes falsos. A área abaixo da curva ROC, chamada de AUC, fornece uma pontuação única para o desempenho do modelo, com uma AUC de 1,0 sendo perfeita, e 0,5 indicando não melhor do que adivinhação aleatória.

Se a curva ROC estiver mais próxima da linha diagonal (AUC perto de 0,5), isto sugere que o modelo tem um desempenho fraco e tem dificuldade em distinguir entre áreas ricas em minerais e áreas áridas.

Modelos muito próximos do canto superior esquerdo podem ser considerados super-ajustados (over-fitted), veja a seção sobre overfitting e underfitting.

O que fazer se os resultados não forem ideais

Se a sua curva ROC estiver próxima da diagonal ou mostrar um desempenho ruim, isso sugere que o modelo de IA não está distinguindo efetivamente entre alvos de perfuração valiosos e estéreis. Talvez seja necessário treinar novamente o modelo com dados mais relevantes, ajustar suas configurações de limite para melhorar a classificação ou alterar os parâmetros avançados do modelo de previsão para permitir previsões mais ajustadas. Pelo contrário, para limitar o overfitting, poderá ser necessário revisitar o recurso selecionado para suas previsões e também os parâmetros avançados da modelagem de previsão. O objetivo é aumentar a taxa de verdadeiros positivos e, ao mesmo tempo, minimizar a taxa de falsos positivos sem overfitting.


Ainda tem dúvidas?

Entre em contato com seu contato dedicado DORA ou envie um e-mail para support@VRIFY.com para obter mais informações.

Isto respondeu à sua pergunta?