Passer au contenu principal

Interprétation des résultats visuels de DORA

Apprenez à interpréter les résultats générés lors de la génération de cibles dans DORA.

Mis à jour cette semaine

Aperçu

Analyser en détail les résultats de DORA via les graphiques visuels est essentiel pour garantir la précision et la fiabilité des prédictions de prospectivité.

Ces graphiques vous permettent d'évaluer clairement les performances du modèle, d’identifier les erreurs, et de comprendre quelles caractéristiques influencent ses décisions. Ce processus aide à repérer les axes d’amélioration et à garantir l’alignement entre le modèle, les données et les objectifs d’exploration, pour améliorer la qualité des prédictions.


Analyse visuelle des résultats

Les utilisateurs doivent examiner les scores VPS et leur distribution spatiale pour s'assurer qu'ils correspondent à leur compréhension de la zone. Cette analyse permet de valider que les données mettent en évidence les régions déjà connues comme des cibles minéralisées ou considérées comme cibles potentielles.


Confusion Matrix (Matrice de confusion)

Ce que montre ce graphique

La Confusion Matrix (Matrice de confusion) permet de visualiser les performances du modèle prédictif en montrant si le modèle fait plus fréquemment des prédictions correctes par rapport aux erreurs de classification. Elle compare les prédictions du modèle avec les résultats connus au sein de votre ensemble de données.

La Confusion Matrix est utilisée pour évaluer les performances des prédictions de DORA en comparant les résultats réels avec les prédictions du modèle. Ceci est testé à l'aide des données de validation (ou d'exclusion) de votre ensemble de données, qui représentent 20 % des données. Elle affiche quatre valeurs clés :

  • Vrai positif (True Positive) : le modèle prédit correctement un point minéralisé (au-dessus du seuil).

  • Vrai négatif (True Negative) : le modèle prédit correctement un point non minéralisé (en dessous du seuil).

  • Faux positif (False Positive) : le modèle prédit de manière incorrecte un résultat positif alors qu'il s'agissait en réalité d'un résultat négatif (erreur de type I)

  • Faux négatif (False Negative) : le modèle prédit de manière incorrecte un résultat négatif alors qu'il s'agit en réalité d'un résultat positif. (Erreur de type II)

Comment interpréter ce graphique

Les quatre quadrants de ce graphique représentent la fréquence des prédictions justes et erronées du modèle IA :

  • Le quadrant inférieur droit montre les vrais positifs (prédictions positives correctes).

  • Le quadrant supérieur gauche montre les vrais négatifs (prédictions négatives correctes).

  • Le quadrant supérieur droit montre les faux positifs (prédits à tort comme positifs).

  • Le quadrant inférieur gauche affiche les faux négatifs (prédits à tort comme négatifs).

Idéalement, les cases Vrai positifs et Vrai négatifs doivent avoir les valeurs les plus élevées, tandis que les cases Faux positifs et Faux négatifs doivent être aussi faibles que possible, indiquant que le modèle fait des prédictions précises.

Lors de la configuration de votre modèle et de l'évaluation des résultats, il est important de trouver le bon équilibre entre le surajustement (Overfitting) et le sous-apprentissage (Underfitting) :

  • Surajustement : se produit lorsqu’un modèle est trop complexe, captant le bruit en plus des tendances, ce qui donne une précision élevée sur les données d’entraînement mais de mauvaises performances sur de nouvelles données.

  • Sous-ajustement : se produit lorsqu’un modèle est trop simple, manquant les tendances clés, ce qui mène à de faibles performances sur les données d’entraînement et de test.

Si le modèle identifie correctement une cible (vrai positif) ou exclut correctement une zone stérile (vrai négatif), cela indique une plus grande fiabilité des prédictions.

Bien que les autres graphiques de résultats puissent indiquer que des ajustements sont nécessaires, un taux élevé de vrais positifs et de vrais négatifs est un indicateur fort d’un modèle bien entraîné.

À l’inverse, un taux élevé de faux positifs signifie que le modèle a identifié à tort une zone stérile comme zone prometteuse, tandis qu’un taux élevé de faux négatifs indiquerait que le modèle a manqué une zone réellement minéralisée. Dans ce cas, vous devriez ajuster les paramètres définis lors des étapes précédentes.

Nous priorisons la maximisation des vrais négatifs dans notre modélisation (par rapport aux vrais positifs) afin d’exclure plus précisément les zones stériles, garantissant qu’aucun système minéralisé ne soit négligé. Suivre des cibles qui donnent peu de résultats est une approche d’exploration plus pragmatique que de rater une découverte potentielle.

Que faire si les résultats ne sont pas optimaux

Si vous observez un taux élevé de faux négatifs et/ou de faux positifs, cela indique que le modèle ne fournira pas de prédictions de cibles fiables.

Des paramètres avancés dans l’étape Créer des modèles prédictifs peuvent être ajustés pour aider à optimiser vos résultats. Dans ce cas, veuillez contacter votre contact DORA pour obtenir de l’aide sur les ajustements à apporter.


Valeurs SHAP et importance des fonctionnalités

Que sont les valeurs SHAP

Les valeurs SHAP (SHapley Additive exPlanations) sont un moyen d'expliquer la sortie de n'importe quel modèle d'IA. Elles reposent sur une approche issue de la théorie des jeux, qui mesure la contribution de chaque fonctionnalité au résultat final (valeur du modèle prédictif). En IA, chaque fonctionnalité se voit attribuer une valeur d'importance représentant sa contribution à la sortie du modèle. Cela peut être vu comme la valeur % à côté du nom de la fonctionnalité. Les valeurs SHAP montrent comment chaque fonctionnalité affecte chaque prédiction finale, l'importance de chaque fonctionnalité par rapport aux autres et la dépendance du modèle à l'égard de l'interaction entre les fonctionnalités.

Ce que montre ce graphique

Le graphique des valeurs SHAP indique dans quelle mesure chaque fonctionnalité (telle que les données géologiques, les éléments géochimiques, les anomalies géophysiques, etc.) a contribué aux prédictions du modèle d’IA, vous aidant à comprendre l’importance et l’impact des différentes fonctionnalités sur les résultats du modèle, tout en vous offrant une meilleure compréhension du raisonnement derrière les recommandations du modèle.

Les fonctionnalités sont classées par ordre d’importance, la plus importante figurant en haut du graphique, la moins importante en bas. Plus la valeur SHAP d’une fonctionnalité est élevée (voir le % à côté du nom de la fonctionnalité), plus cette fonctionnalité a de poids dans la prédiction. Idéalement, nous souhaitons que les données d’exploration fiables et impartiales aient des valeurs SHAP plus élevées.

Pour chaque fonctionnalité, les valeurs SHAP sont indiquées le long de l’axe des x du graphique, accompagnées de la valeur d’entrée de la fonctionnalité représentée par une échelle de couleur. Si vous regardez la fonctionnalité « bedding_strike_field », vous verrez qu’elle comporte principalement des valeurs d’entrée élevées (en rouge) avec une valeur SHAP positive (valeur positive sur l’axe des x).

Comment interpréter ce graphique

Les valeurs SHAP pour chaque fonctionnalité sont représentées par la distribution sur l’axe des x, l’échelle de couleur représente les valeurs d’entrée des fonctionnalités, et l’importance est indiquée par leur position dans le graphique (plus la fonctionnalité est haute, plus son importance est grande) ainsi que par un pourcentage.

Une caractéristique avec une valeur SHAP élevée indique qu'elle a joué un rôle important dans le processus de décision du modèle pour une prédiction particulière. Par exemple, si les valeurs SHAP montrent que certaines anomalies géophysiques ont fortement contribué à l'identification d'une cible de forage prometteuse, cela suggère que ces anomalies sont cruciales pour la découverte de minéraux dans votre ensemble de données. À l’inverse, les caractéristiques avec de faibles valeurs SHAP avaient moins d’impact sur la prédiction.

Comprendre les valeurs SHAP vous permet de prioriser les fonctionnalités les plus importantes de votre stratégie d'exploration et d'évaluer si l'orientation du modèle correspond à votre compréhension géologique. Si des caractéristiques inattendues influencent les prédictions, cela peut indiquer que le modèle nécessite un ajustement.

Que faire si les résultats ne sont pas optimaux

Les résultats sont considérés comme non optimaux si certaines fonctionnalités que vous jugiez importantes (par exemple, des anomalies géophysiques) apparaissent avec une faible importance, ou si des fonctionnalités ayant une forte importance ne semblent pas cohérentes avec votre modèle géologique. Cela peut indiquer que le modèle d’IA n’est pas en adéquation avec les principes réels de l’exploration minière.

Dans ce cas, il peut être utile de réévaluer les données d’entraînement du modèle ou d’ajuster les fonctionnalités sélectionnées afin d’en améliorer la précision.

Voici quelques pistes possibles :

  • Retourner à l’étape “Sélectionner les fonctionnalités” et ajuster celles incluses dans la simulation (en retirant, par exemple, celles qui ne semblent pas pertinentes pour votre modèle).


Précision de la prédiction des coordonnées Z

Ce que montre ce graphique

Le graphique de régression linéaire compare les coordonnées Z prédites par VRIFY pour chaque cellule du modèle prédictif avec les coordonnées Z réelles provenant des données de forage existantes. Chaque point sur le graphique représente un point d’apprentissage faisant partie du jeu de validation, où l’axe X correspond aux coordonnées Z prédites et l’axe Y aux coordonnées Z réelles. Idéalement, les points devraient s’aligner au plus près de la diagonale 1:1, ce qui indique que les prédictions sont très proches des profondeurs réelles.

Ce graphique, qui compare les coordonnées prédites à celles mesurées, permet de visualiser dans quelle mesure le modèle prédit avec précision la profondeur des cibles minéralisées potentielles.

Plus les points sont proches de la diagonale, meilleure est la performance du modèle.

Comment interpréter ce graphique

Dans un nuage de points comparant coordonnées prédites et coordonnées réelles, la diagonale représente une prédiction parfaite, où les estimations du modèle correspondent exactement aux coordonnées mesurées.

Les points proches de cette ligne indiquent des prédictions précises, tandis que ceux qui s’en écartent révèlent une marge d’erreur plus importante.

Par exemple, si l’IA prédit la position d’une cible de forage avec une erreur de 10 mètres, cela se traduira par un point situé à cette distance de la diagonale. Plus l’écart est grand, plus l’erreur est significative.

Que faire si les résultats ne sont pas optimaux

Si de nombreux points sont éloignés de la diagonale, cela signifie que le modèle prédit mal la position des cibles de forage.

Vous devrez peut-être revoir les données d’entrée sélectionnées dans Caractéristiques d’entrée, ou ajuster les paramètres dans Intégrer des caractéristiques visuelles ainsi que dans Créer des modèles prédictifs pour améliorer la précision.


Courbe ROC

Ce que montre ce graphique

La courbe ROC (Receiver Operating Characteristic) visualise les performances du modèle d'IA en traçant le taux de vrais positifs (sensibilité) par rapport au taux de faux positifs (1 - spécificité) à différents niveaux de seuil. Ce graphique permet de comprendre dans quelle mesure le modèle distingue les exemples positifs des négatifs (par exemple : cibles minéralisées vs zones stériles).Un modèle performant produira une courbe proche du coin supérieur gauche, ce qui indique un taux de vrais positifs élevé et un faible taux de faux positifs.

Dans le contexte de l’IA appliquée à l’exploration minière, la courbe ROC montre dans quelle mesure le modèle parvient à identifier les cibles de forage prometteuses tout en évitant les fausses pistes. Cela vous aide à évaluer sa capacité à limiter les erreurs et à détecter les zones véritablement intéressantes.

Interprétation des résultats

La courbe ROC permet de visualiser le compromis entre :

  • la sensibilité (capacité à identifier les points positifs)

  • et la spécificité (capacité à éviter les faux positifs).

Une courbe qui reste proche du coin supérieur gauche indique un modèle performant, avec un bon taux de détection des cibles et peu d’erreurs.

L’aire sous la courbe (AUC) donne une mesure unique de la performance du modèle :

  • 1.0 = parfait

  • 0.5 = indiquant rien de mieux qu’une supposition aléatoire

Si la courbe se rapproche de la diagonale (AUC proche de 0,5), cela suggère que le modèle a du mal à faire la distinction entre les zones minéralisées et stériles.

Un modèle dont la courbe est trop proche du coin supérieur gauche peut également être surajusté (voir la section sur le surajustement et le sous-ajustement).

Que faire si les résultats ne sont pas optimaux

Si votre courbe ROC est proche de la diagonale ou indique une mauvaise performance, cela signifie que le modèle ne distingue pas efficacement les cibles intéressantes des zones stériles.

Vous pouvez :

  • Réentraîner le modèle avec des données plus pertinentes

  • Ajuster les seuils de classification pour affiner les résultats

  • Modifier les paramètres avancés du modèle prédictif pour mieux adapter les prédictions

À l’inverse, pour limiter le surajustement, vous devrez peut-être :

  • Revoir les fonctionnalités sélectionnées

  • Ajuster les paramètres avancés dans la modélisation prédictive

L’objectif est d’augmenter le taux de vrais positifs tout en réduisant les faux positifs, sans tomber dans le surajustement.


Vous avez encore des questions ?

Contactez votre contact DORA ou envoyez un e-mail à support@VRIFY.com pour plus d'informations.

Avez-vous trouvé la réponse à votre question ?