top of page

Les métriques d'évaluation de la classification

Les métriques qui évaluent la classification faite par un modèle permettent de mesurer la capacité du modèle à bien discriminer entre les catégories. Cette évaluation se base sur la matrice de confusion présenté ci-dessous. 

image.png

Exactitude (Accuracy) :

Les valeurs biens classées sur l'ensemble des valeurs classées.

image.png

Précision (Precision) :

Valeur vrai correctement classé sur nombre de valeurs vrai prédites. Cette métrique est utilisée lorsqu'on préfère être sûr de prédire des choses vrais, mais qu'on n'est pas très regardant sur les vrais que l'on classe comme faux.

image.png

Rappel  (Recall) :

Valeur vrai correctement classé sur nombre de valeurs dans sa vraie classe. On utilise cette métrique lorsqu'on préfère que toutes les valeurs vraies prédites soit vraies en réalités, mais on ne s'intéresse pas aux valeurs faussent que l'on prédit comme vrai.

image.png

F1-score : 

Métrique générale pour mesurer la performance qui balance les avantages de la précision et du rappel.

image.png

Les métriques précédentes sont utiles lorsqu'on classe une valeur (ex : x)  dans la bonne catégorie ou non. Mais, lorsqu'on a un grand nombre de classes (ex : x, y, z...) et qu'on veut une métrique globale, on doit ce tourner vers d'autres types de métriques : La moyenne micro et la moyenne macro. 

Les formules suivantes se basent sur la précision et le rappel, lorsqu'il est écrit "métrique", vous pouvez choisir le rappel comme la précision.

Moyenne Macro (macro average) :

Somme de la métrique choisie divisé par le nombre total.

image.png

Moyenne Micro (micro average) :

Choix d’une métrique où l'on somme toutes les valeurs au numérateur sur toutes les valeurs au dénominateur.

image.png

Cela fait le tour des principales métriques utilisées pour évaluer la classification !

bottom of page