Voici quelques exemples de résultats pour un classificateur Bayes naïf, utilisant une validation croisée 10 fois. Il y a beaucoup d'informations, et ce sur quoi vous devez vous concentrer dépend de votre application. Je vais expliquer certains des résultats ci-dessous, pour vous aider à démarrer.
=== Stratified cross-validation ===
=== Summary ===
Correctly Classified Instances 71 71 %
Incorrectly Classified Instances 29 29 %
Kappa statistic 0.3108
Mean absolute error 0.3333
Root mean squared error 0.4662
Relative absolute error 69.9453 %
Root relative squared error 95.5466 %
Total Number of Instances 100
=== Detailed Accuracy By Class ===
TP Rate FP Rate Precision Recall F-Measure ROC Area Class
0.967 0.692 0.686 0.967 0.803 0.709 0
0.308 0.033 0.857 0.308 0.453 0.708 1
Weighted Avg. 0.71 0.435 0.753 0.71 0.666 0.709
=== Confusion Matrix ===
a b <-- classified as
59 2 | a = 0
27 12 | b = 1
Les instances correctement et incorrectement classées montrent le pourcentage d'instances de test qui ont été correctement et incorrectement classées. Les nombres bruts sont indiqués dans la matrice de confusion, avec a et b représentant les étiquettes de classe. Ici, il y avait 100 instances, donc les pourcentages et les nombres bruts s'additionnent, aa + bb = 59 + 12 = 71, ab + ba = 27 + 2 = 29.
Le pourcentage d'instances correctement classées est souvent appelé précision ou précision de l'échantillon. Elle présente quelques inconvénients en tant qu'estimation de la performance (elle n'est pas corrigée par le hasard et n'est pas sensible à la distribution des classes), c'est pourquoi vous voudrez probablement examiner d'autres chiffres. L'aire ROC, ou aire sous la courbe ROC, est ma mesure préférée.
Kappa est une mesure corrigée par le hasard de la concordance entre les classifications et les classes réelles. Il est calculé en prenant la concordance attendue par hasard et en la divisant par la concordance maximale possible. Une valeur supérieure à 0 signifie que votre classificateur fait mieux que le hasard (il devrait vraiment le faire !).
Les taux d'erreur sont utilisés pour la prédiction numérique plutôt que pour la classification. Dans la prédiction numérique, les prédictions ne sont pas seulement justes ou fausses, l'erreur a une magnitude, et ces mesures reflètent cela.
J'espère que cela vous aidera à démarrer.