Recall
Recall der Anteil der korrekt identifizierten positiven Fälle
Recall (auch als Sensitivität oder True Positive Rate bezeichnet) ist eine Metrik, die misst, wie gut ein Modell die tatsächlichen positiven Fälle erkennt. Mit anderen Worten, Recall gibt an, wie viele der tatsächlich positiven Fälle vom Modell korrekt als positiv klassifiziert wurden.
Recall = True Positives (TP) / [True Positives (TP) + False Negatives (FN)]
je nach Bedarf, in der Regel beim trainieren eines Neuen Klassifikationsmodells
Accuracy, Precision
Precision fokussiert sich darauf, wie präzise die positiven Vorhersagen sind (wie viele der vorhergesagten positiven Fälle sind tatsächlich positiv?). Recall misst, wie gut das Modell tatsächlich alle positiven Fälle erkennt (wie viele der tatsächlichen positiven Fälle wurden als positiv erkannt?).
Im Beispiel der KPI Confusion Matrix wurden Spam E-Mails nicht als Spam erkannt, False Negatives (FN): 10 (E-Mails, die fälschlicherweise als Nicht-Spam markiert wurden, obwohl sie Spam sind) Recall = 30 / ( 30 + 10 ) = 30 / 40 = 0,75 = 75%. In diesem Beispiel bedeutet ein Recall von 75%, dass das Modell 75% der tatsächlich als Spam klassifizierten E-Mails korrekt erkannt hat.
Fallabhängiger Recall bedeutet, dass das Modell möglichst viele positive Fälle findet, es kann aber möglicherweise mehr Fehler (False Positives) machen
Maßzahl zur Berechnung der Qualität beim erkennen der tatsächlichen positiven Fälle eines Modells