coverage_error#
- sklearn.metrics.coverage_error(y_true, y_score, *, sample_weight=None)[Quelle]#
Coverage-Fehlermessung.
Berechnet, wie weit man durch die sortierten Scores gehen muss, um alle wahren Labels abzudecken. Der beste Wert entspricht der durchschnittlichen Anzahl von Labels in
y_truepro Stichprobe.Gleichstände in
y_scoreswerden aufgelöst, indem allen gleichrangigen Werten der maximal zugewiesene Rang gegeben wird.Hinweis: Der Score unserer Implementierung ist 1 größer als der in Tsoumakas et al., 2010 angegebene. Dies erweitert ihn, um den degenerierten Fall zu behandeln, in dem eine Instanz 0 wahre Labels hat.
Lesen Sie mehr im Benutzerhandbuch.
- Parameter:
- y_truearray-like von der Form (n_samples, n_labels)
Wahre binäre Labels im binären Indikatorformat.
- y_scorearray-like von der Form (n_samples, n_labels)
Zielwerte, können entweder Wahrscheinlichkeitsschätzungen der positiven Klasse, Konfidenzwerte oder nicht-schwellenwertbasierte Entscheidungsmaße sein (wie sie von „decision_function“ bei einigen Klassifikatoren zurückgegeben werden). Für decision_function-Scores sollten Werte größer oder gleich Null die positive Klasse anzeigen.
- sample_weightarray-like der Form (n_samples,), Standardwert=None
Stichprobengewichte.
- Gibt zurück:
- coverage_errorfloat
Der Coverage-Fehler.
Referenzen
[1]Tsoumakas, G., Katakis, I., & Vlahavas, I. (2010). Mining multi-label data. In Data mining and knowledge discovery handbook (pp. 667-685). Springer US.
Beispiele
>>> from sklearn.metrics import coverage_error >>> y_true = [[1, 0, 0], [0, 1, 1]] >>> y_score = [[1, 0, 0], [0, 1, 1]] >>> coverage_error(y_true, y_score) 1.5