coverage_error#

sklearn.metrics.coverage_error(y_true, y_score, *, sample_weight=None)[Quelle]#

Coverage-Fehlermessung.

Berechnet, wie weit man durch die sortierten Scores gehen muss, um alle wahren Labels abzudecken. Der beste Wert entspricht der durchschnittlichen Anzahl von Labels in y_true pro Stichprobe.

Gleichstände in y_scores werden aufgelöst, indem allen gleichrangigen Werten der maximal zugewiesene Rang gegeben wird.

Hinweis: Der Score unserer Implementierung ist 1 größer als der in Tsoumakas et al., 2010 angegebene. Dies erweitert ihn, um den degenerierten Fall zu behandeln, in dem eine Instanz 0 wahre Labels hat.

Lesen Sie mehr im Benutzerhandbuch.

Parameter:
y_truearray-like von der Form (n_samples, n_labels)

Wahre binäre Labels im binären Indikatorformat.

y_scorearray-like von der Form (n_samples, n_labels)

Zielwerte, können entweder Wahrscheinlichkeitsschätzungen der positiven Klasse, Konfidenzwerte oder nicht-schwellenwertbasierte Entscheidungsmaße sein (wie sie von „decision_function“ bei einigen Klassifikatoren zurückgegeben werden). Für decision_function-Scores sollten Werte größer oder gleich Null die positive Klasse anzeigen.

sample_weightarray-like der Form (n_samples,), Standardwert=None

Stichprobengewichte.

Gibt zurück:
coverage_errorfloat

Der Coverage-Fehler.

Referenzen

[1]

Tsoumakas, G., Katakis, I., & Vlahavas, I. (2010). Mining multi-label data. In Data mining and knowledge discovery handbook (pp. 667-685). Springer US.

Beispiele

>>> from sklearn.metrics import coverage_error
>>> y_true = [[1, 0, 0], [0, 1, 1]]
>>> y_score = [[1, 0, 0], [0, 1, 1]]
>>> coverage_error(y_true, y_score)
1.5