label_ranking_loss#

sklearn.metrics.label_ranking_loss(y_true, y_score, *, sample_weight=None)[Quelle]#

Berechne den Ranking-Verlust.

Berechnet die durchschnittliche Anzahl von Label-Paaren, die bei gegebener y_score falsch geordnet sind, gewichtet nach der Größe der Label-Menge und der Anzahl der Labels, die nicht in der Label-Menge enthalten sind.

Dies ähnelt der Fehlermengegröße, ist jedoch gewichtet nach der Anzahl relevanter und irrelevanter Labels. Die beste Leistung wird mit einem Ranking-Verlust von Null erzielt.

Lesen Sie mehr im Benutzerhandbuch.

Hinzugefügt in Version 0.17: Eine Funktion label_ranking_loss

Parameter:
y_true{array-ähnlich, dünnbesetzte Matrix} der Form (n_samples, n_labels)

Wahre binäre Labels im binären Indikatorformat.

y_scorearray-like von der Form (n_samples, n_labels)

Zielwerte, können entweder Wahrscheinlichkeitsschätzungen der positiven Klasse, Konfidenzwerte oder nicht-schwellenwertbasierte Entscheidungsmaße sein (wie sie von „decision_function“ bei einigen Klassifikatoren zurückgegeben werden). Für decision_function-Scores sollten Werte größer oder gleich Null die positive Klasse anzeigen.

sample_weightarray-like der Form (n_samples,), Standardwert=None

Stichprobengewichte.

Gibt zurück:
lossfloat

Durchschnittliche Anzahl von Label-Paaren, die bei gegebener y_score falsch geordnet sind, gewichtet nach der Größe der Label-Menge und der Anzahl der Labels, die nicht in der Label-Menge enthalten sind.

Referenzen

[1]

Tsoumakas, G., Katakis, I., & Vlahavas, I. (2010). Mining multi-label data. In Data mining and knowledge discovery handbook (pp. 667-685). Springer US.

Beispiele

>>> from sklearn.metrics import label_ranking_loss
>>> y_true = [[1, 0, 0], [0, 0, 1]]
>>> y_score = [[0.75, 0.5, 1], [1, 0.2, 0.1]]
>>> label_ranking_loss(y_true, y_score)
0.75