label_ranking_loss#
- sklearn.metrics.label_ranking_loss(y_true, y_score, *, sample_weight=None)[Quelle]#
Berechne den Ranking-Verlust.
Berechnet die durchschnittliche Anzahl von Label-Paaren, die bei gegebener y_score falsch geordnet sind, gewichtet nach der Größe der Label-Menge und der Anzahl der Labels, die nicht in der Label-Menge enthalten sind.
Dies ähnelt der Fehlermengegröße, ist jedoch gewichtet nach der Anzahl relevanter und irrelevanter Labels. Die beste Leistung wird mit einem Ranking-Verlust von Null erzielt.
Lesen Sie mehr im Benutzerhandbuch.
Hinzugefügt in Version 0.17: Eine Funktion label_ranking_loss
- Parameter:
- y_true{array-ähnlich, dünnbesetzte Matrix} der Form (n_samples, n_labels)
Wahre binäre Labels im binären Indikatorformat.
- y_scorearray-like von der Form (n_samples, n_labels)
Zielwerte, können entweder Wahrscheinlichkeitsschätzungen der positiven Klasse, Konfidenzwerte oder nicht-schwellenwertbasierte Entscheidungsmaße sein (wie sie von „decision_function“ bei einigen Klassifikatoren zurückgegeben werden). Für decision_function-Scores sollten Werte größer oder gleich Null die positive Klasse anzeigen.
- sample_weightarray-like der Form (n_samples,), Standardwert=None
Stichprobengewichte.
- Gibt zurück:
- lossfloat
Durchschnittliche Anzahl von Label-Paaren, die bei gegebener y_score falsch geordnet sind, gewichtet nach der Größe der Label-Menge und der Anzahl der Labels, die nicht in der Label-Menge enthalten sind.
Referenzen
[1]Tsoumakas, G., Katakis, I., & Vlahavas, I. (2010). Mining multi-label data. In Data mining and knowledge discovery handbook (pp. 667-685). Springer US.
Beispiele
>>> from sklearn.metrics import label_ranking_loss >>> y_true = [[1, 0, 0], [0, 0, 1]] >>> y_score = [[0.75, 0.5, 1], [1, 0.2, 0.1]] >>> label_ranking_loss(y_true, y_score) 0.75