label_ranking_average_precision_score#
- sklearn.metrics.label_ranking_average_precision_score(y_true, y_score, *, sample_weight=None)[Quelle]#
Berechne ranking-basierte Durchschnittspräzision.
Die Label-Ranking-Average-Precision (LRAP) ist der Durchschnitt über jedes Ground-Truth-Label, das jedem Sample zugeordnet ist, des Verhältnisses von wahren zu gesamten Labels mit niedrigerem Score.
Diese Metrik wird bei Multilabel-Ranking-Problemen verwendet, bei denen das Ziel darin besteht, den Labels, die jedem Sample zugeordnet sind, einen besseren Rang zu geben.
Der erzielte Score ist immer strikt größer als 0 und der beste Wert ist 1.
Lesen Sie mehr im Benutzerhandbuch.
- Parameter:
- y_true{array-artig, spärsichtige Matrix} der Form (n_samples, n_labels)
Wahre binäre Labels im binären Indikatorformat.
- y_scorearray-like von der Form (n_samples, n_labels)
Zielwerte, können entweder Wahrscheinlichkeitsschätzungen der positiven Klasse, Konfidenzwerte oder nicht-schwellenwertbasierte Entscheidungsmaße sein (wie sie von „decision_function“ bei einigen Klassifikatoren zurückgegeben werden). Für decision_function-Scores sollten Werte größer oder gleich Null die positive Klasse anzeigen.
- sample_weightarray-like der Form (n_samples,), Standardwert=None
Stichprobengewichte.
Hinzugefügt in Version 0.20.
- Gibt zurück:
- scorefloat
Ranking-basierter Average-Precision-Score.
Beispiele
>>> import numpy as np >>> from sklearn.metrics import label_ranking_average_precision_score >>> y_true = np.array([[1, 0, 0], [0, 0, 1]]) >>> y_score = np.array([[0.75, 0.5, 1], [1, 0.2, 0.1]]) >>> label_ranking_average_precision_score(y_true, y_score) 0.416