label_ranking_average_precision_score#

sklearn.metrics.label_ranking_average_precision_score(y_true, y_score, *, sample_weight=None)[Quelle]#

Berechne ranking-basierte Durchschnittspräzision.

Die Label-Ranking-Average-Precision (LRAP) ist der Durchschnitt über jedes Ground-Truth-Label, das jedem Sample zugeordnet ist, des Verhältnisses von wahren zu gesamten Labels mit niedrigerem Score.

Diese Metrik wird bei Multilabel-Ranking-Problemen verwendet, bei denen das Ziel darin besteht, den Labels, die jedem Sample zugeordnet sind, einen besseren Rang zu geben.

Der erzielte Score ist immer strikt größer als 0 und der beste Wert ist 1.

Lesen Sie mehr im Benutzerhandbuch.

Parameter:
y_true{array-artig, spärsichtige Matrix} der Form (n_samples, n_labels)

Wahre binäre Labels im binären Indikatorformat.

y_scorearray-like von der Form (n_samples, n_labels)

Zielwerte, können entweder Wahrscheinlichkeitsschätzungen der positiven Klasse, Konfidenzwerte oder nicht-schwellenwertbasierte Entscheidungsmaße sein (wie sie von „decision_function“ bei einigen Klassifikatoren zurückgegeben werden). Für decision_function-Scores sollten Werte größer oder gleich Null die positive Klasse anzeigen.

sample_weightarray-like der Form (n_samples,), Standardwert=None

Stichprobengewichte.

Hinzugefügt in Version 0.20.

Gibt zurück:
scorefloat

Ranking-basierter Average-Precision-Score.

Beispiele

>>> import numpy as np
>>> from sklearn.metrics import label_ranking_average_precision_score
>>> y_true = np.array([[1, 0, 0], [0, 0, 1]])
>>> y_score = np.array([[0.75, 0.5, 1], [1, 0.2, 0.1]])
>>> label_ranking_average_precision_score(y_true, y_score)
0.416