mean_pinball_loss#
- sklearn.metrics.mean_pinball_loss(y_true, y_pred, *, sample_weight=None, alpha=0.5, multioutput='uniform_average')[Quelle]#
Pinball-Verlust für die Quantilregression.
Lesen Sie mehr im Benutzerhandbuch.
- Parameter:
- y_truearray-ähnlich mit Form (n_samples,) oder (n_samples, n_outputs)
Wahrheitsgetreue (korrekte) Zielwerte.
- y_predarray-ähnlich mit Form (n_samples,) oder (n_samples, n_outputs)
Geschätzte Zielwerte.
- sample_weightarray-like der Form (n_samples,), Standardwert=None
Stichprobengewichte.
- alphafloat, Steigung der Pinball-Verlustfunktion, Standard=0.5,
Diese Verlustfunktion ist äquivalent zur mittleren absoluten Fehler, wenn
alpha=0.5ist.alpha=0.95wird von Schätzern des 95. Perzentils minimiert.- multioutput{‘raw_values’, ‘uniform_average’} oder array-ähnlich mit Form (n_outputs,), Standard=‘uniform_average’
Definiert die Aggregation mehrerer Ausgabewerte. Ein Array-ähnlicher Wert definiert Gewichte, die zur Mittelung von Fehlern verwendet werden.
- ‘raw_values’
Gibt einen vollständigen Satz von Fehlern im Falle einer Multioutput-Eingabe zurück.
- ‘uniform_average’
Die Fehler aller Ausgaben werden mit einheitlichem Gewicht gemittelt.
- Gibt zurück:
- lossfloat oder ndarray von Floats
Wenn multioutput 'raw_values' ist, wird der mittlere absolute Fehler für jede Ausgabe separat zurückgegeben. Wenn multioutput 'uniform_average' oder ein ndarray von Gewichten ist, wird der gewichtete Durchschnitt aller Ausgabefehler zurückgegeben.
Die Ausgabe der Pinball-Verlustfunktion ist eine nicht-negative Gleitkommazahl. Der beste Wert ist 0.0.
Beispiele
>>> from sklearn.metrics import mean_pinball_loss >>> y_true = [1, 2, 3] >>> mean_pinball_loss(y_true, [0, 2, 3], alpha=0.1) 0.03... >>> mean_pinball_loss(y_true, [1, 2, 4], alpha=0.1) 0.3... >>> mean_pinball_loss(y_true, [0, 2, 3], alpha=0.9) 0.3... >>> mean_pinball_loss(y_true, [1, 2, 4], alpha=0.9) 0.03... >>> mean_pinball_loss(y_true, y_true, alpha=0.1) 0.0 >>> mean_pinball_loss(y_true, y_true, alpha=0.9) 0.0
Galeriebeispiele#
Vorhersageintervalle für Gradient Boosting Regression