GradientBoostingRegressor#
- class sklearn.ensemble.GradientBoostingRegressor(*, loss='squared_error', learning_rate=0.1, n_estimators=100, subsample=1.0, criterion='friedman_mse', min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_depth=3, min_impurity_decrease=0.0, init=None, random_state=None, max_features=None, alpha=0.9, verbose=0, max_leaf_nodes=None, warm_start=False, validation_fraction=0.1, n_iter_no_change=None, tol=0.0001, ccp_alpha=0.0)[source]#
Gradient Boosting für Regression.
Dieser Schätzer baut ein additives Modell in schrittweiser Vorwärtsbildung auf; er erlaubt die Optimierung beliebiger differenzierbarer Verlustfunktionen. In jedem Schritt wird ein Regressionsbaum auf den negativen Gradienten der gegebenen Verlustfunktion trainiert.
HistGradientBoostingRegressorist eine wesentlich schnellere Variante dieses Algorithmus für mittlere und große Datensätze (n_samples >= 10_000) und unterstützt monotone Einschränkungen.Lesen Sie mehr im Benutzerhandbuch.
- Parameter:
- loss{‘squared_error’, ‘absolute_error’, ‘huber’, ‘quantile’}, default=’squared_error’
Verlustfunktion, die optimiert werden soll. ‘squared_error’ bezieht sich auf den quadrierten Fehler für die Regression. ‘absolute_error’ bezieht sich auf den absoluten Fehler der Regression und ist eine robuste Verlustfunktion. ‘huber’ ist eine Kombination aus beiden. ‘quantile’ ermöglicht Quantilregression (verwenden Sie
alpha, um das Quantil anzugeben). Siehe Prognoseintervalle für Gradient Boosting Regression für ein Beispiel, das die Quantilregression zur Erstellung von Prognoseintervallen mitloss='quantile'demonstriert.- learning_ratefloat, Standard=0.1
Die Lernrate verkleinert den Beitrag jedes Baumes um
learning_rate. Es gibt einen Kompromiss zwischen learning_rate und n_estimators. Werte müssen im Bereich[0.0, inf)liegen.- n_estimatorsint, Standard=100
Die Anzahl der durchzuführenden Boosting-Stufen. Gradient Boosting ist ziemlich robust gegenüber Überanpassung, daher führt eine große Anzahl normalerweise zu einer besseren Leistung. Werte müssen im Bereich
[1, inf)liegen.- subsamplefloat, default=1.0
Der Anteil der Stichproben, die für das Training der einzelnen Basislerner verwendet werden. Wenn er kleiner als 1.0 ist, führt dies zu Stochastic Gradient Boosting.
subsampleinteragiert mit dem Parametern_estimators. Die Wahl vonsubsample < 1.0führt zu einer Reduzierung der Varianz und einer Erhöhung des Bias. Werte müssen im Bereich(0.0, 1.0]liegen.- criterion{‘friedman_mse’, ‘squared_error’}, default=’friedman_mse’
Die Funktion zur Messung der Qualität eines Splits. Unterstützte Kriterien sind „friedman_mse“ für den mittleren quadratischen Fehler mit Verbesserungs-Score nach Friedman, „squared_error“ für den mittleren quadratischen Fehler. Der Standardwert „friedman_mse“ ist im Allgemeinen der beste, da er in einigen Fällen eine bessere Annäherung liefern kann.
Hinzugefügt in Version 0.18.
- min_samples_splitint oder float, Standard=2
Die minimale Anzahl von Samples, die zur Aufteilung eines internen Knotens erforderlich sind.
Wenn int, müssen Werte im Bereich
[2, inf)liegen.Wenn float, müssen Werte im Bereich
(0.0, 1.0]liegen undmin_samples_splitwirdceil(min_samples_split * n_samples)sein.
Geändert in Version 0.18: Float-Werte für Brüche hinzugefügt.
- min_samples_leafint oder float, Standard=1
Die minimale Anzahl von Samples, die an einem Blattknoten erforderlich sind. Ein Splitpunkt in beliebiger Tiefe wird nur berücksichtigt, wenn er mindestens
min_samples_leafTrainingssamples in jedem der linken und rechten Zweige hinterlässt. Dies kann insbesondere bei der Regression zur Glättung des Modells beitragen.Wenn int, müssen Werte im Bereich
[1, inf)liegen.Wenn float, müssen Werte im Bereich
(0.0, 1.0)liegen undmin_samples_leafwirdceil(min_samples_leaf * n_samples)sein.
Geändert in Version 0.18: Float-Werte für Brüche hinzugefügt.
- min_weight_fraction_leaffloat, Standard=0.0
Der minimale gewichtete Anteil der Summe aller Gewichte (aller Eingabestichproben), der für einen Blattknoten erforderlich ist. Stichproben haben bei nicht bereitgestelltem sample_weight gleiches Gewicht. Werte müssen im Bereich
[0.0, 0.5]liegen.- max_depthint oder None, default=3
Maximale Tiefe der einzelnen Regressionsschätzer. Die maximale Tiefe begrenzt die Anzahl der Knoten im Baum. Stimmen Sie diesen Parameter für die beste Leistung ab; der beste Wert hängt von der Interaktion der Eingabevariablen ab. Wenn None, werden Knoten erweitert, bis alle Blätter rein sind oder bis alle Blätter weniger als min_samples_split Stichproben enthalten. Wenn int, müssen Werte im Bereich
[1, inf)liegen.- min_impurity_decreasefloat, Standard=0.0
Ein Knoten wird geteilt, wenn dieser Split eine Verringerung der Unreinheit von mindestens diesem Wert bewirkt. Werte müssen im Bereich
[0.0, inf)liegen.Die gewichtete Gleichung für die Verringerung der Unreinheit lautet:
N_t / N * (impurity - N_t_R / N_t * right_impurity - N_t_L / N_t * left_impurity)
wobei
Ndie Gesamtzahl der Samples,N_tdie Anzahl der Samples im aktuellen Knoten,N_t_Ldie Anzahl der Samples im linken Kind undN_t_Rdie Anzahl der Samples im rechten Kind ist.N,N_t,N_t_RundN_t_Lbeziehen sich alle auf die gewichtete Summe, wennsample_weightübergeben wird.Hinzugefügt in Version 0.19.
- initestimator oder ‘zero’, default=None
Ein Schätzerobjekt, das zur Berechnung der anfänglichen Vorhersagen verwendet wird.
initmuss fit und predict bereitstellen. Wenn ‘zero’, werden die anfänglichen Rohvorhersagen auf Null gesetzt. Standardmäßig wird einDummyEstimatorverwendet, der entweder den durchschnittlichen Zielwert (für loss=’squared_error’) oder ein Quantil für die anderen Verluste vorhersagt.- random_stateint, RandomState-Instanz oder None, default=None
Steuert den Zufalls-Seed, der jedem Baum-Schätzer bei jeder Boosting-Iteration zugewiesen wird. Zusätzlich steuert er die zufällige Permutation der Merkmale bei jedem Split (siehe Hinweise für weitere Details). Er steuert auch die zufällige Aufteilung der Trainingsdaten zur Erzielung eines Validierungsdatensatzes, wenn
n_iter_no_changenicht None ist. Übergeben Sie eine Ganzzahl für reproduzierbare Ausgaben über mehrere Funktionsaufrufe hinweg. Siehe Glossar.- max_features{‘sqrt’, ‘log2’}, int oder float, default=None
Die Anzahl der Features, die bei der Suche nach dem besten Split berücksichtigt werden.
Wenn int, müssen Werte im Bereich
[1, inf)liegen.Wenn float, müssen Werte im Bereich
(0.0, 1.0]liegen und die bei jedem Split berücksichtigten Merkmale sindmax(1, int(max_features * n_features_in_)).Wenn "sqrt", dann
max_features=sqrt(n_features).Wenn "log2", dann
max_features=log2(n_features).Wenn None, dann
max_features=n_features.
Die Wahl von
max_features < n_featuresführt zu einer Reduzierung der Varianz und einer Erhöhung des Bias.Hinweis: Die Suche nach einem Split stoppt nicht, bis mindestens eine gültige Partition der Knoten-Samples gefunden wurde, auch wenn dies die Inspektion von mehr als
max_featuresFeatures erfordert.- alphafloat, default=0.9
Das Alpha-Quantil der Huber-Verlustfunktion und der Quantilverlustfunktion. Nur wenn
loss='huber'oderloss='quantile'. Werte müssen im Bereich(0.0, 1.0)liegen.- verboseint, default=0
Ermöglicht die Ausgabe von Fortschrittsinformationen. Wenn 1, werden Fortschritt und Leistung gelegentlich ausgegeben (je mehr Bäume, desto geringer die Frequenz). Wenn größer als 1, werden Fortschritt und Leistung für jeden Baum ausgegeben. Werte müssen im Bereich
[0, inf)liegen.- max_leaf_nodesint, Standard=None
Bäume mit
max_leaf_nodesim Best-First-Verfahren wachsen lassen. Beste Knoten werden als relative Verringerung der Unreinheit definiert. Werte müssen im Bereich[2, inf)liegen. Wenn None, dann unbegrenzte Anzahl von Blattknoten.- warm_startbool, Standard=False
Wenn auf
Truegesetzt, wird die Lösung des vorherigen Aufrufs von fit wiederverwendet und dem Ensemble weitere Schätzer hinzugefügt, andernfalls wird die vorherige Lösung gelöscht. Siehe das Glossar.- validation_fractionfloat, default=0.1
Der Anteil der Trainingsdaten, der als Validierungsdatensatz für Early Stopping zurückgehalten wird. Werte müssen im Bereich
(0.0, 1.0)liegen. Wird nur verwendet, wennn_iter_no_changeauf eine Ganzzahl gesetzt ist.Hinzugefügt in Version 0.20.
- n_iter_no_changeint, default=None
n_iter_no_changewird verwendet, um zu entscheiden, ob Early Stopping verwendet wird, um das Training zu beenden, wenn die Validierungsbewertung nicht verbessert wird. Standardmäßig ist es auf None gesetzt, um Early Stopping zu deaktivieren. Wenn es auf eine Zahl gesetzt ist, wirdvalidation_fractionder Trainingsdaten als Validierungsdaten zurückgehalten und das Training beendet, wenn die Validierungsbewertung in keiner der vorherigenn_iter_no_changeIterationen verbessert wird. Werte müssen im Bereich[1, inf)liegen. Siehe Early Stopping in Gradient Boosting.Hinzugefügt in Version 0.20.
- tolfloat, Standard=1e-4
Toleranz für Early Stopping. Wenn der Verlust nicht um mindestens tol für
n_iter_no_changeIterationen (wenn auf eine Zahl gesetzt) verbessert wird, stoppt das Training. Werte müssen im Bereich[0.0, inf)liegen.Hinzugefügt in Version 0.20.
- ccp_alphanicht-negativer float, Standard=0.0
Komplexitätsparameter für das Minimal Cost-Complexity Pruning. Der Teilbaum mit der größten Kostenkomplexität, der kleiner als
ccp_alphaist, wird ausgewählt. Standardmäßig wird kein Pruning durchgeführt. Werte müssen im Bereich[0.0, inf)liegen. Siehe Minimal Cost-Complexity Pruning für Details. Siehe Post-Pruning von Entscheidungsbäumen mit Kosten-Komplexitäts-Pruning für ein Beispiel für solches Pruning.Hinzugefügt in Version 0.22.
- Attribute:
- n_estimators_int
Die Anzahl der Schätzer, wie durch Early Stopping ausgewählt (wenn
n_iter_no_changeangegeben ist). Andernfalls wird sie aufn_estimatorsgesetzt.- n_trees_per_iteration_int
Die Anzahl der Bäume, die in jeder Iteration aufgebaut werden. Für Regressoren ist dies immer 1.
Hinzugefügt in Version 1.4.0.
feature_importances_ndarray der Form (n_features,)Die Unreinheits-basierten Wichtigkeiten der Features.
- oob_improvement_ndarray der Form (n_estimators,)
Die Verbesserung des Verlusts bei den Out-of-Bag-Stichproben im Verhältnis zur vorherigen Iteration.
oob_improvement_[0]ist die Verbesserung des Verlusts der ersten Stufe gegenüber deminit-Schätzer. Nur verfügbar, wennsubsample < 1.0.- oob_scores_ndarray der Form (n_estimators,)
Die vollständige Historie der Verlustwerte bei den Out-of-Bag-Stichproben. Nur verfügbar, wenn
subsample < 1.0.Hinzugefügt in Version 1.3.
- oob_score_float
Der letzte Wert des Verlusts bei den Out-of-Bag-Stichproben. Er ist derselbe wie
oob_scores_[-1]. Nur verfügbar, wennsubsample < 1.0.Hinzugefügt in Version 1.3.
- train_score_ndarray der Form (n_estimators,)
Der i-te Score
train_score_[i]ist der Verlust des Modells bei Iterationiauf der In-Bag-Stichprobe. Wennsubsample == 1, ist dies der Verlust auf den Trainingsdaten.- init_estimator
Der Schätzer, der die anfänglichen Vorhersagen liefert. Setzt über das
init-Argument.- estimators_ndarray von DecisionTreeRegressor der Form (n_estimators, 1)
Die Sammlung der angepassten Unter-Estimators.
- n_features_in_int
Anzahl der während des fits gesehenen Merkmale.
Hinzugefügt in Version 0.24.
- feature_names_in_ndarray mit Form (
n_features_in_,) Namen der während fit gesehenen Merkmale. Nur definiert, wenn
XMerkmalnamen hat, die alle Zeichenketten sind.Hinzugefügt in Version 1.0.
- max_features_int
Der abgeleitete Wert von max_features.
Siehe auch
HistGradientBoostingRegressorHistogramm-basierter Gradient Boosting Klassifikationsbaum.
sklearn.tree.DecisionTreeRegressorEin Entscheidungsbaum-Regressor.
sklearn.ensemble.RandomForestRegressorEin Random-Forest-Regressor.
Anmerkungen
Die Merkmale werden bei jedem Split immer zufällig permutiert. Daher kann der gefundene beste Split variieren, selbst bei denselben Trainingsdaten und
max_features=n_features, wenn die Verbesserung des Kriteriums für mehrere während der Suche nach dem besten Split aufgezählten Splits identisch ist. Um ein deterministisches Verhalten während des Trainings zu erzielen, mussrandom_statefixiert werden.Referenzen
J. Friedman, Greedy Function Approximation: A Gradient Boosting Machine, The Annals of Statistics, Vol. 29, No. 5, 2001.
Friedman, Stochastic Gradient Boosting, 1999
T. Hastie, R. Tibshirani und J. Friedman. Elements of Statistical Learning Ed. 2, Springer, 2009.
Beispiele
>>> from sklearn.datasets import make_regression >>> from sklearn.ensemble import GradientBoostingRegressor >>> from sklearn.model_selection import train_test_split >>> X, y = make_regression(random_state=0) >>> X_train, X_test, y_train, y_test = train_test_split( ... X, y, random_state=0) >>> reg = GradientBoostingRegressor(random_state=0) >>> reg.fit(X_train, y_train) GradientBoostingRegressor(random_state=0) >>> reg.predict(X_test[1:2]) array([-61.1]) >>> reg.score(X_test, y_test) 0.4...
Ein detailliertes Beispiel für die Verwendung von
GradientBoostingRegressorzum Trainieren eines Ensembles von schwachen prädiktiven Modellen finden Sie unter Gradient Boosting Regression.- apply(X)[source]#
Wendet die Bäume im Ensemble auf X an, gibt die Blattindizes zurück.
Hinzugefügt in Version 0.17.
- Parameter:
- X{array-like, sparse matrix} der Form (n_samples, n_features)
Die Eingabestichproben. Intern wird ihr dtype zu
dtype=np.float32konvertiert. Wenn eine dünnbesetzte Matrix bereitgestellt wird, wird sie in eine dünnbesetztecsr_matrixkonvertiert.
- Gibt zurück:
- X_leavesarray-like der Form (n_samples, n_estimators)
Gibt für jeden Datenpunkt x in X und für jeden Baum im Ensemble den Index des Blattes zurück, in dem x für jeden Schätzer endet.
- fit(X, y, sample_weight=None, monitor=None)[source]#
Anpassen des Gradient Boosting-Modells.
- Parameter:
- X{array-like, sparse matrix} der Form (n_samples, n_features)
Die Eingabestichproben. Intern wird sie in
dtype=np.float32konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse-csr_matrix.- yarray-like von Form (n_samples,)
Zielwerte (Zeichenketten oder Ganzzahlen bei Klassifizierung, reelle Zahlen bei Regression) Bei Klassifizierung müssen die Labels den Klassen entsprechen.
- sample_weightarray-like der Form (n_samples,), Standardwert=None
Sample-Gewichte. Wenn None, dann werden die Samples gleich gewichtet. Splits, die Kindknoten mit Nettogewicht Null oder negativ erzeugen würden, werden bei der Suche nach einem Split in jedem Knoten ignoriert. Im Falle einer Klassifizierung werden Splits auch ignoriert, wenn sie dazu führen würden, dass eine einzelne Klasse in einem Kindknoten ein negatives Gewicht trägt.
- monitorcallable, default=None
Der Monitor wird nach jeder Iteration mit der aktuellen Iteration, einer Referenz auf den Schätzer und den lokalen Variablen von
_fit_stagesals Schlüsselwortargumentecallable(i, self, locals())aufgerufen. Wenn das CallableTruezurückgibt, wird der Trainingsvorgang gestoppt. Der Monitor kann für verschiedene Zwecke verwendet werden, z. B. zur Berechnung von ausgelagerten Schätzungen, zur Frühzeitigen Beendigung, zur Modellinspektion und zur Snapshot-Erstellung.
- Gibt zurück:
- selfobject
Angepasster Schätzer.
- get_metadata_routing()[source]#
Holt das Metadaten-Routing dieses Objekts.
Bitte prüfen Sie im Benutzerhandbuch, wie der Routing-Mechanismus funktioniert.
- Gibt zurück:
- routingMetadataRequest
Ein
MetadataRequest, der Routing-Informationen kapselt.
- get_params(deep=True)[source]#
Holt Parameter für diesen Schätzer.
- Parameter:
- deepbool, default=True
Wenn True, werden die Parameter für diesen Schätzer und die enthaltenen Unterobjekte, die Schätzer sind, zurückgegeben.
- Gibt zurück:
- paramsdict
Parameternamen, zugeordnet ihren Werten.
- predict(X)[source]#
Prognostiziert das Regressionsziel für X.
- Parameter:
- X{array-like, sparse matrix} der Form (n_samples, n_features)
Die Eingabestichproben. Intern wird sie in
dtype=np.float32konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse-csr_matrix.
- Gibt zurück:
- yndarray der Form (n_samples,)
Die vorhergesagten Werte.
- score(X, y, sample_weight=None)[source]#
Gibt den Bestimmtheitskoeffizienten auf Testdaten zurück.
Der Bestimmungskoeffizient, \(R^2\), ist definiert als \((1 - \frac{u}{v})\), wobei \(u\) die Residuenquadratsumme ist
((y_true - y_pred)** 2).sum()und \(v\) die Gesamtsumme der Quadrate ist((y_true - y_true.mean()) ** 2).sum(). Die bestmögliche Bewertung ist 1.0 und sie kann negativ sein (da das Modell beliebig schlechter sein kann). Ein konstantes Modell, das immer den Erwartungswert vonyvorhersagt, ohne die Eingabemerkmale zu berücksichtigen, würde eine \(R^2\)-Bewertung von 0.0 erzielen.- Parameter:
- Xarray-like der Form (n_samples, n_features)
Teststichproben. Für einige Schätzer kann dies eine vorab berechnete Kernelmatrix oder eine Liste von generischen Objekten sein, stattdessen mit der Form
(n_samples, n_samples_fitted), wobein_samples_fitteddie Anzahl der für die Anpassung des Schätzers verwendeten Stichproben ist.- yarray-like der Form (n_samples,) oder (n_samples, n_outputs)
Wahre Werte für
X.- sample_weightarray-like der Form (n_samples,), Standardwert=None
Stichprobengewichte.
- Gibt zurück:
- scorefloat
\(R^2\) von
self.predict(X)bezogen aufy.
Anmerkungen
Die \(R^2\)-Bewertung, die bei der Verwendung von
scoreauf einem Regressor verwendet wird, nutztmultioutput='uniform_average'ab Version 0.23, um konsistent mit dem Standardwert vonr2_scorezu sein. Dies beeinflusst diescore-Methode aller Multioutput-Regressoren (mit Ausnahme vonMultiOutputRegressor).
- set_fit_request(*, monitor: bool | None | str = '$UNCHANGED$', sample_weight: bool | None | str = '$UNCHANGED$') GradientBoostingRegressor[source]#
Konfiguriert, ob Metadaten für die
fit-Methode angefordert werden sollen.Beachten Sie, dass diese Methode nur relevant ist, wenn dieser Schätzer als Unter-Schätzer innerhalb eines Meta-Schätzers verwendet wird und Metadaten-Routing mit
enable_metadata_routing=Trueaktiviert ist (siehesklearn.set_config). Bitte lesen Sie das Benutzerhandbuch, um zu erfahren, wie der Routing-Mechanismus funktioniert.Die Optionen für jeden Parameter sind
True: Metadaten werden angefordert und, falls vorhanden, anfitübergeben. Die Anforderung wird ignoriert, wenn keine Metadaten vorhanden sind.False: Metadaten werden nicht angefordert und der Meta-Schätzer übergibt sie nicht anfit.None: Metadaten werden nicht angefordert und der Meta-Schätzer löst einen Fehler aus, wenn der Benutzer sie bereitstellt.str: Metadaten sollten mit diesem Alias an den Meta-Schätzer übergeben werden und nicht mit dem ursprünglichen Namen.
Der Standardwert (
sklearn.utils.metadata_routing.UNCHANGED) behält die bestehende Anforderung bei. Dies ermöglicht es Ihnen, die Anforderung für einige Parameter zu ändern und für andere nicht.Hinzugefügt in Version 1.3.
- Parameter:
- monitorstr, True, False, oder None, default=sklearn.utils.metadata_routing.UNCHANGED
Metadaten-Routing für den Parameter
monitorinfit.- sample_weightstr, True, False, oder None, Standardwert=sklearn.utils.metadata_routing.UNCHANGED
Metadaten-Routing für den Parameter
sample_weightinfit.
- Gibt zurück:
- selfobject
Das aktualisierte Objekt.
- set_params(**params)[source]#
Setzt die Parameter dieses Schätzers.
Die Methode funktioniert sowohl bei einfachen Schätzern als auch bei verschachtelten Objekten (wie
Pipeline). Letztere haben Parameter der Form<component>__<parameter>, so dass es möglich ist, jede Komponente eines verschachtelten Objekts zu aktualisieren.- Parameter:
- **paramsdict
Schätzer-Parameter.
- Gibt zurück:
- selfestimator instance
Schätzer-Instanz.
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') GradientBoostingRegressor[source]#
Konfiguriert, ob Metadaten für die
score-Methode angefordert werden sollen.Beachten Sie, dass diese Methode nur relevant ist, wenn dieser Schätzer als Unter-Schätzer innerhalb eines Meta-Schätzers verwendet wird und Metadaten-Routing mit
enable_metadata_routing=Trueaktiviert ist (siehesklearn.set_config). Bitte lesen Sie das Benutzerhandbuch, um zu erfahren, wie der Routing-Mechanismus funktioniert.Die Optionen für jeden Parameter sind
True: Metadaten werden angefordert und, falls vorhanden, anscoreübergeben. Die Anforderung wird ignoriert, wenn keine Metadaten vorhanden sind.False: Metadaten werden nicht angefordert und der Meta-Schätzer übergibt sie nicht anscore.None: Metadaten werden nicht angefordert und der Meta-Schätzer löst einen Fehler aus, wenn der Benutzer sie bereitstellt.str: Metadaten sollten mit diesem Alias an den Meta-Schätzer übergeben werden und nicht mit dem ursprünglichen Namen.
Der Standardwert (
sklearn.utils.metadata_routing.UNCHANGED) behält die bestehende Anforderung bei. Dies ermöglicht es Ihnen, die Anforderung für einige Parameter zu ändern und für andere nicht.Hinzugefügt in Version 1.3.
- Parameter:
- sample_weightstr, True, False, oder None, Standardwert=sklearn.utils.metadata_routing.UNCHANGED
Metadaten-Routing für den Parameter
sample_weightinscore.
- Gibt zurück:
- selfobject
Das aktualisierte Objekt.
- staged_predict(X)[source]#
Prognostiziert das Regressionsziel in jeder Stufe für X.
Diese Methode ermöglicht die Überwachung (d.h. Bestimmung von Fehlern auf dem Testdatensatz) nach jeder Stufe.
- Parameter:
- X{array-like, sparse matrix} der Form (n_samples, n_features)
Die Eingabestichproben. Intern wird sie in
dtype=np.float32konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse-csr_matrix.
- Gibt:
- yGenerator von ndarray der Form (n_samples,)
Der prognostizierte Wert der Eingabestichproben.
Galeriebeispiele#
Vorhersageintervalle für Gradient Boosting Regression
Vorhersagen von einzelnen und abstimmenden Regressionsmodellen plotten