GradientBoostingRegressor#

class sklearn.ensemble.GradientBoostingRegressor(*, loss='squared_error', learning_rate=0.1, n_estimators=100, subsample=1.0, criterion='friedman_mse', min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_depth=3, min_impurity_decrease=0.0, init=None, random_state=None, max_features=None, alpha=0.9, verbose=0, max_leaf_nodes=None, warm_start=False, validation_fraction=0.1, n_iter_no_change=None, tol=0.0001, ccp_alpha=0.0)[source]#

Gradient Boosting für Regression.

Dieser Schätzer baut ein additives Modell in schrittweiser Vorwärtsbildung auf; er erlaubt die Optimierung beliebiger differenzierbarer Verlustfunktionen. In jedem Schritt wird ein Regressionsbaum auf den negativen Gradienten der gegebenen Verlustfunktion trainiert.

HistGradientBoostingRegressor ist eine wesentlich schnellere Variante dieses Algorithmus für mittlere und große Datensätze (n_samples >= 10_000) und unterstützt monotone Einschränkungen.

Lesen Sie mehr im Benutzerhandbuch.

Parameter:
loss{‘squared_error’, ‘absolute_error’, ‘huber’, ‘quantile’}, default=’squared_error’

Verlustfunktion, die optimiert werden soll. ‘squared_error’ bezieht sich auf den quadrierten Fehler für die Regression. ‘absolute_error’ bezieht sich auf den absoluten Fehler der Regression und ist eine robuste Verlustfunktion. ‘huber’ ist eine Kombination aus beiden. ‘quantile’ ermöglicht Quantilregression (verwenden Sie alpha, um das Quantil anzugeben). Siehe Prognoseintervalle für Gradient Boosting Regression für ein Beispiel, das die Quantilregression zur Erstellung von Prognoseintervallen mit loss='quantile' demonstriert.

learning_ratefloat, Standard=0.1

Die Lernrate verkleinert den Beitrag jedes Baumes um learning_rate. Es gibt einen Kompromiss zwischen learning_rate und n_estimators. Werte müssen im Bereich [0.0, inf) liegen.

n_estimatorsint, Standard=100

Die Anzahl der durchzuführenden Boosting-Stufen. Gradient Boosting ist ziemlich robust gegenüber Überanpassung, daher führt eine große Anzahl normalerweise zu einer besseren Leistung. Werte müssen im Bereich [1, inf) liegen.

subsamplefloat, default=1.0

Der Anteil der Stichproben, die für das Training der einzelnen Basislerner verwendet werden. Wenn er kleiner als 1.0 ist, führt dies zu Stochastic Gradient Boosting. subsample interagiert mit dem Parameter n_estimators. Die Wahl von subsample < 1.0 führt zu einer Reduzierung der Varianz und einer Erhöhung des Bias. Werte müssen im Bereich (0.0, 1.0] liegen.

criterion{‘friedman_mse’, ‘squared_error’}, default=’friedman_mse’

Die Funktion zur Messung der Qualität eines Splits. Unterstützte Kriterien sind „friedman_mse“ für den mittleren quadratischen Fehler mit Verbesserungs-Score nach Friedman, „squared_error“ für den mittleren quadratischen Fehler. Der Standardwert „friedman_mse“ ist im Allgemeinen der beste, da er in einigen Fällen eine bessere Annäherung liefern kann.

Hinzugefügt in Version 0.18.

min_samples_splitint oder float, Standard=2

Die minimale Anzahl von Samples, die zur Aufteilung eines internen Knotens erforderlich sind.

  • Wenn int, müssen Werte im Bereich [2, inf) liegen.

  • Wenn float, müssen Werte im Bereich (0.0, 1.0] liegen und min_samples_split wird ceil(min_samples_split * n_samples) sein.

Geändert in Version 0.18: Float-Werte für Brüche hinzugefügt.

min_samples_leafint oder float, Standard=1

Die minimale Anzahl von Samples, die an einem Blattknoten erforderlich sind. Ein Splitpunkt in beliebiger Tiefe wird nur berücksichtigt, wenn er mindestens min_samples_leaf Trainingssamples in jedem der linken und rechten Zweige hinterlässt. Dies kann insbesondere bei der Regression zur Glättung des Modells beitragen.

  • Wenn int, müssen Werte im Bereich [1, inf) liegen.

  • Wenn float, müssen Werte im Bereich (0.0, 1.0) liegen und min_samples_leaf wird ceil(min_samples_leaf * n_samples) sein.

Geändert in Version 0.18: Float-Werte für Brüche hinzugefügt.

min_weight_fraction_leaffloat, Standard=0.0

Der minimale gewichtete Anteil der Summe aller Gewichte (aller Eingabestichproben), der für einen Blattknoten erforderlich ist. Stichproben haben bei nicht bereitgestelltem sample_weight gleiches Gewicht. Werte müssen im Bereich [0.0, 0.5] liegen.

max_depthint oder None, default=3

Maximale Tiefe der einzelnen Regressionsschätzer. Die maximale Tiefe begrenzt die Anzahl der Knoten im Baum. Stimmen Sie diesen Parameter für die beste Leistung ab; der beste Wert hängt von der Interaktion der Eingabevariablen ab. Wenn None, werden Knoten erweitert, bis alle Blätter rein sind oder bis alle Blätter weniger als min_samples_split Stichproben enthalten. Wenn int, müssen Werte im Bereich [1, inf) liegen.

min_impurity_decreasefloat, Standard=0.0

Ein Knoten wird geteilt, wenn dieser Split eine Verringerung der Unreinheit von mindestens diesem Wert bewirkt. Werte müssen im Bereich [0.0, inf) liegen.

Die gewichtete Gleichung für die Verringerung der Unreinheit lautet:

N_t / N * (impurity - N_t_R / N_t * right_impurity
                    - N_t_L / N_t * left_impurity)

wobei N die Gesamtzahl der Samples, N_t die Anzahl der Samples im aktuellen Knoten, N_t_L die Anzahl der Samples im linken Kind und N_t_R die Anzahl der Samples im rechten Kind ist.

N, N_t, N_t_R und N_t_L beziehen sich alle auf die gewichtete Summe, wenn sample_weight übergeben wird.

Hinzugefügt in Version 0.19.

initestimator oder ‘zero’, default=None

Ein Schätzerobjekt, das zur Berechnung der anfänglichen Vorhersagen verwendet wird. init muss fit und predict bereitstellen. Wenn ‘zero’, werden die anfänglichen Rohvorhersagen auf Null gesetzt. Standardmäßig wird ein DummyEstimator verwendet, der entweder den durchschnittlichen Zielwert (für loss=’squared_error’) oder ein Quantil für die anderen Verluste vorhersagt.

random_stateint, RandomState-Instanz oder None, default=None

Steuert den Zufalls-Seed, der jedem Baum-Schätzer bei jeder Boosting-Iteration zugewiesen wird. Zusätzlich steuert er die zufällige Permutation der Merkmale bei jedem Split (siehe Hinweise für weitere Details). Er steuert auch die zufällige Aufteilung der Trainingsdaten zur Erzielung eines Validierungsdatensatzes, wenn n_iter_no_change nicht None ist. Übergeben Sie eine Ganzzahl für reproduzierbare Ausgaben über mehrere Funktionsaufrufe hinweg. Siehe Glossar.

max_features{‘sqrt’, ‘log2’}, int oder float, default=None

Die Anzahl der Features, die bei der Suche nach dem besten Split berücksichtigt werden.

  • Wenn int, müssen Werte im Bereich [1, inf) liegen.

  • Wenn float, müssen Werte im Bereich (0.0, 1.0] liegen und die bei jedem Split berücksichtigten Merkmale sind max(1, int(max_features * n_features_in_)).

  • Wenn "sqrt", dann max_features=sqrt(n_features).

  • Wenn "log2", dann max_features=log2(n_features).

  • Wenn None, dann max_features=n_features.

Die Wahl von max_features < n_features führt zu einer Reduzierung der Varianz und einer Erhöhung des Bias.

Hinweis: Die Suche nach einem Split stoppt nicht, bis mindestens eine gültige Partition der Knoten-Samples gefunden wurde, auch wenn dies die Inspektion von mehr als max_features Features erfordert.

alphafloat, default=0.9

Das Alpha-Quantil der Huber-Verlustfunktion und der Quantilverlustfunktion. Nur wenn loss='huber' oder loss='quantile'. Werte müssen im Bereich (0.0, 1.0) liegen.

verboseint, default=0

Ermöglicht die Ausgabe von Fortschrittsinformationen. Wenn 1, werden Fortschritt und Leistung gelegentlich ausgegeben (je mehr Bäume, desto geringer die Frequenz). Wenn größer als 1, werden Fortschritt und Leistung für jeden Baum ausgegeben. Werte müssen im Bereich [0, inf) liegen.

max_leaf_nodesint, Standard=None

Bäume mit max_leaf_nodes im Best-First-Verfahren wachsen lassen. Beste Knoten werden als relative Verringerung der Unreinheit definiert. Werte müssen im Bereich [2, inf) liegen. Wenn None, dann unbegrenzte Anzahl von Blattknoten.

warm_startbool, Standard=False

Wenn auf True gesetzt, wird die Lösung des vorherigen Aufrufs von fit wiederverwendet und dem Ensemble weitere Schätzer hinzugefügt, andernfalls wird die vorherige Lösung gelöscht. Siehe das Glossar.

validation_fractionfloat, default=0.1

Der Anteil der Trainingsdaten, der als Validierungsdatensatz für Early Stopping zurückgehalten wird. Werte müssen im Bereich (0.0, 1.0) liegen. Wird nur verwendet, wenn n_iter_no_change auf eine Ganzzahl gesetzt ist.

Hinzugefügt in Version 0.20.

n_iter_no_changeint, default=None

n_iter_no_change wird verwendet, um zu entscheiden, ob Early Stopping verwendet wird, um das Training zu beenden, wenn die Validierungsbewertung nicht verbessert wird. Standardmäßig ist es auf None gesetzt, um Early Stopping zu deaktivieren. Wenn es auf eine Zahl gesetzt ist, wird validation_fraction der Trainingsdaten als Validierungsdaten zurückgehalten und das Training beendet, wenn die Validierungsbewertung in keiner der vorherigen n_iter_no_change Iterationen verbessert wird. Werte müssen im Bereich [1, inf) liegen. Siehe Early Stopping in Gradient Boosting.

Hinzugefügt in Version 0.20.

tolfloat, Standard=1e-4

Toleranz für Early Stopping. Wenn der Verlust nicht um mindestens tol für n_iter_no_change Iterationen (wenn auf eine Zahl gesetzt) verbessert wird, stoppt das Training. Werte müssen im Bereich [0.0, inf) liegen.

Hinzugefügt in Version 0.20.

ccp_alphanicht-negativer float, Standard=0.0

Komplexitätsparameter für das Minimal Cost-Complexity Pruning. Der Teilbaum mit der größten Kostenkomplexität, der kleiner als ccp_alpha ist, wird ausgewählt. Standardmäßig wird kein Pruning durchgeführt. Werte müssen im Bereich [0.0, inf) liegen. Siehe Minimal Cost-Complexity Pruning für Details. Siehe Post-Pruning von Entscheidungsbäumen mit Kosten-Komplexitäts-Pruning für ein Beispiel für solches Pruning.

Hinzugefügt in Version 0.22.

Attribute:
n_estimators_int

Die Anzahl der Schätzer, wie durch Early Stopping ausgewählt (wenn n_iter_no_change angegeben ist). Andernfalls wird sie auf n_estimators gesetzt.

n_trees_per_iteration_int

Die Anzahl der Bäume, die in jeder Iteration aufgebaut werden. Für Regressoren ist dies immer 1.

Hinzugefügt in Version 1.4.0.

feature_importances_ndarray der Form (n_features,)

Die Unreinheits-basierten Wichtigkeiten der Features.

oob_improvement_ndarray der Form (n_estimators,)

Die Verbesserung des Verlusts bei den Out-of-Bag-Stichproben im Verhältnis zur vorherigen Iteration. oob_improvement_[0] ist die Verbesserung des Verlusts der ersten Stufe gegenüber dem init-Schätzer. Nur verfügbar, wenn subsample < 1.0.

oob_scores_ndarray der Form (n_estimators,)

Die vollständige Historie der Verlustwerte bei den Out-of-Bag-Stichproben. Nur verfügbar, wenn subsample < 1.0.

Hinzugefügt in Version 1.3.

oob_score_float

Der letzte Wert des Verlusts bei den Out-of-Bag-Stichproben. Er ist derselbe wie oob_scores_[-1]. Nur verfügbar, wenn subsample < 1.0.

Hinzugefügt in Version 1.3.

train_score_ndarray der Form (n_estimators,)

Der i-te Score train_score_[i] ist der Verlust des Modells bei Iteration i auf der In-Bag-Stichprobe. Wenn subsample == 1, ist dies der Verlust auf den Trainingsdaten.

init_estimator

Der Schätzer, der die anfänglichen Vorhersagen liefert. Setzt über das init-Argument.

estimators_ndarray von DecisionTreeRegressor der Form (n_estimators, 1)

Die Sammlung der angepassten Unter-Estimators.

n_features_in_int

Anzahl der während des fits gesehenen Merkmale.

Hinzugefügt in Version 0.24.

feature_names_in_ndarray mit Form (n_features_in_,)

Namen der während fit gesehenen Merkmale. Nur definiert, wenn X Merkmalnamen hat, die alle Zeichenketten sind.

Hinzugefügt in Version 1.0.

max_features_int

Der abgeleitete Wert von max_features.

Siehe auch

HistGradientBoostingRegressor

Histogramm-basierter Gradient Boosting Klassifikationsbaum.

sklearn.tree.DecisionTreeRegressor

Ein Entscheidungsbaum-Regressor.

sklearn.ensemble.RandomForestRegressor

Ein Random-Forest-Regressor.

Anmerkungen

Die Merkmale werden bei jedem Split immer zufällig permutiert. Daher kann der gefundene beste Split variieren, selbst bei denselben Trainingsdaten und max_features=n_features, wenn die Verbesserung des Kriteriums für mehrere während der Suche nach dem besten Split aufgezählten Splits identisch ist. Um ein deterministisches Verhalten während des Trainings zu erzielen, muss random_state fixiert werden.

Referenzen

J. Friedman, Greedy Function Approximation: A Gradient Boosting Machine, The Annals of Statistics, Vol. 29, No. 5, 2001.

  1. Friedman, Stochastic Gradient Boosting, 1999

T. Hastie, R. Tibshirani und J. Friedman. Elements of Statistical Learning Ed. 2, Springer, 2009.

Beispiele

>>> from sklearn.datasets import make_regression
>>> from sklearn.ensemble import GradientBoostingRegressor
>>> from sklearn.model_selection import train_test_split
>>> X, y = make_regression(random_state=0)
>>> X_train, X_test, y_train, y_test = train_test_split(
...     X, y, random_state=0)
>>> reg = GradientBoostingRegressor(random_state=0)
>>> reg.fit(X_train, y_train)
GradientBoostingRegressor(random_state=0)
>>> reg.predict(X_test[1:2])
array([-61.1])
>>> reg.score(X_test, y_test)
0.4...

Ein detailliertes Beispiel für die Verwendung von GradientBoostingRegressor zum Trainieren eines Ensembles von schwachen prädiktiven Modellen finden Sie unter Gradient Boosting Regression.

apply(X)[source]#

Wendet die Bäume im Ensemble auf X an, gibt die Blattindizes zurück.

Hinzugefügt in Version 0.17.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird ihr dtype zu dtype=np.float32 konvertiert. Wenn eine dünnbesetzte Matrix bereitgestellt wird, wird sie in eine dünnbesetzte csr_matrix konvertiert.

Gibt zurück:
X_leavesarray-like der Form (n_samples, n_estimators)

Gibt für jeden Datenpunkt x in X und für jeden Baum im Ensemble den Index des Blattes zurück, in dem x für jeden Schätzer endet.

fit(X, y, sample_weight=None, monitor=None)[source]#

Anpassen des Gradient Boosting-Modells.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

yarray-like von Form (n_samples,)

Zielwerte (Zeichenketten oder Ganzzahlen bei Klassifizierung, reelle Zahlen bei Regression) Bei Klassifizierung müssen die Labels den Klassen entsprechen.

sample_weightarray-like der Form (n_samples,), Standardwert=None

Sample-Gewichte. Wenn None, dann werden die Samples gleich gewichtet. Splits, die Kindknoten mit Nettogewicht Null oder negativ erzeugen würden, werden bei der Suche nach einem Split in jedem Knoten ignoriert. Im Falle einer Klassifizierung werden Splits auch ignoriert, wenn sie dazu führen würden, dass eine einzelne Klasse in einem Kindknoten ein negatives Gewicht trägt.

monitorcallable, default=None

Der Monitor wird nach jeder Iteration mit der aktuellen Iteration, einer Referenz auf den Schätzer und den lokalen Variablen von _fit_stages als Schlüsselwortargumente callable(i, self, locals()) aufgerufen. Wenn das Callable True zurückgibt, wird der Trainingsvorgang gestoppt. Der Monitor kann für verschiedene Zwecke verwendet werden, z. B. zur Berechnung von ausgelagerten Schätzungen, zur Frühzeitigen Beendigung, zur Modellinspektion und zur Snapshot-Erstellung.

Gibt zurück:
selfobject

Angepasster Schätzer.

get_metadata_routing()[source]#

Holt das Metadaten-Routing dieses Objekts.

Bitte prüfen Sie im Benutzerhandbuch, wie der Routing-Mechanismus funktioniert.

Gibt zurück:
routingMetadataRequest

Ein MetadataRequest, der Routing-Informationen kapselt.

get_params(deep=True)[source]#

Holt Parameter für diesen Schätzer.

Parameter:
deepbool, default=True

Wenn True, werden die Parameter für diesen Schätzer und die enthaltenen Unterobjekte, die Schätzer sind, zurückgegeben.

Gibt zurück:
paramsdict

Parameternamen, zugeordnet ihren Werten.

predict(X)[source]#

Prognostiziert das Regressionsziel für X.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

Gibt zurück:
yndarray der Form (n_samples,)

Die vorhergesagten Werte.

score(X, y, sample_weight=None)[source]#

Gibt den Bestimmtheitskoeffizienten auf Testdaten zurück.

Der Bestimmungskoeffizient, \(R^2\), ist definiert als \((1 - \frac{u}{v})\), wobei \(u\) die Residuenquadratsumme ist ((y_true - y_pred)** 2).sum() und \(v\) die Gesamtsumme der Quadrate ist ((y_true - y_true.mean()) ** 2).sum(). Die bestmögliche Bewertung ist 1.0 und sie kann negativ sein (da das Modell beliebig schlechter sein kann). Ein konstantes Modell, das immer den Erwartungswert von y vorhersagt, ohne die Eingabemerkmale zu berücksichtigen, würde eine \(R^2\)-Bewertung von 0.0 erzielen.

Parameter:
Xarray-like der Form (n_samples, n_features)

Teststichproben. Für einige Schätzer kann dies eine vorab berechnete Kernelmatrix oder eine Liste von generischen Objekten sein, stattdessen mit der Form (n_samples, n_samples_fitted), wobei n_samples_fitted die Anzahl der für die Anpassung des Schätzers verwendeten Stichproben ist.

yarray-like der Form (n_samples,) oder (n_samples, n_outputs)

Wahre Werte für X.

sample_weightarray-like der Form (n_samples,), Standardwert=None

Stichprobengewichte.

Gibt zurück:
scorefloat

\(R^2\) von self.predict(X) bezogen auf y.

Anmerkungen

Die \(R^2\)-Bewertung, die bei der Verwendung von score auf einem Regressor verwendet wird, nutzt multioutput='uniform_average' ab Version 0.23, um konsistent mit dem Standardwert von r2_score zu sein. Dies beeinflusst die score-Methode aller Multioutput-Regressoren (mit Ausnahme von MultiOutputRegressor).

set_fit_request(*, monitor: bool | None | str = '$UNCHANGED$', sample_weight: bool | None | str = '$UNCHANGED$') GradientBoostingRegressor[source]#

Konfiguriert, ob Metadaten für die fit-Methode angefordert werden sollen.

Beachten Sie, dass diese Methode nur relevant ist, wenn dieser Schätzer als Unter-Schätzer innerhalb eines Meta-Schätzers verwendet wird und Metadaten-Routing mit enable_metadata_routing=True aktiviert ist (siehe sklearn.set_config). Bitte lesen Sie das Benutzerhandbuch, um zu erfahren, wie der Routing-Mechanismus funktioniert.

Die Optionen für jeden Parameter sind

  • True: Metadaten werden angefordert und, falls vorhanden, an fit übergeben. Die Anforderung wird ignoriert, wenn keine Metadaten vorhanden sind.

  • False: Metadaten werden nicht angefordert und der Meta-Schätzer übergibt sie nicht an fit.

  • None: Metadaten werden nicht angefordert und der Meta-Schätzer löst einen Fehler aus, wenn der Benutzer sie bereitstellt.

  • str: Metadaten sollten mit diesem Alias an den Meta-Schätzer übergeben werden und nicht mit dem ursprünglichen Namen.

Der Standardwert (sklearn.utils.metadata_routing.UNCHANGED) behält die bestehende Anforderung bei. Dies ermöglicht es Ihnen, die Anforderung für einige Parameter zu ändern und für andere nicht.

Hinzugefügt in Version 1.3.

Parameter:
monitorstr, True, False, oder None, default=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter monitor in fit.

sample_weightstr, True, False, oder None, Standardwert=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter sample_weight in fit.

Gibt zurück:
selfobject

Das aktualisierte Objekt.

set_params(**params)[source]#

Setzt die Parameter dieses Schätzers.

Die Methode funktioniert sowohl bei einfachen Schätzern als auch bei verschachtelten Objekten (wie Pipeline). Letztere haben Parameter der Form <component>__<parameter>, so dass es möglich ist, jede Komponente eines verschachtelten Objekts zu aktualisieren.

Parameter:
**paramsdict

Schätzer-Parameter.

Gibt zurück:
selfestimator instance

Schätzer-Instanz.

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') GradientBoostingRegressor[source]#

Konfiguriert, ob Metadaten für die score-Methode angefordert werden sollen.

Beachten Sie, dass diese Methode nur relevant ist, wenn dieser Schätzer als Unter-Schätzer innerhalb eines Meta-Schätzers verwendet wird und Metadaten-Routing mit enable_metadata_routing=True aktiviert ist (siehe sklearn.set_config). Bitte lesen Sie das Benutzerhandbuch, um zu erfahren, wie der Routing-Mechanismus funktioniert.

Die Optionen für jeden Parameter sind

  • True: Metadaten werden angefordert und, falls vorhanden, an score übergeben. Die Anforderung wird ignoriert, wenn keine Metadaten vorhanden sind.

  • False: Metadaten werden nicht angefordert und der Meta-Schätzer übergibt sie nicht an score.

  • None: Metadaten werden nicht angefordert und der Meta-Schätzer löst einen Fehler aus, wenn der Benutzer sie bereitstellt.

  • str: Metadaten sollten mit diesem Alias an den Meta-Schätzer übergeben werden und nicht mit dem ursprünglichen Namen.

Der Standardwert (sklearn.utils.metadata_routing.UNCHANGED) behält die bestehende Anforderung bei. Dies ermöglicht es Ihnen, die Anforderung für einige Parameter zu ändern und für andere nicht.

Hinzugefügt in Version 1.3.

Parameter:
sample_weightstr, True, False, oder None, Standardwert=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter sample_weight in score.

Gibt zurück:
selfobject

Das aktualisierte Objekt.

staged_predict(X)[source]#

Prognostiziert das Regressionsziel in jeder Stufe für X.

Diese Methode ermöglicht die Überwachung (d.h. Bestimmung von Fehlern auf dem Testdatensatz) nach jeder Stufe.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

Gibt:
yGenerator von ndarray der Form (n_samples,)

Der prognostizierte Wert der Eingabestichproben.