GradientBoostingClassifier#

class sklearn.ensemble.GradientBoostingClassifier(*, loss='log_loss', learning_rate=0.1, n_estimators=100, subsample=1.0, criterion='friedman_mse', min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_depth=3, min_impurity_decrease=0.0, init=None, random_state=None, max_features=None, verbose=0, max_leaf_nodes=None, warm_start=False, validation_fraction=0.1, n_iter_no_change=None, tol=0.0001, ccp_alpha=0.0)[source]#

Gradient Boosting für Klassifikation.

Dieser Algorithmus baut ein additives Modell in einer vorwärts schrittweisen Weise auf; er ermöglicht die Optimierung beliebiger differenzierbarer Verlustfunktionen. In jedem Schritt werden n_classes_ Regressionsbäume auf den negativen Gradienten der Verlustfunktion, z. B. binären oder multiklassen Log-Loss, trainiert. Binäre Klassifikation ist ein Sonderfall, bei dem nur ein einziger Regressionsbaum induziert wird.

HistGradientBoostingClassifier ist eine wesentlich schnellere Variante dieses Algorithmus für mittelgroße und große Datensätze (n_samples >= 10_000) und unterstützt monotone Einschränkungen.

Lesen Sie mehr im Benutzerhandbuch.

Parameter:
loss{‘log_loss’, ‘exponential’}, Standard=’log_loss’

Die zu optimierende Verlustfunktion. ‘log_loss’ bezieht sich auf die binomale und multinomale Abweichung, die gleiche wie bei der logistischen Regression. Sie ist eine gute Wahl für die Klassifikation mit Wahrscheinlichkeitsausgaben. Bei Verlust ‘exponential’ stellt Gradient Boosting den AdaBoost-Algorithmus wieder her.

learning_ratefloat, Standard=0.1

Die Lernrate verringert den Beitrag jedes Baumes um learning_rate. Es gibt einen Kompromiss zwischen learning_rate und n_estimators. Werte müssen im Bereich [0.0, inf) liegen.

Für ein Beispiel der Auswirkungen dieses Parameters und seiner Interaktion mit subsample siehe Gradient Boosting Regularisierung.

n_estimatorsint, Standard=100

Die Anzahl der durchzuführenden Boosting-Schritte. Gradient Boosting ist ziemlich robust gegenüber Überanpassung, daher führt eine große Anzahl normalerweise zu besseren Ergebnissen. Werte müssen im Bereich [1, inf) liegen.

subsamplefloat, Standard=1.0

Der Bruchteil der Stichproben, die für das Training der einzelnen Basislerner verwendet werden. Wenn kleiner als 1,0, führt dies zu Stochastischem Gradient Boosting. subsample interagiert mit dem Parameter n_estimators. Die Wahl von subsample < 1.0 führt zu einer Reduzierung der Varianz und einer Erhöhung des Bias. Werte müssen im Bereich (0.0, 1.0] liegen.

criterion{‘friedman_mse’, ‘squared_error’}, Standard=’friedman_mse’

Die Funktion zur Messung der Qualität einer Teilung. Unterstützte Kriterien sind ‘friedman_mse’ für den mittleren quadratischen Fehler mit Verbesserungs-Score nach Friedman, ‘squared_error’ für den mittleren quadratischen Fehler. Der Standardwert von ‘friedman_mse’ ist im Allgemeinen der beste, da er in einigen Fällen eine bessere Annäherung liefern kann.

Hinzugefügt in Version 0.18.

min_samples_splitint oder float, Standard=2

Die minimale Anzahl von Samples, die zur Aufteilung eines internen Knotens erforderlich sind.

  • Wenn int, müssen Werte im Bereich [2, inf) liegen.

  • Wenn float, müssen Werte im Bereich (0.0, 1.0] liegen und min_samples_split wird ceil(min_samples_split * n_samples) sein.

Geändert in Version 0.18: Float-Werte für Brüche hinzugefügt.

min_samples_leafint oder float, Standard=1

Die minimale Anzahl von Samples, die an einem Blattknoten erforderlich sind. Ein Splitpunkt in beliebiger Tiefe wird nur berücksichtigt, wenn er mindestens min_samples_leaf Trainingssamples in jedem der linken und rechten Zweige hinterlässt. Dies kann insbesondere bei der Regression zur Glättung des Modells beitragen.

  • Wenn int, müssen Werte im Bereich [1, inf) liegen.

  • Wenn float, müssen Werte im Bereich (0.0, 1.0) liegen und min_samples_leaf wird ceil(min_samples_leaf * n_samples) sein.

Geändert in Version 0.18: Float-Werte für Brüche hinzugefügt.

min_weight_fraction_leaffloat, Standard=0.0

Der minimale gewichtete Anteil der Summe der Gewichte (aller Eingabestichproben), der für einen Blattknoten erforderlich ist. Stichproben haben gleiche Gewichte, wenn sample_weight nicht angegeben ist. Werte müssen im Bereich [0.0, 0.5] liegen.

max_depthint oder None, Standard=3

Maximale Tiefe der einzelnen Regressionsschätzer. Die maximale Tiefe begrenzt die Anzahl der Knoten im Baum. Stimmen Sie diesen Parameter für die beste Leistung ab; der beste Wert hängt von der Interaktion der Eingabevariablen ab. Wenn None, werden Knoten erweitert, bis alle Blätter rein sind oder bis alle Blätter weniger als min_samples_split Stichproben enthalten. Wenn int, müssen Werte im Bereich [1, inf) liegen.

min_impurity_decreasefloat, Standard=0.0

Ein Knoten wird geteilt, wenn diese Teilung eine Verringerung der Verunreinigung größer oder gleich diesem Wert bewirkt. Werte müssen im Bereich [0.0, inf) liegen.

Die gewichtete Gleichung für die Verringerung der Unreinheit lautet:

N_t / N * (impurity - N_t_R / N_t * right_impurity
                    - N_t_L / N_t * left_impurity)

wobei N die Gesamtzahl der Samples, N_t die Anzahl der Samples im aktuellen Knoten, N_t_L die Anzahl der Samples im linken Kind und N_t_R die Anzahl der Samples im rechten Kind ist.

N, N_t, N_t_R und N_t_L beziehen sich alle auf die gewichtete Summe, wenn sample_weight übergeben wird.

Hinzugefügt in Version 0.19.

initestimator oder ‘zero’, Standard=None

Ein Schätzerobjekt, das zur Berechnung der anfänglichen Vorhersagen verwendet wird. init muss fit und predict_proba bereitstellen. Wenn ‘zero’, werden die anfänglichen Rohvorhersagen auf Null gesetzt. Standardmäßig wird ein DummyEstimator verwendet, der die Klassenwahrscheinlichkeiten vorhersagt.

random_stateint, RandomState-Instanz oder None, default=None

Steuert den Zufalls-Seed, der jedem Baumschätzer bei jeder Boosting-Iteration übergeben wird. Zusätzlich steuert er die zufällige Permutation der Merkmale bei jeder Teilung (siehe Hinweise für weitere Details). Er steuert auch die zufällige Teilung der Trainingsdaten, um einen Validierungssatz zu erhalten, wenn n_iter_no_change nicht None ist. Geben Sie eine Ganzzahl für reproduzierbare Ergebnisse über mehrere Funktionsaufrufe hinweg an. Siehe Glossar.

max_features{‘sqrt’, ‘log2’}, int oder float, Standard=None

Die Anzahl der Features, die bei der Suche nach dem besten Split berücksichtigt werden.

  • Wenn int, müssen Werte im Bereich [1, inf) liegen.

  • Wenn float, müssen Werte im Bereich (0.0, 1.0] liegen und die bei jeder Teilung berücksichtigten Merkmale sind max(1, int(max_features * n_features_in_)).

  • Wenn ‘sqrt’, dann max_features=sqrt(n_features).

  • Wenn ‘log2’, dann max_features=log2(n_features).

  • Wenn None, dann max_features=n_features.

Die Wahl von max_features < n_features führt zu einer Reduzierung der Varianz und einer Erhöhung des Bias.

Hinweis: Die Suche nach einem Split stoppt nicht, bis mindestens eine gültige Partition der Knoten-Samples gefunden wurde, auch wenn dies die Inspektion von mehr als max_features Features erfordert.

verboseint, default=0

Aktiviert ausführliche Ausgabe. Wenn 1, dann wird der Fortschritt und die Leistung von Zeit zu Zeit ausgegeben (je mehr Bäume, desto geringer die Frequenz). Wenn größer als 1, dann wird der Fortschritt und die Leistung für jeden Baum ausgegeben. Werte müssen im Bereich [0, inf) liegen.

max_leaf_nodesint, Standard=None

Wächst Bäume mit max_leaf_nodes im Best-First-Verfahren. Beste Knoten werden als relative Verringerung der Verunreinigung definiert. Werte müssen im Bereich [2, inf) liegen. Wenn None, dann unbegrenzte Anzahl von Blattknoten.

warm_startbool, Standard=False

Wenn auf True gesetzt, wird die Lösung des vorherigen Aufrufs von fit wiederverwendet und dem Ensemble weitere Schätzer hinzugefügt, andernfalls wird die vorherige Lösung einfach gelöscht. Siehe das Glossar.

validation_fractionfloat, default=0.1

Der Anteil der Trainingsdaten, der als Validierungsdatensatz für frühzeitiges Stoppen beiseite gelegt wird. Werte müssen im Bereich (0.0, 1.0) liegen. Wird nur verwendet, wenn n_iter_no_change auf eine Ganzzahl gesetzt ist.

Hinzugefügt in Version 0.20.

n_iter_no_changeint, Standard=None

n_iter_no_change wird verwendet, um zu entscheiden, ob frühzeitiges Stoppen verwendet wird, um das Training zu beenden, wenn sich der Validierungs-Score nicht verbessert. Standardmäßig ist er auf None gesetzt, um das frühzeitige Stoppen zu deaktivieren. Wenn auf eine Zahl gesetzt, werden validation_fraction des Trainingsdatensatzes als Validierung zurückgehalten und das Training beendet, wenn sich der Validierungs-Score in keiner der vorherigen n_iter_no_change Iterationen verbessert. Die Teilung ist stratifiziert. Werte müssen im Bereich [1, inf) liegen. Siehe Frühzeitiges Stoppen in Gradient Boosting.

Hinzugefügt in Version 0.20.

tolfloat, Standard=1e-4

Toleranz für das frühzeitige Stoppen. Wenn der Verlust nicht um mindestens tol für n_iter_no_change Iterationen (wenn auf eine Zahl gesetzt) verbessert wird, stoppt das Training. Werte müssen im Bereich [0.0, inf) liegen.

Hinzugefügt in Version 0.20.

ccp_alphanicht-negativer float, Standard=0.0

Komplexitätsparameter für die Minimale Kosten-Komplexitäts-Pruning. Der Teilbaum mit der größten Kosten-Komplexität, der kleiner als ccp_alpha ist, wird ausgewählt. Standardmäßig wird keine Pruning durchgeführt. Werte müssen im Bereich [0.0, inf) liegen. Siehe Minimale Kosten-Komplexitäts-Pruning für Details. Siehe Post pruning decision trees with cost complexity pruning für ein Beispiel einer solchen Pruning.

Hinzugefügt in Version 0.22.

Attribute:
n_estimators_int

Die Anzahl der Schätzer, wie durch frühzeitiges Stoppen ausgewählt (wenn n_iter_no_change angegeben ist). Andernfalls wird sie auf n_estimators gesetzt.

Hinzugefügt in Version 0.20.

n_trees_per_iteration_int

Die Anzahl der Bäume, die bei jeder Iteration gebaut werden. Für binäre Klassifikatoren ist dies immer 1.

Hinzugefügt in Version 1.4.0.

feature_importances_ndarray der Form (n_features,)

Die Unreinheits-basierten Wichtigkeiten der Features.

oob_improvement_ndarray der Form (n_estimators,)

Die Verbesserung des Verlusts auf den Out-of-Bag-Stichproben im Verhältnis zur vorherigen Iteration. oob_improvement_[0] ist die Verbesserung des Verlusts der ersten Stufe gegenüber dem init-Schätzer. Nur verfügbar, wenn subsample < 1.0.

oob_scores_ndarray der Form (n_estimators,)

Die vollständige Historie der Verlustwerte auf den Out-of-Bag-Stichproben. Nur verfügbar, wenn subsample < 1.0.

Hinzugefügt in Version 1.3.

oob_score_float

Der letzte Wert des Verlusts auf den Out-of-Bag-Stichproben. Er ist derselbe wie oob_scores_[-1]. Nur verfügbar, wenn subsample < 1.0.

Hinzugefügt in Version 1.3.

train_score_ndarray der Form (n_estimators,)

Der i-te Score train_score_[i] ist der Verlust des Modells bei Iteration i auf der In-Bag-Stichprobe. Wenn subsample == 1, ist dies der Verlust auf den Trainingsdaten.

init_estimator

Der Schätzer, der die anfänglichen Vorhersagen liefert. Eingestellt über das Argument init.

estimators_ndarray von DecisionTreeRegressor der Form (n_estimators, n_trees_per_iteration_)

Die Sammlung von trainierten Unterschätzern. n_trees_per_iteration_ ist 1 für binäre Klassifikation, ansonsten n_classes.

classes_ndarray der Form (n_classes,)

Die Klassenbezeichnungen.

n_features_in_int

Anzahl der während des fits gesehenen Merkmale.

Hinzugefügt in Version 0.24.

feature_names_in_ndarray mit Form (n_features_in_,)

Namen der während fit gesehenen Merkmale. Nur definiert, wenn X Merkmalnamen hat, die alle Zeichenketten sind.

Hinzugefügt in Version 1.0.

n_classes_int

Die Anzahl der Klassen.

max_features_int

Der abgeleitete Wert von max_features.

Siehe auch

HistGradientBoostingClassifier

Histogramm-basierter Gradient Boosting Klassifikationsbaum.

sklearn.tree.DecisionTreeClassifier

Ein Entscheidungsbaum-Klassifikator.

RandomForestClassifier

Ein Meta-Schätzer, der eine Anzahl von Entscheidungsbaumklassifikatoren auf verschiedenen Teilmengen des Datensatzes trainiert und Mittelwerte verwendet, um die Vorhersagegenauigkeit zu verbessern und Überanpassung zu kontrollieren.

AdaBoostClassifier

Ein Meta-Schätzer, der mit dem Trainieren eines Klassifikators auf dem ursprünglichen Datensatz beginnt und dann zusätzliche Kopien des Klassifikators auf demselben Datensatz trainiert, bei denen die Gewichte falsch klassifizierter Instanzen so angepasst werden, dass nachfolgende Klassifikatoren mehr auf schwierige Fälle fokussieren.

Anmerkungen

Die Merkmale werden bei jeder Teilung immer zufällig permutiert. Daher kann die gefundene beste Teilung variieren, selbst bei denselben Trainingsdaten und max_features=n_features, wenn die Verbesserung des Kriteriums für mehrere Teilungen, die während der Suche nach der besten Teilung enumeriert werden, identisch ist. Um ein deterministisches Verhalten während des Trainings zu erzielen, muss random_state festgelegt werden.

Referenzen

J. Friedman, Greedy Function Approximation: A Gradient Boosting Machine, The Annals of Statistics, Vol. 29, No. 5, 2001.

  1. Friedman, Stochastic Gradient Boosting, 1999

T. Hastie, R. Tibshirani und J. Friedman. Elements of Statistical Learning Ed. 2, Springer, 2009.

Beispiele

Das folgende Beispiel zeigt, wie ein Gradient Boosting-Klassifikator mit 100 Entscheidungsstümpfen als schwachen Lernern trainiert wird.

>>> from sklearn.datasets import make_hastie_10_2
>>> from sklearn.ensemble import GradientBoostingClassifier
>>> X, y = make_hastie_10_2(random_state=0)
>>> X_train, X_test = X[:2000], X[2000:]
>>> y_train, y_test = y[:2000], y[2000:]
>>> clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0,
...     max_depth=1, random_state=0).fit(X_train, y_train)
>>> clf.score(X_test, y_test)
0.913
apply(X)[source]#

Wendet Bäume im Ensemble auf X an, gibt Blattindizes zurück.

Hinzugefügt in Version 0.17.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird der dtype zu dtype=np.float32 konvertiert. Wenn eine dünnbesetzte Matrix bereitgestellt wird, wird sie in eine dünnbesetzte csr_matrix konvertiert.

Gibt zurück:
X_leavesarray-like der Form (n_samples, n_estimators, n_classes)

Für jeden Datenpunkt x in X und für jeden Baum im Ensemble, gibt den Index des Blattes zurück, in dem x in jedem Schätzer landet. Im Falle einer binären Klassifikation ist n_classes 1.

decision_function(X)[source]#

Berechnet die Entscheidungsfunktion von X.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

Gibt zurück:
scorendarray der Form (n_samples, n_classes) oder (n_samples,)

Die Entscheidungsfunktion der Eingabestichproben, die den rohen Werten entspricht, die von den Bäumen des Ensembles vorhergesagt werden. Die Reihenfolge der Klassen entspricht der in dem Attribut classes_. Regression und binäre Klassifikation erzeugen ein Array der Form (n_samples,).

fit(X, y, sample_weight=None, monitor=None)[source]#

Anpassen des Gradient Boosting-Modells.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

yarray-like von Form (n_samples,)

Zielwerte (Strings oder Ganzzahlen bei Klassifikation, reelle Zahlen bei Regression) Für die Klassifikation müssen Labels den Klassen entsprechen.

sample_weightarray-like der Form (n_samples,), Standardwert=None

Sample-Gewichte. Wenn None, dann werden die Samples gleich gewichtet. Splits, die Kindknoten mit Nettogewicht Null oder negativ erzeugen würden, werden bei der Suche nach einem Split in jedem Knoten ignoriert. Im Falle einer Klassifizierung werden Splits auch ignoriert, wenn sie dazu führen würden, dass eine einzelne Klasse in einem Kindknoten ein negatives Gewicht trägt.

monitorcallable, Standard=None

Der Monitor wird nach jeder Iteration mit der aktuellen Iteration, einer Referenz auf den Schätzer und den lokalen Variablen von _fit_stages als Schlüsselwortargumente callable(i, self, locals()) aufgerufen. Wenn das Callable True zurückgibt, wird der Trainingsvorgang beendet. Der Monitor kann für verschiedene Zwecke verwendet werden, wie z. B. die Berechnung von zurückgehaltenen Schätzungen, frühzeitiges Stoppen, Modellinspektion und Schnappschüsse.

Gibt zurück:
selfobject

Angepasster Schätzer.

get_metadata_routing()[source]#

Holt das Metadaten-Routing dieses Objekts.

Bitte prüfen Sie im Benutzerhandbuch, wie der Routing-Mechanismus funktioniert.

Gibt zurück:
routingMetadataRequest

Ein MetadataRequest, der Routing-Informationen kapselt.

get_params(deep=True)[source]#

Holt Parameter für diesen Schätzer.

Parameter:
deepbool, default=True

Wenn True, werden die Parameter für diesen Schätzer und die enthaltenen Unterobjekte, die Schätzer sind, zurückgegeben.

Gibt zurück:
paramsdict

Parameternamen, zugeordnet ihren Werten.

predict(X)[source]#

Sagt die Klasse für X voraus.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

Gibt zurück:
yndarray der Form (n_samples,)

Die vorhergesagten Werte.

predict_log_proba(X)[source]#

Sagt die logarithmierte Klassenwahrscheinlichkeit für X voraus.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

Gibt zurück:
pndarray der Form (n_samples, n_classes)

Die Klassen-Log-Wahrscheinlichkeiten der Eingabestichproben. Die Reihenfolge der Klassen entspricht der in dem Attribut classes_.

Löst aus:
AttributeError

Wenn der loss keine Wahrscheinlichkeiten unterstützt.

predict_proba(X)[source]#

Sagt die Klassenwahrscheinlichkeiten für X voraus.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

Gibt zurück:
pndarray der Form (n_samples, n_classes)

Die Klassenwahrscheinlichkeiten der Eingabesamplings. Die Reihenfolge der Klassen entspricht der im Attribut classes_.

Löst aus:
AttributeError

Wenn der loss keine Wahrscheinlichkeiten unterstützt.

score(X, y, sample_weight=None)[source]#

Gibt die Genauigkeit für die bereitgestellten Daten und Bezeichnungen zurück.

Bei der Multi-Label-Klassifizierung ist dies die Subset-Genauigkeit, eine strenge Metrik, da für jede Stichprobe verlangt wird, dass jede Label-Menge korrekt vorhergesagt wird.

Parameter:
Xarray-like der Form (n_samples, n_features)

Teststichproben.

yarray-like der Form (n_samples,) oder (n_samples, n_outputs)

Wahre Bezeichnungen für X.

sample_weightarray-like der Form (n_samples,), Standardwert=None

Stichprobengewichte.

Gibt zurück:
scorefloat

Mittlere Genauigkeit von self.predict(X) in Bezug auf y.

set_fit_request(*, monitor: bool | None | str = '$UNCHANGED$', sample_weight: bool | None | str = '$UNCHANGED$') GradientBoostingClassifier[source]#

Konfiguriert, ob Metadaten für die fit-Methode angefordert werden sollen.

Beachten Sie, dass diese Methode nur relevant ist, wenn dieser Schätzer als Unter-Schätzer innerhalb eines Meta-Schätzers verwendet wird und Metadaten-Routing mit enable_metadata_routing=True aktiviert ist (siehe sklearn.set_config). Bitte lesen Sie das Benutzerhandbuch, um zu erfahren, wie der Routing-Mechanismus funktioniert.

Die Optionen für jeden Parameter sind

  • True: Metadaten werden angefordert und, falls vorhanden, an fit übergeben. Die Anforderung wird ignoriert, wenn keine Metadaten vorhanden sind.

  • False: Metadaten werden nicht angefordert und der Meta-Schätzer übergibt sie nicht an fit.

  • None: Metadaten werden nicht angefordert und der Meta-Schätzer löst einen Fehler aus, wenn der Benutzer sie bereitstellt.

  • str: Metadaten sollten mit diesem Alias an den Meta-Schätzer übergeben werden und nicht mit dem ursprünglichen Namen.

Der Standardwert (sklearn.utils.metadata_routing.UNCHANGED) behält die bestehende Anforderung bei. Dies ermöglicht es Ihnen, die Anforderung für einige Parameter zu ändern und für andere nicht.

Hinzugefügt in Version 1.3.

Parameter:
monitorstr, True, False, oder None, Standard=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter monitor in fit.

sample_weightstr, True, False, oder None, Standardwert=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter sample_weight in fit.

Gibt zurück:
selfobject

Das aktualisierte Objekt.

set_params(**params)[source]#

Setzt die Parameter dieses Schätzers.

Die Methode funktioniert sowohl bei einfachen Schätzern als auch bei verschachtelten Objekten (wie Pipeline). Letztere haben Parameter der Form <component>__<parameter>, so dass es möglich ist, jede Komponente eines verschachtelten Objekts zu aktualisieren.

Parameter:
**paramsdict

Schätzer-Parameter.

Gibt zurück:
selfestimator instance

Schätzer-Instanz.

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') GradientBoostingClassifier[source]#

Konfiguriert, ob Metadaten für die score-Methode angefordert werden sollen.

Beachten Sie, dass diese Methode nur relevant ist, wenn dieser Schätzer als Unter-Schätzer innerhalb eines Meta-Schätzers verwendet wird und Metadaten-Routing mit enable_metadata_routing=True aktiviert ist (siehe sklearn.set_config). Bitte lesen Sie das Benutzerhandbuch, um zu erfahren, wie der Routing-Mechanismus funktioniert.

Die Optionen für jeden Parameter sind

  • True: Metadaten werden angefordert und, falls vorhanden, an score übergeben. Die Anforderung wird ignoriert, wenn keine Metadaten vorhanden sind.

  • False: Metadaten werden nicht angefordert und der Meta-Schätzer übergibt sie nicht an score.

  • None: Metadaten werden nicht angefordert und der Meta-Schätzer löst einen Fehler aus, wenn der Benutzer sie bereitstellt.

  • str: Metadaten sollten mit diesem Alias an den Meta-Schätzer übergeben werden und nicht mit dem ursprünglichen Namen.

Der Standardwert (sklearn.utils.metadata_routing.UNCHANGED) behält die bestehende Anforderung bei. Dies ermöglicht es Ihnen, die Anforderung für einige Parameter zu ändern und für andere nicht.

Hinzugefügt in Version 1.3.

Parameter:
sample_weightstr, True, False, oder None, Standardwert=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter sample_weight in score.

Gibt zurück:
selfobject

Das aktualisierte Objekt.

staged_decision_function(X)[source]#

Berechnet die Entscheidungsfunktion von X für jede Iteration.

Diese Methode ermöglicht die Überwachung (d.h. Bestimmung von Fehlern auf dem Testdatensatz) nach jeder Stufe.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

Gibt:
scoreGenerator von ndarray der Form (n_samples, k)

Die Entscheidungsfunktion der Eingabestichproben, die den rohen Werten entspricht, die von den Bäumen des Ensembles vorhergesagt werden. Die Klassen entsprechen denen im Attribut classes_. Regression und binäre Klassifikation sind Sonderfälle mit k == 1, ansonsten k==n_classes.

staged_predict(X)[source]#

Vorhersagt Klasse in jeder Stufe für X.

Diese Methode ermöglicht die Überwachung (d.h. Bestimmung von Fehlern auf dem Testdatensatz) nach jeder Stufe.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

Gibt:
yGenerator von ndarray der Form (n_samples,)

Der vorhergesagte Wert der Eingabestichproben.

staged_predict_proba(X)[source]#

Vorhersagt Klassenwahrscheinlichkeiten in jeder Stufe für X.

Diese Methode ermöglicht die Überwachung (d.h. Bestimmung von Fehlern auf dem Testdatensatz) nach jeder Stufe.

Parameter:
X{array-like, sparse matrix} der Form (n_samples, n_features)

Die Eingabestichproben. Intern wird sie in dtype=np.float32 konvertiert und, wenn eine Sparse-Matrix bereitgestellt wird, in eine Sparse- csr_matrix.

Gibt:
yGenerator von ndarray der Form (n_samples,)

Der vorhergesagte Wert der Eingabestichproben.