HistGradientBoostingClassifier#

class sklearn.ensemble.HistGradientBoostingClassifier(loss='log_loss', *, learning_rate=0.1, max_iter=100, max_leaf_nodes=31, max_depth=None, min_samples_leaf=20, l2_regularization=0.0, max_features=1.0, max_bins=255, categorical_features='from_dtype', monotonic_cst=None, interaction_cst=None, warm_start=False, early_stopping='auto', scoring='loss', validation_fraction=0.1, n_iter_no_change=10, tol=1e-07, verbose=0, random_state=None, class_weight=None)[Quelle]#

Histogramm-basierter Gradient Boosting Klassifikationsbaum.

Dieser Estimator ist für große Datensätze (n_samples >= 10.000) deutlich schneller als GradientBoostingClassifier.

Dieser Estimator unterstützt nativ fehlende Werte (NaNs). Während des Trainings lernt der Baumgenerator an jedem Splitpunkt, ob Samples mit fehlenden Werten basierend auf dem potenziellen Gewinn zum linken oder rechten Kind gehen sollen. Bei der Vorhersage werden Samples mit fehlenden Werten folgerichtig dem linken oder rechten Kind zugeordnet. Wenn während des Trainings keine fehlenden Werte für ein bestimmtes Merkmal angetroffen wurden, werden Samples mit fehlenden Werten dem Kind mit den meisten Samples zugeordnet.

Diese Implementierung ist inspiriert von LightGBM.

Lesen Sie mehr im Benutzerhandbuch.

Hinzugefügt in Version 0.21.

Parameter:
loss{‘log_loss’}, Standard=‘log_loss’

Die zu verwendende Verlustfunktion im Boosting-Prozess.

Für binäre Klassifikationsprobleme ist ‘log_loss’ auch bekannt als logistischer Verlust, binomiale Abweichung oder binäre Kreuzentropie. Intern passt das Modell einen Baum pro Boosting-Iteration an und verwendet die logistische Sigmoidfunktion (expit) als inverse Linkfunktion, um die vorhergesagte Wahrscheinlichkeit der positiven Klasse zu berechnen.

Für Multiklassen-Klassifikationsprobleme ist ‘log_loss’ auch bekannt als multinomiale Abweichung oder kategorische Kreuzentropie. Intern passt das Modell einen Baum pro Boosting-Iteration und pro Klasse an und verwendet die Softmaxfunktion als inverse Linkfunktion, um die vorhergesagten Wahrscheinlichkeiten der Klassen zu berechnen.

learning_ratefloat, Standard=0.1

Die Lernrate, auch bekannt als Shrinkage. Dies wird als Multiplikator für die Werte der Blätter verwendet. Verwenden Sie 1 für kein Shrinkage.

max_iterint, default=100

Die maximale Anzahl von Iterationen des Boosting-Prozesses, d.h. die maximale Anzahl von Bäumen für die binäre Klassifikation. Für die Multiklassen-Klassifikation werden pro Iteration n_classes Bäume aufgebaut.

max_leaf_nodesint oder None, Standard=31

Die maximale Anzahl von Blättern pro Baum. Muss größer als 1 sein. Wenn None, gibt es keine maximale Begrenzung.

max_depthint oder None, Standard=None

Die maximale Tiefe jedes Baumes. Die Tiefe eines Baumes ist die Anzahl der Kanten vom Wurzelknoten zum tiefsten Blatt. Die Tiefe ist standardmäßig nicht begrenzt.

min_samples_leafint, Standard=20

Die minimale Anzahl von Samples pro Blatt. Für kleine Datensätze mit weniger als einigen hundert Samples wird empfohlen, diesen Wert zu senken, da nur sehr flache Bäume erstellt würden.

l2_regularizationfloat, Standard=0

Der L2-Regularisierungsparameter, der Blätter mit kleinen Hessians bestraft. Verwenden Sie 0 für keine Regularisierung (Standard).

max_featuresfloat, Standard=1.0

Anteil zufällig ausgewählter Merkmale bei jeder und jeder Knotenaufteilung. Dies ist eine Form der Regularisierung, kleinere Werte machen die Bäume zu schwächeren Lernenden und können Überanpassung verhindern. Wenn Interaktionsbeschränkungen aus interaction_cst vorhanden sind, werden nur zulässige Merkmale für die Teilstichprobenziehung berücksichtigt.

Hinzugefügt in Version 1.4.

max_binsint, Standard=255

Die maximale Anzahl von Bins für nicht fehlende Werte. Vor dem Training wird jedes Merkmal des Eingabearrays X in ganzzahlige Bins eingeteilt, was eine deutlich schnellere Trainingsphase ermöglicht. Merkmale mit einer kleinen Anzahl eindeutiger Werte verwenden möglicherweise weniger als max_bins Bins. Zusätzlich zu den max_bins Bins wird immer ein weiterer Bin für fehlende Werte reserviert. Darf nicht größer als 255 sein.

categorical_featuresarray-like von {bool, int, str} der Form (n_features) oder (n_categorical_features,), Standard=‘from_dtype’

Zeigt die kategorialen Merkmale an.

  • None : kein Merkmal wird als kategorial betrachtet.

  • boolesches Array-ähnliches Objekt : boolesche Maske, die kategoriale Merkmale angibt.

  • Integer-Array-ähnliches Objekt : Integer-Indizes, die kategoriale Merkmale angeben.

  • str Array-ähnliches Objekt: Namen von kategorialen Merkmalen (vorausgesetzt, die Trainingsdaten haben Merkmalsnamen).

  • "from_dtype": DataFrame-Spalten mit dtype „category“ werden als kategoriale Merkmale betrachtet. Die Eingabe muss ein Objekt sein, das eine __dataframe__ Methode exponiert, wie z. B. Pandas- oder Polars-DataFrames, um diese Funktion zu nutzen.

Für jedes kategoriale Merkmal darf es höchstens max_bins eindeutige Kategorien geben. Negative Werte für kategoriale Merkmale, die als numerische dtypes kodiert sind, werden als fehlende Werte behandelt. Alle kategorialen Werte werden in Gleitkommazahlen konvertiert. Das bedeutet, dass kategoriale Werte von 1.0 und 1 als dieselbe Kategorie behandelt werden.

Lesen Sie mehr im Benutzerhandbuch.

Hinzugefügt in Version 0.24.

Geändert in Version 1.2: Unterstützung für Merkmalsnamen hinzugefügt.

Geändert in Version 1.4: Option "from_dtype" hinzugefügt.

Geändert in Version 1.6: Der Standardwert änderte sich von None zu "from_dtype".

monotonic_cstarray-like von int der Form (n_features) oder dict, Standard=None

Monotonie-Beschränkungen für jedes Merkmal werden mit den folgenden Integer-Werten angegeben

  • 1: monoton steigend

  • 0: keine Beschränkung

  • -1: monoton fallend

Wenn ein Dict mit str-Schlüsseln, werden Merkmale nach Namen auf Monotonie-Beschränkungen abgebildet. Wenn ein Array, werden die Merkmale positionsweise auf Beschränkungen abgebildet. Ein Anwendungsbeispiel finden Sie unter Verwendung von Merkmalnamen zur Angabe von Monotonie-Beschränkungen.

Die Beschränkungen sind nur für binäre Klassifikationen gültig und gelten für die Wahrscheinlichkeit der positiven Klasse. Lesen Sie mehr im Benutzerhandbuch.

Hinzugefügt in Version 0.23.

Geändert in Version 1.2: Akzeptiert Dict von Beschränkungen mit Merkmalnamen als Schlüssel.

interaction_cst{“pairwise”, “no_interactions”} oder Sequenz von Listen/Tupeln/Sets von int, Standard=None

Gibt Interaktionsbeschränkungen an, d. h. die Mengen von Merkmalen, die in Kindknoten-Splits miteinander interagieren dürfen.

Jedes Element gibt die Menge der Merkmalsindizes an, die miteinander interagieren dürfen. Wenn mehr Merkmale vorhanden sind als in diesen Beschränkungen angegeben, werden sie so behandelt, als wären sie als zusätzliche Menge angegeben worden.

Die Zeichenfolgen „pairwise“ und „no_interactions“ sind Abkürzungen für die Zulassung von nur paarweisen oder gar keinen Interaktionen.

Zum Beispiel ist bei insgesamt 5 Merkmalen interaction_cst=[{0, 1}] äquivalent zu interaction_cst=[{0, 1}, {2, 3, 4}] und gibt an, dass jeder Zweig eines Baumes entweder nur auf den Merkmalen 0 und 1 oder nur auf den Merkmalen 2, 3 und 4 aufteilt.

Sehen Sie sich dieses Beispiel an, wie interaction_cst verwendet wird.

Hinzugefügt in Version 1.2.

warm_startbool, Standard=False

Wenn auf True gesetzt, wird die Lösung des vorherigen Aufrufs von fit wiederverwendet und weitere Estimators zum Ensemble hinzugefügt. Für gültige Ergebnisse sollte der Estimator nur auf denselben Daten neu trainiert werden. Siehe Glossar.

early_stopping‘auto’ oder bool, Standard=‘auto’

Wenn ‚auto‘, wird Early Stopping aktiviert, wenn die Stichprobengröße größer als 10000 ist oder wenn X_val und y_val an fit übergeben werden. Wenn True, wird Early Stopping aktiviert, andernfalls ist Early Stopping deaktiviert.

Hinzugefügt in Version 0.23.

scoringstr oder callable oder None, Standard=‘loss’

Scoring-Methode für Early Stopping. Nur verwendet, wenn early_stopping aktiviert ist. Optionen

  • str: siehe Zeichenkettennamen für Bewerter für Optionen.

  • callable: Ein Scorer-Callable-Objekt (z. B. Funktion) mit der Signatur scorer(estimator, X, y). Siehe Callable Scorer für Details.

  • None: Genauigkeit wird verwendet.

  • „loss“: Early Stopping wird im Hinblick auf den Verlustwert geprüft.

validation_fractionint oder float oder None, Standard=0.1

Anteil (oder absolute Größe) der Trainingsdaten, die für Early Stopping als Validierungsdaten zurückgestellt werden. Wenn None, erfolgt Early Stopping auf den Trainingsdaten. Der Wert wird ignoriert, wenn entweder kein Early Stopping durchgeführt wird (z. B. early_stopping=False) oder wenn X_val und y_val an fit übergeben werden.

n_iter_no_changeint, Standard=10

Wird verwendet, um zu bestimmen, wann „early stop“ erreicht ist. Der Fitting-Prozess wird gestoppt, wenn keiner der letzten n_iter_no_change Scores besser ist als der n_iter_no_change - 1-te-letzte Score, bis zu einer gewissen Toleranz. Nur verwendet, wenn Early Stopping durchgeführt wird.

tolfloat, Standard=1e-7

Die absolute Toleranz, die beim Vergleich von Scores verwendet wird. Je höher die Toleranz, desto wahrscheinlicher ist es, dass frühzeitig gestoppt wird: Eine höhere Toleranz bedeutet, dass es für nachfolgende Iterationen schwieriger ist, als Verbesserung gegenüber dem Referenzwert betrachtet zu werden.

verboseint, default=0

Die Ausführlichkeitsebene. Wenn nicht null, werden einige Informationen über den Fitting-Prozess ausgegeben. 1 gibt nur Zusammenfassungsinformationen aus, 2 gibt Informationen pro Iteration aus.

random_stateint, RandomState-Instanz oder None, default=None

Pseudozufallszahlengenerator zur Steuerung der Teilstichprobenziehung im Binning-Prozess und der Aufteilung von Trainings-/Validierungsdaten, wenn Early Stopping aktiviert ist. Übergeben Sie eine Ganzzahl für reproduzierbare Ausgaben über mehrere Funktionsaufrufe hinweg. Siehe Glossar.

class_weightdict oder ‘balanced’, Standard=None

Gewichte, die Klassen zugeordnet sind, in der Form {class_label: weight}. Wenn nicht gegeben, werden alle Klassen als Gewicht eins angenommen. Der Modus „balanced“ verwendet die Werte von y, um die Gewichte automatisch invers proportional zu den Klassenfrequenzen in den Eingabedaten einzustellen, als n_samples / (n_classes * np.bincount(y)). Beachten Sie, dass diese Gewichte mit sample_weight (über die fit-Methode übergeben) multipliziert werden, wenn sample_weight angegeben ist.

Hinzugefügt in Version 1.2.

Attribute:
classes_array, Form = (n_classes,)

Klassenbezeichnungen.

do_early_stopping_bool

Gibt an, ob während des Trainings Early Stopping verwendet wird.

n_iter_int

Anzahl der Iterationen des Boosting-Prozesses.

n_trees_per_iteration_int

Die Anzahl der Bäume, die in jeder Iteration aufgebaut werden. Dies ist 1 für binäre Klassifikation und n_classes für Multiklassen-Klassifikation.

train_score_ndarray, Form = (n_iter_+1,)

Die Scores in jeder Iteration auf den Trainingsdaten. Der erste Eintrag ist der Score des Ensembles vor der ersten Iteration. Scores werden gemäß dem Parameter scoring berechnet. Wenn scoring nicht „loss“ ist, werden Scores auf einer Stichprobe von höchstens 10.000 Samples berechnet. Leer, wenn kein Early Stopping stattfindet.

validation_score_ndarray, Form = (n_iter_+1,)

Die Scores in jeder Iteration auf den zurückgestellten Validierungsdaten. Der erste Eintrag ist der Score des Ensembles vor der ersten Iteration. Scores werden gemäß dem Parameter scoring berechnet. Leer, wenn kein Early Stopping stattfindet oder wenn validation_fraction None ist.

is_categorical_ndarray, Form = (n_features,) oder None

Boolesche Maske für die kategorialen Merkmale. None, wenn keine kategorialen Merkmale vorhanden sind.

n_features_in_int

Anzahl der während des fits gesehenen Merkmale.

Hinzugefügt in Version 0.24.

feature_names_in_ndarray mit Form (n_features_in_,)

Namen der während fit gesehenen Merkmale. Nur definiert, wenn X Merkmalnamen hat, die alle Zeichenketten sind.

Hinzugefügt in Version 1.0.

Siehe auch

GradientBoostingClassifier

Exakte Gradienten-Boosting-Methode, die bei Datensätzen mit vielen Samples nicht so gut skaliert.

sklearn.tree.DecisionTreeClassifier

Ein Entscheidungsbaum-Klassifikator.

RandomForestClassifier

Ein Meta-Estimator, der eine Anzahl von Entscheidungsbaum-Klassifikatoren auf verschiedenen Teilstichproben des Datensatzes anpasst und durch Mittelung die Vorhersagegenauigkeit verbessert und Überanpassung kontrolliert.

AdaBoostClassifier

Ein Meta-Estimator, der damit beginnt, einen Klassifikator auf dem ursprünglichen Datensatz anzupassen, und dann zusätzliche Kopien des Klassifikators auf demselben Datensatz anpasst, bei denen die Gewichte falsch klassifizierter Instanzen so angepasst werden, dass sich nachfolgende Klassifikatoren stärker auf schwierige Fälle konzentrieren.

Beispiele

>>> from sklearn.ensemble import HistGradientBoostingClassifier
>>> from sklearn.datasets import load_iris
>>> X, y = load_iris(return_X_y=True)
>>> clf = HistGradientBoostingClassifier().fit(X, y)
>>> clf.score(X, y)
1.0
decision_function(X)[Quelle]#

Berechnet die Entscheidungsfunktion von X.

Parameter:
Xarray-ähnlich, Form (n_samples, n_features)

Die Eingabestichproben.

Gibt zurück:
decisionndarray, Form = (n_samples,) oder (n_samples, n_trees_per_iteration)

Die rohen vorhergesagten Werte (d. h. die Summe der Blattwerte der Bäume) für jeden Sample. n_trees_per_iteration ist gleich der Anzahl der Klassen bei der Multiklassen-Klassifikation.

fit(X, y, sample_weight=None, *, X_val=None, y_val=None, sample_weight_val=None)[Quelle]#

Anpassen des Gradient Boosting-Modells.

Parameter:
Xarray-like der Form (n_samples, n_features)

Die Eingabestichproben.

yarray-like von Form (n_samples,)

Zielwerte.

sample_weightArray-ähnlich der Form (n_samples,) Standard=None

Gewichte der Trainingsdaten.

Hinzugefügt in Version 0.23.

X_valarray-like der Form (n_val, n_features)

Zusätzliche Stichprobe von Merkmalen zur Validierung, die für Early Stopping verwendet wird. In einer Pipeline kann X_val auf dieselbe Weise wie X mit Pipeline(..., transform_input=["X_val"]) transformiert werden.

Hinzugefügt in Version 1.7.

y_valarray-like der Form (n_samples,)

Zusätzliche Stichprobe von Zielwerten zur Validierung, die für Early Stopping verwendet wird.

Hinzugefügt in Version 1.7.

sample_weight_valarray-like der Form (n_samples,) Standard=None

Zusätzliche Gewichte für die Validierung, die für Early Stopping verwendet werden.

Hinzugefügt in Version 1.7.

Gibt zurück:
selfobject

Angepasster Schätzer.

get_metadata_routing()[Quelle]#

Holt das Metadaten-Routing dieses Objekts.

Bitte prüfen Sie im Benutzerhandbuch, wie der Routing-Mechanismus funktioniert.

Gibt zurück:
routingMetadataRequest

Ein MetadataRequest, der Routing-Informationen kapselt.

get_params(deep=True)[Quelle]#

Holt Parameter für diesen Schätzer.

Parameter:
deepbool, default=True

Wenn True, werden die Parameter für diesen Schätzer und die enthaltenen Unterobjekte, die Schätzer sind, zurückgegeben.

Gibt zurück:
paramsdict

Parameternamen, zugeordnet ihren Werten.

predict(X)[Quelle]#

Vorhersage von Klassen für X.

Parameter:
Xarray-ähnlich, Form (n_samples, n_features)

Die Eingabestichproben.

Gibt zurück:
yndarray, Form = (n_samples,)

Die vorhergesagten Klassen.

predict_proba(X)[Quelle]#

Sagt die Klassenwahrscheinlichkeiten für X voraus.

Parameter:
Xarray-ähnlich, Form (n_samples, n_features)

Die Eingabestichproben.

Gibt zurück:
pndarray, Form = (n_samples, n_classes)

Die Klassenwahrscheinlichkeiten der Eingabemuster.

score(X, y, sample_weight=None)[Quelle]#

Gibt die Genauigkeit für die bereitgestellten Daten und Bezeichnungen zurück.

Bei der Multi-Label-Klassifizierung ist dies die Subset-Genauigkeit, eine strenge Metrik, da für jede Stichprobe verlangt wird, dass jede Label-Menge korrekt vorhergesagt wird.

Parameter:
Xarray-like der Form (n_samples, n_features)

Teststichproben.

yarray-like der Form (n_samples,) oder (n_samples, n_outputs)

Wahre Bezeichnungen für X.

sample_weightarray-like der Form (n_samples,), Standardwert=None

Stichprobengewichte.

Gibt zurück:
scorefloat

Mittlere Genauigkeit von self.predict(X) in Bezug auf y.

set_fit_request(*, X_val: bool | None | str = '$UNCHANGED$', sample_weight: bool | None | str = '$UNCHANGED$', sample_weight_val: bool | None | str = '$UNCHANGED$', y_val: bool | None | str = '$UNCHANGED$') HistGradientBoostingClassifier[Quelle]#

Konfiguriert, ob Metadaten für die fit-Methode angefordert werden sollen.

Beachten Sie, dass diese Methode nur relevant ist, wenn dieser Schätzer als Unter-Schätzer innerhalb eines Meta-Schätzers verwendet wird und Metadaten-Routing mit enable_metadata_routing=True aktiviert ist (siehe sklearn.set_config). Bitte lesen Sie das Benutzerhandbuch, um zu erfahren, wie der Routing-Mechanismus funktioniert.

Die Optionen für jeden Parameter sind

  • True: Metadaten werden angefordert und, falls vorhanden, an fit übergeben. Die Anforderung wird ignoriert, wenn keine Metadaten vorhanden sind.

  • False: Metadaten werden nicht angefordert und der Meta-Schätzer übergibt sie nicht an fit.

  • None: Metadaten werden nicht angefordert und der Meta-Schätzer löst einen Fehler aus, wenn der Benutzer sie bereitstellt.

  • str: Metadaten sollten mit diesem Alias an den Meta-Schätzer übergeben werden und nicht mit dem ursprünglichen Namen.

Der Standardwert (sklearn.utils.metadata_routing.UNCHANGED) behält die bestehende Anforderung bei. Dies ermöglicht es Ihnen, die Anforderung für einige Parameter zu ändern und für andere nicht.

Hinzugefügt in Version 1.3.

Parameter:
X_valstr, True, False, oder None, Standard=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter X_val in fit.

sample_weightstr, True, False, oder None, Standardwert=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter sample_weight in fit.

sample_weight_valstr, True, False, oder None, Standard=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter sample_weight_val in fit.

y_valstr, True, False, oder None, Standard=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter y_val in fit.

Gibt zurück:
selfobject

Das aktualisierte Objekt.

set_params(**params)[Quelle]#

Setzt die Parameter dieses Schätzers.

Die Methode funktioniert sowohl bei einfachen Schätzern als auch bei verschachtelten Objekten (wie Pipeline). Letztere haben Parameter der Form <component>__<parameter>, so dass es möglich ist, jede Komponente eines verschachtelten Objekts zu aktualisieren.

Parameter:
**paramsdict

Schätzer-Parameter.

Gibt zurück:
selfestimator instance

Schätzer-Instanz.

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') HistGradientBoostingClassifier[Quelle]#

Konfiguriert, ob Metadaten für die score-Methode angefordert werden sollen.

Beachten Sie, dass diese Methode nur relevant ist, wenn dieser Schätzer als Unter-Schätzer innerhalb eines Meta-Schätzers verwendet wird und Metadaten-Routing mit enable_metadata_routing=True aktiviert ist (siehe sklearn.set_config). Bitte lesen Sie das Benutzerhandbuch, um zu erfahren, wie der Routing-Mechanismus funktioniert.

Die Optionen für jeden Parameter sind

  • True: Metadaten werden angefordert und, falls vorhanden, an score übergeben. Die Anforderung wird ignoriert, wenn keine Metadaten vorhanden sind.

  • False: Metadaten werden nicht angefordert und der Meta-Schätzer übergibt sie nicht an score.

  • None: Metadaten werden nicht angefordert und der Meta-Schätzer löst einen Fehler aus, wenn der Benutzer sie bereitstellt.

  • str: Metadaten sollten mit diesem Alias an den Meta-Schätzer übergeben werden und nicht mit dem ursprünglichen Namen.

Der Standardwert (sklearn.utils.metadata_routing.UNCHANGED) behält die bestehende Anforderung bei. Dies ermöglicht es Ihnen, die Anforderung für einige Parameter zu ändern und für andere nicht.

Hinzugefügt in Version 1.3.

Parameter:
sample_weightstr, True, False, oder None, Standardwert=sklearn.utils.metadata_routing.UNCHANGED

Metadaten-Routing für den Parameter sample_weight in score.

Gibt zurück:
selfobject

Das aktualisierte Objekt.

staged_decision_function(X)[Quelle]#

Berechnet die Entscheidungsfunktion von X für jede Iteration.

Diese Methode ermöglicht die Überwachung (d.h. Bestimmung von Fehlern auf dem Testdatensatz) nach jeder Stufe.

Parameter:
Xarray-like der Form (n_samples, n_features)

Die Eingabestichproben.

Gibt:
decisionGenerator von ndarray der Form (n_samples,) oder (n_samples, n_trees_per_iteration)

Die Entscheidungsfunktion der Eingabemuster, die den rohen Werten entspricht, die von den Bäumen des Ensembles vorhergesagt werden. Die Klassen entsprechen denen im Attribut classes_.

staged_predict(X)[Quelle]#

Vorhersage der Klassen in jeder Iteration.

Diese Methode ermöglicht die Überwachung (d.h. Bestimmung von Fehlern auf dem Testdatensatz) nach jeder Stufe.

Hinzugefügt in Version 0.24.

Parameter:
Xarray-like der Form (n_samples, n_features)

Die Eingabestichproben.

Gibt:
yGenerator von ndarray der Form (n_samples,)

Die vorhergesagten Klassen der Eingabemuster für jede Iteration.

staged_predict_proba(X)[Quelle]#

Klassenzugehörigkeitswahrscheinlichkeiten bei jeder Iteration vorhersagen.

Diese Methode ermöglicht die Überwachung (d.h. Bestimmung von Fehlern auf dem Testdatensatz) nach jeder Stufe.

Parameter:
Xarray-like der Form (n_samples, n_features)

Die Eingabestichproben.

Gibt:
yGenerator von ndarray der Form (n_samples,)

Die vorhergesagten Klassenzugehörigkeitswahrscheinlichkeiten der Eingabestichproben für jede Iteration.