Version 1.7#
Für eine kurze Beschreibung der wichtigsten Highlights des Releases siehe Release Highlights für scikit-learn 1.7.
Legende für Changelogs
Hauptmerkmal etwas Großes, das Sie vorher nicht tun konnten.
Merkmal etwas, das Sie vorher nicht tun konnten.
Effizienz Ein bestehendes Merkmal erfordert nun möglicherweise weniger Rechenleistung oder Speicher.
Verbesserung eine sonstige kleinere Verbesserung.
Korrektur Etwas, das zuvor nicht wie dokumentiert – oder nach vernünftigen Erwartungen – funktionierte, sollte nun funktionieren.
API-Änderung Sie müssen Ihren Code ändern, um in Zukunft die gleiche Wirkung zu erzielen; oder ein Merkmal wird in Zukunft entfernt.
Version 1.7.2#
September 2025
sklearn.compose#
Fix
compose.TransformedTargetRegressorübergibt nun das transformierte Ziel an den Regressor mit der gleichen Anzahl von Dimensionen wie das ursprüngliche Ziel. Von kryggird. #31563
sklearn.feature_extraction#
Fix Setzt das Tag
requires_fit=Falsefür die Klassenfeature_extraction.FeatureHasherundfeature_extraction.text.HashingVectorizer. Von hakan çanakcı. #31851
sklearn.impute#
Fix Ein Fehler in
impute.SimpleImputermitstrategy="most_frequent"wurde behoben, wenn es einen Gleichstand bei den häufigsten Werten gab und die Eingabedaten gemischte Typen aufwiesen. Von Alexandre Abraham. #31820
sklearn.linear_model#
Fix Ein Fehler mit
solver="newton-cholesky"bei Multiklassenproblemen inlinear_model.LogisticRegressionCVund inlinear_model.LogisticRegressionbei Verwendung mitwarm_start=Truewurde behoben. Der Fehler trat entweder mitfit_intercept=Trueoder mitpenalty=Noneauf (beides führte zu unbestraften Parametern für den Solver). Die Koeffizienten und Achsenabschnitte der letzten Klasse, die durch Warm-Start bereitgestellt wurden, wurden teilweise fälschlicherweise mit Null überschrieben. Von Christian Lorentzen. #31866
sklearn.pipeline#
Fix
pipeline.FeatureUnionvalidiert nun, dass alle Transformer 2D-Ausgaben zurückgeben und löst einen informativen Fehler aus, wenn Transformer 1D-Ausgaben zurückgeben, was stille Fehler verhindert, die zuvor bedeutungslose verkettete Ergebnisse lieferten. Von gguiomar. #31559
Version 1.7.1#
Juli 2025
sklearn.base#
Fix Behebung einer Regression in der HTML-Darstellung bei der Erkennung von nicht-standardmäßigen Parametern vom Typ Array-ähnlich. Von Dea María Léon #31528
sklearn.compose#
Fix
compose.ColumnTransformererhält nun korrekt nicht-standardmäßige Indizes bei der Mischung von pandas Series und Dataframes. Von Nicolas Bolle. #31079
sklearn.datasets#
Fix Ein Fehler wurde behoben, der das Extrahieren des heruntergeladenen Datensatzes in
datasets.fetch_20newsgroups,datasets.fetch_20newsgroups_vectorized,datasets.fetch_lfw_peopleunddatasets.fetch_lfw_pairsverhinderte. Dies betrifft nur Python-Versionen>=3.10.0,<=3.10.11und>=3.11.0,<=3.11.3. Von Jérémie du Boisberranger. #31685
sklearn.inspection#
Fix Mehrere Probleme im Multiklassen-Setting von
inspection.DecisionBoundaryDisplaybehobencontour-Plotting zeigt nun korrekt die Entscheidungsgrenze an.cmapundcolorswerden nun ordnungsgemäß zugunsten vonmulticlass_colorsignoriert.Lineare segmentierte Colormaps werden nun vollständig unterstützt.
Von Yunjie Lin #31553
sklearn.naive_bayes#
Fix
naive_bayes.CategoricalNBerklärt nun korrekt, dass es kategorische Merkmale in den Tags akzeptiert, die von seiner__sklearn_tags__-Methode zurückgegeben werden. Von Olivier Grisel #31556
sklearn.utils#
Fix Eine irreführende Warnung (bezüglich der Anzahl der eindeutigen Klassen, die größer als 50% der Anzahl der Stichproben ist) wurde behoben, die auftreten konnte, wenn
classesanutils.multiclass.type_of_targetübergeben wurde. Von Sascha D. Krauss. #31584
Version 1.7.0#
Juni 2025
Geänderte Modelle#
Fix Die Meldung
ConvergenceWarningvon Schätzern, die intern den"lbfgs"-Optimizer verwenden, wurde informativer gestaltet und vermeidet den Vorschlag, die maximale Anzahl von Iterationen zu erhöhen, wenn sie nicht benutzerkonfigurierbar ist oder wenn das Konvergenzproblem auftritt, bevor sie erreicht wird. Von Olivier Grisel. #31316
Änderungen, die viele Module betreffen#
Sparse Update: Im Zuge der Umstellung von SciPy von spmatrix auf sparray unterstützen alle internen Verwendungen von Sparse sowohl sparray als auch spmatrix. Alle Manipulationen von Sparse-Objekten sollten für beide funktionieren. Dies ist der erste Schritt einer Migration zu sparray (siehe SciPy-Migration zu sparray). Von Dan Schult #30858
Unterstützung für Array API#
Zusätzliche Schätzer und Funktionen wurden aktualisiert, um Unterstützung für alle Array API-konformen Eingaben zu bieten.
Weitere Details finden Sie in Array API-Unterstützung (experimentell).
Feature
sklearn.utils.check_consistent_lengthunterstützt nun Array-API-kompatible Eingaben. Von Stefanie Senger #29519Feature
sklearn.metrics.explained_variance_scoreundsklearn.metrics.mean_pinball_lossunterstützen nun Array-API-kompatible Eingaben. Von Virgil Chan #29978Feature
sklearn.metrics.fbeta_score,sklearn.metrics.precision_scoreundsklearn.metrics.recall_scoreunterstützen nun Array-API-kompatible Eingaben. Von Omar Salman #30395Feature
sklearn.utils.extmath.randomized_svdunterstützt nun Array-API-kompatible Eingaben. Von Connor Lane und Jérémie du Boisberranger. #30819Feature
sklearn.metrics.hamming_lossunterstützt nun Array-API-kompatible Eingaben. Von Thomas Li #30838Feature
preprocessing.Binarizerunterstützt nun Array-API-kompatible Eingaben. Von Yaroslav Korobko, Olivier Grisel und Thomas Li. #31190Feature
sklearn.metrics.jaccard_scoreunterstützt nun Array-API-kompatible Eingaben. Von Omar Salman #31204array-api-compat und array-api-extra sind nun in den scikit-learn-Quellcode eingebunden. Benutzer der experimentellen Array-API-Standardunterstützung müssen array-api-compat nicht mehr in ihrer Umgebung installieren. Von Lucas Colley #30340
Metadaten-Routing#
Weitere Details finden Sie in Metadaten-Routing Benutzerhandbuch.
Feature
ensemble.BaggingClassifierundensemble.BaggingRegressorunterstützen nun Metadaten-Routing über ihre Methodenpredict,predict_proba,predict_log_probaunddecision_functionund übergeben**paramsan die zugrundeliegenden Schätzer. Von Stefanie Senger. #30833
sklearn.base#
Enhancement
base.BaseEstimatorverfügt nun über eine Parametertabelle, die der HTML-Darstellung von Schätzern hinzugefügt wurde und mit Jupyter visualisiert werden kann. Von Guillaume Lemaitre und Dea María Léon #30763
sklearn.calibration#
Fix
CalibratedClassifierCVlöst nunFutureWarninganstelle vonUserWarningaus, wenncv="prefit"übergeben wird. Von Olivier GriselCalibratedClassifierCVmitmethod="sigmoid"stürzt nicht mehr ab, wennfloat64-dtypisiertesample_weightzusammen mit einem Basis-Schätzer übergeben wird, derfloat32-dtypisierte Vorhersagen ausgibt. Von Olivier Grisel #30873
sklearn.compose#
API Change Der Parameter
force_int_remainder_colsvoncompose.ColumnTransformerundcompose.make_column_transformerist veraltet und wird in Version 1.9 entfernt. Er hat keine Auswirkung. Von Jérémie du Boisberranger #31167
sklearn.covariance#
Fix Die Unterstützung für
n_samples == n_featuresinsklearn.covariance.MinCovDetwurde wiederhergestellt. Von Antony Lee. #30483
sklearn.datasets#
Enhancement Neuer Parameter
return_X_ywurde zudatasets.make_classificationhinzugefügt. Der Standardwert des Parameters ändert nicht, wie die Funktion sich verhält. Von Success Moses und Adam Cooper #30196
sklearn.decomposition#
Feature
DictionaryLearning,SparseCoderundMiniBatchDictionaryLearninghaben nun eine Methodeinverse_transform. Von Rémi Flamary #30443
sklearn.ensemble#
Feature
ensemble.HistGradientBoostingClassifierundensemble.HistGradientBoostingRegressorermöglichen mehr Kontrolle über den Validierungsdatensatz, der für Early Stopping verwendet wird. Sie können nun Daten für die Validierung direkt anfitüber die ArgumenteX_val,y_valundsample_weight_valübergeben. Von Christian Lorentzen. #27124Fix
ensemble.VotingClassifierundensemble.VotingRegressorvalidierenestimators, um sicherzustellen, dass es sich um eine Liste von Tupeln handelt. Von Thomas Fan. #30649
sklearn.feature_selection#
Enhancement
feature_selection.RFECVermöglicht nun den Zugriff auf das Ranking und die Unterstützung in jeder Iteration und jedem CV-Schritt der Merkmalsauswahl. Von Marie S. #30179Fix
feature_selection.SelectFromModelfunktioniert nun korrekt, wenn der Schätzer eine Instanz vonlinear_model.ElasticNetCVmit seineml1_ratio-Parameter als Array-ähnlich ist. Von Vasco Pereira. #31107
sklearn.gaussian_process#
Enhancement
gaussian_process.GaussianProcessClassifierenthält nun eine Methodelatent_mean_and_variance, die den Mittelwert und die Varianz der latenten Funktion \(f\), die in der Laplace-Approximation verwendet wird, freilegt. Von Miguel González Duque #22227
sklearn.inspection#
Enhancement Neuer Parameter
custom_valuesininspection.partial_dependencehinzugefügt. Er ermöglicht Benutzern, ihre eigenen Wertegitter zu übergeben, bei denen die partielle Abhängigkeit berechnet werden soll. Von Freddy A. Boulton und Stephen Pardy #26202Enhancement
inspection.DecisionBoundaryDisplayunterstützt nun das Plotten aller Klassen für Multiklassenprobleme, wennresponse_method'decision_function', 'predict_proba' oder 'auto' ist. Von Lucy Liu #29797Fix
inspection.partial_dependencelöst nun einen informativen Fehler aus, wenn eine leere Liste als Parametercategorical_featuresübergeben wird.Nonesollte stattdessen verwendet werden, um anzuzeigen, dass keine kategorischen Merkmale vorhanden sind. Von Pedro Lopes. #31146API Change
inspection.partial_dependenceakzeptiert keine Integer-Datentypen mehr für numerische Merkmalsspalten. Eine explizite Konvertierung in Gleitkommawerte ist nun erforderlich, bevor dieses Werkzeug aufgerufen wird (und vorzugsweise noch vor dem Anpassen des Modells zur Inspektion). Von Olivier Grisel #30409
sklearn.linear_model#
Enhancement
linear_model.SGDClassifierundlinear_model.SGDRegressorakzeptieren nunl1_ratio=None, wennpenaltynicht"elasticnet"ist. Von Marc Bresson. #30730Efficiency Das Anpassen von
linear_model.Lassoundlinear_model.ElasticNetmitfit_intercept=Trueist bei sparsen EingabenXschneller, da eine unnötige Neuberechnung der Residuenummen vermieden wird. Von Christian Lorentzen #31387Fix
linear_model.LogisticRegressionundlinear_model.LogisticRegressionCVübergeben nun ordnungsgemäß Stichprobengewichte anutils.class_weight.compute_class_weight, wenn sie mitclass_weight="balanced"angepasst werden. Von Shruti Nath und Olivier Grisel #30057Fix Fügt den neuen Parameter
tolzulinear_model.LinearRegressionhinzu, der die Präzision der Lösungcoef_beim Anpassen auf spärliche Daten bestimmt. Von Success Moses #30521Fix Das Update und die Initialisierung der Hyperparameter behandeln nun die Stichprobengewichte in
linear_model.BayesianRidgekorrekt. Von Antoine Baker. #30644Fix
linear_model.BayesianRidgeverwendet nun die vollständige SVD, um die Posterior-Kovarianzmatrixsigma_korrekt zu schätzen, wennn_samples < n_features. Von Antoine Baker #31094API Change Der Parameter
n_alphaswurde in den folgenden Klassen als veraltet markiert:linear_model.ElasticNetCVundlinear_model.LassoCVundlinear_model.MultiTaskElasticNetCVundlinear_model.MultiTaskLassoCVund wird in Version 1.9 entfernt. Der Parameteralphasunterstützt nun sowohl ganze Zahlen als auch Listen ähnliche Arrays, wodurchn_alphasüberflüssig wird. Ab sofort sollte nur nochalphasgesetzt werden, entweder um die Anzahl der automatisch zu generierenden Alphas (int) anzugeben oder um eine Liste von Alphas (array-ähnlich) bereitzustellen, die entlang des Regularisierungspfads getestet werden sollen. Von Siddharth Bansal. #30616API Change Die Verwendung des
"liblinear"-Solvers für die multiklasse Klassifizierung mit einem One-vs-Rest-Schema inlinear_model.LogisticRegressionundlinear_model.LogisticRegressionCVist veraltet und wird ab Version 1.8 einen Fehler auslösen. Verwenden Sie entweder einen Solver, der den multinomialen Verlust unterstützt, oder wrappen Sie den Estimator in einensklearn.multiclass.OneVsRestClassifier, um weiterhin ein One-vs-Rest-Schema anzuwenden. Von Jérémie du Boisberranger. #31241
sklearn.manifold#
Enhancement
manifold.MDSwechselt ab Version 1.9 standardmäßig zun_init=1. Von Dmitry Kobak #31117Fix
manifold.MDSbehandelt nun nicht-metrische MDS korrekt. Darüber hinaus entspricht der zurückgegebene Stresswert der zurückgegebenen Einbettung, und normalisierter Stress ist nun für metrische MDS erlaubt. Von Dmitry Kobak #30514Fix
manifold.MDSverwendet nun standardmäßigeps=1e-6und das Konvergenzkriterium wurde angepasst, um sowohl für metrische als auch für nicht-metrische MDS sinnvoll zu sein und der Referenzimplementierung in R zu folgen. Die Formel für den normalisierten Stress wurde angepasst, um der ursprünglichen Definition von Kruskal zu folgen. Von Dmitry Kobak #31117
sklearn.metrics#
Feature
metrics.brier_score_lossimplementiert den Brier-Score für multiklasse Klassifizierungsprobleme und fügt das Argumentscale_by_halfhinzu. Diese Metrik ist besonders nützlich zur Bewertung von Schärfe und Kalibrierung probabilistischer Klassifikatoren. Weitere Details finden Sie in den Docstrings. Von Varun Aggarwal, Olivier Grisel und Antoine Baker. #22046Feature Fügt die Klassenmethode
from_cv_resultszumetrics.RocCurveDisplayhinzu, die ein einfaches Plotten mehrerer ROC-Kurven ausmodel_selection.cross_validate-Ergebnissen ermöglicht. Von Lucy Liu #30399Enhancement
metrics.det_curve,metrics.DetCurveDisplay.from_estimatorundmetrics.DetCurveDisplay.from_estimatorakzeptieren nun die Optiondrop_intermediate, um Schwellenwerte zu entfernen, bei denen sich die True Positives (tp) nicht von den vorherigen oder nachfolgenden Schwellenwerten ändern. Alle Punkte mit demselben tp-Wert haben denselbenfnrund somit dieselbe y-Koordinate in einer DET-Kurve. Von Arturo Amor #29151Enhancement
class_likelihood_ratiosverfügt nun über den Parameterreplace_undefined_by. Bei einer Division durch Null ist die Metrik undefiniert, und die gesetzten Werte werden fürLR+undLR-zurückgegeben. Von Stefanie Senger #29288Fix
metrics.log_losslöst nun einenValueErroraus, wenn Werte vony_trueinlabelsfehlen. Von Varun Aggarwal, Olivier Grisel und Antoine Baker. #22046Fix
metrics.det_curveundmetrics.DetCurveDisplaygeben nun einen zusätzlichen Schwellenwert im Unendlichen zurück, bei dem der Klassifikator immer die negative Klasse vorhersagt, d.h. tps = fps = 0. Von Arturo Amor #29151Fix
class_likelihood_ratioslöst nun im Falle einer Division durch Null eineUndefinedMetricWarninganstelle einerUserWarningaus. Von Stefanie Senger #29288Fix
metrics.RocCurveDisplaysetzt keine Legende mehr, wennlabelinline_kwargsundchance_level_kwNoneist. Von Arturo Amor #29727Fix Zusätzliche Überprüfung von
sample_weightwurde zumetrics.mean_absolute_error,metrics.mean_pinball_loss,metrics.mean_absolute_percentage_error,metrics.mean_squared_error,metrics.root_mean_squared_error,metrics.mean_squared_log_error,metrics.root_mean_squared_log_error,metrics.explained_variance_score,metrics.r2_score,metrics.mean_tweedie_deviance,metrics.mean_poisson_deviance,metrics.mean_gamma_devianceundmetrics.d2_tweedie_scorehinzugefügt.sample_weightkann nur 1D sein und entspricht in der Längey_trueundy_predoder ist ein Skalar. Von Lucy Liu. #30886Fix
d2_log_loss_scorebehandelt nun korrekt den Fall, dasslabelsübergeben wird und nicht alle Labels iny_truevorhanden sind. Von Vassilis Margonis #30903Fix Behebt ein numerisches Problem in
metrics.adjusted_mutual_info_scorebei niedriger Klassen- und Stichprobengröße. Von Hleb Levitski #31065API Change Der Parameter
sparsevonmetrics.fowlkes_mallows_scoreist veraltet und wird in Version 1.9 entfernt. Er hat keine Auswirkung. Von Luc Rocher. #28981API Change Der Parameter
raise_warningvonmetrics.class_likelihood_ratiosist veraltet und wird in Version 1.9 entfernt. Bei einer Division durch Null wird immer eineUndefinedMetricWarningausgelöst. Von Stefanie Senger. #29288API Change In
sklearn.metrics.RocCurveDisplay.from_predictionswurde das Argumenty_prediny_scoreumbenannt, um seinen Zweck besser widerzuspiegeln.y_predwird in Version 1.9 entfernt. Von Bagus Tris Atmaja in #29865
sklearn.mixture#
Feature Fügt das Attribut
lower_bounds_zur Klassemixture.BaseMixturehinzu, um die Liste der unteren Schranken für jede Iteration zu speichern und so Einblicke in das Konvergenzverhalten von Mischungsmodellen wiemixture.GaussianMixturezu geben. Von Manideep Yenugula #28559Efficiency Vereinfacht redundante Berechnungen bei der Schätzung von Kovarianzen in
GaussianMixturemitcovariance_type="spherical"odercovariance_type="diag". Von Leonce Mekinda und Olivier Grisel #30414Efficiency
GaussianMixturearbeitet nun konsistent mitfloat32-Präzision, wenn mitfloat32-Daten trainiert wird, um die Trainingsgeschwindigkeit und Speichereffizienz zu verbessern. Zuvor wurde ein Teil der Berechnung implizit auffloat64umgewandelt. Von Olivier Grisel und Omar Salman. #30415
sklearn.model_selection#
Fix Hyperparameter-Optimierer wie
model_selection.GridSearchCVleitensample_weightnun an den Scorer weiter, auch wenn das Metadaten-Routing nicht aktiviert ist. Von Antoine Baker #30743
sklearn.multiclass#
Fix Die Methode
predict_probavonsklearn.multiclass.OneVsRestClassifiergibt nun für alle Klassen Null zurück, wenn alle inneren Estimators niemals ihre positive Klasse vorhersagen. Von Luis M. B. Varona, Marc Bresson und Jérémie du Boisberranger. #31228
sklearn.multioutput#
Enhancement Der Parameter
base_estimatorwurde zugunsten vonestimatorfürmultioutput.RegressorChainundmultioutput.ClassifierChainals veraltet markiert. Von Success Moses und dikraMasrour #30152
sklearn.neural_network#
Feature Unterstützung für
sample_weightinneural_network.MLPClassifierundneural_network.MLPRegressorhinzugefügt. Von Zach Shu und Christian Lorentzen #30155Feature Parameter für
lossinneural_network.MLPRegressorhinzugefügt mit den Optionen"squared_error"(Standard) und"poisson"(neu). Von Christian Lorentzen #30712Fix
neural_network.MLPRegressorlöst nun einen informativen Fehler aus, wennearly_stoppinggesetzt ist und der berechnete Validierungssatz zu klein ist. Von David Shumway. #24788
sklearn.pipeline#
Enhancement Exponiert das Argument
verbose_feature_names_outin der Funktionpipeline.make_union, was es Benutzern ermöglicht, die Einzigartigkeit von Feature-Namen inpipeline.FeatureUnionzu steuern. Von Abhijeetsingh Meena #30406
sklearn.preprocessing#
Enhancement
preprocessing.KBinsDiscretizermitstrategy="uniform"akzeptiert nunsample_weight. Zusätzlich kann beistrategy="quantile"diequantile_methodangegeben werden (zukünftig wirdquantile_method="averaged_inverted_cdf"zum Standard). Von Shruti Nath und Olivier Grisel #29907Fix
preprocessing.KBinsDiscretizerverwendet nun gewichtetes Resampling, wenn Sample Weights gegeben sind und Subsampling verwendet wird. Dies kann auch bei der Verwendung von Sample Weights zu Änderungen der Ergebnisse führen, wenn auch nicht in Bezug auf die statistischen Eigenschaften. Von Shruti Nath und Jérémie du Boisberranger #29907Fix Verwendet nun
scipy.stats.yeojohnsonanstelle unserer eigenen Implementierung der Yeo-Johnson-Transformation. Behebt numerische Stabilitätsprobleme (hauptsächlich Überläufe) der Yeo-Johnson-Transformation mitPowerTransformer(method="yeo-johnson"), wenn die Scipy-Version>= 1.12ist. Ursprünglicher PR von Xuefeng Xu, vervollständigt von Mohamed Yaich, Oussama Er-rabie, Mohammed Yaslam Dlimi, Hamza Zaroual, Amine Hannoun und Sylvain Marié. #31227
sklearn.svm#
Fix
svm.LinearSVCleitet nun korrekt Stichprobengewichte anutils.class_weight.compute_class_weightweiter, wenn mitclass_weight="balanced"trainiert wird. Von Shruti Nath #30057
sklearn.utils#
Enhancement
utils.multiclass.type_of_targetlöst eine Warnung aus, wenn die Anzahl der eindeutigen Klassen größer als 50 % der Stichprobengröße ist. Diese Warnung wird nur ausgegeben, wennymehr als 20 Stichproben hat. Von Rahil Parikh. #26335Enhancement :func:
resamplebehandelt nun Stichprobengewichte, was gewichtetes Resampling ermöglicht. Von Shruti Nath und Olivier Grisel #29907Enhancement
utils.class_weight.compute_class_weightberücksichtigt nun Stichprobengewichte korrekt bei der Verwendung der Strategie „balanced“, um Klassengewichte zu berechnen. Von Shruti Nath #30057Enhancement Warnungsfilter aus dem Hauptprozess werden an Joblib-Worker weitergegeben. Von Thomas Fan #30380
Enhancement Die private Hilfsfunktion
utils._safe_indexingunterstützt nun offiziell PyArrow-Daten. Zum Beispiel ist die Übergabe einer PyArrowTablealsXin einemcompose.ColumnTransformernun möglich. Von Christian Lorentzen #31040Fix In
utils.estimator_checkserzwingen wir nun für binäre Klassifikatoren ein binäresy, indem wir das Minimum als negative Klasse anstelle des ersten Elements nehmen, was es robust gegenüber dem Mischen vonymacht. Dies verhindert, dass zwei Checks bei binären Klassifikatoren fälschlicherweise fehlschlagen. Von Antoine Baker. #30775Fix
utils.extmath.randomized_svdundutils.extmath.randomized_range_findervalidieren nun ihr Eingabearray, um frühzeitig mit einer aussagekräftigen Fehlermeldung bei ungültiger Eingabe abzubrechen. Von Connor Lane. #30819
Code- und Dokumentationsbeitragende
Vielen Dank an alle, die seit Version 1.6 zur Wartung und Verbesserung des Projekts beigetragen haben, darunter
4hm3d, Aaron Schumacher, Abhijeetsingh Meena, Acciaro Gennaro Daniele, Achraf Tasfaout, Adriano Leão, Adrien Linares, Adrin Jalali, Agriya Khetarpal, Aiden Frank, Aitsaid Azzedine Idir, ajay-sentry, Akanksha Mhadolkar, Alexandre Abraham, Alfredo Saucedo, Anderson Chaves, Andres Guzman-Ballen, Aniruddha Saha, antoinebaker, Antony Lee, Arjun S, ArthurDbrn, Arturo, Arturo Amor, ash, Ashton Powell, ayoub.agouzoul, Ayrat, Bagus Tris Atmaja, Benjamin Danek, Boney Patel, Camille Troillard, Chems Ben, Christian Lorentzen, Christian Veenhuis, Christine P. Chai, claudio, Code_Blooded, Colas, Colin Coe, Connor Lane, Corey Farwell, Daniel Agyapong, Dan Schult, Dea María Léon, Deepak Saldanha, dependabot[bot], Dhyey Findoriya, Dimitri Papadopoulos Orfanos, Dmitry Kobak, Domenico, elenafillo, Elham Babaei, emelia-hdz, EmilyXinyi, Emma Carballal, Eric Larson, Eugen-Bleck, Evgeni Burovski, fabianhenning, Gael Varoquaux, GaetandeCast, Gil Ramot, Gonçalo Guiomar, Gordon Grey, Goutam, G Sreeja, Guillaume Lemaitre, Haesun Park, hakan çanakçı, Hanjun Kim, Helder Geovane Gomes de Lima, Henri Bonamy, Hleb Levitski, Hugo Boulenger, IlyaSolomatin, Irene, Jérémie du Boisberranger, Jérôme Dockès, JoaoRodriguesIST, Joel Nothman, Joris Van den Bossche, Josh, jshn9515, KALLA GANASEKHAR, Kevin Klein, Krishnan Vignesh, kryggird, Loic Esteve, Lucas Colley, Luc Rocher, Lucy Liu, Luis M. B. Varona, lunovian, Mamduh Zabidi, Marc Bresson, Marco Edward Gorelli, Marco Maggi, Marek Pokropiński, Maren Westermann, Marie Sacksick, Marija Vlajic, Martin Jurča, Mayank Raj, Michael Burkhart, Miguel González Duque, Mihir Waknis, Miro Hrončok, Mohamed Ali SRIR, Mohamed DHIFALLAH, mohammed benyamna, Mohit Singh Thakur, Mounir Lbath, myenugula, Natalia Mokeeva, Nicolas Bolle, Olivier Grisel, omahs, Omar Salman, Pedro Lopes, Pedro Olivares, Peter Holzer, Prashant Bansal, Preyas Shah, Radovenchyk, Rahil Parikh, Rémi Flamary, Reshama Shaikh, Richard Harris, Rishab Saini, rolandrmgservices, SanchitD, Santiago Castro, Santiago Víquez, saskra, scikit-learn-bot, Scott Huberty, Shashank S, Shaurya Bisht, Shivam, Shruti Nath, Siddharth Bansal, SIKAI ZHANG, Simarjot Sidhu, sisird864, SiyuJin-1, Somdutta Banerjee, Sortofamudkip, sotagg, Sourabh Kumar, Stefan, Stefanie Senger, Stefano Gaspari, Steffen Rehberg, Stephen Pardy, Success Moses, Sylvain Combettes, Tahar Allouche, Thomas J. Fan, Thomas Li, ThorbenMaa, Tim Head, Tingwei Zhu, TJ Norred, Umberto Fasci, UV, Vasco Pereira, Vassilis Margonis, Velislav Babatchev, Victoria Shevchenko, viktor765, Vipsa Kamani, VirenPassi, Virgil Chan, vpz, Xiao Yuan, Yaich Mohamed, Yair Shimony, Yao Xiao, Yaroslav Halchenko, Yulia Vilensky, Yuvi Panda