Version 1.7#

Für eine kurze Beschreibung der wichtigsten Highlights des Releases siehe Release Highlights für scikit-learn 1.7.

Legende für Changelogs

  • Hauptmerkmal etwas Großes, das Sie vorher nicht tun konnten.

  • Merkmal etwas, das Sie vorher nicht tun konnten.

  • Effizienz Ein bestehendes Merkmal erfordert nun möglicherweise weniger Rechenleistung oder Speicher.

  • Verbesserung eine sonstige kleinere Verbesserung.

  • Korrektur Etwas, das zuvor nicht wie dokumentiert – oder nach vernünftigen Erwartungen – funktionierte, sollte nun funktionieren.

  • API-Änderung Sie müssen Ihren Code ändern, um in Zukunft die gleiche Wirkung zu erzielen; oder ein Merkmal wird in Zukunft entfernt.

Version 1.7.2#

September 2025

sklearn.compose#

sklearn.feature_extraction#

sklearn.impute#

  • Fix Ein Fehler in impute.SimpleImputer mit strategy="most_frequent" wurde behoben, wenn es einen Gleichstand bei den häufigsten Werten gab und die Eingabedaten gemischte Typen aufwiesen. Von Alexandre Abraham. #31820

sklearn.linear_model#

  • Fix Ein Fehler mit solver="newton-cholesky" bei Multiklassenproblemen in linear_model.LogisticRegressionCV und in linear_model.LogisticRegression bei Verwendung mit warm_start=True wurde behoben. Der Fehler trat entweder mit fit_intercept=True oder mit penalty=None auf (beides führte zu unbestraften Parametern für den Solver). Die Koeffizienten und Achsenabschnitte der letzten Klasse, die durch Warm-Start bereitgestellt wurden, wurden teilweise fälschlicherweise mit Null überschrieben. Von Christian Lorentzen. #31866

sklearn.pipeline#

  • Fix pipeline.FeatureUnion validiert nun, dass alle Transformer 2D-Ausgaben zurückgeben und löst einen informativen Fehler aus, wenn Transformer 1D-Ausgaben zurückgeben, was stille Fehler verhindert, die zuvor bedeutungslose verkettete Ergebnisse lieferten. Von gguiomar. #31559

Version 1.7.1#

Juli 2025

sklearn.base#

  • Fix Behebung einer Regression in der HTML-Darstellung bei der Erkennung von nicht-standardmäßigen Parametern vom Typ Array-ähnlich. Von Dea María Léon #31528

sklearn.compose#

sklearn.datasets#

sklearn.inspection#

  • Fix Mehrere Probleme im Multiklassen-Setting von inspection.DecisionBoundaryDisplay behoben

    • contour-Plotting zeigt nun korrekt die Entscheidungsgrenze an.

    • cmap und colors werden nun ordnungsgemäß zugunsten von multiclass_colors ignoriert.

    • Lineare segmentierte Colormaps werden nun vollständig unterstützt.

    Von Yunjie Lin #31553

sklearn.naive_bayes#

sklearn.utils#

  • Fix Eine irreführende Warnung (bezüglich der Anzahl der eindeutigen Klassen, die größer als 50% der Anzahl der Stichproben ist) wurde behoben, die auftreten konnte, wenn classes an utils.multiclass.type_of_target übergeben wurde. Von Sascha D. Krauss. #31584

Version 1.7.0#

Juni 2025

Geänderte Modelle#

  • Fix Die Meldung ConvergenceWarning von Schätzern, die intern den "lbfgs"-Optimizer verwenden, wurde informativer gestaltet und vermeidet den Vorschlag, die maximale Anzahl von Iterationen zu erhöhen, wenn sie nicht benutzerkonfigurierbar ist oder wenn das Konvergenzproblem auftritt, bevor sie erreicht wird. Von Olivier Grisel. #31316

Änderungen, die viele Module betreffen#

  • Sparse Update: Im Zuge der Umstellung von SciPy von spmatrix auf sparray unterstützen alle internen Verwendungen von Sparse sowohl sparray als auch spmatrix. Alle Manipulationen von Sparse-Objekten sollten für beide funktionieren. Dies ist der erste Schritt einer Migration zu sparray (siehe SciPy-Migration zu sparray). Von Dan Schult #30858

Unterstützung für Array API#

Zusätzliche Schätzer und Funktionen wurden aktualisiert, um Unterstützung für alle Array API-konformen Eingaben zu bieten.

Weitere Details finden Sie in Array API-Unterstützung (experimentell).

Metadaten-Routing#

Weitere Details finden Sie in Metadaten-Routing Benutzerhandbuch.

sklearn.base#

sklearn.calibration#

sklearn.compose#

sklearn.covariance#

  • Fix Die Unterstützung für n_samples == n_features in sklearn.covariance.MinCovDet wurde wiederhergestellt. Von Antony Lee. #30483

sklearn.datasets#

sklearn.decomposition#

sklearn.ensemble#

sklearn.feature_selection#

sklearn.gaussian_process#

sklearn.inspection#

  • Enhancement Neuer Parameter custom_values in inspection.partial_dependence hinzugefügt. Er ermöglicht Benutzern, ihre eigenen Wertegitter zu übergeben, bei denen die partielle Abhängigkeit berechnet werden soll. Von Freddy A. Boulton und Stephen Pardy #26202

  • Enhancement inspection.DecisionBoundaryDisplay unterstützt nun das Plotten aller Klassen für Multiklassenprobleme, wenn response_method 'decision_function', 'predict_proba' oder 'auto' ist. Von Lucy Liu #29797

  • Fix inspection.partial_dependence löst nun einen informativen Fehler aus, wenn eine leere Liste als Parameter categorical_features übergeben wird. None sollte stattdessen verwendet werden, um anzuzeigen, dass keine kategorischen Merkmale vorhanden sind. Von Pedro Lopes. #31146

  • API Change inspection.partial_dependence akzeptiert keine Integer-Datentypen mehr für numerische Merkmalsspalten. Eine explizite Konvertierung in Gleitkommawerte ist nun erforderlich, bevor dieses Werkzeug aufgerufen wird (und vorzugsweise noch vor dem Anpassen des Modells zur Inspektion). Von Olivier Grisel #30409

sklearn.linear_model#

sklearn.manifold#

  • Enhancement manifold.MDS wechselt ab Version 1.9 standardmäßig zu n_init=1. Von Dmitry Kobak #31117

  • Fix manifold.MDS behandelt nun nicht-metrische MDS korrekt. Darüber hinaus entspricht der zurückgegebene Stresswert der zurückgegebenen Einbettung, und normalisierter Stress ist nun für metrische MDS erlaubt. Von Dmitry Kobak #30514

  • Fix manifold.MDS verwendet nun standardmäßig eps=1e-6 und das Konvergenzkriterium wurde angepasst, um sowohl für metrische als auch für nicht-metrische MDS sinnvoll zu sein und der Referenzimplementierung in R zu folgen. Die Formel für den normalisierten Stress wurde angepasst, um der ursprünglichen Definition von Kruskal zu folgen. Von Dmitry Kobak #31117

sklearn.metrics#

sklearn.mixture#

  • Feature Fügt das Attribut lower_bounds_ zur Klasse mixture.BaseMixture hinzu, um die Liste der unteren Schranken für jede Iteration zu speichern und so Einblicke in das Konvergenzverhalten von Mischungsmodellen wie mixture.GaussianMixture zu geben. Von Manideep Yenugula #28559

  • Efficiency Vereinfacht redundante Berechnungen bei der Schätzung von Kovarianzen in GaussianMixture mit covariance_type="spherical" oder covariance_type="diag". Von Leonce Mekinda und Olivier Grisel #30414

  • Efficiency GaussianMixture arbeitet nun konsistent mit float32-Präzision, wenn mit float32-Daten trainiert wird, um die Trainingsgeschwindigkeit und Speichereffizienz zu verbessern. Zuvor wurde ein Teil der Berechnung implizit auf float64 umgewandelt. Von Olivier Grisel und Omar Salman. #30415

sklearn.model_selection#

sklearn.multiclass#

sklearn.multioutput#

sklearn.neural_network#

sklearn.pipeline#

sklearn.preprocessing#

sklearn.svm#

sklearn.utils#

Code- und Dokumentationsbeitragende

Vielen Dank an alle, die seit Version 1.6 zur Wartung und Verbesserung des Projekts beigetragen haben, darunter

4hm3d, Aaron Schumacher, Abhijeetsingh Meena, Acciaro Gennaro Daniele, Achraf Tasfaout, Adriano Leão, Adrien Linares, Adrin Jalali, Agriya Khetarpal, Aiden Frank, Aitsaid Azzedine Idir, ajay-sentry, Akanksha Mhadolkar, Alexandre Abraham, Alfredo Saucedo, Anderson Chaves, Andres Guzman-Ballen, Aniruddha Saha, antoinebaker, Antony Lee, Arjun S, ArthurDbrn, Arturo, Arturo Amor, ash, Ashton Powell, ayoub.agouzoul, Ayrat, Bagus Tris Atmaja, Benjamin Danek, Boney Patel, Camille Troillard, Chems Ben, Christian Lorentzen, Christian Veenhuis, Christine P. Chai, claudio, Code_Blooded, Colas, Colin Coe, Connor Lane, Corey Farwell, Daniel Agyapong, Dan Schult, Dea María Léon, Deepak Saldanha, dependabot[bot], Dhyey Findoriya, Dimitri Papadopoulos Orfanos, Dmitry Kobak, Domenico, elenafillo, Elham Babaei, emelia-hdz, EmilyXinyi, Emma Carballal, Eric Larson, Eugen-Bleck, Evgeni Burovski, fabianhenning, Gael Varoquaux, GaetandeCast, Gil Ramot, Gonçalo Guiomar, Gordon Grey, Goutam, G Sreeja, Guillaume Lemaitre, Haesun Park, hakan çanakçı, Hanjun Kim, Helder Geovane Gomes de Lima, Henri Bonamy, Hleb Levitski, Hugo Boulenger, IlyaSolomatin, Irene, Jérémie du Boisberranger, Jérôme Dockès, JoaoRodriguesIST, Joel Nothman, Joris Van den Bossche, Josh, jshn9515, KALLA GANASEKHAR, Kevin Klein, Krishnan Vignesh, kryggird, Loic Esteve, Lucas Colley, Luc Rocher, Lucy Liu, Luis M. B. Varona, lunovian, Mamduh Zabidi, Marc Bresson, Marco Edward Gorelli, Marco Maggi, Marek Pokropiński, Maren Westermann, Marie Sacksick, Marija Vlajic, Martin Jurča, Mayank Raj, Michael Burkhart, Miguel González Duque, Mihir Waknis, Miro Hrončok, Mohamed Ali SRIR, Mohamed DHIFALLAH, mohammed benyamna, Mohit Singh Thakur, Mounir Lbath, myenugula, Natalia Mokeeva, Nicolas Bolle, Olivier Grisel, omahs, Omar Salman, Pedro Lopes, Pedro Olivares, Peter Holzer, Prashant Bansal, Preyas Shah, Radovenchyk, Rahil Parikh, Rémi Flamary, Reshama Shaikh, Richard Harris, Rishab Saini, rolandrmgservices, SanchitD, Santiago Castro, Santiago Víquez, saskra, scikit-learn-bot, Scott Huberty, Shashank S, Shaurya Bisht, Shivam, Shruti Nath, Siddharth Bansal, SIKAI ZHANG, Simarjot Sidhu, sisird864, SiyuJin-1, Somdutta Banerjee, Sortofamudkip, sotagg, Sourabh Kumar, Stefan, Stefanie Senger, Stefano Gaspari, Steffen Rehberg, Stephen Pardy, Success Moses, Sylvain Combettes, Tahar Allouche, Thomas J. Fan, Thomas Li, ThorbenMaa, Tim Head, Tingwei Zhu, TJ Norred, Umberto Fasci, UV, Vasco Pereira, Vassilis Margonis, Velislav Babatchev, Victoria Shevchenko, viktor765, Vipsa Kamani, VirenPassi, Virgil Chan, vpz, Xiao Yuan, Yaich Mohamed, Yair Shimony, Yao Xiao, Yaroslav Halchenko, Yulia Vilensky, Yuvi Panda