Zum Hauptinhalt springen
Strg+K
scikit-learn homepage scikit-learn homepage
  • Installieren
  • Benutzerhandbuch
  • API
  • Beispiele
  • Community
    • Erste Schritte
    • Versionsverlauf
    • Glossar
    • Entwicklung
    • FAQ
    • Support
    • Verwandte Projekte
    • Roadmap
    • Steuerung
    • Über uns
  • GitHub
  • Installieren
  • Benutzerhandbuch
  • API
  • Beispiele
  • Community
  • Erste Schritte
  • Versionsverlauf
  • Glossar
  • Entwicklung
  • FAQ
  • Support
  • Verwandte Projekte
  • Roadmap
  • Steuerung
  • Über uns
  • GitHub

Abschnittsnavigation

  • 1. Überwachtes Lernen
    • 1.1. Lineare Modelle
    • 1.2. Lineare und quadratische Diskriminanzanalyse
    • 1.3. Kernel Ridge Regression
    • 1.4. Support Vector Machines
    • 1.5. Stochastischer Gradientenabstieg
    • 1.6. Nearest Neighbors
    • 1.7. Gaußsche Prozesse
    • 1.8. Kreuzzerlegung
    • 1.9. Naive Bayes
    • 1.10. Entscheidungsbäume
    • 1.11. Ensembles: Gradient Boosting, Random Forests, Bagging, Voting, Stacking
    • 1.12. Multiclass- und Multioutput-Algorithmen
    • 1.13. Merkmalsauswahl
    • 1.14. Semi-überwachtes Lernen
    • 1.15. Isotone Regression
    • 1.16. Wahrscheinlichkeitskalibrierung
    • 1.17. Neuronale Netzwerkmodelle (überwacht)
  • 2. Unüberwachtes Lernen
    • 2.1. Gaußsche Mischmodelle
    • 2.2. Mannigfaltigkeitslernen
    • 2.3. Clustering
    • 2.4. Biclustering
    • 2.5. Zerlegung von Signalen in Komponenten (Matrixfaktorisierungsprobleme)
    • 2.6. Kovarianzschätzung
    • 2.7. Neuheits- und Ausreißererkennung
    • 2.8. Dichteschätzung
    • 2.9. Neuronale Netzwerkmodelle (unüberwacht)
  • 3. Modellauswahl und -bewertung
    • 3.1. Kreuzvalidierung: Bewertung der Schätzerleistung
    • 3.2. Optimierung der Hyperparameter eines Schätzers
    • 3.3. Optimierung des Entscheidungsschwellenwerts für die Klassenvorhersage
    • 3.4. Metriken und Scoring: Quantifizierung der Qualität von Vorhersagen
    • 3.5. Validierungskurven: Plotten von Scores zur Bewertung von Modellen
  • 4. Metadaten-Routing
  • 5. Inspektion
    • 5.1. Partial Dependence- und Individual Conditional Expectation-Plots
    • 5.2. Permutation Feature Importance
  • 6. Visualisierungen
  • 7. Datentransformationen
    • 7.1. Pipelines und zusammengesetzte Schätzer
    • 7.2. Merkmalsextraktion
    • 7.3. Datenvorverarbeitung
    • 7.4. Imputation fehlender Werte
    • 7.5. Unüberwachte Dimensionsreduktion
    • 7.6. Zufällige Projektion
    • 7.7. Kernel-Approximation
    • 7.8. Paarweise Metriken, Affinitäten und Kernel
    • 7.9. Transformation des Vorhersageziels (y)
  • 8. Dienstprogramme zum Laden von Datensätzen
    • 8.1. Spielzeugdatensätze
    • 8.2. Datensätze aus der realen Welt
    • 8.3. Generierte Datensätze
    • 8.4. Laden anderer Datensätze
  • 9. Rechnen mit scikit-learn
    • 9.1. Strategien zur Skalierung der Rechenleistung: größere Daten
    • 9.2. Rechenleistung
    • 9.3. Parallelität, Ressourcenverwaltung und Konfiguration
  • 10. Modellauslagerung
  • 11. Häufige Fallstricke und empfohlene Vorgehensweisen
  • 12. Dispatching
    • 12.1. Array-API-Unterstützung (experimentell)
  • 13. Auswahl des richtigen Schätzers
  • 14. Externe Ressourcen, Videos und Vorträge
  • Benutzerhandbuch
  • 12. Dispatching

12. Dispatching#

  • 12.1. Array-API-Unterstützung (experimentell)
    • 12.1.1. Aktivierung der Array-API-Unterstützung
    • 12.1.2. Beispielverwendung
    • 12.1.3. Unterstützung für Array API-kompatible Eingaben
    • 12.1.4. Behandlung von Eingabe- und Ausgabearray-Typen
    • 12.1.5. Häufige Estimator-Prüfungen

vorherige

11. Häufige Fallstricke und empfohlene Vorgehensweisen

nächste

12.1. Array API-Unterstützung (experimentell)

Diese Seite

  • Quelle anzeigen

© Copyright 2007 - 2025, scikit-learn Entwickler (BSD-Lizenz).