API-Referenz#
Dies ist die Klassen- und Funktionsreferenz von scikit-learn. Bitte konsultieren Sie das vollständige Benutzerhandbuch für weitere Details, da die rohen Spezifikationen von Klassen und Funktionen möglicherweise nicht ausreichen, um vollständige Richtlinien für ihre Verwendung zu geben. Für Referenzen zu Konzepten, die über die API hinweg wiederholt werden, siehe Glossar gängiger Begriffe und API-Elemente.
Objekt |
Beschreibung |
|---|---|
Kontextmanager, um die globale scikit-learn-Konfiguration vorübergehend zu ändern. |
|
Aktuelle scikit-learn-Konfiguration abrufen. |
|
Globale scikit-learn-Konfiguration festlegen. |
|
Nützliche Debugging-Informationen ausgeben. |
|
Basisklasse für alle Schätzer in scikit-learn. |
|
Mixin-Klasse für alle Bicluster-Schätzer in scikit-learn. |
|
Mixin-Klasse für Transformer, die ihre Namen durch Präfixierung generieren. |
|
Mixin-Klasse für alle Klassifikatoren in scikit-learn. |
|
Mixin-Klasse für alle Cluster-Schätzer in scikit-learn. |
|
Mixin-Klasse für alle Dichte-Schätzer in scikit-learn. |
|
Mixin-Klasse für alle Meta-Schätzer in scikit-learn. |
|
Bietet |
|
Mixin-Klasse für alle Ausreißererkennungs-Schätzer in scikit-learn. |
|
Mixin-Klasse für alle Regressions-Schätzer in scikit-learn. |
|
Mixin-Klasse für alle Transformer in scikit-learn. |
|
Konstruiert einen neuen, nicht angepassten Schätzer mit denselben Parametern. |
|
Gibt True zurück, wenn der gegebene Schätzer (wahrscheinlich) ein Klassifikator ist. |
|
Gibt True zurück, wenn der gegebene Schätzer (wahrscheinlich) ein Cluster-Algorithmus ist. |
|
Gibt True zurück, wenn der gegebene Schätzer (wahrscheinlich) ein Regressor ist. |
|
Gibt True zurück, wenn der gegebene Schätzer (wahrscheinlich) ein Ausreißerdetektor ist. |
|
Kalibriert Wahrscheinlichkeiten mittels isotonischer, sigmoidaler oder temperaturabhängiger Skalierung. |
|
Berechnet wahre und vorhergesagte Wahrscheinlichkeiten für eine Kalibrierungskurve. |
|
Visualisierung der Kalibrierungskurve (auch bekannt als Zuverlässigkeitsdiagramm). |
|
Führt Affinity Propagation Clustering von Daten durch. |
|
Agglomeratives Clustering. |
|
Implementiert den BIRCH-Clustering-Algorithmus. |
|
Bisecting K-Means-Clustering. |
|
Führt DBSCAN-Clustering aus einer Vektor- oder Distanzmatrix durch. |
|
Mergt Merkmale. |
|
Cluster Daten mittels hierarchischem dichte-basiertem Clustering. |
|
K-Means-Clustering. |
|
Mean Shift Clustering mit einem flachen Kernel. |
|
Mini-Batch K-Means-Clustering. |
|
Schätzt die Clustering-Struktur aus einer Vektor-Array. |
|
Spektrales Biclustering (Kluger, 2003) [R2af9f5762274-1]. |
|
Wendet Clustering auf eine Projektion des normalisierten Laplace-Operators an. |
|
Spektraler Co-Clustering-Algorithmus (Dhillon, 2001) [R0dd0f3306ba7-1]. |
|
Führt Affinity Propagation Clustering von Daten durch. |
|
Führt eine DBSCAN-Extraktion für ein beliebiges Epsilon durch. |
|
Extrahiert automatisch Cluster gemäß der Xi-Steep-Methode. |
|
Berechnet den OPTICS-Erreichbarkeitsgraphen. |
|
Führt DBSCAN-Clustering aus einer Vektor- oder Distanzmatrix durch. |
|
Schätzt die Bandbreite für die Verwendung mit dem Mean-Shift-Algorithmus. |
|
Führt den K-Means-Clustering-Algorithmus durch. |
|
Initialisiert n_clusters-Seeds gemäß k-means++. |
|
Führt Mean Shift Clustering von Daten mit einem flachen Kernel durch. |
|
Wendet Clustering auf eine Projektion des normalisierten Laplace-Operators an. |
|
Ward-Clustering basierend auf einer Merkmalsmatrix. |
|
Wendet Transformer auf Spalten eines Arrays oder einer Pandas DataFrame an. |
|
Meta-Schätzer zur Regression auf ein transformiertes Ziel. |
|
Erstellt eine aufrufbare Funktion zur Auswahl von Spalten, die mit |
|
Konstruiert einen ColumnTransformer aus den gegebenen Transformern. |
|
Objekt zur Erkennung von Ausreißern in einem Gauß'schen Datensatz. |
|
Maximale Likelihood Kovarianz-Schätzer. |
|
Schätzung der dünnen Kovarianz mit einem l1-penalisierten Schätzer. |
|
Dünne Kovarianz mit kreuzvalidierter Auswahl der l1-Strafe. |
|
LedoitWolf-Schätzer. |
|
Minimum Covariance Determinant (MCD): robuster Schätzer der Kovarianz. |
|
Oracle Approximating Shrinkage Estimator. |
|
Kovarianz-Schätzer mit Schrumpfung. |
|
Berechnet den Kovarianz-Schätzer der maximalen Likelihood. |
|
L1-penalisierter Kovarianz-Schätzer. |
|
Schätzt die geschrumpfte Ledoit-Wolf-Kovarianzmatrix. |
|
Schätzt die geschrumpfte Ledoit-Wolf-Kovarianzmatrix. |
|
Schätzt Kovarianz mit dem Oracle Approximating Shrinkage. |
|
Berechnet Kovarianzmatrizen, die auf der Diagonalen geschrumpft sind. |
|
Kanonische Korrelationsanalyse, auch bekannt als "Mode B" PLS. |
|
Partial Least Squares Transformer und Regressor. |
|
PLS-Regression. |
|
Partial Least Square SVD. |
|
Löscht den gesamten Inhalt des Daten-Cache. |
|
Speichert den Datensatz im svmlight / libsvm-Dateiformat. |
|
Lädt die Dateinamen und Daten aus dem 20 newsgroups Datensatz (Klassifikation). |
|
Lädt und vektorisiert den 20 newsgroups Datensatz (Klassifikation). |
|
Lädt den California Housing Datensatz (Regression). |
|
Lädt den covertype Datensatz (Klassifikation). |
|
Ruft eine Datei aus dem Web ab, falls sie nicht bereits im lokalen Ordner vorhanden ist. |
|
Lädt den kddcup99 Datensatz (Klassifikation). |
|
Lädt den Labeled Faces in the Wild (LFW) Pairs Datensatz (Klassifikation). |
|
Lädt den Labeled Faces in the Wild (LFW) People Datensatz (Klassifikation). |
|
Lädt den Olivetti Faces Datensatz von AT&T (Klassifikation). |
|
Ruft den Datensatz von openml nach Name oder Datensatz-ID ab. |
|
Lädt den RCV1 Multilabel Datensatz (Klassifikation). |
|
Lader für den Artenverteilungsdatensatz von Phillips et al. (2006). |
|
Gibt den Pfad des scikit-learn Datenverzeichnisses zurück. |
|
Lädt und gibt den Brustkrebs Wisconsin Datensatz (Klassifikation) zurück. |
|
Lädt und gibt den Diabetes Datensatz (Regression) zurück. |
|
Lädt und gibt den Ziffern Datensatz (Klassifikation) zurück. |
|
Lädt Textdateien mit Kategorien als Unterordnernamen. |
|
Lädt und gibt den Iris Datensatz (Klassifikation) zurück. |
|
Lädt und gibt den Linnerud Datensatz für körperliche Übungen zurück. |
|
Lädt das Numpy-Array eines einzelnen Beispielbildes. |
|
Lädt Beispielbilder für die Bildbearbeitung. |
|
Lädt Datensätze im svmlight / libsvm-Format in eine dünne CSR-Matrix. |
|
Lädt Datensätze aus mehreren Dateien im SVMlight-Format. |
|
Lädt und gibt den Wein Datensatz (Klassifikation) zurück. |
|
Generiert ein Array mit konstanter Blockdiagonalstruktur für Biclustering. |
|
Generiert isotrope Gaußsche Klumpen für das Clustering. |
|
Generiert ein Array mit Block-Schachbrettstruktur für Biclustering. |
|
Erstellt einen großen Kreis, der einen kleineren Kreis in 2D enthält. |
|
Generiert eine zufällige Klassifikationsaufgabe mit n Klassen. |
|
Generiert das Regressionsproblem "Friedman #1". |
|
Generiert das Regressionsproblem "Friedman #2". |
|
Generiert das Regressionsproblem "Friedman #3". |
|
Generiert isotrope Gaußsche und beschriftete Stichproben nach Quantilen. |
|
Generiert Daten für binäre Klassifikation, wie in Hastie et al. 2009, Beispiel 10.2. |
|
Generiert eine hauptsächlich niedrigrangige Matrix mit glockenförmigen singulären Werten. |
|
Erstellt zwei sich abwechselnde Halbkreise. |
|
Generiert eine zufällige Multilabel-Klassifikationsaufgabe. |
|
Generiert ein zufälliges Regressionsproblem. |
|
Generiert einen S-Kurven-Datensatz. |
|
Generiert ein Signal als dünne Kombination von Wörterbuchelementen. |
|
Generiert eine dünne symmetrische positiv-definite Matrix. |
|
Generiert ein zufälliges Regressionsproblem mit dünnem, unkorreliertem Design. |
|
Generiert eine zufällige symmetrische, positiv-definite Matrix. |
|
Generiert einen Swiss-Roll-Datensatz. |
|
Dictionary Learning. |
|
Faktoranalyse (FA). |
|
FastICA: Ein schneller Algorithmus für Independent Component Analysis. |
|
Inkrementelle Hauptkomponentenanalyse (IPCA). |
|
Kernel Hauptkomponentenanalyse (KPCA). |
|
Latent Dirichlet Allocation mit Online-Variational-Bayes-Algorithmus. |
|
Mini-Batch Dictionary Learning. |
|
Mini-Batch Non-Negative Matrix Factorization (NMF). |
|
Mini-Batch Sparse Principal Components Analysis. |
|
Non-Negative Matrix Factorization (NMF). |
|
Hauptkomponentenanalyse (PCA). |
|
Sparse Coding. |
|
Sparse Principal Components Analysis (SparsePCA). |
|
Dimensionsreduktion mittels tronierter SVD (auch bekannt als LSA). |
|
Löst ein Dictionary-Learning-Matrixfaktorisierungsproblem. |
|
Löst ein Dictionary-Learning-Matrixfaktorisierungsproblem online. |
|
Führt Fast Independent Component Analysis durch. |
|
Berechnet Non-negative Matrix Factorization (NMF). |
|
Sparse Coding. |
|
Lineare Diskriminanzanalyse. |
|
Quadratische Diskriminanzanalyse. |
|
DummyClassifier trifft Vorhersagen, die die Eingabemerkmale ignorieren. |
|
Regressor, der Vorhersagen nach einfachen Regeln trifft. |
|
Ein AdaBoost-Klassifikator. |
|
Ein AdaBoost-Regressor. |
|
Ein Bagging-Klassifikator. |
|
Ein Bagging-Regressor. |
|
Ein Extra-Trees-Klassifikator. |
|
Ein Extra-Trees-Regressor. |
|
Gradient Boosting für Klassifikation. |
|
Gradient Boosting für Regression. |
|
Histogramm-basierter Gradient Boosting Klassifikationsbaum. |
|
Histogramm-basierter Gradient Boosting Regressionsbaum. |
|
Isolation Forest Algorithmus. |
|
Ein Random-Forest-Klassifikator. |
|
Ein Random-Forest-Regressor. |
|
Ein Ensemble von völlig zufälligen Bäumen. |
|
Stapel von Schätzern mit einem abschließenden Klassifikator. |
|
Stapel von Schätzern mit einem abschließenden Regressor. |
|
Soft Voting/Majority Rule Klassifikator für nicht angepasste Schätzer. |
|
Vorhersage-Voting-Regressor für nicht angepasste Schätzer. |
|
Benutzerdefinierte Warnung zur Erfassung von Konvergenzproblemen |
|
Warnung, die verwendet wird, um auf implizite Datenkonvertierungen im Code hinzuweisen. |
|
Benutzerdefinierte Warnung, die auf potenzielle Probleme mit der Datendimension aufmerksam macht. |
|
Warnung, die verwendet wird, um den Benutzer auf ineffiziente Berechnungen hinzuweisen. |
|
Warnungsklasse, die verwendet wird, wenn beim Anpassen des Schätzers ein Fehler auftritt. |
|
Warnung, die ausgegeben wird, wenn ein Schätzer mit inkonsistenter Version entpickelt wird. |
|
Ausnahmeklasse, die ausgelöst wird, wenn ein Schätzer vor der Anpassung verwendet wird. |
|
Warnung, die ausgegeben wird, wenn die Metrik ungültig ist |
|
Warnung, die ausgegeben wird, wenn ein Schätzer-Check aus den allgemeinen Tests fehlschlägt. |
|
Aktiviert Successive Halving Suchschätzer |
|
Aktiviert IterativeImputer |
|
Transformiert Listen von Merkmalswertzuordnungen in Vektoren. |
|
Implementiert Feature Hashing, auch bekannt als Hashing Trick. |
|
Extrahiert Patches aus einer Sammlung von Bildern. |
|
Formt ein 2D-Bild in eine Sammlung von Patches um. |
|
Graph der Pixel-zu-Pixel-Verbindungen. |
|
Graph der Pixel-zu-Pixel-Gradientenverbindungen. |
|
Rekonstruiert das Bild aus all seinen Patches. |
|
Konvertiert eine Sammlung von Textdokumenten in eine Matrix von Token-Zählungen. |
|
Konvertiert eine Sammlung von Textdokumenten in eine Matrix von Token-Vorkommen. |
|
Transformiert eine Zählmatrix in eine normalisierte TF- oder TF-IDF-Darstellung. |
|
Konvertiert eine Sammlung von Rohdokumenten in eine Matrix von TF-IDF-Merkmalen. |
|
Univariater Merkmalsselektor mit konfigurierbarer Strategie. |
|
Merkmalsranking mit rekursivem Merkmals-Eliminierung. |
|
Rekursive Merkmals-Eliminierung mit Kreuzvalidierung zur Merkmalsauswahl. |
|
Filter: Wählt die p-Werte für eine geschätzte False Discovery Rate. |
|
Filter: Wählt p-Werte unterhalb von alpha basierend auf einem FPR-Test aus. |
|
Meta-Transformer zur Auswahl von Merkmalen basierend auf Wichtigkeitsgewichtungen. |
|
Filter: Wählt die p-Werte, die der Family-wise Error Rate entsprechen. |
|
Wählt Merkmale nach den k höchsten Punktzahlen aus. |
|
Wählt Merkmale nach einem Perzentil der höchsten Punktzahlen aus. |
|
Transformer-Mixin, das Merkmalsauswahl basierend auf einer Unterstützungsmaske durchführt |
|
Transformer, der Sequential Feature Selection durchführt. |
|
Merkmalsselektor, der alle Merkmale mit geringer Varianz entfernt. |
|
Berechnet Chi-Quadrat-Statistiken zwischen jedem nicht-negativen Merkmal und der Klasse. |
|
Berechnet den ANOVA F-Wert für die gegebene Stichprobe. |
|
Univariate lineare Regressionstests, die F-Statistik und p-Werte zurückgeben. |
|
Schätzt die gegenseitige Information für eine diskrete Zielvariable. |
|
Schätzt die gegenseitige Information für eine kontinuierliche Zielvariable. |
|
Berechnet das Pearson'sche r für jedes Merkmal und das Ziel. |
|
Schätzer, der einen angepassten Schätzer umhüllt, um eine erneute Anpassung zu verhindern. |
|
Gauß'sche Prozess-Klassifikation (GPC) basierend auf Laplace-Approximation. |
|
Gauß'sche Prozess-Regression (GPR). |
|
Kernel, der aus einer Menge anderer Kernel besteht. |
|
Konstanter Kernel. |
|
Punktprodukt-Kernel. |
|
Exp-Sine-Squared Kernel (auch bekannt als periodischer Kernel). |
|
Der Exponentiationskernel nimmt einen Basiskernel und einen skalaren Parameter |
|
Eine Spezifikation eines Kernel-Hyperparameters in Form eines namedtuple. |
|
Basisklasse für alle Kernel. |
|
Matern-Kernel. |
|
Wrapper für Kernel in sklearn.metrics.pairwise. |
|
Der |
|
Radialbasis-Funktionskernel (auch bekannt als quadratisch-exponentieller Kernel). |
|
Rationaler quadratischer Kernel. |
|
Der |
|
Weißer Kernel. |
|
Multivariater Imputer, der jedes Merkmal aus allen anderen schätzt. |
|
Imputation zur Vervollständigung fehlender Werte mittels k-Nächste Nachbarn. |
|
Binäre Indikatoren für fehlende Werte. |
|
Univariater Imputer zur Vervollständigung fehlender Werte mit einfachen Strategien. |
|
Partielle Abhängigkeit von |
|
Permutations-Wichtigkeit zur Merkmalsbewertung [Rd9e56ef97513-BRE]. |
|
Visualisierung von Entscheidungsgrenzen. |
|
Partial Dependence Plot (PDP) und Individual Conditional Expectation (ICE). |
|
Isotonischer Regressionsmodell. |
|
Bestimmt, ob y monoton mit x korreliert ist. |
|
Löst das isotonische Regressionsmodell. |
|
Approximiert eine Merkmalsabbildung für den additiven Chi2-Kernel. |
|
Approximiert eine Kernel-Abbildung mittels einer Teilmenge der Trainingsdaten. |
|
Polynomialer Kernel-Approximation mittels Tensor Sketch. |
|
Approximiert eine RBF-Kernel-Merkmalsabbildung mittels zufälliger Fourier-Merkmale. |
|
Approximiert eine Merkmalsabbildung für den "skewed chi-squared"-Kernel. |
|
Kernel-Regressionsanalyse. |
|
Logistische Regression (auch bekannt als Logit, MaxEnt) Klassifikator. |
|
Logistische Regression CV (auch bekannt als Logit, MaxEnt) Klassifikator. |
|
Passiver aggressiver Klassifikator. |
|
Linearer Perzeptron-Klassifikator. |
|
Klassifikator mittels Ridge-Regression. |
|
Ridge-Klassifikator mit integrierter Kreuzvalidierung. |
|
Lineare Klassifikatoren (SVM, logistische Regression, etc.) mit SGD-Training. |
|
Löst lineare One-Class-SVM mit stochastischem Gradientenabstieg. |
|
Normales Kleinste-Quadrate-Linearmodell. |
|
Lineare Kleinste-Quadrate mit l2-Regularisierung. |
|
Ridge-Regression mit integrierter Kreuzvalidierung. |
|
Lineares Modell, das durch Minimierung eines regularisierten empirischen Verlusts mit SGD angepasst wird. |
|
Lineares Modell mit kombinierter L1- und L2-Prior als Regularisator. |
|
Elastic Net Modell mit iterativem Anpassen entlang eines Regularisierungspfades. |
|
Least Angle Regression Modell, auch bekannt als LAR. |
|
Kreuzvalidiertes Least Angle Regression Modell. |
|
Lineares Modell, trainiert mit L1-Prior als Regularisator (auch bekannt als Lasso). |
|
Lasso-Linearmodell mit iterativem Anpassen entlang eines Regularisierungspfades. |
|
Lasso-Modell, angepasst mit Least Angle Regression, auch bekannt als Lars. |
|
Kreuzvalidiertes Lasso unter Verwendung des LARS-Algorithmus. |
|
Lasso-Modell, angepasst mit Lars, unter Verwendung von BIC oder AIC zur Modellauswahl. |
|
Orthogonal Matching Pursuit Modell (OMP). |
|
Kreuzvalidiertes Orthogonal Matching Pursuit Modell (OMP). |
|
Bayes'sche ARD-Regression. |
|
Bayes'sche Ridge-Regression. |
|
Multi-Task ElasticNet Modell, trainiert mit L1/L2 Mixed-Norm als Regularisator. |
|
Multi-Task L1/L2 ElasticNet mit integrierter Kreuzvalidierung. |
|
Multi-Task Lasso Modell, trainiert mit L1/L2 Mixed-Norm als Regularisator. |
|
Multi-Task Lasso Modell, trainiert mit L1/L2 Mixed-Norm als Regularisator. |
|
L2-regularisiertes lineares Regressionsmodell, das robust gegenüber Ausreißern ist. |
|
Lineares Regressionsmodell, das bedingte Quantile vorhersagt. |
|
RANSAC (RANdom SAmple Consensus) Algorithmus. |
|
Theil-Sen Estimator: robuster multivariater Regressionsmodell. |
|
Generalisiertes lineares Modell mit einer Gamma-Verteilung. |
|
Generalisiertes lineares Modell mit einer Poisson-Verteilung. |
|
Generalisiertes lineares Modell mit einer Tweedie-Verteilung. |
|
Passiver aggressiver Regressor. |
|
Berechnet den Elastic Net-Pfad mit Koordinatenabstieg. |
|
Berechnet den Least Angle Regression oder Lasso-Pfad mit dem LARS-Algorithmus. |
|
Der lars_path im Modus der ausreichenden Statistiken. |
|
Berechnet den Lasso-Pfad mit Koordinatenabstieg. |
|
Orthogonal Matching Pursuit (OMP). |
|
Gram Orthogonal Matching Pursuit (OMP). |
|
Löst die Ridge-Gleichung nach der Methode der Normalgleichungen. |
|
Klassisches multidimensionales Scaling (MDS). |
|
Isomap Einbettung. |
|
Locally Linear Embedding. |
|
Multidimensionales Scaling. |
|
Spektrale Einbettung für nichtlineare Dimensionsreduktion. |
|
T-distributed Stochastic Neighbor Embedding. |
|
Führt eine Locally Linear Embedding Analyse an den Daten durch. |
|
Berechnet multidimensionales Scaling mit dem SMACOF-Algorithmus. |
|
Projiziert die Stichprobe auf die ersten Eigenvektoren des Graphen-Laplace-Operators. |
|
Gibt an, inwieweit die lokale Struktur erhalten bleibt. |
|
Bestimmt den Scorer anhand von Benutzeroptionen. |
|
Ruft einen Scorer anhand von Strings ab. |
|
Ruft die Namen aller verfügbaren Scorer ab. |
|
Erstellt einen Scorer aus einer Leistungsmetrik oder Verlustfunktion. |
|
Genauigkeits-Klassifikationsergebnis. |
|
Berechnet die Fläche unter der Kurve (AUC) mittels der Trapezregel. |
|
Berechnet die durchschnittliche Präzision (AP) aus Vorhersageergebnissen. |
|
Berechnet die ausgewogene Genauigkeit. |
|
Berechnet den Brier Score Verlust. |
|
Berechnet die positiven und negativen Likelihood-Verhältnisse für die binäre Klassifikation. |
|
Erstellt einen Textbericht, der die wichtigsten Klassifikationsmetriken zeigt. |
|
Berechnet den Cohen's Kappa: eine Statistik, die die Übereinstimmung zwischen den Annotatoren misst. |
|
Berechnet die Konfusionsmatrix zur Bewertung der Genauigkeit einer Klassifikation. |
|
Berechne Terme der binären Konfusionsmatrix pro Klassifizierungsschwelle. |
|
D² Score-Funktion, Bruchteil des erklärten Brier-Scores. |
|
D² Score-Funktion, Bruchteil des erklärten Log-Loss. |
|
Berechne Discounted Cumulative Gain. |
|
Berechne Detection Error Tradeoff (DET) für verschiedene Wahrscheinlichkeitsschwellen. |
|
Berechne den F1-Score, auch bekannt als Balanced F-Score oder F-Maß. |
|
Berechne den F-beta-Score. |
|
Berechne den durchschnittlichen Hamming-Verlust. |
|
Durchschnittlicher Hinge-Verlust (nicht regularisiert). |
|
Jaccard-Ähnlichkeitskoeffizient-Score. |
|
Log-Loss, auch bekannt als logistischer Verlust oder Kreuzentropieverlust. |
|
Berechne den Matthews-Korrelationskoeffizienten (MCC). |
|
Berechne eine Konfusionsmatrix für jede Klasse oder Stichprobe. |
|
Berechne Normalized Discounted Cumulative Gain. |
|
Berechne Präzisions-Recall-Paare für verschiedene Wahrscheinlichkeitsschwellen. |
|
Berechne Präzision, Recall, F-Maß und Support für jede Klasse. |
|
Berechne die Präzision. |
|
Berechne den Recall. |
|
Berechne die Fläche unter der Receiver Operating Characteristic Curve (ROC AUC) aus den Vorhersagescores. |
|
Berechne die Receiver operating characteristic (ROC). |
|
Top-k Genauigkeitsklassifikations-Score. |
|
Null-Eins-Klassifikationsverlust. |
|
D² Regressions-Score-Funktion, Bruchteil des erklärten absoluten Fehlers. |
|
D² Regressions-Score-Funktion, Bruchteil des erklärten Pinball-Verlusts. |
|
D² Regressions-Score-Funktion, Bruchteil der erklärten Tweedie-Devianz. |
|
Erklärte Varianz-Regressions-Score-Funktion. |
|
Die Metrik max_error berechnet den maximalen Residuenfehler. |
|
Mittlerer absoluter Fehler für die Regression. |
|
Mittlerer absoluter prozentualer Fehler (MAPE) für die Regression. |
|
Mittlerer Gamma-Devianz-Verlust für die Regression. |
|
Pinball-Verlust für die Quantilregression. |
|
Mittlerer Poisson-Devianz-Verlust für die Regression. |
|
Mittlerer quadratischer Fehler für die Regression. |
|
Mittlerer quadratischer logarithmischer Fehler für die Regression. |
|
Mittlerer Tweedie-Devianz-Verlust für die Regression. |
|
Mittlerer absoluter Fehler für die Medianregression. |
|
R² (Bestimmtheitsmaß) Regressions-Score-Funktion. |
|
Wurzel aus dem mittleren quadratischen Fehler für die Regression. |
|
Wurzel aus dem mittleren quadratischen logarithmischen Fehler für die Regression. |
|
Coverage-Fehlermessung. |
|
Berechne ranking-basierte Durchschnittspräzision. |
|
Berechne den Ranking-Verlust. |
|
Adjustierte gegenseitige Information zwischen zwei Clusterings. |
|
Durch den Zufall angepasster Rand-Index. |
|
Berechne den Calinski-Harabasz-Score. |
|
Erstelle eine Kontingenzmatrix, die die Beziehung zwischen Labels beschreibt. |
|
Paarweise Konfusionsmatrix aus zwei Clusterings. |
|
Berechne die Vollständigkeitsmetrik einer Cluster-Beschriftung gegeben eine Grundwahrheit. |
|
Berechne den Davies-Bouldin-Score. |
|
Messe die Ähnlichkeit von zwei Clusterings eines Punktesets. |
|
Berechne gleichzeitig Homogenitäts-, Vollständigkeits- und V-Measure-Scores. |
|
Homogenitätsmetrik einer Cluster-Beschriftung gegeben eine Grundwahrheit. |
|
Gegenseitige Information zwischen zwei Clusterings. |
|
Normalisierte gegenseitige Information zwischen zwei Clusterings. |
|
Rand-Index. |
|
Berechne den Silhouettenkoeffizienten für jede Stichprobe. |
|
Berechne den mittleren Silhouettenkoeffizienten aller Stichproben. |
|
V-Measure Cluster-Beschriftung gegeben eine Grundwahrheit. |
|
Die Ähnlichkeit von zwei Mengen von Bicluster. |
|
Einheitliche Schnittstelle für schnelle Distanzmetrikfunktionen. |
|
Berechne den additiven Chi-Quadrat-Kernel zwischen Beobachtungen in X und Y. |
|
Berechne den exponentiellen Chi-Quadrat-Kernel zwischen X und Y. |
|
Berechne die Kosinusdistanz zwischen Stichproben in X und Y. |
|
Berechne die Kosinusähnlichkeit zwischen Stichproben in X und Y. |
|
Gültige Metriken für pairwise_distances. |
|
Berechne die Distanzmatrix zwischen jedem Paar aus einem Feature-Array X und Y. |
|
Berechne die Haversine-Distanz zwischen Stichproben in X und Y. |
|
Gültige Metriken für pairwise_kernels. |
|
Berechne den Laplacian-Kernel zwischen X und Y. |
|
Berechne den linearen Kernel zwischen X und Y. |
|
Berechne die L1-Distanzen zwischen den Vektoren in X und Y. |
|
Berechne die euklidischen Distanzen bei fehlenden Werten. |
|
Berechne die paarweisen Kosinusdistanzen zwischen X und Y. |
|
Berechne die paarweisen Distanzen zwischen X und Y. |
|
Berechne die paarweisen euklidischen Distanzen zwischen X und Y. |
|
Berechne die paarweisen L1-Distanzen zwischen X und Y. |
|
Berechne den Kernel zwischen den Arrays X und einem optionalen Array Y. |
|
Berechne den Polynom-Kernel zwischen X und Y. |
|
Berechne den RBF (Gaußschen) Kernel zwischen X und Y. |
|
Berechne den Sigmoid-Kernel zwischen X und Y. |
|
Berechne die Distanzmatrix aus einem Feature-Array X und einem optionalen Y. |
|
Berechne die minimalen Distanzen zwischen einem Punkt und einer Menge von Punkten. |
|
Berechne die minimalen Distanzen zwischen einem Punkt und einer Menge von Punkten. |
|
Generiere eine Distanzmatrix Block für Block mit optionaler Reduktion. |
|
Visualisierung der Konfusionsmatrix. |
|
Visualisierung der Detection Error Tradeoff (DET) Kurve. |
|
Visualisierung von Präzision und Recall. |
|
Visualisierung des Vorhersagefehlers eines Regressionsmodells. |
|
Visualisierung der ROC-Kurve. |
|
Varianz-Bayes'sche Schätzung einer Gaußschen Mischung. |
|
Gaußsche Mischung. |
|
K-Fold Iterator-Variante mit nicht überlappenden Gruppen. |
|
Shuffle-Group(s)-Out Kreuzvalidierungs-Iterator. |
|
K-Fold Kreuzvalidierer. |
|
Leave One Group Out Kreuzvalidierer. |
|
Leave-One-Out Kreuzvalidierer. |
|
Leave P Group(s) Out Kreuzvalidierer. |
|
Leave-P-Out Kreuzvalidierer. |
|
Vordefinierter Split Kreuzvalidierer. |
|
Wiederholter K-Fold Kreuzvalidierer. |
|
Wiederholter klassenweiser stratifizierter K-Fold Kreuzvalidierer. |
|
Zufälliger Permutations-Kreuzvalidierer. |
|
Klassenweiser stratifizierter K-Fold Iterator-Variante mit nicht überlappenden Gruppen. |
|
Klassenweiser stratifizierter K-Fold Kreuzvalidierer. |
|
Klassenweiser stratifizierter ShuffleSplit Kreuzvalidierer. |
|
Zeitreihen-Kreuzvalidierer. |
|
Input-Prüfungs-Dienstprogramm zum Aufbau eines Kreuzvalidierers. |
|
Teilt Arrays oder Matrizen in zufällige Trainings- und Testteilmengen auf. |
|
Exhaustive Suche nach angegebenen Parameterwerten für einen Schätzer. |
|
Suche nach angegebenen Parameterwerten mit sukzessiver Halbierung. |
|
Zufällige Suche nach Hyperparametern. |
|
Parametergitter mit einer diskreten Anzahl von Werten für jeden. |
|
Generator für aus gegebenen Verteilungen abgetastete Parameter. |
|
Zufällige Suche nach Hyperparametern. |
|
Binärer Klassifikator, der die Entscheidungsschwelle manuell festlegt. |
|
Klassifikator, der die Entscheidungsschwelle mittels Kreuzvalidierung nachjustiert. |
|
Generiert kreuzvalidierte Schätzungen für jeden Eingabedatenpunkt. |
|
Bewertet einen Score durch Kreuzvalidierung. |
|
Bewertet Metrik(en) durch Kreuzvalidierung und erfasst auch Fit-/Score-Zeiten. |
|
Lernkurve. |
|
Bewertet die Signifikanz eines kreuzvalidierten Scores durch Permutationen. |
|
Validierungskurve. |
|
Visualisierung der Lernkurve. |
|
Visualisierung der Validierungskurve. |
|
One-vs-one Multiklassenstrategie. |
|
One-vs-the-rest (OvR) Multiklassenstrategie. |
|
(Fehlerkorrigierende) Output-Code-Multiklassenstrategie. |
|
Ein Multi-Label-Modell, das binäre Klassifikatoren zu einer Kette anordnet. |
|
Multi-Target-Klassifizierung. |
|
Multi-Target-Regression. |
|
Ein Multi-Label-Modell, das Regressionen zu einer Kette anordnet. |
|
Naiv-Bayes-Klassifikator für multivariate Bernoulli-Modelle. |
|
Naiv-Bayes-Klassifikator für kategorische Merkmale. |
|
Der Complement Naive Bayes Klassifikator, beschrieben in Rennie et al. (2003). |
|
Gaußscher Naiv Bayes (GaussianNB). |
|
Naiv-Bayes-Klassifikator für multinomielle Modelle. |
|
BallTree für schnelle verallgemeinerte N-Punkt-Probleme. |
|
KDTree für schnelle verallgemeinerte N-Punkt-Probleme. |
|
Klassifikator, der die k-nächste-Nachbarn-Abstimmung implementiert. |
|
Regression basierend auf k-nächsten Nachbarn. |
|
Transformiert X in einen (gewichteten) Graphen von k nächsten Nachbarn. |
|
Kernel-Dichte-Schätzung. |
|
Unüberwachte Ausreißererkennung mittels Local Outlier Factor (LOF). |
|
Nächster-Zentroid-Klassifikator. |
|
Unüberwachter Lerner zur Implementierung von Nachbarschaftssuchen. |
|
Neighborhood Components Analysis. |
|
Klassifikator, der eine Abstimmung unter Nachbarn innerhalb eines gegebenen Radius implementiert. |
|
Regression basierend auf Nachbarn innerhalb eines festen Radius. |
|
Transformiert X in einen (gewichteten) Graphen von Nachbarn näher als ein Radius. |
|
Berechnet den (gewichteten) Graphen von k-Nachbarn für Punkte in X. |
|
Berechnet den (gewichteten) Graphen von Nachbarn für Punkte in X. |
|
Sortiert einen dünnbesetzten Graphen so, dass jede Zeile mit steigenden Werten gespeichert wird. |
|
Bernoulli Restricted Boltzmann Machine (RBM). |
|
Multi-Layer Perceptron Klassifikator. |
|
Multi-Layer Perceptron Regressor. |
|
Verkettet die Ergebnisse mehrerer Transformer-Objekte. |
|
Eine Sequenz von Datentransformatoren mit einem optionalen finalen Prädiktor. |
|
Konstruiert eine |
|
Konstruiert eine |
|
Binarisiert Daten (Setzt Merkmalswerte auf 0 oder 1) gemäß einer Schwelle. |
|
Konstruiert einen Transformator aus einer beliebigen aufrufbaren Funktion. |
|
Teilt kontinuierliche Daten in Intervalle auf. |
|
Zentriert eine beliebige Kernelmatrix \(K\). |
|
Binarisiert Labels im One-vs-all-Verfahren. |
|
Kodiert Ziel-Labels mit Werten zwischen 0 und n_classes-1. |
|
Skaliert jedes Merkmal nach seinem maximalen absoluten Wert. |
|
Transformiert Merkmale durch Skalierung jedes Merkmals auf einen gegebenen Bereich. |
|
Transformiert zwischen iterierbaren von iterierbaren und einem Multilabel-Format. |
|
Normalisiert Stichproben einzeln auf Norm 1. |
|
Kodiert kategoriale Merkmale als eine One-Hot-numerische Matrix. |
|
Kodiert kategoriale Merkmale als eine Ganzzahlmatrix. |
|
Generiert Polynom- und Interaktionsmerkmale. |
|
Wendet eine Potenztransformation merkmalweise an, um Daten mehr Gauss'sche Eigenschaften zu verleihen. |
|
Transformiert Merkmale mithilfe von Quantilinformationen. |
|
Skaliert Merkmale unter Verwendung von Statistiken, die robust gegenüber Ausreißern sind. |
|
Generiert univariaten B-Spline-Basis für Merkmale. |
|
Standardisiert Merkmale durch Entfernen des Mittelwerts und Skalierung auf Einheitsvarianz. |
|
Ziel-Encoder für Regressions- und Klassifikationsziele. |
|
Erweitert den Datensatz um ein zusätzliches Dummy-Merkmal. |
|
Boolesches Thresholding von Array-ähnlichen oder Scipy.sparse Matrizen. |
|
Binarisiert Labels im One-vs-all-Verfahren. |
|
Skaliert jedes Merkmal auf den Bereich [-1, 1], ohne die Sparsity zu brechen. |
|
Transformiert Merkmale durch Skalierung jedes Merkmals auf einen gegebenen Bereich. |
|
Skaliert Eingabevektoren einzeln auf Einheitsnorm (Vektorlänge). |
|
Parametrische, monotone Transformation, um Daten mehr Gauss'sche Eigenschaften zu verleihen. |
|
Transformiert Merkmale mithilfe von Quantilinformationen. |
|
Standardisiert einen Datensatz entlang einer beliebigen Achse. |
|
Standardisiert einen Datensatz entlang einer beliebigen Achse. |
|
Reduziert die Dimensionalität durch gaußsche Zufallsprojektion. |
|
Reduziert die Dimensionalität durch spärliche Zufallsprojektion. |
|
Findet eine "sichere" Anzahl von Komponenten für die zufällige Projektion. |
|
Label Propagation Klassifikator. |
|
LabelSpreading-Modell für semi-überwachtes Lernen. |
|
Self-training Klassifikator. |
|
Lineare Support Vector Klassifizierung. |
|
Lineare Support Vector Regression. |
|
Nu-Support Vector Klassifizierung. |
|
Nu Support Vector Regression. |
|
Unüberwachte Ausreißererkennung. |
|
C-Support Vector Klassifizierung. |
|
Epsilon-Support Vector Regression. |
|
Gibt die unterste Grenze für |
|
Ein Entscheidungsbaum-Klassifikator. |
|
Ein Entscheidungsbaum-Regressor. |
|
Ein extrem zufälliger Baum-Klassifikator. |
|
Ein extrem zufälliger Baum-Regressor. |
|
Exportiert einen Entscheidungsbaum im DOT-Format. |
|
Erstellt einen Textbericht, der die Regeln eines Entscheidungsbaums zeigt. |
|
Plottet einen Entscheidungsbaum. |
|
Container-Objekt, das Schlüssel als Attribute verfügbar macht. |
|
Gibt Zeilen, Elemente oder Spalten von X anhand von Indizes zurück. |
|
Konvertiert ein Array-ähnliches Objekt in ein Array von Gleitkommazahlen. |
|
Löst einen ValueError aus, wenn X NaN oder Unendlichkeit enthält. |
|
Decorator, um eine Funktion oder Klasse als veraltet zu markieren. |
|
Erstellt eine HTML-Darstellung eines Schätzers. |
|
Generator zum Erstellen von Slices, die |
|
Generator zum Erstellen von |
|
Macht Arrays für die Kreuzvalidierung indizierbar. |
|
Berechnet den 32-Bit-Murmurhash3 von Schlüssel bei Seed. |
|
Resampelt Arrays oder spärliche Matrizen auf konsistente Weise. |
|
Gibt eine Maske zurück, die sicher auf X angewendet werden kann. |
|
Elementweise Quadrierung von Array-ähnlichen Objekten und spärlichen Matrizen. |
|
Mischt Arrays oder spärliche Matrizen auf konsistente Weise. |
|
Tags für den Schätzer. |
|
Tags für die Eingabedaten. |
|
Tags für die Zieldaten. |
|
Tags für den Klassifikator. |
|
Tags für den Regressor. |
|
Tags für den Transformator. |
|
Schätzertags abrufen. |
|
Eingabevalidierung für Standard-Schätzer. |
|
Eingabevalidierung für ein Array, eine Liste, eine spärliche Matrix oder ähnliches. |
|
Prüft, ob alle Arrays konsistente erste Dimensionen haben. |
|
Wandelt Seed in eine np.random.RandomState Instanz um. |
|
Validiert den Typ und Wert von Skalarparametern. |
|
Führt eine is_fitted-Validierung für den Schätzer durch. |
|
Prüft, ob |
|
Stellt sicher, dass das Array 2D, quadratisch und symmetrisch ist. |
|
Ravel-Spalte oder 1D-NumPy-Array, andernfalls wird ein Fehler ausgelöst. |
|
Prüft, ob die fit-Methode des Schätzers den gegebenen Parameter unterstützt. |
|
Validiert Eingabedaten und setzt oder prüft die Merkmalsnamen und die Anzahl der Eingaben. |
|
Ein Attribut, das nur verfügbar ist, wenn check einen wahrheitsgemäßen Wert zurückgibt. |
|
Schätzt Klassengewichte für unausgeglichene Datensätze. |
|
Schätzt Stichprobengewichte nach Klasse für unausgeglichene Datensätze. |
|
Prüft, ob |
|
Bestimmt den Datentyp, der durch das Ziel angezeigt wird. |
|
Extrahiert ein geordnetes Array eindeutiger Labels. |
|
Berechnet die Dichte eines spärlichen Vektors. |
|
Berechnet den Logarithmus der Determinante einer quadratischen Matrix. |
|
Berechnet eine orthonormale Matrix, deren Bereich den Bereich von A annähert. |
|
Berechnet eine trunkierte, zufällige SVD. |
|
Skalarprodukt, das den Fall von spärlichen Matrizen korrekt behandelt. |
|
Gibt ein Array des gewichteten modalen (häufigsten) Wertes im übergebenen Array zurück. |
|
Berechnet inkrementell Mittelwert und Varianz entlang einer Achse auf einer CSR- oder CSC-Matrix. |
|
In-place Spaltenskalierung einer CSC/CSR-Matrix. |
|
In-place Spaltenskalierung einer CSR-Matrix. |
|
In-place Zeilenskalierung einer CSR- oder CSC-Matrix. |
|
Tauscht zwei Spalten einer CSC/CSR-Matrix in-place. |
|
Tauscht zwei Zeilen einer CSC/CSR-Matrix in-place. |
|
Berechnet Mittelwert und Varianz entlang einer Achse auf einer CSR- oder CSC-Matrix. |
|
Normalisiert inplace die Zeilen einer CSR-Matrix oder eines Arrays nach ihrer L1-Norm. |
|
Normalisiert inplace die Zeilen einer CSR-Matrix oder eines Arrays nach ihrer L2-Norm. |
|
Gibt die Länge des kürzesten Pfades von der Quelle zu allen erreichbaren Knoten zurück. |
|
Ganzzahlen ohne Zurücklegen ziehen. |
|
Findet den Minimalwert eines Arrays über positive Werte. |
|
Enthält die Metadaten-Anfrageinformationen eines Konsumenten. |
|
Koordiniert das Metadaten-Routing für ein Router-Objekt. |
|
Speichert die Zuordnung zwischen Aufrufer- und Aufgerufenen-Methoden für einen Router. |
|
Holt eine |
|
Validiert und routet Metadaten. |
|
Gibt eine Liste aller Anzeigen aus |
|
Gibt eine Liste aller Schätzer aus |
|
Gibt eine Liste aller Funktionen aus |
|
Prüft, ob der Schätzer den Konventionen von Scikit-learn entspricht. |
|
Pytest-spezifischer Decorator zum Parametrisieren von Schätzer-Checks. |
|
Gibt iterativ alle Check-Aufrufe für einen Schätzer zurück. |
|
Abwandlung von |
|
Decorator zum Erfassen der Argumente einer Funktion. |