EmpiricalCovariance#
- class sklearn.covariance.EmpiricalCovariance(*, store_precision=True, assume_centered=False)[Quelle]#
Maximale Likelihood Kovarianz-Schätzer.
Lesen Sie mehr im Benutzerhandbuch.
- Parameter:
- store_precisionbool, Standard=True
Gibt an, ob die geschätzte Präzision gespeichert wird.
- assume_centeredbool, Standard=False
Wenn True, werden die Daten vor der Berechnung nicht zentriert. Nützlich bei der Arbeit mit Daten, deren Mittelwert fast, aber nicht exakt Null ist. Wenn False (Standard), werden die Daten vor der Berechnung zentriert.
- Attribute:
- location_ndarray der Form (n_features,)
Geschätzter Ort, d.h. der geschätzte Mittelwert.
- covariance_ndarray der Form (n_features, n_features)
Geschätzte Kovarianzmatrix.
- precision_ndarray der Form (n_features, n_features)
Geschätzte Pseudoinversenmatrix. (nur gespeichert, wenn store_precision True ist)
- n_features_in_int
Anzahl der während des fits gesehenen Merkmale.
Hinzugefügt in Version 0.24.
- feature_names_in_ndarray mit Form (
n_features_in_,) Namen der während fit gesehenen Merkmale. Nur definiert, wenn
XMerkmalnamen hat, die alle Zeichenketten sind.Hinzugefügt in Version 1.0.
Siehe auch
EllipticEnvelopeObjekt zur Erkennung von Ausreißern in einem Gauß'schen Datensatz.
GraphicalLassoSchätzung der dünnen Kovarianz mit einem l1-penalisierten Schätzer.
LedoitWolfLedoitWolf-Schätzer.
MinCovDetMinimum Covariance Determinant (robuster Schätzer der Kovarianz).
OASOracle Approximating Shrinkage Estimator.
ShrunkCovarianceKovarianz-Schätzer mit Schrumpfung.
Beispiele
>>> import numpy as np >>> from sklearn.covariance import EmpiricalCovariance >>> from sklearn.datasets import make_gaussian_quantiles >>> real_cov = np.array([[.8, .3], ... [.3, .4]]) >>> rng = np.random.RandomState(0) >>> X = rng.multivariate_normal(mean=[0, 0], ... cov=real_cov, ... size=500) >>> cov = EmpiricalCovariance().fit(X) >>> cov.covariance_ array([[0.7569, 0.2818], [0.2818, 0.3928]]) >>> cov.location_ array([0.0622, 0.0193])
- error_norm(comp_cov, norm="frobenius", scaling=True, squared=True)[Quelle]#
Berechnet den mittleren quadratischen Fehler zwischen zwei Kovarianzschätzern.
- Parameter:
- comp_covarray-like der Form (n_features, n_features)
Die zu vergleichende Kovarianz.
- norm{„frobenius“, „spectral“}, Standard=„frobenius“
Die Art der Norm, die zur Berechnung des Fehlers verwendet wird. Verfügbare Fehlertypen: - „frobenius“ (Standard): sqrt(tr(A^t.A)) - „spectral“: sqrt(max(Eigenwerte(A^t.A))), wobei A der Fehler ist
(comp_cov - self.covariance_).- scalingbool, Standard=True
Wenn True (Standard), wird die quadrierte Fehlernorm durch n_features geteilt. Wenn False, wird die quadrierte Fehlernorm nicht skaliert.
- squaredbool, Standard=True
Ob die quadrierte Fehlernorm oder die Fehlernorm berechnet werden soll. Wenn True (Standard), wird die quadrierte Fehlernorm zurückgegeben. Wenn False, wird die Fehlernorm zurückgegeben.
- Gibt zurück:
- resultfloat
Der mittlere quadratische Fehler (im Sinne der Frobenius-Norm) zwischen
selfundcomp_covKovarianzschätzern.
- fit(X, y=None)[Quelle]#
Passt den Maximum-Likelihood-Kovarianzschätzer an X an.
- Parameter:
- Xarray-like der Form (n_samples, n_features)
Trainingsdaten, wobei
n_samplesdie Anzahl der Stichproben undn_featuresdie Anzahl der Merkmale ist.- yIgnoriert
Wird nicht verwendet, ist aber aus Gründen der API-Konsistenz per Konvention vorhanden.
- Gibt zurück:
- selfobject
Gibt die Instanz selbst zurück.
- get_metadata_routing()[Quelle]#
Holt das Metadaten-Routing dieses Objekts.
Bitte prüfen Sie im Benutzerhandbuch, wie der Routing-Mechanismus funktioniert.
- Gibt zurück:
- routingMetadataRequest
Ein
MetadataRequest, der Routing-Informationen kapselt.
- get_params(deep=True)[Quelle]#
Holt Parameter für diesen Schätzer.
- Parameter:
- deepbool, default=True
Wenn True, werden die Parameter für diesen Schätzer und die enthaltenen Unterobjekte, die Schätzer sind, zurückgegeben.
- Gibt zurück:
- paramsdict
Parameternamen, zugeordnet ihren Werten.
- get_precision()[Quelle]#
Getter für die Präzisionsmatrix.
- Gibt zurück:
- precision_array-like der Form (n_features, n_features)
Die Präzisionsmatrix, die dem aktuellen Kovarianzobjekt zugeordnet ist.
- mahalanobis(X)[Quelle]#
Berechnet die quadrierten Mahalanobis-Abstände gegebener Beobachtungen.
Ein detailliertes Beispiel dafür, wie Ausreißer den Mahalanobis-Abstand beeinflussen, finden Sie unter Robuste Kovarianzschätzung und die Relevanz von Mahalanobis-Abständen.
- Parameter:
- Xarray-like der Form (n_samples, n_features)
Die Beobachtungen, deren Mahalanobis-Abstände wir berechnen. Es wird davon ausgegangen, dass die Beobachtungen aus derselben Verteilung stammen wie die in fit verwendeten Daten.
- Gibt zurück:
- distndarray der Form (n_samples,)
Quadrierte Mahalanobis-Abstände der Beobachtungen.
- score(X_test, y=None)[Quelle]#
Berechnet die Log-Wahrscheinlichkeit von
X_testunter dem geschätzten Gaußschen Modell.Das Gaußsche Modell ist definiert durch seinen Mittelwert und seine Kovarianzmatrix, die jeweils durch
self.location_undself.covariance_dargestellt werden.- Parameter:
- X_testarray-like der Form (n_samples, n_features)
Testdaten, deren Wahrscheinlichkeit wir berechnen, wobei
n_samplesdie Anzahl der Stichproben undn_featuresdie Anzahl der Merkmale ist.X_testwird angenommen, aus derselben Verteilung zu stammen wie die in fit verwendeten Daten (einschließlich Zentrierung).- yIgnoriert
Wird nicht verwendet, ist aber aus Gründen der API-Konsistenz per Konvention vorhanden.
- Gibt zurück:
- resfloat
Die Log-Wahrscheinlichkeit von
X_testmitself.location_undself.covariance_als Schätzern für den Mittelwert und die Kovarianzmatrix des Gaußschen Modells.
- set_params(**params)[Quelle]#
Setzt die Parameter dieses Schätzers.
Die Methode funktioniert sowohl bei einfachen Schätzern als auch bei verschachtelten Objekten (wie
Pipeline). Letztere haben Parameter der Form<component>__<parameter>, so dass es möglich ist, jede Komponente eines verschachtelten Objekts zu aktualisieren.- Parameter:
- **paramsdict
Schätzer-Parameter.
- Gibt zurück:
- selfestimator instance
Schätzer-Instanz.
Galeriebeispiele#
Schrumpfkovarianzschätzung: LedoitWolf vs OAS und Maximum-Likelihood
Robuste Kovarianzschätzung und Relevanz von Mahalanobis-Distanzen