sklearn.random_projection#
Zufällige Projektionstransformatoren.
Zufällige Projektionen sind eine einfache und rechnerisch effiziente Methode zur Dimensionsreduktion von Daten, indem ein kontrollierter Genauigkeitsverlust (als zusätzliche Varianz) gegen schnellere Verarbeitungszeiten und kleinere Modellgrößen eingetauscht wird.
Die Dimensionen und die Verteilung der Matrizen für zufällige Projektionen werden so gesteuert, dass die paarweisen Abstände zwischen zwei beliebigen Stichproben des Datensatzes erhalten bleiben.
Das wichtigste theoretische Ergebnis hinter der Effizienz der zufälligen Projektion ist das Johnson-Lindenstrauss-Lemma (Zitat aus Wikipedia)
In der Mathematik ist das Johnson-Lindenstrauss-Lemma ein Ergebnis, das sich mit Low-Distortion-Einbettungen von Punkten aus einem hochdimensionalen in einen niedrigdimensionalen euklidischen Raum befasst. Das Lemma besagt, dass eine kleine Menge von Punkten in einem hochdimensionalen Raum in einen Raum mit viel geringerer Dimension so eingebettet werden kann, dass die Abstände zwischen den Punkten nahezu erhalten bleiben. Die für die Einbettung verwendete Abbildung ist mindestens Lipschitz-stetig und kann sogar als orthogonale Projektion genommen werden.
Benutzerhandbuch. Weitere Einzelheiten finden Sie im Abschnitt Zufällige Projektion.
Reduziert die Dimensionalität durch gaußsche Zufallsprojektion. |
|
Reduziert die Dimensionalität durch spärliche Zufallsprojektion. |
|
Finden Sie eine 'sichere' Anzahl von Komponenten für die zufällige Projektion. |