1. Überwachtes Lernen#
- 1.1. Lineare Modelle
- 1.1.1. Ordinary Least Squares
- 1.1.2. Ridge-Regression und -Klassifikation
- 1.1.3. Lasso
- 1.1.4. Multi-Task-Lasso
- 1.1.5. Elastic-Net
- 1.1.6. Multi-Task-Elastic-Net
- 1.1.7. Least Angle Regression
- 1.1.8. LARS Lasso
- 1.1.9. Orthogonal Matching Pursuit (OMP)
- 1.1.10. Bayesianische Regression
- 1.1.11. Logistische Regression
- 1.1.12. Generalisierte Lineare Modelle
- 1.1.13. Stochastischer Gradientenabstieg - SGD
- 1.1.14. Robustheitsregression: Ausreißer und Modellierungsfehler
- 1.1.15. Quantilregression
- 1.1.16. Polynomielle Regression: Erweiterung linearer Modelle mit Basisfunktionen
- 1.2. Lineare und quadratische Diskriminanzanalyse
- 1.3. Kernel Ridge Regression
- 1.4. Support Vector Machines
- 1.5. Stochastischer Gradientenabstieg
- 1.6. Nearest Neighbors
- 1.7. Gaußsche Prozesse
- 1.8. Kreuzzerlegung
- 1.9. Naive Bayes
- 1.10. Entscheidungsbäume
- 1.10.1. Klassifikation
- 1.10.2. Regression
- 1.10.3. Multi-Output-Probleme
- 1.10.4. Komplexität
- 1.10.5. Tipps zur praktischen Anwendung
- 1.10.6. Baumalgorithmen: ID3, C4.5, C5.0 und CART
- 1.10.7. Mathematische Formulierung
- 1.10.8. Unterstützung für fehlende Werte
- 1.10.9. Minimaler Kosten-Komplexitäts-Pruning
- 1.11. Ensembles: Gradient Boosting, Random Forests, Bagging, Voting, Stacking
- 1.12. Multiclass- und Multioutput-Algorithmen
- 1.13. Merkmalsauswahl
- 1.14. Semi-überwachtes Lernen
- 1.15. Isotone Regression
- 1.16. Wahrscheinlichkeitskalibrierung
- 1.17. Neuronale Netzwerkmodelle (überwacht)