Institut für Informatik
Michael WAND Wintersemester 2021/22 |
Als erstes schauen wir uns an (oder wiederholen) wie die multi-variate Gaußsche Normalverteilung definiert ist. Die verschiedenen Least-Squares-Approximationsalgorithmen (ehrlich gesagt, eigentlich alle quadratischen Optimierungsansätze) laufen nämlich alle darauf hinaus, die maximale Wahrscheinlichkeitsdichte einer entsprechenden Normalverteilung auszurechnen.
Video: Die (multivariate) Gaußsche Normalverteilung (20 min)
groß (3360x1080 mit Folien), mittel (1920x1080), klein(853x480), Folien (PDF)
Weiterführende Links: - https://de.wikipedia.org/wiki/Normalverteilung - https://de.wikipedia.org/wiki/Mehrdimensionale_Normalverteilung
Nachbereitung:
Zur Vorbereitung auf die Least-Squares-Fitting Ansätze schauen wir uns nochmal kurz die Interpolation von Punkten mit einem linearen Funktionenansatz an. Der Stoff sollte prinzipiell aus der Schule bekannt sein (hier ist es nur etwas allgemeiner formuliert). Außerdem bashen wir noch etwas die Polynome. Die sind nämlich eigentlich (=bei hohem Grad) eher doof.
Video: Interpolation von Datenpunkten (15 min)
groß (3360x1080 mit Folien), mittel (1920x1080), klein(853x480), Folien (PDF)
Nachbereitung:
Nun kommt das eigentliche Kernstück: Wir versuchen eine Menge von Punkten (Paare von Ein- und Ausgaben einer Funktion) durch eine Funktion anzunähern, und zwar so, dass die neue Funktion möglichst nahe an all diesen Punkten verläuft. Sollte dies nicht möglich sein, so wird eine Lösung bestimmt, die die Quadrate der Abstände (im Ausgaberaum) minimiert. Dabei wird die Approximationsfunktion als eine Linearkombination von Basisfunktionen gewählt (die grüne Wiese lässt grüßen). Es wird auch gezeigt, dass dieses Modell auf der Annahme basiert, dass die Fehler unabhängig und Normalverteilt sind - in dem Fall wird eine “Maximum-Likelihood Schätzung” erstellt. (Eine ML-Schätzung ist rekonstruiert asymptotisch die richtige Funktion mit immer höherer Wahrscheinlichkeit falls diese genau so eine Linearkombination ist, und die Anzahl der Samples immer weiter gesteigert werden kann).
Video: Die Least-Squares Methode zur Approximation von Datenpunkten (38 min)
groß (3360x1080 mit Folien), mittel (1920x1080), klein(853x480), Folien (PDF)
Nachbereitung:
Falls Fehler nicht normalverteilt sind, kann einiges schiefgehen. Hier schauen wir uns einige Techniken an, mit denen man Approximationsverfahren robust gegen Ausreißer und andere “heavy-tail”-Verteilungen machen kann. Eine (nicht besonders schnelle aber) einfache Implementation ist “Iteratively Reweighted Least-Squares (IRLS)”. Was so ähnlich klingt wie die amerikanische Bundessteuerbehörde beschreibt schlicht ein wiederholtes Fitting, bei dem die Gewichte schrittweise so angepasst werden, dass Ausreißer ein geringeres Gewicht bekommen als gut-passende Datenpunkte.
Video: Robuste Schätzer und IRLS (15 min)
groß (3360x1080 mit Folien), mittel (1920x1080), klein(853x480), Folien (PDF)
Gesamtlaufzeit Videos: 88min
Übungsaufgaben: Das sechste Übungsblatt finden Sie hier.
Hinweis: Klicken Sie auf diesen Link, um auf die Panopto-Seite zu gelangen. Hier finden Sie alle Videos im mp4-Format für alle Geräte.