Modellierung 2
Statistische Datenmodellierung


Michael Wand, Institut für Informatik,
April 2021


Eine kurze Reise durch die Welt der statistischen Modellierung



Eine (noch unvollständige) Wiederholung der Konzepte der Vorlesung Modellierung 2

Dieses Dokument fasst einige der Themen der Vorlesung Modellierung 2 nochmal in Textform zusammen. Es erhebt keinen Anspruch auf Vollständigkeit und ersetzt nicht die Vorlesung selbst.

Noch ein Wort zum Konzept: Ziel der Vorlesung wie auch dieses Aufschriebs ist eine informelle, übersichtsartige Einführung in die Konzepte der statistischen Datenmodellierung. Ziel ist es, typische Probleme im Visual Computing (Graphik, Computer Vision) lösen zu können. Es besteht aber kein hoher Anspruch an mathematische Strenge und Präzision. Hier empfehle ich auf jeden Fall eine Vertiefung mit einer Fachvorlesung aus der Mathematik oder statistischen Physik.

Nun viel Spaßt beim Lesen.

Vorwort: Statistische Datenmodellierung

Themen

tl;dr – Worum geht’s und warum?

Skript: Hier geht es zum Vorwort

Kapitel 1: Wie sind wir uns unsicher?

Themen

tl;dr – Sokrates glaubt an nix. Die anderen machen Statistik, in verschiedenem Grade.

Skript: Hier geht es zu Kapitel 1

Kapitel 2: Wiederholung Statistik

Themen

tl;dr – Unsicherheit mathematisch = Dichte auf einem Gebiet

Skript: Hier geht es zu Kapitel 2

Kapitel 3: Wissen aus Daten generieren – ein alter, philosophischer Streit

Themen

tl;dr – Alle wirklich wichtigen Fragen sind fundamental umstritten und damit Geschmackssache.

Skript: Hier geht es zu Kapitel 3

Kapitel 4: Statistik und maschinelles Lernen

Themen

tl;dr – Alles ist Statistik, aber mit unterschiedlich vielen Parametern.

Skript: Hier geht es zu Kapitel 4

Kapitel 5: Bayes’sche Datenanalyse und einige klassische Klassifizierer

Themen:

tl;dr – Die Klassiker

Skript: Hier geht es zu Kapitel 5

Kapitel 6: Bitte ein Bit – Informationstheorie

Themen:

tl;dr – Nur reiner Zufall ist echte Information.

Skript: Hier geht es zu Kapitel 6

Kapitel 7: Das Essen war nicht umsonst – statistische Lerntheorie

Themen:

tl;dr – zu viele Parameter böse.

Skript: Hier geht es zu Kapitel 7

Achtung: Alles weiter unten ist noch vorläufig und kann sich jederzeit ändern. Die Webseite gibt den aktuellen Stand der Planung wieder und wird laufend aktualisiert.

Kapitel 8: Old-School-Cool – Klassische Modelle aus dem maschinellen Lernen

Themen:

tl;dr – Modelle, die die Statistik vereinfachen, aber trotzdem nützlich sind

Skript: Hier geht es zu Kapitel 8

Kapitel 9: Back to the Future – tiefe neuronale Netze

“Ich habe ein neutrales Netz (Akzent: Steiermark)”.

tl;dr – Wir haben keine Ahnung, wie Arnie funktioniert, aber er ist ziemlich cool.

Kapitel 10: Alchemie – schmutzige Tricks für tiefe neuronale Netze

Von BatchNorm über ResNets zu GANs und Transformers.

tl;dr – Man kann gut raten, wie man es machen muss. Es tut super. Aber ich weiss nicht warum.

An dieser Stelle ändert sich unsere Geschichte

Wir reiben uns verwundert die Augen und fragen uns, ob Kapitel 9 und 10 nicht Kapitel 1-8 fundamental widersprechen. Nein, tun sie nicht, aber es fühlt sich so an. Irgendetwas ist schief gelaufen. Versuchen wir zu verstehen, was das sein könnte.

Spoiler: Eine zufriedenstellende Antwort gibt es in dieser Vorlesung nicht mehr. Das sollte ja gerade der Grund sein, der sie interessant machen sollte.

Kapitel 11: Wo kommen all die Daten her? Eine sehr, sehr kurze Geschichte von Information, Zeit & Raum

Themen

tl;dr – Es war ein schöner Sommermorgen in Griechenland, ca. 600BC.

Skript: Hier geht es zu Kapitel 11

Kapitel 12: Pirates of the d – The Curse of Dimensionality

Themen

tl;dr – Alles MDS, also eigentlich, PCA

Skript: Hier geht es zu Kapitel 12

Kapitel 13: Was nun (1)? Informationstheorie klang doch cool!

Informationsbottlenecks, disentanglement, etc.

tl;dr – umstritten

Kapitel 14: Was nun (2)? Wie wäre es mit Symmetriegruppen?

tl;dr – Gruppentherapie!

Kapitel 15: Was nun (3)? Mean-Field Approximation und Variational Bayes

tl;dr – Ist alles ziemlich approximativ, aber die Formeln sind halbwegs impressive.

Kapitel 16: Was nun (4)? Analysis komplexer Systeme mit Renormierung

Es ist doch alles PCA: Fourier-Basis, Skaleninvarianz, Gruppentheorie, kritische Punkte

tl;dr – Wege ins Chaos

Kapitel 17: Was nun (5)? Nur Empirie ist wahre Brain Science – verschiedene Anekdoten zu tiefen Netzen

Overfitting ist anders als man Denkt. Training läuft anders als man denkt. Batch-Norm macht, was sie will. Spielen die Netze Lotto? Oder doch nicht?

tl;dr – “Jetzt haben wir zwei Systeme, die wir nicht verstehen”







Datenschutz     Impressum