Vorwort
Statistische Datenmodellierung

Die Vorlesung “Modellierung 2 - Statistische Datenmodellierung” beschäftigt sich mit mathematischen Modellen und deren Implementierung (Algorithmen und Datenstrukturen), um Phänomene statistisch zu beschreiben.

Struktur

Die Vorlesung besteht grob aus drei Teilen:

Was ist das Ziel?

Warum also das ganze? Die Forschungsfrage, die wir uns derzeit (und derzeit heißt, je nach Sichtweise, seit 10-100 Jahren, oder auch, wenn nicht kleinlich ist, seit 100.000 Jahren) stellen, ist, wie Intelligenz funktioniert: Wie kann ein System Informationen aus der Umgebung aufnehmen und diese so verarbeiten, dass es “versteht” was da draußen passiert und ggf. entsprechend handeln kann.

Die aktuelle gesteigerte Aufmerksamkeit (engl. “Hype”), die das Gebiet der “AI/KI” (artificial intelligence/künstliche Intelligenz) bekommt, beruht sicher nicht unwesentlich auf den großen technischen Fortschritten, die in den letzten 10-20 Jahren insbesondere durch die Kombination von “tiefen künstlichen neuronalen Netzen” und “Big Data” zu Stande gekommen sind. Die Ergebnisse, die man dabei mittlerweile erzielen kann, sind durchaus beachtlich (im Vergleich zu klassischen Verfahren ist das mehr oder weniger Science Fiction). Interessanterweise verstehen wir aber nur bruchstückhaft, warum gerade diese neuen Methoden (mit den tiefen Netzen) so gut funktionieren, und ob dies vielleicht irgendwie mit allgemeinen Prinzipien von Intelligenz zusammenhängen könnte.

Die Frage ist von der Struktur her nicht ganz neu; die Neurowissenschaften versuchen seit Jahrzehnten herauszufinden, wie biologische Intelligenz funktioniert. Trotz viel faszinierender Forschung ist aber auch hier vieles noch immer nicht verstanden. In einem Gespräch sagte mir eine Kollegin aus den Neurowissenschaften mal sinngemäß: Deep Learning ist toll, jetzt haben wir zwei Systeme, die wir nicht verstehen (biologische und künstliche neuronale Netze). Wobei das ernst gemeint war: Es ist wirklich toll, weil man die digitalen Systeme natürlich viel einfacher untersuchen kann als biologische, und vielleicht dabei etwas über das Wesen der Intelligenz lernen kann.

Der Unterschied, der sowohl die biologischen wie auch (zumindst zu einem gewissen Grade) die künstlichen Netzwerken von klassischen statistischen Lernverfahren wie Support-Vector-Maschinen oder Gaußschen Prozessen abhebt, dass erstere ein hohes Maß an Emergenz aufweisen: Die Mechanismen sind relativ banal (zumindest bei den künstlichen Netzen), und die komplexe Struktur, bildet sich durch Selbstorganisationsprozesse, wenn man die Netzwerke auf Aufgaben (Daten) loslässt.

Das Ziel der Vorlesung ist daher, einen Einblick darin zu bekommen, wie man komplexe Systeme modellieren kann und auch einige Techniken kennen zu lernen, mit denen man Strukturbildungsprozesse modellieren und verstehen kann (hier kann die Vorlesung nur ein paar Impulse geben – eine umfassende Behandlung würde den Rahmen sprengen).

Wir starten im alten Griechenland?!

Um sich der Frage zu nähern, wie Intelligente Systeme funktionieren könnten, ist es wichtig, dass wir uns erstmal klar machen, was wir schon darüber wissen, wie man sich intelligent verhält; will sagen, wie man Wissen aus Beobachtungen extrahieren kann. Dies ist eine Frage, die schon vor mehreren Tausend Jahren Philosophen umgetrieben hat, und die interessante Ideen dazu hatten. Es stellt sich heraus, dass dies nicht so unterschiedlich zu dem ist, was man heute im algorithmischen Lernen so tut (allerdings in C++/Python statt mit Tinte auf Papyrus, was die Sache zwar nicht effektiver, aber nicht unwesentlich effizienter macht).

Die relativ weit ausholende Einleitung in das Thema ist Absicht und soll den Blick auf das Wesentliche lenken: Worum es im Kern eigentlich geht, bevor wir die ganze “Technologie” ranschaffen. Diejenigen, die sich hier schon gut auskennen, können gerne das ganze überfliegen bzw. vorspulen.

Was ist denn nun die Antwort?

Weiss ich auch nicht. Aber die Vorlesung folgt einer impliziten Hypothese, um Methoden und Techniken zusammenzustellen: Dass es Eigenschaften natürlicher Dynamik sind, die die Statistik der Phänomene prägen, die wir verstehen wollen. Die Vorlesung ist daher aufgebaut als “Statistische Datenmodellierung”, als Werkzeugkasten zur Beschreibung der Struktur von “Daten” aus der “Realen Welt”. Und ich hoffe, dass dieser dabei helfen kann, die Welt besser (mit dem Rechner) zu verstehen, und vielleicht auch ein wenig die Systeme, die eben dieses tun (oder versuchen zu tun).

Ich wünsche nun viel Spaß & Erfolg beim Lesen und Verfolgen der Vorlesung!







Datenschutz     Impressum