Kapitel 01: Wahrscheinlichkeit
Wie sicher ist unsicher?

Kapitel 1: In diesem Kapitel schauen wir uns die Grundlagen der Wahrscheinlichkeitsrechnung an. Dabei stellen wir uns die allgemeine Frage, wie man Wissen, das mit Unsicherheit behaftet ist, allgemein Repräsentieren kann. Die Frage, wie man solches Wissen aus beobachteten Daten extrahieren kann (wobei statistische Unsicherheiten richtig berücksichtigt werden sollen), stellen wir uns in Kapitel 2.

Wie generieren wir Wissen?

Die Vorlesung “Statistische Datenmodellierung (Modellierung 2)” beschäftigt sich mit der Frage, wie man Wissen aus Daten generieren kann, insbesondere wenn dieses Wissen nicht 100%ig sicher ist sondern mit Unsicherheiten behaftet ist. Das ultimative Ziel des größeren Forschungsumfeldes ist es, zu verstehen, wie Intelligenz also solche funktioniert. Wir wissen das natürlich nur begrenzt, aber es lohnt sich, auf die

KI? Gegenfrage – was ist denn überhaupt NI?

Diese Frage ist eng Verwoben mit der Frage, wie das Individuum überhaupt Wissen erwerben kann: Was wir hier versuchen, ist es, die Methode, mit der Menschen Wissen aus Beobachtungen der Umwelt extrahieren, so weit zu formalisieren, dass man dies auf dem Rechner ausführen kann (P. Domingos [2016] hat mal dies sinngemäß so zusammengefasst, dass Machine Learning eine algorithmische Formalisierung der wissenschaftlichen Methode sei.)

Na dann, wie machen wir das? Die Frage ist natürlich nicht ganz neu. Die Disziplin, die sich damit beschäftigt nennt sich Erkenntnistheorie und ist so alt, dass sie als (fundamentales) Teilgebiet der Philosophie gilt (damals war alle Wissenschaft noch Philosphie; die Idee, dass auf einer GPU zu implementieren ist halt jüngeren Datums).

An dieser Stelle sei ein Kurs in Erkenntnistheorie (oder ein gutes Buch) wärmstens empfohlen; um eine grobe Einordnung für unsere algorithmischen Versuche zu bekommen, folgt eine sehr verkürzte Zusammenfassung von Schulwissen:

An einem schönen Sommermorgen, ca. 440BC

Die Reise in die Theorie der Erkenntnis beginnt typischerweise mit dem Skeptizismus. Man darf nicht alles glauben, was einem die Leute erzählen (das galt sicher zu Zeiten okkulter Riten genauso wie heute bei guten Ratschlägen von Posts in sozialen Medien). Der Skeptizist zweifelt erstmal alles an, was sich nicht “beweisen” lässt. Der Prominenteste Vertreter war sicherlich Sokrates:

Sokrates: “Ich weiss, dass ich nichts weiss”. Die Grundidee ist, dass man sich bei nichts wirklich sicher sein kann. Man kann sich ja im Prinzip alles einbilden.

Das bringt uns nicht viel weiter, liefert aber eine solide Basis: Wir können nur Wissen erwerben, wenn wir zusätzliche Annahmen treffen. Die sind nicht unbedingt verbindlich, aber nötig, um überhaupt zu einem Ergebnis zu kommen.

Diese Grundsymmetrie des Wissens (ohne Annahmen, die selbst nicht absolut gesichert sind, kommt man nicht weiter), wird uns bei der Beschäftigung mit dem Thema immer wieder begegnen. Vielleicht ist dies eigentlich das einzige ernste, grundsätzliche Problem.

Unvollständig - Fortsetzung folgt.

Quellen

[Domingos 2016] Pedro Domingos: The Quest for the Master Algorithm. TEDx Talk at University of Washington, 2016. https://www.youtube.com/watch?v=qIZ5PXLVZfo







Datenschutz     Impressum