Direkt zum Hauptbereich

#Platon, #Hegel und #BigData: Was Maschinen noch lernen müssen


Searle sitzt in einem Raum. Durch eine Klappe wird ein Zettel mit chinesischen Zeichen hereingereicht. Searle versteht kein Chinesisch. Aber er hat ein dickes Buch mit Regeln, denen er folgt. Er ersetzt einige Zeichen durch andere und ändert die Reihenfolge. Dann legt er den neuen Zettel zurück in die Klappe. Von außen sieht es so aus, als hatte Searle gerade eine Frage auf Chinesisch richtig beantwortet. Aber Searle versteht nicht, was er da gemacht hat und er wird nie Chinesisch lernen. Das „chinesische Zimmer“ ist ein Gedankenexperiment, ein Gleichnis. Es beschreibt sehr gut den aktuellen Stand der künstlichen Intelligenz, das so genannte maschinelle Lernen. Andrew Ng, einer der führenden Forscher auf dem Gebiet, hat maschinelles Lernen in etwa so beschrieben: Wir haben einen Dateninput (A) und benutzen komplexe mathematische Funktionen, um diese Daten zu einem Output (B) zu verwandeln. Weil wir dem Computer sagen können, wie B aussehen soll (die Antwort ist schon bekannt), gelingt dass auch immer besser, aber mit Denken hat das nichts zu tun. Was aber wäre, wenn das das chinesische Zimmer nicht hermetisch abgeriegelt wäre, sondern z. B. ein milchiges Fenster hätte, durch das Searle einen ungefähren Eindruck bekommt, was außerhalb des Raumes passiert? Könnte er dann nicht irgendwann verstehen, was er da eigentlich macht und die Regeln in seinem Buch selbständig verändern? Die Pioniere der künstlichen Intelligenzforschung Allen Newell und Herbert Simon argumentierten bereits 1976, dass ein „physikalischen Symbolsystems“ eine hinreichende Bedingung für künstliche Intelligenz wäre. 
Diese These lässt sich mit der klassischen Philosophie begründen. Das chinesische Zimmer mit Milchglasfenster entspricht dem berühmten Höhlengleichnis von Platon. Wenn auch wir Menschen nur die „Schatten der echten Welt“ erkennen können, warum sollte dies dann ein Hindernis für das künstliche Denken sein? 
Eine grundlegende Kritik an der Vorstellung des Höhlengleichnisses kommt allerdings von Hegel. Der deutsche Philosoph hat seine Theorie als „spekulativen Idealismus“ bezeichnet. Hegel lehnt die Idee ab, dass die Wahrheit (oder das Ding-an-sich) in der physikalischen Welt läge. Seine Philosophie ist idealistisch, weil diese Wahrheit eine Tätigkeit des Denkens ist. Ein Baum ist nicht einfach eine physikalisch bestimmbare Einheit. Wir wissen, dass z. B. die feinen Wurzeln, die ins Erdreich übergehen, zum Baum gehören, nicht aber das Moos auf der Rinde. Wir wissen dies, weil wir verstehen, was ein Baum ist. Dieses Verständnis ist aber zunächst – anders als die richtige Antwort im chinesischen Zimmer – nicht bekannt. Wir müssen spekulieren. Wir denken uns Erklärungen aus, die wir dann überprüfen. Denken in diesem Sinne kann heute noch kein Computer. Aber warum sollte man es ihnen nicht beibringen können? 
Eine Klasse des maschinellen Lernens geht bereits in diese Richtung: Evolutionäre Algorithmen probieren zufällige Veränderungen aus und kommen damit zu erstaunlichen Ergebnissen. Ein zielgerichtetes Spekulieren ist dies aber noch nicht. Hegel hat die von ihm erkannten Regeln des Denkens allerdings sehr detailliert niedergeschrieben. Warum sollte es nicht möglich sein, seine Logik zu programmieren? Anders als in anderen Bereichen der künstlichen Intelligenzforschung scheint der Flaschenhals hier nicht die vorhandene Rechenkapazität zu sein, sondern die fehlende Expertise. Wer hat schon Hegel gelesen und kennt sich mit maschinellem Lernen aus? An der Hochschule für Politik wollen wir – unter anderem – diese Lücke schließen. Auch weil wir glauben, dass eine so fundamentale technische Entwicklung wie künstliche Intelligenz nicht unabhängig von der Frage der politischen und gesellschaftlichen Konsequenzen untersucht werden sollte.

Hier noch ein TEDxTalk von mir zum Thema:

Kommentare

Beliebte Posts aus diesem Blog

Was man an der COVID-Politik über Faschismus lernen kann

Kritiker der Corona-Politik führen immer häufiger den Begriff Faschismus im Munde, um die politischen Maßnahmen zu beschreiben. Einerseits ist damit natürlich eine polemische Ablehnung verbunden: Wer will schon für Faschismus sein? Generell ist der moralische Vorwurf, etwas sei faschistisch oder faschistoid in der demokratischen Auseinandersetzung durchaus geläufig. Dabei wird jedoch meist auf etwas verwiesen, was zum demokratischen Staat dazu gehört und gerade keinen Faschismus begründet: Die Polizei, die das Gewaltmonopol durchsetzt, ist keine faschistische Organisation, ein Parlament, welches Bürgerrechte einschränkt, ist kein Beleg für die faschistische Aufhebung des Rechtsstaats und ein Medienartikel, der dazu aufruft, Bürger sollen Straftäter anzeigen, ist keine faschistische Propaganda, usw. All dies sind Beispiele für das Leben in demokratischen Gemeinwesen. Anstatt die Demokratie also immer gleich auf dem Weg in den Faschismus zu wähnen, wäre es angebracht, sich zu fragen, war...

Kritik an dem Science-Artikel der Priesemann-Gruppe „Inferring change points in the spread of COVID-19 reveals the effectiveness of interventions“

Der Science-Artikel von Dehning et al. (2020) gilt als Beleg für die Effektivität der Corona-Maßnahmen in Deutschland im März 2020. Wir glauben, dass der Artikel gravierende Fehler enthält und daher nichts darüber aussagt, ob insbesondere das Kontaktverbot vom 23.03.2020, irgendeinen Effekt hatte. Unsere Kritik haben wir bei Science eingereicht und sie ist hier zu finden: https://science.sciencemag.org/content/369/6500/eabb9789/tab-e-letters Im folgenden übersetze ich unseren Beitrag und gehe anschließend auf die Frage ein, wie Wissenschaft unter COVID-19-Bedingungen funktioniert und was daran bedenklich ist. Eine Kritik an ‘Inferring change points in the spread of COVID-19 reveals the effectiveness of interventions’ Wir haben den Artikel ‘Inferring change points in the spread of COVID-19 reveals the effectiveness of interventions’ analysiert und dabei gravierende Unstimmigkeiten im Design der Studie festgestellt: Anstatt das Datum der Wendepunkte (wann sich die COVID-19-Entwicklung i...

Der Nutzerismus: Eine Ideologie mit totalitärem Potential

Ich glaube, dass wir derzeit den Aufstieg einer Ideologie erleben, die ich Nutzerismus nennen möchte. Hannah Arendt hat darauf hingewiesen, dass jede Ideologie zu einem totalitaristischen Regime führen kann und es gibt ernste Anzeichen, dass dies auch für den Nutzerismus gilt.  Was ist der Nutzerismus? Wie bei jeder Ideologie ist der Kerngedanke sehr einfach: Im Prinzip gibt es für alle gesellschaftlichen Probleme eine technische Lösung. Leider wenden die Menschen die richtigen Technologien nicht an. Sie nehmen ihre Rolle als Nutzer nicht wahr. Es geht dem Nutzerismus also um das Zusammenspiel von Mensch und Technik, allerdings immer wieder aus der gleichen Perspektive. Die Technik kommt vor als potentielle Lösung eines gesellschaftlichen Problems. Eventuell fehlt die perfekte Lösung noch, aber das ist dann als Auftrag an die Wissenschaft und die Ingenieure zu verstehen. Dieser Technikglaube hat etwas sehr Naives. Er abstrahiert zum Beispiel von allen Interessen, für die Technolog...