Searle
sitzt in einem Raum. Durch eine Klappe wird ein Zettel mit
chinesischen Zeichen hereingereicht. Searle versteht kein Chinesisch.
Aber er hat ein dickes Buch mit Regeln, denen er folgt. Er ersetzt
einige Zeichen durch andere und ändert die Reihenfolge. Dann legt er
den neuen Zettel zurück in die Klappe. Von außen sieht es so aus,
als hatte Searle gerade eine Frage auf Chinesisch richtig
beantwortet. Aber Searle versteht nicht, was er da gemacht hat und er
wird nie Chinesisch lernen. Das „chinesische Zimmer“ ist ein
Gedankenexperiment, ein Gleichnis. Es beschreibt sehr gut den
aktuellen Stand der künstlichen Intelligenz, das so genannte
maschinelle Lernen. Andrew Ng, einer der führenden Forscher auf dem
Gebiet, hat maschinelles Lernen in etwa so beschrieben: Wir haben
einen Dateninput (A) und benutzen komplexe mathematische Funktionen,
um diese Daten zu einem Output (B) zu verwandeln. Weil wir dem
Computer sagen können, wie B aussehen soll (die Antwort ist schon
bekannt), gelingt dass auch immer besser, aber mit Denken hat das
nichts zu tun. Was aber wäre, wenn das das chinesische Zimmer nicht
hermetisch abgeriegelt wäre, sondern z. B. ein milchiges Fenster
hätte, durch das Searle einen ungefähren Eindruck bekommt, was
außerhalb des Raumes passiert? Könnte er dann nicht irgendwann
verstehen, was er da eigentlich macht und die Regeln in seinem Buch
selbständig verändern? Die Pioniere der künstlichen
Intelligenzforschung Allen Newell und Herbert Simon argumentierten
bereits 1976, dass ein „physikalischen Symbolsystems“ eine
hinreichende Bedingung für künstliche Intelligenz wäre.
Diese These lässt sich mit der klassischen Philosophie begründen. Das chinesische Zimmer mit Milchglasfenster entspricht dem berühmten Höhlengleichnis von Platon. Wenn auch wir Menschen nur die „Schatten der echten Welt“ erkennen können, warum sollte dies dann ein Hindernis für das künstliche Denken sein?
Eine grundlegende Kritik an der Vorstellung des Höhlengleichnisses kommt allerdings von Hegel. Der deutsche Philosoph hat seine Theorie als „spekulativen Idealismus“ bezeichnet. Hegel lehnt die Idee ab, dass die Wahrheit (oder das Ding-an-sich) in der physikalischen Welt läge. Seine Philosophie ist idealistisch, weil diese Wahrheit eine Tätigkeit des Denkens ist. Ein Baum ist nicht einfach eine physikalisch bestimmbare Einheit. Wir wissen, dass z. B. die feinen Wurzeln, die ins Erdreich übergehen, zum Baum gehören, nicht aber das Moos auf der Rinde. Wir wissen dies, weil wir verstehen, was ein Baum ist. Dieses Verständnis ist aber zunächst – anders als die richtige Antwort im chinesischen Zimmer – nicht bekannt. Wir müssen spekulieren. Wir denken uns Erklärungen aus, die wir dann überprüfen. Denken in diesem Sinne kann heute noch kein Computer. Aber warum sollte man es ihnen nicht beibringen können?
Eine Klasse des maschinellen Lernens geht bereits in diese Richtung: Evolutionäre Algorithmen probieren zufällige Veränderungen aus und kommen damit zu erstaunlichen Ergebnissen. Ein zielgerichtetes Spekulieren ist dies aber noch nicht. Hegel hat die von ihm erkannten Regeln des Denkens allerdings sehr detailliert niedergeschrieben. Warum sollte es nicht möglich sein, seine Logik zu programmieren? Anders als in anderen Bereichen der künstlichen Intelligenzforschung scheint der Flaschenhals hier nicht die vorhandene Rechenkapazität zu sein, sondern die fehlende Expertise. Wer hat schon Hegel gelesen und kennt sich mit maschinellem Lernen aus? An der Hochschule für Politik wollen wir – unter anderem – diese Lücke schließen. Auch weil wir glauben, dass eine so fundamentale technische Entwicklung wie künstliche Intelligenz nicht unabhängig von der Frage der politischen und gesellschaftlichen Konsequenzen untersucht werden sollte.
Diese These lässt sich mit der klassischen Philosophie begründen. Das chinesische Zimmer mit Milchglasfenster entspricht dem berühmten Höhlengleichnis von Platon. Wenn auch wir Menschen nur die „Schatten der echten Welt“ erkennen können, warum sollte dies dann ein Hindernis für das künstliche Denken sein?
Eine grundlegende Kritik an der Vorstellung des Höhlengleichnisses kommt allerdings von Hegel. Der deutsche Philosoph hat seine Theorie als „spekulativen Idealismus“ bezeichnet. Hegel lehnt die Idee ab, dass die Wahrheit (oder das Ding-an-sich) in der physikalischen Welt läge. Seine Philosophie ist idealistisch, weil diese Wahrheit eine Tätigkeit des Denkens ist. Ein Baum ist nicht einfach eine physikalisch bestimmbare Einheit. Wir wissen, dass z. B. die feinen Wurzeln, die ins Erdreich übergehen, zum Baum gehören, nicht aber das Moos auf der Rinde. Wir wissen dies, weil wir verstehen, was ein Baum ist. Dieses Verständnis ist aber zunächst – anders als die richtige Antwort im chinesischen Zimmer – nicht bekannt. Wir müssen spekulieren. Wir denken uns Erklärungen aus, die wir dann überprüfen. Denken in diesem Sinne kann heute noch kein Computer. Aber warum sollte man es ihnen nicht beibringen können?
Eine Klasse des maschinellen Lernens geht bereits in diese Richtung: Evolutionäre Algorithmen probieren zufällige Veränderungen aus und kommen damit zu erstaunlichen Ergebnissen. Ein zielgerichtetes Spekulieren ist dies aber noch nicht. Hegel hat die von ihm erkannten Regeln des Denkens allerdings sehr detailliert niedergeschrieben. Warum sollte es nicht möglich sein, seine Logik zu programmieren? Anders als in anderen Bereichen der künstlichen Intelligenzforschung scheint der Flaschenhals hier nicht die vorhandene Rechenkapazität zu sein, sondern die fehlende Expertise. Wer hat schon Hegel gelesen und kennt sich mit maschinellem Lernen aus? An der Hochschule für Politik wollen wir – unter anderem – diese Lücke schließen. Auch weil wir glauben, dass eine so fundamentale technische Entwicklung wie künstliche Intelligenz nicht unabhängig von der Frage der politischen und gesellschaftlichen Konsequenzen untersucht werden sollte.
Hier noch ein TEDxTalk von mir zum Thema:
Kommentare
Kommentar veröffentlichen