Die künstliche Intelligenz des menschlichen Verstehens

Das ist ein subjektiver Text, denn es geht um das Verstehen. Um zu verstehen, schaffen wir Bezüge zwischen uns und der Welt, und deswegen auch zwischen den Dingen der Welt. Dadurch erkennen wir wirkungsvolle Zusammenhänge und steigern unsere Entscheidungs- und Handlungsfähigkeit. Als Anleitung dafür schaffen wir uns Selbst-Verständlichkeiten als direkte oder indirekte Bezüge zwischen unseren Bedürfnissen, Zielen, Werten und der Welt, die durch Unverstandenes immer wieder hinterfragt werden können. In diesem Sinn kann Verstehen als ein flüchtiger Seinszustand betrachtet werden, der als Selbstverständliches im Umgang mit der Welt herausgefordert werden kann. Als Resultat ziehen wir die Welt an uns heran, anstatt uns von ihr zu entfremden.

Das Selbstverständliche zu hinterfragen kann wiederrum Verständnis herbeiführen, umso mehr im Versuch es nachzubilden. Erst dann sind wir gezwungen, implizites Wissen explizit zu formieren. Besonders deutlich wird das, wenn wir unsere Verstehensvorgänge im Computer abbilden und sie dadurch operationalisieren wollen. Ist es nicht auch das, was das Projekt der Künstlichen Intelligenz (KI) erreichen möchte? Und kann dadurch unser Verstehen unterstützt werden, auch indem es für uns nachvollziehbarer wird?

Mit dem Menschen als Vorbild von KI, fangen auch wir in diesem Text beim Menschen an und übersetzen seine Verstehensvorgänge in Methoden der KI. Indem wir der ontogenetischen Entwicklung des Menschen folgen, können die unterschiedlichen Ausmaße des Verstehens und seine Abhängigkeiten deutlich werden. Und weil das ein subjektiver Text ist, beginnen wir mit meinem Weg des Verstehens.

1. Verstehen bedeutet Überleben

Ich bin in Österreich geboren, das für mich als Kind nicht existierte. Meine unmittelbare Umgebung, das war meine Welt, und der Arbeiterbezirk Favoriten galt mir als Wien. Meine Kindheit darin verbrachte ich spielend – als meinen erster Weg, die Welt zu verstehen. Denn durch das Erkundungsprogramm Spielen erproben wir unser Handeln in der Welt und verstehen ihre Bedeutung durch ihre Wirkung auf uns – abgeglichen an unserem grundlegendsten Bezugsmaßstab: Freude und Angst. Wir verstehen, was uns gut tut und verlangen danach. So resultiert unser Ausprobieren in der Welt in Nähe- und Distanzverhältnissen, je nachdem wie gut die Bedürfniserfüllung mit den Dingen der Welt geklappt hat. Diese ersten wirksamen Bezüge zur Welt sind unsere grundlegendsten Selbstverständlichkeiten von Ursache und Wirkung.

Die KI-Abbildung des menschlichen Erkundungsprogramms Spielen nennt sich Reinforcement Learning (RL) bzw. bestärkendes Lernen und deutet bereits an, dass menschliches Lernen von derzeit dominanten Ansätzen der KI als die wichtigste Voraussetzung menschlicher Intelligenz angesehen wird. Im Grunde soll ein RL-Programm selbstständig eine Taktik erlernen, um vorgegebene Ziele bestmöglich zu erreichen. Je besser das dem Programm gelingt, desto mehr Punkte erhält es – es wird belohnt. Das entspricht dem Lösen eines klassischen Optimierungsproblems. Verglichen mit andere Optimierungsalgorithmen sind jedoch die programmierten Vorgaben minimiert. Der KI wird durch den Algorithmus nur die Grundfähigkeiten zur Problemlösung mitgegeben; wie es die Lösung erreicht, bleibt dem Programm durch sein Probieren zu erlernen. Die Spezifizierung der benötigten Fähigkeiten und ihrer Anwendung sind jedoch auch Fragen im RL, an der sie oft scheitert. Welche Grundfähigkeiten und welches Wissen sind bspw. nötig, um zu verstehen, wie ein Tisch für die Erreichung von Zielen bestmöglich verwendet werden kann?

Welche Grundfähigkeiten benötigen wiederrum Menschen für ihr Verstehen? Wir sind zwar von Natur aus mit grundlegenden Fähigkeiten und Mechanismen zur Bedürfniserfüllung ausgestattet. Es ist aber unser sozio-kulturelles Handeln, das uns zu Menschen machen. Auch dafür gehen wir in die Schule. Dort geht es um das Üben und Erweitern unserer kulturellen Fähigkeiten durch das Lernen von Schreiben, Lesen und Rechnen. Nun geben Lehrerinnen und Lehrer vor, was Kinder machen sollen, um die ihnen vorgegeben Ziele zu erreichen. Was für ein deutlicher Bruch zum eigenständigen Erkundungsprogramm davor! Und was für ein Unterschied zum vorherigen klaren Bezugsetzen der Welt zu den eigenen Bedürfnissen! Aber in gewisser Weise übernehmen Lehrer nun diese Rolle der Welt. Denn wo die abstrakte Welt keine Rückmeldung gibt, geben sie Lehrer und andere Bezugs-Personen, durchaus auch wie gewohnt über Freude und Angst. Die Abstraktion von der Welt spiegelt sich auch im vermittelten Wissen wider. Gerade weil Schulkindern die Bedeutung von abstraktem Wissen nicht mehr augenscheinlich ist, müssen Lehrer anfangs noch alte Denkmuster der Bedürfniserfüllung verwenden, um Bezüge zu den Lebensrealitäten der Schulkinder herzustellen, damit sie verstehen: Du hast vier Äpfel und gibst Max einen, wie viele Äpfel bleiben dir? Diese Abstraktion des Verstehens durch Lehrer ist eine einschneidende Entfernung vom Erfahrungslernen und so wird auch der verständliche Nutzen und der Selbstbezug von der Welt abstrahiert.

Lehrer sind auch Aufsichtspersonen, daher überrascht es nicht, dass die entsprechende Methode in KI-Systemen supervised machine learning (ML) genannt wird. Der Mensch gibt der KI vor, dass z. B auf Bildern ein Tisch gezeigt wird, und erwartet daraufhin von der KI das selbständige Erkennen von Tischen in ähnlichen Bildern. Außerdem gibt der lehrende Mensch der lernenden KI noch den Hinweis, welche Eigenschaften von Bildern, zB. Pixeleigenschaften, sie dabei verwenden soll. Ohne es explizit vorzugeben, hofft der Mensch dabei, dass die KI nach dem Durchsehen von unterschiedlichen Tischen ihre wesentlichen Eigenschaften – das (Pixel)Muster Tisch – gelernt hat. Dieses Erlernen von allgemeinen Regeln aus Beispielen entspricht einem induktiven Verstehensvorgang. Hat dadurch jedoch die KI verstanden, was ein Tisch ist? Weiß sie für welche Probleme der Tisch nützlich ist und in welchen Bezug er zu anderen Dingen steht? Nein, denn ihre Aufgabe neue Bilder den Begriff „Tisch“ zuzuweisen, erforderte das nicht.

2. Verstehen bedeutet In-der-Welt-Stehen

Mit unseren Bezugspersonen wird uns „Selbst“-Verständliches über die Welt vorgegeben. Viele sprechen dann von Anstand, andere von Werte. Auch meine Eltern gaben mir als Selbstverständlichkeit mit, mich sozial, also als Teil der Gesellschaft, zu denken. Das prägte mein Selbstbild und schuf gleichzeitig eine Reibungsfläche zum Fremdbild vieler anderer. Um sozial handlungsfähig zu bleiben, musste ich jedoch lernen mit der Mehrheitsmeinung umzugehen, am besten indem ich sie verstehe.

Solange unser Handeln in der Welt funktioniert, gibt es wenig Grund Selbstverständliches zu hinterfragen und neu verstehen zu müssen. Wenn es jedoch zu Konflikten und Störungen führt, werden andere Lösungen benötigt, um handlungsfähig bleiben zu können. Dieser kritische Punkt in der Adoleszenz prägte meine Herangehensweise an das Verstehen. Statt mir Antworten und einen geschützten Raum voller vorgegebener Selbstverständlichkeiten zu bieten, wiesen meine Eltern mich darauf hin, dass auf meine Fragen (meine Verstehensansprüche) irgendein Buch schon Antwort biete.

Verstehen kann also auch scheinbar losgelöst vom Handeln in der Welt stehen, zB. durch Wissensaneignung aus Büchern, aber auch durch die ausgelösten Vorstellungen in der neu entstehenden Gedankenwelt. Diese Wissensflut kann einem schon überfordern, wenn auch sonst sich einiges im jugendlichen Leben ändert. Was mit dem neuen Wissen anfangen und wie sich damit in Bezug setzen? Denn nach wie vor ist das jugendliche Verstehen auf die Frage ausgerichtet: Was bedeutet das für mich? Vielleicht sind deswegen bei Jugendlichen einfache Analogien und Sinnbilder, die einen klaren Bezug zu ihrem Alltag herstellen, so beliebt. Das geht bis hin zu Weltanschauungen und Ideologien mit ihren Aussagen: Du brauchst die verwirrende Welt im Einzelnen nicht zu verstehen. Ich kenne die Wahrheit und kann dich leiten. Lass deine Identifizierung zu Idealen und Helden dein Bezug zur Welt sein und vertraue ihnen deine Verstehensfragen an!

Auch in der KI-Forschung ging man – ähnlich konventionellen Lehrkonzepten in Schulen – anfangs davon aus, dass zur Erreichung von Intelligenz erstmal explizites Weltwissen in das KI-System hineingeklopft werden muss – in diesem Fall mittels Tastatur. Dementsprechend war die Hauptfrage der KI-Forschung jener nach geeigneter Wissensrepräsentation. Erst dann wären logische Operationen möglich. Durch welches Konzept sollte zB. ein Tisch im Computer repräsentiert werden, damit Schlussfolgerungen über ihn möglich sind? Schlussfolgern und Imaginieren, waren das nicht auch Kernfähigkeiten, die uns von Tieren unterscheiden, also prägend für menschliches Verstehen sind? Mit dieser Vermutung lag ein Fokus sogenannter wissensbasierter KI in der Verwendung mathematischer Formalisierungen von Wissen. Kritik an diesem Ansatz gipfelte im Chinese-Room-Experiment (siehe Kästchen), indem hinterfragt wurde, inwiefern solche Systeme die verarbeitenden Formalisierungen verstehen können. Bezeichnende Systeme, wie der GPS (General Problem Solver), und Soar (State, Operator Apply Result) hatten weiterhin den Anspruch, höheres menschliches Denken abzubilden und fokussierten dementsprechend auf unterschiedliche Gedächtnis- bzw. Speichersysteme und deren Anwendung in Logikkalkülen und Suchheuristiken. Aber was nutzt all das statische Wissen, wenn unklar ist, wie es für unterschiedliche Probleme verwendet werden kann? Wie kann die statische Wissensrepräsentation eines Tisches dafür genutzt werden, um den dynamischen Umgang damit für das Schreiben, das Ablegen von Gegenständen und sogar das Sitzen zu ermöglich?

3. Verstehen bedeutet das Mitgestalten von Zielen und Wegen

Auch für mich wurde eigenes Schlussfolgern der Königsweg zum Verstehen. Die bloße Wissensaneignung reichte mir nicht mehr. Vielmehr verwendete ich Wissen immer häufiger als Grundlage dafür, selbstständig Wissen abzuleiten. Das fing spätestens mit dem Erkennen von Wortbedeutungen aufgrund ihrer Etymologie an. Wenn ich die Grundlagen bzw. die Axiome und die Regeln zur Erzeugung von Wissen kenne, kann ich die für das Verstehen nötigen Zusammenhänge ableiten. Neben der Induktion – dem Verallgemeinern von Einzelerfahrungen – lernte ich den umgekehrten Weg – die Deduktion – und weitere Methoden des Schlussfolgerns für mein Verstehen einzusetzen. Trotzdem fing ich an, Medizin zu studieren und u. a. die lateinische Bezeichnung jeder Erhebung und Senkung aller Knochen auswendig zu lernen – ohne die Fragen unterdrücken zu können, wie ihre Bezeichnungen mit ihrer Funktion zusammenhängen. Spätestens als ich ein präpariertes Gehirn in der Hand hielt, verstand ich jedoch, dass auswendig gelernte Begriffe alleine mir nicht die fürs Verstehen nötigen Zusammenhänge zwischen Ursache und Wirkung bieten können.

Von dieser Einsicht und meinem bereits frühem Interesse an Computern war es nicht weit zum Informatikstudium. Dort erfuhr ich, wie Selbstbezüge zur Welt auch durch das selbstwirksame Herbeiführen von Wirkung hergestellt werden können, zB. durch das Programmieren von Computern. So wurde meine Verstehensfrage von einem Warum zu einem Wie, genauer gesagt zu der Frage: Wie funktioniert das bzw. wie lässt es sich erzeugen? Mein Mittel zur Beantwortung folgte immer mehr dem Prinzip „What I cannot create, I do not understand!“ (Richard Feynmann). Verknüpft mit meinem Anspruch, die Funktionsweise unseres Gehirns zu verstehen, brachte mich das zur Erforschung kognitiver Computerarchitekturen. Denn mit dem Gehirn als Informationsverarbeitungssystem lag es nah, Theorien aus unterschiedlichen Disziplinen mittels Computermodellen zu erforschen und so meinen Weg zum Verstehen mitzugestalten.

Ähnlich Computerarchitekturen wollen kognitive Architekturen einen Software-Rahmen für die Erforschung der Struktur kognitiver Funktionen modellieren. Dieser Rahmen wird einem Top-down-Verfahren folgend zur Spezifikation der Komponenten der kognitiven Architektur verwendet und befüllt. Im Gegensatz zur Erforschung von Kognition ohne Berücksichtigung der Funktionsweise ihres neuronalen Substrats, fokussieren Bottom-up-Ansätze auf die Nachbildung neuronaler Netze. Kognition ist also etwas, das nicht explizit in einem Regelwerk abgebildet werden kann, sondern nur aus der Simulation der Funktionsweise seines Grundmaterials, den Neuronen, implizit entstehen kann. Dabei schwingt mit, dass die Welt aufgrund ihrer Komplexität nicht deterministisch vorhersagbar ist, sondern nur stochastisch beschrieben werden kann. Auch Bayes’sche KI-Modelle operieren dementsprechend mit Wahrscheinlichkeiten, um bei beobachteten Evidenzen, zB. einer Platte mit vier Beinen, zu schlussfolgern, mit welcher Wahrscheinlichkeit es sich um einen Tisch oder um eine Bank handelt. Je mehr Evidenzen das Bayes’sche Modell berücksichtigen kann, zB. über auf der Platte abgelegte Objekte, desto sicherer können seine Schlussfolgerungen sein. Aber auch solche KI-Modelle arbeiten mit statistischen Zusammenhängen, hinter denen keine kausalen Zusammenhänge stecken müssen: Denn kann nicht auch eine Bank, wie jede ebene Fläche, als Ablagefläche verwendet werden?

4. Verstehens in Zukunft bedeutet auch Mensch-KI-Kooperation

Wann verstehen wir nun zB. Tische? Reicht es, sie anhand ihrer Struktur – einer waagerechten Platte und mehr oder weniger Beinen – zu erkennen, oder ist zusätzlich ein Selbstbezug zu ihren Funktionen nötig – ein Ding ist ein Tisch, wenn es von mir zum Essen oder Schreiben verwendet werden kann? Wann muss der Zusammenhang zwischen Struktur und Funktion erkannt werden? Ist ein solches tiefergehende Verstehen erst nötig, wenn wir selbst Tisch-Funktionen herstellen wollen oder müssen? Vielleicht weil uns das bisher Selbstverständliche an konventionellen Tischen nicht mehr zur Verfügung steht oder nicht mehr funktioniert, wenn wir mit neuen Situationen konfrontiert werden? Oder vielleicht wollen wir es einfach verstehen, weil wir damit unsere selbstgesteckten Ziele erreichen können? Möglicherweise werden wir erst dann gezwungen, ursächliche von zufälligen Zusammenhängen zwischen Struktur und Funktion von Tischen zu trennen. Unabhängig von den Ursachen des Verstehens wird jedoch klar: Je tiefer das Verstehen, desto größer wird unser gedanklicher und weltlicher Handlungsspielraum.

Wie kann uns nun KI beim Verstehen helfen? Aktuell dominante KI-Methoden, wie SML, RL oder Bayes‘sche-Modelle (s. o.), sollen Probleme – zB. das Erkennen von Tischen – lösen, ohne die dafür vom Menschen verwendeten kognitiven Prozesse nachbilden zu müssen. Das hat den Abstieg von top-down bzw. wissensbasierten Ansätzen zur Folge, auch aufgrund des mangelnden Problemverständnisses und analytischen Zugriffs auf die nachzubildenden kognitiven Prozesse. Alternative bottom-up bzw. datengetriebene Ansätze können auch dann eingesetzt werden, wenn Menschen ihre kognitiven Methoden zur Problemlösung ungenügend verstehen. In diesem Fall wird bloß das Ziel, zB. das Erkennen von Tischen, und mögliche Probleminstanzen, also Beispielbilder von Tischen, vorgegeben, um das KI-System eine Lösung lernen zu lassen. Die von diesen KI-Methoden verwendeten statistischen Methoden entsprechen zwar nicht unserer Denkweise (das haben bereits Kahnemann und Tversky gezeigt), wenn jedoch KI-Systeme Menschen ihr Wirken passend beschreiben, können diese Beschreibungen durch weitergehendes menschliches Verstehen zu Erklärungen werden, auf denen KI-Systeme wiederrum aufbauen können – ähnlich der Ableitung von Kausalitäten aus Korrelationen bei für den Menschen schwer übersehbaren großen Datenmengen. Die Grundlagen dafür sind vorhanden, wenn die wichtigste Voraussetzung des Verstehens erfüllt ist und passende Bezüge gesetzt werden, um den Zusammenhang zwischen einem Problem und dessen Lösung aufzeigen zu können. Das fängt schon bei der Zielsetzung an, indem zB. einer KI statt dem Erkennen von Tischen das Erkennen von Schreibflächen vorgegeben wird. Um verständliche Antworten zu erlangen, müssen also auch KI-Systemen richtige Fragen gestellt werden. Durch eine verständnisvolle Kooperation zwischen Mensch und KI können einerseits Ergebnisse von KI-Systemen langfristig zu Selbstverständlichkeiten des Menschen werden, zB. indem sie ihre Ergebnisse klar auf dessen Ziele beziehen, und andererseits können diese nun explizit darstellbaren Selbstverständlichkeiten KI-Systemen als Anleitung dienen und dadurch den nächsten Zyklus eines Mensch-KI-Verstehen starten.

Eine solche Mensch-KI-Kooperation nachvollziehbaren Verstehens entspräche der Verknüpfung von datengetriebenen und wissensbasierten KI-Systemen. Dabei werden Menschen durch KI-Systeme unterstützt, aus Daten Wissen zu erzeugen, um es wiederrum in KI-Systeme weiterverwenden zu können. Solche Systeme nehmen Menschen Verstehen nicht ab, sondern regen sie vielmehr dazu an. Um deren Ergebnisse für ihr weitergehendes Verstehen verwenden zu können, müssen Menschen KI-Systeme verstehen. Denn Verstehen kann kein Vorgang sein, der von potentiell subjektiven Bedürfnissen, Zielen und Werten der Menschen losgelöst ist. Nur so kann das Wirken von KI-Systemen an den Nutzen für Menschen gekoppelt und menschliches Handeln in der Welt verankert bleiben.

Zuerst in der Maiausgabe 2020 der Zeitschrift Hohe Luft publiziert (Rechte liegen beim Autor)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.