Verstehende KI?

Veröffentlicht auf 1E9, Sept 2019

Ich lese Schlagzeilen, die behaupten, KI habe die Intelligenz von Achtklässler erreicht. Was ist passiert? Eine KI kann seit kurzem Highschooltests mit bis zu 90% Genauigkeit lösen. Was für ein Durchbruch berichtet die NY Times! (https://www.nytimes.com/2019/09/04/technology/artificial-intelligence-aristo-passed-test.html) Ist das so? Sehen wir noch einmal hin: Das Aristo-System (https://allenai.org/aristo/) wurde dafür entwickelt, standardisierte Tests zu lösen. Und genau das sind die genannten Highschooltests: standardisierte Multiple-Choice-Tests. Es ist tatsächlich eine große Leistung des Information-Retrievals, textuellen Fragen passende Antworten zuzuordnen. Das umgekehrte Problem hat bereits Watson eindrucksvoll in der Jeopardy-Challenge lösen können. Aber ist das nicht wieder die alte Problematik, dass KI eng-definierte Probleme gut lösen kann, aber diese Fähigkeit schwer für andere Probleme anwenden kann? Auf den Schulkontext übertragen hieße das: Ein Schüler, der einen umfangreichen Frage-Antwort-Katalog auswendig lernt, kann hohe Punktezahlen bei Multiple-Choice-Test erbringen, ohne den Lernstoff verstanden zu haben, z. B. durch die kreative Anwendung des Wissens bei anderen Fragestellungen. Aber was bedeutet menschliches Verstehen überhaupt und wann können wir von verstehenden KI-Systemen sprechen?

Die Grenzen des Verstehens in Systemen maschinellen Lernens

Wir können beobachten, ob wir unser Verstehen verstehen, indem wir uns fragen, ob wir diese Fähigkeiten in Systemen der Künstlichen Intelligenz (KI) nachbilden können. Inwiefern verstehen KI-Systeme was sie verarbeiten? Gängige Verfahren maschinellen Lernens als dominanter Ansatz der KI werden zur Mustererkennung eingesetzt. Ein einfaches Beispiel: Eine KI könnte Tische an dem Muster „vier Beinen mit einer Platte darauf“ erkennen, einfach weil in den ihr zur Verfügung gestellten Beispieldaten Tische sehr häufig diese objektiven Eigenschaften zeigen – also statistisch gesehen zusammenhängen. Das Erlernen des Namens dieser Objekte („Tisch“) ermöglicht aber kein autonomes Handeln, denn unterschiedliche Handlungen an Tischen erfordern unterschiedliche Eigenschaften dieser Tische. Beispielsweise benötigt das Abstellen von Gegenständen eine ebene Fläche, unabhängig davon, ob es als Tisch bezeichnet wird; fürs Schreiben sind wiederrum andere Eigenschaften nötig. Werden also in gängigen Verfahren maschinellen Lernens fürs Verstehen unpassende Kategorien gelernt? Sollten eher die Eigenschaften der Objekte („Schreibfläche“) gelernt werden? Oder hängt es vielmehr damit zusammen, dass der aktuelle Ansatz von KI gar nicht den Anspruch hat, menschliches Verstehen nachzuahmen, sondern konkrete Probleme lösen möchte. Dann wären also das Erkennen von Schreibflächen und Ablageflächen zwei voneinander unabhängige Probleme. Das Lösen eines Problems soll dann gar nicht zum Lösen anderer Probleme führen? Das hängt natürlich von der Definition des Problems ab! Denn auch das konkrete Problem des Abstellens von Gegenständen auf ebenen Flächen benötigt die Erkennung von kausalen aus statistischen Zusammenhängen. Genau das ist eine wesentliche Eigenschaft menschlichen Verstehens: den Nutzen von Dingen dadurch zu erlernen, auch indem aus Korrelationen Kausalitäten abgeleitet werden:  Tische haben meistens eine bestimmte Form (Korrelation), aber diese Form folgt einer bestimmten Funktion (Kausalität), die es aus den Eigenschaften der Form zu schlussfolgern gilt. Letztlich kann wieder erst durchs Handeln überprüft werden, ob die geschlussfolgerte Hypothese richtig ist, also ob sie funktioniert.

Die höchste Form dieser Überprüfung ist die Neukombination erkannter funktionaler Eigenschaften in einem neuen Kontext. Beispielsweise kann ein ebener Boden als Abstellfläche benutzt werden, nachdem verstanden wurde, dass die Tischplatte aufgrund ihrer Ebenheit geeignete Abstellflächen sind. Im Gegensatz zu Ansätzen aktueller KI (z. B. Reinforcement Learning, Transfer Learning) wird durch diese Erfahrungen und Schlussfolgerung klar (und in anderen Kontexten anwendbar), warum die neue Handlung funktioniert – oder auch nicht: Zusammenhänge werden logisch in Handlungen festgestellt. Dieser Schritt des Verstehens verknüpft konkrete Erfahrungen mit abstrakten Schlussfolgerungen, um kreativ handeln zu können. Das käme menschliches Verständnis schon verdammt nah!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.