Interaktion mit KI braucht gegenseitiges Verständnis

veröffentlicht in: Helmholtz Perspektiven, Feb. 2019

Die Arbeit mit intelligenten Maschinen ist keine Einbahnstraße, findet Samer Schaat. Für Mensch und Maschine gilt: Ihr Verhalten muss für eine kooperative Interaktion beiderseits nachvollzogen werden können.

Systeme der künstlichen Intelligenz (KI) können an dem gemessen werden, was ihr Name behauptet: Zum einen daran, dass sie Intelligenz zeigen, also komplexe Problemlösungsfähigkeiten. Zum anderen daran, dass sie künstlich sind, also nach natürlichen Vorbildern vom Menschen erzeugt. Nach diesen Kriterien verdienen – streng genommen –  ein Großteil aktueller KI-Systeme diesen Namen nicht, denn in ihrer Forschung geht es in der Regel darum, komplizierte Probleme in der Welt möglichst automatisiert zu lösen, ohne sich dabei an menschliches Denken zu halten.

Solange wir die künstliche Intelligenz als Werkzeug verwenden und mit ihr einfach nur die Infrastruktur unserer Informationsverarbeitung erweitern, müssen wir auch nur eingeschränkt nachvollziehen können, mit welcher Methode sie Probleme löst. In aktuellen KI-Systemen, die maschinelles Lernen verwenden, wäre das häufig auch nicht möglich. Solche Systeme stellen sich selbst für deren Programmierer als Blackbox dar: Wir wissen zwar, was hinein- und was wieder herauskommt. Wir können die Blackbox aber bei Bedarf nicht öffnen und somit nachvollziehen, was in ihrem Innern passiert.

Der Grund dafür liegt im Ansatz der verwendeten Lernalgorithmen: Der Computer wird nicht wie in der klassischen Informatik mit einzelnen kausalen Schritte zur Lösung eines Problems programmiert; stattdessen gibt sich das System selbst die Regeln vor, basierend auf den in Beispieldaten vorhandenen statistischen Zusammenhängen. Diese Abgabe von Kontrolle bringt es mit sich, dass das Verhalten des Computers nur vermindert nachvollziehbar ist.

Auch ein großer Teil der menschlichen Problemlösungsfähigkeiten ist eine Blackbox des Unbewussten. Ob es Routinen im Alltag sind, Heuristiken im Beruf oder das, was wir allgemein ein wenig hilflos als Intuition bezeichnen – die Basis unseres Handelns liegt oft im Dunklen. Nur mit einiger Anstrengung gelingt es unserem Bewusstsein, durch logische Rückschlüsse aus unserem Verhalten kausale Zusammenhänge abzuleiten. Die Blackbox wird zur Greybox.

Je mehr unsere Interaktion mit Maschinen der Zusammenarbeit mit Menschen ähnelt, desto ausgeprägter ist das Blackbox-Problem von KI-Systemen. Denn Zusammenarbeit – auch mit intelligenten Maschinen – sollte auf gegenseitigem Verständnis basieren. Dafür muss die Maschine aufzeigen können, wie sie Probleme löst. Damit wir dadurch nicht überfordert werden, sollte die Problemlösung in unterschiedlicher Granularität dargestellt werden. In der Informatik werden dafür Probleme in hierarchischen Ebenen aufgeteilt. Das erleichtert auch die Nachvollziehbarkeit.

Für die Gegenseitigkeit einer Mensch-KI-Interaktion muss nicht nur der Mensch das Verhalten des KI-Systems nachvollziehen können, sondern auch die Maschine dasjenige des Menschen. Beim Menschen ist es die Empathie, die ihn befähigt, sich in andere Menschen hineinzuversetzen. Psychologen sprechen davon, dass Menschen dafür die psychologischen Prozesse des Gegenübers simulieren. Das gelingt umso besser, wenn dafür die eigenen Problemlösungsprozesse nachvollziehbar verwendet werden können. Das ist ein guter Grund, sich in der KI-Forschung wieder mit der algorithmischen Nachbildung menschlicher Intelligenz zu beschäftigen und damit ihrem Namen alle Ehre zu machen. Empathische KI-Systeme können Emotionen abbilden, denn auch in der Interaktion basiert rationales Verhalten auf der Funktion von Emotion: Durch das Zeigen und Erkennen von Emotionen ist eine Interaktion möglich, die sich an den Zustand des Menschen und des KI-Systems anpassen kann. Eine gute Basis für gegenseitiges Verständnis!

Wenn bei menschlicher Interaktion das Verhalten von einem der Beteiligten im Dunkeln gelassen wird – etwa seine Intention –, kann das als Zeichen einer unwilligen Zusammenarbeit verstanden werden. Wer so agiert, ist nicht an Kooperation interessiert, sondern strebt oft ein asymmetrisches Interaktions- und Machtverhältnis an. Konsequenter Weise sollten wir solche einseitigen Interaktionsverhältnisse auch im Umgang mit KI-Systemen, die ihre Nachvollziehbarkeit im Dunklen belassen, ablehnen!

Samer Schaat

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.