Verstehende und Verständliche KI-Assistenten brauchen Empathie!

Publiziert als Gastbeitrag unter https://www.derstandard.de/story/2000087849212/ki-assistenten-brauchen-empathie

In Zukunft werden wir intensiver mit künstlichen Assistenten zusammenarbeiten. Der dominante Ansatz des maschinellen Lernens in der KI-Forschung ist dafür jedoch unzureichend. Ein Plädoyer für verstehende und verständliche KI-Systeme.

Systeme der Künstliche Intelligenz (KI) sind genau das, was ihr Name behauptet: Sie sind intelligent, also fähig Probleme zu lösen, die unserer Meinung nach kompliziert sind, und sie sind durch Menschen erzeugt, also künstlich. Und tatsächlich sind KI-Systeme alles andere als natürlich. Denn der Anspruch mittels Computer menschliches Denken nachzubilden ist längst nicht mehr Teil der KI-Forschung, wenn er denn überhaupt jemals ernst genommen worden ist. In KI-Systemen geht es vielmehr darum, komplizierte Probleme in der Welt möglichst automatisiert zu lösen.

Das ist kein Forschungshindernis – Hauptsache es funktioniert – wäre eine typische Antwort unter Technikern. In den meisten Fällen stimmt das auch. Solange wir KI-Systeme als Werkzeuge verwenden, oder genauer gesagt als Erweiterung der Infrastruktur unserer Informationsverarbeitung, reicht eine solch oberflächliche Sichtweise. Ich muss ja auch nicht nachvollziehen, wie meine Waschmaschine oder Bohrmaschine funktioniert, Hauptsache der Servicetechniker versteht ihre Funktionsweise, falls sie defekt ist. Leider ist in aktuellen KI-Systemen, die maschinelles Lernen verwenden (und das tun die meisten), häufig nicht einmal das gewährleistet. Denn nicht der Mensch programmiert die Regeln des Funktionierens von KI-Systemen, sondern das System gibt sich die Regeln selbst vor – basierend auf den Daten, die ihr zur Verfügung gestellt werden. Für Menschen stellen sich solche Systeme als Blackbox dar. Wir wissen nur was hinein und was wieder heraus kommt. Wenn etwas schiefgeht, können wir die Blackbox jedoch nicht öffnen und nicht nachvollziehen, warum bei einem bestimmten Eingang problematische Ausgangswerte aufgetreten sind.

Wenn unsere Interaktion mit Maschinen der Interaktion mit Menschen gleicht, ist das Problem noch dramatischer. Solche Maschinen unterstützen uns nicht als Werkzeuge, sondern als Assistenten. Das können physische Roboter oder virtuelle Assistenten sein. Wie frustrierend es sein kann, nicht verstanden zu werden oder andere nicht zu verstehen, kennen wir von unserer täglichen Interaktion mit Menschen. Um daraus für die Entwicklung von künstlichen Assistenten zu lernen, sollten in diesen Systemen die psychischen Prozesse menschlicher Zusammenarbeit berücksichtigt werden. Die wichtigste Fähigkeit dafür ist Empathie, als die Fähigkeit sich in andere Menschen hineinzuversetzen. Das kann durch Erkennen und Nachvollziehen der Motive und Ziele anderer Personen passieren. Noch häufiger geschieht dies jedoch durch das Erkennen ihrer Emotionen und Bedürfnisse. Psychologen[1] sprechen davon, dass Menschen dafür die psychologischen Prozesse des Gegenübers simulieren. Die Notwendigkeit der Nachbildung psychischer Prozesse in künstlichen Assistenten mittels Computersimulation ist also naheliegend. Im Umkehrschluss würde das Menschen auch dabei helfen, künstliche Assistenten zu verstehen – eine gute Voraussetzung für die Zusammenarbeit.

Samer Schaat, 13.9.2018

[1] Einen guten Überblick bietet Alvin Goldman, Simulating Minds: The Philospohy, Psychology and Neuroscience of Mindreading, Oxford University Press, 2008.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.