Von der Automatisierung der Manipulation zur Manipulation der Automatisierung

Veröffentlicht in Heise Telepolis 17.2.19

Ein großer Teil unserer Wahrnehmung und ihrer Weiterverarbeitung geschieht unbewusst, denn unser Gehirn muss mit seinen Ressourcen haushalten. So gesehen gehen wir teilweise blind durchs Leben. Wir sind – wie es psychologisch heißt –  unaufmerksamkeitsblind. Das können wir bei uns selbst oder in Experimenten beobachten[1]. Nichts zeigt diese unerträgliche Automatisierung unseres Seins[2] jedoch so deutlich, wie das sogenannte Blindsehen bei Menschen: Sie haben keine bewussten Seheindrücke,  glauben also blind zu sein, reagieren jedoch auf Wahrnehmungsreize  und können z.B. Hindernissen ausweichen.

Die Teilblindheit unseres Lebens und unserer Bedürfniserfüllung dient als Tor unbewusster Einflussnahme. Diese Manipulation geschieht beispielsweise durch Politiker, zum Vorteil Einzelner oder der Gemeinschaft. Gerade wenn es um das größte Einfallstor der Manipulation – die Bedürfniserfüllung – geht, ist jedoch die Manipulation zur Konsumation besonders ausgeprägt. Wir spüren, wenn wir beeinflusst werden, da Gefühle die wichtigste Kommunikationsform unseres (manipulierten) Unbewussten sind, aber wir wissen in der Regel nicht, dass es passiert – zumindest nicht im Moment. Wir sind immer – mehr oder weniger – unaufmerksamkeitsblind. Zumindest können wir im Nachhinein über manipulierende Aussagen und ihr Auslösen von Angst oder Freude reflektieren. Wir haben also immerhin die Möglichkeiten, Beeinflussungen zu erkennen und uns vor weiterer Manipulation zu wappnen. Das wird sich mit der technischen Durchdringung des Alltags ändern, ob zum Positiven oder Negativen liegt in unserer Hand.

Denn genauso wie das automatisierte Unbewusste unseres Leben die Durchführung von routinierten Tätigkeiten erleichtert, indem unser Bewusstsein nicht eingreifen muss, kann uns auch die technische Automatisierung im Alltag unterstützen. Wir kennen und schätzen unsere Helfer, ob das unser Smartphone oder Navigationssystem ist. Andererseits kann der Unterschied zwischen Helfen und Bevormunden auch in technischen Unterstützungssystemen gering werden. Denn um uns zufrieden zu stellen, wollen uns die virtuellen Helfer immer besser kennen lernen, um es euphemistisch auszudrücken. Wir kennen das bereits von Google, Facebook, und Amazon: Unser Internet-Verhalten wird automatisch erfasst, damit uns angepasste Inhalte präsentiert werden können. Ob uns diese Inhalte gefallen oder nicht, melden wir direkt oder indirekt zurück (Kauf, Klick etc.). Durch diese Feedbackschleife lernen solche Systeme immer besser, was sie uns präsentieren müssen, um unsere Bedürfnisse anzusprechen, und wissen implizit dadurch auch immer besser wie sie unsere Bedürfniserfüllung – zur Konsumation – manipulieren können. Es ist Teil ihres Geschäftsmodell, sich immer beliebter, ja sogar unabdingbar bei uns zu machen; anders gesagt: Wir bezahlen sie, um uns zu manipulieren. Diese automatisierte Manipulation kann im besten Fall ein Selbstläufer unser Wunscherfüllung werden, im schlechtesten Fall wird dadurch unser Alltag von Missbrauch durchdringt. Derzeit wird diese Manipulation hauptsächlich für eine engere Bindung zur Konsumation verwendet, immer stärker jedoch auch wieder von politischen Ideologien. Trotzdem haben wir weiterhin Möglichkeiten uns der Einflussnahme zu entziehen und uns aus der virtuellen in die reale Welt zu flüchten.

Wir sind jedoch auf dem Weg, das Prinzip der automatisierten Manipulation mit ihrer Feedbackschleife von der virtuellen auf die reale Welt zu übertragen. Das fing vor einigen Jahren mit sprachgesteuerten Assistenzsystemen an, zB. Amazons Echo und ähnlichen Systemen, und setzt sich in der Erfassung unseres Verhaltens durch Sensoren fort, zB. durch Fitness-Tracker als Gesundheitsassistenzsysteme. Das muss an und für sich keine schlechte Entwicklung sein, solange der Mensch sich nicht nur dem kurzfristigen Nutzen, sondern möglicher langfristiger Auswirkungen bewusst ist. Es ist wohl wie mit allen Sachen, die uns – unserem Leben, unserer Person – nahe kommen und uns an sich binden wollen: Wir sollten uns mit ihnen beschäftigen und sie an uns anpassen können statt umgekehrt.

Verglichen mit der beschriebenen Feedbackschleife der virtuellen Welt, wirken die Mechanismen der automatisierten Manipulation in der realen Welt stärker, denn unser Verhalten und unsere Reaktion auf die von technischen Assistenzsystemen präsentierten Inhalten und Entscheidungen können umfangreicher erfasst werden. Zusätzlich ist die Feedbackschleife in der realen Welt noch effektiver und bindet uns stärker an die technischen Mittel. Wenn ein Assistenzsystem zum Beispiel unsere Emotion (durch Erfassung unserer Mimik, Bewegung und Schweißsekretion) sensorisch erfasst um noch besser wissen zu können, wie es uns geht und was sie für uns tun können, damit es uns besser geht, müssen wir hinterfragen, ob diese starke Bindung an uns für das vorgegebene Ziel wirklich nötig ist und inwiefern wir in solche Systeme eingreifen können. Natürlich ist das auch eine Frage der Kontrolle über unsere Person. Daten und Wissen über uns können andere über uns bemächtigen, aber eben auch uns zu größerer Selbstbestimmung ermächtigen. Welche Datenerfassung für welches dieser beiden Ziele besser geeignet ist, muss immer hinterfragt und geändert werden können. Denn die Mittel zur Bemächtigung über Menschen – ob das politische, wirtschaftliche oder technologische Mittel sind – müssen immer Teil des öffentlichen Diskurs sein dürfen. Sie müssen in einer demokratischen Gesellschaftsordnung im Falle unausgeglichener Mächte- und Interessenverhältnissen sogar durch diesen Diskurs in letzter Instanz reglementiert werden dürfen.

Dafür müssen wir uns nicht nur mit unseren Zielen als Gesellschaft und Individuen beschäftigen, sondern auch über Konfigurationsmöglichkeiten von Assistenzsystemen nachdenken, die damit in Einklang stehen. Sonst wäre ein Klagen über manipulierende Technologie in erster Linie ein Beklagen unserer Unwissenheit und Ziellosigkeit. In diesem Sinne können Gütekriterien ein Mittel zum Anstoß zur Bewusstseinsbildung sein, wie wir das aus dem Umwelt- und Konsumentenschutz kennen. Assistenzsysteme müssten den reflektierten Umgang mit ihnen nicht nur ermöglichen, sondern vor und nach der Inbetriebnahme erfordern. Beispielsweise können Benutzer durch interaktive Elemente stärker in die Erstellung der Entscheidungsgrundlagen von Assistenzsystemen involviert werden. Das kann durch spielerische Methoden passieren, die Menschen dabei unterstützen, sich selbst besser kennen zu lernen und dadurch implizit ihre Assistenzsysteme daran anzupassen. Wie beim Radfahren erlernen wir im besten Fall interessiert und mit Freude bewusst eine Fähigkeit zum Umgang mit einem Hilfsmittel, um dieses im Alltag unbewusst und unbeschwert in unserem Sinn einsetzen zu können. Dabei lernen wir gleichzeitig mehr über uns selbst, zB. unseren Körper, und unserem geänderten Verhältnis zur Welt. Damit dies klappt, können wir Räder an unsere Möglichkeiten und Bedürfnisse anpassen (Stützen, Größe, Antrieb usw.). Dieses Prinzip der bewussten Auseinandersetzung zur Automatisierung von Hilfsmitteln und unserer Fähigkeiten in der Welt ist ein bewährtes Prinzip, dass wir auch bei den neuen Assistenzsystemen anwenden und ausbauen sollten!

[1] zB. unter: https://www.youtube.com/watch?v=vJG698U2Mvo

[2] Siehe den Artikel „The unbearable automaticity of being“ von J. Bargh und T. Chartrand

Samer Schaat

https://www.heise.de/tp/features/Von-der-automatisierten-Manipulation-zur-Manipulation-der-Automatisierung-4296557.html

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.