Der digitale Schatten unserer Gefühle
Psychologin Verena Zimmermann und die Informatiker Joachim Buhmann und Elgar Fleisch über die Messbarkeit unserer Gefühle, ihre Rolle zwischen Mensch und Maschine und den Einsatz von intelligenten Technologien.
- Vorlesen
- Anzahl der Kommentare
Herr Buhmann, werden Computer bald Emotionen haben?
Joachim Buhmann: Emotionen steuern das menschliche Verhalten. Wenn Algorithmen lernen, sich wie Menschen zu verhalten, dann kann man das Verhalten auch mit der Komponente Emotion imitieren. Ob der Computer dann Emotionen hat, ist wohl eher eine philosophische Frage.
Frau Zimmerman, was sind Emotionen aus Sicht der Psychologie?
Verena Zimmermann: Emotionen sind so komplex, dass nicht einmal die Psychologie eine klar abgrenzbare Definition dafür gefunden hat. Was aber viele Definitionen gemein haben: Emotionen werden durch eine bestimmte Situation ausgel?st und intensiv erlebt, sie sind von relativ kurzer Dauer und gehen immer mit einer physiologischen Reaktion einher, wie zum Beispiel einer Beschleunigung der Atemfrequenz oder des Herzschlags. Die sogenannten Basisemotionen wie Wut, Freude oder Trauer zeigen sich bei vielen Menschen in ?hnlicher Weise und lassen sich gut voneinander abgrenzen. Gefühle wie Resignation oder Unsicherheit lassen sich aber oft nicht eindeutig erkennen und demzufolge auch nicht klar messen.
Buhmann: Das ist der Punkt! Kategorien wie Frustration, ?rger, Freude oder Begeisterung helfen zwar, die Vorg?nge, die hinter Emotionen stecken, so zu verpacken, dass es die Kommunikation mit Menschen erleichtert. Die Frage ist aber: Was beschreiben wir damit denn wirklich? Es sind Beschreibungen für sehr komplexe, aus meiner Sicht subrationale Gehirnzust?nde. Die Begriffe sind eine Verpackung einer unglaublich komplizierten Dynamik, und unsere Sprache ist sehr eingeschr?nkt, um das Ganze einzufangen.
K?nnen also Maschinen lernen, was Menschen nicht verstehen?
Buhmann: Ja, denn das ist ja genau der Kern des maschinellen Lernens: Wir geben dem Computer kein Konzept der Realit?t vor, sondern lassen ihn direkt aus den Daten lernen. Wenn Algorithmen lernen, sich wie Menschen zu verhalten – etwa einen Artikel zu schreiben –, dann nehmen sie den Menschen als Beispiel her, ohne dass dieser selbst in der Lage ist, zu rationalisieren, was er tut. Algorithmen sind unglaublich gut geworden darin, Dinge zu imitieren, die wir verstandesm?ssig kaum fassen k?nnen.
?Die Evolution hat uns mit Abstraktion und Kreativit?t, aber mit zu wenig Speicherkapazit?t ausgestattet – sonst w?ren wir Datenbanken.?Joachim M. Buhmann
Herr Fleisch, Sie kommen aus einem sehr anwendungsorientierten Bereich. Welches Projekt besch?ftigt Sie aktuell?
Elgar Fleisch: Wir haben in meiner Forschungsgruppe in letzter Zeit mehrere klinische Studien gestartet, bei denen wir den Effekt von Emotionen messen. Wir untersuchen beispielsweise, ob das Bewegungsverhalten mit den Entzündungswerten im Blut der Proband:innen korreliert, und wollen so herausfinden, ob ein Mensch krank zu werden droht, auch wenn er noch gesund ist. Diese Methode k?nnte dereinst ein sehr einfaches und kostengünstiges Frühwarnsystem werden, mit dem man chronische Krankheiten verhindern kann, bevor sie eintreten.
Buhmann: Ja, viele Krankheitsspuren zeigen sich in mechanischen Ausdrucksformen. Den Beginn von Parkinson kann man allein aufgrund der Anschlagfrequenz beim Tippen auf der Tastatur erkennen – noch bevor die Krankheit diagnostiziert wurde. Herausgefunden hat man das bei Personen, die bei sich eine Parkinson-Erkrankung vermuten und entsprechende Fragen auf Suchmaschinen eingegeben haben.
Wie gut lassen sich Emotionen denn überhaupt messen?
Fleisch: Emotionen triggern im K?rper unglaublich viel. Die Art, wie wir sprechen, also Geschwindigkeit, Lautst?rke und Tonalit?t, unsere Augenbewegungen oder Bewegungen generell, unseren Puls, unsere Atmung…
Zimmermann: Menschen reagieren unterschiedlich und sie k?nnen ihre Emotionen wahrnehmen, beeinflussen oder sogar unterdrücken. Das ist eine Herausforderung für die Technologie. Wenn ich mich nur auf eine Messmethode beschr?nke, kann das zu Fehlinterpretationen führen. Aus Sicht der Forschung sollten wir mehrere Methoden miteinander kombinieren, also zum Beispiel Stimm- und Gesichtserkennung mit physiologischen Faktoren.
Wo werden Emotionen sonst noch maschinell erfasst?
Buhmann: Im Gebiet der Mensch-Computer-Interaktion ist es natürlich hilfreich, wenn der Algorithmus etwas über den emotionalen Zustand des Menschen, mit dem er sich austauscht, weiss. Je nachdem, ob jemand positiv oder negativ eingestellt ist, kann man Antworten leicht anders formulieren und so auch Einfluss nehmen auf die emotionale Wirkung einer Interaktion.
Zimmermann: In meinem Forschungsgebiet sind Emotionen und Haltungen, die wir gegenüber Maschinen haben, sehr relevant. Ich forsche unter anderem dazu, welche Rolle das menschliche Verhalten und damit auch Emotionen in der Cybersicherheit spielen. Eine meiner Doktorandinnen untersucht, welchen Einfluss Emotionen auf die Wahrnehmung des Themas Cybersicherheit und auf das Sicherheitsverhalten haben. Ein einfaches Beispiel: Wer beim Thema Cybersicherheit Angst verspürt, zeigt vielleicht ein Vermeidungsverhalten und besch?ftigt sich erst gar nicht damit. Das kann dazu führen, dass man nichts lernt und sich darum auch nicht sicher verhalten kann.
?Wir dürfen den Menschen und die Technologie nicht isoliert betrachten.?Verena Zimmermann
Wie bringt man Menschen dazu, gerne mit Maschinen zu interagieren?
Zimmermann: Es kommt darauf an, was man mit den Technologien erreichen will. Ist das Ziel, dass Menschen über virtuelle Realit?ten Emotionen erleben k?nnen? Oder ist das Ziel, eine m?glichst menschen?hnliche soziale Interaktion zu erm?glichen, in einem Anwendungsfeld wie der Pflege, wo menschlicher Bezug aufgrund der Alterung der Gesellschaft knapp werden k?nnte? Es gibt Studien, die zeigen, dass ein Roboter, je nachdem, wie er gestaltet ist, bestimmte Emotionen bei Menschen erzeugen und so auch eine emotionale Verbindung zwischen Mensch und Technologie entstehen kann.
Also heisst das für Roboter: je ?hnlicher, desto sympathischer?
Zimmermann: Ja, mit einer wichtigen Einschr?nkung: Das Konzept des ?Uncanny Valley? besagt, dass es in der Kurve der steigenden Akzeptanz mit zunehmender Menschen?hnlichkeit einen Knick gibt. Wenn etwas sehr menschen?hnlich ist, bestimmte Merkmale aber trotzdem nicht ganz perfekt, sondern abnormal sind, wird es auf einmal unangenehm in der Interaktion…
Dann doch besser Maschinen, die uns nicht zu ?hnlich sind?
Fleisch: Wir haben bei Experimenten mit Chatbots zumindest beobachtet, dass diese nicht perfekt sein müssen, damit eine Bindung mit den Nutzer:innen entsteht. Einen solchen Chatbot haben wir bei der Therapie von übergewichtigen Kindern als Vermittler zwischen den ?rzt:innen und Patien:innen eingesetzt. Das Ziel war, die Adh?renz zu verbessern – also, dass sich die Kinder therapietreuer verhalten. Die Kinder konnten dem Chatbot einen Namen geben, er begleitete sie von morgens bis abends und lernte aus ihren Reaktionen. Wenn sie Fragen hatten, konnten sie diese entweder den ?rzt:innen oder dem Chatbot stellen. In 99 Prozent der F?lle wandten sich die Kinder an den Chatbot!
Computer dringen in Bereiche vor, die bis vor Kurzem noch Menschen vorbehalten waren. Wie teilen wir uns dereinst die Aufgaben?
Fleisch: Im Beispiel des Chatbots für übergewichtige Kinder braucht es hinter der Technologie immer noch einen Arzt oder eine ?rztin. Ich sehe nicht die Gefahr des Ersetzens, sondern die Chance des Erg?nzens. Ein intelligenter Assistent ersetzt keine ?rztin, kann aber einen Patienten durch eine lange Krankheit begleiten und ihn unterstützen. Unsere Analysen haben gezeigt: Ein Chatbot wird kaum je gleich gut oder besser sein als die besten ?rzt:innen, aber er ist besser als der Durchschnitt. Digitale Coaches steigern also die Behandlungsqualit?t in der Breite.
Buhmann: Der Mensch als wahrnehmendes und denkendes Wesen hat klare Beschr?nkungen. Die Evolution hat ihn mit Abstraktion und Kreativit?t, aber mit zu wenig Speicherkapazit?t ausgestattet, sonst w?ren wir Datenbanken geworden. Alles, was wir bislang wissenschaftlich durchdringen konnten, hat eine sehr kleine Beschreibungskomplexit?t gebraucht. Alle wissenschaftlichen Theorien, die weltbekannt geworden sind, passen auf die Rückseite eines Umschlags. Das ist aber natürlich nicht die Realit?t. Es ist die selektive Auswahl dessen, was wir mit unserem Gehirn verarbeiten k?nnen. Das heisst, wir haben keine M?glichkeit, mit hoher Komplexit?t umzugehen und pr?diktive Modelle zu bauen. Was wir br?uchten, ist ein Denk-Coprozessor, der uns hilft, einen weiteren Blick zu haben.
?Ich sehe nicht die Gefahr des Ersetzens, sondern die Chance des Erg?nzens.?Elgar Fleisch
Gibt es Funktionen, die Maschinen nicht übernehmen sollen?
Buhmann: Das ist die falsche Frage. Wir müssen die zukünftige Welt doch mit diesen Technologien neu denken und nicht die Technologien behindern, damit unsere alte Organisationsform in der Zukunft funktioniert. Mit den neuen Tools werden auch neue Ethiken entstehen. Etwas, was vielleicht früher unethisch war, wird pl?tzlich akzeptabel.
Welche Rolle spielen Emotionen künftig in den technischen Wissenschaften?
Fleisch: Wir messen nicht direkt die Emotionen, sondern den digitalen Schatten, den unsere Gefühle auf dem Messband hinterlassen. Aus technischer Sicht werden wir diesen handhabbaren Schatten immer besser verstehen. Und dieses Verst?ndnis müssen wir für die Gesellschaft nutzen. Die Emotionen selber werden vom Computer abgekapselt bleiben.
Zimmermann: Als Forscherin an der Schnittstelle zwischen den Sozialwissenschaften und der Technischen Wissenschaften ist es mir wichtig, dass wir den Menschen und die Technologie nicht isoliert betrachten, sondern die Interaktion zwischen beidem. Denn dort spielen die Emotionen eine entscheidende Rolle.
Zu den Personen
Joachim M. Buhmann ist Professor für Informatik am Departement Informatik.
Elgar Fleisch ist Professor für Informationsmanagement am Departement Management, Technologie und ?konomie.
Verena Zimmermann ist Professorin für Sicherheit, Privatsph?re und Gesellschaft am Departement Geistes-, Sozial- und Staatswissenschaften.