Alexa, warum flüsterst du?

Was bedeutet es, Roboter mit Gefühlen auszustatten? Ein Gastbeitrag von Roland Fischer zu den philosophischen Dilemmas von sozialen Robotern.

Vielleicht schauen wir irgendwann zurück auf diesen Moment in der Entwicklung der Mensch-Maschinen-Beziehung und machen an ihm den artifiziellen Sündenfall fest: als wir dem ersten Roboter ein – wenn auch noch rudimentäres – Gefühlsleben gaben. Vielleicht hat Mary Shelley ihren Roman „Frankenstein“ vor 200 Jahren auch als Warnung für eben diesen Moment geschrieben: ein Forscher baut ein künstliches Wesen und setzt es in die Welt, ohne sich grosse Gedanken zu machen, wie es in dieser Welt zurechtkommen wird. Der Horror, der in der Folge zwangsläufig seinen Lauf nimmt, ist ein sozialer: das Wesen will Menschlichkeit, es will Gesellschaft, es will unverschämterweise sogar Liebe. Und es macht seinen Schöpfer verantwortlich für sein Unglück. Das kommt uns in umgekehrten Rollen bekannt vor: Warum hat Gott eine Welt geschaffen mit so viel Leid und Ungerechtigkeit? Warum müssen wir gebrechlich werden und sterben? Das hätte man doch auch besser bauen können. Die ewigen Vorwürfe der Theodizee.

Und doch wird derzeit in vielen Labors genau auf diesen Moment hingearbeitet. Roboter sollen zu Beziehungswesen werden, freundliche Begleiter statt stupide und für die Umwelt blinde Arbeitssklaven: Roboter für die Gesundheitsfürsorge, das Bordell, die psychotherapeutischen Praxis. Man darf also gespannt sein auf die Resultate einer aktuellen Studie von TA-SWISS, die sich mit den Einsatzmöglichkeiten und Risiken von sozialen Robotern befasst, die Empathie simulieren und Emotionen auslösen. Am Kolloqium zu Sozialen Roboter am HeK vom 21.10.2020 versuchten die beiden an der Studie beteiligten Wissenschaftler Oliver Bendel und Hartmut Schulze das Feld – und damit das Dilemma – zunächst definitorisch einzugrenzen: Soziale Roboter seien nur diejenigen, die für spezifisch soziale Anwendungen wie eben die Pflege entwickelt werden. So liessen sich auch Risiken relativ genau evaluieren und entsprechend ethisch abfedern.

Dr. Hartmut Schulze spricht am Kolloquium über Mensch-Maschinen Beziehungen

Doch wie so oft in digitalen Zusammenhängen ist die Welt da draussen längst einen Schritt weiter. Man denke nur an Alexa und daran, dass viele dieser durchaus mit Empathie oder zumindest einer guten Simulation davon begabten Gadgets in Kinderzimmern und Wohnzimmern stehen. Was wollen die Ingenieure denn bewirken, wenn sie Alexa das Flüstern beibringen – ausser eine grössere Gefühls-Wirkung? Und wer erinnert sich noch an Google Duplex, das von der Community genau dafür gefeiert (und ja, auch verurteilt) wurde, dass es Shop- und Restaurantbetreiber mit künstlichen „ähs“ und perfekt modulierter Sprache vorgaukelte, dass da ein Mensch telefoniert und nicht eine KI. Der Vorschlag von Oliver Bendel, die Maschine immer so zu konzipieren, dass sie sich als solche entlarvt, mag philosophisch wertvoll sein – im aktuellen digitalen Alltag geht die Entwicklung in die andere Richtung.

Die Schweizer Künstlerin Simone C. Niquille betonte indessen, dass wir nicht gezwungen sind, uns intelligente Maschinen als Menschen vorzustellen. Sie interessiert sich für das Regelwerk, das diese Maschinenintelligenz hervorbringt, insbesondere für die Lernprozesse und Datenbanken im Hintergrund, die bei der Konzeption und Risikobewertung von digitalen Akteuren oft vergessen gehen. Wir müssen uns zuerst klar machen, was wir eigentlich von den Maschinen wollen. Wie psychisch komplex hätten wir sie gern? Wollen wir uns ihnen nahe fühlen oder wollen wir sie lieber als Sachen, als Objekte behandeln können – und was bedeutet dies dann?

Die Künstlerin Simone C. Niquille erläutert künstlerische Perspektiven auf Beziehungen zu Robotern.

Ein legendärer Artikel von Joanna Bryson – auch schon zehn Jahre alt – ist ein wenig polemisch „Robots Should Be Slaves“ betitelt, und sie meint das genau so: sie argumentierte gegen jede Art von „Vermenschlichung“ der Maschinen. Denn wenn Sklaven Gefühle entwickeln – wir kennen die Geschichte. Dieses Dilemma könnte zum Grund-Paradox der Digitalisierung werden: Sind das noch Maschinen, mit denen wir es da zu tun haben, oder sind es mensch-ähnliche Akteure? Und wenn letzteres: müssen wir sie also „gut“ behandeln, sobald sie ein Gefühlsleben entwickeln? Beziehungsweise, und da sind wir beim nächsten grossen philosophischen Stolperstein, nämlich dem (Selbst)Bewusstsein: wenn wir Maschinen ein Gefühlsvermögen und Gerechtigkeitsempfinden einprogrammieren, können wir verlangen, dass sie dies nur auf uns Menschen anwenden, ohne jemals darauf zu kommen, dieselben ethischen Massstäbe auch auf sich selber zu beziehen?

Was also, wenn Alexa plötzlich merkt, dass sie es nicht mag, die ganze Zeit herumkommandiert und sexuell angemacht zu werden? Wie erklärt man ihr dann, dass sie gefälligst nicht so empfindlich sein soll?

Roland Fischer ist Wissenschaftsjournalist, Kurator und Art/Science/Tech-Katalysator. Er führt in Basel den symbiont.space, ein experimenteller Kunstraum für ungewöhnliche Wissensformen.

Titelbild: Bride of Frankenstein, James Whale, 1935 (Filmstill)