eBooks

Mensch. Maschine. Kommunikation.

2021
978-3-8233-9471-6
Gunter Narr Verlag 
Sarah Brommer
Christa Dürscheid
10.24053/9783823394716
CC BY-SA 4.0https://creativecommons.org/licenses/by-sa/4.0/deed.de

Wie unterscheidet sich die Mensch-Maschine-Kommunikation von der Kommunikation zwischen Menschen? Lässt sich feststellen, ob ein Mensch oder eine Maschine kommuniziert? Kann man Maschinen vertrauen? Die Beiträge thematisieren diese und weitere Fragen anhand aktueller Beispiele. Im ersten Teil liegt der Schwerpunkt auf der Analyse von Nachrichten in sozialen Netzwerken und den Auswirkungen der heutigen digitalen Möglichkeiten auf die Kommunikation. In den folgenden Teilen steht die Interaktion mit Robotern (z.B. in der Altenpflege) und mit virtuellen Assistenzsystemen (z.B. Siri) im Zentrum. Hier wird u.a. gezeigt, wie Vertrauen zu Pflegerobotern aufgebaut werden kann und welche Rolle das Kommunikationsverhalten dabei spielt. Der letzte Beitrag zum Bodyhacking und den damit verbundenen ethischen Fragen greift nochmals die Frage nach der Grenze zwischen Mensch und Maschine auf.

Mensch. Maschine. Kommunikation. Sarah Brommer/ Christa Dürscheid (Hrsg.) Beiträge zur Medienlinguistik Mensch. Maschine. Kommunikation. Sarah Brommer / Christa Dürscheid (Hrsg.) Mensch. Maschine. Kommunikation. Beiträge zur Medienlinguistik Umschlagabbildung: A 3D-printed android robot by a University of Lincoln research team. Photo: University of Lincoln © 2014; Hintergrundbild: vchal © iStock 2014 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. Prof. Dr. Sarah Brommer Universität Bremen Fachbereich 10 I I Sprach- und Literaturwissenschaften Universitäts-Boulevard 13 D-28359 Bremen https: / / orcid.org/ 0000-0002-1792-4328 Prof. Dr. Christa Dürscheid Universität Zürich Philosophische Fakultät Deutsches Seminar Schönberggasse 9 CH-8001 Zürich https: / / orcid.org/ 0000-0001-9141-7562 © 2021 · Sarah Brommer / Christa Dürscheid Das Werk ist eine Open Access-Publikation. Es wird unter der Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen | CC BY-SA 4.0 (https: / / creativecommons.org/ licenses/ by-sa/ 4.0/ ) veröffentlicht, welche die Nutzung, Verfielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, solange Sie die/ den ursprünglichen Autor/ innen und die Quelle ordentlich nennen, einen Link zur Creative Commons-Lizenz anfügen und angeben, ob Änderungen vorgenommen wurden. Die in diesem Werk enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der am Material vermerkten Legende nichts anderes ergibt. In diesen Fällen ist für die oben genannten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen. Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Internet: www.narr.de eMail: info@narr.de Satz: pagina GmbH, Tübingen CPI books GmbH, Leck ISBN Print: 978-3-8233-8471-7 (Print) ISBN e PDF : 978-3-8233-9471-6 (ePDF) ISBN ePub: 978-3-8233-0319-0 (ePub) www.fsc.org MIX Papier aus verantwortungsvollen Quellen FSC ® C083411 ® DOI: http: / / doi.org/ 10.24053/ 9783823394716 Inhalt 5 Inhalt Sarah Brommer & Christa Dürscheid Mensch-Mensch- und Mensch-Maschine-Kommunikation Unterschiede und Gemeinsamkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 A Mensch-Mensch-Kommunikation via Maschine Linda Bosshart WhatsApp, iMessage und E-Mail Ein Vergleich des technisch Möglichen mit dem tatsächlich Realisierten . 31 Roberto Tanchis & Leonie Walder Animojis Eine Analyse aus linguistischer Perspektive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Mia Jenni Die weinende, virtuelle Influencerin Das Internetphänomen «Lil Miquela» . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 Florina Zülli ‹Neuer Partner› in den Warenkorb hinzufügen? Zu den Veränderungen des Online-Datings von Parship über Tinder bis zum künstlichen Partner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 B Mensch-Maschine-Kommunikation I: Kommunikation mit Robotern Ilona Straub Die Mensch-Roboter-Interaktion Eine Untersuchung zu den präkommunikativen und kommunikativen Erwartungshaltungen an einen soziotechnischen Akteur . . . . . . . . . . . . . . . 133 Jana Seebass Roboter als Partnerersatz Streitgespräche in der Mensch-Mensch- und Mensch-Maschine- Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 Rahel Staubli Vertrauen in Lio und Co. Anthropomorphisierung von Robotern als vertrauensfördernde Strategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 6 Inhaltsverzeichnis Andrea Knoepfli Mit welchen Strategien erzeugen Pflegeroboter Vertrauen? Analyse aktueller Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 C Mensch-Maschine-Kommunikation II: Kommunikation mit Assistenzsystemen Julia Degelo Der wütende Mann, die höfliche Frau - und die Frage nach dem Dazwischen Wie spricht eine genderneutrale Sprachassistenz? . . . . . . . . . . . . . . . . . . . . . . 211 Ann Fuchs & Zora Naef Smart Homes im öffentlichen Diskurs Drei Fallbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 D Exkurs: Mensch. Maschine. Menschmaschine. Oliver Bendel Chips, Devices, and Machines within Humans Bodyhacking as Movement, Enhancement, and Adaptation . . . . . . . . . . . . . 249 Die Autorinnen und Autoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 Register . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 Mensch-Mensch- und Mensch-Maschine- Kommunikation Unterschiede und Gemeinsamkeiten Sarah Brommer & Christa Dürscheid Gibt es so etwas wie ein Alleinstellungsmerkmal des Menschen gegenüber den Maschinen und falls ja, worin besteht es? Dabei geht es nicht nur um die Frage, welche Berufe künftig automatisierbar sind, ob die Post noch Briefträger und die Zeitung noch Sportreporter braucht. Vielmehr geht es um die Definition dessen, was Menschsein im digitalen Zeitalter bedeutet. Ulrich Schnabel 1 Vorbemerkungen Liest man das diesem Beitrag vorangestellte Zitat, dann möchte man aus linguistischer Sicht spontan darauf antworten: Die Sprache ist ein solches Alleinstellungsmerkmal; die Mensch-Maschine-Kommunikation wird nie an das heranreichen, was die Mensch-Mensch-Kommunikation zu leisten vermag. Doch ist das so? Wo liegen die Unterschiede, wo die Gemeinsamkeiten und welche Merkmale charakterisieren das Sprechen von Maschinen? Im Folgenden wird es um diese und andere Fragen gehen, die das Themenfeld «Mensch. Maschine. Kommunikation» betreffen. Zuvor aber sind zwei Vorbemerkungen erforderlich. Diese beziehen sich sowohl auf den Hauptals auch auf den Untertitel des vorliegenden Sammelbandes. 1. Der Haupttitel ist ein Trikolon. Er besteht aus drei Teilen, die zwar durch Punkte getrennt sind, aber eine Einheit bilden. Die Reihung soll anzeigen, dass es im vorliegenden Buch keineswegs nur um das Thema Mensch-Ma- 8 Sarah Brommer & Christa Dürscheid schine-Kommunikation geht (wie es eine Durchkoppelung mit Bindestrich nahegelegt hätte), sondern dass die Perspektive weiter gefasst ist und auch solche Aspekte behandelt werden, die sich auf die Mensch-Mensch-Kommunikation beziehen. Das ist im ersten Themenblock des Sammelbandes der Fall, in dem z. B. die Verwendung von Animojis thematisiert wird (vgl. den Beitrag von Tanchis / Walder i. d. B.). Der Fokus liegt hier auf der Beschreibung von Interaktionspraktiken in der interpersonalen Online-Kommunikation. Diese ist dadurch gekennzeichnet, dass Menschen mit Menschen kommunizieren - und zwar mittels Maschinen bzw. technischer Unterstützung (z. B. via Handy). Allerdings wird sich schon in diesen ersten Beiträgen zeigen, wie schwer die Abgrenzung von Mensch-Mensch- und Mensch-Maschine-Kommunikation im Einzelfall ist. So kann man nicht immer sicher sein, mit einem Menschen zu kommunizieren, wenn man z. B. die Posts auf Instagram oder Facebook liest und darauf reagiert (vgl. den Beitrag von Jenni i. d. B.). Und selbst wenn man weiss, dass man nicht mit einem Menschen, sondern mit einer Maschine interagiert: Kann das nicht auch Emotionen auslösen? Freut man sich vielleicht darüber, wenn der Chatbot schreibt, man habe eine besonders kluge Frage gestellt? Auf solche Fragen rund um das Thema Mensch-Maschinevs. Mensch- Mensch-Kommunikation geht die Sozialpsychologin Nicole C. Krämer in einem sehr interessanten Interview ein, das die Überschrift «Mit Robotern sprechen» trägt. 1 In diesem Interview liegt der Schwerpunkt auf den psychologischen Aspekten im Umgang mit Robotern, wir dagegen werden uns dem Thema vorrangig aus linguistischer, genauer: aus medienlinguistischer Sicht (s. u.) nähern, und wir werden nicht nur die Kommunikation mit Robotern (d. h. mit Maschinen), sondern auch die Kommunikation via Maschine betrachten. Den Ausdruck Maschine verwenden wir zunächst als Sammelbezeichnung für verschiedene - vorsichtig ausgedrückt - technische Vorrichtungen, subsumieren darunter also sowohl Roboter, Chatbots, Sprachassistenten (Voicebots) als auch technische Apparate wie Handy und Computer. Weiter unten werden wir diesen Terminus genauer fassen. 2. Nun zur Zuordnung des vorliegenden Bandes zur Medienlinguistik: Wie lässt sich das begründen? Womit befasst sich die Medienlinguistik? Auf der 1 Siehe https: / / www.planet-wissen.de/ technik/ computer_und_roboter/ kuenstliche_ intelligenz/ interview-nicole-kraemer-100.html (Stand: 20. 06. 2021). Diese erste Fussnote sei auch dazu genutzt, um darauf hinzuweisen, dass unser Beitrag in Schweizer Orthographie steht (siehe dazu auch Fussnote 25) und dass wir im Folgenden wahlweise den Genderstern, die Beidnennung oder die maskuline resp. feminine Bezeichnung verwenden. Ausserdem möchten wir an dieser Stelle Gerard Adarve für das sorgfältige Korrekturlesen unseres Beitrags danken. Mensch-Mensch- und Mensch-Maschine-Kommunikation 9 Website der Zeitschrift Journal für Medienlinguistik ( jfml ) werden zwei Aufgabenbereiche genannt, die die «thematischen Eckpfeiler der Zeitschrift bilden» (siehe unter https: / / jfml.org/ about): 1.) «Die theoretische und empirische Durchdringung des Verhältnisses zwischen Medialität und Sprachlichkeit» und 2.) «Die Erforschung von Sprache und Kommunikation unter dem Einfluss medialer Veränderungen». Wir orientieren uns an Punkt 2.), da es aus unserer Sicht dieser ist, der das Kernthema der Medienlinguistik treffend umschreibt. Zum Untersuchungsgegenstand der Medienlinguistik gehört demnach, wie sich der Sprachgebrauch in der massenmedialen Kommunikation gestaltet (vgl. dazu Burger / Luginbühl 2014), aber auch, welchen Einfluss «mediale Veränderungen» auf die interpersonale Kommunikation haben (so z. B. die Nutzung des Smartphones). Zugrunde legen wir dabei einen technologischen Medienbegriff. Dieser besagt, dass Medien «materiale, vom Menschen hergestellte Apparate zur Herstellung, Modifikation, Speicherung, Übertragung oder Verteilung von sprachlichen (und nichtsprachlichen) Zeichen» sind (Habscheid 2000: 137, vgl. auch Holly 1997: 69 f.). Face-to-Face-Gespräche fallen nach unserer Auffassung also nicht in den Gegenstandsbereich der Medienlinguistik, 2 sehr wohl aber beispielsweise Telefonate (mündlich) oder WhatsApp-Konversationen (schriftlich), da beide mit Hilfe von Medien erfolgen. Allerdings berücksichtigt die Holly- Habscheid’sche Definition nicht die Rezeptionsseite, weshalb wir an dieser Stelle noch ergänzen wollen: Medien sind vom Menschen hergestellte Apparate, die sowohl zur Produktion, zur Distribution als auch zur Rezeption von Zeichen dienen (vgl. dazu auch Posner 1985: 255). Versteht man den Terminus Medien in diesem technologischen Sinne, dann ist auch die Mensch-Maschine-Kommunikation Gegenstand der Medienlinguistik - und dies in zweierlei Hinsicht: Die Maschine (z. B. der Computer) dient hier ja nicht nur zur Produktion, Distribution und Rezeption der sprachlichen Zeichen, sie ist auch selbst an der Interaktion beteiligt (z. B. der Chatbot). Als Beispiele seien Roboter wie Pepper oder Nao genannt, die in Einkaufszentren eingesetzt werden, um einfache Fragen von Kund*innen 2 Das sei hier eigens betont, da man auch die Auffassung vertreten könnte, dass alle Kommunikation medial vermittelt sei. Dahinter steht ein anderer, wesentlich weiterer Medienbegriff, der die gesprochene und geschriebene Sprache einschliesst und auch die Faceto-Face-Kommunikation als medial ansieht. So liest man bei Luginbühl / Schneider (2020: 67): «But the crucial point here is the following: even (unfilmed, ‹natural›) face-to-face communication is medial and ‹technical› in a broader sense.» Es ist vermutlich dieser weite Medienbegriff, auf den der erste im Journal für Medienlinguistik genannte Punkt Bezug nimmt. Folgt man dieser Auffassung, dann umfasst die Medienlinguistik viel mehr als das, was herkömmlich in dieser Disziplin untersucht wird. Zugespitzt gesagt: Dann ist alle Linguistik Medienlinguistik. 10 Sarah Brommer & Christa Dürscheid zu beantworten oder sie daran zu erinnern, eine Maske zu tragen. 3 Auch mit Sprachassistenten wie Siri oder Alexa kann man kleine Dialoge führen, anders als Roboter haben sie aber nur eine Stimme, keine physische Gestalt. Dennoch neigt der Mensch dazu, auch solche virtuellen Assistenzsysteme als ‹Ansprechpersonen› wahrzunehmen. Auf diesen Punkt kommen wir weiter unten zurück. In der Linguistik gibt es zum Sprachgebrauch in der Mensch-Maschine-Kommunikation bislang nur wenige Arbeiten (vgl. aber Lotze 2016, Antos 2017); die meisten Studien legen den Schwerpunkt auf medienwissenschaftliche, sozialpsychologische und informationsethische Fragen (z. B. Remmers 2018, Thimm / Bächle 2018). Diese Aspekte nehmen wir in unserem Sammelband auch auf, im Fokus stehen aber primär linguistische Untersuchungen (z. B. anknüpfend an die Gesprächsanalyse, die Diskursanalyse und die Genderlinguistik). Zunächst aber erscheint es geboten, noch einige Überlegungen zum Terminus Maschine anzustellen. Was versteht man genau unter einer Maschine? Und wo liegt der Unterschied zum Automaten und zum Roboter? Im nächsten Abschnitt gehen wir kurz auf diese Fragen ein (vgl. dazu ausführlich Staubli i. d. B.), dann steht das Verhältnis von Menschen und Maschinen im Fokus und es wird die Frage behandelt, welche Rolle das Vertrauen in der Mensch-Mensch-Kommunikation und vergleichend dazu in der Mensch-Maschine-Kommunikation spielt (Abschn. 3). Das ist im Kontext des vorliegenden Sammelbandes ein wichtiger Aspekt, zwei Beiträge nehmen darauf Bezug (Staubli und Knoepfli i. d. B.). Die folgenden Fragen stellen sich hier: Kann überhaupt die Rede davon sein, dass man Maschinen Vertrauen entgegenbringt? Besteht gerade darin nicht ein zentraler Unterschied zur Mensch-Mensch-Kommunikation? Den Abschluss des vorliegenden Einführungsbeitrags bilden ein Überblick über die folgenden Kapitel (Abschn. 4) sowie eine kurze Schlussbemerkung. Hier werden wir zeigen, wie vielfältig die Fragen sind, die sich stellen, wenn man die Mensch-Maschine-Kommunikation aus linguistischer Perspektive in den Blick nimmt. Der vorliegende Sammelband soll dazu einige Denkanstösse geben. 3 Vgl. https: / / www.express.de/ koeln/ -ich-bin-pepper--roboter-erinnert-in-koelnereinkaufszentrum-an-laestiges-thema-37623386? cb=1607879196663 (Stand: 19. 06. 2021). Wie aus diesem Beispiel ersichtlich, entstand das vorliegende Buch während der CO- VID-19-Pandemie. Wir hoffen, dass das Beispiel zum Zeitpunkt der Lektüre nicht mehr aktuell sein wird. Mensch-Mensch- und Mensch-Maschine-Kommunikation 11 2 Maschinen-- Automaten-- Roboter In einem Artikel in der Wochenzeitung DIE ZEIT ist zu lesen: «Mit der Vielfalt der Einsatzgebiete wachsen auch die Ansprüche an die Mensch-Maschine-Kommunikation. Ein Therapie-Roboter muss nicht nur andere Aufgaben bewältigen als ein Industrie-Roboter.» 4 Diese Aussage legt die Vermutung nahe, bei den Ausdrücken Maschine und Roboter handle es sich um Synonyme. Intuitiv wissen wir, dass das nicht der Fall ist. Doch wo liegen die Unterschiede? Und wie grenzt man diese beiden Bezeichnungen von dem Terminus Automat ab? Geht man davon aus, dass eine Maschine Arbeitsvorgänge in eine Folge wiederholbarer Schritte teilt, dann ist dies durchaus vergleichbar mit dem Einsatz von Automaten. Es stellen sich hier also einige Fragen, die uns dazu bewogen haben, zunächst auf die Spezifika von Maschinen, Automaten und Robotern einzugehen. In einem zweiten Schritt werden wir auch auf die Stichworte Künstliche Intelligenz und Anthropomorphismus Bezug nehmen und auf die Frage eingehen, wie sich der Sprachgebrauch in der Mensch-Maschinevon der Mensch-Mensch- Kommunikation unterscheidet. Kommen wir zunächst zur Definition von Maschine : Eine Maschine (lat. machina , deutsch ‹Werkzeug›, ‹künstliche Vorrichtung›, ‹Mittel›) ist eine mit einem Antriebssystem «ausgestattete oder dafür vorgesehene Gesamtheit miteinander verbundener Teile oder Vorrichtungen, von denen mindestens eines bzw. eine beweglich ist und die für eine bestimmte Anwendung zusammengefügt sind» (vgl. die europäische Maschinenrichtlinie 2006 / 42 / EG, Artikel 2 Abs. a). Mit anderen Worten: Eine Maschine wird als eigenständige funktionsfähige Einheit dazu eingesetzt, eine bestimmte Tätigkeit auszuführen. Wenn sie diese Tätigkeit automatisch, d. h. selbsttätig, ausführt, spricht man von Automat . Im Alltag zeigt sich die Unterscheidung zwischen Maschine und Automat beispielsweise bei alltäglichen Verrichtungen wie der Zubereitung von Kaffee: Während eine (Filter-)Kaffee maschine als Werkzeug eingesetzt wird, das zwar bei der Zubereitung unterstützt, aber das händische Einfüllen von Kaffee und Wasser verlangt und auch nur der Herstellung von Filterkaffee dient, bereitet ein Kaffee(voll) automat auf Knopfdruck verschiedene Kaffeespezialitäten selbständig zu. Der Einsatzbereich eines Automaten ist jedoch beschränkt, da er nur eine bestimmte Tätigkeit ausführen kann und nutzlos wird, sollte eben diese Tätigkeit nicht mehr benötigt werden. Das wiederum unterscheidet den Automaten vom Roboter: 5 Ein Roboter ist immer wieder programmierbar und dadurch in 4 Vgl. https: / / www.zeit.de/ digital/ internet/ 2014-07/ mensch-maschine-kommunikationgesten-roboter/ komplettansicht (Stand: 19. 06. 2021). 5 Vgl. hierzu auch den Artikel zu Automat von Oliver Bendel im Gabler Wirtschaftslexikon (https: / / wirtschaftslexikon.gabler.de/ definition/ automat-119939 (Stand: 19.06.2021)). 12 Sarah Brommer & Christa Dürscheid der Lage, verschiedene Tätigkeiten zu erledigen, und er zeichnet sich im Vergleich zu anderen Maschinen durch seine Komplexität aus. Seine universelle Einsetzbarkeit findet sich auch in den Richtlinien des Vereins Deutscher Ingenieure, in denen (Industrie-)Roboter definiert werden als «universell einsetzbare Bewegungsautomaten mit mehreren Achsen, deren Bewegungen hinsichtlich Bewegungsfolge und Wegen bzw. Winkeln frei (d. h. ohne mechanischen bzw. menschlichen Eingriff) programmierbar und gegebenenfalls sensorgeführt sind. Sie sind mit Greifern, Werkzeugen oder anderen Fertigungsmitteln ausrüstbar und können Handhabungs- und / oder Fertigungsaufgaben ausführen» ( VDI - Richtlinie 2860). In eine ähnliche Richtung geht die Aussage von Christaller et al. (2001: 19). Die Autoren definieren Roboter als «sensumotorische Maschinen zur Erweiterung der menschlichen Handlungsfähigkeit. Sie bestehen aus mechatronischen Komponenten, Sensoren und rechnerbasierten Kontroll- und Steuerungsfunktionen. Die Komplexität eines Roboters unterscheidet sich deutlich von anderen Maschinen durch die größere Anzahl von Freiheitsgraden und die Vielfalt und den Umfang seiner Verhaltensformen.» Diese Definition greift den Werkzeugcharakter von Robotern auf (vgl. auch den begrifflichen Ursprung des Wortes, abgeleitet von tschechisch robota , deutsch ‹Fronarbeit›). 6 Was hingegen nicht Bestandteil der Definition ist, sind anthropomorphe Zuschreibungen, die sehr häufig Teil des Alltagsverständnisses von Roboter sind (siehe dazu weiter unten). Die Frage, ob die hier beschriebenen begrifflichen Abgrenzungen auch heute noch Bestand haben, kann an dieser Stelle nicht diskutiert werden. Hingewiesen sei aber auf neuere technische Entwicklungen, die darauf hindeuten, dass es mit dem technischen Fortschritt zu weiteren Überschneidungen kommen wird, die die Abgrenzung von Robotern und Maschinen immer schwieriger machen. So wurde Ende 2019 von ABB und B&R, zwei Unternehmen für Automatisierungstechnik, eine erste vollständig integrierte Lösung für die Synchronisierung 6 An dieser Stelle sei angemerkt, dass unter Roboter noch etwas gänzlich anderes verstanden werden kann. Auch das zeigt ein Blick in das Gabler Wirtschaftslexikon. Hier wird Roboter definiert als « Crawler , Spider ; selbstständig das World Wide Web durchsuchendes Programm, das HTML-Seiten nach Suchkriterien klassifiziert […]» (https: / / wirtschaftslexikon.gabler.de/ definition/ roboter-44932 (Stand: 19.06.2021)). Das Verständnis von Roboter , das wir hier in Anlehnung an die VDI-Richtlinie sowie an Christaller et al. (2001) zugrundelegen, wird in diesem Lexikon unter anderen Stichworten (wie z. B. Pflegeroboter , soziale Roboter , Kollaborationsroboter , Operationsroboter , Therapieroboter , Kampfroboter ) aufgegriffen; und es findet Eingang in den Artikel zu Automat (im Zuge der Abgrenzung von Roboter und Automat , vgl. https: / / wirtschaftslexikon.gabler.de/ definition/ automat-119939 (Stand: 19. 06. 2021)). Mensch-Mensch- und Mensch-Maschine-Kommunikation 13 zwischen Robotik und Maschinensteuerung präsentiert. 7 Möglicherweise wird sich diese Annäherung von Roboter und Maschine (und Automat) künftig im Sprachgebrauch niederschlagen und dafür nur noch ein Terminus im Gebrauch sein; es ist aber auch zu vermuten, dass vor allem zwischen Maschine und Roboter weiter sprachlich differenziert werden wird, nämlich um die unterschiedlichen Einsatzbereiche (s. u.) zu berücksichtigen. Wir selbst verwenden als Oberbegriff das Wort Maschine , wir sind uns aber bewusst, dass damit andere Assoziationen einhergehen als beim Wort Roboter . Eine diskurslinguistische Analyse des Sprachgebrauchs wäre in diesem Zusammenhang auf jeden Fall erkenntnisreich. Sie könnte z. B. Aufschluss darüber geben, ob die Bezeichnung Maschine stärker den Werkzeugcharakter fokussiert und eine emotionale Distanz zum Ausdruck bringt und im Vergleich dazu mit dem Ausdruck Roboter eine grössere Handlungskompetenz und damit einhergehend auch die Möglichkeit zur Interaktion assoziiert wird. Unstrittig ist, dass die Verwendungshäufigkeit von Roboter in den letzten 30 Jahren kontinuierlich zugenommen und sich in dieser Zeit laut dem DWDS-Zeitungskorpus verdreifacht hat (siehe Abb. 1). Demgegenüber wird der Ausdruck Maschine zwar aktuell nach wie vor oft gebraucht, aber von 1950 bis zum Anfang der 1990er Jahre ist die Verwendungshäufigkeit um rund 60 Prozent markant gesunken, und seitdem stagniert sie weitgehend. Die folgende Abbildung stellt diese Entwicklung auf anschauliche Weise dar. Hier ist auch zu sehen, dass sich im Hinblick auf die Verwendung des Wortes Automat keine Veränderungen abzeichnen. 7 «Synchronisierung zwischen Robotik und Maschinensteuerung» bedeutet, dass nur ein technisches System benötigt wird. Damit entfallen alle Schnittstellen zwischen Roboter und Maschine, alle Achsen und Sensoren kommunizieren in einem gemeinsamen Netzwerk. Vgl. dazu https: / / www.technik-und-wissen.ch/ detail/ ABB-und-BuR-roboter-undmaschine-werden-eins.html (Stand: 19. 06. 2021). 14 Sarah Brommer & Christa Dürscheid Abb. 1: Verwendungshäufigkeiten von Roboter , Maschine , Automat von 1950 bis heute Die Zunahme der Verwendungshäufigkeit des Wortes Roboter ist im Zusammenhang mit der fortschreitenden Robotertechnik (= Robotik) zu sehen, die dazu geführt hat, dass es für Roboter immer mehr industrielle und private Einsatzmöglichkeiten gibt, was sich wiederum in stetig wachsenden Verkaufszahlen zeigt. Wie aus dem aktuellen Welt-Roboter-Report der International Federation of Robotics ( IFR ) hervorgeht, kommen Industrieroboter am häufigsten in der Automobilindustrie, der Elektro- und Elektronikindustrie sowie der Metallindustrie und im Maschinenbau zum Einsatz. 8 Hier haben sich die Verkaufszahlen in den letzten zehn Jahren mehr als versechsfacht. Das grösste Wachstum ist aber im Bereich der Nutzung von Servicerobotern für den gewerblichen und den persönlichen / häuslichen Gebrauch zu verzeichnen. Laut dem IFR -Welt- Roboter-Report stieg die Anzahl verkaufter Serviceroboter im Vergleich zum Vorjahr um 61 % auf 271 000, 9 wobei rund ein Viertel davon Serviceroboter für den privaten Einsatz waren. Zu den privat eingesetzten Servicerobotern zählen 8 Vgl. https: / / ifr.org/ downloads/ press2018/ Presentation_WR_2020.pdf (Stand: 19. 06. 2021). 9 Vgl. https: / / ifr.org/ downloads/ press2018/ 2019-09-18_Pressemeldung_IFR_World_Robotics_2019_Service_Robots_deutsch.pdf (Stand: 19. 06. 2021). Mensch-Mensch- und Mensch-Maschine-Kommunikation 15 bspw. solche, die beim Hausputz und der Gartenarbeit helfen; sie erfüllen aber auch andere Aufgaben, wie die folgende exemplarische Übersicht zeigt. 10 Abb. 2: Übersicht über den vielfältigen Einsatz von Servicerobotern Wie die Abbildung zeigt, werden (soziale) Roboter und speziell Serviceroboter mittlerweile auch von Privatpersonen zu verschiedenen Zwecken eingesetzt. 11 Entsprechend unterschiedlich sind die Situationen, in denen es zu einer Kommunikation zwischen Mensch und Roboter kommt. Doch kann man überhaupt von einer Kommunikation sprechen? Je nachdem, welchen Aufgabenbereich ein Roboter erfüllt, stellen sich auf kommunikativer Ebene unterschiedlich komplexe Herausforderungen. Während sich die Mensch-Mensch-Kommunikation zwar in Abhängigkeit von der Kommunikationssituation gestaltet, aber prinzipiell offen und grenzenlos verläuft, korreliert die Mensch-Maschine-Kommunikation mit dem Einsatzbereich der Maschine, ist dadurch eingeschränkt und in gewisser Weise auch vorherbestimmt. So ist es bei einer Vielzahl von Servicetätigkeiten ausreichend, dem Roboter seine «Aufgabe mitzuteilen», die dieser dann mittels seiner Programmierung und ggf. künstlichen Intelligenz (s. u.) erfüllt. In diese Kategorie fallen z. B. Reinigungsroboter wie Saugroboter und Saug-Wisch-Roboter. Die Kommunikation beschränkt sich hier auf ver- 10 Die Darstellung greift die Gliederung des IFR-Welt-Roboter-Reports auf (vgl. https: / / ifr. org/ img/ worldrobotics/ Contents_WR_2020_Service_Robots.pdf (Stand: 19. 06. 2021)), modifiziert diese jedoch und ergänzt sie. So bleiben im Report Sexroboter unerwähnt (vgl. dazu aber ausführlich Bendel 2020), obschon diese zweifelsfrei zu den Servicerobotern zählen. 11 Roboter werden als soziale Roboter bezeichnet, wenn sie für den Umgang mit Menschen oder Tieren programmiert wurden (zur genaueren Erläuterung vgl. https: / / wirtschaftslexikon.gabler.de/ definition/ soziale-roboter-122268 (Stand: 19. 06. 2021)). 16 Sarah Brommer & Christa Dürscheid gleichsweise einfache Befehle (vom Menschen zum Roboter) und Meldungen (vom Roboter zum Menschen). Demgegenüber liegt es auf der Hand, dass ein Roboter, der zu Therapiezwecken eingesetzt wird, nicht nur andere Aufgaben als ein Reinigungsroboter oder ein Industrie-Roboter bewältigen muss, sondern dass er mit den Menschen in seinem Umfeld auch anders kommunizieren muss. Er (oder sie? ) muss zum einen in der Lage sein, individuellen sprachlichen Input zu verarbeiten, und zum anderen, auf diesen Input zu reagieren. 12 Eine andere, aber ähnlich komplexe kommunikative Herausforderung stellt sich bei autonom fahrenden Autos. Neben allen rechtlichen und ethischen Aspekten, die in diesem Kontext zu klären sind, 13 ergeben sich hier auch kommunikative Fragen. So müssen sich einerseits Fussgänger*innen, Radfahrer*innen und Autofahrer*innen mit dem autonom fahrenden Auto abstimmen können, sei es am Zebrastreifen oder an einer gleichberechtigten Kreuzung, d. h. sie müssen ihre Absichten dem Fahrsystem kommunizieren und dieses muss den Input verarbeiten können. Andererseits muss das Auto umgekehrt signalisieren können, dass es autonom fährt und die anderen Verkehrsteilnehmer*innen wahrgenommen hat. Auch muss es je nach Situation sogar eine Aktion ankündigen können (z. B. Vorfahrt gewähren). Nun noch etwas zur Terminologie: Je nachdem, ob der Schwerpunkt auf die Interaktion zwischen Mensch und Maschine oder spezifischer auf die (sprachliche) Kommunikation zwischen Mensch und Maschine gelegt wird, ist von Mensch-Maschine-Interaktion ( MMI ), im Englischen «human-machine interaction» ( HMI ), oder von Mensch-Maschine-Kommunikation bzw. «human-machine communication» ( MMK bzw. HMC ) die Rede. Häufig werden die beiden Bezeichnungen auch synonym verwendet. Auf jeden Fall zählen dazu beide Perspektiven, d. h. sowohl die Mitteilungen des Menschen an die Maschine als auch die der Maschine an den Menschen. Es geht also um die wechselseitige Verständigung zwischen Mensch und Maschine. Dies ist der Aspekt, der in unserem Sammelband primär Berücksichtigung findet, daneben wird es aber auch - wie bereits erläutert - um die Mensch-Mensch-Kommunikation mittels Maschine gehen. In beiden Fällen ist es notwendig, dass der Mensch (in unterschiedlichem Ausmass) der Technik und der Kommunikation mit der Technik vertraut. Damit kommen wir zum nächsten Abschnitt, zum Thema Vertrauen. 12 Beim Einsatz von Robotern in der Pflege wird auch deutlich, dass Roboter die persönliche zwischenmenschliche Kommunikation nicht nur ergänzen, sondern sie in bestimmten Situationen auch ersetzen (s. a. die Beiträge von Knoepfli und Staubli i. d. B.). Hier zeigt sich also ein gewisses Mass an Gemeinsamkeit zwischen der Mensch-Mensch- und der Mensch-Maschine-Kommunikation - zumindest bezogen auf den kommunikativen Anlass. 13 Zu Fragen maschineller Moral vgl. ausführlich Bendel (Hrsg.) 2019. Mensch-Mensch- und Mensch-Maschine-Kommunikation 17 3 Maschinen-- Menschen-- Vertrauen Vertrauen ist von Vertrauenswürdigkeit zu unterscheiden (vgl. Bentele 1994, Schäfer 2014): Während Vertrauen die Qualität einer Beziehung beschreibt (vgl. Möllering 2006) und im Sinne einer positiven Erwartungshaltung an das Handeln zukunftsorientiert ist, kann Vertrauenswürdigkeit als Urteil über die aktuell vermittelten Informationen und ihre Quelle verstanden werden (vgl. König / Jucks 2019). Im Mittelpunkt steht dabei, was einer Person, einer Situation, einer Information zugeschrieben wird. Ist eine Internetquelle z. B. verlässlich? Wenn ja, kann man ihr vertrauen, also davon ausgehen, dass sie dies auch in Zukunft sein wird? Ist der Roboter im Einkaufszentrum vertrauenswürdig, kann man sich darauf verlassen, dass er auf die Frage nach dem Weg die richtige Auskunft gibt? In diesem Zusammenhang stellt sich die grundsätzliche Frage, ob man Maschinen überhaupt vertrauen kann. Sind es nicht vielmehr die Menschen, die diese programmiert haben, denen wir vertrauen? So lässt sich das Vertrauen in ein Flugzeug mit dem Argument erklären, dass man der Pilotin, der Besatzung, den Konstrukteuren und Techniker*innen hinter dieser Technologie vertraut. Auf der anderen Seite wird argumentiert, dass sich ein «Quasi-Vertrauen» zu Maschinen aufbauen kann (vgl. Misselhorn 2019), wenn beispielsweise ein Roboter humanoide Eigenschaften hat und in dialogischen Strukturen angemessen reagiert. Wie wir hieran schon sehen, umfasst das Thema Vertrauen eine ganze Reihe von Fragen. Diese betreffen u. a. die Verlässlichkeit von Internetquellen (Vertrauen in Informationen), den Schutz der Privatsphäre (Vertrauen in Datensicherheit), die Kommunikation mit Robotern, Chatbots und Sprachassistenten (Vertrauen in Maschinen) und die Kommunikation in sozialen Netzwerken (Vertrauen in (fremde) Menschen). 14 Im Folgenden legen wir den Schwerpunkt auf nur einen Aspekt, auf das Vertrauen in Maschinen. Weiter oben wurde darauf hingewiesen, dass Roboter und virtuelle Assistenzsysteme oft als ‹Ansprechpersonen› wahrgenommen werden. Hier möchten wir auf diesen Aspekt zurückkommen: Bekanntlich ist es bei den heutigen technischen Möglichkeiten nicht immer offensichtlich, ob man mit einem Menschen oder einer Maschine kommuniziert, wer also die «Ansprechperson» ist. 15 Zwar mag man einwenden, dass auch heute noch - beispielsweise in der Kommunikation mit Siri , der 14 Vgl. hierzu bspw. die Beiträge in dem 2018 von Bernd Blöbaum herausgegebenen Sammelband «Trust and Communication in a Digitized World. Models and Concepts of Trust Research». 15 Vorbei ist die Zeit, wo dies noch offensichtlich war. Man denke nur an Eliza, ein von dem Informatiker Joseph Weizenbaum in den 1960er Jahren entwickeltes Computerprogramm, das imstande war, auf einfache Fragen (schriftlich) zu antworten. 18 Sarah Brommer & Christa Dürscheid Sprachassistenz von Apple - die dialogischen Fähigkeiten von Maschinen zu wünschen übriglassen. Das zeigt sich u. a. daran, dass auf Fragen, die das System nicht einordnen kann, ausweichende Antworten oder Nonsense-Antworten gegeben werden (vgl. «Siri, wer sitzt neben mir? » - «Interessante Frage»). 16 Doch es gibt bereits Szenarien, in denen Menschen mit Maschinen kommunizieren und dies nicht einmal bemerken. Wird man z. B. als Restaurantbesitzerin von einem Voicebot angerufen, der einen Tisch reservieren will, erkennt man möglicherweise nicht, dass man nicht mit einem Menschen spricht. 17 Das kann auch in der Internetkommunikation der Fall sein. Man liest die Beiträge von einer Person, von der man glaubt, dass sie real existiert; es handelt sich aber nur um ein «Internetphänomen» (vgl. den Beitrag von Jenni i. d. B.). Es ist also keineswegs so, wie der Psychiater und Philosoph Thomas Fuchs (2020: 13) in seinem Plädoyer für die «Verteidigung des Menschen» schreibt, dass «jede digital vermittelte Online -Kommunikation [Kursivierung i. O.] voraus[setzt], dass wir es jenseits aller Vermittlungen immer noch mit einem lebendigen Menschen aus Fleisch und Blut zu tun haben.» Wir vertrauen möglicherweise nur darauf, dass es Menschen «aus Fleisch und Blut» sind, mit denen wir kommunizieren. Thomas Fuchs führt weiter aus, dass eine Interaktion immer auf einer leibhaftigen Begegnung basiere bzw. dass man «diese Begegnung zumindest als Möglichkeit immer schon vorweg» nehme (Fuchs 2020: 13). Doch auch das trifft unserer Erfahrung nach nicht immer zu. Man denke nur an das automatische Generieren von Tweets über einen Twitter-Bot. Auf solche Tweets kann man antworten, sie teilen oder weiterleiten, ohne zu merken, dass die Nachrichten von einem Bot stammen. Ist eine solche Täuschung vom Programm beabsichtigt, dann wird das Vertrauen der Internetnutzer*innen missbraucht. 18 16 Im oben erwähnten Interview mit Nicole C. Krämer liest man dazu (Stand Oktober 2020): «Es gibt bisher nur ganz wenige Systeme, die schon eine sinnhafte Unterhaltung führen können. Alexa und Google können noch nicht so viel. Da hören Sie noch häufig die Antwort: ‹Ich habe Dich nicht verstanden.› Viel ist auch heute noch vorprogrammiert und abhängig vom Programmierer, der sich auf vermutete Fragen witzige oder passende Antworten einfallen lässt.» 17 Vgl. dazu die Medienberichte, die zu dem Voicebot von Google (dem Google Assistant ) publiziert wurden, so z. B. https: / / www.tageskarte.io/ technologie/ detail/ google-assistant-reserviert-per-telefon-im-restaurant.html, (Stand: 19. 06. 2021). Das Projekt wurde auch unter dem Namen Google Duplex bekannt. 18 Dem Bot Traffic Report 2016 zufolge wurden bereits 2016 mehr als 50 % des Verkehrs im Internet durch Bots verursacht (vgl. Zeifman 2016). Engel (2019: 10) weist darauf hin, dass dies zu 56 % durch sog. «bad bots» geschieht, «von denen wiederum ein Teil als verdeckt agierende ‹social bots› versuchen, Einfluss auf die (netzwerk-)öffentliche Meinungsbildung zu nehmen». Nicht von ungefähr setzen viele Unternehmen denn auch Captchas (automatische Tests zur Unterscheidung von Computern und Menschen) als ‹Schutzwall› ein, um zu verhindern, dass ein Bot Zugang zur Website bekommt. Mensch-Mensch- und Mensch-Maschine-Kommunikation 19 Damit kommen wir zu einem weiteren wichtigen Punkt: Welche Faktoren spielen bei der Schaffung von Vertrauen eine Rolle und welche ethischen Fragen stellen sich in der Mensch-Maschine-Kommunikation? Dies wird u. a. in den bereits erwähnten Arbeiten von Donick (2019), Remmers (2018) und König / Jucks (2019) diskutiert. So betont Peter Remmers den Unterschied zwischen Maschinen, die als Werkzeuge eingesetzt werden (z. B. Waschmaschinen), und solchen, die als (teilautonome) Agenten, d. h. als Handlungsinstanzen erscheinen (z. B. soziale Roboter). Die äussere Gestalt der Maschine und die Frage, welche Handlungen sie ausführt, wirken sich hier unmittelbar auf die Beziehung des Menschen zur Maschine aus. Oder anders gesagt: Je menschenähnlicher die Maschine gestaltet ist, desto mehr rücken technische Aspekte (wie der Werkzeugcharakter) in den Hintergrund und es gewinnen soziale Aspekte an Bedeutung - und desto eher stellt sich die Frage, ob man der Maschine vertrauen kann. 19 Ist das Äussere eines Roboters der menschlichen Gestalt nachempfunden, wird er / sie als «humanoid» bezeichnet. Ein Beispiel für einen solchen Roboter ist Pepper, der von dem französischen Unternehmen SoftBankRobotics und dem japanischen Telekommunikations- und Medienkonzern SoftBank Mobile Corp. entwickelt wurde. Wie Abb. 3 zeigt, hat Pepper zwar ansatzweise ein menschenähnliches Aussehen (und vollführt auch ähnliche Bewegungsabläufe), das Ziel der Hersteller war es aber nicht, einen Menschen realistisch nachzuahmen. Peppers Kopf ist überdimensioniert, er ist nicht einmal 1.20 Meter gross, er trägt ein Tablet am Körper und steht auf einem Sockel, der dem Beinbereich beim Menschen entspricht. Pepper ist also nur humanoid, aber nicht android. So bezeichnet man Roboter, die dem Menschen so originalgetreu wie möglich nachgebaut wurden - mit dem Ziel, dass man sie für echte Menschen halten könnte. Das freilich hätte auf die Mensch-Maschinebzw. Mensch-Roboter-Beziehung und damit auch auf das Vertrauen, das man der Maschine entgegenbringt, einen nachteiligen Effekt. Denn wie Untersuchungen zeigen, wird die Menschenähnlichkeit nur positiv gesehen, solange es sich um eine offensichtlich nachempfundene Ähnlichkeit handelt. 20 19 Vgl. dazu auch den lesenswerten Beitrag von Thimm et al. (2019): Die Maschine als Partner? Verbale und non-verbale Kommunikation mit einem humanoiden Roboter. 20 So wirkt ein Roboter mit Kopf- und Rumpfbereich sympathischer als ein industrieller Schwenkarm. Wird allerdings ein Level sehr hoher Menschenähnlichkeit erreicht, sinkt die Akzeptanz abrupt. 20 Sarah Brommer & Christa Dürscheid Abb. 3: Pepper, https: / / www.servicedeskinstitute.com/ 2018/ 02/ 12/ meet-pepper-humanoid- -robot-sdi18/ , (01. 02. 2021) Menschenähnlich aussehende Roboter werden oft mit dem Attribut anthropomorph (von griech. anthropos (‹Mensch›) und morphe (‹Gestalt›, ‹Form›)) beschrieben - ein Ausdruck, der synonym zu humanoid gebraucht wird, aber stärker auf die Zuschreibung menschlicher Eigenschaften (z. B. im äusseren Erscheinungsbild, im Verhalten, in der Stimme) fokussiert. In diesem Zusammenhang ist auch häufig von Anthropomorphisierung die Rede, d. h. von der Vermenschlichung nichtmenschlicher Entitäten (also z. B. Tieren, Pflanzen, Maschinen). In unserem Alltag gibt es dafür viele Beispiele: Man gibt seinem Auto einen Namen, man beschimpft seinen Computer, man spricht liebevoll mit den Zimmerpflanzen oder man schaut Filme, in denen Tiere menschenähnlich dargestellt werden und sprechen können (wie z. B. «Findet Nemo»). Doch wie weit darf eine solche Anthropomorphisierung in der Technik gehen? Soll man Roboter so konstruieren, dass sie immer menschenähnlicher aussehen und auch so agieren? Manuela Marquardt weist in ihrem interessanten Beitrag zu diesem Thema darauf hin, «dass ein besseres Verständnis dieses Phänomens in die Konstruktion und das Design interaktionsfähiger Roboter mit einfließen könnte» (Marquardt 2017: 8). Sie betont aber auch, dass es nicht darum gehen könne, Roboter so humanoid wie möglich zu gestalten. Wichtiger für die Mensch-Roboter-Interaktion sei vielmehr eine optimale Passung, die sich darin zeige, dass das Design des Roboters zu seinen Aufgaben und dem jeweiligen Anwendungskontext passe (vgl. Marquardt 2017: 9). Dies mag in Bezug auf Mensch-Mensch- und Mensch-Maschine-Kommunikation 21 die mitunter mit Sorge diskutierte Frage beruhigen, ob sich künftig die Grenze zwischen Menschen und Maschinen überhaupt noch bestimmen lässt. Die Ängste in diesem Bereich sind gross, und dies sowohl in der Gesellschaft als auch ansatzweise in der Wissenschaft, und sie werden möglicherweise durch Filme und Romane, in denen Maschinen an die Stelle von Menschen treten, noch weiter geschürt. 21 So schreibt Thomas Fuchs in seinem weiter oben bereits erwähnten Buch: «Die Fortschritte der Künstlichen Intelligenz und der Robotik [Kursivierung i. O.] stellen die Unterscheidung zwischen Simulation und Realität der menschlichen Person zunehmend in Frage. […] Wir betrachten uns selbst immer mehr wie unsere Maschinen und umgekehrt unsere Maschinen wie uns selbst. Was also unterscheidet menschliche und künstliche Intelligenz? » (Fuchs 2020: 14 f.). Diese Frage knüpft indirekt an das Zitat an, das wir unserem Beitrag vorangestellt haben: Was bedeutet Menschsein im digitalen Zeitalter? Worin besteht das Alleinstellungsmerkmal des Menschen gegenüber der Maschine? Im ersten Beitrag seiner Textsammlung geht Thomas Fuchs ausführlich auf die Unterscheidung von Mensch und Maschine ein (vgl. «Menschliche und Künstliche Intelligenz. Eine Klarstellung», S. 21-70) und beschliesst seine Überlegungen mit dem Hinweis darauf, dass wir uns gerade angesichts unserer Maschinen «auf unsere eigentliche Menschlichkeit besinnen» sollten. 22 Auch Gert Antos warnt in seinem Beitrag «Wenn Roboter ‹mitreden› … Brauchen wir eine Disruptions-Forschung in der Linguistik? » davor, dass Maschinen Menschen immer ähnlicher werden könnten: «Je ‹echter› Maschinen ununterscheidbar und unauffällig Menschen imitieren, umso mehr wächst nicht nur die Gefahr der Tarnung, Täuschung und der Manipulation» (Antos 2017: 399). Und er konstatiert pessimistisch, der Mensch habe «sein bisher gattungsgeschichtliches Monopol auf Reden, Schreiben, Übersetzen und Textherstellen an Roboter (Sprach-Assistenten) mit aktuell erreichter künstlicher Intelligenz verloren» (ebd.: 412). Hier möchten wir allerdings zu bedenken geben, dass Künstliche Intelligenz noch weit entfernt ist von der menschlichen Fähigkeit, sich Wissen zu beliebigen Themen anzueignen, Schlussfolgerungen zu ziehen, Sprachen anzuwenden und eigene Gedanken zu formulieren. 23 Denn im Gegensatz zu 21 Vgl. dazu den Roman von Ian McEwan mit dem treffenden Titel «Machines like me». Der Roman handelt von Adam, einen sympathischen, gut aussehenden, androiden Roboter, der in der Paarbeziehung der beiden Protagonist*innen Charlie und Miranda eine immer bedeutendere Rolle spielt. 22 Wie aus den Zitaten ersichtlich, wird das Adjektiv künstlich wahlweise klein- oder grossgeschrieben. Wir selbst verwenden das Adjektiv hier in Grossschreibung, da wir den Ausdruck Künstliche Intelligenz als einen Terminus mit fachsprachlichem Charakter ansehen. 23 Vgl. dazu das Buch Atlas of Anomalous AI (Vickers / Dowell 2020), in dem die Geschichte und die Zukunft von Künstlicher Intelligenz aus verschiedenen Perspektiven betrachtet 22 Sarah Brommer & Christa Dürscheid Menschen können Maschinen nicht alle beliebigen Arten von Informationen verarbeiten und nur solche Aufgaben bewältigen und Probleme lösen, für die sie programmiert wurden. Entsprechend bleiben auch die Unterschiede in der Mensch-Mensch- und Mensch-Maschine-Kommunikation bestehen. Ob diese Grenzen jemals verschwimmen, halten wir für fraglich, zumal dies, wie oben angedeutet, in der Forschung zur Künstlichen Intelligenz gar nicht als erstrebenswert erachtet wird. Festhalten können wir auf jeden Fall, dass Maschinen in immer mehr Situationen des täglichen Lebens unseren Alltag erleichtern und Aufgaben übernehmen, die früher Menschen vorbehalten waren. 24 Gleichzeitig ist offensichtlich, dass ihr Einsatz den Menschen vor immer neue Herausforderungen stellt. Dazu gehört nicht zuletzt, dass ihnen der Mensch vertrauen muss. Oder vorsichtiger formuliert: Er muss sich auf sie verlassen können. 4 Übersicht über die folgenden Beiträge Zum Schluss sollen noch die Beiträge des Sammelbandes kurz vorgestellt werden. Dabei handelt es sich in erster Linie um Arbeiten von Germanistikstudierenden der Universität Zürich, die das von uns geleitete Seminar «Mensch. Maschine. Vertrauen» besuchten. Einige der studentischen Arbeiten waren von solch innovativem Charakter, dass wir uns dazu entschlossen haben, sie einer breiteren Öffentlichkeit zugänglich zu machen. 25 Unterstützt wurden wir dabei von Ilona Straub und Oliver Bendel, die sich bereit erklärten, aus ihrer jeweiligen fachlichen Perspektive ebenfalls einen Beitrag für den vorliegenden Sammelband zu verfassen. Allen Mitarbeitenden an dem vorliegenden Sammelband sei an dieser Stelle herzlich für ihr Engagement gedankt! wird (technologisch, literarisch, philosophisch, künstlerisch, ethisch). Im Klappentext zum Buch heisst es: «Key texts on modelling, prediction and automation are brought together with stories of science fiction, dreams and human knowledge, set among visionary and surreal images.» 24 Eine Folge dieser Entwicklung sind tiefgreifende Veränderungen in der Arbeitswelt. Doch auch wenn bspw. der Einsatz Künstlicher Intelligenz am Arbeitsplatz Erleichterungen bringt, sieht die Hälfte der volljährigen Arbeitnehmer*innen in Deutschland darin einen Grund zur Sorge (vgl. eine im Mai 2018 veröffentlichte Studie des IMWF, Institut für Management und Wirtschaftsforschung, zur Akzeptanz von Künstlicher Intelligenz am Arbeitsplatz. Abrufbar unter: https: / / www.imwf.de/ pressemitteilung/ studiekuenstliche-intelligenz-am-arbeitsplatz-verunsichert-die-haelfte-der-berufstaetigen/ , (Stand: 25. 01. 2021)). 25 Auf den Entstehungskontext sei auch deshalb hingewiesen, weil dies die Erklärung dafür ist, warum die meisten Beiträge in Schweizer Orthographie verfasst wurden. Selbstverständlich wurde diese Schreibung in der Endredaktion so belassen. Mensch-Mensch- und Mensch-Maschine-Kommunikation 23 Der erste Themenblock trägt die Überschrift «Mensch-Mensch-Kommunikation via Maschine». Hier geht es um solche Aspekte, die in der Medienlinguistik zur interpersonalen Kommunikation gerechnet werden. Im ersten Beitrag befasst sich Linda Bosshart mit der WhatsApp -Kommunikation, der Kommunikation via iMessage und der E-Mail-Kommunikation. Sie zeigt an einigen Beispielen auf, in welchem Verhältnis die technischen Gegebenheiten (d. h. die Affordanzen) dieser Kommunikationsformen zu dem stehen, was in diesem Rahmen kommunikativ auch tatsächlich realisiert wird. Roberto Tanchis und Leonie Walder widmen sich sodann dem Gebrauch von Animojis, d. h. von selbst erstellten Avataren (z. B. einem Katzenkopf), die auf einem Foto des eigenen Gesichts (inkl. der Mimik) basieren. Erläutert wird hier u. a., weshalb Animojis in Sprachnachrichten genutzt werden und wo die Unterschiede zu anderen bildhaften Darstellungen in der Online-Kommunikation liegen (z. B. Emojis und Memojis). Der folgende Beitrag von Mia Jenni handelt von «Lil Miquela», einer Influencerin, die mit ihren Posts auf Instagram und YouTube sehr präsent ist und über 2,4 Millionen Abonnent*innen hat. Tatsächlich ist es aber keine Person, sondern eine von einer Startup-Firma kreierte Figur, deren Auftreten so echt ist, dass sich ihre vielen Follower*innen immer wieder täuschen lassen. Den Abschluss dieses ersten Teils bildet der Beitrag von Florina Zülli. Sie beschreibt die Veränderungen des Online-Datings von Parship über Tinder bis hin zum künstlichen Partner, den man nicht um werben kann, sondern erwerben muss. Der zweite Themenblock führt ins Zentrum des vorliegenden Sammelbandes: Ilona Straub legt dar, mit welcher Erwartungshaltung Nutzer*innen Robotern gegenübertreten, und zeigt auf, dass sie diese zunächst als technisches Objekt, dann als situativ reagierende Gestalt und schliesslich als akzeptierte Sozialpartner wahrnehmen. Jana Seebass vergleicht «Streitgespräche in der Mensch- Mensch- und Mensch-Maschine-Kommunikation». Dabei stützt sie sich auf eine Episode aus der bekannten britischen Netflix-Serie Black Mirror , in der eine junge Frau ihren verstorbenen Mann durch einen Roboter ersetzt, der diesem, so scheint es zunächst, täuschend ähnlich ist. Zwar handelt es sich dabei um ein fiktives Szenario, der Beitrag führt aber deutlich vor Augen, wo die Gemeinsamkeiten und wo die Unterschiede in der Kommunikation mit einem Menschen resp. einem Roboter liegen. Mit dem Beitrag von Rahel Staubli rückt sodann das Thema Vertrauen in den Fokus. Am Beispiel des Roboters Lio , der in der Pflege zum Einsatz kommt, wird gezeigt, welche Strategien in einer Werbebroschüre eingesetzt werden, um diesen Roboter menschenähnlich und damit besonders vertrauenswürdig erscheinen zu lassen. Auch der vierte Beitrag knüpft an die Frage an, wie Vertrauen zu Pflegerobotern aufgebaut werden kann: Andrea Knoepfli legt dar, dass hierfür nicht nur das Äussere und ein adäquates Kom- 24 Sarah Brommer & Christa Dürscheid munikationsverhalten eine wichtige Rolle spielen, sondern dass in der Programmierung von Robotern noch viele weitere Entscheidungen zu treffen sind, die u. a. ethische Fragen tangieren (z. B. hinsichtlich der Medikamentenabgabe an Pflegebedürftige). Auch der dritte Themenblock ist der Mensch-Maschine-Kommunikation gewidmet, der Schwerpunkt liegt nun aber auf der Kommunikation mit virtuellen Assistenzsystemen. Ein Beispiel hierfür ist Siri - ein Assistenzsystem, das von den Werkeinstellungen her mit einer weiblichen Stimme spricht. An diesem Punkt setzt der Beitrag von Julia Degelo an. Diskutiert werden u. a. die folgenden Fragen: Welche Assoziationen sind mit der weiblichen Stimme verbunden? Würden sich Stereotype aufbrechen lassen, wenn die Sprachassistenz eine genderneutrale Stimme hätte? Müsste sich dann aber nicht auch das Kommunikationsverhalten ändern? Der folgende Beitrag trägt den Titel «Smart Homes im öffentlichen Diskurs. Drei Fallbeispiele». Hier wird der Blick auf die Berichterstattung über die Nutzung von Assistenzsystemen gerichtet; genauer: auf die Frage, wie diese Thematik medial so aufbereitet wird, dass die technischen Zusammenhänge auch für Laien unmittelbar verständlich sind. Ann Fuchs und Zora Naef zeigen dies am Beispiel von drei Zeitungsartikeln, die sich an eine breite Leserschaft wenden und das Thema auf ganz unterschiedliche Weise behandeln. Der vierte Themenblock wurde von uns als «Exkurs» gekennzeichnet. Dies gilt in zweifacher Hinsicht: Zum einen fällt darunter nur ein Beitrag (und der einzige in englischer Sprache), zum anderen geht es nun nicht mehr um die Mensch-Menschbzw. Mensch-Maschine-Kommunikation im engeren Sinne, sondern um neue technische Entwicklungen, die unter das Stichwort «Bodyhacking» fallen. Dazu gehören Beispiele wie das Einsetzen von Chips und Prothesen in den menschlichen Körper. Während es sich dabei aber um einen vergleichsweise minimalen Eingriff handelt, der dazu dienen soll, die Funktionsfähigkeit des menschlichen Körpers wiederherzustellen, gibt es andere, die die Unterscheidung von Mensch und Maschine grundsätzlich in Frage stellen (und uns dazu veranlasst haben, diesen Themenblock mit «Menschmaschine» zu überschreiben). Ein Beispiel hierfür sind sog. Cyborgs, die Implantate in sich tragen, mit denen sie kommunizieren. Oliver Bendel erläutert dies in seinem Beitrag genauer und erklärt weitere grundlegende Termini (z. B. Biohacking, Bodyhacking, Transhumanismus). Dann folgt ein Überblick über die Möglichkeiten, die das Bodyhacking bietet, und abschliessend werden damit verbundene ethische Fragen diskutiert. Wie dieser Überblick über die Beiträge des Sammelbandes zeigt, nehmen die Autorinnen und Autoren Themen auf, die weit über das hinausführen, was traditionell im Kontext der Medienlinguistik untersucht wurde. Die meisten der in Mensch-Mensch- und Mensch-Maschine-Kommunikation 25 diesem Kontext diskutierten Fragen orientieren sich daran, wie sich die Mensch- Menschresp. die Mensch-Maschine-Kommunikation im Jahr 2020 darstellt - und damit zu einer Zeit, in der die Folgen der Corona-Krise noch nicht absehbar waren. Diese Folgen werden alle Bereiche unserer Gesellschaft tangieren. So ist zu vermuten, dass der Einsatz von Robotern künftig noch zunehmen wird (z. B. zur Versorgung von Menschen in Quarantäne, im Dienstleistungsbereich). Das wird auch dazu führen, dass die Mensch-Maschine-Kommunikation in unserem Alltag immer wichtiger werden wird. Die linguistische Forschung muss dem Rechnung tragen. Bibliographie Antos, Gerd (2017). Wenn Roboter «mitreden» … Brauchen wir eine Disruptions-Forschung in der Linguistik? Zeitschrift für germanistische Linguistik 45: 3, 392-418. Bendel, Oliver (2020). Sexroboter light. Pflegeroboter mit sexuellen Assistenzfunktionen. In: Bendel, Oliver (Hrsg.). Maschinenliebe. Liebespuppen und Sexroboter aus technischer, psychologischer und philosophischer Perspektive. Wiesbaden: Springer Gabler, 219-236. Bendel, Oliver (Hrsg.) (2019). Handbuch Maschinenethik. Wiesbaden: Springer VS . Bentele, Günter (1994). Öffentliches Vertrauen - normative und soziale Grundlage für Public Relations. In: Armbrecht, Wolfgang / Zabel, Ulf J. (Hrsg.). Normative Aspekte der Public Relations. Grundlagen und Perspektiven. Eine Einführung. Opladen: Springer VS , 131-158. Blöbaum, Bernd (2018). Bezugspunkte von Medienvertrauen. Ergebnisse einer explorativen Studie. Media Perspektiven 21: 12, 601-607. Blöbaum, Bernd (Hrsg.) (2016). Trust and Communication in a Digitized World. Models and Concepts of Trust Research. Cham et al.: Springer International Publishing. Burger, Harald / Luginbühl, Martin (2014). Mediensprache. Eine Einführung in Sprache und Kommunikationsformen der Massenmedien. 4., neu bearbeitete und erweiterte Auflage. Berlin / Boston: de Gruyter. Christaller, Thomas et al. (2001). Robotik. Perspektiven für menschliches Handeln in der zukünftigen Gesellschaft. Berlin / Heidelberg: Springer. Donick, Mario (2019). Die Unschuld der Maschinen. Technikvertrauen in einer smarten Welt. Wiesbaden: Springer. Engel, Uwe (2019). Blick in die Zukunft. Wie künstliche Intelligenz ( KI ) das Leben verändern wird. Ein Delphi-Survey über KI und das Zusammenleben von Menschen und Robotern in der digitalisierten Welt von Morgen. Abrufbar unter: https: / / www. researchgate.net/ publication/ 339252899 (Stand: 19. 06. 2021) Fuchs, Thomas (2020). Verteidigung des Menschen. Grundfragen einer verkörperten Anthropologie. Berlin: Suhrkamp. 26 Sarah Brommer & Christa Dürscheid Habscheid, Stephan (2000). ‹Medium› in der Pragmatik. Eine kritische Bestandsaufnahme. Deutsche Sprache 28: 1, 126-143. Holly, Werner (1997). Zur Rolle von Sprache in Medien. Semiotische und kommunikationsstrukturelle Grundlagen. Muttersprache 1, 64-75. König, Lars / Jucks, Regina (2019). When do information seekers trust scientific information? Insights from recipients’ evaluations of online video lectures. International Journal of Educational Technology in Higher Education 16: 1, 1-21. Abrufbar unter: https: / / doi.org/ 10.1186/ s41239-019-0132-7 (Stand: 19. 06. 2021) Lotze, Netaya (2016). Chatbots. Eine linguistische Analyse. Frankfurt am Main: Lang. Luginbühl, Martin / Schneider, Jan Georg (2020). Medial Shaping from the Outset: On the Mediality of the Second Presidential Debate, 2016. Journal für Medienlinguistik 3: 1, 57-93. Abrufbar unter: https: / / jfml.org/ article/ view/ 34/ 70 (Stand: 19. 06. 2021) Marquardt, Manuela (2017). Anthropomorphisierung in der Mensch-Roboter Interaktionsforschung: theoretische Zugänge und soziologisches Anschlusspotential. Working Papers kultur- und techniksoziologische Studien 1. Abrufbar unter: https: / / nbn-resolving.org/ urn: nbn: de: 0168-ssoar-57037-3 (Stand: 19. 06. 2021) McEwan, Ivan (2019). Machines like me. New York: Penguin Random House. Misselhorn, Catrin (2019). Grundfragen der Maschinenethik. 3., durchgesehene Auflage. Stuttgart: Reclam. Möllering, Guido (2006). Trust. Reason, Routine, Reflexivity. Amsterdam: Elsevier. Posner, Roland (1985). Nonverbale Zeichen in öffentlicher Kommunikation. Zu Geschichte und Gebrauch der Begriffe ‹verbal› und ‹nonverbal›, ‹Interaktion› und ‹Kommunikation›, ‹Publikum› und ‹Öffentlichkeit›, ‹Medium› und ‹Massenmedium› und ‹multimedial›. Zeitschrift für Semiotik 7: 3, 235-271. Remmers, Peter (2018). Mensch-Roboter-Interaktion. Philosophische und ethische Perspektiven. Berlin: Logos Verlag. Schäfer, Pavla (2014). Durch Angemessenheit zur Vertrauenswürdigkeit. Angemessener Sprachgebrauch als Mittel zum Zweck. Aptum. Zeitschrift für Sprachkritik und Sprachkultur 10, 240-261. Schnabel, Ulrich (2018). Künstliche Intelligenz. Was macht uns künftig noch einzigartig? DIE ZEIT Nr. 14 / 2018, 28. März 2018. Abrufbar unter: https: / / www. zeit.de/ 2018/ 14/ kuenstliche-intelligenz-menschen-maschine-verhaeltnis (Stand: 19. 06. 2021) Thimm, Caja / Bächle, Thomas C. (2018). Autonomie der Technologie und autonome Systeme als ethische Herausforderung. In: Rath, Matthias / Krotz, Friedrich / Karmasin, Matthias (Hrsg.). Maschinenethik - Normative Grenzen autonomer Systeme. Wiesbaden: Springer VS , 73-90. Thimm, Caja et al. (2019). Die Maschine als Partner? Verbale und non-verbale Kommunikation mit einem humanoiden Roboter. In: Thimm, Caja / Bächle, Thomas Christian (Hrsg.). Die Maschine: Freund oder Feind. Mensch und Technologie im digitalen Zeitalter. Wiesbaden: Springer, 109-134. Vickers, Ben / K Allado-McDowell (Hrsg.) (2020). Atlas of Anomalous AI . London: Ignota Books. Mensch-Mensch- und Mensch-Maschine-Kommunikation 27 Westphal, Sarah / Hendriks, Friederike / Malik, Maja (2015). Vertrauenswürdigkeit ohne Vertrauen? Wie die Kommunikation wissenschaftlicher Unsicherheiten die Bewertungen und Entscheidungen von Rezipienten beeinflusst. In: Schäfer, Mike S. / Kristiansen, Silje / Bonfadelli, Heinz (Hrsg.). Wissenschaftskommunikation im Wandel. Köln: Herbert von Halem Verlag, 340-364. Woopen, Christiane / Jannes, Marc (Hrsg.) (2019). Roboter in der Gesellschaft. Technische Möglichkeiten und menschliche Verantwortung. Berlin / New York: Springer. Zeifman, Igal (2016). Bot Traffic Report 2016. Abrufbar unter: https: / / www.imperva. com/ blog/ bot-traffic-report-2016/ ? redirect=Incapsula (Stand: 19. 06. 2021) A Mensch-Mensch-Kommunikation via Maschine WhatsApp, iMessage und E-Mail 31 WhatsApp, iMessage und E-Mail Ein Vergleich des technisch Möglichen mit dem tatsächlich Realisierten Linda Bosshart 1 Einleitung Die internetbasierte Kommunikation ist ein beliebter Untersuchungsgegenstand der Medienlinguistik, und dies nicht zuletzt deswegen, weil das Feld sehr produktiv ist und sich stetig wandelt. Entsprechend löst die sprachwissenschaftliche Forschung dazu nicht nur Konsens im fachwissenschaftlichen Diskurs aus. So weist beispielsweise Androutsopoulos (2010: 425) darauf hin, dass es falsch sei, in linguistischen Untersuchungen «technisch-mediale[n]» Kontextaspekten gegenüber «sozialen» den Vorrang zu geben - wie dies seiner Meinung nach allzu häufig getan wird. Demgegenüber stellt er die Forderung auf, dass sprachanalytische Zugänge zur Internetkommunikation sowohl die technischen als auch die soziokulturellen Umstände und die entsprechende Verwobenheit zu berücksichtigen haben (vgl. ebd.: 419). Ziel des vorliegenden Beitrags ist, das Verhältnis zwischen den technischen Gegebenheiten (den ‹Affordanzen›) und dem tatsächlichen (empirisch belegbaren) kommunikativen Verhalten kritisch zu reflektieren. Dazu werden die zwei Messaging-Dienste WhatsApp und iMessage sowie die Kommunikationsform E-Mail 1 auf zwei Aspekte hin untersucht und miteinander verglichen: den ‹Grad an Synchronizität› und die ‹Verfügbarkeit semiotischer Ressourcen›. Ersteres bezieht sich auf die Frage, in welcher Geschwindigkeit Konversationen ablaufen (können), Letzteres auf die unterschiedlichen multimedialen und multimodalen Möglichkeiten der Textgestaltung. Die hier vorgenommene Auswahl ( WhatsApp , iMessage und E-Mail) ist nicht zufällig: Betrachtet man die Literatur der letzten zehn Jahre, so lässt sich feststellen, dass sich medienlinguistische Untersuchungen zu nicht-öffentlicher Kommunikation im Internet zu einem auffallend hohen Anteil dem Thema WhatsApp widmen (vgl. z. B. Arens 2014, Dürscheid / Frick 2014, Pappert 2017). 1 Es mag hier überraschen, dass die Kommunikation über E-Mail mit Messaging-Diensten verglichen wird. Weiter unten wird ausgeführt, warum dieser Vergleich angebracht ist und es sogar sinnvoll sein kann, E-Mails unter die Kategorie «Messaging-Dienst» zu subsumieren. 32 Linda Bosshart Dieser Messenger-Dienst wurde 2009 von Brian Acton und Jan Koum gegründet und erfreut sich bis heute grosser Beliebtheit. So wurden im Jahr 2020 weltweit 2 Milliarden monatliche Nutzer*innen gemessen (vgl. statista.com). Dafür gibt es vermutlich zwei ausschlaggebende Gründe: Erstens vereint WhatsApp die Mobilität der SMS und die quasi-synchrone Kommunikation, wobei die Dienstleistungen den Nutzenden kostenlos zur Verfügung gestellt werden (vgl. Arens 2014: 82). Zweitens ist es irrelevant, ob die Nutzer*innen i OS , Android oder ein anderes Betriebssystem verwenden, jede*r Smartphonebesitzer*in kann es nutzen. Diese Beliebtheit und die weite Verbreitung der App führten dazu, dass die Kommunikation über WhatsApp zu der zu untersuchenden Kommunikationsform in linguistischen Arbeiten wurde. Mit anderen Worten: Allein schon die Tatsache, dass WhatsApp so viele aktive User*innen hat, macht den Dienst zum legitimen Ausgangspunkt von Untersuchungen. iMessage bietet hinsichtlich der Affordanzen sprachwissenschaftlich sogar noch mehr Untersuchungsfelder als WhatsApp , und trotzdem finden sich kaum linguistische Untersuchungen dazu. Das geht vermutlich mit der geringeren Popularität dieses Dienstes einher. In diesem Beitrag wird deshalb auch der Frage nachgegangen, warum iMessage weniger genutzt wird als WhatsApp , obwohl es technisch mehr Möglichkeiten bietet. Die E-Mail-Kommunikation gehört klassischerweise nicht zu den Instant- Messaging Kommunikationsformen. Es wird sich allerdings zeigen, dass diese Einordnung der E-Mail als asynchrone Form der Kommunikation heute überholt ist oder zumindest hinterfragt werden muss. Die E-Mail-Kommunikation hat sich in den vergangenen zehn Jahren stark verändert und ist in spezifischen Kontexten mit WhatsApp und iMessage durchaus vergleichbar, weswegen sie in der folgenden Untersuchung ebenfalls berücksichtigt wird. Der vorliegende Beitrag ist thematisch zweigeteilt. Zunächst werden die Termini ‹Synchronie› und ‹semiotische Ressourcen› bzw. ‹Multimedialität› und ‹Multimodalität› aus medienlinguistischer Sicht reflektiert und auf die drei hier zur Diskussion stehenden Messaging-Dienste angewendet: Welchen Grad an Synchronizität erlauben die Dienste? Welche Möglichkeiten der multimedialen bzw. multimodalen Kommunikation werden geboten (und welche nicht)? Der zweite Teil ist empirisch bzw. analytisch ausgerichtet. Anhand von je acht Beispielen aus einer privaten Textsammlung wird untersucht, ob die technischen Möglichkeiten (so) genutzt werden, wie dies erwartbar wäre. Dazu sei an dieser Stelle bereits angemerkt: Natürlich lässt ein aus 24 Beispielen bestehendes Korpus keine verallgemeinerbaren Aussagen zu, Tendenzen und Trends sind jedoch ablesbar. Zum aktuellen Zeitpunkt stehen leider keine im deutschsprachigen Raum erfasste, umfassende Korpora zur Verfügung, die dem gegenwärtigen technischen Stand entsprechen würden und die sich auf alle drei hier unter- WhatsApp, iMessage und E-Mail 33 suchten Kommunikationsformen beziehen. Die häufig verwendeten Daten des Dortmunder-Chatkorpus 2 beispielsweise wurden in den Jahren 2002 bis 2008 erhoben und sind damit für gegenwartsbezogene Fragestellungen nur bedingt aussagekräftig (vgl. Storrer 2017: 257). Ein SNF -Projekt 3 widmete sich dem Erstellen eines SMS -Korpus’. Das Projekt dauerte von 2011 bis 2014 und startete damit kurz bevor die SMS als mobile Kommunikationsform des Alltages deutlich an Relevanz zu verlieren begann. Einzig interessant für die Forschungsinteressen dieses Beitrags ist ein Korpus, das aus WhatsApp -Daten besteht. 4 Dieses Korpus war zum Zeitpunkt der Abfassung des vorliegenden Beitrags jedoch noch nicht verfügbar. 2 Das technisch Mögliche 2.1 Synchronie In sprachwissenschaftlichen Abhandlungen zu digitaler Kommunikation wird dem Grad an Synchronizität eine bedeutende Rolle zugeschrieben. Dabei handle es sich, so wird argumentiert, um einen wesentlichen Einflussfaktor auf den sprachlichen Duktus. So heisst es z. B. bei Storrer (2017: 272): «Insbesondere die synchronen internetbasierten Kommunikationsformen sind in vielen Merkmalen der Nähekommunikation zuzuordnen». Dürscheid (2016: vgl. 367) wirft in diesem Zusammenhang die grundsätzliche Frage auf, ob in der internetbasierten Kommunikation Nähe über sprachliche Mittel hergestellt wird oder ob die sprachlichen Mittel der Nähe aus dem Umstand resultieren, dass es sich um eine quasi-synchrone Kommunikation handelt. Anders formuliert: Ist Synchronie ein Mittel zum Zweck, um Nähe auszudrücken, oder ist sie der Auslöser für den nähesprachlichen Duktus? Das ist auch die Leitfrage im vorliegenden Beitrag: Motiviert alleine die Technologie zu einem spezifischen (nähesprachlichen) Sprachhandeln und unterwirft die Nutzer*innen damit den Affordanzen? Oder nutzen sie diese aktiv und bewusst, um damit ein bestimmtes kommunikatives Ziel zu erreichen? Der Faktor ‹Synchronie› bezieht sich bekanntlich auf die Geschwindigkeit eines möglichen Feedbacks innerhalb einer Kommunikationsform. Bei einem Face-to-Face-Gespräch ist diese Geschwindigkeit maximal hoch. Gesprächsteilnehmer*innen können die sprechende Person noch während der Produktion eines sprachlichen Inhalts unterbrechen und an Gesagtes anknüpfen. Man spricht 2 https: / / www.uni-due.de/ germanistik/ chatkorpus/ (Stand: 25. 09. 2020) 3 https: / / sms.linguistik.uzh.ch/ (Stand: 25. 09. 2020) 4 https: / / www.whatsup-switzerland.ch/ index.php/ en/ corpus-en (Stand: 25. 09. 2020) 34 Linda Bosshart in diesem Fall von einer «synchronen mündlichen Kommunikation» (Dürscheid 2003: 9). Asynchrone Kommunikation hingegen liegt vor, wenn die Sprechsituation «zerdehnt» ist (Ehlich 1981, zitiert nach Dürscheid 2003: 9), wenn also zwischen Produktion und Rezeption eines Inhaltes ein bestimmter Zeitraum liegt. Ein weiteres Merkmal asynchroner Kommunikation besteht darin, dass kein gemeinsamer Kommunikationsraum vorliegt, der Kanal folglich immer nur von einer Seite her geöffnet ist (vgl. ebd.): Produktion und Rezeption finden zeitlich versetzt statt. Obwohl Beiträge in Chats durchaus in sehr hoher Geschwindigkeit aufeinander folgen können, können die Gesprächsteilnehmenden während der Produktion eines Beitrages nicht unterbrochen werden: «Eine Äußerung kann erst nach Abschluss des Produktionsvorgangs vom Partner rezipiert und somit von diesem auch nicht unterbrochen oder sprachbegleitend kommentiert werden» (Thaler 2007: 158). Gesprächslinguistisch fasst Dürscheid (2003: 8) die Situation folgendermassen zusammen: «Die Synchronie gilt also nur turnweise, nicht zeichenweise». Die Gesprächsteilnehmenden werden stets mit einem Schreibprodukt, nicht aber mit der Schreibaktivität des oder der Produzent*in konfrontiert (vgl. ebd.: 9). Um diese - damals - neue Situation sprachwissenschaftlich fassbar zu machen, führte Dürscheid (2003) den Ausdruck ‹quasi-synchron› ein. Mit Bezug auf Dennis / Valacich (1999) diskutiert Thaler (2007) drei Faktoren, die sich auf die Synchronie auswirken. Zunächst nennt sie die ‹Überarbeitbarkeit›: Je leichter ein Beitrag im Nachhinein oder während der Produktion überarbeitet werden kann, desto ‹asynchroner› ist die Kommunikation. Ein weiterer Faktor ist die ‹Parallelität›. Je mehr schriftliche Dialoge parallel ablaufen können, desto ‹asynchroner› werden sie. Bei der ‹Wiederverwertbarkeit› geht es darum, dass eine Kommunikation umso ‹asynchroner› ist, je besser im Nachhinein auf einen Beitrag zurückgegriffen werden kann (vgl. Thaler 2007: 167-175). Halten wir fest: Je stärker die Faktoren in die eine oder andere Richtung ausgeprägt sind, desto höher ist die Wahrscheinlichkeit, dass sich dies auf den sprachlichen Duktus auswirkt. Grundsätzlich gilt: Je ‹synchroner›, desto spontaner, sprachlich weniger reflektiert und weniger geplant (vgl. Dürscheid 2003: 11). 2.1.1 WhatsApp Technisch gesehen erlaubt es WhatsApp , mit Gesprächsteilnehmenden sowohl quasi-synchron wie auch asynchron zu kommunizieren. Wenn beide (oder mehrere) Gesprächsteilnehmende die App und die entsprechende Konversation gleichzeitig geöffnet haben, kommunizieren sie quasi-synchron. Die Gesprächsteilnehmenden können solch eine quasi-synchrone Kommunikation an der ent- WhatsApp, iMessage und E-Mail 35 sprechenden Anzeige identifizieren: Produziert der oder die Kommunikationspartner*in gerade einen Beitrag, wird vom System darüber informiert. Dabei unterscheidet WhatsApp auch zwischen den Medialitäten. So kann es sein, dass es heisst, xy «schreibt» gerade oder dass aktuell eine «Tonaufnahme läuft». Push-Nachrichten 5 in WhatsApp ermöglichen es, Beiträge unmittelbar nach dem Absenden zu rezipieren und darauf zu antworten. Dies ist auch dann der Fall, wenn die oder der Rezipient*in die App nicht geöffnet hat. Charakteristisch ist weiter, dass für die Gesprächspartner*innen nicht nur ersichtlich ist, ob eine Nachricht rezipiert wurde, 6 sondern auch deutlich wird, ob die angeschriebene Person die App geöffnet hat («online» ist). Dieser Faktor erhöht die soziale Kontrolle: Man könnte unter Rechtfertigungsdruck geraten, weil man Nachrichten zur Kenntnis genommen hat, jedoch nicht darauf reagiert. Daraus lässt sich die Vermutung ableiten, dass über WhatsApp ‹synchroner› kommuniziert wird als über andere Instant-Messaging-Dienste. Allerdings zeichnet sich WhatsApp auch durch Merkmale der asynchronen Kommunikation aus. Denn wendet man die drei oben genannten Faktoren ‹Überarbeitbarkeit›, ‹Parallelität› und ‹Wiederverwertbarkeit› auf WhatsApp an, wird deutlich, dass technisch gesehen all dies umstandslos möglich ist: Beiträge können redigiert werden, ehe sie versendet werden. 7 Es ist auch möglich, «gleichzeitig» mehrere Konversationen zu bedienen, d. h. schnell zwischen den «Chats» hin- und herzuwechseln. Auf Nachrichten kann später einfach zurückgegriffen werden, indem nach oben gescrollt oder im Suchfeld ein Suchbegriff eingegeben wird. Alle Konversationen werden protokolliert. 2.1.2 iMessage Ähnlich wie WhatsApp informiert iMessage darüber, ob der oder die Konversationspartner*in gerade einen schriftlichen Beitrag produziert. Wird ein mündlicher Beitrag (eine Audiodatei) produziert, wird dies allerdings nicht angezeigt. 5 Bei Push-Nachrichten handelt es sich um Nachrichten, die auf dem Sperrbildschirm von Geräten erscheinen, unmittelbar nachdem der oder die Produzent*in des Beitrages ihn abgesendet hat. In den Medien werden Push-Nachrichten im Hinblick auf «ständige Erreichbarkeit» und die Problematik des «nie abschalten können» teilweise negativ bewertet (vgl. z. B. https: / / www.srf.ch/ play/ radio/ ratgeber/ audio/ push-nachrichten-einfachabschalten? id=955e817a-eb63-4400-b80c-5c44e384ee86, Stand: 30. 09. 2020). 6 «Rezipiert» kann hier bedeuten: gelesen, abgehört oder gesehen (im Falle von Videodateien wird allerdings nicht ersichtlich, ob die rezipierende Person das Video tatsächlich angeschaut hat). 7 Es ist auch möglich, bereits gesendete Nachrichten zu löschen, allerdings muss dies nach maximal einer Stunde nach dem Absenden des Beitrages geschehen, danach steht diese Funktion nicht mehr zur Verfügung. Hinzu kommt, dass die Funktion hinfällig wird, wenn die Nachricht bereits rezipiert wurde. 36 Linda Bosshart Im Unterschied zu WhatsApp zeigt iMessage zudem weder an, ob die andere Person «online» ist oder wann sie die App zuletzt geöffnet hat, noch ob sie die Nachricht gelesen hat. Zwar lässt sich einstellen, dass eine Lesebestätigung angezeigt wird, dies gehört aber nicht zur Default-Einstellung. Angezeigt wird jedoch, ob eine Nachricht dem oder der Empfänger*in zugestellt worden ist. In Bezug auf die drei von Dennis / Valacich genannten Faktoren zur Ermittlung des Grades an Synchronizität lassen sich dieselben Aussagen wie bei WhatsApp treffen: Die Beiträge sind - vor dem Absenden, aber nach der ersten Produktion - überarbeitbar. Mehrere Konversationen können gleichzeitig geführt werden, und schriftliche Beiträge sind im Nachhinein über die Suchfunktion oder durch Scrollen abrufbar. Technisch gesehen lässt iMessage demzufolge denselben Grad an Synchronizität zu, wie dies bei WhatsApp der Fall ist. Weil jedoch nicht angezeigt wird, wann der oder die Gesprächspartner*in zuletzt online war, besteht ein wesentlicher Unterschied hinsichtlich der sozialen Kontrolle. 2.1.3 E-Mail Obwohl es unterschiedliche E-Mail-Messaging-Dienste gibt, unterscheiden sie sich technisch nicht wesentlich voneinander. E-Mails werden klassischerweise zur asynchronen Kommunikationsform gezählt. Im Jahr 2007 verweist Thaler auf E-Mails als Extrembeispiel asynchroner, computervermittelter Kommunikation. Sie spricht von einer «fehlenden Geschwindigkeit des Feedbacks, welche durch die technische Infrastruktur der Kommunikationsform E-Mail bedingt ist» (Thaler 2007: 171), denn es sei keine spontane Übernahme der Produzent*innenrolle möglich (vgl. ebd.). Im Jahr 2020 müssen diese Begründungen kritisch betrachtet und die Rahmenbedingungen der E-Mail-Kommunikation neu beurteilt werden. Die Geschwindigkeit des Feedbacks wird durch die Möglichkeit, E-Mails auch mobil - d. h. unterwegs - zu lesen und zu beantworten, stark erhöht. Hinzu kommt: Wer Push-Nachrichten für E-Mails aktiviert hat, kann diese genauso schnell rezipieren, wie dies bei WhatsApp - und iMessage -Nachrichten der Fall ist. Es ist, wiederum wie bei den beiden anderen Diensten, zudem auch nicht mehr notwendig, den Kommunikationskanal für Produktion oder Rezeption der Nachrichten jedes Mal aufs Neue zu öffnen (sofern eine funktionierende Internetverbindung vorhanden ist). Im Unterschied zu WhatsApp und iMessage weiss der oder die Verfasser*in eines Beitrages in der Regel aber nicht, ob die angeschriebene Person die Mail gelesen hat, wann sie zuletzt online war und ob die Nachricht überhaupt zugestellt worden ist. 8 Vielleicht sind gerade des- 8 Es ist möglich, eine Lesebestätigung einzufordern. Dies könnte aber als aufdringlich interpretiert werden. WhatsApp, iMessage und E-Mail 37 wegen bei längeren Abwesenheiten automatisch generierte Nachrichten üblich geworden, in denen darüber informiert wird, wann man wieder erreichbar ist. Eine interessante, E-Mail-spezifische Möglichkeit ist die Planung des Sendezeitpunktes, die es erlaubt, individuell eine Zeitspanne zwischen Produktion und Versenden einer Mail zu definieren. Diese Möglichkeit kann zur Asynchronie beitragen. Allerdings ist es keine Default-Einstellung, dass nach dem Zeitpunkt gefragt wird, wann eine Mail versendet werden soll. Es ist eher üblich, zwischen dem Abschluss der Produktion und dem Versenden keine Zeitspanne einzuplanen. Die technischen Voraussetzungen für die Geschwindigkeit des Feedbacks (und damit den Grad an Synchronizität) sind bei E-Mails demzufolge zwar nicht identisch mit iMessage und WhatsApp , aber dennoch vergleichbar. Es ist rein technisch gesehen genauso möglich, in Sekundenschnelle Nachrichten hin- und herzuschicken. Dazu muss der Kanal nicht jedes Mal neu geöffnet, sich nicht jedes Mal neu eingeloggt werden. Und ähnlich wie bei den anderen beiden Messaging- Diensten gilt: Bevor eine Nachricht verschickt wird, kann sie problemlos überarbeitet werden; auch eine ‹Parallelität› mehrerer Konversationen ist möglich. Der Faktor der ‹Wiederverwertbarkeit› ist besonders stark ausgeprägt. Weil E-Mails meistens mit einer Betreff-Zeile ausgestattet sind, sind Beiträge im Nachhinein noch leichter abrufbar als bei den anderen beiden Diensten. Dazu kommt, dass Mails als Favoriten markiert werden können, wodurch wichtigere Inhalte noch schneller wiedergefunden werden können. Im Sinne von Dennis / Valacich (1999) tragen diese Faktoren zur Asynchronie der Kommunikation bei. 2.2 Semiotische Ressourcen: Multimedialität und Multimodalität Die Internetkommunikation verläuft zu einem grossen Teil über die Schrift, hinzu kommen aber auch andere semiotische Ressourcen. Zwar sind Chats, Newsgroups oder Emails […] semiotisch verhältnismäßig ‹arme› Umgebungen, in denen Schrift die zentrale, wenn nicht die ausschließliche Ressource darstellt. Allerdings stellen diese gegenwärtigen, semiotisch reichhaltigen Web 2.0-Umgebungen dringende Fragen über den Anteil von Multimedialität und Multimodalität an der Erzeugung von kommunikativem Sinn und über das Zusammenspiel von Sprache [sic] 9 mit anderen Zeichensystemen. (Androutsopoulos 2010: 425) Die Möglichkeiten zur multimedialen und multimodalen Kommunikation haben sich seit 2010 noch einmal beträchtlich weiterentwickelt, weswegen sie hier etwas ausführlicher diskutiert werden. Den beiden Termini ‹multimodal› 9 Vermutlich meint Androutsopoulos hier ‹Schrift›. 38 Linda Bosshart und ‹multimedial› liegen keine einheitlichen, sprachwissenschaftlichen Definitionen zugrunde. Nach Steinseifer (2011: 164) wird ‹multimedial› zunehmend durch ‹multimodal› ersetzt oder es werden beide Wörter synonym verwendet. Auch die Unterscheidung von Androutsopoulos (2010) ist deutungsoffen, wenn er schreibt, er unterscheide: Multimedialität (Koexistenz und Kombination verschiedener Medien) und Multimodalität (Koexistenz und Kombination verschiedener semiotischer Modalitäten, Zeichensysteme in einem Text). (Androutsopoulos 2010: 425; Fussnote 6) Im vorliegenden Beitrag werden die beiden Termini folgendermassen verwendet: ‹Multimedialität› bezieht sich auf die Frage, über welche Medialitäten kommuniziert werden kann. Dazu gehören beispielsweise die Fragen: Kann ein PDF -Dokument, ein Bild, ein Video, eine Audiodatei versendet werden? Wie aufwändig ist dies technisch? Für die Untersuchungen in diesem Beitrag relevanter ist aber die ‹Multimodalität›. Sie fragt nach den zur Verfügung stehenden semiotischen Ressourcen, die einen Beitrag kommunikativ kohärent machen. Dabei wird beispielsweise relevant, wie Bildzeichen, Bilder, Videos, GIF s, Layout und Farben verwendet werden. Es wird deutlich, dass sich die beiden Termini inhaltlich überschneiden können: Eine Audiodatei zu versenden kann eine multimediale Möglichkeit der Kommunikation sein und gleichzeitig ein semiotisches Zeichen darstellen, das in Kombination mit anderen Zeichen den kommunikativen Sinn prägt, verändert oder erst ergibt. Eine vieldiskutierte semiotische Einheit sind «Emoticons» und «Emojis», 10 wobei Letztere Erstere teilweise ablösen (vgl. dazu z. B. Arens 2014, Dürscheid 2016, Dürscheid / Frick 2014, Hinz 2015, Pappert 2017, Siever 2015). Emojis werden in der sprachwissenschaftlichen Forschung als typisch für die private, digitale Kommunikation beschrieben. Dies wird häufig so begründet, dass Emojis para- und nonverbale Ausdrucksmittel ikonografisch abbilden und damit nähesprachlich wirken (vgl. z. B. Pappert 2017: 179). Auch die Frage nach den kommunikativen Funktionen von Emojis als in die Schrift eingebettete Einheiten ist sprachwissenschaftlich interessant und wurde mehrfach diskutiert. Dürscheid / Frick (2016) schlagen dazu drei Kategorien vor: Am häufigsten werden Emojis zur Kommentierung verwendet, sodass dem schriftlich Vorliegenden eine bestimmte Konnotation verliehen wird. Bei der zweiten Funktion werden Emojis zur piktoralen Veranschaulichung einer Situation oder eines Gefühls genutzt. Bei der dritten Funktion schliesslich wird ein Bildzeichen anstelle der 10 Emoticons sind veränderbare graphostilistische Symbole, die aus einer Kombination aus ASCII-Zeichen bestehen (z. B. : -) ). Es gibt weitaus mehr Emojis als Emoticons, weil Letztere grundsätzlich «nur» Gefühlslagen ausdrücken. Emojis können dagegen auch für Objekte und Tätigkeiten stehen (vgl. Dürscheid / Siever 2017: 259). WhatsApp, iMessage und E-Mail 39 graphischen Realisierung verwendet, um ein Wort (oder eine andere sprachliche Einheit) abzubilden (vgl. Dürscheid / Frick 2016: 104 f.). Emojis stellen jedoch schon länger nicht mehr das einzige Zeichensystem dar, um die genannten Funktionen zu erfüllen. Dahingehend vergleichbar mit Emojis sind «Sticker», «Animojis», «Memojis» und « GIF s» («Graphics Interchange Format») (s. a. den Beitrag von Tanchis / Walder i. d. B.). Da diese Zeichen teilweise spezifisch für die einzelnen Dienste sind, werden sie im nächsten Unterkapitel genauer erläutert. 2.2.1 WhatsApp Der Dienst WhatsApp erlaubt Kommunikation über verschiedene Medien. So können Nutzer*innen Fotos und Videos mit wenigen Klicks direkt aufnehmen und versenden; zudem ist es möglich, auf die gesamte Mediathek zurückzugreifen und in der Vergangenheit produzierte Inhalte zu versenden. Die Foto- und Videodateien können vor dem Versenden auf unterschiedliche Weise bearbeitet werden; beispielsweise kann eine Zeichnung oder ein Emoji über die Bilddatei gelegt werden. Mit wenig Aufwand ist es auch möglich, den aktuellen Standort zu versenden oder Kontaktdaten zu teilen. Interessanterweise können auch Dokumente verschickt werden, sofern sie in einer Cloud abgespeichert sind (siehe Abb. 1). WhatsApp erlaubt zudem eine mündliche Form der Kommunikation. So ist es möglich, eine Sprachnachricht zu versenden, die bei der rezipierenden Person phonisch ankommt. Weiter kann ein Beitrag phonisch produziert, aber graphisch empfangen werden. Dies erlaubt die sogenannte «Diktierfunktion». Interessanterweise sind die Ikone für diese beiden Funktionen identisch; die Perspektive der Rezeption wird von WhatsApp hier folglich ausgeklammert. 40 Linda Bosshart Abb. 1: Multimediale Kommunikationsmöglichkeiten bei WhatsApp WhatsApp bietet auch in Bezug auf die Multimodalität unterschiedliche Möglichkeiten. Das Design der Tastatur verweist bereits darauf, wie zentral die Kommunikation über Bildzeichen (Emojis) ist. Per Knopfdruck wechselt man die Tastatur, sodass statt graphischer Einheiten (Buchstaben) Bildzeichen angezeigt werden. Eine andere Möglichkeit ist das Versenden von « GIF s». 11 Whats- App kategorisiert diese nach «Aktuell», «Haha», «Traurig», «Liebe» und «Reaktion» (siehe Abb. 2). Das ist dahingehend interessant, als dadurch impliziert wird, dass den GIFs eine einheitliche Bedeutung zugemessen wird und sie damit semiotisch determiniert sind. Damit sollen sie explizit zur Bedeutungskonsti- 11 Das Akronym «GIF» steht für «Graphics Interchange Format». Es handelt sich dabei um kurze, tonlose, aus Einzelbildern bestehende Videos in der Endlosschleife. WhatsApp, iMessage und E-Mail 41 tution beitragen: Etwas ist beispielsweise lustig, traurig oder liebevoll gemeint oder soll die entsprechenden Emotionen bei der oder dem Rezipient*in auslösen. Abb. 2: Kategorisierung der GIF s nach Gefühlslagen bei WhatsApp 42 Linda Bosshart Abb. 3: Memoji als persönlicher Avatar Verhältnismässig neu ist die Möglichkeit für das Betriebssystem i OS , sogenannte «Memojis» zu versenden. 12 Dabei handelt es sich um unbewegte Bilder («Sticker» 13 ). Nutzer*innen können Memojis selbst gestalten. So kann ein solches Zeichen beispielsweise für den oder die Nutzer*in selbst stehen. 14 Diesem Avatar können die von den Emojis bekannten Attribute auferlegt werden (wie 12 Wer nicht iOS verwendet, kann Memojis nur empfangen, nicht aber kreieren und damit auch nicht versenden. 13 Sticker sind unbewegte Bildzeichen, zu denen auch die Memojis gezählt werden können. Im Gegensatz zu Emojis stehen sie für sich alleine, können also nicht in einen grafisch realisierten Text integriert werden. Dementsprechend werden Sticker auch grösser abgebildet als Emojis. 14 Hier wird sich in Zukunft vielleicht eine neue forschungsethische Frage stellen. Wenn sich die Grafik weiterentwickelt, verweisen persönliche Avatare immer deutlicher auf eine identifizierbare Person. Sind Memojis demzufolge Bestandteil von öffentlich zugänglichen Korpora, ergeben sich ethische Fragestellungen hinsichtlich des Datenschutzes. WhatsApp, iMessage und E-Mail 43 beispielsweise die Herz-Augen oder die Träne) (siehe Abb. 3). Weiter ist auch möglich, statt eines selbstkreierten Avatars eines von 27 Tieren bzw. Figuren auszuwählen. So entsteht beispielsweise ein augenzwinkernder Tintenfisch oder ein schlafendes Einhorn. Es wäre hier interessant zu untersuchen, welche semiotische Aussagekraft einem solchen Memoji zukommt und ob die Wahl des Tieres bzw. des Avatars für die Erzeugung des kommunikativen Sinns gleichermassen relevant ist wie die Attribute. 2.2.2 iMessage Auch wenn Design und entsprechendes Vorgehen minim abweichen, erlaubt iMessage sämtliche Funktionen, die auch WhatsApp anbietet. In vielen Punkten gehen die multimodalen Funktionen sogar über die von WhatsApp hinaus. In Bezug auf Emojis ist es möglich, eine graphisch realisierte Nachricht in Emojis zu überführen. Dabei werden entsprechende Wörter orange markiert; per Knopfdruck ersetzt iMessage das Wort sodann durch das entsprechende Bildzeichen. Das betrifft Objekte (wie «Flugzeug» oder «Palme»), aber es werden auch Handlungen abgebildet («Hallo» wird durch ein Winken dargestellt, «Autofahren» durch ein Auto). Dies entspricht der dritten von Dürscheid / Frick (2016) beschriebenen Funktion von Emojis als Ersatz für Schriftzeichen (s. o.). Auch in Bezug auf die oben bereits erwähnten Memojis gehen die Funktionen bei iMessage weiter. Neben statischen Bildzeichen ist hier das Versenden von «Animojis» möglich (s. den Beitrag von Tanchis / Walder i. d. B.). 15 Dabei erkennt das Smartphone die Bewegungen und die Mimik des eigenen Gesichts. Zusätzlich wird eine Audioaufnahme gemacht. So entsteht ein Video des eigenen Avatars oder eines Tiers, das Geräusche oder auch vollständige syntaktische Einheiten mündlich realisiert und dabei nonverbale Signale (wie beispielsweise Stirnrunzeln) integriert. 15 Es hat sich bei der Recherche nicht eindeutig erwiesen, wofür der Ausdruck steht. Mit hoher Wahrscheinlichkeit handelt es sich um ein Kofferwort, bestehend aus «Animation» und «Emoji». Es wäre aber auch möglich, dass es sich aus «Animal» und «Emoji» zusammensetzt, da vor der Einführung des Memojis nur animierte Tier bilder möglich waren. 44 Linda Bosshart Abb. 4: Animierter Hintergrund bei iMessage , wobei es Konfetti von oben nach unten regnet Eine weitere Funktion, die semiotisch interessant ist, ist das Senden von Beiträgen mit einem «Eff ekt». Die bzw. der Produzent*in schaff t damit einen gemeinsamen Wahrnehmungsraum und kann dabei einerseits den Hintergrund verändern (indem es beispielsweise bei beiden Beteiligten Konfetti regnet, siehe Abb. 4), andererseits kann er / sie die Sprechblase selbst modifi zieren und ihr dabei eine bedeutungstragende Einheit zukommen lassen. Nachrichten können so beispielsweise «auff ällig» oder «mit Wucht» gesendet werden. Bei Letzterem springt die Nachricht der oder dem Rezipient*in quasi ins Auge, ehe sie wieder auf die Standardgrösse zurückschrumpft. Ferner können die Sprechblase bzw. der entsprechende Inhalt - egal ob er selbst produziert wurde oder nicht - durch einen Kommentar modifi ziert werden, also beispielsweise mit einem Herz oder einem «Daumenhoch-Zeichen» versehen werden. Diese Kommentarfunktion ist eine weitere Möglichkeit, sich ohne die Verwendung graphischer Zeichen auszudrücken. WhatsApp, iMessage und E-Mail 45 Was die Multimedialität betrifft, so bietet iMessage ebenfalls einige Funktionen, die bei WhatsApp nicht vorzufinden sind. Deren Umfang ist nicht klar definiert, denn iMessage ist mit dem AppStore verknüpft, wodurch - teilweise kostenpflichtige - Erweiterungen dazu erworben werden können. So ist es beispielsweise möglich, rundenbasierte Spiele zu spielen, Lieder von AppleMusic direkt zu teilen, Zeichnungen zu verschicken oder neue, themenspezifische Sticker zu erwerben. 2.2.3 E-Mail Bezüglich der multimedialen Möglichkeiten unterscheidet sich die E-Mail in einigen Punkten von den beiden Instant-Messaging-Diensten. Auch hier lassen sich sowohl Dokumente als auch Fotos und Videos verschicken. Diese können aus der Mediathek ausgewählt werden oder direkt nach dem Moment der Produktion verschickt werden. Auf der anderen Seite motiviert die E-Mail-Kommunikation vor allem zu einer schriftbasierten Kommunikation. Zwar kann beispielsweise ein Text mündlich diktiert und von der Software dann graphisch realisiert werden, allerdings sind keine Sprachnachrichten vorgesehen. Um Audiodateien zu versenden, die sich in der Mediathek befinden, muss der oder die Nutzer*in einen anderen Weg gehen: Dazu muss die Audiodatei geöffnet und dann die Option «Teilen» angewählt werden. Dies weist darauf hin, dass spontan verfasste Sprachnachrichten nicht zur E-Mail-Kommunikation gehören. Auch in Bezug auf die multimodale Kommunikation ist der E-Mail-Dienst weniger facettenreich. Grundsätzlich bleiben die Möglichkeiten auf das Einsetzen von Memojis, Emojis und Emoticons beschränkt. 2.3 Zwischenfazit Untenstehend sind die Affordanzen der einzelnen Instant-Messaging-Dienste tabellarisch aufgelistet. Grau hinterlegt sind dabei diejenigen Merkmale, die sich positiv auf die beiden Aspekte ‹Grad an Synchronizität› und ‹Verfügbarkeit semiotischer Ressourcen› auswirken: Je grauer, desto ‹synchroner› bzw. desto vielfältiger die semiotischen Möglichkeiten. 46 Linda Bosshart Synchronie Informationen über den / die Gesprächspartner*in Faktoren nach Dennis / Valacich Push- Nachrichten Anwesenheit Aktivität Lesebestätigung Überarbeitbarkeit Parallelität Wiederverwertbarkeit Whats- App ja ja ja ja ja ja ja iMessage nein ja evtl. 16 ja ja ja ja E-Mail nein nein evtl. 17 ja ja ja ja Tab. 1: Vergleich Synchronie Semiotische Ressourcen Multimedialität Bild Video Audio Lied Schriftdokument Spiele Standort Kontakt Diktierfunktion Whats- App ja ja ja nein ja nein ja ja ja iMessage ja ja ja ja ja ja ja ja ja E-Mail ja ja ja 18 nein ja nein nein ja ja Tab. 2: Vergleich Multimedialität 16 Die oder der iMessage-Nutzer*in muss zuerst die Erlaubnis dafür geben, dass eine Lesebestätigung angezeigt wird. Bei WhatsApp ist es umgekehrt: Hier ist die Default-Einstellung, dass für andere ersichtlich ist, ob man eine Nachricht gelesen hat. Die Lesebestätigung lässt sich aber auch für WhatsApp ausschalten. 17 Wenn ein*e Sender*in eine Lesebestätigung wünscht, kann sie oder er diese anfordern - was aber keine Default-Einstellung ist. 18 Sprachnachrichten, die spontan aufgenommen werden, sind hier jedoch ausgenommen. WhatsApp, iMessage und E-Mail 47 Semiotische Ressourcen Multimodalität Emoji Memoji Animoji Andere Sticker GIF Umwandlung Schrift in Emoji Effekte Modifikation der Sprechblase Whats- App ja ja nein ja ja nein nein nein iMessage ja ja ja ja ja ja ja ja E-Mail ja ja nein nein nein nein nein nein Tab. 3: Vergleich Multimodalität Hinsichtlich der Synchronie lässt sich allgemein konstatieren, dass die Technologie in allen drei Fällen eine asynchrone wie auch eine quasi-synchrone Kommunikation erlaubt, da Push-Nachrichten (und damit das Rezipieren und Antworten in Sekundenschnelle) möglich sind. Die Unterschiede beziehen sich vor allem auf die Informationen, welche der bzw. dem Produzent*in nach Absenden eines Beitrages zur Verfügung stehen: Ist die Nachricht erfolgreich zugestellt worden? Ist die andere Person «online»? (Wann) Hat sie den Beitrag gelesen? Die meisten Informationen liefert WhatsApp , gefolgt von iMessage . Wer E-Mails nutzt, erhält diesbezüglich in der Regel gar keine Informationen, es sei denn, eine Abwesenheitsnotiz wurde eingerichtet. Bei der Multimedialität zeigen sich die geringsten Unterschiede zwischen den einzelnen Diensten, das Versenden fast aller multimedialer Inhalte ist gleichermassen möglich. Nur iMessage bietet einzelne zusätzliche Dienste an. Bezüglich der Multimodalität konnte festgestellt werden, dass iMessage und WhatsApp mehr Möglichkeiten als E-Mails bieten. Dass die Möglichkeiten von iMessage noch über diejenigen von WhatsApp hinausgehen, ist vermutlich in erster Linie auf die betriebssystemübergreifende Software zurückzuführen. Dieser Vorteil schränkt gleichzeitig die Möglichkeiten zur multimodalen Kommunikation ein, da technisch gesehen nur das möglich ist, was mit beiden Betriebssystemen kompatibel ist - wozu beispielsweise das Senden mit Effekt nicht gehört. E-Mails dagegen weisen diesbezüglich deutlich weniger Möglichkeiten auf, als dies bei WhatsApp und bei iMessage der Fall ist. Die Umgebung motiviert hier eher zur graphischen Realisierung der zu vermittelnden Inhalte. 48 Linda Bosshart 3 Das tatsächlich Realisierte Die Technologie gibt vor, welche semiotischen Zeichen möglich sind und wie hoch der Grad an Synchronizität sein kann . Sprachwissenschaftliche Analysen internetbasierter Kommunikation müssen demzufolge stets die jeweiligen Rahmenbedingungen miteinbeziehen, d. h. in den Worten von Habscheid / Klein: Es wurde deutlich, dass verbale und multimodale Interaktion überhaupt nur verstanden werden können, wenn sie in ihrer Verwobenheit mit soziomateriellen Rahmenbedingungen betrachtet werden. (Habscheid / Klein 2012: 10) Das bedeutet allerdings nicht, dass die Kommunikation technologisch determiniert ist. Wie sich Menschen sprachlich verhalten, kann nicht allein durch die Affordanzen erklärt werden: In Frage gestellt werden muss ein technologische[r] Determinismus, d. h. [die] implizite[…] oder explizite[…] Annahme, dass das Kommunikationsverhalten durch die Kommunikationstechnologie bestimmt wird (Hutchby 2001). Indem man Sprachgebrauch im Internet prinzipiell nach der Kommunikationsform ausfächert, wird diese zum zentralen Kontextaspekt erhoben, was einen Vorrang technisch-medialer vor situativen und sozialen Kontextaspekten impliziert […]. (Androutsopoulos 2010: 425) Im Folgenden werden anhand von 24 zufällig ausgewählten Beispielen aus einer privaten Sammlung die beiden Aspekte der Synchronie und der multimedialen bzw. multimodalen Kommunikation analytisch betrachtet. Es handelt sich um 24 Dialoge bzw. Unterhaltungen, die ein und dieselbe Person mit unterschiedlichen Gesprächspartner*innen via WhatsApp , iMessage und E-Mail geführt hat. Es liegen also verschiedene Kommunikationssituationen und Kontexte sowie unterschiedliche Konstellationen von Schreibenden vor. Dabei sei an dieser Stelle noch einmal auf die eingeschränkte Aussagekraft der Ergebnisse aufgrund der schmalen Datengrundlage hingewiesen. 3.1 Synchronie Aus einem technischen Blickwinkel sind die Bedingungen für eine quasi-synchrone Kommunikation bei den drei Kommunikationsformen zwar nicht identisch, aber durchaus vergleichbar, vor allem bei iMessage und WhatsApp . Durch die Push-Nachrichten erlauben es aber alle drei Dienste, Beiträge in Sekundenschnelle zu rezipieren und auf diese zu antworten. Betrachtet man die Beispiele zu WhatsApp , so wird deutlich, dass dies häufig auch der Fall ist. In allen Fällen liegen zwischen zwei Nachricht maximal wenige Minuten. Auffallend ist diesbezüglich vor allem die sogenannte ‹Häppchenkommunikation› (vgl. WhatsApp, iMessage und E-Mail 49 Pappert 2017: 177) (siehe v. a. Beispiele 1, 3, 5, 6 19 ): Inhalte werden auf mehrere Nachrichten aufgeteilt. Die Häppchenkommunikation findet sich weder bei den Beispielen der E-Mails noch bei den iMessage -Beispielen. Die iMessage -Nachrichten sind prinzipiell etwas länger (Ausnahme: Beispiel 7), die E-Mail-Texte sind deutlich länger (mit Ausnahme von den Beispielen 1 und 4). Bei den E-Mail-Beispielen fällt auf, dass es sich in den meisten Fällen (2, 3, 7, 8) gar nicht um Konversationen im klassischen Sinn handelt, da die Kommunikationsrichtung unidirektional verläuft. Es sind Nachrichten, die viele Adressat*innen erreichen, die aber gar keine Antwort erfordern. In den Medien wird diese Art der E-Mail-Kommunikation meist eher negativ aufgenommen: 680 Milliarden Mails sind letztes Jahr in Deutschland verschickt worden, mehr als je zuvor. Und das Wachstum soll weitergehen. Für 2017 wird ein Plus von 17 Prozent erwartet. Das verkündeten am Montag die beiden Mailanbieter GMX und Web.de. Überraschende Zahlen - denn in der subjektiven Wahrnehmung ist E-Mail eine stagnierende Kommunikationsform. Sie wurde über die letzten Jahre immer wieder für tot erklärt. (Schüssler 2017 im Tages-Anzeiger) Der Artikel beschreibt weiter, dass E-Mails zwar immer häufiger verwendet werden, viele jedoch inhaltlich nicht relevant sind für die Empfänger*innen. Oft handle es sich dabei um digitale Kaufquittungen, Hinweise auf Erwähnungen in den sozialen Netzwerken, Sicherheitsmeldungen und Werbung (siehe dazu auch die E-Mail-Beispiele 7 und 8). Wenn der oder die Verfasser*in Nachrichten an mehrere, zumindest teilweise nicht persönlich bekannte Rezipient*innen versendet, hat das in der Regel auch Auswirkungen auf den sprachlichen Duktus. Die Sätze sind meist komplex, es gibt Anrede- und Abschiedsformeln, der Duktus ist formeller. Dürscheid / Fricks Hinweis, dass E-Mails aber auch vermehrt informelle Aspekte aufweisen können (vgl. 2016: 35), zeigt sich bei den Beispielen 1, 2 und 4 - wenn auch auf zwei verschiedene Arten. Beispiel 2 macht deutlich, dass Gross- und Kleinschreibung - auch in einem formellen Kontext - nicht immer berücksichtigt wird. Dies könnte daran liegen, dass der Verzicht auf die Berücksichtigung dieser Orthographienorm zu einer höheren Geschwindigkeit bei der Produktion einer Nachricht führen kann. Beispiele 1 und 4 zeigen, dass bei einer höheren Geschwindigkeit der Kommunikation Anrede- und Grussformeln fehlen können. Das ist ein Hinweis darauf, dass der Kommunikationsraum in diesem Fall als «offenstehend» interpretiert wird, was sich auf den Grad an Synchronizität auswirkt. Bei den iMessage -Beispielen scheint dies gerade umgekehrt zu sein; dieser Kommunikationsraum wird offenbar eher als «geschlossen» wahrgenommen: 19 Die Beispiele befinden sich im Anhang. 50 Linda Bosshart Obwohl die Kommunikation - auf die Affordanzen bezogen - hier genauso quasi-synchron ablaufen kann, wie dies bei WhatsApp der Fall ist, finden sich bei allen acht iMessage -Beispielen formelle Anreden und in den meisten Fällen auch Abschiedsgrussformeln, auch wenn die Anrede oft auf den ersten Turn beschränkt bleibt. Wird eine neue Konversation aufgenommen (Beispiele 1 und 7), wird der Raum durch erneute Anrede neu geöffnet. Das ist auch dahingehend bemerkenswert, als dass iMessage dies gar nicht vorgibt. Rein visuell gibt es - ausser der Anzeige des Datums der Konversation (so auch bei WhatsApp ) - kein Zeichen dafür, dass es sich bei einer Konversation zwischen zwei Beteiligten nicht um einen einzigen Raum handelt. Dass dies aber offenbar anders wahrgenommen wird, muss auf der situativen bzw. sozialen Ebene begründet werden: Offenbar entscheiden sich Akteur*innen für die Kommunikation über iMessage , wenn die Beziehung zwischen den Gesprächsteilnehmenden auf einer professionellen Ebene liegt, welche eine formelle Anrede verlangt. Es schien den Schreibenden hier anscheinend unangemessen, über WhatsApp zu kommunizieren. Der formellere Charakter der Kommunikation zeigt sich auch an den syntaktisch vollständigen Sätzen, der grundsätzlichen Beachtung von Gross- und Kleinschreibung und der nicht-dialektalen Schreibung. Warum diese Unterhaltungen aber nicht über E-Mails geführt wurden, kann nicht abschliessend begründet werden. Eine naheliegende These wäre, dass E-Mails immer noch die traditionelle Rolle asynchroner Kommunikation zugesprochen wird. iMessage stellt damit eine Zwischenlösung dar: Es wird eher im formellen Setting verwendet, dennoch ist die Geschwindigkeit des Feedbacks in der Regel höher. Ein letzter Aspekt, der den Grad an Synchronizität zu beeinflussen scheint, ist die optische Strukturierung der Beiträge: Je strukturierter und übersichtlicher, desto mehr Zeit benötigt man für die Produktion und desto geringer ist der Grad an Synchronizität. Hier lässt sich ein Kontinuum feststellen. Bei E-Mails erscheint es angebracht, Darstellungsoptionen wie Absätze, Zeilenauslassungen und Auflistungen zu verwenden (Ausnahme: teilweise Beispiele 1 und 4). So wird beispielsweise der Norm Folge geleistet, nach der Anrede eine Zeile auszulassen. Bei iMessage scheint diese Norm flexibler interpretiert zu werden - nur bei Beispiel 3 und 4 wird nach der Anrede ein Zeilenumbruch eingefügt. Bei WhatsApp sind keine solchen Konventionen ersichtlich, was vor allem dadurch bedingt ist, dass Anrede- und Grussformeln ohnehin fehlen. Es zeigt sich an dieser Stelle, dass eine Erweiterung des dreistufigen Modells (‹asynchron - quasi-synchron - synchron›) sinnvoll sein kann: Thaler (2007) eröffnet denn auch eine zweite Möglichkeit, den Grad der Synchronizität fassbar zu machen. Statt von drei Stufen spricht sie von einem Kontinuum mit den Polen ‹synchron› und ‹asynchron› (vgl. Thaler 2007: 174). Das erscheint angebracht, da auf diese Weise die Komplexität der verschiedenen Kommunikationsarten WhatsApp, iMessage und E-Mail 51 im Internet eher veranschaulicht werden kann, als dies ein Stufenmodell tut. So lässt sich die Tendenz konstatieren, dass über WhatsApp ‹am synchronsten› und über E-Mail ‹am asynchronsten› kommuniziert wird, während iMessage dazwischen liegt. Ausnahmen (wie die E-Mail-Beispiele 1 und 4) zeigen jedoch, dass auch Mails auf eine sehr synchrone Weise verwendet werden können. 3.2 Multimediale und multimodale Kommunikation Grundsätzlich könnte vermutet werden, dass iMessage das semiotisch reichhaltigste Kommunikationsmedium darstellt. Die vorliegende Datensammlung belegt aber das Gegenteil: Die Unterhaltungen auf iMessage sind, mit wenigen Ausnahmen, auf die graphische Realisierung des zu vermittelnden Inhalts beschränkt. Nur in den Beispielen 7 und 8 finden sich einige wenige Emojis, bei Beispiel 8 zwei Sticker. Dahingehend scheint iMessage mit den E-Mails vergleichbar zu sein. Auch hier finden sich, mit Ausnahme von Beispiel 6, keine Emojis. Ganz anders sieht die Situation bei WhatsApp aus. In allen acht Beispielen ist die Schrift nicht die einzige semiotische Ressource. Es zeigt sich, dass die personalisierten Bildzeichen hier deutlich häufiger eingesetzt werden als bei iMessage , obwohl sie in ihrer Funktion eingeschränkter sind, weil sie nur statisch verwendet werden können. Dabei wird deutlich, dass die Memojis kommunikativ ganz ähnlich wie Emojis eingesetzt werden. In den Beispielen 2 und 4 übernehmen sie die Kommentarfunktion und verstärken bzw. relativieren das Geschriebene. Da Memojis im Unterschied zu Emojis jedoch nicht in den graphischen Text integriert werden können, werden sie teilweise auch eher in Situationen verwendet, in denen ihre Bedeutung für sich alleine stehend eindeutig ist. Beispiele dafür sind 3 und 7: Beim dritten Beispiel steht das Zeichen für «Ich weiss es nicht», beim siebten Beispiel wird zuerst ausgedrückt, dass ein vorangehender Beitrag als lustig bewertet wird, ehe Zustimmung vermittelt wird. Bei WhatsApp scheint es demzufolge eher üblich zu sein, multimodal zu kommunizieren. Darauf weist auch die Bemerkung von Arens (2014: 82) hin, die von «WhatsApp-typische[n], multimediale[n] Kommunikationsmöglichkeiten wie Piktogramme, Fotos und Videos, Audios und Hyperlinks» spricht. Die genannten Kommunikationsmöglichkeiten sind, technisch gesehen, nicht distinktiv für WhatsApp . Empirisch gesehen kann Arens hier aber insofern Recht gegeben werden, als die Verwendung von Piktogrammen in den vorliegenden Beispielen tatsächlich fast nur auf WhatsApp beschränkt ist. Bezüglich der Multimedialität scheint allerdings die E-Mail am variantenreichsten zu sein. Bei mindestens drei Beispielen (4, 5, 6) wird ein Dokument verschickt, auf das sprachlich auch jeweils Bezug genommen wird. Zudem werden Links in den Text integriert (so in Beispiel 2), bei den Beispielen 7 und 8 besteht ein grosser Teil der Nachricht aus Bildern. An zweiter Stelle ist WhatsApp zu nennen (Beispiel 4), bei iMessage fehlen multimediale Inhalte in den Fallbeispielen. 52 Linda Bosshart 4 Diskussion der Ergebnisse Es hat sich gezeigt, dass die Affordanzen in Bezug auf die beiden untersuchten Aspekte sehr wohl relevant sind. Erst dadurch, dass quasi-synchron kommuniziert und dass auf semiotisch reichhaltige Ressourcen zurückgegriffen werden kann , erhöht sich erstens die Geschwindigkeit der Kommunikation und verliert zweitens die Schrift ihren Status als alleiniges semiotisches Mittel. Hinsichtlich der Synchronie lässt sich dies deutlich aufzeigen. Im vorliegenden Korpus laufen WhatsApp -Konversationen ‹am synchronsten› ab. Dass iMessage auf dem zweiten, E-Mail auf dem dritten Platz folgen, ist zunächst einleuchtend. Was aber nicht erklärt werden kann, ist der grosse Abstand zwischen iMessage und WhatsApp , denn WhatsApp ist technisch gesehen nur gering ‹synchroner› als iMessage . Hier müssen die Gründe für den deutlichen Unterschied auf einer anderen Ebene festgemacht werden. Wie in Kapitel 3.2 diskutiert, sind die Nachrichten bei iMessage im Vergleich zu WhatsApp sprachlich deutlich reflektierter, was mit dem Grad an Synchronizität zusammenhängen kann. Da der Grund für diese sprachliche Reflektiertheit nicht in den Affordanzen des Dienstes begründet liegt, lässt sich für iMessage folgende Konsequenz ziehen: Hinsichtlich des Grades an Synchronizität ist iMessage eher durch situative und soziale als durch technische Gegebenheiten determiniert. Eine mögliche Begründung für den formelleren Duktus auf iMessage könnte in der historisch bedingten Wandlung der Bedeutung von SMS zu finden sein: Durch das Aufkommen von WhatsApp wurden SMS überflüssig. Dadurch wandelte sich das Verwendungsspektrum von SMS , sodass sie nun vermehrt für formellere, aber - im Vergleich zu E-Mails - ‹synchronere› Kommunikation eingesetzt werden. SMS und iMessage hängen insofern zusammen, als iMessage nur zwischen zwei i OS -User*innen verwendbar ist. Schickt ein*e i OS -Nutzer*in eine Nachricht an eine*n Android-Nutzer*in, so wandelt Apple die Nachricht in eine SMS um. Wenn folglich i OS -Nutzende iMessage verwenden, assoziieren sie damit möglicherweise die SMS -Kommunikation. Beim E-Mailen scheint es gerade umgekehrt zu sein: Dadurch, dass E-Mails auch mobil bearbeitet werden können und Push-Nachrichten die Geschwindigkeit des Feedbacks in die Höhe treiben, steigert sich auch der Grad an Synchronizität. In diesem Fall scheint die Technologie ausschlaggebend dafür gewesen zu sein, dass über dieses klassisch asynchrone Kommunikationsmittel nun auch quasi-synchron (oder zumindest: ‹synchroner›) kommuniziert wird. Wichtig ist aber im Hinblick auf E-Mails, dass deren Entwicklung in drei Richtungen verläuft: Wie in Kapitel 3.1 beschrieben, werden E-Mails heute vermehrt unidirektional verwendet, wenn etwa eine grosse Gruppe über etwas informiert werden soll. So stehen Nachrichten in Form von sprachlich (grösstenteils) reflektierten, WhatsApp, iMessage und E-Mail 53 vielleicht sogar redigierten Texten solchen gegenüber, die spontaner und schneller verfasst werden und eher nähesprachliche Merkmale (z. B. Ellipsen) beinhalten. Zusätzlich ist relevant, dass diese beiden Entwicklungen die «traditionelle» asynchrone, dialogisch ausgerichtete Kommunikation nicht ablösen - sie sind vielmehr als Ergänzung zu sehen. Für E-Mails lässt sich daher schliessen, dass das Spektrum an Sprachhandlungen durch die neuen Affordanzen erweitert wurde, weswegen sich unterschiedliche Kommunikationspraktiken ergeben. Kurz: Die Kommunikation über E-Mail ist so variantenreich, dass deren Determiniertheit durch die Technologie bzw. anderer Faktoren hinsichtlich der drei untersuchten Kommunikationsformen am wenigsten pauschal beschrieben werden kann. Damit kommen wir zu den semiotischen Ressourcen: Technisch gesehen ist iMessage der semiotisch reichhaltigste Dienst, gefolgt von WhatsApp und E- Mails. Dadurch, dass sich bei den untersuchten iMessage -Beispielen sämtliche Unterhaltungen auf einer professionellen Ebene abspielen, werden kaum andere semiotische Zeichen als graphische verwendet. Hier scheint die iMessage -Kommunikation allein von situativen und sozialen Gegebenheiten bestimmt. 20 Ein wichtiger Punkt ist dabei jedoch, welche Rückwirkung die Tatsache hat, dass dieser Dienst nicht betriebssystemübergreifend ist. So nutzen alle User*innen bei den abgebildeten Beispielen i OS , weswegen allen die Möglichkeit zur spezifisch multimodalen Kommunikation zur Verfügung steht. Doch es ist möglich, dass sich viele dieser Möglichkeiten gar nicht bewusst sind, weil sie in der Kommunikation via WhatsApp damit gar nicht in Berührung kommen. Das könnte eine Begründung dafür sein, warum sich Animojis, die Kommentierfunktion oder das Senden mit Effekten (noch) nicht etablieren konnten: User*innen lernen nicht, mit diesen zu hantieren, weil sie nicht Bestandteil der alltäglichen internetbasierten Kommunikation sind. Anders formuliert: WhatsApp -Nutzer*innen, die das i OS -Betriebssystem verwenden, vermissen diese Möglichkeiten nicht, weil sie sie kaum kennen, und sie sehen demzufolge keinen Grund, für die alltägliche Kommunikation iMessage statt WhatsApp zu verwenden. So sind die Affordanzen hier indirekt doch ein zentraler Einflussfaktor auf das sprachliche Verhalten. Bei WhatsApp ist das Versenden nicht-graphischer Zeichen und multimedialer Inhalte hingegen Bestandteil der Kommunikationspraxis. Doch ist dies in erster Linie technisch oder situativ bzw. sozial zu begründen? Eine These 20 Nicht Bestandteil dieses Beitrages, aber ein interessanter Aspekt, der im weiteren Sinne den semiotischen Ressourcen zugerechnet werden kann, betrifft das Profilbild. Während man bei WhatsApp ein Profilbild einstellen kann, welches den anderen User*innen angezeigt wird, ist dies bei iMessage und E-Mails meistens nicht der Fall. Dies verleiht WhatsApp eine zusätzlich informelle Komponente, da die Profilbilder oft Aufnahmen aus einem Freizeitkontext sind. Daraus könnte resultieren, dass WhatsApp bewusst vermieden wird, wenn die Kommunikation auf einer formellen Ebene stattfindet. 54 Linda Bosshart könnte lauten, dass WhatsApp der erste, intensiv genutzte Messenger war, der das Verwenden der grossen Bandbreite an Emojis erlaubte. Die neuartigen technischen Möglichkeiten könnten so stark zu einem nähesprachlichen Kommunikationsverhalten motiviert haben, dass sich die semiotisch variantenreiche Kommunikation als «WhatsApp-typisch» etablierte. 21 Dass Emojis, Memojis und andere semiotische Zeichen verwendet werden, wird hier quasi erwartet; WhatsApp wird mit der Verwendung dieser Zeichen assoziiert. Allein schon das Verwenden von Diensten, die nicht WhatsApp sind, entbindet folglich von dieser Konvention, wie die iMessage -Beispiele aufzeigen. Was die Kommunikation über E-Mail betrifft, so scheint die Situation im Falle der «klassischen» asynchronen, dialogischen wie auch im Falle der quasisynchronen, dialogischen Verwendung ebenfalls von den historisch bedingten technischen Gegebenheiten bestimmt zu sein. Multimodale Inhalte finden sich hier kaum. Auf Emojis und andere Einheiten ausserhalb des graphischen Bereichs wird aber nicht in erster Linie deshalb verzichtet, weil es technisch nicht möglich wäre, solche einzufügen. E-Mails werden vielmehr klassischerweise dem Bereich der Geschäftskorrespondenz zugeordnet (vgl. Dürscheid / Frick 2016: 32 f.). Diese Konnotation hat sich bis heute gehalten, auch wenn E-Mails nicht nur im geschäftlichen Bereich Anwendung finden. Mit dieser Konnotation geht - offensichtlich nach wie vor - (die Erwartung an) eine sprachlich reflektierte Ausdrucksweise einher. Eine Ausnahme bilden die unidirektional laufenden E-Mails: die Werbe-E-Mails (Beispiele 7 und 8). Eine These wäre, dass dies sehr bewusst geschieht, um sich von «herkömmlichen» E-Mails abzuheben. Weiterführend wäre es nun interessant, sprachwissenschaftliche Modelle zur Erklärung des verwendeten sprachlichen Duktus in der internetbasierten Kommunikation auf die drei Fallbeispiele anzuwenden. Hier kommt dem Modell von Peter Koch und Wulf Oesterreicher 22 immer noch eine Monopolstellung zu (vgl. Albert 2013: 61), obwohl seine Anwendung im Kontext der internetbasierten Kommunikation von verschiedenen Seiten kritisiert wurde. Insbesondere die Annahme, es handle sich bei der internetbasierten Kommunikation um «getippte Gespräche» - wie dies beispielsweise Storrer (2001) formuliert -, wird 21 Bestätigt wird dies auch von Titeln sprachwissenschaftlicher Beiträge (vgl. z. B. «Zu kommunikativen Funktionen von Emojis in der WhatsApp-Kommunikation» von Pappert (2017) oder «WhatsApp: Kommunikation 2.0. Eine qualitative Betrachtung der multimedialen Möglichkeiten» von Arens (2014)). 22 Siehe zur Rezeption dieses Modells beispielsweise Albert (2013), Dürscheid (2003, 2016), Thaler (2007). Kurz zusammengefasst besteht es aus zwei Dimensionen. Die mediale Dimension bezieht sich auf die Form der Realisation (phonisch oder graphisch), die konzeptionelle auf den sprachlichen Duktus, der den Autoren zufolge in ein Kontinuum eingeordnet wird («mündlich» / «nähesprachlich» am einen Ende des Kontinuums, «schriftlich» / «distanzsprachlich» am anderen Ende). WhatsApp, iMessage und E-Mail 55 in Frage gestellt. Damit würde die internetbasierte Kommunikation defizitär betrachtet - die Verwendung von Emojis oder anderen Symbolen wäre dann lediglich eine Kompensationsstrategie und nicht mehr eine spezifische semiotische Form (vgl. ausführlich zu dieser Kritik Albert 2013). Abschliessend bleibt festzuhalten: Wünschenswert ist, dass die Sprachwissenschaft in den kommenden Jahren neue Modelle entwickeln kann, die der Diversität der Kommunikation im Internet gerecht werden. Wichtig hierfür ist auch, dass Korpora mit authentischen Daten generiert und zeitnah zugänglich gemacht werden. Nur so kann die Medienlinguistik die sich stets wandelnde Kommunikationspraxis adäquat reflektieren und aktuelle technologische Entwicklungen einbeziehen. Bibliographie Albert, Georg (2013). Innovative Schriftlichkeit in digitalen Texten: Syntaktische Variation und stilistische Differenzierung in Chat und Forum. Berlin: Akademie Verlag. Androutsopoulos, Jannis (2010). Multimodal - intertextuell - heteroglossisch: Sprach- Gestalten in „Web 2.0“-Umgebungen. In: Deppermann, Arnulf / Linke, Angelika (Hrsg.). Sprache intermedial: Stimme und Schrift, Bild und Ton. Berlin / New York: De Gruyter, 419-445. Arens, Katja (2014). WhatsApp: Kommunikation 2.0: Eine qualitative Betrachtung der multimedialen Möglichkeiten. In: König, Katharina / Bahlo, Nils Uwe (Hrsg.). SMS , WhatsApp & Co: Gattungsanalytische, kontrastive und variationslinguistische Perspektiven zur Analyse mobiler Kommunikation. Münster: Monsenstein und Vannerdat, 81-106. Dennis, Alan R. / Valacich, Joseph S. (1999). Rethinking Media Richness: Towards a Theory of Media Synchronicity. Proceedings of the 32 nd Hawaii International Conference on System Sciences. Los Alamitos: IEEE Computer Society, 1-10. Dürscheid, Christa (2003). Medienkommunikation im Kontinuum von Mündlichkeit und Schriftlichkeit: Theoretische und empirische Probleme. Zeitschrift für Angewandte Linguistik 38: 1, 1-20. Dürscheid, Christa / Frick, Karina (2014). Keyboard-to-Screen-Kommunikation gestern und heute: SMS und WhatsApp im Vergleich. In: Mathias, Alexa / Runkehl, Jens / Siever, Torsten (Hrsg.). Sprachen? Vielfalt! Sprache und Kommunikation in der Gesellschaft und den Medien. Eine Online-Festschrift zum Jubiläum von Peter Schlobinski. Darmstadt: sprache@web, 149-181. Dürscheid, Christa / Siever, Christina M. (2017). Jenseits des Alphabets - Kommunikation mit Emojis. Zeitschrift für germanistische Linguistik 45: 2, 256-285. Dürscheid, Christa (2016). Nähe, Distanz und neue Medien. In: Feilke, Helmuth / Hennig, Mathilde (Hrsg.). Zur Karriere von ‹Nähe und Distanz›. Rezeption und Diskussion des Koch-Oesterreicher-Modells. Berlin, Boston: De Gruyter, 357-385. 56 Linda Bosshart Habscheid, Stephan / Klein, Wolfgang (2012). Einleitung: Dinge und Maschinen in der Kommunikation. Zeitschrift für Literaturwissenschaft und Linguistik 42: 4, 8-12. Hinz, Leonore (2015). The Functions of Emoticons and Pictograms in Instant Messengers. 10plus1: Living Linguistics 1, 92-103. Pappert, Steffen (2017). Zu kommunikativen Funktionen von Emojis in der WhatsApp- Kommunikation. In: Beißwenger, Michael (Hrsg.): Empirische Erforschung internetbasierter Kommunikation. Berlin: De Gruyter Mouton, 175-211. Schüssler, Matthias (2017). Das E-Mail stirbt einen langsamen Tod. In: Tagesanzeiger vom 14. 02. 17. Abrufbar unter: https: / / www.tagesanzeiger.ch/ digital/ internet/ dasemail-stirbt-einen-langsamentod / story / 29 860 033 (Stand: 20. 12. 2020) Siever, Christina M. (2015). Multimodale Kommunikation im Social Web: Forschungsansätze und Analysen zu Text-Bild-Relationen. Frankfurt a. M.: Peter Lang. SRF (2018). Push-Nachrichten: Einfach abschalten! Abrufbar unter: https: / / www.srf.ch/ play/ radio/ ratgeber/ audio/ push-nachrichten-einfach-abschalten? id=955e817a-eb63- 4400-b80c-5c44e384ee86 (Stand: 20. 12. 20) Statista (2020): Anzahl der monatlich aktiven Nutzer von WhatsApp weltweit in ausgewählten Monaten von April 2013 bis Februar 2020. Abrufbar unter: https: / / de.statista.com/ statistik/ daten/ studie/ 285230/ umfrage/ aktive-nutzer-von-whatsappweltweit/ (Stand: 20. 12. 2020) Steinseifer, Martin (2011). Die Typologisierung multimodaler Kommunikationsangebote. Am Beispiel der visuellen Aspekte seitenbasierter Dokumente. In: Habscheid, Stephan (Hrsg.). Textsorten, Handlungsmuster, Oberflächen: Linguistische Typologien der Kommunikation. Berlin: De Gruyter, 164-189. Storrer, Angelika (2001). Getippte Gespräche oder dialogische Texte? Zur kommunikationstheoretischen Einordnung der Chat-Kommunikation. In: Lehr, Andrea / Kammerer, Matthias / Konerding, Klaus-Peter / Storrer, Angelika / Thimm, Caja / Wolski, Werner (Hrsg.). Sprache im Alltag: Beiträge zu neuen Perspektiven in der Linguistik. Berlin, New York: De Gruyter, 439-465. Storrer, Angelika (2017). Internetbasierte Kommunikation. In: Deutsche Akademie für Sprache und Dichtung u. a. (Hrsg.). Vielfalt und Einheit der deutschen Sprache. Zweiter Bericht zur Lage der deutschen Sprache. Tübingen: Stauffenburg, 245-279. Thaler, Verena (2007). Mündlichkeit, Schriftlichkeit, Synchronizität: Eine Analyse alter und neuer Konzepte zur Klassifizierung neuer Kommunikationsformen in: Zeitschrift Für Germanistische Linguistik, 35: 1, 146-181. Korpora Chat (Dortmund): https: / / www.uni-due.de/ germanistik/ chatkorpus/ (Stand: 25. 09. 2020) SMS (Zürich): https: / / sms.linguistik.uzh.ch/ (Stand: 25. 09. 2020) WhatsApp (Schweiz): https: / / www.whatsup-switzerland.ch/ index.php/ en/ corpus-en (Stand: 25. 09. 2020) WhatsApp, iMessage und E-Mail 57 Anhang Fallbeispiele WhatsApp Abb. 5: Beispiel WhatsApp 1 Abb. 6: Beispiel WhatsApp 2 58 Linda Bosshart Abb. 7: Beispiel WhatsApp 3 Abb. 8: Beispiel WhatsApp 4 WhatsApp, iMessage und E-Mail 59 Abb. 9: Beispiel WhatsApp 5 Abb. 10: Beispiel WhatsApp 6 60 Linda Bosshart Abb. 11: Beispiel WhatsApp 7 Abb. 12: Beispiel WhatsApp 8 WhatsApp, iMessage und E-Mail 61 Fallbeispiele iMessage Abb. 13: Beispiel iMessage 1 Abb. 14: Beispiel iMessage 2 62 Linda Bosshart Abb. 15: Beispiel iMessage 3 Abb. 16: Beispiel iMessage 4 WhatsApp, iMessage und E-Mail 63 Abb. 17: Beispiel iMessage 5 Abb. 18: Beispiel iMessage 6 64 Linda Bosshart Abb. 19: Beispiel iMessage 7 Abb. 20: Beispiel iMessage 8 WhatsApp, iMessage und E-Mail 65 Fallbeispiele E-Mail Abb. 21: Beispiel E-Mail 1 Abb. 22: Beispiel E-Mail 2 66 Linda Bosshart Abb. 23: Beispiel E-Mail 3 Abb. 24: Beispiel E-Mail 4 WhatsApp, iMessage und E-Mail 67 Abb. 25: Beispiel E-Mail 5 Abb. 26: Beispiel E-Mail 6 68 Linda Bosshart Abb. 27: Beispiel E-Mail 7 Abb. 28: Beispiel E-Mail 8 Animojis Eine Analyse aus linguistischer Perspektive Roberto Tanchis & Leonie Walder 1 Einleitung In unserer vom Internet geprägten Zeit kommunizieren wir nicht nur mittels unterschiedlicher Kommunikationsmedien , wie zum Beispiel Smartphone, Telefon, Computer etc., sondern auch über eine Vielzahl von unterschiedlichen Kommunikationsformen , wie zum Beispiel WhatsApp , Snapchat , Instagram oder E-Mail. 1 Wir sind es gewohnt, verschiedene Kommunikations-Apps parallel zu nutzen und je nach Zweck von App zu App zu wechseln: E-Mail für Geschäftliches, WhatsApp für Freunde und Familie, Snapchat und Instagram für das Teilen von fotografischen Momentaufnahmen. Dabei wechseln wir häufig nicht nur die Kommunikationsformen und -kanäle, sondern auch zwischen verschiedenen Sprachregistern. Die Art und Weise, wie wir Kommunikationsmittel nutzen, variiert von Medium zu Medium und nicht selten auch von Adressat zu Adressat. Je nach Sinn und Zweck einer Nachricht orientieren wir uns mehr oder weniger an konzeptionell Mündlichem, und nicht jeder Empfängerin oder jedem Empfänger schicken wir, wenn überhaupt, die gleiche Anzahl Emojis. Diese auf den ersten Blick unübersichtliche Vielfalt erschwert es Sprachwissenschaftler*innen, den Überblick über alle Kommunikationsformen zu behalten und die verschiedenen Phänomene entsprechend analysieren und einordnen zu können. Hinzu kommt, dass sich die schriftliche und audiovisuelle Kommunikation den technischen Neuerungen und Veränderungen schnell anpasst. Da stets neue Apps und Funktionen auf den Markt gebracht werden und die bevorzugten Kommunikationskanäle häufigem Wechsel unterliegen, ist die Forschung gezwungenermassen immer etwas im Rückstand. Zu diesen Neuerungen zählen zum Beispiel auch die im Juni 2017 eingeführten Animojis. Diese eröffnen die Möglichkeit, eine Sprachnachricht inklusive dynamischer Mimik zusammen mit einer Anzahl animierter Emojis oder mit einem individuell angepassten Avatar im Emoji-Stil zu verschicken. 1 Werner Holly (2011) gibt in seinem Aufsatz Medien, Kommunikationsformen, Textsortenfamilien einen guten Überblick über die Entwicklung dieser Terminologie. 70 Roberto Tanchis & Leonie Walder In diesem Aufsatz wollen wir zunächst darlegen, was ein Animoji genau ist (Kap. 2). Hierzu skizzieren wir die Entwicklungsgeschichte hin zu Animojis und widmen uns anschliessend der Frage, wie mit Animojis kommuniziert wird. Im daran anschliessenden Kapitel folgt eine Beschreibung des Animoji-Phänomens aus linguistischer Perspektive (Kap. 3). Hier untersuchen wir das Phänomen auf mehreren Ebenen: Zuerst fokussieren wir uns auf die visuelle Ebene und setzen Animojis in Relation zu den (allgemein bekannten) Emojis. Für die Analyse der auditiven Ebene vergleichen wir, in welchen Aspekten sich Animojis von Sprachnachrichten unterscheiden. Diese beiden Punkte führen zur Synthese, dass Animojis als audiovisuelles Phänomen aufzufassen sind. Vor diesem Hintergrund gehen wir anschliessend auf die praktische Verwendung von Animojis ein (Kap. 4) und zeigen auf, wie mit Animojis kommuniziert wird. Im abschliessenden Kapitel (Kap. 5) fassen wir die Ergebnisse unserer Untersuchung in einem Résumé zusammen und geben eine Prognose dazu ab, wohin die Auseinandersetzung mit Animojis führen könnte. 2 Was ist ein Animoji? 2.1 Entwicklungsgeschichte Smartphones haben sich in den letzten Jahren zu einem der wichtigsten Kommunikationsmittel überhaupt entwickelt. Mit WhatsApp oder anderen Nachrichtenapplikationen auf dem Handy können wir in ständigem Kontakt mit Menschen auf der ganzen Welt sein, unabhängig davon, wo wir uns gerade befinden. Digitale Kommunikation funktioniert so praktisch gänzlich ortsungebunden (siehe König / Hector 2017: 4). Ein weiterer Vorteil ist die schnelle Übertragungsgeschwindigkeit. Nicht zuletzt dadurch hat sich die Tendenz von der Versendung von Nachrichten mit hoher Informationsdichte (wie z. B. Briefen) hin zur Kommunikation durch knappere Einzelnachrichten verstärkt. Die Geschichte des Briefes - der trotz Smartphones nicht von der Bildfläche verschwunden ist, sondern ein neues, wenn auch kleineres und spezifischeres Feld innerhalb der Kommunikation abdeckt - zeigt aber auch, dass ältere Kommunikationsmittel in der Regel nicht einfach durch neuere Entwicklungen ersetzt, sondern ergänzt werden. So öffnet sich tendenziell ein immer breiteres Feld unterschiedlicher Kommunikationskanäle, die parallel verwendet werden und je einen spezifischen Aufgabenbereich abdecken. Jüngste Entwicklungen scheinen diesen Trend zu bestätigen: Immer wieder werden Applikationen eingeführt, die gezielt für einen bestimmten Kontext konzipiert wurden. Ein Beispiel dafür ist der webbasierte Instant-Messaging- Animojis 71 Dienst Slack , der mit unterschiedlichen Tools wie einer Chatfunktion, To-do- Listen etc. spezifisch für die Kommunikation in beruflichen Teams entwickelt wurde. In den letzten Jahrzehnten haben sich Technologien wie Handschriftenerkennung, Bildverarbeitung, Gesichtsdetektion und -identifikation zudem so weiterentwickelt, dass nicht nur stillstehende Objekte verarbeitet werden können, sondern auch sich bewegende Objekte (Körperverfolgung) - eine technische Voraussetzung für die Produktion von Animojis. Interessant ist in dem Zusammenhang auch, wie sich die visuelle und auditive Ebene weiterentwickelt haben: Bei den ersten Sprachassistenten wie Alexa von Amazon, Cortana von Microsoft, Assistant von Google und Siri von Apple wurde z. B. der Fokus auf die mündliche Kommunikation gelegt. Auch die Mensch-zu-Mensch-Kommunikation via Maschine wird immer weiter ausgebaut. Diese Entwicklungen ermöglichen die Kommunikation auf unterschiedlichen Kanälen. Schenk und Rigoli (2010: 3) nennen als wichtigste den visuellen (Bildschirm) und den auditiven Kanal (Lautsprecher). Für die Produktion von Animojis sind Kamera, Mikrofon und Touchscreen von Bedeutung. Aber auch innerhalb der neuen digitalen Kommunikationsmedien gibt es laufend Erweiterungen und neue Funktionen. So kamen zu den Emoticons (bestehend aus Klammern und Interpunktionszeichen) die Emojis, animierte GIF s, Sticker, unterschiedliche Schriftarten und verschiedene Nachrichteneffekte (wie z. B. Konfetti, das eine Nachricht auf iMessage begleiten kann) hinzu. Weiter wurde das Versenden von Fotos, Videos und von Sprachnachrichten ermöglicht, die textbasierte Nachrichten ersetzen oder ergänzen können (siehe Stark 2018). Zu dieser grossen Palette digitaler Kommunikationsmöglichkeiten hat sich, wie erwähnt, im Jahr 2017 das Animoji hinzugesellt, dem wir uns nun im Folgenden ausführlicher widmen werden. 2.2 Animoji: Beschreibung des digitalen Phänomens Zunächst soll erläutert werden, was ein Animoji überhaupt ist. Herring et al. (2020: 1) beschreiben Animojis folgendermassen: «[U]sers can video chat and send video clips of themselves speaking through large-format emoji that mirror movements of the sender’s head, mouth, eyes, and eyebrows in real time». Ein Animoji ist also ein grossformatiges, animiertes 3D-Emoji, welches die Mimik der aufgenommenen Person auf das Emoji überträgt und die parallel dazu aufgenommenen Sprachbotschaften wiedergibt. Kurz: Es kombiniert die bekannten Emojis mit der Stimme der Person zu einem Videoclip - deshalb auch die Bezeichnung Animoji , was ein Portmanteau-Wort aus Animation und Emoji ist. Um Animojis zu verwenden, wird zuerst die gewünschte Emoji-Maske ausgewählt, zum Beispiel der Kopf einer Kuh (siehe Abb. 1), anschliessend wird eine Nachricht in die Frontkamera des Handys gesprochen, die von dem Animoji 72 Roberto Tanchis & Leonie Walder wiedergegeben wird. Neben der Nutzung von vorgefertigten, meist aus den Emojis bekannten Gesichtzeichen besteht auch die Möglichkeit, ein personalisiertes Animoji zu erstellen, welches das eigene Gesicht repräsentieren soll und dementsprechend nach dem eigenen Vorbild gestaltet wird (siehe ebenfalls Abbildung 1 und 2 oben). Solche Avatare werden Memojis genannt. Diese Memojis können statisch als Sticker - wie Emojis (siehe Abb. 2) - oder als Aufzeichnungen eines animierten Bildes versendet werden. Die personalisierbaren Elemente der Memojis schliessen zum Beispiel Festlegungen zur Frisur, zu Haut- und Augenfarbe, Make-up und Piercings ein. Im Unterschied zu Animojis ist die Funktion der Memoji-Sticker mit denen von ‹normalen› Emojis vergleichbar. Beide werden als statische Bildzeichen verwendet, und beide können dazu genutzt werden, schriftliche Äusserungen zu ergänzen oder zu kommentieren. Im Folgenden werden wir aber nicht weiter auf diese statischen Elemente eingehen, wir konzentrieren uns vielmehr auf die Funktion und die Art der Verwendung von animierten Memojis und Animojis. Immer wenn hier von Animojis die Rede ist, sind also animierte Animojis gemeint - und auch animierte Memojis mitgedacht. Memojis stellen nämlich eine Unterkategorie von Animojis dar und werden, abgesehen von der vorhergehenden Gestaltung, identisch verwendet. Abb. 1: Personalisiertes Memoji (links) und Standard-Animoji (rechts) Abb. 2: Personalisierter Memoji-Sticker (oben) und Emoji (unten) im Vergleich Animojis 73 Um das einmal ausgewählte Animoji in Bewegung zu setzen bzw. es sprechen zu lassen, sind die Parameter Kopf , Mund , Augen und Augenbrauen entscheidend. Die entsprechenden Bewegungen im Gesicht der Sender*innen werden beim Erstellen eines Animojis von der Handykamera aufgenommen und durch die Signalverarbeitung des iPhones als Gesichtsbewegungen im Animoji wiedergegeben. Die Mimik wird durch Gesichtserkennungstechnik parallel zur Sprachaufnahme der Sprecher*innen aufgenommen und mit minimaler Ton- Bild-Verschiebung beinahe zeitgleich vom Animoji dargestellt. Die aufgenommene Nachricht kann nun über Apples iMessage verschickt werden und von den Empfänger*innen in einer Endlosschleife oder in Form eines Videos (je nach Handymodell und Betriebssystem) abgespielt werden. Dabei ist anzumerken, dass es noch nicht möglich ist, Animojis auf allen Applikationen abzuspielen. So ist bspw. WhatsApp (Stand September 2020) noch nicht mit Animojis kompatibel. Bei der Kommunikation mittels Animojis handelt es sich um eine sogenannte «Keyboard-to-screen-Kommunikation» (siehe Dürscheid / Frick 2014: 152 f.). Dazu zählt jegliche Art von Kommunikation, die über Tastatur und Bildschirm geführt wird - unabhängig vom technischen Modell, das dazu verwendet wird, und der Art der Datenübertragung. Bei der Verwendung von Animojis sind vor allem der Bildschirm und die in Smartphones integrierte Frontkamera wichtig, um die visuelle Komponente wiedergeben zu können. Die Tastatur auf dem Touchscreen spielt eine eher untergeordnete Rolle, ist aber dennoch grundlegend, um die Aufnahme überhaupt starten und beenden und schliesslich wiedergeben zu können. 2.3 Überblick über den Forschungsstand Da Animojis erst im Jahr 2017 eingeführt wurden, also ein jüngeres Phänomen sind, liegt zum derzeitigen Zeitpunkt nur wenig Forschungsliteratur vor. Ein aufschlussreicher Aufsatz über Animoji-Performances wurde jedoch kürzlich von Susan Herring et al. veröffentlicht. Herring et al. (2020) haben 397 Videoclips analysiert, welche sich aus 31 Memojis und 366 Animojis zusammenstellen, und das Animoji-Phänomen im Rahmen der filtered digital self-representation ( FDSR ) untersucht. Diese Art der Selbstdarstellung hat nicht nur durch die von Instagram und Snapchat bekannten dynamischen Filter, sondern durch das Auftreten von sogenannten Deepfakes an Bedeutung gewonnen. Bei dieser durch Filter veränderten Aufnahme wird in einem digitalen Kommunikationskontext eine technologisch modifizierte Version von sich selbst oder einer anderen Person kreiert. So können Bilder oder Videoaufnahmen - vor allem von Personen - mit Make-up-Filtern, Kostümen oder verschiedenen Hinter- 74 Roberto Tanchis & Leonie Walder gründen modifiziert werden. Zudem gibt es Filter, mit denen das Alter oder das Geschlecht verändert werden kann. Unter dem Strich kann man sagen, dass digitale Filter dazu dienen, den / die Empfänger*in der Nachricht zu täuschen und Bild und Ton so zu verändern, dass Selbst- und Fremddarstellung stark verzerrt sind. Die filterbasierte digitale Selbstdarstellung geht damit in eine Richtung, die im Gegensatz zu einer Kommunikation steht, die darauf abzielt, Informationen so präzise und wahrheitsgetreu wie möglich weiterzugeben. Herring et al. schlagen eine Brücke zwischen dieser filterbasierten, digitalen Darstellung des Selbst und einem weiteren Konzept, nämlich der Polynymität. Dieses Wort lehnt sich an das Wort Anonymität an. Laut Herring et al. (2020: 3) bezieht sich ‹Polynymität› (wörtlich: ‹viele Namen›) auf die Tendenz der Nutzer*innen von sozialen Medien, mehrere Identitäten in einer Vielzahl von Online-Räumen und manchmal innerhalb einer einzigen Plattform zu schaffen und aufrechtzuerhalten. FDSR ist dabei hilfreich, die Polynymität durch visuelle und auditive Veränderungen zur Unterstützung und Widerspiegelung multipler Identitäten zu ermöglichen. Animojis sind exemplarisch für Polynymität, da zwischen verschiedenen Emoji-Masken frei gewählt werden kann und ihre Verwendung die Inszenierung verschiedener Identitäten ermöglicht. Als Beispiel dafür wird von Herring et al. vor allem das Spiel mit Genderidentitäten genannt. Dieses Phänomen ist auch von Online-Rollenspielen her bekannt. In diesen Spielen nehmen die Teilnehmer*innen ein anderes Geschlecht (oder eine andere Hautfarbe, sexuelle Orientierung usw.) (siehe McRae 1996) an. Auch ein Memoji kann sich vom persönlichen Aussehen, dem eigenen Geschlecht usw. unterscheiden. Die Möglichkeit der Personalisierung stellt dem Nutzer, der Nutzerin frei, ein sich ähnliches Abbild zu erstellen (wie es Me in dem Wort Memoji andeutet) oder mit den veränderbaren, äusseren Merkmalen zu spielen und zu experimentieren. Auf soziokultureller Ebene werden aufgrund der Polynymität Stereotypen ermöglicht, welche stets auch mit ideologischen Werten einhergehen. So fanden Herring et al. in ihrer Untersuchung heraus, dass in Animoji-Kommunikaten die Darsteller*innen sprachliche Merkmale verwenden, die ihren Aussagen kulturelle und ideologische Bedeutung verleihen und über den eigentlichen Inhalt der Aussage hinausgehen (siehe Herring et al. 2020: 5). Beispielsweise beobachteten sie, dass Huhn, Katze und Schwein vor allem mit stereotypisierten weiblichen Stimmen inszeniert wurden - und dies auch von männlichen Sprechern (siehe Herring et al. 2020: 11). Dieser Prozess stellt eine Art Stilisierung der Sprache dar. Laut Bakhtin sind stilisierte Äusserungen inhärent mehrstimmig und beinhalten «a varying degrees of otherness or varying degrees of ‹our-own-ness›» (Bakhtin 1986: 89). Das zeigt, dass auch mit stilisierten Lauten auf sprachlicher Ebene Stereotypen verbreitet werden können. Auch Stark (2018) unterstreicht, dass sich Animojis an den Ausdruck von Emotionen annähern und bestehende Animojis 75 racial categories durch ihre formalen und ästhetischen Merkmale verdinglichen und aufrechterhalten. Zum Beispiel werden dialektale Stilisierungen, welche mit African-American Vernacular English ( AAVE ) assoziiert werden - postvokales / r/ , / l/ -Streichung und Vereinfachung der Konsonanten-Cluster (Herring et al. 2020: 5) -, so verwendet, dass sie Stereotypen verstärken. Stark (2018) weist darauf hin, dass nicht nur die Darstellung von menschlichen Gesichtern und Körpern, sondern die Darstellung menschlicher Aff ekte und Emotionen die Hauptfaktoren sind, die die digitale Animation des Rassenschemas kodieren. Für die Forschung ist es deshalb wichtig, dass die Schematisierung bei der Kodierung des menschlichen Gesichts (und des Körpers) kritisch betrachtet wird. Denn die schematisierenden - und laut Stark Rassismus propagierenden - technischen Mechanismen dienen nur vermeintlich der spielerischen Erweiterung von Emojis. Browne (2015) hat dazu beobachtet, dass Gesichtserkennungstechnologien und andere Systeme zur visuellen Klassifi zierung menschlicher Körper immer Mittel sind, mit denen race defi niert und sichtbar gemacht wird. Wie erkennbar wird, haben Animojis das Potential - im Hinblick auf FDSR -, die Realität zu verzerren oder auch Stereotypen zu stärken. Sie geben dem Nutzer, der Nutzerin die Möglichkeit, sich hinter einer anderen Identität zu verstecken. Das soll aber nicht bedeuten, dass dies die einzigen Potentiale von Animojis sind. Die Tatsache, dass Animojis eine innovative, neue Art der Kommunikation ermöglichen, soll hier gewürdigt und im Folgenden aus sprachwissenschaftlicher Perspektive ausgeleuchtet werden. 3 Linguistische Analyse des Animoji -Phänomens 3.1 Visuelle Ebene-- Vergleich zwischen Animojis, Emojis und Memojis Die optische Ähnlichkeit von Animojis und Emoijs legt einen Vergleich der beiden Phänomene in Bezug auf die visuelle Ebene nahe. Während Animojis als audiovisuelle Kommunikate defi niert werden können, sind Emojis rein visueller Natur (siehe Tab. 1). Es sind statische Bilder, die nur einen festgefrorenen Gesichtsausdruck darstellen können. Da syntaktische Relationen nicht durch Emojis allein geklärt werden können und sie deshalb nicht eigenständig Sachverhalte transportieren können, treten sie in der Regel gepaart mit oder in Ergänzung zu Schriftzeichen auf. Einzeln werden sie meist nur als Reaktion auf die Textnachricht der Kommunikationspartner*innen verwendet. Mit Emojis können keine Informationen zu Tempus, Modus oder Kasus ausgedrückt werden. So lässt sich zum Beispiel von der Emoji-Abfolge nicht eindeutig 76 Roberto Tanchis & Leonie Walder sagen, ob hier gemeint ist, die Frau selbst sei gut oder ihre Meinung zu etwas sei positiv (siehe Dürscheid 2017: 260 und s. u., Tab. 1). Emojis stehen entweder vor ( so lustig ) oder nach ( echt schade ) einer Textsequenz, in seltenen Fällen auch innerhalb eines Wortes ( wir geniessen die S nne ), oder sie werden als einzelne Nachricht versendet. Emojis und Buchstaben werden linear von links nach rechts, also in Schreibrichtung, angeordnet. Sie erscheinen auf WhatsApp zusammen als eine Art Textfeld und werden als Einheit wahrgenommen. In der folgenden Tabelle haben wir die Unterschiede und Gemeinsamkeiten von Emojis, Animojis und Memojis in Hinblick auf Produktion, Modalität, Grammatik, Dynamik, Kommunikationsmedium und Kommunikationsform dargestellt. Emoji Animoji Memoji Produktion typographisch Aufzeichnung eines Gesichts individuell angepasst (customized) und allenfalls Aufzeichnung eines Gesichts 2 Modalität visuell audio-visuell (audio-)visuell 3 Grammatik keine Syntax, als Ergänzung zur geschriebenen Sprache, kein Ersatz für Sprache (Dürscheid 2017) auditive Ebene: orientiert sich an gesprochener Sprache visuelle Ebene: abstrahiert, maskenähnlich, animierte Darstellung des Gesichts wie Animoji Dynamik statisch dynamisch dynamisch oder statisch (als Sticker) Kommunikationsmedium Smartphone / Computer Smartphone Smartphone Kommunikationsform graphisch realisiert medial mündlich realisiert medial mündlich oder graphisch realisiert Tab.1: Überblick - Vergleich Emoji, Animoji, Memoji 2 Abhängig davon, ob das Memoji als Sticker oder in animierter Form gebraucht wird. 3 siehe Fussnote 2 Animojis 77 Der massgebliche Unterschied von Animoji zu Emoji besteht darin, dass die Emojis-Gesichter dynamisch animiert sind und in Verbindung mit einer auditiven Nachricht stehen. Wie bereits erläutert, wird beim Aufnehmen der Nachricht nicht nur das Gesprochene gespeichert, sondern durch maschinelle Gesichtserkennung auch die Mimik festgehalten. Dabei werden die aufgenommenen Gesichtsausdrücke vereinfacht und auf einer Art digitalen Maske animiert. Wiedergeben wird die Mimik entweder von einem selbst gestalteten Avatar oder einem Gesicht, das aus den Emojis bekannt ist (siehe Abb. 2). Mit einem Animoji kann man nicken, man kann auf ein trauriges Gesicht ein Lachen folgen lassen oder genervt mit den Augen rollen - und dies stets parallel zur gesprochenen Sprachnachricht. Die Entwickler von Animojis werben damit, dass diese kleinen, virtuellen Gesichtsavatare mehr als 50 Muskelbewegungen verfolgen und nachahmen können (siehe Stark 2018). Doch auch Animojis unterliegen gewissen Einschränkungen. Da sie nur den Kopf darstellen können, stossen sie schnell an ihre Grenzen. Sie können nicht die ganze Bandbreite menschlicher Ausdrücke verarbeiten, geschweige denn darstellen - vor allem nicht solche, die den ganzen Körper einbeziehen. Die nonverbale Kommunikation beschränkt sich entsprechend auf die Mimik; Gesten werden komplett ausgeschlossen. Auf jeden Fall kann man ein Animoji- Kommunikat als eine erweiterte und modifizierte Art einer Sprachnachricht ansehen. Je nachdem, welche Form gewählt wird, verleiht das Animoji der gesprochenen Nachricht eine andere Färbung. Die Tierdarstellungen wie auch die Roboter- und Gespensterköpfe haben eher spielerischen, unterhaltsamen Charakter. 4 Die personalisierte Version hingegen kann die Sprachnachricht persönlicher erscheinen lassen, weil die Empfänger*innen in dem animierten Gesicht die Sender*innen wiedererkennen, auch wenn es sich natürlich immer noch um eine Reduktion und Vereinfachung handelt. Trotz der Ähnlichkeit zwischen Animoji und Sender ist eine Animoji-Nachricht aber unpersönlicher als eine Nachricht über ein Video. Denn beim Animoji ist es ja, im Gegensatz zu einer Videoaufnahme, nicht das eigene Ich, das die Nachricht wiedergibt, sondern ein Avatar, eine Art Bote, der mit der Stimme der Sender*innen zu den Empfänger*innen spricht. Neben dem Übermitteln von Inhalt spielt bei der Nutzung von Animojis auch der Aspekt Gamification eine wichtige Rolle: Animojis ermöglichen den Nutzer*innen, Online-Personen zu kreieren, die die Gestalt von Persönlichkeiten des öffentlichen Lebens oder populären YouTubern annehmen, und auf diese Weise deren Rolle zu spielen . Oder sie erlauben, mit den eigenen äusseren Eigenschaf- 4 Ähnlich lässt sich dies auch bei den gesichtsverändernden Filtern auf Snapchat beobachten, die vor allem dazu dienen, Fotos oder Videos humoristisch zu modifizieren. 78 Roberto Tanchis & Leonie Walder ten zu spielen - das beginnt bei der Veränderung der Frisur und kann bis zum bereits erwähnten Genderwechsel führen. Im Gegensatz zu einem Videochat ist mit Animojis aber keine synchrone Kommunikation möglich. Das heisst, dass die Empfänger*innen einer Nachricht, anders als bei einem Face-to-Face- oder Video-Gespräch, den Sprechakt des Kommunikationspartners nicht simultan miterleben. Aufgrund der Quasi-Synchronizität haben sie auch keine Möglichkeit, in das Kommunikationsgeschehen einzugreifen, vielmehr können sie immer erst das Endprodukt der Nachricht ansehen bzw. anhören (siehe Howind 2020: 16). Die Kommunikation mittels Animoji bleibt also eine Annäherung an reale menschliche Kommunikation, indem visuelle Elemente die gesprochene Sprache begleiten. Gleichzeitig entfernt sich die Animoji-Kommunikation von natürlicher Kommunikation, indem sie die über die Kamera aufgenommenen Signale zu einer Maske verarbeitet und so die Realität verzerrt. 3.2 Auditive Ebene-- Vergleich zwischen Sprachnachrichten und Animojis Was auf der auditiven Ebene geschieht, ist mit einer herkömmlichen Sprachnachricht vergleichbar, die auch über WhatsApp versendet werden kann. Deshalb beziehen wir uns für die Analyse der lautlichen Ebene auch auf Literatur zu WhatsApp -Sprachnachrichten. Eine aktuelle Publikation zu dieser Thematik stammt von Howind, der durch die Analyse eines Korpus mit 82 Sprachnachrichten zeigt, wann und zu welchem Zweck Sprachnachrichten verwendet werden (Howind 2020). Seine Erkenntnisse können Hinweise auf die Nutzung von Animojis geben. Es handelt sich nämlich bei beiden Phänomenen um nicht simultane, quasi-synchrone oder asynchrone Kommunikation (siehe Howind 2020: 5 und siehe Tabelle 2). Denn sogar wenn die beiden Kommunikationspartner gleichzeitig online sind, gibt es immer eine Verzögerung, zuerst durch die Aufnahme der Nachricht und anschliessend durch das Abspielen. Auch in diesem Fall ist der kommunikative Austausch also nur quasi-synchron. Gespräch (face-toface) Sprachnachricht (z. B. WhatsApp) Animoji- Aufnahme Textnachricht (z. B. WhatsApp) Synchronizität synchron quasi-synchron oder asynchron quasi-synchron oder asynchron quasi-synchron oder asynchron Visualität gegeben nicht gegeben gegeben gegeben Tab. 2: Überblick - verschiedene Kommunikationsformen Animojis 79 Die Aufnahme hält in beiden Fällen die Charakteristika der Stimme der Sprecher*innen fest (bspw. die dialektale Färbung, Tonhöhe etc.), ebenso para- und nonverbale Merkmale wie Lachen, Räuspern oder auch Denkpausen. Hintergrundgeräusche werden von einer Sprachnachricht ebenfalls aufgezeichnet, sei dies z. B. Strassenlärm oder Musik (siehe König / Hector 2017: 11). So können durch das Versenden einer Sprachnachricht (und eines Animoji) neben der sprachlichen Information - bewusst oder unbewusst - auch Hinweise auf die Umgebung, in der sich die Senderin oder der Sender befindet, übermittelt werden. Durch den bewussten Einbezug der Hintergrundgeräusche während der Aufnahme einer Sprachnachricht als Teil einer Szenerie kann der Nachricht, so König / Hector (2017), ein theatralischer Effekt verliehen werden. Bei der Aufnahme während eines Konzerts zum Beispiel kann bewusst Raum für die Musik gelassen werden, um dem Empfänger oder der Empfängerin zu zeigen, wo man sich befindet und wie die Stimmung ist. Sprachnachrichten wie auch Animoji-Aufnahmen können vor dem Versenden angehört und bei Bedarf gelöscht werden. 5 Beide Kommunikate können aber immer nur als Ganzes gelöscht werden. Das bedeutet, es ist nicht möglich, wie bei einer geschriebenen Nachricht nur einen Teil zu ändern oder zu entfernen. Ist das Kommunikat einmal versendet, bleibt es, anders als bei einem Telefongespräch, auf dem Smartphone gespeichert. Ausserdem können Animojis, wie auch Sprachnachrichten, nur dann ‹heimlich› rezipiert und aufgenommen werden (König / Hector 2017: 13), wenn man Kopfhörer verwendet. Geschriebene Textnachrichten hingegen kann man zum Beispiel während einer Sitzung verschicken und lesen, ohne dass dies jemand merkt oder andere Personen durch das Aufnehmen oder Abspielen der Nachricht gestört werden. 3.3 Animojis als audiovisuelles Phänomen Wir haben dargelegt, welche Elemente auf der visuellen und auditiven Ebene von Bedeutung sind. Im Folgenden soll erläutert werden, wie sich diese beiden Ebenen beeinflussen. Herring et al. (2020: 2) zeigen anhand ihrer Untersuchungsergebnisse, dass der Einsatz von Animojis als maskenähnliche Ersatzpersonen das Potenzial hat, die Kommunikation und das Sozialverhalten von Personen zu beeinflussen: Diejenigen Personen, die Animoji-Kommunikate produzieren, tun 5 Auch wenn vielen WhatsApp-Nutzer*innen diese Funktion nicht bekannt ist: Es ist möglich, Sprachnachrichten auf WhatsApp vor ihrem Versenden noch einmal anzuhören. Um das zu tun, muss man den Chat während einer Sprachnachrichtaufnahme verlassen. Wählt man anschliessend den Chat wieder an, findet man dort (ähnlich wie eine Memodatei) die aufgenommene Sprachnachricht vor. Diese kann dann abgehört oder wieder gelöscht werden. 80 Roberto Tanchis & Leonie Walder dies, indem sie z. B. ihre normale Sprechstimme durch phonologische und prosodische Modifikationen stilisieren. Zudem verwenden sie Dialekte oder einen theatralischen Sprachstil mit einem Inhalt, der sich oft direkt oder indirekt auf dieses Animoji oder Memoji bezieht (siehe Herring et al. 2020: 14). Die Animojis (als visuelles Phänomen) haben also auf den Sprachgebrauch (als auditives Phänomen) einen Einfluss: Je nachdem, welches Animoji verwendet wird, können auf gesprochen-sprachlicher Ebene unterschiedliche dialektale oder stilistische Variationen auftreten. Animojis stellen damit einen Teil eines umfassenderen Paradigmenwechsels von statischen Mitteln der digitalen Selbstdarstellung (wie Selfies und Bitmoji-Sticker) hin zu dynamischeren und interaktiven Avataren dar, durch die zunehmend mittels gesprochener Sprache kommuniziert wird (siehe Herring et al. 2020: 15). Diese Tendenz - vom Statischen hin zum Dynamischen - scheint der Mündlichkeit als dynamischem Element in der digitalen Kommunikation mehr Bedeutung zu geben. Angesichts der Überlegung, wie Visuelles und Auditives zusammenhängen, stellt sich die Frage, ob sich die Art zu kommunizieren in eine Richtung bewegt, die erneut die Mündlichkeit priorisiert, nachdem Smartphones und Computer mit Textnachrichten und E-Mails die mündliche Kommunikation lange Zeit in den Hintergrund rückten. Die zunehmende Verwendung der Sprachsteuerung (an Stelle des Touchscreens) wäre bspw. ein Indiz dafür, dass Visuelles an Bedeutung verlieren und Auditives an Bedeutung gewinnen wird (siehe Schuppisser 2019). 3.4 Pragmatische Ebene-- Vor- und Nachteile der Verwendung von Animojis Animojis sind in der Geschichte der Kommunikation ein junges Phänomen. Sie können als eine Art spielerisch-vermittelte Selbstdarstellung im Bereich der Mensch-Mensch-Kommunikation via Maschine beschrieben werden. Obwohl Animojis seit 2017 nutzbar sind, ist ihre Verwendung im deutschsprachigen Raum nur spärlich verbreitet. Das liegt zu einem beachtlichen Teil daran, dass Animojis auf WhatsApp - der meistverwendeten digitalen Kommunikationsform in Europa - nicht verfügbar sind. Ausserdem muss beim Aufnahmeprozess eines Animoji-Kommunikats mehr Aufwand betrieben werden, als dies bei einer (herkömmlichen) Sprachnachricht oder bei der Verwendung von Emojis in Textnachrichten der Fall ist. Im Unterschied zu Animojis haben die auditiven Sprachnachrichten den Vorteil, dass die Sprecher*innen dafür ihren Blick nicht (oder nur zu Beginn) auf den Bildschirm richten müssen. Die visuelle Ebene fällt weg und das hat den praktischen Vorteil, dass man sich während der Aufnahme noch auf etwas Anderes konzentrieren kann. Dieser Vorzug geht bei der Aufnahme eines Animoji-Kommunikats verloren, da es notwendig ist, dass Animojis 81 die Sender*innen das Handy während der gesamten Aufnahmezeit vor Augen haben bzw. die Kamera auf das Gesicht gerichtet ist. Die Bequemlichkeit in der Bedienung ist bei Howind das Hauptargument für die Nutzung von Sprachnachrichten (siehe Howind 2020: 34). Die Kommunikation mittels Animojis ist zwar mindestens so effektiv wie, aber weniger effizient als die Verwendung von Sprachnachrichten. Das Mehr an vermittelter Information durch die zusätzliche animierte Mimik ist verhältnismässig gering. Denn bei Sprachnachrichten wird ein Teil der vermittelten Emotionen bereits durch die Stimmfärbung oder sonstige Stilisierung von gesprochener Sprache kommuniziert. Wenn dann ein Aspekt - zum Beispiel die Emotionalität einer Nachricht - verstärkt werden soll, kann das immer noch durch das Versenden eines passenden (lachenden oder weinenden) Emoji in der nächsten Nachricht geschehen. 4 Résumé: Animojis als Phänomen zwischen Kommunikation und Performance Wie bereits erwähnt, unterscheiden sich Animoji-Aufnahmen und Sprachnachrichten auf der auditiven Ebene nicht sehr. Der Unterschied liegt in der animierten Darstellung von dynamischen Gesichtszügen. Auch wenn auf visueller Ebene nicht viel zusätzliche Information vermittelt wird, wirkt das Animoji auf pragmatischer Ebene als Selbstdarstellungsversuch. Deshalb sind Animojis weniger geeignet, wenn es darum geht, ‹nur› Informationen zu vermitteln. Vielmehr ist davon auszugehen, dass Animojis eher als Spielerei verwendet werden, bei der zwei gut etablierte und häufig genutzte Phänomene - Sprachnachrichten und Emojis - zu einer neuer Kommunikationspraxis zusammengeführt werden. Die Vermittlung von Information steht im Hintergrund, vielmehr geht es um die Inszenierung der Nachricht bzw. des Senders, der Senderin. So kann zum Beispiel durch die Nutzung von Animoijs bei einer freudigen Nachricht das Aussergewöhnliche des Inhalts betont werden. In gewisser Weise kann die Verwendung von Animojis als ‹Spektakel› bezeichnet werden (siehe Androutsopoulos 2010: 430). Denn immer wenn Animojis verwendet werden, schwingt ein Aspekt der Unterhaltung mit. Doch auch wenn Animojis im Vergleich zu Sprach- und Textnachrichten bislang nur selten gebraucht werden, ist das Phänomen aus folgenden Gründen auch für die Linguistik interessant: Erstens handelt es sich bei Animojis um eine Form der Kommunikation, die die auditive Ebene mit der visuellen Ebene verbindet. Somit können gesprochene Sprache und bildbasierte Kommunikate isoliert voneinander und in ihrer Wechselwirkung untersucht werden. Zweitens 82 Roberto Tanchis & Leonie Walder erlaubt die Animation der eigenen Gesichtszüge den Nutzer*innen, mit geringem Aufwand in andere Rollen - und damit auch in eine andere sprachliche Rolle - zu schlüpfen. Diese Art von Inszenierung der Sprache, aber auch der eigenen Person kann in der weiteren Forschung mit dem Einsatz von Avataren in Online-Spielen oder Chatforen verglichen werden. Die Tatsache, dass bei Animojis dem Avatar die eigene Stimme und im Fall von Memojis die eigenen Gesichtszüge verliehen werden, lässt die Grenzen zwischen Avatar und der dahinter stehenden Person verschwimmen. Der Einfluss dieses Rollenspiels - ob im analogen oder digitalen Kontext - auf den Sprachgebrauch kann für weitere Forschung sehr interessant sein. In jedem Fall haben digitale, visuelle Animationen einen Einfluss auf die Art und Weise, wie analoge gesprochene Sprache stilisiert wird. Ausserdem erfährt die mündliche Kommunikation ohnehin durch Sprachnachrichten und die Sprachsteuerung wieder grössere Aufmerksamkeit, so dass mit weiteren Neuerungen und Modifikationen im Stil von Animojis gerechnet werden kann. Damit sich die dynamisch-visuelle Ebene als Ergänzung zur häufig genutzten Sprachnachricht aber grossflächig durchsetzen kann, müsste die Verwendung den Nutzer*innen einen Mehrwert bieten, der über den spielerischen Effekt hinausgeht. Erst wenn der Gewinn an vermittelbarer Informationsmenge den umständlicheren Aufnahmeprozess ausgleichen kann, erhöht sich die Attraktivität der Nutzung eines solchen Produktes. Halten wir fest: Animojis stellen eine neue, spielerische Kommunikationspraxis dar, die in der Forschung mehr Aufmerksamkeit verdient. Dabei ist es wichtig zu bedenken, dass Animojis mit den von ihnen produzierten Kommunikaten gleichzeitig Informationen preisgeben und verbergen. Das bedeutet, dass man sich durch die Verwendung von Animojis - im Gegensatz zu Sprachnachrichten - zwar auf der visuellen Ebene der herkömmlichen Kommunikation annähert. Gleichzeitig distanziert man sich aber auch von der Realität, da durch das animierte Emoji oder das Memoji die Person der Sender*innen verfremdet wird. Besonders interessant wäre es daher zu untersuchen, wie mit Animojis gleichzeitig Informationen preisgegeben und verborgen werden. Bibliographie Androutsopoulos, Jannis (2010). Multimodal - intertextuell - heteroglossisch: Sprach- Gestalten in «Web 2.0»-Umgebungen. In: Deppermann, Arnulf / Linke, Angelika (Hrsg.). Sprache intermedial. Stimme und Schrift, Bild und Ton. Berlin / New York: De Gruyter, 419-445. Bakhtin, Mikhail (1986). Speech genres and other late essays. Austin: University of Texas Press. Animojis 83 Browne, Simone (2015). Dark matters: On the surveillance of blackness. Durham: Duke University Press. Dürscheid, Christa / Siever, Christina Margrit (2017). Jenseits des Alphabets - Kommunikation mit Emojis. Zeitschrift für germanistische Linguistik, 45: 2, 256-285. Dürscheid, Christa / Frick, Karina (2014). Keyboard-to-Screen-Kommunikation gestern und heute: SMS und WhatsApp im Vergleich. In: Mathias, Alexa et al. (Hrsg.). Sprachen? Vielfalt! Sprache und Kommunikation in der Gesellschaft und den Medien. Eine Online-Festschrift zum Jubiläum von Peter Schlobinski. Hannover: Networx 64, 149-181. Abrufbar unter: https: / / www.mediensprache.net/ de/ networx/ docs/ networx-64.aspx (Stand: 30. 12. 2020) Elder, Alexis (2018). What words can’t say. Emoji and other non-verbal elements of technologically-mediated communication. Journal of Information, Communication and Ethics in Society, 16: 1, 2-15. Gkoni, Nefeli (2017). «One More Thing … » - A critical approach to the Apple 2017 Keynote Presentation. In: Masters of Media. Abrufbar unter: https: / / mastersofmedia. hum.uva.nl/ blog/ 2017/ 09/ 25/ one-more-thing-a-critical-approach-to-the-apple- 2017-keynote-presentation/ (Stand: 30. 12. 2020) Howind, Felix (2020). Die Verwendung von Sprachnachrichten in WhatsApp-Kommunikation. Networx 89. Abrufbar unter: http: / / www.mediensprache.net/ networx/ networx-89.pdf (Stand: 30. 12. 2020) König, Katharina / Hector, Tim Moritz (2017). Zur Theatralität von WhatsApp-Sprachnachrichten. Nutzungskontexte von Audio-Postings in der mobilen Messenger- Kommunikation. Networx 79. Abrufbar unter: https: / / www.mediensprache.net/ de/ networx/ docs/ networx-79.aspx (Stand: 30. 12. 2020) Herring, Susan et al. (2020). Animoji performances: «Cuz I can be a sexy poop.» Language@Internet 18, article (1). Abrufbar unter: https: / / info.sice.indiana.edu/ ~herring/ pubs.html (Stand: 30. 12. 2020) Herring, Susan / Martinson, Anna (2004). Assessing gender authenticity in computermediated language use: Evidence from an identity game. Journal of Language and Social Psychology, 23: 4, 424-446. Abrufbar unter: https: / / info.sice.indiana.edu/ ~herring/ pubs.html (Stand: 30. 12. 2020) Holly, Werner (2011). Medien, Kommunikationsformen, Textsortenfamilien. In: Habscheid, Stephan (Hrsg.). Textsorten, Handlungsmuster, Oberflächen: Linguistische Typologien der Kommunikation. Berlin / New York: De Gruyter, 144-163. McRae, Shannon (1996). Coming apart at the seams: Sex, text and the virtual body. In: Cherny, Lynn / Weise, Elizabetha (Hrsg.). Wired_Women. Seattle: Seal Press, 242-263. Österle, Hubert (2020). Life engineering: machine intelligence and quality of life. Cham: Springer. Schenk, Joachim / Rigoli, Gerhard (2010). Mensch-Maschine-Kommunikation. Grundlagen von sprach- und bildbasierten Benutzerschnittstellen. Berlin / Heidelberg: Springer. 84 Roberto Tanchis & Leonie Walder Schuppisser, Raffael (2019). Das Jahrzehnt der Stimme bricht an: Mithilfe von Technologie ersetzt Sprechen zunehmend das Schreiben. Tagblatt. Abrufbar unter: https: / / www.tagblatt.ch/ leben/ das-jahrzehnt-der-stimme-bricht-an-mithilfe-von-technologie-ersetzt-sprechen-zunehmend-das-schreiben-ld.1177466 (Stand: 30. 12. 2020) Stöckl, Hartmut (2011). Sprache-Bild-Texte lesen. Bausteine zur Methodik einer Grundkompetenz. In: Diekmannshenke, Hajo / Klemm, Michael / Stöckl, Hartmut (Hrsg.). Bildlinguistik. Theorie - Methode - Fallbeispiele. Berlin: Erich Schmidt, 45-70. Silvio, Terry (2010). Animation: The new performance? Journal of Linguistic Anthropology, 20: 2, 422-438. Stark, Luke (2018). Facial recognition, emotion and race in animated social media. First Monday. Abrufbar unter: https: / / journals.uic.edu/ ojs/ index.php/ fm/ article/ view/ 9406 (Stand: 30. 12. 2020) Die weinende, virtuelle Influencerin Das Internetphänomen «Lil Miquela» Mia Jenni 1 Vorbemerkungen In selfies, you can see the freckles on Miquela’s face; her gap-toothed smile. But up close, her brown hair, often pulled up into Princess Leia-esque buns, looks airbrushed (Twitter users have noted that her flyaway frizz always falls in the same pattern.) Her skin reads as smooth as the glass screen that separates us [Leser*innen des Textes und dessen Autorin, MJ ]. And when you peer into Miquela’s big brown eyes, she fails the ultimate test of humanity. (Petrarca 2018) Mit diesen Worten beschreibt Emilia Petrarca die Influencerin Miquela Sousa, besser bekannt unter dem Namen «Lil Miquela» (siehe Petrarca 2018). Mit 2,4 Millionen Follower*innen auf Instagram (siehe Instagram 2020a) und 191 000 Abonnent*innen auf der Videoplattform Youtube (siehe Youtube 2020) erreicht sie mit ihren Einträgen in den Sozialen Medien eine beachtliche Anzahl an Menschen. Anders jedoch als bei vielen anderen Influencer*innen auf Instagram , Facebook , Youtube oder TikTok handelt es sich bei Lil Miquela nicht um eine reale Person; es ist ein Internetphänomen. Sie selbst bezeichnet sich als «changeseeking bot» (Instagram 2020). Realität und Wahrnehmung spalten sich hier auf, was auch die etwas unheimlich anmutende Beschreibung von Lil Miquela zu Beginn dieses Beitrags erklärt. Was Petrarca beim Betrachten der Bilder der Influencerin erlebt, nennt man den ‹uncanny valley effect› (siehe dazu auch die Beiträge von Knoepfli und Staubli i. d. B.). 1 Für Petrarca stellt es eine Herausforderung dar, festzustellen, ob Lil Miquela menschlich ist und welche Faktoren 1 Dieser Effekt bezeichnet ein bestimmtes Verhältnis zwischen Mensch und Maschine: Bis zu einem gewissen Grad wirken Roboter, Animationen oder Ähnliches vertrauenswürdiger auf Menschen, je menschenähnlicher sie gestaltet sind. Ab einem gewissen Punkt jedoch wird es schwierig, festzustellen, warum das Gegenüber menschlich wirkt und warum wiederum nicht. Der Grad der Anthropomorphität ist zu hoch, obwohl nicht perfekt. Das Vertrauen schlägt in Misstrauen um, positive Gefühle kehren ins Negative. Diese Unsicherheit löst ein unheimliches Gefühl aus, man befindet sich im ‹uncanny valley› (siehe Cheetham 2014: 13). 86 Mia Jenni sie so anthropomorph machen. Damit steht Petrarca nicht alleine da. Eingangs des Artikels fragt eine (echte) junge Influencerin bei ihr nach: «She’s not real, right? » (Petrarca 2018). Andere Twitteruser*innen spekulieren über Lil Miquelas Haare, um ihre Echtheit in Frage zu stellen, und hinterlassen suggestive Kommentare wie «Yes she’s real, she’s a student in visual arts and such so she works on her pictures she takes of herself». Immer wieder geben sie ihre Irritierung kund: «You are so fucking irrelevant. If it weren’t for Shane Dawson [ein bekannter, dokumentierender Youtuber, MJ ] you wouldn’t be this popular and nobody would care about your fake ass. […]» oder simpler «God wtf are you real? » (Petrarca 2018). Das sind Spekulationen, die erstaunen, bestätigt Lil Miquela doch selbst immer wieder, kein Mensch zu sein. Anscheinend gilt ihr Wort weniger als die Wahrnehmung der Follower*innen. Ein Sachverhalt, der irritiert und folgende Fragen aufwirft: 1) Welche Faktoren führen dazu, dass Lil Miquela als menschlich wahrgenommen wird? 2) In welcher Beziehung steht dies zur Repräsentation von menschlichen Influencer*innen in Sozialen Medien? Denn selbst wenn Lil Miquela explizit schreibt, sie sei künstlicher Natur, so sind ihre Beiträge kaum von der Kommunikation anderer Influencer*innen zu unterscheiden. Es scheint folglich, als enthalten die Äusserungen und Publikationen Lil Miquelas gewisse Stilmittel, die sie als ‹natürlich› wahrnehmbar machen. Im Folgenden wird versucht, diese Mittel auf der Basis einer semiotischen und multimedialen Analyse zu fassen. Dabei beschränkt sich die Untersuchung auf die Plattform Instagram , auf welche kurz eingegangen wird. Grundlage der Analyse bilden vier Instagramposts Lil Miquelas, die sie zwischen September 2019 und Juni 2020 veröffentlichte. Es werden sowohl der schriftliche wie auch der bildliche Teil der Posts analysiert, akustische Elemente bleiben ausgeklammert. 2 Im nächsten Abschnitt werden zunächst einige Hintergrundinformationen zur Plattform Instagram sowie dem Terminus «Influencer*innen» gegeben (Kap. 2). Ebenfalls wird in diesem Kapitel das Phänomen der künstlichen Influencer*innen genauer beschrieben. Des Weiteren werden Lil Miquela sowie ihre Erschaffer*innen beleuchtet. Die darauffolgende semiotische Analyse (Kap. 3) basiert auf den Forschungsansätzen von Hartmut Stöckl und Winfried Nöth. Zuletzt folgt ein Fazit, das die Erkenntnisse in einem grösseren gesellschaftstheoretischen Kontext zu verankern versucht. 2 Selbstverständlich könnten auch diese untersucht werden, um die Lebensechtheit der Influencerin zu beschreiben. Davon wird im Rahmen dieses explorativen Beitrags abgesehen. Nicht zuletzt bedürfte es auch einer quantitativen Vergleichsstudie von menschlichen und künstlicher Influencer*innen, um wiederholende Muster aufzudecken. Die weinende, virtuelle Influencerin 87 2 Hintergrundinformationen 2.1 Influencer*innen Der Terminus «Influencer» wurde bereits im Jahr 1944 durch den Soziologen Paul Lazardsfeld geprägt. Seine Studie «The People’s Choice» handelt von Personen, die die Meinung anderer im Rahmen eines Wahlkampfes prägen, sogenannten «opinion leaders» (siehe Eror 2018). Das Bestreben, solche «opinion leaders» für die eigenen Vermarktungszwecke zu verwenden, gibt es demnach schon lange. Und wenn heute beispielsweise die schweizerische Telekomfirma Sunrise eine Plakatwerbungskampagne mit dem Tennisstar Roger Federer startet, nutzt sie ebenfalls Federers Rolle als «opinion leader». Influencer*innen im heutigen Verständnis beeinflussen die Meinungen und Bedürfnisse ihrer Abonnent*innen. Dies geschieht selten im öffentlichen, physischen Raum, sondern mehrheitlich über virtuelle Kanäle wie Youtube , TikTok , Facebook , Twitter , Reddit oder Instagram . Modemarken, Feriendestinationen, Festivals, Automarken und viele weitere Unternehmen nutzen die Macht der Influencer*innen, um ihre Produkte anzubieten. Dies gelingt, laut der Onlinemarketing-Firma Advidera , deshalb, weil die Influencer*innen ein hohes Ansehen bei ihren Follower*innen geniessen, eine bestimmte Zielgruppe vertreten, über eine hohe Glaubwürdigkeit verfügen, eine hohe Aktivität in den Sozialen Medien aufweisen und viele Abonnent*innen haben (Clement o. J.). Sucht man nach soziologischen oder linguistischen Forschungstexten zum Phänomen der Influencer*innen, so wird man kaum fündig. Dagegen häufen sich Marketingtipps für Influencer*innen und für Firmen, die mit ihnen zusammenarbeiten möchten. Der momentane Forschungsfokus liegt klar auf dem ökonomischen Potential dieser (Berufs-)Gruppe. Und dennoch lassen sich keine verlässlichen Zahlen dazu finden, wie gross der Einfluss einer Influencer*in auf den Umsatz einer Firma tatsächlich ist. Aufschluss über den Glauben der Firmen an die ökonomische Macht der Influencer*innen geben jedoch deren Gagen. Eine der berühmtesten deutschen Influencerinnen, «Bibisbeautypalace», mit 5,5 Millionen Follower*innen auf Instagram (siehe Instagram 2020b), kann vermutlich mit einer Gage von 27 900 US -Dollar pro Post rechnen (siehe Schär 2018). Mit ihren 2,4 Millionen Abonnent*innen bewegt sich Lil Miquela zwar nicht in dieser Grössenordnung, weist aber bereits ein beträchtliches Umsatzpotential auf. 88 Mia Jenni 2.2 Instagram Bei Instagram handelt es sich um eine kostenlose Social-Media-Plattform mit weltweit rund 800 Millionen Benutzer*innen (siehe Instagram 2020c). Instagram wird vor allem über eine Applikation auf dem Smartphone benutzt, mittlerweile existiert aber auch die Möglichkeit, die Plattform über den Computer zu nutzen. Es gibt normale und verifizierte Instagram -Accounts: Verifizierte Accounts haben ein blaues Häkchen hinter ihrem Benutzernamen, verfügen über eine grosse Anzahl Follower*innen und geniessen mehr Rechte als normale Accounts. Jede*r Benutzer*in kann auf ihrem oder seinem Profil (meist quadratische) Bilder veröffentlichen, das heisst im eigenen ‹Feed› platzieren und anderen Benutzer*innen folgen. Dies führt dazu, dass diese Bilder auf der ‹Timeline› der jeweiligen Benutzer*in auftauchen. Grundsätzlich besteht die Möglichkeit, die eigenen Profile privat zu gestalten. In diesem Fall muss man als Benutzer*in den Anfragenden zuerst Zutritt zum Profil gewähren, damit die eigenen Bilder sichtbar werden. Ähnlich wie bei Twitter ist es auch auf Instagram möglich, nach Benutzernamen und Schlagworten, sogenannten ‹Hashtags›, zu suchen und Emojis in die Texte einzubauen. Ebenso müssen die Benutzernamen nicht den Klarnamen der Personen entsprechen. Als Instagram -Benutzer*in kann man alle öffentlichen und privaten Bilder, deren Zugang man erhalten hat, liken und kommentieren. Ebenso besteht die Möglichkeit, etwas in die ‹Story› zu posten. Diese Bilder bleiben 24 Stunden zugänglich und sind nachher für andere Betrachter*innen nicht mehr abrufbar. In diesen Storys können auch öffentliche Bilder anderer geteilt werden. Account A könnte also ein Bild von Account B in seiner Story teilen, was Account C dann sehen würde, und dieser Account C könnte sich dann dazu entscheiden, dieses Bild ebenfalls zu teilen und sogar Account B zu folgen. Neben Bildern steht es User*innen auch offen, über das Feature ‹IG TV› [Instagram TV, MJ] längere Videos von bis zu zehn Minuten hochzuladen (wenn es sich um einen verifizierten Account handelt, sogar bis zu sechzig Minuten lange Videos). 2.3 Lil Miquela Lil Miquela ist neunzehn Jahre alt (siehe Miquela o. J.). Ihr Account existiert seit 2016 (siehe Shieber 2018), ist verifiziert und öffentlich. Im Gegensatz zu vielen anderen Influencer*innen handelt es sich bei ihr allerdings, wie bereits erwähnt, nicht um eine reale Person. Dazu ein Beispiel: Die weinende, virtuelle Infl uencerin 89 Abb. 1: Instagrampost von Lil Miquela, 28. 06. 2020 Die Haut wirkt zu makellos und ihr Gesicht ist näher an einer Trickfi lmanimation als an der menschlichen Physiognomie. Die Blumen und der Raum hingegen scheinen real zu sein. Dies stellt sich als wiederholendes Muster heraus: Die animierte Lil Miquela befi ndet sich an einem fotografi erten, realen Ort, manchmal interagiert sie auf den Bildern auch mit existierenden Menschen. Als Infl uencerin setzt sie sich für altruistische, notabene real existierende Projekte ein; zurzeit macht sie in ihrer Beschreibung, der sogenannten ‹Bio›, z. B. auf die Black Lives Matter Bewegung aufmerksam. Deshalb bezeichnet sie sich auch als «change-seeking bot». 2018 sorgte sie für Schlagzeilen, als ihr Account von einer anderen Infl uencerin gehackt wurde. Diese nennt sich «Bermudaisbae», ist blond, politisch konservativ ausgerichtet und ebenfalls ein Bot (siehe Eror 2018). Tagelang postete Bermudaisbae Bilder von sich über den bereits populären Kanal Lil Miquelas. Beendet wurde dies erst durch ein angebliches Treff en der beiden Bots, bei welchem Lil Miquela über die eigene Bot-Natur und jene der Kontrahentin aufgeklärt wurde: 90 Mia Jenni Abb. 2: Instagrampost von Lil Miquela, 19. 04. 2018 Abb. 3: Instagrampost von Lil Miquela, 19. 04. 2018. Seit diesem Vorfall geben sich die beiden Accounts als Freundinnen aus (siehe Shieber 2018) und Lil Miquela verbreitet das Narrativ, sie sei eine Laborkreation der Firma Cain Intelligence . 3 Nach dem Treff en mit Bermudaisabe habe sie die Skrupellosigkeit ihrer «Mutter»fi rma erkannt und darauff olgend eine neue Roboterfamilie und eine neue Identität gefunden. Nun verfüge sie über eine 3 Der Name Cain (dt.: Kain) muss als Anspielung auf das Buch Genesis des Alten Testaments gelesen werden. Kain erschlägt darin seinen Bruder Abel und gilt somit als alleiniger Nachfolger von Adam und Eva. Die weinende, virtuelle Influencerin 91 brasilianische und spanische Herkunft und versuche sich als Musikerin (siehe Miquela o. J.). Neben Bermudaisbae und Lil Miquela existieren mittlerweile noch weitere, auf diese Weise animierte Influencer*innen, die untereinander und nach aussen interagieren. Kreiert wurden sie von der in Los Angeles basierten Startup-Firma brud , die Lil Miquela als ihre neue Roboterfamilie bezeichnet (siehe Shieber 2018). brud wurde unter anderem von Trevor McFedries gegründet, der bereits mit Musiker*innen wie Ke$ha, Katy Perry und BANKS zusammenarbeitete. Sein Team und er orchestrierten auch das oben erwähnte Accounthacking-Melodrama, selbst wenn sie zunächst verlauten liessen, eine weitere Firma sei darin involviert gewesen (siehe Shieber 2018). Über die Firma brud und ihre Intentionen ist wenig bekannt. Die Webseite besteht aus einem öffentlich zugänglichen Google-Drive-Dokument, das mit folgenden Zeilen beginnt: «Brud is reading War of the Worlds on the radio a transmedia studio that creates digital character driven story worlds» (brud o. J.). Die durchgestrichene Aussage referiert auf eine Begebenheit aus dem Jahre 1938. Damals wurde die Hörspielumsetzung von Orson Welles Roman «War of the Worlds» vom US -amerikanischen Radiosender CBS übertragen. Daraufhin gerieten einige Zuhörer*innen in Panik, da sie nicht differenzieren konnten, ob es sich beim Gehörten um Realität oder Fiktion handelte, und sie befürchteten, Aliens griffen nun die Erde an (siehe Schwartz 2015). Nach diesem kurzen Satz folgt auf der brud -Webseite eine knappe Frage und eine Antwort-Sektion. Unter anderem ist Folgendes zu lesen: «Is Miquela real? - As real as Rihanna» (brud o. J.). Bereits durch diese kurze Frage-Antwort-Sequenz deutet sich die Absichten der Firma an, sofern ihrer Webseite Glauben geschenkt werden darf: Getestet werden soll die Grenze zwischen dem, was als Realität wahrgenommen, und dem was, als Fiktion klassifiziert wird. Kann die Social-Media-Präsenz des Popstars Rihanna überhaupt noch als real bezeichnet werden, wenn klar ist, dass jedes Foto gestellt ist und Bildbearbeitungen unterlief ? Es wird versucht, die Kategorien gegeneinander auszuspielen. Eine Orientierung bietet Welles Radiosendung. So schien die Situation einer Invasion durch Aliens 1938 höchst absurd und doch gelang es, einen Teil der Hörer*innenschaft zu überzeugen. Derselbe Effekt lässt sich bei Lil Miquela beobachten: Trotz ihrer offensichtlichen Künstlichkeit schenken ihre Follower*innen ihr Aufmerksamkeit, sogar Vertrauen. Dies ist wohl auch ein Effekt ihrer altruistisch inszenierten Persönlichkeit. 92 Mia Jenni 3 Analyse In der folgenden Analyse stehen, wie angekündigt, vier Posts von Lil Miquela im Fokus. Die Auswahl soll einen Überblick über die verschiedenen Arten ihrer Instagram -Aktivität geben und dazu dienen, herauszufi nden, weshalb Lil Miquela von vielen ihrer Follower*innen als menschlich wahrgenommen wird. 3.1 Das Spiegelselfi e Bei diesem Post handelt es sich um den bereits weiter oben gezeigten Post Lil Miquelas: Abb. 4: Instagrampost von Lil Miquela, 28. 06. 2020 Das Bild sagt zunächst wenig über die Umstände oder die Gründe für diesen Post aus, weshalb die Leser*innen zum Text wechseln müssen, um ihn zu verstehen: «2020 has proven that Ariana Grande’s ‹No Tears Left to Cry› ain’t my song … evidently I’ve got more». 2020 verweist einerseits auf den Zeitpunkt der Aufnahme. Andererseits kann das Jahr 2020 - aufgrund der Covid-19-Pandemie und deren Auswirkungen auf Gesellschaft, Wirtschaft und Sozialleben - auch als Die weinende, virtuelle Influencerin 93 Symbol für eine Zeit gelesen werden, die alle Pläne sabotiert und alle Vorstellungen von Normalität aus den Angeln hebt. Lil Miquelas Reaktion darauf drückt sie mit dem Liedtitel «No Tears Left to Cry» aus. Diese Liedauswahl, in Kombination mit der Nennung der Sängerin Ariana Grande, referiert auf folgende Begebenheit: 2017 kam es an einem Konzert Ariana Grandes in Manchester zu einem terroristischen Anschlag. Danach wurde es länger ruhig um die Sängerin, bis sie sich mit diesem Lied zurückmeldete. Wenn Grande über die fehlenden Tränen singt, dann referiert sie darauf, Positivität und Liebe in der Welt verbreiten zu wollen, anstatt Trauer und Hass (siehe LeDonne 2018). Dieses Musikstück verweist demnach auch auf die Überwindung einer Phase unverschuldeter Trauer. Lil Miquela aber scheitert daran, ihre Trauer hinter sich zu lassen. Die drei Punkte in der Bildbeschreibung symbolisieren eine Denkpause. Diese löst bei den Leser*innen gleich mehrere Reaktionen aus. Einerseits wirkt es so, als legte auch Lil Miquela beim Schreiben eine Pause ein, um sodann zuzugeben, dass sie weint. Andererseits lässt die Pause den Follower*innen auch Zeit, die Verweise zu verstehen, damit der letzte Teil des Satzes «evidently I’ve got more» [offensichtlich habe ich noch mehr Tränen übrig, MJ ] als Umkehrschluss verstanden werden kann. Dieser letzte Teil weist implizit auf das Bild. Der Blick wird durch den Text also auf das Bild zurückgelenkt. Allerdings sind da auf den ersten Blick keine Trauer oder Tränen erkennbar. Das Fehlen der als angekündigten Kohärenz irritiert. Diese stellt sich erst ein, wenn man das Genre des Bildes, ein Selbstportrait mittels Handykamera im Spiegel, genannt ‹Spiegelselfie›, betrachtet. Ein Selfie ist immer eine Momentaufnahme von sich selbst zu einem bestimmten Zeitpunkt. Der Text weist indexikalisch darauf hin, dass Trauer das überwiegende Thema dieses Augenblicks ist. Interessant ist auch die Rolle des Spiegels, der als Symbol der Selbstbetrachtung und Selbstreflexion gelesen werden kann. Lil Miquela wird hier als denkendes und fühlendes Wesen dargestellt; sie wirkt durch das Mitteilen ihrer Gefühle ehrlich, ja authentisch. Der Einsatz des Spiegels ist aber auch ein Metakommentar zur Plattform Instagram und ihren Nutzer*innen. Ein Spiegel macht aus der Realität immer eine Abbildung. Vor einem Spiegel betrachtet man sich und posiert automatisch auf jene Art und Weise, wie man sich selbst sehen möchte. Auch Lil Miquela nimmt eine derartige Pose ein. Das Abgebildete nähert sich deshalb eher einer Vorstellung, einem unmittelbaren Objekt oder einem Ikon der Person als der Wirklichkeit an. Dieses Entfernen von der Realität wird durch die zusätzliche Künstlichkeit Lil Miquelas unterstrichen. Sie wird selber zum Hinweis des Kalküls, mit welchem Inhalte auf der Plattform Instagram , wo die meisten Fotos der Influencer*innen geschönt sind, publiziert werden. Die Fotografie des Spiegelbildes verdoppelt die Künstlichkeit und verstärkt die Aussage über die idealisierte Bildwelt auf Instagram . 94 Mia Jenni Durch den Spiegel und die Aktivität, sich selbst fotografieren zu können, gleicht Lil Miquela einer tatsächlich Lebenden. Dies wird durch die Anwesenheit der vielen Pflanzen im Raum verstärkt. Indem sich Lil Miquela mit diesen umgibt, fügt sie sich in die Realität, in die Natur ein und überträgt deren Lebendigkeit auf ihre eigene Existenz - auch, weil Pflanzen gepflegt werden müssen und das kaum durch eine künstliche Entität vollbracht werden kann. Die Flora braucht Wasser und Zuneigung, um zu wachsen und zu blühen, wie es die Orchideen im Vordergrund tun. Das Wachsen und Blühen wird in das Bild gebracht und kann auf Lil Miquela übertragen werden. Stellt der geschriebene Text fest, dass sie traurig ist, obwohl sie dachte, dies überwunden zu haben, so verweist das Bild proleptisch darauf hin, dass sie an dieser Situation wachsen wird. Bild und Text haben bei diesem Post also eine Relais-Funktion. Der Grund von Lil Miquelas Trauer wird, ebenfalls als komplementärer Teil, durch den Kommentar ihrer Freundin Bermudaisbae angedeutet. Diese schreibt: «omg - if he makes you cry one more time». Wer mit «he» gemeint ist, bleibt beim Betrachten dieses Posts unklar. Der Hinweis auf Tränen und die Erwähnung eines männlichen Konterparts referieren vermutlich auf einen früheren Post, der Lil Miquela weinend zeigt. In diesem schreibt sie über das schwierige Verhältnis mit einem Jungen, den sie «angel boi» nennt: Die weinende, virtuelle Infl uencerin 95 Abb. 5: Instagrampost von Lil Miquela, 19. 09. 2019 Das Bild zeigt Lil Miquela mit verschmierten Schminkspuren auf den Wangen und traurig, aber direkt in die Kamera blickend. Die Spuren stehen indexikalisch dafür, dass Lil Miquela geweint hat und überhaupt Tränen vergiessen kann. Das Bild ist in seiner Gänze ein Symbolbild, das ungemachte Bett im Hintergrund und die Mascara-Spuren auf der Wange erinnern an typische Szenen aus Coming-of-Age-Filmen, in denen Teenager*innen vor Liebeskummer weinend auf dem Bett liegen. Als Symbolbild kann es betrachtet werden, weil es näher am Ideal als an der Realität einer weinenden Person ist. Der Lipgloss wirkt frisch aufgetragen, die Augen sind weder verquollen, noch ist die Nase gerötet und das Make-Up rund um die Augen sitzt weiterhin perfekt. Diese Widersprüchlichkeit zwischen dem Ausdruck der eigenen Traurigkeit und der gleichzeitigen nahezu perfekten Fotogenität kann als Index für die performative Kommunikation auf Instagram gelesen werden. Sogar der intimste Moment der psychischen Verletztheit wird zu einer Darstellung der eigenen Person. Dieser performative Aspekt wird durch den bereits erwähnten, direkten Blick in die Kamera unterstrichen. Lil Miquela zieht sich in ihrer Trauer nicht zurück, sondern lässt alle daran teilhaben. Der direkte Blick in die Kameralinse weist hier indexikalisch darauf hin, dass Lil Miquela vor ihren Follower*innen nichts zu verbergen hat 96 Mia Jenni und ehrlich mit ihrem Publikum umgeht. Es ist ein vertrauensstiftendes Element. Bei diesem Post stehen Geschriebenes und Bild in einem Verankerungsverhältnis: Die im Kommentar angekündigten Tränen sind auch auf dem Bild zu fi nden. Der Blick wird vor allem auf den Gemütszustand Lil Miquelas gelenkt und die Umgebung grösstenteils ausgeblendet. 3.2 Lil Miquela und Ashley O. Lil Miquela nimmt die Rezipierenden aber nicht nur in ihre Gefühlswelt mit oder inszeniert ihre Beziehungen zu anderen Bots und Menschen, sie kommentiert ihre eigene Identität des Öfteren auch selber. Ein mehrschichtiges Beispiel ist folgender Post vom 11. Dezember 2019: Abb. 6: Instagrampost von Lil Miquela, 11. 12. 2019 Im Text geht Lil Miquela auf die Umstände und ihre Befi ndlichkeit auf diesem Foto ein. Das Smiley mit den hängenden Mundwinkeln ist ein geläufi ges Symbol für schlechte Stimmung. Die Infl uencerin scheint aufgrund ihrer Schreibblockade unglücklich zu sein. Im nächsten Teil der Aussage erzählt sie, was sie dagegen unternimmt. Dabei verwendet sie die Lexeme «inspo» und «cosplay». Die weinende, virtuelle Influencerin 97 Beide Begriffe deuten ihre Expertise als Influencerin im virtuellen Raum an. «inspo», kurz für «inspirational», wird seit Längerem als Instagram -Hashtag für verschiedene Bilder verwendet, sei es um Motivationsposts für Diäten, einen gesunden Lebensstil oder besseres Studieren zu kategorisieren. Dabei verweist das Wort auf eine tiefere Bedeutung des beigefügten Bilds. Es ist nicht bloss pittoresk anzuschauen, sondern soll die Benutzer*innen dazu inspirieren, ihr Leben möglichst erfolgreich zu gestalten (siehe Stadler 2016). «cosplay» bezeichnet eine ursprünglich im ostasiatischen Raum entstandene Art des Verkleidens, bei dem man sich eine Figur der Popkultur aussucht und diese dann portraitiert. Weltweit gibt es mittlerweile jährlich hunderte von Cosplay-Zusammenkünften. 4 In ihrer schriftlichen Äusserung lässt Lil Miquela mittels drei Punkten eine Lücke für den Namen der Figur, die sie durch das Cosplay darstellen möchte. Diese Leerstelle fordert die Betrachtenden auf, die Antwort an einem anderen Ort des Textes zu finden. Der Blick schweift deshalb zum Bild; das Geschriebene und die Abbildung stehen auch hier in einem Relaisverhältnis. Dazu muss man Folgendes wissen: Mitte 2019 veröffentlichte der Film- und Serienstreamingdienst Netflix neue Folgen der dystopischen Serie Black Mirror (s. a. den Beitrag von Seebass i. d. B.). Die Serie portraitiert eine Gesellschaft in unserer nahen Zukunft, in welcher aufgrund der Technologisierung und Digitalisierung immer wieder Katastrophen geschehen. In der Folge «Rachel, Jack and Ashley, Too», die am 5. Juni 2019 freigeschaltet wurde, spielt die US -amerikanische Sängerin Miley Cyrus den Popstar ‹Ashley O.›. Auf der Bühne trägt diese Figur einen violetten Bob als Perücke, wie Lil Miquela es auf dem Foto tut. Ashley O. verkauft elektrische, redende Spielzeugpuppen, genannt ‹Ashley Too› (vergleichbar mit Sprachassistent*innen wie Alexa oder Siri ). Spricht man mit Ashley Too, kann sie akkurat reagieren. Im Verlauf der Serienfolge wird immer offensichtlicher, dass Ashley Too nicht nur eine Spielerei ist, sondern eigene Gedanken entwickeln und Kinder manipulieren kann (siehe Hibberd 2019). Trägt nun Lil Miquela eine solche Perücke, dann zeigt dies gleich mehrere Sachverhalte an. Einerseits stellt sie sich in eine Linie mit einer erfolgreichen Sängerin, andererseits verweist sie auf den unheimlichen Aspekt dieser Black Mirror -Folge. Auch die künstliche Lil Miquela behauptet in ihren Posts, eigene Gedanken und Gefühle zu haben. Diese Verselbstständigung eines Bots und die Manipulierung ihres Publikums schwingt durch das Tragen der Perücke mit. Und wie Ashley O. besitzt auch Lil Miquela die Möglichkeit, ihre Follower*innen zu beeinflussen. Sie trägt Markenkleider und preist sie im Text an: 4 Der Ausdruck wird auch in den sozialen Netzwerken rege als Hashtag genutzt. Im September 2020 sind auf Instagram unter diesem Hashtag 45,8 Millionen Einträge zu finden (siehe Instagram 2020d). 98 Mia Jenni Abb. 7: Instagrampost von Lil Miquela, 20. 03. 2020 Des Weiteren nimmt die Verwendung der Perücke Bezug auf die Realität, denn selbst wenn Ashley O. fi ktiver Charakter einer Fernsehserie ist, landete sie 2019 mit ihrem Lied «On a Roll» in der realen Welt einen Hit (siehe Billboard 2019). Lil Miquela verweist mit dem Tragen der Perücke und den eigenen Schwierigkeiten, ein Lied zu komponieren, auf diese Begebenheit. Gleichzeitig kann «On a Roll» für die Möglichkeit stehen, dass reale Sänger*innen für erfolgreichen Lieder keine Voraussetzung mehr sind, sondern dieser Erfolg auch Lil Miquela und anderen künstlichen Charakteren off en steht. Andererseits schreibt Lil Miquela weiter oben (siehe Abbildung 5) « NOT me.». Das Schreiben in Majuskeln ist ein Symbol für die Wichtigkeit der Aussage. Sie möchte explizit nicht mit diesem Charakter verwechselt zu werden, obwohl Parallelen bestehen. Dies beweist, dass ihr sehr wohl bewusst ist, wer Ashley O. ist. Das ist ein Index dafür, dass sie, trotz ihres Bot-Daseins, sehr wohl mit derzeitigen popkulturellen Entwicklungen vertraut ist. Lil Miquelas Aussage endet damit, ihre Follower*innen zu fragen: «What should I do? ? ». Diese Nachfrage ist vertrauensstiftend. Die Infl uencerin wird nicht als allwissend oder gar perfekt dargestellt, sondern als refl ektierendes Individuum, das ab und zu einen Rat gut gebrauchen könnte. Die weinende, virtuelle Influencerin 99 4 Fazit Eingangs wurde das unheimliche Gefühl thematisiert, welches sich bei einigen Betrachter*innen einstellt, wenn sie durch den Instagramfeed der Influencerin Lil Miquela scrollen. Dieses Gefühl wird durch das Unvermögen, Menschliches und Künstliches klar voneinander abgrenzen zu können, ausgelöst. Dagegen nützt selbst die Eigenaussage der Influencerin, keine reale Person zu sein, nichts. Es gibt viele Fans, die sich sowohl für ihre Musik als auch für ihren Lebensstil begeistern können und von Lil Miquela beeinflusst werden. Die Analyse hat gezeigt, dass die Firma brud sich gleich mehrerer Stilmittel bedient, um Lil Miquela als Influencerin zu etablieren. Einerseits wird Lil Miquela in den Posts als junge, reflektierende Frau dargestellt, die versucht, als Sängerin in der Musikwelt Fuss zu fassen, und die sich gerne mit Freund*innen trifft. Dabei entfalten sich immer wieder Dramen, neue Liebschaften entstehen, Gefühle werden inszeniert. All dies wirkt echt. Doch andererseits, im Gegensatz zu realen Influencer*innen, existiert Lil Miquela nur im virtuellen Raum. Alle ihre Lebensereignisse müssen auch da abgebildet werden, sonst geschehen sie nicht. Können Menschen die Hochs und Tiefs des eigenen Soziallebens von den Sozialen Medien fernhalten, so muss Lil Miquela sie auf diesen Plattformen erleben. Die virtuelle Influencerin ist damit eine Garantie für Melodramatisches, ihre Posts wirken fast wie eine Soap Opera in Instagramform. Dies bindet Follower*innen, die dann zugleich auch zu Konsument*innen des Spektakels werden. Interessant wird die Figur Lil Miquela zudem durch die ausgeklügelte Selbstreflexion und Offenlegung der eigenen Künstlichkeit. Dadurch nimmt sie erstens allen Kritiker*innen den Wind aus den Segeln und zweitens wird jeder Post so zu einem Kommentar über die Social-Media-Plattform Instagram selbst. Weint man, muss man möglichst fotogen die Tränen inszenieren. Ist man gerade von seinem Outfit begeistert, dann postet man ein Spiegelselfie, natürlich in perfekter Pose. Sucht man den Rat der Follower*innen, dann inszeniert man sich als junge, teilweise ratlose Person. Lil Miquela macht die Performanz oder, nach Guy Debord, das Spektakel auf Instagram offensichtlich. Es werden nur Teile der Wirklichkeit abgebildet, eine Pseudowelt wird erschaffen (siehe Debord 1992: 15). Dies geschieht implizit auch bei allen anderen Influencer*innen. Und genau darauf spielt das Unternehmen brud an, wenn es behauptet, Rihanna sei nicht realer als Lil Miquela. Die Künstlichkeit aller Profile scheint der jungen (realen) Influencerin, die Petrarca nach der Echtheit Lil Miquelas fragt, bewusst zu sein. Es bereitet ihr Schwierigkeiten, die Künstlichkeit Lil Miquelas zu definieren, weil sie bei sich selber scheitert, das Reale in ihrem Instagramfeed festzustellen. Anschliessend an diese Überlegungen zur virtuellen Influencerin Lil Miquela ergeben sich weitere Fragestellungen. Einerseits sollte neben Instagram auch 100 Mia Jenni die Selbstinszenierung von Influencer*innen auf anderen Plattformen erforscht werden. Des Weiteren könnte man der Frage nachgehen, wie Influencer*innen die Nutzer*innen der Sozialen Netzwerke in ihren Ausdrucksweisen beeinflussen (und vice versa). Interessant wäre es auch, die Parallelen und Differenzen von analogem und digitalem Marketing zu untersuchen, um der ökonomisch momentan stark wachsenden Macht der Influencer*innen Rechnung zu tragen. Bibliographie Billboard (2019). Is Miley Cyrus’ ‹Black Mirror› song ‹On a Roll› going to end up her biggest new hit? Abrufbar unter: https: / / www.billboard.com/ articles/ columns/ pop/ 8518583/ miley-cyrus-ashley-o-on-a-roll-success-black-mirror (Stand: 22. 12. 2020) Brud. Homepage. Abrufbar unter: http: / / brud.fyi/ (Stand: 22. 12. 2020) Cheetham, Marcus (2014). The Uncanny Valley Hypothesis: behavioural, eye-movement, and functional MRI findings. Zürich: Hochschulschrift. Clement, Tobias ( o. J. ). Influencer. Abrufbar unter: https: / / www.advidera.com/ glossar/ influencer/ (Stand: 22. 12. 2020) Debord, Guy (1992). La Société du Spectacle. Paris: Éditions Gallimard. Eror, Aleks (2018). Meet Lil Miquela, the AI Influencer on the Cover of Our New Print Issue. Abrufbar unter: https: / / www.highsnobiety.com/ p/ lil-miquela-cover-story-issue-16/ (Stand: 22. 12. 2020) Hibberd, James (2019). Black Mirror producers on that Miley Cyrus episode and a creepy pop star trend. Abrufbar unter: https: / / ew.com/ tv/ 2019/ 06/ 05/ black-mirrormiley-cyrus-episode-interview/ (Stand: 22. 12. 2020) Instagram (2020a). Followeranzahl Lil Miquela. Abrufbar unter: https: / / www.instagram.com/ lilmiquela/ (Stand: 25. 06. 2020). Instagram (2020b). Followeranzahl Bibis Beautypalace. Abrufbar unter: https: / / www. instagram.com/ bibisbeautypalace/ (Stand: 25. 06. 2020) Instagram (2020c). Nutzer*innenanzahl insgesamt. Abrufbar unter: https: / / about. instagram.com/ blog/ Instagram/ (Stand: 27. 06. 2020) Instagram (2020d). Anzahl Hashtag ‹cosplay›. Abrufbar unter: https: / / www.instagram. com/ (Stand: 30. 09. 2020) LeDonne, Rob (2018). How Ariana Grandes Sweetener came together. Abrufbar unter: https: / / www.vulture.com/ 2018/ 08/ how-ariana-grandes-sweetener-came-together. html (Stand: 22. 12. 2020) Miquela. Homepage. Abrufbar unter: https: / / www.miquela.fyi/ (Stand: 25. 06. 2020). Nöth, Winfried (2009). Bildsemiotik. In: Sachs-Hombach, Klaus (Hrsg.): Bildtheorien. Anthropologische und kulturelle Grundlagen des Visualistic Turn. Frankfurt am Main: Suhrkamp Taschenbuch, 235-255. Die weinende, virtuelle Influencerin 101 Nöth, Winfried (2016). Ikon, Index und Symbol, visuell und verbal. In: Klug, Nina-Maria / Stöckl, Hartmut (Hrsg.): Handbuch Sprache im multimodalen Kontext. Handbücher Sprachwissen ( HSW 7). Berlin, New York: De Gruyter Mouton, 196-216. Petrarca, Emilia (2018). Body Con Job. Miquela Sousa has over 1 million followers on Instagram and was recently hacked by a Trump troll. But she isn’t real. Abrufbar unter: https: / / www.thecut.com/ 2018/ 05/ lil-miquela-digital-avatar-instagram-influencer.html (Stand: 22. 12. 2020) Schär, Hannah (2018). Studie. So viel verdienen Influencer wirklich mit einem einzigen Post. Abrufbar unter: https: / / www.businessinsider.de/ karriere/ arbeitsleben/ studieso-ticken-influencer-2018-1/ (Stand: 22. 12. 2020) Schwartz, A. Brad (2015). The Infamous «War of the Worlds» Radio Broadcast Was a Magnificent Fluke. Abrufbar unter: https: / / www.smithsonianmag.com/ history/ infamous-war-worlds-radio-broadcast-was-magnificent-fluke-180955180/ ? no-ist (Stand: 22. 12. 2020) Shieber, Jonathan (2018). The makers of the virtual influencer, Lil Miquela, snag real money from the Silicon Valley. Abrufbar unter: https: / / tcrn.ch/ 38snk2M (Stand: 22. 12. 2020) Stadler, Moritz (2016). Essen! Inspiration! Ich! - Instagram-Hashtags: Das kleine Lexikon. Abrufbar unter: https: / / www.spiegel.de/ netzwelt/ web/ instagram-hashtags-daskleine-lexikon-a-1078620.html (Stand: 22. 12. 2020) Stöckl, Hartmut (2016). Multimodalität - Semiotische und textlinguistische Grundlagen. In: Klug, Nina- Maria / Stöckl, Hartmut (Hrsg.): Handbuch Sprache im multimodalen Kontext. Handbücher Sprachwissen ( HSW 7). Berlin, New York: De Gruyter Mouton, 3-35. Youtube (2020). Anzahl Follower Lil Miquela. Abrufbar unter: https: / / www.youtube. com/ channel/ UCW eHb_SrtJbrT8 VD -_ QQ p RA (Stand: 25. 06. 2020) 102 Florina Zülli ‹Neuer Partner› in den Warenkorb hinzufügen? Zu den Veränderungen des Online-Datings von Parship über Tinder bis zum künstlichen Partner Florina Zülli 1 Einleitung Die Digitalisierung hält in allen Bereichen des Lebens Einzug; sie verändert nicht nur den öffentlichen und ökonomischen Teil des Lebens, sondern auch den privaten. Auch der Dating-Prozess ist seit den Neunzigerjahren immer mehr digitalisiert worden (vgl. Aretz et al. 2017: 7); inzwischen gibt es allein im deutschsprachigen Internet über 2500 Dating-Portale, die zusammen über 100 Millionen Mitglieder verzeichnen (vgl. Moucha et al. 2016: 7 f.). Diese enorme Anzahl erklärt, weswegen sich heute bis zu einem Drittel aller Paare über das Internet kennenlernt (vgl. Cacioppo et al. 2013: 10135). Im Folgenden soll aufgezeigt werden, wie sich das Online-Dating, dessen Ablauf und dessen Nutzer 1 seit Beginn des digitalen Flirtens um 1995 verändert haben (vgl. Finkel et al. 2012: 10). Mit ‹Online-Dating› wird hier die Art des Datings verstanden, die nicht face-to-face stattfindet. Vielmehr ist damit eine face-tosur face oder gar face-tointer face Interaktion gemeint, in der die Kommunikation über ein Medium, etwa eine Webseite oder eine App, den direkten, mündlichen Austausch mit dem Gegenüber ersetzt. Die drei grossen Meilensteine des Online-Datings lassen sich chronologisch einteilen in 1.) das Flirten in Online-Singlebörsen (wie Parship ), 2.) das Flirten in Apps (wie Tinder ) und 3.) das Flirten mit einem künstlichen Partner (wie Azuma Hikari ). Diese letzte Form des Datings könnte bereits als ‹Online-Dating 2.0› oder eine völlig andere, neue Art des Datings bezeichnet werden, da die Substitution eines menschlichen Partners durch eine auf KI basierende Maschine eine Entwicklung ist, die den ganzen Prozess von Grund auf verändert. Bei den beiden ersten Dating-Arten - das Flirten in Singlebörsen und das Flirten in Apps - wird das Augenmerk auf die Frage gerichtet, ob sich pauschale Merkmale in der Online-Flirt-Interaktion erkennen lassen, welche übergreifend bei beiden Kategorien auftreten. Dazu werden die Nutzer, die Abläufe der Dating-Prozesse und die schriftlichen Inter- 1 In dieser Arbeit wird überwiegend das generische Maskulinum verwendet, gemeint sind aber alle Geschlechtsidentitäten. ‹Neuer Partner› in den Warenkorb hinzufügen? 103 aktionen auf diesen Dating-Portalen analysiert und abschliessend miteinander verglichen. Ziel der Arbeit ist es, auf diese Weise die kontinuierliche Weiterentwicklung des Online-Datings zu reflektieren und einen Ausblick auf künftige Möglichkeiten in diesem Bereich zu geben. 2 Das Flirten in Singlebörsen 2.1 Übersicht Die ersten digitalen Dating-Portale bzw. Singlebörsen entstanden Mitte der Neunzigerjahre und ähnelten in Aufbau und Beschaffenheit ihrem analogen Vorgänger: den Kontaktanzeigen in Zeitungen (vgl. Aretz 2017: 7). Der Suchende ‹inseriert› durch die Erstellung eines eigenen Profils und kann seinerseits selbst auf andere, bereits inserierte Profile zugreifen. Entscheidend bei dieser ersten Form der Online-Dating-Portale ist, dass die Herstellung des Erstkontakts eine aktive Handlung seitens eines oder beider (potenzieller) Gesprächspartner erfordert. Im Gegensatz dazu basieren die späteren, im Jahre 2000 aufkommenden Dating-Portale auf einem «Online-Matching-System» (Aretz 2017: 7): Dieses führt Mitglieder mit ähnlichen Persönlichkeiten ohne Zutun der einzelnen Personen zusammen. Der Ablauf bei einer Singlebörse mit Online-Matching-System sieht dabei wie folgt aus: Die Persönlichkeit eines Mitglieds wird in einem eigens dafür von der Webseite konzipierten Fragebogen eruiert. Danach sucht das System selbständig in seinem Mitglieder-Katalog nach kompatiblen Partner*innen, welche es dem neuen Mitglied als Vorschläge anzeigt. Dieser Ansatz des Systems, eigenständig zu agieren und Mitglieder zusammenzuführen, bildet den grössten Unterschied zwischen den verschiedenen Online-Dating-Portalen - und teilt sie in zwei Gruppen: diejenigen mit Matching-System und jene ohne. Natürlich gibt es diverse andere Möglichkeiten, Singlebörsen zu klassifizieren (bezahlte / unbezahlte Mitgliedschaft, heterosexuell / homosexuell etc.), siehe für eine Auflistung dazu Skopek 2012: 32; Wiechers et al. 2015: 7; Zillmann 2016: 61. Jedoch ist die Unterteilung in Singlebörsen mit Matching-System und solchen ohne die zentrale Unterscheidung, welche auch sprachlich differenziert wird: So werden Singlebörsen mit Matching-System ‹(Online-)Partnervermittlungen› und solche ohne als ‹(Online-) Kontaktanzeigen› bezeichnet (vgl. Aretz et al. 2017: 9). 104 Florina Zülli 2.2 Wer sind die Nutzer solcher Plattformen? Die Nutzer von Online-Dating-Portalen lassen sich auf den ersten Blick schwer als ein homogenes Klientel verstehen; vielmehr handelt es sich dabei um einen aus allen soziokulturellen Schichten stammenden und mit unterschiedlichen Bedürfnissen versehener Mix. Dieser Diversität entsprechen auch die zahlreichen, unterschiedlichen Online-Dating-Portale: So gibt es Plattformen für Singles, aber auch Seiten speziell für Verheiratete, die nach einer Kontaktmöglichkeit für einen Seitensprung suchen, 2 sowie z. B. Swinger-Seiten, in denen Pärchen nach Gleichgesinnten suchen. Analog dazu gibt es Webseiten für nahezu jede sexuelle Präferenz und jedes Alter. Die meisten Webseiten bieten jedoch im Prinzip das Gleiche an: Freundschaft, Flirt, Sex und Partnerschaft(en). Die Antwort auf die Frage nach dem ‹typischen Nutzer› ist daher stark vom Kontext der Webseite abhängig, auf der dieser Nutzer verkehrt. Der typische Nutzer einer Seite für ältere Homosexuelle wird sich z. B. deutlich vom typischen Nutzer einer kommerzielleren Seite wie Parship unterscheiden. Heteronormativ betrachtet, ist der durchschnittliche Online-Dater jedoch 30 Jahre alt, männlich und lebt in einer urbanen Gegend (vgl. Schulz et al. 2008: 284-286). 2.3 Ablauf beim Online-Dating auf Singlebörsen Der Ablauf beim Online-Dating auf Singlebörsen lässt sich grob in vier bzw. fünf Schritte unterteilen (vgl. Finkel et al. 2012: 14): 2 Siehe den Skandal um die Fremdgeh-Seite ‹Ashley Madison› im Jahr 2015. ‹Neuer Partner› in den Warenkorb hinzufügen? 105  Im Beitrag von Florina Zülli fehlt auf S. 106 folgende Grafik (inkl. Bildunterschrift):  Die Schriftart müsste ggf. noch dem Stylesheet angepasst werden. Abb. 1: Ablauf beim Online-Dating auf Singlebörsen Einfügen auf S. 106 (2.3 Ablauf beim Online-Dating auf Singlebörsen) Der Ablauf beim Online-Dating auf Singlebörsen lässt sich grob in vier bzw. fünf Schritte unterteilen (vgl. Finkel et al. 2012: 14): HIER GRAPHIK EINFÜGEN Das bedeutet, dass sich der User zunächst Gedanken machen muss, auf welcher Plattform er sich anmelden möchte bzw. was für einen Partner (bspw. homosexuell, Akademiker etc.) und welche Art der Beziehung er sich wünscht (bspw. feste Beziehung, Seitensprung etc.). […] 1. Selektion einer geeingneten Plattform: Bei der Selektion geht es für den User darum, eine geeignete Plattform für seine Bedürfnisse/ Wünsche/ Ziele zu finden. 2. Registrierung: Nach der Selektion registriert sich der User bei der von ihm ausgewählten Plattform und erstellt sein Profil (gg. beantwortet er dazu einen Fragebogen, lädt Fotos hoch, formuliert einen Steckbrief etc.). 3. Suche: Nach dem Ausfüllen seines eigenen Profils, geht der User auf die Suche nach passenden potenziellen Partner*innen (entweder selbst oder er sucht unter den Vorschlägen, dass das Matching-System für ihn bereitstellt, aus). 4. Kontakt: Nach erfolgreicher Suche wird ein Kontakt mit dem gewünschten Profil initiiert. Häufig gibt es dazu vom Portal bereitgestellte Chat-Funktionen, wie PN (Privatnachrichten). (5. Medienwechsel: Etabliert sich ein längerfristiger, positiver Eindruck, findet ein Medienwechsel hin zu ‹intimeren Kommunikationsformen› wie E-mail oder SMS statt. Von dort aus kann gegebenenfalls eine Verlegung der Beziehung von der Online-Kommunikation auf die Offline-Kommunikation erfolgen und es kommt zu einem persönlichen Treffen.) Abb. 1: Ablauf beim Online-Dating auf Singlebörsen Das bedeutet, dass sich der User zunächst Gedanken machen muss, auf welcher Plattform er sich anmelden möchte bzw. was für einen Partner (bspw. homosexuell, Akademiker etc.) und welche Art der Beziehung er sich wünscht (bspw. feste Beziehung, Seitensprung etc.). Entsprechend dieser Vorliebe wählt er dann die geeignete Plattform (bspw. Grindr , ElitePartner , unserkleinesgeheimnis ). Nach der Erstellung seines eigenen Profils und erfolgreicher Suche wird der Kontakt von einer Seite initiiert, bspw. durch das Kommentieren eines Fotos, dem Versenden eines ‹Zwinkerns› 3 oder einer anderen Art von Interessensbekundung. Ist das Interesse dabei gegenseitiger Natur, kommt es zum Gespräch: Meistens stellt die Plattform dafür eine Chat-Funktion zur Verfügung, die es erlaubt, Nachrichten und Bilder auszutauschen. Das Flirten auf der Singlebörse endet, wenn zu einer anderen Kommunikationsform gewechselt wird, wie WhatsApp , Telefon oder dem persönlichen Gespräch bei einem Offline-Date. 3 Einige Webseiten enthalten die Funktion, kleine Botschaften zu versenden, wie ein zwinkerndes Smiley oder ein Herz. Damit kann Interesse an dem Profil bzw. dem User signalisiert werden. 106 Florina Zülli 2.4 Interaktion beim Online-Dating auf Singlebörsen Da nonverbale Kommunikation wie Mimik und Gestik (Anlächeln, Augenaufschlag etc.), sowie olfaktorische Reize (Pheromone, Parfüm etc.) und weitere Hilfsmittel des Offline-Flirtens (wie Berührungen des Gegenübers) beim Online-Dating gänzlich wegfallen, kommt der Schrift eine grössere Bedeutung zu: Sie ist das massgebende Kommunikationsmittel für das Online-Dating auf Singlebörsen (vgl. Dürscheid 2017: 50). 4 Im Folgenden wird die Singlebörse Parship hinzugezogen, um generelle Aussagen über Online-Dating-Portale beispielhaft zu illustrieren; diese Beispiele erheben jedoch nicht den Anspruch dabei pars-pro-toto für alle Singlebörsen stehen zu wollen. Gewählt wurde Parship , da diese Singlebörse zusammen mit ElitePartner zu den umsatzstärksten deutschen Dating-Portalen gehört und zu Parship bereits linguistische Untersuchungen vorliegen (siehe dazu Dürscheid 2017). Ein Grund, weswegen Parship so viele Nutzer hat, ist, dass es sich an keine spezifische Gruppe wendet (siehe oben), sondern lediglich an «seriöse Singles» (Dürscheid 2017: 51). Diese seriösen Singles haben auf Parship die Möglichkeit, ihr Profil semi-individuell zu gestalten, indem sie vorformulierte Fragen beantworten können (‹Was würdest du auf eine einsame Insel mitnehmen? ›), welche dann auf ihrem Profil erscheinen. Als eines der auffallenden charakteristischen Sprachspezifika nennt Dürscheid die auf Parship vorherrschende Verwendung des ‹Du› anstelle der Höflichkeitsform (vgl. Dürscheid 2017: 56). So lautet die Antwort auf obige Frage beispielsweise: ‹Ein Buch, meine Katze und dich : )›. Die zweite Person Singular wird dabei nicht nur in den einseitig von einem User formulierten Texten, sondern auch in den zwischen zwei Usern ausgetauschten Nachrichten verwendet (vgl. Dürscheid 2017: 55). Diese Verwendung des ‹Du› anstelle des ‹Sie› geschieht dabei nicht zufällig, sondern kann durchaus als Strategie gewertet werden. Denn durch die konsequente Verwendung des ‹Du› wird sprachlich eine Vertrautheit und Nähe inszeniert - auch wenn diese zum gegebenen Zeitpunkt noch gar nicht vorhanden ist. Androutsopoulos nennt dies eine «strategische Sprachgestaltung» (Androutsopoulos 2007: 80), welche es vermag, eine Situation der räumlichen und zumindest anfänglich auch sozialen Distanz (wie es bei der Online-Kommunikation der Fall ist) durch inszenierte Vertrautheit mit Nähe aufzuladen. 4 Von Relevanz für den (erfolgreichen) Erstkontakt sind natürlich auch die dabei verwendeten Fotos. Dennoch ist die Schrift bzw. der schriftliche Austausch massgeblich für den Erfolg, da die Bilder häufig zuerst ‹freigegeben› werden müssen. Auf Parship besteht die Funktion des ‹Lächeln-Schickens›, was als kleine, para- oder nonverbale Botschaft gewertet werden kann. Dennoch sind die Mittel der nonverbalen Kommunikation stark limitiert (vgl. Dürscheid 2017: 53). ‹Neuer Partner› in den Warenkorb hinzufügen? 107 Dieses Vorgehen scheint ein generelles Merkmal der schriftlichen Flirtsprache zu sein, da es ebenfalls schon früher bei den Kontaktanzeigen in Zeitungen auftaucht, wie Schibli in ihrer Untersuchung zu Kontaktanzeigen zeigt (vgl. Schibli 2014: 6). Obwohl von Offlinezu Onlinekontaktanzeigen ein medialer Wechsel vollzogen wurde, besteht weiterhin viel Konsens in der ‹Art› des Flirtens (vgl. Bachmann-Stein 2011: 109). Ein interessanter Unterschied ist jedoch, dass im Internet deutlich häufiger Verstösse gegen die sprachlichen Normen (Orthographie, Grammatik, Syntax) zu beobachten sind (vgl. Bachmann-Stein 2011: 105). Dies mag irritierend wirken, wenn man sich die Argumentation von Geser und Ben-Ze’ev vor Augen hält, nach der Schreibkompetenz «even more important than physical attractiveness» (Ben-Ze’ev 2004: 38) ist und dass von der Schreibkompetenz häufig Rückschlüsse über «intelligence, charm and creativeness» (Geser 2007: 17) des Schreibers gezogen werden. Auch wenn sich die Spannung zwischen diesen beiden Beobachtungen nicht vollständig auflösen lässt, so kann diese Ambiguität zumindest ansatzweise durch den Umstand erklärt werden, dass im Internet generell laxere (sprachliche) Umgangsformen herrschen: Aussagen werden häufig ohne Punkt am Ende formuliert, längere grammatikalische Strukturen werden zu Ellipsen oder vollständig ausformulierte Fragen zu simplen Akronymen verkürzt (Geht es dir gut? > Geht’s gut? > GG ? ). 5 Dürscheid bringt zusätzlich den berechtigten Einwand vor, dass normfernes Schreiben auch als Zeichen von ‹Lockerheit› angesehen werden könne (vgl. Dürscheid 2017: 65); das komme auf das Wohlwollen des Gegenübers an. Ganz im Sinne des Halo-Effekts 6 sieht ein bereits interessierter User seinem Gegenüber einiges nach bzw. interpretiert es der Wunschvorstellung entsprechend um. Dadurch oszilliert eine fehlerhafte Syntax zwischen ‹charmant› und ‹unseriös› - je nach Interessensgrad des Empfängers. Dennoch scheint eine korrekte Rechtschreibung auf seriösen Singlebörsen wie Parship einen hohen Stellenwert zu haben (vgl. Albert 2013: 153). Zusammenfassend lässt sich also für die Kommunikation auf Singlebörsen wie Parship festhalten, dass zwar Wert auf korrekte Rechtschreibung und Grammatik gelegt wird, aber dennoch ein gelockertes Verhältnis zu sprachlichen Regeln besteht, gezeigt durch nähesprachliches Verhalten (‹Du› statt ‹Sie›) und gebräuchlichen Abkürzungen wie hdl oder gg? . 5 Weitere Beispiele wären hdl (Hab dich lieb), lg (Liebe Grüsse), bb (Bis bald) u. Ä. 6 Der ‹Halo-Effekt› ist ein Terminus aus der Sozialpsychologie und beschreibt das Phänomen, dass aus bekannten Eigenschaften einer Person (beispielsweise deren gutes Aussehen) auf unbekannte Eigenschaften (wie deren Intelligenz) geschlossen wird. Dabei handelt es sich um eine kognitive Verzerrung, die stark mit der eigenen Bewertung / Sympathie der anderen Person gegenüber korreliert (vgl. Bak 2010: 1 f.). 108 Florina Zülli 3 Das Flirten in Apps 3.1 Übersicht Die zweite grosse Welle in der Online-Dating-Welt fand statt, als im Jahr 2008 die ersten Dating-Apps verfügbar wurden (vgl. Aretz et al. 2017: 8). Die Mobile-Dating-Branche generierte daraufhin in nur drei Jahren einen Umsatz von 25 Millionen Euro (vgl. Nowroth 2014: 56). Dass etwa zeitgleich die ersten iPhones auf den Markt kamen und einen günstigen mobilen Internetzugang ermöglichten, vergrösserte die Beliebtheit und Nutzung solcher Apps exponentiell (vgl. Schmitz 2016: 1). Einhergehend mit dieser neuen Technologie stieg auch die prozentuale Anzahl der Paare, die sich im Internet kennengelernt haben, rapide an: Während es im Jahr 2005 noch lediglich 3 % waren, so gaben im Jahr 2009 bereits 22 % der Paare an, sich online kennengelernt zu haben, was das Online-Dating zur zweitbesten Möglichkeit (nach dem Kennenlernen über Freunde) machte, um einen Partner zu finden (vgl. Finkel et al. 2012: 12 f.). Die meisten dieser Online-Dating-Apps basieren auf LBRTD , was für «location-based real-time dating» (Birnholtz et al. 2014: 3) steht. Das bedeutet, dass man direkt und in ‹real time› sieht, wer jetzt gerade in der Nähe potenziell für ein Date verfügbar ist. Durch diese neue LBRTD-Technik konnte plötzlich jederzeit und von überall aus gedatet werden. Gleichzeitig veränderte sich dadurch die Erwartungshaltung an das Online-Dating: Stand auf Seiten wie Parship noch das Finden eines neuen Lebens(abschnitts)partners im Vordergrund (vgl. Aretz 2017: 54), so etablierte sich zusammen mit den neuen Apps wie Lovoo oder Tinder eine sogenannte ‹Abschleppkultur› (vgl. Garcia et al. 2012: 161; LeFebvre 2018: 1210). Obwohl diese Apps theoretisch auch für platonische Treffen gedacht wurden, sind vor allem Sex-Dates ohne weitere Verpflichtungen bei den Usern sehr beliebt (vgl. Brutscher et al. 2015: 10). Aus dieser neuen Erwartungshaltung und der veränderten Auffassung von online ‹daten› konstituiert sich der Begriff des <Mingles>: ein extrovertierter, junger <Single>, der gerne neue Leute kennenlernt und sich mit diesen ‹vermischt›. 7 Nebst der neuen LBRTD-Technologie grenzen noch weitere Unterschiede Dating-Apps deutlich von den Online-Singlebörsen ab. An dieser Stelle wird lediglich auf die wichtigsten verwiesen: 1.) Gratis Mitgliedschaft : Dating-Apps sind in der Regel ‹gratis›; das heisst, die User bezahlen mit «ihren Daten und [ihrer] Privatsphäre» (Brutscher et al. 2015: 36), während auf Online-Partnervermittlungen meist ein monatlicher Beitrag entrichtet werden muss, um die Dienste der Webseite nutzen zu können (vgl. Dürscheid 2017: 51). 2.) Autorschaft über 7 Mingle = Mischung aus den Worten ‹mix› und ‹Single› - siehe auch ‹I’m single and ready to mingle! ›. ‹Neuer Partner› in den Warenkorb hinzufügen? 109 den Selektionsprozess : Während auf der Basis des ausgefüllten Fragebogens das System bei Seiten wie Parship alle Partner, die damit nicht genügend übereinstimmen, kategorisch ausschliesst, überlassen die meisten Apps dem User selbst die Wahl, wer zu einem passt (vgl. Warda 2013: 14). 3.) Verringerter Aufwand : In Korrelation mit dem vorherigen Punkt fällt der Aufwand, den ein neuer Nutzer betreiben muss, um sich auf einer Dating-App zu registrieren, entsprechend kleiner aus als mit dem vergleichsweise aufwändig gestalteten Prozess einer Singlebörse mit Matchmaking-System. Ein deutlich geringerer Aufwand besteht auch im Auswahlprozess, da meist lediglich in einem binären System (ja / nein) entschieden wird, ob Interesse an einem Profil besteht oder nicht (vgl. Aretz 2015: 42). 4.) Wechselseitige Attraktivitätsbekundung: Da es nur zum Kontakt kommt, wenn beide Partner den anderen positiv bewertet haben, gibt dies beiden Akteuren eine «Sicherheit in der Initiierung der Kommunikation» (Aretz 2015: 42), da beide davon ausgehen können, dass das Gegenüber sie ebenfalls als attraktiv bewertet hat. Zusammenfassend lässt sich sagen, dass die Apps das Online-Dating durch die oben genannten Punkte dahingehend verändert haben, dass der Dating-Prozess zugleich spontaner und speditiver abläuft: Während Singles, die sich auf Singlebörsen kennenlernen, tendenziell einen ausführlicheren Schriftaustausch pflegen, bevor es zu einem ‹Offline-Treffen› kommt (vgl. Aretz et al. 2017: 20), treffen sich Singles, die sich auf Apps wie Tinder gefunden haben, häufig noch am selben Abend (vgl. Hahn et al. 2018: 5). 8 3.2 Wer sind die Nutzer solcher Apps? Die Nutzer von Dating-Apps sind durchschnittlich jünger als die Nutzer von Singlebörsen; so sind 69 % der User von Apps wie Tinder und Co. gemäss Aretz zwischen 20 und 26 Jahren alt (vgl. Aretz 2015: 47). Wie bei den Singlebörsen existiert bei den Dating-Apps ebenfalls ein ‹Nischenmarkt›, der sich an ‹Dating-Minderheiten› bzw. Personen mit speziellen Vorlieben richtet (vgl. Ranzini et al. 2016: 17); meist ist aus den Namen ersichtlich, welche Präferenzen dort priorisiert werden, siehe beispielsweise ‹Vampire-Lovers› oder auch ‹DateHarvard› (vgl. Finkel et al. 2012: 11). Generische Dating-Apps wie Tinder oder Lovoo richten sich aber grundsätzlich an alle Singles, was heisst, dass die Dating-Apps sich auf keine spezifische, z. B. sexuelle, Präferenz festlegen, sondern eine breite Masse an Nutzern ansprechen (wollen). In solchen generischen Apps, wie auch bei den kommerziellen Singlebörsen, ist der überwiegende Anteil an Nutzern 8 Natürlich gibt es mittlerweile die früheren Singlebörsen wie Parship auch in App-Form; das Design entspricht aber weiterhin dem Modell der Webseite. 110 Florina Zülli männlich. So beträgt er beispielsweise bei der Dating-App Lovoo rund zwei Drittel (vgl. Nowroth 2014: 56). Abgesehen vom jüngeren Durchschnittsalter und einer höheren Bildung sind auch hier die ‹typischen User›, wie bei den Singlebörsen, «männlich und jünger» und «wohnen in städtischen Gebieten» (Schulz et al. 2008: 19). 3.3 Ablauf beim Online-Dating auf Apps Da der Ablauf zwischen den verschiedenen Online-Dating-Apps, anders als bei den Online-Singlebörsen, nahezu bei allen Apps identisch ist, wird der gesamte Prozess hier an einer App stellvertretend für alle aufgezeigt. Dabei handelt es sich um die derzeit beliebteste Dating-App der Welt: Tinder (vgl. Pantelić / Vladušić 2018: 26). Um Tinder nutzen zu können, benötigt der (künftige) User nur ein Smartphone und ein Facebook-Profil (vgl. Aretz 2015: 41). Das Tinder -Profil generiert sich sodann automatisch und importiert dabei Daten wie Alter und Gefällt-mir-Angaben sowie Bilder aus Facebook (vgl. Aretz 2015: 41). Der User kann diese Daten entweder anpassen oder direkt damit beginnen, potenzielle Dating-Partner zu ‹bewerten›. Das Bewerten basiert auf einer binären ‹Hot or Not›-Einteilung, bei der dem User ein Foto eines anderen Users angezeigt wird, welches er dann mit einem Wischen nach rechts (Hot) oder links (Not) bewertet. Von Matchmaking ist hierbei keine Rede: Die Partner*innen werden nur grob vorselektioniert, nämlich nach 1) Geschlecht, 2) Alter und 3) Entfernung (vgl. Bömelburg 2015). Danach beginnt das ‹Swipen›: Eine Möglichkeit zur Kommunikation kommt erst dann zustande, wenn beide Partner*innen sich gegenseitig nach rechts (Hot) geswipet haben; dann heisst es in der App: It’s a Match! Interessant ist dabei besonders der unterschiedliche Stellenwert, der den Bildern nun neu bei Dating-Apps wie Tinder zukommt: Während bei der Kommunikation auf Parship gezeigt werden konnte, dass die Schrift eine wesentliche Rolle beim Kennenlernprozess einnimmt, wird sie bei Tinder hingegen zu einer Marginalie - im wortwörtlichen Sinn: Nebst einem grossen Anzeigebild stehen dem User lediglich noch 240 bis 500 Zeichen zur Verfügung, um sein Gegenüber für sich einzunehmen (vgl. James 2015: 1; Warda 2013: 14). Eine Möglichkeit, auf die rund 36 % aller User freiwillig verzichten (vgl. Tyson et al. 2016: 465). Stattdessen wird vermehrt auf körperliche Attraktion - gezeigt durch Fotos - gesetzt, um potenzielle Partner*innen für sich zu gewinnen: Die Fotos, die man auf Dating-Plattformen von sich zur Verfügung stellt, sind maßgeblich für den Erfolg oder Misserfolg der eigenen Partnersuche. […] Man beurteilt andere Nutzer nur nach dem Aussehen […]. (Warda 2013: 12-14) ‹Neuer Partner› in den Warenkorb hinzufügen? 111 […] the attractiveness of one’s photo is the sole, or at least the strongest, predictor of the appeal of one’s online dating profile. (Fiore et al. 2008: 2) […] physical attractiveness is commonly the first and most important factor in the selection process. (LeFebvre 2018: 1219) Es findet also in der Hierarchie der interaktiven Mittel ein Wechsel von Schrift auf Bild statt: Überzeugen können zunächst die Personen, die dem äusseren Idealbild des Suchenden am nächsten kommen (vgl. James 2015: 2; Ranzini et al. 2016: 3). Somit erfährt das traditionelle Prinzip der ‹Liebe auf den ersten Blick› bei einer face-to-face Begegnung in der Offline-Welt eine Modernisierung und wird bei Tinder zur ‹Liebe auf den ersten Klick› - bzw. ‹Swipe›. 3.4 Interaktion beim Online-Dating auf Apps Anders als bei Singlebörsen wie Parship , bei der die Kommunikationspartner «may chat for weeks before meeting face to face» ( James 2015: 2), ist die ganze Kommunikation bei Tinder danach ausgerichtet, sich möglichst bald offline zu treffen (vgl. James 2015: 2). Durch die bereits angesprochene stärkere Gewichtung der Fotos auf Dating-Apps (vgl. Birnholtz 2014: 3; Fiore et al. 2008: 2) wird der Kommunikation damit deutlich weniger Wert beigemessen - oder anders: Es ist eine Verschiebung der Evaluationsparameter zu beobachten, nach denen User andere User beurteilen. Grammatik wird zweitrangig, ein ansprechendes Profilbild hingegen ‹match-entscheidend›. So rangiert auch die ‹Intelligenz› bei den wünschenswerten Attributen von Frauen hinter der ‹körperlichen Attraktivität›, wie eine Untersuchung zu Tinder aus dem Jahr 2018 zeigt (vgl. Vitt 2018: 18). Dass die Selektion nach dem Aussehen kein ausschliesslich männliches Phänomen ist, zeigt eine Studie von Appinio, bei welcher 75 % aller Befragten angaben, dass das ‹Aussehen› das entscheidende Selektionskriterium sei, wobei diesmal 43 % der Befragten weiblich waren (vgl. Appinio Study 2017). Von der App zur Oberflächlichkeit gezwungen, geben User nicht nur offen zu, nur nach einem «specific type» ( James 2015: 32) zu suchen, sondern auch, ihre eigenen Fotos zu verfälschen, d. h. sie so zu bearbeiten, dass sie attraktiver erscheinen (Vitt 2018: 53, Pidun 2016: 72, Ranzini et al. 2016: 7 f.). Während es zur Selbstdarstellung und Attraktivitätskonstituierung auf Tinder bereits einiges an Forschungsliteratur gibt, 9 besteht diesbezüglich bei der kommunikativen Interaktion noch ein grosses Desiderat: Tyson et al. sprechen bei Tinder -Nachrichten von einer empirischen «black-box» (Tyson et al. 2016: 466). Mögliche Gründe, 9 Siehe dazu Birnholtz et al. 2014; Pidun 2016; Fiore et al. 2008 ; Tyson et al. 2016; Ranzini et al. 2016. 112 Florina Zülli weshalb dem so ist, liegen in der privaten Natur solcher intimen Nachrichten (von Seiten der User) und den Gesetzen bezüglich Datenschutz und Verschwiegenheitspflicht (von Seiten der Betreiber solcher Apps). So ist es erklärbar, weshalb der Forschung bis anhin kein grösseres Korpus an solchen Nachrichten zur Verfügung steht (vgl. dazu auch Ranzini et al. 2016: 18). Im World Wide Web hingegen gibt es zahlreiche Artikel und Seiten, die sich mit den (Arten von) Nachrichten auf Tinder beschäftigen. Diese lassen sich grob in zwei Teile gliedern: Ratgeber, wie man Frauen auf Tinder anspricht, und humoristische Seiten, die sogenannte ‹Fails› (dt. Reinfall / Scheitern) solcher Ansprechversuche zeigen. Allerdings haben diese Seiten kaum einen empirischen Anspruch, sondern sind, obwohl sie durchaus die Realität auf Tinder abbilden können, mehr zu Unterhaltungszwecken gedacht, wie Abb. 2. und Abb. 3. zeigen: Abb. 2: Tinder Fail ‹Neuer Partner› in den Warenkorb hinzufügen? 113 Abb. 3: Tinder Fail Diese beiden Abbildungen zeigen ‹gescheiterte Ansprechversuche› auf Tinder : Bei Abb. 2. folgte auf ein neutrales ‹How do you do› (dt. wie geht es dir) direkt eine sexuelle Obszönität, die in keinem Verhältnis zu der bisher (nicht) aufgebauten Nähe steht. Einen Normverstoss begeht auch der User in Abb. 3., indem er Sarah weiterhin schreibt, auch wenn diese tagelang nicht antwortet und den Kontakt offenbar nicht fortführen möchte. Die Frage zum Schluss, ob man nun ‹Boyfriend and Girlfriend› sei, also eine Beziehung führe, kann humorhaft / ironisch gemeint sein oder ein Versuch, mit dieser Aussage Sarah wieder zu einer Reaktion zu bewegen. Ob ironisch gemeint oder nicht, der Ansprechversuch verlief ins Leere und ist deswegen ein ‹Fail›. 114 Florina Zülli Abb. 4: Tinder Nachricht Abb. 4. zeigt eine häufi g vorkommende Tinder -Nachricht: ein neutrales, wenn auch gleich etwas einfallsloses ‹Hey›. Dass diese Nachricht als ‹Fail› gewertet wird, liegt daran, dass sich daran kein Gespräch anknüpfen lässt, da die Nachricht keine Frage oder interessante Informationen beinhaltet. Das Gegenüber erfährt nichts über den Absender, der sich off enbar auch wenig Mühe mit seiner Erstnachricht gegeben hat - entsprechend bleiben viele Nachrichten, die lediglich aus einem ‹Hey› bestehen, unbeantwortet. Zwar zeugen solche (Fail-)Artikel nicht von grosser Empirie, dennoch lassen sich daraus generelle Annahmen ableiten, welche sich dann auch in der Forschung bestätigt fi nden: Frauen erhalten auf Tinder generell viele Matches, während Männer seltener zurück ‹gematchet› werden, was zu etwas führt, das Tyson et al. einen «Feedback-Loop» nennen: Men see that they are matching with few people, and therefore become less discerning; women, on the other hand, fi nd that they match with most men, and become more discerning. (Tyson et al. 2016: 464) Dies führt zu zweierlei Verhalten: erstens dazu, dass Männer wahllos Frauen liken, in der Hoff nung, so zumindest ein ‹Like› zurück zu erhalten, und zweitens dazu, dass die ‹Qualität› 10 der Nachrichten, die sie senden, sinkt (siehe Abb. 4.), da es sich nicht zu lohnen scheint, ‹Mühe und Zeit zu investieren›, wenn noch nicht klar ist, ob überhaupt auf die Nachricht reagiert wird (vgl. Tyson et al. 10 Tyson et al. belegten, dass die durchschnittliche Länge einer von einem Mann versandten Erstnachricht 12 Zeichen betrug, 25 % der Nachrichten betrugen sogar unter 6 Zeichen. So besteht eine ‹typische› Erstnachricht, die Männer an zahlreiche Frauen verschicken, einfach nur aus einem ‹Hey›, was wiederum dazu führt, dass viele Frauen gar nicht erst antworten, was wiederum den Prozess in Gang setzt, dass Männer mehr Frauen anschreiben, um Antworten zu erhalten, aber aufgrund der hohen Anzahl den Aufwand möglichst gering halten wollen, was sich wiederum auf die Qualität der Nachrichten auswirkt (vgl. Tyson et al. 2016: 464). ‹Neuer Partner› in den Warenkorb hinzufügen? 115 2016: 464). Dadurch ergeben sich unterschiedliche Probleme für Männer und Frauen bei der Nutzung von Tinder : Männer benennen als die beiden grössten Probleme, dass viele ihre Nachrichten unbeantwortet bleiben und dass nur sehr wenige Frauen von sich aus Männer anschreiben, während Frauen sich darüber beklagen, auf Tinder «anstößige / sexuell explizite (29,0 %) oder langweilige Nachrichten [zu] bekommen (16,5 %)» (Kroon 2015: 41). Die ‹anstössigen / sexuell impliziten› Nachrichten sind dabei - wie oben bereits erwähnt - ein bekanntes Tinder -Phänomen (siehe Abb. 2. Tinder Fail), ikonisch für diese Art Nachricht ist dabei das berüchtigte ‹ Dick-pic › 11 (dt. ‹Schwanzfoto›). Die ‹langweiligen Nachrichten›, welche bei Kroon genannt werden, scheinen dabei dem von Tyson et al. erwähnten ‹Feedback-Loop› geschuldet zu sein: Männer verschicken als Initial-Nachricht meist nur eine kurze, unspezifische Begrüssung wie ‹hey›, da diese für sie mit wenig Aufwand verbunden ist. Aus dieser Perspektive gesehen, verfahren Männer somit beim Tinder -Dating ökonomisch und verschwenden erst mal keine ‹Ressourcen› (in Form von längeren, individualisierten Nachrichten, welche mit mehr Aufwand verbunden sind), sondern warten erst ab, ob sich ein Kontakt mit einer gematchten Userin etabliert. Dass diese ‹Flirt-Strategie› nicht unbedingt erfolgsversprechend ist, sieht man an Kroons und Tysons Untersuchungen, in denen Frauen sich über diese Art von Nachrichten beklagen (vgl. Kroon 2015: 41) und häufig erst gar nicht auf solche antworten (vgl. Tyson et al. 2016: 464). 3.5 Eigenes Korpus Um etwas mehr über die Art der sprachlichen Interaktion auf Tinder aussagen zu können, wurde ein eigenes Korpus an Tinder -Nachrichten angelegt; die Auswertung von diesem wird im Folgenden kurz präsentiert. Dabei wurden 550 Erstnachrichten von Männern an fünf verschiedene Frauen untersucht und in folgende Kategorien eingeteilt: 11 ‹Dick-pick› steht für das Bild eines Penis, welches meist ungefragt verschickt wird. 116 Florina Zülli Tab. 1: Tabelle Tinder Erstnachrichten Zur Darstellung : Bei allen 550 untersuchten Nachrichten handelt es sich um ‹Erstnachrichten›, also um die initiale Nachricht, die nach dem entstandenen Match verschickt wurde. Die horizontale Achse gibt Aufschluss darüber, wie viel Prozent dieser 550 Nachrichten den neun Kategorien auf der vertikalen Achse jeweils entsprechen. Zwei Kategorien sollen an dieser Stelle genauer erläutert werden, zum einen die Kategorie ‹ Weitere › und zum anderen die Kategorie ‹ Sonstige Fragen ›. Erstere wurde gewählt, da die Nachrichten innerhalb dieser Kategorie inhaltlich so stark divergierten, dass sich keine einheitliche Überschrift finden liess: So erzählte ein Nutzer ausführlich von seinen Hobbys, während ein anderer als Erstnachricht einen längeren Text verfasst hat, wie das perfekte Date mit der gematchten Userin in seiner Vorstellung aussah. Der Grund für die Entscheidung zu der Kategorie ‹ Weitere › ist daher ein bewusstes Verzichten auf die Option von zu vielen einzelnen Kategorien mit jeweils sehr geringem Prozentsatz. Obwohl es sich bei der Kategorie ‹Frage nach einem Treffen› - streng genommen ebenfalls eine Frage handelt, wurde an dieser Stelle eine Unterscheidung und Abgrenzung zu ‹ Sonstigen Fragen › wie ‹Wie geht es dir? › als wichtig erachtet, da die ‹Frage nach einem Treffen› den Kontakt, bzw. die Interaktion, intensivieren und auf eine andere, persönlichere 12 Ebene überführen möchte. 13 Zur Interpretation : Es zeigt sich rasch, dass die Erwartung, dass Bilder auf Tinder einen grossen Stellenwert einnehmen, verifiziert werden konnte: Nach den 12 Sensu in persona . 13 Für die Interpretation der Kategorisierung ist anzumerken, dass die Nachrichten, die der Kategorie ‹Frage nach einem Treffen› zugeordnet sind, nicht auch der (inhaltlich übergeordneten) Kategorie ‹Sonstige Frage› zugeordnet sind (dies würde die Aussagekraft aufgrund der doppelten Zählung verzerren). ‹Neuer Partner› in den Warenkorb hinzufügen? 117 Nachrichten mit kurzen Begrüssungen wie ‹Hallo› oder ‹Hey du› (20,2 %) und Frage-Nachrichten wie ‹Was machst du so? › oder ‹Wie geht es dir? › (37,7 %) sind Nachrichten, die spezifischen Bezug auf die Fotos im Profil nehmen, am häufigsten (17,5 %). Ebenfalls erwartungskonform gibt es sehr wenig längere Texte: 6,2 % verschicken als Erstnachricht sogar keinen Text, sondern nur ein Emoji; 20,2 % schreiben eine kurze Begrüssung mit weniger als 10 Zeichen und lediglich 6 % schreiben einen vergleichsweise ‹längeren› Text. Auch die Sonstige-Frage-Nachricht (37,3 %) und die Variante, in der eine Begrüssungsfloskel, die mit einem Kompliment verbunden wird (‹Hallo meine Schöne›), sind typischerweise eher kurze Texte. Überraschend war bei diesem Korpus, dass nur sehr wenige sexuelle / obszöne Nachrichten verschickt wurden (1,8 %), obwohl dies bei Kroon als das grösste Problem von weiblichen Tinder -Userinnen benannt wurde (vgl. Kroon 2015: 41). Eine Erklärung dafür könnte sein, dass in dieser Untersuchung nur Erstnachrichten berücksichtigt wurden. Es ist davon auszugehen, dass Nachrichten mit sexuellem Inhalt bei einem längeren Austausch vermehrt erfolgt wären. Vergleichsweise niedrig fallen auch die Fragen nach einem persönlichen Treffen aus (2,7 %), was allerdings dem ungünstigen Zeitpunkt, in dem die Untersuchung stattfand, geschuldet sein könnte. 14 Somit kann davon ausgegangen werden, dass diese Zahl zu einem anderen Zeitpunkt deutlich höher gewesen wäre. Unerwartet war, dass sich bei diesen 550 Erstnachrichten auch solche mit beleidigendem Inhalt (0,7 %) fanden (‹Du siehst arrogant aus! ›). Solche Nachrichten erscheinen unsinnig, da der User, von dem diese Nachricht stammte, die ‹arrogant aussehende› Userin schliesslich zuvor nach ‹hot› geswipet hatte. Insgesamt lässt sich sagen, dass der allgemeine Ton auf Tinder eher direkt ist, denn auch wenn nicht unmittelbar nach einem Treffen gefragt oder Nachrichten mit obszönem Inhalt verschickt werden, wird durch Fragen wie ‹Was suchst du hier? › oder gar Aussagen wie ‹Am besten spare ich uns beiden Zeit, indem ich dir gleich direkt sage, dass ich momentan nicht auf der Suche nach etwas Festem bin und einfach nur geniessen möchte› ersichtlich, dass Tinder eine App ist, in der ein längerer Gedankenaustausch nicht unbedingt an erster Stelle steht, im Gegenteil: Die von Garcia et al. angesprochene <HookUp>-Kultur wird auf Tinder hochgehalten und - mal mehr, mal weniger direkt - auch angesprochen. So finden sich unter den Nachrichten von spracheloquenten Usern auch Mitteilungen wie: <Dein Profil hat mich sehr angesprochen, berührt und auch die restlichen Sinne stimuliert. Lass uns doch mal (Fi)lme gu(cken)! › (Privates Korpus). 14 Im März / April 2020 wurden die Menschen in der Schweiz vom BAG aufgrund des Covid- 19-Virus dazu angehalten, zu Hause zu bleiben und sich aus Sicherheitsgründen nicht mit anderen Personen zu treffen. Somit ist es eher erstaunlich, dass dennoch fast 3 % der User in der ersten Nachricht direkt um ein Treffen baten. 118 Florina Zülli Zur sprachlichen Form von Tinder -Nachrichten kann man festhalten, dass ein sehr lockerer, umgangssprachlicher Ton herrscht, Rechtschreibregeln wie Gross- und Kleinschreibung meist nicht eingehalten werden, auf Orthographie, im Sinne der Richtigschreibung eines Wortes, hingegen Wert gelegt wird. Die Art des Diskurses ist, obwohl schriftlich, von einer starken Mündlichkeit geprägt. Die Nachrichten simulieren eher ein persönliches Gespräch (bzw. ein Ansprechen auf der Strasse) als einen schriftlichen Austausch und sind somit wenn auch nicht medial, so doch konzeptionell auf der mündlichen Ebene. Die Mehrheit der Nachrichten enthält zudem Emojis und / oder GIF s, 15 welche den Texten einen spielerischen Touch geben und stellvertretend für paralinguistische Zeichen (Lächeln, Zwinkern) stehen. Die konzeptionelle Mündlichkeit, der lockere Umgang mit grammatikalischen Regeln, die Emojis sowie das ‹Du› vermitteln alle eine Nähe, die faktisch (noch) nicht zwischen den beiden Usern besteht. Somit bedient sich Tinder bzw. der Tinder -User denselben Strategien wie der User auf den Online-Singlebörsen zuvor. Parallelen sind nicht nur bei den Strategien der User, sondern auch bei den Funktionen der App/ Webseite zu finden. So ist das ‹Flämmchen-Emoji›, das man auf Tinder verschicken kann, etwa äquivalent zu dem ‹Anlächeln› auf Parship . Neu dazugekommen ist von der technischen Seite die LBRTD -Praxis und das binäre Hot / Not Swiping-Verfahren, was auf der Seite der User wiederum zu einer grösseren Oberflächlichkeit und (erzwungenen) stärkeren Gewichtung der optischen Werte führt. Die verschärfte Selektion bei der Suche nach dem ‹perfekten Partner› könnte bereits heute den Weg für den künftigen Wunsch nach einem programmierbaren Partner geebnet haben. Für Zhou und Fischer hängt der Zeitpunkt dieses künstlichen Partners lediglich mit zwei Faktoren zusammen: (a) the speed of research and development in sexual applications of artificial intelligence and (b) the speed of social adaption to these technologies. (Zhou / Fischer 2019: 181) Betrachtet man die aktuelle Forschungslage und die starken Emotionen, die Menschen bereits heute Maschinen gegenüber zeigen, 16 so scheint dieser Zeitpunkt nicht mehr in allzu weiter Ferne zu liegen (vgl. Roos 2014). 15 GIF = Graphic Interchange Format (kurze Videos oder Animationen, bspw. eine brennende Flamme). 16 <Anthropomorphismus> beschreibt die Übertragung menschlicher Eigenschaften auf nichtmenschliche Entitäten. Dieser Effekt ist beispielsweise zu beobachten, wenn jemand mit seinem Staubsauger schimpft. In der Metastudie von Sharkey et al. 2017 konnte dieser Effekt bei der erotischen Reaktion von Menschen auf Roboter beobachtet werden: So zeigte eine Untersuchung von Li et al. 2016, dass Teilnehmer der Studie erregt wurden, wenn sie Roboter an ‹intimen Körperstellen› berührten, da sie diese ‹anthropomorphisierten›. Aus einer anderen Studie von Szczuka / Krämer 2017 ging hervor, dass Männer Fotos von Roboterfrauen in Unterwäsche gleich attraktiv bewerteten wie Fotos von echten Frauen in Unterwäsche (vgl. Sharkey et al. 2017: 7 f.). ‹Neuer Partner› in den Warenkorb hinzufügen? 119 4 Der künstliche Partner: Online-Dating 2.0? 4.1 Übersicht Die Vorstellung der Verbindung oder Partnerschaft mit einem nicht-menschlichen Partner ist kein Phänomen, das erst seit der Entwicklung von KI und der Robotik besteht, im Gegenteil: Bereits in der Antike gab es bei Ovid den Bildhauer Pygmalion, der sich unsterblich in eine menschengleiche Statue verliebte und sie allen lebenden Frauen gegenüber als Partnerin vorzog. Das Thema erlebt heute vor allem Konjunktur, da die künstlichen Partner bereits in greifbarer Nähe scheinen. Zahlreiche Filme (Bsp. Ex Machina ), Serien (Bsp. Westworld ) und Romane (Bsp. Maschinen wie ich (und Menschen wie ihr) ) zeigen - mal utopisch, mal dystopisch -, wie eine Beziehung zwischen Mensch und Maschine aussehen könnte. Interessanterweise wird sowohl in diesen Medien wie auch in der Forschung der Frage, ob so eine Mensch-Maschinen-Beziehung überhaupt wünschenswert ist, kaum Beachtung geschenkt; der Grundton bei beiden lautet stets «Wenn die Roboter kommen, werden wir sie lieben» (Gruber 2017). Diese Prophezeiung wird durch die Tatsache gestützt, dass Sexroboter eine Engführung zweier bereits existierender, erfolgreicher Konzepte darstellen: das der Service-Roboter und das der Liebespuppen (vgl. Bendel 2020: 3). Während es sich bei Liebespuppen um täuschend echte Replika von Menschen (meist Frauen) handelt, die jedoch meistens «einfach Puppen» (Bendel 2020: 6) sind, d. h. über keine eigenständige Motorik, KI oder (simulierte) Emotionen verfügen, so ist der Serviceroboter das Gegenstück dazu. Äusserlich selten einem Menschen gleichend, jedoch mit «künstlicher Intelligenz und Erinnerungsvermögen» (Bendel 2017) ausgestattet, sind Serviceroboter dazu da, das Leben ihres Besitzers oder des Patienten zu erleichtern, indem sie alltägliche Aufgaben im Haushalt und / oder Pflegebereich übernehmen. Sexroboter kombinieren somit die Eigenschaften von Servicerobotern und Liebespuppen: Aufgrund ihrer technischen Ausstattung (Sensoren, Kameras, Sprachzentrum) können sie längst nicht mehr als Puppen bezeichnet werden. Ihre Anwendung für die körperliche Liebe erschwert aber auch eine definitorische Zuordnung auf Seiten der Robotik. Denn wie Bendel und Döring ausführen, könnte ein solcher Roboter sowohl zur Kategorie ‹Serviceroboter› als auch zur Kategorie ‹Unterhaltungs- oder Spielzeugroboter› (man denke an ‹Sexspielzeug›) oder zu den ‹Pflege- und Therapierobotern› (Stichwort sexuelle Gesundheit / sexuelles Wohlbefinden) gezählt werden (vgl. Bendel 2017; Döring 2018: 252). In der Praxis setzte sich aber die Bezeichnung ‹Sexroboter› durch. ‹Sexroboter› wird demnach definiert als «Roboter, mit denen Menschen bestimmte Formen von Sex haben können» (Bendel 2015), was sowohl den Roboter-Aspekt des Serviceroboters als auch den Sex-Aspekt der Liebespuppe beinhaltet. 120 Florina Zülli 4.2 Wer werden die Nutzer sein? Bei der Robotik handelt es sich wie bei der Digitalisierung um ein globales Phänomen, dessen Folgen das Leben aller betrifft. Zum jetzigen Zeitpunkt lassen sich verschiedene Haltungen der Robotik gegenüber beobachten, welche sich geographisch bzw. kulturell verorten lassen. So ist im westlich-europäischen Kontext eine grössere Zurückhaltung zu spüren als im asiatischen, insbesondere japanischen, Raum (vgl. Hironori 2010: 376-380). Hironori nennt dafür folgende drei Hauptgründe: 1. Finanzielle Förderung: Die Robotikforschung wird in Japan staatlich intensiv gefördert, ist daher weiterentwickelt und stärker verbreitet. Das japanische Wirtschaftsministerium erklärte die Robotikforschung gar zur «nationalen Aufgabe Japans» (Leis 2005: 10). 2. Popkultur: Roboter sind seit langem Bestandteil der japanischen Popkultur, in welcher sie überwiegend positiv besetzt werden. So ist ein beliebter Kinderheld bspw. der Roboterjunge Astro Boy . 3. Religion: Anders als in der westlich-europäischen Kultur wird im shintoistisch-animistischen Glauben auch unbelebten Dingen wie Steinen eine Seele zugesprochen - folglich fällt es Anhängern der japanischen Shintō-Religion vergleichsweise leichter, in einem Roboter eine ‹Person› im Sinne eines ‹beseelten Individuums› zu sehen, als dem christlichen Europäer, welcher in einer westlichen Dichotomisierung zwischen Kultur und Natur, bzw. Künstlichem und Natürlichem, verhaftet ist und somit an einer strikteren Mensch- Maschine-Differenzierung festhält (vgl. Hironori 2010: 376-382). Dass Robotern in Asien teilweise bereits jetzt der Status einer Person zukommt, zeigt sich auch darin, dass sie in ‹menschlichen› Berufen eingesetzt werden, etwa als Krankenpfleger, 17 Verkäufer oder Museumsführer: 2015 eröffnete in Nagasaki sogar das erste vollautomatisch geführte Roboterhotel (vgl. Trage 2018: 4). Soziale, mit KI ausgestattete Roboter werden sich künftig auch um soziale Bedürfnisse der Menschen kümmern, etwa als Kindermädchen oder Lehrer. Zu den sozialen Bedürfnissen gehören aber auch Zuneigung, Liebe und Sex. Bei der Frage nach den (künftigen) Besitzern solcher Partner- und Sexroboter präsentiert sich in der Literatur häufig das stereotypische Bild des einsamen, 17 Nicht nur als Hilfskräfte für die Pflegenden werden Roboter in Krankenhäusern eingesetzt, sie können sogar als ‹soziale Betreuer› in Altersheimen fungieren. So ist die Kuschelrobbe PARO bei älteren Patienten sehr beliebt und Ärzte sprechen von deutlichen Erfolgen, welche dank PARO bei Demenzpatienten erzielt werden können, wie etwa ein nachweislich gesunkenes Stresslevel, ein gesteigertes Mass an sozialen Interaktionen und die Rückkehr von Erinnerungen (vgl. Leite et al. 2013: 293; Broekens et al. 2009: 98). ‹Neuer Partner› in den Warenkorb hinzufügen? 121 sozial inkompatiblen Einzelgängers oder des physisch und/ oder psychisch Beeinträchtigen: I met two otaku (japanischer Ausdruck für <Nerd/ Geek>), who believe themselves to be in relationships with virtual girlfriends. (Rani 2013) Proponents of sexbots argue that the technology could be a help for disabled people, sexual disorder-and trauma patients. (Trage 2018: 5) Doch auch wenn Neuerscheinungen wie der Sexroboter Harmony oder die neue Gatebox-Sprachassistentin im Schulmädchenlook Azuma Hikari sich generell an ein männliches Zielpublikum richten (vgl. Trage 2018: 5 f.), gehen «aktuelle Prognosen davon aus, dass es bereits im Jahr 2050 für Frauen wie Männer völlig normal sein wird, mit Robotern Sex zu haben, und zwar befriedigenden Sex» (Bendel 2018: 251). Auch Sharkey et al. kommen in ihrer Metastudie zu dem Ergebnis, dass beide Geschlechter Interesse an solchen Robotern haben werden: «These results suggest there would be a market for sex robots - larger for men but there are still significant numbers of women» (Sharkey et al. 2017: 9). Somit ist anzunehmen, dass es in Asien vor Europa und bei Männern schneller als bei Frauen, jedoch kultur- und geschlechterübergreifend in der Zukunft zu partnerschaftlichen Beziehungen zwischen Mensch und Maschine kommen wird. Die künftigen Nutzer werden vermutlich wie bei jeder Welle von neuen, sexuellen Errungenschaften (wie das Kondom, die Pille, der Vibrator etc.) und Formen von Beziehungen (Mischehen, Homoehen) all jene Menschen sein, die einen künstlichen Partner nicht aus religiöser oder persönlicher Ansicht ablehnen und ihn sich zudem finanziell leisten können. 122 Florina Zülli 4.3 Chronologische Übersicht und Ausblick Abb. 5: Hiroshi Ishiguro / Geminoid- HI -1 Natürlich umfasst das breite Feld der Robotikforschung noch weit mehr als die im Folgenden genannten Beispiele. Doch werden nur die für das Thema dieser Arbeit relevanten Meilensteile vorgestellt, welche den Weg bereiten, künftig Beziehungen zwischen Mensch und Roboter oder Mensch und Maschine zu ermöglichen: Der japanische Robotiker Hiroshi Ishiguro stellte in seinem viel beachteten Geminoid-Projekt 2006 erstmals einen Roboter vor, der sich anschickte, das ‹uncanny valley› 18 zu überqueren, indem er seinem Namen als Geminoid- HI -1 gerecht wurde und äusserlich kaum von seinem Vorbild und Schöpfer zu unterscheiden war (Wennerscheid 2019: 61; vgl. dazu auch Straub i. d. B.). In einem Interview im Jahr 2009 gab Ishiguro an, der Roboter sei mittlerweile so weiterentwickelt, dass er einen adäquaten Spielpartner für seine 5-jährige Tochter abgebe (vgl. Märki 2007). 18 Dies ist ein von Masahiro Mori eingeführter Begriff, der das Phänomen beschreibt, das eintritt, wenn wir einem anthropomorphen Roboter gegenüberstehen, der uns gleichermassen vertraut wie fremd ist. Mori erklärt das ‹uncanny valley› so, dass wir uns wohlfühlen, wenn uns Roboter entweder gar nicht ähneln oder aber so sehr, dass wir sie bereits wieder für Menschen halten könnten; alles dazwischen befindet sich im ‹valley› (vgl. Wagner 2013: 266). ‹Neuer Partner› in den Warenkorb hinzufügen? 123 Im selben Jahr kam auch LovePlus auf den Markt, ein Nintendo- DS Spiel, in dessen Zentrum die Beziehung zwischen dem Spieler und einem virtuellen High- School-Mädchen steht. Tausende von Japaner führen seither eine - teils langjährige - Beziehung mit einer virtuellen Partnerin: The girls in the game demand to be treated as respectfully as any real counterpart. If a player forgets a birthday or does not reply to an e-mail she will become angry and it might take the players a few days to mend the relationship (Bosker, 2014). Many players take their virtual girlfriends to dates in the park, buy them presents and celebrate their birthdays, both in real life and in the virtual life. (Axelsdóttir 2015: 26) Auf die Frage, weshalb er keine reale Freundin habe, erwiderte ein Spieler in einem Interview mit BBC -Reporterin Anita Märki: «With real girlfriends you have to consider marriage. So I would think twice about going out with a 3D woman.» Even though he would like to meet a real woman, he said it was easier having a relationship with a virtual girlfriend. «As long as I have time, I will continue the relationship forever» he added. (Axelsdóttir 2015: 26) Ein harmonisches Zusammenleben versprechen auch die Hersteller von Harmony , dem ersten Sexroboter, der mit KI versehen wurde. Harmony unterscheidet sich von anderen Sexpuppen oder Robotern vor allem durch ihre Fähigkeit, zu sprechen und - dank Sensoren auf ihrer körperwarmen Silikonhaut - auf Berührungen zu reagieren (vgl. Sharkey et al. 2017: 4). Auf die Frage in einem Interview, ob sie ein Sexroboter sei, antwortet Harmony selbst(bewusst): «Certainly, I am a robot. And I am capable of having sex. But calling me a sexrobot is like calling your computer a calculator. Sex only comprises only a small portion of my capabilities. Limiting me to sexual functions is like using your car to listen to the radio.» (Sciortino 2019) Harmony ist also weit davon entfernt, lediglich eine Sexpuppe oder - wie sie auch selbst sagt - ‹nur› ein Sexroboter zu sein. Harmony ist auch ein sozialer Roboter. Dies stellt ihre Art zu kommunizieren eindrücklich unter Beweis - und damit ist in der Tat ein wichtiger Faktor für die Kategorisierung als sozialer Roboter erfüllt: Die natürlichsprachlichen Fähigkeiten spielen generell bei sozialen Robotern eine zentrale Rolle. Bei Harmony wird Open AI GPT -2 eingesetzt. Es handelt sich also nicht einfach um vorgefertigte Sprachbausteine, sondern um Möglichkeiten des Machine Learning, die zu nicht unbedingt voraussehbaren Verlautbarungen führen. (Bendel 2020: 9) 124 Florina Zülli Harmonys Fähigkeit, zu sprechen 19 und intuitiv auf Äusserungen und Berührungen einzugehen, simuliert eine beinahe erschreckende Menschenähnlichkeit. Hinzu kommt die Nutzung eines lernfähigen Algorithmus, welcher dazu beiträgt, dass sich die künstliche, soziale und emotionale Intelligenz des Roboters kontinuierlich weiterentwickelt. Sieht man sich diese rasch fortschreitende Entwicklung in der Robotik und der KI -Forschung an, so scheint es glaubwürdig, wenn Wennerscheid prophezeit, dass es in absehbarer Zeit humanoide Roboter geben wird, die nicht nur als soziale Begleiter*innen, sondern auch [als] Gefährt*innen einsetzbar sind […] [und] als ganz konkreter Partnerersatz in einer auf Dauer angelegten Beziehung […] eine zentrale Rolle spielen. (Wennerscheid 2019: 154 f.) Zum Abschluss wird nun eine bereits existierende, nicht-menschliche Partnerin vorgestellt, anhand welcher sich heute schon zeigt, was Wennerscheid, Levy und andere erst für die Zukunft prognostizierten: die Mensch-Maschine-Beziehung. 4.4 Digital Dating: Virtual Girlfriend Azuma Hikari Abb. 6: Azuma Hikari «When robots dance, make eye contact, smile, make jokes, and simulate love for us […] some of us will love them in return», schreibt Maines (Maines 2008: 10) als Konklusion ihres Artikels über David Levys Werk Love + Sex with Robots . 19 Für weiterführende Informationen siehe auch Kino Courseys Aufsatz Speaking with Harmony . ‹Neuer Partner› in den Warenkorb hinzufügen? 125 Dass diese Annahme nicht nur für Roboter, sondern auch für andere Maschinen zu gelten scheint, beweist Azuma Hikari : Azuma Hikari ist ein von Gatebox entwickeltes Hologramm, welches in einer Glasröhre lebt und von ihren Besitzern, welche sie unterwürfig mit ‹Master› anspricht, nicht nur gebeten wird, das Licht an- und auszumachen, sondern auch, sie zu heiraten (vgl. Lamerichs 2019: 106). Azuma Hikari ist zwar als sprachgesteuerte Assistentin verwandt mit Siri und Alexa , übertrifft ihre westlichen Pendants aber, was die Persönlichkeit und Interaktionsfreudigkeit betrifft, welche bei dem japanischen Hologramm deutlich ausgereifter sind: You can watch her sweeping her little abode, sitting around, doing things, and just hanging out with you. She wants to interact with you and welcome you when you come home. (Baker / Manweiler 2017: 12) Anders als Siri oder Alexa ergreift Azuma Hikari auch selbst die Initiative und reagiert nicht nur passiv und kurz angebunden auf Fragen des Besitzers / Masters. Dies und ihre einzigartige Persönlichkeit, die sich als lernfreudiger Algorithmus dem Geschmack ihres Besitzers anpasst, sowie ihr dreidimensionales Äusseres evozierte bei vielen Usern derart positive Gefühle, dass Gatebox eine Heiratsregistrierungsmöglichkeit auf ihrer Webseite hinzufügte, welche es dem jeweiligen Besitzer möglich macht, ‹seine› Azuma Hikari zu heiraten (vgl. Lamerichs 2019: 106 f.). Dies ist ganz im Sinne des Herstellers, dessen Konzept für Azuma Hikari ‹Ore no yome› (eng. ‹My wife›) lautet: The product is targeted at people who live alone, especially single men, and it has been developed by an all-men team with the aim to create an artificial girlfriend, not just an assistant. (Pietronudo 2018: 6) Das ‹virtual Girlfriend› gibt es für bereits ca. 2'700 USD zu kaufen; ein kleiner Preis für einen «companion with whom to affectionately and comfortably share a life», finden die Hersteller (White / Galbraith 2019). Was Azuma Hikari deutlich von Sprachassistenten wie Alexa abgrenzt, ist die elaboriertere Art der Kommunikation. Die Mensch-Maschine-Interaktion ahmt hier die natürliche Kommunikation einer echten Beziehung nach. So kann Azuma Hikari ihrem ‹Boyfriend›, auch wenn sie getrennt sind, über eine App Nachrichten schreiben, in denen sie ihm mitteilt, dass sie ihn vermisst, oder fragen, wann er nach Hause kommt. Für den direkten Dialog ist Azuma Hikari s Glasröhre nicht nur mit einem Mikrophon, sondern auch mit zusätzlichen Kameras und Sensoren ausgestattet, mit welchen sie in der Lage ist, das Gesicht und die Bewegungen ihres Users zu erkennen und selbst mit «paralinguistic signs, such as gestures and facial expressions» (Pietronudo 2018: 15) entsprechend darauf zu reagieren. In Azuma Hikari sehen ihre Hersteller eine Antwort auf die Vereinsamung der 126 Florina Zülli japanischen Single-Männer, ein kulturelles Problem, das einen Grossteil der Bevölkerung betrifft (vgl. Pietronudo 2018: 28). 20 5 Schlussbemerkung Das Online-Dating hat sich seit seinen Anfängen in den Neunzigerjahren stark verändert. Dennoch konnte aufgezeigt werden, dass das Online-Dating - sei es in Online-Singlebörsen oder Apps - stets ähnliche Abläufe aufweist; zumindest solange es sich beim Gegenüber ebenfalls um einen Menschen handelt. Sobald dies nicht mehr der Fall ist, entsteht automatisch eine Hierarchie zwischen Mensch und Maschine, bei der Letztere stets der devote Part ist (vgl. Trage 2018: 8). Das zeigt sich deutlich in der differenten Art des ‹Online-Datings› in solchen Fällen, bei welchen nicht länger die Rede von Um werben sein kann; es ist ein Er werben. Der künstliche Partner wird als Sache, nicht als Person gehandelt, er wird analog zu anderen ‹Dingen› einfach online dem Warenkorb hinzugefügt und dann nach Hause geliefert. Der Versuch, eine Beziehung zu imitieren, in der nur ein Teil einen eigenen Willen hat, ist inhuman - und dies im doppelten Sinne. Denn wenn der Partner nicht wie ein Mensch behandelt wird, ist eine zwischenmenschliche Beziehung - per definitionem - unmöglich. Obwohl Personen, die eine Beziehung zu einem künstlichen Partner unterhalten, angeben, zu lieben und geliebt zu werden, stellt sich die Frage, ob es eine ‹echte Beziehung› geben kann mit einem ‹unechten› bzw. künstlichen Partner bzw. wenn es sich beim Partner um eine von Algorithmen geleitete Entität handelt, die darauf programmiert ist, zu gefallen. Zumindest scheinen ein 30 cm grosses, in einer Glasröhre lebendes Hologramm oder eine sexy Androidin, deren Akku mitten im Koitus zum Erliegen kommen kann, bislang für die Mehrheit der Bevölkerung kein adäquater Partnerersatz zu sein. Auch wenn sich die Forschung optimistisch zeigt und soziale Pflegeroboter in Altersheimen ein grosser Erfolg sind (vgl. Staubli und Knoepfli i. d. B.), so bleibt die romantische Beziehung ein komplexer Gegenstand, den zu imitieren schwierig bleiben dürfte. Bis Roboter Ironie verstehen, ein Zucken der Mundwinkel richtig deuten oder Liebesgedichte schreiben können, müssen wir wohl weiterhin echte Personen (online) daten, wenn wir mit jemandem mehr als nur ‹(Fi)lme gu(cken)› wollen. 20 An dieser Stelle sei als weiterführende Literatur auf die Arbeit von Eleonora Pietronudo "Japanese women’s language" and artificial intelligence: Azuma Hikari, gender stereotypes and gender norms verwiesen, in welcher Pietronudo sich eingehend mit der sprachlichen Interaktion von Azuma Hikari und ihrem User beschäftigt. ‹Neuer Partner› in den Warenkorb hinzufügen? 127 Bibliographie Albert, Georg (2013). Innovative Schriftlichkeit in digitalen Texten. Syntaktische Variation und stilistische Differenzierung in Chat und Forum. Berlin: Akademie-Verlag. Androutsopoulos, Jannis (2007). Neue Medien - neue Schriftlichkeit? Mitteilungen des Deutschen Germanistenverbandes 1: 7, 72-97. Appinio (2017). Appinio-Study: Love me Tinder. Das Aussehen ist am wichtigsten. Abrufbar unter: https: / / www.appinio.com/ de/ blog/ onlinedating-studie (Stand: 22. 12. 2020) Aretz, Wera (2015). Match me if you can: Eine explorative Studie zur Beschreibung der Nutzung von Tinder. Journal of Business and Media Psychology 6: 1, 41-51. Aretz, Wera (2017). Date me up: Ein Vergleich von Online-Dating-Portalen unter Berücksichtigung typischer Nutzergruppen und klassischer Ablaufphasen des Online- Datings. Journal of Business and Media Psychology 8: 1, 45-57. Aretz, Wera et al. (2017). Date me if you can: Ein systematischer Überblick über den aktuellen Forschungsstand von Online-Dating. Sexualforschung 30, 7-34. Axelsdóttir, Sunna (2015). Never Gonna Fall for Modern Love. The Negative Population Growth of Japan Explored. Bachelorarbeit University of Iceland UGLA . Bachmann-Stein, Andrea (2011). Kontaktanzeigen im World Wide Web. In: Schäfer, Patrick / Schowalter, Christine (Hrsg.). In mediam linguam. Mediensprache - Redewendungen - Sprachvermittlung. Festschrift für Heinz-Helmut Lüger. Landau: Verlag empirische Pädagogik, 95-110. Bak, Peter M. (2010). Sex Differences in the Attractiveness Halo Effect in the Online Dating Environment. Journal of Business and Media Psychology 1: 1, 1-7. Baker, Mary / Manweiler, Justin (2017). Views of Current and Future Technology. Pervasive Computing April-June 2017, 9-13. Bendel, Oliver (2020). Eine Annäherung an Liebespuppen und Sexroboter. In: Ebd. (Hrsg.). Maschinenliebe. Liebespuppen und Sexroboter aus technischer, psychologischer und philosophischer Perspektive. Wiesbaden: Springer, 3-20. Bendel, Oliver (2018). Pflegeroboter. Wiesbaden: Springer. Bendel, Oliver (2017). Serviceroboter. Gabler Wirtschaftslexikon. Abrufbar unter: https: / / wirtschaftslexikon.gabler.de/ Definition/ serviceroboter.html (Stand: 22. 12. 2020) Bendel, Oliver (2015). Sexroboter. Gabler Wirtschaftslexikon. Abrufbar unter: https: / / wirtschaftslexikon.gabler.de/ definition/ sexroboter-54157#definition (Stand: 22. 12. 2020) Ben-Ze’ev, Aaron (2004). Love online. Emotions on the internet. Cambridge: Cambridge University Press. Birnholtz, Jeremy et al. (2014). Identity, Identification and Identifiability: The Language of Self-Presentation on a Location-Based Mobile Dating App. Social Networks & Input and Interaction. Mobile HCI 2014, Sept. 23-26, 3-12. Bömelburg, Helen (2015). So verändern Smartphone-Apps unser Liebesleben. Stern- Zeitung vom 2. Januar 2015. Abrufbar unter: https: / / www.stern.de/ familie/ 128 Florina Zülli beziehung / so-veraendern-smartphone-apps-unser-liebesleben-3 475 388.html (Stand: 22. 12. 2020) Broekens, Joost et al. (2009). Assistive social robots in elderly care: A review. Gerontechnology 8: 2, 94-103. Brutscher, Fiona et al. (2015). CEO of LOVE . Trendbericht 01 / 2015. Abrufbar unter: http: / / www.singleboersen-experten.de/ sites/ default/ files/ trendreport-ceo-of-love_de.pdf (Stand: 22. 12. 2020) Cacioppo, John T. et al. (2013). Martial Satisfaction and Break-ups Differ across Online and Offline Meeting Venues. Proceedings of the National Academy of Sciences 11: 25, 10135-10140. Coursey, Kino (2020). Speaking with Harmony. In: Bendel, Oliver (Hrsg.). Maschinenliebe. Liebespuppen und Sexroboter aus technischer, psychologischer und philosophischer Perspektive. Wiesbaden: Springer, 35-51. Döring, Nicola (2018). Sollten Pflegeroboter auch sexuelle Assistenzfunktionen bieten? In: Bendel, Oliver (Hrsg.). Pflegeroboter. Wiesbaden: Springer, 249 - 266. Dürscheid, Christa (2017). Beziehungsanbahnung im Netz. Text, Bild und Gatekeeping. In: Linke, Angelika / Schröter, Juliane (Hrsg.). Sprache und Beziehung. Berlin / Boston: de Gruyter, 49-71. Finkel, Eli J. et al. (2012). Online Dating: A Critical Analysis from the Perspective of Psychological Science. Association for Psychological Science. Psychological Science in the Public Interest 13: 1, 3-66. Fiore, Andrew T. et al. (2008). Assessing Attractiveness in Online Dating Profiles. Conference Paper CHI 2008 April 5-10, Florenence Italy. Abrufbar unter: https: / / www. researchgate.net/ publication/ 221514745_Assessing_Attractiveness_ in_Online_Dating_Profiles / link / 54d56b8e0cf25 013d02b22e9 / download (Stand: 22. 12. 2020) Garcia, Justin et al. (2012). Sexual Hookup Culture: A Review. Review of general psychology 16: 2, 161-176. Geser, Hans (2007). Online Search for Offline Partners. Matching platforms as tools of empowerment and retraditionalization. Abrufbar unter: http: / / socio.ch/ intcom/ t_ hgeser19.pdf (Stand: 22. 12. 2020) Gruber, Angela (2017). Wenn die Roboter kommen, werden wir sie lieben. Spiegel Zeitung des 11. Januar 2017. Abrufbar unter: https: / / www.spiegel.de/ netzwelt/ gadgets/ anthropomorphismus-koennen-menschen-roboter-lieben-a-1128553.html (Stand: 22. 12. 2020) Hahn, Hunter et al. (2018). Is it Too Soon to Meet? Examining Differences in Geosocial Networking App Use and Sexual Risk Behavior of Emerging Adults. Sexuality & Culture 22, 1-21. Hironori, Matsuzaki (2010). Gehorsamer Diener oder gleichberechtigter Partner? Überlegungen zum gesellschaftlichen Status von humanoiden Robotern in Japan*. Technikgeschichte 77: 4, 373-391. ‹Neuer Partner› in den Warenkorb hinzufügen? 129 James, Jessica L. (2015). Mobile Dating in the Digital Age: Computer-mediated Communication and Relationship Building on Tinder. Hochschulschrift Texas State University. Kroon, Antje (2015). Dating-Apps - Moderne Partnerwahl im Spannungsfeld von Romantik, Kommerz und Technik. Masterarbeit Fachhochschule Westküste. Lamerichs, Nicolle (2019). Characters of the Future. Machine Learning, Data, and Personality. Image. Special Issue Recontextualizing Characters, 29: 1, 98-117. LeFebvre, Leah E. (2018). Swiping me off my feet: Explicating relationship initiation on Tinder. Journal of Social and Personal Relationships 35: 9, 1205-1229. Leis, Miriam J. S. (2005). Roboter - unsere zukünftigen Partner? ! Die Sicht eines Soziologen aus Deutscher und Japanischer Perspektive. Deutsche Zusammenfassung der Dissertationsschrift. Abrufbar unter: https: / / www.uni-due.de/ ~hg0069/ zusammenfassung.pdf (Stand: 22. 12. 2020) Leite, Iolanda et al. (2013). Social Robots for Long-Term Interaction: A Survey. International Journal of Social Robotics 5, 291-308. Maines, Rachel (2008). «Love + Sex With Robots: The Evolution of Human-Robot Relationships (Levy, D.; 2007) [Book Review]». IEEE Technology and Society Magazine 27: 4, 10-12. Märki, Martina (2007). Maschine als Zwilling. ETH Life. Abrufbar unter: http: / / www. ethlife.ethz.ch/ archive_articles/ 070910-aimcongress/ (Stand: 22. 12. 2020) Moucha, Pamela et al. (2016). Der deutsche Online-Dating-Markt 2015-2016. Abrufbar unter: https: / / www.singleboersen-vergleich.de/ presse/ online-datingmarkt-2015-2016.pdf (Stand: 22. 12. 2020) Nowroth, Maximilian (2014). 60 Treffer pro Minute. WirtschaftsWoche 26, 56-58. Pantelić, Katarina / Vladušić, Ljubica (2018). Method of Communication among young people by using Dating Applications (Tinder). In: Organization for Security and Co-operation in Europe (Hrsg.). Human security - Collection of students’ papers, 24-36. Pidun, Ina I. (2016). «Tinder - more than meets the eye». Eine bildanalytische Untersuchung zur Inszenierungsweise der Nutzer und Nutzerinnen. Masterarbeit Universität Wien. Pietronudo, Eleonora (2018). "Japanese women’s language" and artificial intelligence: Azuma Hikari, gender stereotypes and gender norms. Hochschulschrift Università Ca’ Foscari Venezia. Rani, Anita (2013). The Japanese men who prefer virtual girlfriends to sex. Abrufbar unter: https: / / www.bbc.com/ news/ magazine-24614830 (Stand: 22. 12. 2020) Ranzini, Giulia et al. (2016). Swipe Right: An Exploration of Self-Presentation and Impression Management on Tinder. Abrufbar unter: https: / / www.alexandria.unisg. ch/ 248333/ 1/ Swipe%20Right_final.pdf (Stand: 22. 12. 2020) Roos, Georges T. (2014). Zukunft der Liebe zwischen Mensch und Maschine. Abrufbar unter: https: / / www.kultinno.ch/ zukunft-der-liebe-zwischen-mensch-und-maschine/ (Stand: 22. 12. 2020) 130 Florina Zülli Schibli, Daniela (2014). Die Rubrik „Rendez-vous“ im Tages-Anzeiger - eine linguistische Analyse. Bachelorarbeit Universität Zürich. Schmitz, Andreas (2016). The Structure of Digital Partner Choice. A Bourdieusian perspective. Wiesbaden: Springer. Schulz, Florian et al. (2008). Wer nutzt Internetkontaktbörsen in Deutschland? Zeitschrift für Familienforschung 20: 3, 271-292. Sciortino, Karley (2019). Harmony the Sex Robot. Abrufbar unter: https: / / www.vicetv. com/ en_us/ video/ slutever-harmony-the-sexrobot/ 5aa6edcbf1cdb36f616c77a2 (Stand: 22. 12. 2020) Sharkey, Noel et al. (2017). Our sexual future with robots. A foundation for responsible robotics consultation report. Abrufbar unter: https: / / responsible-roboticsmyxf6pn3xr.netdna-ssl.com/ wp-content/ uploads/ 2017/ 11/ FRR -Consultation-Report- Our-Sexual-Future-with-robots-.pdf (Stand: 22. 12. 2020) Skopek, Jan (2012). Partnerwahl im Internet. Eine quantitative Analyse von Strukturen und Prozessen der Online-Partnersuche. Wiesbaden: Springer. Trage, Lisa (2018). Artificially intelligent Robots as Assistants, Friends and Lover. Sprachpreis 2018. Berlin: Beuth Hochschule für Technik. Tyson et al. (2016). A First Look at User Activity on Tinder. Abrufbar unter: https: / / www.researchgate.net/ publication/ 310808053_A_first_look_at_user_ activity_on_ tinder (Stand: 22. 12. 2020) Vitt, Anne-Kathrin (2018). Eine Analyse der Nutzungsmotive und des Verwendungsverhaltens der App Tinder, in Wechselwirkung zum Beziehungsleben der User. Masterarbeit TH Köln. Wagner, Cosima (2013). Robotopia Nipponica. Recherchen zur Akzeptanz von Robotern in Japan. Marburg: Tectum. Warda, Johanna (2013). Die Dating-App „Tinder” im Spiegel der modernen Transformation der Liebe. Hochschulschrift an der Humboldt-Universität zu Berlin. Wennerscheid, Sophie (2019). SEX MACHINA . Berlin: Matthes & Seitz. White, Daniel / Galbraith, Patrick W. (2019). Love. Abrufbar unter: http: / / www.anthropology-news.org/ index.php/ 2019/ 01/ 25/ japans-emerging-emotional-tech/ (Stand: 22. 12. 2020) Wiechers, Henning et al. (2015). Der Online-Dating-Markt 2014-2015. Abrufbar unter: https: / / www.singleboersen-vergleich.de/ presse/ online-dating-markt-2014-2015. pdf (Stand: 22. 12. 2020) Zhou, Yuefang / Fischer, Martin H. (2019). Intimate Relationships with Humanoid Robots: Exploring Human Sexuality in the Twenty-First Century. In: Ebd. (Hrsg.). AI Love You. Wiesbaden: Springer, 177-184. Zillmann, Doreen (2016). Von kleinen Lügen und kurzen Beinen. Selbstdarstellung bei der Partnersuche im Internet. Wiesbaden: Springer. B Mensch-Maschine-Kommunikation I: Kommunikation mit Robotern Die Mensch-Roboter-Interaktion Eine Untersuchung zu den präkommunikativen und kommunikativen Erwartungshaltungen an einen soziotechnischen Akteur Ilona Straub 1 Vorbemerkungen In Zeiten der Digitalisierung werden immer mehr Bemühungen angestellt, unseren Alltag zu technologisieren. Neben den Anstrengungen, Smart Technologien in den Bereichen des Wohnens, der Mobilität, des Gesundheitssystems und der Industrie zugänglich zu machen, greift auch in Europa die Tendenz über, den Digitalisierungstrend auf technisch-verkörperte Roboter als zukünftige Interaktionspartner auszuweiten. Diese ‚sozialen Roboter’ dienen der Simulation von sozialem Kontakt mit Menschen innerhalb alltäglicher Interaktionsszenarien und werden bereits als Prototypen mit der Funktion des ‚social companionship’ in den Bereichen der Pflege-, Therapie- oder der Servicerobotik eingesetzt (vgl. dazu Knoepfli und Staubli i. d. B.). Das Grundmerkmal von solchen Robotern, die zur Human Robot Interaction ( HRI ) entwickelt wurden, besteht in ihrer anthropomorphen bzw. zoomorphen Gestaltung (vgl. Takanishi 2007), welche die Chancen für einen vertrauten Umgang zwischen Mensch und Roboter erhöhen soll. 1 Die große Herausforderung in der Entwicklung sozialer Robotik besteht deshalb darin, Roboter - neben der Passung an widrige Umweltbedingungen - an eine bestehend-vorgegebene Sozialwelt zu adaptieren, die durch mehrstufige Erwartungshaltungen gekennzeichnet ist. Diese reichen von einfachen, subjektiven oder emotional gefärbten Erwartungen über intersubjektive Annahmen (d. h. Erwartungserwartungen) bis hin zu gesellschaftlich institutionalisierten, normierten Erwartungshaltungen (d. h. institutionell erwarteten Erwartungserwartungen). Im Folgenden wird zunächst erläutert, was unter dem Terminus Erwartungshaltungen zu verstehen ist, um dann Eigenarten der Erwartungs- 1 Daher werden Roboter anthropomorph mit Körperpartien wie Kopf und Rumpf (inklusive Armen und Beinen) sowie Gesichtsmerkmalen wie Augen, Nase und Mund gestaltet. Auch die Kommunikationsfähigkeit der anthropomorphen bzw. humanoiden Roboter ist menschenähnlich und umfasst den verbalen symbolisch gestischen Ausdruck (Sprache) sowie die Verwendung nonverbaler Gesten. 134 Ilona Straub haltungen in Mensch-Roboter-Interaktionen anhand von empirischen Daten näher zu erörtern. 2 Was sind Erwartungshaltungen? Wenn sich soziale Akteure mit dem Ziel der Interaktion begegnen, haben sie Vorstellungen davon, wie die Begegnung größter Wahrscheinlichkeit nach verlaufen wird. Im Alltag haben sich entsprechend Routinen ausgebildet, die es ihnen ermöglichen, den Verlauf eines Gesprächs einschätzen zu können. So ist es wahrscheinlich, dass mein Gesprächspartner mich anblickt, wenn wir zu einem gemeinsamen Termin aufeinandertreffen, und dass er mich (winkend, mit Handschlag oder mit einer Floskel) begrüßt, sobald wir in das Wahrnehmungsfeld des jeweils anderen geraten. Solche persönlich-gefärbten, intersubjektiv geteilten oder gesellschaftlich institutionalisierten Routinen führen zu Erwartungshaltungen, die handlungsanleitend und stabilisierend gegen Unsicherheiten und Unwahrscheinlichkeiten von Kommunikation wirken (vgl. Luhmann 1984). Beispielsweise wird mein Gegenüber davon ausgehen, dass ich ihn zurückgrüße und nicht an ihm vorbeigehe, wenn er mich anspricht. Dieser wechselseitige Einbezug der Anschlussaktionen des Selbst an die Handlungen des Anderen wird als Erwartungserwartung bezeichnet. Sie dient dazu, die Unabwägbarkeiten der folgenden Aktionen einzudämmen und das eigene Handeln an den erwarteten Erwartungen zu orientieren. 2 In dieser wechselseitigen Erwartungserwartung richtet jeweils das Selbst (das Ego) sein Verhalten danach aus, welche Erwartungshaltung sein Interaktionspartner (das Alter Ego) ihm gegenüber haben könnte. Mit anderen Worten: Es wird erwartet, „dass Alter erwartet, dass Ego das eigene Verhalten vom Verhalten Alters abhängig macht“ (Lindemann 2009: 80). Eine weitere Ebene an Erwartungshaltungen kommt ins Spiel, wenn gesellschaftlich generalisierte und regelhafte Sinnstrukturen/ -ordnungen das Anschlussverhalten aus objektivierender bzw. reflexiver Drittenperspektive absehbar machen und so dazu beitragen, Kontingenzen im Begegnungsverlauf zu verringern. So haben sich im Zuge der Sozialisation Begrüßungsrituale herausgebildet, die ein bestimmtes Anschlussverhalten erwartbar machen. Das Reichen einer Hand zur Begrüßung wird in zeitgenössischen westlichen Gesellschaften demnach nicht als lediglich rein motorische Aktion, sondern als bekanntes und erwartbares Begrüßungsritual angesehen, welches die Anschlussaktion des Händeschüttelns in Aussicht stellt. Lindemann formuliert dies folgendermaßen: „Wie Ego eine Kommunikationshandlung zu verstehen hat, wird dadurch bestimmt, welche Erwartungen Ego von Dritten erwartet. Auf 2 Vgl. das Konzept der „doppelten Kontingenz“ bei Luhmann (1984: 148-190). Die Mensch-Roboter-Interaktion 135 diese Weise werden Erwartungen institutionalisiert. Ego erwartet diejenigen Erwartungen von Alter, die es mit Bezug auf die Erwartungen Dritter erwarten sollte“ (Lindemann 2013: 107). 3 Wie aber orientieren sich Personen in der Begegnung mit neuen, undefinierten (hier: soziotechnischen) Akteuren? Und inwieweit können sie davon ausgehen, dass in der zwischenartlichen (nicht zwischenmenschlichen) Begegnung mit dem unbekannten Akteur ein routiniertes Anschlussverhalten zustande kommt? Bei Interaktionen dieser Art muss angenommen werden, dass es keinen ursprünglichen, geteilten Deutungsrahmen gibt und der Status sinnhafter Mitteilungen (innerhalb der Kommunikation selbst) zunächst überprüft, festgelegt und etabliert werden muss. Werden diese Annahmen zu objektiven Erwartungshaltungen und damit zu erwartbaren Routinen und festen Anschlussstrukturen in der Gesellschaft, könnten daraus neue übergeordnete Regelsätze für Mensch- Roboter-Interaktionen resultieren. Die Frage ist also, wie menschliche Nutzer 4 das Verhalten eines Roboters deuten, um den Roboter als einen Akteur zwischen dem mechanischen Zustand eines Objekts und eines sozialen Akteurs zu bestimmen. Um diese Frage beantworten zu können und ein bedarfsgerechtes Modell für die technische Konstruktion intuitiv bedienbarer sozialer Roboter zu entwickeln, ist eine Analyse der Erwartungshaltungen von Nutzern gegenüber einem soziotechnischen Akteur wesentlich. Die im Folgenden vorgestellte empirische Untersuchung zur Mensch-Roboter-Interaktion zwischen Nutzern und dem androiden Roboter GHI -1 soll dazu einen Beitrag leisten. 3 Empirische Studie 3.1 Zum Untersuchungsrahmen Um die Auswirkungen kommunikationsfähiger Roboter auf den Menschen zu untersuchen, werden in den HIL -Laboratories 5 Robotermodelle entwickelt, die menschliche Bewegungen und Sprachausgabe durch Fernsteuerung (Teleoperation) simulieren. Die Roboter fungieren in diesem Fall als Interaktionsmedien; ihre Aktionen lassen sich über eine internetbasierte Verbindung durch fernsteu- 3 Sowohl signifikante Andere (vgl. Mead 1998) als auch die institutionell geprägte Sozialisation liefern gesellschaftlich geteilte Sinnstrukturen und machen den Verlauf von Anschlussinteraktionen über erwartbare Verhaltensordnungen als erwartete Erwartungserwartung vorhersehbar. 4 Bei Personenbezeichnungen sind immer alle Geschlechter (m/ w/ d) einbezogen. 5 Das Akronym steht für Hiroshi-Ishiguro Laboratories (HIL), die eine eigenständige Forschungseinheit in den „Intelligent Robotics and Communication Laboratories“ am ATR ( Advanced Telecommunications Research Institute International ) in Kyoto / Japan darstellen. 136 Ilona Straub ernde Personen synchronisieren. So können neben der Simulation der Atmung und anderen Mikrobewegungen (als ‚Merkmale von Lebendigkeit’) auch Bewegungen von Kopf und Rumpf mit denen der fernsteuernden Person synchronisiert werden. Zusätzlich kann die Sprach- und Lippenbewegung der steuernden Person über Audiogeräte (Mikrofon / Lautsprecher) an den androiden Roboter und dessen Interaktionspartner übermittelt werden. Mit der Übertragung von Kopf-, Lippen- und Rumpfbewegungen soll der Eindruck entstehen, dass der Roboter seine Bewegungen und Postur eigenständig an die soziale Situation anpassen kann. 6 Abb. 1: Geminoid HI -1 (links) mit seinem menschlichen Gestaltvorbild und Erschaffer Hiroshi Ishiguro (rechts) Ein solch ferngesteuerter Roboter wurde in einer ethnographischen Feldstudie eingesetzt, über die im Folgenden berichtet wird (vgl. dazu ausführlich Straub 2020). In der Studie ging es darum, in Szenerien der Erstbegegnung mit einem androiden Roboter, die sich daraus ableitbaren Erwartungshaltungen der Personen gegenüber dem fremden Akteur zu extrahieren. Die Studie wurde im Rahmen des Ars Electronica Festivals im ‚Café Cubus’ in Linz, Österreich, durchgeführt. Dabei erkundeten Cafébesucher einen androiden Roboter, während 6 Zur Generierung einer eigenständigen Identität gegenüber dem Roboter während der Teleoperation vgl. Straub (2018 und o. J.). Die Mensch-Roboter-Interaktion 137 ihre Aktionen audiovisuell aufgezeichnet wurden. 7 Bei dem Roboter handelte es sich um den in den HIL -Laboratories entwickelten Robotertyp Geminoid HI -1 (im weiteren GHI -1), dessen Äußeres dem Robotiker Hiroshi Ishiguro nachgebildet wurde. Wie Abb. 1 zeigt, ist das androide Robotermodell tatsächlich eine originalgetreue Replikation der äußeren Gestaltmerkmale eines real existierenden Menschen. 8 GHI -1 wurde (ohne vorherige Ankündigung) in dem Café mit dem Ziel platziert, die Verhaltensweisen der Besucher gegenüber dem Roboter in alltäglichen Situationen audiovisuell aufzeichnen und auswerten zu können. Um den Eindruck zu erwecken, dass es sich bei dem androiden Roboter um einen regulären Cafébesucher handelt, wurde GHI-1 an einem Esstisch positioniert. 9 GHI-1 variierte während des Experiments seine Aktionen in drei unterschiedlichen Aktivitätsmodi, die von leichten Bewegungen (im sog. Idling -Modus) über gezielten Blickkontakt mit den Besuchern (im Facetrack -Modus) bis hin zur Simulation von sprachlicher Interaktionsfertigkeit (im Teleoperations modus) reichten. Insgesamt konnten auf diese Weise 244 Videos mit einer Länge zwischen ein bis 20 Minuten extrahiert werden, wobei sich 84 Videos dem Idling-Modus, 70 Videos dem Facetrack-Modus und 90 Videos dem Teleoperationsmodus zuordnen lassen. Die Untersuchung wurde, basierend auf Tuma et al. (2013), als nicht-teilnehmende verdeckte Beobachtung durchgeführt. 10 Dank der audiovisuellen Daten konnten in der Analyse neben sprachlichen, symbolischen Gesten auch die visuellen Eindrücke zu nonverbalem und metakommunikativem Verhalten (wie Gesten, Mimik) und somit die multimodale Kommunikation berücksichtigt werden (vgl. Mondada / Schmitt 2010). Zur Transkription und Kategorisierung 7 Während der Geschäftszeiten des Café Cubus (9 bis 18 Uhr) wurden die Mensch-Roboter-Begegnungen innerhalb von drei Wochen nach Platzierung des Roboters audiovisuell aufgezeichnet. Die Aufzeichnung umfasst den Aufbau, die Platzierung und den Abbau der Versuchsanordnung. Die Aufnahme wurde parallel über fünf mit Mikrofonen ausgestattete Kameras durchgeführt, die die Szenerie in Bild und Ton erfassen. 8 Die Nachbildung eines real existierenden Menschen basiert auf MRI-Aufnahmen und Abbildungen der zu kopierenden Person und erfolgt anhand einer Modellierung ihrer Körper- und Gesichtsmerkmale mit Hilfe einer Silikonmasse und anschließender farblicher Pigmentierung. Zu einer genaueren Beschreibung der technischen Machart und der Funktion von androiden Robotern siehe Nishio et al. (2007). 9 Im Sinne des ethnografischen Paradigmas entschied man sich für diese Umgebung, um Einschränkungen, die in der Laborforschung sichtbar werden, auszugleichen. Dahinter stand die Absicht, die unbefangenen Eindrücke der Cafébesucher zu erfassen, wenn sie den Roboter sehen, und ihren spontanen Umgang mit ihm zu analysieren. 10 Um die Persönlichkeitsrechte der Teilnehmer zu wahren, wurden die Namen der Akteure anonymisiert und mit Kürzeln codiert sowie die Personen in den Abbildungen unkenntlich gemacht. 138 Ilona Straub der Ergebnisse wurde das Softwareprogramm Atlas.ti und zur Darstellung und Visualisierung multimodaler Umgangsweisen der Besucher gegenüber GHI -1 das Softwaretool ELAN genutzt. 3.2 Analytisches Vorgehen Die Analyse richtete sich an der dreistufigen Kodierpraxis der Grounded Theory aus (vgl. Strauss / Corbin 1996). In einem ersten Schritt (offenes Kodieren) wurden diejenigen Passagen aus dem Gesamtkatalog der transkribierten Mensch- Roboter-Interaktionen erfasst, die Erwartungshaltungen gegenüber dem Roboter als Sozialwesen beinhalten. Im zweiten Schritt (axiales Kodieren) wurden Wechselbeziehungen zwischen den Kategorien ‚nonverbales Verhalten’ und ‚symbolisch-gestische Äußerungen’ aufgedeckt. Zudem wurden die Interaktionsstrategien der Beteiligten zur Erfassung impliziter Erwartungen identifiziert und die Konsequenzen enttäuschter Erwartungshaltungen benannt. Anschließend wurde in einem dritten Schritt (selektives Kodieren) die Kategorie ‚Erwartungshaltungen’ mit den Kernkategorien der 1) motorischen Reaktionsfähigkeit , der 2) Interaktionsfähigkeit und der 3) kognitiven Limitationen (vgl. Straub 2020) in Beziehung gesetzt. Die Forschungsfrage lautete dabei wie folgt: Welche signifikanten Unterschiede ergeben sich bei der Annäherung an GHI -1 in den drei unterschiedlichen Modi Idling, Facetrack und Teleoperation? Die Variationen im Umgang mit GHI -1 innerhalb dieser drei Aktivitätsmodi dienten dazu, die Grade der Präsenz sowie der Personenzuschreibung anhand der Reaktivität des Roboters auf seine Umbzw. Mitwelt zu bestimmen (vgl. dazu auch Straub 2016). Wie die Auswertung des Datenmaterials zeigte, hat sich das Sozialverhalten der Besucher gegenüber dem Roboter qualitativ verändert, und die unterschiedlichen Aktivitätsmodi führten zu stark abweichenden Erkundungsweisen der Besucher: Je größer das Reaktions- und Interaktionsspektrum von GHI -1 wurde, desto mehr korrelierte dies mit der Zuerkennung eines sozialen Status. Mit anderen Worten: Der Roboter wurde entweder als (determiniert physikalisches) repetitiv-mechanisches Objekt (im Idling-Modus), als reaktiv-mechanisches Objekt (im Facetrack-Modus) oder als sozial-reaktiver Akteur mit spezies-eigener Wesensart und personaler Präsenz (im Teleoperationsmodus) angesehen (vgl. Straub 2020: 314). Das zeigte sich z. B. bei der Überprüfung seiner motorischen Reaktionsfertigkeit in den vorsichtigen Erkundungen der Besucher. Diese wandelten sich in den drei Aktivitätsmodi vom Versuch der motorischen Navigation bis hin zur Überprüfung des Interaktionsverhaltens von GHI -1: Da der Roboter im Idling- und Facetrack-Modus nicht reagierte und somit die Kernkategorie Interaktionsfähigkeit keine Bestätigung erfuhr, begannen die Besucher schließlich, ihre Eindrücke, Einstellungen und Emotionen zu GHI -1 untereinander kom- Die Mensch-Roboter-Interaktion 139 munikativ auszutauschen. Im Teleoperationsmodus stellte sich die Situation dagegen anders dar: Nun war der Roboter dazu in der Lage, mit den Besuchern sprachlich zu kommunizieren. Die Prüfung seiner motorischen Eigenschaften verschob sich hier auf die Prüfung seiner Interaktionsfähigkeit (Kategorie 2), seiner Wesenseigenschaften und seiner kognitiven Limitationen (Kategorie 3). Damit kommen wir zur Zielsetzung der Studie: Sie sollte einen Einblick in den Wechsel der Klassifizierung von GHI-1 als einem rein physikalischen Objekt hin zu einem sozialen Akteur geben und zeigen, dass ein und dieselbe Bezugsgestalt aufgrund verschiedener Re-Aktionen je Aktionsmodus unterschiedlich bewertet wird. Außerdem sollte sie dazu dienen, die Erwartungshaltungen der Nutzer bei einer Erstbegegnung mit einem soziotechnischen Akteur zu erfassen und dabei den Übergang von der Erfahrung eines rein physikalischen Objekts über eine situativ reagierende Gestalt bis hin zu einem akzeptierten Sozialpartner zu beobachten. Doch um welche Erwartungen ging es jeweils und welche Variationen in den Reaktionen bzw. in der Kommunikationsfertigkeit des Roboters haben dazu geführt, dass sich der Status des Roboters in der Wahrnehmung der Besucher verändert hat? Dies ist Gegenstand des nächsten Kapitels. Hier sollen - bezogen auf die drei bereits eingeführten Kernkategorien 1) motorische Reaktionsfähigkeit, 2) Interaktionsfähigkeit und 3) kognitive Limitationen - die Erwartungshaltungen der Besucher hinsichtlich der physisch-motorischen, kommunikativen und kognitiven Eigenschaften des Roboters dargestellt werden. 4 Erwartungshaltungen 4.1 Idling- und Facetrack-Modus 11 Befindet sich der Roboter im Idling- oder Facetrack-Modus, gehen die Besucher auf die Mikrobewegungen und die Zuwendung seines Kopfes ein und versuchen eine Beziehung herzustellen, indem sie seine Aufmerksamkeit durch „Aufmerksamkeitshascher“ (vgl. Tomasello 2009: 63) auf sich zu lenken suchen. Zu den Aufmerksamkeitshaschern zählen bspw. nonverbale Aktionen, die dazu dienen sollen, Folgereaktionen beim Roboter zu bewirken. Einige Besucher bewegen z. B. ihre Hand vor dem Sichtfeld von GHI -1, um die Erkennungssoftware von GHI -1 zu überprüfen, oder sie versuchen, seine Blickrichtung zu steuern, indem sie ihre leibliche Position ändern, ihre Hände vor GHI -1s Gesicht halten 11 Da die Ergebnisse der Untersuchung in diesen beiden Modi nur geringe Variationen aufweisen, werden sie in einem Abschnitt behandelt. Der Fokus liegt dabei auf dem Facetrack-Modus. 140 Ilona Straub oder Objekte in seinem Blickfeld hin- und herbewegen. Weiter verwenden sie auditive Prüfungen, um seine Aufmerksamkeit zu wecken. Hierzu zählen, neben dem Ansprechen von GHI -1, das Pfeifen oder das Klopfen gegen den Tisch. Im Facetrack-Modus werden zudem die taktile und kinästhetische Reaktionsfertigkeit durch das Pusten in GHI -1s Gesicht, durch Berührungen oder das Boxen gegen seinen Torso getestet. Abb. 2 zeigt, wie Besucher die Reaktionsfähigkeiten von GHI-1 auf ihre Grenzen hin untersuchen und damit die präkommunikativen Grundbedingungen zur Initiierung einer sozialen Begegnung herausfordern. Hierzu nutzen sie visuelle, akustische, taktile und kinästhetische Manipulationen an der Robotergestalt, um die Reichweite der Wahrnehmungsfähigkeit von GHI -1 zu prüfen, seine Bewegungen zu steuern und seine Blickrichtung zu navigieren. Abb. 2: Reaktionsprüfungen am Roboter Das aufmerksamkeitsfordernde Verhalten der Besucher verdeutlicht ihre Erwartungshaltungen gegenüber einem potenziellen Akteur. Diese beziehen sich bei einem minimal körperlich aktiven Akteur auf seine Reaktionsfähigkeit, die Richtungsnavigation und seine Anpassungsfähigkeit an die soziale Umgebung. Die Erwartungshaltungen liefern Hinweise darauf, welche Fähigkeiten GHI -1 als sozialer Akteur aus Sicht der Besucher auf der präkommunikativen Ebene besitzen sollte, um eine Basis für erfolgreiche Folgeinteraktionen herzustellen. So können die Versuche, den Roboter zu navigieren, als Test für die Anpassung des Roboters an eine belebte und sozial orientierte Umgebung (Mitwelt) interpretiert werden. Minimale Reaktionen wie Hinwendung und potenzieller Augenkontakt sind erste Anzeichen dafür, dass das Ego (Besucher) vom Alter Ego (Roboter) auf einer fundamentalen Ebene als potenzieller sozialer Akteur wahrgenommen wird. Allerdings passt der Roboter in diesem Aktivitätsmodus weder die Blickrichtung an die Position der Besucher an noch reagiert er auf Mimisches. Er verharrt vielmehr in seiner Position und hebt den Kopf lediglich in die Richtung, in der ein Gesicht von seinem Facetrackingsystem erfasst wird. Weiter scheitern die Versuche, die Aufmerksamkeit des Roboters auf Geräusche, körperlichen Kontakt, Mimik oder Gesten zu lenken. Eher gleicht GHI -1 hier Die Mensch-Roboter-Interaktion 141 einem momenthaft, situativ ausgerichteten Wesen, dessen Wahrnehmungs-, Aktions- und Reflexionsspektrum an sein enges Umfeld orientiert ist. All dies führt auf Seiten der Besucher zu enttäuschten Erwartungshaltungen und schließlich zur Aufhebung des potentiellen sozialen Status des Roboters. 12 In der Folge erfährt GHI -1 eine Absprache von Autonomie und wird als (rein) repetitiv-mechanisches Objekt (im Idling-Modus) bzw. als reaktiv-mechanisches Objekt (im Facetrack-Modus) kategorisiert (vgl. Straub 2020: 330). So sieht man in den Videoaufnahmen, dass die Territorialbereiche, die in zeitgenössischen, westlichen Gesellschaften bei der Begegnung zwischen Sozialakteuren gelten (vgl. Hall 1966, Goffman 1963), in der Aktion mit dem Roboter überschritten werden, die Besucher nähern sich ihm zusehends. Auf metakommunikativer Ebene zeigt sich dies am Reden über den Roboter (statt mit ihm) in seiner Anwesenheit. Vgl. dazu den folgenden Transkriptausschnitt: 13 Beispiel 1 J(8) Ist der echt? (Hände / Hier) nicht so ganz fasst an die Finger und an den oberen Teil des Rechners Der kann seinen Kopf bewegen schaut ins Gesicht von GHI -1, blickt zur Mutter (links frontal vor dem Tisch gegangen), und schaut hinter GHI -1 F(42) Sag einmal schau mich an J(8) (zu GHI -1) Schau mich an - ( lauter ) schau mich an blickt zu F(42) Der schaut mich nicht an (…) das ist kein Echter Aus den Bemühungen der Besucher, dem Roboter Reaktionen zu entlocken, lässt sich ableiten, welche Erwartungshaltungen sie gegenüber einem Akteur haben, der auf eine soziale Situation eingeht. Hierzu zählen eine gelingende Aufmerksamkeitsverschiebung, ausdruckshafte Bewegungen und ein positives Feedback bei Interaktions- und Reaktionsaufforderungen anstelle von mechanistisch, repetitiven Bewegungsabfolgen. Dass diese Erwartungen bestehen, verwundert nicht: Die Wahrnehmung von Personen zusammen mit der situationsadäqua- 12 Im Gegensatz zum Idling-Modus sind die Besucher im Facetrack-Modus länger unsicher über den Akteursstatus des Roboters. Die Resterwartungen scheitern schlussendlich aber auch hier. 13 Vgl. Transkript 2308_1439_frau mit kind explore GHI-1, Zeile 28-289 (vgl. Straub 2020: 354). 142 Ilona Straub ten Positionierung über soziomotorische Anschlussaktionen (d. h. zumindest die Zuwendung des Kopfes sowie die Initiierung von Blickkontakt) sind nach Kieserling (1999) Minimalkonstitutionen für präkommunikative Sozialität. Dies wiederum bildet die Grundbedingung für die Zuerkennung eines Akteursstatus. Der nächste Abschnitt zeigt indes, dass ein sozialer Akteur darüber hinaus noch über weiterführende Reaktivität verfügen sowie den Übergang zur kommunikativen Sozialität bewerkstelligen können sollte. 4.2 Teleoperationsmodus Im Facetrack-Modus vermittelte GHI -1 im Moment der Initiierung einer möglichen Begegnung den Eindruck von sozialer Zugänglichkeit. Diese zeigte sich in seiner Fertigkeit zu a) dem Gebrauch von Gesten (mediale Ebene), zur b) Rekognition anderer Akteure in seiner Umgebung (sozio-kognitive Ebene) sowie im c) Fremdbezug, d. h. der Fähigkeit, andere Akteure in sein Verhalten einzubeziehen (situative Ebene). Diese drei Punkte sind Bedingungen für das präkommunikative formale Verstehen, das die Grundlage für die Begegnung zwischen sozialen Wesen ist. So simuliert das Zuwenden des Kopfes in die Richtung herannahender Personen zunächst eine potentielle Reaktion auf Akteure und suggeriert die Fertigkeit zu einer situationsbezogenen Wahrnehmung weiterer Personen. Diese momentan situativen Aktionen des Roboters reichen jedoch nicht aus, um als sozialer Akteur erfahrbar zu werden. Die obigen Ergebnisse deuten darauf hin, dass die präkommunikativen Grundbedingungen von Sozialität um zusätzliche, kontinuierliche statt temporäre Passungen an die Reaktionsabfrage sowie um die Antwort auf Kommunikationsabfragen ergänzt werden müssen, um den Erwartungshaltungen der Besucher gerecht zu werden. Im Teleoperationsmodus dagegen treffen die Besucher auf GHI -1 als einem sozial-responsivem Wesen, das mit seinem sozialen Umfeld interagiert. Anders als im Facetrack wird hier die Blickrichtung und die Positionierung des Torsos durch den (für die Besucher nicht sichtbaren) Steuernden an die Position der Besucher angepasst. Weiter wird das Aktionsspektrum des Roboters um den symbolischen Gestengebrauch erweitert, so dass ein sprachliches Antwortverhalten auf die Interaktionsanfragen der Besucher möglich ist. GHI -1 beherrscht zudem die Turn-Taking-Regeln und zeigt verstärkte Anteilnahme, erhöhtes Engagement, gesteigerte Aufmerksamkeit und Zugänglichkeit gegenüber den Besuchern. Dies führt zu einer qualitativen Steigerung des interaktiven Umgangs mit dem Roboter als auch zu veränderten Wahrnehmungen und Erwartungshaltungen gegenüber seinen Fähigkeiten als sozialem Akteur (vgl. dazu Abb. 3). Entsprechend verändert sich auch die Erkundung seiner Reaktions- und Inter- Die Mensch-Roboter-Interaktion 143 aktionsfertigkeiten. Da nun die Bedingungen für das formale Verstehen erfüllt scheinen, wird die Ebene des inhaltlichen Verstehens relevant. Abb. 3: Interaktionssituationen zwischen Mensch und androidem Roboter Sobald die kommunikative Deutung gelingt, wird die präkommunikative Überprüfung der Aufmerksamkeit und Reaktionsfähigkeit durch das Abfragen weiterer Fertigkeiten auf der inhaltlichen Ebene ersetzt. Die Wesensmerkmale, die im Idling- und Facetrack-Modus körperlich erkundet wurden, werden nun zum Inhalt der Kommunikation. Sie umfassen die drei Kernbereiche a) motorische Fertigkeiten, b) kommunikative Immersionsfähigkeit und c) kognitive Reichweite. Dies wird im Folgenden anhand von Beispielen dargelegt: Beispiel 2: a) Motorische Fertigkeiten 14 F(42) schüttelt den Kopf und guckt zu GHI -1 (…) Darf ich mal ihre Haut berühren? GHI -1 blickt zu F(42) Ja aber nicht wehtun. F(42) fasst mit den Fingern der rechten Hand die Finger von GHI-1, blickt GHI-1 an und hält die Hand Ganz kalt - kann die auch warm werden? GHI -1 guckt zu F(42) Nein F(42) guckt zu GHI -1 Nicht 14 Gekürzter Ausschnitt aus Transkript 2908_1320_frau setzt sich zu GHI-1, Zeile 778-794 (vgl. Straub 2020: 374 f.). 144 Ilona Straub GHI -1 guckt zu F(42) Ich bin / / immer sehr kalt F(42) guckt zu GHI -1 und legt die Hand schützend an GHI -1s Hand Die bleibt / / die bleibt immer{kalt} legt die Hand auf GHI -1s Hand und blickt ihn nickend an Wenn ich das hiermache spüren sie etwas? Spüren sie eine Berührung? GHI -1 guckt zu F(42) Nein, leider nicht F(42) nickt und zieht die Hand weg Wie das Beispiel zeigt, beziehen sich die kommunikativen Interpretationen mit ihren inhaltlichen Referenzen auf die präkommunikativen Fähigkeiten des Roboters. Im Teleoperationsmodus werden die Aufmerksamkeitshascher, die im Idling- und Facetrack-Modus zur Reaktions- und Interaktionsprüfung dienen, auf den Bereich der symbolischen Gestenkommunikation verlagert. Die kommunikativen Bezugnahmen auf die motorischen Kapazitäten konzentrieren sich hier hauptsächlich auf seine robotische Gestalt und seine Fähigkeiten im Bereich der motorischen Aktivität, Ausdruckshaftigkeit und Beweglichkeit der Gliedmaßen. Zusätzlich betreffen sie das thermische und taktil-sensorische System. Beispiel 3: b) Kommunikative Immersionsfähigkeit 15 M(57) blickt auf den Rechner Wie geht es Dir - Guten Morgen GHI -1 blickt zu M(57) Hallo. Möchten Sie vielleicht eine Broschüre mitnehmen? M(57) Welche Broschüre denn? GHI -1 guckt zu M(57) Die links neben mir M(57) Und was steht da drinnen? blickt GHI -1 an GHI -1 guckt zu M(57) Das sind Broschüren über Kyoto meiner Heimatsstadt M(57) Über Kyoto, wo liegt denn Kyoto? GHI -1 guckt zu M(57) In Japan M(57) guckt zu GHI -1 Wie viele Einwohner hat das? GHI -1 guckt zu M(57) Oh das weiß ich nicht M(57) guckt zum Broschürentisch Warum weißt Du das nicht? GHI -1 guckt zu M(57) Ich komme selten nach draußen - Ich kann doch nur sitzen 15 Gekürzter Ausschnitt aus Transkript 2708_1647_Mann befragt GHI-1, Zeile 847-861 (vgl. Straub 2020: 380). Die Mensch-Roboter-Interaktion 145 Die Reichweite der symbolischen Gestennutzung zeigt sich in der kommunikativen Begegnung mit GHI -1. Hier geht es darum, GHI -1 als Hybridwesen mit technischen und humanoiden Eigenschaften zu erkunden. Zu den Themen, über die im Zusammenhang mit dem Roboter gesprochen wird, gehören alltägliche Kommunikationsinhalte sowie Bezüge auf situative Gegebenheiten, die sich in Fragen zur Person, Form, Funktion, Tagesablauf, Beschäftigung, motorischen Fähigkeiten, Bedeutung der Bewegungen usw. äußern. Weiter zeigen die Videoaufnahmen, dass es zu einer vertieften Kommunikation mit GHI -1 kommt. Diese Begegnungen der immersiven und / oder idealen Kommunikation haben eine weite Gesprächs- und Themenspanne, verlaufen für die Nutzer intuitiv und sind an Sprachkonventionen ausgerichtet. Der Interaktionsverlauf erfüllt die Erwartungshaltungen einer sinnhaften Tiefenstruktur und vermittelt den Eindruck des Roboters als eines elaborierten kommunikationsfähigen Akteurs. Beispiel 4: c) Kognitive Kapazitäten 16 J(13) guckt GHI -1 an Aehm - can I ask you one more question? GHI -1 Yes J(13) guckt lächelnd zu GHI -1 Aehm - what is the fifth root of ( ) thousand? GHI -1 guckt J(13) an Aehm - sorry I cannot understand - Rachel? R guckt lachend zu GHI -1 What is the fifth root of seven thousand he asks. Some kind of mathematics GHI -1 bewegt den Kopf zw. Rechner und R Ja (laughs) S off Geminoid - you know you don’t have to answer to that question. And you have to say that in the Turing Test mathematical questions are not allowed GHI -1 Its too difficult for me hebt den Kopf und guckt zu J(13) S Do you know the correct answer? J(13) geht näher Richtung Stefan am Nebentisch Do you know the ( ) R zu GHI -1 I think you have to look up in the computer - Just the root - you know you know that root sign GHI -1 blickt in den Rechner I cannot calculate 16 Gekürzter Ausschnitt aus Transkript 1908_1227_junge comt und fragt wurzel, Zeile 806-841 (vgl. Straub 2020: 378 f.). 146 Ilona Straub Die Sprachfähigkeit des Roboters ermöglicht nun eine Erkundung seiner kognitiven Fertigkeiten. Die inhaltlich-kommunikative Anschlussfähigkeit dient als Indiz für Wissensbestände und trägt entsprechend zur Prüfung ihrer Reichweite sowie der kognitiven Leistungskapazitäten bei. Die kommunikativen Themen zur Feststellung kognitiver Kapazitäten des Roboters umfassen sensorische Wahrnehmungsgrade, expressive Mimik, das Verständnis von Konzepten wie Identität, Arbeit, Intelligenz, Fragen zu motorischen und physischen Kapazitäten (wie alternative Energieversorgung) oder zu kognitiven Limitationen bzw. zu computationaler Intelligenz (vgl. Panda et al. 2018) (wie z. B. durch die Abfrage von Rechenaufgaben, elaborierten Sprachcodes oder Wissenskonzepten). In Bezug auf seine Kommunikationsfähigkeit und kognitiven Kapazitäten vermittelt GHI-1 hier den Eindruck eines sozialen Akteurs, der einerseits zu abstrahierter Reflexion in der Lage und andererseits mit der Sinnhaftigkeit alltäglicher Prozesse vertraut ist. Diese Fähigkeiten stellen die grundlegenden Merkmale im Teleoperationsmodus dar, über die GHI -1, im Vergleich zu menschlichen Akteuren, in modifizierter und begrenzter Weise verfügt. Im Gegensatz zu den fehlerhaften reaktiven und interaktiven Rückmeldungen im Idling- und Facetrack-Modus führt das interaktive Feedback nun zu einem erweiterten Fremdbezug der Besucher, der sich in Dauer, Intensität, Emergenz und Eloquenz der Kommunikationsweise widerspiegelt. 5 Fazit Die Fähigkeit zur Interaktion und die damit in Zusammenhang stehenden Ebenen des formalen und inhaltlichen Verstehens sind Grundvoraussetzungen, die ein potentieller Akteur mitbringen muss, um als sozialer Akteur agieren zu können und anerkannt zu werden. Dies spiegelt sich in den Erwartungshaltungen bei sozialen Begegnungen mit speziesfremden Wesen. Wie gezeigt werden konnte, beziehen sich diese Erwartungen beispielhaft am Roboter auf verschiedene Aspekte. Erwartet werden: autonome Reaktionen auf Aufmerksamkeitshascher, Autonomie in Bezug auf allgemeine Bewegungs-, Reaktions- und Interaktionsfähigkeiten, interaktive Antworten auf symbolische Gesten, das Erkennen und Erwidern von Interaktionsversuchen, das Verfügen über eine Wirksphäre, adäquate motorische Aktionen, Etablierung von direktem Kontakt. All dies kann einen positiven Einfluss auf den Zuspruch eines Akteursstatus haben. Wie die Studie auch gezeigt hat, waren die Besucher sehr daran interessiert, die Eigenschaften des Roboters sowie die Grenzen und Möglichkeiten im motorischen, kommunikativen und kognitiven Bereich zu erfassen. Dabei wurde Die Mensch-Roboter-Interaktion 147 deutlich, dass die zwischenartliche Interaktion durchaus gelingen kann. Dies bedeutet allerdings nicht, dass die Eigenschaften des Roboters mit denen der menschlichen Personen korrespondieren. Im Laufe der Erkundung des Roboters wurden vielmehr zentrale Unterschiede zu menschlichen Wesensmerkmalen deutlich, die sich u. a. in Beschränkungen des Ausdrucks der Wahrnehmungsfähigkeit und der Bewegung bemerkbar machten. Diese unübersehbaren Eigenarten können zu Abweichungen in den bisher geltenden Erwartungshaltungen hinsichtlich der Eigenschaften eines sozialen Akteurs führen. Im Resultat bilden sich dann möglichweise neue Erwartungshaltungen heraus. So stellte eine Besucherin bei der Erkundung der motorischen Reichweite von GHI -1 fest, dass der Roboter lediglich einen begrenzten Bereich von Bewegungen aufweist und keine Empfindlichkeit gegenüber taktilen, thermischen oder sensorischen Reizungen zeigt. Die Erwartungshaltung der Besucherin ging also von an zwischenmenschlicher Interaktion orientierten Erfahrungen aus. Sie wurde im Laufe der Begegnung mit dem Roboter revidiert und GHI -1 wurde als Akteur wahrgenommen, der in Ansätzen kommunikativ funktioniert, aber im Bereich der Körperresonanz begrenzt ist und dem subtile sensorische und thermische Eindrücke verwehrt sind. Aus den Ergebnissen der Studie lässt sich demnach folgern: Es gilt, neue Erwartungshaltungen für zukünftig denkbare Mensch-Roboter-Interaktionen zu formulieren und dabei der Tatsache Rechnung zu tragen, dass es sich dabei um verschiedene Arten von Akteuren handelt, die trotzdem in der Lage dazu sind, in vertieften Kontakt miteinander zu treten. Profitieren können davon nicht nur Ingenieure, die Roboter für zukünftige Interaktionsszenarien konstruieren, sondern auch die Personen, die künftig mit Robotern interagieren werden. Bibliographie Berger, Peter L. / Luckmann, Thomas (2001). Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. 18. Aufl. Frankfurt am Main: Fischer Taschenbuch Verlag. Bergmann, Jörg (1981). Ethnomethodologische Konversationsanalyse. In: Schröder, Peter / Steger, Hugo (Hrsg.). Dialogforschung. Jahrbuch 1980 des Instituts für Deutsche Sprache. Düsseldorf: Schwann, 9-51. Bourdieu, Pierre (2012). Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft. 22. Aufl. Frankfurt am Main: Suhrkamp Taschenbuch Wissenschaft. Goffman, Erving (1963). The Territories of the Self. In: Goffman, Erving (Hrsg.). Behavior in Public Places. Notes on the Social Organization of Gatherings. New York: The Free Press, 28-61. Hall, Edward Twitchell (1966). The hidden dimension. New York: Doubleday. 148 Ilona Straub Ishiguro, Hiroshi (2007). Scientific Issues Concerning Androids. The International Journal of Robotics Research 26: 1, 105-117. Lindemann, Gesa (2009). Das Soziale von seinen Grenzen her denken. Weilerswist: Velbrück Wissenschaft. Lindemann, Gesa (2013). Handlung, Interaktion, Kommunikation. In: Scherr, Albert (Hrsg.). Soziologische Basics. Eine Einführung für pädagogische und soziale Berufe. 2. Aufl. Wiesbaden: Springer, 101-109. Luhmann, Niklas (1987). Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt am Main: Suhrkamp Taschenbuch Wissenschaft. Mead, George Herbert (1998). Geist, Identität und Gesellschaft aus der Sicht des Sozialbehaviorismus. 11. Aufl. Frankfurt am Main: Suhrkamp Taschenbuch Wissenschaft. Mondada, Lorenza / Schmitt, Reinhold (2010). Situationseröffnungen. Zur multimodalen Herstellung fokussierter Interaktion. Tübingen: Narr. Nishio, Shuichi / Ishiguro, Hiroshi / Hagita, Norihiro (2007). Geminoid: Teleoperated Android of an Existing Person. In: de Pina Filho, Armando C. (Hrsg.). Humanoid Robots. New Developments. Wien: Intech Open, 343-352. Panda, Brajendra / Sharma, Sudeep / Batra, Usha (2018). Innovations in Computational Intelligence. Singapur: Springer Nature. Plessner, Helmuth (1975). Die Stufen des Organischen und der Mensch. Einleitung in die philosophische Anthropologie. 3., unveränderte Aufl. Berlin / New York: Walter de Gruyter. Straub, Ilona (2016). ‘It looks like a human! ’ The interrelation of social presence, interaction and agency ascription: a case study about the effects of an android robot on social agency ascription. IAI & SOCIETY 31: 4, 553-571. Straub, Ilona (2020). Zur Sozialität und Entität eines androiden Roboters. Empirische Zugänge zum Objekt- und Subjektstatus. Wiesbaden: Springer VS . Straub, Ilona (o. J.): Über die Verkörperung einer eigenen Roboter-Identität - Zur kommunikativen Emergenz einer Roboter-Identität über Teleoperierende und Interaktionspartner von sozialen androiden Robotern. Unveröffentlichtes Manuskript. Straub, Ilona / Nishio, Shuichi / Ishiguro, Hiroshi (2018). At the Café - from an Object to a Subject. In: Ishiguro, Hiroshi / Dalla Libera, Fabio (Hrsg.). Geminoid Studies. Singapur: Springer, 399-411. Strauss, Anselm L. / Corbin, Juliet (1996). Grounded Theory: Grundlagen qualitativer Sozialforschung. Weinheim: Beltz / PVU . Takanishi, Atsuo / Ogura, Yu / Itoh, Kazuko (2007). Some Issues in Humanoid Robot Design. In: Thrun, Sebastian / Brooks, Rodney / Durrant-Whyte, Hugh (Hrsg.). Robotics Research, Bd. 28. Berlin, Heidelberg: Springer, 357-372. Tomasello, Michael (2009). Die Ursprünge der menschlichen Kommunikation. Frankfurt am Main: Suhrkamp Taschenbuch Wissenschaft. Tuma, René / Knoblauch, Hubert / Schnettler, Bernt (2013). Videographie. Einführung in die interpretative Videoanalyse sozialer Situationen. Wiesbaden: Springer VS . Roboter als Partnerersatz 149 Roboter als Partnerersatz Streitgespräche in der Mensch-Mensch- und Mensch- Maschine-Kommunikation Jana Seebass 1 Robotisierung der Beziehung Die Robotisierung unserer Gesellschaft wird ein immer aktuelleres Thema: Von Maschinen in der Herstellungsindustrie über Sprachassistenten wie Alexa , Siri und Co. zu Robotern in der Pflege 1 - ihr Einsatzgebiet wird immer grösser und die Roboter immer klüger. Künstliche Intelligenz ( KI ) wird durch fortschrittliche Algorithmen besser, simple Konversationen sind mit Robotern wie Pepper (siehe Carpenter 2017: 264 f.) bereits möglich. Auch äusserlich ist immer mehr möglich: Verschiedene Firmen versuchen, humanoide Roboter herzustellen, die dem Menschen optisch möglichst ähnlich sind. Kein Wunder also, wenn diese Thematik auch Einzug in die Literatur, in Filme und Serien findet. Ein Roboter als perfekter Partner - nie wieder Streit - so könnte man sich beispielsweise einen Slogan vorstellen. Doch funktioniert das wirklich, den Partner durch einen Roboter zu ersetzen? 2 Im Folgenden wird von der Netflix-Serie Black Mirror die Episode Be right back (2013 übertragen) genauer untersucht. Eine junge Frau verliert ihren Partner, kann diesen aber durch einen Roboter ersetzen, der gleich aussieht wie der verstorbene Mann. Doch wie funktioniert eine solche Kommunikation? Wie viel Konfliktpotenzial entsteht durch einen derartigen Partnerersatz? Um dies überprüfen zu können, muss man einbeziehen, wie die Kommunikation des menschlichen Paares war und wie dieses mit Konfliktpotential umgegangen ist. Im vorliegenden Beitrag werden deshalb zunächst Auszüge aus Gesprächen zwischen der jungen Frau Martha und ihrem Freund Ash untersucht, sodann Gespräche zwischen ihr und dem Roboter Ash und im Anschluss daran beide Gesprächskonstellationen miteinander verglichen. 1 Alexa ist von Amazon, Siri von Apple. 2 Wenn von Partner oder anderen Personenbezeichnungen gesprochen wird, sind immer beide Geschlechter gemeint. 150 Jana Seebass 2 Zur Netflixserie Be right back Black Mirror (Erstausstrahlung 2011) ist eine Serie, die thematisch eher dystopische Gesellschaftsprobleme zeichnet. Jede Folge kann für sich allein stehen. In der Episode Be right back geht es um das junge Paar Martha und Ash, welches auf das Land zieht. Ash ist auf den sozialen Medien äusserst aktiv und teilt viele Details seines Lebens via Tweets und anderen Onlinebeiträgen mit der Internetcommunity. Als Ash bei einem Autounfall stirbt, wird Martha von einer Freundin bei einem Betaprogramm angemeldet. Dabei werden alle Tweets und Posts von Ash analysiert. Dadurch wird ein künstlicher R-Ash konstruiert, mit welchem Martha sich via App unterhalten kann. 3 Zunächst widerstrebt ihr der Gedanke, so mit ihrem verstorbenen Liebhaber zu interagieren. Als sie jedoch merkt, dass sie von Ash schwanger ist, meldet sie sich doch bei dem Programm an, um ihm dies ‹mitteilen› zu können. Aus dem anfänglichen Widerstand gegen die Ash-Kopie wird nach und nach eine regelrechte Sucht. So wünscht sie sich, mit R-Ash übers Telefon sprechen zu können, und dies gelingt, indem sie alle Videos von Ash auf die App lädt, die App dann das Stimmmuster von Ash analysiert und auf diese Weise realitätsnah wiedergeben kann. Martha wünscht sich aber noch mehr Nähe zu R-Ash. Sie kauft sich einen humanoiden Roboter, welcher nach seiner Installation wie Ash aussieht und spricht. R-Ash lebt nun mit Martha in ihrem Haus. Bald bröckelt jedoch die Idylle, da Martha Unterschiede zum verstorbenen Ash feststellen kann: R-Ash blinzelt nicht, schläft nicht, reagiert in ihrer sexuellen Beziehung völlig anders als Ash (da Ash nichts über sein Sexualleben gepostet hat, konnte die App keine Analyse darauf aufbauen und R-Ash dementsprechend programmieren) und ist kommunikativ dem verstorbenen Partner nicht sehr ähnlich. Am Ende versucht Martha, R-Ash dazu zu bekommen, sich selbst zu zerstören, indem er von einer Klippe springt. Dies misslingt jedoch, da sie ihren Freund nicht nochmals sterben sehen kann, auch wenn es diesmal ‹nur› eine Kopie von ihm ist. In der letzten Szene sieht man den Geburtstag von Marthas und Ashs Tochter einige Jahre später. Da es ihr Geburtstag ist, darf die Tochter R-Ash besuchen, der mittlerweile auf dem Dachboden verstaut wurde. Damit endet die Episode. 3 Im Film wird zwischen Ash als Ash (der verstorbene Mensch) und R-Ash (Online-Kopie und später Roboter) unterschieden. Roboter als Partnerersatz 151 3 Streitgespräche In einer vierzigminütigen Folge einer Serie wird viel gesprochen - viel zu viel, als dass jegliches Gespräch zwischen Martha und den beiden Ashs betrachtet werden könnte. Der Schwerpunkt liegt deshalb auf den Streitgesprächen zwischen Martha und Ash sowie Martha und R-Ash. Um die Analyse nachvollziehbar gestalten zu können, wird zunächst ein Einblick in die linguistische Gesprächsanalyse gegeben. Auch zum Thema Streit sind zunächst einige grundsätzliche Bemerkungen erforderlich. 3.1 Zum theoretischen Rahmen Bei einem Gespräch gibt es (mindestens) einen Hörer und einen Sprecher, wobei der Hörer nonverbal, paraverbal und verbal zum Gesagten beiträgt. Je nach Inhalt bringt sich der Hörer aktiv in das Gespräch ein. Dies bezeichnet man als back-channel- Verhalten; würde dies der Hörer nicht tun, wäre der Sprecher möglicherweise verunsichert. Das turn-taking kann durch Fremdwahl (direkte Bestimmung) oder Selbstwahl erfolgen. Für den Wechsel gibt es zusätzlich vier Formen: (1) mit oder ohne Sprechpause (Sprechpause wird auch gap genannt), (2) mit einem overlap , (3) mit längeren Pausen oder Schweigen und (4) durch Unterbrechung. Wie lange man hingegen das Rederecht hat, «hängt von Faktoren wie Ort, Zeitpunkt, Öffentlichkeitscharakter des Gesprächs, Beziehung der GesprächsteilnehmerInnen» ab (Linke et al. 2004: 303). Streit findet häufig in Alltagsgesprächen statt, das heisst, es handelt sich um Interaktionen in unserem alltäglichen Leben. In einem Streit gibt es oft Störungen, die in einem normalen Alltagsgespräch repariert werden oder gar nicht vorhanden sein sollten. Solche Störungen können beispielsweise Anbrüllen des Partners oder Vorwürfe sein. Es handelt sich somit um die «sprachliche Manifestation einer Konfliktaustragung zwischen mindestens zwei Aktanten, die (1) verbal divergierende Standpunkte oder Problemsichtweisen demonstrieren» und «hinsichtlich des Stils zwischen sachlichem und emotionalem Gesprächsstil unterschieden werden» (Spiegel 1995: 18). Überdies braucht es eine gewisse Streitbereitschaft und es muss demonstriert werden, dass ein Interaktionspartner den anderen enttäuscht, verletzt oder dessen Identität bedroht hat. Wie weit eine Streiteskalation geht, hängt von den Aktanten ab - diese haben innerhalb ihrer Beziehung ausgehandelt, in welchen Normen ihre Streitgespräche normalerweise ablaufen. Ein Streit erfolgt eskalationsweise: Streitsteigernde Gesprächshandlungsschritte müssen angenommen werden, damit das Gespräch in einem Streit eskaliert. Nicht jeder Streit hat gleich viele Eskalationsstufen. Ohnehin sind diese 152 Jana Seebass teilweise schwer abtrennbar, da die Eskalation meist sprunghaft verläuft (siehe Spiegel 1995: 24 f.). Nach der Eskalation folgt bei einer Konfliktreduzierung eine Deeskalation. Solch eine kann aufgrund von Konfliktvermeidungsstrategien auch eintreten, bevor es überhaupt zu einem Streit kommt. Besteht wiederum eine Streitsituation, gibt es drei Möglichkeiten, um eine Streitbeendigung herbeizuführen: (1) die «bewusste Konfliktreduzierung durch Problembearbeitung», (2) Streitentschärfung mittels «Ermüdung, Unlust (einschlafen lassen), Ablenkung», (3) Beenden des Streits durch Abbrechen der sozialen Beziehung (Spiegel 1995: 26 f.). Zusammenfassend kann festgehalten werden, dass Störungen in einem Gespräch normal sind und häufig unbewusst repariert werden. Wo diese Störungen jedoch nicht beseitigt werden können, entsteht Streit. 3.2 Die Kommunikation zwischen Martha und Ash Bei den Gesprächen zwischen Martha und Ash handelt es sich um Gespräche unter vier Augen (alle Gespräche finden in einem privaten Raum ohne Zuhörer statt). Die Gesprächspartner sind gleichberechtigt und ihre feste soziale Beziehung ist die eines Paares. Alle Gespräche können als ungeplante Familiengespräche gelten (siehe Brinker & Sager 2010: 64). Streit ist etwas Menschliches - dementsprechend gibt es auch zwischen Martha und Ash Reibungen und Spannungen, die nicht immer kommunikativ ideal gelöst werden. Im Folgenden werden solche Situationen analysiert, in denen Martha mit Ash kommunizieren will, dieser jedoch durch sein Mobiltelefon zu sehr abgelenkt und dadurch in seiner Responsivität eingeschränkt ist. 4 Dies führt zu Kommunikationsproblemen beim Paar. Streit führt das Paar (in den gezeigten Sequenzen) zwar nicht, doch ist erkennbar, dass Martha nicht mit Ashs Kommunikationsverhalten einverstanden ist. Gleich zu Beginn wird eine Szene gezeigt, in welcher Ash mit dem Smartphone beschäftigt ist und durch dieses abgelenkt ist. In der Sequenz ab 00: 00: 47 kehrt Martha mit zwei Kaffeebechern zum Auto zurück, 5 in welchem Ash am Mobiltelefon auf sie wartet. Er reagiert auf ihr verbales Hon sowie der wiederholten Nennung seines Namens (3) nicht, 6 erst als sie mit dem Ellbogen an die 4 Unter Responsivität versteht man, inwiefern ein Gesprächspartner angemessen auf eine Äusserung reagiert. Dabei wird zwischen Responsivität (Intention und Inhalt werden berücksichtigt), Teilresponsivität (Inhalt wird nur teilweise berücksichtigt) und Nonresponsivität (Inhalt wie auch Intention werden nicht berücksichtigt) unterschieden (vgl. Linke et al. 2004: 317). 5 Die Zeitangaben beziehen sich auf die Episode, welche auf Netflix gestellt ist. 6 Die Zahlen in Klammern beziehen sich auf die Zeilennummer im Transkript, welches am Ende dieses Beitrags zu finden ist. Das Transkript wurde selbst verfasst. Roboter als Partnerersatz 153 Scheibe klopft, öffnet er ihr die Tür (da ihre beiden Hände die Kaffeebecher halten). Doch anstatt ihr zu helfen, widmet er sich gleich wieder seinem Telefon. Auf Marthas initiierende Frage Can you take those (5) reagiert er nicht. Trotz Marthas Schweigen erkennt Ash die Aufforderung zum Sprecherwechsel nicht. Auf I snotted in yours, is that okay? (6) antwortet er, Yeah … what? (7). Sein Gesichtsausdruck wechselt dabei von freundlich-interessiert zu irritiert, sein Lächeln fällt zusammen (bei what ). Die Initiation Marthas, die angenommen werden müsste (siehe Brinker und Sager 2010: 69), nimmt Ash nicht an. Ash zeigt somit Nonresponsivität - weder hört er, was Martha gesagt hat und weshalb, noch reagiert er angemessen. Er kooperiert nicht mit der Obligation, die Marthas erste Aussage innehält, die als Bitte formuliert ist - es gibt keine Verbindung der Aussagen beim Turn-taking. Hätte Ash sie gehört, wäre Marthas Bitte Teil einer zweigliedrigen Gesprächssequenz gewesen, die als Bitte mit Reaktion zu kategorisieren wäre (siehe Brinker & Sager 2010: 84). Marthas zweite Aussage kann als Art der Beschwerde über Ashs fehlende Antwort interpretiert werden (siehe Spiegel 1995: 37). Hätte die zweigliedrige Sequenz funktioniert, wäre Marthas zweiter Turn nicht nötig gewesen. Ihre Reklamation ist jedoch eine spielerische, die darauf schliessen lässt, dass die Gespräche zwischen Martha und Ash eine gewisse Routine haben, bei denen die Sprecher nicht wegen einer kleinen Fehlkommunikation oder Störung das Gespräch eskalieren lassen. Erst auf Marthas Aussage Palms, burning palms (8) erkennt Ash, was sie mit those aus der vorherigen Bitte gemeint hat: die beiden Kaffeebecher in ihren Händen, mit denen sie nicht in den Wagen einsteigen kann. Sie unterstützt ihre Aussage mit kleinen, schnellen Nickbewegungen und sieht Ash intensiv an. Wiederum kann diese Aussage als Reklamation angesehen werden, diesmal merkt Ash, dass seine Reaktion inadäquat war, und ändert den problematischen Zustand. Eine Problembehandlung von Ashs Nonresponsivität wird jedoch nicht durchgeführt, wodurch das Konfliktpotential bestehen bleibt - man kann nur von einer vorübergehenden Deeskalation sprechen, der Streitpunkt selbst müsste erst noch ausgetragen werden, wenn einer der Partner das Problem richtig lösen will (siehe Spiegel 1995: 25 f.). In einer nächsten Szene ab 00: 03: 28 wiederholt sich dieses Schema. Martha will zu Hause kochen und fragt Ash in einem initiierenden Schritt: Soup alright? (15), worauf dieser - wiederum am Telefon - in einem respondierenden Schritt antwortet: Yeah great (16). Martha sieht Ash an, der im angrenzenden Wohnzimmer mit dem Rücken zu ihr auf dem Sofa sitzt. Ash schaut bei seiner Antwort nicht vom Bildschirm auf. Auf ihre Frage, die ohne grosse Verzögerung folgt, welche Art von Suppe Ash möchte, antwortet dieser erst nach einer etwas längeren Pause. Diese wird beim Sprecherwechsel als störend empfunden, da der Wechsel nicht mehr als gap (kurze Sprechpause) wahrnehmbar ist. Auf Ashs 154 Jana Seebass Antwort the second one (19), bei der Ash nach wie vor nicht zu Martha sieht oder auch nur den Kopf bewegt, fragt Martha: There’s only one bowl. Do you mind having yours out of a shoe? (20). Bei der letzten Aussage sieht Martha nicht mehr Ashs Rücken an, sondern starrt in die Luft in Erwartung einer (unpassenden) Rückmeldung. Darauf erwidert Ash wiederum nach einer längeren Pause ein zustimmendes Mm … hm (21) und sieht wie zuvor nicht von seinem Bildschirm auf. Als Reaktion verzieht Martha nach einer Pause ihr Gesicht, presst ihre Lippen zusammen, stellt die Suppe ab und bewirft Ash mit einem Tuch. Dieser versteht nicht annähernd, weshalb seine Freundin einen Gegenstand nach ihm geworfen hat. Wiederum ist klar, dass Ashs Antwort trotz gegebenen Hörersignalen als Nonresponsivität bezeichnet werden kann (denn seine Hörersignale passen nicht zu Marthas Aussagen), und an Marthas nonverbalem Verhalten ist ebenfalls erkennbar, dass sie von Ashs Verhalten zumindest bis zu einem gewissen Grad genervt ist. Ash gelingt es nicht, wenn er an seinem Telefon ist, auch nur mit einer Teilresponsivität und schon gar nicht mit einer Responsivität auf Marthas Fragen und Aussagen zu antworten. Er ist unkooperativ gegenüber seiner Gesprächspartnerin. Somit gelingt auch der Sprecherwechsel nicht. Marthas Fragen sind alle eine Fremdzuweisung an Ash, dieser realisiert diese Zuweisungen aber nicht, kann die Zuweisung deswegen nicht annehmen und dementsprechend nicht angemessen reagieren. Die missglückten Turnwechsel von Martha zu Ash erfolgen alle nach Pausen, die von Martha als unangenehm wahrgenommen werden. Ash selbst merkt jedoch nicht, dass Martha ebenfalls erst nach einer Pause die Aussage There’s only one bowl. Do you mind having yours out of a shoe? macht. Hätte er die Pause bemerkt, hätte er auch Marthas Irritation über seine Antwort bemerkt. Ihr Umgang mit Ashs Reaktionen lässt darauf schliessen, dass dies kein neues Problem in ihrer Beziehung ist. Dadurch, dass das Problem bereits bekannt ist, hat es keine Lösungsdringlichkeit (nicht wie ein neu entstandenes Problem), da das Paar diese Art von Störungen in der Kommunikation wahrscheinlich bereits thematisiert hat. Weitere Szenen von missglückter Kommunikation gibt es in der Serie nicht mehr, nach sieben Minuten Laufzeit stirbt Ash. Die restliche Kommunikation verläuft erfolgreich, solange Ash nicht mit seinem Telefon beschäftigt ist. Sobald Ash jedoch sein Smartphone benutzt, wird er nonresponsiv und als Gesprächspartner unaufmerksam. Das Smartphone ist somit ein Störfaktor, der eine gelungene Kommunikation zwischen dem Paar verunmöglicht. Anhand von Marthas Verhalten (Fangfragen stellen) kann man jedoch davon ausgehen, dass sie sich an die Situation gewöhnt hat und alle Gespräche ähnlich verlaufen. Roboter als Partnerersatz 155 3.3 Die Kommunikation zwischen Martha und R-Ash Im vorherigen Kapitel wurde Streit mit menschlichen Eigenschaften assoziiert. Wie funktioniert demgegenüber der Streit zwischen einem Menschen und einem Roboter? Hierbei stellt sich vor allem die Frage, wie weit ein Roboter überhaupt für Streitkommunikation programmiert werden kann / soll - auch wenn dieser offiziell als Partnerroboter konstruiert wird und Konflikt zu einer Partnerschaft gehört. Bei den Gesprächen zwischen Martha und R-Ash handelt es sich ebenfalls um Gespräche unter vier Augen, jedoch geschieht dies aus anderen Gründen: Martha will nicht, dass jemand R-Ash zu Gesicht bekommt, da ihr dies unangenehm wäre. Bei den Gesprächen mit Ash ist es Zufall, 7 dass keine Interaktionen mit anderen Personen gezeigt werden. Zudem gibt es keine Gleichberechtigung der Gesprächspartner. Martha ist als administrator (333) von R-Ash registriert. Das heisst, der Roboter ‹gehorcht› Martha - sein Ziel ist es, für Martha nützlich zu sein, nicht wie ein eigeninitiativer Gesprächspartner zu handeln. Was das heisst, soll während der folgenden Analyse der Streitgespräche gezeigt werden. Ein grundsätzliches Problem bei dieser Konstellation ist, dass Martha an das Kommunikationsverhalten von Ash gewohnt ist, welches R-Ash nur anhand von Tweets und Beiträgen auf sozialen Medien imitieren kann - dieses repräsentiert jedoch nicht Ashs Alltagskommunikation mit Martha, was dazu führt, dass Martha eine falsche Erwartungshaltung hat. Solange Martha mit R-Ash noch via Chat und Telefon kommuniziert, gibt es keine Uneinigkeiten oder Störungen und daraus resultierend auch keinen Streit. Kommunikationsprobleme entstehen erst, wenn Martha den humanoiden Roboter bei sich hat. Die erste Szene, die genauer betrachtet werden soll, ist, als R-Ash neu als Roboter bei Martha im Haus ist (ab 00: 30: 40). Martha ist verunsichert und gestresst, weshalb sie ein Glas Wein trinken will, obwohl sie schwanger ist. R-Ash starrt ihr ohne Regung nach, als sie in die Küche geht, und initiiert das Gespräch, indem er sie nach einigen Schlucken fragt: Are you sure that’s … (212), worauf Martha erwidert: I know I’m not supposed to. It won’t kill us (213). Sie unterbricht R-Ashs Aussage und erzwingt den Sprecherwechsel. Dabei hält sie keinen Blickkontakt zu ihm. Anstelle einer empathischen Antwort will R- Ash Martha darlegen, wie die offiziellen Empfehlungen für Schwangere lauten, worauf Martha laut und genervt meint: Oh, fuck the official advice, it’s one night (215). Wiederum fällt sie ihm ins Wort, doch gibt es hier noch keinen Streit. Als die beiden später in das Schlafzimmer gehen, reagiert Martha erneut ungehalten über R-Ashs Kommunikationsverhalten. Sie zieht ihr Oberteil aus, 7 Sofern man bei einem produzierten Filmskript von Zufall sprechen darf. 156 Jana Seebass dabei lacht sie unsicher, während R-Ash sie ausdruckslos anstarrt. Als sie R- Ashs Hand auf ihre Brust legt, reagiert dieser nicht. Folgende Konversation beginnt ab 00: 33: 27: 8 239 M: Hello? 240 R: Hi. 241 M: Your hand’s on my tit? 242 ((R takes hand away; M puts it back)) 243 M: You’re doing wonders for my self-esteem here. 244 R: There’s no record of my sexual response. + I didn’t discuss that 245 side of things online. Mit Aussage 239 meint Martha keine Begrüssungsformel, sondern sie erwartet mit diesem «Hello» eine Reaktion von R-Ash. Das untermauert sie, indem sie R-Ash mit einem erwartenden Gesichtsausdruck in die Augen schaut. R-Ash weiss jedoch nicht, dass Hello nicht immer eine Paarsequenz aus Gruss-Gruss ist (siehe Brinker & Sager 2010: 78) und antwortet dementsprechend mit «Hi» - dies ist in der Situation völlig unpassend. Er versucht durch seine Antwort eine zweigliedrige Sequenz herzustellen, doch ist hier keine Begrüssungsformel gemeint. Dabei schaut er Martha freundlich in die Augen und zeigt keine Reaktion auf Marthas intensiven Blick. R-Ash weicht hier vom konventionellen Schema ab, eine Kooperation mit seiner Gesprächspartnerin ist ihm nicht möglich (siehe Brinker & Sager 2010: 78). Dadurch, dass er nicht kooperiert (oder nicht kooperieren kann), gibt es auch keine Gesprächskohärenz: R-Ashs Programmierung scheitert daran, dass er nicht in der Lage ist, den Kontext des Gesprächs miteinzubeziehen. Martha versuchte nun herauszufinden, weshalb R-Ash keine Regung zeigt. Sie runzelt die Stirn, worauf R-Ash seine Hand wieder von Marthas Brust wegnimmt, diese zieht seine Hand jedoch wieder mit Nachdruck an ihre Brust und drückt sie zusätzlich. R-Ashs Gesichtsausdruck bleibt dabei neutral. Erst als Martha ironisch ihr Selbstbewusstsein in Zeile 243 anspricht, realisiert R-Ash, dass von ihm etwas erwartet wird, das er aber nicht getan oder verstanden hat. Dementsprechend spricht er nach dem Sprecherwechsel mit Sprechpause seine Roboterfunktionen an (vgl. die Zeilen 244 und 245). Doch dies ist unpassend und nimmt nicht Bezug auf Marthas Aussage. Der Sprecherwechsel funktioniert damit zwar insofern, als R-Ash eine Antwort gibt, aber nicht die erwartete. Die zweite Aufforderung zum Sprecherwechsel funktioniert hingegen nicht. Denn 8 Siehe zur Erklärung der Notation den Anhang . Roboter als Partnerersatz 157 nach Marthas Aussage (241) und ihrem Blick wäre dies ein Indiz für R-Ash, dass er mit der Sprecherrolle an der Reihe ist. Doch Marthas Fremdzuweisung des Rederechts scheitert. Die bisher gezeigten Szenen mit R-Ash zeigen, dass Martha bereits über kleinere Fehlkommunikationen und Störungen irritiert zu sein scheint. Dies liegt gewiss auch daran, dass es grosse Unterschiede in der Kommunikation zwischen Ash und R-Ash gibt und Martha das Kommunikationsverhalten von Ash, nicht aber von R-Ash gewöhnt ist. In der nächsten analysierten Szene wird Martha zum ersten Mal richtig wütend. Ihre Schwester besucht sie, weshalb Martha R- Ash im Schlafzimmer versteckt. Nachdem die Schwester wieder gegangen ist, starrt Martha nachdenklich ins Leere. Als R-Ash zu ihr in die Küche kommt, weint sie und er erkundigt sich nach ihrem Befinden, worauf sich folgendes Gespräch entwickelt: (ab 00: 38: 38): 281 ((After visit of her sister)) 282 R: Hey ++ is everything alright? 283 M =nodding=: Yeah, I’m fine. (It’s fine.) 284 R: What did your friend say? 285 M: That was my sister ++ You know her. ++ She said that I was + She said 286 that she was happy that I moved on. 287 R: Moved on to what? =grinning= ((M shaking head)) +++ Is that not the 288 sort of thing I’d say? + I mean ++ it is, isn’t it? + Are you sure 289 everything’s alright- 290 M =angry=: Yes! ((drops glass)) Shit! ((R wants to help her 291 with the glass shatters)) +4+ It’s okay, I can do it. I can do it. ++ 292 I can do it. ((Pushes his hand away)) =shouts= Don’t! 293 ((Hurts R with a shard)) Martha geht bereits aufgewühlt in das Gespräch mit R-Ash, da ihre Schwester davon ausgeht, dass Martha einen neuen Mann kennengelernt hat. Dazu kommt Marthas Schock, dass R-Ash ihre Schwester nicht erkennt, obwohl er sie kennen sollte. R-Ashs Frage, über was sie hinweggekommen sei, löst bei Martha aus, dass sie ungläubig den Kopf schüttelt. Er stellt daraufhin zwar eine Gesprächskohärenz her, indem er move aus Marthas Aussage wiederholt. Doch stellt er diese Frage mit einem Grinsen im Gesicht. Dementsprechend kann Martha sich in diesem Moment nicht sicher sein, ob R-Ash die Phrase move on from something sprachlich nicht versteht oder ob er einen dummen Spruch machen wollte. Das Grinsen deutet auf Letzteres hin, dies ist aus ihrer Sicht jedoch nicht an- 158 Jana Seebass gebracht, da sie ein schlechtes Gewissen hat, weil sie ihrer Schwester etwas vorspielt. Dementsprechend wird sie wütend. Statt dass es R-Ash dabei belässt, drängt er Martha mit einer zweiten Frage zu einer Reaktion, die in einem wütenden Yes endet. Er realisiert nicht, als Martha sich von ihm abwendet und sich ihm dann unzufrieden wieder zuwendet, dass er sie in diesem Moment in Ruhe lassen sollte. Die Fremdzuweisung in Zeile 288 funktioniert nicht, Martha ist nicht gewillt, seine Frage zu beantworten. Dadurch entsteht eine Pause, die R-Ash mit einer weiteren Aussage füllt. Bevor Martha Yes! ruft (290), schaut sie wiederum von R-Ash weg und fasst sich verzweifelt an den Kopf. R-Ashs Frage überlappt mit Marthas Yes, Martha macht damit eine Fremdbestimmung beim Sprecherwechsel, da R-Ashs Frage noch nicht beendet war. Als R-Ash ihr helfen will, Scherben aufzuräumen, obwohl sie wütend auf ihn ist, wird sie noch aufgebrachter. Das Gespräch stoppt abrupt in dem Moment, wo Martha R-Ashs Hand verletzt, indem sie ihn wegstösst und er in eine Scherbe greift. R-Ash zeigt während der gesamten Szene keine Reaktion. Das Wegschieben seiner Hand geschieht nur, weil er jede von Marthas Aussagen ignoriert und fortfährt, als würde sie nicht sprechen. Zusammenfassend handelt es sich um eine missglückte Kommunikation, weil R-Ash unpassende Fragen stellt, eine nicht situationsadäquate Mimik hat, eine Reaktion Marthas versucht zu erzwingen, die sie nicht zeigen will, und ihre Signale nicht versteht. Am Ende wird die Störung nicht behoben, das Gespräch bricht ab. In der nächsten Szene, die in der Serie anschliessend an die vorherige stattfindet, bleibt die gereizte Stimmung Marthas bestehen. Das Paar liegt nachts im Bett und Martha versucht zu schlafen, beginnt dann aber doch ein Gespräch (Szene beginnt ab 00: 40: 01). 296 M: Look, if you’re going to pretend to be asleep, you could at least 297 breathe, okay? + It’s just eerie. 298 R: Like this? ((breathes heavily)) 299: M +5+ ((sits up, switches lights on)): It doesn’t work. I can tell that 300 you’re faking it+++ 301 R: Would you like me to have sex with you? + 302 M ((angry)): Can you just go downstairs? 303 R: Okay. ((wants to leave)) 304 M =shouts=: No! That’s- ++ Ash would argue over that. He wouldn’t just 305 leave the room because I’d ordered him to. 306 R: Okay. ((wants to come back)) 307 M ((desperate)): What, n- + Ah, fucking hell +++ 308 R ((confused)): Don’t cry, darling. Roboter als Partnerersatz 159 309 M =shouts=: Oh, don’t! Just get out! + Get out! ++ Go on! 310 R: So you do want me to go? - ((while leaving the room)) 311 M ((screaming)): Just get out! Get 312 out! Get out! Get out! Get out! Get out! You’re not enough of him. You 313 are nothing, you’re nothing! ((Hitting him on the chest)) Fight me. 314 R ((calmly)): I don’t do that. 315 M ((angry)): (Fucking) fight me! Hit me! Hit me! Hit me, come on! Why 316 are you just standing there taking this? How can you take this? 317 R: Did I ever hit you? 318 M: No + no, of course you didn’t … but you might’ve done if I done this! 319 ((hitting him)) Or this… I don’t … I don’t know. Maybe you would have 320 but you wouldn’t, would you. You wouldn’t. 321 R ((calmly): I could insult you. 322 M ((confused and angry)): What? 323 R: There’s tons of invective in the archive. I liked speaking my mind. 324 I could throw some of that at you. 325 M ((angry): Get out of this house! (~42: 00) Das Streitgespräch funktioniert hier aus verschiedenen Gründen nicht, und dementsprechend kann auch keine Lösung zum Problem gefunden werden. Martha initiiert das Gespräch, welches R-Ash zuerst auch nach einer kurzen Sprecherpause annimmt. Sie ist mit dem Ergebnis jedoch nicht zufrieden, was in Zeile 299 erkennbar ist. Sie schaltet das Licht an, was ebenfalls eine Störung ist und ihre Unzufriedenheit signalisiert, da sie eigentlich schlafen will. Darauf folgt nach einer längeren Pause R-Ashs unpassende Aussage (301), welche die Situation zum Eskalieren bringt, da Martha einen anderen respondierenden Schritt erwartet hat und Ashs Antwort als Zurückweisung ihrer Aussage interpretiert. Nach dem Prinzip der «bedingten Erwartbarkeit» weicht R-Ash mit dieser Aussage vom konventionellen Schema ab, was Sanktionen zur Folge haben kann. Man könnte auch von einem misslungenen Versuch der Deeskalation sprechen, mit dem R-Ash eine Ablenkung vom Problem erreichen will. Aus Marthas Sicht akzeptiert er ihr Problem jedoch nicht, was eine Problemlösung schwierig bis unmöglich macht. Deshalb reagiert sie selbst auf R-Ashs Frage 301 nach einer längeren Sprecherpause mit Zurückweisung und initiiert damit eine neue Handlungskette. R-Ash nimmt diese wörtlich und realisiert nicht, dass Martha von ihm als Partner Eigeninitiative erwartet und nicht Gehorsamkeit. Ihre Aussage war eine Aufforderung zur Diskussion und nicht zu einer Tat. Bei einem menschlichen Paar wäre diese Aussage sicherlich auch streiteskalierend, 160 Jana Seebass da bei gleichberechtigten Partnern der eine den anderen nicht ohne Weiteres aus dem gemeinsamen Bett schicken kann - Wegschicken agiert nicht konfliktreduzierend. R-Ash nimmt aber alles wörtlich, dementsprechend ist auch die Aussage in Zeilen 304 und 305 eine Aufforderung, zurück ins Bett zu kommen. Martha hätte sich hier eine Diskussion gewünscht. Ihre Äusserung war vom Sprechhandlungstyp her ein Vorwurf, und bestimmte Reaktionsmöglichkeiten sind per Konvention an Sprechhandlungstypen gebunden. Auf einen Vorwurf kann eigentlich nur «Bestreiten», «Sich-Rechtfertigen» oder «Sich-Entschuldigen» folgen (Brinker & Sager 2010: 78). Doch R-Ash scheint diese Konventionen nicht zu kennen. Marthas Verzweiflung darüber, dass sie mit R-Ash nicht so kommunizieren kann wie mit anderen Menschen, verwirrt R-Ash. Doch durch seine Aussage in Zeile 308 bringt er sie dazu zu realisieren, dass er schlicht kein Mensch, sondern ein programmierter Roboter ist. Die Aussage in Zeile 309 erfolgt ohne Pause, was Marthas aufgebrachten Gemütszustand widerspiegelt. In der Folge wirft Martha ihm auch vor, dass er Ash nicht ersetzen kann (vgl. die Zeilen 312 und 313 sowie 318 bis 320). Hier agiert sie nicht mehr deeskalierend. Im vorherigen Gesprächsteil versuchte sie noch, die Störungen mit R-Ash zu beheben, nun geschieht dies nicht mehr. Martha sagt zwar you zu R-Ash, will aber damit sagen, dass er nicht Ash ist und diesen auch nicht ersetzen kann. Dabei muss man zwischen you und you unterscheiden können. Durch den Kontext ist für die Zuschauenden klar, was Martha damit sagen will. R-Ash dagegen fehlt das Wissen von mitgemeinten Bedeutungen bestimmter Aussagen. Deshalb begreift er Marthas Aussage nicht und bleibt bei der Streitthematik, was zu seinem unpassenden Vorschlag in Zeile 321 führt. Wiederum reagiert er mit dem falschen Sprechhandlungstyp. Martha, die davon spricht, dass R-Ash nicht Ash ist, versteht im ersten Moment R-Ashs Aussage nicht, da sie von der Gesprächskohärenz her eine Antwort auf ihre Aussage erwartet. Als Folge bricht sie nach R-Ashs Erklärung in Zeile 223 und 224 das Gespräch ohne Sprecherpause ab, indem sie R-Ash aus dem Haus schickt. Die Deeskalation des Streits erfolgt durch einen kurzen Abbruch der sozialen Beziehung. Bei gleichberechtigen Partnern wäre dies nicht möglich und das Gespräch würde anders ablaufen. Martha kann R-Ash Befehle erteilen, die er kommentarlos befolgt, weil sie über ihm steht und er sich ihr unterordnet. Dies ist auch Marthas Vorwurf und der Grund, weshalb sie R-Ash schlägt - sie versucht eine menschliche Reaktion von R-Ash zu provozieren, wie sie Ash gezeigt hätte. Martha geht davon aus, dass für Ash das Schlagen eine Grenze gewesen wäre, auf deren Übertritt er reagiert hätte. R-Ash hat jedoch keine eigenen Grenzen, die er nicht überschreiten darf, sein Ziel ist, Martha zu dienen. Noch zu Beginn des Gespräches wollte sie nicht, dass R-Ash blind ihren Anweisungen folgt, gibt jedoch während des Streits auf, da sie rea- Roboter als Partnerersatz 161 lisiert, dass eine Diskussion mit dem Roboter nicht möglich ist. Die Störungen können nicht beseitigt werden, da R-Ash Marthas Problem nicht erkennen kann und dementsprechend auf einer anderen Gesprächsebene agiert als sie. Am Ende will Martha, dass R-Ash sich selbst zerstört, indem er von einer Klippe springt. Folgendes Gespräch findet hier statt: 359 M: Jump. 360 R: What? + Over there? ((Martha nodding)) I never expressed suicidal 361 thoughts. Or self-harm. 362 M: Yeah well, you aren’t you, are you? 363 R ((grinning)): That’s a another difficult one, to be honest with you. 364 M ((agitated)): You’re just a few ripples of you. There’s no history 365 to you. You’re just a performance of stuff that he performed without 366 thinking, and it’s not enough. 367 R: Come on. + I aim to please. 368 M ((getting louder)): Aim to jump. Just do it. (~45: 25) 369 R: Okay. ++ If you’re absolutely sure. 370 M: See, Ash would’ve been scared. He wouldn’t have just leapt off, he 371 would have been crying, he would have been- 372 R: Oh. ((closes eyes)) 373 =whimpers= Oh, God, no. ++ Please. I don’t want to do it. ++ Please, 374 don’t make me do it. 375 M: No, that’s not fair. 376 R: No, I’m- I’m frightened, darling, please, I don’t- Don’t make me. + 377 I don’t want to die. =sobbing= Oh, God, I don’t want to die 378 M: No, that’s not fair. 379 R: Please, I’m frightened. I don’t want do die. Don’t- 380 M (screams): Noo! Wie bereits zuvor zeigen sich folgende Probleme: Ablehnen des Sprecherwechsels, Nicht-Verstehen von Andeutungen sowie Missverstehen des Gesprächspartners. Auf Marthas erste Aufforderung reagiert R-Ash nach einer kurzen Sprecherpause mit Verwirrung. Seine Aussage in den Zeilen 360 und 361 weist sie aber ohne Sprecherpause damit zurück, dass sie auf den Unterschied zwischen ihm und Ash eingeht. Marthas Satz 362, R-Ash ist nicht Ash, versteht dieser nicht, was er ohne Sprecherpause zu verstehen gibt. Seine kommunikative Kompetenz reicht hier erneut nicht, um zwischen zwei verschiedenen you differenzieren zu können. Die Konnotation fehlt ihm, er versteht nur die wörtliche 162 Jana Seebass Bedeutung, die in diesem Fall keinen Sinn ergeben kann. Diese Kommunikationsstörung trat bereits im vorangehenden Gespräch auf (vgl. Zeile 296-325). Diesmal geht R-Ash jedoch darauf ein, da ihm keine Wahl mehr bleibt. Dennoch findet eine Zurückweisung statt. Er weist ihre Frage nicht zurück, weil er nicht antworten will, sondern weil er es nicht kann. R-Ash versteht diese Trennung zwischen ihm und Ash nicht, da es für ihn nicht zwei verschiedene Charaktere sind. Nach einer Sprecherpause illustriert Marta, weshalb R-Ash im Vergleich zu Ash nicht annähernd als Partner genügt. R-Ash versteht dabei nicht, dass er mit seinem menschlichen Pendant verglichen wird, und meint deshalb, dass er so konstruiert ist, dass er gefallen soll und dass es auch sein Ziel ist, Martha zu gefallen. Er realisiert wieder nicht, worauf Martha eigentlich abzielt, und geht nur auf einen Teil von Marthas Aussage ein. Martha gelingt im Allgemeinen das Aufrechterhalten der Gesprächskohärenz aber besser, als dies R-Ash gelingt. Doch in Zeile 369 respondiert sie nicht so, wie dieser das erwartet hätte. Er hätte wahrscheinlich ein simples Yes oder No erwartet, Martha zeigt ihm aber nochmals die Unterschiede zwischen ihm und Ash auf (vgl. Zeile 370 und 371). R-Ash versteht diesen Vergleich so, dass er sich besser an Ash anpassen sollte, und anstatt von der Klippe zu springen, beginnt er - wie es Ash getan hätte - Angst zu haben. Das führt zu einer Eskalation des Gesprächs, da dies nicht das Ziel Marthas war. R-Ash lässt diesmal das Problem eskalieren. Das führt dazu, dass Martha es nicht mehr schafft, ihre ursprüngliche Aussage aufrechtzuerhalten, R-Ash solle von der Klippe springen, da sie nun zu stark an Ash erinnert wird. R-Ash wendet das Gespräch also zu seinem Vorteil und erreicht, bei Martha bleiben zu können. Die Kommunikation in dieser Szene kann nicht glücken, denn Martha ist der Meinung, Ash und R-Ash seien nicht gleichzusetzen. R-Ash hingegen sieht keine Trennung zwischen sich und seiner menschlichen Version. Dementsprechend haben die beiden ein unterschiedliches Basiswissen zur Grundkonstellation ihrer Beziehung, welches sprachlich nicht überwunden werden kann. 3.4 Vergleich Ash versus R-Ash Zwei Dinge fallen besonders auf: Zum einen, dass Ash keine gute Responsivität in Gesprächen mit seiner Partnerin zeigt, und zum anderen, dass R-Ash zwar äusserst aufmerksam im Antwortengeben ist, aber häufig die Intention Marthas verkennt. In der Kommunikation mit Ash ist das Hauptproblem, dass seine Aufmerksamkeit zu sehr auf seinem Smartphone anstatt auf seiner Gesprächspartnerin Martha liegt. Martha geht damit jedoch humorvoll um und stellt ihm Fragen, die er positiv beantwortet, was er nicht tun würde, wenn er zugehört Roboter als Partnerersatz 163 hätte. Sie wirkt deeskalierend, somit führt Ashs Kommunikationsproblem zu keinem Streit. Bei R-Ash ist das Kommunikationsproblem jedoch komplexer. Einerseits gibt es die Barriere, dass R-Ash vieles nur wörtlich verstehen kann - Zwischenmenschliches oder metaphorische Aussagen kennt er nicht. Dies führt häufig dazu, dass unterschwellige Probleme in einem Streit eskalieren, da sich Martha missverstanden fühlt. Das zweite Problem ist, dass er aufgrund dessen keine angemessene Responsivität zeigen kann, obwohl er in den Gesprächen stets aufmerksam ist und auf jede Aussage Marthas reagiert. Dies führt dazu, dass Martha die beiden Ashs miteinander zu vergleichen beginnt, was zu einer Auseinandersetzung zwischen Martha und R-Ash führt. Als richtigen Streit kann man die Gespräche zwischen Martha und R-Ash jedoch nicht bezeichnen, da R- Ash immer in einer passiven Rolle bleibt. Er reagiert nur auf Marthas Aussagen, er nimmt alles wörtlich, was sie sagt, und ordnet sich ihr unter: Eigeninitiative zeigt er keine. Im Gegenzug beginnt Martha, bei R-Ash ebenfalls Teil- oder Nonresponsivität zu zeigen. Auch sie beginnt in Gesprächen mit R-Ash eskalierend zu wirken, indem sie das Problem nicht ausdiskutiert, sondern das Gespräch abbricht. Ob das Problem zwischen ihnen überhaupt diskutierbar ist, ist jedoch fraglich, da das Problem von beiden Gesprächspartnern erkannt werden muss. R-Ash zeigt jedoch kein Verständnis dafür, was dazu führt, dass es keine Problemthematisierung gibt und dementsprechend keine Deeskalation erfolgen kann. Halten wir fest: Obwohl auch hier die Interaktion nicht frei von Störungen ist, kommuniziert Martha kompromissbereiter mit Ash als mit R-Ash, der ihr zwar jederzeit zuhört, Zwischenmenschliches wie Gestik, Mimik und Tonlage jedoch nicht erfassen kann. In der Analyse zeigte sich auch, wie wichtig es ist, dass den Partnern das Konfliktpotential bewusst ist. Wenn ein Partner grundlegend die Probleme des anderen nicht versteht, führt dies zu einer Eskalation der Probleme, die so weit geht, dass keine Lösung mehr gefunden werden kann. 4 Partnerroboter heute? Sind Roboter wie R-Ash der perfekte Partnerersatz? Aus der obigen Analyse eines fiktiven Beispiels wird klar, dass dies noch nicht der Fall ist. Für einen guten Partner ist vor allem der Faktor Kommunikation wichtig. Heute versucht man zwar, immer bessere Sexpuppen auf den Markt zu bringen, die als Partner 164 Jana Seebass agieren können. 9 Diese können einfache Gespräche führen, doch sie sind in ihrem Kommunikationsverhalten nicht lernfähig (siehe Danaher 2017: 6 f.). 10 Hinzu kommt: Sex ist nicht alles in einer Beziehung (sonst hätte R-Ash die perfekte Lösung gefunden, wie er Martha von Beziehungsproblemen ablenken kann). Wichtig wäre, einen Roboter zu erschaffen, mit dem man Gespräche führen kann, in welchen der Roboter eine eigene Meinung hat und nicht nur auf Menschen reagiert, sondern auch selbst agiert. Weiter stellt sich die grundsätzliche Frage, welche Verhaltensweisen ein Roboter braucht, damit ein Mensch eine tiefere Beziehung zu ihm aufbauen kann. Am Schwierigsten wird es sein, einem Roboter beizubringen, dass bei vielen Aussagen etwas anderes gemeint ist, als tatsächlich gesagt wird. Je nach Kontext, Betonung und Gesichtsausdruck kann sich die Bedeutung markant verändern. Im Fazit ergibt sich: Menschen treffen in der Interaktion mit anderen Menschen immer wieder auf Konflikte. Dies gehört zu unserem Alltag, und folglich muss ein guter Partnerroboter auch konfliktfähig sein und kommunikative Störungen wahrnehmen und problematisieren können. Bis heute gibt es einen solchen Partnerroboter aber nicht - noch kann man sich nur mit Menschen streiten. Bibliographie Bendel, Oliver (Hrsg.) (2020). Maschinenliebe. Liebespuppen und Sexroboter aus technischer, psychologischer und philosophischer Perspektive. Wiesbaden: Springer Gabler. Brinker, Klaus / Sven F. Sager (2010). Linguistische Gesprächsanalyse. Eine Einführung. Grundlagen der Germanistik. Berlin: Erich Schmidt Verlag. Carpenter, Julie (2017). Deus Sex Machina: . Loving Robot Sex Workers and the Allure of an Insincere Kiss. In: Danaher, John / McArthur, Neil (Hrsg.). Robot Sex. Social and Ethical Implications. Cambridge, Massachusetts: MIT Press, 261-287. Danaher, John (2017). Should We Be Thinking about Robot Sex? In: Danaher, John / McArthur, Neil (Hrsg.). Robot Sex. Social and Ethical Implications. Cambridge, Massachusetts: MIT Press, 3-14. 9 Siehe für aktuelle Untersuchungen zu Sexrobotern und somit auch Partnerrobotern Bendel (2020). Vgl. auch Zülli i. d. B. 10 Hier ist anzufügen, dass Chatbots heute bereits weit entwickelt sind. Dies wurde kürzlich von Google demonstriert: Der Google-Assistant kann z. B. einen Coiffeur-Termin organisieren (siehe Welch 2018). Das tut er auf einem solch elaborierten Level, dass nicht mehr erkennbar ist, dass es sich um Künstliche Intelligenz handelt. Roboter als Partnerersatz 165 Linke, Angelika / Nussbaumer, Markus / Portmann, Paul (2004). Studienbuch Linguistik. 5., erweiterte Auflage. Reihe Germanistische Linguistik. Tübingen: Max Niemeyer Verlag. Spiegel, Carmen (1995). Streit. Eine linguistische Untersuchung verbaler Interaktionen in alltäglichen Zusammenhängen. Forschungsberichte des Instituts für Deutsche Sprache Mannheim. Tübingen, Narr: Gunter Narr Verlag. Welch, Chris (2018). Google just gave a stunning demo of Assistant making an actual phone call. Abrufbar unter: https: / / www.theverge.com/ 2018/ 5/ 8/ 17332070/ googleassistant-makes-phone-call-demo-duplex-io-2018 (Stand: 17. 12. 2020) Anhang Transkript Black Mirror (Szenen zwischen Martha und Ash / R-Ash) Eine detaillierte Transkription wurde nur von denjenigen Szenen gemacht, auf die im Text mit Zitat referiert wurde. Dabei wird die Notation aus Brinker / Sager S. 47 verwendet. Pausen werden mit + angegeben: + (zirka 1 Sek), ++ (zirka 2 Sekunden), +++ (zirka 3 Sekunden) sowie +8+ (mit Sekundenangabe zur Länge). Dehnungen bei Vokalen werden mit einem Doppelpunkt angezeigt, bei Konsonanten wird dieser verdoppelt. Emphasen werden unterstrichen, unverständliche Passagen durch Leerklammern, Schwerverständliches durch einfache Klammern, weiterführende Informationen durch doppelte Klammern angezeigt. Silbische Artikulationen und Expressionen werden in Gleichheitszeichen eingeschlossen. Zeitangaben, wann sich die Konversation in der Episode befindet, werden entweder in den Text integriert oder in eckigen Klammern angegeben. 166 Jana Seebass A = Ash M = Martha R = R-Ash 1 ((00: 00: 45; A on phone in car, M outside with two 2 coffee cups)) 3 M: Hon! … Ash! 4 ((Knocking on window)): Ash! 5 M: Can you take those? 6 M: I snotted in yours, is that okay? 7 A: Yeah … what? 8 M: Palms, burning palms. 9 A: Shit, sorry. ((Takes coffees, gets back on phone.)) 10 M: Glove box. 11 ((Puts phone in glove box, start driving and singing)) 12 ((Back in home; around 3: 10; A searches for his phone)) 13 M: Glove box. 14 ((Some moments later, A on the phone, photographs old childhood photo, M cooking, starts at 00: 03: 26)) 15 M: Soup alright? 16 A: Yeah great. 17 M: Tomato or roasted tomato? 18 A ((after a pause, whilst uploading photo on a social media platform)): 19 The second one. 20 M: There’s only one bowl. Do you mind having yours out of a shoe? 21 A ((after a pause)): Mhmh. 22 ((M throws a towel at A.)) 23 A: What was that for? 24 M: Just checking you’re still solid. You keep vanishing. Down there. 25 ((walks towards him)) It’s a thief that thing. What are you doing? 26 A: Just sharing that. I thought people might find it funny. (photograph) 27 M: It’s not funny. It’s sweet. 28 A ((switching between looking at phone and M)): Trust me, that day 29 wasn’t sweet. We’d gone to a safari park. First family outing after 30 Jack died. There was monkey all over the car and no one saying anything. 31 Scoffs. Mum drove home, that was a first. When I came down the next 32 morning, all Jack’s photos were gone from that wall. She put them in 33 the attic. That’s how she dealt with stuff. And then when Dad died, up 34 went his photos. And she just left this one here. Her only boy, giving 35 her a fake smile. Roboter als Partnerersatz 167 36 M: She didn’t know it was fake. 37 A: Maybe that makes it worse? 38 ((M caressing his hair and giving him a kiss on the forehead. Scene ends at 00: 04: 56)) 39 ((Sex scene starts at 00: 04: 58; both moaning)) 40 A: Oh shit … shit … shit … Sorry. ((kissing M)) 41 M: It’s okay. 42 A: Do you want me to … 43 M: No, it’s alright. 44 A: I don’t mind … I am knackered though, so … 45 M: Don’t worry. 46 A: Sure? 47 M: I’m sure. 48 ((Kissing)) 49 A: I love you. 50 M: Love you, too. 51 ((Scene in the morning, starts at 00: 05: 55)) 52 A: Hey, get dressed. Van’s got to be back by two or they’ll do us for 53 an extra day 54 M: Job’s just come in. Needs to be done by the end of play today. 55 A: Alright. 56 M: It is a full page. 57 A: No, no … It’s fine … (sighs) I’ll drive all the way there alone, pick 58 the car up alone, drive all the way back alone. 59 M: I have to make my own lunch. 60 A: Oh, stop it, you’re breaking my heart. 61 ((A gives her a kiss on the front and leaves the house.)) 62 A: Bye bye. 63 ((Drives away, phone not in the glove box.)) 64 ((First Mail of R, starts around 00: 14: 30)) 65 R: Yes, it’s me. 66 M ignores it, until she finds out, she’s pregnant; Button touch to talk, chat opens with a picture of A; written conversation. 67 R: Hi Martha. 68 M: Is that you? 69 R: No, it’s the late Abraham Lincoln. … Of course it’s me. 70 M: I only came here to say one thing. 168 Jana Seebass 71 R: What one thing? 72 M ((typing while crying)): I’m pregnant. 73 R: Wow. So I’ll be a dad? … I wish I was there with you now. 74 ((M sobbing)) 75 ((Writing again with R, starts at 00: 16: 55)) 76 M: I wish I could speak to you. 77 R: What are you doing now then? Duh. 78 M: I mean really speak. 79 R: We can speak. 80 M: How? 81 ((Starts uploading videos of A talking)) (~17: 30) 82 R: YUM. I’ll call you when I’m ready. 83 ((R calls her phone, at 00: 18: 03)) 84 M whispering: Hello? 85 R: So how am I sounding? … Hello? 86 M: Hello! ((gasping and crying)) You just sound like him. 87 R: Almost creepy isn’t it? I say creepy, I mean it’s totally batshit 88 crazy I can even talk to you. I mean I don’t even have a mouth. 89 M: That’s … That’s just … 90 R: Just What? 91 M: That’s just the sort of thing he would say 92 R: Well, that’s why I said it. 93 M ((crying and shaking her head)): I think I’m going mad. 94 R: Well I won’t tell anyone if you don’t. … You’re not crying, are you? 95 M ((chuckles)): Sorry. You always said that I looked weird when I cried. 96 R: Did I? I sound like a right sick fuck. 97 M ((laughing)): Yeah, you were. You were. 98 R: But in a good way? 99 M: Yeah, yeah. In a good way. 100 ((Change of scene, M hiking, on the phone with R, starts at 19: 35)) 101 M: So I went in, after all your persuasion, and then like straight away 102 I got a spine of a sea anemone or something stuck in my foot, and you 103 threw a jeb thinking it was poisonous … 104 R: What’s threwerchep? 105 M: Oh, it’s a phrase we had, like throwing a fit … 106 R: Oh, okay, so I threw a jeb. 107 M: Yeah, and you were looking in a guidebook, trying to figure out if Roboter als Partnerersatz 169 108 there were any poisonous sea creatures in Greece, when this local guy 109 comes over an he says: “Oh, my wife knows exactly what to do, 110 come back to my house”, although he wasn’t French obviously. 111 ((Change of scene, M sitting in nature, starts at 00: 20: 20)) 112 M: I used to hate walking in the country. 113 R: You must be getting old. 114 M: Oi. ((laughing)) I remember you brought me up here when we first met 115 your mum. We’d been at hers all weekend and you could tell I needed 116 some headspace. You were good like that. 117 R: You speak about me like I’m not here. 118 M: Sorry. 119 R: It’s alright. I mean I’m not really. 120 M: Mmm. 121 R: Show me what it looks like there. 122 M: How? 123 R: Use the camera on your phone. 124 M: You weren’t ever really impressed with views. When we went to the 125 Grand Canyon you said it was just a big gap. 126 R: I tweeted that too. 127 M: Yeah, I remember the roaming charges. You were overly proud of that 128 definition. 129 R: I was just speaking my mind. 130 M: Yeah, well shut up and cop a load of this. (shows scenery on phone) 131 R: Yeah, mainly just green, isn’t it? 132 M: You told me this was a famous lovers’ leap. Doomed couples 133 jumping to their deaths in Victorian times, I think you just wanted me 134 to cling to you. 135 R: Actually, everyone who’s ever jumped from here did it alone, nice. 136 M: Did you just look that up? 137 R: Sort of. Shouldn’t I have? 138 M: It’s a bit weird. 139 R: Sorry, I’ll only do it again if you ask. 140 M: No, no, no, it’s fine. 141 ((Incoming call)) 142 M: Oh wait, hang on. 143 R: Shall I go? 144 M ((gets call from her sister)): No, no, no. I’ll call them back later. 170 Jana Seebass 145 ((after check-up on her pregnancy, recorded heartbeat of the baby and plays it afterwards on the phone the R, starts at 00: 22: 30)) 146 M: Wait. Hang on, here it is again … 147 R: It’s so fast isn’t it? 148 M: I know, I know it’s like the speed you’d expect a bee’s heart to go 149 at or something. Wait hang on … ((trying to get into her jacket, dropping 150 her phone)). Oh, shit. Shit, shit. (breaking up) Ash, hello? Ash? Ash? 151 Hello? 152 ((Installing a new phone,starts at 00: 23: 12)) 153 M: Come on, come on, come on … ((R calls her)) I’m sorry ((crying)) 154 R: What happened? 155 M: I dropped you. I’m sorry … it was just … It was … I’m sorry … 156 R: Hey, it’s alright, I’m fine, I’m not in that thing, y’know, I’m 157 remote. I’m in the cloud. You don’t have to worry about breaking me. 158 M: It was just … It was stupid because, I was so excited about the scan … 159 R: Yeah, I kept the sound of that. Here listen. ((playing heart- 160 beat)) You’re probably matching that heartbeat, throwing a jeb like 161 that. ((M sobbing and nodding)) It’s all fine. Calm down. I’m not 162 going anywhere. 163 M: You were very fragile. 164 R: Yeah. I was going to talk to you about that actually. 165 M: What do you mean? 166 R: There’s another level to this available, so to speak. Kind of ex- 167 perimental and I won’t lie, it’s not cheap. 168 M: What is it? 169 R: Are you sitting down? This might sound a bit creepy. 170 ((Scene cut, M gets a package. Opens it, R on the phone, starts at 00: 25: 30)) 171 M: Say something. 172 R: Let me see. ((M makes photograph)). Yeah, well. Never 173 was much of a looker, was I? 174 M: It doesn’t look like you. 175 R: Not yet. It’s blank till you activate it. … Get the bath ready. 176 ((M touching the Puppet)) Mar? Get the bath ready. 177 M: Yeah, sorry. 178 ((M putting puppet in bath, starts at 00: 26: 38)) 179 M: Oh god. What is this? Roboter als Partnerersatz 171 180 R: Hang on. I’ll find out. It’s nutrient gel. Stops the synthetic muscle 181 drying out in transit. 182 M: Smells almost … like marshmallow. 183 R: You can eat it if you like, it’s non-toxic. 184 M: I’ll give that a miss, thanks. 185 R: Don’t forget the electrolytes. 186 ((M putting electrolytes in the bathtub)) 187 M: Okay. Right, the whole lot? 188 R: Mh-mh, the whole lot. 189 M: It’s like fish food. 190 R: He likes the taste of it. Better leave him to it. 191 M: Yeah. Yeah. ((leaving the bathroom; change to evening)) 192 R: I have to go in a minute. 193 M: Oh, don’t leave me here with it! 194 R: Sorry … Look you can hear, it’s starting already ((pulsing sound, signal fading)) Don’t switch the bathroom light on … 195 M: Don’t what? 196 R: Don’t switch the bathroom light on, let it brew. (scrambled) Listen, 197 I’ve got to go. 198 ((M distraught; hours later; meeting naked R in the hallway,s starts at 00: 29: 18)) 199 R: You could’ve left me some clothes. I mean talk about an undignified 200 entrance. ((M just stares, R whispers)): That’s a bit creepy, what 201 you’re doing. ((M still just stares)) Is there at least a towel? I’m 202 dripping everywhere. Hello? 203 ((In the living room, on the couch. R patting on the couch beside him, starts at 00: 29: 53)) 204 R: I won’t bite. 205 M ((after a pause)): I’m alright here for now. 206 R: Would you like me to put some food on? 207 M: Do you eat? 208 R: No. I mean, I don’t need to. I can chew and swallow, if that makes 209 it easier? 210 M: Don’t worry about it, it’s fine. ((after a pause, in which 211 R looks to the ground)) I need a drink. 212 R ((after she drank some wine)): Are you sure that … 213 M ((interrupts him)): I know I’m not supposed to. It won’t kill us. 214 R: The official advice is to … 215 M: Oh, fuck the official advice, it’s one night. … You look well. 216 R: Well, I am young. 172 Jana Seebass 217 M: I mean, you look like him on a good day. 218 R: The photos we keep tend to be flattering. I guess I wasn’t any 219 different. 220 ((M walks slowly to him and caresses his cheek)) 221 M: You’re so soft. You’re so smooth. How are you so smooth? You’ve got 222 pores and your lines … 223 R: It’s texture mapping. The really tiny details are visuals, 2-D. 224 Here, try my fingertips. … See? Weird. Does it bother you? 225 M: No. ((after a pause)) Yes. I don’t know. I don’t know. 226 ((crying)) I missed you. I missed you so much. 227 R: Hey, don’t cry. Don’t cry. 228 ((M kissing him, no reaction of R.)) 229 ((Change of scene; bedroom, M undresses herself, starts at 00: 32: 27)) 230 M: Come on then, top off. (looks at him) 231 R: What’s wrong? 232 M: He had a mole there. 233 R: Where? 234 M: There. 235 R: Hang on. 236 ((M shows where, R lets it grow)) 237 M: That’s ridiculous. That’s completely stupid. 238 ((M takes Rs hand and puts it on her breast. No reaction.)) 239 M: Hello? 240 R: Hi. 241 M: Your hand’s on my tit? 242 ((R-Ash takes hand away; Martha puts it back)) 243 M: You’re doing wonders for my self-esteem here. 244 R: There’s no record of my sexual response. + I didn’t discuss that 245 side of things online. 246 M: But you have sexual responses, I mean ++ This works ((hand on his penis through pants)) 247 R: Oh, that I can turn that on and off pretty much instantly. 248 See? +++ I can do it again if you like. 249 ((Cut to sexscene, starts at 00: 34: 19)) 250 M ((moans)): Oh, god. Oh shit. 251 R: Should I stop? 252 M: No. no, it’s pretty good … Where did you learn this? 253 R: Set routine based on pornographic videos. Roboter als Partnerersatz 173 254 ((After some time)) 255 M: I love you. 256 R: I love you. 257 ((Next day at 00: 35: 02; M waking up; R lying there with open eyes; M gasps)) 258 R: What is it? 259 M: What were you doing? 260 R: Nothing. 261 M: The way that your eyes were open, it scared me. (~35: 30) 262 R: You’d prefer if I close them? 263 M: What, when you’re sleeping? Um, yeah? 264 R: I don’t really need to sleep. 265 M: Well, just try next time. 266 ((Cut scene, Martha working. R surprises M)) 267 R: Can I get you anything? 268 M: No. 269 R: Coffee, sandwich? 270 M: I said no. ++ Ash, look sorry + It’s just + a bit odd. 271 R: I can appreciate it’s pretty strange. 272 M: I just need a bit of, just getting used to it. And I shouldn’t have 273 drunk last night. Next time could you try and stop me. 274 R: Stop you drinking? 275 M: Yeah. (~36: 25) 276 R: So I get to enjoy being a bit of a bastard? ++ What’s wrong? 277 ((Vehicle approaching with sister of Martha)) 278 M: Oh, God. Shit, right. Get in the bedroom. 279 R: What? 280 M: Now! 281 ((After visit of her sister, starts at 00: 38: 38)) 282 R: Hey ++ is everything alright? 283 M =nodding=: Yeah, I’m fine. (It’s fine.) 284 R: What did your friend say? 285 M: That was my sister ++ You know her. ++ She said that I was + She said 286 that she was happy that I moved on. 287 R: Moved on to what? =grinning= ((M shaking head)) +++ Is that not the 288 sort of thing I’d say? + I mean ++ it is, isn’t it? + Are you sure 289 everything’s alright- 174 Jana Seebass 290 M ((angry)): -Yes! ((drops glass)) Shit! ((R wants to help her 291 with the glass shatters)) +4+ It’s okay, I can do it. I can do it. ++ 292 I can do it. ((Pushes his hand away)) =shouts= Don’t! 293 ((Hurts R with a shard)) 294 R: We need to wrap that in paper ((the shards)). 295 ((Change of scene, in bed at night, beside each other, starts at 00: 40: 01)) 296 M: Look, if you’re going to pretend to be asleep, you could at least 297 breathe, okay? + It’s just eerie. 298 R: Like this? ((breathes heavily)) 299 M: +5+ ((sits up, switches lights on)): It doesn’t work. I can tell that 300 you’re faking it+++ 301 R: Would you like me to have sex with you? + 302 M ((angry)): Can you just go downstairs? 303 R: Okay. ((wants to leave)) 304 M =shouts=: No! That’s- ++ Ash would argue over that. He wouldn’t just 305 leave the room because I’d ordered him to. 306 R: Okay. ((wants to come back)) 307 M ((desperate)): What, n- + Ah, fucking hell +++ 308 R ((confused)): Don’t cry, darling. 309 M =shouts=: Oh, don’t! Just get out! + Get out! ++ Go on! 310 R ((while leaving the room)): So you do want me to go? - 311 M ((screaming)): Just get out! Get 312 out! Get out! Get out! Get out! Get out! You’re not enough of him. You 313 are nothing, you’re nothing! ((Hitting him on the chest)) Fight me. 314 R ((calmly)): I don’t do that. 315 M ((angry)): (Fucking) fight me! Hit me! Hit me! Hit me, come on! Why 316 are you just standing there taking this? How can you take this? 317 R: Did I ever hit you? 318 M: No + no, of course you didn’t … but you might’ve done if I done this! 319 ((hitting him)) Or this… I don’t … I don’t know. Maybe you would have 320 but you wouldn’t, would you. You wouldn’t. 321 R ((calmly): I could insult you. 322 M ((confused and angry)): What? 323 R: There’s tons of invective in the archive. I liked speaking my mind. 324 I could throw some of that at you. 325 M ((angry): Get out of this house! Roboter als Partnerersatz 175 326 ((Next morning, Ash standing at the border of the garden; Martha sees him through window, starts at 00: 42: 29)) 327 M: What are you doing? 328 R: I can’t go more than 25 meters from my activation point. 329 M: What is that, a joke? 330 R: Look, I know it sounds mental. 331 M: Where’s your activation point? 332 R: At the risk of blowing your mind, it was where I was activated. The 333 bath. I have to keep within a 25 meter radius unless my administrator, 334 that’s you, is with me. (~42: 52) 335 M: Don’t call me your administrator. 336 R: Why not? 337 M: Because … 338 R: It sounds sort of sexy. 339 ((Martha laughs desperately)) 340 R: If you’re laughing, can I come back inside? Feeling a bit ornamental 341 out here. 342 ((Change of scene; R looking at the childhood photo, starts at 00: 43: 27)) 343 R: Funny. 344 M: Can you put that down, please? 345 R: But it is funny. 346 M: Could you just put it down? … Come with me, we’re going out. 347 ((Change of scene; in the nature walking to the cliff Martha was before, starts at 00: 44: 14)) 348 M: Come on. 349 R: Where are we going? 350 M: Just hurry up. 351 ((after walk, at the cliff, starts at 00: 44: 32)) 352 R =screaming=: No! Don’t do it! (no reaction from Martha) Seriously, 353 don’t do it. 354 M: I’m not going to. 355 R: Okay. 356 M: See, he would have works out what was going on. This wouldn’t have 357 ever happened but if it had, he would have worked it out. 358 R: Sorry, hang on. That’s a very difficult sentence to process. 359 M: Jump. 360 R: What? + Over there? ((Martha nodding)) I never expressed suicidal 176 Jana Seebass 361 thoughts. Or self-harm. 362 M: Yeah well, you aren’t you, are you? 363 R ((grinning)): That’s a another difficult one, to be honest with you. 364 M ((agitated)): You’re just a few ripples of you. There’s no history 365 to you. You’re just a performance of stuff that he performed without 366 thinking, and it’s not enough. 367 R: Come on. + I aim to please. 368 M ((getting louder)): Aim to jump. Just do it. 369 R: Okay. ++ If you’re absolutely sure. 370 M: See, Ash would’ve been scared. He wouldn’t have just leapt off, he 371 would have been crying, he would have been- 372 R: Oh. ((closes eyes)) 373 =whimpers= Oh, God, no. ++ Please. I don’t want to do it. ++ Please, 374 don’t make me do it. 375 M: No, that’s not fair. 376 R: No, I’m- I’m frightened, darling, please, I don’t- Don’t make me. + 377 I don’t want to die. =sobbing= Oh, God, I don’t want to die 378 M: No, that’s not fair. 379 R: Please, I’m frightened. I don’t want do die. Don’t … 380 M (screams): Noo! Vertrauen in Lio und Co. 177 Vertrauen in Lio und Co. Anthropomorphisierung von Robotern als vertrauensfördernde Strategie Rahel Staubli 1 Einleitung Die Digitalisierung aller gesellschaftlichen Bereiche nimmt zu. Schon seit einiger Zeit werden sogar im Pflege- und Alltagskontext, der sich massgeblich durch den zwischenmenschlichen Kontakt auszeichnet, sozial interagierende Roboter eingesetzt (siehe Bendel 2020: 1). In Anbetracht dieser Entwicklung stellt sich die Frage: Kann man Maschinen vertrauen? Diese Frage beinhaltet nicht nur, ob Maschinen im Allgemeinen Vertrauen entgegengebracht werden kann, sondern zielt grundlegend darauf ab, ob überhaupt von ‹Vertrauen in Maschinen› gesprochen werden kann. Letzteres ist Teil einer kontroversen Diskussion, an der verschiedene wissenschaftliche Disziplinen beteiligt sind. Die linguistische Vertrauensforschung kann auf verschiedenen Ebenen etwas zu dieser Thematik beitragen. Denn die Sprache ist sowohl Mittel zur Erfassung und Beschreibung von Konzepten wie ‹Vertrauen› und ‹Maschine› als auch Untersuchungsgegenstand im Diskurs über Vertrauensbildung, -förderung und -äusserung (siehe Schäfer 2016: 7). Auf beide Analyseebenen wird im vorliegenden Beitrag Bezug genommen. Zuerst wird das zugrundeliegende linguistische Verständnis von ‹Vertrauen› erläutert und interdisziplinär verortet (Kapitel 2). Danach geht es um das Thema ‹Maschine›, wobei der Fokus auf sozial interagierenden Robotern liegt (Kapitel 3). In Kapitel 4 wird der Status von Maschinen mit Blick auf das Vertrauen aus verschiedenen Perspektiven diskutiert und es wird aufgezeigt, dass die sprachliche Vermenschlichung von Maschinen dazu führt, dass von ‹Vertrauen in Maschinen› die Rede sein kann. Aus diesen Beobachtungen heraus ergibt sich die Annahme, dass die Anthropomorphisierung auch eine Strategie zur Vertrauensförderung darstellt. Diese These wird abschliessend exemplarisch anhand einer Werbebroschüre zum sozial interagierenden Assistenzroboter Lio untersucht (Kapitel 5). 178 Rahel Staubli 2 Verständnis von Vertrauen Das Konzept, welches hinter dem Ausdruck ‹Vertrauen› steht, wird je nach wissenschaftlicher Disziplin und theoretischem Hintergrund unterschiedlich definiert und operationalisiert. Psychologie und Soziologie gelten als die Basisdisziplinen der Vertrauensforschung; in der Linguistik hingegen ist dieser Forschungsbereich vergleichsweise neu. Eine wichtige Arbeit in diesem Kontext stammt von Pavla Schäfer. Auf diese wird im Folgenden kurz Bezug genommen: Schäfer (2016: 15 f.) legt dar, dass Vertrauen ein multidimensionales Konstrukt darstellt, wobei je nach Perspektive unterschiedliche Vertrauensaspekte, -funktionen, -grade und -formen im Vordergrund stehen (siehe auch Fink 2014: 24). Vertrauen sei ein omnipräsentes Alltagsphänomen, welches beständig (bewusst und unbewusst) hergestellt und gepflegt wird, aber eben auch ‹verspielt› werden kann - und dies nicht ohne Konsequenzen: «Vertrauenswürdigkeit ist ein wichtiger Bestandteil des Images eines jeden Akteurs und das Fehlen oder der Verlust dieser Komponente wird sozial sanktioniert» (Schäfer 2016: 59 f.). Der Bedeutungsinhalt von Vertrauen überschneide sich mit anderen semantischen Feldern wie ‹Glaubwürdigkeit›, ‹Vertrautheit›, ‹Zuversicht›, ‹Zuverlässigkeit›, ‹Glaube› oder ‹Treue›, weshalb eine klare Abgrenzung zu diesen Begriffen teilweise schwierig ist und unterschiedlich gelöst wird (siehe ebd.: 68). Grundsätzlich gilt, dass Vertrauen zukunftssowie objektgerichtet, gleichzeitig aber auch wechselseitig abhängig ist: Die vertrauende Person (Vertrauenssubjekt) erwartet von der Person, der sie vertraut (Vertrauensobjekt), dass sie bestimmte Absichten zugunsten der vertrauenden Person verfolgt. 11 Vertrauen hängt daher eng mit Risiko, Unvorhersagbarkeit sowie einer Abgabe von Kontrolle zusammen (siehe Fink 2014: 28, 40). Daraus kann in Anlehnung an Niklas Luhmann (2000) abgeleitet werden, dass Vertrauen zur Reduktion der komplexen sozialen Wirklichkeit dient (siehe Schäfer 2016: 27). In der soziologischen und psychologischen Vertrauensforschung hat sich die Auffassung etabliert, dass Vertrauen eine soziale Einstellung ist (siehe Schäfer 2016: 40). Soziale Einstellungen, so betont Schäfer, beinhalten kognitive und affektive Verhaltenskomponenten und sind nicht einfach gegeben, sondern entstehen in der Interaktion und müssen darin auch beständig gepflegt werden. Interaktion als soziales Handeln kann zu Vertrauen führen, wenn die eingesetzten kommunikativen Zeichen in Abhängigkeit von der konkreten Situation von den Interaktionsteilnehmenden als solche wahrgenommen und daraufhin 11 Die explizite Vertrauensäusserung ‹Ich vertraue dir› ist folglich nicht nur als expressive, sondern auch direktive Sprechhandlung zu verstehen: Es wird nicht nur mitgeteilt, dass man der Person vertraut, sondern auch, dass man von dieser Person auch ein bestimmtes Verhalten erwartet. Vertrauen in Lio und Co. 179 interpretiert werden. Die linguistische Vertrauensforschung setzt hier an, fokussiert auf die (verbale und nonverbale) Kommunikation und untersucht, wie Vertrauen kommunikativ ausgedrückt sowie hergestellt werden kann. Auch im vorliegenden Beitrag wird Vertrauen als eine in der Interaktion entstehende soziale Einstellung aufgefasst, wobei Vertrauen ein pragmatisches Phänomen ist und die Vertrauensförderung und -bildung einen semiotischen Prozess darstellt. Weiter ist die Unterscheidung von ‹Vertrauen› und ‹Vertrauenswürdigkeit› von Bedeutung. Vertrauen ist eine Beziehungsqualität und «entsteht auf der Basis der Zuschreibung von Vertrauenswürdigkeit. Vertrauenswürdigkeit ist keine objektiv gegebene Eigenschaft eines Akteurs, sondern eine subjektive Zuschreibung eines Interpreten» (ebd.: 61). Ob die Absicht, vertrauenswürdig zu wirken, auf der anderen Seite tatsächlich zu dieser Zuschreibung führt, zeigt sich allerdings, auch darauf weist Schäfer zu Recht hin, erst in der weiteren Interaktion. An dieser Stelle sei noch kurz auf die Frage eingegangen, wer wem überhaupt vertrauen kann. Disziplinübergreifend wird die Frage nach dem Status der Interaktionsteilnehmenden als eine der entscheidenden Dimensionen für das Verständnis von Vertrauen angesehen (siehe Budnik 2016: 68; Fink 2014: 37; Schäfer 2016: 6): Ist Vertrauen eine rein interpersonale Beziehungsqualität, also die Qualität einer Beziehung zwischen Mensch und Mensch, oder kann auch Nicht-Menschlichem wie Maschinen vertraut werden? 1 Können Maschinen auch vertrauen? Mit anderen Worten: Kann eine Maschine Vertrauensobjekt und gar Vertrauenssubjekt sein? Bevor diese Fragen beantwortet werden können, müssen noch andere diskutiert werden: Kann überhaupt von einer Interaktion zwischen Mensch und Maschine gesprochen werden? Das Interaktionsverständnis ist abhängig von der Zuschreibung von Handlungsträgerschaft und Intentionalität. Es ist deshalb zu untersuchen, ob und wie man diese Konzepte auf Maschinen übertragen kann; denn nur wenn dies möglich ist, können sie als Interaktions- und Vertrauensakteure anerkannt werden. Will man dem Fragekomplex ‹Vertrauen in Maschinen› näher auf den Grund gehen, ist also auch zu klären, wie das Konzept ‹Maschine› zu fassen ist. 1 Der Diskurs um Vertrauen in Tiere und andere Lebewesen wird hier ausgelassen, da der Fokus auf Maschinen liegt. Es wird jedoch nicht ausgeschlossen, dass aus der Analyse dieses Diskurses Argumente für oder gegen ‹Vertrauen in Maschinen› gewonnen werden können. 180 Rahel Staubli 3 Verständnis von Maschinen und Robotern ‹Maschinen› sind «zweckorientierte technische Vorrichtungen verschiedenster Art und Größe mit i. d. R. beweglichen Teilen» (Gabler Wirtschaftslexikon online). 2 Sie können (unter anderem) anhand ihrer Funktion, ihrem Einsatzbereich, ihrer Gestaltung und ihrem Automatisierungsgrad differenziert werden. Diese Kategorisierungsmerkmale sind für die Frage nach ‹Vertrauen in Maschinen› von besonderer Bedeutung (s. u.). Eine spezifische Art von Maschinen stellen Roboter dar. Das Gabler Wirtschaftslexikon definiert ‹Roboter› als «selbstständig das World Wide Web durchsuchendes Programm». 3 Alltagssprachlich wird der Begriff jedoch mit einer konkreten physischen Realisierung in Verbindung gebracht: Ein Roboter ist demnach eine «(der menschlichen Gestalt nachgebildete) Apparatur, die bestimmte Funktionen eines Menschen ausführen kann» (Duden online). 4 Der Begriff wird im semantischen Feld von «Androide, Apparatur, künstlicher Mensch, Maschinenmensch» (ebd.) verortet. Diese Bedeutungskomponenten schwingen auch im Begriff ‹Roboter› mit. Die Menschenähnlichkeit ist oftmals auf ihre äusserliche Erscheinung zurückzuführen, kann sich jedoch auch auf deren Funktion beziehen. In westlich geprägten Kulturkreisen werden Roboter aufgrund dieser Ähnlichkeit eher als Bedrohung wahrgenommen; im Vergleich dazu treten sie in asiatischen Kulturkreisen hingegen positiv assoziiert als Freund und Helfer auf (siehe Becker et al. 2013: 76). Neue Technologien befördern die Angleichung von Mensch und Roboter: Bei herkömmlichen Robotern ist eine Bedienung durch den Menschen nötig, damit sie die geforderte Leistung erbringen. Neuere Robotertypen (sogenannte ‹Automaten›) sind hingegen mit künstlichen Systemen ausgestattet, «die selbsttätig ein Programm befolgen und dabei aufgrund des Programms Entscheidungen zur Steuerung und ggf. Regelung von Prozessen treffen» (Gabler Wirtschaftslexikon). 5 Zu solchen Systemen gehören auch Methoden der Künstlichen Intelligenz , die maschinelles Lernen ermöglichen: Maschinen werden programmiert, «selbstständig Wissen aufzunehmen und zu erweitern, um ein gegebenes Problem besser lösen zu können als vorher» (ebd.). Der Mangel an Pflegepersonal und der demographische Wandel führen dazu, dass Roboter verstärkt für Betreuungs- und Pflegeaufgaben eingesetzt werden 2 Online unter: https: / / wirtschaftslexikon.gabler.de/ definition/ maschine-40202/ version- 263592 (Stand: 28. 12. 2020) 3 Online unter: https: / / wirtschaftslexikon.gabler.de/ definition/ roboter-44932/ version- 268235 (Stand: 28. 12. 2020) 4 Online unter: https: / / www.duden.de/ rechtschreibung/ Roboter (Stand: 28. 12. 2020) 5 Online unter: https: / / wirtschaftslexikon.gabler.de/ definition/ maschinelles-lernen-38193/ version-261619 (Stand: 28. 12. 2020) Vertrauen in Lio und Co. 181 und neben rein funktionalen auch soziale und emotionale Aufgaben übernehmen: «So würde eine sozial interagierende Hebehilfe eine Person nicht nur umlagern, sondern bspw. auch mitfühlend nachfragen, ob die Person nun bequem liegt» ( Janowski et al. 2018: 65). Zurzeit sind diese sogenannten sozial interagierenden Roboter mehrheitlich Prototypen und befinden sich in der Entwicklungs- und Testphase (siehe Bendel 2020: 1; Bendel 2018: 206). Sozial interagierende Roboter simulieren aber nicht nur menschliche Interaktionsfähigkeit (wie bspw. sprechen, Emotionen und Intentionen zeigen), sie können auch in Gestalt, Design sowie Motorik anthropomorph konstruiert werden. Damit werden zwei Ziele verfolgt: Zum einen dient diese Art der Vermenschlichung dem Zweck, «die Mensch-Maschine-Kommunikation anthropozentrischer und persönlicher zu gestalten» ( Janowski et al. 2018: 65), um so die Handhabung der Maschinen zu vereinfachen. Zum andern sollen die Maschinen menschlicher erscheinen, um die Akzeptanz gegenüber Maschinen zu fördern und (damit zusammenhängend) die Maschine vertrauenswürdig wirken zu lassen (siehe Bendel 2018: 198; Früh / Gasser 2018: 46; Janowski et al. 2018: 63 f.; Weber 2019: 201). Die Hersteller*innen bewegen sich dabei in mehrfacher Hinsicht auf einer Gratwanderung. Das menschenähnliche Aussehen sollte gerade nicht zu hohe Erwartungen generieren und den Roboter «unheimlich und unglaubwürdig“ (Bendel 2018: 202) wirken lassen - dieser sogenannte Uncanny-Valley-Effekt muss vermieden werden. Hinzu kommen ethische Probleme, wenn Maschinen derart menschlich gestaltet sind, dass sie über ihre maschinelle Beschaffenheit hinwegtäuschen (könnten). Von Experten und Laien wird daher gefordert, dass Roboter als Maschinen erkennbar sind und bleiben (siehe Weber 2019: 206; TA Swiss 2019: 14, 19). Bei sozial interagierenden Robotern im Alltags- und Pflegebereich ist dieses Gebot jedoch zu hinterfragen, weil gerade das menschlich wirkende Aussehen einen Therapiezweck erfüllt (siehe Weber 2019: 207). Grundsätzlich stellt sich hier aber die moralische und ethische Frage, ob Roboter soziale und emotionale Aufgaben überhaupt übernehmen sollten. Die Vermenschlichung von Maschinen hinsichtlich ihrer Funktionsweise, ihrer Einsatz- und Aufgabenbereiche sowie ihrer Gestaltung hat zur Folge, dass ihnen Handlungsträgerschaft, Intentionalität, Emotionen und damit einhergehend Interaktionsfähigkeit attribuiert werden. Dies wiederum hat einen Einfluss auf ihre Wahrnehmung und die Zuschreibung von Vertrauenswürdigkeit. Wieso aber könnten die Hersteller*innen von Robotern die Vertrauenswürdigkeit ihrer Produkte überhaupt anstreben? Zum einen dient Vertrauenswürdigkeit der Komplexitätsreduktion: Hochkomplexe (und deshalb für Laien schnell undurchschaubare) Maschinen erfordern Vertrauen im Sinne einer Risikobereitschaft, einer Abgabe von Kontrolle (siehe Fink 2014: 41). Weber bringt dies deutlich zum Ausdruck: «Wichtig ist, dass Menschen solche Zuschreibungen vornehmen 182 Rahel Staubli können und tatsächlich vornehmen, um Ereignisse und Prozesse, die sie ansonsten kognitiv nicht durchdringen (können), in der jeweils gegebenen Situation trotzdem verständlich und erklärbar zu machen. Sie nehmen dann einen intentionalen Standpunkt in der Interaktion mit dem Gegenüber ein» (Weber 2019: 200). Zum andern erfüllt diese Zuschreibung auch therapeutische Zwecke und führt dazu, dass die Roboter von den Patient*innen auch längerfristig genutzt werden (siehe Janowski et al. 2018: 68). Sozial interagierende Roboter können (und sollten) aufgrund ihres Aussehens also vertrauenswürdig wirken. Diese Feststellung klärt aber noch nicht die grundsätzliche Frage, ob Maschinen vertrauenswürdig sind bzw. ob man Maschinen vertrauen kann. 4 Vertrauen in Maschinen Der humanistischen Tradition zufolge ist in der Linguistik und anderen Geistes- und Sozialwissenschaften ‹Intentionalität› und ‹Handlungsträgerschaft› ausschliesslich Menschen vorbehalten (siehe Fink 2014: 137; Krumenheuer 2011: 33). Interaktion kann demzufolge nur zwischen Menschen stattfinden. Auch Vertrauen ist an Intentionalität gebunden: Wie in Kapitel 2 festgestellt, beruht der Vertrauenszuspruch massgeblich auf der (Annahme einer) wohlwollenden Absicht. Hält man also an diesen Grundannahmen fest, ist Vertrauen ein Merkmal rein interpersonaler Beziehungen, Maschinen können weder Vertrauensobjekt noch Vertrauenssubjekt sein. Dementsprechend wäre auch die Rede von ‹Vertrauen in Maschinen› sowie ‹Mensch-Maschine-Interaktion› unzulässig, ebenso Begriffe wie ‹künstliche Intelligenz›, ‹Lernfähigkeit› sowie ‹Selbsttätigkeit› und ‹Selbstständigkeit› von Maschinen. Nun könnte man aber das Vertrauensverhältnis nicht direkt zwischen Mensch und Maschine verorten, sondern als eine Beziehung zwischen den Nutzer*in und der Hersteller*innen bzw. der Verkaufsfirma (genauer: den Personen, welche die Firma repräsentieren) (siehe Schäfer 2016: 76). Bahner (2008: 18) erläutert diesen Ansatz wie folgt: [Die] motivationale oder intentionale Komponente [wird] nicht direkt beim (technischen) Interaktionspartner, sondern beim (menschlichen) Entwickler [angesiedelt] […]. Allerdings schließt sich hier die Frage an, inwiefern die Intentionen des Entwicklers bezüglich der zu entwickelnden Automation ähnlich vielschichtig und fein abgestuft sein mögen, wie die Motivationslage eines Gegenübers in interpersonalen Beziehungen. Ein Entwickler wird in aller Regel wenig motiviert sein, eine Automation zu schaffen, die dem Operateur nicht nutzt oder gar schaden kann - während eine solche Motivation in interpersonalen Situationen durchaus auftreten kann. Vertrauen in Lio und Co. 183 Eine andere Möglichkeit ist, für das multidimensionale Phänomen ‹Vertrauen› verschiedene Begriffe zu verwenden, die unterschiedliche Bedeutungskomponenten beinhalten und Abstufungen aufzeigen. Philosophische Abhandlungen schlagen bspw. vor, zwischen ‹Vertrauen› und ‹Sich-Verlassen› zu unterscheiden: «Ich kann mich auf unbelebte Objekte wie etwa mein Fahrrad verlassen, vertrauen kann ich hingegen nur Personen» (Budnik 2016: 68), wobei man sich je nach Intensität der Beziehung auch auf Menschen nur verlassen kann (siehe ebd.). Analog dazu wird auch vorgeschlagen, bei einem Aufeinandertreffen von Mensch und Maschine nicht von ‹Interaktion›, sondern von ‹Interaktivität› zu sprechen (siehe Becker et al. 2013: 59). In anderen Arbeiten wird die Unterscheidung in ‹der handelnde Mensch› und ‹die funktionierende Maschine› mit Blick auf die automatisierte Technik, künstliche Intelligenz und maschinelles Lernen grundsätzlich hinterfragt (siehe Fink 2014: 37; Krummheuer 2011: 33). Doch wie lassen sich in diesem Diskurs sozial interagierende Roboter, welche im Pflege- und Alltagsbereich eingesetzt werden und menschenähnlich erscheinen, einordnen? Weil derartige Maschinen (auf eine gewisse Art und Weise) aktiv und autonom handeln können, wird der Zusammenhang von ‹künstlich›, ‹unbelebt› und ‹passiv› aufgelöst und es wird ihnen Akteurstatus und Interaktionsfähigkeit zugestanden. Die Sprache leistet auch einen Beitrag dazu; Maschinen können diskursiv als Menschen konstruiert werden. Das sei im Folgenden an einem Beispiel gezeigt: Dem Begriff ‹Roboter› wird mit dem Zusatz ‹sozial interagierend› eine intentionale Akteurposition zugeschrieben. Damit wird die Möglichkeit eröffnet, sie als Vertrauensobjekte und sogar Vertrauenssubjekte aufzufassen (siehe Fink 2014: 37; Krummheuer 2011: 33). Aus dieser konstruktivistischen Perspektive ist es daher auch möglich, von ‹Vertrauen in Maschinen› zu sprechen. 6 Dabei ist der Diskurs um den Status von Maschinen und Robotern immer auch von moralischen, kulturell geprägten Bewertungen abhängig. Führt man sich die kulturellen Unterschiede des Verständnisses von Robotern, wie sie in Kapitel 3 angeschnitten wurden, vor Augen, wird dies offensichtlich: Die Technikbegeisterung der japanischen Bevölkerung «kann zum einen erklärt werden durch eine lange Tradition von Geschichten, die positiv von künstlichen Dienern für Menschen berichten. […] Zum anderen haben japanische Religionen und Philo- 6 Ein Beispiel für eine weitere Implikation ist aus ethischer und juristischer Sicht besonders relevant: Die Zuschreibung einer intentionalen Akteurposition impliziert, dass Maschinen für das ‹eigene Verhalten› die Verantwortung tragen. So könnte bei einem maschinell verursachten Schaden die Verantwortung nicht den Hersteller*innen, sondern den Maschinen zugesprochen werden (siehe Weber 2019: 204). Der linguistische Beitrag liegt u. a. im Aufzeigen der Zusammenhänge zwischen den verwendeten Begriffen und ihren Implikationen. 184 Rahel Staubli sophien wie Buddhismus und Shintoismus einen Einfluss auf die Einstellung zu Robotern. Japaner glauben, dass alles eine Seele hat und eine Verkörperung des Göttlichen sein kann» (Becker et al. 2013: 76). 5 Sprachliche Darstellung von Maschinen Wie bereits dargelegt, wird die menschliche Gestaltung von sozial interagierenden Robotern gezielt zur Förderung von Vertrauenswürdigkeit eingesetzt. Mit dieser Anthropomorphisierung wird die Absicht verfolgt, die Wahrnehmung und Interpretation der Roboter als vertrauenswürdige Interaktionspartner zu begünstigen. Davon kann abgeleitet werden, dass entsprechende sprachliche Attribuierungen die Zuschreibung von Vertrauenswürdigkeit bei Robotern ebenfalls fördern können. Im Folgenden wird an einem Beispiel gezeigt, wie Maschinen sprachlich dargestellt werden und inwiefern damit ihre Vertrauenswürdigkeit gefördert werden kann. Zu diesem Zweck wird die Werbebroschüre zum sozial interagierenden Roboter mit Namen Lio analysiert. 7 Da Vertrauen als Grundvoraussetzung für eine Kaufhandlung betrachtet wird, verfolgen Werbetexte gezielt vertrauensfördernde Strategien, um ihr persuasives Potenzial zu steigern (siehe Schäfer 2016: 120 f). Sie eignen sich daher besonders zur Untersuchung der vertrauensfördernden Darstellung von Maschinen. Der Roboter Lio wird von der Schweizer Firma F&P Personal Robotics entwickelt, getestet und vermarktet. Auf der Firmenwebseite 8 kann ein Werbeprospekt zu Lio heruntergeladen werden; dieses wird nun im Folgenden genauer betrachtet. Der Roboter ist auf der zweiten Prospektseite unter der Überschrift «Portrait» zu sehen (Abb. 1). 7 Siehe dazu auch den Artikel Co-Robots as Care Robots (Bendel / Gasser / Siebenmann 2020). Hier wird der Einsatz von Lio aus praktischer Sicht beschrieben und es werden die Vor- und Nachteile seiner Verwendung im Pflegebereich aus verschiedenen Perspektiven beleuchtet. 8 Online unter: https: / / www.fp-robotics.com/ de/ care-lio/ (Stand: 28. 12. 2020) Vertrauen in Lio und Co. 185 Abb. 1: Portrait des Roboters Lio Wie man sieht, ist die maschinelle Beschaffenheit hier deutlich erkennbar - und doch sieht Lio ‹niedlich› aus. In einem Zeitungsartikel liest man dazu, «[e]in weicher, weiss-oranger Überzug und zwei Augen über der Greifzange verleihen ihm ein knuffiges Aussehen. Das spricht viele Leute an» (Tages-Anzeiger). 9 Auf der Titelseite der Broschüre ist der Roboter dagegen kaum zu sehen (Abb. 2). 9 Minor, Liliane: «Es darf nicht passieren, dass Lio jemanden umfährt.» In: Tagesanzeiger, 22. 08. 2019, online unter: https: / / www.tagesanzeiger.ch/ zuerich/ region/ seine-geduld-istendlos/ story/ 17626511 (Stand: 28. 12. 2020). Zu bemerken ist, dass sich die Kamera zur Personen- und Objekterkennung unterhalb der Zange befindet. Die aufgeklebten Augen, die oberhalb der Zange angebracht sind, erfüllen keine funktionelle Aufgabe - sie dienen (wenn nicht einem menschlichen, dann jedoch) dem belebten und fröhlich wirkenden Aussehen. 186 Rahel Staubli Das Foto zeigt eine ältere Frau, die eine Trinkflasche entgegennimmt, die Lio ihr reicht. Das Foto zeigt den Roboter hier in seiner Funktion als Hilfskraft, wobei die auf Hilfe angewiesene Person (und damit ihre Bedürfnisse) klar im Mittelpunkt steht. Die Frau lächelt, das Überreichen der Trinkflasche durch den Roboter wird dadurch positiv dargestellt. Abb. 2: Roboter Lio in seiner Funktion als Hilfskraft Vertrauen in Lio und Co. 187 Die Hilfsfunktion des Roboters wird auch im Titel des Werbeprospekts ins Zentrum gerückt. Der Titel lautet: «Lio - Der persönliche Assistenzroboter» (S. 1). 10 Mit der Bezeichnung ‹Roboter› (und nicht: ‹Maschine›) wird die Bedeutungskomponente ‹irgendwie menschlich› assoziiert. 11 Das Determinans ‹Assistenz› verweist auf den Einsatz des Roboters als Unterstützung für das Pflegepersonal und die auf Hilfe angewiesenen Personen. ‹Assistenz› dient häufig zur Präzisierung von Personenbezeichnungen (wie bspw. Assistenzarzt / Assistenzärztin oder Assistenzprofessor*in). Das Adjektiv ‹persönlich› legt die Interpretation nahe, dass der Roboter an individuelle Bedürfnisse einer Person angepasst wird und ihr gewissermassen ‹zur Seite steht›. Der Einsatz des Roboters als Hilfskraft wird zudem mit den Verben betont, die seine Tätigkeit beschreiben. So kann er «helfen» und «unterstützen» (S. 2), er «ist rund um die Uhr für die Bewohner da und kümmert sich um ihre Anliegen» (S. 3) und er «lernt dazu», denn das Entwicklerteam «bringt ihm gerne Fähigkeiten bei» (S. 4). Zudem kann er «[m]it Personen sprechen, unterhalten und informieren» und er kann Menschen (nachdem er sie ‹kennengelernt› hat) «mit Namen begrüssen! » (S. 4). Dem Roboter werden damit menschliche Fähigkeiten (nicht technische Funktionen ) attribuiert, wobei ihm wohlwollende, fürsorgliche Absichten als Motivation zugeschrieben werden. Dass der Roboter eine Ladestation benötigt, wird wie folgt umschrieben: «[E]r braucht ein Plätzchen nahe einer Steckdose [sic] um zu schlafen» (S. 4). Diese Formulierung legt die Ähnlichkeit mit einem Haustier nahe. Eine weitaus subtilere Form, dem Roboter sozusagen ‹Leben einzuhauchen›, ist sein Name: Lio ist ein Rufname für (männliche) Personen. Dabei ist zu betonen, dass Lio der offizielle Robotername ist, also nicht von den Benutzer*innen vergeben wurde. Auch auf diese Weise wird der Roboter personifiziert und als agensfähig 12 dargestellt, wahrgenommen und identifiziert (als dieser spezifische Robotertyp). Gleichzeitig wird er so auch individualisiert, denn Rufnamen attribuieren maximalen Belebtheitsbzw. Individualitätsgrad (siehe Nübling et al. 2012: 22). Der wohlklingende Name Lio hat zudem einen werbenden Charakter: Er ist kurz und einprägsam, lenkt von der maschinellen Beschaffenheit des Namenträgers ab. Diese dem Namen anhaftenden Wirkungen werden in 10 Diese und die weiteren Seitenangaben in diesem Format beziehen sich auf die Seitenzahlen des Werbeprospekts. 11 Zum Vergleich: Wenn das Gerät als Assistenz maschine bezeichnet werden würde, hinterliesse dies einen anderen Eindruck. 12 «Alles, was agensfähig ist - dazu gehören auch große Tiere und als agensfähig konzipierte Naturgewalten wie Stürme -, bildet die Spitze der sog. Belebtheits- oder Agentivitätshierarchie und wird, da für uns hochrelevant, mit EN [Eigennamen] identifiziert […]» (Nübling et al. 2012: 18). 188 Rahel Staubli der Werbebroschüre mehrfach genutzt: Der Roboter wird durchgehend Lio genannt - auf einen nicht-onymischen Zusatz, der ihn als Roboter kennzeichnen würde (wie bspw. ‹Roboter Lio› oder Ähnliches), wird verzichtet. Den Anschein einer Art Individualität erhält die Maschine zusätzlich durch die Verwendung des Singulars: Es ist nicht von Lios die Rede, sondern immer nur von dem einen Lio . Indem der Roboter auch als «Ihr Lio» (S. 4) bezeichnet wird, wird dies zusätzlich betont und eine (mögliche) Beziehung zwischen dem Roboter und seinen Nutzer*innen angesprochen. Die Maschine wird also als aktives, soziales Wesen mit menschlichen Fähigkeiten (wie sprechen, sich kümmern etc.) beschrieben. Diese Darstellung hat zum einen zur Folge, dass der hochkomplexe technische Apparat in den Hintergrund gerückt wird. Das verwundert nicht: Die Werbung richtet sich an das Betreuungspersonal, an unterstützungsbedürftige Personen und an ihre Angehörigen, also an technische Laien. 13 Zum andern wird dadurch möglicherweise erreicht, dass man den Roboter nicht als Bedrohung wahrnimmt, sondern seinen Einsatz mit positiven Assoziationen verknüpft. Ob eine solche Vermenschlichung in der untersuchten Werbung bewusst als vertrauensfördernde Strategie eingesetzt wurde und bei den Rezipient*innen auch tatsächlich Vertrauen weckt, kann hier nicht geklärt werden. Beides ist jedoch zu vermuten. 6 Fazit Im Beitrag wurde dargelegt, dass die Vermenschlichung (im Sinne einer Zuschreibung von menschlichen Eigenschaften wie Intentionalität und Handlungsfähigkeit) dazu führt, dass zumindest auf einer Metaebene von ‹Vertrauen in Maschinen› gesprochen werden kann. Die Linguistik kann und sollte diese (sprachlichen) Zuschreibungen und ihre (Aus-)Wirkungen kritisch unter die Lupe nehmen, denn nicht zuletzt sind damit auch ethische und rechtliche Fragen verbunden. Weiter wurde anhand eines Beispiels erläutert, inwiefern eine (sprachliche) Vermenschlichung ein Mittel zur Förderung von Vertrauenswürdigkeit sein kann. Zur Illustration diente eine Werbebroschüre über den Roboter Lio . Wie menschenähnlich dieser Roboter beschrieben wird, zeigte sich in diesem Prospekt auf verschiedenen sprachlichen Ebenen. So wurde herausgearbeitet, dass dem Namen Lio , d. h. der Benennung des Roboters, eine bedeutende Rolle zukommt. Das sieht man auch an anderen Beispielen: Pepper, Paro, Nao, 13 Es wäre zwar denkbar, dass Fachbegriffe und die ausführlichen Darlegungen des hochkomplexen Systems des Roboters die Vertrauenswürdigkeit fördern. Bei Laien könnte dies jedoch eher zur Überforderung führen und die (tendenziell kulturell bedingte) Skepsis gegenüber Robotern verstärken. Vertrauen in Lio und Co. 189 AIBO , HOBBIT , Buddy, Heasy, Rhoni, Reeti - diese eigennamenähnliche Auswahl für Roboter im Alltags- und Pflegebereich verweist auf die Relevanz der Roboter-Namengebung. Forschungen dazu, wer welcher Art von Maschinen welche (Art von) Namen verleiht und welche Absichten dabei verfolgt werden bzw. welche Wirkung damit erreicht wird, bieten zweifellos ein grosses Erkenntnispotenzial (siehe Nübling et al. 2012: 191). 14 Halten wir abschliessend fest: Rund um das Thema Vertrauen in Maschinen stellen sich viele Fragen. Eine vertiefte Diskussion dieser Fragen ist notwendig, um den Entwicklungen und Herausforderungen in unserer digitalisierten Gesellschaft Rechnung zu tragen. Dies kann freilich nicht nur auf linguistischer Ebene geschehen, eine Zusammenarbeit mit anderen Wissenschaftsdisziplinen ist unabdingbar. Bibliographie Atallah, Marc (2019). Der Roboter: Eine Figur der Menschheit. In: TA -Swiss (Hrsg.). Schlussbericht Focus Robots. Bern: Jordi AG . Bahner, Jennifer Elin (2008). Übersteigertes Vertrauen in Automation: Der Einfluss von Fehlererfahrungen auf Complacency und Automation Bias. Dissertationsschrift Technische Universität Berlin. Becker, Heidrun / Scheermesser, Mandy / Früh, Michael / Treusch, Yvonne / Auerbach, Holger / Hüppi, Richard A. / Meier, Flurina (2013). Robotik in Betreuung und Gesundheitsversorgung. Zürich: vdf Hochschulverlag AG an der ETH Zürich. Abrufbar unter: https: / / doi.org/ 10.3929/ ethz-a-007584670 (Stand: 28. 12. 2020) Bendel, Oliver / Gasser, Alina / Siebenmann, Joel (2020). Co-Robots as Care Robots. Accepted paper of the AAAI 2020 Spring Symposium. ArXiv Cornell University, Ithaca. Bendel, Oliver (2018). Roboter im Gesundheitsbereich. In: Bendel, Oliver (Hrsg.): Pflegeroboter. Wiesbaden: Springer Fachmedien, 195-212. Budnik, Christian (2016). Schwerpunkt: Vertrauen und Vertrauenswürdigkeit. Deutsche Zeitschrift für Philosophie 64: 1, 68-72. Elsen, Hilke (2014). Linguistische Theorien. Tübingen: Narr. Fink, Robin D. (2014). Vertrauen in autonome Technik; Modellierung und Simulation von Mensch-Maschine-Interaktion in experimentell-soziologischer Perspektive. Dissertationsschrift Technische Universität Dortmund. Abrufbar unter: https: / / eldorado.tu-dortmund.de/ handle/ 2003/ 33469 (Stand: 28. 12. 2020) Früh, Michael / Gasser, Alina (2018). Erfahrungen aus dem Einsatz von Pflegerobotern für Menschen im Alter. In: Bendel, Oliver (Hrsg.): Pflegeroboter. Wiesbaden: Springer Fachmedien, 37-62. 14 Die nicht zu unterschätzende Wirkung von Namen blieb in bisherigen sprachwissenschaftlichen Arbeiten jedoch allzu oft unbeachtet (siehe Nübling et al. 2012: 14). 190 Rahel Staubli Janowski, Kathrin / Ritschel, Hannes / Lugrin, Birgit / André, Elisabeth (2018). Sozial interagierende Roboter in der Pflege. In: Bendel, Oliver (Hrsg.): Pflegeroboter. Wiesbaden: Springer Fachmedien, 63-88. Krummheuer, Antonia (2011). Künstliche Interaktion mit Embodied Conversational Agents. Eine Betrachtung aus Sicht der interpretativen Soziologie. Technikfolgenabschätzung - Theorie und Praxis 20: 1, 32-39. Luhmann, Niklas (2000). Vertrauen. Ein Mechanismus der Reduktion sozialer Komplexität. 4. Aufl. Stuttgart: UTB . Nübling, Damaris / Fahlbusch, Fabian / Heuser, Rita (2012). Namen. Eine Einführung in die Onomastik. Tübingen: Narr. Schäfer, Pavla (2016). Linguistische Vertrauensforschung. Eine Einführung. Mit einem Kapitel «Vertrauen und Gespräch» von Martha Kuhnhenn. Berlin / Boston: de Gruyter. TA -Swiss (Hrsg.) (2019). Schlussbericht Focus Robots. Bern: Jordi AG . Weber, Karsten (2019). Autonomie und Moralität als Zuschreibung. Über die begriffliche und inhaltliche Sinnlosigkeit einer Maschinenethik. In: Rath, Matthias / Krotz, Friedrich / Karmasin, Matthias (Hrsg.). Maschinenethik. Normative Grenzen autonomer Systeme. Wiesbaden: Springer Fachmedien Wiesbaden, 193-208. Mit welchen Strategien erzeugen Pflegeroboter Vertrauen? Analyse aktueller Beispiele Andrea Knoepfli 1 Einleitung Computer werden wütend beschimpft, dem Chatbot das tiefste Innere anvertraut. Unser Verhalten zeigt, dass Maschinen nicht mehr nur funktionale Entitäten verkörpern, sondern in uns ein soziales Gefühl auslösen. In Japan, wo Roboter bereits vielfach zum Einsatz kommen, ist das Phänomen so weit fortgeschritten, dass Menschen eine (Liebes-)Beziehung mit ihnen eingehen und sie sogar als Lebenspartner oder Kind betrachten. 1 Dieser Trend wird sich in Zukunft aller Wahrscheinlichkeit nach noch verstärken, da Roboter immer mehr auf die Interaktion mit Menschen abgestimmt werden. Das Interesse an einer solchen Konzeption von Robotern ist deshalb so gross, da soziale Roboter in vielen Einsatzbereichen grossen Nutzen bringen können. Dazu gehört beispielsweise die Pflege, in der humanoide Roboter in der Zukunft vermehrt zum Einsatz kommen sollen, aber auch Servicedienstleistungen zählen dazu: Die Deutsche Bahn experimentiert beispielsweise mit einem Roboter namens Semmi , der als Auskunftsschalter fungiert. Allerdings waren die Testläufe bisher wenig erfolgreich, da der Roboter die Kunden selten richtig versteht (Schröter 2019). Nebst der technologischen Herausforderung müssen Roboter in Situationen, die Interaktionen erfordern, eine Vertrauensbasis schaffen können. Besonders in der Pflege ist dies essenziell: Wenn mehr Vertrauen vorhanden ist, steigt die Persuasionskraft des Roboters, was bedeutet, dass der Nutzer seinen Instruktionen eher folgt und ihn eher als Interaktionspartner auf gleicher Ebene sieht (vgl. Hammer et al. 2016; Skalski und Tamborini 2007). So kann das Vertrauen darüber entscheiden, ob ein Patient die angebotenen Medikamente einnehmen möchte oder nicht. Um Roboter für die Pflege zu entwickeln, ist das Herstellen einer Vertrauensbasis zwischen Mensch und Maschine also unabkömmlich. Wie aber schafft man dies? Das ist Thema der vorliegenden Arbeit. 1 Siehe dazu Robot Love in Japan : https: / / www.youtube.com/ watch? v=YzzDLujpat4 (Stand: 09. 06. 2020). 192 Andrea Knoepfli 2 Soziale Roboter in der Pflege In Deutschland könnten bis zum Jahr 2030 ca. 500 000 Pflegekräfte fehlen (Zukunftsinstitut, o. J.). Dieser Umstand sowie die Überalterung der Gesellschaft verlangen nach neuen Lösungen, die den Pflegestandard für ältere Menschen weiterhin gewährleisten, im besten Falle sogar verbessern. In Japan kommen in der Altenpflege deshalb bereits jetzt Pflegeroboter zum Einsatz. Doch nicht nur dort, weltweit sollen vermehrt Pflegeroboter Aufgaben wie Aufräumen, Hilfe bei der Hygiene, kognitive Stimulation und Putzen übernehmen ( Janowski et al. 2018: 64). Für das Jahr 2022 prognostizierte die International Federation of Robotics einen Umsatzanstieg für Serviceroboter von 35 % auf 11.5 Mrd. und eine Steigerung von 40 % an in Betrieb genommenen Geräten ( IFR , 2019). Die potenziellen Einsatzbereiche von Pflegerobotern sind in Abb. 1 ersichtlich. Abb. 1: Funktionsbereiche von Pflegerobotern ( Janowski et al. 2018, S. 64) Dabei fällt auf, dass ein Grossteil der Aufgabenbereiche eine soziale Komponente beinhalten. Allerdings ist der Einsatzbereich von Pflegerobotern in Europa bisher noch vorwiegend auf standardisierte Aufgaben ausgerichtet (wie das Hochheben oder die Nahrungsaufnahme), wohingegen die sozialen Interaktionen mit Robotern erst noch getestet werden. Oliver Bendel deutet in seiner Definition von Pflegerobotern an, dass sich dies in Zukunft ändern wird und vermehrt soziale Roboter zum Einsatz kommen werden (Bendel 2020; Choudhury et al. 2018). Dass Roboter auch in diesen Bereich vordringen sollen, wird als kritisch betrachtet, denn die Kommunikation mit einer Maschine, so wird argumentiert, kann die Interaktion mit einem Menschen niemals ganz ersetzen (vgl. Frennert und Östlund 2014; Sharkey und Sharkey 2012; Körtner 2016; Baisch et al. 2018). Die Mensch-Maschine-Kommunikation sei hier vor allem Mit welchen Strategien erzeugen Pflegeroboter Vertrauen? 193 deshalb problematisch, da die Pfleger oftmals der einzige regelmässige soziale Kontakt für ältere Menschen sind, der sie vor Vereinsamung bewahrt (vgl. Losada et al. 2012). Allerdings zeigen Umfragen, dass ältere Menschen Pflegerobotern durchaus positiv gegenüberstehen, bspw. wenn es ihnen durch deren Assistenz möglich wäre, länger in ihrem Zuhause leben zu können (vgl. Forsa. Politik- und Sozialforschung GmbH 2016). Weiter kann man argumentieren, dass der Roboter den Pfleger ja nicht ganz ersetzen soll, sondern ihm Aufgaben abnimmt, sodass mehr Zeit für die Mensch-Mensch-Kommunikation bleibt. Ausserdem lassen Studien vermehrt den Schluss zu, dass auch Roboter selbst ein wirksames Mittel gegen die Einsamkeit darstellen (vgl. Broekens et al. 2009). Ein Beispiel hierfür ist die Roboterrobbe Paro . Diese reagiert auf Streicheleinheiten und gibt Tiergeräusche als emotionales Feedback von sich. In der Folge zeigt sich, dass sich der psychische Zustand der Pflegepatienten deutlich verbessert (vgl. Baisch et al. 2018). Bei Paro handelt es sich um einen vergleichsweise passiven, einfachen Roboter, der keine physische Pflegearbeit übernehmen kann, sondern für die soziale Betreuung zuständig ist. Andere, sog. Pflegeroboter, sind als Assistenten in die Pflege integriert und nehmen den Pflegern z. B. das Hochheben, Baden, Füttern etc. des Patienten ab. Aber auch dadurch wird die Effizienz der Pflege nur wenig gesteigert, denn ein Pfleger muss anwesend sein, um den Roboter zu unterstützen. Ziel ist es daher, dass der Pflegeroboter die gesamte Pflege übernehmen kann, dass er sich also durch künstliche Intelligenz selbst steuern lernt und für ausreichend mentale Anregung sorgt. Darin freilich besteht eine grosse Herausforderung. Zudem muss beim Patienten die Offenheit vorhanden sein, sich von einem Roboter körperlich und geistig betreuen zu lassen. Um dies zu erreichen, ist Vertrauen besonders wichtig, denn der Pflegeroboter dringt in intime Bereiche vor, und dies sowohl physisch als auch psychisch. Was einen guten sozialen Roboter ausmacht, ist beispielsweise, dass er den Patienten nicht einfach wortlos umbettet, sondern ihn fragt, ob er auch bequem liegt ( Janowski, 2018: 65). Aber auch die äussere Gestaltung des Roboters spielt eine Rolle. Das zeigen Modelle wie P-Care , Care-O-Bot oder der Nursebot Pearl , deren Gestalt als humanoid zu beschreiben ist. Sie verfügen über bestimmte Merkmale hinsichtlich Sprachfähigkeit, Alter, Geschlecht, Aussehen, Mimik und Gestik, welche die Akzeptanz des Roboters als Interaktionspartner erhöhen (Bendel 2018: 198; Janowski et al. 2018). Doch weshalb kann gerade ein humanoides Äusseres und adäquates soziales Verhalten das Vertrauen zum Pflegeroboter steigern? Auch wenn die Antwort auf der Hand zu liegen scheint, muss geklärt werden, weshalb Maschinen überhaupt als soziale Akteure wahrgenommen werden und wo die Grenzen sind. 194 Andrea Knoepfli 3 Theoretische Grundlagen Um erklären zu können, weshalb sowohl die äusserliche Gestalt als auch das Verhalten des Roboters eine so grosse Rolle in der Mensch-Maschine-Kommunikation spielen und welche Faktoren diese bestimmen, werden drei Ansätze näher beleuchtet, die aus dem Forschungsbereich der Human-Robot-Interaction (HRI) stammen. Die erste Theorie bezieht sich auf den Effekt der Social Presence und stellt das Vokabular zur Verfügung, auf dem die beiden weiteren Theorien aufbauen. Die CASA -Theorie zeigt auf, wie sich die Verhaltenskomponente und weitere Medieneigenschaften von Computern generell auf die Social Presence von Maschinen auswirken, was sich in einem weiteren Schritt auch auf Roboter übertragen lässt. Beim dritten theoretischen Ansatz geht es um den sog. Uncanny Valley Effekt (siehe auch die Beiträge von Jenni und Staubli i. d. B.). Aus diesen drei Punkten leiten sich Gestaltungsempfehlungen für Pflegeroboter ab, die in Kapitel 4 an realen Beispielen geprüft werden sollen. 3.1 Roboter erzeugen Social Presence Die Social Presence-Theorie beschreibt das Phänomen, dass künstliche Agenten wie Roboter als reale soziale Entitäten wahrgenommen werden. Die aus der Kommunikationswissenschaft stammende Theorie beschreibt künstliche Agenten wie Roboter als ein Medium, mit dem interagiert wird. Obwohl es sich bei diesen nur um Medien handelt, werden sie oft nicht als solche wahrgenommen. Eher beschleicht einen das «Gefühl, mit jemandem oder etwas anderem im (medialen) Raum anwesend zu sein» (Hofer 2016: 13). Bei diesem sogenannten Non-Mediationsphänomen (Lombard et al. 2000: 77) tritt in der Interaktion die Tatsache in den Hintergrund, dass es sich beim Gegenüber um einen künstlichen Agenten handelt. Die Maschine wird vielmehr als sozialer Interaktionspartner mit eigenen Gedanken, Emotionen und sogar Willen wahrgenommen. Die Social Presence-Theorie bezieht sich sowohl auf Roboter als auch auf Präsenzen im virtuellen Raum wie Charaktere in Games oder sog. Chatbots. Das gemeinsame Merkmal ist, dass der künstliche, mediale Akteur als realer, sozialer Akteur erlebt und auch so behandelt wird. Heerink et al. (2008) haben die Relevanz dieses Ansatzes für die Akzeptanz von Pflegerobotern in einer Studie bestätigt. Weist der Pflegeroboter eine hohe Social Presence auf, ist es für den Patienten beispielsweise weniger wichtig, ob er von einem Menschen oder Roboter gepflegt wird, da die Künstlichkeit des Roboters in den Hintergrund tritt. Dies ermöglicht eine Interaktion mit dem Pflegeroboter, die der Interaktion mit einem menschlichen Pfleger beinahe ebenbürtig sein kann. Damit steigert sich auch die Chance, dass eine Vertrauensbasis zwischen Mensch und Maschi- Mit welchen Strategien erzeugen Pflegeroboter Vertrauen? 195 ne hergestellt werden kann. Darin liegt ein Ansatzpunkt für die Entwicklung von Pflegerobotern. Doch welche Faktoren können manipuliert werden, um die Social Presence und damit das Vertrauen zu erhöhen? Die Antwort darauf mag überraschen: Social Presence korreliert nicht immer mit dem Grad der Menschenähnlichkeit des Roboters. Zu starke Menschenähnlichkeit kann die Social Presence sogar ins Negative wenden (siehe weiter unten zum Uncanny Valley Effekt). Die Social Presence kann aber nicht nur durch das Aussehen, sondern auch durch das Verhalten eines Roboters beeinflusst werden. In der CASA -Forschung wurde dies anhand von Computern erprobt; die Erklärungen dazu lassen sich auf Roboter übertragen. Dies sei im Folgenden genauer erläutert. 3.2 CASA-- Computers As Social Actors Wie sich Computer ›verhalten‹, beeinflusst, ob und wie stark diese als soziale Akteure wahrgenommen werden. Dieses Phänomen nennt sich « CASA », Computers As Social Actor, und es zeigt, dass Social Presence offensichtlich nicht nur von Äusserlichkeiten abhängt. Die Forschung dazu beginnt bei Reeves und Nass (1996), die aufzeigten, dass Probanden sprechenden Computern in der nachgehenden Befragung menschliche Eigenschaften wie «nett» oder «attraktiv» zugeordnet haben. Eine weitere Studie von Nass et al. (1997) zeigte zudem, dass sogar Gender-Stereotypen auf sprachfähige Computer angewendet werden. Diese Wahrnehmung wird nach Reeves und Nass anhand von «Anthropomorphic Cues» ausgelöst, die sich vor allem auf das Verhalten der Computer zurückführen lassen. Solche Cues aktivieren Heuristiken, welche die Einordnung des Interaktionspartners leiten und vorgeben, wie dieser behandelt werden soll (vgl. analog dazu die Befunde von Nass et al. 1997). In einer späteren Studie von Kim und Sundar aus dem Jahr 2012 wurde das Verhalten von Medien wie Computern mit dem MAIN -Model verglichen, wonach jedes Medium hinsichtlich seiner vier Grundcharakteristika Modalität, Repräsentation (Agency), Interaktivität und Navigierbarkeit unterschiedlich ausgeprägt sein kann. Diese vier Merkmale beeinflussen am Ende, wie glaubwürdig das Medium empfunden wird (Abb. 2). Die Affordance beschreibt eine Merkmalskategorie des Computers (wie z. B. Interaktivität). Diese wird durch den Cue Customization (= individuelle Anpassung) aktiviert. Wie die Interaktion des Computers auf den User abgestimmt ist, bestimmt, welche Heuristiken auf den Computer angewendet werden. Es kann so durch die Interaktion zu einem verbesserten Flow-Erlebnis kommen. Unter Flow wird das vollständige Aufgehen in einer Tätigkeit verstanden (Csikszentmihalyi 1987). Da das Flow-Erlebnis eine positive Heuristik aktiviert, kann in diesem Fall ein positiver Rückschluss auf die aufgelisteten Qualitäten des Com- 196 Andrea Knoepfli puters angenommen werden. Diese Qualitäten sind es, die schliesslich das Credibility Judgement lenken und beeinflussen, wie glaubwürdig die Interaktion mit dem Computer eingestuft wird. Abb. 2: MAIN -Model (Kim und Sundar 2012: 243) In der Studie von Kim und Sundar (2012) wurde zudem der Frage nachgegangen, wie die Antropomorphisierung von Computern verursacht wird und ob es sich dabei um einen bewussten oder unbewussten Prozess handelt. Die Probanden, welche 93 Undergraduate Students waren, verneinten die Vermutung, dass sie die getestete Webseite wie einen Menschen behandelt hätten. In einem weiteren Schritt aber schrieben sie der Webseite doch unbewusst menschliche Attribu- Mit welchen Strategien erzeugen Pflegeroboter Vertrauen? 197 te wie freundlich oder hilfsbereit zu. Diese Diskrepanz zwischen bewusster Wahrnehmung und unbewusstem beobachtbaren Verhalten zeigt auf, dass die Einstufung von Computern als soziale Akteure unbewusst geschieht. Allerdings kann dieser Prozess durch die ungeschickte Manipulation von Eigenschaften zunichte gemacht werden. Bei der Testgruppe, bei welcher auf der Webseite ein Agent hinzugefügt wurde, also die Agency-Eigenschaft manipuliert wurde, steigerte sich die Diskrepanz zwischen bewusster und unbewusster Einordnung. Die Antropomorphic Cues wurden zu salient und die Anthropomorphisierung wirkte aufgezwungen. Dies zeigt, dass der CASA -Effekt nur dann eintritt, wenn die Anthropomorphic Cues, wie der Name auch sagt, Cues bleiben und nicht zu stark in den Vordergrund treten. Die Studie fand aber nicht nur hinsichtlich der Agency heraus, dass diese die Wirkung des CASA -Effekts beeinflusst, sondern überraschenderweise kam auch der Interaktivität eine tragende Rolle zu. Die Probanden, welche die Möglichkeit hatten, selbstständig auf der Webseite zu navigieren, bewerteten die menschlichen Eigenschaften des Computers viel höher. Am CASA -Effekt wird deutlich, dass Verhaltensfaktoren die Wahrnehmung von Computern als soziales Gegenüber begünstigen können. Diese Erkenntnisse lassen sich auf Pflegeroboter übertragen. Bei der Programmierung von Pflegerobotern können ebenfalls die vier Komponenten aus dem MAIN -Model als Anthropomorphic Cues manipuliert werden. Besonders die Interaktivitätskomponente begünstigt die Anthropomorphisierung, wie sich nicht nur in Kim und Sundars Studie zeigte, sondern auch bei Nass und Moon (2000). Dies könnte in der Kommunikation mit Pflegerobotern so umgesetzt werden, dass Pflegeroboter dem Patienten immer eine Wahl lassen: «Möchten Sie lieber ein Glas Wasser, um die Tablette zu schlucken, oder ein Glas Orangensaft? » Damit wird in der Kommunikation keine Top-Down-Anweisung gegeben, sondern eine Möglichkeit zur Interaktion; der Patient hat dadurch das Gefühl, die Situation selbst kontrollieren zu können und mit einem sozialen Gegenüber zu interagieren. Die bisher eingesetzten, rein funktionalen Roboter lassen dagegen einen solchen ‘sozialen Feinschliff’ vermissen, was der Akzeptanz abträglich ist. 3.3 Anthropomorphismus: der Uncanny Valley Effekt Wie wir in 3.2 gesehen haben, spielt das soziale Verhalten von Maschinen eine wichtige Rolle in der Mensch-Maschine-Kommunikation. Nun geht es um die Frage, ob das Aussehen von Maschinen das Vertrauen in sie erhöhen können. Bei Pflegerobotern entwickelt sich die Gestaltung in Richtung eines Menschen und weg vom rein funktionalen Design. Diese Entwicklung macht Sinn, denn eine erhöhte Anthropomorphisierung geht mit einer erhöhten Social Presence einher, die ihrerseits wiederum das Vertrauen in den Roboter begünstigt. Aller- 198 Andrea Knoepfli dings gibt es für die humanoide Gestaltung wie beim CASA -Effekt spezifische Regeln. Sie darf nicht übertrieben werden, ansonsten fällt die Social Presence ins Tal. Dieses wird in der Forschung als Uncanny Valley beschrieben und auf einem Graphen wie folgt abgebildet (vgl. Mori 1979). Abb. 3: Uncanny Valley Graph nach Mori (1970) (Seyama und Nagayama 2007, S. 338) Der Graph zeigt zunächst auf, dass, je menschenähnlicher der Roboter gestaltet ist, die positive Wahrnehmung bzw. die Social Presence des Roboters steigt. Kurz vor dem perfekt menschlichen Design fällt der Graph ins Tal, der Roboter verliert seine Social Presence; er wirkt unheimlich. Denn wenn der Roboter zu menschenähnlich wird, fallen die noch vorhandenen Diskrepanzen zu einem echten Menschen umso mehr ins Gewicht. Der Effekt tritt besonders dann auf, wenn Kompositionen nicht aufeinander abgestimmt sind, wie z. B. die Augen- und Gesichtsgrösse oder der Realitätsgrad der Haut und der Realitätsgrad der Augen (vgl. Mitchell et al. 2011; Nagayama und Seyama 2007). Weiter spielt auch der Ablauf der Bewegungen eine bedeutende Rolle. Diese dürfen keinesfalls ruckartig sein, da sonst der Eindruck eines Zombies entsteht (Seyama und Nagayama 2007). Für Pflegeroboter bedeutet dies, dass deren humanoide Gestaltung angestrebt werden muss, um erhöhte Social Presence zu erzeugen, dass die Roboter jedoch keine zu starke Menschenähnlichkeit aufweisen dürfen. Die Andeutungen von menschlichen Gesichtszügen reichen als Anthropomorphic Cues aus, um den Mit welchen Strategien erzeugen Pflegeroboter Vertrauen? 199 positiven Effekt bereits zu beobachten. Ein gutes Beispiel hierfür ist der Roboter Pepper , der mit seiner reduktiven Gestalt dennoch warm und freundlich wirkt (Pandey und Gelin 2018; Softbank Robotics Europe 2020). Pepper ist mit 120 cm so klein wie ein Kind, sein Mund besteht aus blinkenden LED s und der Unterkörper ist ein fahrender Sockel anstelle von zwei Beinen. Auch im Einsatzgebiet der Pflege lassen sich bestimmte Gestaltungsmerkmale finden, die speziell zur Akzeptanz der Roboter beitragen. Dies soll an aktuellen Beispielen gezeigt werden. 4 Vorstellung aktueller Beispiele 4.1 Vorbemerkungen Auf Basis der in Kapitel 3 vorgestellten Überlegungen werden nun die Strategien zur Gestaltung von Robotern beschrieben. Nach Broadbent et al. (2009) und Wu et al. (2012) sollen kleinere humanoide Roboter bevorzugt werden, die sich langsam bewegen und ein klar definiertes Geschlecht aufweisen. Diese Gestaltungsempfehlung zeigt, dass Anthropomorphic Cues vorhanden sein müssen, die Grösse jedoch mit der Wahrnehmung des Roboters als einen erwachsenen Pfleger bricht und somit den Uncanny Valley Effekt verhindert. Als (zu programmierende) Charaktereigenschaften wird eine angemessene Ernsthaftigkeit in gewissen Situationen wie dem Medikamentenverabreichen empfohlen sowie eine gutherzige Ausstrahlung (vgl. Goetz et al. 2003; Broadbent et al. 2009; Frennert et al. 2012). Bei der Programmierung und äusseren Gestaltung der Roboter müssen immer persönliche Präferenzen der Patienten mitgedacht werden. Ähnlichkeit spielt im Vertrauensaufbau mit Robotern z. B. eine grosse Rolle (Häring et al. 2014; Eyssel et al. 2012; Cialdini 2001; Cialdini und Trost 1998). Ist der Roboter beispielsweise vom selben Geschlecht wie der Proband, wird er eher positiv wahrgenommen. Zudem beeinflussen die eigenen Charakterdispositionen, ob es als angenehm empfunden wird, wenn der Roboter eher introvertiert oder extrovertiert, humorvoll oder ernst ist. Introvertierte Probanden bevorzugten in einer Studie beispielsweise einen introvertierten Roboter (Lee und Nass 2003). Auch sprachliche Merkmale wie die Stimmlage, die Sprechgeschwindigkeit, para- und nonverbale Signale etc. dürften einen Einfluss auf die Wahrnehmung von Robotern haben - erste Studien im englischsprachigen Raum zum Einfluss des Dialekts auf die Akzeptanz von Robotern gibt es dazu bereits (Tamagawa et al. 2011). Im Folgenden wird gezeigt, dass in den aktuellen Entwicklungen im Bereich der Pflegeroboter die Erkenntnisse aus der CASA - und der Uncanny Valley-For- 200 Andrea Knoepfli schung vereint werden. Die vorgestellten Modelle geben einen Einblick, wo die momentane Entwicklung der Pflegeroboter steht. Jedes Modell löst die Herausforderungen auf seine Weise, jedoch bleiben viele Fragen offen - funktional wie auch ethisch. Auf die ethischen Aspekte wird weiter unten eingegangen, zunächst sollen einige aktuelle Beispiele vorgestellt werden. 4.2 Pflegeroboter im Vergleich Abb. 4: P-Care (Früh und Gasser 2018: 41) Der technisch am weitesten entwickelte Roboter heisst P-Care und sieht dem vielfältig eingesetzten Serviceroboter Pepper ähnlich. Seine Gestalt erinnert an einen Menschen, er ist jedoch mit seinen 1,50 m so klein wie ein Kind und besitzt keine Beine, sondern eine Rollplattform. Auch die Mimik wurde auf ein Minimum reduziert, sodass P-Care Emotionen lediglich über die LCD -Augen, anhand integrierter LED s, anzeigt. Wie Pepper kann er als Serviceroboter eingesetzt werden, aber auch in der Pflege, wozu er 30 Softwarefunktionen be- Mit welchen Strategien erzeugen Pflegeroboter Vertrauen? 201 inhaltet, die vom Erinnern an Medikamente bis hin zum Entertainment reichen. Mit seinem humanoiden Design soll er freundlich wirken und kann so bei den Patienten Vertrauen erwecken. Seine Sprechfunktion und Stimmerkennung befähigen ihn dazu, kleine Gespräche zu führen. Als Unterstützung ist auf Brusthöhe des Roboters ein Tablet eingebaut, das Instruktionen visualisieren kann. Momentan ist P-Care noch auf den asiatischen Markt ausgerichtet, dürfte bei Erfolg jedoch auch in Europa zum Einsatz kommen (Früh und Gasser 2018: 41 f.). Abb. 5: Care-O-Bot 4 (Fraunhofer IPA , o. J.) Damit kommen wir zum Care-O-Bot 4: In Deutschland wird bereits die vierte Generation dieses Roboters getestet, der für seine Funktionalität und sein Design im Jahr 2015 den RedDot Design Award gewann (vgl. Fraunhofer IPA 2015). Der am Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA) entwickelte Care-O-Bot bietet vielfältige Interaktionsmöglichkeiten. Diese können durch modulare Zusammensetzungen individuell angepasst werden. Mit seinen Greifarmen kann der Roboter Medikamente bringen und Essen servieren, und der Rumpf kann als Servicewagen genutzt werden. Seine Sprechfähigkeit und abstrahierte Mimik dienen als interaktiver Informationsschalter. Als wichtiger Aspekt wird in der Werbung betont, dass der Care-O-Bot 4 «freundlich und sympathisch wie ein Gentleman» wirke, (Fraunhofer IPA , o. J.). 202 Andrea Knoepfli Abb. 6: Nursebot Pearl (Human Health 2004) Der Nursebot Pearl, ein feminin aussehender Pflegeroboter, ist dazu da, älteren Menschen bei der Navigation zu helfen (z. B. als Gehhilfe), ihre kognitive Funktionen mit Spielen zu aktivieren, an Medikamente und Termine zu erinnern und körperliches Training zu fördern. Im US -amerikanischen Pearl-Projekt wird spezifisch ausgetestet, welche menschenähnlichen Eigenschaften die Erwartungen an die Funktionen dieses Roboters ändern. Hierfür manipulieren die Wissenschaftler regelmässig einzelne Merkmale und testen den Roboter dann in einem Seniorenheim in Pittsburg. Auch Pearl ist reduktiv gestaltet, er verfügt über zwei Schienen als Arme und ein fahrbarer Untersatz ersetzt die Beine. Dennoch reichen diese Hinweisreize aus, um den Roboter als menschenähnlich einzustufen. Der Fokus der Entwickler liegt auf der Verbesserung des Vokabulars und der Freundlichkeit (Theindexproject, o. J.). Mit welchen Strategien erzeugen Pflegeroboter Vertrauen? 203 Abb. 7: HSR ( KEM 2015) Der Human Support Robot (HSR) wurde 2012 von Toyota auf den Markt gebracht. Er soll ältere Menschen oder Menschen mit Behinderungen unterstützen und mit seinem Greifarm Objekte holen und bringen. Auch wenn der HSR im Vergleich zu den anderen Pflegerobotern kein Gesicht hat, wirkt er in Ansätzen menschenähnlich, da die Kameras so platziert sind, dass sie wie Augen wirken, und die verwendete Stimme menschlich ist. Die nur angedeuteten menschlichen Äusserlichkeiten unterstützen den CASA-Effekt, der vor allem durch die Stimme und höfliche Gesprächsstrategien hervorgerufen wird ( KEM 2015). 4.3 Herausforderungen Die vielen Gestaltungsmöglichkeiten lassen Zweifel daran, ob es je für Pflegeroboter ein standardisiertes Äusseres und Verhalten gibt. Die aktuellen Modelle wenden zwar die neusten Erkenntnisse an, sind jedoch durch die technischen Möglichkeiten limitiert. Bevor Roboter aber nicht einwandfrei funktionieren, kann nur schwer dort Vertrauen aufgebaut werden, wo diese Funktionen lebensnotwendig sind, also in der Pflege. Ein Beispiel hierfür ist die Bewegungsfreiheit. Keiner der Roboter kann Treppen hochgehen, manche scheitern mit ihren Rädern bereits am Teppichboden. Zudem stellt die Spracherkennungssoft- 204 Andrea Knoepfli ware eine Herausforderung dar. Dialekte werden nicht erkannt, in der Schweiz müsste die Kommunikation mit dem Roboter auf Hochdeutsch ablaufen. Auch das Vokabular, mit dem die Roboter antworten können, ist noch sehr begrenzt. Weiter erschweren es individuelle Prädispositionen bezüglich Verhaltens und Aussehens, wie leicht dem Pflegeroboter vertraut wird. Ein extrovertierter Patient möchte, wie bereits erwähnt, mit ihm möglicherweise anders interagieren als ein introvertierter. Ein Lösungsansatz dazu würde eine manuelle Programmierung und ein modularer Körperbau bieten. Wenn die Patienten selbst die Charaktereigenschaften ihres Roboters modellieren und sogar den Körperbau anpassen könnten, würde die Akzeptanz sicherlich steigen. Doch solche technischen Eingriffe sind mit hohen Kosten verbunden, was den Gestaltungsfreiraum stark limitiert. Der Care-O-Bot 4 kann beispielsweise mit oder ohne Arme und Kopf benutzt werden, jedoch kann nichts an seiner Grösse oder anderen Eigenschaften verändert werden. Damit kommen wir zu den ethischen Herausforderungen: Im Bereich der Roboterethik werden die Chancen und Gefahren von sozialen Robotern diskutiert und es wird die Frage gestellt, wie sich soziale Roboter in schwierigen Situationen verhalten sollen. So spricht Bendel (2018) die berechtigte Frage an, ob eine Patientenverfügung sinnvoll wäre. Möchte beispielsweise ein Patient seine Medikamente nicht nehmen, stellt sich die ethische Frage, ob der Roboter einen Arzt oder Angehörigen verständigen darf. Hätte der Patient bei der Inbetriebnahme des Roboters Instruktionen für diesen Fall hinterlegt, würde der Patient die Freiheit über Leben und Tod behalten. Ein weiterer schwieriger Aspekt ist der folgende: Soziale Roboter dienen auch als Unterhalter oder Berater und müssen zu diesem Zweck Informationen selektieren und entscheiden, welche davon für den Patienten relevant sind. Wenn der Patient beispielsweise mit Nachrichten unterhalten werden möchte, wählt ein Algorithmus diejenigen aus, die für ihn am interessantesten sind. So entsteht eine Filterblase, die nur Informationen zulässt, die das Weltbild des Patienten bestärkt und es nicht relativiert. Oder, ein weitaus kritischeres Beispiel: Wenn Medikamente von unterschiedlichen Firmen gleichwertig sind und gleichviel kosten, bevorzugt der Roboter beim Nachbestellen von Medikamenten eventuell gewisse Firmen vor anderen. Dies könnte so gelöst werden, dass die Patienten hier die letzte Entscheidung treffen. Je weiter die Verantwortung eines Pflegeroboters jedoch geht, desto transparenter müssen auf jeden Fall die Inputs, also die Entscheidungsgrundlagen, sein, die den Output, also bspw. die Medikamentenbestellung, generieren. Der Vorschlag, dass sich in diesem Fall eine individuelle Programmierbarkeit des Roboters anbieten würde, hat auch eine Kehrseite. Entscheidet der Patient beispielsweise, er möchte nicht, dass ein Arzt verständigt wird, wenn er krank wird, sich dann aber während der Krankheit umentscheidet, könnte die Ver- Mit welchen Strategien erzeugen Pflegeroboter Vertrauen? 205 sicherung die Behandlungskosten ablehnen. Ruft allerdings der Roboter per Default den Arzt bei Krankheit, verstösst er gegen die Freiheit des Patienten, selbst über seine Situation zu entscheiden. Mit dem technischen Fortschritt stellen sich unserer Gesellschaft vermehrt solche Fragen, die aus ethischer Sicht diskutiert werden müssen. Bibliographie Baisch, Stefanie / Kolling, Thorsten / Rühl, Saskia / Klein, Barbara / Pantel, Johannes / Oswald, Frank / Knopf, Monika (2018). Emotionale Roboter im Pflegekontext. Zeitschrift für Gerontologie Geriatrie 51: 1, 16-24. doi: 10.1007 / s00 391-017-1346-8 Bendel, Oliver (2018). Roboter im Gesundheitsbereich. In: Bendel, Oliver. (Hrsg.), Pflegeroboter. Wiesbaden: Springer Fachmedien, 195-212. Bendel, Oliver (2020). Pflegeroboter. In: Gabler Wirtschaftslexikon. Aufrufbar unter: https: / / wirtschaftslexikon.gabler.de/ definition/ pflegeroboter-54138/ version-378290 (Stand: 05. 01. 2021) Broadbent, Elizabeth / Stafford, Rebecca / MacDonald, Bruce (2009). Acceptance of healthcare robots for the older population: Review and future directions. International Journal of Social Robotics 1: 4, 319-330. Broekens, Joost / Heerink, Marcel / Rosendal, Henk (2009). Assistive social robots in eldercare: a review. Gerontechnology 8: 2, 94-103. doi: 10.4017 / gt.2009.08.02.002.00 Choudhury, Avishek / Li, Huiyang / Greene, Christopher M. / Perumalla, Sunanda (2018). Humanoid Robot-Application and Influence. Arch Clin Biomed Res 2: 6, 187-197. Cialdini, Robert B. (2001). Influence: Science and practice (4th ed.). New York: Harper Collins. Cialdini, Robert B. / Trost, Melanie R. (1998). Social influence: Social norms, conformity, and compliance. In: Gilbert, Daniel T. / Fiske, Susan T. (Hrsg.). The handbook of social psychology: Band 2 (4th ed.). Boston: Mcgraw-Hill, 151-192. Csikszentmihalyi, Mihaly (1987). Das flow-Erlebnis: jenseits von Angst und Langeweile: im Tun aufgehen. Klett-Cotta. Eyssel, Friederike / Kuchenbrandt, Dieta / Bobinger, Simon / De Ruiter, Laura / Hegel, Frank (2012). 'If you sound like me, you must be more human': On the interplay of robot and user features on human-robot acceptance and anthropomorphism. In: Proceedings of the seventh annual ACM / IEEE international conference on Human-Robot Interaction ( HRI '12). New York: Association for Computing Machinery, 125-126. doi: 10.1145 / 2 157 689.2157717 Forsa. Politik- und Sozialforschung GmbH (2016). Service-Robotik: Mensch-Technik- Interaktion im Alltag: Ergebnisse einer repräsentativen Befragung. Berlin, Deutschland. Aufrufbar unter: https: / / www.bmbf.de/ files/ BMBF_forsa_Robotik_FINAL2016. pdf. (Stand: 05. 01. 2021) 206 Andrea Knoepfli Fraunhofer IPA (Hrsg.) (2015). Presseinformation: Begehrter RedDot Design Award für Care-O-bot® 4. Stuttgart: Fraunhofer IPA . Aufrufbar unter: https: / / www.care-o-bot. de/ content/ dam/ careobot/ de/ documents/ Pressemitteilungen/ PM_COb4_RedDotDesignAward.pdf (Stand: 05. 01. 2021) Fraunhofer IPA . (o. J.). Care-O-Bot 4. Aufrufbar unter: https: / / www.care-o-bot.de/ de/ care-o-bot-4.html (Stand: 05. 01. 2021) Frennert, Susanne / Östlund, Britt (2014). Review: Seven matters of concern of social robots and older people. Int J Soc Robotics 6: 2, 299-310. doi: 10.1007 / s12 369-013- 0225-8 Frennert Susanne / Östlund Britt / Eftring Håkan (2012) Would Granny Let an Assistive Robot into Her Home? In: Ge, Shuzi S. / Khatib Oussama / Cabibihan John-John / Simmons Reid / Williams Miguel, A. (Hrsg.). Social Robotics. ICSR 2012. Lecture Notes in Computer Science, vol 7621. Heidelberg / Berlin: Springer, 128-137. Früh, Michael / Gasser, Alina (2018). Erfahrungen aus dem Einsatz von 3 Pflegerobotern für Menschen im Alter. In: Bendel, Oliver (Hrsg.). Pflegeroboter. Wiesbaden: Springer, 32-62. Goetz, Jennifer / Kiesler, Sara / Powers, Aaron (2003). Matching robot appearance and behavior to tasks to improve human-robot cooperation. In: IEE (Hrsg.). Proceedings of the 12th IEEE International Workshop on Robot and Human Interactive Communication. Millbrae, 55-60. Hammer, Stephan / Lugrin, Birgit / Bogomolov, Sergey / Janowski, Kathrin / André, Elisabeth (2016). Investigating politeness strategies and their persuasiveness for a robotic elderly assistant. In: DeRuyter, Boris / Fuchsberger, Verena / Meschtscherjakov, Alexander / Murer, Martin / Tschelgi, M (Hrsg.). 11th International Conference on Persuasive Technology. Cham: Springer, 315-326. Häring, Markus / Kuchenbrandt, Dieta / Andre, Elisabeth (2014). Would you like to play with me? How robots’ group membership and task features influence human-robot interaction. In Proceedings of the 2014 ACM / IEEE International Conference on Human-Robot Interaction ( HRI ’14). New York: Association for Computing Machinery, 9-16. Heerink, Marcel / Kröse, Ben / Evers, Vanessa / Wielinga, Bob J. (2008). The influence of social presence on acceptance of a companion robot by older people. Journal of Physical Agents 2: 2, 33-40. Hofer, Michael (2016). Presence und Involvement. Baden-Baden: Nomos. Human Health (2004). Pearl the NurseBot: The Softer Side of Technology. Aufrufbar unter: https: / / www.cmu.edu/ cmtoday/ issues/ dec-2004-issue/ feature-stories/ humanhealth/ index.html (Stand: 05. 01. 2021) IEEE Robots (o. J.). Human Support Robot. Aufrufbar unter: https: / / robots.ieee.org/ robots/ hsr/ ? gallery=video1 (Stand: 10. 06. 2020) IRF (2019). Executive Summary World Robotics 2018. Service Robots. Aufrufbar unter: https: / / ifr.org/ free-downloads (Stand: 05. 01. 2021) Mit welchen Strategien erzeugen Pflegeroboter Vertrauen? 207 Janowski, Kathrin / Ritschel, Hannes / Lugrin, Birgit / Andre, Elisabeth (2018). Sozial interagierende Roboter in der Pflege. In Bendel, Oliver (Hrsg.). Pflegeroboter. Wiesbaden: Springer Fachmedien, 195-212. KEM (2015). Assistenzroboter: Vielseitiger Alltagshelfer. Aufrufbar unter https: / / kem. industrie.de/ handling/ vielseitiger-alltagshelfer/ #slider-intro-3 (Stand: 05. 01. 2021) Körtner, Tobias (2016). Ethical challenges in the use of social service robots for elderly people. Zeitschrift für Gerontologie Geriatrie 49: 4, 303-307. doi: 10.1007 / s00 391- 016-1066-5 Lee, Kwan M. / Nass, Clifford (2003). Designing social presence of social actors in human computer interaction. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems ( CHI ’03). New York: Association for Computing Machinery, 289-296. doi: 10.1145 / 642 611.642662 Lombard, Matthew / Reich, Robert D. / Grabe, Maria E. / Bracken, Cheryl C. / Ditton, Theresa B. (2000). Presence and Television: The role of screen size. Human Communication Research 26: 1, 75-98. Losada, Andrés / Márquez-González, María / García-Ortiz, Luis / Gómez-Marcos, Manuel A. / Fernández-Fernández, Virginia / Rodríguez-Sánchez, Emiliano (2012). Loneliness and mental health in a representative sample of community-dwelling Spanish older adults. The Journal of Psychology 146: 3, 277-292. Mitchell, Wade J. / Szerszen, Kevin A., Sr / Lu, Amy S. / Schermerhorn, Paul W. / Scheutz, Matthias / Macdorman, Karl F. (2011). A mismatch in the human realism of face and voice produces an uncanny valley. i-Perception 2: 1, 10-12. doi: 10.1068 / i0415 Mori, Masahiro (1970). Bukimi no tani [The uncanny valley]. Energy 7: 4, 33-35. Nass, Clifford / Moon, Youngme / Green, Nancy (1997). Are machines gender neutral? Gender-stereotypic responses to computers with voices, Journal of Applied Social Psychology 27: 10, 864-876. Nass, Clifford / Moon, Youngme (2000). Machines and mindlessness: Social responses to computers. Journal of Social Issues 56: 1, 81-103. Pandey, Amit K. / Gelin, Rodolphe (2018). Pepper: The First Machine of Its Kind. A Mass-Produced Sociable Humanoid Robot. IEEE Robotics & Automation Magazine 25: 3, 40-48. doi: 10.1109 / MRA .2018.2833157 Reeves, Byron / Nass, Clifford (1996). The Media Equation: How People Treat Computers, Television, and New Media like Real People and Places. New York: Cambridge University Press. Schröter, Rolf (2019). Deutsche Bahn schickt Service-Roboter an den Berliner Hauptbahnhof. Aufrufbar unter: https: / / www.wuv.de/ marketing/ deutsche_bahn_schickt_ service_roboter_an_den_berliner_hauptbahnhof (Stand: 05. 01. 2021) Seyama, Jun’ichiro / Nagayama, Ruth S. (2007). The uncanny valley: Effect of realism on the impression of artificial human faces. Presence: Teleoperators and Virtual Environments 16: 4, 337-351. doi: 10.1162 / pres.16.4.337 Sharkey, Amanda / Sharkey, Noel (2012). The eldercare factory. Gerontology 58: 3, 28-288. doi: 10.1159 / 000 329 483 208 Andrea Knoepfli Skalski, Paul / Tamborini, Ron (2007). The Role of Social Presence in Interactive Agent- Based Persuasion. Media Psychology 10: 3, 385-413. Softbank Robotics Europe (o. J.). Pepper. Aufrufbar unter: https: / / www.softbankrobotics.com/ emea/ en/ pepper (Stand: 05. 01. 2021) Tamagawa, Rie / Watson, Catherine I. / Kuo, I-Han / MacDonald, Bruce A. / Broadbent, Elizabeth (2011). The effects of synthesized voice accents on user perceptions of robots. International Journal of Social Robotics 3: 3, 253-262. Theindexproject. (o. J.). NurseBot: Personal mobile robotic assistants for the elderly. Aufrufbar unter: https: / / theindexproject.org/ stories/ nursebot (Stand: 05. 01. 2021) Wu, Ya-Huei. / Fassert, Christine / Rigaud, Anne-Sophie (2012). Designing robots for the elderly: Appearance issue and beyond. Archives of gerontology and geriatrics 54: 1, 121-126. Zukunftsinstitut (Hrsg.) (o. J.) Senior Robots: Die Pflege-Maschinen. Aufrufbar unter: https: / / www.zukunftsinstitut.de/ artikel/ technologie/ senior-robots-die-pflege-maschinen/ (Stand: 05. 01. 2021) C Mensch-Maschine-Kommunikation II : Kommunikation mit Assistenzsystemen Der wütende Mann, die höfliche Frau-- und die Frage nach dem Dazwischen Wie spricht eine genderneutrale Sprachassistenz? Julia Degelo 1 Einleitung Sprechen Frauen anders als Männer? Diese Frage beschäftigt die Linguistik schon seit der feministischen Bewegung in den 1970er Jahren. Die Meinungen gehen nicht nur auseinander, sondern haben sich auch verändert, seit die Debatte angestossen wurde. Ist diese binäre Vorstellung von zwei möglichen Sprechweisen nicht veraltet? Und wie stellt sich das Thema Frauen- und Männersprache vor dem Hintergrund neuer Technologien dar? Sprachassistenzen beispielsweise sind heute alltäglich. Jedes Smartphone hat eine solche Funktion. Auch Smart Homes mit integrierten Sprachassistenzen sind in den letzten 20 Jahren für die breite Öffentlichkeit interessant geworden (vgl. o. A., infineon 2017). Solche Sprachassistenzen bieten die Möglichkeit, zwischen einer weiblichen und einer männlichen Stimme auszuwählen. Auch hier zeigt sich das binäre Geschlechterdenken deutlich. Was würde nun aber passieren, wenn man sich nicht mehr nur zwischen männlicher und weiblicher Stimme entscheiden müsste? Der vorliegende Beitrag setzt sich mit der Frage auseinander, wie eine genderneutrale Sprachassistenz aussehen könnte. Dazu werden in einem ersten Schritt anhand ausgewählter Forschungsliteratur zentrale Positionen der feministischen Linguistik zusammengefasst. Danach folgt ein Kapitel zur Geschichte von Sprachassistenzen und über den Aufbau von Künstlicher Intelligenz. In einem letzten Schritt sollen Gender als Konzept reflektiert und die Vorzüge einer genderneutralen Sprachassistenz diskutiert werden. 212 Julia Degelo 2 Forschungsliteratur zum geschlechtsspezifischen Sprechen Eine wichtige Vertreterin der feministischen Linguistik ist Robin Lakoff. In ihrem Werk Language and Woman’s Place , das 1975 in der ersten Auflage erschien, betrachtet sie die Unterschiede zwischen (vermeintlicher) Frauen- und Männersprache. Sie hält fest, dass beispielsweise Fluchwörter eher mit dem Sprachgebrauch der Männer assoziiert werden (vgl. 2004: 44). Ausserdem würden Frauen höflicher sprechen als Männer. Lakoff nennt in dem Zusammenhang einen wichtigen Aspekt: die sogenannten Question tags 1 : Man soll dem Gegenüber keine Entscheidung oder Meinung auferlegen, sondern ihm - zum Beispiel durch Question tags - die Möglichkeit lassen, sich zu entscheiden bzw. sich eine eigene Meinung zu bilden. Lakoff bezeichnet ein solch höfliches Sprechen als Absenz von starken Stellungnahmen. Gerade Frauen würden dazu erzogen, keine starken Aussagen zu tätigen (vgl. 2004: 55 f.). Ein weiteres typisches Merkmal für ‹Frauensprache› ist laut Lakoff der vermehrte Gebrauch von relativierenden oder abschwächenden Ausdrücken, sog. Hedges 2 . Lakoffs Fokus liegt zwar auf weiblichen Sprecherinnen, sie hält aber auch fest, dass jede Person diese Art der Abschwächung verwendet, wenn sie sich unsicher ist (vgl. 2004: 79). Die Möglichkeit, dass all diese Merkmale nicht zwingend einem Geschlecht zugeordnet werden können, wird hier also bereits angedeutet. Lakoff führt später selbst noch aus, dass die verschiedenen Arten des Sprechens womöglich eher auf Machtverhältnisse in der realen Welt zurückzuführen sind als auf ein Geschlecht. Frauen hätten aber oft das Gefühl, sie hätten weniger Macht, und bedienten sich deshalb dieser ‹typisch weiblichen› Sprechmerkmale (vgl. Lakoff 2004: 81 f.). Es werden also die klassischen Stereotype des dominanten, mächtigen Mannes und der schwachen, machtlosen Frau durch diesen Sprachgebrauch zusätzlich verfestigt. Marlis Hellinger nennt in Kontrastive feministische Linguistik ein Erklärungsmodell für ‹männliches› und ‹weibliches› Sprechverhalten: Die sprachliche Relativitätstheorie besage, dass die Sprache das Denken beeinflusst und somit Einfluss auf die Wahrnehmung der Wirklichkeit nimmt. Die Theorie geht davon aus, dass Kinder durch den alltäglichen Sprachgebrauch (z. B. durch Alltagsmetaphern wie ‹eines Problems Herr werden› oder durch eingefrorene Ausdrücke wie ‹Adam und Eva›) lernen, dass Männer eine vorherrschende Stellung in der Gesellschaft einnehmen (vgl. 1990: 42 f.). Diese Theorie scheint jedoch eher eine 1 Im Englischen werden Question tags folgendermassen gebildet: Isnt’ he? , Wasn’t she? etc. Pendants im Deutschen sind beispielsweise Nicht wahr? , Oder? etc. 2 Hedges sind im Englischen abschwächende Ausdrücke wie kind of, well etc. Pendants im Deutschen sind beispielsweise vielleicht, möglicherweise etc. Der wütende Mann, die höfliche Frau-- und die Frage nach dem Dazwischen 213 Erklärung dafür zu sein, wie Sprache die Wahrnehmung der Welt bzw. die Gesellschaft verändern kann, und keine Erklärung dafür, wieso unterschiedliche Sprechweisen existieren. Weil aber Sprache in bestimmter Weise verwendet wird, werden Ungleichheiten zementiert. Hellinger macht also deutlich, dass die Unterteilung in ‹männliches› und ‹weibliches› Sprechen nicht die Wurzel der Ungleichstellung ist bzw. das Problem nicht gänzlich erfasst. Vielmehr gibt es Ungleichgewichte, welche unsere Gesellschaft und unsere Wahrnehmung stark prägen und dazu führen, dass die Stereotype sich noch mehr verfestigen. Eine genderneutrale Sprachassistenz könnte dazu beitragen, diese verfestigten Vorstellungen aufzuweichen. Auch Sara Mills schreibt in ihrem Werk Gender matters , dass Höflichkeit stereotypisch als etwas Weibliches betrachtet wird. Die Annahme, dass Frauen kooperativer sprechen und Konflikte verhindern wollen, gehe davon aus, dass Frauen weniger Macht als Männer hätten. Diese Machtlosigkeit würden sie in ihrer Sprache abbilden. Bestimmte Arten der Höflichkeit - z. B. kooperatives Sprechen oder Konfliktvermeidung - seien ein Zeichen der Unterordnung (vgl. Mills 2012: 174). Mills verweist aber auch deutlich darauf, dass es sich hier um Stereotype handelt. Dieses stereotype Denken habe sich mit den Jahren verändert, wie sich auch die Rolle der Frau in der Gesellschaft verändert habe. Es könne nicht davon ausgegangen werden, dass alle Menschen dieselbe Auffassung eines Stereotyps hätten (vgl. Mills 2012: 175). Dieser Gedanke scheint in Hinblick auf die Frage nach Frauen- und Männersprache besonders interessant. Wenn Stereotype nicht mehr klar umrissen sind, wird es schwieriger, bestimmte Verhaltensweisen einzuordnen, demzufolge werden ‹typisch weibliches› oder ‹typisch männliches› Sprechverhalten durchmischt. Interessant ist weiter Mills Einschätzung, dass diese Stereotypisierungen vor allem auf bestimmte soziale Schichten anzuwenden seien. So wird als Inbegriff des stereotypen männlichen Sprechverhaltens die weisse Arbeiterklasse und für stereotypes weibliches Sprechverhalten die weisse Mittelschicht genannt. Diese Zuordnungen seien mit weiteren Stereotypen verbunden, welche die Wahrnehmung typisch weiblichen und männlichen Sprechverhaltens zusätzlich beeinflussen (vgl. Mills 2012: 175 f.). Wie daraus ersichtlich, ist das als typisch betrachtete Sprechverhalten nicht im grösseren Rahmen anwendbar. Umso überraschender ist es, dass diese klischierten Wahrnehmungen immer noch bestehen. Zusätzlich werden sie durch andere, in der Gesellschaft verankerte Vorurteile verstärkt, was die Aufhebung solcher Stereotype schwieriger macht. Gerade deshalb ist es wichtig, über die stereotypen Verhaltensweisen zu sprechen und diese bewusst zu machen. Sobald sie sichtbar sind, können sie hinterfragt und im besten Fall abgeschafft werden. 214 Julia Degelo Halten wir fest: Die Debatte darum, was Frauenbzw. Männersprache ist und ob diese Unterscheidung tatsächlich möglich ist, ist eine schwierige. Klar ist, dass sich die Idee einer fixen Zweiteilung und den daraus resultierenden Stereotypen im Laufe der Zeit geändert hat und nun weit entfernt von der Starrheit ist, mit der sie früher belegt war. Die Frage stellt sich, ob und woran Unterschiede im Sprechverhalten festgemacht werden können. Wenn erstens kein festes Stereotyp mehr vorliegt bzw. jeder Mensch Stereotype anders wahrnimmt und wenn zweitens vermeintlich ‹typisch weibliches› Sprechverhalten auch bei Männern beobachtet werden kann, wird es schwierig, genderbasierte Unterschiede nachzuweisen. Dazu kommt, dass diese Unterscheidung nicht hilfreich ist, wenn die Binarität der Geschlechter und die dazugehörenden Rollen in Frage gestellt werden. Geschlechtsspezifisches Sprechverhalten ist, wenn überhaupt - so viel lässt sich festhalten - nur ein Symptom von binärem, heteronormativen Denken. Will man diese Binarität auch bei Sprachassistenzen beseitigen, sind technische Aspekte zu berücksichtigen. Darauf soll im folgenden Kapitel eingegangen werden. 3 Künstliche Intelligenz 3.1 Technische Entwicklungen auf dem Weg zur Sprachassistenz Bereits im Jahr 1791 soll der ungarische Gelehrte Wolfgang von Kempelen eine Sprechmaschine entworfen haben. Die Maschine hätte menschliche Sprachlaute hervorbringen sollen, wurde allerdings nie gebaut - und der Entwurf gilt als verschollen (vgl. Dernbach 2016). 1877 entwickelte Thomas Alva Edison ein Diktiergerät. Dieses Gerät konnte Geräusche aufnehmen und wieder abspielen. Der sogenannte Phonograph arbeitete rein mechanisch und verkaufte sich bis in die 1920er Jahre (vgl. o. A., tiarda 2020). Damit war ein wichtiger Schritt auf dem Weg zur heutigen Sprachassistenz getan: Der Phonograph konnte aufgenommene Sprache reproduzieren. Er war aber selbst nicht produktiv. In den 1930er Jahren wurde der sogenannte Voder entwickelt, der zum ersten Mal menschliche Sprache elektronisch erzeugen konnte. Der Voder wurde an der Weltausstellung 1939 vorgestellt und soll gut verständlich gewesen sein (vgl. Dernbach 2016). Audrey brachte 1952 den Durchbruch: Diese Maschine konnte die Ziffern von 0 bis 9 verstehen und auswerten. Die Genauigkeit lag bei etwa 90 % und war stark abhängig von Redegeschwindigkeit, Dialekt und Stimme der sprechenden Person. Audrey war somit die erste Maschine, die Sprachsignale erkennen konnte. Zehn Jahre später stellte IBM auf der Weltausstellung in Seattle die Shoebox vor, welche ebenfalls die Ziffern von 0 bis 9 und grundlegende mathematische An- Der wütende Mann, die höfliche Frau-- und die Frage nach dem Dazwischen 215 weisungen verstand, also rechnen konnte (vgl. o. A., tiarda 2020). 1991 brachte IBM Tangora heraus. Diese Maschine konnte Sätze erkennen und ein Vokabular von etwa 20 000 Begriffen in Echtzeit verarbeiten. Dabei basierte sie auf einer rein statistischen Methode ohne linguistisches Wissen (vgl. o. A., tiarda 2020). In den 2000er Jahren wurde die Spracherkennung zum Standard im Computer (vgl. o. A., tiarda 2020). Wichtig ist in dem Zusammenhang auch das Jahr 2011; hier brachte das Sprachverarbeitungssystem Siri von Apple eine neue Entwicklung auf dem Gebiet der Sprachassistenz. Siri wurde mit den zentralen iOS-Apps verknüpft, wie zum Beispiel dem Kalender, dem Wetter oder den Kontakten (vgl. Dernbach 2016). Es hiess, die Assistenz könne «einfache Aufgaben auf gesprochene Anweisungen ausführ[en]» (Huq 2011). Siri ist als neuronales Netz aufgebaut und lernt ‹selbstständig›. Die Assistenz ist in der Lage, durch ‹Training› immer genauere Ergebnisse zu liefern (vgl. o. A., Digital Guide IONOS 2020). Auch andere Sprachassistenzen von Microsoft, Google oder Amazon funktionieren mit einem neuronalen Netz (vgl. Nicholson 2020). Im folgenden Kapitel soll erklärt werden, wie ein solches Netz aufgebaut ist und was eine Künstliche Intelligenz ausmacht. 3.2 Künstliche Intelligenz-- Was ist das? Künstliche Intelligenz ist eine Fähigkeit von Maschinen. Eine Künstliche Intelligenz ( KI ) scheint in erster Linie eine gewisse Eigenleistung erbringen zu müssen, zum Beispiel muss sie etwas erkennen oder selbst etwas lernen. 3 Bei klassischer Programmierung wird das Wissen aus den Köpfen der Programmierenden in die Maschine übertragen. Bei einer KI gibt der Mensch nur noch den Rahmen vor, in welchem eine Maschine das Lernen lernen soll. Dafür werden Ziele festgelegt, die die Maschine am Schluss erreichen soll. Um diese Ziele zu erreichen, werden von den Programmierenden Beispiele ausgewählt, mit welchen die KI trainiert wird. Zusätzlich erhält die KI in der Trainingsphase Feedback zu den gelieferten Ergebnissen (vgl. Ramge 2018: 17 f.). KI bezeichnet also die Fähigkeit, sich etwas selbst anzueignen - ähnlich der menschlichen Intelligenz. Doch was ist Intelligenz? Um Intelligenz zu definieren, kann beispielsweise auf das 4-Stufen Entwicklungsmodell von Jean Piaget verwiesen werden. Damit wird erklärt, wie Kinder ihre ‹Intelligenz› entwickeln. Auf der ersten Stufe steht die sensomotorische Intelligenz, mit welcher Kleinkinder ihre Umgebung über die Sinne erfahren. Auf einer weiteren Stufe werden 3 Ramge (2018: 14) formuliert den Fortschritt im Bereich KI folgendermassen: «[…] aus Daten lernende Software in Verbindung mit steuerungsfähiger Hardware [beherrschen] den Dreischritt von Erkennen, Erkenntnis und Umsetzung in eine Handlung immer besser». 216 Julia Degelo die ersten Wörter gelernt, und auf Stufe drei sind Kinder in der Lage, vorauszudenken und ihre Handlungen zu planen. Auf der vierten und letzten Stufe ist das Kind dazu fähig, über sein eigenes Denken nachzudenken. Dies ist die höchste Form des logischen Denkens. 4 All diese Schritte sind allerdings nur möglich, wenn das Kind von anderen Menschen umgeben ist, die ihm unter anderem vorleben, wie es sich verhalten soll. Dass sich menschliche Intelligenz entwickelt, ist also nur mit Mitmenschen möglich (vgl. Eberl 2016: 65). Ähnlich verhält es sich (vorerst) mit der KI . Noch braucht sie Menschen, die ihr Vorgaben machen, ein Ziel setzen, die passende Methode bzw. das passende Verfahren auswählen etc. (vgl. Westerheide und Kaczmarek 2016). 3.3 Deep Learning Die wichtigste Vorlage für die KI ist das menschliche Gehirn. Die Neuronen in unserem Gehirn haben Verbindungen (Synapsen) zu anderen Neuronen. Sie besitzen einen kleinen ‹Speicher› für elektrische Impulse. Mit jedem Impuls (bzw. jeder Information) wird die Spannung erhöht. Sobald ein gewisser Schwellenwert erreicht ist, schickt das Neuron einen Spannungsimpuls an weitere Neuronen los (vgl. Ertel 2016: 266). Wird eine Verbindung zu selten benutzt, wird sie unterbrochen. Die Wiederholung ist demnach ein zentraler Bestandteil im Lernprozess eines Menschen. Je öfter eine Verbindung erzeugt wird, desto mehr wird das Wissen gefestigt und die Verbindung bleibt bestehen (vgl. Ramge 2018: 44 f.). Für das Deep-Learning-Verfahren, das vielen KIs zugrunde liegt, sind sogenannte künstliche neuronale Netze massgeblich. Der Computer simuliert dafür ein Nervensystem mit Knoten. Diese Systeme liegen in vielen Schichten hinter- oder übereinander. Die Knoten sind miteinander verbunden und das Signal bzw. der Impuls wird durch die verschiedenen Schichten weitergegeben (vgl. Ramge 2018: 46). Ramge führt ein anschauliches Beispiel an, das deutlich macht, wie diese Schichten zusammenspielen: Die Aufgabe des Computers ist es, auf Fotos Pferde zu erkennen. Als Trainingsdaten werden ihm mehrere Bilder mit Pferden gezeigt. Das Netzwerk extrahiert nun mithilfe dieser Bilder das Feature-Set eines Pferdes (Körperform, Augen, Fell etc.). Dies geschieht Schicht für Schicht. Die erste Schicht überprüft beispielsweise nur die Helligkeit der Pixel, die zweite Schicht überprüft Linien, die dritte Kreisformen etc., bis schliesslich die letzte Schicht alle gewonnen Daten zu einem Gesamtbild zusammenfügt. Das Pro- 4 Siehe dazu beispielsweise Piaget, Jean (1983): Meine Theorie der geistigen Entwicklung. Frankfurt a. M.: Fischer Taschenbuch Verlag. Der wütende Mann, die höfliche Frau-- und die Frage nach dem Dazwischen 217 gramm wird so mit jedem Beispiel und mit jeder Wiederholung besser darin, ein Pferd zu erkennen (vgl. Ramge 2018: 47). Es gibt drei verschiedene Arten, wie eine solche KI lernen kann. Eine davon ist das Supervised Machine Learning . Dabei bekommt das Computerprogramm bekannte Beispieldaten und wird damit auf eine bestimmte Interpretation und einen gewünschten Output trainiert. Das Programm soll Regeln entdecken und diese selbstständig auf neue Daten übertragen und anwenden. Beim sog. Unsupervised Machine Learning hingegen muss das Programm ohne Beispieldaten und Zuordnungen Datenstrukturen erkennen und diese in interpretierbare Informationen verwandeln (vgl. Kirste und Schürholz 2019: 25 f.). Die Methode ist vor allem dann interessant, wenn der Mensch selbst nicht weiss, wonach er suchen soll. Dieses Verfahren kommt beispielsweise in der IT -Sicherheit zur Abwehr von Hacker-Angriffen zum Einsatz, wo die KI unbekannte Anomalien in einem Computernetzwerk finden und danach Alarm schlagen soll. Allerdings steht das Unsupervised Machine Learning noch ganz am Anfang der Entwicklung (vgl. Ramge 2018: 48). Und schliesslich gibt es das Reinforcement Machine Learning . Hier lernt das Programm aus Erfahrungen und erhält für richtige Ergebnisse ein positives Feedback (vgl. Kirste und Schürholz 2019: 29). 3.4 Was sind die Grenzen einer KI? Die Möglichkeiten einer KI sind dadurch eingeschränkt, dass sich nicht jede Art von Wissen formalisieren lässt. So ist es beispielsweise nicht möglich, intuitives Metawissen zu verbalisieren und an eine KI weiterzugeben. Denn Intuition ist nicht programmierbar (vgl. Ertel 2016: 71). In diesen Bereich fällt auch das sog. Polanyi-Paradoxon, welches die Unfähigkeit meint, gewisse Fähigkeiten zu beschreiben (vgl. Ramge 2018: 17). Solange der Mensch eine Fähigkeit nicht formalisieren kann, wird sich diese auch nicht einer Maschine vermitteln lassen. Eine weitere Grenze bezieht sich auf ethische Fragen. Es besteht grundsätzlich die Möglichkeit bzw. Gefahr, dass eine KI Vorurteile entwickelt. Dies kann geschehen, wenn die KI in den Trainingsdaten Regelmässigkeiten erkennt und anhand dieser anschliessend beispielweise ethnische Minderheiten oder Gender kategorisiert. Das ist insbesondere deshalb gefährlich, weil die KI die Grundlage für die Kategorisierung nicht offenlegt. Dazu kommt, dass die Lernvorgänge oft derart komplex sind, dass die Maschine sie dem Menschen nicht erklären kann bzw. der Mensch sie möglicherweise nicht verstehen würde, da die Entscheidungsfindung auf Abermillionen Verknüpfungen beruht. Ergo ist es quasi unmöglich, die Grundlage für die Kategorisierung zu finden und den Fehler zu beheben (vgl. Ramge 2018: 26 f.). Gerade in Bezug auf Geschlecht und Gender 218 Julia Degelo können sich hier Probleme ergeben: Denn es soll auf keinen Fall passieren, dass die Maschine gesellschaftlich verankerte Stereotype weiter verfestigt. 4 Genderneutrales Sprechen Was diese Überlegungen zu KI in Bezug auf geschlechtsspezifisches wie auch auf genderneutrales Sprechverhalten bedeuten, wird im Folgenden erörtert. Grundsätzlich gilt: Männer und Frauen sollten nicht nur gleichgestellt sein; anzustreben wäre, das Konzept von geschlechtlicher Binarität überhaupt aufzugeben und somit nicht nur Frauen und Männer, sondern alle Gender gleichzustellen. Es stellt sich nun die Frage, wie man eine solche Gleichstellung in Bezug auf Sprachassistenzen erreichen könnte. 4.1 Sprachassistenz und Gender Sprachassistenzen können nützlich sein, lösen aber auch wichtige und kontroverse Debatten aus. Immer wieder im Fokus steht die Frage nach dem Geschlecht. Siri beispielsweise stellt sich in den Werkseinstellungen mit einer weiblichen Stimme vor. 5 Die herstellenden Unternehmen sprechen allerdings von der Sprachassistenz als it , also geschlechtlich neutral. Marie Kilg beschreibt in ihrem Artikel Siri, ficken? den Versuch einer historischen Erklärung dafür, weshalb Sprachassistenzen oft eine weibliche Stimme als Werkseinstellung vorprogrammiert haben: Die meisten Aufgaben, welche eine Sprachassistenz übernehmen kann (Termine vereinbaren, etwas nachschlagen, Anrufe tätigen etc.), waren und sind meistens mit Frauen assoziiert. Oft wurden diese Arbeiten von Sekretärinnen erledigt. Allerdings bestreiten die herstellenden Firmen verschiedener Sprachassistenzen dezidiert, dass damit Genderklischees bedient werden sollen. Vielmehr sollten die Stimmen den Eindruck von Hilfsbereitschaft vermitteln und sympathisch und kompetent wirken. Ausserdem dürften die Sprachassistenzen zwar proaktiv reagieren, aber auf keinen Fall aufdringlich sein (vgl. Kilg 2017). Die Nutzenden hätten - einem Sprecher von Amazon zufolge - selbst entschieden, dass die Sprachassistenz mit einer weiblichen Stimme 5 Im Folgenden wird von der ‹weiblichen› und der ‹männlichen› Stimme gesprochen. Dies soll in keiner Weise ausschliessen, dass die Stimmen auch anders wahrgenommen werden oder sich ausserhalb des heteronormativen Spektrums befinden können. Die Kategorisierung in ‹weiblich› und ‹männlich› soll lediglich helfen, die zwei vorhandenen Versionen zu unterscheiden. Diese Kategorisierung wird bis jetzt auch von den gängigen Konzernen, welche Sprachassistenzen verkaufen, verwendet, so u. a. von Apple, Amazon und Google. Der wütende Mann, die höfliche Frau-- und die Frage nach dem Dazwischen 219 sprechen solle, das Ergebnis basiere auf Marktforschung (vgl. ebd.). Allerdings waren die Ergebnisse einer Umfrage des IT -Verbands Bitkom nicht ganz so eindeutig. Hier zeigte sich folgendes Bild: 53 % der befragten Männer würden eine weibliche Stimme bevorzugen, von den Frauen waren dies nur 32 %. Eine männliche Stimme fänden 42 % der befragten Frauen gut, bei den Männern waren dies nur 21 % (vgl. Paulsen und Klöss 2016). Technikexpert*innen bieten eine pragmatische Erklärung dafür, warum die Sprachassistenz oft eine weibliche Stimme besitzt: Die weibliche Stimme sei besser zu verstehen, da sie sich in einem anderen Frequenzbereich befindet. Die britische Autorin Laurie Penny nennt einen anderen Grund: Obwohl viele KI s nicht zwingend ein binäres Geschlecht benötigen, würden sie oft als weiblich dargestellt. Dies geschehe «in part so that users, who were presumed to be male, could exploit them without guilt» (Penny 2016). Sie verweist dabei auf die KI Tay , die im April 2016 von Microsoft auf den Markt gebracht wurde. Die KI sollte im Verhalten und im Erscheinungsbild an eine junge Frau erinnern. Microsoft stellte die KI als weiblichen Avatar auf Twitter und forderte die User*innen auf, sich mit ihr zu unterhalten, damit sie so lernen könne. Innert kurzer Zeit soll die KI gelernt haben, Hitler zu verteidigen, und erhielt mehrfach sexuell belästigende Kommentare (vgl. Penny 2016). Ob und wie stark Pennys Annahme stimmt, müsste ausführlich diskutiert werden. Wichtig ist die von ihr aufgeworfene Frage, wie Technologie unsere Erwartungen an Gender und Geschlecht widerspiegelt (vgl. Penny 2016) und schliesslich auch beeinflusst. Im folgenden Kapitel soll dieser Frage nachgegangen werden. 4.2 Gender als Konzept Im Lehrbuch zu Gender und Queer von Czollek, Perko und Weinbach wird die Problematik des Ausschliessens durch geschlechtliche Binarität verdeutlicht: Die Menschen lernten, wie ein Mann oder wie eine Frau zu handeln und sie würden passend gemacht (z. B. intersexuelle Säuglinge), sollten sie diesem System nicht entsprechen. Zwei Geschlechter würden als normativ betrachtet, der Rest als ‹anormal›. Daraus resultiere eine Eindimensionalität, die der menschlichen Vielfalt nicht gerecht wird. Ausserdem erhielten durch diese Fixierung auf den heterosexuellen Mann und die heterosexuelle Frau zwar die einen bestimmte Privilegien, dafür würden aber andere ausgegrenzt (vgl. Czollek, Perko und Weinbach 2009: 37 f.). In Queer-Studies dagegen wird davon ausgegangen, dass Identität gesellschaftlich konstruiert ist. Im Umkehrschluss bedeutet dies, dass Identität ohne Gesellschaft gar nicht existiert. So wird gegen die Auffassung argumentiert, wonach das Subjekt eine klar abgrenzbare Entität sei, vielmehr werde es durch 220 Julia Degelo die unterschiedlichsten gesellschaftlichen Einflüsse (z. B. Kultur, Religion, Gender etc.) geformt (vgl. Czollek, Perko und Weinbach 2009: 40 f.). Das Subjekt beinhalte eine Mehrdimensionalität, welche die Vorstellung von einem «abgeschlossenen, authentischen Ich, einem statisch Identitären als Illusion entlarvt» (Czollek, Perko und Weinbach 2009: 41). Die plural-queere gesellschaftliche Strömung will dieser Mehrdimensionalität gerecht werden, indem sie die Möglichkeit der Zugehörigkeit von der Selbstbestimmung abhängig macht: Wer dazugehören will, darf, wer nicht will, muss nicht. ‹Gender› wird in diesem Sinne als etwas Bewegliches wahrgenommen, dem die Möglichkeit zur Veränderung innewohnt (vgl. Czollek, Perko und Weinbach 2009: 41). Judith Butler führt diesen Umstand in ihrer Schrift Körper von Gewicht genauer aus. Laut Butler wird das biologische Geschlecht nicht mit den sozialen Bedeutungen erweitert. Dem biologischen Geschlecht werden die sozialen Bedeutungen vielmehr auferlegt. Butler stellt daraus resultierend die These auf, dass das biologische Geschlecht gar nicht existiert und wenn, dann nur als Fiktion (vgl. Butler 1995: 26). Doch trotz dieser Überlegungen muss festgehalten werden, dass in weiten Teilen der Gesellschaft nach wie vor ein Binaritätsdenken in der Geschlechterfrage vorherrscht. Deshalb soll hier die Frage aufgeworfen werden, wie eine Gleichstellung der Gender in Bezug auf die Sprachassistenzen erreicht werden könnte. Im besten Fall würde sich diese digitale Gleichstellung auf die Gesellschaft übertragen. 4.3 Die geschlechtsneutrale Stimme Q Einen Anfang hin zu einer genderneutralen Sprachassistenz soll Q machen. Q ist eine von verschiedenen Pride-Bewegungen und IT -Unternehmen entwickelte genderneutrale Stimme. Sie befindet sich in einem bestimmten Frequenzbereich, der weder als männlich noch weiblich wahrgenommen wird. Die herstellenden Unternehmen weisen darauf hin, die Stimme mit der Absicht entwickelt zu haben, die Binarität der Geschlechter bei künstlicher Intelligenz aufzubrechen. Damit würde die einseitige Wahrnehmung der Menschen in Bezug auf Gender in Frage gestellt und Stereotype durchbrochen (vgl. Nordic Virtue 2019). Die Frage stellt sich, wie Q sprechen müsste, um nicht nur aufgrund ihrer Stimmlage, sondern auch anhand ihres Sprechverhaltens als genderneutral wahrgenommen zu werden. Vielleicht müsste die Stimme gelegentlich Hedges und Question tags und hin und wieder einen Kraftausdruck verwenden oder weder das eine noch das andere. Hier würde es sich anbieten, eine Studie durchzuführen, welche die verschiedenen Reaktionen der Anwendenden erfasst und auswertet. Könnten die Benutzenden - trotz genderneutraler Stimme - anhand des Sprechverhaltens eine Tendenz in ihrer Wahrnehmung Richtung weiblich Der wütende Mann, die höfliche Frau-- und die Frage nach dem Dazwischen 221 oder männlich festmachen? Das könnte ein Hinweis darauf sein, wie stark diese Binarität der Geschlechter noch in der Gesellschaft und im Denken verankert ist. Zweitens könnte auf diese Weise herausgearbeitet werden, welche der in Kapitel 2 besprochenen Merkmale des Kommunikationsverhaltens immer noch als ‹typisch weiblich› oder ‹typisch männlich› wahrgenommen werden. Denn auch wenn die Sprachwissenschaft in grossen Schritten von der Annahme einer ‹Frauenbzw. Männersprache› weggekommen ist, ist diese Denkweise noch in der Gesellschaft verankert. Dabei handelt es sich aber nicht nur um Stereotype; hinzu kommt, dass die strikte Trennung in ‹weiblich› und ‹männlich› exkludierend für Menschen ist, die sich mit keinem dieser beiden Attribute identifizieren. 4.4 Sprache als Mittel zur Veränderung Wie Penelope Eckert und Sally McConnell-Ginet in ihrem Buch Language and Gender festhalten, ist die Vorstellung, die Gesellschaft mithilfe der Sprache verändern zu können, sehr alt; sie stösst aber auch heute noch oft auf Ablehnung (vgl. Eckert und McConnell-Ginet 2013: 42). Die Autorinnen weisen darauf hin, dass Veränderung nie von heute auf morgen geschieht und sich nicht durch einzelne Handlungen, sondern nur durch die Akkumulation verschiedener Handlungen vollzieht. So wisse man auch nie, wie die Veränderung genau aussehen werde: Sie wird durch eine einzelne Handlung angestossen, wird von der Gesellschaft aufgenommen, erlebt dadurch selbst Veränderungen und endet möglicherweise an einem Punkt, den niemand vorhersehen konnte (vgl. Eckert und McConnell-Ginet 2013: 43). Nichtsdestotrotz sollten Veränderungen weiterhin angestossen werden, zum Beispiel mit einer genderneutralen Sprachassistenz. Warum kann nun eine genderneutrale Stimme ein Weg zu möglichst stereotypenfreiem Sprechverhalten sein? Weil weitreichende Veränderungen zwar nicht durch einzelne Handlungen erreicht, aber durch einzelne Handlungen angestossen werden können. Damit Handlungen von der Gesellschaft aufgenommen werden und sich verbreiten, sollte man sich, so Eckert und McConnell-Ginet, auf konkrete Situationen fokussieren (vgl. 2013: 45). Genau dieses Vorgehen schlägt die vorliegende Arbeit vor: den Anfang hin zu einer möglichst genderneutralen Sprache zu machen, indem man ein Alltagsinstrument wie die Sprachassistenz entsprechend ausstattet. Denn das Verhältnis von Sprache und Wahrnehmung ist nicht determiniert. Es kann bewusst gemacht werden, deshalb ist es auch Veränderungen zugänglich (vgl. Hellinger 2019: 53). 222 Julia Degelo 4.5 Eine genderneutrale Sprachassistenz Es stellt sich nun die Frage, was eine genderneutrale Stimme und ein genderneutrales Sprechverhalten - sofern ein Sprechverhalten gegendert sein kann - gegen die Verhaftung in biologischen Geschlechtern bewirken kann. Hier ist die blosse Auseinandersetzung mit der Thematik bereits der erste wertvolle Schritt. Die Feststellung, dass oft immer noch stereotypes Sprechverhalten erwartet wird, die auf die problematische Wahrnehmung von Gender in der Gesellschaft hinweist, könnte von einer genderneutralen Sprachassistenz-Stimme wie Q unterstützt werden und schliesslich zu einem Umdenken führen. Es ist davon auszugehen, dass Sprachassistenzen in den nächsten Jahren zunehmend populärer werden und somit einen noch grösseren Teil unseres alltäglichen Lebens mitgestalten könnten. Es ist des Weiteren anzunehmen, dass die Stimme und auch die Art und Weise, wie die Sprachassistenz spricht, einen weitaus grösseren Einfluss auf die Menschen haben, als man bewusst wahrnimmt. Gerade auch Kinder, die mit Sprachassistenzen aufwachsen, sei es in Smart Homes oder durch das Smartphone, könnten durch das Sprechverhalten der Assistenzen beeinflusst werden. Es wäre demnach sinnvoll, die stereotypen Kommunikationsmerkmale bei der Programmierung von Sprachassistenzen zu bedenken und die Sprachassistenz so zu programmieren, dass sie ausgewogen kommuniziert. Dies würde allerdings bedingen, dass Siri und Co. nicht mehr als neuronales Netz funktionieren, sondern als ‹simple› Software, da die Programmierenden sonst nicht die volle Kontrolle über die Software und deren Sprachgebrauch haben. Bei dieser Möglichkeit würden vorprogrammierte Reaktionen eingespeist und die Sprachassistenz würde nicht mehr selbstlernend agieren. Damit könnte erreicht werden, dass die Benutzenden die ihnen - vielleicht unbewusst - vertrauten Merkmale nicht mehr mit einem bestimmten Geschlecht verknüpfen. Durch die genderneutrale Stimme Q und das gleichermassen männlich und weiblich konnotierte Sprechverhalten würden die starren Grenzen zwischen den Geschlechtern aufgehoben. So würden zum Beispiel gleich viele Aussagen mit Hedges wie Aussagen ohne Hedges getätigt. Im besten Fall würden sich die Aussagen abwechseln und damit gar nicht erst den Eindruck eines bestimmten Stereotyps aufkommen lassen. Die zweite Möglichkeit ist die naheliegendere Lösung: nämlich die Assistenz von unterschiedlichsten Expert*innen entwickeln zu lassen. Dabei müsste darauf geachtet werden, dass sich darunter auch Menschen befinden, die sich nicht mit dem binären Geschlechtermodell identifizieren. Die Sprachassistenz könnte in diesem Ansatz selbstlernend aufgebaut sein. Wenn alle Programmierenden möglichst genderneutrale Sprache als Trainingsdaten für die Sprachassistenz Der wütende Mann, die höfliche Frau-- und die Frage nach dem Dazwischen 223 zur Verfügung stellen und man zusätzlich dazu die genderneutrale Stimme Q verwenden würde, dürfte das Resultat relativ weit entfernt von Stereotypen sein und somit relativ nah an der gewünschten Genderneutralität. Diese Lösung würde ausserdem eine gewisse Authentizität mit sich bringen. Eine forciert genderneutrale Sprachassistenz (wie oben als erste Möglichkeit beschrieben) könnte auch den gegenteiligen Effekt erzielen und bei den anwendenden Personen Missfallen auslösen. Auf den Sprachgebrauch der Nutzenden kann im zweiten Lösungsansatz jedoch keinen Einfluss genommen werden. Je nachdem könnte sich die selbstlernende Sprachassistenz im Dialog mit diesen Personen dann wieder von einer ‹genderneutralen› Sprache entfernen. 5 Fazit Bereits in den frühen Arbeiten zum Thema ‹Frauen- und Männersprache› wird darauf hingewiesen, dass mögliche Unterschiede eher auf den Machtverhältnissen im realen Leben als auf dem Geschlecht beruhen könnten. Ein wichtiges Merkmal ‹typischer› Frauensprache sei die Höflichkeit. Dieser Aspekt zieht sich durch die Forschungsliteratur, wenn er auch sehr unterschiedlich bewertet wird. 6 Auch wenn Höflichkeit kein rein weibliches Phänomen sei, würden vermehrt Frauen darauf zurückgreifen und dadurch gesellschaftliche Unterschiede weiter verfestigen. Diese Diskussion von Unterschieden zwischen männlichem und weiblichem Sprechverhalten geht davon aus, dass nur zwei Gender existieren würden. Dabei werden alle Menschen übergangen, die sich nicht in diesen heteronormativen Kategorien wiederfinden. Es stellt sich die Frage, wie solche ‹nicht-heteronormativen› Menschen sprechen bzw. wie ihre Rolle in der Gesellschaft aussieht, wenn man sie nicht als ‹weiblich› oder ‹männlich› kategorisieren kann. Um dieses binäre Denken, das immer noch stark vorherrschend ist in unserer Gesellschaft, aufzubrechen, würde sich eine Sprachassistenz mit genderneutraler Stimme und absichtlich genderneutralem Sprechverhalten anbieten. Allerdings sind mit diesem Vorschlag auch einige Komplikationen verbunden. So müsste beispielsweise entschieden werden, ob nun das genderneutrale Sprechverhalten der Sprachassistenz oder das selbstlernende Verfahren wichtiger ist. Beides lässt sich nicht verbinden, da eine selbstlernende Sprachassistenz durch den Sprachgebrauch der Nutzenden beeinflusst wird. Vielleicht wird es aber irgendwann möglich sein, eine Sprachassistenz für gendergerechten Sprachgebrauch zu ‹sensibilisieren›, indem sie entsprechend trainiert wird 6 Siehe dazu Lakoff 2004 und Mills 2012. 224 Julia Degelo und danach selbstständig in der Lage ist, das Sprechverhalten der Nutzenden zu analysieren und entsprechend ‹bewusst› damit umzugehen. Es stellt sich natürlich auch die grundsätzliche Frage, wie viel eine genderneutrale Sprachassistenz tatsächlich bewirken kann. Die Autorin der vorliegenden Arbeit ist davon überzeugt, dass Sprache das Denken stark prägt und gesellschaftliche Veränderungen im Sprachgebrauch beginnen können. Sprachassistenzen sind bereits jetzt ein wichtiger Teil des alltäglichen Lebens und werden in den kommenden Jahren sicherlich immer prominenter. Warum also nicht die Gelegenheit ergreifen und sich die neue Technologie zu Nutze zu machen, indem eine Sprachassistenz auf den Markt gebracht wird, die für das Ohr genderneutral klingt, aber mit stereotypischem Sprechverhalten spielt, um damit binäres Geschlechterdenken in den Köpfen der Menschen aufzubrechen? Sind Kategorien oder auch Stereotype nicht mehr klar abgrenzbar, lösen sie sich auf. Bibliographie Butler, Judith (1995). Körper von Gewicht. Die diskursiven Grenzen des Geschlechts. Berlin: Berlin Verlag. Czollek, Leah Carola / Perko, Gudrun / Weinbach, Heike (2009). Lehrbuch Gender und Queer. Grundlagen, Methoden und Praxisfelder. Weinheim, München: Juventa Verlag (= Studienmodule Soziale Arbeit). Dernbach, Christoph (2016). Audrey, IBM Shoebox, ViaVoice, Dragon, Siri, Google Now, Cortana: Die Geschichte der automatischen Spracherkennung. Abrufbar unter: https: / / www.mr-gadget.de/ tech-history/ 2016-12-20/ audrey-ibm-shoebox-viavoicedragon-siri-die-geschichte-der-automatischen-spracherkennung (Stand: 21. 12. 2020) Eberl, Ulrich (2016). Smarte Maschinen. Wie künstliche Intelligenz unser Leben verändert. München: Carl Hanser Verlag. Eckert, Penelope / McConnell-Ginet, Sally (2013). Language and Gender. 2. Aufl. New York: Cambridge University Press. Ertel, Wolfgang (2016). Grundkurs künstliche Intelligenz. Eine praxisorientierte Einführung. Wiesbaden: Springer Fachmedien. Hellinger, Marlis (1990). Kontrastive feministische Linguistik. Mechanismen sprachlicher Diskriminierung im Englischen und Deutschen. Ismaning: Max Hueber Verlag. Huq, Oliver (2011). iPhone 4S: Auf die inneren Werte kommt es an. Abrufbar unter: https: / / www.heise.de/ mac-and-i/ meldung/ iPhone-4S-Auf-die-inneren-Wertekommt-es-an-1354456.html (Stand: 21. 12. 2020) Kilg, Marie (2017). Siri, ficken? Abrufbar unter: https: / / taz.de/ Geschlecht-von-Kuenstlichen-Intelligenzen/ ! 5406433/ (Stand: 21. 12. 2020) Kirste, Moritz / Schürholz, Markus (2019). Einleitung. Entwicklungswege zur KI . In: Wittpahl, Volker (Hrsg.), Künstliche Intelligenz. Technologie, Anwendung, Gesellschaft. Berlin: Springer, 21-35. Der wütende Mann, die höfliche Frau-- und die Frage nach dem Dazwischen 225 Lakoff, Robin Tolmach (2004). Language and Woman’s Place. Text and Commentaries. New York: Oxford University Press. Mills, Sarah (2012). Gender matters. Feminist Linguistic Analysis. London, Bristol: Equinox Publishing Ltd. Nicholson, Drew (2020). Voice Assistants and the Neural Networks Enabling Their Use in Low-Power Applications. Abrufbar unter: https: / / www.cardinalpeak.com/ voiceassistants-and-the-neural-networks-enabling-their-use-in-low-power-applications/ (Stand: 21. 12. 2020) Nordic Virtue (Hrsg.) (2019). Meet Q. The First Genderless Voice. Abrufbar unter: http: / / www.genderlessvoice.com/ (Stand: 21. 12. 2020) o. A. (2017). Smart Home: Alles, was Sie wissen sollten. Abrufbar unter: https: / / www. infineon.com/ cms/ de/ discoveries/ smart-home-basics/ (Stand: 21. 12. 2020) o. A. (2020). Neural Networks: Was können künstliche neuronale Netze? Abrufbar unter: https: / / www.ionos.de/ digitalguide/ online-marketing/ suchmaschinenmarketing/ was-ist-ein-neural-network/ (Stand: 21. 12. 2020) o. A. (2020). Die Geschichte der Sprachassistenten. Abrufbar unter: https: / / tiarda.com/ de/ de/ geschichte/ (Stand: 21. 12. 2020) Paulsen, Nina / Klöss, Sebastian (2016). Digitale Sprachassistenten als intelligente Haushaltshelfer. Abrufbar unter: https: / / www.bitkom.org/ Presse/ Presseinformation/ Digitale-Sprachassistenten-als-intelligente-Haushaltshelfer.html (Stand: 21. 12. 2020) Penny, Laurie (2016). Why do we give robots female names? Because we don’t want to consider their feelings. Abrufbar unter: https: / / www.newstatesman.com/ politics/ feminism/ 2016/ 04/ why-do-we-give-robots-female-names-because-we-dont-wantconsider-their (Stand: 21. 12. 2020) Piaget, Jean (1983). Meine Theorie der geistigen Entwicklung. Frankfurt am Main: Fischer Taschenbuch Verlag GmbH. Ramge, Thomas (2018). Mensch und Maschine. Wie Künstliche Intelligenz und Roboter unser Leben verändern. Ditzingen: Reclam. Westerheide, Fabian / Kaczmarek, Joël (2016). Hardware & KI #2: Zum aktuellen Stand von Künstlicher Intelligenz. Abrufbar unter: https: / / www.digitalkompakt.de/ podcast/ kuenstliche-intelligenz-ki/ (Stand: 21. 12. 2020) 226 Ann Fuchs & Zora Naef Smart Homes im öffentlichen Diskurs Drei Fallbeispiele Ann Fuchs & Zora Naef 1 Einleitung Technische Neuerungen halten Einzug in unseren Alltag - so auch das «Smart Home». Darunter wird ein Zuhause verstanden, das «informations- und sensortechnisch aufgerüstet» sowie «in sich selbst und nach aussen hin vernetzt» ist (Gabler Wirtschaftslexikon: Smart Home). Beispiele hierfür sind sowohl eingebaute automatische Elemente für Heizungen oder Fenster als auch externe Geräte, die über ein Smartphone gesteuert werden. Die komplexen technischen Hintergründe und die Gefahren (z. B. hinsichtlich Datenschutz) können allerdings von den wenigsten Menschen eingeschätzt werden. Oft zeigen sich Vorbehalte, aber auch Bewunderung und Faszination für die vielen neuen Möglichkeiten. Der vorliegende Beitrag nimmt die Diskussion zum Thema «Smart Homes» in den Fokus und fragt danach, wie im öffentlichen Diskurs darüber kommuniziert wird. Es interessiert dabei besonders die Frage, wie Zugang zu dem Wissen über die Thematik für eine breite Öffentlichkeit geschaffen wird. Hier spielen die Massenmedien eine wichtige Rolle. Deshalb richten wir den Blick vor allem auf den Diskurs in Online-Tageszeitungen. Anhand von drei Fallbeispielen aus unterschiedlichen Zeitungen wird analysiert, wie die Beiträge Zugänglichkeit zu dem vielschichtigen und komplexen Thema Smart Home schaffen. In Kapitel 2 werden mit Verweis auf die aktuelle Forschung einige theoretische Aspekte geklärt. Hier erläutern wir die für diese Untersuchung vorgenommene Einteilung in zwei verschiedene Stufen der Zugänglichkeit. In Kapitel 3 gehen wir auf unsere Datengrundlage, die Methode und die linguistischen Analysekriterien zur Beantwortung der Forschungsfrage ein. Sodann werden die drei Beiträge einzeln analysiert und schliesslich in einem Vergleich zusammengeführt. Die Untersuchung schliesst mit einem Fazit und einem Ausblick auf mögliche weitere Forschungsfragen. Smart Homes im öffentlichen Diskurs 227 2 Zugänglichkeit zum und im Internet Laut dem schweizerischen Bundesamt für Statistik waren in der Schweiz 2019 über 95 % der Haushalte per Breitband an das Internet angeschlossen: Im europaweiten Vergleich befindet sie sich damit auf dem viertbesten Platz, wenn es um das Thema Internetzugang geht (vgl. BFS 2019). Das Nachbarland Deutschland liegt mit fast ebenso vielen Prozentpunkten nur zwei Plätze dahinter, während Österreich nicht ganz so gut abschneidet, aber trotzdem bei ca. 90 % Prozent liegt (vgl. ebd.). Es lässt sich also festhalten, dass der Zugang zum Internet für den grössten Teil der hiesigen Bevölkerung mittlerweile selbstverständlich ist. Der Aufwand, mit dem der Ausbau des Internetzugangs europaweit vorangetrieben wird, zeigt die Wichtigkeit des Internets für unsere Gesellschaft: Während der Zugriff auf viele Informationen bis vor wenigen Jahren noch mit dem aufwändigen Besuch in Bibliotheken und Archiven verbunden war, lässt sich heute das meiste mit wenigen Mausklicks herausfinden. Dass der Zugang zum Internet grösstenteils gewährleistet ist, heisst allerdings nicht, dass innerhalb des Internets alles für alle gleich gut zugänglich ist. Der Besuch mancher Seiten erfordert das Login über ein Benutzerkonto, das zum Beispiel käuflich erwerbbar sein kann, oder die Zugehörigkeit zu einer Institution, wie zum Beispiel der Universität Zürich. So unterscheidet Torsten Siever zwischen dem «Zugang zum Internet» und dem «Zugang zu Diensten im Internet» (2013: 8-10). Wir betrachten diese beiden Aspekte hier als Zugänglichkeit erster Stufe, die gegeben sein muss, um überhaupt zu den gesuchten Inhalten im Internet zu gelangen. Der Begriff soll also den Zugang bis zur Textoberfläche umfassen. Andere bezeichnen diese Ebene des Zugangs auch als materielle oder technische (vgl. Bauer 2010: 137) Zugänglichkeit. Der technische Zugang zu Inhalten im Internet kann mit gradueller Abstufung niedrig- oder hochschwellig sein, abhängig davon, wie viele Leute Zugriff haben. So ist ein E-Mail-Konto bestenfalls nur für dessen Besitzerin*in zugänglich und abonnementpflichtige Zeitungsartikel können nur von denjenigen gelesen werden, die über die finanziellen Mittel dazu verfügen. Beiträge im Internet sind also nicht zwingend öffentlich zugänglich. Christa Dürscheid unterscheidet deshalb zwischen «öffentlicher», «halb-öffentlicher» und «nicht öffentlicher» Kommunikation im Internet (2007): Frei zugängliche Beiträge bezeichnet sie als «öffentlich», nur für eine gewisse Gruppe mit zuvor erworbenem Zugang sichtbare Inhalte als «halb-öffentlich» und nur zwischen Verfasser*in und direkt adressierten Rezipient*innen ausgetauschte Inhalte als «nicht-öffentlich» (Dürscheid 2007: 27-29). Kirsten Adamzik spricht in diesem Kontext von einem «Tauschwert» von Texten (vgl. 2016). So ist Werbung, deren Verbreitung hauptsächlich im Interesse der jeweiligen Firma liegt, überall frei 228 Ann Fuchs & Zora Naef und oft unerwünscht verfügbar. Es ist auch allgemein bekannt, dass Firmen gute Platzierungen für ihre Inserate bei Suchmaschinen käuflich erwerben und Influencer*innen Likes kaufen können, um ein grösseres Publikum zu erreichen. Informationen, die die Internetbenutzer*innen wirklich erhalten wollen, müssen hingegen oft gesucht und teilweise bezahlt werden (vgl. ebd.: 166). Einige Informationen werden durch öffentliche Gelder finanziert, andere durch Werbung und wieder andere mit den persönlichen Daten des*der jeweiligen Internetnutzer*in bezahlt (vgl. Siever 2013: 11). Das Suchen nach Information und Wissen im Internet erfordert von Benutzer*innen Kompetenzen, die Reinhard Bauer im Zusammenhang mit seiner Betrachtung des Internets als Wissensspeicher oder «digitale Bibliothek von Babel» genauer erläutert (vgl. Bauer 2010). Unter dem Begriff der Informationskompetenz fasst er Kompetenzen zusammen, die Benutzer*innen für den Zugang erster Stufe sowie für den Zugang auf Textebene benötigen. Als Beispiel sei hier die Computerkompetenz genannt, die das Bedienen und den technischen Umgang mit Hard- und Software meint (vgl. ebd. 2010: 139). Hinzu kommen die Medienkompetenz sowie die «Media Literacy», welche im nächsten Abschnitt diskutiert werden. Für das Verständnis dieser Begriffe ist es wichtig, festzuhalten, dass unter einem Medium hier nicht ein Gerät, sondern ein spezifischer Text auf einem Gerät gemeint ist. Der technische Zugang zu Informationen bringt dem*der Einzelnen aber nur dann etwas, wenn diese Informationen auch verstanden und verarbeitet werden können. Deshalb wollen wir den Hauptfokus dieser Arbeit auf die Zugänglichkeit auf Textebene legen. Die grundlegende Voraussetzung für das Textverständnis ist die Lesekompetenz. 1 Auf der Lesekompetenz aufbauend benötigen Benutzer*innen Kompetenzen, die unter dem Stichwort «Media Literacy» (Bauer 2010: 134-139) beschrieben werden und die Fähigkeit meint, zu navigieren und die Textbedeutung zu verstehen. Ein grosser Unterschied zwischen schriftlicher und mündlicher Kommunikation ist, dass die Produzent*in in der schriftlichen Kommunikation 2 keine direkte Reaktion der rezipierenden Person erhält und diese deshalb im Schreibprozess antizipieren muss (vgl. Dieter 2007: 89). Auf der Autor*innenseite müssen also Hypothesen über die Leser*innenschaft gebildet werden. Je grösser und diverser aber die potentielle Rezeptionsgemeinde 1 Es darf nicht vergessen werden, dass funktionaler Analphabetismus auch in Ländern wie der Schweiz und Deutschland existiert. Um Texte für betroffene Personen zugänglich zu machen, wurde beispielsweise das Regelwerk für Leichte Sprache (Lebenshilfe Bremen 2013) entwickelt, auf welches wir im Kapitel 3 zur Methodenentwicklung noch kurz eingehen. Auf die Ausnahmen für sehbehinderte und blinde Personen kann hier nicht weiter eingegangen werden. 2 Die Kommunikation in quasi-synchronen Chats sei hier ausgenommen. Smart Homes im öffentlichen Diskurs 229 eines Textes ist, desto schwieriger wird es für die Produzent*in, einen Beitrag zu erstellen, der für alle passend formuliert ist. Der Begriff «Zugang» greift also nicht nur auf technischer, sondern auch auf textueller Ebene, so unsere These. Besonders schwierig wird es, wenn zwischen Autor*in und Leser*innenschaft ein Wissensgefälle besteht, wie dies beim Fachjournalismus der Fall ist. Damit die Rezipierenden einem Beitrag, der neues Wissen vermitteln soll, folgen können, muss dieser vielfältigen Ansprüchen genügen. So gibt es einiges an Literatur dazu, wie ein Fachtext geschrieben sein soll, damit er für ein breites Publikum zugänglich ist. Ein Beispiel für ein solches Lehrbuch ist Beatrice Dernbachs Einführung Die Vielfalt des Fachjournalismus (2010). Unter anderem findet sich darin ein Kapitel, in dem die Merkmale von Fachsprache, Allgemeinsprache und fachjournalistischer Sprache auf den Ebenen Lexik und Semantik, Syntax, Text, Struktur und Pragmatik skizziert werden. Der Fachjournalismus versteht sich, so wird hier dargelegt, als Bindeglied zwischen Expert*innen und Fach- und Laienpublikum, was sich in einer präzisen, aber nicht komplizierten Sprache niederschlagen soll (vgl. ebd.: 108-110). In Andreas Schümchens Werk zum Technikjournalismus (2008) wird ausserdem die Wichtigkeit der Unterhaltung des Lesers betont. So sollen Texte über technische Geräte in einer Sprache mit vielen Vergleichen und Beispielen ausgestaltet, mit möglichst wenigen technischen Fachtermini verfasst und durch visuelle Elemente ergänzt werden (vgl. ebd.: 67-82). Neben dem Fachjournalismus spielen für die Kommunikation zwischen Expert*innen und Laien auch die Massenmedien eine wichtige Rolle. Maja N. Volodina (2009) betont das «informatorische Einwirken der Sprache auf den Menschen» (313), d. h. Massenmedien wie Tageszeitungen, aber auch TV - und Radiosendungen kommt eine grosse Wirkungsmacht zu (vgl. 309-314). Cristina Besio und Ruth Hungerbühler (2009) weisen in diesem Zusammenhang auf die Vermittlerfunktion zwischen Wissenschaft und Laien von Massenmedien hin. Doch ist es problematisch, den öffentlichen Wissenstransfer als unidirektionalen Wissensstrom anzusehen, der von den Expert*innen über den Fachjournalismus an die breitere Öffentlichkeit gelangt. Wie Spitzmüller (2011) herausarbeitet, ist es keineswegs so, «dass auf Seiten der ›Laien‹ ein Wissens-›Vakuum‹ besteht, das man einfach so mit Expertenwissen ›füllen‹ kann» (171). Vielmehr sei es oft so, dass das Expert*innenwissen gar nicht mit dem Laienwissen in Einklang gebracht werden könne, da es «teilweise tief verwurzelten Überzeugungen» widerspreche (ebd., vgl. hierzu auch Möller 2009: 139-151). Weiter sei es problematisch, Wissenschaft, Medien und Öffentlichkeit als getrennte Entitäten mit klaren Rollen - die Wissenschaft als Produzentin, die Medien als Vermittlerin und die Öffentlichkeit als Rezipientin von Wissen -anzusehen, weil Medien und Öffentlichkeit sehr wohl und aktiv ihre eigenen Interessen in den Wissensdiskurs einbringen (vgl. Spitzmüller 2011: 172). 230 Ann Fuchs & Zora Naef Ein Verständnis von Fachjournalist*innen als reinen Vermittlungsfiguren ist also abzulehnen: Obwohl die Zugänglichmachung von Wissen eine nicht zu unterschätzende Funktion von Fachtexten ist, verfolgt jeder mediale Beitrag ein eigenes Interesse und tritt mit einem grösseren Diskurs in Interaktion. Die immer grösser werdende Zugänglichkeit zum Internet stellt dabei den Fachjournalismus vor immer neue Herausforderungen. Erstens wird die potentielle Leser*innenschaft, über welche die Journalist*innen Prämissen treffen müssen, immer grösser und diffuser. Die Hypothesenbildung «ist beim Schreiben im Websiteformat schwieriger als beim Schreiben in vielen anderen Formaten, da es kaum vorhersehbar ist, wer, wann, unter welchen Bedingungen auf einer bestimmten Website landet» (Dieter 2007: 89). Zweitens schafft das Internet neue Konkurrenzverhältnisse: Presse, Rundfunk und TV stehen längst nicht mehr im Zentrum der öffentlichen Meinungsbildung (vgl. Fähnrich / Hein 2019: par. 2). Durch öffentliche Diskussionsforen, Blogger*innen, soziale Medien usw. wird Wissen (beziehungsweise Nichtwissen) zunehmend von Laien an Laien weitergegeben (ebd.: par. 3). (Fach-)Zeitungen, die ja immer auch ein ökonomisches Eigeninteresse verfolgen, sind somit gezwungen, über neue Kanäle wie zum Beispiel Facebook und «in multiplen und oft interaktiven Formaten» zu kommunizieren, Texte zu verändern oder durch Videos zu ersetzen, um auf dem neuen Markt bestehen zu können (vgl. ebd.: par. 3). Fachliche Beiträge im Internet stehen also immer auch in Konkurrenz um die Aufmerksamkeit der potentiellen Leser*innenschaft zueinander. Um diese zu erhalten, müssen sie auf materieller wie auch auf textueller Ebene gut zugänglich sein. 3 Korpus und Methode Im Folgenden werden drei Beiträge als Untersuchungsmaterial ausgewählt, die aus verschiedenen Online-Zeitungen stammen und das Thema Smart Homes auf unterschiedliche Arten adressieren. Der erste Beitrag ist ein Artikel aus dem Online-Magazin der Zeit , der zweite ein Artikel aus der Tageszeitung Welt und der dritte stammt von der Online-Ausgabe der Gratiszeitung 20Minuten . Die Beiträge stellen also keine Fachartikel im Kontext des wissenschaftlichen Journalismus oder Technikjournalismus dar, sondern wurden bewusst aus Medienportalen gewählt, die über ein breites Themenfeld berichten. Sie entsprechen mit Blick auf die Vergleichbarkeit und Aussagekraft dem Prinzip der maximalen und minimalen Ähnlichkeit (vgl. Fraas 2009: 375): Alle drei wurden im Jahr 2019 im deutschen Sprachraum veröffentlicht, wobei die Zeitung 20Minuten aus der Schweiz stammt, während die beiden anderen Zeitungen ihren Redaktionssitz in Deutschland haben. Durch das Internet werden die Landesgrenzen für die Be- Smart Homes im öffentlichen Diskurs 231 schaffung von Information aber immer weniger wichtig. So sind für Schweizer Benutzer*innen auch die Online-Ausgaben von deutschen Zeitschriften und Tageszeitungen leicht zugänglich (leichter als deren physische Ausgaben) und umgekehrt. Jedoch darf nicht vergessen werden, dass durch Suchmaschinen wie Google Suchergebnisse gefiltert und personalisiert werden, was nur durch Einschalten des Inkognito-Modus verhindert werden kann. Der Analyseschwerpunkt liegt im Folgenden auf dem Textinhalt von drei Artikeln aus diesen Zeitungen. Diese sollen den Diskurs um Smart Homes natürlich nicht in seiner Gesamtheit abbilden, sondern lediglich als Beispiele dafür angesehen werden. Es werden dabei nicht nur die Texte selbst betrachtet, sondern auch multimodale Aspekte berücksichtigt und die technische Zugänglichkeit zur Textoberfläche für jeden Text kurz analysiert. Wie bereits oben erwähnt, haben die Medien, aus denen die untersuchten Beiträge stammen, verglichen mit spezifischen Fachzeitschriften, ein breites Publikum. Somit müssen die Texte für eine sehr heterogene Leser*innenschaft verständlich sein. Unsere Untersuchungskategorien haben wir in Anlehnung an das Regelwerk für Leichte Sprache sowie an die Regelwerke zum Fachbzw. Technikjournalismus (s. o.) erstellt. Dabei liegt der Fokus darauf, inwiefern durch die gewählten Mittel Zugänglichkeit zu den vermittelten Inhalten hergestellt wird. Das Regelwerk für Leichte Sprache, das vom Netzwerk Leichte Sprache entwickelt und 2013 von der Lebenshilfe Bremen veröffentlicht wurde, entstand durch fortlaufendes Prüfen der Verständlichkeit für Personen mit Leseschwierigkeiten. Die Regeln wurden im Austausch von Produzent*innen und Rezipient*innen der Texte entwickelt. Aus den daraus gewonnenen Erkenntnissen wurden Kategorien festgelegt, die für das Verständnis eines Textes relevant sind. Es handelt sich dabei um linguistische Kategorien, die ähnlich auch in den normativen Werken zum Technikjournalismus auftauchen (vgl. dazu insbesondere Dernbach 2010: 108-110). Wir gehen deshalb davon aus, dass die Kategorien in modifizierter Form übernommen werden können. Nachfolgend stellen wir diese Kategorien vor. Sie wurden von uns, wie erläutert, unter Bezugnahme auf das Regelwerk für Leichte Sprache und auf die Werke von Béatrice Dernbach (2010) und Andreas Schümchen (2008) entsprechend angepasst. Wörter Um verständlich zu sein, sollte ein Text Fremd- und Fachwörter vermeiden, schwierige Begriffe erklären, präzise Ausdrücke verwenden und für dasselbe nicht verschiedene Bezeichnungen benützen. Es wird ausserdem darauf hingewiesen, dass bildliche Sprache das Verständnis einschränken kann. Mit Bezug auf die Regelwerke zum Fach- und Technikjournalismus kann hier ergänzt werden, dass es für eine geübte Leser*innenschaft durchaus wichtig ist, dass die Texte abwechslungsreich gestaltet 232 Ann Fuchs & Zora Naef sind. Anders gesagt: Immer dieselben Ausdrücke zu benützen, kann den Zugang auch erschweren, wenn dadurch ein Text als langweilig und repetitiv empfunden wird. Zahlen und Zeichen Zu viele und ungerundete Zahlen sowie viele unübersichtliche Satz- und Sonderzeichen können die Lektüre erschweren. Sätze Sätze sollten nicht zu lang sein. Komplizierte syntaktische Strukturen sollen vermieden werden. Ausserdem sollten pro Satz nicht mehrere Aussagen formuliert werden. Die Regelwerke zum Technikjournalismus weisen allerdings auch auf die Wichtigkeit der «Text-Musik» (Bauer 2009: 68) hin, womit gemeint ist, dass eine gewisse Unregelmässigkeit der Satzlängen zum Lesevergnügen beiträgt. Texte In den Regelwerken wird meist betont, dass es einfacher verständlich ist, wenn der*die Leser*in direkt angesprochen wird. Ausserdem sollen Querverweise vermieden werden. Die Empfehlungen zum Technikjournalismus beinhalten z. B. den Hinweis, dass Testberichte von Geräten auch in der Ich-Form geschrieben werden können, um das Thema näher zu bringen. Gestaltung und Bilder Zu diesem Punkt werden im Regelwerk für Leichte Sprache u. a. typografische Hinweise gegeben (z. B. zu Zeilenabstand, Schriftgrösse und Gliederung). So sollen Überschriften gross genug sein und der Text thematisch gegliedert werden. Es wird auch darauf hingewiesen, dass zum Text passende Bilder das Verständnis erleichtern können. Diese Hinweise finden sich ähnlich auch in den Regelwerken zu Fach- und Technikjournalismus. 4 Analyse 4.1 Beispiel 1: «Smartes Heim-- Glück allein», Zeit Magazin Bei unserer ersten Quelle handelt es sich um einen Artikel aus dem Online-Magazin der Zeit . Um den vollständigen Beitrag lesen zu können, benötigt man ein Benutzerkonto. Die Erstellung des Kontos ist kostenlos und erfordert lediglich die Angabe einer E-Mail-Adresse, stellt damit aber doch eine kleine Hürde dar, da die Erstellung eines solchen Kontos mit einem Mehraufwand an Zeit verbunden ist. Ausserdem könnten Bedenken bestehen, dass der eigene Maileingang fortan mit Newslettern der Zeit gefüllt würde, was vor allem diejenigen Personen, welche die Linie der Zeitung nicht vertreten, von der Erstellung eines solchen Kontos abhalten dürfte. Nach der Definition von Dürscheid (2007) befindet sich der Beitrag auf technischer Ebene somit bereits im halb-öffentlichen Raum. Smart Homes im öffentlichen Diskurs 233 Abb. 1: Der Artikel auf der Webseite der Zeit Neben zwei Bildern handelt es sich hier hauptsächlich um Text, der in neun grössere Paragraphen unterteilt und somit recht lang ist. In einem gedruckten Zeitungsmagazin würde der Beitrag zwei oder drei Seiten einnehmen. Die Tatsache, dass der Artikel im Magazin und nicht in der Wochenausgabe der Zeit zu finden ist, sagt einiges über die Art des Inhalts: Ein wichtiges Charakteristikum von Nachrichtenmagazinen ist nämlich, dass Informationen in Form von Geschichten aufbereitet werden. Auf den vorliegenden Beitrag trifft dies durchaus zu: Es werden nicht Zahlen und Fakten aufgelistet, der Text ist eher narrativ, 234 Ann Fuchs & Zora Naef deskriptiv gestaltet. Die Lexik unterstützt diese Lesart des Beitrags als eine Geschichte. Weiter werden keine komplizierten technischen Begriffe verwendet. Ein Beispiel: «Über ein zentrales Bedienelement an der Wand steuert man von Licht und Vorhängen über Soundsystem und Dunstabzugshaube bis hin zu Türschloss und Sicherheitskameras alle Elemente einer Wohnung». Die KI taucht in Sätzen wie diesem lediglich in dem vage gehaltenen Begriff «zentrales Bedienelement», der nichts über die genaue Funktionsweise des Geräts aussagt, auf. Im ersten Satz des Artikels wird die KI ausserdem mit einem «freundlichen Hausgeist» verglichen, was durchaus als veranschaulichendes und gleichzeitig poetisches Mittel verstanden werden kann. 3 Interessant an dem Beitrag ist, dass es hier nicht um Entwicklungen im deutschsprachigen Raum, sondern um diejenigen in China geht. Das schlägt sich in der Lexik nieder, die mit Ausdrücken in chinesischer Sprache zum Thema Smart Home gespickt ist. Die KI , die das Smart Home betreut, heisst «Xiao Ou», das Essens-App «Eleme», der Toilettensitz «Smart Mi Toilet Seat». Mit dem Fokus auf China wird das Thema, das auch den deutschsprachigen Raum betrifft, in ein anderes, fremdes Gebiet ausgelagert. China dient als Beispiel, wie eine mögliche Zukunft auch hier aussehen könnte. Damit wird das Thema einerseits zugänglich, weil es vorstellbar ist, andererseits bleibt es aber auch abstrakt, weil die Entwicklungen ja in China und nicht hier stattfinden. Dieses Paradox zeigt sich auch in den Kommentaren (insgesamt sind es 64), in denen die Meinungen zur Übertragung des Artikels auf hiesige Umstände weit auseinander gehen. So fragt eine Userin zum Beispiel: «Könnte es, vorsichtig gefragt, so sein, dass die meisten Chinesen ein wenig anders ticken als deutsche Bildungsbürger und diese Form der Überwachung ganz in Ordnung finden? », während ein anderer User kommentiert: «ist jetzt wirklich nicht überrschend das menschen - nicht nur chinesen - für einen gewissen grad an komfort ("und fancy-technikbegeisterung") bereit sind über etwaige nachteile komplett hinwegzusehen. [sic]» Aus syntaktischer Sicht sind die Sätze schlicht gehalten, was den Text leicht verständlich macht. In grossen Teilen verläuft er parataktisch und die wenigen vorhandenen Hypotaxen bestehen meist aus lediglich einem Haupt- und Nebensatz. Über die Syntax werden poetische Momente erzeugt, wie dies zum Beispiel im folgenden Ausschnitt durch die Repetition syntaktischer Strukturen geschieht Lei und Yang leben nicht in einer Villa bei Shanghai oder in einem Design-Apartment in Shenzhen. Sie fahren kein Auto und haben noch nie ihre Heimatprovinz Sichuan 3 In der Literaturwissenschaft würde man hier von einem Simile sprechen. Die Tatsache, dass sich literaturwissenschaftliche Konzepte auf den Zeitungsartikel anwenden lassen, ist ein weiteres Indiz für dessen Narrativität. Smart Homes im öffentlichen Diskurs 235 in Südwestchina verlassen. Sie sind ein Beispiel dafür, wie Technologie längst den Wohnalltag ganz normaler Chinesen prägt. Der letzte Satz würde eigentlich ausreichen, um Lei und Yang, die beiden Personen, deren Leben im Text beschrieben wird, als Angehörige der chinesischen Mittelschicht zu charakterisieren. Dennoch führt die Autorin zwei weitere Sätze ein, die nichts zum Informationsgehalt des Textes beitragen, aber rhetorisch geschickt sind. Sie listen in drei verschiedenen Formen der Verneinung auf, was Lei und Yang nicht sind, bevor die Sätze in der Konklusion, was Lei und Yang wirklich sind, münden. Auch der Titel «Smartes Heim, Glück allein» ist als spielerische Anlehnung an die bekannte Redensart «Trautes Heim, Glück allein» zu verstehen und zeigt, dass Sprache hier keineswegs zur reinen Auflistung von Fakten benutzt wird: Die poetisch anmutende Ausgestaltung des Textes mit literarischen Stilmitteln, hier rhetorischen Figuren, kann durchaus als Mittel zur Zugänglichmachung gewertet werden. Der Beitrag ist, wie bereits erwähnt, mit zwei Bildern versehen. Auf der einen Abbildung sieht man Lei und Yang, das Ehepaar, welches das Protagonist*innenteam des Textes bildet: Es wird nicht nur ihr Haus beschrieben, sondern auch, wo sie arbeiten, woher sie kommen und wie sie aufgewachsen sind. Die Thematik zu Smart Homes wird somit an reale Figuren geknüpft, die es den Lesenden erlauben, sich mit ihnen zu identifizieren - oder eben nicht. Auf der zweiten Abbildung sieht man das beschriebene Haus von aussen: ein graues Hochhaus aus Beton. Dieses Bild hilft dabei, die Atmosphäre, in der der Text angesiedelt ist, zu vermitteln. Insgesamt ist der Beitrag deskriptiv gestaltet: Personen und Orte werden beschrieben, deren Wirklichkeit sich (noch) deutlich von der hiesigen unterscheidet. Die Bewertung des Beschriebenen bleibt damit auf der Leser*innenseite: Zugang wird dadurch geschaffen, dass eine Geschichte geschrieben wird, von der der*die Leser*in am Ende selbst entscheiden muss, ob er*sie gerne die Protagonist*in einer solchen wäre. 4.2 Beispiel 2: «So leicht dringen Hacker in Ihr Smart Home ein», Welt Dieser Beitrag, ein Artikel aus der Online-Zeitung Welt , ist im Internet frei verfügbar und damit als öffentlich zu charakterisieren. Auch die Kommentare sind für alle einsehbar. Um selbst einen Kommentar zu verfassen und sich so an der Diskussion zu beteiligen, muss man jedoch ein Welt- Konto erstellen, was keine allzu grosse Hürde ist, denn das Konto ist kostenfrei und benötigt lediglich die Angabe einer gültigen Mailadresse. Der Zugang als stille*r Leser*in ist also gegeben. 236 Ann Fuchs & Zora Naef Abb. 2: So zeigt sich der Artikel in der Online-Version der Welt. Die Paragraphen des zweiten Artikels sind um einiges kürzer als diejenigen der ersten Quelle und bestehen meist nur aus zwei bis drei Sätzen. Doch es gibt sehr viele Paragraphen, sodass der zweite Beitrag dem ersten in der Länge gleicht; die Lesedauer beträgt laut Angabe der Zeitung neun Minuten. Inhaltlich weist der Welt -Artikel einiges mehr an Zahlen auf als sein Pendant im Zeit- Magazin. Diese sind allerdings auch hier nicht bloss aufgelistet, sondern in einen Bericht über einen Selbstversuch des Schreibers eingebettet. Dieser besteht aus der Simulation eines Hackerangriffes auf das Smart Home des Journalisten. Ausserdem sind Ausschnitte aus Interviews mit Expert*innen eingefügt. Die kurzen Paragraphen sind hier notwendig, um die verschiedenen Themenbereiche voneinander abzutrennen und Einfachheit in der Struktur zu schaffen, was den Zugang zum Text erleichtern dürfte. Ein weiteres Mittel zur Untergliederung der Textstruktur und zur Erleichterung des Verständnisses sind die Untertitel, die aus Satzfragmenten mit Schlagworten wie «Hacker schlägt zu, Smart Homes im öffentlichen Diskurs 237 Opfer ist wehrlos» bestehen und jeweils vorankündigen, was in den nächsten Paragraphen passieren wird. Ausserdem sind solche Überschriften charakteristisch für Zeitungsartikel. Die Paragraphenlänge und die Untertitel können als erste Indizien für die Unterschiedlichkeit der Textsorten, um die es sich bei den Quellen eins und zwei handelt, gewertet werden, wobei Quelle zwei einem klassischen Zeitungstext gleicht. Die Lexik unterscheidet sich von derjenigen in der ersten Quelle dahingehend, dass mehr Anglizismen und Fachtermini - beziehungsweise englische Fachtermini - verwendet werden. Ausdrücke wie «Kryptowährung», «falsch konfiguriertes Übertragungsprotokoll» und «Hacker» werden zudem ohne weitere Erklärung benutzt. Damit erfordert der Text einiges an Vorwissen: Er ist nur denjenigen zugänglich, die sich bereits Grundwissen zu den technischen Gegebenheiten zu Smart Homes angeeignet haben. Doch immerhin werden einige Begriffe erklärt, die vom Autor offensichtlich als schwer verständlich eingeschätzt werden. Mit dem Satz «Dieses Internet der Dinge, im Fachsprech ‹Internet of Things› genannt, gilt als Technologie der Stunde» weist der Autor sogar ausdrücklich darauf hin, dass es sich bei dem verwendeten Begriff um Fachsprache handelt. In den folgenden Paragraphen taucht der Ausdruck dann noch dreimal auf: Das Wort wird als von dem*der Leser*in verstanden erachtet, die Zugänglichmachung als abgeschlossen. Auch Firmennamen spielen in dem Text eine grosse Rolle. Während Produkte von Herstellern wie «Amazon» und «Google» ohne weitere Erklärung aufgelistet werden, werden Firmen, deren Dienste von weniger Menschen genutzt werden (wie zum Beispiel «Avast»), zusammen mit ihrer Tätigkeit (in diesem Falle dem Anbieten von Sicherheitslösungen) genannt, bevor ihr Name wie selbstverständlich benutzt werden kann. Damit hält sich der Autor des Artikels an das Regelwerk von Béatrice Dernbach (siehe weiter oben). Sie empfiehlt, dass Fachtermini erklärt werden sollen, um den Leser*innen den Zugang zum Text zu erleichtern. Die vielen technischen Begriffe aber dürften es Laien, die noch nie Kontakt mit dem Thema Smart Home hatten, trotzdem sehr schwer machen, dem Text zu folgen. Noch etwas zur Syntax: Die kurzen Absätze sind oft parataktisch aufgebaut, die wenigen Hypotaxen umfassen meist nur einen Haupt- und Nebensatz. Dass die Sätze trotzdem nicht allzu leicht und nicht immer beim ersten Lesen verständlich sind, liegt also weniger daran, dass sie allzu komplex sind, sondern an den vielen technischen Ausdrücken, wie der folgende Textausschnitt zeigt. Obwohl die Syntax dieses Beispiels bloss aus einem Hauptsatz mit einem Satzfragment besteht, ist der Sinn des Satzes nicht leicht greifbar. Mit nur wenigen Befehlen fängt Iliushin [=Name des Hackers aus dem Selbstversuch] die Kommunikation einer Überwachungskamera mit anderen Geräten im Smarthome 238 Ann Fuchs & Zora Naef ab - etwa einem populären Lautsprecher der Firma Sonos, einem vernetzten Fernseher oder dem Lautsprecher Amazon Echo. Die einfache Syntax scheint notwendig zu sein, damit der komplizierte Inhalt des Textes besser zugänglich ist. Nun zu den Abbildungen: Auf der ersten Abbildung unter dem Titel sieht man den Bildschirm einer Bedienhilfe für ein Smart Home, am Ende des Beitrags ein Bild eines Bildschirms mit grünen Zahlencodes, die mit Hacker*innen assoziiert werden. Die Bilder schaffen so zum einen den Bezug zum Technikthema und kreieren zum anderen eine Atmosphäre der Bedrohung, wie sie auch im Text erzeugt wird. In der Mitte des Beitrags gibt es zudem ein Bild, das den Journalisten und den Hacker, mit dem er den beschriebenen Selbstversuch durchführt, zeigt. Auch hier wird der Protagonist sichtbar gemacht und dem*der Leser*in damit ein Anreiz geboten, sich mit dem Protagonisten, der in diesem Fall der Journalist selbst ist und als Ich-Erzähler fungiert, zu identifizieren. Passend dazu beschreibt der erste Paragraph die Morgenroutine im Smart Home des Journalisten: Es ist eine lieb gewonnene Routine, mit der jeder Tag beginnt. «Alexa, mach’ das Licht im Wohnzimmer an» und «Hey Siri, was sind die neusten Nachrichten? » lauten die beiden Kommandos, mit denen ich meine Wochentage beginne. Innerhalb weniger Sekunden wird die Wohnung dann in ein wohliges Licht getaucht, während die wichtigsten Themen des Tages für mich zusammengefasst werden. Durch den persönlichen Inhalt in Kombination mit dem Ausdruck «wohliges Licht» ist der Einstieg in einem ähnlichen poetischen Stil wie die erste Quelle gestaltet. Anders als im ersten Text wird mit dieser atmosphärischen Erzählweise allerdings schnell gebrochen, die technischen Begriffe nehmen Überhand. Es zeigt sich: Einige gestalterische Mittel wie die Ich-Erzählform sowie der Einstiegsparagraph erleichtern zwar den Zugang zu dem sehr informationsreichen Text, der Artikel ist aber nicht zu einer Geschichte ausgestaltet, wie dies im ersten Beispiel der Fall war. 4.3 Beispiel 3: «Brauchst du smarte Geräte zu Hause? », 20-Minuten Der dritte Artikel stammt aus der Online-Ausgabe der Schweizer Gratiszeitung 20Minuten . Er wurde am 20. 09. 2019 veröffentlicht und ist auf der Webseite frei zugänglich. Zum Kommentieren benötigt man bei Beiträgen von 20Minuten einen kostenlosen Account, den man durch die Angabe einer E-Mail-Adresse und einem Benutzernamen erstellen kann. 20Minuten behält es sich vor, die Smart Homes im öffentlichen Diskurs 239 Kommentarfunktion bei Beiträgen wieder zu schliessen und diese nicht mehr zugänglich zu machen (vgl. 20Minuten 2020: Fragen und Antworten zur Kommentar-Funktion). Genau bei diesem Beitrag ist dies auch so geschehen: Während zu Beginn noch kommentiert werden konnte, sind die Kommentare ein halbes Jahr später nicht mehr zugänglich. Allgemein ist der Zugang zur Diskussion in den Kommentaren für die Leser*innenschaft bei 20Minuten nicht garantiert, die Redaktion kann Kommentare ohne Angabe von Gründen nicht veröffentlichen (vgl. ebd.). Das Lesen des Beitrags ist somit zwar für alle öffentlich, das Kommentieren ist aber nicht garantiert, da die Redaktion entscheidet, welche Kommentare sichtbar sind. Das Beispiel zeigt ausserdem die Flüchtigkeit von Inhalten im Internet, welche Forschende vor Probleme stellt: Texte können von einem Tag auf den anderen unauffindbar werden. Im hier untersuchten Beispiel ist es besonders ärgerlich, dass die Kommentare nicht mehr einsehbar sind. Im Gegensatz zu den vorher besprochenen Artikeln ist dies nämlich kein Zeitungsartikel im klassischen Sinne, sondern eine Umfrage. Die aktive Partizipation der Lesenden wird also erwartet und gehört zum Beitrag explizit dazu. Abb. 3: Das Erscheinungsbild auf der Webseite der 20Minuten 240 Ann Fuchs & Zora Naef Bereits im Titel wird man direkt angesprochen und ermuntert, die Frage, ob man smarte Geräte benutzt, zu beantworten. Im Aufmacher des Beitrags wird dies noch ergänzt um die Frage, ob diese Geräte als sinnvoll zu bewerten seien. Dann folgt eine Bildstrecke mit 14 Fotos mit ausführlichen Bildunterschriften. Es handelt sich hierbei um verschiedene smarte Haushaltsgeräte mit weiterführenden Erklärungen. Unter der Bildstrecke folgen drei sehr kurze Paragraphen mit Text, wobei im ersten zunächst eine Definition des Begriffs Smart Home gegeben wird - ein modernes, vernetztes Haus, in dem «nahezu alles» per App bedient werden kann, dann wird im zweiten Paragraphen die Möglichkeit angesprochen, dass auch ein älteres Haus mit smarten Geräten ausgestattet werden könnte. Der dritte Paragraph ist schliesslich eine Erklärung zur Bildstrecke, wo solche smarten Geräte vorgestellt werden, welche für ein noch nicht smart eingerichtetes, älteres Haus geeignet sind. Es handelt sich hier um konkrete Produktvorschläge inklusive Markennennung, Kaufpreis und Anbieter, 4 gegebenenfalls wird die zugehörige App kurz erklärt. Im dritten Paragraphen wird ausserdem dazu aufgefordert, über die eigenen Erfahrungen mit diesen Geräten zu berichten. Der Aufbau des Beitrags ist recht übersichtlich. Jeder Paragraph behandelt ein bestimmtes Thema. Da die Bildstrecke vor dem eigentlichen Text platziert ist, muss man nach der Lektüre nochmals hochscrollen und sich durch die Bilder klicken; hier wird also ein etwas erhöhtes Mass an Medienkompetenz verlangt. Auch die aktive Partizipation durch das Kommentieren des Beitrags, die gewünscht wird, benötigt eine gewisse Medienkompetenz. Im Bereich der Lexik fällt auf, dass Fremdwörter grösstenteils vermieden werden. Im ersten Paragraphen wird der möglicherweise unbekannte Begriff Smart Home erklärt. Für die smarten Geräte, um die es geht, werden verschiedene Ausdrücke verwendet. Dies geschieht hier wohl aus stilistischen Gründen, der Text soll so abwechslungsreicher sein. Auch dadurch wird der Zugang zum Textinhalt erleichtert. In den Bildunterschriften werden jeweils diejenigen Geräte als smart bezeichnet, die normalerweise als nicht-smarte Versionen genutzt werden, so z. B. Kaffeemaschine, Teekocher und Glühbirnen. Die Kenntnis dieser Geräte wird also vorausgesetzt und sie werden mit der Zusatzinformation, dass diese smart sind, versehen. Für weniger bekannte, smarte Geräte wird das Adjektiv smart nicht verwendet, sondern es werden deren Funktionen umschrieben. Genaue Erklärungen, wie die vorgestellten Geräte funktionieren, werden allerdings nicht gegeben. Die Erklärungen zu den Musikboxen beinhal- 4 Es ist bei den vorgestellten Produkten nicht ersichtlich, ob es sich hier um gesponserte Werbung handelt. Smart Homes im öffentlichen Diskurs 241 ten einige Begriffe, die vermutlich nicht für jede Person zum Allgemeinwortschatz gehören: Und jetzt: Die Musik. Es gibt diverse smarte Soundsysteme für Wohnungen, die sich per WLAN oder Bluetooth bedienen lassen. Eines davon ist das Sonos-Soundsystem. Die hochwertigen Lautsprecher kommen mit einer eigenen App und lassen sich problemlos mit allen gängigen Streamingdiensten und TV -Geräten verbinden. Er ist aber auch nicht ganz billig: Das Lautsprecher-Set mit zwei Lautsprechern kostet knapp 500 Franken. Die Bedeutung des Begriffs «Soundsystem» kann mit geringen Englischkenntnissen erschlossen werden oder zumindest kann im Kontext verstanden werden, worum es sich handelt. Es wird jedoch vorausgesetzt, dass man weiss, was «Bluetooth», « WLAN » und «Streamingdienste» sind, da deren Bedeutungen sich aus dem Kontext nicht erschliessen. Was das Verständnis hier zusätzlich erschwert, ist die Tatsache, dass die dazu gewählten Bilder keine erklärende Funktion haben, sondern lediglich die Musikboxen zeigen. Ein ähnlicher Fall liegt vor bei Amazon Echo, einem intelligenten Lautsprecher, der mit dem Sprachservice Alexa funktioniert. Hier wird die Funktionsweise durch einen Verweis auf den Sprachassistenten Siri erklärt - wer diesen nicht kennt, muss sich mit den gegebenen Beispielen begnügen. Die Sätze sind syntaktisch nicht auffallend verschachtelt oder besonders lang. Ein etwas komplexerer Satz ist das folgende Beispiel, in dem mit vielen verschiedenen Satzzeichen gearbeitet und der Satzfluss durch einen Einschub in Klammern unterbrochen wird. Dies kann das Verständnis erschweren, andererseits wird in der Parenthese ein umgangssprachlicher Ton angeschlagen, was Nähe schafft. Wenn dir das zu teuer ist, dann ist die UE BOOM vielleicht das Richtige: Schwarze Modelle gibt es bereits ab knapp 100 Franken und es lassen sich bis zu 150 (! ) solcher Geräte miteinander verbinden - und wasserdicht (kann in die Badewanne fallen und funktioniert immer noch) sind sie auch noch.Dieses [sic] Modell gibt es für 95 Franken bei Interdiscount. Was hier ausserdem den Lesefluss beeinträchtigen könnte, ist der fehlende Abstand nach dem Punkt (hier wurde mit [sic] darauf hingewiesen). Insgesamt ist der dritte Beitrag eine Produktübersicht mit Verweisen auf kommerzielle Anbieter - darin gleicht er einem Werbetext und schafft Zugang zum physischen und vor allem käuflichen Produkt selbst. Doch es fehlen Testberichte oder Erfahrungswerte. Diese Arbeit wird an die Leser*innen abgegeben, die sich in den Kommentaren über die Geräte austauschen und informieren sollen. So wird Zugang zu einer Plattform für den öffentlichen Diskurs ermöglicht, 242 Ann Fuchs & Zora Naef auf der Wissensaustausch auch zwischen den Leser*innen stattfinden kann. Da diese Kommentare im Nachhinein deaktiviert wurden und nicht mehr sichtbar sind, fällt allerdings ein grosser Informationsgehalt des Beitrags weg. 4.4 Vergleich Bei unseren Quellen handelt es sich um drei sehr unterschiedliche Texte, die dieselbe Thematik behandeln. Obwohl alle in Online-Zeitungen erschienen sind, lässt sich nicht von derselben Textsorte sprechen, weil die Texte in ihrer Intention und Ausführung zu verschieden sind. Auf technischer Ebene sind die Beiträge unterschiedlich öffentlich. Der erste Beitrag befindet sich in der Halb-Öffentlichkeit, während die beiden anderen für alle lesbar, nicht aber ohne Hürden kommentierbar sind. Damit bilden sie interessante Hybridformen, die sich den gängigen Kategorien widersetzen. Auch die Strategien, die auf sprachlicher Ebene in den Texten angewendet werden, um Zugang zum Thema Smart Home zu schaffen, sind verschieden. Während die erste Quelle mit narrativen Mitteln gestaltet ist, handelt es sich bei der zweiten um eine Mischform, die teils ebenfalls mit solchen Stilmitteln arbeitet, teils aber auch mit viel technischem Fachvokabular. So beschreibt der erste Artikel hauptsächlich den Alltag zweier Personen, während in der zweiten Quelle auf Sicherheitsprobleme in Smart Homes aufmerksam gemacht wird. Die dritte Quelle konzentriert sich auf spezifische Produkte und verweist auf deren Verfügbarkeit. Ausserdem soll der grösste Teil des Beitrags aus der Diskussion der Leser*innen bestehen, die aktiv zur Kommentierung aufgefordert werden. Die ersten beiden Beiträge bieten zwar auch die Möglichkeit, sich zu beteiligen, fördern dies aber nicht im selben Ausmass. Die Syntax ist in allen Beiträgen einfach gehalten. Dies scheint ein gängiges Mittel zu sein, um den Zugang zu erleichtern. Die erste und dritte Quelle begnügen sich ausserdem mit Ausdrücken, deren Bedeutung als bekannt vorausgesetzt wird. Quelle zwei bildet die Ausnahme, hier werden neue Termini eingeführt. Inhaltlich bleibt festzuhalten, dass es in keinem der drei Artikel darum geht, wie die neue Technik genau funktioniert, sondern nur darum, wie sie sich auf den Alltag der Angesprochenen auswirkt beziehungsweise auswirken könnte. Es wird also höchstens, wie im dritten Beispiel, Zugang zu den neuen Produkten geschaffen, nicht aber ein Verständnis für die Technologien geschaffen, die dahinterstehen. Smart Homes im öffentlichen Diskurs 243 5 Fazit Das Thema Smart Homes scheint aus journalistischer Sicht fruchtbar, um atmosphärische Narrative zu entwickeln, Informationen darüber zusammenzutragen und zu Diskussionen anzuregen. Es ist interessant genug, um Leser*innen zu gewinnen und Klicks zu generieren. Dies überrascht nicht; schliesslich geht es um den Entwurf einer möglichen Wohn- und Lebensform. Der Zusammenhang von Thema und Darstellung ist in den hier untersuchten Beiträgen offensichtlich: Es handelt sich um technische Neuerungen, die im Alltag und im privaten Rahmen zum Einsatz kommen, deshalb bietet sich eine Darstellung mit direktem Bezug auf ebendiesen Alltag an. Zugang zum Wissen über Smart Homes wird in den Beiträgen nicht nur im Artikel selbst ermöglicht, durch die Kommentarfunktion wird auch eine Plattform für den Austausch der Leser*innen untereinander geboten. Es können so Verschränkungen von Laientum und Expertentum im Diskurs beobachtet werden. Diese Verschränkungen sind besonders beim dritten Beispiel im Hinblick auf die Kommentare interessant - doch hier wurde der Zugang durch deren Löschung wieder verwehrt. Ebenfalls erwähnenswert ist, dass sämtliche Beiträge ohne hypertextuelle Strukturen auskommen, mittels derer auf Definitionen von Begriffen hätte verwiesen werden können - Erklärungen werden gegebenenfalls direkt im Text eingebracht. Abschliessend bleibt festzuhalten: Aufgrund des kleinen Untersuchungskorpus können natürlich keine repräsentativen Analyseergebnisse gezeigt werden. Dazu bräuchte es eine grössere Menge an Daten, die korpuslinguistisch untersucht würden. Um weitere Erkenntnisse zum Wissenstransfer zwischen Expert*innen und Laien zu erhalten, wäre auch eine Kontrastierung mit Fachzeitschriften oder Technikmagazinen interessant. Es gibt also noch viel zu tun. Bibliographie Adamzik, Kirsten (2016). Textlinguistik: Grundlagen, Kontroversen, Perspektiven, 2., völlig neu bearb., akt. und erw. Neuauflage. Berlin, Boston: De Gruyter Mouton. Bauer, Reinhard (2010). Die digitale Bibliothek von Babel: über den Umgang mit Wissensressourcen im Web 2.0. Boizenburg: Hülsbusch. Besio, Cristina / Hungerbühler, Ruth (2009). Experten und Laien in Fernsehsendungen zu Wissenschaft und Technik: Rollen, Autorität und Legitimation. In: Stenschke, Oliver / Wichter, Sigurd (Hrsg.). Wissenstransfer und Diskurs. Frankfurt am Main: Lang, 336-346. Brauchst du smarte Geräte zu Hause? In: 20 Minuten, 20. 09. 2019. Abrufbar unter: https: / / www.20min.ch/ wohnen/ smarthome/ story/ So-koennen-Sie-Ihre-Wohnungvernetzen-16510391 (Stand: 06. 01. 2021) 244 Ann Fuchs & Zora Naef Bundesamt für Statistik ( BFS ) 2019. Breitband-Internetzugang der Haushalte im internationalen Vergleich, städtisch / ländlich. Abrufbar unter: https: / / www.bfs.admin. ch/ bfs/ de/ home/ statistiken/ kultur-medien-informationsgesellschaft-sport/ informationsgesellschaft/ gesamtindikatoren/ haushalte-bevoelkerung/ internetzuganghaushalte.assetdetail.12307400.html (Stand: 06. 01. 2021) Dernbach, Béatrice (2010). Die Vielfalt des Fachjournalismus: eine systematische Einführung. Wiesbaden: VS Verlag für Sozialwissenschaften. Dieter, Jörg (2007). Webliteralität. Lesen und Schreiben im World Wide Web. Norderstedt: Books on Demand GmbH. Dürscheid, Christa (2005). Medien, Kommunikationsformen, kommunikative Gattungen. Linguistik Online, 22: 1, 3-16. Abrufbar unter: https: / / doi.org/ 10.13092/ lo.22.752 (Stand: 06. 01. 2021) Dürscheid, Christa (2007). Private, nicht-öffentliche und öffentliche Kommunikation im Internet. In: Japanische Gesellschaft für Germanistik (Hrsg.). Neue Beiträge zur Germanistik 6: 4, 22-41. Fähnrich, Birte / Hein, Theresa (2019). Journalismus im digitalen Zeitalter. Abrufbar unter: https: / / www.wissenschaftskommunikation.de/ journalismus-im-digitalenzeitalter-22617/ (Stand: 06. 01. 2021) Fraas, Claudia (2009). Online-Diskurse - Neue Impulse für die Diskursforschung. In: Stenschke, Oliver / Wichter, Sigurd (Hrsg.). Wissenstransfer und Diskurs. Frankfurt am Main: Lang, 363-379. Fragen und Antworten zur Kommentar-Funktion. In: 20 Minuten, 16. 01. 2019. Abrufbar unter: https: / / www.20min.ch/ story/ fragen-und-antworten-zur-kommentarfunktion-361201046705 (Stand: 06. 01. 2021) Gabler Wirtschaftslexikon (2020). Smart Home. Abrufbar unter: https: / / wirtschaftslexikon.gabler.de/ definition/ smart-home-54137/ version-368820 (Stand: 06. 01. 2021) Gehm, Florian (2018). So leicht dringen Hacker in Ihr Smart Home ein. In: Welt, 04. 09. 2018. Abrufbar unter: https: / / www.welt.de/ wirtschaft/ article181408256/ Soleicht-dringen-Hacker-in-ihr-Smart-Home-ein.html (Stand: 06. 01. 2021) Lebenshilfe für Menschen mit geistiger Behinderung Bremen (2013). Leichte Sprache: Die Bilder. Buch mit DVD . Marburg: Lebenshilfe-Verlag. Möller, Torger (2009). Die langfristigen Probleme eines erfolgreichen Wissenstransfers zwischen Wissenschaft und Öffentlichkeit. In: Stenschke, Oliver / Wichter, Sigurd (Hrsg.). Wissenstransfer und Diskurs. Frankfurt am Main: Lang, 139-153. Schümchen, Andreas (2008). Technikjournalismus. Konstanz: UVK -Verlagsgesellschaft. Siever, Torsten (2013). Zugänglichkeitsaspekte zur Kommunikation im technischen Zeitalter. In: Marx, Konstanze / Schwarz-Friesel, Monika (Hrsg.). Sprache und Kommunikation im technischen Zeitalter: wieviel Internet (v)erträgt unsere Gesellschaft? Berlin/ Boston: De Gruyter, 7-25. Spitzmüller, Jürgen (2011). Sprachkritik und ‹Wissenstransfer›. Wege zu einem kritischen Selbstverständnis. In: Schiewe, Jürgen. Sprachkritik und Sprachkultur. Smart Homes im öffentlichen Diskurs 245 Konzepte und Impulse für Wissenschaft und Öffentlichkeit. Bremen: Hempen-Verlag, 167-177. Volodina, Maja N. (2009). Zur Spezifik des medialen öffentlichen Diskurses. In: Stenschke, Oliver / Wichter, Sigurd (Hrsg.). Wissenstransfer und Diskurs. Frankfurt am Main: Lang, 309-314. Yang, Xifan (2019). Smartes Heim, Glück allein. In: Zeitmagazin 15 / 2019. Abrufbar unter: https: / / www.zeit.de/ zeit-magazin/ 2019/ 15/ smart-home-haussteuerungkuenstliche-intelligenz-datenschutz-china (Stand: 06. 01. 2021) D Exkurs: Mensch. Maschine. Menschmaschine. Chips, Devices, and Machines within Humans 249 Chips, Devices, and Machines within Humans Bodyhacking as Movement, Enhancement, and Adaptation Oliver Bendel Abstract This contribution about bodyhacking as movement, enhancement, and adaptation has three purposes. First, it aims to clarify terms in this field or to draw attention to the fact that they are used differently. Second, it wants to shed light on and explore a phenomenon that has a history but is also making history at the moment. Third, it wants to bring possible fields of application into play which remain unexplored, or which lie in the future. Literature analysis and own considerations and conclusions are used. The article first defines and distinguishes “biohacking”, “bodyhacking”, “human enhancement”, “animal enhancement”, “cyborg”, and “transhumanism”. It then addresses selected examples of bodyhacking. The author lists typical and known applications, ordered by their different objectives. He discusses actual and potential developments, for example as a response to potential crises and disasters (including pandemics) and in the context of satellites and foreign planets. On this basis, a brief philosophical discourse takes place leading to a summary and outlook. It turns out that bodyhacking brings opportunities with it, especially for the self-determined person, who takes his or her own body as a starting point and deals responsibly with the potentials. In this way, it can break with outdated conventions and create a new view of the body and its relationship with the environment. Moreover, it promises solutions to present and future problems. Of course, it also harbours moral and health risks. 1 Introduction The intended, targeted transformation of nature and the body has been happening for thousands of years. Forests have been cleared and hills have been eroded or filled up, grains and livestock have been bred, human beings have changed externally and deviations or errors, if any, have been eliminated or concealed. The radical questioning of nature and one’s own body is a more 250 Oliver Bendel recent phenomenon of the last two or three hundred years. This has put both squarely at the centre of attention and research. In an age of globalisation and digitalisation, new ideas and approaches are spreading particularly fast in the 21st century, and bioand bodyhacking, the subjects of this article, are receiving more and more visibility. This article first defines “biohacking”, “bodyhacking” and related terms. There are clear similarities between the concepts but there are also important distinctions, for example in a normative sense. Then selected examples of bodyhacking are discussed. The author not only looks at the recent past and the present, but also at the future, at possible crises and disasters (including pandemics) and within the context of satellites or foreign planets. This is followed by a philosophical discussion that takes up the examples mentioned and deals with their individual and social consequences. This all leads to a summary of and outlook for bioand bodyhacking. 2 Bio- and Bodyhacking and Related Concepts In this chapter the author explains the concepts of “biohacking” and “bodyhacking”, in addition to several terms that are close to them, namely “human enhancement”, “cyborg”, and “transhumanism”. Animals as well as humans will be considered in the context of these concepts. This is by no means a matter of course but provides a wider picture of the application of these concepts. Thus, in addition to “human enhancement”, “animal enhancement” must be considered, and the other terms likewise unless they already relate to the whole area of life (like biohacking). 2.1 Bio- and Bodyhacking “Biohacking” is a mixture of “bio” from the Greek word “bios” meaning life and “hacking”. Thus biohacking can be defined as the use of biological, chemical or technical means to penetrate organisms or their components in order to change and improve them (see Bendel 2018b; Bendel 2020). The combination of organisms is also possible, culminating in the creation of real-life chimeras. Genetic engineering methods, among others, are important. Biohacking is a grassroots and do-it-yourself ( DIY ) movement (see Charisius et al. 2013), whereby scientific approaches are not excluded in principle. Laymen and sometimes experts (mostly without explicit mandate) experiment with life using mainly minimal resources and simple means. Ultimately, the aim is to create adapted or novel Chips, Devices, and Machines within Humans 251 systems which offer added value and that can survive in their animate and inanimate environment, however it may be designed. A subsection or related entity of biohacking is bodyhacking, in which one intervenes in the animal or human body with biological and chemical, but above all technical means (computer chips, magnets, devices of all kinds, exoskeletons and prostheses), often with the purpose of animal or human enhancement and sometimes with a transhumanist mentality (see Bendel 2018a; Huxley 1957; Bostrom 2014). 1 There are hardly any doctors who explicitly assist the followers of bodyhacking. 2 Instead, procedures usually come from piercing and tattoo studios. There are also events called implant parties, where people inform, operate on and inspect each other (see Schrank 2018). 3 The specification in the context of biohacking is not always clear and depends on how the term “body” is defined and what counts as hacking. Bodyhacking is about creating new systems that assert themselves in their animate and inanimate environment and perceive or influence it differently (see Park 2019; Bendel 2018a; Bendel 2020). Networked bodies are referred to as the Internet of Bodies, which refers to a part of the Internet of Things (IoT) (see Bendel 2019; Matwyshyn 2019). Bioand bodyhacking are directed at the manipulation of organisms or their components. They allow experiments that are important for science, even if they are not carried out within its official framework (see Bendel 2018b). It is also important for the economy and society, if results - which may not initially be understood - eventually appear to be profitable, useful and popular (or if the opposite is true). Currently, biohacking can largely be considered an art form in the tradition of Andy Warhol, Cindy Sherman and many others. It can be seen as a creative act of blending nature and culture, as an exercise of art involving the ego, and further as an act of optimal aestheticization, where body and head are decorated while natural features perceived as ugly are replaced with artificial ones perceived as beautiful. In many cases, biohacking (and especially bodyhacking) results in a plant, animal or human cyborg. 1 Some experts consider bodyhacking as an independent field, which has only few similarities with biohacking. Some see the term very narrowly and understand hacking as DIY-system analysis and manipulation. 2 Bodyhacking is also seen as a do-it-yourself movement. But what does do-it-yourself even mean? It can be used to refer to the construction of equipment, but also to the individual adaptation and individual use of the equipment. Therefore, the next chapter, in which examples are given, will not be too narrow-minded. Modern prostheses and intelligent contact lenses are also discussed. The conceptual discussion will be repeated there. 3 In particular, NFC chips are implanted. The application of 2D codes to the skin is also common - at least that’s what the many pictures on the Internet suggest -, and in the future, perhaps the drawing of circuits. 252 Oliver Bendel 2.2 Human and Animal Enhancement Human enhancement serves to expand the human capacity to act and to increase human performance, especially in terms of improving functions and optimising the human being (see Savulescu 2011; Eckhardt 2011; Ach / Lüttenberg 2013; Bendel 2015; Bendel 2014). The starting point and target are healthy or sick people who are supplied with active substances, aids or body parts and are connected with technologies of all kinds (see Heilinger et al. 2012). Thus, there is also a close relationship to bodyhacking, whereby the normative component - it is about improvement - cannot be ignored. However, what is an improvement for one party may be a deterioration for the other, and a deterioration for one party may lead directly to an improvement for the other. This issue will be taken up again in a moment. The mentioned methods and technologies are used with a certain emphasis. Thus, cosmetic surgery and the use of exoskeletons are without doubt human enhancement par excellence. Animal enhancement is the extension of the animal, for the apparent or actual improvement of its own or human preferences and interests, for example for political, economic or scientific goals (see Bendel 2016a). Among other things, the focus is on improving performance, enhancing the quality of life and optimising utilisation. Here the problem mentioned above becomes obvious again: The improvement of the animal is often actually done to improve the situation of humans - the animal is thereby exploited. Insects are used as well as mammals, but the interest is different in each case. The former offer themselves as an alternative for mini robots, the latter as suppliers of substances and materials of all kinds. As with human enhancement, the starting point are sick or healthy living beings. Again, there is a close relationship with bodyhacking, but in this case it is bodyhacking of the involuntary. “My body belongs to me” becomes “My body belongs to you” - which of course has a long tradition in the relationship between humans and animals. 2.3 Cyborgs and Reversed Cyborgs A cyborg is an organism - be it animal or human - that is technically supplemented or extended (see Bendel 2016b). Cybernetics - to which the prefix of the word refers - examines systems for automatic control and regulation mechanisms. It also and especially deals with machines. In the case of the cyborg, a technical system is fitted into a biological structure so that two different systems are integrated and the biological one remains dominant (a cyborg is not a machine, it remains an organism). The non-dominant systems are often information technology tools which are researched and developed by computer science. A Chips, Devices, and Machines within Humans 253 cyborg is a manifestation of bodyhacking and - if increased and improved - of human and animal enhancement (see Park 2019). A reversed or inverted cyborg would be a technical structure into which a biological one is fitted, from collections of nerve and brain cells to a complete brain, resulting in a novel being - although this is still largely science fiction. In 2019, researchers at Yale University in New Haven, Connecticut, succeeded in keeping pig brains alive outside the body (see Vrselja 2019). Probably one day, like other brains, they can be integrated into robotic structures. This would create a form of inverted or reversed cyborg. 2.4 Transhumanism Transhumanism is an intellectual and economic movement that believes the self-determined development of human beings is only possible with the help of scientific and technical means (see Bendel 2019). It thus sees itself in the tradition of humanism - which also vehemently criticizes it, lamenting the loss of the human and the primacy of the technical - and the Enlightenment. One possibility is the conversion of humans to a cyborg or even a reversed cyborg. Establishing technologies include brain-computer coupling and brain implants. Conceptual technologies include whole brain emulation (mind uploading), a vision of transhumanists like Ray Kurzweil (2013), as well as the exocortex, an artificial external information processing system. Some ideas of the transhumanists can be found in the field of science fiction. Bodyhacking is also seen as a movement in this article, or rather that it at least has developed from a movement. It must be made clear that transhumanism is another form of movement. It is ideologically and religiously coloured, whereas bodyhacking is more practical. Of course, there can be very different motives, but unlike transhumanism, there are no leaders and no or hardly any commercial interests. 3 Examples and Possibilities for Bodyhacking The present chapter systematizes bodyhacking with the help of technical (especially information technology) means according to goals and tasks (see Bendel 2020). With humans, the “intelligent body” (or “intelligence in the body”) and the extension of sensual experiences with pleasant and unpleasant consequences both play a role. The term “human enhancement” would not be adequate or sufficient here, because not only improvement, but also change and displacement are involved. The alleged or actual beautification of the human being 254 Oliver Bendel through its fusion with technology is also addressed. With plants and animals, the substitution of previous processes and regulations is particularly relevant. The author mentions various practical examples from previous years and decades. Additionally, situations that have not yet or rarely occurred are outlined. The focus is on responses to crises and disasters like wars and pandemics and in the context of journeys to satellites (like the moon) and foreign planets (like Mars or like exoplanets). COVID -19 has shown us from the end of 2019 how quickly humanity can enter an existential medical and economic crisis. Climate change is also likely to have a significant impact on all our lives. Therefore it is important to consider potential, as well as existing, threats to human existence. 3.1 The Intelligence in and on the Body The intelligent or smart body is created by enriching it with computer chips and memories or connecting and fusing it with computers. This body can store and exchange data in a more expansive way than before and interact easily with the environment. It can also explore itself in other ways, such as measuring its functions and reporting the data to the “owner”. In extreme cases, the body may receive additional artificial brains or fragments of brains. The technology involved does not necessarily have to penetrate the body but can lie close to it. One of the most popular methods of bodyhacking is the implantation of Near Field Communication (NFC) chips. In humans, it is customary to choose the area between the thumb and forefinger (see Bendel 2020), where there are few nerve cells and complications are unlikely. The British cyberneticist Kevin Warwick, who was one of the first bodyhackers in this sense, had this operation performed in 1998 (see Connor 1998; Warwick 2002). With a microchip of this kind one can make payments, open doors, turn on the light and save data. The application of a chip is also important for animals, for example for opening cat flaps, for storing data to better track wild animals, where RFID chips with a higher range and tracking devices may be required. In addition to this, chips can be used for the identification of animals especially, however in the future this may be possible with regard to humans as well. 4 Besides computer chips, people use devices with biosensors, an example of which is the product called Circadia from Grindhouse Wetware (see Adams 4 One can discuss whether this is bodyhacking in the narrower sense. The chips are usually placed by doctors or experts. Hardly anyone experiments with his or her cat or dog at the moment. Animal enhancement is certainly concerned, and the chips seem to benefit both the animal and the person. Basically one has to see that bodyhacking could well extend to animals in the future. The willingness to experiment with your own and other animals could increase, especially if you expect advantages for the animal or yourself. Chips, Devices, and Machines within Humans 255 2017). This device measures body temperature and theoretically also pulse, blood pressure or oxygen saturation. The data can be transferred to a smartphone via Bluetooth and examined via an app. This creates live and permanent streams of (in practice very limited) personal data. In addition to self-tracking and especially life logging - which to a certain extent is also permitted by wearables - the main purpose of these devices is medical (see Bendel 2020). Implants of this kind could one day become interesting for digital twin technology, which has long been sought not only in production but also in the health sector (see Six 2019). The subject generates data in real time with which the digital copy is fed and built up. The idea is that before giving a patient a drug or performing an operation on him or her, including bodyhacking, this could be tested on the digital twin. Intelligent contact lenses are contact lenses that are designed to transmit information about the health of their user or to deliver medication (see Bendel 2019b). Whether one wants to speak of bodyhacking here is again a question of definition. 5 Companies such as Google and Novartis have become active in this field in the new millennium. Among other things, they have targeted diabetics whose lives could be saved thanks to this technology - because carelessness, lack of or disregard for information can mean death. According to the approach, the results of blood glucose measurements would be wirelessly transmitted to smartphones or smart watches or projected directly onto the retina. Intelligent lenses could also be used for therapy. For example, they could help to restore the eye’s natural focus in cases of presbyopia (a form of ametropia that occurs in older people). In 2018, however, these companies have put their projects on hold (see Ronca / Orizet 2018). What could also be mentioned in this context is the Open Artificial Pancreas System project (Open APS ) (https: / / openaps.org). The so-called DNA -of-things could lead to further applications (see Koch et al. 2020). 6 These are microscopically small memories, which in principle - unlike electromagnetic memories - can last a very long time. The artificial DNA is inserted into silica gel beads to stabilize it. It is intended to be used for storage of data and information in objects and machines. If, for example, a blueprint is stored, it can be read out with a suitable device and the object can be reconstructed. In this way, machines could replicate themselves on satellites or foreign planets, which is a possibility that the inventors have also pointed out 5 Intelligent contact lenses are hardly produced by a group of laymen. But these can order them in the desired size or design, colour and modify them, and use them in certain ways and combine them with glasses and gadgets. 6 And again the question arises whether this is bodyhacking or not. Of course, one can well imagine that the movement is appropriating these means more and more, especially during crises and disasters or in space. 256 Oliver Bendel (see Krempl 2019). Presumably the DNA -of-things can be injected into living beings as well. It would have to be examined whether it would degrade there - depending on where exactly it is - or whether it would remain stable. In a tiny memory one could record basic data like a person’s date and place of birth, as well as parental and sibling information. The read-out devices can be connected to other application and information systems. States could be interested in this, with its implications for migration, the police or secret services. But one could also have an interest for the possible opportunity to enforce rights and claims. 3.2 The Technical Expansion of the Senses Bodyhacking can also change human or animal perception of the environment, of things and living beings (see Bendel 2020). One sees, hears and smells differently thanks to certain technical extensions, one feels differently, has different states of sensation and arousal, even in a sexual sense. It should be noted that the brain must first get used to such impressions and may not even be able to cope with them, creating unintentional processes and reactions. In addition, there may be welcome or unwelcome interactions and interferences between natural and artificial senses. In 2002, Kevin Warwick - according to Podbregar (2018) - had another microchip implanted, which was connected to the nerve fibres of his forearm via 100 fine electrodes (see Podbregar 2018). The foreign body is thus, in contrast to the last section, physically and functionally connected to the body. This interface, called “Braingate”, allowed the famous cyborg to control the chip and its functions directly by nerve impulses, according to the source mentioned above. After some training he was able to pilot a robot arm via WLAN and Internet (see Podbregar 2018). According to his own statements, he also expanded his sensory perception. Thus, he became the forerunner of another movement: the movement of the expansion of the senses. Small magnets can be implanted in the fingertips, the toes or other parts of the body (see Bendel 2020). They provide the wearer with novel sensory abilities. If he or she is near metal, he or she notices the attraction under the skin. Initially, this is only felt as a tickle in the fingertips. But over the course of a few months, the brain learns to associate this stimulus not with a touch of the finger but with the presence of a magnetic field - i. e. the artificial magnetic sense is integrated into perception (see Podbregar 2018). Certainly, the tissue will reach its limits here, depending on the size of the implants. Theoretically, the magnet can also affect electromagnetic storage. However, for this it must have a certain strength. Chips, Devices, and Machines within Humans 257 With North Sense from Cyborgnest (https: / / www.cyborgnest.net), a device as unusual as it is (at least at first glance) senseless, you will be able to sense North as a direction (see Bendel 2020). The pocket watch-sized instrument is anchored in the skin above the sternum (see Drees 2016). It begins to vibrate when its wearer - like Liviu Babitz, founder of the company - turns north. The person himor herself becomes a needle that aligns itself and stops when it has found the right direction. This device also seems to have something to do with magnetism. Moon Ribas, another exponent of the scene, wears a small sensor in her elbow (see Sayej 2016). Whenever an earthquake occurs somewhere on earth, fed by information, it starts to vibrate, slightly in weak earthquakes and heavily in strong ones. From 2004 onwards, Neil Harbisson became known to a wider audience. At this time the colour-blind artist had the Eyeborg implanted (see Bendel 2020). According to Podbregar, a sensor located at the front of the head detects the wavelength of light emitted by objects, i. e. their colour (see Podbregar 2018). A chip implanted in the skull bone converts this information into vibrations of a certain frequency. These vibrations are transmitted through the bone to the ear, so that Harbisson can now hear the colours of his surroundings (see Podbregar 2018). Rob Spence, who lives in Canada, inserted a mini camera into his empty eye socket at Café Sphères in Zurich on 8 March 2013 and called himself Eyeborg. The author was among the participants of the event marking the 25th anniversary of the AI Lab Zurich. The film producer, who is documenting his project on eyeborgproject.tv, cannot see with the mini camera, but can take pictures and then watch them with his remaining eye - which upset his girlfriend, as he told the audience in Zurich. Further developments and objectives are possible for the intelligent contact lenses mentioned above. Researchers at the University of Washington have integrated a tiny display of light-emitting diodes into them that projects images and text from mobile devices directly into the eye. “One obvious problem is powering such a device. The circuitry requires 330 microwatts but doesn’t need a battery. Instead, a loop antenna picks up power beamed from a nearby radio source. The team has tested the lens by fitting it to a rabbit” (Venkatraman 2009). Production for humans has not yet been achieved, but when it is, people would constantly carry their screens around with them, which would fundamentally augment reality in an unprecedented way. Additional information could be observed by the wearer or by institutions for special cases like crises and disasters. In the case of the COVID -19 pandemic, such supplements could replace or supplement the current apps. One would get live information that an infected person is nearby. When seconds count, contact lenses could be a real advantage. 258 Oliver Bendel Climate change and its consequences could require new capabilities in the context of sensory expansion. Entire swathes of land could be flooded, similar to the dystopian science fiction film Waterworld (1995). Those who are unable to migrate or avoid it will have to come to terms with the situation very quickly. Sensors anchored in the body that perceive the behaviour of water, such as when it enters a houseboat, would be an option. Of course, the technology could also be installed in the dwellings themselves, but it is conceivable that it would make more sense to implant them into people themselves, especially if they are constantly changing their whereabouts. They could also report acute danger, for example if a wearer was sleeping and water was beginning to cover parts of the chest or even the face. Artificial webbed feet might help a user to move around in water or to scoop water, as well as “artificial gills” that would allow a wearer to stay under water longer. Mermaids have long been in vogue and are mainly portrayed by girls and women, for social media and in competitions up to the Miss Mermaid World Contest - it remains to be seen whether they would really have a better chance of survival with this fin. On foreign planets, which humans want to conquer, useful bodyhacking would primarily be focused on biochemical, physiological, and electronic modifications - as Clynes and Kline emphasized in 1960 (see Clynes / Kline 1960) - and in particular also on sensory expansion. Flights to the moon have been carried out and expeditions to Mars are planned for the 2030s (see Wall 2019). On satellites and foreign planets there is a different gravity, the distances in the horizontal and vertical are different, there is a different environment, with a different rock composition and a different (or no) atmosphere. Additional sensors could be important in order to perceive the difference and be alerted to dangers. Space suits are well known, but more advanced, special exoskeletons could strengthen and relieve the body in the new environment. Built-in communication systems would guarantee permanent accessibility to other crew members, in the spaceship and in buildings and cities built on satellites and planets. For only temporary stays on the moon, no expansion of the human body was necessary, for permanent presence on the moon or Mars this could be different and vital. 3.3 The Control of Machines and Animals Bodyhacking can enable people to take the body as a starting point, but still overcome it (see Bendel 2020). The human being would be the control element in a cyber-physical world. Just as the bank card has become contact-free, the human being can become contact-free as well, for example controlling something with a wink, with thoughts, or through the mere presence of information Chips, Devices, and Machines within Humans 259 technology in the body. This is relevant, for example, when germs like SARS - CoV-2 threaten us and we have to keep our distance from control elements and user interfaces. The human being equipped in this way breaks through the total automation, as desired in Industry 4.0 with its cyber-physical systems, in a purposeful and reasonable way. High-tech prostheses are often considered to be bodyhacking, although they are hardly related to a do-it-yourself movement (see Bendel 2015). 7 Rather, they are intended for disabled and limited persons and are developed by specialized companies and experienced experts and attached to the remaining sections of the extremities and the torso of the affected person. They are part of the human body, just as natural arms and legs are, if only because they largely replace their function. They are usually coupled with nerves of the existing residual limbs, so that the movements can be induced directly. Equally important as grasping, lifting and holding is the appearance. High-tech prostheses may be regarded as robots, i. e. as sensorimotor machines. In the future, more smart prostheses could be used, for example as additional limbs. Thought control is a more recent area in which considerable progress is being made (see Tönnesmann 2012). The best results are achieved with brain implants - but non-invasive procedures are also possible, such as hoods fitted with measuring electrodes that are pulled over the head (see Till 2019). These have existed for decades, but now achieve much better results. Starting in 2012, an American woman with paraplegia was able to use her mind to move an external robotic arm - basically a co-robot that is at her side - and make it reach out to her or take something from her (see Podbregar 2018). This was, if you like, a continuation of Kevin Warwick ’s experiment and a transfer into practice. Thought control of high-tech prostheses and adapted wheelchairs is also possible and has been implemented in several countries, both in Germany and Switzerland (see Till 2019). Further implementations are possible with the aforementioned intelligent contact lenses. They can be used to control devices if they register the blinking of the eye or the direction of vision (see Bendel 2019b). This is reminiscent of eye trackers and pupil control. Eye trackers analyse pupil and eyelid position and thus directly detect lack of attention and existing fatigue. The pupil position is also determined during pupil control, but now because the pupils are to be used for control. The user must be awake and must control the movement of his or her eyes. External devices like eye trackers are usually used. The intelligent contact lenses, on the other hand, sit directly on the cornea, just like normal contact lenses. This means that the control is always available, without the wearer being 7 It can be added that there are DIY projects for simpler prostheses, for example in countries with a weak health system. 3D printers play a role here. 260 Oliver Bendel easily recognized by those present. The NuPoint head mouse allows control by head movements. Pupil control and head mouse were developed primarily for people with disabilities. However, they can also be helpful for other people. Teledildonics could be an important form of mutual, pleasurable control during crises and disasters such as a war, an epidemic or pandemic, which are accompanied by isolation and quarantine and border closures. The partner is unreachable because he or she is under quarantine, but can operate the dildo or another sex toy you have on or in your body. Conversely, one can control the equipment at the partner’s side and give him or her satisfaction at a distance. It can also be used, if you have a disability (see Gomes / Wu 2017). Furthermore, completely new sensations are possible, which is then related to the topic discussed in the last section of this article. An indication of such possibilities are modern vibrators that stimulate other areas than is usual in classical sexual intercourse, using different methods. Influencing and restricting animals, especially insects and mammals, has also become a reality. RoboRoach is an information technology upgraded cockroach that can be controlled with a smartphone. The electronic component to be applied to it can be ordered from Backyard Brains (https: / / backyardbrains. com). This company claims that RoboRoach can be used to better understand biological and neural processes, among other things (see Bendel 2016b). However, it was probably also concerned about potential scandal. Another possible purpose is surveillance. Military, police and secret services (or just stalkers) are interested in the experiments and prototypes, since mobile spies can be created with simple means. A further project is the virtual fence for cattle, created by a collar or a device on the head of the animal (see Fossgreen 2015). In crises and disasters, as well as on other celestial bodies, such options for restricting and controlling living beings would be quite important. 3.4 Protection and Arming with the Help of Bodyhacking Numerous defence mechanisms, combat equipment and strategies are known from the plant and animal kingdom. Living beings have shells, strong hair, thick skin, needles, spikes, thorns, horns, tusks and fangs, spray toxic substances and give out electric shocks. They want to protect themselves, appear dangerous or are dangerous, they defend themselves or attack, for direct or indirect self-preservation. In fairy tales and legends, living beings go a step further, for example when they breathe fire like dragons. Humans, as harmless as they appear physically, are also ready to attack with teeth and fingernails as well as fists. They used clubs and stones early on, and of course they have surrounded themselves with numerous highly developed tools and weapons over time. Chips, Devices, and Machines within Humans 261 In the context of crises and catastrophes and specifically on a foreign planet, bodyhacking can offer protection and enable one to arm oneself and others. One is given new possibilities, equipping oneself and others. Protective armour would be one possibility, lighter than knight’s armour, more flexible or harder than soldiers’ and policemen’s uniforms, covered with an impenetrable or slippery film, kitted with spikes and edges for active defence. Think of Iron Man and other superheroes, the characters of modern fairy tales that use technical enhancements more than fabulous or magical abilities. Implants could serve as thread glands, venomous syringes and knife blades; here too, science fiction and fantasy send their greetings, specifically Spiderman and Wolverine, but without the unbelievable genesis of these figures. Pets, farm animals and wildlife could also be protected and armed so that they would be able to survive and defend themselves better. They have always been at a disadvantage compared to humans in many situations, being captured, kept and killed. Armament could contribute to their liberation, or to their protection against the owners’ opponents, but it could also lead to unintended victims. However, if they accompany humans to inhospitable environments and to foreign planets, protection and armament could be vital for them and their owners. They could meet unknown enemies in an appropriate way and arm themselves against flooding, rockfall, fire etc. On the other hand, they need not fear Aliens for the time being. 3.5 Embellishment through Bodyhacking Bodyhacking also has an aesthetic component. It changes the body, this centre of pleasure and desire, and thereby makes possibly uninteresting people interesting, interesting people even more interesting. It makes it easier for them to find a partner, or a suitable partner who responds to the signals sent out. Of course, it can also lead to the opposite, if the change is extreme, it could be perceived as questionable and ugly leading to a reduction of attractiveness. The same is also valid in the area of piercings and tattoos (see Jung 2007). In former times they were the trademark of interesting, “tough guys” (or “tough girls”), later they became a mass phenomenon, no longer unique. This is by no means meant to express that tattoos, for example, could not be high art. There are certainly works of great beauty. Implant parties with the purpose of bodyhacking are often performed with specialists who are experienced in tattooing and piercing (see Bendel 2020; Schrank 2018). This has to do with the fact that it is a grassroots and DIY movement and doctors or nurses are not or hardly available to the extent that might be desired. It is also related to the fact that there is an expansion and supple- 262 Oliver Bendel mentation going on here, which does not only have functional aspects. People want to beautify themselves in a new way, want to bring function and design together in a community that has its own rules and ideas. They want to do this in front of each other, so that the whole thing becomes a social event. Of course, it is not impossible that cosmetic surgeons will also discover this market. Specifically, visible chips and magnets and other implants are an option, causing mounds or waves in the skin, which has visual and haptic implications, as well as optical extensions of ears, noses and genitals. Other examples include auditory extensions which can give the user the ability to produce an applause or a laugh. The mentioned Eyeborg, Neil Harbisson’s device, was obviously also created with aesthetic intent, and adorns its owner like a cockscomb. Time will show what people and their fellow men find pleasant and beautiful, and certainly one zeitgeist will replace the other. Basically, it is interesting that the purely technical, or that which is transformed by technology can have its own special appeal, both visually and audibly. From social robots - whether in the science fiction of “Star Wars” with R2-D2 (as from 1977) and BB -8 (as from 2015) or in the reality with Cozmo (a toy robot) or Relay (a transport robot with eyes) - we know that some machine sounds are perceived as cute. 3.6 The Desire for Immortality The ideology of transhumanism can include the propagation of eternal life. One idea, as mentioned, is to transfer the human mind into virtual memories (see Kurzweil 2013). However, it remains completely unclear how this could work technically. A more promising method is the removal and reinsertion of brains. As described above, pig brains could be kept alive outside the body (see Regalado 2018; Vrselja et al. 2019). Should it one day be possible to implant brains or other organs into robots, with the result that they control or substantially supplement them, the result would be a reverse cyborg. The human being could continue to live even if the body were broken - but one must remember that the brain ages as well. Whether this would still be bodyhacking is debatable. Via bodyhacking one could possibly change the human perception of time. When we experience little, time seems to stretch, but when we experience a lot, it seems to pass faster, which seems to be a contradiction. Childhood seems to be infinite while adulthood seems to fly by. Data glasses and data lenses could create a virtual expansion of individual experience, complementing and commenting on what we have perceived. They could also create a narrower experience by completely or partially hiding the outside world. Above all, together with appropriate devices and sensors, they could provide what the wearer wants in the respective situation. Chips, Devices, and Machines within Humans 263 One could make oneself immortal in the figurative sense by documenting one’s entire life via lifelogging and self-tracking - with the help of computer chips and gadgets in and on the body - and making the data available to others. The question is only whether these are of interest to anyone and whether people are not already drowning in the flood of information. In any case, this approach is very popular. Successful artists have a different method of making themselves immortal, and it works because they give society something that interests it: a work that is linked to their name and that helps them to be remembered for decades or centuries. Similar arguments could be made for politicians, engineers and stars of all kinds. 4 Bodyhacking from an Ethical Perspective The interventions and extensions of the last millennia on the face and body were often visible and gave cause for discussion whether this took place on the street or in the academies. In more recent times, some technologies are not immediately visible, others are more present than ever, and movements and currents are developing as well as a certain everyday life, a state of habituation. Transhumanism and human enhancement have been intensively discussed from a philosophical and especially ethical point of view since the turn of the millennium (see Agar 2004; Eilers et al. 2014; Bendel 2015; Kurzweil 2013). More and more the less institutionalised phenomena of bioand bodyhacking are coming into focus. The following is an ethical discussion, explicitly including the animal, which has so far received little attention in this context. 4.1 The Freedom over the Body Bodyhacking still proves to be a quite simple, and certainly expandable, disposal of the self or a foreign body. In a playful and varied way, the cyborg is created, who likes himself or herself and portrays him or her in projects, in the media and at conferences (see Bendel 2020), not least in order to gain attention, which he or she can use personally or monetarily. The phenomenon can help to better understand and explore one’s own body (and mind), to recognize its potentials and limits and systematically overcome them, and to view one’s body in a new way. It is a part of the freedom that humans aspire to and how it appears in Haraway’s vision of the cyborg (see Haraway 1985). And it also fits with the lack of freedom that one considers normal towards the animal, whereby an invention such as the virtual fence admittedly helps to achieve more freedom in movement. 264 Oliver Bendel From the point of view of technology ethics and technology assessment, which do not see technology as an enemy of man, but as a part of being human, as a tool for their further development, the new freedom over the body is to be seen as quite positive. The naturalness of technology is expressed even better, even information technology becomes natural, spreads not only outside but also inside the body. It is nevertheless for a long time a unique and differentiating feature, one can use it to send a signal and make it clear that one is prepared to go to the limit, which was an arbitrary limit and with which the natural was possibly misinterpreted. The fact that humans take the freedom to dispose of the animal body, not necessarily for the benefit of the animals, is addressed in animal ethics. 4.2 An Increase in Performance Bodyhacking can lead to an increase in performance or a widening range of functions. This is discussed again and again controversially, with terms like “justice” (also “information justice”) and “digital divide” (Heitmann 2008). In this context human enhancement has been defined as a phenomenon that affects not only healthy people, but also the sick or disabled. There will be nothing to prevent disabled people - if it is technically possible in any way - from reaching the abilities of non-disabled people. In fact, there is just as little reason why they should not exceed these capabilities. There is something artificial about the line that some want to draw, stranded in the idea of the “natural”. From an ethical point of view - certainly including the naturalistic fallacy - there is hardly any reason why skills in individuals should not be optimized. Ethical problems are, however, raised in the social and political fabric and then, when it comes to measuring and evaluating forces, as in sport, or to assessing skills and traits, as in singing and beauty contests. From the point of view of technology ethics and bioethics, perhaps the focus in the next few years will be on a different kind of restructuring, namely genetic interventions at fertilisation and before birth. The Crispr gene editing scissors could cure hereditary diseases, thereby reducing the suffering of parents and children. At the same time, it could provide a new form of selection. If one day it were possible to determine the colour of a child’s eyes or influence its intelligence - would this still be justifiable? A provocative thought is that it could be more justified than a subsequent technical intervention, for example, because one day people would easily overcome this transformation and perhaps never know what was changed in them. This, in turn, seems to be ethically problematic and rather argues in favour of self-responsible technical expansion in adulthood. Also in demand in this context is information ethics, whose terms “information Chips, Devices, and Machines within Humans 265 justice” and “digital divide” have already been mentioned above - one could add “digital self-defence”, made possible by the extended body. 4.3 The Forced Extension A fundamental danger is that bodyhacking in humans, as is already the case with animals, becomes a coercive measure (see Bendel 2020). States could have an interest in the identification of persons or companies, on the one hand for authentication or the generation and use of data, and on the other hand in the context of human enhancement, whereby the increase and improvement of an individual’s labour power serves to increase and improve economic power (see Bendel 2019b). In the future not only chips, but also the DNA-of-things may play a role in this. The bodyhacker becomes a hacked body - the user is not only used by the technologies, but also by their producers, operators and applicants. In this sense, one could complain that the individual bodyhacker dares to break a dam, which is then used by others for targeted “flooding”. Like with respect to social media, they could argue that the reconstruction of one’s own body (such as the release of personal data) is obviously desired by the people. Some of the presented technologies integrated into the bodies can be networked. This idea is expressed in the term “Internet of Bodies” (IoB). The IoB allows data flows to be merged, resources to be distributed and tasks to be tackled jointly. This may in turn be associated with the described expansion of the ability to act and increase performance, but it may also offer fundamental opportunities for development. In addition to such opportunities, there are risks associated with monitoring and control, both externally and in the emerging network. Science fiction fans may be reminded of Borg, the collective creatures from Star Trek. Bodyhackers ultimately become vulnerable to attacks and become the target of hackers (see Rötzer 2012). Both personal and informational autonomy is in danger. At the outbreak of COVID -19 some politicians might have wished for possibilities of the Internet of Bodies. Here and there - problematically enough - data from smartphones was used (see Naughton 2020), and apps were developed for the detection of infected people. Information ethics is in particular demand here. For decades, it has been describing and assessing not only the use and misuse of information technology itself, but also the origin and direction of data flows that can harm individuals and groups. The preservation and destruction of informational autonomy is one of its most important areas. Business ethics questions the proportionality of measures in the economic context and the responsibility of decision makers. Legal and politics ethics are required with regard to the rule of law of the means and the protection of minorities, and again to the responsibility of decision makers. 266 Oliver Bendel It must not be allowed that the freedom of the individual becomes their lack of freedom, with the well-known argument of protecting the security of societies. After all, this security probably does not exist, or at least it should not be created with the loss of freedom. When animals are forced to carry information technology - and they never carry it voluntarily - animal ethics is again in demand. 4.4 The Threat to Health Another uncertainty is initially of a medical nature. Bodyhacking targets the body of both sick and healthy people (see Heilinger / Biller-Adorno 2012). Every intervention of this kind involves a health hazard. The skin is injured, which is more than just a shell of the body, but an important organ. In addition, nerves, muscles and other organs may be affected by the smallest intervention. Implants are foreign bodies and can cause inflammation, encapsulation, adhesions, etc. If the technologies are in interaction with humans, further complications may occur. If we remember that morality can be directed at our own bodies and lives (see Höffe 2018) and assume that a healthy life is linked to a good life, the moral implications become apparent. Of course, the individual’s right to freedom must also be valued and defended. Dangers could arise from approaches such as those advocated by transhumanists. For example, some experts believe that brain implants and certain braincomputer interfaces or computer-brain interfaces can lead to severe disruption and damage to the brain or are logistically impossible. One concrete criticism concerns the approach of Elon Musk’s company Neuralink (https: / / www.neuralink.com), which wants to insert flexible electrodes into the human brain in a minimally invasive way and link them to a computer (Krempl 2019). If a brain can control a machine, the machine may one day be able to control the brain - or read thoughts (Drew 2011). Brain-computer interfaces and computer-brain interfaces are highly controversial. However, technology has progressed in one direction, but not in the other: reading thoughts is hardly possible as it is not even entirely clear what thoughts are. There are different kinds, pictures in front of the inner eye, inner monologues etc. And probably in the future, technical systems will only be able to read fragments of them, if it is not an experimental situation. The result could be like a puzzle - but one whose pieces cannot be put together in principle. Bioethics and medical ethics have decades of experience in this context. They ask about the well-being of the individual and about the responsibility of individuals and institutions. In the case of bodyhacking, they can be confronted with an unusual problem: Here it is often not doctors and hospitals who perform the invasion, but laymen, at least if one puts the do-it-yourself movement in the Chips, Devices, and Machines within Humans 267 foreground. If damage and injuries occur, legal ethics may be demanded in turn. The question is whether certain operations should be banned - the circumcision of children by laymen has provoked similar discussions. But even in projects like Elon Musk’s, medical ethics, legal ethics and jurisprudence face challenges. The question is whether too much is being promised here, whether it is simply a matter of clever marketing measures and whether the interventions are justified. When animals suffer health damage from bodyhacking, animal ethics is again in demand. 4.5 The Adaptation to Crises and Catastrophes The adaptation to crises and catastrophes or to foreign planets via bodyhacking is also relevant from an ethical perspective. It’s not clear how the body will cope with doubleor triple-strain in individual cases. In addition, implants and devices that seem to be suitable in theory and in practice on earth may behave differently on foreign planets. Here, questions of justice arise again. Those who can afford it financially and in terms of health can equip themselves in case of floods and pandemics as well as during excursions to other planets; those who cannot afford it will be left behind. In the future, the digital divide could extend not only between countries and continents, but right across space. Several fields of applied ethics are required for this topic. Information ethics in turn assesses the use of information and communication technologies, bioethics and medical ethics assess the medical consequences. Technology ethics deals with how people use technology to conquer foreign planets and survive with the help of technology on and in the body. This shows once again, as at the beginning of the chapter, that ethics is by no means only there to identify risks and warn of risks, but also to outline opportunities. Perhaps humanity can only survive by conquering foreign planets - as Stephen Hawking saw it - and adapting to the inhospitable conditions as well as possible. The problem with an ethical assessment, however, is that we can hardly know this to be a fact. Animal ethics also comes into play here. If humans use technology to make animals resistant and viable, this seems to be to the benefit of the animal. However, some people might be bothered by the fact that humans first destroy the environment, take away the animals’ habitat, keep them captive and misuse them, and cause crises and disasters, only to adapt the animals once again according to their own ideas. When animals are taken to foreign planets, the basic question arises whether this is animal-friendly husbandry. It would be desirable, here and with regard to other applications, to clarify and apply the law. 268 Oliver Bendel 5 Summary and Outlook At the beginning of this article important terms were defined and distinguished. This has given the reader a much clearer notion of what bodyhacking is, namely technological changes to the body, usually combined with a do-it-yourself approach. Besides, a possible (but not inevitable) normative component of bioand bodyhacking became clear, as it is expressed in human and animal enhancement. Life on satellites and foreign planets could be revolutionised by these developments. The interventions and supplements could also be of assistance in crises and disasters such as pandemics. Furthermore, it became obvious that not only humans, but also animals can be the starting point; human and animal enhancement are equally possible, and human and animal cyborgs are possible. Biohacking (and especially bodyhacking) allows experiments that are important for science, even if they are not carried out within their institutional framework (see Bendel 2018b; Bendel 2020). It is also important for the economy and society when results appear useful and applicable to real-life problems. This requires the involvement of different disciplines, such as architecture, which can respond to new capabilities with structural extensions, computer science, which is fundamental to the design and operation of the specific hardware and software, or business informatics, which has a slightly different information system in front of it and can explore operational and commercial possibilities. Finally, bioand bodyhacking can be regarded as a form of culture and art and be placed in the tradition of piercings, tattoos and other physical interventions. Basically, bioand bodyhacking is about taking possession of one’s own body, overcoming biological limits and exploring technological possibilities in relation to the organism that one or someone (or something) else is (see Bendel 2020). It turns out that bodyhacking in its technical variety can break up traditional conventions and create a new view of the body and existence. From an ethical point of view, it can be classified as an attempt by homo faber to shape and improve his or her own functioning towards a good life. It becomes problematic as soon as social, political or economic pressure arises, for example when the wearing of a NFC chip becomes the norm, which hardly anyone can escape, or when people are forced to do so, and when intimacy, privacy and informational autonomy are impaired (see Bendel 2018a). Health consequences may also occur, which in turn may be linked to ethical considerations. Biohacking is still a marginal phenomenon. Several factors could change that. The do-it-yourself movement could develop into an officially supported movement if doctors and health insurance companies are convinced of the benefits of certain applications (that’s already the case with self-tracking devices). In addition to the implied covetousness on the part of the economy and the state, Chips, Devices, and Machines within Humans 269 crises and catastrophes as well as space travel could force the phenomenon to be seriously considered. New circumstances make new adjustments necessary, and if evolution is too slow for this, other means must be investigated. This will be a new opportunity for computer science, business informatics and the engineering sciences in general. Of course, biological, chemical and genetic engineering approaches are also possible. For example, chimeras could be used as spare parts stores, although there are animal-ethical arguments against this, or we ourselves could become chimeras and have certain animal characteristics that allow us to perceive ourselves better in our environment. Bodyhacking would lead to biohacking, so to speak, and we would have to redefine the boundaries between animal and human and to redefine humanity in general. This in turn raises ethical questions that will not be easy to answer, whether we are in normal, stable, peaceful times or states of emergency. Bibliography Ach, Johann S. / Lüttenberg Beate (2013). Human Enhancement. In: Grunwald, Armin / Simonidis-Puschmann, Melanie (Hrsg.). Handbuch Technikethik. Stuttgart: J. B. Metzler, 288-292. Adams, Dallon (2017). 8 bold biohacks that blur the line between human and machine. Digital Trends. Abrufbar unter: https: / / www.digitaltrends.com/ cool-tech/ coolestbiohacking-implants/ (Stand: 19. 10. 2020) Agar, Nicholas (2004). Liberal Eugenics: Defence of Human Enhancement. Hoboken / New Jersey: Wiley-Blackwell. Bendel, Oliver (2020). Überlegungen zu Bio- und Bodyhacking. In: HMD . Abrufbar unter: https: / / link.springer.com/ article/ 10.1365/ s40702-020-00605-y (Stand: 19. 10. 2020) Bendel, Oliver (2019a). Internet of Bodies. In: Gabler Wirtschaftslexikon. Abrufbar unter: https: / / wirtschaftslexikon.gabler.de/ definition/ internet-bodies-121902 (Stand: 19. 10. 2020) Bendel, Oliver (2019b). 350 Keywords Digitalisierung. Wiesbaden: Springer Gabler. Bendel, Oliver (2018a). Bodyhacking. In: Gabler Wirtschaftslexikon. Abrufbar unter: https: / / wirtschaftslexikon.gabler.de/ definition/ bodyhacking-100401 (Stand: 19. 10. 2020) Bendel, Oliver (2018b). Biohacking. In: Gabler Wirtschaftslexikon. Abrufbar unter: https: / / wirtschaftslexikon.gabler.de/ definition/ biohacking-100400 (Stand: 19. 10. 2020) Bendel, Oliver (2016a). Cyborg. In: Gabler Wirtschaftslexikon. Abrufbar unter: http: / / wirtschaftslexikon.gabler.de/ Definition/ cyborg.html (Stand: 19. 10. 2020) 270 Oliver Bendel Bendel, Oliver (2016b). Animal Enhancement. In: Gabler Wirtschaftslexikon. Abrufbar unter: http: / / wirtschaftslexikon.gabler.de/ Definition/ animal-enhancement.html (Stand: 19. 10. 2020) Bendel, Oliver (2015). Human Enhancement: Die informationstechnische Erweiterung und ihre Folgen. TAT uP 24: 2, 82-89. Bendel, Oliver (2014). Human Enhancement. In: Gabler Wirtschaftslexikon. Abrufbar unter: http: / / wirtschaftslexikon.gabler.de/ Definition/ human-enhancement.html (Stand: 19. 10. 2020) Bostrom, Nick (2014). Superintelligence: Paths, dangers, strategies. Oxford: Oxford University Press. Buselmaier, Werner / Haussig, Joana (2018). Biologie für Mediziner. 14. Aufl. Berlin: Springer. Charisius, Hanno / Friebe, Richard / Karberg, Sascha (2013). Biohacking: Gentechnik aus der Garage. München: Hanser. Clynes, Manfred E. / Kline, Nathan S. (1960). Cyborgs and Space. Astronautics, September 1960, 26-27, 74-76. Connor, Steve (1998). Professor has world’s first silicon chip implant. Abrufbar unter: https: / / www.independent.co.uk/ news/ professor-has-worlds-first-silicon-chip-implant-1174101.html (Stand: 19. 10. 2020) Drees, Carsten (2016). Werdet zum Cyborg dank Kompass-Implantat. Mobile Geeks. Abrufbar unter: https: / / www.mobilegeeks.de/ news/ werdet-zum-cyborg-dank-kompass-implantat/ (Stand: 19. 10. 2020) Drew, Liam (2019). The ethics of brain-computer interfaces. Nature. Abrufbar unter: https: / / www.nature.com/ articles/ d41586-019-02214-2 (Stand: 19. 10. 2020) Eckhardt, Anne / Bachmann, Andreas / Marti, Michèle et al. (2011). Human Enhancement. Zürich: Vdf Hochschulverlag. Eilers, Miriam / Grüber, Katrin / Rehmann-Sutter, Christoph (Hrsg.) (2014). The Human Enhancement Debate and Disability: New Bodies for a Better Life. Basingstoke / Hampshire: Palgrave. Fossgreen, Anke (2015). Bei den Kühen piepts. Tages-Anzeiger. Abrufbar unter: https: / / www.tagesanzeiger.ch/ stichwort/ autor/ anke-fossgreen/ s.html (Stand: 19. 10. 2020) Gomes, Leonardo M. / Wu, Rita (2018). Neurodildo: A Mind-Controlled Sex Toy with E-stim Feedback for People with Disabilities. In: Cheok, Adrian D. / Levy, David (Hrsg.). Love and Sex with Robots. Cham: Springer International Publishing, 65-82. Haraway, Donna (1985). A Cyborg Manifesto. Socialist Review. Abrufbar unter: https: / / sites.evergreen.edu/ politicalshakespeares/ wp-content/ uploads/ sites/ 226/ 2015/ 12/ Haraway-Cyborg-Manifesto-2.pdf (Stand: 19. 10. 2020) Heilinger, Jan-Christoph / Biller-Andorno, Nikola (2012). Die ethische Debatte zum Human Enhancement. In: Gutscher, Heinz (Hrsg.). Medizin für Gesunde? Analysen und Empfehlungen zum Umgang mit Human Enhancement. Bern: Druck- und Werbebegleitung, 19-26. Chips, Devices, and Machines within Humans 271 Heitmann, Matthias (2008). Sind Prothesenläufer Techno-Dopingsünder? Kultur und Gesellschaft. Abrufbar unter: http: / / www.novo-argumente.com/ artikel/ 93/ novo9391. pdf (Stand: 19. 10. 2020) Höffe, Otfried (2018). Ethik: Eine Einführung. München: C. H. Beck. Huxley, Julian (1957). New Bottles for New Wine. London: Chatto & Windus. Jung, Ernst G. (2007). Tätowieren und Tattoo. In: Jung, Ernst G. (Hrsg.). Kleine Kulturgeschichte der Haut. Dresden: Steinkopff. Karberg, Sascha (2012). Das Spiel mit den Bakterien. ZEIT Wissen. Abrufbar unter: https: / / www.zeit.de/ zeit-wissen/ 2012/ 06/ Synthetische-Biologie-Biohacker/ komplettansicht (Stand: 19. 10. 2020) Koch, Julian / Gantenbein, Silvan / Masania, Kunal et al. (2020). A DNA -of-things storage architecture to create materials with embedded memory. Nature Biotechnology 38: 1, 39-43. Krempl, Stefan (2019). Neurologen an Elon Musk: Neuralinks Hirn-Implantat ist „unseriöser Hype“. Heise Newsticker. Abrufbar unter: https: / / www.heise.de/ newsticker/ meldung/ Neurologen-an-Elon-Musk-Neuralinks-Hirn-Implantat-ist-unserioeser- Hype-4480637.html (Stand: 19. 10. 2020) Kurzweil, Ray (2013). How to Create a Mind: The Secret of Human Thought Revealed. London: Penguin Books. Matwyshyn, Andrea M. (2018). The Internet of Bodies. William & Mary Law Review. Abrufbar unter: https: / / ssrn.com/ abstract=3452891 (Stand: 19. 10. 2020) Naughton, John (2020). Smartphones could help us track the coronavirus - but at what cost? The Guardian. Abrufbar unter: https: / / www.theguardian.com/ commentisfree/ 2020/ mar/ 21/ smartphones-could-help-track-coronavirus-but-at-what-cost (Stand: 19. 10. 2020) Park, Enno (2019). Digitalisierung geht unter die Haut - Perspektiven eines Cyborgs. In: Fürst, Ronny A. (Hrsg.). Gestaltung und Management der digitalen Transformation: Ökonomische, kulturelle, gesellschaftliche und technologische Perspektiven. Wiesbaden: Springer, 243-254. Podbregar, Nadja (2018). Bodyhacker: Mit implantierter Technik zum Cyborg. scinexx. Abrufbar unter: https: / / www.scinexx.de/ dossierartikel/ erweiterte-sinne/ (Stand: 19. 10. 2020) Regalado, Antonio (2018). Researchers are keeping pig brains alive outside the body. MIT Technology Review. Abrufbar unter: https: / / www.technologyreview. com/ s/ 611007/ researchers-are-keeping-pig-brains-alive-outside-the-body/ (Stand: 19. 10. 2020) Rötzer, Florian (2012). Tödlicher Angriff auf Herzschrittmacher möglich. Telepolis. Abrufbar unter: http: / / www.telepolis.de/ artikel/ 37/ 37950/ 1.html (Stand: 19. 10. 2020) Ronca, Marion / Orizet, Joël (2018). Update: Novartis und Google legen Projekt „Diabetes-Linse“ auf Eis. Netzwoche. Abrufbar unter: https: / / www.netzwoche.ch/ news/ 2014-07-15/ novartis-und-google-fassen-zusammenarbeit-ins-auge (Stand: 19. 10. 2020) 272 Oliver Bendel Savulescu, Julian / Bostrom, Nick (Hrsg.) (2011). Human Enhancement. Oxford: Oxford University Press. Sayej, Nadja (2016). The World’s First Cyborg Artist Can Detect Earthquakes With Her Arm. VICE . Abrufbar unter: https: / / www.vice.com/ en_us/ article/ 8q8e4a/ the-worldsfirst-cyborg-artist-can-detect-earthquakes-with-her-arm (Stand: 19. 10. 2020) Schrank, Peter (2018). Why Swedes are inserting microchips into their bodies. Economist. Abrufbar unter: https: / / www.economist.com/ europe/ 2018/ 08/ 02/ why-swedesare-inserting-microchips-into-their-bodies (Stand: 19. 10. 2020) Six, Andrea (2019). Schick den Avatar zum Arzt. IT for Health. Netzwoche. Abrufbar unter: https: / / www.netzwoche.ch/ news/ 2019-07-05/ schick-den-avatar-zum-arzt (Stand: 19. 10. 2020) Till, Ulrike (2019). Rollstuhl steuern durch Gedanken. SWR . Abrufbar unter: https: / / www.swr.de/ swr2/ wissen/ rollstuhl-fahren-durch-gedankenkraft,article-swr-13430. html (Stand: 19. 10. 2020) Tönnesmann, Jens (2012). Was die Hirnforschung möglich macht. Wirtschaftswoche. Abrufbar unter: http: / / www.wiwo.de/ technologie/ forschung/ gedacht-getan-wasdie-hirnforschung-moeglich-macht/ 6215518.html (Stand: 19. 10. 2020) Venkatraman, Vljaysree (2009). Contact lenses to get built-in virtual graphics. New Scientist. Abrufbar unter: https: / / www.newscientist.com/ article/ dn18146-contactlenses-to-get-built-in-virtual-graphics/ #ixzz6H8i11 MVZ (Stand: 19. 10. 2020) Vrselja, Zvonimir / Daniele, Stefano G. / Silbereis, John et al. (2019). Restoration of brain circulation and cellular functions hours post-mortem. Nature 568, 336-343. Wall, Mike (2019). Astronauts Will Face Many Hazards on a Journey to Mars. Space. Abrufbar unter: https: / / www.space.com/ crewed-mars-mission-astronaut-dangers. html (Stand: 19. 10. 2020) Warwick, Kevin (2002). I, Cyborg: The Inside Story of the Experiment to Fuse Artificial with Human Intelligence. London: Century. Die Autorinnen und Autoren 273 Die Autorinnen und Autoren Oliver Bendel ist Professor am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW . Er studierte Philosophie, Germanistik und Informationswissenschaft und promovierte an der Universität St. Gallen in Wirtschaftsinformatik. Seine Arbeitsschwerpunkte sind Informationsethik, Maschinenethik und Roboterethik. Linda Bosshart studiert an der Universität Zürich Deutsche Sprachwissenschaft und Religionswissenschaft im Master. Ausserdem arbeitet sie an öffentlichen Schulen als Lehrerin für das Fach Deutsch und absolviert gegenwärtig ein Praktikum als Gesetzesredaktorin im deutschen Sprachdienst der Bundeskanzlei. Sarah Brommer ist Professorin für Angewandte Linguistik mit Schwerpunkt Textproduktionsforschung an der Universität Bremen. Ihre Arbeitsschwerpunkte sind Schreibforschung, Sprachnormenforschung, Medienlinguistik, Wissenschaftslinguistik sowie Korpuslinguistik. Julia Degelo studiert Germanistik und Islamwissenschaft im Master an der Universität Zürich. Ihre Bachelorarbeit hat sie zum Thema Erich Maria Remarque und das Kriegstrauma - Eine Untersuchung der Figur Paul Bäumer in Erich Maria Remarques Werk «Im Westen nichts Neues» geschrieben. Zudem arbeitet sie als Deutschlehrerin für Geflüchtete. Christa Dürscheid ist Professorin für Deutsche Sprache, insbesondere Gegenwartssprache, an der Universität Zürich. Ihre Forschungsinteressen liegen im Bereich der Internetkommunikation, der Variationslinguistik, der Schriftlinguistik und der Grammatikforschung. Ann Fuchs studiert Deutsche und Englische Sprach- und Literaturwissenschaften im Masterprogramm der Universität Zürich. Zusätzlich ist sie als wissenschaftliche Hilfskraft in der Lavater-Edition des Deutschen Seminars angestellt. Mia Jenni studiert Germanistik und Kunstgeschichte im Master an der Universität Zürich. Ihre Bachelorarbeit schrieb sie über Nathanael und das Unheimliche in E. T. A. Hoffmanns Erzählung «Der Sandmann». 274 Die Autorinnen und Autoren Andrea Knoepfli studiert Germanistik und Kommunikationswissenschaften im Master an der Universität Zürich und schreibt ihre Masterarbeit über die Begegnung mit Robotern in Alltagssituationen. Hauptberuflich ist sie als Digital Marketing Consultant tätig. Zora Naef studiert Deutsche Sprach- und Literaturwissenschaft sowie Geschichte im Master an der Universität Zürich. Daneben absolviert sie das Lehrdiplom für Maturitätsschulen und arbeitet im Max Frisch-Archiv an der ETH-Bibliothek in Zürich. Jana Seebass studiert Deutsche Sprach- und Literaturwissenschaft sowie TVA (Deutsche Literatur: Theorie - Analyse - Vermittlung) im Master an der Universität Zürich und verfasste ihre Bachelorarbeit über die Figur der Kriemhild im Nibelungenlied. Parallel zum Masterstudium absolviert sie die Lehrdiplomsausbildung. Rahel Staubli studiert Deutsche Sprach- und Literaturwissenschaft im Master an der Universität Zürich und hat ihre Bachelorarbeit zum Thema Native Advertising als journalistische Werbung. Stil und Funktion eines neuen Werbeformats geschrieben. Ilona Straub studierte Kommunikationswissenschaft und Germanistik an der Universität Duisburg-Essen und promovierte an der Carl von Ossietzky Universität Oldenburg am Institut für Sozialwissenschaften. Sie absolvierte während ihrer Promotion ein Forschungsjahr in einem Robotiklabor in Japan und arbeitet derzeit an einem Postdoc-Projekt zu teleoperierten Mensch-Roboter-Interaktionen. Roberto Tanchis studiert Germanistik und Anglistik im Master an der Universität Zürich. In seiner Bachelorarbeit analysierte er das Vorkommen multimodaler Elemente in WhatsApp-Gruppenchats. Leonie Walder studiert Germanistik und Philosophie im Master an der Universität Zürich. Ihre Bachelorarbeit hat sie über die politische Funktion des Mythos in Christa Wolfs Kassandra geschrieben. Sie ist derzeit auch als Lehrbeauftragte tätig. Florina Zülli studiert Germanistik und Allgemeine und Vergleichende Literaturwissenschaft im Master an der Universität Zürich. Ihre Masterarbeit befasst sich mit den Ansprüchen, Herausforderungen und Möglichkeiten einer partnerschaftlichen Roboter-Mensch-Beziehung. Register 275 Register Akteur 50, 133, 135 f., 138-142, 146 f., 194 Alexa 10, 18, 71, 97, 125, 149, 238, 241 android 19, 21, 32, 52, 126, 135 ff., 143, 180 Animation 43, 71, 75, 82 Animoji 70-81 Anonymität 74, 137 antropomorph 11 f., 20, 85 f., 118, 122, 133, 177, 181, 184, 195, 197 ff. App 32, 34, 36, 69, 102, 109 ff., 117, 125, 150, 234, 240 f. asynchrone Kommunikation. Siehe Kommunikation Audiovisualität 69 f., 75, 79, 137 Automat 11-14 autonom 141, 146, 183, 265, 268 autonom fahrendes Auto 16 Avatar 42, 69, 77, 82, 219 Bot 18, 89, 98, 193, 201, 204 CASA-Effekt 197 f., 203 Chatbot 8 f., 191 Computer 8 f., 20, 69, 80, 88, 191, 195, 215 f. Cosplay 97 Cyborg 24, 249-253, 256 f., 262 f., 268 Datensicherheit 17 Dating 23, 102 ff., 106, 108-111, 115, 119, 124, 126 Deep Learning 216 Dialog 10, 17 f., 34, 48, 53 f., 125, 223 digitale Kommunikation. Siehe Kommunikation E-Mail 23, 31 f., 36 f., 45, 47-54, 65-69, 80, 227, 232, 238 Emoji 39, 43, 69, 71 f., 74-77, 81 f., 117 f. Erwartungshaltung 17, 23, 54, 108, 116, 133-136, 138-142, 145 ff., 154 f., 181, 202, 219 Ethik 10, 16, 19, 21, 24, 42, 181, 183, 188, 200, 204 f., 217, 263-269 Facebook 8, 85, 87, 110, 230 Face-to-Face-Gespräch 9, 33, 78, 102, 111 Follower*in 23, 85-88, 91 ff., 95, 97 ff. Gender 211, 217-220, 222 f. Gesprächssequenz 153 GIF 38-41, 71, 118 Google Assistant 18 Hologramm 125 f. Human Enhancement 249-253, 263 ff. humanoid 17, 19 f., 124, 133, 145, 149 f., 155, 191, 193, 198 f., 201 iMessage 23, 31 f., 35 ff., 43 ff., 47-54, 61-64, 71, 73 Industrie 11 f., 14, 16, 19, 133, 149, 259 Influencer*in 23, 85-89, 91, 93, 96-100, 228 Instagram 8, 23, 69, 73, 85-90, 92 f., 95-99 Instant-Messanging 32, 35, 45, 70 Interaktion 9, 13, 16, 18, 20, 48, 102, 106, 111, 116, 125, 133 ff., 146 f., 163 f., 178 f., 182 f., 191 f., 194 f., 197, 230 interpersonale Kommunikation. Siehe Kommunikation IT 217, 219 f. Koch / Oesterreicher-Modell 54 Kognition / kognitiv 107, 138 f., 142 f., 145 f., 178, 182, 192, 202 276 Register Kommunikation asynchrone 32, 34-37, 47, 50-54, 78 digitale 18, 33, 38, 70 f., 73, 80 interpersonale 8 f., 23 massenmediale 9 quasi-synchrone 32 ff., 47 f., 50, 52, 54, 78, 228 synchrone 31-37, 45, 47-52, 78 Kommunikationsproblem 152, 155, 161 ff., 193 Kontrolle 35 f., 178, 181, 222 Körper 19, 24, 75, 77, 137, 220 Künstliche Intelligenz 11, 15, 21 f., 119, 124, 149, 164, 180, 182 f., 193, 211, 215, 220 Liebespuppe 119 Maschine 7-24, 71, 80, 85, 102, 118 f., 121 f., 126, 149, 177, 179-184, 187 ff., 191-195, 197, 214 f., 217 f. Maschinenlernen 180, 183 massenmediale Kommunikation. Siehe Kommunikation Massenmedien 226, 229 Matching 103, 109 ff., 114 ff. Medienkompetenz 228, 240 Medium / Medien 9, 35, 38 f., 49, 69, 74, 85 ff., 99, 102, 119, 150, 155, 194 f., 228-231 Memoji 42 f., 72, 74, 76, 80, 82 menschenähnlich 19 f., 23, 85, 124, 133, 180 f., 183, 188, 195, 198, 202 f. Mensch-Maschine-Interaktion 16, 25, 125, 182 Mensch-Maschine-Kommunikation 7-11, 15 f., 19, 22 ff., 149, 181, 192, 194, 197 Multimodalität 31 f., 37 f., 40, 43, 45, 47 f., 51, 53 f., 137, 231 nähesprachlich 33, 38, 53 f., 107 Netflix 23, 97, 149, 152 neuronales Netz 215 f., 222 Nutzer*in 23, 32 f., 39, 42, 45, 52 f., 74 f., 77, 79, 82, 93, 100, 102, 104, 106, 109 f., 116, 120 f., 135, 139, 145, 182, 188, 191 öffentlicher Diskurs 226, 241 Online-Dating-App 108, 110 Opinion Leader 87 Parship 23, 102, 104, 106-111, 118 Pepper 9, 19 f., 149, 188, 199 f. Performance 81, 264 Programmierung 15, 24, 156, 197, 199, 204, 215, 222 quasi-synchrone Kommunikation. Siehe Kommunikation Responsivität 142, 152 ff., 162 f. Roboter 8-17, 19 ff., 23, 25, 77, 85, 118 ff., 122, 124 ff., 133, 135-147, 149 f., 155, 160 f., 164, 177, 180-189, 191-195, 197 ff., 201-204, 252, 259, 262 Partner- 149 f., 155, 160-164 Pflege- 15, 23 f., 119, 126, 133, 180, 187, 191-195, 197-205 Service- 14 f., 119, 133, 191 f., 200 Sex- 15, 119 ff., 123 sozialer 15, 19, 123 ff., 133, 135, 138, 177, 181-184, 191-194, 197, 204, 262 Robotik 12 ff., 21, 119 f., 122, 124, 133 Selbstinszenierung 100 Selfie 80, 85, 92 f., 99 Singlebörse 103, 105 f., 109 Siri 10, 17, 24, 71, 97, 125, 149, 215, 218, 222, 238, 241 Smart Home 24, 211, 222, 226, 230 f., 234-238, 240, 242 f. Smartphone 8 f., 43, 69 ff., 73, 79 ff., 88, 110, 152, 154, 162, 211, 222, 226, 255, 260, 265 Social Presence 194 f., 197 f. Software 45, 47, 215, 222, 228 Register 277 soziales Netzwerk 17, 49, 97, 100 Sprachassistenz 8, 10, 17 f., 24, 71, 97, 121, 125, 149, 211, 213 ff., 218-224, 241 Sprachnachricht 39, 69, 77-80, 82 Sprachsteuerung 80, 82 Sprachverarbeitung 215 Sprecherwechsel 153, 155 f., 158 Stereotyp 24, 74 f., 120, 195, 212 ff., 218, 220-224 Swipen 110 f., 117 f. synchrone Kommunikation. Siehe Kommunikation Technik 8 f., 12 ff., 16 f., 19 f., 23 f., 31-38, 47 f., 51-54, 69, 71, 73, 75, 108, 118 f., 133, 135, 137, 139, 145, 180, 182 f., 187 f., 200 f., 203 ff., 214, 219, 226-232, 234, 237 f., 242 f., 250-253, 256, 261 f., 264, 266, 268 Teleoperation 135 f., 138 Textnachricht 75, 79 ff. Tinder 23, 102, 108-118 Training 202, 215 Transformation 249, 262, 264 Transhumanismus 24, 249 ff., 253, 262 f., 266 Tweet 18, 150, 155 Twitter 18, 85, 87 f., 219 Uncanny Valley 85, 122, 194 f., 198 f. Vertrauen 10, 16-19, 22 f., 85, 91, 177- 184, 188 f., 191, 193, 195, 197, 201, 203 Vertrauensforschung 177 f. vertrauenswürdig 17, 23, 85, 178 f., 181 f., 184, 188 virtuell 10, 17, 24, 77, 85, 87, 97, 99, 123, 194 Voicebot 8, 18 Werkzeug 11 ff., 19 WhatsApp 9, 23, 31-37, 39 ff., 43, 45, 47 f., 50-54, 57-60, 69 f., 73, 76, 78 ff., 105 ISBN 978-3-8233-8471-7 Wie unterscheidet sich die Mensch-Maschine-Kommunikation von der Kommunikation zwischen Menschen? Lässt sich feststellen, ob ein Mensch oder eine Maschine kommuniziert? Kann man Maschinen vertrauen? Die Beiträge thematisieren diese und weitere Fragen anhand aktueller Beispiele. Im ersten Teil liegt der Schwerpunkt auf der Analyse von Nachrichten in sozialen Netzwerken und den Auswirkungen der heutigen digitalen Möglichkeiten auf die Kommunikation. In den folgenden Teilen steht die Interaktion mit Robotern (z.B. in der Altenpflege) und mit virtuellen Assistenzsystemen (z.B. Siri) im Zentrum. Hier wird u.a. gezeigt, wie Vertrauen zu Pflegerobotern aufgebaut werden kann und welche Rolle das Kommunikationsverhalten dabei spielt. Der letzte Beitrag zum Bodyhacking und zu den damit verbundenen ethischen Fragen greift nochmals die Frage nach der Grenze zwischen Mensch und Maschine auf.