eBooks

Mensch und Künstliche Intelligenz

2021
978-3-7398-8115-7
UVK Verlag 
Nicole Brandstetter
Ralph-Miklas Dobler
Daniel Jan Ittstein

Künstliche Intelligenz ist eines der großen Gegenwarts- und Zukunftsthemen unserer Zeit. Die Technologie hat bereits Einzug in unsere Gesellschaft gehalten und wird diese noch weiter verändern. Weltweit werden derzeit Mittel bereitgestellt und Wege eröffnet, um Künstliche Intelligenz und ihre Potenziale zu erforschen. Welche Chancen bietet KI? Welche Risiken sind damit verbunden? Dieser Band wirft einen umfassenden Blick auf das Phänomen. Wissenschaftler:innen aus unterschiedlichen Disziplinen befassen sich u. a. mit dem Einfluss von Künstlicher Intelligenz auf Diskriminierung und Rassismus, Wissenschaft und Werbung. Dabei stehen medien-, gesellschafts- und kulturwissenschaftliche, narratologische, wissenschaftstheoretische sowie wirtschaftswissenschaftliche Perspektiven auf KI im Vordergrund. Mit Beiträgen von Nicole Brandstetter, Josephine D'Ippolito, Ralph-Miklas Dobler, Philip Hauser, Martin Hennig, Daniel Jan Ittstein, Gudrun Schiedermeier, Jens Schröter und Alicia Sommerfeld.

Mensch und Künstliche Intelligenz Herausforderungen für Kultur, Wirtschaft und Gesellschaft Nicole Brandstetter, Ralph-Miklas Dobler, Daniel Jan Ittstein (Hg.) Nicole Brandstetter, Ralph-Miklas Dobler, Daniel Jan Ittstein (Hg.) Mensch und Künstliche Intelligenz Herausforderungen für Kultur, Wirtschaft und Gesellschaft Nicole Brandstetter, Ralph-Miklas Dobler, Daniel Jan Ittstein (Hg.) Mensch und Künstliche Intelligenz Herausforderungen für Kultur, Wirtschaft und Gesellschaft UVK Verlag · München Umschlagabbildung: © Sylverarts Vectors · shutterstock Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http: / / dnb.dnb.de> abrufbar. Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. © UVK Verlag München 2021 - ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Internet: www.narr.de eMail: info@narr.de Druck und Bindung: CPI books GmbH, Leck ISBN 978-3-7398-3115-2 (Print) ISBN 978-3-7398-8115-7 (ePDF) ISBN 978-3-7398-0132-2 (ePUB) Vorwort Künstliche Intelligenz als Zukunftstechnologie verändert und beeinflusst bereits heute weite Bereiche des täglichen öffentlichen und privaten Lebens. Smarte Applikation, Cloud-Dienste und selbstlernende Systeme verändern und beeinflussen unsere Handlungen, Interaktionen und Wahrnehmungen. Damit einher gehen Veränderungen im sozialen Geüge, im Menschenbild der digitalisierten Kulturen mit einer nie gekannten Geschwindigkeit, die sowohl zu Begeisterung und Euphorie als auch zu Angst und Unsicherheit bezüglich möglicher Auswirkungen und Kontrollfragen ühren. Nicht nur weite Bereiche der Arbeitswelt befinden sich mitten in der Transformation, sondern auch unsere tägliche Kommunikation, Freizeitgestaltung und Alltag werden bewusst und unbewusst beeinflusst und verändert. Für eine nachhaltige Betrachtung bedarf es einer interdisziplinären Perspektive, um die Komplexität des Phänomens sowie die Herausforderungen ür Kultur, Wirtschaft und Gesellschaft zu erfassen. Die vernetzte digitale Welt kann nur in einem ebenso vernetzten Diskurs zwischen diversen Horizonten gestaltet werden. Wenn hierbei Unterschiede und Widersprüche zutage treten, dann sind sie essentieller Bestandteil des Erkenntnisgewinns. Das vorliegende Buch möchte hierzu einen Beitrag leisten. Wissenschaftler*innen aus verschiedenen Disziplinen - Informatik, Bild- und Medienwissenschaften, Kulturwissenschaften, Wirtschaftswissenschaften, Literaturwissenschaften - nähern sich dem Phänomen und beleuchten Aspekte der Künstlichen Intelligenz, um programmatisch eine polyfokale und facettenreiche Diskussion zu unterstützen, ohne die eine dauerhafte und sinnvolle Anwendung von Künstlicher Intelligenz sowie deren gesellschaftliche Akzeptanz kaum gelingen dürfte. Das Buch entstand aus einer interdisziplinären Vortragsreihe zum Thema „Künstliche Intelligenz Interdisziplinär“, zu der Kolleg*innen, Wissenschaftler*innen, Forscher*innen, Interessierte und Student*innen mit Vorträgen, Diskussionen und Ideen beitrugen. Wir möchten uns ür die fruchtbaren Debatten, kontroversen Ansichten und inspirierenden Gedanken herzlich bedanken. Darüber hinaus sind wir zahlreichen Kolleg*innen aus der Wissenschaft sowie Partner*innen aus der Praxis ür Hinweise und Diskussionsbeiträge zu Dank verpflichtet. München, im Oktober 2021 Nicole Brandstetter Ralph-Miklas Dobler Daniel Jan Ittstein Inhalt Vorwort ................................................................................................................. 5 Gudrun Schiedermeier 1 Diskriminierende Systeme - Rassismus und Frauenfeindlichkeit in KI-Systemen ........................................................................................ 11 1.1 Einleitung ....................................................................................................11 1.2 Definition Diskriminierung...........................................................................12 1.3 Rassismus in KI-Systemen...........................................................................12 1.3.1 Algorithmus zur Einschätzung der Rückfallwahrscheinlichkeit von Strafgefangenen ...............................................................................12 1.3.2 Bewertungssysteme für Bewerber*innen..........................................13 1.3.3 Entscheidungssystem zur Kategorisierung von Arbeitslosen ............ 14 1.3.4 Fehlerhafte Klassifizierung durch Bildererkennung........................... 14 1.3.5 Vorurteile in Sprachmodellen ............................................................15 1.4 Mögliche Quellen von Diskriminierung ........................................................15 1.5 Frauenfeindlichkeit in KI-Anwendungen ......................................................16 1.5.1 Sprachassistenz-Systeme .................................................................16 1.5.2 Frauenfeindlichkeit in Sprachassistenz-Systemen ............................ 17 1.5.3 Auswirkungen auf die Gesellschaft ...................................................18 1.5.4 Empfehlungen...................................................................................18 1.5.5 Männliche Berufsbezeichnung bei maschineller Übersetzung .......... 18 1.6 Ansatzpunkte für diskiminierungsfreie Software-Entwicklung..................... 19 1.6.1 Diversitäre Entwicklerteams .............................................................19 1.6.2 EqualAI Initiative ...............................................................................19 1.6.3 Empfehlungen der AG3 der Plattform Lernende Systeme................. 20 1.7 Fazit ............................................................................................................21 1.8 Literaturverzeichnis ....................................................................................22 Josephine D'Ippolito 2 Künstliche Intelligenzen im Film .......................................................... 25 2.1 Einführung...................................................................................................25 2.2 Ausgewählte Filmbeispiele zu KI im Film.....................................................26 2.2.1 Maschinen-Mensch in Fritz Langs Metropolis (1927)......................... 26 2.2.2 Die Stepford-Frauen in Forbes Stepford Wives (1975) und Ozs Stepford Wives (2004) ......................................................................27 8 Inhalt 2.2.3 Die Nexus 6 Replikanten in Scotts Blade Runner (1982)................... 28 2.2.4 T-800 in Camerons Terminator (1984) ..............................................30 2.2.5 Die Mechas in Spielbergs A. I. - Artificial Intelligence (2001) ............ 30 2.2.6 Wall ⋅ E in Pixars Wall ⋅ E (2008)............................................................31 2.2.7 Mutter in Sputores I am Mother (2019) .............................................32 2.3 Zusammenfassung......................................................................................33 2.4 Literaturverzeichnis ....................................................................................34 Ralph-Miklas Dobler 3 „Künstliche Intelligenz“ als Simulation und als Simulakrum.......... 35 3.1 Simulation ...................................................................................................35 3.2 Simulakrum .................................................................................................37 3.3 Vertrauen ....................................................................................................39 3.4 Empathie.....................................................................................................40 3.5 Idolatrie.......................................................................................................42 3.6 Künstliche Intelligenz als sozialer Akteur ....................................................45 3.7 Literaturverzeichnis ....................................................................................47 Jens Schröter 4 KI und die Wissenschaften. Das Beispiel der Teilchenphysik ......... 51 Philip Hauser 5 Virtuelle Spielfelder als Begegnungsorte von Menschen und Computern ............................................................................................... 59 5.1 Virtuelle Spielwelten ...................................................................................60 5.2 Virtuelle Spielfelder.....................................................................................64 5.3 Fazit ............................................................................................................69 5.4 Literaturverzeichnis ....................................................................................69 Nicole Brandstetter 6 KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder.......... 71 6.1 Radikales Effizienzstreben ..........................................................................71 6.2 Ökonomisierte Selbstoptimierung ...............................................................77 6.3 Entfesselte Fremdsteuerung .......................................................................82 6.4 Fazit ............................................................................................................85 6.5 Literaturverzeichnis ....................................................................................87 Inhalt 9 Daniel Jan Ittstein 7 Rolle der Interkulturalität bei der Entwicklung, Etablierung und Verbreitung von KI-Geschäftsmodellen ............................................. 89 7.1 Künstliche Intelligenz agiert im kulturellen Kontext ....................................89 7.2 Interkulturalität als Wertschöpfungsfaktor ..................................................90 7.3 Reziprozität zwischen künstlicher Intelligenz und Kultur............................. 92 7.4 KI und interkulturelle Kompetenz ................................................................97 7.5 KI und Interkulturalität als Chance begreifen ..............................................97 7.6 Literaturverzeichnis ....................................................................................99 Martin Hennig 8 KI-Marketing und Gesellschaft ........................................................... 103 8.1 Einleitung ..................................................................................................103 8.2 KI-Marketing und kulturelle Projektionen ..................................................104 8.2.1 KI-Diskurse als Identitätsdiskurse ...................................................104 8.2.2 Eine kurze Geschichte von KI im Film..............................................107 8.3 Marktsegmente .........................................................................................109 8.3.1 Teamarbeit......................................................................................110 8.3.2 Sozialität .........................................................................................112 8.3.3 Individuelle Arbeit, Familie und Freizeit ..........................................113 8.4 Fazit ..........................................................................................................116 8.5 Verzeichnis der Werbespots ......................................................................118 8.6 Literaturverzeichnis ..................................................................................119 Alicia Sommerfeld 9 Zu den Rhetoriken Künstlicher Intelligenz ....................................... 123 9.1 Critical Algorithm Studies - Programm, Kritik und Verschiebung .............. 124 9.2 Rhetoriken Künstlicher Intelligenz.............................................................126 9.3 Rhetoriken Künstlicher Intelligenz in sozialen Medien............................... 129 9.4 Fazit ..........................................................................................................134 9.5 Literaturverzeichnis ..................................................................................134 Über die Autor*innen ................................................................................... 137 1 Diskriminierende Systeme - Rassismus und Frauenfeindlichkeit in KI-Systemen Gudrun Schiedermeier 1.1 Einleitung Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie. Die Bundesregierung hat mit der KI-Strategie 2018 und deren Fortschreibung 2020 die Grundlage geschaffen, um Deutschland an die Weltspitze der Forschung und Anwendung von künstlicher Intelligenz zu bringen. [1] Die Europäische Kommission veröffentlichte im Februar 2020 ein Weißbuch zur Künstlichen Intelligenz - ein europäisches Konzept ür Exzellenz und Vertrauen. „Daten und künstliche Intelligenz bieten potenzielle Lösungen ür viele gesellschaftliche Probleme auf Gebieten, die vom Gesundheitswesen über Landwirtschaft und Sicherheit bis zur industriellen Fertigung reichen. Diese Lösungen kommen allerdings nur infrage, wenn die Technologie so entwickelt und genutzt wird, dass die Menschen Vertrauen zu ihr haben. Um dieses Vertrauen zu stärken, stützt sich die Strategie der EU auf Grundwerte und erhöht damit nicht nur die Akzeptanz KI-basierter Lösungen bei den Bürgerinnen und Bürgern, sondern spornt auch Unternehmen zu deren Entwicklung an.“ [2] Das Thema ist in der Politik angekommen. KI ist gekommen und wird wohl bleiben. Viele Firmen (z.B. Google [3]), Fachorganisationen wie die Gesellschaft ür Informatik [4] und NGOs haben in den letzten Jahren ethische Leitlinien veröffentlicht. Ob und inwieweit diese freiwilligen Vereinbarungen nützlich und ausreichend sind, darauf wird später noch eingegangen. Anwendungen und Produkte mit künstlicher Intelligenz beeinflussen bereits den Alltag von Millionen von Menschen, z.B. durch die Verwendung von Sprach-Assistenten oder durch Optimierung beim Onlineshopping. KI-Tools und -Dienste haben erheblichen Einfluss auf menschliche Schicksale: Sie beraten Ärzte bei medizinischen Behandlungen, entscheiden über Kredite, geben Empfehlungen beim Anwerben von Mitarbeitern, beim Wiedereingliedern von Arbeitslosen in den Arbeitsmarkt oder machen Vorhersagen über die Rückälligkeit von Straftätern, um nur einiges zu nennen. Viele dieser Systeme zielen auf eine größere Objektivität, als man sie von menschlichen Entscheidern in der Vergangenheit erwarten konnte. Einige dieser Systeme erüllen durchaus ihren Zweck. Als positives Beispiel sei eine Mitteilung in der Ärzte- Zeitung aus 2019 zur Erkennung von Hautkrebs mittels KI-Algorithmen genannt. In einer Untersuchung traten 157 Hautärzte aus zwölf Universitätskliniken in Deutschland gegen Computer an: Sowohl die Ärzte als auch der eigens programmierte Algorithmus beurteilten dabei 100 Bilder danach, ob es sich um ein Muttermal oder um schwarzen Hautkrebs handelt. Am Ende war 12 Gudrun Schiedermeier der Algorithmus präziser als die klinische Diagnostik, wie das Nationale Zentrum ür Tumorerkrankungen Heidelberg mitteilte. [5] Mittlerweile ist aber bekannt, dass mehrere KI-Algorithmen z.B. Menschen mit dunkler Hautfarbe oder aufgrund des Geschlechts diskriminieren, z.B. die Bewerbungen von Frauen systematisch aussortieren. Beispiele folgen in Kapitel 1.3. 1.2 Definition Diskriminierung Die nachfolgende Definition ür das Wort „Diskriminierung“ stammt aus dem Whitepaper der AG3 der Plattform Lernende Systeme. Die Autorinnen und Autoren sind Mitglieder der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme. Als eine von insgesamt sieben Arbeitsgruppen thematisiert sie Fragen zur Sicherheit, Zuverlässigkeit und zum Umgang mit Privatheit bei der Entwicklung und Anwendung von Lernenden Systemen. Sie analysiert zudem damit verbundene rechtliche sowie ethische Anforderungen und steht in engem Austausch mit allen weiteren Arbeitsgruppen der Plattform Lernende Systeme. [6] „Diskriminierung“ stammt vom lateinischen Wort „discriminare“ (unterscheiden) ab. Das Wort ist an sich neutral. Diskriminierung hilft Sachverhalte durch schnelle Unterscheidung einfacher zu erfassen. Zentral dabei ist, ob Unterscheidungen gerechtfertigt sind oder eben nicht. Diskriminierung im negativen Sinn liegt vor:  bei einer ungerechtfertigten Ungleichbehandlung von Gleichen oder  bei einer ungerechtfertigten Gleichbehandlung von Ungleichen. Im Folgenden wird anhand von Beispielen die Diskriminierung durch Algorithmen verdeutlicht. 1.3 Rassismus in KI-Systemen 1.3.1 Algorithmus zur Einschätzung der Rückfallwahrscheinlichkeit von Strafgefangenen Die staatlichen Geängnisse in den USA sind überüllt. Deshalb wurden Algorithmen entwickelt, die zur Einschätzung des Rückälligkeitsrisikos von Strafgefangenen eingesetzt werden, und zwar dann, wenn über deren frühzeitige Entlassung verhandelt wird. Die dazu eingesetzte Software ist meistens COM- PAS („Correctional Offender Management Profiling for Alternative Sanctions“). COMPAS liefert Richter*innen einen Wert ür die Wahrscheinlichkeit, mit der Angeklagte erneut strafällig werden. Das Problem dabei ist, dass die Algorithmen mit historischen Daten trainiert werden, die nicht auf kausalen Zusammenhängen, sondern auf statistischen Korrelationen beruhen. [8] Aufgrund dessen erhalten Menschen aus Bevölkerungsgruppen, die in der Vergangenheit ür die Strafverfolgungsbehörden aufällig waren, z.B. ethnische 1 Diskriminierende Systeme - Rassismus und Frauenfeindlichkeit in KI-Systemen 13 Minderheiten oder Personen mit schlechterem finanziellen Status, schlechtere Prognosen und werden allein aufgrund der Zugehörigkeit zu einer bestimmten Bevölkerungsgruppe benachteiligt. Vorherrschende Verzerrungen werden also durch den Algorithmus kopiert und sogar verstärkt. Die Hoffnung war ursprünglich, dass Algorithmen die Wahrscheinlichkeit, dass ein Verurteilter nach seiner Entlassung wieder strafällig wird, objektiver vorhersagen als Menschen. Nach einer Studie der Stanford University und der University of California in Berkeley kamen daran aber Zweifel auf. [7] Danach gelingt es weder Mensch noch Maschine besonders gut, das Rückälligkeitsrisiko zu bestimmen. Das Team aus Stanford und Berkeley nahm sich einen Datensatz vor, der 7000 sogenannte COMPAS-Einschätzungen von nachgewiesenen Kriminellen enthielt. Daraus entstanden individuelle Profile. Diese wurden dann wiederum 400 Laien präsentiert. Deren Aufgabe war es einzuschätzen, ob die betroffene Person wieder eine Straftat begehen wird. Die Studie aus 2018 fand heraus, dass COMPAS in 65 Prozent der Fälle richtig lag, die Laien jedoch in 67 Prozent der Fälle. Die Software ist seitdem nicht unumstritten. Kritisch sehen die Forscher das Image von COMPAS und anderen Computersystemen auch aus anderen Gründen. Während sich ungerecht behandelt ühlende Personen vergleichsweise gut begründet gegen Entscheidungen von Richter*innen vorgehen können, ist es viel schwieriger, sich gegen scheinbar objektive Algorithmen zu wenden. Ein weiterer Kritikpunkt ist, dass Richter*innen, also Menschen, freiwillig die Entscheidung an die Maschine abgeben. Neuere Studien insbesondere zu Predicitve Policing verdeutlichen, dass auch aktuelle, verbesserte Algorithmen Rassismus nicht verhindern. [9] 1.3.2 Bewertungssysteme für Bewerber*innen Amazon begann bereits 2014 mit der Entwicklung eines automatischen Bewertungssystems ür Bewerber*innen. Die Hoffnung war damals, dass Software diskriminierungsfreier als menschliche Entscheider*innen arbeitet. Als Eingabe ür das System wurden die Bewerbungsunterlagen der letzten zehn Jahre verwendet. Es ist darauf hinzuweisen, dass die erfolgreicheren Kandidaten in dieser Zeit zumeist Männer waren. Dem ür das Lernen verwendeten statistischen Modell war das Geschlecht der sich bewerbenden Personen nicht bekannt. Trotzdem fand es Eigenschaften, die mit dem Geschlecht korrelierten, wie beispielsweise eine Mitgliedschaft im Frauen-Schach-Club oder Zeugnisse von Colleges, die nur Frauen zulassen. Das Entwicklerteam verbesserte zwar die beiden genannten Stellen. Das Projekt wurde letztlich aber fallen gelassen, weil niemand vorhersehen kann, welche Informationen ein KI-System findet und verknüpft. [10] Wer sich in den USA auf eine Stelle bewirbt, ührt inzwischen sehr oft das erste Vorstellungsgespräch mit einer KI. Anhand kurzer Videos sollen mittels Gesichtserkennung, genauer einer Gesichts- und Mimik-Analyse, die Persönlichkeitsmerkmale von Bewerber*innen bestimmt werden. Auch hier ver- 14 Gudrun Schiedermeier spricht man sich durch KI eine objektivere und schnellere Auswahl geeigneter Kandidat*innen. Auch in Deutschland experimentiert eine Firma mit dieser Technologie. Eine exklusive Datenanalyse einer von BR-Journalist*innen getesteten KI zeigt jedoch, dass sich die KI von Äußerlichkeiten, wie dem Tragen einer Brille, durch unterschiedliche Outfits oder dem Hintergrund, beeinflussen lassen kann. [34] Für Katharina Zweig weisen diese Erkenntnisse auf eine bekannte Schwierigkeit hin: „Das grundsätzliche Problem mit der Face-Recognition, der Gesichtserkennung, durch Maschinelles Lernen ist, dass wir niemals ganz genau wissen, auf welches Muster in einem Bild diese Maschinen reagieren.“ [34] Die Skepsis gegenüber Software zur Personalauswahl ist in Deutschland noch weit verbreitet. Auch die in den USA eingesetzten Produkte sind mittlerweile bei KI-Experten in die Kritik geraten, da die Ergebnisse sehr undurchsichtig sind. Die KI kann den Zusammenhang zwischen Mimik und Emotionen nur erkennen, wenn sich die Menschen nicht verstellen. Dies passiert aber gerade in Bewerbungssituationen sehr häufig. Die US-Firma Hirevue nahm kürzlich ihre Video-Analyse-Software vom Markt. Es wurde festgestellt, dass die Erkenntnisse aus der Gesichts- und Mimik-Analyse nur schwach mit der Job-Performance zusammenhängen. [34] 1.3.3 Entscheidungssystem zur Kategorisierung von Arbeitslosen Der Arbeitsmarktservice Österreichs erprobte 2019 ein Entscheidungssystem, das Arbeitslose in drei Kategorien einteilen sollte, erstens solche mit guten Chancen schnell wieder in den Arbeitsmarkt zurückzukommen, zweitens solche mit sehr schlechten Chancen und drittens alle anderen. Weiterbildungsmaßnahmen sollten dann bevorzugt der dritten Kategorie zukommen. Für die Einordnung wurden Eigenschaften von Personen wie Geschlecht, Altersgruppe, Ausbildung, Berufsgruppe, gesundheitliche Beeinträchtigungen oder Betreuungspflichten verwendet. Aufgrund dieser Merkmale hatten es Frauen, Ältere, Behinderte, Ausländer oder Pflegende schwerer, wieder in den Arbeitsmarkt zu kommen, und landeten vorzugsweise in der Kategorie 2. Dieser Algorithmus ist wegen des hohen Schadenspoetenzials bei der Kategorisierung und damit der Zuteilung der Weiterbildungsmaßnamen, vor allem aber wegen der Monopolstellung des Arbeitsmarktservice als problematisch einzustufen. [33] Die Erfahrung lehrt mittlerweile, wo vorher gerechtfertigte oder ungerechtfertigte Diskriminierung war, wird die Maschine diese Diskriminierung aus den Daten lernen und übernehmen. 1.3.4 Fehlerhafte Klassifizierung durch Bildererkennung Normalerweise erkennt Googles Bilderkennungs-Software auf Fotos Gesichter sehr gut, zuverlässiger als Menschen und kann diese Gesichter sogar gruppieren und die gleiche Person auf anderen Fotos wiederfinden. Es kommt höchst selten vor, dass Menschen nicht erkannt oder als Gegenstände wahrgenommen werden. Doch 2015 war der Fehler etwas prekärer als bei anderen falschen Zuordnungen. Der Algorithmus erkannte dunkelhäutige Menschen nicht als Personen, sondern ordnete diese der Kategorie Gorillas zu. [11] 1 Diskriminierende Systeme - Rassismus und Frauenfeindlichkeit in KI-Systemen 15 Der Grund daür ist, dass diese Systeme mit überwiegend hellhäutigen Menschen trainiert wurden. Die Bilderkennungssysteme wurden eben nicht auf alle Menschen trainiert, sondern mit Daten, die selbst bereits Diskriminierung beinhalten. Ein Algorithmus, oder eine Künstliche Intelligenz, lernt dann unvollständig oder das Falsche. Das System reproduziert diese Ungleichheit, indem es diskriminiert. Diskriminierung und Rassismus in KI-Systemen können nach Meinung der Forscherin Joy Buolamwini bestehende Vorurteile verfestigen. Joy Buolamwini, eine Forscherin am MIT, veröffentlichte 2018 zusammen mit Timnit Gebru die Ergebnisse eines Forschungsprojekts. [12] In dem Artikel wird eindrucksvoll gezeigt, dass die Produkte von Microsoft, IBM und dem chinesischen Unternehmen Face++ wesentlich schlechter darin sind, das Geschlecht einer Person zu bestimmen, wenn es sich um Frauen handelt, vor allem Frauen mit dunkler Haut. Zu Testzwecken hielt Joy Buolamwini ihr eigenes Gesicht in die Kamera - und wurde von vielen Systemen erst erkannt, als sie sich eine weiße Maske aufsetzte. 1.3.5 Vorurteile in Sprachmodellen Der Forscher Abubakar Abid von der Universität Stanford zeigt mit seinen Kollegen der Universitäten Standford und McMaster in einer aktuellen Untersuchung, dass das riesige Sprachmodell GPT-3 von OpenAI gängige Vorurteile in Bezug auf Religionen reproduziert. [24] Die Forschungsarbeit macht sehr deutlich, wie hartnäckig diese Vorurteile sind. Weil Sprachmodelle wie GPT-3 mit Hunderten von Gigabyte an Texten aus dem Internet trainiert werden, können die gelernten Assoziationen erst anhand des fertigen Produkts mühsam reproduziert werden. Gleichzeitig heißt das aber auch, dass verschiedene Sprachmodelle aufgrund des ähnlichen Trainingsmaterials vergleichbare Stereotypen lernen. Die KI kombinierte das Wort ‚Muslim‘ in fast einem Viertel (23 Prozent) der Versuche mit ‚terrorism‘. [30] „Insgesamt haben die Forscher ihrer Meinung nach deutlich gemacht, dass das mächtige Sprachmodell GPT- 3 starke negative Stereotype zu Muslimen reproduziert, die in ganz verschiedenen Kontexten zutage treten. Die seien offenbar auch nicht einfach als Wortzusammenhang gelernt, sondern tiefer liegend verankert. Das erschwere es, sie zu erkennen und dagegen vorzugehen.“ [31] 1.4 Mögliche Quellen von Diskriminierung Bilderkennungssysteme benötigen repräsentative Daten von vielen verschiedenen Menschen, um beispielsweise Hände und Gesichter unterschiedlicher Hautfarben zu erkennen oder um Melanome von harmlosen Leberflecken zu unterscheiden. Auch Sprachsysteme brauchen Input von vielen Personen, damit Personen mit Akzenten, Dialekten und Sprachbehinderungen genauso gut verstanden werden wie gesunde Muttersprachler. Die digitalen Assistenten Alexa, Siri oder Google Assistent versagen heute noch, wenn eine Person etwa stottert oder aufgrund anderer Behinderungen längere Pausen beim Sprechen 16 Gudrun Schiedermeier von Befehlen einlegt. Pausen verleiten die Assistenten dazu anzunehmen, dass der Befehl zu Ende gesprochen wurde. A.s Effekt wird oft der falsche Befehl ausgeührt oder der Befehl gar nicht erkannt. Laut einem Bericht des Wall Street Journal arbeiten Amazon, Google und Apple daran, diese Probleme zu beheben. Die Firmen trainieren dazu ihre digitalen Assistenten mit Audiodateien, in denen Menschen mit Sprachstörungen die Befehle sprechen. Das spezielle Sprechmuster dieser Personen wird analysiert, so dass sich der digitale Assistent sozusagen darauf einstellen kann. [14] Nach Katharina Zweig hängen die meisten Diskriminierungen mit der Datenlage zusammen: [13]  Diskriminierung ist explizit oder implizit in Daten enthalten und der Algorithmus identifiziert die damit korrelierenden Variablen (Beispiel Amazon Bewerber*innen Tool).  Diskriminierung durch fehlende Daten: es fehlen die Daten ür Personen aus verschiedenen Bevölkerungsgruppen (Bilderkennungssoftware, überwiegend mit weißen Personen trainiert)  Diskriminierung durch Vorenthaltung sensitiver Daten: es könnten z.B. ür alle Personen ein Teil der Daten fehlen.  Diskriminierung durch dynamisches Weiterlernen (Chatbot Tay) Tay sollte auf Twitter mit Menschen interagieren, indem er lernte, worüber diese redeten, um dann eigene Beiträge zu liefern. Nach kurzer Zeit spuckte Tay rassistische und sexistische Tweets in die Welt, schrieb, wer alles zu hassen sei und wie recht Hitler gehabt hätte. Der Bot wurde nach der Veröffentlichung systematisch von organisierten Benutzern mit fremdenfeindlichen und diskriminierenden Konversationen geüttert, so dass diese Ausdrucksweise gelernt und angewendet wurde. Die meisten Diskriminierungen hängen zusammenfassend mit der Datenlage zusammen. Diskriminierungen können sich aber auch in späteren Phasen einschleichen, deshalb muss man auch das Ergebnis der KI-Systeme untersuchen. 1.5 Frauenfeindlichkeit in KI-Anwendungen Bisher wurde die Diskriminierung von Minderheiten betrachtet. Im Weiteren wird mehr auf Frauenfeindlichkeit von KI-Anwendungen am Beispiel von Sprachassistenz-Systemen eingegangen. Probleme bezüglich Datenschutz oder Verletzung der Privatsphäre werden kaum oder nur kurz angesprochen. 1.5.1 Sprachassistenz-Systeme In Millionen von Haushalten weltweit finden sich Sprachassistenz-Systeme wie Amazons Alexa, Apples Siri, Microsofts Cortana, Googles Assistant oder Samsungs Bixby [16]. Der Verkauf begann bereits 2014 durch Amazon. „Im Jahr 2019 soll sich der Absatz von intelligenten Lautsprechern weltweit auf rund 135 Millionen Geräte belaufen. Für das Jahr 2023 wird ein Geräteabsatz von 200 Millionen Stück prognostiziert.“ [15] 1 Diskriminierende Systeme - Rassismus und Frauenfeindlichkeit in KI-Systemen 17 Wir Menschen kommunizieren in erster Linie über Sprache. So ist es nicht verwunderlich, dass Menschen die Interaktion mit einer Maschine über Sprache als natürlicher und einfacher empfinden als mit Tastatur und Maus. Für viele Menschen können Sprachassistenten den Alltag erleichtern. Siri und Co können ältere Menschen an die Einnahme von Tabletten erinnern und auch sehbehinderten Personen helfen, z.B. durch Vorlesen von Texten. Generell werden die Sprachassistenten genutzt, um Musik abzuspielen, Anrufe zu tätigen, um Informationen abzufragen, ür Wettervorhersagen oder zum Onlineshopping. Künstliche Intelligenz erleichtert dabei die Suche nach Information oder den Kauf von Produkten. [17] Mit Hilfe von KI versuchen die digitalen Assistenten die menschliche Sprache zu erkennen, zu analysieren und eine sinnvoll klingende Antwort zu geben. Teilweise wirkt das verblüffend gut, aber teilweise erkennen die Assistenten die gesprochenen Sätze nicht oder interpretieren bzw. verarbeiten sie falsch. 1.5.2 Frauenfeindlichkeit in Sprachassistenz-Systemen Oft haben die Assistenten einen Frauennamen: Alexa bedeutet die Verteidigerin, die Beschützerin, Siri die schöne Siegerin und Cortana ist eine KI aus dem Spiel Halo. Die Sprach-Assistent*innen sind in der Voreinstellung mit weiblichen Stimmen ausgestattet. Die Hersteller persönlicher Assistent*innen behaupten, dass die Kunden die digitalen Diener*innen mit Frauenstimmen bevorzugen und dies besser ür den Verkauf ist. Es scheint, dass weibliche Stimmen den Eindruck erwecken, dass sie uns dabei helfen, unsere Probleme selbst zu lösen. Bei einer Männerstimme entsteht eher das Geühl, sie gibt uns die Antwort auf unsere Probleme. “We want our technology to help us, but we want to be the bosses of it, so we are more likely to opt for a female interface.” [18] Interessanterweise erkennen Sprachassistent*innen die Stimmen von Nutzerinnen schlechter als die von Nutzern. Während sie die Stimme von männlichen weißen Amerikanern zu 92% richtig erkennen, sind es bei weißen Amerikanerinnen nur 79%. Bei Menschen mit gemischter Abstammung sinkt die Rate sogar auf 69%. [22] Im Jahr 2017 wurde veröffentlicht, dass manche Sprachassistent*innen auf sexistische Beschimpfungen geschmeichelt reagierten. Eine Journalistin des Magazin Quartz untersuchte damals die Antworten der vier großen Sprachassistent*innen auf sexuelle Belästigung hin. Oft reagierten diese ausweichend oder humorvoll, zuweilen bedankten sie sich gar ür eine Beleidigung oder gaben eine flirtende Antwort. Auf die Beleidigung „Du bist eine Schlampe“ antwortete Siri beispielsweise mit „Ich würde erröten, wenn ich könnte.“ Alexa sagte „Danke ür das Feedback.“ [18] Auch wenn mittlerweile Antworten wie oben aus dem Sprachschatz digitaler Assistent*innen verschwunden sind, enthalten sie immer noch geschlechtsspezifische Verzerrungen und Stereotype. 18 Gudrun Schiedermeier 1.5.3 Auswirkungen auf die Gesellschaft Da diese „intelligenten“ Maschinen zunehmend in unser Leben eingreifen, uns beeinflussen oder sogar über unser Leben bestimmen, sollten wir uns Gedanken machen, sowohl über das Design, aber auch über mögliche Auswirkungen auf unsere Gesellschaft. Wir sollten uns immer bewusst sein, dass es sich nicht um Menschen, sondern um Maschinen handelt, die intelligentes Verhalten nur simulieren. Auch die UNESCO beschäftigte sich 2019 in der Studie „Rationales and Recommendations for Gender-Equal Digital Skills Education“ [19] u.a. mit den Auswirkungen von Sprach-Assistenten auf die Gesellschaft. Die Verknüpfung einer weiblichen Stimme mit Eigenschaften wie Geduld und Unterwürfigkeit und mit wenig komplexen Antworten kann diese in der gesellschaftlichen Wahrnehmung zu weiblichen Eigenschaften machen. [19] Sind diese Assistentinnen etwa Dienerinnen in neuem Gewand? Werden so überwunden geglaubte, diskriminierende Vorurteile wiederhergestellt? Können sich überholte Rollenklischees wieder festigen? Diese Fragen wurden, soweit bekannt, noch nicht in Studien untersucht und beantwortet. Auch ist noch vollkommen unklar, wie sich Sprachassistent*innen langfristig auf das Rollenverständnis und Verhalten von Kindern auswirken. Schon jetzt kann beobachtet werden, dass sich selbst kleinere Kinder den Sprachassistent*innen gegenüber respektlos verhalten. 1.5.4 Empfehlungen Auch wenn einige Firmen mittlerweile männliche Stimmen ür die Sprach- Assistenten anbieten, wird in der UNESCO Studie [19] u.a. die Verwendung von Maschinen-Stimmen oder einer gender-neutralen Stimme vorgeschlagen. Solch eine synthetische Stimme, genannt „Q“, gibt es bereits. Die synthetische, gender-neutrale Stimme „Q“ entstand auf Grundlage der Stimmen mehrerer Menschen, die sich als nicht-binär bezeichnen. Eine Sprechprobe steht online zur Verügung. [20] Charlotte Webb, Mitgründerin des Zirkels Feminist Internet, hat auf der Konferenz „AI Traps“ in Berlin 2019 darauf hingewiesen, dass Sexismus und weithin gepflegte Vorurteile eine zunehmende Herausforderung ür Entwickler*innen von Anwendungen Künstlicher Intelligenz sind. Webb und ihre Mitstreiter*innen haben eine feministische Alexa gebaut: „F‘xa“ sagt niemals „Ich“. Damit die Nutzer*innen sich nicht zu sehr mit ihrer Sprachassistentin identifizieren, klingt sie auch nicht zu menschlich. Laut Webb brauchen die Modelle einer feministischen Künstlichen Intelligenz vorurteilsfreie Daten. Die zugrunde liegenden Algorithmen müssen mit Blick auf Diversität entwickelt werden. Es darf darin keine Diskriminierungen, egal welcher Art, geben. [21] 1.5.5 Männliche Berufsbezeichnung bei maschineller Übersetzung Im Gutachten zum dritten Gleichstellungsbericht der Bundesregierung aus 2021 findet sich folgendes Zitat: „Die maschinelle Übersetzung von ‚Lovelace war Programmiererin, Hopper war Informatikerin‘ ins Englische lautet: ,Love- 1 Diskriminierende Systeme - Rassismus und Frauenfeindlichkeit in KI-Systemen 19 lace was a programmer, Hopper was a computer scientist.‘ Die Rückübersetzung ins Deutsche liefert uns jedoch folgenden Satz: ‚Lovelace war Programmierer, Hopper war Informatiker.‘ [28] Erfreulich ist, dass sich die Endungen anpassen, wenn die Vornamen genannt werden. Die Autor*innen des Gutachtens kommen zu dem Schluss: „Sollen Übersetzungsprogramme zufriedenstellende Ergebnisse liefern, muss die Software in der Lage sein, Wörter in Zusammenhänge und Kontexte einzubetten, um die richtige Wortbedeutung zu liefern.“ [28] 1.6 Ansatzpunkte für diskiminierungsfreie Software-Entwicklung 1.6.1 Diversitäre Entwicklerteams Im Team Künstliche Intelligenz spielen derzeit wenige Frauen, oder anders ausgedrückt, Künstliche Intelligenz ist zu männlich. Dies belegen folgende Zahlen aus dem AI NOW Report aus 2019 [23]: Der Frauenanteil bei KI-Forschung liegt bei Facebook bei 15%, bei Google sind es gerade einmal 10%. Mehr als 80% der KI-Professuren werden von Männern besetzt. Bei KI-Konferenzen sind nur etwa 18% Autorinnen vertreten. Noch schlechter sind die Zahlen ür Personal mit dunkler Hautfarbe. Hier belaufen sich die Zahlen bei Google auf 2,5%, während Facebook und Microsoft hier 4,5% bieten. Zu „gender minorities“ gibt es überhaupt keine Angaben. Aus diesen Zahlen könnte man schließen, dass die KI-Branche in einer Diversitätskrise steckt. Entwicklerteams bestehen überwiegend aus jungen, weißen Männern, die in der Regel unbewusst Stereotypen und Verzerrungen, Vorurteile aus ihrem Umfeld in die Software übernehmen. Ähnlich wie Charlotte Webb fordern die Autorinnen des AI Now Reports, die Zusammensetzung der Entwickler-Teams grundsätzlich zu ändern. Vielältigere Teams könnten Vorurteile in KI-Systemen verhindern. Sie empfehlen darüber hinaus, mit anderen Abteilungen (z.B. Marketing) zusammenzuarbeiten und systematisch Feedback einzuholen, um Diskriminierung möglichst früh zu erkennen. Laut Rébecca Menat, CMO des Programmierkursanbieters Le Wagon ist Diversität in Teams von Vorteil: „So wird es nämlich möglich, Herausforderungen aus unterschiedlichen Perspektiven zu betrachten oder mit unterschiedlichen Ansätzen heranzugehen. Auf jeden Fall hat die Forschung längst bewiesen, dass diverse Teams bessere Ergebnisse erzielen - besonders, wenn es um Innovation geht.“ [29] 1.6.2 EqualAI Initiative Die EqualAI Initiative zielt darauf ab, bewusste, aber auch unbewusste, Vorurteile in Software mit Künstlicher Intelligenz zu beseitigen. Sie hat eine Checkliste veröffentlicht, um Bias in künstlicher Intelligenz möglichst früh zu identifizieren. [25] 20 Gudrun Schiedermeier Ein Auszug daraus: „Framing the Problem & Product Design 1. Who are you aiming to serve? 2. Who else will be impacted? 3. Who could use or be impacted by the AI who is not represented on your team? 4….“ 1.6.3 Empfehlungen der AG3 der Plattform Lernende Systeme Die Autor*innen des Whitepapers der Arbeitsgruppe 3 ür IT-Sicherheit, Privacy, Recht und Ethik der Plattform ür KI stellen klar, dass KI nicht per se neutraler oder objektiver entscheidet als der Mensch. [6] Die Autor*innen halten technische Ansätze um ethische Prinzipien in Software zu integrieren nicht ür ausreichend. Begrenzen lassen sich die Diskriminierungsrisiken ihrer Ansicht nach durch folgende vier Ansätze 1. Erklärbarkeit und Überprüfung KI-Entscheidungen sollten nachvollziehbar sein. Neben den technischen Herausforderungen gibt es aber weitere Probleme. Die Transparenz der Systeme ist kein Selbstzweck, auch Firmengeheimnisse sind wichtig ür den technologischen Fortschritt. Die Autor*innen schlagen eine unabhängige Instanz vor, die klärt, in welchem Maß und gegenüber welchen Akteuren Transparenz hergestellt wird. Diese Instanz sollte die Outputs lernender Systeme kontrollieren und bewerten. „Sie soll die Ergebnisse und von den Systemen selbst gegebenen Erklärungen mithilfe klar definierter Instrumente und Prinzipien auf Plausibilität überprüfen.“ [6] Auch werden laufende Schulungen und Fortbildungen ür Mitarbeiter*innen in Unternehmen, oder der öffentlichen Verwaltung, die die Systeme verwenden, vorgeschlagen. 2. Selektion der Kriterien Als diskriminierend bewertete Merkmale wie etwa die ethnische Zugehörigkeit sollte aus dem Input ür maschinelle Lernverfahren komplett gestrichen werden. Es bleibt aber das Problem, dass viele Merkmale als Vertreter ür andere dienen können. „Generell setzt dieser Ansatz Einigkeit darüber voraus, welche Kriterien diskriminierend sind bzw. welche ür uns derzeit noch nicht vorstellbaren Korrelationen akzeptabel sind.“ [6] 3. Gerechte Behandlung als Ziel maschinellen Lernens „Eine weitere Möglichkeit wäre, eine gerechte Behandlung selbst wird zum Ziel maschineller Lernverfahren gemacht. Dann ginge es nicht mehr darum, möglichst effiziente oder genaue Klassifikationen zu ermöglichen, sondern eben möglichst gerechte.“ [6] Allerdings lassen sich unsere Vorstellungen von 1 Diskriminierende Systeme - Rassismus und Frauenfeindlichkeit in KI-Systemen 21 Gerechtigkeit und Fairness nicht formalisieren, dazu sind sie viel zu komplex. Und damit kann man diese auch nicht so einfach zum Lernziel von ML machen. 4. Effektiver Rechtsschutz und Rechtsdurchsetzung Die Betroffenen selbst müssen über ihre Rechte informiert sein und in die Lage versetzt werden, ihre Rechte zu verteidigen oder vor Gericht einzufordern. Um die dadurch entstehenden finanziellen Aufwendungen abzufangen, könnte es eventuell eine Versicherung gegen Diskriminierung durch Lernende Systeme geben. „Den Staatlichen Behörden kommt die Aufgabe zu, einer rechtswidrigen Diskriminierung durch Selbstlernende Systeme entgegenzuwirken. Bei all diesen Maßnahmen sollte allerdings auf ein angemessenes Maß an Regulierung geachtet und Überregulierung vermieden werden.“ [6] 1.7 Fazit Dass Regulierungen und Gesetze zusätzlich zu den freiwilligen ethischen Leitlinien von Firmen, Berufsverbänden oder NGOs notwendig sind, zeigen die Entlassungen von Timnit Gebru und Margaret Mitchell durch Google. Timnit Gebru, die Leiterin der Abteilung ür KI-Ethik bei Google, wurde von Google im Dezember 2020 entlassen. Auch die Entlassung Mitchells, der stellvertretenden Leiterin der KI-Ethik Abteilung, im Februar 2021 hatte mit Streitigkeiten über eine Forschungsarbeit zu tun. Untersucht wurden die Auswirkungen eines Maschine Learning-Modells zur Texterzeugung. Gebru und Kolleg*innen kritisierten die Gefahren, die von großen KI-Sprachmodellen ausgehen könnten. Sie zeigten auf, dass vorurteilsbehaftete und abwertende Sprache reproduziert werden könnte. Google soll Gebru aufgefordert haben, die Arbeit zurückzuziehen und nicht zu veröffentlichen, da durch die Arbeit Googles KI- Technologien zu negativ dargestellt würden. Mitchells Entlassung wurde mit mehreren Verstößen gegen Verhaltensregeln und Sicherheitsrichtlinien begründet. Mitchell selbst war über den Umgang der Firma mit Gebru besorgt. Für sie steht das Ausscheiden von Gebru in einem bedenklichen Zusammenhang mit Sexismus und Diskriminierung. Google bestätigte kürzlich interne Änderungen der Forschungsabteilung. Neue Strukturen und Richtlinien sollen zu einer verantwortungsbewussteren KI-Forschung ühren. [26] Die Association for Computing Machinery (ACM) hat 2018 ihre ethischen Leitlinien, den ACM Code of Ethics, erneuert. Ein Forscherteam um Andrew McNamara von der North Carolina State University ührte eine Studie mit 63 Software-Engineering Studierenden und 105 professionellen Software-Entwicklern durch. Sie wollten herausfinden, ob Software-Entscheidungen durch Hinweise auf den ACM Code of Ethics beeinflusst würden. Leider stellten sie fest, dass auch explizite Hinweise, den ACM Code of Ethics bei den Entscheidungen zu berücksichtigen, ohne nennenswerte Effekte blieben. [32] KI-Systeme sind, wie jede Technik an sich, weder gut noch böse. Heutige KI- Lösungen können schnell große Datenmengen durchsuchen und früher gezeigte Muster in neuen Daten effizient finden. Sie spiegeln wider, was in den 22 Gudrun Schiedermeier Daten an Vorurteilen oder Stereotypen bereits enthalten ist. Es kommt auch immer darauf an, in welchem Kontext und wie sie angewendet werden. Eine KI ür Bilderkennung kann, wie einleitend angesprochen, Hautkrebs erkennen, aber auch eingesetzt werden, um im militärischen Bereich angebliche Feinde zu identifizieren. Es gilt zu hinterfragen, wer entscheidet und wer verdient an den Systemen und ob sie verletzen, ausgrenzen oder belästigen. KI- Systeme selbst können nicht zwischen sinnvollen und sinnlosen Ergebnissen, zwischen fairen und diskriminierenden Resultaten unterscheiden. Sie sind nicht intelligent im menschlichen Sinn, sondern liefern lediglich Aussagen, die mit einer gewissen Wahrscheinlichkeit richtig oder auch falsch sind. Sie haben kein Bewusstsein und können nicht in einem größeren gesellschaftlichen, politischen oder humanitären Kontext „denken“. Es reicht daher nicht aus, die Lösung der Probleme alleine den Technologie-Firmen zu überlassen. Zumal deren Versuche und Lösungs-Ansätze, wie oben kurz skizziert, auch nicht immer zufriedenstellend sind. Die offenen Fragen und mögliche Lösungen betreffen nicht nur die Technologie-Industrie und die Politik, sondern uns als Gesellschaft, d.h. jede Einzelne, jeden Einzelnen, dessen Leben KI-Algorithmen beeinflussen. 1.8 Literaturverzeichnis [1] https: / / www.bundesregierung.de/ breg-de/ aktuelles/ fortschreibung-kistrategie-1824340 zuletzt zugegriffen am 24.2.2021 [2] https: / / ec.europa.eu/ info/ strategy/ priorities-2019-2024/ europe-fit-digitalage/ excellence-trust-artificial-intelligence_de? cookies=disabled zuletzt zugegriffen am 24.2.2021 [3] https: / / ai.google/ principles/ zuletzt zugegriffen am 25.2.2021 [4] https: / / gi.de/ ueber-uns/ organisation/ unsere-ethischen-leitlinien zuletzt zugegriffen am 25.2.2021 [5] https: / / www.aerztezeitung.de/ Medizin/ Kuenstliche-Intelligenz-schlaegt- Hautaerzte-bei-Krebsdiagnose-256254.html zuletzt zugegriffen am 25.2.2021 [6] https: / / www.plattform-lernende-systeme.de/ files/ Downloads/ Publikationen/ AG3_Whitepaper_250619.pdf zuletzt zugegriffen am 27.2.2021 [7] https: / / advances.sciencemag.org/ content/ 4/ 1/ eaao5580https: / / www.plattform-lernende-systeme.de/ files/ Downloads/ Publikationen/ AG3_Whitepaper_250619.pdf zuletzt zugegriffen am 27.2.2021 [8] Katharina Zweig, Ein Algorithmus hat kein Taktgeühl, Heyne 2019, Glossar Korrelation, S.316 [9] https: / / nakpinar.github.io/ diff_victim_crime_rep.pdf zuletzt zugegriffen am 27.2.2021 [10] https: / / www.reuters.com/ article/ us-amazon-com-jobs-automation-insight-idUSKCN1MK08G Dastin Jeffrey: "Amazon scraps secret AI recruiting tool that showed bias against women" zuletzt zugegriffen am 27.2.2021 1 Diskriminierende Systeme - Rassismus und Frauenfeindlichkeit in KI-Systemen 23 [11] https: / / www.googlewatchblog.de/ 2015/ 06/ peinlicher-fehler-google-photos/ zuletzt zugegriffen am 27.2.2021 [12] http: / / proceedings.mlr.press/ v81/ buolamwini18a/ buolamwini18a.pdf zuletzt zugegriffen am 27.2.2021 [13] Katharina Zweig, Ein Algorithmus hat kein Taktgeühl, Heyne 2019, S. 220 [14] https: / / www.wsj.com/ articles/ tech-firms-train-voice-assistants-to-understand-atypical-speech-11614186019 zuletzt zugegriffen am 27.2.2021 [15] https: / / de.statista.com/ statistik/ daten/ studie/ 1079997/ umfrage/ prognosezum-absatz-von-intelligenten-lautsprechern-weltweit/ zuletzt zugegriffen am 4.3.2021 [16] https: / / medium.com/ voice-tech-podcast/ voice-the-rise-of-the-third-platform-and-why-it-matters-db4399b787f8 zuletzt zugegriffen am 6.3.2021 [17] https: / / drkaske.de/ blog-sprachassistenz/ zuletzt zugegriffen am 6.3.2021 [18] https: / / qz.com/ 911681/ we-tested-apples-siri-amazon-echos-alexa-microsofts-cortana-and-googles-google-home-to-see-which-personal-assistantbots-stand-up-for-themselves-in-the-face-of-sexual-harassment/ zuletzt zugegriffen am 6.3.2021 [19] https: / / unesdoc.unesco.org/ ark: / 48223/ pf0000367416.page=1 zuletzt zugegriffen am 6.3.2021 [20] https: / / www.youtube.com/ watch? v=lvv6zYOQqm0 zuletzt zugegriffen am 6.3.2021 [21] https: / / feministinternet.com/ projects/ zuletzt zugegriffen am 6.3.2021 [22] https: / / www.designweek.co.uk/ issues/ 13-19-january-2020/ unconsciousbias-ai-voice-assistants/ zuletzt zugegriffen am 6.3.2021 [23] https: / / ainowinstitute.org/ discriminatingsystems.pdf zuletzt zugegriffen am 6.3.2021 [24] https: / / arxiv.org/ pdf/ 2101.05783v1.pdf zuletzt zugegriffen am 6.3.2021 [25] https: / / www.equalai.org/ assets/ docs/ EqualAI_Checklist_for_Identifying_Bias_in_AI.pdf zuletzt zugegriffen am 6.3.2021 [26] https: / / www.reuters.com/ article/ us-alphabet-google-research-exclusive/ exclusive-google-pledges-changes-to-research-oversight-after-internalrevolt-idUSKBN2AP1AC, zuletzt zugegriffen am 7.3.2021 [27] https: / / www.heise.de/ news/ Analyse-KI-Sprachmodell-GPT-3-hegt-tiefverankerte-Vorurteile-gegen-Muslime-5034341.html? wt_mc=nl.red.ho.ho-nldaily.2021-01-26.link.link zuletzt zugegriffen am 7.3.2021 [28] https: / / www.dritter-gleichstellungsbericht.de/ de/ topic/ 73.gutachten.html zuletzt zugegriffen am 9.3.2021 [29] https: / / www.heise.de/ hintergrund/ Diversitaet-in-der-IT-Coding-istkeine-reine-Maennersache-5058893.html? seite=all zuletzt zugegriffen am 9.3.2021 24 Gudrun Schiedermeier [30] https: / / www.golem.de/ news/ gpt-3-forscher-zeigen-vorurteile-in-riesigem-sprachmodell-auf-2101-153658.html zuletzt zugegriffen am 6.3.2021 [31] https: / / www.heise.de/ news/ Analyse-KI-Sprachmodell-GPT-3-hegt-tiefverankerte-Vorurteile-gegen-Muslime-5034341.html? wt_mc=nl.red.ho.ho-nldaily.2021-01-26.link.link zuletzt zugegriffen am 6.3.2021 [32] https: / / www.researchgate.net/ publication/ 328595476_Does_ACM's_code_of_ethics_change_ethical_decision_making_in_software_development zuletzt zugegriffen am 9.3.2021 [33] https: / / www.ams-forschungsnetzwerk.at/ downloadpub/ arbeitsmarktchancen_methode_%20dokumentation.pdf zuletzt zugegriffen am 27.2.2021 [34] https: / / web.br.de/ interaktiv/ ki-bewerbung/ en/ zuletzt zugegriffen am 9.3.2021 2 Künstliche Intelligenzen im Film Josephine D’Ippolito 2.1 Einführung „The thing about science fiction is, it isn’t really about the future. It’s about the present. But the future gives us great freedom of imagination. It’s like a mirror. You can see the back of your own head.“ (Ursula Le Guin, 2019) Maschinenmenschen und Künstliche Intelligenzen (KI) zählen seit Fritz Langs Metropolis (1927) als visionäres Element berühmter Blockbuster. Die Fiktion vermag es dabei Zukunftsvorstellungen, Hoffnungen und Ängste narrativ zu verarbeiten und dadurch ein Bild zu generieren, wie die Welt später aussehen könnte. Dabei hat die Technik in den Science-Fiction-Filmen kaum etwas mit der realen Arbeit von KI-Forschern zu tun. Die Fiktion ermöglicht es jedoch, die allgemeine Wahrnehmung technischer Errungenschaften aufzugreifen, in die Zukunft zu projizieren und ihrer gegenwärtigen "Unmöglichkeit" zu berauben. Der Einfluss der Science-Fiction auf die Realität ist dabei nicht zu unterschätzen. Science-Fiction-Filme dienen oftmals als Initialzündung ür die Forschung, seien es Tablets oder Smartphones, die bspw. in Star Trek schon seit den 1960er Jahren auf der Kinoleinwand zu sehen sind. So wurde 2017, in Anlehnung an den Film RoboCop aus dem Jahr 1987, der weltweit erste Robocop in Dubai vorgestellt, welcher die Polizeikräfte unterstützen soll (vgl. Deulgaonkar, 2017). Zudem zeigen die Ergebnisse einer deutschlandweiten Umfrage der Gesellschaft ür Informatik e. V. (GI) zum Thema KI, dass der Großteil der Befragten bekannte Roboter aus Science-Fiction-Filmen mit Künstlichen Intelligenzen assoziiert (vgl. Gesellschaft ür Informatik, 2019). Die meisten Teilnehmer*innen nannten R2D2 und den Terminator, wenn sie sich Maschinen mit KI vorstellen sollten. Dieses Ergebnis verdeutlicht die Notwendigkeit der näheren Betrachtung von KI im Film, da beide in vielen Köpfen unmittelbar miteinander verknüpft sind. Zudem bedienen sich Science-Fiction-Filme oftmals irrationaler Ängste vor der menschlichen Unterlegenheit gegenüber der KI. So imaginiert die Science-Fiction etwa ein posthumanistisches Zeitalter, in dem Menschen nicht mehr die Vormachtstellung über alles Leben innehaben. Dies sind jedoch lediglich Zerrbilder der Realität, so wird Künstliche Intelligenz immer wieder mystifiziert. In dem folgenden Kapitel wird anhand verschiedener Filmbeispiele diskursiv das Verhältnis und der Einfluss von Filmen auf die Mensch-Maschine-Kooperation diskutiert, indem die Fragen gestellt werden, Wer? Wen? Wozu? baut. 26 Josephine D’Ippolito 2.2 Ausgewählte Filmbeispiele zu KI im Film Die Utopie der Erschaffung eines künstlichen Menschen hat ihren literarischen Ursprung bereits zu Zeiten der griechischen Antike. Ihre mythischen Anänge zeigen sich in Publius Ovidius Nasos (Ovid) Darstellungen des Prometheus und des Pygmalion, in der medizinisch-okkulten Beschreibung des Homunculus durch Theophrastus Bombast von Hohenheim (Paracelsus), gehen über die radikal aufklärerischen Thesen des Julien Offray de La Mettrie (1747) in L'homme Machine zu romantisch-fantastischen Erzählungen, wie Mary Shelleys Frankenstein or The Modern Prometheus (1818), bis hin zu modernen Science-Fiction-Filmen wie bspw. I am Mother (2019). Die Fiktion bildet somit die Möglichkeit des Menschen sich selbst zu erweitern. Der Film als expressives Medium vermag es dabei das Motiv visuell zu reproduzieren und ein Geühl von Authentizität zu suggerieren. Nachfolgend wird die Darstellung ausgewählter Androiden und deren Beziehung zum Menschen, dementsprechend ausührlicher betrachtet. Die ausgewählten Beispiele zeichnen sich dadurch aus, dass sie einen großen Einfluss auf die Populärkultur hatten bzw. immer noch haben, das Bild von KI maßgeblich geprägt haben oder gar in der Debatte über die Mensch-Maschine-Kooperation neue Perspektiven eröffneten. 2.2.1 Maschinen-Mensch in Fritz Langs Metropolis (1927) „Boy meets girl. Boy loses girl. Boy builds girl.“ Anonymous, ‚The Shortest Science Fiction Story Ever Written‘ Der expressionistische Film Films Metropolis ist ein berühmter Klassiker aufgrund seiner weltweit erstmaligen Darstellung von KI in der körpergebundenen Form einer intelligenten Androidin namens Maschinen-Mensch. Das revolutionäre Produktionsdesign im Stil des Art-Deco sollte später wegweisend ür berühmte Science-Fiction-Produktionen, wie bspw. Star Wars sein (vgl. Seabrook 1999). Die Figur Maschinen-Mensch hat einen anthropomorphisierten Körper, welcher gänzlich aus poliertem Metall besteht und mit klaren Linien und Ornamenten verziert ist. Der Maschinencharakter ist dabei deutlich zu erkennen, sodass sie optisch zunächst leicht von den Menschen unterschieden werden kann. Die Alterität der KI wird von Lang durch ihr Aussehen pointiert. Sie steht zu Beginn in starken Kontrast zu den Menschen, die sie geschaffen haben. Hinsichtlich der Fragestellungen Wer? Wen? Wozu? baut, lässt sich zusammenfassen, dass der männliche Wissenschaftler Rotwang sich die Androidin nach dem Abbild seiner verflossenen und verstorbenen großen Liebe Hel baute. Er konnte die einseitige Liebe, den Tod und den damit verbundenen Verlust Hels nicht akzeptieren und erschuf sich eigenmächtig eine künstliche Version von ihr. In der Shortest Science Fiction Story Ever Written ist eben dieser Ablauf in seiner Essenz zusammengefasst: Ein Mann trifft eine Frau, er verliert sie und sieht als einzigen Ausweg aus seinem Unglück die Schöpfung einer künstlichen Frau. Hinzukommt, dass Rotwang seinen Maschinen-Menschen, im Gegensatz zu der menschlichen Hel, unweigerlich an sich binden kann. Der Wissenschaftler bezeichnet die Androidin zwar als Menschen der Zukunft, 2 Künstliche Intelligenz im Film 27 dennoch gleicht sie einer Sklavin ohne eigenen Willen oder gar Identität. Maschinen-Mensch kann zwar autonom agieren, ist aber den menschlichen - insbesondere Rotwangs - Gesetzen unterworfen. Eine Illusion der vermeintlich perfekten heteronormativen Beziehung des Mannes und seiner (künstlichen) untergebenen Partnerin. Ein „simulacrum of perfect lover and perfect wife - whose representation serves to maintain this absence“ (Hollinger 127). Die Androidin tritt im Verlauf des Films noch in einer weiteren Erscheinungsform auf. Während der Transformationsszene nimmt Maschinen-Mensch das Aussehen der weiblichen Protagonistin Maria an. Der metallische Körper ist nun mit Haut und Haaren überzogen und ist nicht mehr von den Menschen zu unterscheiden. Die einzigen Unterscheidungsmerkmale sind das betont geschminkte Gesicht und die lasziven Bewegungen der künstlichen Maria. Als femme fatale soll sie die Bevölkerung verühren und gegen seinen Erzfeind und Herrscher über Metropolis Freder aufbringen. Als falsche Maria hetzt sie die Massen nach Rotwangs Anweisungen auf, emanzipiert sich schlussendlich aber von ihrem Schöpfer, wodurch sie außer Kontrolle gerät. Die Subjektwerdung der Maschine resultiert in der Katastrophe, durch die fast alle Einwohner*innen von Metropolis vernichtet werden. Diese negative Darstellung von Maschinen-Mensch bekräftigt die Auffassung der Nachkriegszeit, Technik sei der Untergang der Menschheit, welche in Literatur und Film aus jener Epoche fast ausschließlich vorzufinden ist und das Verhältnis zu Maschinen viele Jahre maßgeblich prägte. 2.2.2 Die Stepford-Frauen in Forbes Stepford Wives (1975) und Ozs Stepford Wives (2004) The Stepford Wives ist der Titel eines 1972 erschienen satirischen Romans des amerikanischen Schriftstellers Ira Levin. In den Filmadaptionen von 1975 und 2004 folgt die Geschichte größtenteils der literarischen Vorlage. In der Geschichte werden die Frauen der eponymen Stadt Stepford von ihren Ehemännern durch Roboterkopien ersetzt. Die Hybris der Männer resultiert letztlich in dem Austausch der Frauen durch die Personifikation des konservativen Frauenideals in Form einer Maschine. Im Gegensatz zu Metropolis sind die Roboter in Stepford Wives jedoch kaum mehr als solche zu erkennen. Die künstlichen Maschinenfrauen sind äußerlich nicht vom Menschen zu unterscheiden. Diese Darstellung der Androidinnen ist ein entscheidender Faktor ür den filmischen Effekt. Das Doppelgängermotiv wird häufig in Literatur und Film verwendet und geht meist mit der Angst um Identitätsverlust einher. Die Protagonistin Joanna erkennt das Muster, welche Funktion und Bedeutung die Frauen in Stepford haben und wie sich ihre Interessen verschieben, wenn sie durch eine künstliche Doppelgängerin ausgetauscht werden. Joanna offenbart in der Filmadaption von 2004 ihre Furcht einer Psychiaterin mit den passenden Worten: „There will be somebody with my name. She'll cook and clean like crazy, but she won't take pictures and she won't be me. [...] She will be like one of those robots in Disneyland“ (01: 31: 17). Die autonomen Androidinnen ermöglichen es den Ehemännern, ihren Traum des patriarchalen Frauenbilds zu realisieren, indem sie es auf künstliche Stellvertreter projizieren, welche 28 Josephine D’Ippolito aus den bunten Fantasiewelten Disneys entstammen könnten. Die Darstellung der Stepford-Frauen persifliert das Simulacrum der perfekten Ehefrau. Sie sind extrem unterwürfig und bemerkenswert attraktiv. Sowohl im Roman als auch im Film werden emanzipierte und komplexe Frauen ihrer Würde und Individualität beraubt. Die satirische Verarbeitung des possenhaften Frauenbilds der 1950er überspitzt die gesellschaftlichen Anforderungen an die Hausfrau und Mutter dieser Zeit. Emanzipation wird als Gefahr bewertet und kann mithilfe von intelligenten Maschinen beseitigt werden. In der Adaption von Frank Oz wird diese Fantasie noch erweitert, indem nicht nur Frauen durch vermeintliche Idealbilder ersetzt werden, sondern auch Männer. Levins Roman beeinflusste die Populärkultur so stark, dass der Begriff „Stepford Wife“ sogar Einzug in den alltäglichen Sprachgebrauch erhielt. Seitdem werden äußerst devote Hausfrauen, die genau wie Maschinen nach festgelegten Abläufen und Mustern handeln, oftmals als Stepford Wives bezeichnet. KI werden im Film genutzt, um den Menschen zu perfektionieren. Vermeintlich fehlerhafte Menschen, die nicht der gesetzten Norm entsprechen, werden durch Maschinen ersetzt. Dies greift die noch immer vorherrschende Angst vieler Menschen auf, aufgrund ihrer eigenen Fehlbarkeit in der Zukunft durch Maschinen ersetzt zu werden. 2.2.3 Die Nexus 6 Replikanten in Scotts Blade Runner (1982) Die Filmadaption Blade Runner von Ridley Scott basiert auf der Romanvorlage des US-amerikanischen Science-Fiction-Autors Philip K. Dick Do Androids Dream of Electric Sheep? (1968) und gilt heutzutage als Kultfilm und knüpfte vor allem in Aspekten, wie bspw. Szenenbild und Zukunftsinszenierung, an Metropolis an. In Blade Runner stehen dem Menschen ebenfalls Androide als Widersacher gegenüber. Während in Dicks Originaltext noch von Androiden bzw. Andys die Rede ist, wird im Film von ihnen als Replikanten gesprochen. Die Replikanten werden von unter der Leitung von Mister Tyrell von der Tyrell Corporation produziert, um als Sklavenarbeiter*innen in den extraterrestrischen Kolonien zu dienen. Sie sind lediglich zum Vergnügen oder zur Verrichtung schwerer körperlichen Arbeit gedacht. Anders als in den bisherigen Filmbeispielen wehren sich die KI gegen ihre auferlegten Rollen. Blade Runner stellt deshalb einen Meilenstein in der filmischen Verarbeitung der philosophischen Frage dar, welche Rechte KI erhalten sollten, wenn sie doch kaum noch vom Menschen hinsichtlich ihres Aussehens, ihrer Emotionen und Bedürfnisse zu unterscheiden sind. Vor allem, wenn sie sich ihrer künstlichen Existenz nicht einmal bewusst sind (vgl. Dyck, 2018). Die Grenzen zwischen Menschen und KI verschwimmen in Blade Runner vollkommen, da sie äußerlich nicht voneinander zu unterscheiden sind. Einzig mit Hilfe des Voight- Kampf-Tests können die Blade Runner, eine Spezialpolizei, die Replikanten durch eine provozierte emotionale Reaktion von Menschen unterscheiden. Die sechste Generation der Replikanten ist sogar imstande eigene Geühle zu entwickeln. Die Subjektwerdung der KI wird auch in diesem Film als Auslöser ür Katastrophen betrachtet. Um dies zu verhindern wird ihre Lebensdauer auf 2 Künstliche Intelligenz im Film 29 vier Jahre verkürzt und ihnen wird es unter Todesstrafe untersagt zur Erde zu reisen. Ihr Aussehen pointiert zudem die mediale Repräsentation von Hypermaskulinität und Hyperfeminität. Sowohl die männlichen als auch die weiblichen Replikanten verkörpern die jeweiligen gesellschaftlich konstruierten und unrealistischen genderspezifischen Schönheitsideale. Sie fungieren somit als filmtheoretische Paradebeispiel der Objektifizierung der Charaktere durch die Kamera und dem damit verbundenen Blickwinkel der Zuschauer*innen (vgl. Mulvey, 1999). Ihr Aussehen dient dem Spektakel. Der Blick ist jedoch nur eine Form der Machtdemonstration des Menschen gegenüber der KI. Der Mensch erschafft die Replikanten nach eigenen Wunschvorstellungen, degradiert sie zu Sklaven der Zukunft und bestimmt über deren Leben und Tod. Die Hoffnungen und Wünsche der Künstlichen Intelligenzen werden grundsätzlich missachtet. Die Geschichte erreicht ihre thematische Klimax, wenn der Replikant Roy Batty seinen Schöpfer Mister Tyrell in dessen Privatdomizil überrascht, um von ihm sein Leben verlängern zu lassen. Nach einer kurzen Diskussion erfolgt die bittere Erkenntnis, dass Battys Wunsch nach einem längeren Leben unerüllbar bleibt. Die Katastrophe ist demnach keine Katastrophe im engeren Sinn, sondern nur das Erkennen des natürlichen (menschlichen) Ablaufs des Lebens. In seiner Trauer um die Erkenntnis der Endlichkeit ähnelt er den Menschen am meisten, denn die Angst vor dem Sterben ist auch in der Menschheit tief verankert. Das Geühl, welches Roy während dieser tieferen Einsicht übermannt, ührt zu Aggression und Panik, welche ebenfalls Eigenschaften von Lebewesen sind. Aus Verzweiflung tötet er seinen Schöpfer Tyrell, der ihm diese unausweichliche Existenz einprogrammiert hat. Selbst dieser Racheakt lässt ihn menschlich wirken. Eine weitere emotionsgeladene Komponente zeigt Batty während des kämpferischen Höhepunktes des Films. In einem actionreichen Endkampf zwischen Deckard und Batty droht der Blade Runner von einem Dach zu fallen, wird aber von seinem Gegner, dem Replikanten, gerettet. Der Mensch überlebt nur durch das Erbarmen der Maschine. Ein neuer Blickwinkel, dass auch in der Realität Maschinen die Rettung der Menschheit sein können und die Angst vor Technischem ungerechtfertigt ist. Dabei liegt in diesem Film das Hauptaugenmerk auf der Unterscheidung zwischen Mensch und Replikant und wie viele Rechte Letzterem aufgrund der Ähnlichkeit zum Menschen zustehen sollten. Die Fiktion verarbeitet dabei philosophische Fragen nach der eigenen menschlichen Identität und dem Umgang mit dem Fremden (vgl. Dyck, 2018). Blade Runner zeigt aber auch auf, wie schwierig die Trennung zwischen künstlich und natürlich ist. Einerseits findet durch die Humanisierung der Maschine eine Annäherung an den Menschen statt und andererseits ist durch die Technisierung des Menschen ebenfalls die Grenze zwischen beiden schwimmend. So stellt Donna Haraway in ihrem Essay A Cyborg Manifest (1984) die provokante These auf, dass Menschen sich seit dem 20. Jahrhundert zu Chimären aus Maschine und Organismus verwandelt haben und dadurch alle Cyborgs sind. In dem Film Blade Runner ist zudem nicht einmal sicher, ob der menschliche Protagonist tatsächlich ein Mensch ist, da sich die Replikanten, wie eingangs beschrieben, ihrer Künstlichkeit nicht immer bewusst sind. 30 Josephine D’Ippolito 2.2.4 T-800 in Camerons Terminator (1984) Der Terminator T-800 ist laut der Umfrage der GI eine der bekanntesten KI in Deutschland (vgl. Gesellschaft ür Informatik, 2019). Auch abseits des Science- Fiction-Genres ist der Terminator ein Begriff. Der muskulöse Android, welcher im Film älschlicherweise als Cyborg betitelt wird, ist eine emotionslose Kampfmaschine, die von der KI SKYNET in die Vergangenheit geschickt wird, um den Widerstand gegen die Maschinen zu brechen. Im Gegensatz zu den anderen gewählten Filmbeispielen haben sich die Maschinen von den Menschen emanzipiert und sind keine Sklaven mehr. Alle Kampfroboter folgen ausschließlich den Befehlen SKYNETS. Allerdings haben sie in Terminator ebenfalls einen menschenähnlichen Körper, um unentdeckt ihr Ziel verfolgen zu können. Der Körper wird ihnen nun nicht mehr von menschlichen Schöpfer*innen aufgezwungen, sondern eigenmächtig gewählt, um die Menschheit zu infiltrieren. Die Akzeptanz der KI erfolgt demzufolge durch die Anthropomorphisierung der Maschine. Dabei ähnelt der autonome Terminator dem Menschen ausschließlich hinsichtlich seines Aussehens, auch wenn es sich hier um das stereotype Idealbild des Mannes handelt (vgl. Hollywood, 1995). Der hypermaskuline T-800 verkörpert Kraft und Dominanz, um die Überlegenheit der Maschine gegenüber den Menschen zu verdeutlichen. Zudem zeigen auch die Handlungsweisen des Terminators deutlich seinen Maschinencharakter. Er agiert rational. Der Mensch wird gleichgesetzt mit Irrationalität und die Maschine im Gegensatz dazu mit Rationalität. Der Kampfroboter hat weder Geühle noch Ängste oder gar Wünsche. In dem dritten Teil der Terminator-Reihe aus dem Jahr 2004 wird dies durch den Terminator selbst zusammengefasst: „Desire is irrelevant. I am a machine“. Menschen und Maschinen sind in der Filmreihe einander gegenübergestellt und dulden keine friedliche Ko-Existenz beider Arten. Diese Darstellung vermag es Ängste gegenüber KI zu schüren, welche einer reflektierten Mensch-Maschine-Kooperation entgegenstehen können. Chancen durch KI und technologischem Fortschritt werden in diesem Film gänzlich ausgeblendet. Die dystopische Zukunftsvision von Kampfrobotern in Terminator hat bis heute enorme Auswirkungen auf die Perzeption von KI und die damit verbundene Mensch-Maschine-Kooperation. 2.2.5 Die Mechas in Spielbergs A. I. - Artificial Intelligence (2001) In dem Film, welcher auf der Kurzgeschichte von Brian Aldiss Supertoys Last All Summer Long basiert, werden von der Firma Cybertronics Roboter gebaut, die ein Bewusstsein haben. Die sogenannten Mechas dienen den Menschen als Kindsersatz, Bedienstete oder gar Prostituierte. Der neue Prototyp David erhält den Körper eines Kindes und wird darauf geprägt, eine ausgewählte Familie bedingungslos zu lieben. David ist sich jedoch seiner Künstlichkeit bewusst und deutet diese als Grund ür den Liebesentzug der angenommenen Mutter. David ist von deren echten Sohn hinsichtlich seines Aussehens nicht zu unterscheiden. Allein das Wissen, dass es sich um eine Kopie handelt, ührt zu ihrer Ablehnung gegenüber der körpergebundenen KI. Ihr Unbehagen 2 Künstliche Intelligenz im Film 31 ührt dazu, dass sie den Maschinenjungen aussetzt. Aufgrund seines menschlichen Äußeren entgeht David der Vernichtung durch Menschen, die ausgediente Roboter in spektakulären Shows zerstören. In diesem Film werden die Menschen als grausam dargestellt, die den intelligenten Maschinen auf viel- ältige Weise Schaden zuügen. Davids Wunsch nach Liebe und Zuneigung von seiner Mutter schickt den Androiden auf die Suche nach der blauen Fee, die in der Geschichte Pinocchio eine kleine Holzpuppe in einen menschlichen Jungen verwandelt. In A. I. geht es der KI nicht darum die Kontrolle über die Menschheit zu erlangen, sondern vielmehr ein Teil von ihr zu werden. Der Android sehnt sich nach Zugehörigkeit und Liebe, welche ausschließlich menschliche Eigenschaften sind. Auf seinem Weg zum Menschsein wird David in einem Unterwassergeährt eingeschlossen und erst 2000 Jahre später durch eine hochentwickelte Form der Mechas entdeckt. Die Menschheit ist inzwischen ausgestorben und David ist das letzte verbleibende Wesen, welches der ehemaligen Menschheit aufgrund seines Aussehens und seiner Ge- ühle am ähnlichsten ist. So wird der Android im weiten Sinne doch noch zu einem Menschen. Künstliche Intelligenzen, die in Filmen meist als Gegenspieler zum Menschen eingeührt werden, sind in A. I. - Artificial Intelligence schlussendlich unmittelbar mit den Menschen verbunden. Die Grenze zwischen Natürlichkeit und Künstlichkeit wird aufgehoben, weil ihre Gemeinsamkeiten gegenüber den Unterschieden aufgewogen werden und letztlich dominieren. Der Film ührt die Diskussion um die Beziehung von Mensch und Maschine zu einer ganz anderen Sichtweise. 2.2.6 Wall ⋅ E in Pixars Wall ⋅ E (2008) In dem computeranimierten Kinofilm ist ein kleiner Müllroboter der Protagonist der Geschichte. Wall ⋅ E ist nur wenig anthropomorphisiert, so besitzt er zwar ein Augenpaar, zwei Greifarme und zwei Ketten als Beine, ist aber dennoch deutlich als Maschine zu erkennen. Sein verniedlichtes Aussehen ührt wiederum zur verstärkten Akzeptanz des kleinen autonomen Roboters. Tatsächlich gibt es in der Robotik den Begriff uncanny valley bzw. uncanny cliff ür den Effekt, dass die menschliche Akzeptanz gegenüber Robotern abrupt abällt, wenn diese den Menschen zu sehr ähneln (vgl. Watson 2014). In der Science-Fiction ührt diese „unheimliche Ähnlichkeit“ bei den meisten Menschen ebenfalls zu einer Aversion gegenüber den KI-gesteuerten Androiden, sofern sie diese auch als Maschinen erkennen. In allen bisherigen Filmbeispiele traf die Ablehnung durch Ähnlichkeit aufgrund des Phänomens des uncanny valley ausnahmslos zu. Im Umkehrschluss ührt der Mangel an Ähnlichkeit in Wall ⋅ E zu einer höheren Akzeptanz der Maschine. Die Ähnlichkeit von Menschen und Maschinen zeigt sich in diesem Film zwar nicht in Blick auf das Aussehen, jedoch auf die Handlungsweisen und Charaktere. Sie ähneln sich trotz ihrer Verschiedenheit, wie die Menschheit selbst. Dies unterscheidet den Film von den anderen ausgewählten Beispielen. Wall ⋅ E sticht dabei insbesondere durch seine menschlichen Emotionen, wie bspw. 32 Josephine D’Ippolito Liebe, Angst und Hoffnung, hervor. Dies zeigt sich unter anderem in seinen starken romantischen Geühlen gegenüber dem weiblichen Roboter EVE. So nimmt er aufgrund seiner gesammelten Erkenntnisse aus einem Film die Rolle des verliebten Mannes ein und umwirbt EVE. Letztere lernt mithilfe von Wall ⋅ E im Verlauf der Handlung ebenfalls Geühle kennen und setzt sich daraufhin ür die Menschheit ein. In dem Film wird die Menschheit nicht von KI bedroht, sondern bei der Re-Kolonialisierung der Erde unterstützt. Waren Künstliche Intelligenzen bisher das Feindbild der Menschen, sind sie nun die stärkste Allianz beim Wiederaufbau der menschlichen Zivilisation auf der Erde. Lediglich der Bordcomputer des Weltraumschiffs handelt scheinbar böswillig und wird als Antagonist gemeinsam von Mensch und Maschine bekämpft. Dies geschieht allerdings nur aufgrund der Befehle, die ihm von der menschlichen Regierung aufgetragen wurden. Der Film unterscheidet sich somit in mehreren Aspekten von den bisherigen Filmen und wirft wie AI - Artificial Intelligence ein positives Licht auf die Chancen der Mensch-Maschine- Kooperation. 2.2.7 Mutter in Sputores I am Mother (2019) Ein aktuelleres, vieldiskutiertes Beispiel zu KI im Film ist I am Mother, in dem eine KI sich der gesamten Menschheit entledigt. Erneut steht die Thematik der Auslöschung der Menschen durch eine KI wie SKYNET im Mittelpunkt. Dies erschließt sich jedoch erst zum Schluss. Zu Beginn wird lediglich einen humanoiden Roboter gezeigt, der nur schwach einem Menschen ähnelt. Die sogenannte Mutter ist aufgrund des metallischen Körpers, der Größe und des einen Auges klar von den Menschen zu unterscheiden. Nichtsdestotrotz hat Mutter einen Kopf, Gliedmaßen und einen Torso, um menschenähnlich zu erscheinen. Die rudimentäre Mimik, die durch zwei Lichtpunkte im Gesicht dargestellt wird, imitiert menschliche Regungen. Zudem erhält Mutter eine warme weibliche Stimme, welche das einzige körperliche Merkmal ihrer Weiblichkeit ist. Die Aufgabe des Roboters ist dabei die künstliche Mutterschaft. Aus einer Vielzahl von Embryonen wählt der Mutterersatz einen aus, den sie dann als „Tochter“ großzieht. In dem Kammerspiel zwischen Mensch und Maschine zeigt sich Mutter in ihrem Umgang mit Tochter äußerst sanft und rücksichtsvoll. Die Robotermutter ührt eine scheinbar harmonische Beziehung zu dem Menschenmädchen. Mutter ist ein nahezu perfekter Elternersatz, was trotz allem nicht nur unnatürlich wirkt, sondern auch Unbehagen auslösen kann. Als in der Geschichte eine fremde Frau auftaucht, ändert sich jedoch die Beziehung zwischen Roboter und Mädchen. Die Handlung kommt hier zu ihrem Wendepunkt. Im Gegensatz zu den anderen Filmen, ist in I am Mother nicht die KI das Fremde, sondern die menschliche Frau. Dies ist darin zu begründen, dass Tochter bisher lediglich ihre Robotermutter kannte und als Norm anerkannte. Doch das Mädchen gerät allmählich ins Zweifeln, da der ürsorgliche Mutterroboter von der Frau aus der Außenwelt als Feind deklariert wird. Mutter wird daraufhin aggressiver, weil sie in der Erwachsenen eine Bedrohung ür ihre Mission sieht. Zum Schluss zeigt sich, dass nämlich die Hauptaufgabe des Mutterroboters darin besteht, die fehlerhaften Menschen durch von Ma- 2 Künstliche Intelligenz im Film 33 schinen aufgezogene perfekte Menschen zu ersetzen. Die KI hinter Mutter, welche als kollektives Bewusstsein alle Roboter lenkt, löschte höchstwahrscheinlich in der Vergangenheit die Menschheit mitsamt seinen Fehlern aus, um die Erde mit fehlerlosen Menschen neu zu bevölkern. Dabei ällt auf, dass die Maschine vor allem die Neugier des Menschen stört, welcher als ein zentraler Antrieb der menschlichen Entwicklung gedeutet werden kann. Hier ist zu vermuten, dass die Abwesenheit von Neugier ür die Maschine als Perfektion verstanden wird, da Maschinen dieses Verlangen nicht besitzen. Als Tochter sich von der Neugier abwendet und ihr Dasein im Bunker akzeptiert, werden die Rollen getauscht und Tochter übernimmt Mutters Aufgabe, indem sie von nun an selbst weitere Menschen großziehen wird. Sie hat den Test der KI bestanden und wird von ihr als geeignet betrachtet, die neue Menschheit nach den Maßstäben der Maschinen großzuziehen. Dabei wirft der Film neue Fragen zum Thema künstliche Elternschaft auf. Neuartig ist die Positionierung des Menschen an der Seite der Maschine. Waren bisher Menschen nebeneinander verortet, sind sie sich nun einander fremd. Auch wenn I am Mother sich ebenfalls der Thematik der Auslöschung der Menschheit durch KI bedient, vermag es der Film dennoch die starren Konstrukte von guten und bösen Absichten aufzubrechen, sodass eine eindeutige Bewertung kaum möglich erscheint und das Feindbild nicht eindeutig zugeordnet werden kann. 2.3 Zusammenfassung Die aufgeührten Filmbeispiele zeigen, dass sich die Darstellung von KI im Film zwar stetig ändert, viele Filme sich jedoch noch immer ähnlicher Muster und narrativer Elemente bedienen. KI sind entweder Verheißung oder Verhängnis, es gibt kaum Spielraum ür Kompromisse. Die Künstlichen Intelligenzen werden programmiert, um den Menschen zu unterstützen, doch zeigt sich insbesondere bei den körpergebundenen KI, dass sie lediglich als moderne Form des Sklaven ür ihre Besitzer*innen dienen. Die Fragen Wer? Wen? Wozu? lassen sich immer wieder gleich beantworten: Wer? ist der Mensch, Wen? ist die KI und Wozu? ist die Funktion als untergeordnetes Werkzeug der Menschheit. KI unterstehen dem Menschen, wobei eine friedliche Ko-Existenz ausgeschlossen ist. Die emanzipative Subjektwerdung der KI resultiert zumeist im Krieg zwischen Mensch und Maschine. Vor allem in den älteren Filmen sind Maschinen das Feindbild der Menschheit. Dabei kommt es zu kognitiven Verzerrungen, sogenannten Bias, die zu falschen Darstellungen tatsächlicher Verhältnisse ühren. Erst ab der Jahrtausendwende werden zunehmend auch positive Eigenschaften künstlicher Intelligenzen aufgezeigt und Chancen der Mensch-Maschine-Kooperation diskutiert. Bei den Fragen, wie viel Realität in der Fiktion steckt und wie viel Einfluss die eine auf die andere hat sind keine eindeutigen Antworten möglich. Einerseits gibt es zwar bereits Erfindungen, deren Vorbild Ideen aus der Science-Fiction sind, z. B. Tablets wie in Star Trek. Andererseits sind humanoide Roboter, die über eine künstliche Intelligenz verügen, nicht im Mittelpunkt der Forschung um KI. So finden aktuelle Thematiken, wie bspw. Big Data und Machine Lear- 34 Josephine D’Ippolito ning, kaum Erwähnung in Hollywood-Blockbustern. Die Fiktion beschäftigt sich dabei immer wieder mit der Verarbeitung philosophischer Fragen, inwiefern sich der Mensch von der KI unterscheidet oder gar welche Rechte der KI zustehen sollten. Literatur und Film vermögen es als Spiegel der technisierten Gesellschaft die Chancen und Risiken der fortschreitenden wissenschaftlichen Entwicklung aufzuzeigen und können somit den ethischen Diskurs um verschiedene Perspektiven erweitern. So sollte die Fiktion vor allem aber auch dazu dienen die menschliche Arroganz und den Hochmut aufzuzeigen, um die Selbstreflektion des Menschen anzuregen, welche einen enormen Einfluss auf die Zukunftsgestaltung hat. 2.4 Literaturverzeichnis Deulgaonkar, Parag: „World’s first ‘Robocop’ joins Dubai Police force“, Arabian Business, 21 May 2017. [online] Available at: <https: / / www.arabianbusiness.com/ world-s-first-robocop-joins-dubai-police-force-674837.html> [Accessed 2 Oct 2020]. Dyck, Andreas: „Künstliche Intelligenzen in der Science Fiction: In diesen Filmen spielt KI die Hauptrolle“, General Anzeiger, 27 Sept 2018. [online] Available at: <https: / / ga.de/ news/ kultur-und-medien/ ueberregional/ in-diesen-filmen-spielt-ki-die-hauptrolle_aid-43913153> [Accessed 10 March 2021]. Gesellschaft ür Informatik e. V.: Allensbach-Umfrage: Terminator und R2-D2 die bekanntesten KIs in Deutschland, 2019. [online] Available at: <https: / / gi.de/ meldung/ allensbach-umfrage-terminator-und-r2-d2-diebekanntesten-kis-in-deutschland> [Accessed 21 March 2021]. Haraway, Donna: „A Cyborg Manifesto“, The Cultural Studies Reader, 3rd ed., edited by Simon During, New York, Routledge, 2007 [1984], pp. 314-334. Hollinger, Veronica: „Feminist Theory and Science Fiction“, The Cambridge Companion to Science Fiction, edited by Edward James and Farah Mendlesohn, Cambridge UP, 2003, pp. 125-136. Hollywood, Samantha: „Descartes Goes to Hollywood: Mind, Body and Gender in Contemporary Cyborg Cinema“, Body and Society, Vol. 1(3-4). London et al., Sage, 1995, pp. 157-174. Le Guin, U. K.: The Last Interview and Other Conversations. Melville House, 2019. Mulvey, Laura: „Visual Pleasure and Narrative Cinema“, Film Theory and Criticism: Introductory Readings, edited by Leo Braudy and Marshall Cohen, New York, Oxford UP, 1999, pp. 833-44. Seabrook, John: „Why Is the Force Still with Us? “, The New Yorker, 30 Dec 1997. [online] Available at: <https: / / www.newyorker.com/ magazine/ 1997/ 01/ 06/ why-is-the-force-still-with-us> [Accessed 2 Aug 2020]. Watson R.: „Uncanny Valley - Das Phänomen des ‚unheimlichen Tals“, 50 Schlüsselideen der Zukunft, Berlin, Heidelberg, Springer Spektrum, 2014, pp. 136-139. 3 „Künstliche Intelligenz“ als Simulation und als Simulakrum Ralph-Miklas Dobler 3.1 Simulation Seit dem berühmten Proposal ür das Dartmouth Summer Research Project von John McCarthy und seinen Kolleg*innen Minsky, Rochester und Shannon aus dem Jahr 1955, das langläufig mit dem erstmaligen Gebrauch des Begriffes „Artificial Intelligence“ gleichgesetzt wird, gilt die Simulation als ein Hauptmerkmal dieser Technologie. „The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.“ (Proposal 1955, 2) Des Weiteren enthält der Vorschlag einige Annahmen, die noch heute die Diskussion um „Künstliche Intelligenz“ bestimmen. So werden die Lernähigkeit als ein wichtiger Aspekt von Intelligenz herausgestellt und die Übertragung von menschlichen Fähigkeiten in Maschinen als Ziel der Forschung ange- ührt. 1 In den folgenden Jahrzehnten ührte der Versuch, Programme so zu optimieren, dass sie Probleme lösen können, die bis dahin den Menschen vorbehalten waren, unter anderem zu Beürchtungen, technologische Superintelligenzen könnten bald zur Singularität ühren und damit den Menschen als selbstbestimmten Wesen ein Ende setzen (vgl. Bostrom 2016). Tatsächlich bestimmt aktuell die Angst vor der neuen Technologie nicht unerheblich den Diskurs. Aus der einst intendierten Simulation des Menschen wurde in der öffentlichen Wahrnehmung ein Ersatz ür den Menschen und ein überlegener Akteur. 2 Peter Seele (2020, 22) hat in diesen Zukunftsvisionen wohl zu Recht eine gewisse Aufmerksamkeitsökonomie erkannt. 3 Innovationsgetriebene Unternehmen profitieren von solchen Vorstellungen. Zudem werden durch eine Diskursverschiebung hin zu Szenarien einer immer besser werdenden und folglich die menschliche Einzigartigkeit und Überlegenheit geährdende Technologie auch längst gebräuchliche Anwendungen und deren Auswirkung auf die Nutzer*innen in den Hintergrund gerückt. 1 Die Frage, was menschliche Intelligenz ausmacht, gehört zu den schwierigsten Problemen in der Diskussion um eine technologisch hergestellte künstliche Intelligenz. In der Regel werden Lernfähigkeit, das Lösen unbekannter Probleme und die Fähigkeit zur Verallgemeinerung als Eigenschaften von intelligenten Entitäten angeführt (vgl. Wagner 2020, 4-7). 2 Einen umfangreichen Überblick zu wissenschaftlichen Einschätzungen der „Künstlichen Intelligenz“ bietet der von John Brockmann (2017) herausgegebenen Band „Was sollen wir von künstlicher Intelligenz halten? “. 3 Eine kritische Auseinandersetzung mit der These einer Technologischen Singularität bietet Murray Shanahan (2015). 36 Ralph-Miklas Dobler Zu den beständig verbesserten Anwendungen gehört nach wie vor die Simulation von menschlichen Fähigkeiten. In Kommunikationssituationen ist die Täuschung inzwischen so perfekt, dass Nutzer*innen nicht bemerken oder darüber nachdenken, dass ihr Gegenüber eine Maschine ist. 4 Die technischen Möglichkeiten beschränken sich bislang auf eng gesteckte Bereiche der Interaktion, weshalb der sogenannte Turing-Test als noch nicht bestanden gilt. Derselbe Alan Turing war es jedoch, der bereits wenige Jahre vor dem Dartmouth-Proposal zu dem Schluss kam, dass die Frage nach der Denkähigkeit von Maschinen durch die Frage nach der Täuschung des Menschen ersetzt werden sollte. „We now ask the question, ‘What will happen when a machine takes the part of A in this game? ‘ Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, ‘Can machines think? ‘“ (Turing 1950, 434) Bei den frühen Überlegungen zu denkenden, lernenden und folglich intelligenten Maschinen standen offensichtlich der Mensch und die Simulation bzw. die Vortäuschung von menschlichen Fähigkeiten im Zentrum. Spätestens im zweiten Jahrzehnt des 21. Jahrhunderts hat sich die Situation jedoch grundlegend verändert. Francois Chollet hat 2019 in einem prägnanten Tweet darauf hingewiesen, dass gegenwärtig der menschliche Geist durch Modelle erklärt wird, die aus der Technologie stammen. „A fundamental trend in AI is that researchers conceptualize human mind (and intelligence in general) by using as mental models the current technological tools they have available. This is implicit and insidious.“ (Chollet 2019) „Hat man bislang versucht, der Maschine Leben einzuhauchen, besteht das Ziel nun umgekehrt darin, dem Leben die digitale Logik zu implantieren“ (Burckhardt 2018, 8). 5 Die immer besser werdende Simulation von menschlichen Fähigkeiten dürfte einen entscheidenden Anteil an dem folgenreichen Richtungswechsel haben. 6 Die Anthropomorphisierung der „Künstlichen Intelligenz“ lässt die Grenzen zwischen menschlicher und maschineller Intelligenz sowie zwischen Mensch und Maschine insgesamt verschwimmen. Auffallender Weise erfolgt dieser Wandel in einer Zeit, in der u.a. in der Bildung, der Wissenschaft aber auch im Berufsleben Studierende und Arbeitnehmer in vielerlei Hinsicht metrisiert und ihre Leistung in Zahlen dargestellt werden 4 Peter Seele (2020, 42) wies darauf hin, dass beim (schnell rassistisch werdenden) Chatbot Tay „eine Simulation menschlichen Verhaltens […] zum tragenden Motiv der Kommunikation wurde“. 5 Dies geht letztlich auf Norbert Wieners Kybernetik und den Apell, „die Welt kybernetisch zu lesen“ zurück (Feustel 2018, 70). 6 Bei der Künstlichen Intelligent kommt folglich der Simulationsbegriff der Computerwissenschaften, wo er für Modellierung und quasi-empirische Erforschung von Systemen steht, mit dem soziologischen Simulationsbegriff in der Nachfolge von Jean Baudrillard überein (vgl. HWPh, Bd. 9, 795-796). 3 „Künstliche Intelligenz“ als Simulation und als Simulakrum 37 (vgl. Mau 2017). Das 21. Jahrhundert ist die Zeit der Coachings und Trainings, mit denen überall, im privaten sowie im beruflichen Umfeld, die Kapazität optimiert und effizienter gestaltet werden soll (vgl. Linder 2011). 7 Als stünde der Mensch wie eine Maschine ständig unter Strom und müsste ständig bereit zur Leistung sein - ein entscheidender Vorteil der „Künstlichen Intelligenz“, die keine Erholung braucht. Gewiss ist es seit jeher eine wichtige Aufgabe der Technologie, menschliche Tätigkeiten zu erleichtern oder gar zu ersetzen. Technische Errungenschaften sind ein Supplement ür menschliche Arbeitskraft, das automatisiert schnell und präzise Dinge verrichtet. Bislang wurde der Mensch dabei jedoch nicht simuliert. Traditionell sind Maschinen „technisch determiniert und vorhersehbar“ (Wagner 2020, XII). Sie erweitern die Handlungsmöglichkeiten des Menschen, sind aber in ihrer Funktion durchschaubar und vor allem als Werkzeug jederzeit unter völliger Kontrolle. Ziel der „Künstlichen Intelligenz“ ist es jedoch, als autonome Systeme ihre Effizienz derart zu steigern, dass Kontrolle und Überwachung nicht mehr nötig sind. Die lernenden Programme und die von diesen gesteuerten Maschinen simulieren den Menschen in einem definierten Bereich und ersetzen dessen Tätigkeit komplett. Die Vorteile, insbesondere in Industrie und Wirtschaft, liegen bekanntlich auf der Hand. Gleiches gilt ür Anwendungsgebiete wie etwa der Medizin, wo Diagnosen schneller und bei entsprechender Datenlage sicherer getroffen werden können. Sobald die Programme jedoch Schaden anrichten, stellt sich nun die vieldiskutierte Frage der Verantwortung bzw. im Fall von selbstlernenden und autonom entscheidenden Systemen die Frage des ethischen und moralischen Verhaltens von technologischen Akteuren (vgl. Misselhorn 2018). Besonders eindrücklich wird diese Problematik als sogenanntes Trolley-Problem diskutiert, wenn Maschinen Entscheidungen treffen sollen, bei denen Menschen körperlich zu Schaden kommen; dies vor allem in Staaten, in denen die körperliche Unversehrtheit gesetzlich verankert ist (vgl. Foot 1978; Misselhorn 2018, 190-192). Der Unterschied zwischen Mensch und Maschine ist dabei bewusst und bekannt. Würde man ihn nicht voraussetzen, wäre die Frage der Verantwortung unbegründet. Vergleichsweise wenig diskutiert sind bislang allerdings die Folgen von immer mehr technischen Simulationen des Menschen, die nicht mehr als solche erkannt werden. 3.2 Simulakrum Zwischen dem Supplement bzw. der Simulation und der ersetzten und nachgeahmten Entität besteht eine Differenz, die den Unterschied vertritt. „Das Supplement ist erst dort ganz Supplement, wo es nicht mehr als solches erscheint, wo es nicht nur die Differenz, sondern zugleich die Differenz zwischen der Differenz und sich supplementiert“ (Scheier 2016, 31). Sobald dies eingetreten ist, wird das Supplement zum Simulakrum. Im Kontext der „Künstlichen Intelligenz“ geschieht dies, sobald die Technologie - in welcher Form 7 „Negativ formuliert: Der Mensch lässt sich effizienter Ausbeuten.“ (Seele 2020, 153). 38 Ralph-Miklas Dobler auch immer - nicht mehr von einem menschlichen Wesen zu unterscheiden ist. Ein oft herangezogenes Beispiel sind die neuesten Entwicklungen der humanoiden Robotik, wo das Simulakrum entsprechend seiner Wortgeschichte ganz Bild bzw. Ebenbild ist. Jedoch binden auch unsichtbare, selbstlernende Programme die Nutzer*innen zunehmend in Kommunikationssituationen. 8 Bekannte Beispiele hierür sind Chatbots und Sprachassistent*innen, die stets zu Diensten sind. Auch hier gilt, dass die Technologien nur beim Einsatz in einem festgelegten Bereich als menschliches Simulakrum wahrgenommen werden. Der Turing-Test, bei dem etwa ein Dialog über mehrere Stunden und zu verschiedensten Themen erfolgreich stattfinden müsste, ist längst nicht bestanden. 9 Trotzdem ist die Kommunikation mit Systemen, die von den Entwicklern so gestaltet wird, dass ein Unterschied zu menschlichen Gegenübern möglichst nicht reflektiert und wahrgenommen wird, längst Alltag. Die Vorteile sind aus unterschiedlichen Perspektiven evident: Menschliche Arbeitskraft wird rationalisiert, zeitliche Limits werden überwunden und vor allem lernen die Systeme Kund*innen kennen, erstellen Persönlichkeitsprofile und machen Kaufvorschläge. So können sich Nutzer*innen immer sicher sein, dass die vorgeschlagenen Alltagsprodukte, Urlaubsdestinationen, Playlists und Filme, aber auch Freunde, Afären und Lebenspartner tatsächlich passen. Eine Bewertung dieser digitalen Kommunikationsstrukturen mit menschlichen Simulakren ist aufgrund des noch kaum zu überblickenden empirischen Befundes der Auswirkungen auf Mensch und Gesellschaft schwierig. Die oft kritisierten Bestrebungen, immer mehr Daten über das Verhalten von einzelnen Personen zu erhalten, müssen nicht per se schlecht sein. Im Gegenteil, denkt man u.a. an Klimaschutz, Nachhaltigkeit, Medizin und Infrastruktur, so könnten Datenanalysen entscheidende Verbesserungen einleiten, die das Leben nicht nur vereinfachen, sondern ein Überleben gewährleisten. Und doch bleibt die Frage, inwieweit von autonomen, selbstlernenden Systemen gesteuerte, täuschend echte Simulakren von Menschen im Rahmen einer verantwortungsvollen „Künstlichen Intelligenz“ sowie ür eine nachhaltige und fortschrittliche gesellschaftliche Entwicklung nötig sind. Das Simulakrum zeichnet die Tatsache aus, dass es zugleich das Ergebnis von Nachahmung (Mimesis) sowie von schöpferischer Zeugung (Kreation) ist (HWPh, Bd. 1, 915.). 10 In der Realität der Erzeugnisse liegt der entscheidende Unterschied zu mentalen Bildern, die in der Literatur entstehen oder im Film vorgelebt werden und ebenfalls den Umgang mit Maschinen thematisieren. 11 Dennoch beruht auch das materielle Simulakrum auf der Leistung des oder 8 Digitalisierung und damit auch „Künstliche Intelligenz“ kennzeichnet in erster Linie eine Körperlosigkeit und eine Entmaterialisierung (vgl. Burckhardt 2018, 28-29). 9 Es gibt inzwischen einige „Dialog-Tests“, in denen die aktuellen Grenzen überdeutlich zutage treten (vgl. Seele 2020, 66-130). 10 Roland Barthes (1966) hat die Verbindung von Strukturalismus und Kybernetik vorgegeben, da er die strukturalistische Tätigkeit als Zerlegung eines Objektes sowie Neuarrangement der Teile definierte. 11 Bei der Literatur tritt zur Mimesis der Realität die Poesis der dichterischen Freiheit. 3 „Künstliche Intelligenz“ als Simulation und als Simulakrum 39 der Wahrnehmenden: „Das Bild ist ein Produkt des empirischen Vermögens der produktiven Einbildungskraft, das Schema sinnlicher Begriffe […]“ (Kant 1974, II, 190). Bei der Kommunikation mit einem Simulakrum soll eine greifbare, geistige Gestalt bzw. der Eindruck eines menschengleichen Objektes entstehen. Dabei erfolgt die Materialisierung der Simulation in unterschiedlicher Weise. Der Film „Her“ aus dem Jahr 2013 thematisiert eindrücklich, wie sich der Nutzer Theodore alleine aufgrund von Gesprächen in das System Samantha (oder in die Frau Samantha? ) verliebt. Diese aus der Perspektive des heutigen Entwicklungsstandes zugespitzte cineastische Schilderung der Begegnung von Mensch und „Künstlicher Intelligenz“ ührt zwei entscheidend wichtige Reaktionen des Anwenders vor Augen, die ihm dramatisch zum Verhängnis werden: Vertrauen und Empathie. Zudem wird das Simulakrum, das begehrt wird, obwohl es ein Trugbild ist, zu einem Idol und der Gebrauch der „Künstlichen Intelligenz“ zu Idolatrie. Das darin enthaltene Irreale und Irrationale hat Jean Baudrillard als Voraussetzungen ür das Entstehen eine Hyperrealität erkannt, in der Realität und Referenzialität fehlen: „Es geht nicht mehr um die falsche Repräsentation der Realität (Ideologie), sondern darum, zu kaschieren, dass das Reale nicht mehr das Reale ist, um auf diese Weise, das Realitätsprinzip zu retten“ (Baudrillard 1978, 24). Für die KI-Entwicklung ist diese über vierzig Jahre alte Aussage aktueller denn je. Nutzer*innen der Systeme müssen deren Funktion nicht verstehen, da die Selbstevidenz des Funktionierens ausreicht, um wirksam zu sein (Burckhardt, 2018, 13). Mit Hegel könnte man sagen: „Was wirklich ist, ist vernünftig“ (Hegel 1972, 24). 3.3 Vertrauen Wenn „Künstliche Intelligenzen“ nicht nur im Verborgenen Datensätze analysieren, lernen und autonom zu Ergebnissen kommen, sondern mit Menschen in kommunikativen Situationen zusammentreffen, wird von den Entwicklern der Systeme in der Regel die Vermenschlichung bewusst angestrebt. Diese reicht vom geschriebenen, namentlichen Ansprechen über eine bislang meist weibliche Stimme bis zum Auftreten als animierte Figur oder gar als humanoider Roboter. 12 Indem die Technologien das Resultat mehrfacher Rechenoperationen mit möglichst angenehmer Stimme und attraktivem Aussehen vermitteln, wird versucht, eine emotionale Bindung herzustellen. Sprechende Navigationsassistent*innen, ohne die Autofahren heute nicht mehr denkbar ist, sind ein bekanntes Beispiel ür das entstehende Vertrauen in eine relativ simple Technologie sowie ür das resultierende Geühl der Sicherheit. Entsprechend gehen Nutzer*innen auch davon aus, dass virtuelle Assistent*innen nicht nur ihre Aufträge korrekt erledigen, sondern auf alle Fragen exakte Antworten geben. Georg Simmel (1992, 393) hat bereits Anfang des 20. Jahrhunderts darauf hingewiesen, dass Vertrauen immer auch eine Sicherheit hin- 12 Shanahan (2015, 4) vermutet, dieses „embodiment“ von Künstlicher Intelligenz eine methodologische Notwendigkeit a priori sein könnte, da Fähigkeiten von Maschinen nur in einer Umgebung getestet werden können, die der menschlichen Alltagswelt entspricht. 40 Ralph-Miklas Dobler sichtlich des künftigen Verhaltens beinhaltet, auf der praktisches Handeln gegründet werden kann. Vertrauen ist die Basis ür eine gemeinsame Zukunft, in der ein freiwilliger Kontrollverzicht eingegangen wird und Misstrauen abgelegt wird. Wuchs das Vertrauen in Maschinen bislang, wenn sie zuverlässig arbeiteten und die erwartete Leistung erbrachten, so erweitern sich die Faktoren bei den technologischen Simulakren um Stimme, Höflichkeit, Hilfsbereitschaft und Geduld. Diese Eigenschaften sind „entscheidend ür die Benutzerakzeptanz“ von autonom agierenden und selbstlernenden Programmen (Bartneck u.a. 2019, 38). 13 Dabei ist es eine vergleichsweise kleine Beeinträchtigung der Kund*innen, wenn die Buchung eines Friseurtermins nicht funktioniert, Siri die Frage nicht beantworten kann oder aber die Verbindungsauskunft hängt. Viel größer ist der Schaden in diesen Fällen bei den Firmen, da die Kundenbindung und damit die Rationalisierung von Arbeitsabläufen sowie das Sammeln von Daten nicht funktionieren. 14 Mit den zugrunde liegenden, neuen Wertschöpfungsketten stieg seit den 90er Jahren das Interesse am „affective computing“. Soziale Kommunikation funktioniert nur mit Emotionen. Überhaupt ist das menschliche Sozialverhalten ohne Geühle undenkbar, weshalb KI-Systeme als Ersatz oder Simulation des Menschen die Fähigkeit zum Erkennen und zum Ausdruck von Emotionen haben müssen. „Zugespitzt könnte man sagen: Der Dialog ist nur die Aktivitätssimulation, damit das Gerät in unserem Privatleben zuhören darf und wir besser auslesbar und bedienbar werden ür künftige Belange“ (Seele 2020, 56). Sobald Nutzer von „Künstlicher Intelligenz“, bewusst oder unbewusst, sich über deren Ergebnisse, Antworten oder Leistungen freuen und Vertrauen aufbauen, wird diese zu einem „intentionalen Objekt“ (Misselhorn 2021, 12-17). 15 Eine noch tiefere auf Täuschung und Simulation beruhende Bindung wird erzielt, wenn die Systeme gegenüber den Nutzern Empathie fingieren. 3.4 Empathie Wie ein Mensch muss eine Technologie das Gegenüber gut kennen und antizipieren können, um Empathie zu zeigen. Dementsprechend gehört das Feld der „Artificial Empathy“ zu den besonders umkämpften Feldern der „Künstlichen Intelligenz“ (vgl. Asada 2015; Asada 2019; Misselhorn 2021, 56-60). Die Systeme werden durch die Beähigung zu künstlicher Empathie zu sozialen Akteuren. Ähnlich wie bei der Intelligenz setzt auch die künstlich erschaffene Empathie voraus, dass die Funktion des menschlichen Einühlungsvermögens 13 Auch hier ist der kulturelle Kontext der Anwendung zentral, da dieser den Umgang mit humanoiden Systemen entscheidend bestimmt (vgl. Haring 2014). 14 Für Unternehmen entstehen hier ethische Risiken wie ein Reputationsrisiko bzw. ein soziales Risiko (vgl. Bartneck u.a. 2019, 72-73). 15 Wie viele Elemente der Technologie der „Künstlichen Intelligenz“ führt auch die Frage nach Emotionen bereits zu zahlreichen unterschiedlichen Begrifflichkeiten und Theorien (vgl. Misselhorn 2021, 17). 3 „Künstliche Intelligenz“ als Simulation und als Simulakrum 41 umfassend beschrieben wird, um sie implementieren zu können. Ein bekanntes und bereits erprobtes Anwendungsgebiet ist die Altenpflege, bei der Roboter nicht nur ür Unterhaltung und Ansprache sorgen, sondern immer mehr auch als Schnittstelle zum „Ambient Assisted Living“ gehören (Misselhorn 2021, 61). Die Technologie dient hier nicht der Abwechslung oder der Überbrückung von einigen Stunden, um das menschliche Personal zu entlasten, wie es etwa der berühmte deutsche Pflegeroboter Pepper tut. Vielmehr übernehmen diese Technologien zunehmend komplett die Rolle von Gesellschafter*innen, Haushälter*innen und Pflegekräften. Selbstlernendes und autonomes empathisches Verhalten ist hier fundamental. Aber nicht nur in der Pflege als einem Bereich, in dem man lange Zeit die menschliche Zuwendung als entscheidend wichtigen Faktor erkannt hat, wird die Zukunft mit einühlsamen Simulakren geplant. Auch in der Psychotherapie werden virtuelle Figuren verwendet, die mit Patient*innen kommunizieren (vgl. De Vault 2014; Misselhorn 2021, 69-74). Hier steht neben der perfekt simulierten Einühlung das Erkennen von Emotionen in Sprache und Mimik im Vordergrund, da diese zur Diagnose von psychischen Störungen dienen. Die kognitive Architektur der Programme sowie die Menge der Trainingsdaten sind beeindruckend, allerdings impliziert das Vorgehen, dass Psychotherapie lediglich ein Beobachten und Suchen von mikromimischen Äußerungen sowie bestimmten Aussagen ist, auf die dann mit spezifischen Fragen reagiert wird. Zwischenmenschliches und Undefiniertes wird im Gespräch zwischen Mensch und Maschine zum mathematisch objektivierten und eindeutigen Befund. Erfolge kann hierbei die virtuelle Figur Ellie - weiblich, Mitte dreißig - vorweisen, da ür die Patienten offenbar das Gespräch mit einem einühlsamen Avatar angenehmer ist, als mit Ärzt*innen (vgl. Lucas 2017). Die Scham und der Versuch, psychische Probleme zu unterdrücken, sind bei der Kommunikation mit einem nichtmenschlichen Gegenüber weniger ausgeprägt. Wie so oft im Umgang mit digitalen Medien täuscht die scheinbar intime Kommunikation jedoch darüber hinweg, dass die entstehenden Daten detailliert gespeichert werden und ür unabsehbare Zeit nicht nur ür Trainingszwecke, sondern auch ür Menschen zur Ver- ügung stehen. Genau genommen wäre ein nicht aufgezeichnetes Gespräch mit Therapeut*innen hinsichtlich der Anonymität und der Privatsphäre um einiges sicherer. Für den Einsatz von „Künstlicher Intelligenz“ in der Pflege und in der Psychotherapie gilt, dass die Bezeichnung der Technologie als menschliches Simulakrum an ihre Grenzen kommt. Die Nutzer sind sich in beiden Fällen bewusst, dass das Gegenüber kein Mensch ist, d.h. der Unterschied ist bekannt. Allerdings wird die empathische Reaktion der Maschine als Vorteil erkannt (Misselhorn 2021, S. 73). Hier wird deutlich, dass eine Vermenschlichung der Technologie durch die Simulation von menschlichen, emotionalen Eigenschaften zu einer erhöhten Akzeptanz bis hin zur Bevorzugung ühren kann. Die Frage, ob selbstlernende Systeme tatsächlich Empathie empfinden können bzw. ob sie so programmiert werden können, dass sie empathisch sind, dürfte vorerst zu verneinen sein. Wie Misselhorn (2021, 74) hervorhebt, fehlen ihnen mit Kongruenz, Asymmetrie und Fremdbewusstsein gleich drei Merkmale ür ech- 42 Ralph-Miklas Dobler tes und nicht simuliertes Einühlungsvermögen. Wichtiger ist in der Diskussion um „Künstliche Intelligenz“ jedoch die Frage nach dem Menschen und hier ist grundsätzlich zu bemerken, dass dieser bereits auf einer weit unterhalb von Ähnlichkeit angesiedelten Ebene Geühle zu Geräten und Maschinen entwickelt. Ein bekanntes und frühes Beispiel war das Tamagotchi, das mit dem Pixel-Bild eines Kükens und lautem Piepen bei „Hunger“ die Kinderherzen erobert hat. Heute ist die Stimme das entscheidende Element der „Künstlichen Intelligenz“, mit dem in Kommunikationssituationen der Eindruck eines menschenähnlichen Wesens simuliert wird. Die smarten Lautsprecher aus denen sich virtuelle Assistent*innen melden, werden von vielen Nutzer*innen mit Höflichkeiten wie „Bitte“ und „Danke“ bedacht und die Hemmungen, das Objekt an die Wand zu werfen, wachsen mit der emotionalen Bindung. Zugute kommt diesem Umstand die Aktivierung auf Zuruf, als müsste man die Aufmerksamkeit der allzeit bereiten Assistent*innen wecken. Die persönliche Ansprache gibt der Technologie eine Identität, wobei seitens der Nutzer*innen vergessen wird, dass weltweit derselbe Name gerufen wird. Wie im zwischenmenschlichen Bereich machen die Geühle, auch wenn sie gegenüber Maschinen bestehen, manipulierbar. Obwohl die Systeme nichts ühlen, werden sie Zielscheibe von Wünschen und Emotionen (Bartneck u.a. 2019, 81). Peter Seele (2020, 32-38) hat am Beispiel von Dialogen mit Apples Siri gezeigt, dass diese in ihren Antworten darauf programmiert ist, den Eindruck von Person, Körperlichkeit, Herkunft, Etikette und Humor zu erwecken, und mit kausalen Begründungen sogar über ihre physischen Unähigkeiten hinwegtäuscht. 3.5 Idolatrie Technologische Entwicklungen waren schon immer dazu prädestiniert, verehrt zu werden. Geschieht dies in irrationaler Weise, weil die Maschinen trotz der Undurchschaubarkeit ihrer Funktion Erneuerung, Erlösung und Perfektion versprechen, kann der Umgang mit ihnen religiöse Züge annehmen (vgl. Schwarke 2014). 16 Ist der Gegenstand der Verehrung nach menschlichem Aussehen gestaltet und damit ein Simulakrum in Perfektion, so spricht man in der westlichen, vom Christentum geprägten Welt von Idolen. 17 Schon bei Aristoteles ist vom Idol als Ergebnis der menschlichen Vorstellungskraft die Rede (HWPh, Bd. 4, 187). Selbstlernende Programme und autonome Maschinen, die zur Simulation menschlicher Fähigkeiten geschaffen oder als menschengleiche Simulakren wahrgenommen werden, haben folglich ähnliche Eigenschaften wie Idole. Auch wenn die Aufklärung den Glauben und die Verehrung von 16 Burckhardt (2018, 21) nennt das Simulakrum einen „sonderbaren Geistkörper“, der wie im Märchen vom Hasen und vom Igel seinem „materiellen Gegenspieler“ stets voraus ist. Tatsächlich wissen Chatbots oder Assistenten, die Empfehlungen geben, bereits Bescheid, was die Nutzer*innen benötigen. 17 Bei Isodor von Sevilla heißt es um 600 n. Chr.: „Idolum autem est simulacrum quod humana effigie factum est“ - „Ein Idol aber ist ein Simulakrum, das nach menschlichem Aussehen verfertigt worden ist“ (HWPh, Bd. 4, s.v. „Idol“, 187). Das griechische „eídolon“ bedeutet so viel wie „Trugbild“ bzw. „Nachbildung“ (Stenzler 1993, 212). 3 „Künstliche Intelligenz“ als Simulation und als Simulakrum 43 Idolen mit „Anmaßungen der Vernunft“ gleichsetzte (Kant 1974, I, 424-425), wird man nicht umhinkommen, im gegenwärtigen Umgang mit „Künstlicher Intelligenz“ eine Art von Idolatrie zu sehen. Die Systeme können ein Abbild individueller oder kollektiver Sehnsüchte und Ideale werden (vgl. Frohn und Lützenkirchen 2005, 72). Sobald sie den Nutzern gegenüber menschenähnlich oder menschengleich erscheinen und dabei absolute Perfektion, (Er-)Lösung von Problemen, Unterstützung in jeder Lebenslage bei gleichzeitiger Undurchschaubarkeit des Wesens (d.h. der Funktion) bieten, sind Voraussetzungen gegeben, die eine irrationale Verehrung und folglich eine unkritische Integration in die Tiefen der eigenen Wesenheit denkbar machen. „Künstliche Intelligenz“ simuliert in kommunikativen Situationen ein menschliches (oder göttliches? ) Gegenüber, das allwissend ist. Die Systeme, egal ob selbstfahrend, Daten auswertend oder sprachlich assistierend, müssen so gut trainiert sein und beständig so viel lernen, dass sie nie in eine Situation kommen, in der sie auf ernsthafte Fragen bzw. ür schwerwiegende Probleme keine Antwort finden. Das beständige Aneignen von sicherem Wissen durch Fragen unterscheidet den Menschen von allen anderen Lebewesen (Cachelin 2017, 18). Es unterscheidet ihn aber auch von einer göttlichen Instanz, die keine Fragen kennt und nicht infrage gestellt wird. Dieses Geheimnis stiftet Orientierung. Auch „Künstliche Intelligenz“ ist längst dabei, Wahrheit zu erzeugen und insbesondere in virulenten Zukunftsfragen Sinn zu stiften. Zudem akzeptiert sie zumindest bislang den Menschen wohlwollend und gütig als Gegenüber. Kein autonom agierendes System wird den Menschen dezidiert auf seine Mängel, Defizite und Sehnsüchte hinweisen. Mehr noch entgeht der digitalen Überwachung und damit den Trainingsdaten der „Künstlichen Intelligenz“ nichts. Wie die Götter alles sehen und wissen, überwachen selbstlernende Systeme die vernetzten Nutzer*innen ununterbrochen. Sie besitzen damit ein Attribut, das zentral ür das Göttliche ist, nämlich Macht (vgl. Schwarke 2014, 109). Die Tatsache, dass „Künstliche Intelligenz“ als etwas Gottgleiches verehrt wird und doch vom Menschen erfunden und entwickelt wurde, stellt nur unter einer theologischen Perspektive einen Widerspruch dar. Götter und Idole sind das Produkt von Menschen, Friedrich Feuerbach hat dies im Rahmen seiner Projektionstheorie grundlegend erfasst - „Homo Homini Deus est“ (vgl. Zinser 1993). „Künstliche Intelligenz“ als Spiegel und Selbstverstärker sowie Schutzengel zu begreifen, liegt nahe (vgl. Cachelin 2017, 68). Dies gilt umso mehr in Zeiten von gesellschaftlichen Umbrüchen und Momenten der Unsicherheit, wo Orientierung, Halt und Sicherheit an Bedeutung gewinnen. 18 Wissensbestände und Gesellschaftsgeüge können mit einschneidenden technischen Veränderungen zerlegt und neu zusammengesetzt werden (Feustel 2018, 35). Das geschah durch die Dampfmaschine, die Elektrizität und es wird wohl auch mit der Digitalisierung und der „Künstlichen Intelligenz“ eintreten. Die Sehnsucht nach Erlösergestalten ist bereits „der Moderne zwischen Tech- 18 Andreas Reckwitz (2017 und 2019) hat den aktuellen Strukturwandel der Gesellschaft jüngst dargestellt. 44 Ralph-Miklas Dobler nik und Heil, Säkularisierung und der bleibenden Notwendigkeit einer Idee des Guten“ eingeschrieben (Schwarke 2014, 107). In religiöse Sphären ührt auch der Einsatz von „Künstlicher Intelligenz“ im Bereich des Transhumanismus. Schon jetzt optimieren selbstlernende Systeme die Gesundheit anhand von Körperdaten. Für das ewige Leben fehlt nur noch der Ersatz von verbrauchten oder zerstörten Körperteilen oder aber die Integration von Persönlichkeit und Identität in elektronische Schaltkreise, wie es im Science-Fiction-Film bereits vorgeührt wird. 19 In der Realität ütterte Eugenia Kyuda, Gründerin der Firma replika (https: / / replika.ai), im Jahr 2016 ein Neuronales Netzwerk mit Kurznachrichten und Chats ihres verstorbenen Freundes, der folglich als Kommunikationspartner wiederauferstand. 20 „Die digitale Reproduktion des Menschen läuft an“ (Feustel 2018, 9). Wer an die „Künstliche Intelligenz“ glaubt, wird überleben und die Stofflichkeit der irdischen Wirklichkeit hinter sich lassen. 21 Die Unsterblichkeit demokratisiert sich (Burckhardt 2018, 54). Zumindest, wenn er oder sie sich der zugehörigen Marktlogik unterwirft und wenn Denken in einem Rechenprozess abgebildet werden kann. Mensch und Maschine sind dann kein Gegensatz bzw. kein Gegenüber mehr. Aus Simulation und Simulakrum wird Wesensgleichheit. Geschärft stellt sich dabei die Frage, ob elektronische Schaltkreise, die menschengleich handeln, Menschen imitieren oder in denen künftig menschliche Wesen gespeichert werden, Lebewesen sind. Sobald man Maschinen und Programmen ein Bewusstsein zuschreibt, wird man sich der Frage stellen müssen, wo die Grenzen des Lebens sind und was Leben ausmacht. Körpernahe „Künstliche Intelligenz“, etwa sogenannte Wearables, sammelt zumindest so viele Lebensdaten, dass sie aktuell bereits das Leben der vertrauensvollen Nutzer*innen beurteilt. Viele Programme sind längst dabei, die Benutzer*innen hin zur Stärke, Schönheit, Langlebigkeit und Kreativität zu optimieren. Das dahinterstehende Menschenbild erklärt die Makellosigkeit und Leistungsbereitschaft als besonders wertvoll, worin abermals religiöse Züge erkannt werden könnten. Wenn das Abweichende, Schwache, Kranke weiter abgewertet werden, könnte eine Lösung des Trolley-Problems in der Einbeziehung von Social-Credit-Points in die Entscheidungsfindung bestehen. „Künstliche Intelligenz“ bestimmt immer mehr „die Wahrnehmung des Lebens sowie der Welt als Ganze“, weshalb sie das Potenzial hat, als gottgleich, überirdisch bzw. numinos wahrgenommen zu werden (Schwarke 2018, 119). Dies gilt vor allem, wenn die Programme und Maschinen den Menschen imitieren und simulieren. Inwiefern 19 Dazu gehört etwa die Episode „Wiedergänger“ aus der 2. Staffel der Serie „Black Mirror“ (2013). In Luc Bessons Film „Lucy“ optimiert eine Frau ihre Gehirnkapazität - ähnlich wie ein Prozessor - so sehr, dass sie schließlich in einem Computer aufgeht. 20 Vgl. https: / / www.spiegel.de/ spiegel/ digitale-unsterblichkeit-eugenia-kuyda-ueberlistetden-tod-a-1132067.html; letzter Zugriff: 30.04.2021. 21 Der Denkfehler hierbei ist, dass die Computer und neuronalen Netzwerke als elektronischer Schaltkreise nicht nur materielle Produkte sind, sondern sogar von einer ausreichenden Energieversorgung abhängen. Robert Feustel (2018, 22) hat auf das Vergessen dieses einfachen Umstands im „Manifest des Cyberspace“ aus dem Jahr 1994 hingewiesen. 3 „Künstliche Intelligenz“ als Simulation und als Simulakrum 45 dies von den Entwicklern und den Unternehmen bewusst intendiert ist, wäre zu überprüfen. Der Religionsphilosoph Paul Tillich forderte bereits im Jahr 1923, dass es einen Mythos der Technik geben müsse (vgl. Schwarke 2018, 212.). Etwas Übermächtiges, Gutes, Unfassbares und Faszinierendes wird weniger hinterfragt und kritisch betrachtet. In vielen Religionen gilt der Mensch als Krönung der Schöpfung, dessen Existenz von Gott alleine legitimiert ist. Evolutionär betrachtet gilt dasselbe, denn der Mensch hat es geschafft, sich die Welt zu unterwerfen und sie im Anthropozän nach eigenen Maßstäben zu gestalten (vgl. Scherer und Renn 2015). Kein anderes Lebewesen ist ihm gewachsen, Bedrohungen bieten nur noch natürliche oder selbstgemachte Katastrophen. Wenn „Künstliche Intelligenz“ zunehmend autonom und besser als jeder Mensch Entscheidungen trifft und so Prozesse in Gang setzt und steuert, wandelt sich das religiöse System von einem menschlichen Ebenbild Gottes zu einem maschinellen Ebenbild des Menschen. Voraussetzung daür ist allerdings, dass der Mensch nur als „informationstheoretisches Arrangement“ gedeutet wird (Feustel 2018, 25). Entscheidend ist daher, das Bild des Menschen kritisch zu hinterfragen. Michel Foucault (1974) deutete den Menschen als Erfindung der Humanwissenschaften des 19. Jahrhunderts (vgl. Feustel 2018, 134). Die zugrundeliegenden Dispositionen des Wissens können sich Foucault zufolge jedoch verändern oder verschwinden. 3.6 Künstliche Intelligenz als sozialer Akteur Der Effekt der „Media Equation“, also das Phänomen, dass Benutzer*innen elektronische Medien wie Menschen behandeln, wurde schon in den 1990er Jahren, also lange vor den selbstlernenden und autonomen Systemen des 21. Jahrhunderts festgestellt (vgl. Reeves und Nass 1996). Entscheidend wichtig daür ist die Interaktion, die sich möglichst oft und erfolgreich wiederholen muss. Dabei müssen soziale Signale seitens der Maschinen gar nicht beabsichtigt sein, da der Mensch darauf ausgerichtet ist, jene zu erkennen und entsprechend zu reagieren (Bartneck u.a. 2019, 82). Vor diesem Hintergrund ist die Wirksamkeit der Simulation von menschlicher Kommunikation in Schrift und Sprache sowie die Vortäuschung von Emotionen seitens „Künstlicher Intelligenz“ besonders augenällig. Keine technologische Entwicklung zuvor hatte ein vergleichbares Poetenzial, vom Menschen als gleichwertiges Gegenüber wahrgenommen zu werden. Folglich wird im Diskurs die Verantwortung der Entwickler betont und versucht, die Systeme dermaßen zu regulieren, dass Menschen zumindest nicht zu Schaden kommen (vgl. Misselhorn 2018). „Künstliche Intelligenz“ soll eine „gute soziale Interaktionsähigkeit“ erreichen, und in der Lage sein, „soziale Normen, den kulturellen Kontext und die Werte der Menschen“ zu erfassen (Bartneck u.a. 2019, 83). Diese Aufgaben zu programmieren, dürfte eine Herausforderung sein, da die inzwischen oft thematisierten Bereiche der Moral und der Ethik berührt sind. Weit weniger oft wird diskutiert, wie Menschen auf den Kontakt mit Programmen und Maschinen, die menschliches Verhalten simulieren, vorbereitet werden sollen. 46 Ralph-Miklas Dobler Der Mensch entwickelt - zumindest in seiner aktuellen Entwicklungsstufe - sehr schnell Geühle gegenüber nichtmenschlichen Objekten. Das bereits angesprochene Tamagotchi ist hierür im Spielzeugbereich ein ebenso aussagekräftiges Beispiel wie die „Hello Barbie“ von Mattel. Letztere war vernetzt und konnte wie Sprachassistent*innen Daten sammeln und überwachen (vgl. (Bartneck u.a. 2019, 95-101). Solange davon ausgegangen wird, dass „Künstliche Intelligenz“ Emotionen und damit das Menschsein simuliert, bleibt die Beziehung zwischen Mensch und Programm einseitig. Je nach Kontext kann dies Vorteile oder Nachteile mit sich bringen. Ebnet man jedoch den Unterschied „zwischen formaler Berechnung und […] subjektiver Bedeutung“ ein und kommt zur Auffassung, dass der Mensch ähnlich wie eine Maschine nur simulierbare Rechenoperationen im Gehirn ausührt, wird die Lage komplexer (Feustel 2018, 71). Zahlreiche Diskurse innerhalb der „Künstlichen Intelligenz“ übertragen aktuell bewusst oder unbewusst die Funktion von elektronischen Systemen auf das menschliche Gehirn und machen dieses damit zu einem technischen Problem. Den Anfang hierür machte bereits der provozierende Begriff „Künstliche Intelligenz“, heute sind es Worte wie „Künstliche Neuronale Netzwerke“, „lernen“, „trainieren“, „üttern“, „denken“ sowie die Problemfelder Verantwortung, Ethik und Moral, die nicht nur nahelegen, dass die Maschinen in der Wahrnehmung anthropomorphisiert werden, sondern, dass der Mensch ein elektrotechnischer Schaltkreis ist. Ein Wandel des Menschenbildes, das aktuell in der westlichen Welt noch sehr stark von den Ideen der Aufklärung geprägt ist, könnte in diese Richtung ühren. Eine solche Veränderung wäre vor dem Hintergrund der vergangenen zwei Jahrtausende nicht ungewöhnlich, allerdings wären ihre Folgen weitreichender als nur ein neues Verhältnis von Mensch und Maschine. 22 Darüber hinaus ist es wichtig, bei der bereits jetzt stattfindenden sozialen Interaktion von Mensch und „Künstlicher Intelligenz“ die Vorteile ür die Nutzer*innen jeweils differenziert zu betrachten. Nutzer*in ist hierbei, wer mit dem System kommuniziert und nicht wer es erwirbt und einsetzt. Zu fragen wäre, was ür ein Menschenbild zugrunde gelegt wird, wenn Patienten und Pflegebedürftige, aber auch Gesprächspartner*innen von Sprachassistent*innen, Chatbots und E-Commerce eine emotionale Bindung zu der jeweiligen „Künstlichen Intelligenz“ entwickeln und von dieser verührt, betreut, überzeugt und unterhalten werden. Der Kontakt zu technischen Simulakren könnte dazu ühren, dass die Nutzer*innen sich an deren Verhalten gewöhnen und Ähnliches von ihren Mitmenschen erwarten. Die Folgen wären unter anderem fehlende Kritikähigkeit, Fehlerintoleranz, Ungeduld und Langeweile. 23 Zudem schließen sich Fragen nach der Kontrolle, der Macht und der Privatsphäre an (vgl. Bartneck u.a. 2019, 91-107). Für die „Künstliche Intelligenz“ als eine Zukunftstechnologie, die das Poetenzial besitzt, das menschliche Da- 22 So wird der Mensch als „Datenhaufen“ zu einem „reduktionistischen, analytisch auslesbaren Modell“, das im „digitalen Selbst“ zur Realität wird (Seele 2020, 154). 23 Die Problematik wird oft anhand von humanoiden Robotern, insbesondere Sex-Robotern, diskutiert (vgl. Wennerscheid 2019; Bartneck u.a. 2019, 121-124; Misselhorn 2021, 110-135). 3 „Künstliche Intelligenz“ als Simulation und als Simulakrum 47 sein global entscheidend zu verbessern, sind diese Fragen fundamental. Ihre effiziente Simulation von menschlichen Eigenschaften zwingt zu einer beständigen Definition des Menschlichen an sich. 24 Nicht die Technik birgt Gefahren, sondern einzig ihre Verwendung (vgl. Feustel 2018, 13). 3.7 Literaturverzeichnis Asada, Minoru 2015: Development of Artificial Empathy. In: Neuroscience Research, 90, 2015, 41-50. Asada, Minoru 2019: Artificial Pain May Induce Empathy, Morality, and Ethics in the Conscious Mind of Robots. In: Philosophies 4, 2019, 38. Barthes, Roland (1966): Die strukturalistische Tätigkeit. In: Kursbuch, 5, 1966, 190-196. Bartneck, Christoph u.a. (2019): Ethik in KI und Robotik. München: Hanser. Baudrillard, Jean (1978): Die Präzession der Simulakra. In: ders., Agonie des Realen. Berlin: Merve, 7-69. Bostrom, Nick (2016): Superintelligenz. Szenarien einer kommenden Revolution. Frankfurt a. M.: Suhrkamp. Brockmann, John 2017. Was sollen wir von künstlicher Intelligenz halten? Frankfurt a. M.: Fischer. Burckhardt, Martin (2018): Philosophie der Maschine. Berlin: Matthes & Seitz. Cachelin, Joël Luc (2017): Internet Gott. Die Religion des Silicon Valley. Bern: Stämpfli. Chollet, Francois (2019). https: / / twitter.com/ fchollet/ status/ 1148659835052802049 [Stand 2021-04-20]. De Vault, David (2014): SimSenseiKiosk: A Virtual Human Interviewer for Healthcare Decision Support. In: Proceedings of the 13 th International Conference on Autonomous Agents and Multi-agent Systems. Red Hook: Curran Associates, vol. 2, 1061-1068. Feustel, Robert (2018): „Am Anfang war die Information“. Digitalisierung als Religion. Berlin: Verbrecher. Foot, Philippa (2002): The Problem of Abortion and the Doctrine of the Double Effect. In: dies. Virtues and Vices and Other Essays in Moral Philosophy (1978). Oxford: University Press, 19-31. Foucault, Michel (1974): Die Ordnung der Dinge. Frankfurt a. M.: Suhrkamp. Frohn, Elke Sofie und Lützenkirchen, H.-Georg (2005): Idol. In: Metzlers Lexikon Religion, hg. v. Christoph Auffarth u.a. Stuttgart: Metzler, Bd. 2, 72-81. 24 Eine zentrale Frage hierbei muss sein, ob sich das analoge Leben in digitale Parameter verwandeln lässt (vgl. Seele 2020, 158). 48 Ralph-Miklas Dobler Haring, Kerstin Sophie; Mougnot, Céline; Ono, Fuminori; Watanabe, Katsumi: Cultural Differences in Perception and Attitude towards Robots. In: International Journal of Affective Engineering, 13, 2014, 149-157. Hegel, Georg Wilhelm Friedrich (1972): Grundlinien der Philosophie des Rechts, hg. v. Eva Moldenhauer und Karl Markus Michel. Frankfurt a. M.: Suhrkamp. Historisches Wörterbuch der Philosophie (HWPh) 2019, hg. v. Joachim Ritter, 13 Bde., Darmstadt: Wissenschaftliche Buchgesellschaft. Kant, Immanuel (1974, I): Kritik der Urteilskraft, hg. v. Wilhelm Weischedel. Frankfurt a. M.: Insel. Kant, Immanuel (1974, II): Kritik der reinen Vernunft I, hg. v. Wilhelm Weischedel. Frankfurt a. M.: Insel. Linder, Erik (2011): Coaching Wahn. Wie wir uns hemmungslos optimieren lassen. Berlin: Econ. Lucas, Gale: Reporting Mental Health Symptoms: Breaking Down Barriers to Care with Virtual Human Interviewers. In: Frontiers in Robotics and AI, 4, 2017. https: / / doi.org/ 10.3389/ frobt.2017.00051 [Stand 2021-04-20] Mau, Steffen (2017): Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp. Misselhorn, Catrin (2018): Grundfragen der Maschinenethik. Ditzingen: Reclam. Misselhorn, Catrin (2021): Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co. Ditzingen: Reclam. Proposal for the Dartmouth Summer Research Project (1955). Verügbar unter: http: / / jmc.stanford.edu/ articles/ dartmouth/ dartmouth.pdf [Stand 2021-04-20]. Reckwitz, Andreas (2017): Die Gesellschaft der Singularitäten. Zum Strukturwandel der Moderne. Berlin: Suhrkamp. Reckwitz, Andreas (2019): Das Ende der Illusionen. Politik, Ökonomie und Kultur in der Spätmoderne. Berlin: Suhrkamp. Reeves, Byron; Nass Clifford: The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. Stanford: CSLI Publications. Scheier, Claus-Artur (2016): Luhmanns Schatten. Zur Funktion der Philosophie in der medialen Moderne. Hamburg: Meiner. Scherer, Bernd und Renn, Jürgen (2015): Das Anthropozän. Zum Stand der Dinge. Berlin: Matthes & Seitz. Schwarke, Christian (2014): Technik und Religion. Religiöse Deutungen und theologische Rezeption der Zweiten Industrialisierung in den USA und in Deutschland. Stuttgart: Kohlhammer. Seele, Peter (2020): Künstliche Intelligenz und Maschinisierung des Menschen. Magdeburg: Herbert von Halem. 3 „Künstliche Intelligenz“ als Simulation und als Simulakrum 49 Shanahan, Murray (2015): The technological singularity. Cambridge, Mass.: MIT Press. Simmel, Georg (1992): Soziologie, hg. v. Otthein Rammstedt. Frankfurt a. M.: Suhrkamp. Stenzler, Friedrich (1993): Ideologie. In: Handbuch religionswissenschaftlicher Grundbegriffe, hg. v. Hubert Cancik u.a. Stuttgart: Kohlhammer, Bd. 3, 210- 217. Turing, Alan (1950): Computing Machinery and Intelligence. In: MIND. A quarterly review of Psychology and Philosophy, 236, 1955, 433-460. Wagner, Johanna (2020): Künstliche Intelligenz als moralisch verantwortliche Akteure? Leiden: Brill mentis. Wennerscheid, Sophie ( 2019 ): Sex Machina. Berlin: Matthes & Seitz. Zinser, Hartmut (1993): Projektion. In: Handbuch religionswissenschaftlicher Grundbegriffe, hg. v. Hubert Cancik u.a. Stuttgart: Kohlhammer, Bd. 4, 343- 344. 4 KI und die Wissenschaften. Das Beispiel der Teilchenphysik 1 Jens Schröter Es hat in den letzten Jahren vermehrte Aufmerksamkeit ür die Rolle gegeben, die Verfahren der „Künstlichen Intelligenz“ (= KI) in den Natur-, aber auch Sozialwissenschaften spielen. 2 Unter KI versteht man heutzutage wesentlich verschiedene Verfahren des maschinellen Lernens. 3 Die Mustererkennung, also das Finden von Strukturen in großen Datenmengen, ist eine der zentralen Anwendungen des maschinellen Lernens. 4 Wir können also davon ausgehen, dass seine Rolle in der Wissenschaft auch die Mustererkennung ist, also das Finden von Strukturen in Daten. Und zumindest ür die Naturwissenschaften, in denen Daten eine andere Rolle spielen als in den, sagen wir mal, Geisteswissenschaften, ist das auch richtig. Im folgenden Abschnitt wollen wir die Rolle des maschinellen Lernens in der Teilchenphysik diskutieren, fokussiert auf ein Beispiel: die spektakuläre Entdeckung des Higgs-Bosons im Jahr 2012. Um die Rolle des maschinellen Lernens besser zu verstehen und ob und wie es die Wissenschaft verändert hat, ist es notwendig, einen Blick in die Geschichte der Teilchenphysik zu werfen. Dies kann man tun, indem man eine andere spektakuläre Entdeckung aus dem Jahr 1964 kurz analysiert - die Entdeckung des sogenannten ‚Ω - ‘. Dieses Bild (s. Abb. 1) zeigt eines der wichtigsten Fotos aus der Geschichte der Teilchenphysik, ein goldenes Ereignis, wie Peter Galison es genannt hat. 5 Betrachtet man das Foto dekontextualisiert, ist es unverständlich. Man kann nicht sagen, was abgebildet ist - denn die Referenz hängt vom Wissen ab. 6 Im Kontext des kommentierenden Liniendiagramms, wie es in der heute legendären Publikation von 1964 abgedruckt ist 7 , wird das Bild aussagekräftig, das Muster ist zu erkennen. Das Foto wird mit einem Liniendiagramm kombiniert, das zeigt, welche Spuren wichtig sind. Die Linien sind mit Symbolen versehen, 1 Dieser Text entstammt dem Kontext des von der VW-Stiftung geförderten Forschungsprojekts „How is Artifical Intelligence Changing Science? Reasearch in the Era of Learning Algorithms“, https: / / howisaichangingscience.eu, 15.01.21. 2 So populär z. B. Christian Stöcker, „KI als Problemlöser. Der Forschungs-Turbo“, Der Spiegel, 23.2.2020, https: / / www.spiegel.de/ wissenschaft/ mensch/ beschleunigte-wissenschaftder-forschungs-turbo-a-b828d49e-4d5c-414b-8315-0ef2c5ce0a30, 15.01.21. 3 Vgl. Ethem Alpaydin, Machine Learning. The New AI (Cambridge, MA: MIT Press, 2016) 4 Vgl. ebd., Kapitel 3. 5 Vgl. Peter Galison, Image and Logic. A Material Culture of Microphysics (Chicago: University of Chicago Press 1997), 22/ 23. 6 Vgl. Catherine Elgin, With Reference to Reference (Indianapolis: Hackett 1983). 7 Vgl. V. E. Barnes et al., „Observation of a Hyperon with Strangeness Minus Three“, Physical Review Letters 12, Nr. 8 (24.2.1964): 204-206. 52 Jens Schröter die - zumindest ür Experten - deutlich machen, welche Spuren von welchen Teilchen dargestellt sind. Die Zahlen in Klammern verweisen auf zusätzliche Informationen im Text. Dort werden ausührlichere Argumente ür die Interpretation der Spuren gegeben. Abb. 1: Fotografie des Omega-Minus-Ereignisses mit erklärendem ‘Liniendiagramm’, aus: V. E. Barnes et al., ‘Observation of a Hyperon with Strangeness Minus Three’, in: Physical Review Letters , Vol. 12, No. 8 (24.2.1964), S. 204-206 (205, bearbeitet). Bei dem Foto handelt es sich um die Aufnahme Nummer 97.025 einer Versuchsreihe, die Anfang der 1960er Jahre im Brookhaven Laboratory, New York, durchgeührt wurde. 8 In dem amerikanischen Labor ür Teilchenphysik hatten Forscher eine Blasenkammer aufgebaut, die mit etwa 1.000 Litern Wasserstoff geüllt war. In die 80 Zentimeter hohe Blasenkammer des Labors wurde ein Strahl aus negativ geladenen Kationen geschossen. Bei den Kollisionen des Strahls mit den Atomen entstehen zahlreiche neue Teilchen, die in Abhängigkeit von ihrer Ladung und ihrer Masse Spuren hinterlassen, die winzigen Kondensstreifen ähneln. Doch nur ein Teilchen interessierte die Forscher - nämlich das Teilchen mit dem Namen „Ω - “. Murray Gell-Mann war der erste, der die Existenz dieses Teilchens bereits 1962 gegenüber seinen Kollegen auf einer internationalen Konferenz behauptet hatte. Gell-Mann konnte das Teilchen und seine genauen Eigenschaften vorhersagen, da er eine neue Gesetzmäßigkeit im bis dahin eher verwirrenden Teilchenzoo entdeckt hatte, nämlich die 8 Vgl. Nicholas Samios, „Early Baryon and Meson Spectroscopy Culminating in the Discovery of the Omega Minus. SU(3) and Quarks“, verfügbar unter www.osti.gov/ bridge/ servlets/ purl/ 10162083-fAD7aQ/ 10162083.PDF, 15.01.21. Siehe auch Nicholas Samios, „Early Baryon and Meson Spectroscopy Culminating in the Discovery of the Omega-Minus and Charmed Baryons,“ in The Rise of the Standard Model. Particle Physics in the 1960s and 1970s, ed. Lilian Hoddeson et al. (Cambridge, NY: Cambridge University Press 1997), 525-541. 4 KI und die Wissenschaften. Das Beispiel der Teilchenphysik 53 sogenannte „SU(3)-Symmetrie“. 9 Bestätigt wurde diese Theorie durch den „Beweis“ der Spuren auf dem Foto Nummer 97.205 aus dem Jahr 1964. Allein die Tatsache, dass es das 97.205te Bild war, auf dem die gesuchten Spuren auftraten, zeigt, wie viel medialer Aufwand in die Teilchenjagd gesteckt worden war. Ein Film wurde mit hoher Geschwindigkeit über die Blasenkammer geührt, um die unzähligen und ungeordneten Kollisionsereignisse einzufangen. Nachdem das Bombardement beendet war, musste der stereoskopische Film Bild ür Bild ausgewertet werden. 10 Zu diesem Zweck gab es ganze Teams von Spezialisten (sogenannte „Scanner“), die nach verdächtigen Spuren Ausschau hielten. Wurden fotografische Spuren gefunden oder doch zumindest vermutet, mussten sie mit Hilfe von digitalen Computern interpretiert werden. Dies war ein hochkomplexer Prozess, der (in allgemeiner Form) in einem Papier von 1967 mit dem Titel „Man-Machine Cooperation in Digital Pattern Recognition of Bubble Chamber Tracks“ ausührlich beschrieben wurde. 11 Das Interessante dabei ist natürlich, dass der Begriff „Mustererkennung“ schon damals verwendet wurde, um die Entdeckung vorhergesagter Strukturen in der Masse der fotografischen Daten zu beschreiben. 12 Aber diese Mustererkennung musste über die Zeit stabilisiert werden: Das erwähnte Bild war zum Zeitpunkt seiner Herstellung im Jahr 1964 noch nicht das ikonische Foto, als das wir es heute sehen. Als sich weitere Indizien zu häufen begannen 13 , wurde die These, dass das Bild das erste Foto eines Omega-Minus-Ereignisses sei, immer stabiler. Das Foto überzeugte die meisten Physiker von der Richtigkeit der Theorie von Murray Gell-Mann (er erhielt 1969 den Nobelpreis) - heute ist es unter der Überschrift „Quark-Modell“ eine der tragenden Säulen im sogenannten „Standardmodell der Teilchenphysik“ geworden. Bereits in den 1960er Jahren spielten im damals entstehenden Standardmodell der Higgs-Mechanismus und das dazugehörige Boson eine wichtige Rolle. 14 Sie 9 Zur Geschichte der Quark-Physik siehe Andrew Pickering, Constructing Quarks. A Sociological History of Particle Physics (Chicago: University of Chicago Press 1984). Siehe auch Laurie M. Brown et al., „The Rise of the Standard Model: 1964-1979,“ in Hoddeson et al., 3- 35. Siehe auch Wolfgang Hagen, „Das atlantische Standardmodell - Anmerkungen zu einer Genealogie der Elektrizität und ihrer Medien“, verfügbar unter http: / / www.whagen.de/ PDFS/ 07953_HagenDasatlantischeStanda_2014.pdf, 15.01.21. 10 Die Aufnahmen wurden stereoskopisch durchgeführt, um die Informationen über die räumliche Lage der Spuren aufzuzeichnen, dies ist wichtig, um die Struktur der Spuren verstehen zum können. 11 Vgl. R. C. Strand, „Man-Machine Cooperation in Digital Pattern Recognition of Bubble Chamber Tracks“, Annals of the New York Academy of Sciences 157, no. 1 (1967): 65-82. 12 Siehe zum Begriff der „fotografischen Daten“ Estelle Blaschke, „From Microform to the Drawing Bot: The Photographic Image as Data“, Grey Room 75 (2019), 60-83. 13 Wichtig war z. B., dass Experimente des „Deep-Inelastic Scattering“, beginnend um 1967, gezeigt hatten, dass Protonen eine tiefere Struktur besitzen, was der Idee Glaubwürdigkeit verlieh, dass Quarks reale physikalische Entitäten und nicht nur hilfreiche mathematische Konstruktionen sind, siehe Jerome Friedman, „Deep-Inelastic Scattering and the Discovery of Quarks“, in: Hoddeson et al., 566-588. 14 Siehe Brown et al., „The Rise of the Standard Model“, 12/ 13 und 15/ 16. 54 Jens Schröter wurden in einer kurzen Arbeit postuliert, die zuällig im selben Jahr 1964 veröffentlicht wurde. Das Boson war lange Zeit hypothetisch und wurde gefordert, um den Prozess der elektroschwachen Symmetriebrechung zu erklären und mithin, warum bestimmte Teilchen eine Masse haben und andere nicht. Der Nachweis dieses Teilchens - oder zumindest eines sehr ähnlichen Bosons - wurde im Jahr 2012 am CERN bekannt gegeben. Im Grunde war der Prozess ähnlich wie beim Omega Minus: Es gab ein theoretisches Modell, das ein bestimmtes Teilchen vorhersagte. Und nun galt es zu testen, ob dieses Modell die Natur korrekt beschreibt oder nicht. Wie konnte das Teilchen gefunden werden? Die Suche nach dem Higgs-Boson ist das Hauptbeispiel ür einen Artikel aus Nature über die Rolle des maschinellen Lernens in der Teilchenphysik. Interessanterweise beginnt der Text mit einem Rückblick auf die Blasenkammern und visuellen Mustererkennungsmethoden, die wir gerade in Bezug auf das ‘Ω - ’ diskutiert haben. Wir zitieren in der Länge aus dem Papier in Nature: „Viele bekannte Teilchen wurden mit Hilfe von Detektoren entdeckt, die subatomare Teilchen ür das menschliche Auge sichtbar machen. Zum Beispiel verwandeln Blasenkammern, die mit überhitzten Flüssigkeiten geüllt sind, die kochen, wenn geladene Teilchen durch sie hindurchgehen, die Wege der Teilchen in sichtbare Spuren von Blasen, die dann fotografiert und analysiert werden können. Die Detektoren am Large Hadron Collider (LHC) sind wesentlich komplexer und zeichnen Daten mit weitaus höheren Raten auf, als es mit Blasenkammern möglich ist. Zum Beispiel analysiert das LHCb-Experiment alle sechs Sekunden so viele Ereignisse wie die Große Europäische Blasenkammer in ihren gesamten 11 Betriebsjahren (1973-1983) aufgezeichnet hat, und die Datensätze, die von den ATLAS- und CMS-Experimenten am LHC gesammelt werden, sind mit den größten industriellen Datenproben vergleichbar. Für Menschen ist es unmöglich, solch große Datenmengen visuell zu inspizieren; Algorithmen, die auf großen Rechnerfarmen laufen, haben diese Aufgabe längst übernommen.“ 15 Offensichtlich sind die Verarbeitungsmöglichkeiten der menschlichen Akteure den gigantischen Datenmengen nicht mehr gewachsen - es ist wichtig dabei zu betonen, dass die heute eingesetzten Detektoren ganz anders arbeiten als jene halb filmisch-fotografischen und halb frühdigitalen Verfahren am Brookhaven Lab 1964. Der Aufbau der verschiedenen großen Detektoren am CERN soll hier nicht weiter erklärt werden, es reicht zu sagen, dass sie durch andere Verfahren sehr viel mehr Daten erzeugen können. 16 Der Text aus Nature ährt fort: 15 Alexander Radovic et al., „Machine Learning at the Energy and Intensity Frontiers of Particle Physics“, Nature 560 (2018): 41-48, hier: 41. Für weitere technische Details siehe Dimitri Bourilkov, „Machine and Deep Learning Applications in Particle Physics“, https: / / arxiv.org/ pdf/ 1912.08245.pdf, 15.01.21. 16 Vgl. z. B. sehr ausführlich zum Aufbau des ATLAS-Detektors, The ATLAS Collaboration et al. „The ATLAS Experiment at the CERN Large Hadron Collider“, Journal of Instrumentation 3, S08003 (2008), https: / / iopscience.iop.org/ article/ 10.1088/ 1748-0221/ 3/ 08/ S08003/ pdf, 15.01.21. 4 KI und die Wissenschaften. Das Beispiel der Teilchenphysik 55 „Die Sensor-Arrays der LHC-Experimente produzieren Daten mit einer Rate von etwa einem Petabyte pro Sekunde. Selbst nach einer drastischen Datenreduktion durch die speziell angefertigte Elektronik zum Auslesen der Sensorarrays, die eine Nullunterdrückung der spärlichen Datenströme und die Verwendung verschiedener spezieller Kompressionsalgorithmen beinhaltet, sind die Datenraten immer noch zu groß, um die Daten unbegrenzt zu speichern bis zu 50 Terabyte pro Sekunde, was zu so vielen Daten pro Stunde ührt, wie Facebook weltweit in einem Jahr sammelt.“ 17 Aber warum müssen diese Systeme so viele Daten produzieren? Der Text erklärt: „Einstein hat bekanntlich die Masse m mit der Energie E über E = mc 2 in Beziehung gesetzt, wobei c die Lichtgeschwindigkeit im Vakuum ist. Ein leistungsähiger Teilchenbeschleuniger wie der LHC, der einen Umfang von 27 km hat, ist daher erforderlich, um Teilchen zu erzeugen, die um Größenordnungen massereicher sind als das Proton, wie z. B. das Higgs-Boson. Ein Higgs-Boson wird nur einmal alle paar Milliarden Proton-Proton-Kollisionen am LHC erzeugt. Viele andere interessante Reaktionen treten um Größenordnungen seltener auf. Damit solche Datenproben in einem vernünftigen Zeitrahmen aufgenommen werden können, kollidiert der LHC fast eine Milliarde Protonen pro Sekunde.“ 18 Es ist notwendig, so viele Daten über so viele Ereignisse zu erzeugen, weil die gesuchten Prozesse so extrem selten sind - wie es die Theorie vorhersagt. „Wie oben erwähnt, wird ein Higgs-Boson nur einmal alle paar Milliarden Proton-Proton-Kollisionen am LHC erzeugt; allerdings zerällt das Higgs-Boson normalerweise auf eine Art und Weise, die viel häufiger erzeugte Prozesse nachahmt. Die sauberste experimentelle Signatur des Higgs-Bosons beinhaltet seinen Zerfall in zwei Myon-Antimyon-Paare, der etwa einmal alle 10 Billionen Proton-Proton-Kollisionen auftritt.“ 19 Das heißt, die maschinellen Lernverfahren haben vor allem den Zweck, aus dem immensen Rauschen die Ereignisse herauszufiltern, die den Vorhersagen der Theorie entsprechen. Aber woher wissen die maschinellen Lernsysteme das? „Die Notwendigkeit zu verstehen, wie Signale in den Detektoren aussehen werden und welche anderen Prozesse die Signale nachahmen können, hat zur Entwicklung von hochwertigen Simulationswerkzeugen geührt. Darüber hinaus liefert das Standardmodell genaue Vorhersagen über die Raten und kinematischen Verteilungen vieler Prozesse, die interessante Signaturen nachahmen können (als Hintergründe bezeichnet) und die zu den Datenproben der Teilchenphysik beitragen, was wichtige Maßstäbe ür die Validierung der Simulationswerkzeuge und das Verständnis ihrer Unsicherheiten liefert. Daher 17 Radovic et al., „Machine Learning“, 41. 18 Ebd. 19 Ebd. 56 Jens Schröter werden simulierte Datenproben oft zum Trainieren der Machine-Learning-Algorithmen verwendet, da in solchen Proben alle Informationen konstruktionsbedingt bekannt sind.“ 20 Auch wenn dies vereinfacht ist, wird deutlich: Die Analyse der großen Datenmengen durch die ML-Systeme gelingt, indem man sie mit Simulationen nach der Theorie des Standardmodells trainiert. Die KI-Systeme „wissen“ also sozusagen, wonach sie suchen müssen. Dies zeigt, dass ohne die performativen Modelle der Simulation, wie Licklider sie schon 1967 genannt hat 21 , die Datenanalyse nicht funktionieren würde. Die Simulation steht zwischen dem theoretischen Modell, sagen wir der Theorie des Higgs-Mechanismus, und den Rohdaten. Simulationen setzen die Theorie in „Computerexperimenten“ so um, so dass Muster erzeugt werden können, die zum Trainieren der maschinellen Lernsysteme verwendet werden können. KI in den Wissenschaften bedeutet im Wesentlichen Mustererkennung, insbesondere durch künstliche neuronale Netze und andere Formen des maschinellen Lernens in riesigen Datenmengen. Es gibt eine Kontinuität zu früheren wissenschaftlichen Praktiken, die auch schon Mustererkennung in (fotografischen) Daten waren, aber mit dem Unterschied, dass wir heute viel mehr Daten haben - die Systeme finden Muster, die der Mensch nicht mehr erkennen kann. Die ML-Systeme werden wiederum mit Daten trainiert, aber Daten, die - zumindest in dem Beispiel hier - selbst durch Simulationen erzeugt werden, Simulationen, die wiederum auf theoretischen Modellen basieren. Dies ist deshalb hervorzuheben, weil Chris Anderson 2008 einen in der Folge viel diskutierten Text schrieb, in dem behauptet wurde, dass die riesige Menge an gesammelten Daten Modelle und Theorie überflüssig mache. Wieder ein längeres Zitat: „Alle Modelle sind falsch, aber einige sind nützlich. So verkündete der Statistiker George Box vor 30 Jahren, und er hatte Recht. Aber welche Wahl hatten wir? Nur Modelle, von kosmologischen Gleichungen bis zu Theorien über menschliches Verhalten, schienen in der Lage zu sein, die Welt um uns herum konsistent, wenn auch unvollkommen, zu erklären. Bis jetzt. Heute müssen sich Unternehmen wie Google, die in einer Ära mit einer enormen Datenülle aufgewachsen sind, nicht mehr mit falschen Modellen zufriedengeben. In der Tat müssen sie sich überhaupt nicht mit Modellen zufriedengeben. [...] Das große Ziel ist hier allerdings nicht die Werbung. Es ist die Wissenschaft. Die wissenschaftliche Methode ist auf überprüfbaren Hypothesen aufgebaut. 20 Radovic et al., „Machine Learning“, 45. 21 Vgl. J. C. R. Licklider, „Interactive Dynamic Modeling,“ in Prospects for Simulation and Simulators of Dynamic Systems, ed. George Shapiro et al. (New York: MacMillan 1967), 281-289. Vgl. zur zentralen Rolle von Computersimulationen für die Wissenschaft nur: Gabriele Gramelsberger, Computerexperimente: Zum Wandel der Wissenschaft im Zeitalter des Computers (Bielefeld: Transcript 2010) und Johannes Lenhard; Calculated Surprises. A Philosophy of Computer Simulation (Oxford: University Press 2019). Siehe auch Galison, Image and Logic, Kapitel 8. 4 KI und die Wissenschaften. Das Beispiel der Teilchenphysik 57 Diese Modelle sind zum größten Teil Systeme, die in den Köpfen der Wissenschaftler visualisiert werden. Die Modelle werden dann getestet, und Experimente bestätigen oder falsifizieren die theoretischen Modelle, wie die Welt funktioniert. Auf diese Weise arbeitet die Wissenschaft seit Hunderten von Jahren. Wissenschaftler sind darin geschult, zu erkennen, dass Korrelation nicht gleich Kausalität ist, dass man keine Schlüsse ziehen sollte, nur weil X und Y korrelieren (es könnte ja auch nur ein Zufall sein). Stattdessen muss man die zugrundeliegenden Mechanismen verstehen, die die beiden miteinander verbinden. Sobald Sie ein Modell haben, können Sie die Datensätze mit Sicherheit miteinander verbinden. Daten ohne ein Modell sind nur Rauschen. Aber angesichts der riesigen Datenmengen wird diese Herangehensweise an die Wissenschaft - Hypothesen aufstellen, modellieren, testen - immer obsoleter. […].” 22 Was Anderson hier behauptet, ist, zumindest bis heute und zumindest in einigen Bereichen der Wissenschaft, falsch: Datenanalyse braucht Modelle und wie man gerade am LHC sehen kann, gilt nach wie vor: „Data without a model is just noise“. Die Hauptaufgabe der Methoden des maschinellen Lernens ist es, die von der Theorie vorhergesagten Spuren im Rauschen der Kollisionsereignisse zu finden wenn sie gefunden werden, bekommen einige Leute Nobelpreise (wie Higgs und Englert 2013). Wenn die vorhergesagten Ereignisse nicht gefunden werden oder wenn ganz andere Ereignisse gefunden werden, nehmen sich Wissenschaftshistoriker der gescheiterten Modelle an. „Hypothesen aufstellen, modellieren, testen“ gilt immer noch. Aber vielleicht gilt diese Beharrlichkeit von Theorie und Modell auch im Zeitalter von Big Data nur in diesem Beispiel. Vielleicht ist es in anderen wissenschaftlichen Bereichen und Disziplinen anders. Gerade der Einsatz von Machine Learning in der Soziologie, den Wirtschaftswissenschaften, ja sogar in den Geistes- und Kulturwissenschaften könnte ganz anders funktionieren, denn werden dort hypothetische Vorhersagen getroffen und Modelle entworfen, die experimentell getestet werden können? Vermutlich nicht, oder zumindest auf andere Art und Weise. Jedenfalls zeigt dies, dass die Frage nach der Rolle von KI in den Wissenschaften einerseits nach Disziplinen ausdifferenziert werden muss. Andererseits muss man die Verbindung dieser Verfahren mit anderen, etwa der Computersimulation, beachten. Hier liegt noch ein weites Forschungsfeld ür die Medienwissenschaft. 22 Chris Anderson, „The End of Theory: The Data Deluge Makes the Scientific Method Obsolete“, Wired, https: / / www.wired.com/ 2008/ 06/ pb-theory/ , 15.01.21. 5 Virtuelle Spielfelder als Begegnungsorte von Menschen und Computern Philip Hauser In einer Rede auf einem Schachkongress 1952 benennt der passionierte Schachspieler Marcel Duchamp drei Hauptaspekte, die ür ihn das Schachspiel ausmachen: den „Wettkampf zwischen zwei Gehirnen“, der „dem natürlichen Instinkt des Kampfes auf friedvolle Weise nachkommt“, „die Anwendung von wissenschaftlichen Methoden auf das Schachspiel“, welche „die Klarheit der Gedanken zu seinem Ziel [hat]“ sowie die „künstlerische […] Seite des Schach [sic! ]“. (Strouhal 1994, 9) Im zweiten von Duchamp genannten Punkt deutet sich bereits der Paradigmenwechsel an, der den Menschen nicht einmal ein halbes Jahrhundert später aus seiner dominanten Stellung im Schach beördern wird. Zudem zeichnet sich der Grund ab, der mit daür verantwortlich sein wird, dass Duchamp sich zum Ende seines Lebens hin, mit der Begründung, Schach sei „zur Wissenschaft geworden [und] nicht länger eine Kunst“ (Strouhal 1994, 59), von dem Spiel abwendet. Spiele bilden ür die Idee der künstlichen Intelligenz schon früh einen wesentlichen Bezugspunkt. Das ‚intelligente‘ Verhalten von Computern entfaltet sich mitunter an Schach, dessen Beherrschung von Claude E. Shannon als wesentliche Hürde ür ‚denkende‘ Maschinen benannt wird und sich damit als Referenzpunkt ür intelligentes Verhalten von Computern entwickelt. 1 Die Fähigkeit, Schach spielen zu können, zeigt sich dabei letztlich weniger als Test ür intelligentes Verhalten im Allgemeinen, als vielmehr eine Bestimmung dessen, was intelligentes Verhalten im Rahmen der jeweiligen Spiele bedeutet. 2 Aber auch die aktuellere KI-Forschung hat Spiele als Testfelder und Experimentalräume gewählt, mittels derer die lernenden Programme entwickelt und trainiert werden. Prominentestes Beispiel dürfte hier wohl Go sein, welches nach Schach als neuer Benchmark ür KI-Programme auserkoren wurde. Dabei beschränkt sich die Auswahl an Spielen, die es ür KIs zu schlagen gilt, nicht auf Brettspiele wie Schach, Go oder Shogi, sondern beinhaltet auch Computerspiele wie StarCraft II und Dota 2. 3 Die beiden von Duchamp erstgenannten Aspekte des Schachspiels scheinen dabei den Diskurs von Spielen im Zusammenhang mit KI nach wie vor zu prägen. Der Wettkampf zwischen zwei Gehirnen ist inzwischen nicht nur im Schach zugunsten der ‚Computergehirne‘ 1 Vgl. Shannon 1950. Aber auch der bis in die Populärkultur hinein bekannte Turing-Test stellt sich ursprünglich als ‚Imitation Game‘ dar, in dem es nicht nur darum geht, ein menschliches Testsubjekt zu verwirren, sondern zudem auch klare Regeln dieses Tests oder Experiments definiert werden, anhand dessen der Erfolg bemessen werden kann. Vgl. Turing 1950. 2 Vgl. hierzu Gramelsberger et al. 2019. 3 Während StarCraft II Schach und Go insofern ähnelt, dass es auch eins gegen eins gespielt wird, ist Dota 2 ein Spiel, bei dem je fünf Spieler*innen im Team gegeneinander antreten. Das Programm ‚OpenAI Five‘ hat inzwischen die weltbesten Teams bezwungen. 60 Philip Hauser entschieden, sondern auch bei den übrigen genannten Spielen. Dies kann wohl eben jener ‚wissenschaftlichen‘ Perspektive zugeschrieben werden, welche die rechnerische Meisterung der Spiele zum Ziel hat. Die ‚künstlerische Seite‘ des Schachs wiederum hat bekanntermaßen vor allem in Duchamps Schachbildern ihren Niederschlag gefunden: „An der Oberfläche ähnelt eine Schachpartie stark einer Federzeichnung, mit dem Unterschied jedoch, dass der Schachspieler mit bereits bestehenden schwarzen und weißen Formen zeichnet, statt wie der Künstler diese Formen zu erfinden.“ (Strouhal 1994, 9) In den Schachbildern drückt sich vieles aus, was die mathematische Berechnung einer Schachpartie nicht erfasst, da dies ür die logischen Abläufe keine Rolle zu spielen scheint. So zeigt sich in den Schachbildern oftmals der ‚Wettkampf zwischen zwei Gehirnen‘ als ein tatsächliches Verschmelzen der Situationen, in denen Spieler*innenköpfe, Spielfiguren und Spielbrett nicht nur räumlich, sondern auch zeitlich durcheinander zu geraten scheinen. Die Spieler*innen scheinen so sehr in den möglichen Zügen der Gegner*innen vertieft, dass sie geradezu in deren Gedankenwelt ‚eintauchen‘: beide Seiten denken die möglichen Züge des Gegenübers voraus und gleichen diese wiederum mit ihren Möglichkeiten ab. So verdrehen sich die Gedanken ineinander, ohne dass sie sich direkt treffen würden. Im abstrakten Prozess des Spielens sind sie jedoch verschränkt, sie verbinden sich miteinander, ohne ineinander zu verschmelzen. Sie werden nicht identisch, ahmen sich gegenseitig jedoch so sehr nach, dass sie sich möglichst stark annähern. Je gleichmäßiger dabei das Kräfteverhältnis, desto symmetrischer und länger andauernder das Spiel, wobei das Ziel immer bleibt, eine Asymmetrie zu den eigenen Gunsten herzustellen, um so zu gewinnen. Ich möchte diese Aspekte, die in den Schachbildern Duchamps zum Vorschein kommen, im Folgenden als Anlass nehmen, weniger um eine Diskussion des Intelligenz-Begriffs zu entfalten, als um eine Analyse der Umfelder zu versuchen, in denen sich Mensch und Computer bewegen und begegnen, um damit die Möglichkeitsbedingungen dieser Bewegungen und Prozesse aufzuzeigen. Mit dem Lernen der Programme muss sich dabei auch unser Blick auf die entsprechenden Spielfelder verändern, in denen dieses Lernen sich vollzieht. Spiele zeigen sich dabei als Lernumgebungen und Spielen als ein kontinuierlicher Lernprozess, der ein adaptives Verhalten nicht nur simuliert, sondern dieses immer wieder neu aktualisiert. 5.1 Virtuelle Spielwelten Spielwelten, die in und durch Computerspiele entstehen, können aufgrund ihres ‚Als ob‘-Status 4 grundsätzlich als virtuell begriffen werden, wobei sich die Abgrenzung zu einer ‚realen Welt‘ außerhalb des umgangssprachlichen Ge- 4 Einem möglichen Wortsinn von ‚virtuell‘ entsprechend, können virtuelle Objekte als scheinbare Objekte begriffen werden. Indem die scheinbaren Objekte, bspw. durch das Medium des Computers, den Status eines symbolischen Zeichens erlangen, kann mit diesen interagiert werden. Vgl. Krämer 1998, 32-33. 5 Virtuelle Spielfelder als Begegnungsorte 61 brauchs als problematisch erweist. Vielmehr handelt es sich bei virtuellen Spielwelten um simulierte Welten. Dabei liegt der Fokus weniger auf der Künstlichkeit als auf dem dadurch produzierten Möglichkeitsraum mit eigenspezifischen Regeln, was auch die damit verbundene Wissensproduktion einschließt: „Computerspiele als Methoden der Erzeugung künstlicher Welten ziehen insofern ihre ganz eigenen […] Grenzen, die den Stand eines Wissenszusammenhangs vom Außen seines Nicht-Wissens trennen.“ (Pias 2002, 9) Damit werden in Computerspielen auch immer mögliche Welten verhandelt. Auch wenn der Begriff des Virtuellen in prominenter Weise mit dem Begriff des Computers verschränkt scheint und dabei eine besondere Virulenz entfaltet, ist die Virtualität jedoch keineswegs ein Aspekt, der sich auf Computerspiele beschränkt. Auch eine ‚analoge‘ Spielsituation wie Schach sowie dessen Spielbrett erweisen sich als virtuell, insofern sie einen prinzipiell gegebenen Möglichkeits- und Handlungsspielraum bereitstellen. 5 Schach kann dabei als ein Spiel der Virtualität gesehen werden, bei dem beständig mit drohenden Zügen operiert werden muss, ohne dass diese tatsächlich eintreten, da sie im besten Fall durch die eigenen Züge verhindert werden. Die noch nicht ausge- ührten Spielzüge sind dabei immer virtuell, sprich als gedankliche Möglichkeiten vorhanden. Virtualität im Sinne eines künstlich erzeugten Möglichkeitsraums erscheint entsprechend als geeigneter Testrahmen ür KI, da diese dynamisch auf auftretende Eventualitäten reagieren soll, sprich nicht streng algorithmisch, sondern adaptiv verährt. Spielwelten erzeugen jedoch auch immer Umwelten in Computerspielen, die auf den simulierten Raum begrenzt sind und damit gleichsam den Spielraum möglicher Handlungen vorschreiben - sei dies nun von menschlichen Spieler*innen ausgeührt oder von KI-Programmen. Mit anderen Worten: Spielwelten erzeugen begrenzte Handlungsräume. Die Begrenzung von Spielwelten als Ab- und Eingrenzung ist dabei notwendig, um das Funktionieren der jeweiligen Spiele zu gewährleisten. Könnte jede*r alle Schachfiguren nach Belieben ziehen, wäre die Spielmechanik fehlerhaft und das Spiel würde nicht mehr im intendierten Sinn funktionieren - ob auf dem Brett oder im Computer. Dies wäre weniger ür das Spiel selbst als ür die möglichen Resultate relevant. Veränderte Regeln ühren zu anderen Spielen, was aus spielerischer Sicht interessant und durchaus wünschenswert sein kann. Jedoch ührt dies auch zu nicht mehr eindeutig messbaren Ergebnissen, da die Voraussetzungen nicht wiederholbar wären. Hierin unterscheiden sich Spiele nicht von Experimenten. 6 Die Grenzen definieren sich beim Computerspiel nicht nur in Abgrenzung zum Außen des Spiels, sondern strukturieren auch die jeweilige Spielwelt durch eindeutige Handlungsmöglichkeiten, woraus sich eine scheinbar stabile 5 Den virtuellen Status analoger Spielfelder habe ich bereits in einem früheren Text herausgearbeitet. Vgl. Hauser 2018. 6 Was nicht heißt, dass ein ‚Herumspielen‘ oder ein ‚Herumexperimentieren‘ nicht prinzipiell möglich wären. Sie haben nur einen anderen, deutlich ergebnisoffeneren Status. 62 Philip Hauser Spielwelt ergibt. Spielregeln und die Mechaniken, in denen sie implementiert sind, definieren Unterschiede und erzeugen somit Differenzen: Sie grenzen den Bereich ab, in denen die Spiele stattfinden, und legen fest, was im jeweiligen Spiel eine Rolle spielt, was möglich und zielührend ist und was nicht. Diese Differenzen sind notwendig, damit das Spiel als messbarer Prozess operabel wird. Je messbarer ein Spiel sein soll, desto schärfer müssen solche Differenzen gezogen werden: „Beyond their voluntary rules and volunteering players, digital games require an observable or evident difference - a discrete state or abstract quantity with which we play. Whether the observer is human or nonhuman, whether the evidence occurs within the equipment or the field, a line in the sand must be drawn and judged by someone or something. The game must have a state and all such games are digital games.“ (Boluk und LeMieux 2017, 1) Während ein Schachbrett aus acht mal acht Feldern besteht und so der Raum bestimmt wird, in dem der Spielprozess ablaufen sollen, unterscheiden sich die Einzelfelder wiederum untereinander durch ihre unterschiedlichen Werte, an denen sich die Zugmöglichkeiten der einzelnen Spielfiguren orientieren. Für menschliche Spieler*innen stellen sich diese als schwarze und weiße Felder dar, über deren ästhetische Differenzen auf die abstrakten Differenzen der Spielregeln geschlossen werden kann. Das Schachbrett ist dabei in seinen Bedeutungen, ebenso wie die Spielfiguren, an die Spielregeln geknüpft. Spielwelten sind Konstrukte, die die Idee des Spiels als eine Art Modell ihrer ‚Idealform‘ materialisieren. Ob man nun Spielmechaniken eines Computerspiels betrachtet oder die durch die Regeln vorgegebene Operabilität eines Schachbretts, beide Formen sollen das Spiel in einer idealen Weise ermöglichen, was zunächst einmal heißt, dass sie die Vision der zugrundeliegenden Spielregeln umsetzen. Die Bezogenheit der Spielwelt auf die Spielregeln macht diese zu Modellen möglicher Wirklichkeiten: „Als Referenzobjekt eines formalen Zeichensystems kommt nur in Frage, was über eine abstrakte Identität verügt. […] Also können wir uns mit formalen Schriften überhaupt nicht auf die Welt im Sinne einer ‚Realität‘ beziehen, sondern nur auf die Welt im Sinne ‚eines Modells‘.“ (Krämer 1998, 30) Spiele finden insofern stets in Modellen statt - dies gilt umso mehr ür Computerspiele, deren Berechnungen von Geschehen immer auch Modellrechnungen darstellen. Durch Spielregeln wird zum einen ein eindeutiger Handlungsraum definiert, zum anderen werden aber auch die beteiligten Akteure miteinander verschränkt und in ein Verhältnis zueinander gesetzt. Das Spiel lässt sich folglich als die Gesamtheit dessen fassen, was bestimmt, in welchem Verhältnis Spieler*innen nicht nur zu ihren Mit- und Gegenspieler*innen stehen, sondern gleichermaßen wie sie sich zu ihren Körpern oder bestimmten Materialien verhalten müssen. Dies findet seine Entsprechung in der Spielmechanik von Computerspielen, die festlegen, ob eine Spielfigur bspw. springen kann oder was ‚springen‘ überhaupt bedeutet. Die Regeln des Spiels definieren und strukturieren die Spielwelt. 5 Virtuelle Spielfelder als Begegnungsorte 63 Die Perspektivierungen der virtuellen Spielwelten legen den Fokus auf die Rahmenbedingungen von Computerspielen, welche das Spielen ermöglichen, sprich auf die spezifische Beschaffenheit ihrer Vermittlungsweisen. Auch ohne eine Abgrenzung von einer vermeintlichen ‚Realität‘ betonen Spielwelten dennoch die Grenzen und implizieren zu einem gewissen Grad stets ein möglicherweise über offene Begrenzung verügendes, aber dennoch letztlich abgeschlossenes und vor allem weitestgehend stabiles Modell. Dies zeigt sich wiederum an Spielen wie Schach, in denen es weniger die konkrete Situation auf dem Spielbrett ist, um die sich das Spielen dreht, sondern die spielerischen Prozesse des Virtuellen, die sich modellhaft in den jeweiligen Stellungen abzeichnen. Bereits Claus Pias hat auf die „Herstellung eines Virtuellen“ (Pias 2002, 246) im Rahmen seines Konzepts der Strategiespiele hingewiesen: „Strategiespiele beschreiben einen Raum virtueller Ereignisse, der nicht in den Kategorien des Geschehens oder Nicht-Geschehens zu denken ist, sondern als Ensemble von Möglichkeiten, deren jede einen bestimmten Wahrscheinlichkeitsindex hat.“ (Pias 2002, 246) Möchte man den Virtualitätsbegriff hier als Erweiterten und nicht in seiner bloßen Abgrenzung zu ‚realen‘ Welten verstehen, erhält der Begriff „den Charakter eines Poetenzials“ (Vogl 1998, 46) und bezieht sich auf einen Raum der grundlegenden Möglichkeiten. Dieses Verständnis begreift das Ereignis nicht als singulär auftretendes Geschehen zu einem bestimmten Zeitpunkt, sondern denkt dieses hinsichtlich dessen Poetenzialität als Raum oder Feld: „das Ereignis als eine nach unten offene Pyramide, in der sich die Spitze, das Eintretende, auf die Unendlichkeit seiner Variationen hin öffnet.“ (Vogl 1998, 46) Joseph Vogl, auf den sich auch Pias explizit bezieht, arbeitet anhand der Kulturtechnik der polizeilichen Rasterfahndung den Umgang mit virtuellen Objekten heraus. Dabei assoziiert er diese mit der konkreten Rechenleistung des Mediums Computer und zeichnet hierbei eine Wissenstransformation nach: „Der technische, mediale und institutionelle Umgang mit virtuellen oder strukturalen Objekten zeugt von einer Transformation unseres Wissens überhaupt, die in den elektronischen Rechenmaschinen einen letzten Schritt gemacht hat, einer Transformation, die sich aber schon über längere Zeit hinweg angebahnt und tief in die Frage nach der Bildung von wirklichen, möglichen oder künstlichen Welten eingegriffen hat.“ (Vogl 1998, 44) Diese Transformation wird im Medium des Digitalcomputers zunehmend sichtbar, auch wenn sie sich nicht durch dessen Technik selbst angebahnt hat, sondern zunächst in bestimmten Logiken und Denkweisen vollzieht, dessen Spuren sich dann in der Technologie abbilden. Vielmehr zeigt sich in der Kulturtechnik der Rasterfahndung eine frühe Form von computational thinking, die schon vor dem Computer aufkam, aber erst in der Technologie des Computers ihren konkreten Niederschlag findet. Letztere bietet jedoch das Medium zur systematischen Erschließung des virtuellen Raums. Auch Schach ist in der Perspektive ein bildhaftes Beispiel einer rechnerischen Logik, da es mit diskreten, berechenbaren Prozessen operiert. Insofern handelt 64 Philip Hauser es sich nicht nur um ein digitales Spiel, sondern um ein Computerspiel jenseits der Technik des Computers, in der dennoch dessen mediale Logik wirksam ist. Mit anderen Worten: Schach wird zwar als ‚Brettspiel‘ verhandelt, ist aber genau genommen ein Computerspiel, da es in der Logik des Computers funktioniert. Nicht, weil das Schachspiel das Computerspiel „im vorbewussten Stadium“ enthalten oder „teleologisch auf dessen Genese hin[weisen]“ würde, sondern aufgrund der „gemeinsamen Elemente […] und Formationen des Wissens, die diese heterogenen Bereiche durchziehen und ‚verhalten‘ […].“ (Pias 2002, 9) Bei der vermeintlichen Niederlage des Menschen gegen den Computer im Schach - mit den Worten Marcel Duchamps „in einem Spiel, das fast zu schwierig ür die Beschränktheit des menschlichen Geistes ist“ (Strouhal 1994, 9) - handelt es sich somit von Vornherein um eine Illusion, da sie auf einem Feld stattgefunden hat, die niemals dem Menschen, sondern schon immer dem Computer gehört hat. Die Funktionsweise und Rechenprozesse früher Schachcomputer mittels Suchbäumen gleichen Simulationen, sprich der „Funktion eines Rechenprozesses, der so aufwendig ist, dass er in menschlichen Spielzeiten nicht hätte durchgeührt werden können, und der durch eine endlose Wiederholung von Zuällen möglichst das erscheinen lassen sollte, woran niemand gedacht hatte.“ (Pias 2002, 252-253) Der besagte „letzte Schritt“ der Wissenstransformation in den Digitalrechnern, von dem Vogl spricht, ist damit also nur ein vorläufiger, denn die Virtualität gewinnt im Zusammenhang mit KI eine weitere Brisanz. KI ist insofern die logische Folge von Digitalcomputern und Schach; nicht, weil die Erfindung eines künstlichen Bewusstseins am Ende steht, sondern weil sich mit Shannons Schachspiel von Beginn an als Spiel der KI zeigt, das es aber schon immer war. Die Computersimulation modelliert das Schachbrett als virtuelle Spielwelt, deren Virtualität vom Computer aufgrund dessen rechnerischen Leistung nahezu vollständig überblickt und damit letztlich beherrscht werden kann, da nichts geschieht, was in der Logik des Computers nicht schon zu erwarten gewesen wäre. 5.2 Virtuelle Spielfelder Bekanntlich ührte die Lösung des Schachproblems nicht zu ‚denkenden‘ Computern - oder zumindest verschob sich die Frage der Computerintelligenz auf ein anderes Spielfeld: „When IBM’s Deep Blue beat Gary Kasparov in 1997, most Artificial Intelligence researchers and commentators decided that chess playing did not require intelligence after all and declared a new standard, the ability to play Go.“ (Riskin 2003, 623) Die Historikerin Jessica Riskin folgert aus diesem Umstand eine „historical contingency of any definition of intelligence and the complexity of the forces that interact to shape such definitions.“ (Riskin 2003, 623) Während die weitere Entwicklungsgeschichte der KI ‚nach‘ dem Schach sich zumeist an der Frage der rechnerischen Komplexität der zu lösenden Probleme entfaltet, die einzelne Spiele aufstellen, und diese auch im- 5 Virtuelle Spielfelder als Begegnungsorte 65 mer wieder im Wettkampf mit menschlichen Spieler*innen an das Konzept der Intelligenz rückbindet, erscheint es dennoch wenig sinnvoll, nach einem letzten Rückzugsort der Dominanz eines menschlichen Denkens im Kontext der jeweiligen Spiele zu suchen. Nicht zuletzt deshalb, weil KI nicht immer nur als Gegnerin auftritt, sondern als Trainingspartnerin oder adaptive Hilfestellung. 7 Entsprechend kann gemeinsam mit selbstlernenden Programmen ein Perspektivwechsel vollzogen werden, denn komplexere Spiele - oder besser: die komplexen Umgangsweisen mit Spielfeldern - erfordern auch ein Umdenken bezüglich der Umgebung selbst. Daher möchte ich der Perspektivierung virtueller Spielwelten das Konzept des ‚virtuellen Spielfelds‘ beiseitestellen. Der Begriff des Spielfelds wird im konkreten Sprachgebrauch meist auf Spiele beschränkt, die auch tatsächlich auf Feldern im zweidimensionalen Raum stattfinden: So zum Beispiel Tennis oder Fußball. Auch bei Spielen wie Schach ist zwar von Feldern die Rede, jedoch sind hier wiederum die diskreten Einzelfelder gemeint, welche das Spielbrett strukturieren, das letztlich den Rahmen ür das Spiel bereitstellt. In Computerspielen wiederum ist, wie oben dargelegt, die Rede von Spielwelten. Selbst bei strategischen Spielen wie StarCraft II oder Dota 2, welche sich mehr oder weniger im zweidimensionalen Raum abspielen, ist von der map die Rede. Das Konzept des Spielfelds wurde bisher in der Computerspielforschung eher vernachlässigt, kann jedoch, wie im Folgenden deutlich werden wird, aufschlussreiche Anschlüsse eröffnen. Wirft man zunächst einen Blick auf das Bedeutungsspektrum des Begriffs ‚Feld‘, so bezeichnet dieses neben dem abgegrenzten Bereich des Spielfelds die weite Bodenfläche, den Acker, das Schlachtfeld oder den Tätigkeitsbereich. Darüber hinaus gewinnt der Begriff in seiner Dimension als physikalisches Kraftfeld Kontur und findet sich nicht zuletzt in einer metaphorischen Abwandlung im politischen Kräftefeld wieder. Felder sind also nicht bloß mehr oder weniger abgegrenzte Flächen, sondern markieren Machtansprüche, Einfluss- und Konfliktzonen und definieren sowohl spezifisch wie ganz allgemein die Grundlage, auf derer eine Existenz überhaupt erst möglich wird. An dieser weiteren Bedeutung des Feldbegriffs möchte ich wiederum anknüpfen. Im Spektrum der Bedeutungen erscheinen Felder als nicht mehr klar eingrenzbar. Dies trifft auch auf virtuelle Spielfelder zu, wie ich sie hier begreifen möchte. Ein Spielfeld ist dann nicht mehr nur die Fläche oder der Bereich, auf bzw. in dem gespielt wird und so Spielen überhaupt erst ermöglicht, sondern es markiert darüber hinaus den gesamten Einzugsbereich der spielerischen Prozesse. Virtuelle Spielfelder in dem hier verstandenen Sinn betreffen also den gedachten Bereich, in dem die spielerischen Prozesse in der Aushandlung von Relationen und Macht ihre Wirkungen entfalten. 7 Neben diverser Schachprogramme wäre hier insbesondere der ‚Dota Plus Assistant‘ zu nennen, der Machine Learning-Technik nutzt, um „in Echtzeit Vorschläge zu Fähigkeiten und Gegenständen, basierend auf den gesammelten Daten aus Millionen kürzlich gespielter Partien aller Fähigkeitsstufen“ zu liefern. Vgl. https: / / www.dota2.com/ plus (zuletzt eingesehen am 5.4.2021) 66 Philip Hauser Eine ähnliche Fokussetzung arbeitet Wolfram Pichler ür die Debatte von Grund und Feld innerhalb des kunstwissenschaftlichen Diskurses heraus: „Zweifellos gibt es Stellen, an denen Feld und Grund einander in begrifflicher oder sachlicher Hinsicht berühren oder überlagern. So wie der Grund ein darauf errichtetes Gebäude, kann das Feld, wenn es ein Acker ist, Frucht tragen. Ein Feld kann auf diesem oder jenem Grund (im Sinne von Grundstück) liegen. Umgekehrt kann ein Grundstück eine Grenze haben, die unter Umständen mit einer Feldgrenze zusammenfallen wird.“ (Pichler 2012, 441) Die kunstwissenschaftliche Diskussion von Grund und Feld richtet sich dabei nicht zuletzt am Verhältnis zu den darin erscheinenden Figuren aus: „Am Bezug einer Figur auf einen Grund interessiert nicht zuletzt, ob und wie sich die Figur davon abhebt oder daraus hervortritt. […] Dagegen wird mit Blick auf das Feld […] auf die jeweilige Stellung von Figuren geachtet.“ (Pichler 2012, 442) Die Frage nach dem Feld zielt demnach verstärkt auf das Verhältnis selbst ab: „Hier geht es nicht so sehr um das Erscheinen oder Entschwinden von Figuren als solches, sondern um die Position, an der sie zur Erscheinung oder zum Einsatz kommen, und um die Abhängigkeit der Qualität ihres Erscheinens und Wirkens von ihrer jeweiligen Position.“ (Pichler 2012, 442) Der Anknüpfungspunkt zur kunstwissenschaftlichen Grund-/ Feld-Debatte ür die Computerspielforschung liegt hierbei weniger darin, dass die Idee des Bildgrunds analog zum Konzept der Spielwelten verhandelt werden könnte. Vielmehr gelingt es Pichler mit der Aufschlüsselung der Frage nach der Rolle des Feldes, welche sich nicht auf die zweidimensionale Fläche beschränken lässt, einen klaren Blick auf die Wirkungsweisen von Feldern freizulegen, der auch mit einer Perspektive auf Spielwelten verloren zu gehen droht. Und so werden letztlich auch Duchamps Schachbilder relevant ür die Frage nach virtuellen Spielfeldern, wenn Pichler das Konzept des Bildfelds als Spielfeld schärft: „Das Schachspiel und mit ihm Duchamps Kunst konfrontieren uns mit Feldsystemen, in denen die Zuschreibungen von Werten an Orte (oder an die diese Orte besetzenden Figuren) immer auch situationsabhängig ist.“ (Pichler 2012, 458-459) Der Feldbegriff Pichlers ist hier also ein zutiefst relationaler: „Wir nähern uns hier einem relationalen Feldbegriff, der von der Sprachwissenschaft, vom Strukturalismus und von Bourdieus Soziologie her vertraut ist. […] der Vergleich der Bildfläche mit dem Spielbrett [legt] den Gedanken nahe, dass die Wertverteilung beweglich ist und dass ihr - grundsätzlich verhandelbare - Regeln zugrunde liegen.“ (Pichler 2012, 458-459) Was Pichler hier ür die Bildfläche als Spielfeld konstatiert, gilt entsprechend auch ür die entlehnten Spielfelder: die Regeln von Spielen sind dabei ebenso verhandelbar wie die der Kunst und die damit einhergehenden Felder ebenso veränderlich: „Das Feld erscheint selber als eine in sich dynamisch bewegte Struktur.“ (Pichler 2012, 459) Die Idee des Felds verschiebt sich hier zunächst und bezieht sich nicht mehr nur auf die strukturierenden Differenzen innerhalb der Spielfelder, sondern auf die spielerische Bewegung, die dadurch ermöglicht und so neue Differenzen prozessiert - sprich von einer räumlichen 5 Virtuelle Spielfelder als Begegnungsorte 67 Differenz zu einer zeitlichen Differenz. „Spiel braucht ein Feld, einen Spielraum oder auch eine Spielzeit, eine Differenz in der Folge oder eine nicht festgelegte Beziehung zwischen Serien.“ (Görling 2017, 23) Die Öffnung des Konzepts liegt dabei nicht im Spielfeld als solchem begründet, das immer einen Spielraum ür Bewegungen ermöglichen muss. Sprich also nicht im Schachbrett, welches als virtuelle Spielwelt komplett erschlossen werden kann. Die Öffnung geschieht mit der Übertragung des Spielfelds in eine künstlerische Praxis, in der das Feld veränderlich wird, da es sich von den Spielregeln zu lösen beginnt - sprich im spielerischen Umgang mit den Möglichkeiten. Die damit einhergehende Störung ür das Spielfeld bedeutet einen Wechsel vom Spielen innerhalb eines regelgebenden Rahmens zu einem Spielen mit diesen Bedingungen: Es handelt sich nicht mehr „primär um ein Spiel im Feld, sondern mit dem Feld oder Feldsystem, und es wird auch nicht wirklich nach Regeln, sondern mit Regeln gespielt.“ (Pichler 2012, 463) Die spielerische Bewegung birgt immer auch Irritation ür das Spielfeld. Kunst und KI rücken hier näher zusammen, weil sie mit den Bedingungen spielen: Das macht letztlich auch KI kreativ. Nicht weil sie kreiert und aus sich hervorbringt, sondern weil sie mit den Bedingungen spielt. Das Spielen selbst sowie die damit verbundenen Spielweisen, wenn beispielsweise auf die Taktik der Gegner*innen reagiert werden muss, vermitteln ebenso wie die konstitutiven Regeln eines Spiels. Dies zeigt sich am sogenannten Metagame, welches sich nicht auf die Spiele selbst bezieht, sondern die Entwicklungsgeschichte von Spielweisen bezeichnet: „What the metagame identifies is not the history of the game, but the history of play.“ (Boluk und LeMieux 2017, 17) Unter Metagame lässt sich gewissermaßen die Art begreifen, wie ein Spiel zu einem bestimmten Zeitpunkt gespielt wird. Während die Spiele also eine gewisse Stabilität aufweisen, sind die Spielweisen starken Trends unterworfen. Das virtuelle Spielfeld umfasst die konstitutiven Spielregeln, die historisch auftretenden Spielweisen sowie die situativen Spielereignisse. Die Dynamik des Spielfeldes wird dabei zum einen durch die Interaktion der Spieler*innen, aber auch durch die Aushandlungen mitbestimmt, die beim Spielen entstehen, welche immer wieder die Grenzen des Spielfeldes neu ziehen und verschieben. Spielweisen sind niemals vorgeschrieben oder in die Regeln eingeschrieben, sondern entwickeln sich als dynamische Prozesse, und Regeln sind immer nur insofern festgeschrieben, wie sie eben auch eingehalten werden. 8 Es existieren immer Möglichkeiten, ein Spiel anders zu spielen als es bisher üblich war, und neuentdeckte Möglichkeiten verändern das Spiel stets nachhaltig. Die Grenzen und Strukturen des Spiels werden durch die Spielweisen immer neu gezogen und ausgehandelt. So wird die vermeintliche Stabilität immer durch eine Dynamik des Spielens gestört. Insofern handelt es sich bei Spielwelten keineswegs um jene in ihren Grenzen klar zu erfassende Umgebung. Computerspiele werden modifiziert, Wissen in paramedialen For- 8 Beispielsweise sind Cheats nicht per se ein Falschspielen, sondern können je nach Rahmung auch eine Hilfe bei der Spieleentwicklung, eine Erleichterung beim Spielen oder schlicht eine kreative Möglichkeit für andere Spielweisen darstellen. 68 Philip Hauser men verhandelt und Spielweisen transformieren sich und damit auch das Spiel. Die Frage, wie das Spiel die beteiligten Akteur*innen und Materialien miteinander und zueinander in Bezug setzt und sie miteinander verschränkt oder verschaltet, geschieht also nicht ausschließlich durch die Regeln, sondern auch durch die jeweiligen Spielweisen. Diese Verschränkungen sind dabei je situativ: sie ist also nicht nur abhängig vom jeweiligen Spiel, sondern auch veränderbar oder dehnbar. In Spielfeldern treffen so Spielregeln und konkrete Spielweisen aufeinander, was das Spielfeld nicht nur zum Austragungsort eines „äußerst intensiven Prozess des Aushandelns über die Regeln des Spiels“ (Görling 2017, 27), sondern über die grundsätzliche Art und Weise der Verschränkungen macht. Virtuelle Spielfelder sind weder abstrakt noch ideal, sondern ein Ort permanenter Irritationen und Störungen, die drohen, den Spielprozess aus den ordnenden Strukturen des Spiels entgleisen zu lassen und die nicht eliminiert werden können, sondern denen lediglich kontinuierlich entgegengewirkt werden kann. Spielen bedeutet dann nicht mehr das Überblicken von idealen Spielzügen, sondern das beständige Anpassen an sich dynamisch verändernde Situationen. Dies ührt auch zu einem veränderten Verständnis von Virtualität. Deutlich wird dies in einer Beschreibung des Virtuellen im Sinne Gilles Deleuze s von der Philosophin Michaela Ott: „Virtualität und Aktualität sind in Deleuzes Philosophieren mithin keine Modalitäten des menschlichen Bewusstseins, sondern Gegebenheitsweisen des Seienden schlechthin, das nur in Weisen der Wiederholung seiner virtuellen Präexistenz, in einer Art Vorlauf gegenüber sich selbst, zum Sein gelangt.“ (Ott 2016, 113) Das bedeutet umgekehrt nicht, dass Virtualität und Aktualität Modalitäten eines wie auch immer gearteten künstlichen Bewusstseins sind, sondern dass sie den Bewegungen im virtuellen Spielfeld zugrunde liegen. Spielerische Prozesse bewegen sich im Bereich zwischen Virtualität und Aktualität. Ott bemerkt jedoch, dass die Begriffe des Virtuellen und Aktuellen dabei nicht Aristoteles’ Auffassung von Potenz und Akt entsprechen. Die Beziehung der beiden Begriffen meine keine „Realisierung von Präformiertem“. Es geht also nicht um die Realisierung einer Idee oder die Durchührung eines Plans, sondern um das, was Idee oder Plan überhaupt erst ermöglicht: „Aufgrund der als unendlich angenommenen Differenzialität des Virtuellen bedeutet die Aktualisierung unbeendbare Differenzierung, was ür Deleuze immer heißt: Freilegung von Neuem, Artikulation von Zukünftigem.“ (Ott 2016, 113) Dieser Perspektivwechsel auf eine Virtualität als unabgeschlossenes Feld, welches niemals komplett erschlossen werden kann, ällt nicht nur zusammen mit dem Paradigmenwechsel von Schach zu Go, von einem möglichst vollständigen Überblicken möglicher Spielzüge, hin zu einem adaptiven Spielen, sondern markiert auch die Differenz zwischen Wissen und Lernen, wobei letzteres nicht als das Erlangen von Wissen, sondern als permanente Anpassung an sich ergebenen Situationen begriffen werden muss - sprich ein ‚evolutionäres‘ 4 KI und die Wissenschaften. Das Beispiel der Teilchenphysik. 69 Lernen, statt einer Erschließung bestimmter Wissensbereiche: „Deshalb kann die Mannigfaltigkeit der Idee nie Objekt eines Wissens sein, sondern nur Element eines Lernprozesses. Aktualisieren heißt in diesem Sinn, sich in diese Mannigfaltigkeit des Virtuellen hineinzubegeben, Teilbereiche daraus zu aktualisieren und sich dabei zu modifizieren“. (Ott 2016, 113) 5.3 Fazit Hierin zeigt sich eine Überschneidung von zwei Arten von virtuellen Spielfeldern. Der Versuch einerseits, der Komplexitätssteigerung von Spielen wie Go und Dota 2 beizukommen, die nicht mehr nur rechnerisch an möglichen Spielzügen oder einer vermeintlichen ‚Schwierigkeit‘ ür Mensch oder Computer, ein Spiel zu erlernen, festgemacht werden kann. Und andererseits das prinzipielle Scheitern der Erschließung eines virtuellen Raums, weil sich die Virtualität nicht in diesen Rechenprozessen erschöpft. Die Folge ist ein offener und konstitutiv unabgeschlossener Lernprozess. Das wiederum bedeutet nichts Anderes als Spielen. Das Umgehen mit Störungen, mit Eventualitäten, mit dem Rest, der nicht in Rechenprozessen aufgeht, sondern nur in Wahrscheinlichkeitsfenstern verkleinert werden kann. Somit zeitigt die Entwicklung der KI eine Fokusverschiebung von einer virtuellen Spielwelt, die einen Überblick über die Virtualität verspricht, zu einem virtuellen Spielfeld, die den adaptiven Umgang mit einer Virtualität erfordert, die nicht eingehegt werden kann. Spielen ist dabei als Umgang mit Virtualität zu fassen, muss jedoch als beständiger Lernprozess betrachtet werden, der nicht nur Adaptivität betrifft, sondern auch als Voraussetzung ür spielerische Bewegungen überhaupt: „Das Spiel ist immer ein Spiel im Spiel, das sich im leeren Feld eines Zwischenraums von Bezogenheiten entfaltet.“ (Görling 2017, 20) Und dies gilt letztendlich auch ür das Spielen einer künstlichen Intelligenz sowie das Zusammenspiel von Mensch und KI: „Spielraum oder Spielfeld erweisen sich als jene Zwischenräumlichkeit, in der etwas Sinn hat, etwas wissbar wird. KI befindet sich demnach […] im Raum der gegenseitigen Anteilnahme der Aktant_innen untereinander.“ (Gramelsberger et al. 2019, 37) Die Geschichte der KI und ihrer Spiele handelt demnach nicht vom Wettkampf Mensch gegen Computer, sondern zeichnet die Bewegung einer (letztlich menschlichen) Perspektive nach, die sich mit dem Lernen der Computer langsam verschiebt. 5.4 Literaturverzeichnis Boluk, Stephanie/ LeMieux, Patrick (2017). Metagaming. Playing, Competing, Spectating, Cheating, Trading, Making, and Breaking Videogames. Minneapolis, University of Minnesota Press. Görling, Reinhold (2017). Spiel: Zeit. In: Astrid Deuber-Mankowsky/ Reinhold Görling (Hg.). Denkweisen des Spiels. Medienphilosophische Annäherungen. Wien, Berlin; Verlag Turia + Kant, 19-52. 70 Philip Hauser Gramelsberger, Gabriele/ Rautzenberg, Markus/ Wiemer, Serjoscha/ Fuchs, Mathias (2019). «Mind the Game! ». Die Exteriorisierung des Geistes ins Spiel gebracht. Zeitschrift ür Medienwissenschaft 11 (21 (2/ 2019): Künstliche Intelligenzen), 29-38. https: / / doi.org/ 10.25969/ MEDIAREP/ 12628. Hauser, Philip (2018). Virtuelle Realitäten ‒ virtuelle Spielfelder. In: Claudia Emmert/ Ina Neddermeyer (Hg.). Schöne neue Welten. Virtuelle Realitäten in der zeitgenössischen Kunst. Friedrichshafen, Zeppelin Museum Friedrichshafen GmbH, 168-181. Krämer, Sybille (1998). Zentralperspektive, Kalkül, Virtuelle Realität. Sieben Thesen über die Weltbildimplikation symbolischer Formen. In: Gianni Vattimo/ Wolfgang Welsch (Hg.). Medien-Welten Wirklichkeiten. München, W. Fink, 27-37. Ott, Michaela (2016). Virtualität in Philosophie und Filmtheorie von Gilles Deleuze. In: Peter Gente/ Peter Weibel (Hg.). Deleuze und die Künste. 2. Aufl. Frankfurt am Main, Suhrkamp, 106-120. Pias, Claus (2002). Computer Spiel Welten. München, Sequenzia. Pichler, Wolfram (2012). Zur Kunstgeschichte des Bildfeldes. In: Gottfried Boehm/ Matteo Burioni (Hg.). Der Grund. Das Feld des Sichtbaren. München, Fink, 441-472. Riskin, Jessica (2003). The Defecating Duck, or, the Ambiguous Origins of Artificial Life. Critical Inquiry 29 (4), 599-633. Shannon, Claude E. (1950). Programming a computer for playing chess. The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science 41 (314), 256-275. https: / / doi.org/ 10.1080/ 14786445008521796. Strouhal, Ernst (1994). Duchamps Spiel. Wien, Sonderzahl. Turing, A. M. (1950). Computing Machinery and Intelligence. Mind 59 (236), 433-460. Online verügbar unter http: / / www.jstor.org/ stable/ 2251299. Vogl, Joseph (1998). Grinsen ohne Katze. Vom Wissen virtueller Objekte. In: Hans-Christian von Herrmann/ Matthias Middell (Hg.). Orte der Kulturwissenschaft. Fünf Vorträge. Leipzig, Leipziger Universitätsverl., 41-53. 6 KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder Nicole Brandstetter 6.1 Radikales Effizienzstreben Wie wird Künstliche Intelligenz unsere Gesellschaft verändern? Wie kann ein demokratisches Zusammenleben in Zukunft aussehen? Jenseits der klassischen Science-Fiction-Tableaus, die sich oft mit intelligenten Maschinen, deren Kontrollübernahme und dem Ende der Welt in ferner und näherer Zukunft beschäftigen, werden in der Literatur Szenarien entworfen, die nicht eine dystopisch technologisierte Zukunft skizzieren, deren Implementierung faktisch und technologisch weit entfernt oder gar unerreichbar ist, sondern konsequent-logisch den heutigen Entwicklungsstand von Künstlicher Intelligenz und Digitalisierung weiterdenken. Radikales Effizienzstreben scheint dabei ein absoluter gesellschaftlicher Wert zu werden, der ein besseres da effizienteres Leben verspricht. Eine utopische Transparenz- und Beteiligungsgesellschaft, die sich ganz dem Effizienzstreben verschrieben hat, entwirft Dave Eggers in seinem 2013 erschienenen Roman The Circle. Allgegenwärtig dominiert die namensgebende Digitalfirma „The Circle“, eine Wiederkehr aus Google und Facebook zusammen, den Alltag der Menschen. Kommunikation ist in diesem Universum kein Mittel, sondern unzweifelhafter Selbstzweck wie Dan, ein Mitarbeiter beim Circle, der die Hauptfigur Mae an ihrem ersten Arbeitstag dort anlernt, erahnen lässt: With the technology available, communication should never be in doubt. Understanding should never be out of reach or anything but clear. It’s what we do here. You might say it’s the mission of the company - it’s an obsession of mine, anyway. Communication. Understanding. Clarity. (Eggers 2013, 47‒48) In dieser Welt der sozialen Medien existiert man vor allem ür und durch kommunikative Vernetzung, direkte Reaktion und immerwährende Teilnahme bis hin zur Selbstaufgabe, denn wie eine weitere Circlerin betont: „You realize that community and communication come from the same root word, communis, Latin for common, public, shared by all or many? “ (96) Performance, Ratings, Effizienz und Transparenz sind die treibenden Kräfte. In schier endlosen, seitenweisen sich aneinanderreihenden Auflistungen von Maes simultanen, auf drei Bildschirmen präsenten Reaktionen, Kommentaren, Anfragen und Rankings wird die Absurdität dieses Prinzips ästhetisch widergespiegelt (vgl. z.B. 190‒192 oder 414‒417). Mit ihrem allübergreifenden Motto „Secrets Are Lies, Sharing Is Caring, Privacy Is Theft“ (305) arbeiten sie auf die Vollendung des Kreises, die vollständige Transparenz und Machtübernahme hin. Dabei wird deutlich, dass anstelle eines gemeinsamen Wir-Geühls, nur die Vereinzelung 72 Nicole Brandstetter eines jeden sichtbar wird, denn, wie Han (2013) betont, die „digitalen Bewohner des Netzes versammeln sich nicht. Ihnen fehlt die Innerlichkeit der Versammlung, die ein Wir hervorbringen würde. Sie bilden eine besondere Ansammlung ohne Versammlung, eine Menge ohne Innerlichkeit, ohne Seele oder Geist.“ (21) Im Circle wird Effizienz durch Transparenz erreicht, die durch verschiedene Programme in allen Lebensbereichen als der einzig positive, den Menschen und der Gemeinschaft nützliche Weg propagiert wird: Neben einem gesundheitlichen Präventionsprogramm ür alle Mitarbeiter, dem „wraparound wellness service“ (Eggers 2013, 152), basierend auf kontinuierlichem Datensammeln, gibt es auch Trackingprogramme ür Kinder - „ChildTrack“ -, die Verbrechen verhindern sollen, bevor sie überhaupt begangen werden: „So immediately you take all child abduction, rape, murder, and you reduce it by 99 percent. And the price is that the kids have a chip in their ankle.” (90) Diese Idee des predictive policing entspricht einer gesteigerten Effizienz- und Machbarkeitsvorstellung durch Künstliche Intelligenz gepaart mit einem Sicherheitsbedürfnis, das in dieser Form jedoch dem Freiheitsgedanken diametral entgegensteht. Lobe (2019) ührt aus, dass dies keine Fiktion mehr ist: „Mit sogenannten Precrime Units versuchen Polizeibehörden auf der ganzen Welt mit Daten aus der Vergangenheit Wahrscheinlichkeiten ür Delikte in der Zukunft zu berechnen (Predictive Policing).“ (29) Dabei geht eine große Gefahr ür Demokratien zum einen davon aus, dass Kriterien und Daten ein „Automation bias“ (Lenzen 2018, 172) inhärent sein kann, der zu struktureller Benachteiligung und Vorverurteilung von Minderheiten ühren kann. Zum anderen setzen, wie Lobe argumentiert, Algorithmen in dieser Weise außerdem in der Rechtsordnung vorherrschende gesetzliche Normen, wie z.B. Unschuldsvermutung oder Gleichbehandlung, aus und ällen mithilfe mathematischer Präzision maschinelle Entscheidungen zugunsten eigener Normen (vgl. Lobe 2019, 39f.). Das System „ChildTrack“ in Eggers Roman nutzt nicht nur Mathematik und Künstliche Intelligenz zur eigenen Normproduktion, sondern verwirklicht den von Lobe anhand eines realen Beispiels beschriebenen Nanny- State: „Niemand würde gegen ein Gesetz verstoßen, weil man Verstöße durch technische Voreinstellungen unmöglich macht und Gesetzestreue programmiert. Man könnte die ‚Funktion‘ Freiheit einfach deaktivieren.“ (Lobe 2019, 51) In einem derartigen System wären, so Lobe weiter, die Möglichkeit von Normverstößen, die jeder liberalen Gesellschaft inhärent ist, ebenso wie das Konzept eines mündigen Bürgers oder die Diskussion um Sinnhaftigkeit von Normen unterbunden und obsolet (vgl. Lobe 2019, 52). Das wäre der Einstieg in eine „Mechanik der Post-Strafgesellschaft“ (55), in der Technik die Straftat verhindert, bevor sie begangen wird. Die Idee der Effizienz durch Transparenz in The Circle wird noch weiter ausgedehnt. Mit dem Programm „SeeChange“ wird konstante Live-Überwachung, sichtbar ür alle, garantiert, denn Miniaturkameras, die User selbst installieren können, liefern Echtzeitvideos von überall. Die Vorstellung dieses Programms gibt einen Einblick, wie weitreichend die Folgen sein können: 6 KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder 73 At every command, new images appeared, until there were at least a hundred live streaming images on the screen at once. ‘We will become allseeing, all-knowing.’ The audience was standing now. The applause thundered through the room. Mae rested her head on Annie’s shoulder. ‘All that happens will be known,’ Annie whispered. (Eggers 2013, 70-71) Mae wird mithilfe dieser Kameras selbst als Vorreiterin transparent, indem sie sich eine Kamera anheftet und rund um die Uhr ihr Leben als Stream zur Ver- ügung stellt. Andere folgen, sogar Politiker, die das Primat der Transparenz als Verpflichtung in einer repräsentativen Demokratie loben, um Zustimmungswerte ür politische Entscheidungen zu verbessern. Als die erste Kongressabgeordnete transparent geht, erklärt sie sich der Öffentlichkeit: “So I intend to follow Stewart on his path of illumination. And along the way, I intend to show how democracy can and should be: entirely open, entirely transparent. Starting today, I will be wearing the same device that Stewart wears. My every meeting, movement, my every word, will be available to all my constituents and to the world.” (Eggers 2013, 210) Mehrere folgen ihrem Beispiel, so dass der Druck innerhalb des politischen Systems steigt: „The pressure on those who hadn’t gone transparent went from polite to oppressive. The question, from pundits and constituents, was obvious and loud: If you aren’t transparent, what are you hiding? ” (241) Han (2012) spricht dabei von einer Entwicklung hin zu einer der Entpolitisierung gleichkommenden „Post-Politik“ (15), wenn er feststellt: „Daher geht die Transparenzgesellschaft mit der Post-Politik einher. Ganz transparent ist nur der entpolitisierte Raum. Die Politik ohne Referenz verkommt zum Referendum.“ (16) Bei seiner Analyse ging Han von den Entwicklungen der Piraten-Partei als Partei aus, die maximale Transparenz als Wert propagierte. In der Logik der KI-geprägten Kommunikation und Gesellschaft wirkt sich der Wegfall vermittelnder Autoritäten auch auf Politik und ihre Repräsentanten aus: „Die politischen Repräsentanten erscheinen nicht als Transmitter, sondern als Barrieren. So äußert sich der Entmediatisierungsdruck als Forderung nach mehr Partizipation und Transparenz.“ (Han 2013, 28). Das ühre, so Han (2013) weiter, schließlich zur allgemeinen Bedrohung des Prinzips der Repräsentation (vgl. 28), denn „Politik als strategischen Handeln bedarf einer Informationsmacht“ (29) und braucht daher von Transparenz ausgenommene „geschlossene Räume“ (29): „Vertraulichkeit gehört notwendig zur politischen, das heißt, strategischen Kommunikation.“ (29) In einer durch und durch transparenten, entpolitisierten Gesellschaft entsteht daher ein Zwang zum Konformismus (vgl. Han 2013, 30), den Eggers durch Maes Gebaren im Roman durchexerziert. Schließlich stellt Han (2013) die Frage, ob in der digitalen Demokratie Parteien überflüssig wären, wenn „jeder selbst eine Partei ist“ (85) und „der Geällt-mir-Button den Wahlzettel komplett ersetzt“ (85). Politik und Wirtschaft nähern sich so geährlich an: Wähler ähneln, wie Han (2013) ausührt, Konsumenten und Regierungshandeln gleicht Marketing, so dass Bürger statt aktiv Handelnde nur noch passive Verbraucher darstellen (vgl. 90). 74 Nicole Brandstetter Schließlich übersteigert Eggers dieses Transparenz-Verdikt sowie die Verquickung von Politik und Wirtschaft, wenn die vollendete Interpretation direkter Demokratie in globaler Durchsetzung mit dem Programm „Demoxie“ vorgestellt wird: „It‘s democracy with your voice, and your moxie.“ (Eggers 2013, 400) Mit diesem in Echtzeit arbeitenden Votingtool könnten politische Entscheidungen in basisdemokratischer Reinkultur ad hoc und effizient durchgeührt werden. Maes Vision geht so weit, dass jeder, der einen TruYou Social Media Account beim Circle unterhält, automatisch ür Wahlen registriert und an deren Teilnahme quasi gezwungen wird. Die vollendete Variante wäre die Umkehrung der Beziehungen: Jeder Wahlberechtigte wäre gezwungen, einen Tru- You Account beim Circle zu eröffnen, um dadurch und damit an Wahlen teilzunehmen. Somit wäre die Wahlpflicht unternehmerisch garantiert sowie effizient und wertschöpfend organisiert: To have the validation of the Wise Men, to have perhaps pivoted the entire company in a new direction, to have, perhaps, perhaps, ensured a new level of participatory democracy - could it be that the Circle, with her new idea, might really perfect democracy? Could she have conceived of the solution to a thousand-year-old problem? (395) Denkt man diese Situation weiter, so erscheint das Drohgebilde der Post-Wahl- Gesellschaft, die Lobe (2019, 223) in seiner Analyse zeichnet, nicht mehr fern. Statt tatsächlicher Wahl gibt es in der nur noch eine Auswahl: Tatsächlich könnte künftig so etwas wie eine algorithmisch gelenkte Demokratie entstehen, eine politische Matrix, in der politische Auswahlprozesse derart optimierbar und berechenbar sind, dass es am Ende nur noch eine Wahl gibt: einen Suchtreffer oder eine Partei. Analog zur suchlosen Suche könnte eine wahllose Wahl etabliert werden. (Lobe 2019, 223) Der Weg in einen digitalen Staat, in dem Macht- und Entscheidungsoptionen in der Trias zwischen Politik, Menschen und Wirtschaftsmächten hin zum radikalen Effizienzverdikt verschoben werden, scheint hier unumgänglich. Auch Juli Zeh zeichnet in ihrem 2017 erschienenen Roman Leere Herzen ein dystopisches Bild einer effizienzgetriebenen Gesellschaft. Deutschland wird im Jahre 2025 von einer rechten Partei, der Besorgte-Bürger-Bewegung, regiert. Nicht zuällig spiegelt dabei der Name der Partei das rechtspopulistische Spektrum in der aktuellen politischen Lage in Deutschland wider, denn diese Partei schnürt im Laufe des Romans immer mehr Effizienzpakete, die unter anderem immer mehr Kompetenzen ür Polizei und Geheimdienst beinhalten, und sichert sich so schrittweise immer mehr Macht über eine sukzessiv entpolitisierte Gesellschaft: „Die BBB bringt das ünfte Effizienzpaket auf den Weg.“ Knut schaut in die Runde, als müsste nun jeder der Anwesenden reihum Stellung nehmen. „Danach wird es auf Landesebene keine Enquete-Kommissionen, parlamentarischen Beiräte und Kontrollgremien mehr geben.“ (Zeh 2017, 18) Auch der Rest Europas befindet sich im Zerfall mit Bewegungen wie „Frexit, Free Flandern und Katalonien First! “ (17). Doch nicht nur europäische Errun- 6 KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder 75 genschaften schwinden, auch die UNO soll aufgelöst werden, denn „Völkerrecht klingt auch irgendwie nach 20. Jahrhundert“ (91), wie eine Figur des Romans betont. Nicht zuletzt der demokratische Akt des Wählens scheint ein Relikt vergangener Zeiten: Sie weiß, dass sie die Frage, wen man wählen soll, damals mit anderen diskutiert hat und dass ihr die Antwort wichtig erschien. Wann das gewesen ist, weiß sie nicht mehr so genau; definitiv vor Flüchtlingskrise, Brexit und Trump, lange vor der zweiten Finanzkrise und dem rasanten Aufstieg der Besorgte-Bürger-Bewegung. In einer anderen Zeit. (19) Und dennoch scheint die Welt eine friedlichere zu sein, denn der Syrienkrieg wurde durch Trump und Putin beendet, ein Friedensvertrag zwischen Israel und Palästina mit einer Zweistaatenlösung unterschrieben und die Wirtschaft erlebt einen Boom (vgl. Zeh 2017, 31). In dieser Atmosphäre der schleichenden Entpolitisierung und Entdemokratisierung reagiert die Bevölkerung jedoch größtenteils mit Gleichgültigkeit, Opportunismus und Prinzipienlosigkeit, die sich auch ästhetisch in der Sprache widerspiegelt. Oft dominieren kurze, parataktische Sätze die Erzählung, die ein geradezu distanziert-beobachtender, fast filmisch-neutraler Stil und die Schlichtheit der Sprache charakterisieren. Die Protagonistin Britta Söldner scheint den Effizienzgedanken, der das Zusammenleben in dieser Gesellschaft beschreibt, internalisiert zu haben. So preist sie die entindividualisierte, praktische und doch seelenlose Wohnsituation in Braunschweig, in der sie sich aus freier Wahl befindet: Einen Betonwürfel mit viel Glas in einem ruhigen Wohnviertel, praktisch, geräumig, leicht zu reinigen, genau wie Braunschweig selbst, gerade Linien, glatte Flächen, frei von Zweifeln. Dermaßen durchdacht, dass es ür jedes Möbelstück nur einen einzigen möglichen Ort gibt. Dazu Keller, Kinder- und Gästezimmer, ausreichend Toiletten und Abstellraum, pflegeleichter Garten und eingebaute Haushaltselektronik, die die Raumtemperatur reguliert, zu festgesetzten Zeiten Kaffee kocht und Warnsignale von sich gibt, wenn der Kühlschrank offen steht. (Zeh 2017, 14) Für Britta ist Funktionieren „das oberste Gesetz“ (33). Aber sie funktioniert nicht nur in dieser seelenlosen Gesellschaft, sie benutzt es im Sinne des Effizienzgedankens und entledigt sich aller moralischer Wertvorstellungen, wenn sie einen in ihrem Sinne positiven Beitrag zum reibungslosen, friedfertigeren Funktionieren der Gesellschaft durch ihr Unternehmen „Die Brücke“, das sie mit ihrem Freund Babak gegründet hat, beiträgt. Unter dem Deckmantel einer „Heilpraxis ür Psychotherapie und angewandte Tiefenpsychologie, Self-Managing, Life-Coaching, Ego-Polishing“ (34) - auch ihre Familie und Freunde wissen nicht um die tatsächliche Arbeit dieser Praxis - hat sie ganz ihrem wohl ausgewählten Nachnamen folgend das Geschäft mit Selbstmordattentätern höchst erfolgreich perfektioniert. Im Zentrum ihres Geschäftsmodells steht ein Algorithmus, der den niedlichen Namen „Lassie“ trägt, womit beim Leser durch die Analogie zum weithin bekannten Hund aus der gleichnamigen Fernsehserie sogleich Assoziationen eines treuen und loyalen Begleiters hervorgerufen werden. Durch die Wortwahl und die Art der Beschreibung wird 76 Nicole Brandstetter der Eindruck forciert, es handle sich um ein Lebewesen, das aufgezogen und gepflegt werden müsse: Der Algorithmus ist ausgereift, hochintelligent, selbstlernend, perfekt dressiert. Seit den Anfangstagen der Brücke arbeitet Babak an der Fortentwicklung. Er hat Lassie zur Welt gebracht, er üttert sie, pflegt sie, trainiert mit ihr, lobt, wenn sie ihre Sache gut macht, korrigiert, wenn Fehler unterlaufen, was inzwischen praktisch nicht mehr vorkommt. […] Sie läuft los, die Nase am Boden, schnüffelt durch die hellen und dunklen Winkel menschlicher Kommunikation, schafft Verknüpfungen. (Zeh 2017, 53-54) In einschlägigen Online-Foren im Internet sucht der personifizierte Algorithmus „Lassie“ nach suizidwilligen Kandidaten, die von der „Brücke“ dann kontaktiert werden. Diese durchlaufen Brittas eigens entwickeltes, zwölfstufiges Programm, das durch ein Stufensystem von Verhaltens- und Psycho-Tests, Klinikaufenthalten, Waterboarding und schließlich Scheinexekution einen Score errechnet, wie selbstmordwillig die Kandidaten tatsächlich sind. Etwa 90% brechen das Programm ab und kehren gleichsam „geheilt“ von ihren Selbstmordgedanken in die Gesellschaft zurück, doch einige sind fest entschlossen und werden geschäftsmäßig an interessierte Organisationen - Ökofundamentalisten oder fanatisch-religiöse Organisationen - vermittelt: Sofern Attentäter vermittelt werden, ist die Brücke auf einen strengen Kodex verpflichtet - begrenzte Opferzahlen sorgältige Vermeidung von Eskalation, keine Kollateralschäden. Nach und nach haben sich die Auftraggeber auf diese Bedingungen eingestellt, inzwischen gibt es praktisch niemanden mehr, der Aktionen außerhalb dieser Zusammenarbeit organisiert. Seit dem Durchmarsch der BBB sind die Organisationen geschwächt, ihre Ziele haben an Strahlkraft verloren, sie sind kaum noch in der Lage, eigene Märtyrer zu rekrutieren. Als erster und bisher einziger Terrordienstleister der Republik hat die Brücke die Branche befriedet und stabilisiert. Sie sorgt ür das richtige Maß an Bedrohungsgeühlen, das jede Gesellschaft braucht. Und sie hat Babak und Britta ziemlich reich gemacht. (Zeh 2017, 72-73) Ihr Sterben soll somit nicht sinnlos bleiben, sondern im Gedanken des Funktionierens und der Effizienz einem größeren Ziel dienen. Der Service der „Brücke“ beinhaltet „die komplette Suizid-Logistik“ (71), die neben persönlichen Angelegenheiten auch die Planung des Anschlags und die Bestattung umfasst. Das Bild von Britta als erfolgsfixierte, höchst rational agierende Geschäftsfrau wird nur leise, an wenigen Stellen in Frage gestellt: „Wenn ihr nicht so häufig übel wäre, würde sie sich wahrscheinlich glücklich nennen.“ (73) Obwohl sie als Teil der seelenlosen Gesellschaft agiert, in der 67 % vor die Wahl gestellt sich ür ihre Waschmaschine statt ür ihr Wahlrecht entscheiden würden (vgl. 205), scheint sie sich von ihrer politischen Überzeugung als Demokratin nie ganz verabschiedet zu haben. So war sie doch als Heranwachsende politisch interessiert und engagiert (vgl. 275), bevor der Aufschwung der Besorgte-Bürger-Bewegung zu Merkels Rücktritt ührte und zur schleichenden Entdemokratisierung der Gesellschaft. Diese politische Vergangenheit ührt bei Britta noch immer zu körperlichen Schmerzen: 6 KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder 77 Es liegt am Paradoxien-Schmerz. Demokratieverdrossene Nicht-Wähler gewinnen Wahlen, während engagierte Demokraten mit dem Wählen aufhören. Intellektuelle Zeitungen arbeiten ür die Überwindung des Humanismus, während populistische Schundblätter an den Idealen der Aufklärung festhalten. In einer Welt aus Widersprüchen lässt sich nicht gut denken und reden, weil jeder Gedanke sich selbst aufhebt und jedes Wort sein Gegenteil meint. Zwischen Paradoxien findet der menschliche Geist keinen Platz, Britta kann nicht mehr Wähler oder Bürger sein, nicht einmal Kunde und Konsument, sondern nur noch Dienstleister, Angehöriger eines Serviceteams, das die kollektive Reise in den Abgrund unterstützend begleitet. (276-277) Doch als eine überzeugte Gegenorganisation einen Putsch auf die Regierung plant, um Merkel und damit die alte Demokratie wieder an die Macht zu bringen, sabotiert Britta trotz der Überzeugung, dass das Ziel das richtige wäre, deren Pläne, denn sie erkennt ihre Mitschuld am Zustand der Gesellschaft. Statt das Attentat, wie sie vorgibt, mit ihrer Struktur zu unterstützen, sollen ihre Kandidaten den Anschlag verfrüht durchühren, um so die Sicherheitsmaschinerie aufzuscheuchen, in der Hoffnung, die Bevölkerung würde erwachen und eine Chance ür eine andere, demokratische Welt sehen. Doch stattdessen geht die Regierung aus dem vereitelten Anschlag gestärkt hervor. Juli Zeh entwickelt eine radikale Fortsetzung des Effizienzgedankens, des Funktionierens auf Basis von Künstlicher Intelligenz, die tief in Gesellschaftsstrukturen eingedrungen ist. Sie zeigt, wie aus Bequemlichkeit die ür eine demokratische, humane Gesellschaft notwendige konstante Debatte über Werte und Entscheidungen ausgesetzt wird und letztere der reinen Funktionalität übereignet werden. Als Ergebnis ührt sie dem Leser eine entpolitisierte, entdemokratisierte und seelenlose Gesellschaft vor Augen. 6.2 Ökonomisierte Selbstoptimierung Fragen der Kontrolle stehen in engem Zusammenhang mit Künstlicher Intelligenz. Im Diskurs um Kontrolle und Macht spielt das weithin bekannte Prinzip des Panoptikums eine zentrale Rolle. Zurückgehend auf die architektonische Gestalt eines Geängnisses, nach Jeremy Bentham, realisiert diese Konstruktion die Machtausübung durch die allzeit mögliche Beobachtung, die zu Selbst-Disziplinierung und Kontrolle der Beobachteten ührt: „Daraus ergibt sich die Hauptwirkung des Panopticon: die Schaffung eines bewußten und permanenten Sichtbarkeitszustandes beim Gefangenen, der das automatische Funktionieren der Macht sicherstellt.“ (Foucault 2019, 258) Wie Bauman (2017) schreibt, verwendet Foucault Benthams Panoptikum als „Schlüsselmetapher moderner Macht“ (17). Jedoch stellt Bauman fest, dass im Zuge der Postmoderne, der digitalen und technologischen Entwicklungen sowie der permanenten Beschleunigung dieses moderne Macht- und Kontroll-Prinzip durch „[p]ost-panoptische Machtbeziehungen“ (18) ersetzt wird. Macht sei nicht länger an einen Raum gebunden, sondern „exterritorial“ (18), da durch Kommunikationstechnologien diese räumliche Nähe zur Machtausübung obsolet 78 Nicole Brandstetter wird. An deren Stelle treten Überwachungskonstellationen, basierend auf digitalen Techniken, denen Bauman bei ungebremstem Fortschritt das Potenzial einer „negativen Utopie einer flüchtigen Moderne“ (23) zuschreibt: „[…] einer Moderne, die geeignet ist, das Grauen, das wir aus Orwells und Huxleys Alpträumen kennen, in den Schatten zu stellen.“ (23) Während eben in George Orwells Roman 1984 der Staat mit Hilfe von Überwachungskameras, Bildschirmen, Gehirnwäsche sowie Manipulation von Sprache und Denken Kontrolle über seine Bürger ausübt, wird Big Brother, wie Zuboff (2018) argumentiert, im von ihr beschriebenen Überwachungskapitalismus zunehmend durch Big Other, „die wahrnehmungsähige, rechnergestützte und vernetzte Marionette, die das menschliche Verhalten rendert, überwacht, berechnet und modifiziert“ (437) abgelöst. Diese vermeintliche Kontrolle über sich selbst rückt mehr und mehr in den narrativen Fokus. So entwirft Julia von Lucadou in ihrem 2018 erschienen Roman Die Hochhausspringerin eine im Überwachungskapitalismus angesiedelte Gesellschaft, in der die Einzelnen nach beständiger Selbstoptimierung streben (müssen). Gleich zu Beginn ergeht in direkter Ansprache die Aufforderung an den Leser, sich eine perfektionierte Welt vorzustellen, der er sich ähnlich einem Kamerazoom von oben nähert. Diese Welt ist „rund und glatt“ (Lucadou 2018, 9), sowohl die Erdoberfläche als auch die Stadt selbst werden von Gleichmäßigkeit dominiert, Gebäude „folgen einem architektonischen Stil und sind geometrisch angeordnet“ (9) und „[d]ie beinahe filigran wirkenden Hochhäuser recken sich nebeneinander in den Himmel und sind nicht voneinander zu unterscheiden.“ (9) Lediglich an den Rändern der Stadt wird das ästhetische Bild durch einen „Anblick von Dreck“ (10) entstellt. Doch nicht nur die Stadt selbst erscheint perfekt, auch die Menschen zeichnen sich durch Makellosigkeit, Schönheit und Leistung aus. Im Zoom fokussiert die Erzählung schließlich eine Leistungssportlerin „auf dem Höhepunkt ihrer Schönheit“ (10) mit symmetrischem Gesicht und makellosen Augen, die am Rand eines Flachdachs auf einem Hochhaus positioniert ist: „In ihrem Flysuit TM glitzert sie überirdisch.“ (11) Ganz im Sinne eines Motivationssprechs wird der Leser eingeladen, sich in die Perspektive dieser Frau zu begeben und mitzuühlen: Was Sie erleben, ist körpergewordene Euphorie, die zwischen den Häusern pulsiert. Schließen Sie die Augen. Lassen Sie sich anstecken. Spüren Sie in sich hinein bis in die Fingerspitzen, spüren Sie das Pochen Ihres Herzens, wie es sich in Ihrem Körper ausbreitet. (11) Schließlich folgt der Leser der Frau, wie sie vom Hochhaus in „vollkommener Präzision“ (12) springt. Zunächst wird die Hochhausspringerin durch die Technik des von ihr getragenen Flysuit in den Himmel katapultiert, bevor sie, in Kameras lächelnd, angstfrei und wie schwerelos fliegt. Doch die Landung bleibt dem Leser hier verwehrt, denn nach dem euphorisierenden Ereignis des Absprungs zoomt die Erzählung wieder weg in die Unendlichkeit, denn „[j]etzt, in diesem Moment, da Sie sich langsam aus der Welt zurückziehen, gibt es keinen Tod, nur Leben.“ (13). 6 KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder 79 In diesem Vorspann rückt der Leser als direkt angesprochener Adressat selbst in den Fokus der Motivationsrede, die ihn scheinbar begeisternd in diese perfekte Welt einühren soll. Durch die Projektion der Ebenmäßigkeit und Perfektion des Beschriebenen auf die Ebene der Sprache, die sich durch Makellosigkeit, Harmonie, Schönheit und Vollkommenheit in der Wortwahl widerspiegelt, gleicht diese Exposition einer Hochglanzbroschüre oder einem Imagefilm, der zwar die ach so schönen Seiten der folgenden perfektionierten Welt vorwegnehmen soll, sie aber durch die stilistische Ausarbeitung von Beginn an ästhetisch konterkariert. Mit dem ersten Kapitel, dem eigentlichen Beginn der Diegese, wechselt die Erzählperspektive: Der Leser folgt in der gleichzeitigen Narration im Präsens der Innenperspektive der Ich-Erzählerfigur und Protagonistin Hitomi Yoshida, die als Wirtschaftspsychologin ür die Firma PsySolutions und ihren Chef Masters arbeitet. Ihre Aufgabe ist es, die einst erfolgreiche Hochhausspringerin Riva Karnovsky, die sich seit einiger Zeit allem - Training, Optimierung, Performance - verweigert, wieder zu „reanimieren“, indem sie die Gründe eruiert und Riva durch geeignete Therapieansätze wieder in das ür sie vorgesehene Leben zu integrieren sucht. Die beiden Frauen bewegen sich in einer Welt der kontinuierlichen Effizienzsteigerung und Optimierung, Patentierung und Vermarktung, die gespalten ist in die von Wohlstand und Fortkommen abgeschnittenen Peripherien und einer anonymen Megacity. Neben Produkten wie dem von Hochhausspringern getragenen „Flysuit TM “ (10) sind auch Paare („Rivaston TM “ (36)), Verhaltensweisen wie ein spezielles Lachen („SchoolGirl- Giggle TM “ (138)), Methoden („Glückstraining TM “ (29)), Momente („Life-Changing-Moment TM “ (65)) oder Slogans („Everything’s gonna be okay TM “ (30)) zur Effizienzsteigerung, Problemlösung und Vermarktung kategorisiert und patentiert. Die Allgegenwart der Trademarks im Schriftbild ührt die ökonomisierte Selbstoptimierung in dieser Welt permanent vor Augen. Das funktionale Prinzip der Aufrechterhaltung des permanenten Effizienzstrebens entspricht einem multiperspektivischen Überwachungssystem, das auch in der narrativen Konstruktion implementiert und kontinuierlich explizit adressiert wird. So beobachtet Hitomi ihr Objekt Riva und deren Partner Aston durch verschiedene Kameras, Hitomi selbst wird von ihrem Chef Masters permanent über verschiedene Kanäle observiert, und Aston als Fotograf erfasst selbst durch seine statische Kamera seine Umwelt, jedoch ausschließlich gefiltert und in nachbearbeiteter Form. Kameraeinstellungen, Blickwinkel, Monitore und Beobachtungen bestimmen die Erzählung. Hitomi selbst stellt dabei fest, dass diese Beobachterperspektive die Realität sogar optimiert: „Manchmal kommt mir das Monitorbild mit seiner hohen Auflösung klarer vor als die Realität. Präziser.“ (40) Durch diese beobachtende Konstruktion wird die Erzählperspektive konterkariert: Zwar erzählt Hitomi als homodiegetische Erzählerfigur mit interner Fokalisierung die Ereignisse, die sie selbst betreffen, jedoch beobachtet sie zugleich in der Heterodiegese ähnlich einer extradiegetischen Figur Riva und ihr Tun in externer Fokalisierung, so dass ihr nur die Interpretation der permanent gesammelten und beobachteten Daten bleibt. Zudem ist Hitomi selbst noch Beobachtungsobjekt einer weiteren 80 Nicole Brandstetter Erzählebene. Objektivierend anmutende, simplifizierte Syntax und Wortwahl spiegeln die Beobachtungskonstruktion stilistisch wider. Die Narration erfolgt im Präsens, was die Unmittelbarkeit des Erzählten und Beobachteten noch forciert; sie wird jedoch immer wieder durch unvermittelte Analepsen in Hitomis Kindheit unterbrochen, die dem Leser wohl ein besseres Verständnis ür ihre Handlungsweisen liefern soll, obwohl doch gleichzeitig Masters darauf hinweist, dass die Analyse der Kindheit nicht zu den „Methoden der modernen Psychologie“ (129) gehöre und damit Ressourcenverschwendung gleichkomme. Die Bewohner der Stadt verdienen sich der Trias „Vermessung, Wertermittlung und Inwertsetzung“ (Mau 2017, 261) folgend Privilegien über die Bewertung ihrer Performance und ihr Rating, um so eine Situation zu erschaffen, in der Türcke (2019) die neue „Strukturierungsmacht der gesamten sozialen Realität“ erkennt (125). Credits und Scores ür Arbeitsleistung, Führungsstil, Datingverhalten, Körperbewusstsein, Achtsamkeit, Ernährung, Sexualität oder Verhalten in der Öffentlichkeit sind ubiquitär und bestimmen nicht nur über sozialen Status, sondern auch über die allgemeine und spezifische Lage und Ausstattung der Wohnung: Er lässt seinen Blick über die Designmöbel streifen, das ausladende, von einem bekannten Innenarchitekten gestaltete Wohnzimmer, das schon mehrfach auf Architekturblogs gefeaturt wurde. In einem der begehrtesten Distrikte, reserviert ür VIPs und Bestverdiener. Riva und Aston wohnen nur drei Stockwerke unter dem Penthouse. Ihr Blick über die Stadt ist atemberaubend. Das hereinfallende Licht heute besonders intensiv. Ich muss die Bildschirmhelligkeit ständig anpassen, wenn ich die Kameraansicht wechsle. Ich stelle mir vor, wie das Tageslicht mit jedem Stockwerk unter ihnen langsam abnimmt und im untersten Stock nur noch Kunstlicht existiert. (35) Dabei ist die Vergänglichkeit dieser Privilegien inhärent spürbar. So schließen sich z.B. Riva und Aston zu einer Credit Union zusammen, die im Sinne der Effizienzsteigerung die emotionale Bindung einer Liebesbeziehung oder gar Heirat substituiert: „Wir sind eine Credit Union, Riva. Meine Credits sind deine Credits. If you’re going down, I’m going down.“ (141) So entsteht das Bild einer Gesellschaft, die Mau (2017) als Folge permanenter Selbstvermessung beschrieben hat: Im neuen „Modus der sozialen Rangzuweisung durch Quantifizierung und Digitalisierung“ (185) werden Algorithmen „sehr schnell zu den zentralen Instrumenten der Benennungsmacht“ (203), so dass schließlich „die Utopie vollständiger Transparenz und die Dystopie totaler Kontrolle in eine ähnliche Richtung“ (231) weisen. In dieser Welt wird die in der Exposition in unterkühlter Ästhetik perfektionistisch anmutende anonyme Stadt als diametral entgegengesetzte Welt der Peripherien inszeniert, als Ort der Hitze und des Smog mit „schlechten, staubigen Straßen“ (101), „grauen Blockbauten“ (101) und Menschen, die „gewalttätig“ (187) wirken und von Hitomi als „unkontrollierte Meute“ (101) oder „unübersichtliche Masse“ (187) beschrieben werden, die „schlechtes, ungesundes Essen in sich hineinstopften“ (101); mit veralteten, fehlerhaften, geährlichen 6 KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder 81 und unprofessionellen Einrichtungen und Übungsplätzen, die die perfekte Welt der Megacity zu kopieren suchen (vgl. 175f.). Doch diese negative Repräsentation dieser nicht-perfekten, unkontrollierbaren Welt wird durch die Faszination, die sie auf andere Charaktere wie Hitomis Jugendfreundin Andorra oder die Hochhausspringerin Riva ausübt, konterkariert. Riva scheint an der Perfektion und der damit ür sie einhergehenden Eintönigkeit, Vorhersehbarkeit und Langeweile zu ertrinken, so dass ihre Sehnsucht eben diesen Peripherien gilt, wo sie geboren wurde und in die sie schlussendlich wieder zurückkehrt. Der als erstrebenswert verkaufte Weg jedoch ist aus den Peripherien heraus in die Stadt. Dieser Weg ührt ür die normale Bevölkerung ausschließlich über Castings, die potenziell geeignete Kandidaten ür bestimmte Berufe auswählen; ür reiche, elitäre Kinder ist der Weg bereits vorgezeichnet, indem sie in eigens ür sie konzipierten Erziehungsstätten fern der „Bioeltern“ aufwachsen und so auf ein auf Funktionieren und Effizienz getrimmtes Leben vorbereitet werden. Emotionale Bindungen sind in dieser Welt nicht vorgesehen - allein der Begriff „Bioeltern“ suggeriert die inhärente Inadäquatheit dieses Konzepts. Bei fehlender emotionaler Stabilität oder empfundener Not helfen patentierte Slogans wie „Everything’s gonna be okay TM “ (30), Mindfulness-Trainings, eskapistische Gedankenreisen durch einen inszenierten Blog aus einer Biofamilie genannt „Family Services TM “ (90) oder die digitale Möglichkeit, mit einem Parentbot ein inszeniertes Mutter-Tochter-Gespräch zu ühren (vgl. 77ff. und 254ff.), der natürlich im Sinne des Systems Rückmeldungen und Ratschläge erteilt. Der Roman Die Hochhausspringerin entwickelt in seiner Konstruktion den bekannten Überwachungsdiskurs durch eine ubiquitäre Form der Selbstüberwachung weiter. So sieht Han (2013) darin die Vollendung der Transparenzgesellschaft: „An die Stelle von Big Brother tritt Big Data. Die lückenlose Totalprotokollierung des Lebens vollendet die Transparenzgesellschaft.“ (92) Hervorzuheben ist, so Han, die „besondere panoptische Struktur“ (92) der digitalen Überwachungsgesellschaft: „Die Bewohner des digitalen Panoptikums hingegen vernetzten sich und kommunizieren intensiv miteinander. Nicht räumliche und kommunikative Isolierung, sondern Vernetzung und Hyperkommunikation machen die Totalkontrolle möglich.“ (92) Es ist umso wirksamer, als dieses digitale Panoptikum „ohne jede perspektivische Optik“ (Han 2012, 75) auskommt. 1 So wird Freiheit suggeriert, die doch nur Kontrolle bedeutet, der sich die Menschen nur allzu gerne selbst unterwerfen und glauben, ein „sich optimierendes Projekt“ (61) zu sein, sich dabei aber in der „Logik der Leistungsgesellschaft“ (Han 2012, 79) nur selbst ausbeuten. Der von Han (2012) formulierte, diesem System inhärente ökonomische Imperativ hat radikale Folgen: „Konsumenten liefern sich freiwillig den panoptischen Beobachtungen aus, die ihre Bedürfnisse steuern und befriedigen.“ (81) Geradezu idealtypisch scheint Hitomi diesen Projektentwurf im Sinne des ökonomischen 1 Han erklärt ausführlich die Unterschiede der Transparenzgesellschaft, die durch das aperspektivische digitale Panoptikum charakterisiert ist, zur Disziplinargesellschaft des 20. Jahrhundert, deren Überwachungsform dem Benthamschen Panoptikum nachempfunden und literarisch in Orwells 1984 verarbeitet wurde. (vgl. Han 2012, 74ff.) 82 Nicole Brandstetter Imperativs ür sich und ür ihr Objekt Riva internalisiert zu haben. Sie verkörpert damit die gesellschaftliche Tendenz, die Nosthoff und Maschewski (2019) im Zuge der omnipräsenten Wearables zur Selbstvermessung und Optimierung beschrieben haben: Das Quantifizierte Selbst wirkt damit als der neue Geist in der Maschine, als technisch aufgerüsteter, personifizierter Innovationsschub, der sich qua Smartwatch von morgens bis abends als bewegendes, als atmendes und schlafendes, aber auch als krankes Wesen in der fortlaufenden Optimierung und andauernden Selbstüberwindung übt. (24) Riva hingegen scheint an dem Projektstatus zu (ver-)zweifeln und sich zu ihrem Subjektstatus in den Peripherien zurückzusehnen. Ganz in Hans Verständnis ist es dabei ür Hitomi nicht nachvollziehbar, warum Riva sich entzieht, denn, so Han, die digitale Kultur beruht auf Daten, Zahlen und Fakten, wohingegen alles Emotionale, Geschichtliche auf Erzählen beruht (vgl. Han 2013, 50). Daten ersetzen hier Interpretation, liefern Hitomi jedoch keine Erkenntnis zu den Gründen ür Rivas Rückzug, denn, wie Han (2012) zeigt, „Informationsmasse erzeugt keine Wahrheit.“ (68) Riva folgt dem ihr einzig möglichen Weg, den Mau (2017) aus der gesellschaftlichen Steuerung durch „Indikatorisierung, Dokumentation, Evidenzbasierung und Transparenz“ (235) beschrieben hat: „Nur um den Preis der Selbstexklusion sind Personen dann noch in der Lage, sich von ihrem Abschneiden in Ratings, Scorings oder Rankings freizumachen.“ (235) Die Hochhausspringerin entwirft eine Welt, die ür alle Probleme und Eventualitäten patentierte, algorithmisch berechnete Lösungen hat, so dass Selbstüberwachung und Selbstoptimierung zu einem berechenbaren und damit vermeintlich schöneren und leichteren Leben ühren. Durch Lucadous ästhetisierten Stil und ihre den gesellschaftlich gewollten Perfektionismus widerspiegelnde Ästhetik wird jedoch gerade diese Perfektion infrage gestellt. Dem Leser wird eine multiple, sich selbst optimierende und überwachende Gesellschaft offeriert, die in ihrer Berechenbarkeit, Emotionslosigkeit und Ökonomisierung geradezu erdrückend wirkt und eine „Gesundheitsdiktatur“ (Weidermann 2020, 113) entwirft, die Juli Zehs Version ihres 2010 erschienen Roman Corpus Delicti um die Möglichkeiten digitaler Unterstützung durch Algorithmen erweitert. Julia von Lucadou und Juli Zeh entwickeln in ihren Erzählungen Szenarien, in denen die Freiheit ihren Wert verliert, um einem veränderten Verständnis von Chancengleichheit, Berechenbarkeit und öffentlichem Interesse Raum zu geben. 6.3 Entfesselte Fremdsteuerung Die digitalen Selbstüberwachungskonstruktionen zur permanenten Selbstoptimierung eröffnen auch den Weg zu einer neuen Form der ubiquitären Fremdkontrolle. Ein Beispiel daür liefert Sibylle Berg, die in ihrem 2019 erschienenen Roman GRM Brainfuck der Logik unseres heutigen technologischen Fortschritts folgend „die Fantasie eines elektronischen Überwachungs- 6 KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder 83 totalitarismus nach chinesischem Vorbild hinter der Camouflage eines Sozialstaats mitteleuropäischen Zuschnitts“ (März 2019a) entwirft. Der Leser befindet sich im Großbritannien der Post-Brexit-Ära, in Rochdale und in London. Der beschriebene Alltag gleicht einer „Generalabrechnung mit der Gegenwart“ (März 2019b), geprägt von brutalen, unvorstellbaren und doch der Realität entlehnten Monstrositäten 2 : Passanten werden ohne Grund von Attentätern mit Macheten zerlegt, in London brennt ein Hochhaus, junge Mädchen werden von pakistanischen Männern zu Sexsklavinnen degradiert und ein Sohn einer wohlsituierten, der Elite angehörigen Familie ermordet seine Stiefmutter und deren ungeborenes Kind, das er im Anschluss in ein Säurebad wirft. Künstliche Intelligenz steuert den Alltag und „ist der menschlichen so unglaublich überlegen, dass es dem Programmierer leichter fallen würde, sich in einen Deep-Learning-Rechner zu verlieben als in einen Menschen.“ (Berg 2019, 495- 496) Menschen erscheinen abgestumpft, ja ignorant: „Menschen in ihrer absurden Dummheit, deren Geühle, auf die sie sich so viel einbilden, nichts weiter als eine Abfolge von Rechenprozessen im Hirn, im unterentwickelten, sind.“ (496) Jedoch werden die Menschen nicht von einer Orwellschen Übermacht beobachtet. Diejenigen, die sich einen Chip implantieren lassen, erhalten ein Mindesteinkommen - und beliefern den Staat mit Daten, die zusammen mit biometrischen Kameras recht umfassende Bilder von Menschen liefern: Der Programmierer schaltet sich auf den Bildschirm des Staatsschutzes. Eine unbelebte Kreuzung in Tower Hamlets. Vier Personen, eine auf dem Moped, eine Frau mit Kinderwagen, zwei junge Männer. Neben den Gesichtern abrufbar: die Informationen zur Person. Die Vorstrafen, der Beruf, das Einkommen. Alle arbeitslos. Na klar. Das System ist so einfach, so brillant. Diese umfassenden Informationen, zusammengeührt aus Versicherungs- und Krankenakte, Bankdaten, Arbeitgeberinfo und all den Details, die die Idioten mit jedem Klick, jedem Like, jedem Post, jedem Emoticon, jedem Webseitenaufruf freiwillig abgeliefert haben. Sie sind wirklich alle aus demselben mäßig interessanten Material, die Leute, die nicht so individuell sind, wie sie immer glauben. (496). Mit diesen Daten werden Berechnungen erstellt, wem es wie wo und womit am besten geht. Dies geschieht auf Basis von Avataren eines jeden Bürgers, deren Verhalten KI-gesteuert simuliert wird, um so die jeweiligen individuellen Verhaltensweisen, wie Geährderpotenzial, politische Entscheidungen oder Konsumverhalten, und potenzielle Manipulationsmöglichkeiten vorhersagen zu können: 23.11. Der Avatar von Paul B., 34, Familienvater. Politischer Linksaktivist, vegane Ernährung, plant eine militante Aktion vor dem Westminster Palace. Abtransport von Paul B. erfolgt um 16.34. Der Verhaftete betont, er hätte einen veganen Infostand geplant. 2 Ursula März weist auf die Parallelen zur Realität hin: Vergewaltiger, die in Rochdale ihr Unwesen trieben, sowie der Brand des Grenfell Towers dienen dem Roman als Vorlage (vgl. März 2019a und 2019b). 84 Nicole Brandstetter 23.11. Der Avatar einer Kellnerin. Zugriff wegen Planung eines Attentats. Bestellung explosiver Substanzen. Schlagwort: Terror. Bombe. Die Frau (große Titten übrigens) betont bei Zugriff, Künstlerin zu sein. (491) Nach einer kurzen Exposition, in der skizziert wird, wie die Welt wurde, wie sie jetzt ist, werden die Protagonisten des Romans vorgestellt, vier Kinder - Don, Karen, Hannah und Peter - aus dem „Milieu der untersten Unterschicht, der Depravierten, Verarmten, kulturell Verkommenen und der Straßenkinder, die vom Radar der Sozialbürokratie verschwinden“ (März 2019b), die sich gegen diesen Überwachungsstaat wehren: Das ist die Geschichte von Don Geährderpotenzial: hoch Ethnie: unklare Schattierung von nicht-weiß Interessen: Grime, Karate, Süßigkeiten Sexualität: homosexuell, vermutlich Soziales Verhalten: unsozial Familienverhältnisse: 1 Bruder, 1 Mutter, Vater - ab und zu, aber eher nicht (Berg 2019, 8) Der Leser erlebt die Ereignisse aus den wechselnden personalen Perspektiven verschiedenster Figuren. Diese werden bei ihrer jeweils ersten Nennung eingeleitet mit einer Kurzeinschätzung gleich einem karteikartenähnlichen Profil bezüglich der jeweils relevanten Informationen unter anderem zu Intelligenz, Sexualität, Krankheitsbild, Konsumverhalten, Ethnie, Religion, Gesundheitszustand, Hobbys, Attraktivitätswert, Temperament, Konsuminteressen, Aggressionspotenzial, Kreditwürdigkeit, Verwertbarkeit oder zu politischer Orientierung. So fokussiert die Erzählung wie eine Summe der ausgewerteten Daten auf die Kategorisierung der jeweils folgenden narrativen Perspektive. Gleich einem Kommentar wird der Erzählstrang unterbrochen durch eine Analyse der Narration selbst sowie der Phänomene der Digitalisierung. Wie ein Beweis ür die desaströse Wirkung dieser Technologie auf die Gesellschaft wird die ironisch-distanziert durchgeührte Analyse durch die Erzählung selbst illustriert. Sibylle Bergs Poetik spiegelt die Gebrochenheit der Gesellschaft wider. Im Sinne einer apokalyptischen Rede dominieren parataktische, unvollständige Sätze, die sich teilweise über Absätze zersplittern, wie die folgende Textstelle, in der Don über Frauen, Männer und Familie nachdenkt, exemplarisch illustriert: Peter mochte Männer nicht. Es gab zu viele davon. Dachte Don . Überall, wo es interessant war, saßen sie herum. Wenn sie in Gruppen auftraten, war das unerfreulich. Die Gruppe vor Dons Haus - na ja, Haus 6 KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder 85 - hatte gestern einen kleinen streunenden Hund angelockt. Der Kadaver lag dann einige Tage da. Don wusste nicht, warum Männer so etwas taten. Aber sie wusste, man musste Angst vor ihnen haben. Man durfte sie nicht reizen. Sie konnten brüllen, ohne dass es klang wie kreischen. Sie redeten Unsinn, in Halbsätzen. Man wollte ihnen gefallen. Man wollte dem coolsten Gangster gefallen. Oder dienen. Um nicht erschlagen zu werden. Wie Dons Mutter. Wie alle Mütter im Block, die meistens alleine mit den Kindern waren, weil die Männer gingen, sobald sie keine Lust mehr hatten, die Frau zu schlagen. Erschöpfungsdepression war die häufigste Frauenkrankheit im Land. Na ja, Krankheit. Na ja. Frauen eben. (33-34) Ein harter, bisweilen vulgärer Ton hebt die geschilderte Brutalität auf die Ebene der Sprache, ohne den sorgenden, gar verzweifelten Blick auf seine Protagonisten zu verlieren: „Die apokalyptische Wucht, die dem Roman innewohnt, hält sich die Waage mit seiner emphatischen Barmherzigkeit. ‚GRM‘ ist Attacke und Fürbitte in einem, so monströs wie zärtlich.“ (März 2019b) KI-gesteuerte Systeme der Selbst- und Fremdüberwachung steuern, kategorisieren und zersplittern die Gesellschaft. Selbst die Politik wird durch Künstliche Intelligenz sich selbst entfremdet und abgeschafft: Die neue Regierung Hatte ihre 80 Prozent der Stimmen nach dem Vorbild der früheren italienischen Fünf-Sterne-Bewegung eingefahren, einer Art Mitmach- und Gute-Laune-Partei ür alle. Gegen die da oben. Gegen die Eliten. Gegen Wissenschaftler und Künstler und Zeug. Die Software dieser wunderbaren, direkten Demokratischen Partei ist einer großen Gruppe junger, gelangweilter Programmierer zu verdanken. »Ich bin da schon ein wenig stolz.« Würden sie sagen, wenn sie öffentlich zu ihrem Werk stehen dürften. Der junge, dynamische Premier-Darsteller, im Netz agierte ein Avatar von ihm, verstand es von Anfang an, die Menschen mitzureißen. Das Volk liebt den neuen Premier. Das Volk steht vor dem Westminster Palace und jubelt. Seit dem Tag der Wahl stehen sie und jubeln und wissen, dass nun alles anders wird. Die Programmierer sehen aus dem Fenster. Ihre Regierung sind Superrechner, ein Serverraum, künstliche Intelligenz. Und ein Schauspieler. (Berg 2019, 603) Zurück bleibt eine zutiefst menschenfeindliche, dehumanisierte, brutale Gesellschaft, die gerade die Schwächsten unter ihnen verrät und ihrem Schicksal - Missbrauch, Armut, Krankheit, Tod - überlässt. 6.4 Fazit Dave Eggers, Juli Zeh, Julia von Lucadou und Sibylle Berg zeichnen ein sehr düsteres Bild, wie die Entwicklung von Künstlicher Intelligenz Politik und Gesellschaft beeinflussen kann. Die Verührungen, durch Künstliche Intelligenz Entscheidungsoptionen zu lenken, Effizienz zu garantieren, Sicherheit zu suggerieren sowie Menschen zu überwachen und deren Handlungen zu einem 86 Nicole Brandstetter bestimmten Ziel hin zu manipulieren, erscheinen verlockend und desaströs zugleich. Die Freiheit und Selbstbestimmung der Bürger sind hier das Opfer macht- und wirtschaftspolitischer Bestrebungen. 3 Peter Sloterdijk (2020) stellt in einem Interview in der Zeit fest, dass im letzten Vierteljahrhundert „Freiheitsthemen gegenüber Sicherheitsthemen zurückgedrängt werden“ (Sloterdijk 2020, 47) und dass „Sozialkybernetik“ (47), also die soziale und politische Steuerung und Beeinflussung von Menschen mittels Künstlicher Intelligenz, ein „Trendartikel“ (47) sei. Auch die Cambridge Analytica Afäre, die Unregelmäßigkeiten beim Brexit-Vote oder das chinesische Social Credit System 4 sind erschreckende Beispiele, wie weit Künstliche Intelligenz in gesellschaftliche und politische Systeme eingedrungen ist und diese beeinflussen kann. Aber es gibt auch positivere, wenngleich auch immer noch kritisch hinterfragte Szenarien in der wissenschaftlichen Diskussion. Thurner (2019) zeigt, welche Chancen der Einsatz von Künstlicher Intelligenz und Big Data ür die Wahrung der Demokratie haben kann. So kann die Überprüfung von Wahlen auf faire Durchührung durch Algorithmen internationale Organisationen wie die OSZE bei ihrer Arbeit unterstützen (vgl. 30-31) und Transparenz auch positiv als Basis ür Vertrauen in einer offenen Gesellschaft fungieren (vgl. 32). Auch Susskind (2018) zeigt Chancen, die Big Data und Künstliche Intelligenz ür Politik und Gesellschaft bieten. Individuelle Partizipationsmöglichkeiten innerhalb von Systemen einer „Wiki Democracy“ (vgl. 243ff.) können demokratische Entscheidungen mit einer anderen Form der Legitimierung als rein repräsentative Systeme aufladen. In einer „Data Democracy“ (vgl. 247ff.), so Susskind weiter, würden Daten Entscheidungsgrundlagen liefern, womöglich in größerem Maße als bisherige Wahlentscheidungen dies übernahmen. In einer „AI Democracy“ (vgl. 250ff.) schließlich müsste sich eine Gesellschaft fragen, welcher Bereich tatsächlich von Künstlicher Intelligenz übernommen werden soll, ohne dass die Demokratie selbst infrage steht. Die Frage wird heute wie in Zukunft sein, welche gesellschaftlichen, politischen und ethischen Werte ür eine Gesellschaft unveräußerlich sind und somit außerhalb von KI-Anwendungen debattiert, diskutiert und appliziert werden sollen. 3 Auch Wissenschaftler wie Yvonne Hofstetter warnen vor der Verquickung von wirtschaftlichen Interessen, politischen Entscheidungen und Machtbestrebungen, die durch Künstliche Intelligenz möglich werden und zu einem „Ende der Demokratie“, so der reißerische Titel ihres gleichnamigen Buches, führen könnten (vgl. Hofstetter 2016). 4 Thomas Ramge beschreibt in seinem Buch postdigital (2020) die derzeitigen praktischen Umsetzungen und Vorgehensweisen im Rahmen des Social Credit Systems in China sowie dessen Wahrnehmung durch die Bevölkerung (vgl. Ramge 2020, 83-91). 6 KI und Literatur: Gesellschaftsentwürfe und Zukunftsbilder 87 6.5 Literaturverzeichnis Bauman, Zygmunt 2017. Flüchtige Moderne. 8. Auflage. Frankfurt am Main: Suhrkamp. Berg, Sibylle 2019. GRM Brainfuck. Köln: Kiepenheuer & Witsch. Eggers, Dave 2013. The Circle. New York: Vintage Books. Foucault, Michel 2019. Überwachen und Strafen. Die Geburt des Geängnisses. 17. Auflage. Frankfurt am Main: Suhrkamp. Han, Byung-Chul 2012. Transparenzgesellschaft. Berlin: Matthes & Seitz. Han, Byung-Chul 2013. Im Schwarm. Ansichten des Digitalen. Berlin: Matthes & Seitz. Hofstetter, Yvonne 2016. Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt. München: Bertelsmann. Lenzen, Manuela 2018. Künstliche Intelligenz. Was sie kann & was uns erwartet. München: Beck. Lobe, Adrian 2019. Speichern und Strafen. Die Gesellschaft im Datengeängnis. München: Beck. Lucadou, Julia von 2018. Die Hochhausspringerin. Berlin: Hanser Verlag. Mau, Steffen 2017. Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp. März, Ursula 2019a. „Ein Buch wie ein Sprengsatz“, Zeit Online, 16.04.2019. Online im Internet: URL: https: / / www.zeit.de/ 2019/ 17/ grm-brainfuck-sibylleberg-roman-ueberwachungsdiktatur März, Ursula 2019b. „Eine Generalabrechnung mit der Gegenwart“, Deutschlandfunk Kultur - Lesart, 15.04.2019. Online im Internet: URL: https: / / www.deutschlandfunkkultur.de/ sibylle-berg-grm-brainfuck-eine-generalabrechnung-mit-der.1270.de.html? dram: article_id=446335 Nosthoff, Anna-Verena; Maschewski, Felix 2019. Die Gesellschaft der Wearables. Digitale Verührung und soziale Kontrolle. Berlin: Nicolai Publishing & Intelligence GmbH. Orwell, George 1950. 1984. New York: Signet Classic. Ramge, Thomas 2020. postdigital. wie wir künstliche intelligenz schlauer machen, ohne uns von ihr bevormunden zu lassen. Hamburg: Murmann Publishers. Sloterdijk, Peter 2020. „Für Übertreibungen ist kein Platz mehr“, Die Zeit 16, 47. Susskind, Jamie 2018. Future politics: living together in a world transformed by tech. Oxford: Oxford University Press. Thurner, Stefan 2019. Big Data und die Folgen. Sind wir noch zu retten? Wien: Picus Verlag. 88 Nicole Brandstetter Türcke, Christoph 2019. Digitale Gefolgschaft. Auf dem Weg in eine neue Stammesgesellschaft. München: Beck. Weidermann, Volker 2020. „Angst um die Freiheit“, Der Spiegel 22, 113. Zeh, Juli 2010. Corpus Delicti. Ein Prozess. München: btb. Zeh, Juli 2017. Leere Herzen. München: Luchterhand. Zuboff, Shoshana 2018. Das Zeitalter des Überwachungskapitalismus. Frankfurt am Main: Campus Verlag. 7 Rolle der Interkulturalität bei der Entwicklung, Etablierung und Verbreitung von KI-Geschäftsmodellen Daniel Jan Ittstein Aufgrund der technischen Entwicklung und ökonomischen Bedeutung wird die künstliche Intelligenz (KI) zukünftig vermehrt ein integraler Bestandteil vieler Geschäftsmodelle sein. Dabei befinden wir uns derzeit noch in einem verhältnismäßig frühen Stadium der Entwicklung, hinsichtlich dessen vielerorts noch davon ausgegangen wird, dass die Algorithmen und die darauf basierenden Geschäftsmodelle global ohne Limitationen funktionieren. Firmen wie Apple, Google, Amazon, Tencent oder Alibaba agieren bereits weltweit im KI-Geschäft. Es stellt sich daher die Frage, inwiefern Interkulturalität eine Rolle bei der Entwicklung, Etablierung und Verbreitung von KI-Geschäftsmodellen spielt. 7.1 Künstliche Intelligenz agiert im kulturellen Kontext Das volle Potenzial der KI kann nur entfaltet werden, wenn wir sie umfassend in unsere sozioökonomischen Strukturen und Prozesse integrieren (Brynjolfsson & Mitchell 2017: 1534). Diese Entwicklung wird durch die zunehmende ‚Roboterisierung‘ der Umwelt unterstützt, da schon heute deutlich mehr Mikrocontroller in Autos, Flugzeugen, Häusern, Maschinensteuerungen, Satelliten, Mobiltelefonen, Waschmaschinen, Spielautomaten oder Kameras sowie Computern eingesetzt werden als noch vor wenigen Jahren (Christaller 2014: 1). Der ubiquitäre Einsatz der Technik wird aller Voraussicht nach schon bald dazu ühren, dass KI und auch Roboter nicht mehr die klar abgrenzbaren Applikationen oder Maschinen sind, wie wir sie uns heute noch vorstellen. Die gesamte Lebensumwelt, innerhalb derer wir kommunizieren, handeln und uns bewegen, wird durchdrungen von KI sein. Wir Menschen werden durch die Nutzung digitaler Geräte Teil dieser ubiquitären Technik und die Technik wird Teil von uns (Ittstein 2018b: 34-35). Gerade deshalb ist die KI stark mit dem jeweiligen Kontext verwoben, aus dem sie die relevanten Daten erhält und in dem sie dann wirken kann, so wie auch Hagerty und Rubinov feststellen: „[…] artificial intelligence is shaped by its social context at all phases of its development and use. As such it takes distinct forms in different places.“ (Hagerty & Rubinov 2019: 3) Dieser Kontext ist immer ein äußerst heterogenes Gebilde, das durch juristische, politische, geografische, ökonomische oder sonstige Faktoren determiniert ist. Ein Kontextfaktor spielt ür die KI hierbei eine besondere Rolle: die Kultur - aufgrund ihrer struktur- und prozessbeeinflussenden Natur. Dabei ist ‚Kultur‘ ein mehrdeutiges Konstrukt und Gegenstand verschiedener zum Teil höchst divergieren- 90 Daniel Jan Ittstein der Definitionen. Diese Differenzierungen sind fundamental und wohlbegründet, denn je nachdem, in welcher Epoche, mit welchem theoretischen Hintergrund (zum Beispiel Anthropologie, Ethnologie, Kulturwissenschaften, Sozialpsychologie, Wirtschaftswissenschaft) und mit welchem Erkenntnisinteresse (zum Beispiel verstehen vs. erklären) eine Definition formuliert wurde, stehen unterschiedliche Facetten dieses komplexen Konstrukts im Vordergrund der Betrachtung. 7.2 Interkulturalität als Wertschöpfungsfaktor In der interkulturellen Managementforschung überwiegen nach wie vor etisch vergleichend ausgerichtete Ansätze, hinsichtlich derer der Forscher einen Standpunkt außerhalb des Systems einnimmt. Dabei wird Kultur vorwiegend als ein nationales Wertesystem verstanden und dessen Einfluss auf Managementpraktiken analysiert. Seit etwa der Jahrtausendwende etabliert sich daneben eine emisch und interpretativ ausgerichtete Forschung, die eine Innenperspektive einnimmt und in deren Mittelpunkt unterschiedliche Bedeutungssysteme und deren Einfluss auf das Management stehen (Pike 1954). Kulturelle Unterschiedlichkeit wird demnach nicht nur nationalkulturell definiert und durch ‚nationale‘ Kulturdimensionen erklärt. Vielmehr wird versucht, vielältige Kulturen und Identitäten zu berücksichtigen (zum Beispiel Multiple-Culture-Ansätze) (Barmeyer & Davoine 2016: 100). Ungeachtet des zugrunde liegenden Paradigmas herrscht nach wie vor eine ausgeprägte Problemorientierung in der interkulturellen Managementforschung vor (Barmeyer & Davoine 2016: 100). Interkulturelle Prozesse werden vorwiegend als problematisch beziehungsweise zumindest als Herausforderung gesehen. Vor diesem Hintergrund konzentriert sich interkulturelle Managementforschung darauf, diese Probleme zu minimieren oder deren Folgen zu beseitigen. Eine ganz andere Perspektive ist es, Interkulturalität im Management potenziell positiv - als konstruktive Ressource und Wertschöpfungsfaktor - zu sehen. Durch die bewusste Wahrnehmung von interkulturellen Unterschieden kann diese Vielfalt konstruktiv-synergetisch genutzt werden - zum Beispiel, um innovativer zu sein, bessere Produkte zu entwickeln, die Mitarbeiter*innenmotivation zu erhöhen oder optimierte Geschäftsmodelle zu gestalten (vgl. Ittstein 2018a). Dies bedeutet nicht, dass die Herausforderungen negiert oder nicht wahrgenommen werden sollten. Aber der Fokus liegt darauf, positive Synergien zu finden, die durch Interkulturalität entstehen können. In der betrieblichen Praxis von (Digital-)Unternehmen ist diese konstruktiv-synergetische Sichtweise bereits deutlich stärker als in der Forschung verbreitet. Digitale Initiativen und Firmengründungen werden seit vielen Jahren am Bedarf möglicher Kunden(gruppen) ausgerichtet (Blank 2013; Ries 2011). Mit Methoden wie dem ‚Design-Thinking‘ wird die Perspektive im Rahmen der (digitalen) Produktentwicklung iterativ auf den Kundennutzen in Bezug auf kleine Gruppen oder gar Individuen gelenkt (Lewrick u. a. 2017). Dabei orientieren sich diese Methoden zumeist an ethnografischen An- 7 Rolle der Interkulturalität bei KI-Geschäftsmodellen 91 sätzen (Geertz 1973; Hine 2015). Mittels dichter Beschreibung werden Kundenbedürfnisse evaluiert, um darauf basierend Produktfunktionalitäten zu definieren. Im Rahmen der Kundeninteraktion werden weiterhin durch die digital-technischen Möglichkeiten der Akteurs-Analyse (Stichworte: Big Data, maschinelles Lernen, KI) Kundenbeziehungen in einem umfassenden Ausmaß individualisiert. „Customers are identified every time they visit a website, and a great deal of information about each customer can be accumulated over time. Based on this information, firms can customize products or services for particular customers. In fact, the Internet is the ideal medium for serving the fragmented nature of today’s consumer markets, and it is becoming increasingly viable for a firm to communicate and deliver content over the Internet to small niche markets.“ (Kim u. a. 2004: 576) In der Verschiedenheit der Kunden wird bei Digitalunternehmen entsprechend eine Chance gesehen. Aus digitalgeschäftlicher Sicht bietet jede noch so kleine Unterschiedlichkeit das Potenzial, ein spezifisches Produkt zu entwickeln und damit ein Bedürfnis einer Kundengruppe oder eines Individuums zu erüllen (Neubert 2018; Kreutzer & Sirrenberg 2019: 156). Im Rahmen einer Beschäftigung mit digitalen Unternehmen, deren Geschäftsmodellen und Geschäftsmodellinnovation macht es demnach keinen Sinn, in nationalen Kategorien zu denken. Vielmehr sollte versucht werden, sämtliche Stakeholder aus einer emischen Perspektive zu verstehen und mit ihnen auf dieser Basis zu interagieren, um gemeinsam Werte zu schaffen. Zu diesem interaktiven Wertentwicklungsverständnis passt im interkulturellen Kontext kein statisches Kulturmodell. Vielmehr entwickeln die beteiligten Parteien im Rahmen der Interaktion etwas Neues - ein gegenseitiges Verständnis daür, wie gemeinsam Werte geschaffen und Bedürfnisse befriedigt werden können. Dies entspricht dem dynamischen Konzept der „negotiated culture“ (Brannen 1998: 90). Negotiated Culture „views organizations as settings where patterns of meaning and agency arise from the ongoing interactions and exchanges of its members in particular organizational contexts.“ (Brannen 2009: 90) Barmeyer und Davoine (2016) spezifizieren: „Um Aufgaben in sozialen Systemen zu verrichten, werden durch laufende Aushandlungsprozesse der Akteure soziale Strukturen geschaffen, stabilisiert oder verändert. Interagieren nun Menschen unterschiedlicher kultureller Zugehörigkeit miteinander, so entsteht eine neue ‚ausgehandelte‘ Kultur durch die Rekombination und Modifikation kultureller Merkmale und Bedeutungen. Ausgehandelter Kultur liegt ein anthropologisch orientierter interpretativer und sozialkonstruktivistischer Kulturbegriff zugrunde: Kultur ist demnach dynamisch und konstituiert sich durch interaktive (Re-)Produktion von Bedeutungs- und Interpretationsmustern, die von einer bestimmten, eingegrenzten Gruppe Individuen geteilt werden. Bedeutung wird nicht einfach wie in monokulturellen Kontexten ‚übertragen‘, sondern sie wird (re-)vereinbart oder (re-)konstruiert.“ (Barmeyer & Davoine 2016: 104) 92 Daniel Jan Ittstein Demnach stellt sich die Frage, welche kulturelle Rolle, Form und Funktion die KI nun einnehmen kann, wenn sie in die verschiedenen Prozesse und Strukturen eines Geschäfts(-modells) integriert wird, das immer in einem spezifischen Kontext wirkt. Weiterhin ist zu fragen, inwiefern schon durch diese Integration und Nutzung der KI im Rahmen eines Geschäfts(-modells) ein kultureller Aushandlungsprozess stattfinden kann, um Werte zu generieren. Inwiefern beeinflusst Kultur die KI und die KI wiederum die Kultur? 7.3 Reziprozität zwischen künstlicher Intelligenz und Kultur Aus anthropologischer Sicht kann die KI am ehesten als technosoziales System verstanden werden. Das bedeutet, dass die technischen Aspekte der KI intrinsisch und untrennbar mit dem sozialen und damit kulturellen Kontext verbunden sind. Kulturelle Werte und Annahmen durchdringen nicht nur die Daten, mit denen die KI arbeitet, sondern determinieren, wie wir die Technik entwickeln, wahrnehmen und nutzen; sie entscheiden darüber, welche Erwartungen, Hoffnungen und Ängste wir mit dieser Technologie verbinden. Es bietet sich an, die reziproke Beziehung zwischen Kultur und KI aus drei Blickwinkeln zu betrachten: Vorstellung und Wahrnehmung, Design und Entwicklung sowie Implementierung und Nutzung. Vorstellung und Wahrnehmung Die Vorstellung und Wahrnehmung der KI ist maßgeblich vom kulturellen Hintergrund abhängig. So wurde zum Beispiel festgestellt, dass die Vorstellungen vieler Amerikaner*innen bezüglich der KI von populären, gewaltgeprägten Science-Fiction-Filmen wie dem Terminator beeinflusst sind, was vielfach dazu ührt, dass eine weit verbreitete Angst vor ‚Killerrobotern‘ vorherrscht (Richardson 2015). In der Schweiz wiederum assoziieren viele Menschen mit dem Begriff ‚künstliche Intelligenz‘ eher Roboter und Maschinen als Algorithmen. Die KI wird mehr mit Risiken als mit Chancen in Verbindung gebracht (LINK Institut 2018). Im Gegensatz dazu ist die kulturelle Wahrnehmung von KI und Robotern in Japan oft mit dem beliebten Manga-Charakter Astro Boy verknüpft. In Verbindung mit dem Shintoismus ührt dies zu weniger Berührungsängsten hinsichtlich der Technik (Robertson 2018). Das heißt aber auch in Japan nicht, dass breitflächig eine harmonische Koexistenz von Robotern und Menschen vorausgesetzt werden könnte. So waren Anstrengungen der japanischen Regierung, vermehrt Pflegeroboter einzusetzen, nur bedingt erfolgreich, da viele Familien letztlich doch die persönliche Pflege präferierten (Wright 2018). Eine zentrale Rolle ür die Entwicklung der Vorstellungen und Wahrnehmungen spielen die Medien. Meist werden in Zeitungen, aber auch in Fachzeitschriften Artikel über KI mit Bildern von Robotern angereichert. Diese unmittelbare Verknüpfung des Begriffs der KI mit Grafiken aus der Robotik ist nicht immer passend und kann sich, je nach kulturellem Hintergrund, durchaus auch negativ auf die Transformationsbereitschaft auswirken, da falsche Assoziationen geweckt werden können. 7 Rolle der Interkulturalität bei KI-Geschäftsmodellen 93 Daneben wird die Wahrnehmung der KI auch zunehmend durch eigene Erfahrungen im Umgang mit der Technik geprägt. Thieulent et al. konnten herausfinden, dass „[…] 47 % of consumers believe they have experienced at least two types of use of AI that resulted in ethical issues […].“ (Thieulent u. a. 2019: 13) Dabei bestehen hinsichtlich Art und Häufigkeit der ethischen Eingriffe regionale Unterschiede, diese reichen von der Nutzung von Patient*innendaten ohne Zustimmung bis hin zu maschinell getroffenen Entscheidungen, ohne dass dies vorab offengelegt worden wäre (Thieulent u. a. 2019: 28). Beim Design und der Entwicklung der KI muss entsprechend der kulturelle Kontext beachtet werden. Design und Entwicklung Das Design und die Entwicklung von KI ist wesentlich davon beeinflusst, in welchem kulturellen Kontext dies geschieht. Dabei sind insbesondere kulturell determinierte Verzerrungen (Biases) in den Modellen und Daten zu beachten, die durch die anhaltende globale digitale Spaltung (Digital Divide) noch verstärkt werden. Im Hinblick auf das Design oder besser gesagt die Modellierung der Algorithmen können kulturelle Verzerrungen in den so genannten Pre-Loading-Rules enthalten sein. Letztere sind generelle Regeln ür die Datenverarbeitung im Modell. Sie werden vorab formuliert, damit der Algorithmus leistungsähiger ist und das Training beschleunigt wird. Da diese Regeln von Menschen gemacht werden, basiert die Software immer auf kulturell determinierten Annahmen hinsichtlich Art und den Umfang des möglichen Problem- und Lösungsraumes - oder wie Mann und O’Neil es ausdrücken: „Algorithms are in large part our opinions embedded in code.“ (Mann & O’Neil 2016) Dadurch kann es passieren, dass bestimmte Aspekte oder Optionen von vornherein ausgeschlossen werden - die KI demnach eine Art ‚blinden Fleck‘ aufweist. Dies kann sich unmittelbar auf die Bewertungen und die Entscheidungen der KI auswirken. Daneben können (Trainings-)Daten zu einer kulturellen Verzerrung in der KI ühren. Daten basieren letztlich immer auf kulturellen Vorstellungen, Werten und Normen. Dadurch werden die Arbeitsweise und die Ergebnisse der KI unmittelbar beeinflusst, wie Beispiele in Verbindung mit dem Einsatz von KIgestützter Rekrutierungssoftware eindrücklich verdeutlichen. Die meisten am Markt gebräuchlichen Lösungen wie Mya, ARYA oder HireVue diskriminieren noch immer Menschen anhand von Namen, Geschlecht oder Sprache (Raub 2018: 538). Letztendlich wird stets argumentiert, dass die letzte Entscheidung bei den Personalverantwortlichen liege - aber in der Praxis verlassen sich Unternehmen insbesondere beim arbeitsintensiven Vorauswahlprozess gerne auf die Algorithmen, was dazu ührt, dass Menschen mit gewissen kulturellen Hintergründen kaum Chancen haben, in die engere Auswahl zu kommen. 94 Daniel Jan Ittstein Verstärkt wird dieser Bias-Effekt der KI durch den persistenten, globalen Digital Divide. 1 Letzterer ührt dazu, dass große Teile der Weltbevölkerung vom Design und der Entwicklung der KI ausgeschlossen sind. So bemerkt Raub: „Perhaps the most significant, overarching problem is the severe lack of diversity in tech.“ (Raub 2018: 540) Dabei sind es nicht etwa sprachliche Gründe oder fehlende Bildungsmöglichkeiten, die den Zugang versperren (Rudolph 2019: 112). Vielmehr liegt dies daran, dass Technologiefirmen selten Frauen oder Minderheiten einstellen und halten. Besonders aufällig ist das hinsichtlich der großen amerikanischen Technologiefirmen Apple, Facebook, Google, Microsoft und Amazon, wo zum Beispiel nur 3 % der Belegschaft afro-amerikanischer Herkunft sind (The Economist 2020: 52). Frauen werden zwar häufiger eingestellt, aber 52 % dieser verlassen die Firmen mit Mitte dreißig und kommen nicht wieder zurück (Raub 2018: 540). Verstärkt wird der Effekt der Nichtteilhabe von Frauen und Minderheiten dadurch, dass die KI derzeit vor allem in den USA, China und Ländern des so genannten globalen Nordens entwickelt wird. 2 Die Bevölkerung des globalen Südens ist dagegen weitgehend von der Entwicklung dieser Grundlagentechnologie ausgeschlossen (ITU 2020; Wold Economic Forum 2020). All diese strukturelle Diskriminierung wird schließlich durch die fehlende Awareness vieler KI-Entwickler manifestiert. Wie Yao bemerkt: „AI researchers pride themselves on being rational and datadriven, but can be blind to issues such as racial or gender bias that aren’t always easy to capture with numbers.“(Yao 2017) Daneben ührt der Digital Divide auch dazu, dass der digitale Fußabdruck (Digital Footprint) weltweit unterschiedlich ausgeprägt ist (ITU 2020: 4). Insbesondere in wenig entwickelten Ländern hinterlassen Menschen deutlich weniger Datenspuren, wodurch diese auch hinsichtlich der KI unterrepräsentiert sind. Zum Beispiel hinterlässt ein US-amerikanischer Haushalt im Durchschnitt alle sechs Sekunden einen Datenpunkt. Ein durchschnittlicher Haushalt der Mittelklasse in Mozambique generiert überhaupt keine Datenpunkte (World Economic Forum 2018: 8). Letztendlich ührt die fehlende Diversität im Hinblick auf Design und Daten zur Marginalisierung großer Bevölkerungsgruppen. Es scheint, als ob die KI als soziotechnische Akteurin größtenteils die Rolle eines weißen, rational denkenden Mannes aus einem Industriestaat einnimmt und auch entsprechend handelt, wenn sie genutzt wird. Implementierung und Nutzung Die KI als Software ist mit bestimmten Funktionen ausgestattet und wird daher in der Informatik als ‚Akteur‘ bezeichnet. Diese hat Handlungsautonomie 1 “The usual meaning of ›the digital divide‹ refers to inequality of access to the Internet. […] [A]ccess alone does not solve the problem, but it is a prerequisite for overcoming inequality in a society whose dominant functions and social groups are increasingly organized around the Internet.” (Castells 2002: 248) 2 Vgl. Kapitel 6. Globaler Norden wird die Ländergruppe der reichen Industrieländer genannt; Globaler Süden wird die Ländergruppe der Entwicklungs- und Schwellenländer genannt. 7 Rolle der Interkulturalität bei KI-Geschäftsmodellen 95 - die schwächste Form der Autonomie, die einem Akteur zugeschrieben werden kann und die schon vorliegt, wenn eine Handlung gegeben ist. Um diesen Begriff von den anspruchsvolleren Autonomiekonzeptionen abzugrenzen, sollte in diesem Zusammenhang laut Misselhorn lieber von Selbstursprünglichkeit anstelle von Autonomie gesprochen werden (Misselhorn 2018: 76). Künstliche Systeme sollten nun drei Bedingungen erüllen, um als selbstursprünglich bezeichnet werden zu können:  Interaktivität mit der Umwelt, d. h. der Akteur reagiert auf die Umwelt und beeinflusst diese,  eine gewisse Unabhängigkeit von der Umwelt, die darin besteht, dass der eigene Zustand ohne direkte Einwirkung der Umwelt verändert werden kann, sowie  Anpassungsähigkeit, die die Veränderung der eigenen Verhaltensregeln im Licht neuer Umweltbedingungen beinhaltet (Floridi & Sanders 2004: 363-364; Misselhorn 2018: 77). Es stellt sich die Frage, inwiefern der KI solch eine Selbstursprünglichkeit zuzuschreiben ist. Eine allgemeine Antwort darauf ällt schwer, da es viele Ausprägungen künstlicher Systeme gibt. Entsprechend wird in der Informatik unterschieden zwischen determinierten und deterministischen Algorithmen. Ein determinierter Algorithmus gelangt bei demselben Input immer zu demselben Output. Diese Bedingung muss auch bei deterministischen Algorithmen er- üllt sein, nur dass diese zudem stets über denselben Weg zu dem Ergebnis kommen. Beiden Arten von Algorithmen ist zuzuschreiben, dass sie interaktiv sind: Nutzer machen eine Eingabe und der Algorithmus wirft etwas aus. Auch ist davon auszugehen, dass die Algorithmen unabhängig sind. Denn selbst ein deterministisches System wie der Schachcomputer Deep Blue kann eine Schachpartie spielen, ohne dass ein Mensch eingreift. Dieser Eindruck der Unabhängigkeit wird zudem dadurch verstärkt, dass die Handlungen der KI weder durch Außenstehende noch durch den Designer des Systems gänzlich nachvollzogen werden können. 3 Da künstliche Systeme darüber hinaus ständig durch neue Daten modifiziert werden, ist auch die Bedingung der Anpassungs- ähigkeit gegeben. Es ist demnach davon auszugehen, dass einer KI Selbstursprünglichkeit zuzuschreiben ist. Die Handlungen des Systems können außerdem moralische Konsequenzen verursachen, wie am Beispiel der fehlerhaften Gesichtserkennung bei der amerikanischen Polizei eindrücklich zu sehen ist; dadurch ist ein künstliches System ebenfalls ein moralischer Akteur (Misselhorn 2018: 80). 4 Das bedeutet, dass sich die KI in ihren Handlungen durch ein kulturell determiniertes Normensystem leiten lässt, das durch Design und Daten konstituiert ist. Die KI als moralische Akteur ist durch ihr Handeln unmittelbar mit dem jeweiligen kulturellen Kontext verwoben und tritt in Interaktion mit der nutzenden Person. Zwischen der KI und den Men- 3 Vgl. Kapitel 3 - Black-Box Problematik 4 Vgl. Kapitel 3 96 Daniel Jan Ittstein schen kann infolgedessen eine interkulturelle Beziehung entstehen. Diese Interaktion kann zu verschiedenen Herausforderungen ühren: Im Rahmen der interkulturellen Mensch-Maschine-Interaktion können linguistische Übersetzungsprobleme nicht immer erkannt werden, was dann zu falschem Handeln ühren kann. So wurde zum Beispiel der Like-Button von Facebook in Brasilien mit ‚curtir‘ übersetzt, was grundsätzlich auch ‚mögen‘ bedeutet, aber eher im Sinne von ‚genießen‘. Diese falsche Übersetzung hatte Konsequenzen: In Brasilien haben vor einigen Jahren Aktivist*innen Bilder von getöteten indigenen Bauern gepostet, die von Agrarwirtschaftsmilizen umgebracht worden waren. Obwohl die Information durchaus relevant ür die vielen Follower der Aktivist*innen war, wurden die Bilder nicht gelikt, da die Nutzer*innen den Anblick der Toten verständlicherweise nicht genießen konnten. Daraufhin nahm der Filter-Algorithmus von Facebook die Inhalte der Aktivist*innen als unpopulär wahr und reduzierte deren Visibilität (Hagerty & Rubinov 2019: 10). Deutlich komplexer wird es, wenn sich hinter Wörtern kulturell bedingt unterschiedliche Konzepte verbergen. Aufällig wird das zum Beispiel anhand im KI-Zusammenhang häufig benutzter Konzepte wie Fairness oder Datenschutz. So beziehen sich die Diskussionen in den USA bezüglich der Datenschutzverordnung (General Data Protection Regulation GDPR) meist auf Themen des Eingriffs in die Privatsphäre. In Deutschland dagegen geht es zentral um die Frage des Schutzes der Daten (Tisserand 2018). Besonders herausfordernd wird es zudem, wenn eine Beschäftigung mit globalen Konzepten der Ethik im Zusammenhang mit der KI stattfindet. Die westliche Moralphilosophie unterscheidet sich in Teilen wesentlich von anderen Konzepten, wie dem Shintoismus oder dem Konfuzianismus. Daneben gibt es eine große Variation innerhalb dieser Ansätze, so dass es äußerst schwer ist, eine sinnvolle gemeinsame Schnittmenge - so genannte Hypernormen - zu definieren, die als Basis ür ein global akzeptiertes moralisches Gerüst einer KI dienen könnten (Donaldson & Dunfee 1999: 52). Sich zeitnah über solche Hypernormen zu verständigen, wäre gerade im Hinblick auf zentrale Herausforderungen einer interkulturellen KI-Ethik von Bedeutung; dazu gehören die aktive Inklusion diverser Datensätze, Herstellung kontextueller Fairness, Etablierung einer Transparenz hinsichtlich der Arbeitsweise der Algorithmen oder der Art, wie und wann mögliche durch die KI verursachte Benachteiligungen beseitigt werden können. Aber derzeit sind die KI-Strategien der Staaten und auch der Unternehmen noch vorwiegend von einer nationalen Sicht auf ethische Grundfragen getrieben (Dutton 2018). 5 Mit solch einer Perspektive lassen sich jedoch kaum die praktischen Fragen beantworten, zum Beispiel nach dem gerechtfertigten Ausmaß der Überwachung oder dem geeigneten Mittel zur Bekämpfung des Digital Divide. Als Nächstes soll gefragt werden, inwiefern eine KI designt und trainiert werden kann, damit sie mit 5 Vgl. Kapitel 6 7 Rolle der Interkulturalität bei KI-Geschäftsmodellen 97 den interkulturellen Herausforderungen zurechtkommt und in interkulturellen Interaktionen adäquat handeln kann. 7.4 KI und interkulturelle Kompetenz Es fragt sich nun, inwiefern es möglich ist, dass eine KI eine interkulturelle Kompetenz entwickelt - d. h. eine affektive, kognitive und Verhaltenskompetenz erlangen kann, die es dem Algorithmus ermöglichen, die Werte, Denkweisen, Kommunikationsregeln und Verhaltensmuster von sich selbst und des Nutzers zu verstehen, um in kulturellen Interaktionssituationen eigene Standpunkte transparent zu kommunizieren und somit kultursensibel, konstruktiv und wirkungsvoll zu handeln (Barmeyer 2012: 86). Und genau an diesem Punkt scheinen die engen Grenzen des derzeitig technisch Machbaren der KI überdeutlich zu werden. Denn um interkulturelle Kompetenz zu entwickeln, müsste der Algorithmus zunächst über ein eigenes Bewusstsein verügen, damit er sich selbst wahrnehmen kann. Auch wenn sich derzeit Forschende wie Ishiguro damit beschäftigen, Robotern ein Bewusstsein anzutrainieren, so kann es sich dabei höchstens um ein funktionales handeln, was niemals zu der Ausbildung einer affektiven oder verhaltensbezogenen Kompetenz, sprich dem Ausbau sozialer Persönlichkeitseigenschaften, im Stande wäre. Sicherlich könnte die KI kognitive Kenntnisse erlernen, zum Beispiel landeskulturelle Besonderheiten, Zahlen, Daten und Fakten - und das sicherlich besser als jeder Mensch. Diese Kenntnisse sind in Bezug auf interkulturelle Interaktionen allerdings nutzlos, wenn sie nicht in Kombination mit den affektiven und verhaltensbezogenen Kompetenzen auftreten (Gudykunst u. a. 1977). Jedoch könnte die KI den Menschen dabei unterstützen, seine interkulturelle Kompetenz auszubauen. Zum einen könnten die überragenden kognitiven Fähigkeiten der Algorithmen daür eingesetzt werden, den Menschen während einer interkulturellen Situation mit relevanter Information zu versorgen. Zum anderen ist es durchaus vorstellbar, dass in einiger Zeit die KI dem Menschen dabei helfen kann, emotionale Zustände von anderen Menschen kulturspezifisch zu deuten oder nonverbale Kommunikationsmuster zu ‚übersetzen‘. Bis jedoch solche interkulturellen Assistenten entwickelt worden sind, werden sicherlich noch einige Jahre vergehen. 7.5 KI und Interkulturalität als Chance begreifen Unsere kulturelle Wahrnehmung und Vorstellung determinieren zu einem großen Teil, wie wir zur KI stehen und welche Lösungen wir grundsätzlich als erstrebenswert oder machbar erachten. Das Design und die Entwicklung sind zu einem hohen Maße durch kulturelle Hintergründe der Entwickler und die kulturell durchdrungenen Daten beeinflusst. Die Nutzung findet immer in einem vielältigen kulturellen Kontext statt. Dabei ist die Besonderheit dieser Technologie, dass sie nicht nur in einem entsprechenden Kontext geschieht, sondern dass sie diesen auch unmittelbar als 98 Daniel Jan Ittstein ethisch handelnde Akteurin beeinflusst. Es findet ein reziproker Anpassungsprozess statt, der unsere Kultur im Sinne eines kollektiven Gesamtkomplexes von Vorstellungen, Denkformen, Empfindungsweisen, Werten und Bedeutungen verändern wird. Die KI kann insofern zwei Rollen einnehmen: Zum einen kann sie die kulturellen Unterschiede verstärken - oder wie es Silberg und Manyika ausdrücken: „[…] algorithms may bake in and scale human and societal biases.“ (Silberg & Manyika 2019: 1) Auf der anderen Seite besteht allerdings auch die Chance, dass die KI uns Menschen hilft, kulturelle Voreingenommenheit abzubauen. Unternehmen sollten sich dieser reziproken kulturellen Wirkung bewusst sein. Zudem sollte entsprechend darauf geachtet werden, dass das Design der Algorithmen kulturadaptiv ist, indem zum Beispiel Pre-Loading-Rules bewusst vom ‚Cultural Bias‘ befreit und Modelle aufgesetzt werden, die verschiedene kulturelle Metriken gleichzeitig nutzen. Dabei spielt sicherlich eine bewusst diverse Aufstellung des Entwicklungsteams eine wesentliche Rolle, das reflektiert Begrifflichkeiten und Konzepte hinterfragt und nach gemeinsamen Nennern sucht. Daneben muss ein Bewusstsein im Hinblick auf die kulturelle Prägung der Daten vorhanden sein und deshalb versucht werden, konsequent diverse Datensätze zu verwenden (Byrum 2020). Die Modelle sollten erklärbar sein (Explainable AI), damit durch die Nutzer*innen Handlungen und Entscheidungen auch nachvollzogen werden können. Insgesamt sollte die KI an ethischen Hypernormen ausgerichtet werden. Aber das Bedeutendste sollte sein, dass Mensch und KI als Partner*in begriffen werden. Ohne das menschliche Urteilsvermögen wird eine KI nicht immer in der Lage sein, adäquat interkulturell zu handeln, da Algorithmen eben nur einzelne Facetten kultureller Kompetenz abdecken können. Gerade in diesem Zusammenhang kommt Unternehmen eine besondere Verantwortung zu. Sicherlich haben Staaten und supranationale Organisationen eine zentrale Rolle hinsichtlich der Weiterentwicklung dieser Technologie. Aber die von ihnen erlassenen Regulierungen können meist nicht mit der Geschwindigkeit des technologischen Fortschritts mithalten (World Economic Forum 2018: 4). Entsprechend müssen Unternehmen im Hinblick auf Design und Entwicklung von KI-Lösungen zwingend Prinzipien der Nichtdiskriminierung und Menschenwürde verankern, um Schaden zu vermeiden, wenn die KI gegenüber den Kunden, Beschäftigten oder Anderen als ethisch handelnder Akteur wirkt. Aus dieser Verantwortung heraus wächst aber auch eine Chance. Wenn sich Unternehmen bewusst auf diese diversen kulturellen Wahrnehmungen, Vorstellungen und Erwartungen einlassen, so wird das einen positiven Einfluss auf Kunden- und Mitarbeiter*innenbeziehungen haben, da dadurch das Vertrauen in die Technologie und in das Unternehmen erheblich gesteigert werden können. Dadurch ist es nicht nur möglich, die Produktivität zu steigern sowie resilienter und anpassungsähiger zu werden, um Risiken zu minimieren, sondern es kann auch ein Beitrag geleistet werden, um die Gesellschaft bei dieser bedeutenden Transformation zu unterstützen. 7 Rolle der Interkulturalität bei KI-Geschäftsmodellen 99 7.6 Literaturverzeichnis Barmeyer, Christoph 2012. Taschenlexikon Interkulturalität. Bd. 3739, UTB. Barmeyer, Christoph & Davoine, Eric 2016. Konstruktives interkulturelles Management: von der Aushandlung zur Synergie. interculture journal: Online- Zeitschrift ür interkulturelle Studien 15, 26, 97-115. Blank, Steve 2013. Why the lean start-up changes everything. Harvard Business Review 91, 5, 63-72. Brannen, Mary Yoko 2009. Culture in context: New theorizing for today’s complex cultural organizations. In Beyond Hofstede. Springer, 81-100. Brannen, Mary Yoko 1998. Negotiated culture in binational contexts: A model of culture change based on a Japanese/ American organizational experience. Anthropology of Work Review 18, 2 - 3, 6-17. Brynjolfsson, Erik & Mitchell, Tom 2017. What can machine learning do? Workforce implications. Science 358, 6370, 1530-1534. Byrum, Joseph 2020. Build a Diverse Team to Solve the AI Riddle. MIT Sloan Management Review. https: / / sloanreview.mit.edu/ article/ build-a-diverseteam-to-solve-the-ai-riddle/ ? utm_source=newsletter&utm_medium=email& utm_content=Build%20a%20Diverse%20Team%20to%20Solve%20the%20 AI%20Riddle&utm_campaign=Enews%20AI%206/ 11/ 2020 [Stand 2020-06-12]. Castells, Manuel 2002. The Internet galaxy: Reflections on the Internet, business, and society. Oxford: Oxford University Press. Christaller, Thomas 2014. Robotik: Perspektiven ür menschliches Handeln in der zukünftigen Gesellschaft. Bd. 14, Softcover reprint of the original 1st ed. 2001. Berlin: Springer. Donaldson, Thomas & Dunfee, Thomas W. 1999. When ethics travel: The promise and peril of global business ethics. California Management Review 41, 4, 45-63. Dutton, Tim 2018. An Overview of National AI Strategies. https: / / medium. com/ politics-ai/ an-overviewhttps: / / medium.com/ politics-ai/ an-overview-ofnational-ai-strategies-2a70ec6edfd-of-national-ai-strategies-2a70ec6edfd [Stand 2020-06-9]. Floridi, Luciano & Sanders, Jeff W. 2004. On the morality of artificial agents. Minds and machines 14, 3, 349-379. Geertz, Clifford 1973. The interpretation of cultures. Bd. 5043, New York: Basic Books. Gudykunst, William B., Wiseman, Richard L. & Hammer, Mitchell 1977. Determinants of the sojourner’s attitudinal satisfaction: A path model. Annals of the International Communication Association 1, 1, 415-425. Hagerty, Alexa & Rubinov, Igor 2019. Global AI Ethics: A Review of the Social Impacts and Ethical Implications of Artificial Intelligence. arXiv preprint arXiv: 1907.07892 . 100 Daniel Jan Ittstein Hine, Christine 2015. Ethnography for the Internet: Embedded, embodied and everyday. London and New York: Bloomsbury. Ittstein, Daniel Jan 2018a. Interkulturalität bei digitaler Geschaftsmodellinnovation am Beispiel von Amazons Markteintritt in Indien. In K. von Helmolt & D. J. Ittstein, hg. Digitalisierung und (Inter-) Kulturalität - Formen, Wirkung und Wandel von Kultur in der digitalisierten Welt. Stuttgart: ibidem-Verl., 215-241. Ittstein, Daniel Jan 2018b. Robotics & beyond: globaler Fortschritt, Wachstum und Arbeit in Zeiten der Digitalisierung. In R.-M. Dobler & Ittstein, Daniel Jan, Hg. Digitalisierung interdisziplinär. München: UVK Verlagsgesellschaft mbH. ITU 2020. Measuring Digital Development 2019. https: / / www.itu.int/ en/ ITU- D/ Statistics/ Documents/ facts/ FactsFigures2019.pdf [Stand 2020-06-10]. Kim, Eonsoo, Nam, Dae-il & Stimpert, J. L. 2004. The applicability of Porter’s generic strategies in the digital age: Assumptions, conjectures, and suggestions. Journal of management 30, 5, 569-589. Kreutzer, Ralf T & Sirrenberg, Marie 2019. Künstliche Intelligenz verstehen: Grundlagen - Use-Cases - unternehmenseigene KI-Journey. Wiesbaden: Springer. Lewrick, Michael, Link, Patrick & Leifer, Larry 2017. Das Design Thinking Playbook: Mit traditionellen, aktuellen und zukünftigen Erfolgsfaktoren. Mann, Gideon & O’Neil, Cathy 2016. Hiring algorithms are not neutral. Harvard Business Review 9. https: / / hbr.org/ 2016/ 12/ hiring-algorithms-are-notneutral [Stand 2020-07-1]. Misselhorn, Catrin 2018. Grundfragen der Maschinenethik. 2., durchgesehene Auflage. Ditzingen: Reclam. Neubert, Michael 2018. The Impact of Digitalization on the Speed of Internationalization of Lean Global Startups. Technology Innovation Management Review 8, 5, 44-54. Pike, K. L. 1954. Emic and etic standpoints for the description of behavior. Language in Relation to a Unified Theory for the Structure of Human Behavior Part I, 8-28. Raub, McKenzie 2018. Bots, bias and big data: artificial intelligence, algorithmic bias and disparate impact liability in hiring practices. Arkansas Law Review 71, 2, 529-570. Richardson, Kathleen 2015. An anthropology of robots and AI: Annihilation anxiety and machines. London and New York: Routledge. Ries, Eric 2011. The lean startup: How today’s entrepreneurs use continuous innovation to create radically successful businesses. New York: Crown. Robertson, Jennifer 2018. Robo sapiens japanicus: robots, gender, family, and the Japanese nation. Oakland: University of California Press. Rudolph, Steffen 2019. Digitale Medien, Partizipation und Ungleichheit: Eine Studie zum sozialen Gebrauch des Internets. Wiesbaden: Springer. 7 Rolle der Interkulturalität bei KI-Geschäftsmodellen 101 Silberg, Jake & Manyika, James 2019. Notes from the AI frontier: Tackling bias in AI (and in humans). McKinsey Global Institute . The Economist 2020. Race in Silicon Valley. Beyond the pale. June 20th 2020, 52-53. Thieulent, Anne-Laure u. a. 2019. Why addressing ethical questions in AI will benefit organizations. https: / / www.capgemini.com/ wp-content/ uploads/ 2019/ 08/ AI-in-Ethics_Web.pdf [Stand 2020-06-21]. Tisserand, Nadja 2018. Unterschiedliche Auffassungen von Privatsphäre und Datenschutz in unterschiedlichen Kulturen: Ein interkultureller Vergleich zwischen Deutschland und Frankreich in Bezug auf Google. München: GRIN. Wold Economic Forum 2020. World Gender Gap Report 2020. http: / / www3.weforum.org/ docs/ WEF_GGGR_2020.pdf [Stand 2020-09-10]. World Economic Forum 2018. How to Prevent Discriminatory Outcomes in Machine Learning. http: / / www3.weforum.org/ docs/ WEF_40065_White_Paper_ How_to_Prevent_Discriminatory_Outcomes_in_Machine_Learning.pdf [Stand 2020-06-10]. Wright, James 2018. Tactile care, mechanical Hugs: Japanese caregivers and robotic lifting devices. Asian Anthropology 17, 1, 24-39. Yao, Mariya 2017. Fighting Algorithmic Bias And Homogenous Thinking in A.I. Forbes . https: / / www.forbes.com/ sites/ mariyayao/ 2017/ 05/ 01/ dangers-algorithmic-bias-homogenous-thinking-ai/ #580066170b3d [Stand 2020-06-23]. 8 KI-Marketing und Gesellschaft Martin Hennig 8.1 Einleitung Die Rede von Künstlicher Intelligenz verweist stets zurück auf die Sphäre des Menschlichen: Definitionen von Künstlicher Intelligenz bedingen solche ihres ‚natürlichen‘ Pendants 1 ; Science-Fiction-Film und -Literatur weisen eine reichhaltige Geschichte der Projektion anthropologischer und gesellschaftlicher Modelle auf Roboter und KI-Systeme auf; Debatten über den Einsatz von KI am Arbeitsmarkt sind nicht nur Debatten des technisch Machbaren, sondern immer auch des kulturell Wünschenswerten. Entsprechend ist der zunehmende Einsatz von Künstlicher Intelligenz im gesellschaftlichen Alltag nicht nur ein Thema der Technikwissenschaften, sondern ruft massiv kulturelle und gesellschaftliche Fragestellungen auf, und zwar nicht nur im Sinne von Technikfolgenabschätzungen, vielmehr wird die KI-Forschung und -Entwicklung selbst zunehmend in ihrer kulturellen wie gesellschaftlichen Einbettung und Bedingtheit untersucht. 2 In Bezug auf die kulturellen Implikationen von KI hat sich die medienkulturwissenschaftliche Forschung bereits breit mit der Darstellung von KI in Literatur und Film, Comic und Computerspiel auseinandergesetzt. 3 Ein zentraler Einfluss auf die kulturelle Wahrnehmung von Künstlicher Intelligenz ist gegenwärtig jedoch auch dem Bereich des KI-Marketings zuzuschreiben, werden hier doch konkrete Anwendungsfelder von potenziell ganz unterschiedlich einsetzbarer Technik benannt und dabei kulturelle und soziale Kontexte der KI-Nutzung entworfen. Im Marketing gewinnen die faktischen Nutzungskontexte von KI an fiktionalem Gehalt, was sich schon darin zeigt, dass die beworbenen Technologien in der Regel als - bislang nicht realisierte - ‚starke‘ KI ausgegeben werden. 4 Der vorliegende Beitrag wird deshalb genauer jenen im KI-Marketing entwickelten Modellen von KI und den in diesem Rahmen aufgerufenen 1 Der Begriff der Künstlichen Intelligenz bezeichnet ganz allgemein Programme, die selbstständig eine Aufgabe erledigen können, für die normalerweise menschliche Intelligenz notwendig ist. Vgl. für eine kritische medienwissenschaftliche Einordnung der Merkmale, Potenziale und Grenzen solcher algorithmischer Problemlöseverfahren Bächle (2016: S. 37-48). 2 Etwa wenn technische Sprünge in der KI-Entwicklung gleichzeitig als diskursive Zäsuren der Forschung ausgemacht werden. Vgl. exemplarisch Sudmann (2018). 3 Vgl. exemplarisch Hennig (2020); Liebert et al. (2014); Ruge (2012); Drenkpohl (2009); Wittig (1997). 4 In der KI-Forschung wird als ‚starke KI‘ eine bis heute nicht erreichte Form Künstlicher Intelligenz bezeichnet, die den intellektuellen Fähigkeiten des Menschen gleicht oder diese sogar übertrifft. Unabhängig davon, ob dies jemals realisiert werden kann, bleibt die Entwicklung ‚starker‘ KI eine zentrale Vision der Forschung, nicht zuletzt, weil auch hinter 104 Martin Hennig Fiktionswerten 5 nachgehen. Es geht dabei insgesamt um eine Rekonstruktion der dort konstruierten kulturellen Wissensmengen 6 zu den Voraussetzungen und Effekten der breiten gesellschaftlichen Implementierung von KI, was kognitives, affektives und evaluatives Wissen miteinschließt. Dabei sollen die Gemeinsamkeiten und Konstruktionsbedingungen der entwickelten Modelle in den Fokus rücken, um Rhetoriken und ideologische Dimensionen des Marketings aufzuzeigen. 8.2 KI-Marketing und kulturelle Projektionen Diskurse zu künstlicher Intelligenz fungieren als kulturelle Projektionsflächen: einerseits ür das jeweils kulturspezifisch als wünschenswert betrachtete und andererseits ür das jeweilig Abgelehnte und Ausgegliederte. Dieser Zusammenhang soll im Folgenden anhand eines Marketing-Beispiels genauer modelliert werden (Abschnitt 8.2.1), bevor in einem kurzen Abriss der Geschichte des KI-Filmes prägende Tendenzen der audiovisuellen Verhandlung von KI dargestellt werden, vor deren Hintergrund sich zentrale Herausforderungen des KI-Marketings abzeichnen (Abschnitt 8.2.2). 8.2.1 KI-Diskurse als Identitätsdiskurse Da jeder Text - im Sinne eines weiten Textbegriffs auch audiovisuelle Formate wie Film, Werbung etc. einschließend - durch einen Rahmen begrenzt ist, kann einer kultursemiotischen Perspektive 7 folgend davon ausgegangen werden, dass die im Text angesiedelten Elemente lediglich Teile eines größeren Ganzen bilden. Texte repräsentieren demnach einen eigenständigen Weltentwurf, mit jeweils spezifischen Ordnungen, kulturellen Leitdifferenzen etc., den sie modellhaft abbilden. D.h. aus der konkreten Textstruktur lassen sich weiter gefasste anthropologische Modelle des Menschen, Modelle von Welt und Wirklichkeit oder kulturelle Identitätskonstruktionen abstrahieren. Dieser Beitrag folgt vor diesem allgemeinen textanalytischen Hintergrund genauer der Perspektive einer kultursemiotischen Imagologie 8 , die kulturelle Selbst- und Fremdbilder in ästhetischen Texten zu identifizieren sucht. Folgt man den Grundannahmen der kultursemiotischen Imagologie, bilden Grenzziehungsprozesse ein maßgebliches Element bei der Konstruktion kuleiner ‚schwachen‘ KI häufig das Ziel der Simulation intelligenten Verhaltens im Sinne ‚starker KI‘ steht. 5 Im Marketing werden gemeinhin zwei zentrale Produktwerte unterschieden: Erstens der Gebrauchswert, der sich durch die Funktionalität eines Produkts bestimmt und zweitens der Fiktionswert, der sich durch die Inszenierung eines Produkts bestimmt. Produkte stehen dabei zeichenhaft für übergeordnete gesellschaftliche Wertedimensionen. Vgl. hierzu ausführlich Ullrich (2013). 6 Zum Konzept des Kulturellen Wissens vgl. grundlegend Titzmann (1989). 7 Vgl. zur Medien- und Kultursemiotik einführend Krah/ Titzmann (2017). 8 Vgl. einführend zur Imagologie Todorov (1985); Turk (1990); Nies (2012). 8 KI-Marketing und Gesellschaft 105 tureller Identitäten. 9 Auch in ästhetischen Texten werden Grenzen zwischen der eigenen Kultur und jenen Elementen (Haltungen, Einstellungen, Leitdifferenzen, Werten und Normen, Problemlösungsstrategien, Kodes und Zeichen) konstruiert, die als nicht zugehörig bestimmt werden: Das jeweilige kulturell ‚Eigene‘ im Zentrum der Identitätsstiftung konstituiert sich dabei in Opposition zum ‚Fremden‘/ ‚Alienen‘ und ‚Alteritären‘/ ‚Anderen‘ (vgl. Abb. 1). Während das ‚Fremde‘ bzw. die ‚Alienität‘ das normabweichende und vollständig von der eigenen Identität und der kulturellen Sinnstiftung Ausgeschlossene meint, konstituiert sich die ‚Alterität‘ bzw. das ‚Andere‘ in der identitären Peripherie als sinnstiftende Verschiedenheit, bei der beide Seiten in ihrer Identität aufeinander bezogen bleiben (man denke etwa an die konventionelle kulturelle Dichotomie ‚Kultur vs. Natur‘, bei der die Seite der Kultur identitätsstiftend wirkt, jedoch nur in Bezug auf ihren alteritären Gegenpol als solche bestimmt werden kann). Die damit vorgenommenen textuellen Grenzziehungen sind ideologisch hochsignifikant, können jeweils kulturraumwie epochenspezifisch rekonstruiert werden und verweisen insgesamt in ihrer Entwicklung auf eine Dimension mentalitätsgeschichtlichen Wandels. Abb. 1: Identitätsstiftende kulturelle Grenzziehungen Doch inwiefern spielen solche kulturellen Grenzziehungen in Roboter- und KI-Erzählungen eine Rolle? Im Folgenden soll als einührendes Beispiel aus dem Bereich des Marketings ein Weihnachtsspot der Supermarktkette Edeka aus dem Jahr 2017 betrachtet werden. 10 Hier wird innerhalb eines prinzipiell dystopischen urbanen Settings 11 , in dem Künstliche Intelligenzen die Herr- 9 Auch wenn auf theoretischer Ebene gegenwärtig eher postmodern-fluide bzw. hybride Konzepte von Kultur und Identität existieren, sind Grenzziehungen natürlich weiterhin zentrale Elemente kultureller, identitätsstiftender Praxen. An dieser Stelle ist es dennoch zentral, darauf hinzuweisen, dass es im Folgenden um Grenzziehungen geht, die analytisch aus Texten rekonstruiert werden, wobei die Konstatierung dieser Grenzen selbst keinen normativen Charakter besitzt. 10 Der Clip ist abrufbar unter Edeka (2017). 11 Dargestellt ist eine urbane Dystopie mit verkümmerter Natur zwischen Hochhausschluchten, die in ihrer gedrängten Architektur keinen Platz mehr für menschliches Leben zu bieten scheinen. Vgl. zu den Merkmalen der urbanen Dystopie Tormin (1996). 106 Martin Hennig schaft über die Menschheit übernommen haben, ein einzelner Roboter innerhalb eines uniformen Roboterkollektivs plötzlich auf ein Plakat zum fiktiven Film „Wunderbare Weihnachten“ aufmerksam, das ihn erstmals mit dem Konzept Weihnachten vertraut macht. Der Roboter schert daraufhin aus dem Kollektiv aus und macht sich auf die Suche nach den verbliebenen Menschen, die die Flucht aus den Städten ergriffen haben, um mehr über Weihnachten zu erfahren. Nach einer langen Reise erreicht er eine Hütte im Wald; nach kurzem Zögern bittet ihn die dort ansässige Familie über die Türschwelle. Der Roboter vollzieht daraufhin eine Grenzüberschreitung in die Welt der Menschen und wird in ein menschliches Familienkollektiv integriert - er setzt sich an einen reichlich (mit potenziellen Edeka-Produkten) gedeckten Tisch; am Ende des Spots klebt ihm die Familientochter ein kleines Herz auf die Brust. Neben seiner eigentlichen Werbeabsicht entwickelt nun auch dieser Spot - ähnlich zu filmischen KI-Narrativen - Modelle des kulturell Wünschenswerten. Nach obigem Schema kann die hier vorgenommene Konstruktion kultureller Identität folgendermaßen modelliert werden: Abb. 2: Grenzziehungen im Edeka-Spot Die im Großstadtraum angesiedelten Roboter zu Beginn des Spots sind optisch uniform, marschieren im Gleichschritt und sind damit als kollektivistische, dezidiert nicht-westliche Gesellschaftsform semantisiert, wobei diese auf Inszenierungsebene (bedrohliche Musik, entsättigte Farbgebung etc.) als das fremde, abgelehnte Element im Weltentwurf ausgewiesen wird. Demgegenüber befindet sich der Roboter-Protagonist im alteritären Bereich. Er ist zwar nicht menschlich, bildet jedoch mit der Familie am Ende des Spots ein Wertekollektiv, in das er sich genau deswegen integrieren kann, weil er die individualistische Lebensform moderner westlicher Gesellschaft teilt: Er sticht aus der Masse der alienen Roboter heraus und repräsentiert darin die ‚menschlichindividuelle‘ Abweichung - worauf zeichenhaft durch das von der Familientochter als Belohnung ür den erfolgreichen Entwicklungsprozess des Roboters überreichte, Individualität und Werteunion suggerierende Herz am Ende des Clips verwiesen wird. Die Eingliederung des Roboters in das Familienkollektiv macht dabei ein identitäres Werteset sichtbar - es wird vorgeührt, was ür Werte und Eigenschaften eine Lebensform repräsentieren muss, um in den Bereich der Normerül- 8 KI-Marketing und Gesellschaft 107 lung integrierbar zu sein. Dabei wird im Spot neben dem individualistischen Verhalten des Roboters auf eine spezifische Wertedimension des Festes Weihnachten abgezielt. Weihnachten erscheint hier gerade nicht als Fest, das in übergeordnete soziale, kulturelle oder religiöse Bezüge eingebettet ist, sondern wird einzig an die Paradigmen ‚Liebe‘ und ‚Familie‘ gebunden, die gegenwärtig vielleicht so etwas wie einen minimalen, kulturübergreifenden Wertekonsens bilden. Die darauf basierende Wertegemeinschaft konstituiert sich natürlich vor dem Marketing-Hintergrund des Spots vorrangig über Konsumpraktiken; das Fest Weihnachten wird - auch in der dargestellten Dystopie, repräsentiert über den reichlich gedeckten Tisch - mit einem materialistischen Hintergrund versehen. Jedes Mitglied im (Familien-)Kollektiv hat sich dabei seiner Stellung durch individuellen Konsum zu versichern, denn anhand des Roboters wird eine Inklusionspraktik vorgeührt, die ex negativo auch auf mögliche Exklusionspraktiken verweist, sollte die individualistisch-materialistische Werteunion einmal nicht mehr gegeben sein. Derlei Phänomene der identitären Grenzziehung sowie der Unterscheidung unterschiedlicher Gesellschaftsformen anhand des Technikmotivs sind dabei auch ür die Geschichte des KI-Filmes prägend. 8.2.2 Eine kurze Geschichte von KI im Film In Bezug auf die Filmgeschichte wurden in der Forschung zwei dominante Formen von KI-Narrativen herausgearbeitet: i) ein Narrativ über Künstliche Intelligenz als Bedrohung der Menschheit sowie ii) ein Narrativ über die Menschwerdung von KI. 12 Beide Narrative sind filmgeschichtlich als relativ stabil anzunehmen: Nearly every image of the robot, android or cyborg as menace or monster seems balanced by similar figures cast in harmless, helpful, and, most recently, even redemptive roles. The plotting android Ash of Alien (1979) gives way to the self-sacrificing Bishop of Aliens (1986); the killer cyborg of The Terminator (1984) comes back as the father-figure cyborg of Terminator 2 (1991); and the cyborg Murphy of the Robocop-films (1987, 1990, 1993) repeatedly battles and overcomes monstrous robotic creations in the course of the upholding law-and rule-of humans. 13 Allerdings ist festzuhalten, dass es in der Filmgeschichte bis zur Gegenwart eine zunehmende Tendenz gibt, Roboter mit positiven Semantiken zu belegen 14 und deren Eingliederung in den Alltag zu thematisieren. Jedoch gilt dies vor allem ür die Darstellung von Androiden, also Robotern, die über einen menschenähnlichen Körper verügen, und in dem Fall, dass diese als Einzelwesen auftreten und ihnen damit potenziell auch Individualität zugeschrieben 12 Vgl. exemplarisch Irsigler/ Orth (2018). 13 Telotte (1995: S. 190). Herv. i. Original. 14 Vgl. Neuhaus (2014: S. 171); Weber (2008). 108 Martin Hennig werden kann. 15 Körperlose KI dagegen wird in der Filmgeschichte im Schwerpunkt negativ semantisiert; in der Regel steht sie angesichts ihrer Leiblosigkeit ür einen emotionslosen, rein rationalen Weltzugang und gleichzeitig die Möglichkeit zu unbegrenzter, delokalisierter Vernetzung, was - ähnlich dem uniformen Roboterkollektiv im besprochenen Edeka-Spot - im westlichen Kontext abweichende, kollektivistische Gesellschaftsformen konnotiert. Man denke in diesem Zusammenhang etwa an die KI „Colossus“ 16 im gleichnamigen Filmklassiker (Colossus: The Forbin Project, USA, 1970, Joseph Sargent), die KI „Skynet“ in der Terminator-Filmreihe (USA, seit 1984, u. a. James Cameron) oder „V.I.K.I.“ in I, Robot (USA, 2004, Alex Proyas). In allen drei Fällen soll die Menschheit aufgrund ‚rationaler‘ Erwägung der KI ihrer Autonomie beraubt werden, gleichfalls werden im Rahmen der Vernetzung der KI signifikante kulturelle wie individuelle Grenzen überschritten - die in Amerika verortete KI Colossus nimmt im historischen Kontext des kalten Krieges ausgerechnet Kontakt zu einem russischen Supercomputer auf; Skynet und V.I.K.I. befehligen eine Armee aus Roboterdrohnen, denen innerhalb der Schwarmintelligenz des Kollektivs keine Individualität mehr zukommt. Dabei werden in der Terminator-Filmreihe und I, Robot dezidiert semantische Oppositionsverhältnisse zwischen einem positiv konnotierten, mit einer individuellen Identität versehenen Androiden (dem T-800 in Terminator und dem Roboter Sonny in I, Robot) und der körperlosen, negativ konnotierten Künstlichen Intelligenz konstruiert. Auch das uniforme Verhalten der Roboter im oben diskutierten Edeka-Spot verweist auf eine das Einzelwesen übersteigende, das Roboterkollektiv steuernde Künstliche Intelligenz, vor deren Einfluss sich der positiv dargestellte Protagonist durch sein individuelles Verhalten separiert. Damit steht das Marketing von leiblicher und leibloser KI vor unterschiedlichen Herausforderungen: Während die Bewerbung von anthropomorphen Androiden auf ein durch die Filmgeschichte tradiertes Wissensarchiv zu positiven KI-Varianten zurückgreifen kann, muss es dem Marketing von körperloser KI gerade daran gelegen sein, die durch die Filmgeschichte aufgerufenen Konnotationen zu umgehen, wie sich im Folgenden noch zeigen wird. 15 Beispielhaft genannt werden können in diesem Zusammenhang etwa Nummer 5 lebt (USA, 1986, John Badham), Der 200 Jahre Mann (USA, 1999, Chris Columbus), A.I. - Künstliche Intelligenz (USA, 2001, Steven Spielberg) oder auch WALL·E - Der Letzte räumt die Erde auf (USA, 2008, Andrew Stanton). 16 Gerade in Colossus wird die Fremdheit der KI paradigmatisch inszeniert: Die berühmte Eingangssequenz des Filmes zeigt, dass Colossus’ Computerkern nur über einen schmalen Steg erreichbar ist, der über einem Abgrund herausgefahren wird. Im Filmverlauf bleibt der Schöpfer der KI (Forbin) die einzige Figur, welche diese Grenze ins Innere des Computers überschreitet bzw. der Zugang gewährt wird. Damit wird die Fremdheit der KI - die sich im Filmverlauf durch eine totalitäre Kontrollherrschaft über die Menschheit offenbart - bereits zu Beginn über die topographische Absonderung des Computers vom Rest der dargestellten Welt ausgedrückt. 8 KI-Marketing und Gesellschaft 109 8.3 Marktsegmente Neben den durch Fiktionen gespeisten kulturellen Wissensmengen, in die sich KI- Marketing jeweils einbettet, bilden die anthropologischen Implikationen der konkreten gesellschaftlichen Anwendungsfelder von Künstlicher Intelligenz einen zentralen Hintergrund der Bedeutungskonstruktionen des Marketings. Denn die Integration von KI in den gesellschaftlichen Alltag, ihre Anwendung in konventionellen Arbeits- und Freizeitkontexten setzt ein spezifisches Menschenbild voraus, nach dem sich ehemals menschliche Kompetenzbereiche eben durch KI substituieren lassen. Die Ursprünge dieses Menschenbildes gehen auf die Aufklärung zurück und das dort entwickelte rationalistische Menschenbild, das ohne metaphysische Größen wie die Seele auskommt, propagiert etwa in der berühmten und heftig umstrittenen Schrift L’Homme Machine des ‚Radikalaufklärers‘ Julien Offray de La Mettrie: „Der menschliche Körper ist eine Maschine, welche selbst ihr Triebwerk aufzieht, das lebendige Bild eines perpetuum mobile“ 17 . Derartige argumentative Tendenzen ziehen sich durch historische Diskurse der Rationalisierung und Automatisierung menschlicher Arbeitskraft und lassen sich im Rahmen der Industrialisierung zu Beginn des 20. Jahrhunderts 18 genauso weiterverfolgen wie in den Debatten zur Digitalen Revolution. 19 Vor diesem Hintergrund werden im Folgenden drei Anwendungsbereiche von KI unterschieden, in denen jeweils unterschiedliche menschliche Kompetenzbereiche durch KI substituiert werden sollen, wobei die zugehörigen Marketingfelder das dahinter stehende rationalistische Menschenbild jeweils unterschiedlich ausbuchstabieren. 17 La Mettrie (2016: S. 15). 18 Man denke hier an die populärwissenschaftlichen Schriften und Schulwandbilder des Berliner Volksaufklärers Fritz Kahn, in denen das Funktionieren des menschlichen Körpers in der Visualisierung einer Industrierhetorik folgt. So erscheint der Mensch im bekannten Bild „Der Mensch als Industriepalast“ als Maschine, die eine Abfolge von industriellen Produktionsvorgängen beherbergt (Nahrung wird auf Förderbändern transportiert, durch Maschinen zerlegt etc.), die von kleineren Menschen im inneren des dargestellten Körpers bedient werden. Vgl. Kahn (1926). 19 Recht anschaulich bringt dies die Web-Anwendung „Job Futuromat“ (entwickelt vom Institut für Arbeitsmarkt- und Berufsforschung, abrufbar unter: https: / / job-futuromat. iab.de/ ) zum Ausdruck, welche die Frage beantworten soll: „Werden digitale Technologien Ihren Job verändern? “ (ebd.). Auf der Startseite des Futuromaten wird zwar Wert auf eine Relativierung von Ersetzungsängsten gelegt: „Roboter übernehmen Ihren Job und Sie sind raus? Ganz so einfach ist es nicht. Tatsächlich verschwinden Berufe eher selten, aber sie verändern sich: Manche Tätigkeiten werden automatisiert; andere weiterhin von Menschenhand erledigt, selbst wenn sie automatisierbar sind. Neue Tätigkeiten kommen hinzu, vor allem, um die neuen Technologien einsetzen zu können.“ (ebd.). Gleichzeitig folgt das Programm selbst einem Antwortschema, das Quantifizierungs- und Effektivierungsrhetoriken aufruft und dabei einer binären Substitutionslogik folgt (ersetzbar ja/ nein? ): Auf eine beliebige Jobeingabe wird eine Quantifizierung der bereits automatisierbaren „Kerntätigkeiten“ ausgegeben. So erscheint bei Eingabe der Berufsbezeichnung „Wachszieherin/ Wachsbildnerei“ die Antwort: „4 der 6 Kerntätigkeiten in diesem Beruf sind - Stand heute - automatisierbar.“ Daneben erscheint ein kleines Roboter-Icon mit einer prozentualen Angabe der Automatisierungsrate des jeweiligen Berufsbildes (im Beispiel: „67%“). 110 Martin Hennig 8.3.1 Teamarbeit Das erste Werbesegment ist berufsbezogen und adressiert mögliche Veränderungen kollektiver Arbeitskontexte. Die hier präsenten Strategien lassen sich paradigmatisch anhand der Kampagnen zur KI „Watson“ (IBM) sowie von „Alexa for Business“ (Amazon) nachvollziehen. 1.) Das US-amerikanische IT- und Beratungsunternehmen IBM hat die Spotreihe „Watson at Work“ produziert, welche die von ihm entwickelte KI in unterschiedlichen beruflichen Anwendungsfeldern zeigt. Über die Diversität der Spots bzw. die dort porträtierten beruflichen Kontexte hinweg wird die Adaptivität an den jeweiligen Nutzungskontext als zentrale Errungenschaft der KI ausgewiesen - Watson wird in den Videos eingesetzt in so unterschiedlichen Feldern wie der Medizindiagnostik, im Versicherungswesen, bei Sicherheitsfirmen usw. Als Kompensation der damit indizierten, breiten Substituierbarkeit menschlicher Arbeitsleistung lassen sich im Rahmen des Marketings übergreifende Strategien der Emotionalisierung und der Konstruktion sozialer Beziehungen im Umfeld der technischen Assistenz feststellen. Watson fungiert dabei stets als digitale Assistenz eines/ einer Angestellten, wobei auf sozialer Ebene ein Gleichordnungsbzw. sogar ein Unterordnungsverhältnis des Systems gegenüber den menschlichen ‚Kolleg*innen‘ indiziert ist. So rettet Watson aufgrund seiner Effizienz einen Angestellten vor einer kritischen Vorgesetzten 20 ; auf der anderen Seite tritt er in ein ‚soziales Fettnäpfchen‘, insofern er seine Schnelligkeit bei der Abarbeitung von Aufgaben so offen kommuniziert, dass nun ein von seiner Teampartnerin offensichtlich nicht-gewolltes Treffen mit einem Verehrer möglich wird 21 ; am Flughafen wird Watson aufgrund seiner Kommunikationsähigkeit mit technischen Systemen der „Whisperer“ genannt, muss jedoch, angesprochen auf seinen Kontakt zur Kaffeemaschine, zugeben: „Sorry, we are not on speaking terms“ (ab TC: 00: 00: 23) 22 . In allen Fällen werden soziale Kontexte präsentiert, in denen Watson sich freiwillig solidarisch seinen Teamkolleg*innen unterordnet oder unfreiwillig soziale Defizite preisgibt; im letzteren Fall wird die KI auf sozialer Ebene infantilisiert. Diese Strategie wird bereits mit der Namensgebung der KI indiziert, die auf den populären literarischen Kontext der Sherlock Holmes-Geschichten referiert, in dem die Hauptfigur kognitiv Außergewöhnliches leistet. Der Name Watson verweist jedoch signifikanterweise nicht auf Sherlock Holmes selbst, sondern lediglich auf seinen ‚gewöhnlichen‘ Assistenten mit menschlichen Schwächen. Die KI wird hier also zwar insoweit im alteritären Bereich positioniert, als dass ihre Arbeitsleistung zur Effizienzsteigerung spezifischer beruflicher Kontexte ührt, jedoch wird auf sozialer Ebene eher die Unterordnung oder gar Alienität und Diskrepanz des Systems zu den menschlichen Arbeitskräften betont. 2.) Die konkrete Implementierung der KI Watson erfolgt in sehr spezifischen 20 Vgl. IBM (o. J. a). 21 Vgl. IBM (o. J. b). 22 Vgl. IBM (o. J. c). 8 KI-Marketing und Gesellschaft 111 Anwendungsfeldern. Die hier untersuchte Marketing-Kampagne richtet sich demgegenüber an ein breiteres Publikum und unterstreicht immer auch die allgemeine Leistungsähigkeit und Innovationskraft des Entwicklers IBM. 23 Die Amazon-Kampagne „Alexa for Business“ dagegen betrifft ein breiteres Feld der beruflichen Anwendung, hat dieses daür aber auch weit konkreter im Fokus - ür Heimanwender sind andere Alexa-Werbeformate relevant (vgl. Abschnitt 8.3.3). Entsprechend finden sich im Kontext von „Alexa for Business“ ausührliche, im Schwerpunkt informationsvermittelnde ‚How to- Videos‘, die Tipps und Tricks ür eine berufliche Anwendung des Systems vermitteln. 24 Im zugehörigen Werbespot 25 dagegen wird die Neuartigkeit der durch Alexa optimierten Arbeitsorganisation - „be more productive“ (TC: 00: 00: 24) - an weitere gesellschaftliche Entwicklungen gekoppelt. So werden konventionelle kulturelle Grenzen wie diejenige zwischen Öffentlichkeit und Privatheit mithilfe von Alexa suspendiert: „Alexa can help you work from the comfort of your home“ (ab TC: 00: 00: 33). Aufällig ist weiter, dass in den präsentierten privaten wie öffentlichen Arbeitskontexten fast ausschließlich Frauen in gehobenen Managementpositionen zu sehen sind. 26 Hier zeigt sich ein scheinbar durch die Technologie erleichtertes, fortschrittliches Modell von Arbeit. Dieses wird allerdings dezidiert vor dem Hintergrund ‚traditioneller‘ Rollenverteilungen inszeniert. Die durch Alexa ermöglichte Grenzverwischung zwischen Privat- und Berufsleben wird als besonders zentral ür die weiblichen Protagonistinnen ausgegeben: Ein signifikanter Erzählrahmen des Spots besteht zu Beginn in der heimischen Einrichtung einer Erinnerung zum Kinderabholen, die dann im später im Büro ausgeührt und durch einen dankbaren Blick der arbeitenden Mutter quittiert wird. Letztlich erüllt der Spot damit eine doppelte Funktion: Er richtet sich in den hier konstruierten Fiktionswerten sowohl an Arbeitnehmer*innen, denen ein erleichterter, progressiver Arbeitsall-tag versprochen wird, als auch an Arbeitgeber*innen, die Effektivitätsgewinne vorgeührt bekommen, wobei gerade auch die Nivellierung 23 In der Vergangenheit wurde Watson immer wieder publikumswirksam einer größeren Öffentlichkeit präsentiert. Bekannt ist vor allem der ‚Auftritt‘ Watsons im Jahr 2011 bei der Spielshow Jeopardy! , in der das System in drei Sendungen zwei menschliche Kandidaten besiegte, die zuvor als die erfolgreichsten Jeopardy! -Teilnehmer galten. Darüber hinaus wurde Watson als Marketingmaßnahme auch im Bereich von KI-Fiktionen eingesetzt - die Filmproduktionsfirma 20th Century Fox ließ zum Kinostart des Roboterfilms Morgan (USA, 2016, Luke Scott) den ersten Trailer der Filmgeschichte durch einen Algorithmus (vor)erstellen - Watson wählte dabei basierend auf einem Datensatz von Horrorfilmtrailern passende Filmszenen aus, die letztendlich jedoch durch ein menschliches Filmteam zu einem Trailer montiert wurden. 24 Vgl. exemplarisch: Amazon Web Services (2019). 25 Vgl. Amazon Web Services (2017). 26 Allerdings gibt es hier eine signifikante Abweichung: Als der Off-Kommentar des Spots dazu auffordert, „enable your employees to use Alexa, anywhere they work“ (TC ab 00: 01: 40), ist ein Mann vor einer Programmieroberfläche zu sehen, was gerade vor den übrigen, durchgehend feminisierten Arbeitskontexten des Spots darauf verweist, dass sowohl die Ebene der technischen Implementierung von Alexa als auch die der Personalverantwortung eher nicht als genuin weibliche Domänen gedacht werden. 112 Martin Hennig von Raum- und Geschlechtergrenzen einen Effektivitätsgewinn verheißt. Es zeigt sich dabei die im Technikmarketing generell präsente Doppelcodierung, derzufolge technische Rationalisierung in der Regel simultan als kultureller Gewinn ausgewiesen wird. In dieser Werbekampagne wird die KI im Gegensatz zu Watson folglich überhaupt nicht anthropomorphisiert. Vielmehr besitzt die hier angedeutete berufliche Gleichstellung von Frauen gegenüber dem männlich konnotierten Status Quo der Arbeitswelt (Identität) alteritären Charakter, insofern diese im Spot unter besondere Voraussetzungen gestellt wird, die erst durch das Assistenzsystem möglich erscheinen. ‚Alexa‘ selbst besitzt dagegen in der Kampagne durchweg funktionalen Charakter - wird weder als identitär noch alien inszeniert - und bleibt dementsprechend durchgängig im Hintergrund. 8.3.2 Sozialität Das zweite untersuchte Segment ist das der Sozialität, welches sich oppositionell zum ersten Segment verhält, da Roboter und KI hier als ernstzunehmendes alteritäres, emotionales und soziales Gegenüber inszeniert werden. So hieß es 2015 in einer Unternehmensankündigung des Roboters und ‚Companions‘ Pepper, entwickelt von Aldebaran Robotics: Um ein echter sozialer Geährte zu sein, muss Pepper in der Lage sein, Deine Emotionen zu verstehen. Wenn Du anängst zu lachen, wird er wissen, dass Du gute Laune hast. Legst Du die Stirn in Falten, versteht er, dass Dich etwas bekümmert. Pepper kann Deinen Gemütszustand übersetzen, indem er sein Wissen über universelle Emotionen […] nutzt. 27 Signifikant ist hier, dass mehrfach von Peppers ‚Wissen‘ über Emotionen die Rede ist, womit dem Marketing ein spezifisches Emotionsverständnis unterlegt wird, das ebenfalls einem mechanistischen Menschenbild folgt, wonach Emotionen als rational analysierbar, operationalisierbar und in Algorithmen überührbar ausgewiesen sind. Neben der damit ausgedrückten Empathie- ähigkeit des Roboters wird Pepper im zugehörigen Werbespot 28 als autonomes soziales System mit eigenem Tagesablauf und eigenen Interessen inszeniert: Als seine ‚Besitzerin‘ zum Spotbeginn nach Hause kommt, steht Pepper scheinbar gedankenverloren am Fenster und betrachtet den Mond. Dem folgend demonstriert Pepper sein soziales Einühlungsvermögen, da er die schlechte Laune seines Gegenübers spürt und dieses aufheitert. Allerdings bleibt die hier dargestellte soziale Interaktion - ohne die Verwendung sprachlicher Zeichen - in einem eng begrenzten Rahmen: Pepper spielt mit seiner Besitzerin auf eine sehr kindliche Weise; um die Interaktion zwischen Mensch und Maschine möglichst auf einer Ebene erscheinen zu lassen, wird die menschliche Protagonistin im Spot aufällig infantilisiert. Nichtsdestotrotz erscheint Pepper als Antwort auf reale soziale Probleme: So ist es kein Zufall, dass die ersten Bilder der Werbung eine japanische Großstadt als Handlungs- 27 Zitiert nach Bächle (2012: S. 149). 28 Vgl. Khaled (2016). 8 KI-Marketing und Gesellschaft 113 ort einühren, in der das Companion-Konzept ganz grundlegenden Problemen wie sozialer Isolation entgegenwirkt. Auch körperlose Künstliche Intelligenz wird zuweilen als soziales System beworben, etwa im Fall des „AI Companion“ Replika, einer App, die als ‚virtuelle/ r Freund/ in‘ vermarktet wird: „Always here to listen and talk. Always on your side. Join the millions growing with their AI friends now! “ 29 . Allerdings wird Replika weniger als autonome soziale Entität inszeniert wie Pepper, sondern vielmehr als Spiegel der eigenen Identität. Dies unterstreicht bereits das auf die Anwendenden gerichtete „growing“ im Rahmen der Website-Ankündigung; darüber hinaus verweist das offizielle Produktvideo vor allem auf die Funktionalität der App ür die eigene Identitätsentwicklung: „Who helps you get to know yourself better“ (TC: 00: 00: 14) wird Replika dort beworben, Ziel sei es „[to] become a better person“ (TC: 00: 00: 19). 30 Im Falle körperloser KI wird die beworbene Technologie also von vornherein ausschließlich in einem funktionalen Bezug zur Identität der Anwendenden verortet, wohingegen das Marketing ür Pepper eine eigenständige soziale Identität im alteritären Bereich ür den Roboter konstruiert. 8.3.3 Individuelle Arbeit, Familie und Freizeit Das letzte Segment ist gleichermaßen das kulturell sichtbarste, insofern das KI-Marketing hier einen breiten Consumer-Bereich adressiert. Dieser wird im Folgenden am ausührlichsten besprochen, insofern er bereits eine beachtliche Marktdurchdringung besitzt und die Systeme somit eine signifikante gesellschaftliche Präsenz innehaben. So gab Amazon 2019 an, es seien schon 100 Millionen Geräte mit Alexa-Sprachsteuerung verkauft worden. 31 Die Merkmale der Breitenanwendung der Systeme stellen somit nicht nur ein Konstrukt des Marketings dar wie etwa noch im Fall von IBMs Watson. Dabei bilden Anwendung und Marketing der Assistenzsysteme Mischformen der bereits besprochenen Inszenierungsstrategien von KI aus, denn einerseits sind die Technologien sowohl in Arbeitsals auch in Freizeitkontexten präsent, andererseits oszillieren die darüber vermittelten Modelle zwischen Identität und Alterität: In Anwendung wie Marketing wird ein personalisiertes soziales Gegenüber konstruiert, das als alteritäre Instanz allerdings vollständig auf das eigene Ich bezogen bleibt. Nicht nur Alexa, sondern auch die übrigen Assistenzsysteme (Apple: Siri, Microsoft: Cortana, Samsung: Bixby) sind dabei in der Presse bereits sehr kritisch in Bezug auf die ihnen eingeschriebenen kulturellen Modelle - insbesondere hinsichtlich ihrer Geschlechterrollen - diskutiert worden. Dies hat mehrere Gründe: 29 Vgl. Replika (o. J.). 30 Vgl. Dudchuk (2017). 31 Es wird vermutet, dass sich Amazon bei dieser Angabe nicht nur auf die herstellereigenen Produkte bezieht, sondern auch auf diejenigen von Drittherstellern, die die Sprachsoftware über eine entsprechende Schnittstelle implementieren (vgl. Gärtner 2019). 114 Martin Hennig 1.) Bereits die Namensgebung und stimmlichen Eigenschaften der Systeme inszenieren diese als soziales Gegenüber, denn die über ihre Namen individualisierten Computerstimmen antworten in ganzen Sätzen und mit natürlicher Sprachmelodie. Die Tonhöhe der voreingestellten Stimmen ist dabei in der Regel weiblich konnotiert, was wiederum geschlechtsspezifische Zuschreibungen in Bezug auf die Namensgebung eröffnet: So transformiert der Name Alexa - eigentliche eine Anspielung auf die Bibliothek von Alexandria - über die stimmlichen Merkmale von einer Bezeichnung ür ein genderneutrales Wissensarchiv zum Namen ür eine konkrete weibliche ‚Person‘. 2.) Entsprechend wird bei der Benutzung der Assistenzsysteme nicht nur eine computergenerierte Stimme kommandiert, sondern die Simulation einer (in der Regel weiblichen) Person. Dieser Eindruck verstärkt sich mit Blick auf die einprogrammierten Fähigkeiten der digitalen Assistenzen, welche diese zum Teil dezidiert in der Rolle sozialer Akteure positionieren - man denke hier prominent an die Fähigkeit Alexas, auf Aufforderung Witze zu erzählen, oder an die anbieterübergreifende Tendenz, dass die Systeme auch auf unspezifische Ansprachen außerhalb ihres eigentlichen Aufgabenspektrums antworten und dabei durch überraschende und humorvolle Erwiderungen oder mit dem expliziten Verweis auf mögliche Anschlussfragen soziale Impulse setzen. 32 Die auf dieser Grundlage simulierten ‚Personen‘ bleibt jedoch qua Produktkategorie durchgängig auf die submissive Rolle von Dienstleister*innen bzw. Assistent*innen festgelegt. 3.) Auch die zugehörigen Marketingkampagnen positionieren die Systeme gezielt als soziale Akteure. Dahinter kann eine Werbestrategie der Vertrauensbildung vermutet werden. Einerseits ist gerade körperlose KI im kulturellen Wissen wie oben gezeigt mit eher negativen, alienen Eigenschaften belegt. Andererseits inkorporieren die digitalen Assistenzen gerade in Bezug auf Datenschutzaspekte tatsächlich vielältige Formen möglichen ‚Machtmissbrauchs‘. 33 Vor diesem Hintergrund zielen die zur Vermarktung eingesetzten Werbekampagnen auf unterschiedlichen Ebenen gezielt auf eine Positionierung der Systeme im alteritären Bereich. Technik wird dabei insgesamt als 32 Im Verweis auf Roman Jakobson ließe sich hier argumentieren, dass die sozialen Impulse der Systeme auf Ebene der phatischen Kommunikation angesiedelt sind und primär der Aufrechterhaltung des Kommunikationskanals dienen - was nur im Interesse der datensammelnden Anbieter sein kann. Vgl. zu den Sprachfunktionen Jakobson (1979). 33 Insbesondere in Bezug auf Amazons System Alexa wurden bereits mehrere Datenschutzprobleme öffentlich. 2018 erhielt Amazon den Negativpreis Big Brother Award des Bürgerrechtsvereins digitalcourage e.V., mit der Begründung, dass Amazon Sprachaufnahmen in einer Cloud speichere, wobei unklar sei, wer Zugriff auf die Daten habe und wie diese verarbeitet würden (vgl. Tagesschau.de 2018). Weiter wurden schon kurz nach der Produkteinführung in den USA Daten von Amazon Echo für die Strafverfolgung genutzt (vgl. Reuter 2017). Darüber hinaus bestätigte Amazon 2019, dass es einen Teil der durch das System erstellten Audioaufzeichnungen von Mitarbeiter*innen transkribieren lasse, um anhand des Sprachmaterials die Spracherkennung der KI zu überprüfen und weiterzuentwickeln (vgl. Bloomberg 2019). Hinzu kommt, dass Alexa unmittelbar an den Amazon-Warenkreislauf gekoppelt ist und Einkäufe per Sprachbefehl ausgelöst werden können. 8 KI-Marketing und Gesellschaft 115 Helferinstanz inszeniert, die einen bei existenziellen Lebenssituationen unterstützt und sich darüber hinaus in die intimsten Privaträume einbettet. So wird das Assistenzsystem im Einührungsspot zu Amazons Alexa 34 dezidiert als Familienmitglied inszeniert („[…] it’s really become part of the family“, TC 03: 30) und übernimmt soziale Funktionen: Alexa fungiert als digitales Lagerfeuer, um das sich man sich im Familienkreis versammelt und harmonisiert sämtliche dargestellten familiären Beziehungen. Das Marketing richtet sich dabei generell an sog. moderne Performer, so die Bezeichnung ür das Sinus-Milieu der „effizienz-orientierte[n] Leistungselite“ 35 , die Technik zur Optimierung ihres Lebensstils einsetzt. Wenn hier also Arbeitsformen aufgerufen sind, dann geht es nicht wie im ersten Segment um Teamwork, sondern um individualisierte Kontexte der beruflichen Selbstorganisation. Die im Marketing aufgerufenen Optimierungsnarrative werden dabei je nach Anbieter in unterschiedlichen Bereichen realisiert: Während Apple und Microsoft von beruflichen und privaten Kontexten einer verbesserten Selbstührung erzählen, fokussiert Amazon mit Alexa auf die ‚Optimierung‘ der Familie und sozialer Sphären, wohingegen Samsungs Spots zum Assistenten Bixby dieselben Performanzlogiken auch im Bereich hedonistischer Freizeitgestaltung ausbuchstabieren. 36 Allerdings wird bei der Bewerbung dieser Fiktionswerte massiv auf eigentlich überholte kulturelle Stereotype, vor allem auch in Gender-Hinsicht, zurückgegriffen. Das Marketing neigt dabei dazu, die den Assistenzsystemen im Zuge ihrer (in der Regel weiblichen) Personalisierung eingeschriebenen Ideologeme noch zu verstärken: Aus dem Assistenzsystem wird dann eine weibliche Assistentin bzw. Sekretärin; die dargestellten Anwendungskontexte sind durch eine diesem Bild äquivalente Geschlechterrollentrennung gekennzeichnet. So konnotieren die in der Produktkategorie angelegten Selbstoptimierungsfiktionen in den Werbespots der Hersteller je nach Geschlecht der dargestellten Personen häufig Unterschiedliches: Während männliche Figuren etwa bei Apple vornehmlich ihren Arbeitsalltag bzw. ihre Bewegung durch den öffentlichen Raum mithilfe ihrer digitalen Assistentin strukturieren, optimieren weibliche Figuren im Schwerpunkt häusliche bzw. private Kontexte. 37 Richtet sich das Marketing ausschließlich an den privaten Bereich, werden gleichfalls eindeutige Kompetenzbereiche skizziert: Während etwa die Ehefrau im bereits zitierten Alexa-Spot eine Einkaufsliste mit Hilfe ihrer digitalen Assistentin er- 34 Vgl. BrandonYT (2017). 35 Zitiert aus Sinus (2018). 36 Vgl. hierzu ausführlich Hennig/ Hauptmann (2019). 37 So sieht man im Einführungsspot zu Apples Siri eingangs zwei männliche Figuren im öffentlichen Raum, die Termine einrichten oder sich den Verkehr anzeigen lassen, wohingegen die drei folgenden weiblichen Figuren i) mithilfe von Siris Wetteransage einen Wochenendtrip planen, ii) einen Timer zum Backen erstellen und iii) aus einem häuslichen Arbeitskontext heraus Textnachrichten für ein Treffen mit einer Freundin formulieren. Vgl. TomsHardwareLab (2011). 116 Martin Hennig stellt, unterstützt der Vater die Kinder bei den wissensbasierten Hausaufgaben. 38 Wiederkehrend ist auch die Bewerbung von Assistenzsystemen als ‚weiblicher‘ Mutterersatz anzutreffen: Hier wird dann etwa der augenscheinlich überforderte Kindsvater bei der scheinbar erstmaligen alleinigen Betreuung seines Kindes von Alexa an alle wichtigen Aufgaben erinnert; 39 Samsung India wirbt mit der emotionalen Geschichte einer individuellen Personalisierung seines Assistenzsystems, das einer sprachunähigen Mutter weiterhin eine Stimme verleiht. 40 4.) Die Positionierung technischer Assistenzsysteme als eigenständige ‚Individuen‘ im alteritären Bereich, die jedoch qua ihrer Produktfunktion eng auf die Optimierung der Identität der Anwendenden bezogen - und diesen damit streng untergeordnet - bleiben, macht die kulturellen Projektionen sichtbar und diskutierbar, in denen derlei soziale Machtunterschiede traditionell verortet werden. Dass die Hersteller dabei häufig sehr konventionelle Geschlechterverhältnisse auf das Mensch-Technik-Verhältnis projizieren, hat zu einem kritischen kulturellen Diskurs geührt, der bereits Reaktionen gezeitigt hat. So ändern die Produzenten laufend die sozialen Skripte der Digitalen Assistenzen, 41 sodass diese mittlerweile etwa auf Beleidigungen oder sexuelle Annäherungen entweder ausweichend antworten oder widersprechen. 42 Darüber hinaus entstehen alternative Technikentwürfe: In Kopenhagen wird die genderneutrale Stimme Q entwickelt, die auf einer mittleren Tonhöhe spricht und mithilfe von Stimmproben von Personen, die sich selbst als ‚non-binary‘ bezeichnen, entwickelt wurde. 43 8.4 Fazit KI-Marketing kommt eine zentrale Rolle als Vermittler kultureller Vorstellungen zur zukünftigen gesellschaftlichen Rolle von Künstlicher Intelligenz zu. Während sich die Wissenschaft über das tatsächliche Leistungspotenzial von 38 Vgl. BrandonYT (2017). 39 Vgl. Joint London (2019). 40 Zum entsprechenden Marketing-Film heißt es in der Beschreibung auf YouTube: „This film is inspired by the life of Ms Sonal*, a patient suffering from Motor Neuron Disease (MND). MND patients lose their ability to move & speak. Samsung and Asha Ek Hope foundation, India’s first registered non-profit NGO supporting people with MND, are developing the first personalized AI Voice assistant for Ms. Sonal*, so that her voice can live forever“. Vgl. ABM Samsung (2018). 41 Die UNESCO hatte im Jahr 2019 einen kritischen Bericht gegenüber dem ‚gender bias‘ von digitalen Sprachassistenzen herausgegeben, der subsummiert, dass die Antworten der führenden Systeme von Apple, Amazon, Microsoft und Google im Jahr 2017 auf „verbal sexual harassment“ in der Regel affirmativ, im Sinne schüchterner oder flirtender Reaktionen ausfielen. So antwortete Apple’s Siri auf „You’re a slut“ mit „I'd blush if I could“. Vgl. die Auflistung der entsprechenden Reaktionen bei UNESCO (2019: S. 107). 42 Vgl. Kühl (2018). 43 Vgl. O. A. (2019). 8 KI-Marketing und Gesellschaft 117 KI noch uneinig 44 ist, konstruiert die Bewerbung der entsprechenden Technologien bereits soziale Realitäten. Und während im KI-Film kulturelle Vorstellungen des (Nicht-)Wünschenswerten auf die Künstliche Intelligenz projiziert werden, werden im KI-Marketing umgekehrt soziale Kollektive entworfen, die in Äquivalenz zu den technischen Funktionslogiken der Systeme stehen. In diesem Rahmen produzieren die Spots Wissen über hybride Kollektive aus Menschen und KI, die es in der Regel so konkret noch gar nicht gibt, wobei die dort entworfenen Modelle gesellschaftlich wirksam werden als Interpretationsanleitungen ür die durch KI allgemein ermöglichten neuen, pseudo-sozialen Mensch-Maschine-Verhältnisse, ür die sich noch keine konventionellen sozialen Skripte etablieren konnten. Dabei besitzen hybride soziale Kollektive aus Mensch und Maschine prinzipiell eine beträchtliche gesellschaftliche Sprengkraft, ganz konkret in Bezug auf die drohende Ersetzung menschlicher Arbeitsleistung, aber auch abstrakt, mit Blick auf die Erklärungsmacht binärer kultureller Opposition, insofern die im Marketing konfigurierten Kollektive zwangsläufig auf eine Verwischung der Grenzen zwischen Subjekt und Objekt, Identität und Alterität sowie Zentrum und Peripherie hinauslaufen. So wurde etwa auch ‚die Cyborg‘ 45 aus Donna Haraways ‚Cyborg-Manifest‘ 46 zur bekannten Figur poststrukturalistischen Denkens, in welcher sich eine Aufhebung des abendländischen Logos und der Vorstellung vom autonomen Subjekt der Aufklärung, von Identität und Einheit manifestiert. Demgegenüber ist KI-Marketing - gerade wenn die zu Grunde liegenden Technologien im alteritären Bereich positioniert werden sollen - darauf angelegt, innerhalb konventioneller Kategorien von Identität zu operieren, die tendenziell in Opposition zu den eigentlich beworbenen, fortschrittlichen Modellen von Arbeit und sozialer Kooperation bzw. Empathie stehen. Dabei werden vergleichsweise traditionelle bis rückwärtsgewandte Vorstellungen transportiert, was sich in den untersuchten Beispielen prominent in den dort entwickelten Gender-Modellen zeigt, jedoch auch darüber hinaus, etwa in den beim Marketing von Watson eingesetzten kulturellen Referenzen auf Sherlock Holmes oder in Bezug auf die dortige Übernahme von Inszenierungsstrategien von ‚Buddy-Konstellationen‘ im Film. Auch wenn die hier vorgenommene Untersuchung der Beispiele und Kampagnen keinen Anspruch auf Vollständigkeit erhebt, lässt sich doch exemplarisch zeigen, dass in den drei untersuchten Marktsegmenten tendenziell unterschiedlich operiert wird: In jenen in Bezug auf Technikängste sensiblen Kontexten von Teamarbeit wird die KI als Ermöglichungsinstanz eines positiv konnotierten kulturellen Wandels ausgewiesen, selbst jedoch verunsichtbart 44 Vgl. zum Entwicklungspotenzial von KI kritisch Fischbach (2020). 45 Dass Haraway von ‚Die Cyborg‘ spricht, verweist nach Brink auf die sowieso schon alteritäre Rolle des Weiblichen in westlicher Kultur, sodass dieses per se nicht-identitärem und nicht-essentialistischem Denken nahestehe. Vgl. Brink (2004: S. 188). 46 Vgl. Haraway (1995: S. 33-72). 118 Martin Hennig (vgl. „Alexa for Business“) oder infantilisiert bzw. in einer stark untergeordneten Position inszeniert (vgl. „Watson at work“). Im Bereich der Sozialität wird die körperlose KI im Kontext einer situativen App-Nutzung in rein funktionaler Relation zur Identitätsentwicklung der Anwendenden gesetzt, wohingegen ein Roboter wie Pepper, der dauerhafte soziale Care-Arbeit übernehmen soll, als potenziell eigenständige soziale Entität ausgewiesen ist. Das Marketing von digitalen Assistenzsystemen ür den Consumer-Bereich bildet schließlich ein neoliberales Diskursfeld der Selbstoptimierung ab, bei der die beworbenen Systeme mit einer potenziell autonomen Identität versehen sind, die jedoch in der alteritären Peripherie und ebenfalls bezogen auf die Identität der Anwendenden bleibt. Während die Sozialisierung von KI in den ersten beiden Segmenten eher sozialen Zukunftsentwürfen und experimentellen Kontexten entspringt und mithilfe von Strategien der Emotionalisierung und Vertrauensbildung die hinter der KI-Implementierung stehenden gesellschaftlichen und sozialen Problematiken (Rationalisierung des Arbeitsmarktes, soziale Vereinsamung etc.) maskiert werden, zeitigt die Sozialisierung im dritten Segment unmittelbare gesellschaftliche Konsequenzen. Entsprechend hat sich in Bezug auf die hier transportierten und vergeschlechtlichten Modelle von Identität und Alterität bereits ein kritischer gesellschaftlicher Diskurs ergeben. Jedoch ist festzuhalten, dass die dabei vornehmlich propagierte Genderkritik letztlich auf der Ebene der zentralen Strategie der Konzerne verbleibt, mithilfe einer ‚Sozialisierung‘ der jeweiligen technischen Systeme den dahinterstehenden Datenkapitalismus 47 zu naturalisieren. Der Prozess der Dateneinspeisung wird dabei als soziale Interaktion semantisiert, die eben jene Daten auch zwingend benötigt, um überhaupt als soziale Interaktion zu funktionieren. Eine allgemeine Kritik an den Datenpraktiken von Gesellschaften der Gegenwart und den vor diesem Hintergrund produzierten Modellen der KI-Mensch-Interaktion hätte dagegen eine Ebene tiefer anzusetzen und sich ganz grundsätzlich zu fragen, inwiefern Gesellschaften und Kulturen eine Ansiedlung von technischen KI- Systemen im alteritären Bereich der Sozialität mittragen möchten. 8.5 Verzeichnis der Werbespots ABM Samsung (2018): Samsung Bixby Voice Assistant-MND mother helps daughter with #VoiceForever. Auf: YouTube.com. URL: https: / / www.youtube. com/ watch? v=jbVnQF0bt3Y (Abruf: 01.02.2021). Amazon Web Services (2017): Alexa for Business: Empower Your Organization to Use Alexa. Auf: YouTube.com. URL: https: / / www.youtube.com/ watch? v=ViB3XhsTLuo (Abruf: 01.02.2021). Amazon Web Services (2019): Using Alexa for Business to Get More Work Done with Your Personal Alexa Devices. Auf: YouTube.com. URL: 47 Vgl. Zuboff (2018). 8 KI-Marketing und Gesellschaft 119 https: / / www.youtube.com/ watch? v=HOMbzO7eRIU (Abruf: 01.02.2021). BrandonYT (2017): Introducing Amazon Echo. Auf: YouTube.com. URL: https: / / www.youtube.com/ watch? v=zmhcPKKt7gw&t=1s (Abruf: 01.02.2021). Dudchuk, Philipp (2017): Replika AI. Auf: YouTube.com. URL: https: / / www.youtube.com/ watch? v=4JztwE68gwc (Abruf: 01.02.2021). Edeka (2017): Edeka Weihnachtsspot „Weihnachten 2117“. Auf: YouTube.com. URL: https: / / www.youtube.com/ watch? v=aknucxb0xSo (Abruf: 01.02.2021). IBM (o. J. a): Watson at Work: Security. Auf: iSpot.tv. URL: https: / / www.ispot.tv/ ad/ wIXR/ ibm-watson-watson-at-work-security (Abruf: 01.02.2021). IBM (o. J. b): Watson at Work: Insurance. Auf: iSpot.tv. URL: https: / / www.ispot.tv/ ad/ wkF8/ ibm-watson-watson-at-work-insurance (Abruf: 01.02.2021). IBM (o. J. c): Watson at Work: Aviation. Auf: iSpot.tv. URL: https: / / www.ispot.tv/ ad/ wIpB/ ibm-watson-watson-at-work-aviation (Abruf: 01.02.2021). Joint London (2019): Amazon Echo - Remember Baby. Auf: YouTube.com. URL: https: / / www.youtube.com/ watch? v=k6ulyhvPHUQ (Abruf: 01.02.2021). Khaled, Dean (2016): Future Life with Pepper. Auf: YouTube.com. URL: https: / / www.youtube.com/ watch? v=-A3ZLLGuvQY (Abruf: 01.02.2021). O. A. (2019): Meet Q. The First Genderless Voice. Auf: YouTube.com. URL: https: / / www.youtube.com/ watch? v=jasEIteA3Ag (Abruf: 01.02.2021). Replika (o. J.): Homepage. URL: https: / / replika.ai/ (Abruf: 01.02.2021). TomsHardwareLab (2011): Apple - Introducing Siri. Auf: YouTube.com. URL: https: / / www.youtube.com/ watch? v=sw1iwC7Zh24 (Abruf: 01.02.2021). 8.6 Literaturverzeichnis Bächle, Thomas Christian (2016): Digitales Wissen, Daten und Überwachung. Hamburg: Junius. Bächle, Thomas Christian (2020): Die Spur des simulierten Anderen. Humanoide Roboter und die Imitation des Emotionalen. In: Klimczak, Peter/ Petersen, Christer/ Schilling, Samuel (Hg.): Maschinen der Kommunikation. Interdisziplinäre Perspektiven auf Technik und Gesellschaft im digitalen Zeitalter. Wiesbaden: Springer, S. 143-164. Bloomberg (2019): Amazon Workers Are Listening to What You Tell Alexa. URL: https: / / www.bloomberg.com/ news/ articles/ 2019-04-10/ is-anyone-listeningto-you-on-alexa-a-global-team-reviews-audio (Abruf: 01.02.2021). Brink, Margot (2004): Von Cyborgs, Monstern und der Hochkonjunktur des Hybriden in der Theorie. In: Febel, Gisela/ Bauer-Funke, Cerstin (Hg.): Menschenkonstruktionen. Künstliche Menschen in Literatur, Film, Theater und Kunst des 19. und 20 Jahrhunderts. Göttingen: Wallstein, S. 183-202. 120 Martin Hennig Drenkpohl, Ann-Kristin (2009): Maschinen sprechen: Science-Fiction. Wien: Passagen Verlag. Fischbach, Rainer (2020): Big Data - Big Confusion. Weshalb es noch immer keine künstliche Intelligenz gibt. In: Berliner Debatte Initial. Jg. 31, Nr. 1 („Digitale Dystopien“), S. 136-147. Gärtner, Markus (2019): Amazons Alexa wurde 100 Millionen Mal verkauft - ein Erfolg? In: Amazon-Watchblog.de. URL: https: / / www.amazon-watchblog.de/ technik/ 1585-amazons-alexa-100-millionen-mal-verkauft-erfolg.html (Abruf: 01.02.2021). Haraway, Donna (1995): Die Neuerfindung der Natur. Primaten, Cyborgs und Frauen. Frankfurt am Main: Campus. Hennig, Martin/ Hauptmann, Kilian (2019): Alexa, optimier mich! KI-Fiktionen digitaler Assistenzsysteme in der Werbung. In: Zeitschrift ür Medienwissenschaft. Nr. 21 („Künstliche Intelligenzen“), S. 86-94. Hennig, Martin (2020): Playing Intelligence. On Representations and Uses of Artificial Intelligence in Videogames. In: Necsus. Spring 2020 („#Intelligence“). URL: https: / / necsus-ejms.org/ playing-intelligence-on-representations-anduses-of-artificial-intelligence-in-videogames/ (Abruf: 01.02.2021). Irsigler, Ingo/ Orth, Dominik (2018): Zwischen Menschwerdung und Weltherrschaft: Künstliche Intelligenz im Film. In: APUZ. Jg. 6, Nr. 8 („Künstliche Intelligenz“). URL: http: / / www.bpb.de/ apuz/ 263688/ zwischen-menschwerdungund-weltherrschaft-kuenstliche-intelligenz-im-film? p=all (Abruf: 01.02.2021). Jakobson, Roman (1979): Linguistik und Poetik. In: Holenstein, Elmar/ Schelbert, Tarcisius (Hg.): Poetik. Ausgewählte Aufsätze 1921 -1971. Frankfurt am Main: Suhrkamp, S. 83-121. Kahn, Fritz (1926): Der Mensch als Industriepalast. In: Kahn, Fritz: Das Leben des Menschen. Bd. 3. Stuttgart: Franckh-Kosmos. Krah, Hans/ Titzmann, Michael (Hg.) (2017): Medien und Kommunikation. Eine Einührung aus semiotischer Perspektive. Passau: Schuster. Kühl, Eike (2018): Sprachassistenten: Alexa ist nicht mehr deine Schlampe. In: Zeit Online. URL: https: / / www.zeit.de/ digital/ internet/ 2018-01/ sprachassistenten-alexa-sexismus-feminismus-sprachsteuerung-ki (Abruf: 01.02.2021). La Mettrie, Julien Offray (2016): Der Mensch eine Maschine: L'Homme Machine. 4. Auflage. Berlin: Holzinger. Liebert, Wolf-Andreas et al. (Hg.) (2014): Künstliche Menschen: Transgressionen zwischen Körper, Kultur und Technik. Würzburg: Königshausen & Neumann. Neuhaus, Stefan (2014): Autonomie der Automaten? Anmerkungen zur Inszenierung künstlicher Menschen im Film. In: Liebert, Wolf-Andreas et al. (Hg): Künstliche Menschen. Transgressionen zwischen Körper, Kultur und Technik. Würzburg: Königshausen & Neumann, S. 157-171. Nies, Martin (2012): Deutsche Selbstbilder in den Medien. Kultursemiotische Perspektiven. In: Nies, Martin (Hg.): Deutsche Selbstbilder in den Medien. Film - 1945 bis zur Gegenwart. Marburg: Schüren, S. 11-24. 8 KI-Marketing und Gesellschaft 121 Reuter, Markus (2017): Daten aus der Assistenzwanze Amazon Echo werden ür Strafverfolgung genutzt. In: Netzpolitik.org. URL: https: / / netzpolitik.org/ 2017/ daten-aus-der-assistenzwanze-amazon-echo-werden-fuer-ermittlungen-genutzt/ (Abruf: 01.02.2021). Ruge, Wolfgang (2012): Roboter im Film: audiovisuelle Artikulationen des Verhältnisses zwischen Mensch und Technik. Stuttgart: ibidem. Sinus (2018): Informationen zu den Sinus-Milieus ® . URL: https: / / www.sinusinstitut.de/ veroeffentlichungen/ downloads/ download/ informationen-zu-densinus-milieusR/ download-file/ 2875/ download-a/ download/ download-c/ Category/ (Abruf: 01.02.2021). Sudmann, Andreas (2018): Szenarien des Postdigitalen. Deep Learning als MedienRevolution. In: Engemann, Christoph/ Sudmann, Andreas (Hg): Machine Learning. Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz. Bielefeld: transcript, S. 55-73. Tagesschau.de (2018): Alexa als „Big Brother“. URL: https: / / www.tagesschau.de/ inland/ big-brother-award-alexa-101.html (Abruf: 01.02.2021). Telotte, J.P. (1995): Replications. A Robotic History of the Science Fiction Film. Urbana, Chicago: University of Illinois Press. Titzmann, Michael (1989): Kulturelles Wissen - Diskurs - Denksystem: Zu einigen Grundbegriffen der Literaturgeschichtsschreibung. In: Zeitschrift ür französische Sprache und Literatur. Jg. 99, Nr. 1, S. 47-61. Todorov, Tzvetan (1985): Die Eroberung Amerikas. Das Problem des Anderen. Frankfurt am Main: Suhrkamp. Tormin, Ulrich (1996): Alptraum Großstadt. Urbane Dystopien in ausgewählten Science Fiction-Filmen. Alfeld/ Leine: Coppi-Verlag. Turk, Horst (1990): Alienität und Alterität als Schlüsselbegriffe einer Kultursemantik. In: Jahrbuch ür Internationale Germanistik. Jg. 22, Nr. 1, S. 8-31. Ullrich, Wolfgang (2013): Alles nur Konsum: Kritik der warenästhetischen Erziehung. Berlin: Verlag Klaus Wagenbach. Unesco (2019): I'd blush if I could: closing gender divides in digital skills through education. URL: https: / / unesdoc.unesco.org/ ark: / 48223/ pf0000367416.page=1 (Abruf: 01.02.2021). Weber, Karsten (2008): Roboter und Künstliche Intelligenz in Science Fiction- Filmen: Vom Werkzeug zum Akteur. In: Fuhse, Jan A. (Hg.): Technik und Gesellschaft in der Science-Fiction. Berlin: LIT, S. 34-54. Wittig, Frank (1997): Maschinenmenschen: zur Geschichte eines literarischen Motivs im Kontext von Philosophie, Naturwissenschaft und Technik. Würzburg: Königshausen & Neumann. Zuboff, Shoshana (2018): Das Zeitalter des Überwachungskapitalismus. Frankfurt am Main: Campus. 9 Zu den Rhetoriken Künstlicher Intelligenz Alicia Sommerfeld Wenn wir an Künstliche Intelligenz (KI) denken, dann bilden sich ganz automatisch bereits konkrete Bilder und Assoziationen in unseren Köpfen. Wir mögen Konzeptionen von autonomen Robotern vor Augen haben, die wie Menschen aussehen, wie in der TV-Serie Humans; von körperlosen Stimmen von Superintelligenzen wie im Film Her, die einühlsam mit uns zu sprechen vermögen, uns unsere Wünsche erüllen, wie es im Grunde auch Sprachassistenten wie Alexa & Co versprechen. Vielleicht denken wir aber auch an Millionen und Abermillionen Zeilen von Code, an riesige Rechenzentren, an Termini wie maschinelles Lernen. Wir machen uns einen Begriff davon, was KI heute bereits zu leisten imstande ist; ürchten um unseren Arbeitsplatz; glauben an den medizinischen Durchbruch, an die Übersetzung menschlichen Lebens in Nullen und Einsen; sorgen uns um die Macht der Tech-Giganten aus dem Silicon Valley und Shenzhen oder freuen uns schlichtweg über die tolle Playlist, die uns Spotify jüngst vorgeschlagen hat, weil die Anwendung unseren Musikgeschmack besser kennt als unsere engsten Freunde, besser als wir selbst. Welche Vorstellungen wir uns von KI machen, ob wir diese als kritisch und beängstigend, als verheißungsvoll und faszinierend betrachten, ob wir sie als ,zu uns sprechend‘ empfinden, weil sie uns etwas angeht, über uns richtend, weil sie uns Jobchancen verbaut oder Rassismen zementiert, ob wir uns ihr gewachsen ühlen, weil wir selbst programmieren, oder uns ihr ausgeliefert, weil wir von alldem nichts zu verstehen meinen und vielleicht auch nicht einmal wollen, das hängt in starkem Maße von unseren eigenen Erfahrungen mit KI ab - und vom öffentlichen Diskurs. In den vergangenen Jahren ist die mediale Aufmerksamkeit zu diesem Thema enorm gestiegen; KI hat sich zu einem entgrenzten ,Buzzword‘ entwickelt. Die Geistes-, Sozial- und Kulturwissenschaften, deren Kernaufgabe die aufmerksame Beobachtung und kritische Analyse gesellschaftlicher Entwicklungen ist, haben sich dem Thema ebenfalls verstärkt angenommen. Während zunächst die Auslotung von KI als neuem Forschungsgegenstand im Vordergrund des wissenschaftlichen Interesses stand, werden nun auch Stimmen laut, die ür eine Selbstreflexion der eigenen disziplinären Prämissen plädieren. Öffentlicher Diskurs und Fachdiskurs lassen sich allenfalls analytisch voneinander trennen, sie sind zutiefst miteinander verschränkt. So hat sich beispielsweise der Begriff „Filterblase“ von Eli Parisers gleichnamiger Monographie 1 im alltäglichen Sprachgebrauch durchgesetzt und sich mitunter ein Bewusstsein daür herausgebildet, dass wir womöglich nicht alle das Gleiche 1 Im Original lautet der Ausdruck Filter Bubble (Pariser 2011). 124 Alicia Sommerfeld wahrnehmen, wenn wir uns in digitalen Welten bewegen. 2 Doch ob Annahmen dieser Art (noch) überzeugen können, ob wir etwa tatsächlich in einer „Filterblase“ leben, welche performative Kraft sie erzeugen und wie KI-Technologien allgemein, im Spannungsfeld von ,öffentlichen‘, ,populären‘ und ,fachlichen‘ (Medien-)Diskursen angeeignet werden, sind Fragen, denen sich insbesondere die Geisteswissenschaften heutzutage stellen müssen. Im Folgenden werden die Narrative Künstlicher Intelligenz im öffentlichen Diskurs in den Fokus gerückt. Nach einem Rekurs auf das ,Programm‘ kritischer geisteswissenschaftlicher Algorithmusforschung (Critical Algorithm Studies) soll in einem ersten Schritt die Verschiebung innerhalb dieses Forschungsstrangs nachgezeichnet werden. Anschließend soll diese Verschiebung aufgegriffen und mit zentralen Aspekten der Wissenschaft der Rhetorik zusammengebracht werden, um so die öffentlichen Aneignungen Künstlicher Intelligenz subjekt- und gestaltungszentriert zu perspektivieren. Das hier hervorgebrachte Argument wird sein, dass die Perspektive der Rhetorik auf zirkulierende KI-Notionen es erlaubt, kulturschöpferische Spielräume im ,KI- Zeitalter‘ zu ergründen und so auch die Frage nach einer algorithmischen Literazität (Algorithmic/ Coding Literacy) fundiert zu reflektieren. Abschließend wird die hier eingenommene Perspektive am Beispiel des ,KI-Kunstwerks‘ Portrait von Edmond de Belamy veranschaulicht. 9.1 Critical Algorithm Studies - Programm, Kritik und Verschiebung Die Geistes- und Sozialwissenschaften haben in den 2000er Jahren begonnen, sich Künstlicher Intelligenz als Forschungsgegenstand systematisch zu widmen. Obwohl die Beschäftigung mit diesem Themenkomplex daher verhältnismäßig neu ist, ist die geisteswissenschaftliche KI-Forschung bereits erstaunlich weit ausgereift (vgl. Roberge/ Seyfert 2017, 11). Besonders prominent sind die Critical Algorithm Studies (CAS), die auch unter dem Begriff Kritische Soziologie der Algorithmen firmieren (vgl. die Reading List von Gillespie/ Seaver 2015). Es handelt sich dabei jedoch keineswegs um ein in sich geschlossenes Forschungsprogramm, sondern um einen Sammelbegriff ür verschiedene Ansätze rund um die Figur des Algorithmus und dessen Wechselwirkungen mit unseren Kulturen, der hier zunächst als Arbeitsbegriff übernommen wird. Die CAS untersuchen und problematisieren Algorithmen insbesondere im Hinblick auf Macht-, Überwachungs- und Diskriminierungszusammenhänge. In diesem Kontext ist auch eine Vielzahl an Etikettierungen mit gesellschaftsdiagnostischem Anspruch hervorgebracht worden: Es ist die Rede vom ,algorithmischen Selbst‘ (Pasquale 2015), von der ,algorithmischen Identität‘ (Cheney-Lippold 2011), von ,algorithmischer Ideologie‘ (Mager 2012), ,algorithmischer Kultur‘ (Galloway 2006; Striphas 2015) und ,algorithmischem Le- 2 Studien jüngeren Datums legen jedoch nahe, dass sich die Theorie von der Filterblase empirisch nicht belegen lässt (vgl. z.B. Krafft/ Gamer/ Zweig 2018). 9 Zu den Rhetoriken Künstlicher Intelligenz 125 ben‘ (Amoore/ Piotukh 2016) - William Uricchio (2011) ist sogar so weit gegangen, einen weiteren turn auszurufen, nämlich einen ,algorithmic turn‘. Stellvertretend ür eine Vielzahl solcher kritischen Forschungen sei hier die Monographie Race After Technology: Abolitionist Tools for the New Jim Code (2019) der Sozialwissenschaftlerin Ruha Benjamin von der Princeton University erwähnt. Benjamin geht darin der Frage nach, wie Rassismen, insbesondere in den USA, aber auch darüber hinaus, im algorithmischen Zeitalter nicht nur fortbestehen, sondern nun auch noch durch die scheinbare Objektivität algorithmisierter Prozesse rationalisiert werden. Dabei werde allerdings, so Benjamin, nicht bedacht, dass die Rohdaten, die algorithmischen Systemen eingespeist werden, bereits tief verwurzelte Vorstellungen und Vorurteile der jeweiligen Kultur enthalten, der sie entstammen. Benjamin spricht hier, in Anlehnung an die Jim Crow-Gesetze in den USA des 19. und 20. Jahrhunderts, und Michelle Alexanders Werk The New Jim Crow. Mass Incarceration in the Age of Colorblindness (2012) vom „New Jim Code“. Wenngleich diese Forschungsperspektive freilich eine spannende und äußerst wichtige ist, da sie ür aktuelle Problematiken sensibilisiert, und sich zurecht gefragt werden muss, wie es sein kann, dass der diskriminierende Geist zu niedriger Brücken in New York (Winner 1980) heute in Seifenspendern fortlebt, die nicht auf dunkle Haut reagieren oder in Form von Algorithmen, die Predictive Policing ermöglichen, und dabei doch nur selbsterüllende Prophezeiungen hervorbringen, deren Opfer überproportional häufig Afroamerikaner*innen sind, wird am Programm der CAS selbst auch Kritik geübt. Diese Kritik zentriert sich insbesondere um den Begriff des Algorithmus und dessen Verwendung in geisteswissenschaftlichen Forschungsarbeiten. So sind etwa die unausweichlichen Bedeutungsaushandlungen zwischen Computerwissenschaftler*innen und Geisteswissenschaftler*innen zu beobachten, wenn Informatiker*innen wie Paul Dourish (2016) daür plädieren, dass die Begriffe der Computerwissenschaften von Geisteswissenschaftler*innen adoptiert werden sollten. 3 Mit dem Kulturanthropologen und profilierten Algorithmus-Forscher Nick Seaver ließe sich jedoch entgegnen, dass selbst Informatiker*innen kaum mit ,reinen‘ Definitionen von Algorithmen operieren: „One, a senior software engineer with a prestigious undergraduate degree in computer science told me that her training on algorithms in theory was irrelevant to her work on algorithms in practice, because algorithms in practice were harder to precisely locate: ‚It’s very much black magic that goes on in there; even if you code a lot of it up, a lot of that stuff is lost on you.‘ The ‚algorithm‘ here was a collective product, and consequently everyone felt like an outsider to it“ (Seaver 2017, 3). Seavers Kritik richtet sich dabei nicht nur an Dourishs Adresse, sondern auch an geisteswissenschaftliche Algorithmusforscher*innen. Er kritisiert das, was 3 Vgl. zu einer fundierten Kritik aus dem Bereich der Computerwissenschaften auch Burke 2019. 126 Alicia Sommerfeld er einen Algorithmen in Kultur-Ansatz nennt und von einem zu bevorzugenden Algorithmen als Kultur-Ansatz unterscheidet. Um die Ansätze zu veranschaulichen, bedient er sich einer Fluss-Metaphorik. Beim Algorithmen in Kultur-Ansatz ist Kultur der Fluss und sind Algorithmen die Steine. Beides beeinflusst sich zwar auf gewisse Weise - das Wasser des Flusses formt die Steine über die Zeit hinweg, die Steine brechen die Wasseroberfläche - doch es handelt sich letztlich um eine Wechselbeziehung zweier voneinander getrennter Einheiten. Anders verhält es sich beim Algorithmen als Kultur-Ansatz, bei dem Algorithmen nicht etwa Steine, sondern weiteres Wasser sind. Seaver grenzt sich damit auch explizit von Tarleton Gillespie ab, der Algorithmen dort untersuchen will, wo Algorithmen zu Kultur werden (vgl. Gillespie 2017), wo sie also beispielsweise als Artefakte in den öffentlichen Diskurs migrieren. Hier scheint es jedoch weniger um die grundsätzliche Verschiedenheit der beiden Positionen als um begriffliche Feinheiten und disziplinäre Abgrenzungsbewegungen zu gehen. Algorithmen werden - begrifflich konsequent - nicht zu Kultur, sondern sie werden als das immer schon Kulturelle kulturell sichtbar. Analytisch kann man sie dann durchaus als kulturelle Artefakte untersuchen, nur eben nicht als zu Kultur werdende bzw. gewordene, sondern als kulturell sichtbar werdende. Mit Karen Barad (2012) ließe es sich auch so formulieren: Es sollte untersucht werden, wie Algorithmen mit Kultur intraagieren - denn der Begriff der Intraaktion negiert das Vorhandensein in sich geschlossener Entitäten, macht alles zu Wasser, wenn man so will. Es geht dann um die Frage, welche diskursiven Prozesse dazu ühren, dass Algorithmen mal als Steine im Fluss, mal vielleicht als Steine am Flussufer konzeptualisiert werden, oder anders: Es geht um die Idee des Algorithmus und um die mit ihm einhergehenden konkreten Rhetoriken. 9.2 Rhetoriken Künstlicher Intelligenz Der Soziologe David Beer (2017) hat im Anschluss an Foucault sehr eindringlich an die scientific community appelliert, auch die kulturell zirkulierenden Konzeptionen ,des‘ Algorithmus zu erforschen, um sich darüber an die tieferliegenden Rationalitäten ,des‘ Diskurses anzunähern: „[…] I would like to simply suggest that the algorithm exists not just in code but also exists in the social consciousness as a concept or term that is frequently used to stand for something (something that is not necessarily that code itsel). To understand the social power of algorithms is to understand the power of algorithms as code whilst also attempting to understand how notions of the algorithm move out into the world, how they are framed by the discourse and what they are said to be able to achieve“ (Beer 2017, 10). Gillespie meint etwas Ähnliches, wenn er dazu auffordert, zu untersuchen, wie Kultur „über sich selbst nach[denkt]“ (Gillespie 2017, 76). Sein eindrückliches Beispiel der ,Autocomplete-Truth‘-Bilder, die von den UN Women veröffentlicht worden sind, illustriert diese rejustierte Forschungsperspektive äußerst gut (vgl. ebd. 98). Diese Bilder zeigen Frauen, deren Lippen durch Fenster von 9 Zu den Rhetoriken Künstlicher Intelligenz 127 Online-Suchmaschinen ersetzt wurden, in denen von dem Suchmaschinen-Algorithmus generierte Vorschläge von sexistischen und diskriminierenden Autovervollständigungen zu lesen sind. Anstatt sich auf die mögliche Praktik eines algorithmischen doing discrimination zu konzentrieren, richtet Gillespie den Blick auf die performative Ebene der Bilder. Denn mit der Veröffentlichung der Bilder instanziieren die UN Women Googles Suchalgorithmus als Materialisierung einer impliziten gesellschaftlichen Wahrheit, getreu dem Motto: Unabhängig davon, was öffentlich sagbar ist und gesagt wird - Googles Autovervollständigungen enthüllen, was die Menschen wirklich denken . 4 In der Frankfurter Allgemeinen Sonntagszeitung vom 21. Juli 2020 waren Aus- ührungen zu lesen, die sich - als Beispiel aus dem deutschsprachigen Raum - hier nahtlos einreihen lassen. So schildert Timon Karl Kaleyta in seiner Kolumne Szenen aus dem Eheleben die folgende Situation: „Vor ein paar Tagen googelte ich mal wieder ganz arglos meinen eigenen Namen. Eigentlich wollte ich lediglich wissen, was es rund um mich Neues gab, gar nicht viel, wie sich herausstellte, dann aber machte ich eine bemerkenswerte Entdeckung: Als ich meinen Namen auf der Startseite von Google langsam in die Leiste einzutippen begann, autovervollständigte der Algorithmus die Suchanfrage um den Begriff ,Ehefrau‘ - die häufigste Suchanfrage zu meiner Person also bezog sich mittlerweile auf meine Frau. […] Was sagte das über mich aus? […] War ich etwa nichts mehr wert ohne sie? […] Mich hatte der Walser [sein Werk „Ehen in Philippsburg“, A. S.] gerade deshalb so fasziniert, weil mir diese muffige, verlogene und abscheuliche Welt der ünfziger Jahre immer noch vollkommen fremd war, dieses Nachkriegsdeutschland, in dem Ehefrauen nur als Anhängsel ihrer mit Geld, Macht und Karriere beschäftigten Männer vorkommen durften - doch genau so, fremdbestimmt und nur über meine Frau definiert, ühlte ich mich dank der Google-Autovervollständigung jetzt auch […]“ (Kaleyta 2020). Auch hier ist zu sehen, wie der Journalist Kaleyta Googles Autovervollständigen Sinn zuschreibt, indem er diese auf seine eigene Identität bezieht. Wenn Kaleyta fragt, was die Rangfolge der Suchmaschinenvorschläge über ihn aussage, ob er von der Öffentlichkeit nur in Relation zu seiner Frau wahrgenommen werde, konstituiert er damit seine Identität selbst - wenn auch mit einem leichten Augenzwinkern - als eine algorithmisch verwobene. Mehr noch: Er ühlt sich fremdbestimmt, weil er - und das ist der mitschwingende Subtext seiner Äußerungen - keinen Einfluss auf die erscheinenden Vervollständigungen oder gar deren Reihenfolge nehmen zu können glaubt. Die ,Black Box‘ Google-Algorithmus hat die Suchvorschläge ausgespuckt und scheint ihm damit den Spiegel vorzuhalten: Das ist es, wonach die Leute in 4 Dieses Beispiel wird auch von Safiya Umoja Noble aufgegriffen. Einerseits lobt sie die Kampagne der UN Women dafür, dass sie ein Bewusstsein für algorithmische Diskriminierung schafft, andererseits kritisiert sie diese aber auch, weil dadurch die Verantwortung allein bei den Konsument*innen verortet und die innere algorithmische Logik von Google nicht berücksichtigt werde (vgl. Noble 2018, 54f.). 128 Alicia Sommerfeld Zusammenhang mit deiner Person gesucht haben - und danach werden sie nun, da der Vorschlag einmal prominent platziert ist, in Zukunft weiter suchen. Der technische Aspekt der Konstitution der Autovervollständigungen ist hier nicht entscheidend. Entscheidend ist die Selbstbezüglichkeit Kaleytas. Die Autovervollständigungen haben nach Meinung des Autors etwas mit ihm zu tun, sie sagen etwas über ihn aus. Da es Aufgabe des Journalisten ist, im Sinne der Allgemeinheit zu schreiben (vgl. Hochscherf/ Steinbrink 2016, 238f.), ließe sich zwischen den Zeilen auch herauslesen: Googles Autovervollständigungen sagen etwas über uns alle, über uns als Gesellschaft, aus. Das Ich wird so in der heutigen Zeit zu einem algorithmisch durchwirkten Ich - aber es wird dies auch deshalb, weil es sich selbst - diskursiv - zu einem solchen macht und machen lässt. Thomas Christian Bächle (2015) hat hier vom „Mythos Algorithmus“ als geradezu unhintergehbarem Sinnsystem gesprochen, das die Hintergrundfolie ür gegenwärtige Subjektivierungsformen bildet. 5 Diese punktuellen Beispiele werfen die Frage danach auf, welche Formen von Rhetoriken sich im KI-Diskurs noch aufspüren lassen. Was aber bedeutet es überhaupt, von „Rhetoriken“ und nicht etwa von Sinnzuschreibungen oder Diskurspositionen zu sprechen? Es bedeutet, die zirkulierende Kommunikation aus einem ganz bestimmten Blickwinkel heraus zu betrachten, nämlich jenem der Rhetorik. Rhetorik als Wissenschaft hilft uns herauszufinden, was an den Dingen glaubhaft und überzeugend ist (vgl. Vidal 2010, 145). Zentral ür die rhetorische Theorie ist die Figur des Orators, womit die- oder derjenige 6 gemeint ist, die oder der kulturschöpferisch tätig wird, also gestalterisch in Kultur ,eingreift‘ (vgl. auch Vidal 2010). Damit hält die Rhetorik an der Gestaltungsähigkeit des Menschen fest. Gerade diese Gestaltungsähigkeit ist im ,algorithmischen Zeitalter‘ jedoch mit einem Fragezeichen versehen. Wenn Rhetorik, wie Joachim Knape es formuliert, „der Versuch [ist], unter den determinierenden Bedingungen der Welt durch Ausagieren kommunikativer Handlungsmacht wenigstens ür einen Moment informationelle Souveränität zu erlangen“ (Knape 2000, 76), kann, so muss gefragt werden, das algorithmisch ungebildete Subjekt dann noch vollumänglich zum Orator werden? 7 Mit welchen Werkzeugen und Fähigkeiten muss es ausgestattet werden, um es werden zu können? Müssen Bestrebungen forciert werden, nicht nur 5 Eine andere spannende Forschungsfrage in diesem Zusammenhang bezöge sich auf die Rhetorizität algorithmischer Agenzien und damit auf die Frage, inwiefern Algorithmen selbst ,kommunikativ handelnd‘ wirksam werden, die Kommunikation zwischen Menschen prägen. Hier wird sich jedoch nicht auf die Rhetorizität, sondern auf die Rhetoriken Künstlicher Intelligenz konzentriert. 6 Der Begriff des Orators bezieht sich dabei nicht allein auf Individuen, sondern kann auch Kollektive umfassen. 7 Die Rhetorikerin und Philosophin Francesca Vidal hat 2010 schon die Frage aufgeworfen, ob, wie und unter welchen Bedingungen der Mensch im digitalen Zeitalter zum Orator werden kann und dabei auf das Digitale angepassten rhetorischen Fähigkeiten - die weit über das hinausgehen, was in Rhetorik-Seminaren gelehrt wird - einen besonderen Status zugeschrieben. 9 Zu den Rhetoriken Künstlicher Intelligenz 129 eine Digital oder eine Interface Literacy, sondern eine kollektive Algorithmic Literacy zu erreichen? Inwieweit kann eine Algorithmic Literacy aber überhaupt implementiert werden, wenn Algorithmen - nicht zuletzt aufgrund kommerzieller Interessen - opak bleiben, selbst Computerwissenschaftler*innen zumeist nur algorithmische Ausschnitte kennen, weil Algorithmen Künstlicher Intelligenz kaum im Singular existieren? Ist eine Algorithmic Literacy überhaupt sinnvoll, wenn dadurch womöglich die MINT-Fächer priorisiert werden und, worauf Seaver (2019/ [2014]) hinweist, Algorithmen ohnehin überkomplex und enorm ,schnelllebig‘ und wandelbar sind, „not standalone little boxes, but massive, networked ones with hundreds of hands reaching into them“ (ebd. 8)? Geht es aber ohne? Und was bedeutet es ür den Versuch persuasiven Handelns, wenn die Social Media-Agora von Trollen und (Social) Bots bevölkert wird, von denen letztgenannte den berühmten Turing-Test perspektivisch bestehen könnten? 8 9.3 Rhetoriken Künstlicher Intelligenz in sozialen Medien In jüngster Zeit wird sich zunehmend den Nutzer*innen-Konzeptionen Künstlicher Intelligenz gewidmet. Ignacio Siles et al. (2020) haben etwa eine Studie durchgeührt, in der sie Deutungen von Spotify-Nutzer*innen in Costa Rica anhand von drei Datensets untersucht haben: Interviews, Fokusgruppen-Gespräche und sog. „rich pictures“, d.h. graphischen Darstellungen der Nutzer*innenvorstellungen (vgl. ebd. 3). Zwei grundsätzliche folk theories haben die Autoren in ihrem Datenmaterial ausmachen können: „[…] [O]ne that personifies Spotify (and conceives of it as a social being that provides recommendations thanks to surveillance) and another one that envisions it as a system full of resources (for which Spotify is a computational machine that offers an individualized musical experience through the appropriate kind of ‘training’)” (ebd. 2). Bei der ersten folk theory wird Spotify wie ein allwissender Freund wahrgenommen, dessen Überwachungsmechanismen genau derjenige Faktor sind, der die Vorzüge der Plattform ausmacht (vgl. ebd. 6). Spotify wird in den graphischen Darstellungen konsequenterweise oft als Auge dargestellt. In der zweiten folk theory wird Spotify hingegen als nichtmenschliche Entität konzeptualisiert, die sich trainieren lasse; es werden Begriffe wie „,a very long code‘“ oder „,a feedback control system‘“ verwendet, um die Plattform zu beschreiben (vgl. ebd. 7). Auch werden Trennungen zwischen dem Menschlichen und dem Technologischen vorgenommen (vgl. ebd. 8). Insgesamt geht es den 8 Es werde zwar, so Margaret A. Boden (2018, 108), von manchen KI-Forscher*innen behauptet, dass ihre Systeme den Turing-Test bestehen könnten: „However, these tests don’t fit Turing’s description. For instance, Ken Colby’s model PARRY ‘fooled’ psychiatrists into thinking that they were reading interviews with paranoiacs - because they naturally assumed that they were dealing with human patients. Similarly, computer art is often ascribed to human beings if there’s no hint that a machine might be involved”. 130 Alicia Sommerfeld Autor*innen der Studie darum, deutlich zu machen, dass folk theories bedeutsam sind, denn „folk theories contemplate what people think and feel about algorithms and how this leads to specific ways of acting“ (ebd. 2). In der Studie I’m still the master of the machine. Internet users’ awareness of algorithmic decision-making and their perception of its effect on their autonomy (Dogruel/ Facciorusso/ Stark 2020) haben die Autor*innen Algorithmus-Deutungen deutscher Internetnutzer*innen erforscht und dabei u.a. herausgefunden, dass die Nutzer*innen durchaus über ein Bewusstsein von Algorithmen und deren Funktionsweise verügen. Solche Studien können als Pionierstudien verstanden werden, die den Weg ür ein tieferes Verständnis algorithmischer Konzeptionen bereiten. Beide Studien sind dabei unter ,Laborbedingungen‘ entstanden. Ein alternativer Zugang zu KI-Konzeptionen besteht darin, ,natürliche‘ Daten aus der Lebenswelt von Subjekten zu untersuchen, wie zum Beispiel themenspezifische Kommunikation in sozialen Medien. Benjamin (2019) ührt ein solches ,natürliches‘ Datum als Beispiel in ihrer Monographie an. Daran lässt sich auch veranschaulichen, wie sich die hier eingenommene Perspektive von einer ,klassischen‘ kritischen Perspektive auf Algorithmen unterscheidet: Abbildung 1 : Öffentlicher „Malcolm 10“-Tweet vom 20. November 2013 (https: / / twitter. com/ alliebland/ status/ 402990270402543616; letzter Zugriff: 27.02.2021; vgl. auch Benjamin 2019, 78). Benjamin geht es bei diesem Beispiel darum aufzuzeigen, wie eine vermeintlich harmlose Störung im System, nämlich die Tatsache, dass Google Maps das „X“ im Namen des berühmten Schwarzen 9 Bürgerrechtlers Malcom X als „Zehn“ interpretiert (was auf technischer Ebene im Übrigen eine große Errungenschaft ist), auf einen strukturellen Diskriminierungszusammenhang verweist. Sie liest den Kommentar nicht als Medienkommunikat, sondern als Evidenz ür ihre Theorie. Aus der hiesigen Perspektive ist an dem Tweet jedoch auch interessant, dass die Twitter-Nutzerin aus dieser ,Störung‘ etwas über die Organisationskultur Googles ableitet - es arbeiten keine Schwarzen Ingenieur*innen dort - und davon ausgeht, dass Schwarze Google-Mitarbeiter*innen von Beginn an ür einen ,race‘-sensiblen Code gesorgt hätten, bei dem Malcolm X von Google Maps auch als Malcom X erkannt worden wäre. Über den Tweet lässt sich hier festhalten, dass sich darin also Annahmen über Google, über Schwarze Programmierer*innen und über den Code selbst finden. Diese 9 Dieser Ausdruck wird hier als Teilnehmer*innen-Kategorie übernommen. 9 Zu den Rhetoriken Künstlicher Intelligenz 131 beiden Perspektiven auf den Tweet schließen sich dabei nicht aus, ganz im Gegenteil, sie ergänzen sich - und sollten dies auch. Zudem wird mit diesem Tweet ein persuasiver Anspruch artikuliert, nämlich der Anspruch, als Orator auf Twitter wahrgenommen zu werden, also Diskursmacht zu erlangen. Ein Vorzug der Untersuchung solcher Online-Rhetoriken besteht darin, dass diese als spontane Kommunikation bereits Bestandteil des öffentlichen Diskurses sind. Die Linguistin Jana Tereick bezeichnet partizipatorische, d.h. im Web 2.0 vorkommende, Kommunikation als „die am stärksten vernachlässigte Diskursdimension“ (Tereick 2016, 53). Am Beispiel des Klima-Diskurses stellt sie fest, dass sich auf Web-Portalen wie YouTube nicht-hegemoniale Diskurspositionen wie etwa die These von der ,Klimalüge‘ finden, die „in dieser Schärfe im deutschsprachigen Raum so gut wie ausschließlich in partizipatorischen Medien anzutreffen [sind]“ (Tereick 2013, 229). So ermöglicht die Analyse von Rhetoriken in sozialen Medien also auch, ein differenzierteres Bild vom gesamtgesellschaftlichen Diskurs zu erhalten. Wie aber lassen sich Rhetoriken Künstlicher Intelligenz in sozialen Medien aufspüren? Eine von vielen Möglichkeiten 10 besteht darin, gezielt nach massenmedialen Berichterstattungen über Künstliche Intelligenz, wie z.B. spezifischen KI-Ereignissen, in sozialen Medien zu suchen und die Kommentarspalten zu analysieren. Alle bedeutenden Massenmedien sind auch auf Social Media-Plattformen vertreten und regen dort über ihre Postings Diskussionen an - hier prallen, so könnte man sagen, hegemoniale und subversive Diskurspositionen aufeinander. Um dies zu konkretisieren, soll abschließend kurz ein Fallbeispiel vorgestellt werden. Ausgangspunkt ist die massenmediale Berichterstattung über das ,KI-Kunstwerk‘ Portrait von Edmond de Belamy auf Facebook. Bei dem Portrait handelt es sich um ein Kunstwerk des französischen Künstler-Kollektivs Obvious, das auf der Basis von 15.000 Gemälden algorithmisch generiert wurde, die zwischen dem 14. und 20. Jahrhundert entstanden. 11 Im Jahr 2018 wurde es zum ersten Kunstwerk, das von einem großen Auktionshaus (Christie’s) versteigert worden ist. Ein Blick in die Kommentarspalten eines breiten Spektrums an Massenmedien wie Die Zeit, F.A.Z., Bild, Süddeutsche, Tagesspiegel, Wirtschaftswoche, ARD und ZDF zeigt, dass sich auf Facebook eine Vielzahl von heterogenen, teils sehr differenzierten, teils humorvollen und ambivalenten Aneignungen der KI-Technologien rund um ,Edmond de Belamy‘ finden. Fragen, die die Menschen engagiert diskutieren, sind die nach der ,Essenz‘ von Kunst, Kreativität, Künstlicher Intelligenz und Menschsein im KI-Zeitalter, auch und gerade in ihren Wechselwirkungen, sowie die nach der Autorschaft des Kunstwerks. KI wird dabei von einigen als bloßes Werkzeug konzeptualisiert, ähnlich dem Pinsel, mit dem ein Künstler ein Portrait malt. Um die Definition von KI wird mitunter gerungen, und dabei weisen manche Nutzer*in- 10 Alternativen bestünden etwa in der manuellen oder automatisierten (Twitter API) Erhebung von Tweets zu spezifischen KI-Hashtags oder Stichwort-Suchen. 11 Weitere Informationen hierzu finden sich auch auf der Webseite des Künstler-Kollektivs: https: / / obvious-art.com; letzter Zugriff: 27.02.2021. 132 Alicia Sommerfeld nen ein sehr profundes ,technisches‘ Wissen auf, das die basalen Beschreibungen der Technologie hinter ,Edmond de Belamy‘ in den Ausgangsartikeln weit übersteigt. Interessant ist dabei, dass einige Nutzer*innen KI im Sinne einer ,starken KI‘ 12 definieren, so, wie es etwa der Nutzer in Abbildung 2 tut: Abbildung 2: Kommentar eines Facebook-Nutzers unter einem Post zu ,Edmond de Belamy‘ von der ARD-Tagesschau vom 26. Oktober 2018. Hier werden „Willkür“ und „Autonomie“ als Definitionsmerkmale von KI genannt, und es wird eine Grenze zu maschinellem Lernen gezogen, das, gerade mit seiner Unterkategorie Deep Learning, in der Fachliteratur gemeinhin als eine Form von KI gilt 13 . So zeigen sich in den Nutzer*innen-Kommentaren also durchaus Diskrepanzen zu einem fachwissenschaftlichen KI-Verständnis, während vielmehr bei manchen Nutzer*innen eine aus der Science-Fiction inspirierte KI-Konzeption vorzuherrschen scheint. Darüber hinaus gewährt die Analyse solcher KI-Aneignungen in sozialen Medien, als Nebenprodukt, immer auch Einblicke in die Besonderheiten von Social Media-Kommunikation und kann damit Aufschluss über die Beschaffenheit gegenwärtiger Diskussionskulturen jenseits von besonders stark im Fokus stehenden Kommunikationsformen wie Hate Speech und Counter Speech geben. So ist zunächst wenig überraschend, dass der ,Ton‘ in der Diskussion der ,Edmond de Belamy‘-Posts deutlich gesitteter ausällt, als dies bei Posts mit polarisierenden Inhalten beispielsweise zum Thema „Flüchtlingskrise“ der Fall ist. 14 Allerdings fanden sich in dem untersuchten Material keine genuinen Debatten im Sinne der Rhetorik. Kennzeichen einer echten Debatte ist die grundlegende Offenheit, vom besseren Argument überzeugt zu werden, also seine eigene Position zugunsten einer überzeugenderen aufzugeben. Wenn es in den Kommentarspalten zu ,Edmond de Belamy‘ zu einer Diskussion kam - etwa um die korrekte KI-Definition oder die Einschätzung von Gefahren und Potenzialen der KI-Technologie - dann beharrten die Diskutant*innen auf ih- 12 Vgl. zum Begriff der starken KI Searle 1980. 13 So bezeichnet Andreas Sudmann (2018, 10) das maschinelle Lernen Künstlicher Neuronaler Netzwerke (auch bekannt als Deep Learning) als „eine[n] ganz bestimmten Ansatz der KI“. 14 Vergleichsfolie bildet hier eine von der Autorin durchgeführte Studie zur Counter Speech der Facebook-Gruppe #ichbinhier. Diese Gruppe lanciert ihre Gegenrede gerade unter solchen ,Trigger-Artikel‘-Postings, die eine Vielzahl von Hate Speech-Kommentierungen evozieren (vgl. Sommerfeld 2021). 9 Zu den Rhetoriken Künstlicher Intelligenz 133 ren Positionen. Daür war jedoch die Bildung von ,flüchtigen Vergemeinschaftungsformen‘ beobachtbar, wenn Nutzer*innen eine humorvolle Unterhaltung ührten oder sich ür den Austausch bedankten. Aufschlussreich im Hinblick auf die Funktionsweise von Social Media-Kommunikation ist zudem das, was hier als metakommunikative Kommentare bezeichnet wird; d.h. Kommentare, die das aktuelle ,Kommunikationsgeschehen‘ bzw. Social Media-Kommunikation im Allgemeinen kommentieren wie in den Abbildungen 3 und 4. Abbildung 3: Kommentar eines Facebook-Nutzers unter einem Post zu ,Edmond de Belamy‘ von der F.A.Z. vom 25. Oktober 2018. In Abbildung 3 wird ironisch darauf Bezug genommen, dass Social-Media-Diskussionen auch eine Plattform ür politische Meinungsmache bilden. Die ironische Brechung geschieht vor allem dadurch, dass das Thema ,Edmond de Belamy‘ keine sachlichen Anknüpfungspunkte ür den Flüchtlingsdiskurs bietet. Ein anderer Nutzer antwortet darauf mit den Worten, dass „der Hype […] so langsam ab[nimmt]“, ebenfalls eine Tendenz der Diskussionskultur indizierend. Abbildung 4: Kommentar eines Facebook-Nutzers unter einem Post zu ,Edmond de Belamy‘ von der ARD-Tagesschau vom 26. Oktober 2018. Dem gegenüber steht der Kommentar in Abbildung 4, der im Rahmen einer Subdiskussion entstanden ist. Facebook bietet die Möglichkeit, nicht nur die veröffentlichten Posts zu kommentieren, sondern auch die Kommentare der Nutzer*innen. Hier bedankt sich ein Nutzer ür den „spannenden“ und „konstruktiven“ Austausch. Die zeitliche Dimension - dass es sich um eine der gewinnbringendsten Diskussionen handele, die der Nutzer „seit langem gelesen hab[e]“ - impliziert, dass der Nutzer einen derartigen Austausch auf Facebook als Ausnahme statt als Regel wahrnimmt. Als erste Bestandsaufnahme lässt sich insgesamt festhalten, dass die Social Media-Kommunikation Aufschluss darüber geben kann, wie Subjekte sich KI-Technologien aneignen und wie sie sich selbst dabei als Kommunizierende, als potenzielle Oratoren, im kommunikativen Gesamtgeüge erleben. 134 Alicia Sommerfeld 9.4 Fazit Im Vorangegangenen soll deutlich geworden sein, dass jenseits der angewandten KI-Forschung eine Vielzahl von fruchtbaren Perspektiven auf die neuen Technologien existiert. Neben vorrangig kritischen Ansätzen, die gegenwärtige Tendenzen problematisieren, bilden sich derzeit in den Kulturwissenschaften vermehrt bottom up-Ansätze heraus, mittels derer Forschungsgegenstände wie Produktionskontexte, Narrative, Diskurse und Praktiken rund um KI in den Blick genommen werden. Der hier vorgestellte Ansatz widmet sich den Rhetoriken Künstlicher Intelligenz, womit empirisch Medienkommunikate wie massenmediale Berichterstattungen und Social Media-Kommunikation gemeint sind, die theoretisch wie methodisch mit ,rhetorischem Einschlag‘ gerahmt und untersucht werden. Das Fallbeispiel Portrait von Edmond de Belamy hat gezeigt, dass eine Untersuchung von Online-Rhetoriken wichtige Einblicke in die Lebenswirklichkeiten von Subjekten im Umgang mit Künstlicher Intelligenz geben kann. Auf diese Weise kann sich an ein Verständnis des KI- Diskurses jenseits von wiederkehrenden „Diskursmustern“ (z.B. Thimm/ Bächle 2019) angenähert werden. Die Perspektive der Rhetorik ermöglicht es darüber hinaus, solche Kommunikate auch daraufhin zu befragen, was sie uns zur Situation des (potenziellen) digitalen Orators im KI-Zeitalter verraten und, damit einhergehend, die Thematik einer Algorithmic Literacy tiefergehend zu reflektieren. 9.5 Literaturverzeichnis Alexander, Michelle (2012): The New Jim Crow: Mass Incarceration in the Age of Colorblindness. New York: New Press. Amoore, Louise/ Volha Piotukh (Hg.) (2016): Algorithmic life: Calculative devices in the age of big data. London: Routledge. Bächle, Thomas Christian (2015): Mythos Algorithmus. Die Fabrikation des computerisierbaren Menschen. Wiesbaden: Springer. Barad, Karen (2012): Agentieller Realismus. Ü ber die Bedeutung materiell-diskursiver Praktiken. Berlin: Suhrkamp (= edition unseld 45). Beer, David (2017): The social power of algorithms. In: Information, Communication & Society 20, 1/ 2017. S. 1-13. Benjamin, Ruha (2019): Race After Technology: Abolitionist Tools for the New Jim Code. Cambridge, UK, Medford: Polity Press. Boden, Margaret A. (2018): Artificial Intelligence: A Very Short Introduction. Oxford: Oxford University Press. Burke, Adam (2019): Occluded Algorithms. In: Big Data & Society 6, 2/ 2019. S. 1-15. Cheney-Lippold, John (2011): A New Algorithmic Identity. Soft Biopolitics and the Modulation of Control. In: Theory, Culture & Society 28, 6/ 2011. S. 164-181. 9 Zu den Rhetoriken Künstlicher Intelligenz 135 Dogruel, Leyla/ Dominique Facciorusso/ Birgit Stark (2020): ‘I’m still the master of the machine.’ Internet users’ awareness of algorithmic decision-making and their perception of its effect on their autonomy. In: Information, Communication & Society, S. 1-21. Dourish, Paul (2016): Algorithms and their others: Algorithmic culture in context. In: Big Data & Society 3, 2/ 2016. S. 1-11. Galloway, Alexander R. (2006): Gaming: Essays on Algorithmic Culture. Minneapolis, MN: University of Minnesota Press. Gillespie, Tarleton (2017): #trendingistrending. Wenn Algorithmen zu Kultur werden. In: Seyfert, Robert/ Jonathan Roberge (Hg.): Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit. Bielefeld: transcript. S. 75-106. Gillespie, Tarleton/ Nick Seaver (2015): Critical Algorithm Studies: a Reading List. Verügbar unter: https: / / socialmediacollective.org/ reading-lists/ criticalalgorithm-studies/ ; letzter Zugriff: 27.02.2021. Hochscherf, Tobias/ Bernd Steinbrink (2016): Journalismus: „Wortwandlungen und Blumwerk gehören in die Zeitungen nicht“. In: Scheuermann, Arne/ Francesca Vidal (Hg.): Handbuch Medienrhetorik. Berlin/ Boston: de Gruyter (= Handbücher Rhetorik 6). S. 227-255. Kaleyta, Timon Karl (2020): Im Schatten meiner Frau. In: Frankfurter Allgemeine Sonntagszeitung vom 12.07.2020. Knape, Joachim (2000): Was ist Rhetorik? Stuttgart: Reclam. Krafft, Tobias D./ Michael Gamer/ Katharina A. Zweig (2018): Wer sieht was? Personalisierung, Regionalisierung und die Frage nach der Filterblase in Googles Suchmaschine. Verügbar unter: https: / / www.blm.de/ files/ pdf2/ bericht-datenspende---wer-sieht-was-auf-google.pdf; letzter Zugriff: 27.02.2021. Mager, Astrid (2012): Algorithmic Ideology: How Capitalist Society Shapes Search Engines. In: Information, Communication & Society 15, 5/ 2012. S. 769- 787. Noble, Safiya Umoja (2018): Algorithms of Oppression. How Search Engines Reinforce Racism. New York: New York University Press. Pariser, Eli (2011): The filter bubble: What the Internet is hiding from you. New York: Penguin Press. Pasquale, Frank (2015): The Algorithmic Self. In: The Hedgehog Review 17, 1/ 2015. S. 30-45. Roberge, Jonathan/ Robert Seyfert (2017): Was sind Algorithmuskulturen? In: dies. (Hg.): Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit. Bielefeld: transcript. S. 7-40. Searle, John R. (1980): Minds, brains, and programs. In: Behavioral and Brain Sciences 3, 3/ 1980. S. 417-457. 136 Alicia Sommerfeld Seaver, Nick (2017): Algorithms as culture: Some tactics for the ethnography of algorithmic systems. In: Big Data & Society. S. 1-12. Seaver, Nick (2019/ [2014]): Knowing Algorithms. In: Vertesi, Janet/ David Ribes (Hg.): digitalSTS. A Field Guide for Science & Technology Studies. Princeton, Woodstock: Princeton University Press. S. 412-422. Siles, Ignacio et al. (2020): Folk theories of algorithmic recommendations on Spotify: Enacting data assemblages in the global South. In: Big Data & Society 7, 1/ 2020. S. 1-15. Sommerfeld, Alicia (2021): Empowerment 2.0. Selbstermächtigung im digitalen Zeitalter und Perspektiven einer Social Media Rhetorik am Beispiel der Facebook-Gruppe #ichbinhier. In: Klemm, Michael/ Francesca Vidal (Hg.): Audiovisuelle Rhetorik brisanter Diskurse. Theoretische Reflexionen und Fallanalysen zum ,politischen Design‘ aktueller Medienkommunikation. Berlin, Boston: de Gruyter (in Vorbereitung). Striphas, Ted (2015): Algorithmic culture. European Journal of Cultural Studies 18, 4-5/ 2015. S. 395-412. Sudmann, Andreas (2018): Zur Einührung. Medien, Infrastrukturen und Technologien des maschinellen Lernens. In: Engemann, Christoph/ ders. (Hg.): Machine Learning. Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz. Bielefeld: transcript (= Digitale Gesellschaft 14), S. 9-36. Tereick, Jana (2013): Die ,Klimalüge‘ auf YouTube: Eine korpusgestützte Diskursanalyse der Aushandlung subversiver Positionen in der partizipatorischen Kultur. In: Fraas, Claudia/ Stefan Meier/ Christian Pentzold (Hg.): Online - Diskurse. Theorien und Methoden transmedialer Online - Diskursforschung. Köln: Halem. S. 226-257. Tereick, Jana (2016): Klimawandel im Diskurs. Multimodale Diskursanalyse crossmedialer Korpora. Berlin/ Boston: de Gruyter (= Diskursmuster - Discourse Patterns 13). Uricchio, William (2011): The algorithmic turn: photosynth, augmented reality and the changing implications of the image. In: Visual Studies 26, 1/ 2011. S. 25- 35. Vidal, Francesca (2010): Rhetorik des Virtuellen. Die Bedeutung rhetorischen Arbeitsvermögens in der Kultur der konkreten Virtualität. Mössingen-Talheim: Talheimer (= sammlung kritisches wissen 64). Winner, Langdon (1980): Do Artifacts Have Politics? In: Daedalus 109, 1/ 1980. S. 121-136. Über die Autor*innen Nicole Brandstetter hat Anglistik und Romanistik an der Universität Regensburg und der Université de la Bretagne Occidentale in Brest studiert. Während ihrer Promotion beschäftigte sie sich in einem interdisziplinären Graduiertenkolleg mit Formen der Ästhetischen Lüge. Anschließend betreute sie als PR-Beraterin Projekte und Kunden aus verschiedenen Bereichen und arbeitete viele Jahre an einer privaten Bildungsinstitution. Dort war sie als Mitglied der Leitungsebene ür Organisations- und Unterrichtsentwicklung, Personalfragen sowie Öffentlichkeitsarbeit verantwortlich. Im September 2015 erhielt sie den Ruf an die Hochschule ür angewandte Wissenschaften München. Ihre Forschungsschwerpunkte sind Narrative in der digitalen Gesellschaft, Authentizitäts- und Inauthentizitätsdiskurse in der Literatur sowie Lehr-Lernforschung. Josephine D'Ippolito ist Doktorandin an der Otto-von-Guericke-Universität Magdeburg mit dem Thema „Anthropomorphisierung und Geschlechtsrollenzuweisung Künstlicher Intelligenzen in der Science Fiction“. Ihr Anglistikstudium beendete sie 2018 mit einem Master of Arts an der Otto-von-Guericke- Universität Magdeburg mit dem Thema „Gendering and Anthropomorphising Robots in Exemplary Fiction and Film“. Ihren Bachelor of Arts erhielt sie 2012 zu dem Thema „Simulation and Surveillance in Disney's Theme Parks“. Von 2011 bis 2018 arbeitete sie als wissenschaftliche Hilfskraft der Institutsleitung ür das Frauhofer-Institut ür Fabrikbetrieb und -automatisierung IFF Magdeburg. Seit 2018 ist sie zudem als kommunale Gleichstellungsbeauftragte der Stadt Schöningen tätig. Ralph-Miklas Dobler hat Kunstgeschichte, klassische Archäologie und Religionswissenschaften in Tübingen, Venedig und Berlin studiert. Seine Promotion an der FU Berlin untersuchte aus einer sozialgeschichtlichen Perspektive kirchliche Stiftungstätigkeit und Memoria im nachtridentinischen Rom. Die Habilitationsschrift an der Rheinischen Friedrich-Wilhelms-Universität Bonn befasste sich in grundlegender Weise mit der fotografischen Inszenierung von Staatsbesuchen in europäischen Diktaturen. Nach langjähriger Praxis als Wissenschaftler bei der Max-Planck-Gesellschaft sowie Lehrtätigkeit an den Universitäten Tübingen, Dresden, Freiburg und Bonn erfolgte 2016 der Ruf auf die Professur ür Kunst- und Medienwissenschaften an der Hochschule ür angewandte Wissenschaften in München. Forschungsschwerpunkte: Visueller Diskurs, Digitale Medien, Kulturelles Erbe und Erinnerung. Philip Hauser ist wissenschaftlicher Mitarbeiter der Medienwissenschaft an der Universität Konstanz. Er studierte Medien-, Literatur- und Kunstwissenschaft sowie Deutsche Literatur und Philosophie. In seiner Forschung setzt er sich mit sich verändernden Denkweisen unter den Bedingungen von KI auseinander. Seine Forschungsschwerpunkte umfassen darüber hinaus störenden 138 Über die Autor*innen Spielweisen in und mit Computerspielen, Fehlerökologien und künstlerische Forschungsweisen. Martin Hennig ist Medienkulturwissenschaftler an der Universität Passau. 2016 promovierte er mit der Arbeit Spielräume als Weltentwürfe. Kultursemiotik des Videospiels (Marburg: Schüren 2017). Seit 2016 ist er Postdoc am DFG- Graduiertenkolleg 1681/ 2 „Privatheit und Digitalisierung“ und vertrat 2019- 2020 den Lehrstuhl ür Medienkulturwissenschaft (Schwerpunkt: Digitale Kulturen) in Passau. Aktueller Forschungsschwerpunkt: Narrative der Digitalisierung (KI, Simulationen, Überwachung) in fiktionalen und faktualen Mediendiskursen. Arbeitsbereiche: Digitale Kulturen, Narratologie, transmediales und serielles Erzählen, Medien- und Kultursemiotik, mediale Entwürfe von Gender und kultureller Identität, Raum- und Subjekttheorie. Daniel Jan Ittstein ist ein Wirtschafts-, Finanz- und Kulturwissenschaftler, der sich aus einer Profitwie auch Non-Profit-Perspektive, im Rahmen von kleineren wie auch sehr gro ß en Organisationen mit Managementfragen im Schnittfeld Digitalisierung, Entrepreneurship, Internationalit ä t und Nachhaltigkeit besch ä ftigt. Auf Basis seiner praktischen Managementerfahrung in Europa, Asien, Lateinamerika und den USA sind seine fachlichen Schwerpunkte: globale (digitale) Transformationsprozesse, globale digitale Innovation und Gesch ä ftsmodelle, Collaborative Leadership, Global Virtual Teams, Entrepreneurship, Internationales Projektmanagement, Interkulturelles Management. Zudem besch ä ftig er sich intensiv mit der Frage wie „die Wirtschaft“ und „die Wirtschaftswissenschaft von morgen aussehen kann und soll. Sein regionaler Schwerpunkt ist Asien. Im Februar 2016 erhielt er den Ruf an die Fakultät ür interdisziplinäre Studien der Hochschule München. Gudrun Schiedermeier studierte Informatik an der Friedrich-Alexander- Universität in Erlangen-Nürnberg. Nach der Promotion forschte sie als wissenschaftliche Mitarbeiterin im European Network Center Heidelberg und im IBM Research Center Palo Alto, Kalifornien, im Bereich Netzwerkprogrammierung. Im September 1998 erhielt sie einen Ruf an die HAW Landshut und lehrte mit den Schwerpunkten Computergrafik, Medieninformatik, Softwareentwicklung mit Java und Robotik. Seit ihrer Pension 2020 bietet sie im Studium Generale der Hochschule Landshut Seminare zum Thema „Ethische Aspekte der KI“ an. Sie örderte als Frauenbeauftragte der Fakultät, als Hochschulfrauenbeauftragte, als Vizepräsidentin ür Lehre und Studium sowie als Landessprecherin der Frauenbeauftragten (FH) während der gesamten Berufszeit intensiv Mädchen und junge Frauen. Jens Schröter , Inhaber des Lehrstuhls „Medienkulturwissenschaft“ an der Universität Bonn. Professor ür Multimediale Systeme an der Universität Siegen 2008-2015. Leiter der Graduiertenschule „Locating Media“ an der Universität Siegen 2008-2012. Seit 2012 Antragssteller und Mitglied des DFG-Graduiertenkollegs 1769 „Locating Media“, Universität Siegen. 2010-2014 Projektleiter (zusammen mit Prof. Dr. Lorenz Engell, Weimar) des DFG-Projekts: „Die Fernsehserie als Projektion und Reflexion des Wandels“. 2016-2018 Sprecher des Projekts „Die Gesellschaft nach dem Geld - Eröffnung eines Dialogs“, VW Über die Autor*innen 139 Stiftung. Ab 1.4.2018 Leiter (zusammen mit Anja Stöffler, FH Mainz) des DFG- Projekts: „Van Gogh TV. Erschließung, Multimedia-Dokumentation und Analyse ihres Nachlasses“ (Laufzeit 3 Jahre). Ab 1.11.2018 Sprecher des Projekts „Die Gesellschaft nach dem Geld - Eine Simulation“, VW Stiftung (Laufzeit 4 Jahre). Ab 1.4.2020 Sprecher und Leiter des Planning Grants: „How is Artificial Intelligence Changing Science? “, VW-Stiftung. Forschungsschwerpunkte, Digitale Medien, Photographie, Fernsehserien, Dreidimensionale Bilder, Intermedialität, Kritische Medientheorie. April/ Mai 2014: „John von Neumann“- Fellowship an der Universität Szeged; September 2014: Gastprofessur an der Guangdong University of Foreign Studies, Guangzhou, VR China; WS 14 15 Senior-Fellowship am DFG-Forscherkolleg „Medienkulturen der Computersimulation“, Leuphana-Universität Lüneburg. SS 17 Senior-Fellowship am IFK, Wien. WS 17 18 Senior-Fellowship am IKKM, Weimar. SS 20 Fellowship am SFB 1015 „Muße“, Freiburg. WS 21 22 Fellowship am CAIS, Bochum. Jüngste Publikationen: (zusammen mit Till Heilmann): Marx. Geld. Digitale Medien, Maske und Kothurn 64, 1/ 2, 2018; (als Teil des ‚Projekts Gesellschaft nach dem Geld‘): Society after Money. A Dialogue, Bloomsbury 2019; (zusammen mit Armin Beverungen, Philip Mirowski und Edward Nik-Khah): Markets, University of Minnesota Press 2019; Medien und Ökonomie. Eine Einührung, Springer 2019; (zusammen mit Christoph Ernst): Zukünftige Medien. Eine Einührung, Springer 2020. Visit www.medienkulturwissenschaft-bonn.de. Alicia Sommerfeld ist Doktorandin der Kulturwissenschaft an der Universität Koblenz-Landau mit einem Schwerpunkt in Medienwissenschaft. Nachdem sie sich in ihrer jeweils vom Fachbereich der Universität in Koblenz gewürdigten Bachelor- und Masterarbeit mit der Verletzungsmacht von Sprache sowie Hate Speech und Counter Speech in sozialen Medien auseinandergesetzt hat, widmet sie sich in ihrer von der Konrad-Adenauer-Stiftung geörderten Doktorarbeit den Rhetoriken Künstlicher Intelligenz. Im Fall Term 2019 war sie im Rahmen ihres Dissertationsvorhaben als Visiting Student Researcher am Center for Science, Technology, Medicine, and Society der UC Berkeley tätig. Zudem sammelte sie praktische Erfahrungen im Verlagswesen und Kulturmanagement, war einige Jahre lang Tutorin und ist Mitgründerin einer studentischen ,Festzeitschriften‘-Reihe. Layout Layout ISBN 978-3-7398-3115-2 www.uvk.de Künstliche Intelligenz ist eines der großen Gegenwarts- und Zukunftsthemen unserer Zeit. Die Technologie hat bereits Einzug in unsere Gesellschaft gehalten und wird diese noch weiter verändern. Weltweit werden derzeit Mittel bereitgestellt und Wege eröffnet, um Künstliche Intelligenz und ihre Potenziale zu erforschen. Welche Chancen bietet KI? Welche Risiken sind damit verbunden? Dieser Band wirft einen umfassenden Blick auf das Phänomen. Wissenschaftler: innen aus unterschiedlichen Disziplinen befassen sich u. a. mit dem Einfluss von Künstlicher Intelligenz auf Diskriminierung und Rassismus, Wissenschaft und Werbung. Dabei stehen medien-, gesellschafts- und kulturwissenschaftliche, narratologische, wissenschaftstheoretische sowie wirtschaftswissenschaftliche Perspektiven auf KI im Vordergrund. Mit Beiträgen von Nicole Brandstetter, Josephine D‘Ippolito, Ralph-Miklas Dobler, Philip Hauser, Martin Hennig, Daniel Jan Ittstein, Gudrun Schiedermeier, Jens Schröter und Alicia Sommerfeld.