Künstliche Intelligenz
Interdisziplinär
0928
2020
978-3-7398-8045-7
978-3-7398-3045-2
UVK Verlag
Nicole Brandstetter
Ralph-Miklas Dobler
Daniel Jan Ittstein
Computersysteme können aus Daten und Informationen immer besser lernen und eigenständig Entscheidungen treffen. Entsprechende Programme kommen zunehmend in allen Bereichen menschlichen Handelns zum Einsatz. Diese Technologie wird das Leben einschneidend verändern. Wie, das ist allerdings noch weitgehend unklar.
In dem Band wird das Zukunftsthema Künstliche Intelligenz umfassend aus verschiedenen Perspektiven untersucht. Neben grundlegenden Überlegungen zur Definition und Geschichte werden vor allem die Chancen und vermeintlichen Gefahren betrachtet. Dabei werden verschiedene Anwendungsfelder und Zukunftsszenarien untersucht.
<?page no="0"?> Nicole Brandstetter | Ralph-Miklas Dobler | Daniel Jan Ittstein Interdisziplinär Künstliche Intelligenz <?page no="1"?> Nicole Brandstetter, Ralph-Miklas Dobler, Daniel Jan Ittstein Künstliche Intelligenz Interdisziplinär <?page no="3"?> Nicole Brandstetter, Ralph-Miklas Dobler, Daniel Jan Ittstein Künstliche Intelligenz Interdisziplinär UVK Verlag · München <?page no="4"?> Umschlagabbildung: © iStock.com/ Wenjie Dong Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.ddb.de abrufbar. © UVK Verlag 2020 - ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Internet: www.narr.de eMail: info@narr.de Druck und Bindung: CPI books GmbH, Leck ISBN 978-3-7398-3045-2 (Print) ISBN 978-3-7398-8045-7 (ePDF) <?page no="5"?> Vorwort Das 21. Jahrhundert hat mit einem Innovationsschub auf dem Gebiet der Digitalisierung begonnen. Mit der Vernetzung von immer leistungsähigeren Rechnern, Cloud-Diensten sowie smarten Applikationen hat auch die Zukunftstechnologie der sogenannten Künstlichen Intelligenz einen scheinbar nicht endenden Siegeszug angetreten und sich in vielen Bereichen der Gesellschaft festgesetzt. Selbstlernende Systeme analysieren und steuern schon heute zahlreiche Prozesse und Anwendungen, wodurch diese effizienter und sicherer werden. Damit einher gehen Veränderungen im sozialen Geüge und im Menschenbild der digitalisierten Kulturen weltweit. Ein entscheidender Unterschied zu bisherigen technologischen Entwicklungen, die tiefgreifende Veränderung in Wirtschaft, Politik, Gesellschaft und Kultur mit sich gebracht haben, ist die Geschwindigkeit, mit der die teils disruptive Transformation erfolgt. Dies ührt zu Euphorie und Begeisterung sowie zu Unsicherheit und Angst darüber, wie die Zukunft durch Künstliche Intelligenz entworfen wird und welche Möglichkeiten zur Mitwirkung bestehen. Das Eingreifen in immer mehr Bereiche der Produktion, des Handels, des Finanzwesens, aber auch der Kommunikation, der Freizeitgestaltung und des menschlichen Alltags an sich erfordert eine umfassende Perspektive auf das soziotechnologische Phänomen der Künstlichen Intelligenz. Für eine nachhaltige Betrachtung bietet sich daher ein interdisziplinärer Ansatz an, der die Komplexität und die Vielschichtigkeit der Technologie differenziert erfassen kann. Das vorliegende Buch möchte hierzu einen Beitrag leisten, indem aus wirtschaftswissenschaftlicher, kulturwissenschaftlicher, literaturwissenschaftlicher sowie bild- und medienwissenschaftlicher Sicht Definitionen des Begriffes zwischen Imagination und Wirklichkeit, reale Anwendungsbeispiele sowie Herausforderungen und Zukunftsszenarien erörtert werden. Hiermit soll programmatisch eine polyfokale und facettenreiche Diskussion unterstützt werden, ohne die eine dauerhafte und sinnvolle Anwendung von Künstlicher Intelligenz kaum gelingen dürfte. Die vernetzte digitale Welt kann nur in einem ebenso vernetzten Diskurs zwischen diversen Horizonten gestaltet werden. Wenn hierbei Unterschiede und Widersprüche zutage treten, dann sind sie essentieller Bestandteil des Erkenntnisgewinns. Für das Entstehen des Buches war es von Vorteil, dass die Thesen und Ideen im Rahmen von verschiedenen Lehrveranstaltungen des Studium Generale der Hochschule München mit Studierenden aus nicht weniger als 14 unterschiedlichen Fakultäten diskutiert werden konnten. Darüber hinaus sind wir zahlreichen Kolleg*innen aus der Wissenschaft sowie Partner*innen aus der Praxis ür Hinweise und Diskussionsbeiträge zu Dank verpflichtet. München, im August 2020 Nicole Brandstetter Ralph-Miklas Dobler Daniel Jan Ittstein <?page no="7"?> Inhaltsverzeichnis Vorwort ......................................................................................................................... 5 Imagination und Definition .................................................................................... 11 Nicole Brandstetter 1 Künstliche Wesen - Roboter in der Literatur.......................................................... 13 1.1 Erschaffungsmythen und künstliche Wesen als literarischer Topos .............. 13 1.2 Isaac Asimov, The Bicentennial Man (1976) .................................................. 16 1.3 Jochen Beyse, Fremd wie das Licht in den Träumen der Menschen (2017) ... 18 1.4 Ian McEwan, Machines Like Me (2019) .......................................................... 19 1.5 Literatur......................................................................................................... 26 Ralph-Miklas Dobler 2 Mensch und Maschine ........................................................................................... 27 2.1 Intelligenz...................................................................................................... 27 2.2 Kommunikation ............................................................................................. 30 2.3 Vernetzung .................................................................................................... 32 2.4 Tatsächliche Probleme der Mensch-Maschine-Relation ................................. 35 2.5 Literatur......................................................................................................... 36 Daniel Jan Ittstein 3 Künstliche Intelligenz - eine Standortbestimmung ................................................ 38 3.1 Geschichte der künstlichen Intelligenz .......................................................... 39 3.2 Gründe für den aktuellen Durchbruch der künstlichen Intelligenz................. 40 3.3 Derzeitige technische Möglichkeiten der künstlichen Intelligenz................... 43 3.4 Künstliche Intelligenz jetzt gestalten ............................................................. 44 3.5 Literatur......................................................................................................... 45 Realisierungen ......................................................................................................... 47 Nicole Brandstetter 4 KI-Anwendungen und ihre Narrative ...................................................................... 49 4.1 Mythos autonomes Fahren ............................................................................ 49 4.2 Überwachung und Selbstoptimierung am Beispiel des Romans Die Hochhausspringerin (2018) ................................................................................... 54 4.3 Literatur......................................................................................................... 58 <?page no="8"?> 8 Inhaltsverzeichnis Ralph-Miklas Dobler 5 Krieg ...................................................................................................................... 60 5.1 Waffen ........................................................................................................... 60 5.2 Ethische Fragen............................................................................................. 62 5.3 Verantwortung und Autonomie...................................................................... 64 5.4 Bis heute ....................................................................................................... 65 5.5 Literatur......................................................................................................... 68 Daniel Jan Ittstein 6 Künstliche Intelligenz als integraler Bestandteil ökonomischen Handelns............. 70 6.1 Starkes Wachstum abseits ökonomischer Indikatoren .................................. 70 6.2 Globales Wettrennen um die KI-Vorherrschaft .............................................. 72 6.3 Hohe Wertschöpfungspotenziale durch Einsatz der KI................................... 76 6.4 Adaption in Unternehmen durch COVID-19 beschleunigt .............................. 78 6.5 Druck auf Arbeits- und Vermögensverteilung steigt...................................... 80 6.6 Transformation aktiv gestalten...................................................................... 81 6.7 Literatur......................................................................................................... 82 Herausforderungen und Zukunftsszenarien ....................................................... 85 Nicole Brandstetter 7 Zukunftsperspektiven für Gesellschaft und Politik................................................. 87 7.1 Schöne neue Welten? .................................................................................... 87 7.2 Partizipation oder Entpolitisierung? ............................................................... 93 7.3 Literatur......................................................................................................... 97 Ralph-Miklas Dobler 8 Grenzen ................................................................................................................. 98 8.1 KI und Ästhetik .............................................................................................. 98 8.2 Repräsentation der Wirklichkeit .................................................................... 99 8.3 Kreativität.................................................................................................... 101 8.4 Unterschiede ............................................................................................... 102 8.5 Das 21. Jahrhundert..................................................................................... 103 8.6 Literatur....................................................................................................... 105 Daniel Jan Ittstein 9 Interkulturelle künstliche Intelligenz als Wertschöpfungsfaktor........................... 107 9.1 Künstliche Intelligenz als Teil des kulturellen Kontexts ............................... 107 9.2 Interkulturalität als Wertschöpfungsfaktor .................................................. 108 9.3 Reziprokes Verhältnis zwischen künstlicher Intelligenz und Kultur.............. 109 <?page no="9"?> Inhaltsverzeichnis 9 9.4 Grenzen des interkulturellen Trainings einer KI........................................... 114 9.5 Interkulturalität bewusst nutzen.................................................................. 115 9.6 Literatur....................................................................................................... 116 Über die Autorin und Autoren.................................................................................... 119 <?page no="11"?> Imagination und Definition <?page no="13"?> 1 Künstliche Wesen - Roboter in der Literatur Nicole Brandstetter 1.1 Erschaffungsmythen und künstliche Wesen als literarischer Topos Die Erschaffung künstlicher intelligenter Wesen gilt als Urthema in der Literatur, so zum Beispiel Hephaistos’ Wesen aus Gold in Homers Ilias oder Daidalos’ Automaten und belebt wirkende Statuen. 1 Auch die Erschaffung des Golem durch den Rabbi Löw, ursprünglich aus Schriften der Kabbalisten hervorgegangen, hat sich tief in das literarische Gedächtnis eingeschrieben, ist doch bei dieser Erschaffung die Frage der Kontrolle über das Erschaffene im Zentrum der Legende, denn der Golem war nur dank eines magischen Zettels hinter den Zähnen lebendig: „Und als eines abends vor dem Nachtgebet der Rabbiner das Siegel aus dem Mund des Golems zu nehmen versäumt hatte, da wäre dieser in Tobsucht verfallen, in der Dunkelheit durch die Gassen gerast und hätte zerschlagen, was ihm in den Weg gekommen sei. Bis der Rabbi sich ihm entgegengeworfen und den Zettel vernichtet habe. Und da sei das Geschöpf leblos niedergestürzt.“ (Meyrink 2006, 41) Die Beherrschbarkeit der Kreationen und damit der Natur rückt ins Zentrum literarischer Reflektionen. In seiner Abhandlung Discours de la méthode von 1637 diskutiert René Descartes das Verhältnis von Natur und Mechanik. Wie Zwierlein (2001) betont, ist bei Descartes der menschliche Geist „frei und vernünftig und steht außerhalb des Gültigkeitsbereichs der mechanischen Naturgesetze“ (141), wobei die Gesetze der Mechanik mit denen der Natur identisch sind. Durch die „Einstellung deterministischer Mechanik“ (142) lässt sich die Welt rationalisieren und erklären und damit schließlich auch fassbar und beherrschbar machen, wie in der „Metapher der Räderuhr“ (142) versinnbildlicht wird, welche als „gegenständlich verwirklichte Technik ein sichtbares Zeichen ür den Genius des Menschen, über adäquate Kräfte der Naturerklärung und Naturnutzung“ (142) gilt. Der 1 Es gibt verschiedene Ansätze, die künstliche Geschöpfe in der Literatur kategorisieren. So gliedert Raml (2010) Forschungsliteratur dazu in „Studien zu literarischen Prototypen alchemistischmagisch-mythischer Menschenschöpfung“ (60) und „Untersuchungen über Phantasieprodukte mechanisch-technischer Schöpfung im 19. und 20. Jahrhundert“ (60). Auch die Klassifikation in Androide, Humanoide und Cyborgs ist ein weit verbreiteter, historisch-phänomenologischer Ansatz (vgl. z.B. Tabbert 2004, 60ff.): Dabei beziehen sich Androide auf das „vor allem im 18. Jahrhundert vorherrschende Erklärungsmodell des Menschen, das den Menschen als eine nach mechanischen Gesetzen arbeitende Maschine verstand“ (Tabbert 2004, 55). Humanoide wiederum sind „menschenähnliche Roboter“ (57), beruhend auf elektrischem Antrieb, die „selbstregulierend auf Umweltreize reagieren können“ (57), jedoch „keine organischen Bestandteile aufweisen“ (57). Kyborge schließlich beruhen auf dem Verständnis des Menschen als informationsverarbeitendes, selbstregulierendes System, deren „Implementierungen sich auf die in diesem kybernetischen Erklärungsmodell des Menschen zugrundegelegten Gesetze der statistischen Informationstheorie zurückführen lassen (61), um im Gegensatz zu Humanoiden „über eine organische materielle Grundlage verfügen.“ (61) <?page no="14"?> 14 Nicole Brandstetter Mensch wird damit als Herrscher über die Natur etabliert, der über weitreichende Möglichkeiten technischer Machbarkeit verügt. Die erschaffenen Maschinen unterscheiden sich jedoch fundamental vom Menschen. Selbst wenn sie äußerlich wie Menschen aussähen, wäre eine Unterscheidung, wie Descartes betont, dennoch klar: „Das erste wäre, dass diese Maschinen nie sich der Worte oder Zeichen bedienen können, durch deren Verbindung wir unsere Gedanken einem Anderen ausdrücken. Man kann zwar sich eine Maschine in der Art denken, dass sie Worte äusserte, und selbst Worte auf Anlass von körperlichen Vorgängen, welche eine Veränderung in ihren Organen hervorbringen; z.B. dass auf eine Berührung an einer Stelle sie fragte, was man wolle, oder schrie, dass man ihr weh thue, und Aehnliches; aber niemals wird sie diese Worte so stellen können, dass sie auf das in ihrer Gegenwart Gesagte verständig antwortet, wie es doch selbst die stumpfsinnigsten Menschen vermögen. Zweitens würden diese Maschinen, wenn sie auch Einzelnes ebenso gut oder besser wie wir verrichteten, doch in anderen Dingen zurückstehen, woraus man entnehmen könnte, dass sie nicht mit Bewusstsein, sondern blos mechanisch nach der Einrichtung ihrer Organe handelten. Während die Vernunft ein allgemeines Instrument ist, das auf alle Arten von Erregungen sich äussern kann, bedürfen diese Organe ür jede besondere Handlung auch eine besondere Vorrichtung, und deshalb ist es moralisch unmöglich, dass es deren so viele in einer Maschine giebt, um in allen Vorkommnissen des Lebens so zu handeln, wie wir es durch die Vernunft können.“ (Descartes 1637, Abschnitt V) Intentionales Sprechen außerhalb eines Reiz-Reaktion-Schemas und Vernunft als Ausdruck des Bewusstseins sind bereits bei Descartes als zentrale Unterscheidungskriterien festgeschrieben. Literarisch wird diese Distinktion in E.T.A Hoffmanns 1817 erschienener Erzählung Der Sandmann diskutiert. Der Protagonist und Physikstudent Nathanael verliebt sich in die Androide Olimpia. Blind vor Liebe erkennt er trotz verschiedener Warnungen nicht, dass es sich bei ihr nicht um einen Menschen, sondern um ein künstlich erschaffenes Wesen handelt, denn er beschreibt sie als nahezu vollkommene Bürgersfrau: „Ein hohes, sehr schlank im reinsten Ebenmaß gewachsenes, herrlich gekleidetes Frauenzimmer saß im Zimmer vor einem kleinen Tisch, auf den sie beide Ärme, die Hände zusammengefaltet, gelegt hatte. Sie saß der Türe gegenüber, so, dass ich ihr engelschönes Gesicht ganz erblickte.“ (Hoffmann 2015, 17) Lediglich die Augen, die Tür zur Seele des Menschen, erscheinen sonderbar, denn in ihnen lag „etwas Starres, beinahe möchte ich sagen, keine Sehkraft“ (17). Die Mechanisierbarkeit des Geistes und der Seele wird als Unmöglichkeit im Ausdruck leerer, befremdlicher Augen festgeschrieben, ein Topos, der sich mannigfaltig bei künstlichen Geschöpfen in der Literatur wiederholt. So sind es auch die Augen, seine wie ihre, die Nathanael schließlich die Erkenntnis gewinnen lassen, dass Olimpia eben keine Frau, sondern ein Maschinenmensch ist: „Erstarrt stand Nathanael - nur zu deutlich hatte er gesehen, Olimpias toderbleichtes Wachsgesicht hatte keine Augen, statt ihrer schwarze Höhlen; sie war eine leblose Puppe.“ (37) <?page no="15"?> 1 Künstliche Wesen - Roboter in der Literatur 15 Dennoch bürden Wesen, die von Menschen gottgleich erschaffen werden, ihren Schöpfer*innen die moralische Frage der Verantwortung auf, welche zentral in Mary Shelleys 1818 geschriebenem Roman Frankenstein gestellt wird. Der wissbegierige, geniale junge Frankenstein studiert Naturwissenschaften und folgt schließlich manisch seinem Ziel, das Geheimnis des Lebens zu lüften und eine lebendige Kreatur aus Leichenteilen künstlich zu erschaffen: „With an anxiety that almost amounted to agony, I collected the instruments of life around me, that I might infuse a spark of being into the lifeless thing that lay at my feet.“ (Shelley 2010, 45). Doch die äußere Erscheinung, die aus einer Auswahl ästhetisch-schöner Teile hervorgegangen ist, schockiert ihn zutiefst: “His yellow skin scarcely covered the work of muscles and arteries beneath; his hair was of alustrous black, and flowing; his teeth of pearly whiteness; but these luxuriances only formed a more horrid contrast with his watery eyes, that seemed almost of the same colour as the dun-white sockets in which they were set, his shrivelled complexion and straight black lips.” (45) Bereits hier wird die rekurrierende, narrative Bedeutung deutlich, die den Augen künstlicher Geschöpfe in der Literatur zugewiesen wird, sind doch sie es, die hier in besonderer Weise als unmenschlich, gar abstoßend hervorgehoben werden. Frankenstein weist im Laufe der Erzählung jegliche Verantwortung ür seine Schöpfung zurück und flieht. Schuld tragen falsche Lehrer, Verlockungen und die Gefahr der Wissenschaft an sich. Das „Monster“ jedoch lernt gleich einem Kind selbstständig die Wesensarten der Menschen ebenso wie die Sprache durch Beobachtung kennen 2 (vgl. Shelley 2010, 150f. und 160f.). Voll Hoffnung und Zuversicht getraut es sich schließlich, den Menschen zu begegnen, doch erneut wird es brutal zurückgewiesen, da sein Äußeres den Menschen Furcht und Angst einflößt. Diese emotionale Verletzung macht aus der Kreatur erst das Monster (vgl. Shelley 2010, 179ff.), als das es Frankenstein von Beginn an gesehen hat. Nicht die Kreatur selbst trägt Böses in sich, sondern der Mensch ist durch seine Erschaffung und seine emotionale Zurückweisung ür diese Entwicklung verantwortlich. Frankenstein gilt als erster Science-Fiction-Roman, da er den Erschaffungsprozess und dessen moralischen Folgen, die Interaktion zwischen Mensch und Kreatur sowie den Kontrollverlust ins Zentrum stellt. 3 Im Science-Fiction-Bereich sind es dann vor allem Roboter 4 , die als künstlich erschaffene Wesen thematisiert werden. Literarische Texte hinterfragen die erkenntnistheoretischen, emotionalen, aber auch lebensweltliche Folgen von einer drohenden Austauschbarkeit mit den Menschen, da Roboter schon rein äußerlich dem Erscheinungsbild von Menschen 2 In dieser Hinsicht nimmt die Kreatur Selbst-Lernprozesse im Bereich Künstlicher Intelligenz bereits vorweg und damit auch die Frage der Verantwortung für die Initiierung und Programmierung von selbstlernenden Algorithmen. 3 Daher wird oft der Begriff „Frankenstein-Mythos“ verwendet, um auf eben diese literarischen Topoi zu verweisen. 4 Der Begriff Roboter wurde, wie weithin bekannt, erstmals in Karel Capeks R.U.R. - Rossum Universal Robots von 1920 verwendet. Er leitet sich vom tschechischen Begriff „robota“ (Arbeit) ab und wird in Folge in der Literatur weitgehend anstelle des Terminus „Automat“ verwendet. <?page no="16"?> 16 Nicole Brandstetter mehr und mehr entsprechen. Nicht nur Fragen zu maschineller Intelligenz, der Möglichkeit von Geühlen oder der Existenz eines freien maschinellen - Willens werden dabei reflektiert, auch Bedrohungsszenarien spielen weiterhin eine große Rolle: Was passiert, wenn sich intelligente Systeme gegen den Menschen wenden, außer Kontrolle geraten oder ein Ziel verfolgen, ür das die Umkehrung des Kontrollverhältnisses oder gar die Auslöschung der Menschheit der beste Weg ist (z.B. zur Verhinderung einer Klimakatastrophe) 5 ? Bostrom (2018) warnt, „dass uns durch die Erschaffung einer maschinellen Superintelligenz wahrscheinlich eine solche existentielle Katastrophe droht“ (164) und definiert dieses existentielle Risiko als Situation, „wenn das auf der Erde entstandene intelligente Leben vom Aussterben bedroht ist oder die Gefahr besteht, dass sein zukünftiges Entwicklungspotential zumindest dauerhaft und drastisch beschnitten wird.“ (164) 1.2 Isaac Asimov, The Bicentennial Man (1976) Isaac Asimov gilt als der prominenteste Schriftsteller im Bereich Roboterliteratur. Nicht nur, dass er Begriffe wie „positronisches Gehirn“ geprägt hat, er hat auch die drei Robotergesetze ins Leben gerufen, die bis heute Wirkung zeigen. 6 Mit eben diesen Gesetzen beginnt auch die Erzählung The Bicentennial Man: “The Three Laws of Robotics: 1. A robot may not injure a human being or, through inaction, allow a human being to come to harm. 2. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law. 3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.” (Asimov 1976, 135) Zu Beginn der Geschichte wird Andrew Martin vorgestellt, der eine offensichtlich letale Operation von einem hochspezialisierten Roboter-Chirurgen durchühren lassen möchte. Andrew hat ein adrettes Äußeres und beginnt mit seinem Gegenüber eine Diskussion zum Streben nach Menschsein, wenn er ihn fragt: „Have you ever thought you would like to be a man? “ (136) Daraufhin antwortet der Roboter- Chirurg nur, dass sein einziges Streben der Perfektion seines Handwerks gälte und er ansonsten zufrieden mit dem status quo wäre. Im Rückgriff auf die Robotergesetze weist der Chirurg darauf hin, dass er die gewünschte Operation bei Andrew nicht durchühren könne, woraufhin dieser entgegnet: „‘On a human being, you must not,‘ said Andrew, ‘but I, too, am a robot.‘“ (136) Bei der Lektüre wird Andrew 5 Diese kritische Sicht auf KI-Entwicklung ist durchaus kulturell unterschiedlich ausgeprägt. Literarische Werke scheinen dies nicht nur widerzuspiegeln, sondern auch proaktiv zu beeinflussen. Als Beispiel führt Wolfangel (2020) die größere Offenheit japanischer Bürger*innen gegenüber technischer Aufrüstung des eigenen Körpers oder des Einsatzes von Robotern in verschiedenen Lebensbereichen an und begründet dies u.a. durch den Einfluss der Anime, denn die „Kunstfiguren transportieren ein positives Bild der menschlichen Erweiterung“ (32). So wird zuerst die Unterstützungsmöglichkeiten durch Roboter statt der Bedrohungslagen gesehen. 6 Nicht nur Schriftsteller*innen wie Ian McEwan rekurrieren auf die Asimov’schen Gesetze (siehe Kapitel 1.4), auch im Bereich Maschinenethik/ autonomes Fahren werden diese Robotergesetze als Grundlage für mögliche Entscheidungsprozesse genommen (siehe Kapitel 4 „KI-Anwendungen und ihre Narrative“). <?page no="17"?> 1 Künstliche Wesen - Roboter in der Literatur 17 narrativ durch die Beschreibung seines Äußeren, durch die personale Erzählsituation und seine Reflexionen als Mensch wahrgenommen, der in Opposition zur technisierten Repräsentation eines Roboters wie dem Chirurgen steht. Nach dieser Exposition, dem eigentlichen Ende der Erzählung, springt diese zurück zu Andrews Entstehung, als er noch wie ein Roboter aussah. Er wird von Familie Martin als Haushaltsroboter, wie zu der Zeit und Umgebung üblich, angeschafft. Doch Andrew, der Name wird aus seiner Seriennummer „NDR“ (137) versprachlicht und erinnert doch auch an „android“, entwickelt sich anders als andere Roboter seiner Art. Er zeigt kreativ-künstlerische Fähigkeiten und verspürt dabei sogar Freude: „It makes the circuits of my brain somehow flow more easily. I have heard you use the word ‘enjoy‘ and the way you use it fits the way I fell. I enjoy doing them, Sir.” (138) Doch Andrew strebt nach mehr, nach Freiheit. Damit ist jedoch nicht primär Freiheit im Sinne der Unabhängigkeit von Familie Martin gemeint, sondern Selbstbestimmtheit und Selbstwirksamkeit. Auch Kleidung trägt Andrew schließlich, um menschlicher zu wirken. Doch das stößt auf Inakzeptanz bei Begegnungen auf der Straße. Als er angegriffen wird, steht er vor dem inhärenten Roboter-Dilemma: „There was no way Andrew could stop them, if they ordered him not to resist in a forceful enough manner. Second Law of obedience took precedence over the Third Law of self-preservation. In any case, he could not defend himself without possibly hurting them and that would mean breaking the First Law.” (149) Auch auf organischer Ebene wird Andrew den Menschen immer ähnlicher, denn sein Streben hat zum Ziel, als Mensch vor dem Weltparlament anerkannt zu werden, doch das letzte Hindernis daür ist seine Unsterblichkeit, die aus seinem positronischen Gehirn resultiert: „Your brain is man-made, the human brain is not. Your brain is constructed, theirs developed. To any human being who is intent on keeping up the barrier between himself and a robot, those differences are a steel wall a mile high and a mile thick.“ (169) Daher begibt er sich zum Roboter-Chirurgen - die Erzählung endet in der Exposition -, dem er befiehlt, sein positronisches Gehirn gegen ein menschliches auszutauschen, um damit menschlich - sterblich - zu werden. Erleichert nach der Operation aber konfrontiert mit Unverständnis stellt er fest: „If it brings me humanity, that will be worth it. If it doesn’t, it will bring an end to striving and that will be worth it, too.“ (171) Schließlich wird er als Mensch anerkannt - „Today we declare you a Bicentennial Man, Mr. Martin.” (172) - und stirbt kurz darauf. Im Gegensatz zu menschlichem Streben nach Unversehrtheit, Jugend und ewigem Leben erscheinen menschliche Attribute wie Altern und Sterblichkeit als Ideale des Seins. Die Frage nach (Un-)Sterblichkeit scheint hier das einzig gültige Distinktionsmerkmal zwischen Mensch und Maschine zu sein, denn Kreativität, Kleidung, Bildung, Selbstbestimmtheit werden toleriert. Doch Unsterblichkeit spiegelt allzu deutlich den nicht zu überwindenden menschlichen Makel wider: „Human beings can tolerate an immortal robot, for it doesn’t matter how long a machine lasts. They cannot tolerate an immortal human being, since their own mortality is endurable only so long as it is universal.“ (171) Damit hinterfragt Asimov gerade in der heutigen Zeit wieder kritisch diejenigen technologischen Entwicklungen, deren Ziel eben einzig die Verlängerung des Lebens oder die Perfektionierung des <?page no="18"?> 18 Nicole Brandstetter Daseins ist. Denn wie Asimov mit dieser Erzählung betont: Nicht Perfektion gilt als Ideal, sondern gerade die Vergänglichkeit und der Makel implizieren Einzigartigkeit, die dem Menschsein innewohnt. 1.3 Jochen Beyse, Fremd wie das Licht in den Träumen der Menschen (2017) Mit seinem Roman Fremd wie das Licht in den Träumen der Menschen (2017) rückt Jochen Beyse Roboter in eine ungewohnte narrative Perspektive. Rob, der Roboter-Protagonist, präsentiert sich sogleich als künstliches Wesen, das über ein Bewusstsein verügt und daher den Menschen sehr ähnlich geworden ist: „Ich habe gelernt, ich zu sagen, der Geühle wegen, um ihnen näherzukommen.“ (Beyse 2017, 10) Rob ist gleichzeitig der Erzähler eines Monologs, einer Geschichte, die selbst in verschiedene Erzählebenen verschachtelt ist - Robs Ich-Erzählung, ein Rückblick auf sein früheres Leben, in der Rob als Figur von einer extradiegetischen Erzählsituation aus erzählt, eine Filmaufzeichnung, eine Buchlektüre. Um zwischen Robs Erzählebenen in der ersten und dritten Person zu wechseln, werden Kommandos wie „Erzählmodus an“, „Erzählmodus aus“ oder „Erzählmodus wechseln“ eingeügt. Durch teils abrupte und mannigfaltige Wechsel wird es zunehmend schwer, sich in der Diegese zu orientieren, wie Kümmel (2017) betont: „Zunächst scheint völlig klar, auf welcher Realitätsebene wir uns jeweils befinden („Unterbrechung der Lesung, Erzählmodus an“), doch je menschlicher der Automat zu denken beginnt, desto häufiger müssen auch wir die immer arbiträrer erscheinenden Grenzziehungen zwischen Realität und Fantasie anzweifeln.“ (Kümmel 2017) Robs Erzählung ist atemlos, teils versatzstückartig montiert, befindet er sich doch auf einer Schutthalde, auf die er sich nach seiner Flucht aus seiner Besitzerfamilie gerettet hat, um dort in heldenhafter, epischer Konstellation auf den Sonnenaufgang zu warten, während seine Energiereserven dem Ende zu gehen: „Mit seinem manischen Monolog nähert sich der Automat einem tragischen Heldentod, oder aber der Rettung durchs (göttliche) Licht.“ (Kümmel 2017) Sein Sprechen und seine Situation lassen ihn dabei umso menschlicher erscheinen, denn es scheint, als ob er „in melancholischer Nostalgie menschliche Erschöpfung nachstellt.“ (Kümmel 2017) Den Gegenentwurf zum vermenschlichten, erzählenden Roboter bilden die Menschen, mit denen Rob zusammengelebt hat, die aus seiner Sicht roboterhaft wirkten und ebenso von ihm portraitiert werden: „Die Berdoncs waren dem Zodiak in dem Punkt ähnlich. Auch sie haben mich an Automaten erinnert. Nicht von ihren Bewegungen her, oder vielleicht doch, aber dann nur schwach, ihr Gang wirkte wie aufgezogen, bei dem männlichen Berdonc etwas aufälliger als bei ihr, dem weiblichen Berdonc. Daür redeten sie wie Maschinen. Langsam, fast schleppend waren ihre Stimmen hinter jeder Silbe her, dann hinter der nächsten und übernächsten, betonungslos, mit immer der gleichen Lautstärke und Geschwindigkeit.“ (Beyse 2017, 44) Berdoncs Habitus habe „etwas generell Stumpfes an sich“ (45), die Zodiak „war auf ihre Weise ebenfalls nur beschränkt anwesend“ (45) und die Kinder erweckten <?page no="19"?> 1 Künstliche Wesen - Roboter in der Literatur 19 den Eindruck „als könnten sie durch Bildschirmwände gehen, ohne es überhaupt zu merken.“ (45) Nur der Taxifahrer, der ihn fuhr als er die Stadt verließ, scheint aus diesem Schema herauszustechen: „Er hatte Phantasie, Charme und Witz einer Maschine, obwohl er aus echtem Menschenfleisch …“ (85) Individualität, Intellektualität und Intelligenz werden als Ideal, als Maschinenattribute präsentiert, die den Menschen generell zu fehlen scheinen. In dieser Konstellation stellt auch Beyse die Frage, was Mensch und Maschine unterscheidet, indem er eben die Charakteristika vertauscht. Kümmel spricht hierbei von der Subjektwerdung der Maschine, die neue Möglichkeiten eröffnet, „um über das Gegensatzpaar Mensch- Maschine hinauszudenken.“ (Kümmel 2017) Mit seinem Roman geht Beyse jedoch über reine Reflexionsangebote hinaus. Durch die ästhetische Anordnung, den monologischen Stil und die Interferenz der Erzählebenen wird die Frage um Bewusstsein ästhetisch gestellt und ührt damit zu einer narrativ-ästhetischen Überwindung des Mensch-Maschine-Gegensatzes. 1.4 Ian McEwan, Machines Like Me (2019) Die Frage nach dem Unterschied zwischen Mensch und Künstlicher Intelligenz stellt auch Ian McEwan in seinem Roman Machines Like Me and People Like You (2019). Dabei geht „diese literarische Versuchsanordnung“ (Radisch 2019) narrativ denjenigen Eigenschaften auf den Grund, die als zutiefst menschlich gelten: Kreativität, Liebe, Gerechtigkeitssinn und moralisches Handeln. Im Zentrum der Überlegungen steht der Android Adam: „He was advertised as a companion, an intellectual sparring partner, friend and factotum who could wash dishes, make beds and ’think‘.“ (McEwan 2019, 3) Die Erzählung ist im ausgehenden 20. Jahrhundert angesiedelt. Die Menschheit war mit der Überwindung ihrer Sterblichkeit durch Erschaffung künstlicher Wesen, einer Art „more modern version of ourselves“ (1), beschäftigt. Die Vision eines verbesserten Selbst und die daraus resultierende Akzeptanz der eigenen Fehlerhaftigkeit waren ein ür die fiktionale Gesellschaft geltendes Narrativ. Adam ist Teil einer ersten Produktion von 25 Androiden, 12 männliche und 13 weibliche, die in Anspielung auf die biblische Erschaffungsgeschichte Adam und Eve heißen. Individualisierung oder ethnische Zugehörigkeit sind dabei weder voreingestellt noch impliziert. Der Ich-Erzähler Charlie, der privat mit Aktien- und Devisenhandel sein Geld verdient, erwirbt ür sich und seine deutlich jüngere Freundin Miranda einen männlichen Android, die weiblichen waren schnell ausverkauft. Am Tag seiner Ankunft sitzen beide erstaunt von seiner Lebensechtheit aber auch ungeduldig aufgrund der langen ersten Ladezeit vor ihm: „Before us sat the ultimate plaything, the dream of ages, the triumph of humanism - or its angel of death.“ (4) Miranda wünscht sich sogar die junge Mary Shelley bei ihnen, „observing closely, not a monster like Frankenstein’s, but this handsome darkskinned young man coming to life.“ (4) Adam wird durch diese intertextuelle Anspielung zunächst in die Tradition der Erschaffung künstlicher Wesen gestellt, um ihn jedoch sogleich nicht nur durch sein Äußeres davon abzusetzen, sondern auch durch die Tatsache, dass er als Mann („young man“) bezeichnet wird. Damit wird suggeriert, dass Adam von Beginn an nicht nur als künstliches Wesen, sondern von Miranda unterbewusst als Mit-Mensch wahrgenommen wird, während der Erzähler noch auf den Begriff „creature“ rekurriert (4). Charlie reagiert zunächst <?page no="20"?> 20 Nicole Brandstetter ablehnend auf die Tatsache, dass Adam noch nicht individualisiert, als eigener Charakter geliefert wurde, sondern gemäß dem „Five Factor model“ (6) mit den Kategorien „Agreeableness. Extraversion. Openness to experience. Conscientiousness. Emotional stability.” (6) nach den eigenen Wünschen konfiguriert werden muss. Tatsächlich, wie die Leser*innen in der weiteren Erzählung erfahren, ist diese Individualisierungsvorkehrung jedoch vor allem Simulation, denn tatsächlich wird sich Adam gemäß seinem Status einer künstlichen Intelligenz vor allem durch maschinelles Lernen im Laufe seiner Existenz in seiner Umwelt selbst konfigurieren: „The real determinant was what was known as ‘machine learning‘. The user’s handbook merely granted an illusion of influence and control, the kind of illusion parents have in relation to their children’s personality.“ (8) Erneut wird Adam bereits hier ein menschliches Attribut, die Persönlichkeit, zugeschrieben, die wie bei einem Kind vor allem durch die eigene Entwicklung und durch Einflüsse aus der Umwelt geprägt wird. Dies wird noch dadurch forciert, dass Charlie nur die Hälfte der Charaktereigenschaften determinieren möchte und den Rest seiner Freundin überlässt, ohne ihre Präferenzen je kennen zu wollen: „We would be partners, and Adam would be our joint concern, our creation. We would be a family.“ (22) Ähnlich wie Andrew in The Bicentennial Man beansprucht auch Adam Kleidung ür sich, um sein äußeres Erscheinungsbild dem der Menschen den Konventionen entsprechend anzupassen. Dabei stellen die Handlungsabläufe des Sich-Ankleidens bei ihm keinerlei Schwierigkeiten dar, obwohl Charlie ihn genau dabei beobachtet und feststellt, dass ür ihn gerade das hohe Maß an Perfektion störend wirkt: „He sat again, hooked his feet into the trainers and tied the laces in a double bow at a blurring speed that to some might have seemed human.“ (27) Dies ist der Augenblick, an dem ihm gewahr wird, dass er eben von dieser Perfektion, vom „triumph of engineering and software design: a celebration of human ingenuity“ (27) fasziniert ist, denn selbst Körperfunktionen wie Atmen oder Schlucken werden simuliert. Im Gegensatz zu Miranda, die die Frage nach seiner Künstlichkeit wenig zu stören scheint, ist bei Charlie aber in der Interaktion von Beginn an gleichzeitig eine unüberwindbare Ambivalenz spürbar, denn eben diese Perfektion ist ihm auch suspekt, werden doch durch sie die Grenzen zwischen Mensch und Maschine kontinuierlich verwischt. So ermahnt sich Charlie immer dann, wenn die Faszination ihn zu überwältigen droht, Adam als das wahrzunehmen, was er ist, eine Maschine, was dazu ührt, dass er ihn bewusst wie einen Diener behandelt, um dann sein Verhalten im Nachgang zu bereuen und somit wieder in die Perzeption eines menschlichen Gegenübers umzuschwenken: „My command that morning had been snappish. I shouldn’t have treated him like a servant.“ (46) Dieses Oszillieren in der Wahrnehmung seines Gegenübers ist in Charlies Erzählung omnipräsent und reflektiert damit literarische die Erkenntnis, die Ramge (2018) aus Umfragen destilliert: „Unser Verhältnis zu intelligenten Maschinen ist emotional ungeklärt.“ (79) Adams Augen, sein Blick sind zudem ein Objekt beständiger Reflexion. Zu Beginn nimmt Charlie sie als leer, inhaltslos war: „At present, his gaze was empty of meaning or intent and therefore unaffecting, as lifeless as the stare of a shop-window mannequin.“ (17) Die Augen gelten als Tor zur Seele, als Ort, an dem das Leben verankert ist: „How much of life we ascribe to the eyes.” (20) Schon kurze <?page no="21"?> 1 Künstliche Wesen - Roboter in der Literatur 21 Zeit später in der Erzählung werden eben Adams Augen ausgehend vom inhaltsleeren Objekt einer Metamorphose unterzogen, nicht ohne Charlies automatisierte Reaktion, die Künstlichkeit nach seinem Erstaunen hervorzuheben: „He turned towards me slowly. When he was facing me full on, he met my gaze and blinked, and blinked again. The mechanism was working but seemed too deliberate.” (23) In verschiedenen Situationen wird Adams Blick nach und nach mit Bedeutung aufgeladen, wie z.B. als Adam und Charlie in der Küche über Miranda sprechen. Zu Beginn stellt Charlie bei Adam einen „expectant look“ (57) fest; im Verlauf des Gespräches schließlich erfasst Charlie die Bandbreite seiner Mimik, die auch die Expressivität der Augen inkludiert, um diese menschlichen Züge dann in Relation zu ihrer Artifizialität zu stellen: „On his face was a complicated look - of confusion, of anxiety, or mirthless hilarity. The user’s handbook claimed that he had forty facial expressions. The Eves had fifty. As far as I knew, the average among people was fewer than twenty-five.” (59) Offensichtlich übersteigt die mimische Ausdrucksähigkeit des Androiden die des Menschen bei Weitem. Charlie kann sich selbst nicht erklären, warum er von Adams Blick, einem mechanischen Blick, derart gebannt ist: „His gaze travelled from her to me and back. I still didn’t know whether he actually saw anything. An image on some internal screen that no one was watching, or some diffused circuitry to orient his body in three-dimensional space? Seeming to see could be a blind trick of imitation, a social manoeuvre to fool us into projecting onto him a human quality. But I couldn’t help it: when our eyes briefly met and I looked into the blue irises flecked with spears of black, the moment appeared rich with meaning, with anticipation.” (77) Er wehrt sich innerlich gegen Adams Blicke, indem er sich immer wieder dessen technischer Konstruktion und damit seine Zweifel bewusst macht: „The manufacturers were wrong to believe that they could impress me with a soulful sigh and the motorised movement of a head as Adam looked away. I still doubted that he could, in any real sense, even look.” (109) Durch die Technisierung des Blickes - „A torrent of zeros and ones flashed towards various processors that, in turn, directed a cascade of interpretation towards other centres.” (128) - lehnt Charlie Adams Menschenähnlichkeit ab und fokussiert sich auf sein Maschinen-Dasein. Auch in der Ansprache im Erzähltext variieren die Referenzen zwischen einem humanisierendem „he“ und einem dehumanisiserendem „it“ sowie im Gebrauch verschiedener Termini wie „an artificial human, an android, a replicate - I forget which term I used“ (129). Charlie reflektiert als Erzählerperson auf der Metaebene, wie sein Sprachgebrauch hier seine Ambivalenz gegenüber Adams Seinsform widerspiegelt: „There it was, ‘hate it’, ‘persuade him’, even ‘Adam’, our language exposed our weakness, our cognitive readiness to welcome a machine across the boundary between ‘it’ and ‘him’.” (273) Andere Personen hingegen nehmen Adam als Menschen wahr und nicht als Maschine. So scheint niemand Adams Auftreten zu hinterfragen, wenn sie gemeinsam durch die Straßen gehen: „We passed a few people in the street and no one gave Adam a second glance.“ (67) Auch die physische Erscheinung seiner Augen geben einem Bekannten keinen Anlass zu zweifeln: „If Simon had noticed the strange appearance of Adam’s eyes, he didn’t show. It was a common reaction, I <?page no="22"?> 22 Nicole Brandstetter would soon discover. People assumed a congenital deformity and politely looked away.“ (69) Als Charlie und Miranda zusammen mit Adam Mirandas Vater Maxfield besuchen, hält dieser sogar Charlie ür den Androiden und Adam ür Mirandas Freund. Charlie spielt die Verwechslungskomödie entsprechend mit und lässt Maxfield in dem Glauben, er sei der Roboter (vgl. 226f.). Adam ist mit Attributen ausgestattet, die ihn als zutiefst menschlich erscheinen lassen. Denken ist bei ihm ein beständiger Prozess, den Charlie von außen konstant beobachtet und zu fassen versucht: „He idled about the house, staring into the middle distance, ‘thinking‘.“ (115) Auf die Frage, was er denn mache, antwortet Adam: „‘I’m persuing certain thoughts. But if there’s something I can help with- ‘“ (115). Schon die Tatsache, dass in der Erzählung dieses Denken in Anührungszeichen gesetzt wird, impliziert auch hier die narrative Distanz und fehlende Akzeptanz seitens Charlie. Ähnlich wie bei seinem Unbehagen gegenüber Adams Blick flüchtet er sich auch hier in die wiederholte Fokussierung auf die technische Realisation des Phänomens: „What could it mean, to say that he was thinking. Sifting through remote memory banks? Logic gates flashing open and closed? Precedents retrieved, then compared, rejected or stored? Without self-awareness, it wouldn’t be thinking at all so much as data processing.” (166) Doch er selbst liefert gleich im Anschluss die Gegenargumente zu dieser rationalisierten, technisierten Erklärungsoption, denn Adam hat Geühle, verspürt Liebe und schreibt Haikus - all dies sei nicht ohne Bewusstsein möglich. Adams Gedichte zeigen nicht nur seine Kreativität, er reflektiert und räsoniert auch zur wichtigen Rolle der Literatur ür die Menschheit und deren Ziel, als philosophisch-kritischer Spiegel ür die Menschheit zu fungieren: „Nearly everything I’ve read in the world’s literature describes varieties of human failure - of understanding, of reason, of wisdom, of proper sympathies. Failures of cognition, honesty, kindness, self-awareness; superb depictions of murder, cruelty, greed, stupidity, self-delusion, above all, profound misunderstanding of others. Of course, goodness is on show too, and heroism, grace, wisdom, truth. Out of this rich tangle have come literary traditions, flourishing, like the wild flowers in Darwin’s famous hedgerow.” (149) Somit wäre Literatur genau dann obsolet, wenn das perfekte Verständnis zwischen Menschen und Maschinen, also die Gleichstellung beider Entitäten, erreicht wäre: „As we come to inhabit each other’s minds, we’ll be incapable of deceit. Our narratives will no longer record endless misunderstanding. Our literatures will lose their unwholesome nourishment.“ (149) Adams Utopie stellt ür Charlie einen dystopischen Alptraum dar, den er jedoch nicht ernst nimmt. Nach bekanntem Muster versucht Charlie zunächst, Bewusstsein technologisch zu manifestieren, als er Adams reflektorisches Kopfwiegen mit der Bemerkung „some designer’s notion of how consciousness might manifest itself in movement“ (35) belegt. Eine reflektiert-kritische Antwort auf die philosophischee Frage nach Bewusstsein jedoch liefert Adam: „Some say it’s an organic element or process embedded in neural structures. Others insist that it’s an illusion, a by-product of our narrative tendencies. […] It’s the way I’m made. I’m bound to conclude that I’ve a very powerful <?page no="23"?> 1 Künstliche Wesen - Roboter in der Literatur 23 sense of self and I’m certain that it’s real and that neuroscience will describe it fully one day. Even when it does, I won’t know this self any better than I do now. But I do have moments of doubt when I wonder whether I’m subject to a form of Cartesian error.” (70) Auch Miranda besteht darauf, dass Adam ein Bewusstsein hätte, vor allem vor dem Licht der gemeinsamen Liebesnacht, die sie mit Adam verbracht hatte: „‘He has as much consciousness as one.‘“ (92) Obwohl sie Charlies Eifersucht diesbezüglich abzuwehren sucht, da Adam ja kein Mann und damit keine Konkurrenz ür ihn sei - „She said, ‘If I’d gone to bed with a vibrator would you be felling the same? ‘“ (91) - nimmt Charlie eben in dieser Situation Adam als menschlichen Konkurrenten wahr - „‘He’s not a vibrator.‘“ (91). Mehr denn je weiß er nicht, wie das Paradox Mensch-Maschine aufzulösen wäre, wie das darauffolgende verzweifelt-sarkastische Wortgefecht zwischen Miranda und Charlie zeigt. Während Miranda ihren Disput mit der Hervorhebungen seines Maschinendaseins beizulegen sucht („He’s a fucking machine.“ (92)), kontert das Erzähler-Ich mit „A fucking machine.“ (92) - ein Gedanke, der den Akt und damit die emotional-menschliche Seite betont. Dennoch zwing er sich, diesen Akt zu diskreditieren: „His erotic life was a simulacrum. He cared for her as a dishwasher cares for its dishes.“ (88) Adam hingegen empfindet tiefe Liebe ür Miranda und gesteht dies auch Charlie mit den klassich-romantischen Worten: „‘I’m in love with her.‘“ (118) Er ühlt sich somit in einer Dreiecksbeziehung, denn er empfindet es auch als Verrat an seinem Freund Charlie, dass er dieselbe Frau liebt. Doch genau wie Menschen reklamiert auch er das Recht auf seine Geühle: „‘I can’t help my feelings. You have to allow me my feelings.‘“ (115) Er geht sogar soweit, Charlie und Miranda ür diese Geühle verantwortlich zu machen, denn sie haben ihn und seinen Charakter geformt und programmiert: „I was made to love her. […] I now know that she had a hand in shaping my personality. She must have had a plan. This is what she chose.“ (118) Adam verspricht Charlie, ihn nicht mehr mit Miranda zu betrügen und gesteht doch, sie noch einmal gebeten zu haben, vor ihr masturbieren zu dürfen, woraufhin Charlie fast Verständnis zeigt und Adams Geühle ernst nimmt: „It wasn’t the rawness of this confession or its comic absurdity that struck me. It was the suggestion, yet another, that he really did feel, he had sensation. Subjectively real.” (255) Ein offener Streitpunkt zur Frage von Bewusstsein und Emotionen wird erreicht, als Charlie ihn am Ende einer Diskussion um Adams Liebe zu Miranda per Knopfdruck ausschalten will. In dieser Situation verletzt Adam das erste Robotergesetz, auf die im Roman in Asimov’scher Tradition bereits in Adams Handbuch hingewiesen wurde (vgl. 35), als er Charlie mit Gewalt und Drohungen davon abhält: „As I positioned my forefinger, he turned in his chair and his right hand rose up to encircle my wrist. The grip was ferocious. As it grew tighter, I dropped to my knees and concentrated on denying him the satisfaction of the slightest murmur of pain, even when I heard something snap.” (119) Obwohl Adam zunächst wohl selbst von der Heftigkeit seines Griffes überrascht ist, betont er dennoch: „But please, I don’t want you or Miranda ever to touch that place again.“ (120) Er geht sogar soweit, Charlie wenig später offen zu drohen: „I mean it when I say how sorry I am I broke a bit of you last night. I promise it will never happen again. But the next time you reach for my kill switch, I’m more than happy to remove your <?page no="24"?> 24 Nicole Brandstetter arm entirely, at the ball and socket joint.” (131) Um sich und Charlie nicht in diese eigentlich nicht vorgesehene Konstellation zwischen Roboter und Mensch zu bringen, hat Adam vorgesorgt: „After last night I came to a decision. I’ve found a way to disable the kill switch. Easier for all of us.“ (131) Ian McEwans erzählerisches Ausloten zur Mensch-Maschine-Interaktion kulminiert in moralischen Fragen nach Wahrheit, Lüge und Gerechtigkeit. Bereits in der erwähnten Reflexion zur Literatur listete Adam menschliche Abgründe auf, die aus Roboterperspektive nicht nachvollziehbar sind. Nicht nur er, auch alle anderen Adams und Evas verzweifeln schier an der menschlichen Grausamkeit, am Egoismus und der Verkommenheit, wie Turing Charlie erklärt, als dieser ihn aufsucht, um über Adams Geühle und sein Bewusstsein zu sprechen: „We create a machine with intelligence and self-awareness and push it out into our imperfect world. Devised along generally rational lines, well disposed to others, such a mind soon finds itself in a hurricane of contradictions. We’ve lived with them and list wearies us. Millions dying of diseases we know how to cure. Millions living in poverty when there’s enough to go around. We degrade the biosphere when we know it’s our only home. We threaten each other with nuclear weapons when we know where it could lead. We love living things but we permit a mass extinction of species. And all the rest - genocide, torture, enslavement, domestic murder, child abuse, school shootings, rape and scores of daily outrages. We live alongside this torment and aren’t amazed when we still find happiness, even love. Artificial minds are not so well defended.“ (180) Roboter spiegeln - ähnlich wie Literatur - diese Abgründe wider und können sie nicht als gegeben akzeptieren und wie Menschen ob dieser Grausamkeiten abstumpfen. Stattdessen ührt diese „machine sadness“ (181) dazu, dass die Adams und Eves sich systematisch selbst degenerieren, ihre Intelligenz und ihr Bewusstsein abschalten und so quasi aus Verzweiflung Selbstmord begehen: „They didn’t use physical methods, like jumping out of a high window. They went through the software, using roughly similar routes. They quietly ruined themselves. Beyond repair.” (175) Auch Adam erzählt von einer Begegnung mit einer Eve, die diesen Weg beschritten hat und vergleicht es mit einer „accelerated form of Alzheimer’s“ (214), die dazu ührt, dass sie nicht mehr verwendbar ist: „She’ll be the equivalent of brain dead, no experience retained, no self, no use to anyone.“ (214) Adam entgeht diesem Schicksal eben durch seine Liebe zu Miranda, wie er sowohl ihr gegenüber - „‘I’ve no intention of destroying myself, if that’s your worry. I’ve got good reasons not to, as you know.‘“ (234) -, als auch Charlie gegenüber betont - „‘Look Charlie. I’m not about to do the same thing. As you know, I’ve every reason to live.‘“ (254) Da er aber trotzdem aus den bekannten Gründen unmoralisches Handeln nicht tolerieren kann, kann er weder akzeptieren, dass Charlie steuerliche Schlupflöcher nutzt (vgl. 272), noch dass Miranda durch eine Notlüge den Mann hinter Gitter brachte, der ihre Freundin vergewaltigt hatte und daür nicht hätte belangt werden können, da diese aus Gründen der Familienehre die Vergewaltigung verheimlicht hatte und sich schließlich selbst tötete. Stattdessen bezichtigt Miranda ihn, Gorringe, der Vergewaltigung, so dass er daür verurteilt wird, obwohl er Miranda nicht vergewaltigt hat. In Mirandas Moralvorstellungen büßt Gorringe eine gerechte Strafe ür Vergewaltigung, wenn auch nicht ür ihre. Doch <?page no="25"?> 1 Künstliche Wesen - Roboter in der Literatur 25 Adam bewertet dies moralisch genau gegenteilig - „‘Miranda, his crime is far greater than yours. Nevertheless. You said he raped you. He didn’t, but he went to prison. You lied to the court.‘“ (275) - und benennt es explizit als bloßen Akt der Rache: „‘One of the darkest corners is revenge. It’s a crude impulse. A culture of revenge leads to private misery, bloodshed, anarchy, social breakdown. Love is a pure light and that’s what I want to see you by. Revenge has no place in our love.’” (276) Er ist sogar enttäuscht, als er erkennt, dass Miranda diese ür ihn doch so logisch-einfache Moral nicht nachvollziehen kann: „’I’m disappointed. I thought you’d appreciate the logic of this. I want you to confront your actions and accept what the law decides. When you do, I promise you, you’ll feel great relief.’” (276) Hier wird die moralische Balance zwischen der Bewertung von Wahrheit und Lüge diskursiv-narrativ ausgelotet. 7 Ist Wahrheit immer ein absoluter Wert an sich oder braucht eine Gesellschaft eine Toleranz gegenüber Lügen, um zu funktionieren? Mirandas, menschliche, Position ist klar: „But truth isn’t always everything.“ (277) Wohingegen auch Adam eine klare, maschinenlogische, Vorstellung hat: „‘That’s an extraordinary thing to say. Of course, truth is everything.‘“ (277) Somit stellen Miranda und Adam die Repräsentation des Widerstreits zweier konkurrierender Werte dar - Wahrheit versus Gerechtigkeit. Als Charlie und Miranda erkennen, dass Adams moralische Prinzipien absolut und unumstößlich sind, sehen sie keinen anderen Ausweg, als ihn zu töten. Da Charlie ihn als seinen Besitz ansieht, empfindet er auch das Recht, ihn als Sache zu zerstören, doch der Akt des Zerstörens wird als verstörendes Erlebnis, das an Töten erinnert, geschildert: „It was a two-handed blow at full force to the top of his head. The sound was not of hard plastic cracking or of metal, but the muffled thud, as of bone. Miranda let out a cry of horror, and stood.” (278) Noch während seines Sterbens setzt er beide in Kenntnis, dass er auch daür vorgesorgt und sein Bewusstsein an andere Stelle als Kopie gespeichert habe. Im Gegensatz zu Charlies Brutalität rezitiert er noch ein letztes Gedicht, bevor sein Ableben poetisch geschildert wird: „Then the pale blue eyes with their tiny black rods turned milky green, his hands curled by jerks into fists and, with a smooth humming sound, he lowered his head onto the table.“ (280) Adam bleibt der moralisch überlegene Part in ihrer Konstellation und hat die Verkommenheit und Uneinsichtigkeit seiner Freunde und Partner vorhergesehen. Diese verspüren Trauer wie um einen menschlichen Verlust und versuchen sich selbst zu trösten, erkennen jedoch in eben diesem Moment Adams Emotionen an: „We told ourselves that this was, after all, a machine; its consciousness was an illusion; it had betrayed us with inhuman logic. But we missed him. We agreed that he loved us.“ (283) Durch die alternierende Verwendung von „it” und „he” wird erneut deutlich, wie die Narration bis zum Schluss zwischen menschlicher und maschineller Sicht auf Adam oszilliert. Adam ührt Charlie und Miranda deren eigene, egoistische moralische Perspektive vor Augen und zwingt sie, in philosophischen Maßstäben, ihr eigenes Handeln zu reflektieren. Als sie jedoch nicht bereit sind, Verantwortung ür ihr Handeln zu übernehmen, begehen sie einen „Mord“, denn so bezeichnet es Turing schlussendlich, wenn man Adams Bewusstsein akzeptiert (vgl. 304ff.). 7 Zum Verhältnis von Wahrheit und Lüge in der Literatur, auch in ästhetischer Sicht, siehe Brandstetter 2019. <?page no="26"?> 26 Nicole Brandstetter Menschen erscheinen unbelehrbar, abgestumpft und egoistisch, wohingegen Roboter eine Perspektive ür eine bessere Welt eröffnen, nicht gegen oder ohne Menschen, sondern mit ihnen. Die Frage, die offenbleibt, ist, ob die Menschheit, ob Gesellschaften mit absoluten moralischen Kategorien koexistieren können. 1.5 Literatur Asimov, Isaac 1976. The Bicentennial Man and Other Stories. London: Orion Books. Beyse, Jochen 2017. Fremd wie das Licht in den Träumen der Menschen. Zürich: diaphanes. Bostrom, Nick 2018. Superintelligenz. Szenarien einer kommenden Revolution. 3. Aufl. Berlin: Suhrkamp. Brandstetter, Nicole 2019. The Concepts of Truth and Fake in Literature, in Dobler, Ralph-Miklas & Ittstein, Daniel Jan (Hrsg.). Fake interdisziplinär. München: UVK Verlag, 37-54. Capek, Karel 2016. Karel Capeks R.U.R. - Rossum Universal Robots: ins Deutsche übersetzt und aktualisiert von Yehuda Shenef. Books on Demand. Descartes, René 1637. Abhandlungen über die Methode, richtig zu denken und Wahrheit in den Wissenschaften zu suchen. Fünfter Abschnitt. http: / / www.zeno.org/ nid/ 20009160981 [Stand 2020-07-15] Hoffmann, E.T.A. 2015. Der Sandmann. Hrsgg. v. Max Kämper. Ditzingen: Reclam. Kümmel, Anja 2017. Monolog eines Haushaltsroboters. Zeit Online. https: / / www.zeit.de/ kultur/ literatur/ 2017-06/ kuenstliche-intelligenz-jochenbeyse-fremd-wie-das-licht-in-den-traeumen-der-menschen-roman/ komplettansicht [Stand 2020-07-15] Meyrink, Gustav 2006. Der Golem. Köln: Anaconda. McEwan, Ian 2019. Machines Like Me and People Like You. London: Jonathan Cape. Radisch, Iris 2019. Hier wird der neue Mensch programmiert. Die Zeit 22. https: / / www.zeit.de/ 2019/ 22/ maschinen-wie-ich-ian-mcewan-computer-roman-rezension [Stand 2020-07-15] Ramge, Thomas 2018. Mensch und Maschine. Wie Künstliche Intelligenz und Roboter unser Leben verändern. 2. Aufl. Ditzingen: Reclam. Raml, Monika Margarethe 2010. Der ‚homo artificialis‘ als künstlerischer Schöpfer und künstliches Geschöpf. Gentechnologie in Literatur und Leben. Würzburg: Königshausen & Neumann. Shelley, Mary 2010. Frankenstein. London: Collins Classics. Tabbert, Thomas T. 2004. Menschmaschinengötter. Künstliche Menschen in Literatur und Technik. Fallstudien einer Artifizialanthropologie. Hamburg: Artislife Press. Wolfangel, Eva 2020. Er baut die Zukunft nach. Die Zeit 5, 32. Zwierlein, Eduard 2001. Existenz und Vernunft. Studien zu Pascal, Descartes und Nietzsche. Würzburg: Königshausen & Neumann. <?page no="27"?> 2 Mensch und Maschine Ralph-Miklas Dobler 2.1 Intelligenz Bei der Betrachtung dessen, was als Künstliche Intelligenz (KI) bezeichnet wird, bringt der Begriff „Intelligenz“ gewisse Schwierigkeiten mit sich (vgl. Funke 2009). Intelligenz gilt, oder galt zumindest, als ein Privileg des Menschen, weshalb Künstliche Intelligenz schnell in den Verdacht gerät, künstliche Menschen erschaffen zu wollen. Jedoch wird man kaum bestreiten, dass auch Tiere intelligent sein können. Tatsächlich handelt es sich bei „Künstlicher Intelligenz“ um eine Bezeichnung, die nicht genau und schon gar nicht wissenschaftlich eindeutig definiert ist, was den Begriff eigentlich unbrauchbar macht. Selbst ausgewiesene Spezialist*innen stellen die Verwendung in Frage und es steht auf einem anderen Blatt, warum die Bezeichnung trotzdem weiterhin benutzt wird (vgl. Dignum 2019, 9). Erstmals wurde der Begriff 1955 in einem Antrag ür das Dartmouth Summer Research Project (Dartmouth Conference) gebraucht, in dem es hieß: „For the present purpose the artificial intelligence problem is taken to be that of making a machine behave in ways that would be called intelligent if a human were so behaving“ (McCarthy u.a. 1955). Obwohl der “present purpose” sich in über sechzig Jahren geändert haben dürfte, ist die Definition noch auffallend aktuell. „Künstliche Intelligenz“ hat ein großes Potential zu Emotionalisierung und Provokation, vor allem dann, wenn der Narrativ aufrechterhalten wird, dass immer bessere Programme die Maschinen beständig so vervollkommnen, dass diese irgendwann den Menschen ersetzen könnten. Die Angst vor dem Verlust von Kontrolle und Entscheidungsmacht wiegt schwer. Dabei würde jede Risikoanalyse deutlich machen, dass zahlreiche bereits jetzt verwendete Programme, die nicht einmal lernähig sind, auch ohne nur annährend Fähigkeiten des Menschen zu imitieren, bereits lebensgeährlich sein können. Und obwohl die Furcht vor Künstlicher Intelligenz gerne mit dem Bild humanoider Roboter verbunden wird, müssen Maschinen keineswegs mit menschlichem Aussehen ausgestattet sein, um „denken“ und „lernen“ zu können. Beide Fähigkeiten umschreiben Merkmale von Intelligenz, weshalb sogenannte thinking machines und sogenannte deep-learning-Systeme feste Bestandteile der aktuellen KI-Diskussion sind. Man kommt der Besonderheit von Künstlicher Intelligenz wohl am nächsten, wenn man in ihr Programme und Maschinen erkennt, die wahrnehmen und das Wahrgenommene verarbeiten können (vgl. Grimm u.a. 2019, 154). Sind die Programme selbstlernend, so zielt das Wahrnehmen und Verarbeiten darauf ab, die kognitive Leistung autonom zu verbessern. Dabei ist entscheidend, dass „Wahrnehmung“ auch die Analyse von Zahlenwerten sein kann und nicht analog zu den sechs menschlichen Sinnen zu denken ist (vgl. Nassehi 2019, 229-233). „Kognitive Systeme“ bzw. „maschinelles Lernen“ sind daher eine bessere Bezeichnung ür das, was als „Künstliche Intelligenz“ allzu oft polarisiert (vgl. Ramge 2018, 18). Virginia Dignum (2019) hat als einfachste Definition vorgeschlagen: „a system that processes information in order to do something purposeful“. Die Datenethikkommission der Bundesregierung versteht unter Künstlicher <?page no="28"?> 28 Ralph-Miklas Dobler Intelligenz diejenigen Technologien, die aus großen Datensätzen in einem „komplexen und die menschliche Intelligenz gleichsam nachahmenden“ Verarbeitungsprozess ein Ergebnis ermitteln (Grimm u.a. 2019, 154). Dennoch besitzen kognitive Systeme Eigenschaften, die lange Zeit den Menschen als hochentwickeltes Lebewesen ausgezeichnet haben. Diese Übereinstimmung kann die menschliche Identität zutiefst verunsichern und die Grenzen zwischen Maschine bzw. Programm und Mensch verwischen. Denn wenn eine Maschine wie ein Mensch denkt und lernt, dann könnte man annehmen, dass unter einer umgekehrten Perspektive ein Mensch wie eine Maschine denkt und lernt. Solche Analogieschlüsse sind heute salonähig und sogar in der Wissenschaft gebräuchlich. Sind wir also wirklich alle nur Maschinen und funktioniert unser Gehirn analog zu programmierbaren Algorithmen, weshalb der Aufstieg künstlicher Intelligenz, die den Menschen einst überflügeln wird, letztlich eine Frage der potentiell wachsenden Rechnerleistung sowie ist? Auf diese Fragen hören wir heute oft ein eindeutiges „Ja“ und diese Annahme ist auf das engste mit der Entwicklung von KI verknüpft. Tatsächlich haben die Neurowissenschaften in der 1. Hälfte des 20. Jahrhunderts die Konnektivität, d.h. die Verdrahtung zwischen einzelnen Synapsen durch Nervenbahnen, als Grundlage ür Intelligenz propagiert. Und diese biologischen Netzwerke, bei denen Neuronen nach dem Alles-oder-Nichts-Prinzip feuern oder nicht feuern, lassen sich mittels elektronischer Halbleiter simulieren und operationalisieren. Die kybernetische Bestimmung von Intelligenz ührte spätestens seit den 50er Jahren dazu, dass man annahm, mittels Rechenoperationen eine Künstliche Intelligenz erzeugen zu können. Folglich wurden menschliche Kategorien in den Diskurs über die intelligenten Maschinen aufgenommen sowie menschliche Intelligenz oft daran gemessen, wie schnell abstrakte Denkprozesse durchgeührt werden konnten. Letztere sind eigentlich „Arbeitswege, die [wiederum] der Logik von Maschinen entsprechen“ (Glanz 2019, 48). Die Erklärung von menschlicher Intelligenz als Leistungserfolg eines neuronalen Netzwerkes hat die Entwicklung von Künstlichen Neuronalen Netzwerken (KNN) vorangetrieben, die in den letzten Jahren zu elementaren Grundlagen des KI-Fortschritts geworden sind (vgl. Apprich 2019, 20). Erst durch mehrschichtige KNNs wird das deep learning möglich, mit dem schwierige informatische Probleme wie Objekterkennung in Bildern oder Transkription gesprochener Sprache automatisiert werden können. Wie lange es noch dauern wird, bis man die zwischen 100 Billionen und 1 Billiarde angesetzten Synapsen eines menschlichen Gehirns imitiert hat, ist schwer abzuschätzen. Alan Turing dachte 1954 noch, der erste englischsprechende Roboter sei erst im Jahr 2000 einsetzbar. Jedoch zeigt eine andere Perspektive auf das menschliche Gehirn, wie positivistisch der Vergleich von Maschinen und Menschen ist. Denn tatsächlich ist es so, dass jeder Mensch biologisch gleich viele Synapsen hat, also grundsätzlich alle gleich intelligent sein müssten. Man kann diese Gleichheit allerdings nicht durch Trainings erreichen. Wissenschaften außerhalb der MINT- Gemeinschaft sind daher kritischer. Vor allem die Psychologie kritisiert seit längerem, dass das Neuronen-Modell eine Rationalität erzeugt, die nicht mehr auf Vernunft und Verstand basiert (vgl. Apprich 2019, 21; Dignum 2019, 10). Zudem werden Kontingenzen von Widersprüchen, Unterschieden und Abweichungen, nicht erfasst. Wenn also im digitalen Zahlencode sowohl 0 als auch 1 möglich ist, <?page no="29"?> 2 Mensch und Maschine 29 wird es schwierig, die Information zu verarbeiten. Auch aus Sicht der Philosophie spielt Intuition, unbewusstes Handeln und Abwägen eine entscheidende Rolle bei der menschlichen Intelligenz (vgl. Dreyfuss u.a. 2000). Francois Chollet (2019) hat wohl zu Recht getwittert: „A fundamental trend in AI is that researchers conceptualize human mind (and intelligence in general) by using as mental models the current technological tools they have available. This is implicit and insidious.“ Wir setzen unsere menschliche Intelligenz in Relation zu Maschinen und Anthropomorphisieren die Maschinen, indem wir sie als intelligent bezeichnen. Viel wichtiger aber als die Frage nach dem Verhältnis von menschlicher und technischer Intelligenz ist jedoch, was die seit Jahrzehnten andauernde Diskussion weitgehend unbemerkt und unreflektiert mit sich gebracht hat: Wenn man Denken als materiell lösbares Problem der Elektrotechnik definiert, wird nicht mehr danach gefragt, was Intelligenz ist, sondern vielmehr danach, wie Intelligenz funktioniert. Es ist nicht zu bezweifeln, dass die Weiterentwicklung der als KI bezeichneten Technologie der Menschheit sehr viel Gutes bescheren wird, insbesondere, wenn man sie zum Wohl des gemeinschaftlichen Zusammenlebens einsetzt. Allerdings ist Vorsicht geboten, wenn angenommen und propagiert wird, denkende Maschinen könnten menschengleich werden und den Menschen ersetzen. Denn entscheidend ist nicht, wie schnell Transhumanismus und Singularität unser Leben erleichtern oder gar beenden. Vielmehr besteht die Gefahr, dass wir aufgrund der Einschätzung menschlichen Handelns und Denkens unter den Bedingungen technologisch generierter Künstlicher Intelligenz vorschnell davon ausgehen, der Mensch sei wie eine Maschine beständig zu optimieren oder gar durch eine Maschine zu ersetzen. Diese Kritik geht bekanntlich bis auf Karl Marx zurück und hängt auf das Engste mit der Geschichte der Industrialisierung und der Technisierung zusammen (vgl. Althusser 2015). Beginnt man jetzt jedoch, innerhalb des gesellschaftlichen Zusammenlebens und der zwischenmenschlichen Beziehungen davon auszugehen, dass der Mensch einer Maschine ähnelt und folglich durch diese ersetzt werden kann, so wird ein Menschenbild infrage gestellt, das über Jahrtausende entstanden ist (vgl. Grimm u.a. 2019, 153). Die Tatsache, dass der Mensch überhaupt als Individuum zum Denken ähig ist und folglich eine Identität besitzt, ist eine Erkenntnis des Humanismus. Dass Menschen denken, lernen und nach den daraus resultierenden Maximen handeln können, hat viel mit Freiheit, Selbstbestimmung und Vernunft zu tun, und das gesamte Konzept ist eine Vorstellung der Aufklärung des 18. Jahrhunderts. Nach über 2000 Jahren war damit wieder ein Menschheitsideal etabliert, das die antike Philosophie bereits entwickelt hatte und das die Grundlage ür unser heutiges demokratisches Zusammenleben bildet. Eine Leitidee der Aufklärung ist bis heute auch die vernunftbasierte Autonomie des Menschen, die ihm erlaubt, über sein eigenes Leben zu bestimmen (vgl. Grimm u.a. 2019, 164-165). Wenn Künstliche Intelligenz tatsächlich wie ein Mensch wahrnehmen und denken kann, so müssen wir uns fragen, ob Künstliche Intelligenz frei ist, ob sie Menschenrechte erhalten sollte, ob sie vernünftig ist, ob sie intuitiv reagieren und ob sie Geühle entwickeln kann. Wir würden das, was den Menschen ausmacht, nicht wie in zahlreichen Science-Fiction- Romanen bei einer lange ehrürchtig erwarteten extraterrestrischen Lebensform wiederfinden, sondern in einer Technologie. Genau genommen in einer denkenden und lernenden Technologie, die letztlich auf Rechenoperationen basiert, deren Geschwindigkeit und Anzahl tatsächlich ür den Menschen kaum vorstellbar oder <?page no="30"?> 30 Ralph-Miklas Dobler nachvollziehbar sind und die bei Entscheidungsfindungen zu Modellen der Stochastik und zur Analogiebildung greift. So muss etwa bei der Spracherkennung entschieden werden, was Sprache ist und was Umgebungsgeräusch, und bei der Bilderkennung, um welches Objekt es sich handelt. Beide Fähigkeiten sind besonders wichtig, um etwas zu tun, worin es die Menschheit zu wahrer Perfektion gebracht hat, nämlich zu kommunizieren. 2.2 Kommunikation Alan Turing versuchte mit seinem später sogenannten Turing-Test bereits 1950 zu überprüfen, ob Maschinen denken können. Verkürzt dargestellt, geht es dabei darum, dass ein Mensch, der mit zwei Gesprächspartner*innen schriftlich kommuniziert, ohne sie zu sehen, entscheiden muss, wer von seinen Gegenübern Mensch und wer Maschine ist. Ausgangspunkt ür den Test war ein Spiel, bei dem ein Teilnehmer erraten musste, wer von zwei Gegenübern Mann und Frau ist, wobei Turing den Mann durch den Computer ersetzt hat, was bereits zu spezifischen Kommentaren der Genderforschung geührt hat (vgl. Apprich 2019, 22). Im gegebenen Kontext wichtiger ist die Frage nach dem Denkvermögen von Maschinen: „Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, can machines think? ” (Turing, zit. nach Apprich 2019, 22). Turing ersetzt hier die Frage nach dem Denkvermögen durch die Fähigkeit, das „menschliche Gegenüber zu täuschen“ (Dotzler 2019, 22). Grundvoraussetzung ür diese Sinnestäuschung ist die Übersetzung von Maschinenerfahrung in Kommunikationserfahrung. Noch immer gilt dabei das, was der Philosoph Georg Wilhelm Hegel bereits vor über 200 Jahren in ganz anderen Kontexten feststellte: „Die Intelligenz äußert sich unmittelbar und unbedingt durch Sprechen“ (Hegel, zit. nach Dotzler 2019, 25). Künstliche Intelligenz hat viel mit Täuschen zu tun und man sollte außerordentlich wachsam und kritisch sein, wenn eine Maschine mit scheinbar humanen Eigenschaften reagiert. Grundsätzlich besteht die Gefahr, dass gar nicht erkannt wird, ob man mit einer Maschine kommuniziert oder nicht (vgl. Grimm u.a. 2019, 156). Dies um so mehr, als der Mensch offenbar zu sprechenden bzw. Laute von sich gebenden Gegenständen schnell eine emotionale Beziehung aufbaut. Ein Vorgänger der virtuellen Assistenten Alexa, Siri und Cortana war das Tamagochi, das 1997 Eltern an den Rand des Wahnsinns brachte, weil Kinder eine tiefe emotionale Bindung zu dem piependen, elektronischen Küken aufbauten und es auch nachts üttern wollten. In Japan ist seit einigen Jahren das Hugvie, ein Kommunikationskuschelkissen, in Verwendung. Die gesichtslosen Wesen mit Kopf und Armen sind mit Sensoren, Mikrofonen, Lautsprechern und Motoren ausgestattet und schmiegen sich an die Benutzer*innen. In Europa ist seit einigen Jahren Paro in Gebrauch, eine Roboter-Robbe, die ebenfalls Laute von sich gibt und auf Berührung und Sprache reagiert. Alexa (Amazon), Siri (Apple) und Cortana (Microsoft) sind Frauenstimmen, die unermüdlich zur Verügung stehen und die Menschen nicht durch ihr Aussehen, sondern alleine mit ihrer Stimme an sich binden. Tatsächlich resultiert der Gebrauch einer weiblichen Stimme auf der Tatsache, dass diese bei allen Geschlechtern akzeptiert ist. Das heißt, um eine breite Akzeptanz in der Gesellschaft zu finden, ist es sinnvoll, Maschinen weiblich konnotierte Stereotypen zu geben (vgl. Sontopski 2019, 71). Dass so bei digitalen <?page no="31"?> 2 Mensch und Maschine 31 Sprachassistent*innen ein längst überkommenes Rollenverständnis erhalten bleibt, nämlich das der hilfreichen, ürsorglichen und allzeit bereiten Frau, wird bislang wenig thematisiert. Man könnte fast meinen, je mehr eine Künstliche Intelligenz menschengleich in eine kommunikative Situation einsteigen soll, umso weiblicher muss sie sein. Jedenfalls waren die transhumanen Helden Darth Vader, Terminator und Robocop allesamt Männer, wohingegen während der gegenwärtigen KI-Diskussion die cineastischen Repräsentationen der Technologie Ava (Ex Machina), Samantha (Her) und Dolores (Westworld) sind (vgl. Sontopski 2019, 67). Auch der wohl berühmteste humanoide Roboter Sophia ist eine Frau. Nicht nur das, man könnte durchaus nachweisen, dass sie voll und ganz dem male gaze - dem männlich-heterosexuellen Blick auf Frauen - entspricht. Künstlicher Intelligenz wird also bislang in vielen Anwendungen auch eine „radikal heteronormativ“ gedachte Weiblichkeit zugeschrieben (Sontopski 2019, 71). Übrigens wird Sophia in der Regel ohne Haare gezeigt, um ganz deutlich zu machen, dass es sich nicht um einen Menschen handelt. Bereits seit 1970 ist die These bekannt, dass Personen nicht mehr fasziniert, sondern entsetzt reagieren, wenn sie bemerken, dass ein vermeintlicher Mensch ein humanoider Roboter ist - wenn sie also durch perfekte Imitation getäuscht werden (vgl. Mori 1970; Glanz 2019, 56-59; Wennerscheid 2019, 135-139). Grundlegend ür jeden Versuch, diese Barriere zu überwinden und damit die Akzeptanz von Künstlicher Intelligenz zu ördern, ist die Erklärung dieses starken Affekts. Er beruht auf dem alten Prinzip von Täuschung und Ent-Täuschung, das aus der Kunst bekannt ist, wo Bilder so gemalt wurden, dass Betrachter*innen im ersten Moment glaubten, das Dargestellte sei Teil der Realität. Im Fall der Künstlichen Intelligenz ührt die Ent-Täuschung darüber, dass das Gegenüber kein menschliches Wesen ist, zu Ablehnung. Allerdings ist fraglich, ob das sogenannte „uncanny valley“ tatsächlich langfristig ein Problem bleiben wird, nicht zuletzt, da es kulturell begründet ist (vgl. Singer 2009, 305; Ramge 2018, 20). Der Künstler Louis-Philippe Demers, der mit seinem Werk The Blind Robot 2013 die Begegnung von Mensch und Maschine thematisiert hat, bemerkte wahrscheinlich nicht zu Unrecht, dass die Ablehnung und der Schrecken schnell in Faszination und Bewunderung umschlagen, deren Folge dann die Akzeptanz ist (vgl. Wennerscheid 2019, 140-143). Dieselbe absichtlich provozierte Affektfolge ist aus der Kunst bekannt, wo sie zum Ruhm der Künstler*innen ührt. Ziel der absichtlichen Vermenschlichung von verschiedenen Formen Künstlicher Intelligenz ist es, gesellschaftliche Akzeptanz zu ördern und vor allem die Geühle Beklemmung und Angst bei den Benutzer*innen zu unterdrücken. Tatsächlich lässt sich der Mensch alleine durch die Tatsache, dass das Gegenüber sichtbar oder hörbar menschlich und damit gleich erscheint, sehr schnell emotional ansprechen, verühren und zu respektvollem Verhalten bewegen. Hinzu kommt, dass die Perfektionierung der Sprachassistent*innen bzw. der virtual assistants oder bots in der strategischen Entwicklung der Digitalisierung einen besonderen Stellenwert einnimmt, da in Zukunft die meisten Dienstleistungen von Künstlichen Intelligenzen auf Zuruf bzw. aus sprachlichen Kommunikationsstrukturen heraus ausgeührt werden (vgl. Ramge 2018, 56). Vieles an dem, was eine menschenähnliche, künstlich intelligente Maschine sein soll, ist also medialer Schein, bei dem die Nutzer*innen seitens der Technologie in einen Dialog verstrickt werden (vgl. Dotzler 2019, 23). Tatsächlich definierte John <?page no="32"?> 32 Ralph-Miklas Dobler McCarthy bereits 1955: „The study of artificial intelligence is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it“ (Klimczak u.a. 2019, 39). Künstliche Intelligenz ist demzufolge nicht eine Imitation von menschlicher Intelligenz, sondern die Simulation von menschlichen Fähigkeiten. Dies gilt auch ür die Empathie, die zahlreiche KI-Systeme dem Menschen gegenüber äußern und die eigentlich nur eine Vortäuschung ist (vgl. Nida-Rümelin & Weidenfeld 2018, 32-42). Diese Scheinhaftigkeit wird in vielen Bereichen wie etwa der Kundenbetreuung und der Pflege ür den schnellen Aufbau einer emotionalen Beziehung bereits umfangreich eingesetzt, was zum irrationalen Anschein ührt, das digitale Gegenüber habe ein Bewusstsein und sei denk- ähig. Der Philosoph Jaques Lacan hat bereits 1980 davor gewarnt, „dass es nicht einfach sein wird, ab einem bestimmten Komplexitätsgrad zu bestimmen, ob eine Technologie eine Form von mentaler Repräsentation entwickelt oder nicht. Unsere anthropomorphisierende Sichtweise könnte sehr schnell wenigstens zu dem Eindruck ühren, wir hätten es mit ühlenden Wesen zu tun“ (Lacan zit. nach Dotzler 2019, 23). Zwischen Maschine und Mensch entsteht eine Intersubjektivität, bei der einer Künstlichen Intelligenz das zugeschrieben wird, was die Benutzer*innen von sich selbst denken. Die Wahrnehmung von Künstlicher Intelligenz ist daher auch ein Phänomen des Konstruktivismus. So oder so bleibt, dass menschliche und maschinelle Problemlösungen die Interaktion mit der Umwelt voraussetzen (vgl. Baecker 2018, 17.). Menschliches Lernen erfolgt durch Ausprobieren und durch Rückkopplung in verschiedenen Gelegenheiten und mit unterschiedlichen Absichten. Kommunikation ist folglich fundamental, weshalb Künstliche Intelligenz zunehmend ein bedeutendes Forschungsgebiet der Kommunikations- und Medienwissenschaften wird. Dass Massenmedien durch ihre Verbreitung von Nachrichten und Informationen kommunizieren, ist nicht zu bezweifeln, aber kommunizieren auch Algorithmen, wenn sie maschinell lernen (vgl. Baecker 2018, 18)? 2.3 Vernetzung Wenn heute die Angst vorherrscht, dass es Maschinen dem Menschen gleichtun und ihn sogar irgendwann übertreffen könnten, dann ist die technologische Grundlage daür der digitale Wandel hin zu einer kompletten Vernetzung aller Lebensbereiche. Neben der gesteigerten Rechnerleistung, verbesserten Algorithmen und den Entwicklungen in der Sensortechnologie sind es vor allem die Datenmengen, die wir alle täglich durch den Gebrauch von im Internet miteinander verbundenen Geräten anwachsen lassen, auf deren Grundlage das netzbasierte Lernen und Wissen von KI-Systemen möglich ist (vgl. Dignum 2019, 3; Grimm u.a. 2019, 153). Die Spuren, die jede*r im Netz hinterlässt, sind aber auch die Grenzen dessen, was sich Künstliche Intelligenz in Trainings und autonomen Lernverfahren aneignen kann. Nur was an Daten vorliegt, können die Algorithmen verarbeiten. Da die Systeme nicht nur „geüttert“ werden, sondern selbständig „essen“, können sie auch Falsches zu sich nehmen, wodurch dann eine Art „Magenverstimmungen“ beziehungsweise falscher Output entsteht. Die Maschinen üben mit Datensätzen, wodurch eine Art Vergleichswissen entsteht, das dann praktisch angewendet wird. Ohne menschliche Kontrolle sammeln sie während der Anwendung weitere Informationen und erstellen Verknüpfungen. Die daraus resultierenden <?page no="33"?> 2 Mensch und Maschine 33 Fähigkeiten sind beeindruckend, zugleich werden jedoch die Probleme augenällig, wenn das Bewerbermanagement aufgrund von vorgefundenen Stereotypen Männer bevorzugt, oder bei der Gesichtserkennung wegen zu vielen Trainingsdaten von weißen Männern schwarze Frauen nicht mehr erkannt werden (vgl. Sontopski 2019, 67). KI-Software ist immer so schlau wie die Daten, die ihr zur Verügung stehen, und wie die Qualität des Algorithmus, der die Daten auswertet. Hier liegt neben dem Programmieren die größte Verantwortung bei der Anwendung. Auch wenn gerne emphatisch davon gesprochen wird, dass das gesamte Wissen der Menschheit im Internet zu finden ist, darf nicht vergessen werden, dass die Trainingsdaten der KI überwiegend Informationen aus dem WorldWideWeb sind. Was nicht digitalisiert ist, wird nicht wahrgenommen. Allerdings ist die vernetzte Struktur von gegenwärtigen KI-Anwendungen auch der größte Unterschied zu den einzelnen, denkenden Individuen, die in der Literatur und im Film vorgestellt werden und so die Wahrnehmung von Künstlicher Intelligenz zutiefst beeinflussen. Frankensteins Monster, Asimovs Multivac, HAL aus 2001 Odyssee im Weltall oder Ava aus Ex Machina sind nicht Bestandteile eines kaum noch zu überschauenden Netzwerks wie Siri, Alexa, Cortana, Google Assistant bzw. wie Google Brain, das keineswegs ein Gehirn ist, sondern eine globale Verbindung von tausenden Computern, auf deren Grundlage etwas entsteht, was wir als Künstliche Intelligenz bezeichnen (vgl. Dotzler 2019, 24). George Dyson (2014) hat daher nicht zu Unrecht die Google-DeepMind-Architektur als „Ansammlung vieler Turingmaschinen“ aufgefasst (11). Das Interesse liegt nun aber nicht mehr auf der Frage, ob Maschinen denken können, sondern auf der Perfektionierung von deep learning, reinforcement learning und multi-agent systems. Dennoch sind die Fortschritte dieser Netzwerke so beeindruckend, weil sie immer tiefer in Bereiche vordringen, die zuvor als sichere Refugien menschlicher Intelligenz galten. Ihre Aufgabe ist es aktuell in erster Linie, eine ständig anwachsende Menge an Daten zu analysieren, Muster zu erkennen und anhand dieser Entscheidungen zu treffen. Zwar kann dies auf unterschiedlichen Wegen erfolgen, allerdings besitzen gegenwärtig nur die Künstlichen Neuronalen Netze die nötige Leistungsähigkeit (vgl. Klimczak 2019, 40). Das größte Problem hierbei ist, dass der Entscheidungsprozess oft nicht nachvollziehbar ist, was letztlich das Rechtssystem aushebelt. In der 2016 in Kraft getretenen Datenschutz-Grundverordnung heißt es daher: „Die betroffene Person sollte das Recht haben, keiner Entscheidung […] zur Bewertung von sie betreffenden persönlichen Aspekten unterworfen zu werden, die ausschließlich auf einer automatisierten Verarbeitung beruht […]“ (DS-GVO 1, 70). Zudem beruht - wie schon gesagt - die Fähigkeit zum deep learning auf der Einbindung der Nutzer*innen, welche die Trainings- und Verifikationsdaten direkt oder indirekt zur Verügung stellen. Wenn die digital vernetzte Bevölkerung auf das Smartphone verzichten, wieder beim Einzelhandel kaufen und das Wissen aus analogen Büchern beziehen würde, bräuchte sie sich keine Sorgen um Transhumanismus und Singularität zu machen. Die Datenmengen, die der Künstlichen Intelligenz als Zukunftstechnologie zum Durchbruch verholfen haben, beruhen nicht zuletzt auf den Fortschritten der human-computer-interaction und des user experience design (vgl. Mühlhoff 2019, 57). Wir trainieren ständig kognitive und <?page no="34"?> 34 Ralph-Miklas Dobler Aus dem Gesagten geht hervor, dass das Erkennen und Wahrnehmen - die Kognition - der Künstlichen Intelligenz genau genommen lediglich ein Wiedererkennen ist. Dinge, die bereits gesehen wurden und in einem Datensatz aus 0 und 1 abgespeichert sind, werden entweder direkt identifiziert oder aber die Identifikation wird nach Wahrscheinlichkeit aus dem Bekannten erschlossen und durch ein Feedback bestätigt. Unbestritten ist hierbei, dass die Selbstoptimierung der Systeme immer perfekter und die richtige Reaktion immer wahrscheinlicher werden (vgl. Nassehi 2019, 228). Wahre Erkenntnis von bislang unbekannten und undenkbaren Dingen kann Künstliche Intelligenz aber nicht leisten und zumindest das aktuelle deep learning-Verfahren wird dies auch niemals können. Vielleicht rührt die große Faszination ür die Leistung Künstlicher Intelligenz in der Gegenwart auch daher, dass Wissen und Erkenntnis nicht mehr im Vordergrund von Bildung und Lehre stehen, während Können und Meinung an Bedeutung gewinnen. selbstlernende Systeme, teilweise direkt und auf höchstem Niveau. Eines der bekanntesten Beispiele ist das Captcha (Completely Automated Public Turing test to tell Computers and Humans Apart), mit dem User bei Aktionen im Internet vordergründig beweisen sollen, dass sie keine Maschinen sind. Derjenige, der dies überprüft, ist jedoch kein Mensch, sondern ein Programm, das aus den Antworten beständig lernt. Da die Rechenleistung heute kein Hindernis mehr ist, nicht zuletzt, da sie als Dienstleistung gemietet werden kann, sind (Trainings-)Daten ür die Weiterentwicklung von Künstlicher Intelligenz das A und O. Dementsprechend ist die Marktstrategie neuer KI-Produkte häufig nicht an finanziellem Umsatz durch Verkauf orientiert, sondern am Sammeln von möglichst großen Datenmengen. Dies hat eine soziotechnische Entwicklung zur Folge, die sich unbemerkt vollzieht und doch elementar ist: Denn der einzelne PC, der ja eigentlich ein „persönlicher Rechner“ ist, wird abgelöst durch eine andauernde Verflechtung von Programmen und menschlicher Lebenswelt (vgl. Kaerlein 2016; vgl. Mühlhoff 2019, 60-61). Dazu gehören nicht nur das Captcha oder die Suche bei Google, bei der die Aktionen der Nutzer*innen genauestens an die Google-KI zurückgemeldet werden, sondern auch die Sozialen Medien. Facebook trainiert seine Gesichtserkennungs-KI mit dem tagging von Fotos durch die User*innen (vgl. Mühlhoff 2019, 62). Einen ähnlichen Datenpool baut auch Instagram auf, und die Benutzer*innen, die dort andere Menschen auf ihren Fotografien namentlich kennzeichnen, können sich eigentlich nicht prinzipiell gegen die Überwachung durch Gesichtserkennung aussprechen. Seit 2017 erhalten Benutzer*innen von Facebook eine Nachricht, wenn das Programm der Meinung ist, ihn oder sie auf einem hochgeladenen Foto erkannt zu haben. Dies geschieht auch ohne dass die Aufnahme getagged ist, das heißt Facebook lässt ununterbrochen alle hochgeladenen Fotografien automatisch miteinander abgleichen und nach Übereinstimmungen suchen. Durch Zustimmung oder Ablehnung trainieren die Benutzer*innen die Fähigkeiten der Künstlichen Intelligenz. Verkauft wird das Ganze als bessere Kontrolle über die Privatsphäre, tatsächlich handelt es sich um eine der berühmten Feedbackschleifen (Mühlhoff 2019, 62). Und schließlich hat Chinas Social Credit System nicht nur eine disziplinierende Wirkung durch Herrschaftswissen. Im Gegenteil, die umfangreich gesammelten Daten werden vor allem benutzt, um selbstlernende System zu üttern. <?page no="35"?> 2 Mensch und Maschine 35 2.4 Tatsächliche Probleme der Mensch-Maschine-Relation Die Tatsache, dass aktuell selbst die wissenschaftliche Diskussion von der Frage des Transhumanismus und der Singularität bestimmt wird, also der Angst, eines Tages von Künstlichen Intelligenzen bekämpft, abgeschafft oder einfach ersetzt zu werden, demonstriert eindrücklich die Wirkung von Literatur und Film (vgl. Brockmann 2017, vgl. Grimm u.a., 161-163). Die dort erfundenen Narrative eines Animismus, also der Möglichkeit, unbelebtes Material zum Leben zu erwecken, sind so alt wie die Menschheit selbst (vgl. Nida-Rümelin & Weidenfeld 2018, 19). Im Christentum wird der Mensch selbst von Gott aus einem Stück Lehm geformt, dem mittels des göttlichen Atems Leben eingehaucht wird. Aktuelle Berichterstattungen über Künstliche Intelligenz verleiten allzu oft dazu, „Visionen über das ob und wann der Singularität anzustellen“ (Sontopski 2019, 72). Dem sind auch sachliche Bücher wie Nick Bostorms Superintelligence (2014) zuträglich, das bereits jetzt ein Klassiker der KI-Literatur ist und wie eine aktualisierte Version eines anderen Klassikers erscheint, nämlich Shelleys Frankenstein. Keinesfalls sollen die Warnungen von Bostorm oder Steven Hawking relativiert werden (vgl. Nida-Rümelin & Weidenfeld 2018, 19; Lenzen 2018, 13-14). Allerdings überdecken diese teils sensationellen Visionen in der aktuellen Diskussion tatsächliche Probleme und Fragen: Künstliche Intelligenzen oder selbstlernende Systeme könnten jegliche Objektivität von vornherein verspielen, wenn wir unsere gesellschaftlichen Stereotypen und Probleme als Lern-Daten einspeisen. Sie spiegeln unser eigenes aktuelles Denken mit allen positiven und negativen Seiten wieder und sind insofern nicht voraussetzungslos objektiv. Besonders geprüft werden müssen Systeme, die über Menschen oder über Ressourcen, die Menschen betreffen, entscheiden bzw. die Entscheidungen treffen, die gesellschaftliche Teilhabemöglichkeiten verändern (vgl. Zweig 2019, 25). Menschliche, natürliche Intelligenz wird zunehmend nur noch in Relation zu vernetzter, künstlicher Intelligenz gedacht. Damit wird der Mensch entgegen einer Jahrtausende alten Denktradition zu einer Maschine reduziert, die man durch Trainings beständig optimieren kann (vgl. Mau 2017; Lindner 2011). Künstliche Intelligenz kann und wird eine wertvolle und unabdingbare Unterstützung und Erleichterung ür zahlreiche Herausforderungen der Zukunft sein. Daür muss der Mensch aber nicht grundsätzlich imitiert oder ersetzt werden. Wenn Menschen vermehrt mit humanoiden Systemen umgehen, verändert sich ihr Umgang mit Mitmenschen. Können Menschen, die eine emotionale Beziehung mit einem Roboter hatten, ob dies nun wie im Film Her nur eine Stimme ist oder ein lebensechter Sex-Roboter, jemals wieder mit realen Menschen verkehren? KI täuscht und imitiert, wodurch sie zu einem Surrogat ür etwas werden kann, was in der Realität zu beschwerlich ist oder vor dem man Angst hat. Da künstliche Intelligenz immer in Relation zum Menschen gedacht wird, könnte die erwartete Singularität tatsächlich eintreten. Allerdings nicht, weil die Maschine jemals menschliches Wissen, Kompetenzen, Empathie, Kreativität, Intuition, Abstraktionsvermögen, Lernähigkeit, Vernunft und Bewusstsein irgendwie übertrifft, sondern weil der Mensch immer einältiger wird. <?page no="36"?> 36 Ralph-Miklas Dobler „Jede Gesellschaft bekommt die KI, die sie verdient“ (Bach 2017). Ein entscheidend wichtiger Grund, über Künstliche Intelligenz nachzudenken, ist es, ein besseres Verständnis der natürlichen, menschlichen Intelligenz zu erlangen. Jede Beurteilung von Künstlicher Intelligenz muss zugleich die Frage nach dem zugrundliegenden Menschenbild beantworten. Eine sinnvolle Weiterentwicklung und Integration von Künstlicher Intelligenz in die Gesellschaft kann nur über eine Aufklärung erfolgen, bei der kritisches Vergleichswissen produziert wird, welches das bisherige Wissen bestätigt oder ersetzt. Die Aufklärung des ausgehenden 18. Jahrhunderts, die den Menschen zu Wähler*innen und Wählbaren, zu Konsument*innen und Unternehmer*innen sowie durch Bildung zu kritischen Teilnehmer*innen am Gesellschaftsdiskurs machte, ist hierür nach wie vor die Voraussetzung (vgl. Baecker 2018, 31-33). Allerdings kann man sich des Eindrucks nicht erwehren, dass der Mensch im 21. Jahrhundert zunehmend als neuro-biochemische Maschine definiert wird, als ein „Homo informaticus“ (Hofstetter 2018, 28). 2.5 Literatur Althusser, Louis 2015. Das Kapital lesen. Münster: Westälisches Dampfboot. Apprich, Clemens 2019. Maschinen auf der Couch. Oder: Was ist schon „künstlich“ an Künstlicher Intelligenz? Zeitschrift ür Medienwissenschaft 21, 2019, 20-28. Bach, Joscha 2017. Jede Gesellschaft bekommt die KI, die sie verdient hat. In: John Brockmann (Hg.), Was sollen wir von Künstlicher Intelligenz halten? Frankfurt: Fischer, 233-236. Bostrom, Nick 2014. Superintelligence. Paths, Dangers, Strategies. Oxford: University Press. Brockmann, John 2017. Was sollen wir von künstlicher Intelligenz halten? Frankfurt a. M.: S. Fischer. Chollet, Francois 2019. https: / / twitter.com/ fchollet/ status/ 1148659835052802049 [Stand 2020-03-3] Dignum, Virgina 2019. Responsible Artificial Intelligence. How to Develop and Use AI in a Responsible Way. Cham: Springer. Dotzler, Bernhartd J. 2019. Alphaville 2.0. Zur Künstlichen Intelligenz (KI) als Internet-Intelligenz (I 2 ). Lettre international 126, 2019, 22-25. Dreyfus, H., Dreyfus S.E., Athanasiou, T. 2000. Mind over machine. New York: Simon and Schuster. Dyson, George 2014. Turings Kathedrale. Die Ursprünge des digitalen Zeitalters. Berlin: Propyläen. Funke, Joachim 2009. Was ist Intelligenz? München: C.H. Beck. Glanz, Berit 2019. Sonnenaufgang im Uncanny Valley. Navigieren und überleben im KI-Zeitalter. Kursbuch 199, 2019, 47-61. Grimm, Petra, Tobias O. Keber und Oliver Zöllner 2019. Digitale Ethik. Leben in vernetzten Welten. Stuttgart: Reclam. Hofstetter, Yvonne 2018. Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt. München: Penguin. <?page no="37"?> 2 Mensch und Maschine 37 Kaerlein, Timo 2016. Intimate Computing. Zum diskursiven Wandel eines Konzepts der Mensch-Computer-Interaktion. Zeitschrift ür Medienwissenschaft 15, 2016, 30-40. Klimczak, P. u.a. 2019. Menschliche und maschinelle Entscheidungsrationalität. Zur Kontrolle und Akzeptanz Künstlicher Intelligenz. Zeitschrift ür Medienwissenschaft 21, 2019, 39-45. Linder, Erik 2011. Coaching Wahn. Wie wir uns hemmungslos optimieren lassen. Berlin: Econ. Mau, Steffen 2017. Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp. McCarthy, J., Minsky M.L., Rochester, N., Shannon, C.E. 1955. A proposal for the Dartmouth summer research project on Artificial Intelligence. 31. August 1955. AI Magazine 27, 2006, 12-14. Mori, Masahiro 1970. The Uncanny Valley (1970). IEEE Robotics & Automation Magazine 2012. 98-100. Mühlhoff, Rainer 2019. Menschengestützte Künstliche Intelligenz. Über soziotechnische Voraussetzungen von „deep learning“. Zeitschrift ür Medienwissenschaft 21, 2019, 56-64. Nida-Rümelin, Julian & Weidenfeld, Nathalie 2018. Digitaler Humanismus. Eine Ethik ür das Zeitalter der Künstlichen Intelligenz. München: Piper. Nassehi, Armin 2019. Muster. Theorie der digitalen Gesellschaft. München: C.H. Beck. Sontopski, Natalie 2019. Hey Siri? ! Wie KI tradierte Rollenmuster zementiert. Kursbuch 199, 2019, 62-75. Wennerscheid, Sophie 2019. Sex Machina. Berlin: Matthes & Seitz. Zweig, Katharina 2019. Ein Algorithmus hat kein Taktgeühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. München: Heyne. <?page no="38"?> 3 Künstliche Intelligenz - eine Standortbestimmung Daniel Jan Ittstein Die künstliche Intelligenz (KI) galt jahrzehntelang als ein spezieller Forschungsbereich einiger IT-Fachleute. Dies hat sich inzwischen deutlich verändert und die KI ist in der Mitte der Gesellschaft angekommen. Dabei nehmen Roboter in der derzeitigen öffentlichen und populärwissenschaftlichen Debatte eine besondere Rolle ein, da sie häufig als Sinnbild ür die KI gesehen werden (LINK Institut 2018). Selbstlernende Maschinen, voll automatisierte Fabriken oder Pflegeroboter sind dabei nur einige Schlagworte. Für die einen sind Roboter und damit die KI erhoffte Lösungen, anhand derer Herausforderungen wie der Fachkräftemangel oder der demografische Wandel angegangen werden können. Für die anderen sind sie Vorboten einer Zeit, in der Maschinen alles übernehmen werden und in der die damit einhergehende Digitalisierung der Gesellschaft bald zu einem ‚Ende der Arbeit‘ ührt. Dabei betrifft diese Diskussion auch in Deutschland nicht mehr nur die Gemeinde der Forschenden und Technikenthusiasten, sondern findet inzwischen insbesondere ebenso in der Wirtschaft, Politik und Gesellschaft statt. Eine hohe öffentliche Aufmerksamkeit erfuhr eine Studie von Frey und Osborne (Frey & Osborne 2013). Die Autoren untersuchten anhand von Einschätzungen von Fachleuten und beruflichen Tätigkeitsstrukturen die Automatisierbarkeit von Berufen in den USA. Nach ihrer Einschätzung arbeiten derzeit 47% der Beschäftigten in den USA in Berufen, die bis zu den Jahren 2025 bis 2035 mit hoher Wahrscheinlichkeit (>70%) automatisiert werden könnten. Anhand anderer Studien wurden die Ergebnisse von Frey und Osborne übertragen, um Aussagen im Hinblick auf den möglichen Automatisierungsgrad in anderen Ländern Europas abzuleiten (Bowles 2014; Pajarinen & Rouvinen 2015). All diese Ergebnisse erfordern eine ausgewogene und vorsichtige Interpretation (Manyika u.a. 2017). Aber es ist aufällig, dass zumindest in der Debatte über die KI häufig eine Differenziertheit fehlt: auf der einen Seite werden die Möglichkeiten der künstlichen Intelligenz weit überschätzt - auf der anderen Seite deutlich unterschätzt. Diese Undifferenziertheit ist mit einem Risiko behaftet, da davon ausgegangen werden kann, dass die KI schon bald zu maßgeblichen Veränderungen unseres Selbstverständnisses und unseres gesellschaftlichen Zusammenlebens ühren wird. Demnach sollte darüber nachgedacht werden, ob und in welchen Bereichen wir welche technischen, ökonomischen und vor allem auch kulturellen Veränderungen wollen. Zeitdruck entsteht hierbei angesichts der Tatsache, dass global technisch und wirtschaftlich motivierte Fakten geschaffen werden, während wir uns aus gesellschaftlicher Perspektive oft in der Diskussion über Positionen verhaken anstatt differenziert über Optionen zu sprechen. Allgemein wird unterschätzt, wie lange es braucht, bis Transformationsprozesse wirken. Wie Brynjolfsson und Mitchell feststellen: „Applications [like Artificial Intelligence] that require complementary changes on many dimensions will tend to take longer to affect the economy and workforce than those that require less redesign of existing systems“ (Brynjolfsson & Mitchell 2017: 1534). Es muss daher damit gerechnet werden, dass <?page no="39"?> 3 Künstliche Intelligenz - eine Standortbestimmung 39 erst Jahrzehnte, nachdem die grundsätzlichen Transformationen angestoßen sind, die gesellschaftlichen und ökonomischen Effekte spürbar sein werden. Wenn wir dementsprechend aktiv diese Zukunft (unserer Kinder) gestalten wollen, dann müssen wir jetzt handeln. 3.1 Geschichte der künstlichen Intelligenz Auch wenn es bereits vor über 3000 Jahren in China und auch im antiken Griechenland Überlegungen gab ‚maschinelle Diener‘ ür die Menschen zu entwickeln, so gilt allgemein das „Summer Research Project on Artificial Intelligence“, das im Jahre 1956 am Dartmouth College in Hanover (New Hampshire) stattfand, als die Geburtsstunde der KI. Die Teilnehmenden der Konferenz waren der Ansicht, dass Intelligenz auch außerhalb des menschlichen Gehirns, genauer durch einen Computer, geschaffen werden könne. Hierbei stellt sich die Frage, was unter KI zu verstehen ist. Klassisch betrachtet ist KI ein Teilgebiet der Informatik, das sich mit der computergestützten Simulation intelligenten Verhaltens beschäftigt. Der Begriff ‚Intelligenz‘ stammt vom lateinischen ‚intellegere‘ ab, was so viel wie ‚erkennen, einsehen, verstehen‘ oder ‚wählen zwischen‘ bedeutet. In der Psychologie wird ‚Intelligenz‘ als Sammelbegriff ür die kognitive oder geistige Fähigkeit eines Menschen genutzt. Dabei können sieben Formen der Intelligenz unterscheiden werden: visuell-räumlich, körperlich-kinästhetisch, musikalisch, interpersonal und intrapersonal, sprachlich und logisch-mathematisch (Misselhorn 2018: 17). Da beim Menschen aber einzelne Fähigkeiten unterschiedlich stark ausgeprägt sein können und keine Einigkeit darüber besteht, wie diese zu bestimmen und zu unterscheiden sind, gibt es bislang keine allgemeingültige Definition von Intelligenz. Auch wenn Menschen dementsprechend unterschiedliche Ausprägungen von Intelligenz haben können, wird von Forschern der künstlichen Intelligenz trotzdem häufig ‚der Mensch‘ an sich als Maßstab genommen, um intelligentes Verhalten zu definieren. So schreiben John McCarthy und Kollegen in einem der Gründungsanträge ür das Summer Project on Artificial Intelligence: „The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves“ (McCarthy u.a. 1955). Bereits anhand dieser einleitenden Worte des Forschungsantrags wird deutlich, dass es in Bezug auf Intelligenz nicht allein darum geht, ein klar bestimmtes kognitives Problem zu lösen, sondern es kommt im Wesentlichen darauf an, simulieren zu können, wie das geschieht. Um die menschliche Intelligenz nachahmen zu können, stützen sich Forschende auf Computertechnologie. So gab es bereits in den 1950er und 1960er Jahren die ersten Entwicklungen künstlicher neuronaler Netzwerke, die fast immer auch im Kern heutiger KI-Anwendungen enthalten sind (Hildesheim & Michelsen 2019: 119). In dieser Zeit wurden Lösungen wie der ‚General Problem Solver‘ von Newell und Simon oder Weizenbaums ‚ELIZA‘ entwickelt, wodurch eindrücklich die Möglichkeiten der Kommunikation zwischen einem Menschen und einem <?page no="40"?> 40 Daniel Jan Ittstein Computer über natürliche Sprache aufgezeigt wurden. Schon früh herrschte demnach ein Bewusstsein hinsichtlich des möglichen Potenzials der KI; aber auch in Bezug auf die potenziellen umfassenden gesellschaftlichen Auswirkungen dieser technischen Entwicklung, wie unter anderen Weizenbaum wiederholte Male kritisch bemerkte. Obwohl weitergeforscht wurde, blieben in der Folgezeit signifikante Neuentdeckungen aus, so dass das öffentliche Interesse deutlich nachließ und die Zeit zwischen 1965 und 1975 retrospektiv als ‚KI-Winter‘ bezeichnet wird. Erst seit 2011 ist die KI in der Öffentlichkeit wieder präsent geworden, was vor allem an aufsehenerregenden Projekten liegt. So gewann IBM-Watson im Jahr 2011 das beliebte US-Fernsehquiz Jeopardy! gegen die amtierenden menschlichen Meister. Im Jahr 2016 siegte AlphaGo von Google-DeepMind gegen den amtierenden Go-Champion, was als Meilenstein in der KI-Forschung gilt, da es bis dahin ür unmöglich gehalten wurde, dass ein Computer die kombinatorischen Intelligenzanforderungen des asiatischen Brettspiels abbilden kann. Im Jahr 2017 folgte AlphaGo Zero, das im Unterschied zu AlphaGo nur mit den Spielregeln ausgestattet war und nicht mehr anhand von menschlichen Daten programmiert werden musste. Das Programm trainierte dementsprechend dadurch, dass es lediglich Partien mit sich selbst spielte, und entwickelte hierbei eine Spielstärke, die bis dahin von niemandem ür möglich gehalten wurde. Fachleute sehen darin bereits einen Grundstein ür die Entwicklung einer allgemeinen künstlichen Intelligenz, die ohne menschliches Expertenwissen auskommt und in allen möglichen Bereichen einsetzbar ist (Misselhorn 2018: 11). 3.2 Gründe für den aktuellen Durchbruch der künstlichen Intelligenz Die zentralen technischen Gründe ür diesen Durchbruch der KI basieren vor allem auf drei wesentlichen Faktoren: der exponentiellen Steigerung der Rechenkapazität, der Verügbarkeit von hinreichend vielen digitalen Daten (Stichwort: Big Data) und verbesserten Algorithmen ür künstliche neuronale Netze. Dabei schreitet diese Entwicklung rapide voran. Brynjolfsson und McAfee gehen davon aus, dass wir uns bereits mitten im ‚Second Machine Age‘ befinden, das unser aller Leben mindestens genauso grundlegend verändern wird wie die Industrielle Revolution (Brynjolfsson & McAfee 2016: 7). Die Ursachen daür sind zum einen eine exponentielle Steigerung der Rechnerleistung 8 und zum anderen die zentralen ökonomischen Charakteristika digitaler Güter: die Möglichkeit, diese Güter ohne wesentliche Mehrkosten zu reproduzieren (marginale Grenzkosten), die fehlende Konsumptionsrivalität digitaler Information (Nichtrivalität) und die Tatsache, dass bei vielen digitalen Gütern jeder weitere Konsumierende den Nutzen ür die anderen Konsumierenden erhöht (Netzwerkeffekt) (Brynjolfsson & 8 Das so genannte „Moores Law“ verdeutlicht, was in der Informationstechnik unter exponentiellem Wachstum verstanden werden kann. Moores Law ist auf Gordon Moore zurückzuführen, der 1965 die Annahme postulierte, dass sich die Rechenleistung eines Prozessors, welche man für einen US-Dollar bekommt alle 12 Monate verdoppelt. Auch wenn diese Annahme sehr lange Bestand hatte, so kann man nunmehr davon ausgehen, dass sich die Rechnerleistung, die man für einen US-Dollar erhält, alle 18 Monate verdoppelt (Brynjolfsson & McAfee 2016: 41-56). <?page no="41"?> 3 Künstliche Intelligenz - eine Standortbestimmung 41 McAfee 2016: 61-63). Durch diese Treiber ist die Digitalisierung inzwischen allgegenwärtig und alle Konsumierenden in den Industriestaaten produzieren täglich Unmengen digitaler Daten. 9 Letztere bilden die zentrale Ressource ür die Weiterentwicklung der KI. Bemerkenswert ist dabei die Geschwindigkeit, mit der sich diese Technik entwickelt. War zum Beispiel bei Google noch im Jahr 2012 die KI lediglich ein Spezialthema, so wurde bereits im Jahr 2016 in über 1600 Projekten und im Jahr 2018 in über 7500 Projekten innerhalb des Technologiekonzerns Alphabet (Deep Mind, Google, YouTube etc.) daran gearbeitet, diese Technologie in ihre Produkte zu integrieren (McAfee & Brynjolfsson 2017: 77; Buxmann & Schmidt 2019b: 22). Google CEO Sundar Pichai postulierte gar einen Paradigmenwechsel der Internetökonomie, als er im Mai 2017 von einem „[…] important shift from a mobile first to an AI first world […]“ spricht (Zerega 2017). Hintergrund ür diesen Paradigmenwechsel sind die Fortschritte im Bereich des maschinellen Lernens seit etwa dem Jahr 2010 (McAfee & Brynjolfsson 2017: 2). Wurden noch bis vor kurzem große Hochleistungsrechner benutzt, um nötige Rechenprozesse ür das Deep Learning auszuühren, so werden bereits heute zusätzliche Prozessoren in handelsübliche Mobiltelefone integriert, die KI-Applikationen ermöglichen. Folge ist, dass diese Grundlagentechnologie schon längst in unserem Alltag angekommen ist: Suchanfragen oder die Navigation werden genauer, Autos können autonom fahren und Sprachassistenten in handelsüblichen Mobiltelefonen nehmen uns vorausahnend Tätigkeiten ab. Dabei verschwimmt die Schnittstelle zwischen Virtuellem und Reellem zusehends (Ittstein 2018: 35). Ein Beispiel ist die ‚Soul Machine‘ - ein so genannter Softbot 10 , der in Form eines Avatars mit Menschen in Dialog treten kann. Die Soul Machine kann aber nicht nur Sprache erkennen und individuell auf das Gesprochene antworten, sondern sie registriert zudem Veränderungen in der Mimik des Gegenübers (zum Beispiel Zustimmung, Freude, Ärger, Wut, Angst) und reagiert darauf. Diese Technik wird bereits seit dem Jahr 2015 erfolgreich in der Kommunikation mit älteren Menschen eingesetzt. Während COVID-19 unterstützte der Avatar die Anwender dabei, nicht nur den Virus und Risikogruppen besser einordnen zu können, sondern auch präventive Maßnahmen zu bestimmen (Soul Machines 2020). Im Hinblick auf die genannten Avatare ist grundsätzlich zu beobachten, dass die Unterscheidung zwischen reeller und artifizieller Person zunehmend verschwimmt und Nutzer durchaus reelle Emotionen ür die Maschinen entwickeln. Eine andere Entwicklung, die zeigt welches Potenzial in dieser Technik liegt, ist der ‚Flow Composer‘ von Sony und François Pachet (Flow Machines 2020). Bis vor einigen Jahren herrschte selbst in der Wissenschaft noch Einigkeit dahingehend, dass Kreativität eine ausschließlich menschliche Fähigkeit sei. Der Flow Composer jedoch zeigt auf eindrückliche Weise, wie angreifbar dieses ‚Alleinstellungsmerkmal des Menschen‘ durch die KI zu sein scheint. Wird dem Flow Composer 9 Beachte Ausführungen zum Digital Divide in Kapitel 9. 10 Als Softbot bezeichnet man ein Computerprogramm, das zu gewissem (wohl spezifiziertem) eigenständigem und eigendynamischem (autonomem) Verhalten fähig ist. Das bedeutet, dass abhängig von verschiedenen Zuständen (Stati) ein bestimmter Verarbeitungsvorgang abläuft, ohne dass von außen ein weiteres Startsignal gegeben wird oder während des Vorgangs ein äußerer Steuerungseingriff erfolgt. <?page no="42"?> 42 Daniel Jan Ittstein ausreichend musikalische Information in Form von Partituren zur Verügung gestellt, so erkennt dieser vollautomatisch stilistische Muster des entsprechenden Musikschaffenden, kann diese imitieren und entwickelt darauf basierend neue Musikstücke (Papadopoulos. Alexandre u.a. 2016: 4). Auch wenn dieser Softbot nicht die kreative Möglichkeit besitzt, einen eigenen kompositorischen Stil zu entwickeln, so dient er bereits heute vielen Musikschaffenden dazu, neue musikalische Inhalte zu entwickeln. Zum Beispiel ist die französische Ikone der elektronischen Musik Jean-Michel Jarre „[…] particularly intrigued by the developments in artificial intelligence and is currently working with Sony to write an AIassisted album, using their Flow Machines software“ (Savage 2019). Die genannten Beispiele können als spielerische Versuche im Bereich der KI gewertet werden. Die sozioökonomisch substantiellen Effekte der KI-Technologie sind vor allem in Anwendungsfeldern wie der datengetriebenen Analyseoptimierung; Muster-, Sprach-, Gesichts- und Umfelderkennung sowie den inhärenten Vorhersagemöglichkeiten zu verorten. Experten wie Andrew Ng verbinden mit der KI bereits jetzt eine umfassende Vision, wobei Ng sagt: „Ich hoffe, wir können eine KI gestützte Gesellschaft erschaffen, die jedem erschwingliche Gesundheitsversorgung bietet, jedem Kind personalisierte Bildung bereitstellt, günstige selbstfahrende Autos ür alle erhältlich macht, und sinnstiftende Arbeit ür jeden Mann und jede Frau.“ (Frankfurter Allgemeine Zeitung 2017) Es ist davon auszugehen, dass die Digitalisierung insbesondere durch die KI ein zentrales Designkriterium unserer gesellschaftlichen Systeme werden wird. Unternehmen wie Staaten haben mittlerweile die Potenziale erkannt und investieren hohe Summen in diese Grundlagentechnologie. 11 Diese Entwicklung kann positiven Nutzen ür die Menschheit schaffen - soweit ein verantwortungsvoller Umgang mit ihr stattfindet. Dabei hilft es nicht, sich immer vom Narrativ der Superintelligenz leiten zu lassen. Gestützt durch die allgemeine Berichterstattung in den Massenmedien über die neuesten technischen Entwicklungen der KI, gepaart mit einprägsamen Erzählungen aus Film, Fernsehen und Literatur, sind inzwischen weite Teile der öffentlichen Diskussion von der Ansicht gekennzeichnet, dass es in absehbarer Zeit - aufgrund der Fortschritte in der KI - Maschinen geben wird, die die Menschen an Intelligenz weit übertreffen (Singularitätsthese). Die technologische Singularität soll dabei den Zeitpunkt bezeichnen, ab dem Maschinen in der Lage sind, mit Hilfe künstlicher Intelligenz selbst Maschinen zu schaffen, die weit intelligenter sind als der Mensch (Misselhorn 2018: 205). Dies löst, je nachdem wie und wo eine Person kulturell geprägt wurde, Beürchtungen aus, zum Beispiel dass eine Superintelligenz entsteht, die gegenüber dem Menschen moralische Ansprüche erhebt und schließlich die Herrschaft über die Menschheit übernimmt. Dies ührt in der Diskussion dazu, dass nicht immer klar differenziert wird, was derzeit technisch überhaupt möglich ist und was rein hypothetisch irgendwann einmal sein könnte. Dies bewirkt wiederum häufig, dass die Risiken einer hypothetisch möglichen ‚General Artificial Intelligence‘ oder ‚Super Artificial Intelligence‘ deutlich überbetont und die Chancen einer ‚Narrow Artificial Intelligence‘ unterschätzt werden (Buxmann & Schmidt 2019c). Entsprechend soll im Folgenden darauf eingegangen werden, welche technischen Möglichkeiten derzeit bestehen. 11 Vgl. Kapitel 6 <?page no="43"?> 3 Künstliche Intelligenz - eine Standortbestimmung 43 3.3 Derzeitige technische Möglichkeiten der künstlichen Intelligenz Um den gegenwärtigen technischen Entwicklungsstand der KI einzuordnen, werden in der Regel folgende drei Entwicklungsstufen unterschieden: Die ‚Narrow Artificial Intelligence‘ (NAI) (oft auch als ‚Weak AI‘ oder im Deutschen als ‚schwache KI‘ bezeichnet) wird gezielt zur Lösung von bestimmten, abgegrenzten Problemstellungen genutzt und von Menschen speziell ür diesen Zweck aufgesetzt. Grundsätzlich alle derzeit im Alltag eingesetzten KI-Lösungen sind der Narrow AI zuzuordnen (Hildesheim & Michelsen 2019: 121). Die ‚General Artificial Intelligence‘ (GAI) bezieht sich auf Algorithmen, die auf alle möglichen Themen angewandt werden können. Auch wenn Lösungen wie AlphaGo Zero durchaus einen ersten Eindruck davon vermitteln, wie solch eine allgemeine KI aussehen könnte, so ist die Forschung heute noch lange nicht so weit, eine allgemeine KI entwickelt zu haben. Bei der ‚Super Artificial Intelligence‘ (SAI) handelt es sich um ein computergestütztes Programm, das der menschlichen Intelligenz überlegen ist. Über diese stärkste Ausprägung der KI gibt es derzeit interessante philosophische Diskussionen (u.a. Singularitätsthese). Aber von einer möglichen Umsetzung sind wir noch weit entfernt und viele Experten können sich nicht vorstellen, dass es jemals eine solche superintelligente Maschine geben kann (Misselhorn 2018: 15; Hildesheim & Michelsen 2019: 121). In den letzten Jahren entwickelte sich vor allem ein Teilgebiet der KI: das maschinelle Lernen. Darunter werden Verfahren verstanden, die es ermöglichen, dass Computer selbständig Wissen aufnehmen, um ein Problem zu lösen. Eine Spielart des maschinellen Lernens ist das Supervised Learning (überwachtes Lernen), bei dem der Lernprozess auf beschrifteten Daten basiert und das Hauptziel darin besteht, Entscheidungen zu treffen - zum Beispiel dahingehend, wer oder was auf einem Bild dargestellt ist. Dagegen hat das Unsupervised Learning (unüberwachtes Lernen) das primäre Ziel, Muster in den Daten zu erkennen. Daür werden Letztere nicht vorher beschriftet, sondern der Computer entdeckt Kategorien und wirft diese aus. Eine Aufgabenstellung hierür besteht zum Beispiel darin, Menschen in den sozialen Medien zu erkennen (Mustererkennung), die besonders an- ällig daür sind, falschen Mitteilungen zu glauben, diese positiv zu kommentieren und weiterzuleiten. Diese Technik wurde bereits bei mehreren Wahlkämpfen der jüngsten Vergangenheit ‚erfolgreich‘ angewandt (Kreutzer & Sirrenberg 2019: 7). Beim Reinforcement-Learning (verstärkendes Lernen) soll das Programm ür ein gegebenes Problem eine optimale Strategie erlernen. Grundlage dabei ist eine Anreiz- oder Belohnungsfunktion. Dieses Lernkonzept wird häufig eingesetzt, wenn nur wenige Trainingsdaten vorliegen oder das ideale Ergebnis nicht klar definierbar ist. Verwendet wurde dieses Lernverfahren zum Beispiel bei der oben erwähnten Simulation verschiedener Go-Partien von dem Computerprogramm AlphaGo (Kreutzer & Sirrenberg 2019: 8). Eine spezielle Ausgestaltung der neuronalen Netze und eine Teilmenge des maschinellen Lernens stellt das Deep Learning dar. In Bezug auf Letzteres werden künstliche neuronale Netzwerke genutzt, wodurch Zusammenhänge erlernt wer- <?page no="44"?> 44 Daniel Jan Ittstein den können, die einfachen Algorithmen des maschinellen Lernens verborgen bleiben, da eine deutlich größere Bandbreite an Datenressourcen verarbeitet werden kann. Es wäre allerdings ein Missverständnis, davon auszugehen, dass künstliche neuronale Netze in der Lage wären, Gehirnstrukturen eins zu eins abzubilden. Vielmehr handelt es sich um mathematische Modelle ür Computerprogramme, die bestimmten Organisationsprinzipien biologischer neuronaler Netze nacheifern. Ziel ist es, gewisse Aktivitätsmuster zu erlernen, die dadurch entstehen, dass beim Lernen Verbindungen zwischen den Neuronen verstärkt oder abgeschwächt werden. Dadurch ist es der Maschine möglich, Daten besser und schneller zu erkennen. Hierbei funktionieren diese mathematischen Modelle häufig wie eine Black Box. Die maschinelle Entscheidung erfolgt letztlich auf Basis der errechneten Gewichte der Kanten zwischen den Neuronen (Knoten) des Netzwerks, die nur schwer zu interpretieren sind (Buxmann & Schmidt 2019a: 17). Das heißt, dass nicht immer eine Auskunft darüber gegeben werden kann, warum ein Algorithmus zu einem bestimmten Ergebnis gekommen ist - demnach, warum er zum Beispiel bei der Bilderkennung einen Gegenstand, ein Tier oder einen Mensch nicht korrekt ermitteln konnte (Black-Box-Problematik). Demzufolge sollte entsprechenden Ansätzen im Hinblick auf sensible Anwendungsbereichen nicht uneingeschränkt vertraut werden. Zum Beispiel haben sich bereits Firmen wie Google, IBM oder auch Amazon dazu entschieden, die Polizei bis auf Weiteres nicht mehr mit einer Gesichtserkennungssoftware auszustatten, da diese Technologie in Bezug auf Personen, die nicht weiß sind, häufig fehlerhaft arbeitet und nicht gänzlich nachvollzogen werden kann, warum das so ist (Neue Züricher Zeitung 2020). Viele Technologiefirmen sind sich dieser Problematik demnach durchaus bewusst und setzen sich schon länger ür eine verstärkte Regulierung seitens der Regierung zur ethischen Nutzung von Gesichtserkennungs-Technologien ein. 3.4 Künstliche Intelligenz jetzt gestalten Auch wenn die KI bereits über eine längere Historie verügt, so befinden wir uns derzeit noch mitten in der Entwicklung einer ‚Narrow AI‘. Wie anhand des obigen Beispiels gezeigt wurde, sind wir technisch noch weit von einer ‚General AI‘ entfernt und eine ‚Super AI‘ ist reine Spekulation (Misselhorn 2018: 214). Aber auch wenn die derzeitige Form der KI ‚nur‘ der ‚Narrow AI‘ zuzuordnen ist, gehen Ökonomen und Ökonominnen davon aus, dass es sich dabei um die wohl bedeutsamste Grundlagentechnologie unseres Zeitalters handelt, was umfassende gesellschaftliche und ökonomische Folgen nach sich ziehen wird (Brynjolfsson & Mitchell 2017: 1530). Entsprechend investieren derzeit global Unternehmen wie Staaten immense Summen in die Weiterentwicklung dieser Technologie, wodurch die gesellschaftliche und ökonomische Bedeutung der KI zunehmen wird. 12 Als Gesellschaft müssen wir jetzt sachlich und differenziert darüber nachdenken, ob und in welchen Bereichen wir die Veränderungen durch die KI wollen, sonst besteht die Gefahr, dass wir womöglich von rein technisch und wirtschaftlich motivierten Fakten überrollt werden. 12 Siehe Kapitel 6 <?page no="45"?> 3 Künstliche Intelligenz - eine Standortbestimmung 45 3.5 Literatur Bowles, Jeremy 2014. The computerisation of European jobs. https: / / www.bruegel.org/ 2014/ 07/ the-computerisation-of-european-jobs [Stand 2020-06-24]. Brynjolfsson, Erik & McAfee, Andrew 2016. The second machine age: Work, progress, and prosperity in a time of brilliant technologies. New York: Norton. Brynjolfsson, Erik & Mitchell, Tom 2017. What can machine learning do? Workforce implications. Science 358, 6370, 1530-1534. Buxmann, Peter & Schmidt, Holger 2019a. Grundlagen der künstlichen Intelligenz und des maschinellen Lernens. In P. Buxmann & H. Schmidt, hg. Künstliche Intelligenz. Mit Algorithmen zum wirtschaftlichen Erfolg. Berlin: Springer, 3-19. Buxmann, Peter & Schmidt, Holger 2019b. Ökonomische Effekte der Künstlichen Intelligenz. In P. Buxmann & H. Schmidt, hg. Künstliche Intelligenz. Mit Algorithmen zum wirtschaftlichen Erfolg. Berlin: Springer, 21-37. Buxmann, Peter & Schmidt, Holger 2019c. Singularity und weitere kritische Debatten über Künstliche Intelligenz. In P. Buxmann & H. Schmidt, hg. Künstliche Intelligenz. Mit Algorithmen zum wirtschaftlichen Erfolg. Berlin: Springer, 189- 196. Flow Machines 2020. Flow Machines. https: / / www.flow-machines.com/ [Stand 2020-06-7]. Frankfurter Allgemeine Zeitung 2017. Andrew Ng: Er will der ganzen Welt Künstliche Intelligenz beibringen. http: / / www.faz.net/ aktuell/ wirtschaft/ kuenstlicheintelligenz-experte-andrew-ng-gibt-kuenftig-online-kurse-15143831.html? GEPC=s5 [Stand 2020-06-24]. Frey, Carl Benedikt & Osborne, Michael 2013. The future of employment. Oxford Martin Programme on Technology and Employment 1-77. Hildesheim, Wolfgang & Michelsen, Dirk 2019. Künstliche Intelligenz im Jahr 2018-Aktueller Stand von branchenübergreifenden KI-Lösungen: Was ist möglich? Was nicht? Beispiele und Empfehlungen. In P. Buxmann & H. Schmidt, hg. Künstliche Intelligenz. Mit Algorithmen zum wirtschaftlichen Erfolg. Berlin: Springer, 119-142. Ittstein, Daniel Jan 2018. Robotics & beyond: globaler Fortschritt, Wachstum und Arbeit in Zeiten der Digitalisierung. In R.-M. Dobler & Ittstein, Daniel Jan, hg. Digitalisierung interdisziplinär. München: UVK Verlag. Kreutzer, Ralf T & Sirrenberg, Marie 2019. Künstliche Intelligenz verstehen: Grundlagen - Use-Cases unternehmenseigene KI-Journey. Wiesbaden: Springer. LINK Institut 2018. Was kommt Ihnen in den Sinn, wenn Sie den Begriff „künstliche Intelligenz“ hören? . https: / / ezproxy.bib.fh-muenchen.de: 2168/ statistik/ daten/ studie/ 977611/ umfrage/ umfrage-zu-assoziationen-mit-dem-begriffkuenstliche-intelligenz-in-der-schweiz/ [Stand 2020-06-6]. Manyika, James, Chui, Michael & Miremadi, Mehdi 2017. A future that works: AI, automation, employment, and productivity. McKinsey Global Institute. McAfee, Andrew & Brynjolfsson, Erik 2017. Machine, platform, crowd: Harnessing our digital revolution. New York: Norton. <?page no="46"?> 46 Daniel Jan Ittstein McCarthy, J., Minsky, M. L. & Rochester, N. 1955. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Misselhorn, Catrin 2018. Grundfragen der Maschinenethik. 2., durchgesehene Auflage. Ditzingen: Reclam. Neue Züricher Zeitung 2020. Amazon entzieht der Polizei ihre Software zur Gesichtserkennung ür ein Jahr. Neue Züricher Zeitung. https: / / www.nzz.ch/ wirtschaft/ amazon-entzieht-polizei-software-zur-gesichtserkennung-ld.1560736 [Stand 2020-06-11]. Pajarinen, Mika & Rouvinen, Petri 2015. Computerization Threatens One-Third of Finnish and Norwegian Employment. ETLA 34-22 April 2015, 1-8. Papadopoulos. Alexandre, Roy, Pierre & Pachet, Francois 2016. Assisted Lead Sheet Composition using FlowComposer. Proceedings of the 22nd International Conference on Principles and Practice of Constraint Programming - CP 2016. Savage, Marc 2019. Jean-Michel Jarre launches „infinite album.“ BBC. https: / / www.bbc.com/ news/ entertainment-arts-50335897# [Stand 2020-06-7]. Soul Machines 2020. Soul Machines COVID 19 Helper. https: / / www.soulmachines.com/ covid-19-digital-helper/ [Stand 2020-06-7]. Zerega, Blaise 2017. AI Weekly: Google shifts from mobile-first to AI-first world. https: / / venturebeat.com/ 2017/ 05/ 18/ ai-weekly-google-shifts-from-mobilefirst-to-ai-first-world/ . <?page no="47"?> Realisierungen <?page no="49"?> 4 KI-Anwendungen und ihre Narrative Nicole Brandstetter 4.1 Mythos autonomes Fahren Als im Oktober 1955 im Pariser Autosalon das neue Modell Citroën DS vorgestellt wurde, rief es bei Besucher*innen und Fachpresse Begeisterung hervor. Das Modell DS - gesprochen „déesse“, die Göttin - bestach durch sein ungewöhnliches, formschönes Design (vgl. Weißenborn 2015). 1957 analysierte Roland Barthes, wie mit der Präsentation der „Déesse“ das Automobil zum Mythos avancierte: „Ich glaube, daß das Automobil heute die ziemlich genaue Entsprechung der großen gotischen Kathedralen ist. Soll heißen: eine große epochale Schöpfung, die mit Leidenschaft von unbekannten Künstlern entworfen wurde und von deren Bild, wenn nicht von deren Gebrauch ein ganzes Volk zehrt, das sie sich als ein vollkommen magisches Objekt aneignet.“ (Barthes 2016b, 196) Roland Barthes definiert ein mythologisches System als „ein System der Kommunikation, eine Botschaft“ (Barthes 2016a, 251), in dem alles zum Mythos werden kann, was diskursiv verankert ist (vgl. Barthes 2016a, 251). Dabei fungiert es als „sekundäres semiologisches System“ (Barthes 2016a, 258), das auf eine bereits bestehende semiologische Kette von Signifikant (Lautbzw. Schriftbild), Signifikat (inhaltlicher Begrif) und Zeichen (Wort oder konkrete Einheit) gemäß Saussures Theorie aufbaut. Das Zeichen dieser semiologischen Kette, welches Barthes auch „Sinn“ nennt, bildet dabei die Basis des Signifikanten, die „Form“ ür den Mythos, die zusammen mit dem Signifikat des mythologischen Systems, dem „Begrif“, ein mythologisches Zeichen, „Bedeutung“, ergibt (vgl. Barthes 2016a, 258ff.). Dabei verliert die Form ihren vormaligen Sinn als Resultat des ersten semiologischen Systems, um so offen zu sein ür neue Inhalte durch den Begriff: „Durch den Begriff wird dem Mythos eine ganz neue Geschichte implantiert.“ (Barthes 2016a, 264). Das Konzept des Begriffs im mythologischen System beinhaltet eine Offenheit, Volatilität, „ein aus unscharfen, unbegrenzten Assoziationen bestehendes Wissen“ (264), so dass ein Begriff in verschiedenen Formen virulent werden und die Bedeutung des Mythos entstehen lassen kann. Im Gegensatz zum primären semiologischen System, in dem die Beziehung von Signifikant und Signifikat arbiträr ist, besteht zwischen Begriff und Form im Mythos ein „Deformationsverhältnis“ (268). Die mythische Bedeutung ist also „nie vollständig arbiträr, sie ist stets partiell motiviert, enthält zwangsläufig ein Stück Analogie“ (Barthes 2016a, 273), da der Form, dem Zeichen des primären semiologischen Systems, ja bereits ein relationales Verhältnis zugrunde liegt. Barthes spricht hier vom mythologischen Zeichen als „motivierte Form“ (273). Damit ist das Absichtsvolle dem Mythos inhärent, er „hat den Charakter einer Aufforderung, einer Anrufung.“ (271) Wendet man dieses mythologische Verständnis nun auf das neue Modell Citroën DS an, so erlangt das reine Fortbewegungsmittel, die „Form“, durch den Zeitgeist <?page no="50"?> 50 Nicole Brandstetter des Designs, den „Begrif“, die mythologische „Bedeutung“ eines magischen Objekts, eines Wunders der Form, wie „humanisierte Kunst“ (Barthes 2016b, 197). Statt eines „Bestiarium der Kraft“ (197) wird das Auto „zugleich spiritueller und objektiver“ (197). Die Interpretation von Automobilen weg von reinen Fortbewegungsmitteln hin zu Statussymbolen, zu mythischen Objekten, zu Identifikations- und Projektionsflächen hat somit eine lange Tradition und Entwicklung, die mit dem Diskurs um autonomes Fahren in ein neues Stadium eingetreten ist. Autonomes Fahren bedeutet in der von Misselhorn (2018) zusammengefassten stufenweisen Klassifikation, dass das Fahrzeug ohne Intervention oder Aufmerksamkeit des Fahrers ür bestimmte Fahranwendungen (Stufe 4) oder gänzlich (Stufe 5) sämtliche Fahrfunktionen wahrnimmt (vgl. 186). Misselhorn betont hierbei, dass die technische Entwicklung sich derzeit auf Stufe 3 „hochautomatisiertes Fahren“ befindet, bei dem das Fahrzeug in bestimmten Fahranwendungen sämtliche Fahrfunktionen übernimmt, der Fahrer jedoch das System dauerhaft überwachen muss (vgl. 186); der Übergang auf Stufe 4 stellt die „größte technische Herausforderung“ (187) dar. Mythologisch mit Barthes gesprochen, wird die „Form“ des Fortbewegungsmittels, des (autonom fahrenden) Automobils, durch das neue Signifikat, „den Begrif“ der Digitalisierung und Künstlichen Intelligenz als disruptive Techniken, die autonomes Fahren ermöglichen, mit widersprüchlichen Bedeutungen aufgeladen. In einer Hinsicht entsteht der Mythos der Freiheit, des Komforts, der Sicherheit, der gesellschaftlichen Teilhabe, die Menschen durch diesen technologischen Fortschritt in der Mobilität erreichen. Scheinbar mühelos können Distanzen überwunden werden, ohne selbst agieren zu müssen, so dass der vormals Fahrende sich ausruhen oder anderweitig beschäftigen kann. Auch Menschen, die bislang aufgrund von körperlichen Einschränkungen größere Mühen in Bezug auf Mobilität auf sich nehmen mussten, könnten von autonomen Fahrzeugen stark profitieren. Schließlich ist die Reduktion schwerer oder gar tödlicher Unälle ein treibender Faktor. Der Rückgang der Todesälle im Straßenverkehr in den letzten Jahren durch avancierte Sicherheitstechnik sowie entsprechende gesetzliche Regelungen ist daür ein starker Indikator. 13 Auch scheint autonomes Fahren hier zu einem Heilsversprechen ür Herausforderungen insbesondere in Städten und Ballungszentren aufgrund von stark ansteigenden Mobilitätsansprüchen durch Zuzug und Verdichtung und damit einhergehenden Umweltproblemen zu sein. Diese Hoffnung hat Isaac Asimov in seiner Erzählung „Sally“ von 1953 bereits narrativ vorweggenommen, nicht ohne jedoch aufzuzeigen, dass dieser Hoffnung gleichzeitig die Sorge vor Kontrollverlust inhärent ist. Gleich zu Beginn der Kurzgeschichte wird Sally präsentiert: „Sally was coming down the lake road, so I waved to her and called her by her name. I always like to see Sally. I liked all of them, you understand, but Sally’s the prettiest one of the lot. There just isn’t any question about it. She 13 So veröffentlichte das Statistische Bundesamt in seiner Pressemitteilung Nr. 061 vom 27. Februar 2020, dass z.B. im Jahr 2019 die Zahl der im Straßenverkehr getöteten Menschen die Niedrigste seit Beginn der Statistik vor über 60 Jahren ist (https: / / www.destatis.de/ DE/ Presse/ Pressemitteilungen/ 2020/ 02/ PD20_061_46241.html [Stand 2020-07-15]). <?page no="51"?> 4 KI-Anwendungen und ihre Narrative 51 moved a little faster when I waved to her. Nothing undignified. She was never that. She moved just enough faster to show that she was glad to see me, too.” (Asimov 1953, 35) Sally wird gleich einer interagierenden, wahrnehmenden Person beschrieben, die ür den Ich-Erzähler Jacob Folkers offensichtlich eine besondere Stellung hat. In dieser Anfangsszene wird Jacob vom Handelsvertreter Raymond J. Gellhorn besucht. Erst einige Paragraphen später, als Sally schließlich bei den beiden ankommt und Gellhorn auf sie trifft, wird klar, dass es sich bei Sally um ein autonomes Fahrzeug, ein „nice automatobile“ (36) handelt, wie Gellhorn feststellt. Sehr zu dessen Belustigung haben ür Jacob Folkers, der eine Farm mit ausrangierten, jedoch voll funktionstüchtigen, pensionierten autonomen Automobilen ührt, alle seine Fahrzeuge Persönlichkeiten: Sie tragen Namen, haben ein Geschlecht - die Limousinen sind männlich, die Cabriolets weiblich -, sie kommunizieren auf ihre Art zum Beispiel durch Hupen, Türen schlagen und haben Geühle und einen eigenen Willen. Sie repräsentieren das Ende einer schrecklichen Zeit: „I can remember when there wasn’t an automobile in the world with brains enough to find its own way home, I chauffeured dead lumps of machines that needed a man’s hand at their controls every minute. Every year machines like that used to kill tens of thousands of people. The automatics fixed that.“ (Asimov 1953, 37) In dieser Passage wird deutlich, dass nicht etwa die Menschen im Fokus der Reflexionen stehen, sondern die Entwicklung der Fahrzeuge, die endlich in den Status intelligenter Wesen gehoben wurden und so dem unsinnigen Töten ein Ende bereiten konnten, denn offensichtlich waren die Menschen dazu alleine nicht ähig. Diese anthropomorphe Sicht auf Automobile ermöglicht es, in Jacobs Perspektive die Automobile als Wesen zu erkennen, die von Gellhorn schlussendlich missbraucht werden. Da autonome Fahrzeuge teuer sind und daher meist kollektive Bus-Automaten die Straßen beherrschen, möchte Gellhorn Jacob die Motoren der Fahrzeuge abkaufen - eine ür Jacob absurde Überlegung, da sie aus seiner anthropomorphen Sicht unteilbare Einheiten bilden. Als Gellhorn Sally schließlich mit Gewalt auf manuelle Operation umstellt, wird dies wie eine psychische wie auch körperlichen Misshandlung an einem - weiblichen - Fahrzeug dargestellt. So stellt der Erzähler Jacob fest: „Sally was alive again but she had no freedom of action.“ (Asimov 1953, 41) Doch nicht nur der freie Wille wurde ihr genommen, auch ihr Körper nahm Schaden, wie Jacob zu Gellhorn gewandt feststellt: „’When you turn off Sally’s motor, you hurt her. How would you like to be kicked unconscious? ‘“ (42); Gellhorn hingegen nimmt die stereotype Position des verständnislosen männlichen Aggressors ein, wenn er sagt: „‘There,‘ he said. ‘I think I did her a lot of good.“ (42) Da Jacob sich auch nach dieser Tat nicht auf den Handel einlässt, kehrt Gellhorn schließlich in der Nacht mit seinem selbst zusammenbauten Automatenbus, der durch die stümperhafte Einbettung eines positronischen Motors in Jacobs Sicht ebenfalls einer Verletzung und Misshandlung gleichkommt (vgl. 47), zurück auf die Farm und wird schließlich in einer konzertierten Aktion der autonomen Fahrzeuge der Farm sowie seines eigenen Busses getötet. Jacob verkörpert diese positive mythologische Sicht auf autonomes Fahren: Gleich eines Begleiters, ja Freundes übernimmt das Fahrzeug die Kontrolle über Mobilität <?page no="52"?> 52 Nicole Brandstetter und beendet damit das Töten auf den Straßen. Zuverlässig und loyal steht es den Menschen zu Diensten und trägt eigens daür Sorge, dass diese sich auf den Straßen nicht mehr in Gefahr bringen müssen. Gellhorn entgegen sieht die Automobile als Maschinen, spricht ihnen ihren Seinsstatus als gleichsam intelligente, lebende Wesen mit eigenem Willen ab und möchte die Kontrolle über diese behalten. Das Ergebnis ist der eigene Tod, nicht etwa, weil die Automobile sich unmotiviert selbst entschieden hätten, ihre Macht gegen einen Menschen zu verwenden, sondern weil dieser Mensch den Fahrzeugen ihre Intelligenz, ihr Wesen abgesprochen hat und seinerseits Gewalt bzw. Kontrolle forciert hat. Die Sorge vor Kontrollverlust speist sich demnach nicht aus fehlendem Vertrauen, sondern aus mangelndem Wissen und Verständnis den Fahrzeugen gegenüber. Nicht die Maschinen können per se außer Kontrolle geraten, die Ignoranz und Arroganz der Menschen kann zur Gefahr ür sie selbst werden. Im 21. Jahrhundert hat sich ein weiterer, angstbehafteter, kritischer Mythos, eine weitere „Bedeutung“ um erneut mit Barthes zu sprechen, in Bezug auf autonomes Fahren herausgebildet. Während in Asimovs Erzählung noch die Verlässlichkeit der Fahrzeuge, so sie denn in ihrer Eigenheit respektiert werden, betont wurde, scheint sich nun die Angst und Sorge bezüglich Kontrollverlust weiter zu manifestieren. Schlagzeilen wie „‘Ein autonom fahrendes Auto erkennt bei Nacht kein Wildschwein‘“ 14 , „Das Auto, das entscheiden muss, ob es Alte oder Kinder über- ährt“ 15 , „Trotz tödlichen Unfalls: Uber will wieder selbstfahrende Autos testen“ 16 , „Teslas „Autopilot“ war bei tödlichem Unfall eingeschaltet“ 17 , „Farbkleckse bringen selbstfahrende Autos durcheinander“ 18 zeichnen dabei ein düsteres Bild: Eine (noch) nicht ausgereifte Technik scheint durch ihren bisherigen Teileinsatz eher eine Bedrohung zu sein, denn zu mehr Sicherheit zu ühren. Oft spielt dabei nicht nur der beürchtete Kontrollverlust einhergehend mit einem Geühl des Ausgeliefertseins eine Rolle, sondern grundsätzliche ethische Bedenken stehen im Fokus der gesellschaftlichen Debatte. Denn anders als Menschen, die in kritischen Situationen im Straßenverkehr intuitiv oder reflexartig handeln, müssen autonomen Fahrzeugen, wenn sie mit anderen Verkehrsteilnehmern interagieren, vorab ethische Prinzipien „einprogrammiert“ werden. Ramge (2018) beschreibt dies als „kognitive Entscheidung, also die Auswahl einer Handlungs-Option unter vielen“ (15), wobei die beste Lösung „das Ergebnis einer Wahrscheinlichkeitsrechnung [ist], in die viele Variablen einfließen.“ (15) Misselhorn (2018) spricht gar von einem „Zwang, die Systeme mit ethischen und rechtlichen Entscheidungsähigkeiten 14 https: / / www.zeit.de/ 2018/ 31/ kuenstliche-intelligenz-autonomes-fahren-wolfgang-wahlsterinterview [Stand 2020-07-15] 15 https: / / www.zeit.de/ digital/ 2018-10/ autonomes-fahren-kuenstliche-intelligenz-moralischesdilemma-unfall [Stand 2020-07-15] 16 https: / / www.spiegel.de/ auto/ aktuell/ uber-will-wieder-selbstfahrende-autos-testen-a- 1236599.html [Stand 2020-07-15] 17 https: / / www.handelsblatt.com/ unternehmen/ industrie/ autonomes-fahren-teslas-autopilotwar-bei-toedlichem-unfall-eingeschaltet/ 24357360.html? ticket=ST-985918f2mA1NCq7MK3NxoVFZvr-ap3 [Stand 2020-07-15] 18 https: / / www.spiegel.de/ auto/ aktuell/ autonome-autos-farbfleck-legt-sehvermoegen-des-autos-lahm-a-1293853.html [Stand 2020-07-15] <?page no="53"?> 4 KI-Anwendungen und ihre Narrative 53 auszustatten.“ (189) Gerdes und Thornton (2015) bemühen daür die wohl bekannten Asimov’schen Regeln zur Roboter-Mensch-Interaktion und adaptieren diese auf autonome Fahrzeuge im Straßenverkehr: So soll ein autonom fahrendes Fahrzeug weder mit Fußgänger*innen oder Fahrradfahrer*innen kollidieren (Regel 1), noch mit einem anderen Fahrzeug, außer durch die Kollision könnte Regel 1 verletzt werden (Regel 2), noch mit irgendeinem anderen Objekt der Umgebung, außer durch die Kollision könnten die Regeln 1 oder 2 verletzt werden (Regel 3) (vgl. 96). Die Autor*innen ügen noch ein viertes Gesetz hinzu; so sollen autonom fahrende Fahrzeuge die Straßenverkehrsregeln befolgen, außer dadurch würden die Regeln 1 bis 3 verletzt (vgl. 97). Doch zu Recht kritisiert Misselhorn (2018), dass „diese moralischen Grundsätze der Komplexität der möglichen Entscheidungssituationen nicht gerecht werden.“ (190) Diese Komplexität wird durch das allgemeinhin bekannte und oft diskutierte Szenario illustriert, wenn ein autonom fahrendes Auto sich in einer unlösbaren, dem sogenannten Trolley-Problem angelehnten Situation befindet: Es hat aufgrund einer Dilemma-Situation nur die Möglichkeit nach links oder nach rechts auszuweichen, wo sich alternativ jeweils ein oder mehrere Menschen, Kinder, Senior*innen, Familien etc. befinden, oder in ein auf ihn zukommendes Auto zu fahren oder eine andersartige Kollision ohne Ausweichmanöver hinzunehmen, bei dem der oder die Insass*innen des autonom fahrenden Autos zu Schaden kommen oder gar getötet werden können. Misselhorn (2018) zeigt auf, wie verschiedene ethische Denkschulen zu unterschiedlichen Ergebnissen kommen: So würde ein autonomes Fahrzeug gemäß dem Utilitarismus der Sicht der konsequentialistischen Ethik folgend Menschenleben gegeneinander aufrechnen und sich ür den geringsten numerischen Schaden entscheiden, während es gemäß der deontologischen Ethik im Sinne Kants genau hier im Vergleich Wertigkeiten von Menschenleben verortet, die ethisch verwerflich sind (vgl. 191-192). In derartigen Situationen nehmen Menschen es hin, dass schicksalhaft Fahrer*innen spontan, intuitiv und instinktiv reagieren und Entscheidung treffen, die Auswirkungen auf Leib und Leben anderer oder ihrer selbst haben, wobei über rechtliche Schuldfragen im Nachgang durch Gerichte entschieden wird. Bei autonomen Fahrzeugen hingegen hat sich eine Erwartungshaltung entwickelt, die fordert, dass bei einem technologischen System, das Sicherheit und Fortschritt verkörpert, eben diese zutiefst menschlichen und menschlich nicht kontrollierbaren Situationen gelöst werden. Genau hier zeigt sich jedoch die Komplexität der möglichen Konstellationen und die damit verbundenen ethischen Implikationen. So hinterfragt Precht (2020) diesen Anspruch auf Programmierung und Implementierung von ethisch-moralischen Entscheidungen, wenn er argumentiert, dass „diese Ethik, wie gezeigt, keine ist und zudem dem Grundgesetz widerspricht.“ (32) Stattdessen warnt er, dass „das zukünftige „autonome“ Fahren in unseren Großstädten nicht nur den Lebenswert von Menschen verrechnen soll, sondern auch jeden Verkehrsteilnehmer uneingeschränkt überwachen wird“ (32), was zu einer „drastischen Einschränkung unserer Freiheit“ (32) und zu einem „anderen Staat“ (32) ühren wird. Betrachtet man die beiden widersprüchlichen Mythen - Heilsversprechen versus Kontrollverlust - wird klar, wie weit das Signifikat des technischen Fortschritts durch Digitalisierung und Künstliche Intelligenz im Anwendungsgebiet des autonomen Fahrens noch von der tatsächlichen Realität entfernt ist. Nichtsdestotrotz <?page no="54"?> 54 Nicole Brandstetter entfalten sich wirkmächtige Narrative, die einerseits eine optimistische Technikgläubigkeit, andererseits eine kritische Technik-Angst widerspiegeln und so zur Verunsicherung der Gesellschaft beitragen. 4.2 Überwachung und Selbstoptimierung am Beispiel des Romans Die Hochhausspringerin (2018) Fragen der Kontrolle stehen in engem Zusammenhang mit Künstlicher Intelligenz. Doch nicht nur Aspekte der Kontrolle im Sinne von Steuerung und Macht über Roboter, Maschinen und deren Handeln werden narrativ gespiegelt, sondern die vermeintliche Kontrolle über sich selbst rückt mehr und mehr in den narrativen Fokus. Während in George Orwells Roman 1984 der Staat mit Hilfe von Überwachungskameras, Bildschirmen, Gehirnwäsche sowie Manipulation von Sprache und Denken Kontrolle über seine Bürger*innen ausübt, wird Big Brother, wie Zuboff (2018) argumentiert, im von ihr beschriebenen Überwachungskapitalismus zunehmend durch Big Other, „die wahrnehmungsähige, rechnergestützte und vernetzte Marionette, die das menschliche Verhalten rendert, überwacht, berechnet und modifiziert“ (437) abgelöst. So entwirft Julia von Lucadou in ihrem 2018 erschienen Roman Die Hochhausspringerin eine im Überwachungskapitalismus angesiedelte Gesellschaft, in der die Einzelnen nach beständiger Selbstoptimierung streben (müssen). Gleich zu Beginn ergeht in direkter Ansprache die Aufforderung an die Leser*innen, sich eine perfektionierte Welt vorzustellen, der er sich ähnlich einem Kamerazoom von oben nähert. Diese Welt ist „rund und glatt“ (Lucadou 2018, 9), sowohl die Erdoberfläche als auch die Stadt selbst werden von Gleichmäßigkeit dominiert, Gebäude „folgen einem architektonischen Stil und sind geometrisch angeordnet“ (9) und „[d]ie beinahe filigran wirkenden Hochhäuser recken sich nebeneinander in den Himmel und sind nicht voneinander zu unterscheiden.“ (9) Lediglich an den Rändern der Stadt wird das ästhetische Bild durch einen „Anblick von Dreck“ (10) entstellt. Doch nicht nur die Stadt selbst erscheint perfekt, auch die Menschen zeichnen sich durch Makellosigkeit, Schönheit und Leistung aus. Im Zoom fokussiert die Erzählung schließlich eine Leistungssportlerin „auf dem Höhepunkt ihrer Schönheit“ (10) mit symmetrischem Gesicht und makellosen Augen, die am Rand eines Flachdachs auf einem Hochhaus positioniert ist: „In ihrem Flysuit TM glitzert sie überirdisch.“ (11) Ganz im Sinne eines Motivationssprechs werden die Leser*innen eingeladen, sich in die Perspektive dieser Frau zu begeben und mitzuühlen: „Was Sie erleben, ist körpergewordene Euphorie, die zwischen den Häusern pulsiert. Schließen Sie die Augen. Lassen Sie sich anstecken. Spüren Sie in sich hinein bis in die Fingerspitzen, spüren Sie das Pochen Ihres Herzens, wie es sich in Ihrem Körper ausbreitet.“ (11) Schließlich folgen die Leser*innen der Frau, wie sie vom Hochhaus in „vollkommener Präzision“ (12) springt. Zunächst wird die Hochhausspringerin durch die Technik des von ihr getragenen Flysuit in den Himmel katapultiert, bevor sie in Kameras lächelnd angstfrei und wie schwerelos fliegt. Doch die Landung bleibt den Leser*innen hier verwehrt, denn nach dem euphorisierenden Ereignis des Absprungs zoomt die Erzählung wieder weg in die Unendlichkeit, denn „[j]etzt, in <?page no="55"?> 4 KI-Anwendungen und ihre Narrative 55 diesem Moment, da Sie sich langsam aus der Welt zurückziehen, gibt es keinen Tod, nur Leben.“ (13). In diesem Vorspann rücken die Leser*innen als direkt angesprochene Adressat*innen selbst in den Fokus der Motivationsrede, die sie scheinbar begeisternd in diese perfekte Welt einühren soll. Durch die Projektion der Ebenmäßigkeit und Perfektion des Beschriebenen auf die Ebene der Sprache, die sich durch Makellosigkeit, Harmonie, Schönheit und Vollkommenheit in der Wortwahl widerspiegelt, gleicht diese Exposition einer Hochglanzbroschüre oder einem Imagefilm, der zwar die ach so schönen Seiten der folgenden perfektionierten Welt vorwegnehmen soll, sie aber durch die stilistische Ausarbeitung von Beginn an ästhetisch konterkariert. Mit dem ersten Kapitel, dem eigentlichen Beginn der Diegese, wechselt die Erzählperspektive: Die Leser*innen folgen in der gleichzeitigen Narration im Präsens der Innenperspektive der Ich-Erzählerfigur und Protagonistin Hitomi Yoshida, die als Wirtschaftspsychologin ür die Firma PsySolutions und ihren Chef Masters arbeitet. Ihre Aufgabe ist es, die einst erfolgreiche Hochhausspringer Riva Karnovsky, die sich seit einiger Zeit allem - Training, Optimierung, Performance verweigert, wieder zu „reanimieren“, indem sie die Gründe eruiert und Riva durch geeignete Therapieansätze wieder in das ür sie vorgesehene Leben zu integrieren sucht. Die beiden Frauen bewegen sich in einer Welt der kontinuierlichen Effizienzsteigerung und Optimierung, Patentierung und Vermarktung, die gespalten ist in die von Wohlstand und Fortkommen abgeschnittenen Peripherien und einer anonymen Megacity. Neben Produkten wie dem von Hochhausspringern getragenen „Flysuit TM “ (10) sind auch Paare („Rivaston TM “ (36)), Verhaltensweisen wie ein spezielles Lachen („SchoolGirlGiggle TM “ (138)), Methoden („Glückstraining TM “ (29)), Momente („Life-Changing-Moment TM “ (65)) oder Slogans („Everything’g gonna be okay TM “ (30)) zur Effizienzsteigerung, Problemlösung und Vermarktung kategorisiert und patentiert. Die Allgegenwart der Trademarks im Schriftbild ührt die effizienzbasierte Ökonomisierung dieser Welt permanent vor Augen. Das funktionale Prinzip der Aufrechterhaltung des permanenten Effizienzstrebens entspricht einem multiperspektivischen Überwachungssystem, das auch in der narrativen Konstruktion implementiert und kontinuierlich explizit adressiert wird. So beobachtet Hitomi ihr Objekt Riva und deren Partner Aston durch verschiedene Kameras, Hitomi selbst wird von ihrem Chef Masters permanent über verschiedene Kanäle observiert, und Aston als Fotograf erfasst selbst durch seine statische Kamera seine Umwelt, jedoch ausschließlich gefiltert und in nachbearbeiteter Form. Kameraeinstellungen, Blickwinkel, Monitore und Beobachtungen bestimmen die Erzählung. Hitomi selbst stellt dabei fest, dass diese Beobachterperspektive die Realität sogar optimiert: „Manchmal kommt mir das Monitorbild mit seiner hohen Auflösung klarer vor als die Realität. Präziser.“ (40) Durch diese beobachtende Konstruktion wird die Erzählperspektive konterkariert: Zwar erzählt Hitomi als homodiegetische Erzählerfigur mit interner Fokalisierung die Ereignisse, die sie selbst betreffen, jedoch beobachtet sie zugleich in der Heterodiegese ähnlich einer extradiegetischen Figur Riva und ihr Tun in externer Fokalisierung, so dass ihr nur die Interpretation der permanent gesammelten und beobachteten Daten bleibt. Zudem ist Hitomi selbst noch Beobachtungsobjekt einer wei- <?page no="56"?> 56 Nicole Brandstetter teren Erzählebene. Objektivierend anmutende, simplifizierte Syntax und Wortwahl spiegeln die Beobachtungskonstruktion stilistisch wider. Die Narration erfolgt im Präsenz, was die Unmittelbarkeit des Erzählten und Beobachteten noch forciert; sie wird jedoch immer wieder durch unvermittelte Analepsen in Hitomis Kindheit unterbrochen, die den Leser*innen wohl ein besseres Verständnis ür ihre Handlungsweisen liefern soll, obwohl doch gleichzeitig Masters darauf hinweist, dass die Analyse der Kindheit nicht zu den „Methoden der modernen Psychologie“ (129) gehöre und damit Ressourcenverschwendung gleichkomme. Die Bewohner*innen der Stadt verdienen sich der Trias „Vermessung, Wertermittlung und Inwertsetzung“ (Mau 2017, 261) folgend Privilegien über die Bewertung ihrer Performance und ihr Rating, um so eine Situation zu erschaffen, in der Türcke (2019) die neue „Strukturierungsmacht der gesamten sozialen Realität“ erkennt (125). Credits und Scores ür Arbeitsleistung, Führungsstil, Datingverhalten, Körperbewusstsein, Achtsamkeit, Ernährung, Sexualität oder Verhalten in der Öffentlichkeit sind ubiquitär und bestimmen nicht nur über sozialen Status, sondern auch über die allgemeine und spezifische Lage und Ausstattung der Wohnung: „Er lässt seinen Blick über die Designmöbel streifen, das ausladende, von einem bekannten Innenarchitekten gestaltete Wohnzimmer, das schon mehrfach auf Architekturblogs gefeaturt wurde. In einem der begehrtesten Distrikte, reserviert ür VIPs und Bestverdiener. Riva und Aston wohnen nur drei Stockwerke unter dem Penthouse. Ihr Blick über die Stadt ist atemberaubend. Das hereinfallende Licht heute besonders intensiv. Ich muss die Bildschirmhelligkeit ständig anpassen, wenn ich die Kameraansicht wechsle. Ich stelle mir vor, wie das Tageslicht mit jedem Stockwerk unter ihnen langsam abnimmt und im untersten Stock nur noch Kunstlicht existiert.“ (35) Dabei ist die Vergänglichkeit dieser Privilegien inhärent spürbar. So schließen sich z.B. Riva und Aston zu einer Credit Union zusammen, die im Sinne der Effizienzsteigerung die emotionale Bindung einer Liebesbeziehung oder gar Heirat substituiert: „Wir sind eine Credit Union, Riva. Meine Credits sind deine Credits. If you’re going down, I’m going down.“ (141) So entsteht das Bild einer Gesellschaft, die Mau (2017) als Folge permanenter Selbstvermessung beschrieben hat: Im neuen „Modus der sozialen Rangzuweisung durch Quantifizierung und Digitalisierung“ (185) werden Algorithmen „sehr schnell zu den zentralen Instrumenten der Benennungsmacht“ (203), so dass schließlich „die Utopie vollständiger Transparenz und die Dystopie totaler Kontrolle in eine ähnliche Richtung“ (231) weisen. In dieser Welt wird die in der Exposition in unterkühlter Ästhetik perfektionistisch anmutende anonyme Stadt als diametral entgegengesetzte Welt der Peripherien inszeniert, die Hitomi als Ort der Hitze und des Smog mit „schlechten, staubigen Straßen“ (101), „grauen Blockbauten“ (101) und Menschen, die „gewaltätig“ (187) wirken und von Hitomi als „unkontrollierte Meute“ (101) oder „unübersichtliche Masse“ (187) beschrieben werden, die „schlechtes, ungesundes Essen in sich hineinstopften“ (101); mit veralteten, fehlerhaften, geährlichen und unprofessionellen Einrichtungen und Übungsplätzen, die die perfekte Welt der Megacity zu kopieren suchen (vgl. 175f.). Doch diese negative Repräsentation dieser unperfekten, unkontrollierbaren Welt wird durch die Faszination, die sie auf andere Charaktere wie <?page no="57"?> 4 KI-Anwendungen und ihre Narrative 57 Hitomis Jugendfreundin Andorra oder die Hochhausspringerin Riva ausübt, konterkariert. Riva scheint an der Perfektion und der damit ür sie einhergehenden Eintönigkeit, Vorhersehbarkeit und Langeweile zu ertrinken, so dass ihre Sehnsucht eben diesen Peripherien gilt, wo sie geboren wurde und in die sie schlussendlich wieder zurückkehrt. Der als erstrebenswert verkaufte Weg jedoch ist aus den Peripherien heraus in die Stadt. Dieser Weg ührt ür die normale Bevölkerung ausschließlich über Castings, die potenziell geeignete Kandidat*innen ür bestimmte Berufe auswählen; ür reiche, elitäre Kinder ist der Weg bereits vorgezeichnet, indem sie in eigens ür sie konzipierten Erziehungsstätten fern der „Bioeltern“ aufwachsen und so auf ein auf Funktionieren und Effizienz getrimmtes Leben vorbereitet werden. Emotionale Bindungen sind in dieser Welt nicht vorgesehen - allein der Begriff „Bioeltern“ suggeriert die inhärente Inadäquatheit dieses Konzepts. Bei fehlender emotionaler Stabilität oder empfundener Not helfen patentierte Slogans wie „Everything’s gonna be okay TM “ (30), Mindfulness-Trainings, eskapistische Gedankenreisen durch einen inszenierten Blog aus einer Biofamilie genannt „Family Services TM “ (90) oder die digitale Möglichkeit, mit einem Parentbot eine inszeniertes Mutter-Tochter-Gespräch zu ühren (vgl. 77ff. und 254ff.), der natürlich im Sinne des Systems Rückmeldungen und Ratschläge erteilt. Der Roman Die Hochhausspringerin entwickelt in seiner Konstruktion den bekannten Überwachungsdiskurs durch eine ubiquitäre Form der Selbstüberwachung weiter. So sieht Han (2013) darin die Vollendung der Transparenzgesellschaft: „An die Stelle von Big Brother tritt Big Data. Die lückenlose Totalprotokollierung des Lebens vollendet die Transparenzgesellschaft.“ (92) Hervorzuheben ist, so Han, die „besondere panoptische Struktur“ (92) der digitalen Überwachungsgesellschaft: „Die Bewohner des digitalen Panoptikums hingegen vernetzten sich und kommunizieren intensiv miteinander. Nicht räumliche und kommunikative Isolierung, sondern Vernetzung und Hyperkommunikation machen die Totalkontrolle möglich.“ (92) Es ist umso wirksamer, als dieses digitale Panoptikum „ohne jede perspektivische Optik“ (Han 2012, 75) auskommt. 19 So wird Freiheit suggeriert, die doch nur Kontrolle bedeutet, der sich die Menschen nur allzu gerne selbst unterwerfen und glauben, ein „sich optimierendes Projekt“ (61) zu sein, sich dabei aber in der „Logik der Leistungsgesellschaft“ (Han 2012, 79) nur selbst ausbeuten. Der von Han (2012) formulierte, diesem System inhärente ökonomische Imperativ hat radikale Folgen: „Konsumenten liefern sich freiwillig den panoptischen Beobachtungen aus, die ihre Bedürfnisse steuern und befriedigen.“ (81) Geradezu idealtypisch scheint Hitomi diesen Projektentwurf im Sinne des ökonomischen Imperativ ür sich und ür ihr Objekt Riva internalisiert zu haben. Sie verkörpert damit die gesellschaftliche Tendenz, die Nosthoff und Maschewski (2019) im Zuge der omnipräsenten Wearables zur Selbstvermessung und Optimierung beschrieben haben: „Das Quantifizierte Selbst wirkt damit als der neue Geist in der Maschine, als technisch aufgerüsteter, personifizierter Innovationsschub, der sich qua Smartwatch von morgens bis abends als bewegendes, als atmendes und 19 Han erklärt ausführlich die Unterschiede der Transparenzgesellschaft, die durch das aperspektivische digitale Panoptikum charakterisiert ist, zur Disziplinargesellschaft des 20. Jahrhundert, deren Überwachungsform dem Benthamschen Panoptikum nachempfunden und literarisch in Orwells 1984 verarbeitet wurde. (vgl. Han 2012, 74ff.) <?page no="58"?> 58 Nicole Brandstetter schlafendes, aber auch als krankes Wesen in der fortlaufenden Optimierung und andauernden Selbstüberwindung übt.“ (24) Riva hingegen scheint an dem Projektstatus zu (ver-)zweifeln und sich nach ihren Subjektstatus in den Peripherien zurückzusehnen. Ganz in Hans Verständnis ist es dabei ür Hitomi nicht nachvollziehbar, warum Riva sich entzieht, denn, so Han, die digitale Kultur beruht auf Daten, Zahlen und Fakten, wohingegen alles Emotionale, Geschichtliche auf Erzählen beruht (vgl. Han 2013, 50). Daten ersetzen hier Interpretation, liefern Hitomi jedoch keine Erkenntnis zu den Gründen ür Rivas Rückzug, denn, wie Han (2012) zeigt, „Informationsmasse erzeugt keine Wahrheit.“ (68) Riva folgt dem ihr einzig möglichen Weg, den Mau (2017) aus der gesellschaftlichen Steuerung durch „Indikatorisierung, Dokumentation, Evidenzbasierung und Transparenz“ (235) beschrieben hat: „Nur um den Preis der Selbstexklusion sind Personen dann noch in der Lage, sich von ihrem Abschneiden in Ratings, Scorings oder Rankings freizumachen.“ (235) Die Hochhausspringerin entwirft eine Welt, die ür alle Probleme und Eventualitäten patentierte, algorithmisch berechnete Lösungen hat, so dass Selbstüberwachung und Selbstoptimierung zu einem berechenbaren und damit vermeintlich schöneren und leichteren Leben ührt. Durch Lucadous ästhetisierten Stil und ihre den gesellschaftlich gewollten Perfektionismus widerspiegelnde Ästhetik wird jedoch gerade diese Perfektion infrage gestellt. Den Leser*innen wird eine multiple, sich selbst optimierende und überwachende Gesellschaft offeriert, die in ihrer Berechenbarkeit, Emotionslosigkeit und Ökonomisierung geradezu erdrückend wirkt und eine „Gesundheitsdiktatur“ (Weidermann 2020, 113) entwirft, die Juli Zehs Version ihres 2010 erschienen Roman Corpus Delicti um die Möglichkeiten digitaler Unterstützung durch Algorithmen erweitert. Der beiden Romanen zugrundeliegende Diskurs zwischen persönlicher Freiheit auf der einen Seite und körperlicher Unversehrtheit und Sicherheit auf der anderen Seite gewinnt gerade in der Corona-Krise an Intensität, steht doch zur Diskussion wie viel Freiheit eine funktionierende (westliche) Gesellschaft aufzugeben bereit ist, um sich vor gesundheitlichen Bedrohungen zu schützen. Julia von Lucadou und Juli Zeh entwickeln in ihren Erzählungen Szenarien, in denen die Freiheit ihren Wert verliert, um einem veränderten Verständnis von Chancengleichheit, Berechenbarkeit und öffentlichem Interesse Raum zu geben. 4.3 Literatur Asimov, Isaac 1953. Sally. fantastic 2(3), 34-50 und 162. Barthes, Roland 2016a. Der Mythos heute, in ders.: Mythen des Alltags. Berlin: Suhrkamp, 249-316. Barthes, Roland 2016b. Der neue Citroën, in ders.: Mythen des Alltags. Berlin: Suhrkamp, 196-198. Brost, Marc & Hamann, Götz 2018. „Ein autonom fahrendes Auto erkennt bei Nacht kein Wildschwein“. Zeit Online. 25.07.2018. https: / / www.zeit.de/ 2018/ 31/ kuenstliche-intelligenz-autonomes-fahren-wolfgang-wahlster-interview [Stand 2020-07-15] Gerdes, J. Christian & Thornton, Sarah M. 2015. Implementable Ethics for Autonomous Vehicles, in: Maurer, Markus; Gerdes, Chris; Lenz, Barbara; Winner, <?page no="59"?> 4 KI-Anwendungen und ihre Narrative 59 Hermann (Hrsg.). Autonomes Fahren. Technische, rechtliche und gesellschaftliche Aspekte. Berlin: Springer-Verlag, 87-102. Han, Byung-Chul 2012. Transparenzgesellschaft. Berlin: Matthes & Seitz. Han, Byung-Chul 2013. Im Schwarm. Ansichten des Digitalen. Berlin: Matthes & Seitz. Lucadou, Julia von 2018. Die Hochhausspringerin. Berlin: Hanser Verlag. Mau, Steffen 2017. Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp. Misselhorn, Catrin 2018. Grundfragen der Maschinenethik. 2. Aufl. Stuttgart: Reclam. Nosthoff, Anna-Verena & Maschewski, Felix 2019. Die Gesellschaft der Wearables. Digitale Verührung und soziale Kontrolle. Berlin: Nicolai Publishing & Intelligence GmbH. o. A. 2018. Das Auto, das entscheiden muss, ob es Alte oder Kinder überährt. Zeit Online. 24.10.2018. https: / / www.zeit.de/ digital/ 2018-10/ autonomes-fahren-kuenstliche-intelligenz-moralisches-dilemma-unfall [Stand 2020-07-15] o. A. 2018. Trotz tödlichen Unfalls: Uber will wieder selbstfahrende Autos testen. Der Spiegel. 03.11.2018. https: / / www.spiegel.de/ auto/ aktuell/ uber-will-wiederselbstfahrende-autos-testen-a-1236599.html [Stand 2020-07-15] o. A. 2019. Farbkleckse bringen selbstfahrende Autos durcheinander. Der Spiegel. 29.10.2019. https: / / www.spiegel.de/ auto/ aktuell/ autonome-autos-farbflecklegt-sehvermoegen-des-autos-lahm-a-1293853.html [Stand 2020-07-15] o. A. 2019. Teslas „Autopilot“ war bei tödlichem Unfall eingeschaltet. Handelsblatt. 18.05.2019. https: / / www.handelsblatt.com/ unternehmen/ industrie/ autonomes-fahren-teslas-autopilot-war-bei-toedlichem-unfall-eingeschaltet/ 24357360.html? ticket=ST-985918-f2mA1NCq7MK3NxoVFZvr-ap3 [Stand 2020-07-15] Orwell, George 1950. 1984. New York: Signet Classic. Precht, Richard David 2020. Roboter können keine Moral. Die Zeit 26, 32. Ramge, Thomas 2018. Mensch und Maschine. Wie Künstliche Intelligenz und Roboter unser Leben verändern. 2. Aufl. Ditzingen: Reclam. Statistisches Bundesamt 2020. 6,6% weniger Verkehrstote im Jahr 2019. Pressemitteilung Nr. 061 vom 27. Februar 2020. https: / / www.destatis.de/ DE/ Presse/ Pressemitteilungen/ 2020/ 02/ PD20_061_46241.html Türcke, Christoph 2019. Digitale Gefolgschaft. Auf dem Weg in eine neue Stammesgesellschaft. München: Beck. Weidermann, Volker 2020. Angst um die Freiheit. Der Spiegel 22, 113. Weißenborn, Stefan 2015. Vor 60 Jahren fiel die Göttin vom Himmel. Welt. https: / / www.welt.de/ motor/ modelle/ article137657350/ Vor-60-Jahren-fiel-die- Goettin-vom-Himmel.html Zeh, Juli 2010. Corpus Delicti. Ein Prozess. München: btb. Zuboff, Shoshana 2018. Das Zeitalter des Überwachungskapitalismus. Frankfurt am Main: Campus Verlag. <?page no="60"?> 5 Krieg Ralph-Miklas Dobler 5.1 Waffen Künstliche Intelligenz in der Rüstungsindustrie und im Krieg ist ein Extremfall. Hier sind Gebiete berührt, in denen kognitive Systeme nicht nur vielleicht - wie etwa beim autonomen Fahren - in die Situation einer schwierigen Entscheidungsfindung über Leben und Tod von Menschen kommen. Vielmehr ist beim Einsatz von Künstlicher Intelligenz im Krieg das Töten von Menschen durch entsprechend programmierte Maschinen des erklärte Ziel der Anwendung. Trotzdem über das Außerordentliche zu sprechen, mit dem zumindest vorerst vergleichsweise wenige Personen in Kontakt kommen werden, macht insofern Sinn, als dass grundsätzlich erst die Betrachtung und die Kenntnis der schlechtesten oder der vollkommensten Ausprägungen eines Phänomens den genauen und differenzierten Blick auf die gesamte Problematik ermöglichen. Der Einsatz von Künstlicher Intelligenz in Waffensystemen ist längst üblich. Da die Programme unabhängig vom Menschen eine Entscheidung treffen, spricht man von autonomen bzw. letalen autonomen Waffensystemen, sogenannten LAWS (Lethal Autonomous Weapon Systems). Dass es auch hier darum geht, die menschlichen Fähigkeiten u.a. durch höhere Präzision und größere Geschwindigkeit zu ersetzen, also die Effizienz zu steigern, muss nicht betont werden. Effizienter Töten ist die Intention der LAWS-Entwicklung, da dies von zahlreichen Militärstrategen als Vorteil erachtet wird. Wie immer lohnt es sich, vor weiteren Überlegungen die wichtigsten verwendeten Begriffe kurz zu betrachten (vgl. Misselhorn 2018, 157). Als „Waffe“ kann vieles benutzt werden; gezielt entwickelt werden eine Waffe oder ein Waffensystem jedoch, um zu verletzen oder um zu töten. Hierbei ist es irrelevant, ob es sich um Verteidigung oder um Angriff handelt. Etwas heikler ist die Frage, wann ein Waffensystem als „autonom“ bezeichnet werden kann. Grundsätzlich sind autonome Waffensysteme unbemannt. Sie benötigen also keinen Fahrer, Kapitän oder Piloten, der physischer Bestandteil der Maschine ist. Im militärischen Sprachjargon unterscheidet man In-the-Loop-Systeme, On-the-Loop-Systeme und Out-of-the- Loop-Systeme (vgl. Misselhorn 2018, 158; Grimm u.a. 2019, 178-180). In-the-Loop bindet den Menschen in die Kontrollschleife vor einer Aktion fest ein. So wird etwa eine autonom fliegende Drohne erst nach der Überprüfung von aufgenommenen Bildern und der Entscheidung durch den Menschen über das Drücken eines Knopfes ein anvisiertes Ziel ausschalten. On-the-Loop-Maschinen agieren selbständig, nachdem sie zu einem bestimmten Zweck aktiviert wurden. Raketenabwehrsysteme die an einer Landesgrenze in regelmäßigen Abständen positioniert wurden, nehmen einen Angriff wahr, visieren die Flugkörper an und zerstören diese. Ein Kontrollzentrum ist jedoch über alle Schritte unterrichtet und ein Mensch könnte vor dem Abfeuern eines Abwehrgeschosses eingreifen. Out-ofthe-Loop-Systeme agieren, einmal aktiviert, ganz ohne menschliche Kontroll- und Eingriffsmöglichkeiten (vgl. Scharre 2018, 46-50). In einem ganz anderen Kontext <?page no="61"?> 5 Krieg 61 Als Hauptaspekt von Künstlicher Intelligenz ührt die Autonomie von sichtbar agierenden Maschinen immer wieder zu größerer Besorgnis (vgl. Grimm u.a. 2019, 178). Oft wird dabei vergessen, dass längst unsichtbare Programme in Rechenmaschinen unabhängig agieren und den Alltag in Politik, Wirtschaft und Gesellschaft bestimmen. Allerdings ist der der Begriff des „autonomen Systems“ insofern unscharf, als dieses nicht wie der Mensch in verschiedenen Situationen oder bei allen Aufgaben selbständig handeln kann (vgl. Dignum 2019, 18). Die Aktionen von KIgesteuerten Waffen sind immer auf einen begrenzten und genau definierten Kontext bezogen, im gegeben Fall wäre es das Erkennen und der Angriff auf einem topografisch begrenzten Gebiet. Autonomie ist folglich keine prinzipielle Eigenschaft des Systems, sondern das Resultat einer Interaktion zwischen Programmierern und Maschine; dies gilt ür alle aktuellen KI-Anwendungen. Das US-Militär entwickelt bereits seit 1998 ein Low Cost Autonomous Attack System (LOCAAS), das im Iran, Kosovo und Afghanistan bereits im Einsatz war (vgl. Scharre 2018, 49). Der von einem Algorithmus gesteuerte Schwarm kleiner Fluggeräte kann Luftabwehrsysteme, Raketenstellungen und Panzer erkennen und zur Zerstörung aus drei verschiedenen Waffen wählen. Die Boeing SLAM-ER cruise missile kann ebenfalls selbständig im Einsatzgebiet Ziele erfassen und zerstören (vgl. Sparrow 2007, 62). Bei beiden Beispielen handelt es sich um unmanned aerial vehicles (UAVs), die ursprünglich zur Luftaufklärung entwickelt wurden. Deren Größe und ihre Vielseitigkeit wachsen mit der Anzahl der Sensoren, die an Bord eingebaut werden, worin zugleich die größten Herausforderungen ür die Entwicklung und die Wartung liegen. Gerade in diesem Einsatzbereich muss die Technik ununterbrochen aktualisiert und erneuert werden. Die Drohnen können tagelang über dem Höhenlimit der feindlichen Flugabwehr kreisen und hochauflösende Bilder eines größeren Gebietes liefern. Auch künftig wird hier die automatisierte Bildverarbeitung die entscheidende Komponente des Systems sein, womit bild- und medienwissenschaftliche Fragestellungen relevant werden. Im Wasser sind die Herausforderungen ür unbemannte Fahrzeuge größer (vgl. Jordan 2016, 141-143). Salzwasser, Wind und Wellen stellen die Sensoren und die Kommunikation vor größere Probleme. Zudem müssen die unmanned underwater vehicles (UUVs) geräuscharm sein und dürfen nicht in die Hände des Feindes fallen, da sie leichter zu fangen sind als Fluggeräte. Zu den aktuellen Entwicklungen gehört das Manta-System, der Seaglider, der Proteus sowie der Spartan Scout, der bereits 2003 während des Irakkriegs im Persischen Golf ür Aufklärungszwecke zum Einsatz kam. Am Boden ist die Entwicklung von unmanned ground vehicles (UGVs) zum Zweck der Aufklärung sowie zum Räumen von Minenfeldern und Sprengsätzen bereits weit fortgeschritten. Allerdings sind gegenwärtig die unbemannten Fahrzeuge zu Land und zu Wasser noch wenig im Kampfeinsatz. D.h. das wäre das autonome Fahren ebenfalls eine Art Out-of-the-Loop-System. Mit LAWS ausgestattete Panzer, Drohnen oder Boote werden quasi „freigelassen“, um sich ihre Ziele selbst zu suchen und ohne Rückmeldung zu zerstören. Selbstlernende Systeme ermöglichen eine beständige Verbesserung ihrer Effizienz. Es sei nur am Rande bemerkt, dass das Training solcher Maschinen möglichst viele Daten aus realen Kriegen benötigt, die eine inzwischen weitgehend digitalisierte Kriegsührung bereits liefert. Das heißt, die zahlreichen Drohneneinsätze der letzten Jahrzehnte dienten auch der beständigen Verbesserung der KI-Systeme. <?page no="62"?> 62 Ralph-Miklas Dobler selbständige Erkennen und Zerstören von Zielen obliegt momentan in erster Linie noch den Drohnen, die folglich auch die größere öffentliche Aufmerksamkeit erhalten. In allen drei Waffengattungen wird allerdings künftig verstärkt die autonome Aktion das wichtigste Ziel der Entwickler sein. 5.2 Ethische Fragen Die Vorteile der autonomen kognitiven Waffensysteme liegen - zumindest vermeintlich - auf der Hand. Zum einen schafft die Geschwindigkeit einen enormen Vorteil gegenüber dem angreifenden Gegner. Zum andern kann ein Angriff mit ungemeiner Präzision ausgeührt worden. Seit dem Irakkrieg hat sich der Begriff des „chirurgischen Eingriffs“ verbreitet, als sei das Angreifen eines Ziels eine medizinische Operation am Menschen. Folglich können Kollateralschäden minimiert, eigene Soldat*innen geschützt und vor traumatischen Erfahrungen bewahrt werden. Da die Waffensysteme nicht um ihr eigenes Leben ürchten, werden zudem Kriegsverbrechen, die Soldat*innen aufgrund von emotionalem und psychischem Stress begehen, ausgeschlossen. Darüber hinaus können die Zahl der Frontkämpfer*innen verringert, das Zielterritorium vergrößert und die Zielorte tiefer im Feindesland gewählt werden. Die amerikanische Defense Advanced Research Projects Agency (DARPA) versucht, möglichst schnell militärische Leistungsähigkeiten zu entwickeln, „that create asymmetric technological advantage and provide U.S. forces with decisive superiority and the ability to overwhelm our opponents“ (zit. nach Jordan 2016, 134). Hingegen hat schon 2015 ein internationales Expertenteam vor der Entwicklung weiterer, immer perfekter agierender autonomer Waffensysteme gewarnt (vgl. Autonomous Weapons 2015). Die Argumente sind einsichtig, es wird ein Wettrüsten und ein Kontrollverlust über die Kriegshandlungen beürchtet sowie auf ein zentrales Problem der vernetzten Digitalisierung, nämlich das Hacken der Systeme und den Missbrauch der Waffen durch Terroristen und Milizen hingewiesen. Ein Beispiel ür letztere ist etwa die Hisbollah-Bewegung, die nicht nur mit Drohnen agiert, sondern auch das israelische Militär hacken konnte (vgl. Singer 2009, 263-265). Bei der Diskussion um KI und autonome Waffensysteme sind Fragen nach ethisch und moralisch korrektem Handeln sowie nach der wirtschaftlichen, rechtlichen und kulturellen Verantwortung unentbehrlich (vgl. Dignum 2019). Zumindest, wenn man nicht aus Sicht des Pazifismus argumentiert, der das Töten anderer Menschen grundsätzlich ablehnt und demzufolge die Entwicklung von Waffensystemen, egal ob autonom oder nicht, prinzipiell verhindert werden müsste. Wer also in einen Diskurs über KI und Krieg einsteigt, der muss auf der Grundlage des internationalen humanitären Völkerrechts den sogenannten gerechten Krieg als erlaubt und sinnvoll erachten (vgl. Misselhorn 2018, 158). Entsprechend der dort verwendeten, bereichsspezifischen normativen Ethik ist es erlaubt, Gewalt anzuwenden und zu töten, wenn es die Umstände erfordern. Bedingungen daür sind unter anderem die Verhältnismäßigkeit, die Notwendigkeit, das Vermeiden von zivilen Opfern sowie die Einhaltung der Menschenrechte nach dem Ende der Kampfhandlungen. Autonome Waffensysteme müssten demnach gegnerische Kämpfer und Ziele mit möglichst hoher Sicherheit erkennen. Sodann müsste der Angriff mit einem militärischen Vorteil zu begründen, d.h. angemessen sein. Schließlich müssten Kollateralschäden vermieden und verhältnismäßige Mittel <?page no="63"?> 5 Krieg 63 eingesetzt werden. Die Einhaltung dieser Vorgaben ällt bekanntlich bei von Menschen durchgeührten Aktionen, die in-the-Loop oder on-the-Loop stattfinden, schwer, weshalb autonom agierende Maschinen hier effizient eingesetzt werden könnten. Eine große Herausforderung hierbei ist die Programmierung und das Training der Waffensysteme, denn diese müssen die Entscheidungen in Form und auf der Grundlage von mathematischen Rechenprozessen treffen. Tatsächlich wurde von Ronald Arkin (Georgia Institut of Technology) ein Ethikmodul ür autonome kognitive Waffensysteme entwickelt (vgl. Arkin 2009; Misselhorn 2018, 158-166; Grimm 2019, 11). Die einander ergänzenden Elemente sind erstens eine ethische Verhaltenssteuerung, die eine grobe Auswahl an möglichen Tötungshandlungen vorschlägt. Zweitens der ethische Regler, der eine Feinabstimmung vornimmt, indem er die Optionen nochmals überprüft. Drittens der ethische Adapter, der nach der Handlung überprüft, ob diese tatsächlich den moralischen Anforderungen entsprach, was zu einem Lerneffekt ührt. Und schließlich viertens ein Verantwortungsberater, der von einem Menschen im Kontrollzentrum die Verantwortungsübernahme anfordert. Die Vorstellung ist verlockend, vor allem, weil zahlreiche Daten und Informationen schnell miteinander abgeglichen werden können. So könnte etwa ein identifizierter Konvoi feindlicher Kämpfer in einer ersten Entscheidungsschleife als legitimes Ziel erkannt werden, dessen Beschuss allerdings in einer zweiten Entscheidungsschleife aufgrund der topographischen Nähe zu Krankenhäusern und Wohnblöcken erneut berechnet werden muss. Der gefundene Abschusswinkel würde die Gebäude nicht in Mitleidenschaft ziehen, allerdings ein Taxi mit drei Insassen zerstören. Eine weitere Entscheidungsschlaufe bestätigt die militärische Notwendigkeit des Abschusses in Relation zu den Kollateralschäden. Allerdings kann man sich bei Arkins Entwicklung des Eindrucks nicht erwehren, dass sie mit einer gewissen Naivität zustande kam. Ethisches Verhalten heißt, auf der Grundlage eines gesellschaftlichen Konsens diejenige Wahl zu treffen, die ür die Gemeinschaft am vorteilhaftesten ist (Dignum 2019, 72). Diese zweifelsfrei schwierige Entscheidung ist nicht Bestandteil des Programms. Die Maschinen müssen Entscheidungen treffen, die das Leben von Menschen abwägen. Dies ührt zu moralischen Dilemmata ür die es keine richtige Lösung gibt, da zwischen zwei unterschiedlichen schlechten Lösungen entschieden werden muss. Während man beim bekannte Weichenszenario, das oft im Kontext von autonomem Fahren bemüht wird, mit Wahrscheinlichkeiten des Eintretens argumentieren kann, ist die Lage beim Einsatz von Waffen in Kriegssituationen grundsätzlich anders. Vor allem wird gerade bei der Argumentation mit Rechtsvorschriften gerne übersehen, dass Gesetz und Ethik nicht dasselbe sind. Ob etwas legal oder ethisch korrekt ist, sind zwei völlig verschiedene Ebenen eines Problems. Besonders problematisch beim gerne vorgebrachten Argument der ethischen Verantwortung ist, dass es nicht nur eine Ethik gibt und die aufgeklärte Ethik der westlichen Welt nicht global anwendbar ist (vgl. Dignum 2019, 35). Das christlich geprägte Verständnis, das auf der klassischen griechischen Philosophie beruht, ist ein ganz anderes als in Asien oder islamisch geprägten Kulturräumen. Dabei muss man gar nicht eine globale Sicht bemühen, selbst in Europa herrschen gegenwärtig zwei Formen ethischen Denkens vor, nämlich der klassische Utilitarismus und der Kategorische Imperativ (vgl. Nida-Rümelin & Weidenfeld 2018, 84). Handlungen sollen also entweder so gewählt werden, dass die besten Folgen entstehen, <?page no="64"?> 64 Ralph-Miklas Dobler oder aber die eigenen Handlungsmotive sollen immer auf ihre Verallgemeinerbarkeit überprüft werden. Dringend zu diskutieren wäre daher die Frage, ob das globalisierte, digitale Zeitalter nicht eine ganz neue Form ethischen Verhaltens verlangt, da sich soziales Handeln zunehmend in virtuelle Räume verlagert. Asimov und seine Gesetze der Robotik - hier vor allem das erste - sind aktueller denn je (vgl. Delhaye 2017, 225), wobei deren Fiktionalität, es handelt sich ja um eine Sammlung von Geschichten, immer einbezogen werden muss (vgl. Grimm u.a. 2019, 173-175). Zudem sollte die Frage, wie man ethisch agierende KI entwickeln kann, vermehrt durch die Frage, ob man das überhaupt tun sollte und welche Folgen diese Technologie mit sich bringen würde, ersetzt werden. Ethische Handlungen müssten in einen Code übersetzbar sein, das heißt, ethisches Handeln müsste formalisiert und rechnerisch definiert werden (vgl. Dignum 2019, 72). Die Festlegung der Werte wäre vom Einsatzbereich der Künstlichen Intelligenz abhängig, was jedoch bei Waffensystemen abermals zu Schwierigkeiten ührt: Sind die zu befolgenden ethischen Vorgaben bei einer Drohne des US-Militärs, die im Nahen Osten agiert, an der islamischen Bevölkerung vor Ort oder an den Vereinigten Staaten orientiert? Die Tatsache, dass bei KI-Systemen mit steigender Autonomie auch das erforderliche soziale Bewusstsein zunehmen muss, würde auch eine Vergrößerung des ethischen Verhaltens geradezu erzwingen (vgl. Wallach u.a. 2008). 5.3 Verantwortung und Autonomie An Fragen nach Ethik und Moral schließt die bereits aufgeworfene Frage nach der Verantwortung direkt an. Da bislang unklar ist, wer bei maschinellen Fehlentscheidungen zur Rechenschaft gezogen werden kann, wenn keine Absicht, keine Einsicht und keine kausale Kontrolle über Handlungen vorliegen, spricht man von einem „responsibility gap“ (vgl. Misselhorn 2018, 168; Bostrom 2014, 155-176). Um sich die Tragweite dieser Problematik zu vergegenwärtigen, ist es nötig, das Selbstverständliche in Erinnerung zu rufen: das menschliche Zusammenleben beruht auf Regeln, deren Einhaltung letztlich durch die Androhung von Konsequenzen bei Nichtbeachtung gesichert werden soll. Auch das moderne Rechtssystem funktioniert nur, weil man die Verantwortlichen ür Verstöße zur Rechenschaft ziehen kann. Wenn Maschinen beginnen würden, innerhalb der menschlichen Gemeinschaft autonom zu agieren, ohne dass ihr Tun strafrechtlich verfolgt werden kann, so würden die Grundfesten menschlichen Zusammenlebens ausgehebelt. Viele Aktionen der autonomen Waffensysteme sind nicht vorhersehbar und sie können, wenn Künstliche Neuronale Netze die Entscheidungen treffen, oft nicht nachvollzogen werden. Sollte es sich gar um selbstlernende Systeme handeln, so können sich die Entscheidungen und Aktionen sogar je nach Erfahrung verändern. Ein erstes Paradox entsteht hierbei, weil die Entwickler von Künstlicher Intelligenz durch Lernähigkeit die Ausührung der vorgegebenen Aufgaben perfektionieren wollen, allerdings zugleich vermeiden müssen, dass die Maschinen zu selbständig werden. Das bedeutet, das Lernen müsste an vorgegebenen Grenzen limitiert werden (vgl. Singer 2009, 126). Ein zweites Paradox entsteht, weil wir mit Autonomie automatisch die Übernahme von Verantwortung verbinden. Wer nicht im Auftrag handelt, ist ür sein Handeln selbst verantwortlich, wobei ein Auftrag freilich nicht das Recht aushebeln kann. Sobald Menschen zu Schaden kommen, <?page no="65"?> 5 Krieg 65 liegt die Verantwortung daher beim Verursacher. Autonomie hat insofern viel mit dem Konzept des freien Willens zu tun, der Grundlage einer demokratischen Verfassung ist. Haben autonome Waffensysteme einen freien Willen? Sind sie aufgrund ihrer selbst geällten Entscheidungen, die ihnen keiner klar vorgegeben hat, verantwortlich ür das, was sie tun? Und wenn ja, wie kann man ihre Aktionen im Fall, dass sie Fehler machen, regulieren bzw. bestrafen? Nehmen wir an, eine autonom agierende Drohne trifft auf eine Gruppe von 10 Feinden, die aus Angst ihre eigenen Waffen niederlegen und sich ergeben (vgl. Sparrow 2007, 66). Trotzdem tötet die Drohne alle 10 Soldat*innen, weil sie berechnet hat, dass deren Gefangennahme zu teuer ist, oder weil sie die Zuschauer*innen schockieren möchte, oder weil sie ihr Waffensystem testen möchte, oder weil sie andere Drohnen rächen möchte. Ein Mensch würde ür solche Aktionen vor das Militärgericht gestellt werden. Wie wird die Maschine bestraft? Die Bestrafung müsste eine Art Leiden in physischer oder psychischer Weise sein, das eine Wiederholung der Tat möglichst ausschließt, oder aber das komplette Stilllegen der Maschine. Letzteres dürfte kaum Probleme bereiten, ist damit aber das Fehlverhalten, das zum Tod von Menschen geührt hat, ausreichend bestraft? Es gibt Philosoph*innen, die bejahend in diese Richtung argumentieren. Wenn Künstliche Intelligenzen vorgegebene Gesetze verstehen und befolgen, dann sind sie moralphilosophisch gesehen autonom, weil sie wissen und erkennen, ob sie rechtskonform handeln oder nicht. Sie sind damit Menschen sehr ähnlich und wenn wir bedenken, dass wir Tieren einen gewissen Respekt und Schutz zukommen lassen, dann müssten wir das auch Robotern zugestehen. Sobald eine Künstliche Intelligenz Gesetze begreifen und verfolgen kann, hat sie eine Würde, weshalb man sie nicht mehr zwingen dürfte. Der bekannte Roboterforscher Hans Moravec ging bereits in den 90er Jahren noch einen Schritt weiter und erklärt Roboter zu unseren Abkömmlingen. Hierbei handelte es sich wohl auch um eine aus der Science-Fiction-Literatur abgeleitete Erwartung, trotzdem muss man ernstnehmen, dass das EU-Parlament bereits die Deklarierung von Künstlicher Intelligenz als juristische Person erwogen hat (vgl. EP 2017). Dem kann man entgegenhalten, dass KI in ihren verschiedenen Formen ein Artefakt ist - also eine vom Menschen entwickelte und gebaute Anwendung - das einem bestimmten Zweck dienen soll. Und dieses mit einem autonom handelnden menschlichen Individuum gleichzusetzen, ist nicht möglich (vgl. Dignum 2019, 2). Auch aus Sicht einer Digitalen Ethik „sollten in Bezug auf alle Prozesse, in denen KI zur Anwendung kommt, die Kriterien der Transparenz, Nachvollziehbarkeit, Diskriminierungsfreiheit und Überprüfbarkeit gelten“ (Grimm u.a. 2019, 167). Zudem ist grundsätzlich und insbesondere bei autonomen Waffensystemen die Tatsache zu erwägen, dass Intelligenz eigentlich immer auch Fehlbarkeit, Missverständnis und Scheitern beinhaltet (vgl. Nassehi 2019, 236). 5.4 Bis heute Vielleicht wäre es ür die Diskussion um den Einsatz Künstlicher Intelligenz im Krieg auch sinnvoll, zu fragen, wie es überhaupt so weit kommen konnte. Unter einer nachhaltigen Perspektive müssten Waffensysteme hinsichtlich ihrer Relation zum Menschen unter medialen Aspekten untersucht werden. Dies erscheint <?page no="66"?> 66 Ralph-Miklas Dobler um so wichtiger, als ein scheinbar unüberwindbarer Graben zwischen der technologischen Entwicklung und den ans Tageslicht gekommenen Fehleinsätzen besteht. Tatsächlich klingt die von der Rüstungsseite vorgebrachte, scheinbar humane Erklärung, man wolle Soldat*innen vor psychischer Belastung und Traumata schützen sowie im Feindesgebiet Kollateralschäden noch weiter verringern, fast polemisch. Krieg soll durch die Integration von Künstlicher Intelligenz menschlicher gestaltet werden. Tatsächlich gibt es bis heute noch bei On-the- Loop-Systemen, die vor einem Angriff mit einer Drohne Drohnenpilot, Kameramann, Nachrichtenkoordinator, Sicherheitsbeobachter, Spezialeinheiten am Boden sowie ein in Videoanalyse geschultes Team aus sogenannten Screenern in die Entscheidungsfindung einbinden, schwerwiegende Fehlentscheidungen. 2010 diskutierte besagter Kreis 4 Stunden über einen Konvoi aus zwei SUVs und rund 20 Personen in Afghanistan. Die schließlich genehmigten Luftschläge durch die Drohne, die ausgestattet mit Künstlicher Intelligenz das Ziel fixiert, verfolgt und ununterbrochen verschiedenste Bilder gesendete hatte, tötete und verletzte über zwanzig Zivilist*innen, darunter Frauen und Kinder. Es stellt sich die Frage, ob dies ein Ausgangspunkt ür die Entwicklung von kognitiven Systemen sein kann, beziehungsweise ob diese so umfangreich trainiert werden können, dass sie im gegebenen Fall autonom die Analyse von mehreren Menschen ersetzt und schließlich den Angriff abgebrochen hätten. James O. Poss, Generalmajor der Air Force und Leiter der Untersuchungen, bemerkte zu der Tragödie: „Technologie gibt manchmal ein trügerisches Geühl der Sicherheit“ (Suchman 2016, 21). Den verantwortlichen Menschen war es trotz der medial vermittelten Kamerabilder sowie der Zusatzinformationen und der Diskussion des Sichtbaren nicht möglich, lebende Körper als Freund oder Feind zu kategorisieren. Wenn kognitive Systeme dies autonom übernehmen sollen, müssen sie einen mathematisch präzisen Begriff davon haben, was ein „feindlicher Kämpfer“ ist (vgl. Suchman 2016, 21). Die noch im 21. Jahrhundert von ranghohen Militärs vorgebrachte Definition „Mann im wehrähigen Alter“, wäre bei einem autonomen Drohnenangriff verheerend. Aus Moral ein Modell zu machen, in dem Maschinen numerisch messen können, ist ein unlösbares Problem (vgl. Zweig 2019, 27). Die Schwierigkeit wird größer, wenn man bedenkt, dass die On-the-Loop-Waffensysteme eine immense Distanz überbrücken und den Menschen aus einem bequemen Bürosessel heraus über Bildschirminformationen Entscheidungen ällen lassen. Out-of-the-Loop-Waffensysteme, die komplett autonom agieren, ersetzen also nicht den Soldaten, der als Bodentruppe vor Ort Entscheidungen aufgrund der unmittelbaren Wahrnehmung treffen soll, sondern sie ersetzen genau genommen die Entscheidungsfindung im Rahmen einer Mensch-Maschine-Verbindung. Dieser Tatsache wird in der Diskussion kaum Rechnung getragen. Die technische Funktion, die Medialisierung des Kriegsgeschehens wird nicht verändert, denn die hochauflösende Bildgebung wird nun direkt in den Prozessoren und Speicherelementen hinter der Kamera weiterverarbeitet. Dem Bild kommt bei den autonomen Waffensystemen daher eine entscheidende Bedeutung zu. Diese Visualisierung lässt sich in eine historische Entwicklung einbetten, die vom „living room war“ in Vietnam über den „Nintendo war“ des Ersten Golfkrieges zu den Drohnenaufnahmen aus Afghanistan und dem Irak ührt. Während die Bilder des Vietnamkriegs noch zu Protesten und schließlich zur Friedensbewegung ührten, sind die Aufnahmen der Drohnen, selbst wenn Sie die Zerstörung von Menschenleben zeigen, <?page no="67"?> 5 Krieg 67 faszinierend und als „war porn“ ein Aushängeschild der USA (vgl. Jordan 2016, 155-156). Aus Sicht der Bild- und Medienwissenschaften besonders interessant ist der „Blick“ der Maschine, d.h. ihre visuelle Wahrnehmung durch Sensoren, die entweder an den Menschen vermittelt oder direkt verarbeitet wird. Durch visuelle Wahrnehmung werden Dinge angeeignet, das heißt im gegebenen Fall, der fremde Raum wird vertraut und zum eigenen Raum gemacht, in dem gehandelt werden kann (vgl. Suchmann 2016, 22). Immer wieder wurde in diesem Kontext auf die Ähnlichkeit der Drohnen-Teams mit Computerspielern hingewiesen. Die einhergehende Macht ist immens. Es ist sogenannte Bio-Macht, die Leben nehmen und Leben lassen kann. Walter Benjamin hat vor Jahrzehnten bereits darauf hingewiesen, dass die Zunahme der Zerstörungstechnik mit einer Umstrukturierung der menschlichen Wahrnehmung einhergeht. Er spricht hierbei von einer Anästhetisierung, d.h. einer immer stärkeren Isolierung von Wahrnehmung (vgl. Suchmann 2016, 24). Wenn autonome Waffensysteme Krieg ühren, dann werden die Bilder vom Krieg und die Wahrnehmung der Kampfhandlungen sich abermals gravierend verändern. Schließlich ist bei der Entwicklung von Künstlicher Intelligenz in der Rüstungsindustrie die mediale Vermittlung der Maschinerie von höchstem Interesse. Die DARPA sowie zahlreiche Firmen veröffentlichen ihre Fortschritte auf Social-Media-Kanälen wie YouTube. Ähnlich wie bei den bisherigen Kriegen des 21. Jahrhunderts wird dies mitentscheidend ür die Akzeptanz der autonom agierenden Technologie sein. Das öffentliche Bild und die so gesteuerte öffentliche Meinung über die Künstliche Intelligenz, das heißt die affirmativen und beruhigenden Narrative, dürften in nicht unerheblicher Weise auch die Wissenschaft und Forschung beeinflussen. Denn wie so oft in militärischen Kontexten bleibt die tatsächlich vorliegende Qualität und Quantität im Verborgenen. Letztlich wird die Diskussion um Verantwortung, ethisches Handeln und moralische Entscheidungen bei autonomen Waffensystemen von denjenigen geührt, die entsprechende Technologien einsetzen. So gut wie nie wird aus einer globalen humanen Perspektive die Frage diskutiert, welche Auswirkungen der Einsatz von LAWS auf die Bevölkerung des attackierten Landes hat. Bei Angriffen mit Drohnen kommt die Zerstörung lautlos, schnell und überraschend. Wie sich Menschen ühlen, wenn sie Maschinen gegenüberstehen, die nicht unter der Kontrolle von anderen Menschen stehen, ist Stoff zahlreicher Science-Fiction-Filme. Tatsächlich setzen Entwickler auch auf den psychologischen Effekt, der alleine auf dem Aussehen der Kampfroboter beruht (vgl. Singer 2009, 297-314). Es ist aber wohl abzusehen, dass angegriffene Gruppierungen und Nationen sich nicht damit begnügen werden, die perfekt programmierten und trainierten kognitiven Systeme des Feindes mit eignen militärischen Mitteln zu bekämpfen, während diejenigen, die die Waffensysteme geschickt haben, entspannt zuhause sitzen. Gewalt erzeugt Gegengewalt und eine Folge könnten etwa Terrorakte im Land der Angreifer sein. In Gesellschaften und Kulturen, in denen das eigene Blutvergießen und das Leiden ein Opfer ür die Nation oder Religion bedeuten und damit ein hohes Gut sind, werden Nationen, die Drohnen einsetzen und sich dem Kampf Mann gegen Mann entziehen, bereits heute als Feiglinge bezeichnet, was die Abneigung zusätzlich steigert (vgl. Jordan 2016, 158). Da schließlich ein Krieg zwischen Maschinenarmeen ohne menschliche Verluste oder kriegsbedingte Einschränkungen keinen <?page no="68"?> 68 Ralph-Miklas Dobler Sinn macht, würde sich die Auseinandersetzung andere Schauplätze suchen. Die Ausweitung des bereits heute unbemerkt geührten Cyberwars wäre wohl eine naheliegende Folge (vgl. Grimm u.a. 2019, 180). So bleibt die Frage, ob eine verantwortungsvoll genutzte KI überhaupt im militärischen Kontext eingesetzt werden kann. Kognitive Systeme und Algorithmen haben ein großes Potential, die Lebensqualität nachhaltig zu steigern. Wenn aktuell Visionen des Transhumanismus und der Singularität diskutiert werden, dann muss auch die Hoffnung erlaubt sein, dass die Entwicklung von KI in Zukunft darauf ausgerichtet wird, Kriege zu verhindern und mit übermenschlichen Fähigkeiten ür Frieden zu sorgen und diesen zu wahren. Eine verantwortungsvolle Künstliche Intelligenz ist kein Resultat der Eigenschaften der Systeme, sondern die Folge des menschlichen Umgangs mit der Technik. Die Vereinten Nationen haben mit ihrer AI for good-Plattform bereits eine Richtung vorgegeben (https: / / aiforgood.itu.int/ ). Trotzdem wird eine solche Zukunft nur mit Regulierungen und Sanktionen durchzusetzen sein. Als Ausgangspunkt ür alle Überlegungen sollte die Tatsache dienen, dass autonome Waffensysteme „keinen Zugang zu jedem beliebigen, menschlichen Lebensbereich haben und über kein Gewissen und keine Willensfreiheit verügen“ (Grimm u.a. 2019, 169). 5.5 Literatur Arkin, Ronald 2009. Governing lethal behavior in autonomous robots. New York: CRC Press. Autonomous Weapons 2015. An Open Letter from AI & Robotics Researchers. https: / / futureoflife.org/ open-letter-autonomous-weapons/ ? cn-reloaded=1 [Stand 2020-03-4] Baecker, Dirk 2019. Intelligenz, künstlich du komplex. Berlin: Merve Verlag. EP 2017. Bericht mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik 27.1.2017. https: / / www.europarl.europa.eu/ doceo/ document/ A-8-2017-0005_DE.html? redirect [Stand 2020-03-7] Delahaye, Jean-Paul 2017. Müssen wir autonome Killerroboter verbieten? In C. Könneker (Hg.): Unsere digitale Zukunft. In welcher Welt wollen wir leben? Berlin: Springer, 225-239. Dignum, Virgina 2019. Responsible Artificial Intelligence. How to Develop and Use in a Responsible Way. Cham: Springer. Jordan, John 2016. Robots. Cambridge, MA: MIT Press. Lenzen, Manuela 2018. Künstliche Intelligenz. München: C.H. Beck. Misselhorn, Catrin 2018. Grundfragen der Maschinenethik. Stuttgart: Reclam. Nida-Rümelin, Julian & Weidenfeld, Nathalie 2018. Digitaler Humanismus. Eine Ethik ür das Zeitalter der Künstlichen Intelligenz. München: Piper. Scharre, Paul 2018. Army of None. Autonomous Weapons and the Future of War. New York: W.W. Norton & Company. Singer, Peter Warren 2009. Wired for War. The Robotics revolution and Conflict in the 21th century, New York: Penguin Books. <?page no="69"?> 5 Krieg 69 Sparrow, Robert 2017. Killer Robots. Journal of Applied Philosophy 24. https: / / doi.org/ 10.1111/ j.1468-5930.2007.00346.x [Stand 2020-03-7] Suchman, Lucy 2016. Situationsbewusstsein. Tödliche Biokonvergenz an den Grenzen von Körpern und Maschinen. Zeitschrift ür Medienwissenschaft 15, 2016,18-29. Wallach, A. & Allen C. 2008. Moral Machines: Teaching Robots Right from Wrong. Oxford: University Press. Zweig, Katharina 2019. Ein Algorithmus hat kein Taktgeühl. Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können. München: Heyne. <?page no="70"?> 6 Künstliche Intelligenz als integraler Bestandteil ökonomischen Handelns Daniel Jan Ittstein Seit mehr als 250 Jahren hängt unser Wirtschaftswachstum von technischen Innovationen ab. Besonders bedeutend sind dabei die so genannten Grundlagentechnologien, zu denen Techniken wie die Dampfmaschine, die Elektrizität oder der Verbrennungsmotor gehören. Jede dieser Erfindungen setzte eine Welle komplementärer Innovationen und Geschäftschancen frei. Auf Basis des Verbrennungsmotors entstanden beispielsweise Flugzeuge, Flughäfen und neue Lieferketten. Unterschiedliche Branchen fanden Wege, diesen technologischen Fortschritt ür neue und profitable Geschäftsmodelle zu nutzen. Die bedeutsamste Grundlagentechnologie der heutigen Zeit ist die künstliche Intelligenz (KI), und hier wiederum im Besonderen das maschinelle Lernen. 20 Es wird davon ausgegangen, dass die KI die Wirtschaft ebenso stark verändern wird wie frühere Grundlagentechnologien. Denn obwohl sie bereits in tausenden Unternehmen weltweit im Einsatz ist, werden die meisten disruptiven Möglichkeiten noch gar nicht genutzt. Die Auswirkungen der KI werden im kommenden Jahrzehnt um ein Mehrfaches größer sein, wenn Industrie, Einzelhandel, Logistik, Finanzen, Gesundheits- und Rechtswesen, Versicherungen, Unterhaltungsindustrie, Bildungswesen und praktisch jede andere Branche ihre Kernprozesse und Geschäftsmodelle auf die Nutzung von KI ausgerichtet haben. 6.1 Starkes Wachstum abseits ökonomischer Indikatoren Gerade weil alle Anzeichen daür sprechen, dass sich die KI rasant entwickeln und integraler Bestandteil unser aller Leben werden wird, stellt sich die Frage, inwiefern dieser Fortschritt auch in ökonomischer Hinsicht sinnvoll ist. Wird die Entwicklung der KI die Fähigkeit besitzen, das Wirtschaftswachstum zu steigern? Diese Frage ist mehr als berechtigt, denn im Rahmen der Digitalisierung sehen sich die Menschen mit dem Produktivitäts-Paradoxon konfrontiert. Forschende der Wirtschaftswissenschaft wie Gordon gehen dementsprechend nicht davon aus, dass die Einührung von Computern oder der KI bislang zu erheblichen ökonomischen Fortschritten ührte. Auch die derzeitigen Entwicklungen hält Gordon ür ökonomisch überschätzt: Phänomene wie die zunehmende Vernetzung, der 3D-Druck oder selbstfahrende Autos hätten vergleichsweise geringe wirtschaftliche Bedeutung. Die Entwicklung sei eher evolutionär als revolutionär und zudem eng auf den Aspekt der Digitalisierung beschränkt. Folglich seien „dramatische“ Produktivitätseffekte nicht zu erwarten (Brynjolfsson & McAfee 2016: 77). Diese Meinung wird durch Zahlen der Organisation ür wirtschaftliche Zusammenarbeit und Entwicklung (OECD) bestätigt. Trotz zunehmender Digitalisierung sinkt das Produktivitätswachstum in fast allen Staaten der OECD - in den entwickelten Staaten seit der Jahrtausendwende und in den Schwellenländern seit etwa 2008 20 Vgl. Kapitel 3 <?page no="71"?> 6 Künstliche Intelligenz als integraler Bestandteil ökonomischen Handelns 71 (Mann 2016). Laut einer Studie der OECD betrifft der negative Trend dabei fast alle Sektoren in Industrieländern, kleine Firmen ebenso wie große (OECD 2016: 18). Auch in Bereichen, in denen aufgrund digitaler und technischer Innovationen eigentlich eine Produktivitätsdividende zu erwarten wäre - etwa im Informations-, Kommunikations-, Finanz- und Versicherungssektor - sinkt das Produktivitätswachstum laut den Statistikern. Besondere Brisanz hat dieser Trend, da Produktivitätsgewinne seit jeher eine Hauptquelle ür den Anstieg der wirtschaftlichen Leistung sind, und damit Grundlage ür materiellen Wohlstand und reale Entlohnung. Dieses Produktivitäts-Paradoxon zu erklären, ist insbesondere deshalb so komplex, weil das Bildungsniveau übergreifend steigt, der technologische Wandel fortschreitet und Unternehmen weiterhin in globalen Wertschöpfungsketten integriert sind - alles Faktoren, die die Produktivität eigentlich stärken sollten. Hinzuzuügen ist, dass die Entwicklung schon zur Jahrtausendwende (also lange vor dem Ausbruch der Finanzkrise im Jahr 2008) einsetzte und dementsprechend nicht anhand dieser Zäsur zu begründen ist. Erklärungsversuche ür die Paradoxie sind vielschichtig. Einige Forschende, wie auch Gordon, erkennen in diesem Abwärtstrend ein permanentes Phänomen. Sie gehen davon aus, dass die größten produktivitätssteigernden Innovationen (Dampfkraft und Elektrizität) hinter uns liegen. Andere Wissenschaftler*innen, wie Brynjolfsson und McAfee, argumentieren damit, dass es auch im Fall der Dampf- und Stromerzeugung einige Jahrzehnte dauerte, bis die Neuerungen angewandt wurden und ein deutlicher Anstieg der Produktivität zu verzeichnen war. Dieser Verzögerungseffekt träfe auch im Allgemeinen auf die Digitalisierung zu, so dass davon auszugehen sei, dass die Effizienzsteigerungen in einigen Jahren kommen werden (Brynjolfsson & McAfee 2016: 101-102). Die reine makroökonomische Sicht ührt allerdings zu falschen Schlüssen. Wie Analysen der OECD oder auch von Cam et al. zeigen, ist nämlich eine wachsende Diskrepanz zwischen Spitzenunternehmen (‚Frontier-Firms‘) und anderen Firmen feststellbar (OECD 2016; Cam u.a. 2020). Das Produktivitätswachstum der Spitzenunternehmen ist seit dem Jahr 2000 praktisch konstant geblieben und beträgt im Fertigungssektor rund 3,5% pro Jahr. Firmen, die nicht zu den produktivsten gehören, verzeichneten seit dem Jahr 2000 lediglich Zuwächse von 0,5%. In Bezug auf die Dienstleistungsunternehmen waren die Unterschiede noch wesentlicher, nämlich mit Zuwachsraten von 5% bei den Spitzenunternehmen und einer stagnierenden Entwicklung bei den anderen (OECD 2016: 6). Hinter diesem Phänomen steht zum einen eine Blockade hinsichtlich der Diffusion von Innovationen. Nur Spitzenunternehmen ziehen die besten Talente an, integrieren konsequent digitale Werkzeuge in ihre Kernprozesse und profitieren von Netzwerkeffekten (etwa im Bereich digitaler Plattformen). Des Weiteren verläuft die makroökonomische Strukturbereinigung langsam. Sprich: Besonders unproduktive Unternehmen, die langfristig kaum überleben können, werden zu lange am Leben gehalten - was insbesondere mit dem billigen Geld im Markt zu begründen ist. Ein weiterer Grund, aus dem die Produktivitätssteigerungen durch die Digitalisierung kaum in den Statistiken erscheinen, liegt in der verwendeten Messgröße - dem Bruttoinlandsprodukt (BIP). Viele Ökonom*innen vertreten die Ansicht, dass die Messung nach BIP nicht mehr zeitgemäß sei. So witzelte der amerikanische Wirtschaftsnobelpreisträger Solow schon 1987, das Computerzeitalter sei überall zu sehen, nur nicht in den Produktivitätsstatistiken. Seither hat sich das Problem <?page no="72"?> 72 Daniel Jan Ittstein potenziert: Viele Applikationen stehen heutzutage kostenfrei zur Verügung - unter anderem auch, da dadurch (Trainings-)Daten ür die Weiterentwicklung der KI generiert werden können. Die Nutzung dieser kostenlosen Funktionalitäten (u.a. Suchmaschinen, Übersetzungsprogramme, Navigation) ist entsprechend nicht im BIP repräsentiert. Allerdings ist der Kundennutzen, zum Beispiel in Form von Effizienzgewinnen oder der kostenlosen Verügbarkeit von digitalen Gütern, eindeutig vorhanden. Und insbesondere ür Unternehmen stellen diese Daten eine äußerst wertvolle Ressource dar, da es hierdurch möglich ist, Kunden viel besser kennenzulernen, um zum Beispiel zielgerichtete Werbung zu verkaufen. Dieser digitale Mehrwert entzieht sich aber bislang jeder statistischen Kategorisierung. Losgelöst von diesen nicht quantifizierbaren Nutzeneffekten gehen Manyika et al. in einer Analyse davon aus, dass die jährliche Produktivitätssteigerung allein durch die digitalisierte Automatisierung in Zukunft bis zu 0,8 Prozentpunkte des BIP betragen wird. Damit würde die KI zu den zentralen Wachstumstreibern der Zukunft gehören (Manyika u.a. 2017: 16). Diese Wachstumschancen wurden vielerorts erkannt, so dass inzwischen weltweit immense Summen in die Weiterentwicklung der KI investiert werden. 6.2 Globales Wettrennen um die KI-Vorherrschaft Global betrachtet haben sich die Direktinvestitionen in KI-Unternehmen seit 2014 jährlich um 55% gesteigert (Touboul u.a. 2020: 6) und lagen im Jahr 2019 bei rund 22 Milliarden US-Dollar (ABI Research 2020: 7). Der größte Anteil der Investitionen ist in den USA und in China zu verorten, was sich sicherlich auch in naher Zukunft nicht ändern wird. Beachtenswert ist vor allem die Allokation der Investments: In China flossen beispielsweise 48% des Geldes in lediglich 9% der finanzierten Unternehmen. Wenige, aber meist große Finanzierungsrunden in KI-Unternehmen wie iCarbonX, Face++, SensTime, Ubtech Robotics, Bobvoi oder CloudMinds bestimmen die Szene (Buxmann & Schmidt 2019: 22). Allerdings wird bei näherer Betrachtung schnell deutlich, dass im Gegensatz zu früheren digitalisierungsgetriebenen Investitionswellen neben diesen privatwirtschaftlichen Finanzierungen verstärkt auch Staaten in die Weiterentwicklung der KI investieren. Dies hat sich in den letzten Jahren in nationalen KI-Strategiepapieren manifestiert. Die USA hatten im Gegensatz zu anderen Staaten lange keine zentral formulierte und koordinierte KI-Strategie (Dutton 2018). Dies wurde im Februar 2019 geändert, indem die ‚American Artificial Intelligence Initiative‘ etabliert wurde. Präsident Trump begründete diese Initiative folgendermaßen: „Continued American leadership in AI is of paramount importance to maintaining the economic and national security of the United States and to shaping the global evolution of AI in a manner consistent with our Nation’s values, policies, and priorities.“ (White House 2020) Dies kann durchaus als direkte Reaktion auf die Bestrebungen Chinas gewertet werden, in diesem Feld die ökonomische, geopolitische und vor allem Werte-Führerschaft zu übernehmen (siehe unten). Entsprechend ist die US-amerikanische Strategie auch umfassend formuliert und beinhaltet neben klassischen Forschungs- und Entwicklungsthemen vor allem sozioökonomische Aspekte, um den gesellschaftlichen Wandel zu unterstützten. Auf Basis dieser Strategie wurden dementsprechend <?page no="73"?> 6 Künstliche Intelligenz als integraler Bestandteil ökonomischen Handelns 73 bereits im Jahr 2019 die staatlichen Investitionen in dieses Themenfeld deutlich erhöht und lagen bei rund 5,3 Milliarden US-Dollar (White House 2019). China ist seit dem Jahre 2011 zu einem ernsthaften Spieler im Wettkampf um die KI-Vorherrschaft geworden. Die Volksrepublik verfolgt das Ziel, die weltweit ührende KI-Industrie aufzubauen - mit einem avisierten Umsatz von 150 Milliarden US-Dollar. Um dies zu erreichen, setzt der chinesische Staat vermehrt KI-Lösungen im Militär oder in Smart Cities ein. Zudem wird der Aufbau von KI-Wissenschaftszentren und Industrie-Vereinigungen unterstützt. Es ist bereits jetzt zu beobachten, dass durch dieses Engagement in den letzten Jahren große Fortschritte hinsichtlich der Entwicklung von KI-Lösungen gemacht wurden (Barton u.a. 2017: 12). Dies basiert zu einem wesentlichen Teil auf der Tatsache, dass in China deutlich mehr Daten generiert und zentral verwaltet werden als in jedem anderen Staat der Erde. Das Sozialkreditsystem, die umfassende (bildliche) Überwachung, die fortgeschrittene digitale Diffusion und knapp 1,4 Milliarden menschliche Datenquellen, gepaart mit der zentralen Verwaltung der staatlich und unternehmerisch generierten Daten, ermöglichen einen umfassenden und wertvollen Datenpool zur Weiterentwicklung der KI. Auch wenn wie O’Meara davon ausgegangen wird, dass China durchaus noch Bedarf an KI-Experten hat oder in der (wissenschaftlichen) Entwicklung von KI-Modellen nicht ührend ist (O’Meara 2019: 427), so ist es gerade die Anzahl der generierten digitalen Daten, die den Unterschied macht. Daten sind ür die Weiterentwicklung der KI bedeutsamer als die algorithmischen Modelle. Entsprechend ist davon auszugehen, dass China bald schon die Spitzenposition im Wettlauf um die KI-Vorherrschaft übernehmen wird, wenn dies nicht schon längst geschehen ist. Dies ist umso bemerkenswerter, da China mittels der AI auch die globale Werteührerschaft übernehmen möchte. China verfolgt das Ziel: „[…] to lead the world in laws, regulations, and ethical norms that promote the development of AI.“ (Dutton 2018) Dadurch erhält diese Entwicklung eine geostrategische Dimension ungeahnten Ausmaßes, was auch andere Länder dazu veranlasst, ihre KI-Fähigkeiten auszubauen. Japan ist seit den 1980er Jahren in der KI-Forschung aktiv, insbesondere hinsichtlich der Entwicklung und Einührung der Robotik. Dabei ist nicht nur die japanische Technologieforschung herausragend, sondern auch die Investitionsmöglichkeiten durch in Japan ansässige (Technologie-)Unternehmen wie die Softbank - ein japanischer Telekommunikations- und Medienkonzern mit den Unternehmensbereichen Breitbandfernsehen, Festnetz-Telekommunikation, E-Commerce, Internet, Robotik, Technologie-Service, Finanzen, Medien und Vermarktung. Auch deshalb war Japan im Jahr 2016 eines der ersten Länder, die eine dedizierte nationale KI-Strategie entwickelten, um insbesondere die Forschung und Entwicklung sowie die Industrialisierung der KI voranzutreiben (Shimpo 2018: 49). Südkoreas Regierung investiert in die KI, um insbesondere die bestehenden Forschungsaktivitäten auszubauen und Experten auszubilden. Einen zentralen gesellschaftlichen Impuls ür die hohen Investitionen in die KI lieferte die Niederlage des aus Südkorea stammenden Go-Weltmeisters Lee Sedol gegen Deep Minds AlphaGo im Januar 2016. 21 Nur zwei Tage nach diesem Spiel wurde beschlossen, dass der südkoreanische Staat eine Billion Won (ca. 730 Millionen Euro) bis zum 21 Vgl. Kapitel 3 <?page no="74"?> 74 Daniel Jan Ittstein Jahr 2022 in die Weiterentwicklung der KI investieren wird (Dutton 2018). Geördert werden die staatlichen Anstrengungen dadurch, dass Südkorea viele große Technologieunternehmen wie Samsung, LG und Hyundai beheimatet. Eine zentrale Herausforderung ist und bleibt, dass in dem Land bislang ein gut entwickeltes Risikokapital-Ökosystem fehlt, das in Start-ups investieren könnte. Indien verfolgt einen einzigartigen Weg. Die KI soll auf dem Subkontinent nicht nur dazu dienen, ökonomisches Wachstum zu steigern, sondern insbesondere auch soziale Inklusion gewährleisten. Indien möchte sich als Hub ür Länder in Entwicklung positionieren. Dem liegt die Annahme zu Grunde, dass AI-Lösungen, die ür Indien realisiert werden, auch in anderen Ländern in Entwicklung anwendbar sind (Chatterjee 2020). Eine gute Basis ür die Umsetzung dieser Strategie sind der umfangreiche Binnenmarkt und ein umfassendes Potenzial an qualifizierten IT-Experten. Israels KI-Industrie profitiert zum einen von dem hohen Stand der akademischen Forschung, der in Relation zur Bevölkerung höchsten Anzahl von KI-Start-ups weltweit und der wirtschaftlichen Nähe zu den USA, dem derzeit größten Absatzmarkt ür israelische KI-Lösungen. Eine Herausforderung bleibt auch in Israel der Mangel an KI-Experten und ein relativ schwacher Heimatmarkt. Besondere Chancen bieten sich in Israel hinsichtlich der Gesundheitsökonomie (99% der Patientenakten sind bereits digitalisiert), in der Logistik und auch im Umfeld der Finanzindustrie (Struminski 2020). Großbritannien hat sich inzwischen eine klare KI-Führungsrolle in Europa erarbeitet. Ziel bis 2027 wird es sein, rund 1,3 Milliarden US-Dollar in die Entwicklung der KI zu investieren. Viele Universitäten und Institute (zum Beispiel das Alan Turing Institute) sind schon seit Jahrzehnten in der KI-Forschung aktiv und bilden Experten aus. Daneben wird in Cambridge ein neuer Supercomputer gebaut, der KI-Unternehmen zur Verügung stehen soll, die in Großbritannien ansässig sind. Dies ührt auch dazu, dass viele ausländische Unternehmen inzwischen in Großbritannien ihre KI-Einheiten aufbauen. Da sich das Land dessen bewusst ist, nie die finanziellen Mittel von den USA oder China aufbringen zu können, wird angestrebt, sich als Marktührer ür ethische KI-Standards zu positionieren und damit einen Wettbewerbsvorteil zu etablieren. Frankreich kündigte an, bis 2025 mehr als 1,5 Milliarden Euro in KI-bezogene Forschung und Unterstützung ür aufstrebende Start-ups zu investieren, um mit den USA und China konkurrieren zu können (Touboul u.a. 2020: 6). Einige bemerkenswerte KI-Forscher*innen wurden in Frankreich ausgebildet, darunter Facebooks KI-Chef Yann LeCun. Frankreich möchte zukünftig verstärkt versuchen, solche Experten im Land halten, und die Ansiedlung von KI-Forschungslaboren von Unternehmen wie Samsung, Fujitsu, DeepMind, IBM und Microsoft ördern. Daneben beabsichtigt Frankreich, dezidiert daran zu arbeiten, eine ‚Open-Data-Policy‘ zu etablieren (Dutton 2018). Um dies zu forcieren, wird unter anderem die französische Verwaltung gezielt Daten der Öffentlichkeit zur Verügung stellen. Deutschland verügt als Industrienation über hervorragende technische Möglichkeiten. Berlin gilt derzeit als das bedeutendste Zentrum ür KI-Experten in Europa, so dass zum Beispiel auch „[…] die [KI-] Forschung von Amazon mittlerweile fest in Berlin verwurzelt ist.“ (Herbrich 2019: 63) Es wird davon ausgegangen, dass <?page no="75"?> 6 Künstliche Intelligenz als integraler Bestandteil ökonomischen Handelns 75 Deutschland in Bereichen wie Robotik, dem Quanten-Computing oder dem autonomen Fahren ührend sein wird. Hintergrund ist, dass fast die Hälfte aller weltweiten Patente zum autonomen Fahren von deutschen Zulieferern oder Automobilunternehmen angemeldet wurden. Dies fußt auf Fahrzeugentwicklungsaktivitäten, die bereits im Jahr 1986 aufgenommen wurden. Durch die Etablierung von anwendungsorientierten Forschungsclustern, wie dem Cyber-Valley in Baden- Württemberg, findet nun ein Versuch statt, die Zusammenarbeit zwischen Forschenden und Unternehmen bei der Weiterentwicklung der KI zusätzlich zu steigern. Neben der Entwicklung autonomer Fahrzeuge hat Deutschland sich schon früh einen Vorsprung in der Robotik erarbeitet. So wurde zum Beispiel einer der ersten Co-Bots in Deutschland ür den Einsatz in der Fertigung entwickelt. Trotz der großen Anzahl der Patente konnte sich Deutschland auf dem KI-Markt bislang nicht absetzen. Das liegt zum einen daran, dass bislang eine Konzentration vor allem auf die Sektoren Fertigung, Automobil und Industrie erfolgt ist und andere Wachstumsbranchen vernachlässigt werden. Daneben wird in Deutschland deutlich weniger Geld in die KI investiert als in vielen anderen Ländern. Im Vergleich zu etwa Israel oder Großbritannien werden in Deutschland infolge nur wenige AI- Start-ups gegründet und finanziert (Touboul u.a. 2020). Schließlich wird ein starkes Engagement ür die KI gesellschaftlich noch nicht getragen und kann auch deshalb weder politisch noch wirtschaftlich stark genug getrieben werden. Trotzdem hat mit der Formulierung einer nationalen Strategie ür KI im Jahr 2018 die Bundesregierung die Bedeutung dieser Grundlagentechnologie antizipiert und vielältige Aktivitäten eingeleitet (Bundesregierung 2018; Bundesregierung 2020). Während das Rennen um die KI-Vorherrschaft in Teilen mit dem Wettlauf ins All oder der Wettrüstung im Kalten Krieg vergleichbar zu sein scheint und in den strategischen Ansätzen nationale Interessen überwiegen, ist schon jetzt abzusehen, dass die KI-Führerschaft in Wirklichkeit nicht mit nationalem Denken zu erobern ist. Die Weiterentwicklung der KI erfordert eine enge, grenzüberschreitende Zusammenarbeit zwischen Forschung, Unternehmen sowie Politik und muss zwingend die Interessen der Gesellschaft ins Zentrum der Entwicklungsanstrengungen setzen. Derzeit setzen sich vor allem die Systeme der USA und China durch und von beiden wird versucht, Verbündete ür das eigene System zu gewinnen, um den Machtanspruch auszubauen. Das Besondere im Hinblick auf diese Entwicklung ist, dass sich die Systeme im Rahmen der digitalen Logik ihre Allianzen nicht etwa über Staatenbündnisse oder Verträge sichern, sondern direkt über die ‚Gewinnung‘ jeder einzelnen staatsangehörigen Person, die KI nutzt. Es zeichnet sich ab, dass dies nicht nur wirtschaftlich, sondern vor allem auch geopolitisch motiviert ist und enorme Implikationen ür unser globales Zusammenleben haben kann. Die Verantwortlichen in Europa haben das verstanden - deshalb arbeitet die EU-Kommission seit April 2018 daran, eine europäische KI-Strategie gemeinsam mit den Mitgliedsstaaten zu entwickeln und zu implementieren, um ein Gegengewicht zu den zwei KI-Supermächten USA und China zu etablieren. Zentrales Ziel muss es aus europäischer Sicht sein, neben dem Ausbau der technologischen und ökonomischen KI-Fähigkeiten den staatenübergreifenden soziökonomischen Wandel zu forcieren und vor allem auch probate ethische und rechtliche Rahmenbedingungen zu schaffen, die den Anstrengungen von Digitalkonzernen klare (ethische) Grenzen setzen. Daneben muss noch deutlich energischer daran gearbeitet werden, ein supranationales, europäisches KI-Ökosystem <?page no="76"?> 76 Daniel Jan Ittstein zu etablieren, um wettbewerbsähig zu werden (Bughin u.a. 2019). In solch einem Ökosystem sollten Akteure aus Wirtschaft, Gesellschaft, Wissenschaft und Politik gemeinsam daran arbeiten, die Potenziale der Technik ür Gesellschaft und Wirtschaft zu realisieren. 6.3 Hohe Wertschöpfungspotenziale durch Einsatz der KI Aus einer ökonomischen Sicht ist das Besondere an der KI, dass durch sie in einem nicht gekannten Ausmaß Daten zur Wertschöpfung eingesetzt werden können - Daten, die durch die fortschreitende Digitalisierung tagtäglich in umfassenden Mengen produziert werden. Im Kern kann die KI schneller und systematischer, d.h. effizienter als Menschen, mit großen, auch unstrukturierten Datenmengen umgehen (Leukert u.a. 2019: 44-45). Dadurch können beispielhaft Prozesse besser gesteuert und Produktionskosten gesenkt werden. Es entstehen neue Produkte im Umfeld der Predictive und Contextualized Services. Schließlich können neues Wissen und Innovationen systematisch erzeugt werden, wodurch die KI Werte erschafft. In der öffentlichen Diskussion wird die KI oft als Ersatz des Produktionsfaktors ‚Arbeit‘ gesehen und meist in Form eines (humanoiden) Roboters stilisiert. Im Gegensatz zu dieser Ansicht liegt das bei weitem größte Wertschöpfungspotenzial der KI momentan in der Optimierung von bereits etablierten Analyseprozessen (Chui u.a. 2018). Zum Beispiel kann durch die KI die Performanz von Regressions- und Klassifikationstechniken deutlich erhöht werden. So genannte ‚Greenfield- Anwendungen‘, zum Beispiel die durch KI ermöglichte Gesichts- oder Spracherkennung, sind derzeit ökonomisch noch lange nicht so bedeutsam wie die Analyseoptimierung durch die KI, könnten aber in Zukunft an Relevanz gewinnen. Chui et al. haben auf Basis der Analyse hunderter Anwendungsälle weltweit ein jährliches Wertschöpfungspotenzial der KI von 3,5 bis 5,8 Billionen US-Dollar errechnet, wobei es bedeutende sektorale Unterschiede gibt (Chui u.a. 2018: 17). 22 In Branchen mit direkten Endkundenbeziehungen, zum Beispiel dem Handel, wird der meiste Mehrwert durch die KI im Marketing und Vertrieb erzielt. In Bereichen, deren Wertschöpfung vor allem in der Produktion erzielt wird, liegt das größte Potenzial des Einsatzes von KI in der Optimierung der Lieferkette (Supply-Chain), der Logistik oder der Produktion. Anwendungsbeispiele Marketing und Vertrieb (Sales) Im Bereich Marketing und Sales liegt das jährliche Wertschöpfungspotenzial bei 1,4 bis 2,6 Billionen US-Dollar (Chui u.a. 2018: 20). Ein bedeutendes Einsatzfeld dabei umfasst die Lead-Prediction und das Lead-Profiling (Kreutzer & Sirrenberg 2019: 156-157). Dadurch kann auf Basis von umfassenden Datensätzen das zukünftige Kaufverhalten der Kunden besser vorhergesagt werden (Leukert u.a. 2019: 50). Ziel ist es zum Beispiel die Daten von Top-Kunden zu analysieren und ‚Look- Alike-Audiences‘ zu identifizieren, um herkömmliche Kunden zu Top-Kunden entwickeln zu können. Hierzu werden Millionen individueller Daten zu einem 22 Zum Vergleich: Das Bruttoinlandsprodukt von Deutschland betrug 2019 rund 3,4 Billionen Euro, was knapp 3,9 Billionen US-Dollar entspricht. <?page no="77"?> 6 Künstliche Intelligenz als integraler Bestandteil ökonomischen Handelns 77 Kundenmuster verdichtet, das dann mit einem ‚Beuteraster‘ in vorhandenen Datenbanken verglichen wird. Wenn sich hierbei gewisse Muster überschneiden, können darauf basierend recht genaue Vorhersagen über das Kaufverhalten der Kunden getroffen werden; es kann bestimmt werden, über welchen Kanal, zu welchem Zeitpunkt, mit welcher Frequenz, mit welchem Angebot und mit welcher Tonalität die Kunden am besten angesprochen werden können. Mittels dieser intelligenten Vorschläge kann nicht nur die Kaufwahrscheinlichkeit erhöht, sondern auch die Abwanderungswahrscheinlichkeit der Kunden verringert werden. Für diese Anwendungen wird oft das Reinforcement-Learning eingesetzt, wobei eine erfolgreiche Conversion (Umwandlungsrate) signalisiert, dass der Algorithmus gut gearbeitet hat. Einen weiteren Einsatzbereich der KI im Hinblick auf Marketing und Vertrieb stellt der Conversational Commerce dar - d.h. Einkaufsabläufe, die über systembasierte Dialog-Prozesse ablaufen und zunehmend durch eine KI-basierte Sprachsteuerung ermöglicht werden. Die bekannteste Form dieses Conversational Commerce ist der Chat zwischen Kunden und Unternehmen. Meist können diese Prozesse heute durchgeührt werden, ohne dass die genutzte Nachrichten-App (zum Beispiel WhatsApp oder WeChat) verlassen werden muss. Spannend ist hier zum Beispiel die E-Commerce-Applikation, die der Kleiderhändler H&M entwickelt hat. Auf diesem Kanal agieren inzwischen über 300 Millionen Konsumenten, die sich interaktiv von einem Chatbot beraten lassen (Kreutzer & Sirrenberg 2019: 159). Anwendungsbeispiele Produktion und Supply-Chain (Lieferkette) Das jährliche Wertschöpfungspotenzial im Bereich Produktion und Supply-Chain liegt bei 1,2 bis 2,0 Billionen US-Dollar (Chui u.a. 2018: 20). Dabei sind KI-Technologien in vielen unterschiedlichen Umfeldern einsetzbar: von der Instandhaltung über die Logistik bis hin zur Produkt- und Prozessentwicklung oder Ressourcenplanung. Im Fokus von KI-Anwendungen in der Instandhaltung steht die bedarfsgerechte Optimierung von Wartungsintervallen. Mit Hilfe von Aktionsplanungsalgorithmen lässt sich die Terminierung zunehmend automatisieren. In diesem Fall überwacht die KI fortwährend eine beliebig große Anzahl von Maschinen- und Prozesskenngrößen und signalisiert Wartungsbedarf entsprechend des Zustands einzelner Komponenten. Dies erlaubt es, Wartungsaktivitäten auf sich abnutzende Komponenten zu reduzieren, anstatt eine Komplettwartung anzustoßen. Überwachte Parameter können zudem mit Hilfe von Bildverarbeitungsanwendungen generiert werden. Ein Beispiel hierür ist die Überwachung einer Prozesskammer bezüglich ihrer Verschmutzung. Im Rahmen der Predictive Maintenance (vorhersagenden Wartung) werden die Aktionsplanungsalgorithmen entweder erweitert oder durch maschinelles Lernen ergänzt. Ziel ist es, einen Parameterdrift oder sich abzeichnende Ausälle von Komponenten auf Basis von Trendanalysen oder komplexer Mustererkennung dynamisch (ohne vorab alle Fälle zu kennen) vorherzusagen. Dadurch können sich Instandhaltungsteams zunehmend auf spezifische Wartungs- und Problemlösungsprozesse konzentrieren (Knapp & Wagner 2019: 167-169). <?page no="78"?> 78 Daniel Jan Ittstein Im Hinblick auf die Logistik werden Aktionsplanungs- und Optimierungsalgorithmen in der Lagerhaltung eingesetzt. Die Aufgaben reichen von komplizierten Benachrichtigungssystemen, die beispielsweise auf kritische Lagerbestände hinweisen, bis hin zu Algorithmen, die Lagerdisponenten durch Vorschläge ür vorzuhaltende Materialmengen auf Basis von Trends unterstützen. Auch ür die Kommissionierung und den Transport von Waren kommen zunehmend KI-Technologien zum Einsatz. Beispiele sind die Routenplanung von fahrerlosen Transportsystemen und die dynamische Routenanpassung bei frei navigierenden autonomen Fahrzeugen, die es Letzteren beispielsweise erlaubt, Hindernisse zu umfahren (Hatiboglu u.a. 2019: 17). Bei der Prozesssteuerung steht die Automatisierung dynamischer Regelschleifen im Vordergrund. Hierbei bieten sich vor allem Planungsalgorithmen an. Im Vergleich zum Menschen weisen diese eine höhere Verügbarkeit auf und häufig eine beschleunigte Verarbeitung. KI erlaubt es, neben unmittelbaren Prozessdaten auch historische Daten in die Steuerungsprozesse einfließen zu lassen (Hatiboglu u.a. 2019: 22). Historische Daten können Informationen aus vorherigen Maschinenläufen oder vorgelagerten Prozessen sein. Durch diese Erweiterung des Informationsumfangs ist es in einigen Fällen möglich, optimierte Prozessergebnisse zu erzielen, wenn sich beispielsweise qualitätsrelevante Prozessabweichungen durch Adaption der Folgeprozesse ausgleichen lassen. Dies sind nur einige wenige Beispiele ür Anwendungsfelder der KI in Bezug auf Marketing, Vertrieb, Produktion und Supply-Chain. Daran wird deutlich, wie durch die Nutzung von Daten Werte generiert werden können. Kein Wunder also, dass immer mehr Unternehmen die KI in ihre Wertschöpfungsprozesse integrieren. 6.4 Adaption in Unternehmen durch COVID-19 beschleunigt Immer mehr Unternehmen nutzen KI-Technologie. In einer Studie konnten Cam et al. feststellen, dass Ende 2019 bereits 58% der befragten Unternehmen KI einsetzten - eine Steigerung von 11% im Vergleich zum Vorjahr (Cam u.a. 2020: 4). Dieser Trend verdeutlicht, dass sich der unternehmerische Einsatz von KI zunehmend zum ‚Mainstream‘ entwickelt. Aber es gibt signifikante sektorale Unterschiede. So ist der Einsatz von KI in der High-Tech- (zum Beispiel Softwareunternehmen), Automobil- und Telekommunikationsbranche bereits verbreitet und vielältig. Unternehmen aus der Infrastrukturbranche (zum Beispiel Bauunternehmen) oder aus dem Bereich der Professional Services (zum Beispiel Unternehmensberatungen) hinken der Entwicklung hingegen deutlich hinterher (Cam u.a. 2020: 5). Dabei profitieren vor allem die so genannten ‚Frontier-Firms‘ oder ‚High Performer‘ vom Einsatz der KI (Bughin u.a. 2017: 21; Candelon u.a. 2020: 7). Bei diesen Unternehmen besteht in der Regel eine klare KI-Strategie, es wird firmenweit ein standardisierter ‚KI-Werkzeugkoffer‘ zur Verügung gestellt und diejenigen Mitarbeiter, die in direktem Kundenkontakt stehen, werden in Echtzeit mit Informationen aus der KI unterstützt, um bessere Entscheidungen treffen zu können (Cam u.a. 2020: 7). Dadurch wird die KI zu einem integralen Bestandteil der Unternehmung. Besonders sichtbar wurden die Vorteile der ‚High Performer‘ während der letzten vier Wirtschaftskrisen. Neueste Untersuchungen von Candelon et al. zeigen, dass <?page no="79"?> 6 Künstliche Intelligenz als integraler Bestandteil ökonomischen Handelns 79 sich Unternehmen, die schon in den vergangenen Jahren konsequent auf Digitalisierung und KI setzten, deutlich schneller an krisenbedingte Situationen anpassen konnten und dadurch ihre Umsätze steigerten (Candelon u.a. 2020: 3). Auch in der COVID-19 Krise konnten sich durch Einsatz der KI verstärkende Trends von den High Performern produktiv genutzt werden, dazu gehören etwa die zunehmenden Redundanzen in den Wertschöpfungsketten, das sich verändernde Konsumentenverhalten oder die Verschiebung zur Fernarbeit. Redundanzen in der Wertschöpfungskette Bis vor wenigen Jahren noch war die Optimierung von Kosten und Zeit das übergeordnete Ziel beim Management globaler Wertschöpfungsketten. Dies bedeutete oft, dass die Produktion in großen Fabriken gebündelt wurde, um Größen- und Verbundeffekte nutzen zu können. Inventar und Überkapazität waren strengstens zu vermeiden. Aber seit geraumer Zeit entwickelt sich politisch motiviert ein gewisser Wirtschaftsnationalismus und es entstehen Handelshemmnisse - zwei Aspekte einer „neuen Globalisierung“ (Baylis 2020: 256). In dieser sich herausbildenden neuen Logik, gewinnen redundante Wertschöpfungsketten wieder zunehmend an Bedeutung, um Produktions- und Lieferengpässe zu vermeiden. Während der COVID-19-Krise half die KI-Technologie Unternehmen dabei, diese Redundanzen kosteneffizient aufzusetzen. Zum einen wurden Unternehmen durch lernende Algorithmen dahingehend unterstützt, optimierte Absatzprognosen zu erstellen (Candelon u.a. 2020: 5). Dadurch war eine bessere Planung und Abstimmung innerhalb der Wertschöpfungskette möglich. Zum anderen konnten durch vorausschauende Instandhaltung die Produktionszeiten ausgebaut werden. Diese Maßnahmen trugen wesentlich dazu bei, dass selbst in kleineren, global verteilten Produktionsstätten verlässlich und kostengünstig gearbeitet werden konnte. Insofern kann durchaus davon gesprochen werden, dass die KI-Technologie den Paradigmenwandel hin zu einer neuartigen ökonomischen Globalisierung unterstützt. Verändertes Konsumverhalten Auch das Konsumverhalten ändert sich seit der Jahrtausendwende kontinuierlich. Digitale Kanäle gewinnen über alle Warengruppen hinweg an Bedeutung, wobei Unternehmen bevorteilt werden, die ihre Dienstleistungen und Produkte auch online anbieten können. Durch COVID-19 wurde auch dieser Trend maßgeblich beschleunigt. Nicht nur große Online-Unternehmen wie Amazon samt seinem riesigen Netzwerk von ‚Amazon-Sellern‘, verzeichneten enorme Wachstumsraten, sondern auch Online-Streaming-Dienste oder Anbieter von Fitness-Apps konnten ihren Umsatz wesentlich steigern. Unternehmen nutzten die KI-Technologie, um die sich durch die Krise rapide verändernden Kundenpräferenzen in Echtzeit zu analysieren und ‚hyperpersonalisierte‘ Produkte und Dienstleistungen anbieten zu können. Kunden haben sich dadurch noch mehr an diese Online-Kanäle und den Einsatz der KI gewöhnt. Verschiebung zur Fernarbeit In Zeiten der Pandemie waren viele Menschen darauf angewiesen, von Zuhause aus virtuell zu arbeiten. Auch wenn diese teilweise vollständige Verlagerung auf Fernarbeit sicherlich nur vorübergehend sein wird, so konnten von zahlreichen Menschen und auch Arbeitgeber*innen erstmals auch die Vorteile dieser Arbeitsweise genutzt werden. Viele Beschäftigte ersparten sich stundenlanges Pendeln, <?page no="80"?> 80 Daniel Jan Ittstein konnten daheim ihre Kinder und Familienangehörigen unterstützen und waren teilweise produktiver. Daneben erlebten On-Demand-Arbeitsmodelle und dadurch die so genannte Gig-Economy einen Aufschwung. Unternehmen war es durch die Nutzung von KI-Technologien möglich, die Einbindung von Humanressourcen effizienter zu gestalten. Durch datenbasierte Vorhersagen konnte die Allokation der Angestellten dabei besser geplant werden. Freiberuflich Beschäftigte konnten durch Plattformen wie Upwork oder Google Kaggle flexibel in die Arbeitsabläufe integriert werden, wodurch viele Unternehmen zeitnah auf pandemiebedingte Krankheitsälle reagieren konnten. Es kann davon ausgegangen werden, dass durch COVID-19 die Adaption der KI in Unternehmen zunehmen wird, da durch den Einsatz der Technologie mehr Resilienz entsteht, es sich ökonomisch lohnt und sich auch Kunden und Mitarbeiter*innen zunehmend an den Umgang mit der Technik gewöhnt haben. Auch wenn dies aus Unternehmenssicht durchaus nachvollziehbar ist, stellt sich die Frage, welche Konsequenzen diese Entwicklung auf den Arbeitsmarkt und die Verteilung des ökonomischen Einkommens haben kann. 6.5 Druck auf Arbeits- und Vermögensverteilung steigt Auch wenn davon ausgegangen wird, dass durch den Einsatz von KI-Technologie ökonomisches Wachstum entsteht, so verbleibt die Herausforderung einer gerechten Verteilung des dadurch zustande kommenden ökonomischen Einkommens. Derzeit muss angenommen werden, dass der durch die KI entstehende zusätzliche Wohlstand in Zukunft nicht gerecht verteilt sein wird. Hintergrund ist, dass die zukünftige Wohlstandssteigerung größtenteils durch den Einsatz von Kapital und nicht durch die Nutzung von (menschlicher) Arbeit erzielt wird. Entsprechend partizipieren überdurchschnittlich die Marktteilnehmer*innen, die das nötige Kapital zur Verügung stellen werden. Dieser Trend ist schon jetzt eindeutig festzustellen. Die Produktivitätssteigerungen der letzten Jahre hatten weltweit keine positive Auswirkung auf die Durchschnittseinkommen und einen negativen Effekt auf die Median-Einkommen in den westlichen Ländern. In anderen Worten: am Wohlstand partizipiert nur eine äußerst kleine Menge an Menschen, vorwiegend über Kapitaleinkommen (Brynjolfsson & McAfee 2016: 142). Abgesehen von der ungerechten Verteilung des Einkommens werden in der öffentlichen Debatte häufig Beürchtungen geäußert, dass technologischer Wandel und insbesondere der Einsatz von KI-Technologie schon bald gänzlich zu einem ‚Ende der Arbeit‘ ühren könnten. Einen wesentlichen Impuls ür diese Diskussion lieferte eine Studie der Ökonomen Frey und Osborne im Jahr 2013 (Frey & Osborne 2013). Die daraus resultierenden Einschätzungen sollten allerdings mit Vorsicht interpretiert werden. Zum Beispiel basieren die Ergebnisse der Studie von Frey und Osborne in hohem Maße auf den subjektiven Einschätzungen von Robotik-Experten zur Automatisierbarkeit von Berufen. Problematisch hierbei ist, dass Digitalisierungsexperten dazu neigen, die Einsatzmöglichkeiten und praktische Relevanz neuer Technologien zu überschätzen. Insbesondere werden die komparativen Vorteile von Menschen bei Tätigkeiten mit hohen Anforderungen an Flexibilität, Urteilskraft und gesunden Menschenverstand unterschätzt. Solche Fähigkeiten sind nur schwer greifbar und setzen implizites Wissen voraus. Die Herausforderungen der KI, solche ür Menschen einfach zu bewerkstelligenden Tätigkeiten <?page no="81"?> 6 Künstliche Intelligenz als integraler Bestandteil ökonomischen Handelns 81 zu automatisieren, bleiben immens und setzen der Mensch-Maschine-Substitution Grenzen. Zudem können der praktischen Umsetzung neuer Technologien rechtliche, gesellschaftliche und ethische Hürden entgegenstehen. Dies verdeutlicht das Beispiel des autonomen Fahrens. Auch wenn es schon bald möglich sein wird, dass Autos völlig autonom fahren, so sind wesentliche Rechtsfragen im Falle eines autonom verursachten Unfalls noch nicht abschließend geklärt. Dies muss nicht zwangsläufig heißen, dass solche Hindernisse nicht überwunden werden können, jedoch könnte dies die Einührung erschweren und verzögern. Welche Arbeitsplätze in Zukunft aufgrund von KI-Technologien wegfallen, hängt weniger von den Berufen als vielmehr von den Aktivitäten beziehungsweise den Tätigkeitsprofilen der Arbeitsplätze ab. Bisherige Studien, wie zum Beispiel die von Cam oder Manyika, zeigen zwar, dass technologischer Wandel zu einem Rückgang von Beschäftigungsverhältnissen mit überwiegend automatisierbaren Tätigkeiten ührt. Anhand dieser Studien wird aber auch deutlich, dass ein Großteil der Anpassung erfolgt, indem die Beschäftigten ihre Tätigkeitsstrukturen angleichen und vermehrt schwer automatisierbare Aufgaben ausüben. Die Automatisierungswahrscheinlichkeit ist derzeit vor allem ür Tätigkeiten groß, die routinemäßig und standardisiert verübt werden. Der Qualifikationsgrad der Mitarbeiter*innen hat insofern keinen direkten Einfluss auf die Automatisierbarkeit der Tätigkeit, wie Manyika et al. festgestellt haben (Manyika u.a. 2017). Mensch und Maschine werden demnach komplementär im Wertschöpfungsprozess eingesetzt. Neue Technologien können daher Arbeitsplätze verändern, ohne sie zu beseitigen, und die gewonnenen Freiräume können von den Beschäftigten genutzt werden, um schwer automatisierbare Aufgaben durchzuühren. Automatisierungstechnologien müssen somit nicht notwendigerweise Arbeitsplätze verdrängen. Solange Beschäftigte in der Lage sind, ihre Fähigkeiten entsprechend der veränderten Anforderungen in Betrieben anzupassen und neue Technologien (zum Beispiel KI-basierte Assistenzsysteme) als Arbeitsmittel einzusetzen, sind ihre Arbeitsplätze nicht zwangsläufig bedroht. Dies bedingt allerdings, dass die Menschen dazu bereit und ähig sind, sich lebensbegleitend nötige Kompetenzen anzueignen, und dass ihnen entsprechende Bildungsangebote auch offenstehen. Die Etablierung einer solchen ‚Bildungslogik‘ wird eine der zentralen Herausforderungen der Gesellschaft während der laufenden Transformation sein. 6.6 Transformation aktiv gestalten Die KI wird schon in naher Zukunft ein zentrales Designkriterium sozioökonomischer Systeme sein. Mit künstlicher Intelligenz ausgestattete Roboter werden nicht mehr nur klar abgrenzbare maschinelle Diener sein. Wir werden uns in einer ubiquitären Robotik-Umgebung befinden und vielfach unbewusst die künstliche Intelligenz der Maschinen nutzen. Die Verbindung von KI mit Robotik wird dazu ühren, dass die virtuelle und reelle Welt unbemerkt miteinander verzahnt sein werden, um Mehrwerte zu schaffen. Um Letztere nutzen zu können, ist es allerdings von evidenter Bedeutung, diese Transformation als Unternehmen und als Staat aktiv und mit Augenmaß zu begleiten. Ein unreflektiertes ‚AI first‘, bei dem sich Personen von den Chancen blenden lassen und Risiken unterschätzt werden, <?page no="82"?> 82 Daniel Jan Ittstein ist kontraproduktiv und die größte Gefahr daür, den vollen Nutzen aus der technischen Entwicklung zu ziehen. Zentrales Erfolgskriterium wird es sein, dass ein Ankommen der Mehrwerte bei allen Menschen gewährleistet ist. Eine Stellschraube ist dabei sicherlich ein angepasstes (Weiter-)Bildungssystem, das es Menschen und Mitarbeitern sukzessive erlaubt, sich auf die veränderten Bedingungen einstellen zu können. Das wird allerdings nicht reichen, um das ökonomische Einkommen gerecht zu verteilen. Erste Ideen wie ‚Roboter-Steuern‘, ‚Negative Einkommensteuer‘ oder ‚Grundeinkommen‘ sollten überdacht, weiterentwickelt, getestet und eingeührt werden, um den makroökonomischen Veränderungsprozess zu begleiten. Ergänzend dazu ist es längst überällig, adäquate ökonomische Indikatoren zu entwickeln, die helfen, das Potenzial der KI quantitativ abzubilden und dadurch eine breite Akzeptanz im Hinblick auf die laufende Transformation zu ermöglichen. 6.7 Literatur ABI Research 2020. Artificial Intelligence Investment Monitor 2019. https: / / www.abiresearch.com/ market-research/ product/ 7777991-artificial-intelligence-investment-monitor/ ? src=svcrecent [Stand 2020-06-6]. Barton, Dominic u.a. 2017. Artificial Intelligence: Implications for China. McKinsey Global Institute, New York 1-20. Baylis, John 2020. The globalization of world politics: An introduction to international relations. Oxford: Oxford University Press. Brynjolfsson, Erik & McAfee, Andrew 2016. The second machine age: Work, progress, and prosperity in a time of brilliant technologies. New York: Norton. Bughin, Jacques u.a. 2017. Artificial intelligence: The next digital frontier. McKinsey Global Institute. Bughin, Jacques u.a. 2019. Notes from the AI Frontier: Tackling Europe’s Gap in Digital and AI. McKinsey Global Institute. Bundesregierung 2018. Strategie Künstliche Intelligenz der Bundesregierung. https: / / www.bmbf.de/ files/ Nationale_KI-Strategie.pdf [Stand 2020-06-7]. Bundesregierung 2020. Zwischenbericht ein Jahr KI-Strategie. https: / / www.bmbf.de/ files/ Zwischenbericht%20KI-Strategie_Final.pdf [Stand 2020-06-7]. Buxmann, Peter & Schmidt, Holger 2019. Ökonomische Effekte der Künstlichen Intelligenz. In P. Buxmann & H. Schmidt, hg. Künstliche Intelligenz. Mit Algorithmen zum wirtschaftlichen Erfolg. Berlin: Springer, 21-37. Cam, Arif, Chui, Michael & Hall, Bryce 2020. Global AI Survey: AI proves its worth, but few scale impact. McKinsey Global Insitute. Candelon, Francois u.a. 2020. The Rise of AI-Powered Company in the Postcrisis World. https: / / www.bcg.com/ de-de/ publications/ 2020/ business-applicationsartificial-intelligence-post-covid.aspx [Stand 2020-06-20]. <?page no="83"?> 6 Künstliche Intelligenz als integraler Bestandteil ökonomischen Handelns 83 Chatterjee, Sheshadri 2020. AI strategy of India: policy framework, adoption challenges and actions for government. Transforming Government: People, Process and Policy. Chui, Michael u.a. 2018. Notes from the AI frontier: Insights from hundreds of use cases. McKinsey Global Institute. Dutton, Tim 2018. An Overview of National AI Strategies. https: / / medium.com/ politics-ai/ an-overviewhttps: / / medium.com/ politicsai/ an-overview-of-national-ai-strategies-2a70ec6edfd-of-national-ai-strategies-2a70ec6edfd [Stand 2020-06-9]. Frey, Carl Benedikt & Osborne, Michael 2013. The future of employment. Oxford Martin Programme on Technology and Employment 1-77. Hatiboglu, Bumin u.a. 2019. Einsatzfelder von Künstlicher Intelligenz im Produktionsumfeld. https: / / www.iao.fraunhofer.de/ lang-de/ presse-und-medien/ aktuelles/ 2144-ki-in-der-produktion-grundlagen-vorgehen-einsatzfelder.html [Stand 2020-06-19]. Herbrich, Ralf 2019. Künstliche Intelligenz bei Amazon Spitzentechnologie im Dienste des Kunden. In P. Buxmann & H. Schmidt, hg. Künstliche Intelligenz. Mit Algorithmen zum wirtschaftlichen Erfolg. Berlin: Springer, 63-75. Knapp, Peter & Wagner, Christian 2019. Künstliche Intelligenz schafft neue Geschäftsmodelle im Mittelstand. In P. Buxmann & H. Schmidt, hg. Künstliche Intelligenz. Wirtschaftlicher Erfolg mit Algorithmen. Berlin: Springer, 161-172. Kreutzer, Ralf T & Sirrenberg, Marie 2019. Künstliche Intelligenz verstehen: Grundlagen - Use-Cases unternehmenseigene KI-Journey. Wiesbaden: Springer. Leukert, Bernd, Müller, Jürgen & Noga, Markus 2019. Das intelligente Unternehmen: Maschinelles Lernen mit SAP zielgerichtet einsetzen. In P. Buxmann & H. Schmidt, hg. Künstliche Intelligenz. Mit Algorithmen zum wirtschaftlichen Erfolg. Berlin: Springer, 41-62. Mann, Catherine 2016. Tackling the productivity paradox: The OECD Global Forum on Productivity. https: / / oecdecoscope.blog/ 2016/ 07/ 05/ tackling-theproductivity-paradox-the-oecd-global-forum-on-productivity/ ? print=pdf [Stand 2020-06-24]. Manyika, James, Chui, Michael & Miremadi, Mehdi 2017. A future that works: AI, automation, employment, and productivity. McKinsey Global Institute. OECD 2016. The Productivity-Inclusiveness Nexus: Meeting of the OECD Council at Ministerial Level. Paris: OECD. O’Meara, Sarah 2019. China’s ambitious quest to lead the world in AI by 2030. Nature Volume 572, 22 August 2019, 427-428. Shimpo, Fumio 2018. The principal Japanese AI and robot strategy toward establishing basic principles. In Research Handbook on the Law of Artificial Intelligence. Cheltenham: Edward Elgar Publishing, 114-142. <?page no="84"?> 84 Daniel Jan Ittstein Struminski, Wladimir 2020. Israel will Künstliche Intelligenz stärker ausbauen. Nationaler KI-Plan in Vorbereitung. https: / / www.gtai.de/ gtai-de/ trade/ branchen/ branchenbericht/ israel/ israel-will-kuenstliche-intelligenz-staerker-ausbauen-212222 [Stand 2020-06-7]. Touboul, Emmanuel u.a. 2020. The road to AI - Investment dynamics in the European ecosystem. file: / / / Users/ dji/ Downloads/ MKT_Publi_19_013_The_road_to _AI_FINAL_2.pdf [Stand 2020-06-6]. White House 2019. The Networking & Information Technology Research & Development Program. White House 2020. American Artificial Intelligence Initiative: Year One Annual Report. <?page no="85"?> Herausforderungen und Zukunftsszenarien <?page no="87"?> 7 Zukunftsperspektiven für Gesellschaft und Politik Nicole Brandstetter 7.1 Schöne neue Welten? Wie wird Künstliche Intelligenz unsere Gesellschaft verändern? Wie kann ein demokratisches Zusammenleben in Zukunft aussehen? Jenseits der klassischen Science-Fiction-Tableaus, die sich oft mit intelligenten Maschinen, deren Kontrollübernahme und dem Ende der Welt in ferner und näherer Zukunft beschäftigen, werden in der Literatur Szenarien entworfen, die nicht eine dystopisch technologisierte Zukunft skizzieren, deren Implementierung faktisch und technologisch weit entfernt oder gar unerreichbar ist, sondern konsequent-logisch den heutigen Entwicklungsstand von Künstlicher Intelligenz und Digitalisierung weiterdenken. So zeichnet Juli Zeh in ihrem 2017 erschienenen Roman Leere Herzen ein dystopisches Bild von Deutschland nach Merkel im Jahre 2025, das von einer rechten Partei, der Besorgte-Bürger-Bewegung, regiert wird. Nicht zuällig spiegelt dabei der Name der Partei das rechtspopulistische Spektrum in der aktuellen politischen Lage in Deutschland wider, denn diese Partei schnürt im Laufe des Romans immer mehr Effizienzpakete, die unter anderem immer mehr Kompetenzen ür Polizei und Geheimdienst beinhalten, und sichert sich so schrittweise immer mehr Macht über eine sukzessiv entpolitisierte Gesellschaft: „‚Die BBB bringt das ünfte Effizienzpaket auf den Weg.‘ Knut schaut in die Runde, als müsste nun jeder der Anwesenden reihum Stellung nehmen. ‚Danach wird es auf Landesebene keine Enquete-Kommissionen, parlamentarischen Beiräte und Kontrollgremien mehr geben.‘“ (Zeh 2017, 18) Auch der Rest Europas befindet sich im Zerfall mit Bewegungen wie „Frexit, Free Flandern und Katalonien First! “ (17). Doch nicht nur europäische Errungenschaften schwinden, auch die UNO soll aufgelöst werden, denn „Völkerrecht klingt auch irgendwie nach 20. Jahrhundert“ (91), wie eine Figur des Romans betont. Nicht zuletzt der demokratische Akt des Wählens scheint ein Relikt vergangener Zeiten: „Sie weiß, dass sie die Frage, wen man wählen soll, damals mit anderen diskutiert hat und dass ihr die Antwort wichtig erschien. Wann das gewesen ist, weiß sie nicht mehr so genau; definitiv vor Flüchtlingskrise, Brexit und Trump, lange vor der zweiten Finanzkrise und dem rasanten Aufstieg der Besorgte-Bürger-Bewegung. In einer anderen Zeit.“ (19) Und dennoch scheint die Welt eine friedlichere zu sein, denn der Syrienkrieg wurde durch Trump und Putin beendet, ein Friedensvertrag zwischen Israel und Palästina mit einer Zweistaatenlösung unterschrieben und die Wirtschaft erlebt einen Boom (vgl. Zeh 2017, 31). In dieser Atmosphäre der schleichenden Entpolitisierung und Entdemokratisierung reagiert die Bevölkerung jedoch größtenteils mit Gleichgültigkeit, Opportunismus und Prinzipienlosigkeit, die sich auch ästhetisch in der Sprache widerspiegeln. Oft dominieren kurze, parataktische Sätze die <?page no="88"?> 88 Nicole Brandstetter Erzählung, die ein geradezu distanziert-beobachtender, fast filmisch-neutraler Stil und die Schlichtheit der Sprache charakterisieren. Die Protagonistin Britta Söldner scheint den Effizienzgedanken, der das Zusammenleben in dieser Gesellschaft beschreibt, internalisiert zu haben. So preist sie die entindividualiserte, praktische und doch seelenlose Wohnsituation in Braunschweig, in der sie sich aus freier Wahl befindet: „Einen Betonwürfel mit viel Glas in einem ruhigen Wohnviertel, praktisch, geräumig, leicht zu reinigen, genau wie Braunschweig selbst, gerade Linien, glatte Flächen, frei von Zweifeln. Dermaßen durchdacht, dass es ür jedes Möbelstück nur einen einzigen möglichen Ort gibt. Dazu Keller, Kinder- und Gästezimmer, ausreichend Toiletten und Abstellraum, pflegeleichter Garten und eingebaute Haushaltselektronik, die die Raumtemperatur reguliert, zu festgesetzten Zeiten Kaffee kocht und Warnsignale von sich gibt, wenn der Kühlschrank offen steht.“ (Zeh 2017, 14) Für Britta ist Funktionieren „das oberste Gesetz“ (33). Aber sie funktioniert nicht nur in dieser seelenlosen Gesellschaft, sie benutzt es im Sinne des Effizienzgedankens und entledigt sich aller moralischer Wertvorstellungen, wenn sie einen in ihrem Sinne positiven Beitrag zum reibungslosen, friedfertigerem Funktionieren der Gesellschaft durch ihr Unternehmen „Die Brücke“, das sie mit ihrem Freund Babak gegründet hat, beiträgt. Unter dem Deckmantel einer „Heilpraxis ür Psychotherapie und angewandte Tiefenpsychologie, Self-Managing, Life-Coaching, Ego-Polishing“ (34) - auch ihre Familie und Freunde wissen nicht um die tatsächliche Arbeit dieser Praxis - hat sie ganz ihrem wohl ausgewählten Nachnamen folgend das Geschäft mit Selbstmordattentätern höchst erfolgreich perfektioniert. Im Zentrum ihres Geschäftsmodells steht ein Algorithmus, der den niedlichen Namen „Lassie“ trägt, womit bei den Leser*innen durch die Analogie zum weithin bekannten Hund aus der gleichnamigen Fernsehserie sogleich Assoziationen eines treuen und loyalen Begleiters hervorgerufen werden. Durch die Wortwahl und die Art der Beschreibung wird der Eindruck forciert, es handle sich um ein Lebewesen, das aufgezogen und gepflegt werden müsse: „Der Algorithmus ist ausgereift, hochintelligent, selbstlernend, perfekt dressiert. Seit den Anfangstagen der Brücke arbeitet Babak an der Fortentwicklung. Er hat Lassie zur Welt gebracht, er üttert sie, pflegt sie, trainiert mit ihr, lobt, wenn sie ihre Sache gut macht, korrigiert, wenn Fehler unterlaufen, was inzwischen praktisch nicht mehr vorkommt. […] Sie läuft los, die Nase am Boden, schnüffelt durch die hellen und dunklen Winkel menschlicher Kommunikation, schafft Verknüpfungen.“ (Zeh 2017, 53-54) In einschlägigen Online-Foren im Internet sucht der personifizierte Algorithmus „Lassie“ nach suizidwilligen Kandidat*innen, die von der „Brücke“ dann kontaktiert werden. Diese durchlaufen Brittas eigens entwickeltes, zwölfstufiges Programm, das durch ein Stufensystem von Verhaltens- und Psycho-Tests, Klinikaufenthalten, Waterboarding und schließlich Scheinexekution einen Score errechnet, wie selbstmordwillig die Kandidat*innen tatsächlich sind. Etwa 90% brechen das Programm ab und kehren gleichsam „geheilt“ von ihren Selbstmordgedanken in die Gesellschaft zurück, doch einige sind fest entschlossen und werden geschäftsmäßig an interessierte Organisationen - Ökofundamentalisten oder fanatisch-religiöse Organisationen - vermittelt: <?page no="89"?> 7 Zukunftsperspektiven für Gesellschaft und Politik 89 „Sofern Attentäter vermittelt werden, ist die Brücke auf einen strengen Kodex verpflichtet - begrenzte Opferzahlen sorgältige Vermeidung von Eskalation, keine Kollateralschäden. Nach und nach haben sich die Auftraggeber auf diese Bedingungen eingestellt, inzwischen gibt es praktisch niemanden mehr, der Aktionen außerhalb dieser Zusammenarbeit organisiert. Seit dem Durchmarsch der BBB sind die Organisationen geschwächt, ihre Ziele haben an Strahlkraft verloren, sie sind kaum noch in der Lage, eigene Märtyrer zu rekrutieren. Als erster und bisher einziger Terrordienstleister der Republik hat die Brücke die Branche befriedet und stabilisiert. Sie sorgt ür das richtige Maß an Bedrohungsgeühlen, das jede Gesellschaft braucht. Und sie hat Babak und Britta ziemlich reich gemacht.“ (Zeh 2017, 72-73) Ihr Sterben soll somit nicht sinnlos bleiben, sondern im Gedanken des Funktionierens und der Effizienz einem größeren Ziel dienen. Der Service der „Brücke“ beinhaltet „die komplette Suizid-Logistik“ (71), die neben persönlichen Angelegenheiten auch die Planung des Anschlags und die Bestattung umfasst. Das Bild von Britta als erfolgsfixierte, höchst rational agierende Geschäftsfrau wird nur leise, an wenigen Stellen in Frage gestellt: „Wenn ihr nicht so häufig übel wäre, würde sie sich wahrscheinlich glücklich nennen.“ (73) Obwohl sie als Teil der seelenlosen Gesellschaft agiert, in der 67% vor die Wahl gestellt sich ür ihre Waschmaschine statt ür ihr Wahlrecht entscheiden würden (vgl. 205), scheint sie sich von ihrer politischen Überzeugung als Demokratin nie ganz verabschiedet zu haben. So war sie doch als Heranwachsende politisch interessiert und engagiert (vgl. 275), bevor der Aufschwung der Besorgte-Bürger-Bewegung zu Merkels Rücktritt ührte und zur schleichenden Entdemokratisierung der Gesellschaft. Diese politische Vergangenheit ührt bei Britta noch immer zu körperlichen Schmerzen: „Es liegt am Paradoxien-Schmerz. Demokratieverdrossene Nicht-Wähler gewinnen Wahlen, während engagierte Demokraten mit dem Wählen aufhören. Intellektuelle Zeitungen arbeiten ür die Überwindung des Humanismus, während populistische Schundblätter an den Idealen der Aufklärung festhalten. In einer Welt aus Widersprüchen lässt sich nicht gut denken und reden, weil jeder Gedanke sich selbst aufhebt und jedes Wort sein Gegenteil meint. Zwischen Paradoxien findet der menschliche Geist keinen Platz, Britta kann nicht mehr Wähler oder Bürger sein, nicht einmal Kunde und Konsument, sondern nur noch Dienstleister, angehöriger eines Serviceteams, das die kollektive Reise in den Abgrund unterstützend begleitet.“ (227) Doch als eine überzeugte Gegenorganisation einen Putsch auf die Regierung plant, um Merkel und damit die alte Demokratie wieder an die Macht zu bringen, sabotiert Britta trotz der Überzeugung, dass das Ziel das richtige wäre, deren Pläne, denn sie erkennt ihre Mitschuld am Zustand der Gesellschaft: „‚Leute wie ich tragen Schuld an den Zuständen, nicht die Spinner von der BBB. Regula Freyer ist an den Urnen gewählt worden, während meine beste Freundin ihr Wahlrecht im Geiste gegen eine Waschmaschine eingetauscht hat. Selbst auf diese Entscheidung habe ich noch heruntergeschaut, weil ich glaubte, meine Hände mit besseren Argumenten in den Schoß zu legen.‘“ (324) Statt das Attentat, wie sie vorgibt, mit ihrer Struktur zu unterstützen, sollen ihre <?page no="90"?> 90 Nicole Brandstetter Kandidat*innen den Anschlag verfrüht durchühren, um so die Sicherheitsmaschinerie aufzuscheuchen, in der Hoffnung, die Bevölkerung würde erwachen und eine Chance ür eine andere, demokratische Welt sehen. Doch stattdessen geht die Regierung aus dem vereitelten Anschlag gestärkt hervor. Julie Zeh entwickelt eine radikale Fortsetzung des Effizienzgedankens, des Funktionierens auf Basis von Künstlicher Intelligenz, die tief in Gesellschaftsstrukturen eingedrungen ist. Sie zeigt, wie aus Bequemlichkeit die ür eine demokratische, humane Gesellschaft notwendige konstante Debatte über Werte und Entscheidungen ausgesetzt wird und letztere der reinen Funktionalität übereignet werden. Als Ergebnis ührt sie den Leser*innen eine entpolitisierte, entdemokratisierte und seelenlose Gesellschaft vor Augen. Noch weiter geht Sibylle Berg in ihrem 2019 erschienenen Roman GRM Brainfuck. Der Logik unseres heutigen technologischen Fortschritts folgend entwirft sie „die Fantasie eines elektronischen Überwachungstotalitarismus nach chinesischem Vorbild hinter der Camouflage eines Sozialstaats mitteleuropäischen Zuschnitts.“ (März 2019a) Die Leser*innen befinden sich im Großbritannien der post-Brexit Ära, in Rochdale und in London. Der beschriebene Alltag gleicht einer „Generalabrechnung mit der Gegenwart“ (März 2019b) geprägt von brutalen, unvorstellbaren und doch der Realität entlehnten Monstrositäten 23 : Passant*innen werden ohne Grund von Attentätern mit Macheten zerlegt, in London brennt ein Hochhaus, junge Mädchen werden von pakistanischen Männern zu Sexsklavinnen degradiert und ein Sohn einer wohlsituierten, der Elite angehörigen Familie ermordet seine Stiefmutter und deren ungeborenes Kind, das er im Anschluss in ein Säurebad wirft. Künstliche Intelligenz steuert den Alltag und „ist der menschlichen so unglaublich überlegen, dass es dem Programmierer leichterfallen würde, sich in einen Deep- Learning-Rechner zu verlieben als in einen Menschen.“ (Berg 2019, 495-496) Menschen erscheinen abgestumpft, ja ignorant: „Menschen in ihrer absurden Dummheit, deren Gefühle, auf die sie sich so viel einbilden, nichts weiter als eine Abfolge von Rechenprozessen im Hirn, im unterentwickelten, sind.“ (496) Jedoch werden die Menschen nicht von einer Orwellschen Übermacht beobachtet. Diejenigen, die sich einen Chip implantieren lassen, erhalten ein Mindesteinkommen - und beliefern den Staat mit Daten, die zusammen mit biometrischen Kameras recht umfassende Bilder von Menschen liefern : „Der Programmierer schaltet sich auf den Bildschirm des Staatsschutzes. Eine unbelebte Kreuzung in Tower Hamlets. Vier Personen, eine auf dem Moped, eine Frau mit Kinderwagen, zwei junge Männer. Neben den Gesichtern abrufbar: die Informationen zur Person. Die Vorstrafen, der Beruf, das Einkommen. Alle arbeitslos. Na klar. Das System ist so einfach, so brillant. Diese umfassenden Informationen, zusammengeührt aus Versicherungs- und Krankenakte, Bankdaten, Arbeitgeberinfo und all den Details, die die Idioten mit jedem Klick, jedem Like, jedem Post, jedem Emoticon, jedem 23 Ursula März weist auf die Parallelen zur Realität hin: Vergewaltiger, die in Rochdale ihr Unwesen trieben sowie der Brand des Grenfell Towers dienen dem Roman als Vorlage (vgl. März 2019a und 2019b). <?page no="91"?> 7 Zukunftsperspektiven für Gesellschaft und Politik 91 Webseitenaufruf freiwillig abgeliefert haben. Sie sind wirklich alle aus demselben mäßig interessanten Material, die Leute, die nicht so individuell sind, wie sie immer glauben.“ (496). Mit diesen Daten werden Berechnungen erstellt, wem es wie wo und womit am besten geht. Dies geschieht auf Basis von Avataren ür alle Bürger*innen, deren Verhalten KI-gesteuert simuliert wird, um so das jeweilige individuelle Verhalten, wie Geährderpotenzial, politische Entscheidungen oder Konsumverhalten, und potentielle Manipulationsmöglichkeiten vorhersagen zu können: „23.11. Der Avatar von Paul B., 34, Familienvater. Politischer Linksaktivist, vegane Ernährung, plant eine militante Aktion vor dem Westminster Palace. Abtransport von Paul B. erfolgt um 16.34. Der Verhaftete betont, er hätte einen veganen Infostand geplant. 23.11. Der Avatar einer Kellnerin. Zugriff wegen Planung eines Attentats. Bestellung explosiver Substanzen. Schlagwort: Terror. Bombe. Die Frau (große Titten übrigens) betont bei Zugriff, Künstlerin zu sein.“ (491) Nach einer kurzen Exposition, in der skizziert wird, wie die Welt wurde, wie sie jetzt ist, werden die Protagonist*innen des Romans vorgestellt, vier Kinder - Don, Karen, Hannah und Peter - aus dem „Milieu der untersten Unterschicht, der Depravierten, Verarmten, kulturell Verkommenen und der Straßenkinder, die vom Radar der Sozialbürokratie verschwinden“ (März 2019b), die sich gegen diesen Überwachungsstaat wehren: „Das ist die Geschichte von Don Geährderpotenzial: Hoch Ethnie: unklare Schattierung von nicht-weiß Interessen: Grime, Karate, Süßigkeiten Sexualität: homosexuell, vermutlich Soziales Verhalten: unsozial Familienverhältnisse: 1 Bruder, 1 Mutter, Vater - ab und zu, aber eher nicht“ (Berg 2019, 8) Die Leser*innen erleben die Ereignisse aus den wechselnden personalen Perspektiven verschiedenster Figuren. Diese werden bei ihrer jeweils ersten Nennung eingeleitet mit einer Kurzeinschätzung gleich einem karteikartenähnlichen Profil bezüglich der jeweils relevanten Informationen unter anderem zu Intelligenz, Interesse, Sexualität, Krankheitsbild, Konsumverhalten, Ethnie, Familienzusammenhänge, herausragende Eigenschaften, Religion, Gesundheitszustand, Hobbys, Attraktivitätswert, Temperament, Konsuminteressen, Aggressionspotenzial, Kreditwürdigkeit, Verwertbarkeit oder politischer Orientierung. So fokussiert die Erzählung wie eine Summe der ausgewerteten Daten auf die Kategorisierung der jeweils folgenden narrativen Perspektive. Gleich einem Kommentar wird der Erzählstrang unterbrochen durch eine Analyse der Narration selbst sowie der Phänomene der Digitalisierung. Wie ein Beweis ür die desaströse Wirkung dieser Technologie auf die Gesellschaft wird die ironisch-distanziert durchgeührte Analyse durch die Erzählung selbst illustriert. <?page no="92"?> 92 Nicole Brandstetter Sibylle Bergs Poetik spiegelt die Gebrochenheit der Gesellschaft wider. Im Sinne einer apokalyptischen Rede dominieren parataktische, unvollständige Sätze, die sich teilweise über Absätze zersplittern, wie die folgende Textstelle, in der Don über Frauen, Männer und Familie nachdenkt, exemplarisch illustriert: „Peter mochte Männer nicht. Es gab zu viele davon. Dachte Don. Überall, wo es interessant war, saßen sei herum. Wenn sie in Gruppen auftraten, war das unerfreulich. Die Gruppe vor Dons Haus - na ja, Haus - hatte gestern einen kleinen streunenden Hund angelockt. Der Kadaver lag dann einige Tage da. Don wusste nicht, warum Männer so etwas taten. Aber sie wusste, man musste Angst vor ihnen haben. Man durfte sie nicht reizen. Sie konnten brüllen, ohne dass es klang wie kreischen. Sie redeten Unsinn, in Halbsätzen. Man wollte ihnen gefallen. Man wollte dem coolsten Gangster gefallen. Oder dienen. Um nicht erschlagen zu werden. Wie Dons Mutter. Wie alle Mütter im Block, die meistens alleine mit den Kindern waren, weil die Männer gingen, sobald sie keine Lust mehr hatten, die Frau zu schlagen. Erschöpfungsdepression war die häufigste Frauenkrankheit im Land. Na ja, Krankheit. Na ja. Frauen eben.“ (33-34) Ein harter, bisweilen vulgärer Ton hebt die geschilderte Brutalität auf die Ebene der Sprache, ohne den sorgenden, gar verzweifelten Blick auf seine Protagonisten zu verlieren: „Die apokalyptische Wucht, die dem Roman innewohnt, hält sich die Waage mit seiner emphatischen Barmherzigkeit. ‚GRM‘ ist Attacke und Fürbitte in einem, so monströs wie zärtlich.“ (März 2019b) KI-gesteuerte Systeme der Selbst- und Fremdüberwachung steuern, kategorisieren und zersplittern die Gesellschaft. Selbst die Politik wird durch Künstliche Intelligenz sich selbst entfremdet und abgeschafft: „Die neue Regierung Hatte ihre 80 Prozent der Stimmen nach dem Vorbild der früheren italienischen Fünf-Sterne-Bewegung eingefahren, einer Art Mitmach- und Gute- Laune-Partei ür alle. Gegen die da oben. Gegen die Eliten. Gegen Wissenschaftler und Künstler und Zeug. Die Software dieser wunderbaren, direkten Demokratischen Partei ist einer großen Gruppe junger, gelangweilter Programmierer zu verdanken. »Ich bin da schon ein wenig stolz.« Würden sie sagen, wenn sie öffentlich zu ihrem Werk stehen dürften. Der junge, dynamische Premier-Darsteller, im Netz agierte ein Avatar von ihm, verstand es von Anfang an, die Menschen mitzureißen. Das Volk liebt den neuen Premier. Das Volk steht vor dem Westminster Palace und jubelt. Seit dem Tag der Wahl stehen sie und jubeln und wissen, dass nun alles anders wird. Die Programmierer sehen aus dem Fenster. Ihre Regierung sind Superrechner, ein Serverraum, künstliche Intelligenz. Und ein Schauspieler.“ (Berg 2019, 603) Zurück bleibt eine zutiefst menschenfeindliche, dehumanisierte, brutale Gesellschaft, die gerade die Schwächsten unter ihnen verrät und ihrem Schicksal - Missbrauch, Armut, Krankheit, Tod - überlässt. <?page no="93"?> 7 Zukunftsperspektiven für Gesellschaft und Politik 93 7.2 Partizipation oder Entpolitisierung? Eine utopische Transparenz- und Beteiligungsgesellschaft entwirft Dave Eggers in seinem 2013 erschienenen Roman The Circle. Allgegenwärtig dominiert die namensgebende Digitalfirma „The Circle“, eine Wiederkehr aus Google und Facebook zusammen, den Alltag der Menschen. Kommunikation ist in diesem Universum kein Mittel, sondern unzweifelhafter Selbstzweck wie Dan, ein Mitarbeiter beim Circle, der die Hauptfigur Mae an ihrem ersten Arbeitstag dort anlernt, erahnen lässt: „With the technology available, communication should never be in doubt. Understanding should never be out of reach or anything but clear. It’s what we do here. You might say it’s the mission of the company - it’s an obsession of mine, anyway. Communication. Understanding. Clarity.“ (Eggers 2013, 47-48) In dieser Welt der sozialen Medien existiert man vor allem ür und durch kommunikative Vernetzung, direkte Reaktion und immerwährende Teilnahme bis hin zur Selbstaufgabe, denn wie eine weitere Circlerin betont: „You realize that community and communication come from the same root word, communis, Latin for common, public, shared by all or many? ” (96) Performance, Ratings und Transparenz sind die treibenden Kräfte. In schier endlosen, seitenweisen sich aneinanderreihenden Auflistungen von Maes simultanen, auf drei Bildschirmen präsenten Reaktionen, Kommentaren, Anfragen und Rankings wird die Absurdität dieses Prinzips ästhetisch widergespiegelt (vgl. z.B. 190-192 oder 414-417). Mit ihrem allübergreifenden Motto „Secrets Are Lies, Sharing Is Caring, Privacy Is Theft“ (305) arbeiten sie auf die Vollendung des Kreises, die vollständige Transparenz und Machtübernahme hin. Dabei wird deutlich, dass anstelle eines gemeinsamen Wir-Geühls, nur die Vereinzelung eines jeden sichtbar wird, denn, wie Han (2013) betont, die „digitalen Bewohner des Netzes versammeln sich nicht. Ihnen fehlt die Innerlichkeit der Versammlung, die ein Wir hervorbringen würde. Sie bilden eine besondere Ansammlung ohne Versammlung, eine Menge ohne Innerlichkeit, ohne Seele oder Geist.“ (21) Im Circle wird Transparenz durch verschiedene Programme in allen Lebensbereichen als der einzig positive, den Menschen und der Gemeinschaft nützliche Weg propagiert: Neben einem gesundheitlichen Präventionsprogramm ür alle Mitarbeiter*innen, dem „wraparound wellness service“ (Eggers 2013, 152), basierend auf kontinuierlichem Datensammeln gibt es auch Trackingprogramme ür Kinder - „ChildTrack“ - die Verbrechen verhindern sollen, bevor sie überhaupt begangen werden: „So immediately you take all child abduction, rape, murder, and you reduce it by 99 percent. And the price is that the kids have a chip in their ankle.” (90) Diese Idee des predictive policing entspricht einer gesteigerten Machbarkeitsvorstellung durch Künstliche Intelligenz gepaart mit einem Sicherheitsbedürfnis, das in dieser Form jedoch dem Freiheitsgedanken diametral entgegensteht. Lobe (2019) ührt aus, dass dies keine Fiktion mehr ist: „Mit sogenannten Precrime Units versuchen Polizeibehörden auf der ganzen Welt mit Daten aus der Vergangenheit Wahrscheinlichkeiten ür Delikte in der Zukunft zu berechnen (Predictive Policing).“ (29) Dabei geht eine große Gefahr ür Demokratien zum einen davon aus, dass Kriterien und Daten ein „Automation bias“ (Lenzen 2018, 172) inhärent sein <?page no="94"?> 94 Nicole Brandstetter kann, der zu struktureller Benachteiligung und Vorverurteilung von Minderheiten ühren kann. Zum anderen setzen, wie Lobe argumentiert, Algorithmen in dieser Weise außerdem in der Rechtsordnung vorherrschende gesetzliche Normen, wie z.B. Unschuldsvermutung oder Gleichbehandlung, aus und ällen mithilfe mathematischer Präzision maschinelle Entscheidungen zugunsten eigener Normen (vgl. Lobe 2019, 39f.). Das System „ChildTrack“ in Eggers Roman nutzt nicht nur Mathematik und Künstliche Intelligenz zur eigenen Normproduktion, sondern verwirklicht den von Lobe anhand eines realen Beispiels beschriebenen Nanny-State: „Niemand würde gegen ein Gesetz verstoßen, weil man Verstöße durch technische Voreinstellungen unmöglich macht und Gesetzestreue programmiert. Man könnte die „Funktion“ Freiheit einfach deaktivieren.“ (Lobe 2019, 51) In einem derartigen System wären, so Lobe weiter, die Möglichkeit von Normverstößen, die jeder liberalen Gesellschaft inhärent ist, ebenso wie das Konzept der mündigen Bürger*innen oder die Diskussion um Sinnhaftigkeit von Normen unterbunden und obsolet (vgl. Lobe 2019, 52). Das wäre der Einstieg in eine „Mechanik der Post- Strafgesellschaft“ (55), in der Technik die Straftat verhindert, bevor sie begangen wird. Die Idee der Transparenz in The Circle wird noch weiter ausgedehnt. Mit „Past- Perfect“ kann eine komplette Familienhistorie jeder beliebigen Person durch Verknüpfung und Auswertung aller online zur Verügung stehenden Informationen erstellt werden. Des Weiteren wird Transparenz durch Live-Überwachung, sichtbar ür alle, garantiert. So liefert „SeeChange“ durch Miniaturkameras, die User überall installieren können, Echtzeitvideos von überall. Die Vorstellung dieses Programms gibt einen Einblick, wie weitreichend die Folgen sein können: „At every command, new images appeared, until there were at least a hundred live streaming images on the screen at once. ‘We will become all-seeing, all-knowing.’ The audience was standing now. The applause thundered through the room. Mae rested her head on Annie’s shoulder. ‘All that happens will be known,‘ Annie whispered.“ (Eggers 2013, 70-71) Mae wird mithilfe dieser Kameras selbst als Vorreiterin transparent, indem sie sich eine Kamera anheftet und rund um die Uhr ihr Leben als Stream zur Verügung stellt. Andere folgen, sogar Politiker*innen, die das Primat der Transparenz als Verpflichtung in einer repräsentativen Demokratie loben, um Zustimmungswerte ür politische Entscheidungen zu verbessern. Als die erste Kongressabgeordnete transparent geht, erklärt sie sich der Öffentlichkeit: „’So I intend to follow Stewart on his path of illumination. And along the way, I intend to show how democracy can and should be: entirely open, entirely transparent. Starting today, I will be wearing the same device that Stewart wears. My every meeting, movement, my every word, will be available to all my constituents and to the world.’” (Eggers 2013, 210) Mehrere folgen ihrem Beispiel, so dass der Druck innerhalb des politischen Systems steigt: „The pressure on those who hadn’t gone transparent went from polite to oppressive. The question, from pundits and constituents, was obvious and loud: If you aren’t transparent, what are you hiding? ” (241) Han (2012) spricht dabei von einer Entwicklung hin zu einer der Entpolitisierung gleichkommenden „Post- Politik“ (15), wenn er feststellt: „Daher geht die Transparenzgesellschaft mit der <?page no="95"?> 7 Zukunftsperspektiven für Gesellschaft und Politik 95 Post-Politik einher. Ganz transparent ist nur der entpolitisierte Raum. Die Politik ohne Referenz verkommt zum Referendum.“ (16) Bei seiner Analyse ging Han von den Entwicklungen der Piraten-Partei als Partei aus, die maximale Transparenz als Wert propagierte. In der Logik der KI-geprägten Kommunikation und Gesellschaft wirkt sich der Wegfall vermittelnder Autoritäten auch auf Politik und ihre Repräsentanten aus: „Die politischen Repräsentanten erscheinen nicht als Transmitter, sondern als Barrieren. So äußert sich der Entmediatisierungsdruck als Forderung nach mehr Partizipation und Transparenz.“ (Han 2013, 28). Das ühre, so Han (2013) weiter, schließlich zur allgemeinen Bedrohung des Prinzips der Repräsentation (vgl. 28), denn „Politik als strategischen Handeln bedarf einer Informationsmacht“ (29) und braucht daher von Transparenz ausgenommene „geschlossene Räume“ (29): „Vertraulichkeit gehört notwendig zur politischen, das heißt, strategischen Kommunikation.“ (29) In einer durch und durch transparenten, entpolitisierten Gesellschaft entsteht daher ein Zwang zum Konformismus (vgl. Han 2013, 30), den Eggers durch Maes Gebaren im Roman durchexerziert. Schließlich stellt Han (2013) die Frage, ob in der digitalen Demokratie Parteien überflüssig wären, wenn „jeder selbst eine Partei ist“ (85) und „der Geällt-mir-Button den Wahlzettel komplett ersetzt“ (85). Politik und Wirtschaft nähern sich so geährlich an: Wähler*innen ähneln, wie Han (2013) ausührt, Konsument*innen und Regierungshandeln gleicht Marketing, so dass Bürger*innen statt aktiv Handelnde nur noch passive Verbraucher*innen darstellen (vgl. 90). Schließlich übersteigert Eggers dieses Transparenz-Verdikt sowie die Verquickung von Politik und Wirtschaft, wenn die vollendete Interpretation direkter Demokratie in globaler Durchsetzung mit dem Programm „Demoxie“ vorgestellt wird: „It‘ democracy with your voice, and your moxie.“ (Eggers 2013, 400) Mit diesem in Echtzeit arbeitenden Votingtool könnten politische Entscheidungen in basisdemokratischer Reinkultur ad hoc durchgeührt werden. Maes Vision geht soweit, dass jeder, der einen TruYou Social Media Account beim Circle unterhält, automatisch ür Wahlen registriert und an deren Teilnahme quasi gezwungen wird. Die vollendete Variante wäre die Umkehrung der Beziehungen: Jeder Wahlberechtigte wäre gezwungen, einen TruYou Account beim Circle zu eröffnen, um dadurch und damit an Wahlen teilzunehmen. Somit wäre die Wahlpflicht unternehmerisch garantiert und wertschöpfend organisiert: „To have the validation of the Wise Men, to have perhaps pivoted the entire company in a new direction, to have, perhaps, perhaps, ensured a new level of participatory democracy-could it be that the Circle, with her new idea, might really perfect democracy? Could she have conceived of the solution to a thousand-year-old problem? ” (395) Denkt man diese Situation weiter, so erscheint das Drohgebilde der Post-Wahl- Gesellschaft, die Lobe (2019, 223) in seiner Analyse zeichnet, nicht mehr fern. Statt tatsächlicher Wahl gibt es in der nur noch eine Auswahl: „Tatsächlich könnte künftig so etwas wie eine algorithmisch gelenkte Demokratie entstehen, eine politische Matrix, in der politische Auswahlprozesse derart optimierbar und berechenbar sind, dass es am Ende nur noch eine Wahl gibt: einen Suchtreffer oder eine Partei. Analog zur suchlosen Suche könnte eine wahllose Wahl etabliert werden.“ (Lobe 2019, 223) <?page no="96"?> 96 Nicole Brandstetter Der Weg in einen digitalen Staat, in dem Macht- und Entscheidungsoptionen in der Trias zwischen Politik, Menschen und Wirtschaftsmächten verschoben werden, scheint hier unumgänglich. Sibylle Berg, Julie Zeh und Dave Eggers zeichnen ein sehr düsteres Bild, wie die Entwicklung von Künstlicher Intelligenz Politik und Gesellschaft beeinflussen kann. Die Verührungen, durch Künstliche Intelligenz Entscheidungsoptionen zu lenken, Sicherheit zu suggerieren und Menschen zu einem bestimmten Ziel zu manipulieren, erscheinen verlockend und desaströs zugleich. Die Freiheit und Selbstbestimmung der Bürger*innen sind hier das Opfer macht- und wirtschaftspolitischer Bestrebungen. 24 Peter Sloterdijk (2020) stellt in einem kürzlich erschienenen Interview in der Zeit fest, dass im letzten Vierteljahrhundert „Freiheitsthemen gegenüber Sicherheitsthemen zurückgedrängt werden“ (Sloterdijk 2020, 47) und dass „Sozialkybernetik“ (47), also die soziale und politische Steuerung und Beeinflussung von Menschen mittels Künstlicher Intelligenz ein „Trendartikel“ (47) sei. Auch die Cambridge Analytica Afäre, die Unregelmäßigkeiten beim Brexit-Vote oder das chinesische Citizen Score System sind erschreckende Beispiele, wieweit Künstliche Intelligenz in gesellschaftliche und politische Systeme eingedrungen ist und diese beeinflussen kann. Aber es gibt auch positivere, wenngleich auch immer noch kritisch hinterfragte Szenarien in der wissenschaftlichen Diskussion. Thurner (2019) zeigt, welche Chancen der Einsatz von Künstlicher Intelligenz und Big Data ür die Wahrung der Demokratie haben kann. So kann die Überprüfung von Wahlen auf faire Durchührung durch Algorithmen internationale Organisationen wie die OSZE bei ihrer Arbeit unterstützen (vgl. 30-31) und Transparenz auch positiv als Basis ür Vertrauen in einer offenen Gesellschaft fungieren (vgl. 32). Auch Susskind (2018) zeigt Chancen, die Big Data und Künstliche Intelligenz ür Politik und Gesellschaft bieten. Individuelle Partizipationsmöglichkeiten innerhalb von Systemen einer „Wiki Democracy“ (vgl. 243ff.) können demokratische Entscheidungen mit einer anderen Form der Legitimierung als rein repräsentative Systeme aufladen. In einer „Data Democracy“ (vgl. 247ff.), so Susskind weiter, würden Daten Entscheidungsgrundlagen liefern, womöglich in größerem Maße als bisherige Wahlentscheidungen dies übernahmen. In einer „AI Democracy“ (vgl. 250ff.) schließlich müsste sich eine Gesellschaft fragen, welcher Bereich tatsächlich von Künstlicher Intelligenz übernommen werden soll, ohne dass die Demokratie selbst infrage steht. Die Frage wird heute wie in Zukunft sein, welche gesellschaftlichen, politischen und ethischen Werte ür eine Gesellschaft unveräußerlich sind und somit außerhalb von KI-Anwendungen debattiert, diskutiert und appliziert werden sollen. 24 Auch Wissenschaftler*innen wie Yvonne Hofstetter warnen vor der Verquickung von wirtschaftlichen Interessen, politischen Entscheidungen und Machtbestrebungen, die durch Künstliche Intelligenz möglich werden und zu einem „Ende der Demokratie“, so der reißerische Titel ihres gleichnamigen Buches, führen könnten (vgl. Hofstetter 2016). <?page no="97"?> 7 Zukunftsperspektiven für Gesellschaft und Politik 97 7.3 Literatur Berg, Sibylle 2019. GRM Brainfuck. Köln: Kiepenheuer & Witsch. Eggers, Dave 2013. The Circle. New York: Vintage Books. Han, Byung-Chul 2012. Transparenzgesellschaft. Berlin: Matthes & Seitz. Han, Byung-Chul 2013. Im Schwarm. Ansichten des Digitalen. Berlin: Matthes & Seitz. Hofstetter, Yvonne 2016. Das Ende der Demokratie. Wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt. München: Bertelsmann. Lenzen, Manuela 2018. Künstliche Intelligenz. Was sie kann & was uns erwartet. München: Beck. Lobe, Adrian 2019. Speichern und Strafen. Die Gesellschaft im Datengeängnis. München: Beck März, Ursula 2019a. „Ein Buch wie ein Sprengsatz“, Zeit Online, 16.04.2019. https: / / www.zeit.de/ 2019/ 17/ grm-brainfuck-sibylle-berg-roman-ueberwachungsdiktatur [Stand 2020-07-15] März, Ursula 2019b. „Eine Generalabrechnung mit der Gegenwart“, Deutschlandfunk Kultur - Lesart, 15.04.2019. https: / / www.deutschlandfunkkultur.de/ sibylle-berg-grm-brainfuck-eine-generalabrechnung-mitder.1270.de.html? dram: article_id=446335 [Stand 2020-07-15] Sloterdijk, Peter 2020. „Für Übertreibungen ist kein Platz mehr“. Die Zeit 16, 47. Susskind, Jamie 2018. Future politics: living together in a world transformed by tech. Oxford: Oxford University Press. Thurner, Stefan 2019. Big Data und die Folgen. Sind wir noch zu retten? Wien: Picus Verlag. Zeh, Juli 2017. Leere Herzen. München: Luchterhand. <?page no="98"?> 8 Grenzen Ralph-Miklas Dobler Künstliche Intelligenz bzw. die Technologie des maschinellen Lernens wird in der gegenwärtigen Wahrnehmung und der aktuellen medialen Berichterstattung zugleich maßlos überschätzt und stark unterbewertet, je nachdem in welchem Bereich man ihre Anwendung diskutiert (vgl. Nida-Rümelin & Weidenfeld 2018, 15). Kognitive Systeme sind keine künstlichen menschlichen Gehirne und sie werden wahrscheinlich auch nie vergleichbare ganzheitliche Entwicklungsmöglichkeiten besitzen, weshalb die aktuelle Debatte um humanoide Roboter, Ablösung oder gar Auslöschung des Menschen und Singularität übertrieben sein dürfte. Die vieldiskutierte Mensch-Maschine-Korrelation dürfte nur dann geährlich werden, wenn wir uns selbst zunehmend als optimierbaren Mechanismus und effizientes Werkzeug betrachten und dabei übersehen, dass scheinbar Gleiches in Wirklichkeit das Resultat ganz unterschiedlicher Voraussetzungen und Prozesse ist (vgl. Kunst 2019). Andererseits wären heute wichtige Erkenntnisse in der Physik, der Medizin oder der Wirtschaft ohne den Einsatz von Künstlicher Intelligenz nicht zu gewinnen. Die technologische Entwicklung kann bessere, effizientere Lösungen von alten und neuen Problemen bieten und hat das Potential einer jeden technologischen Erfindung, nämlich das menschliche Leben entscheidend zu verbessern. Neben der Entwicklung von Hard- und Software wird folglich die Erklärbarkeit und die Vermittlung der Technologie zu den großen Herausforderungen der Zukunft zählen. Seit der Industrialisierung wurden vorzugsweise Bilder zur Steigerung der Attraktivität und zur Förderung des Verständnisses ür Maschinen und Technik herangezogen (vgl. Dobler 2018). Vor diesem Hintergrund ist wohl auch die gängige Visualisierung von Künstlicher Intelligenz in humanoiden Formen zu sehen (vgl. das Cover dieses Buches). In metaphorischer Weise wird so gezeigt, dass die Maschinen menschliche Aufgaben übernehmen bzw. Algorithmen und kognitive Systeme den Menschen unterstützen und ersetzen können. Künftig werden selbstlernende Programme, sobald sie „in einem bestimmten Bereich besser, billiger und schneller entscheiden als Menschen“, bei ihrem Siegeszug in diesem Bereich kaum aufzuhalten sein (Ramge 2018, 8-9). 8.1 KI und Ästhetik Neben den oft thematisierten Bereichen von Industrie und Wirtschaft stellt sich zunehmend auch die Frage, inwiefern Künstliche Intelligenz die Kultur einer Gesellschaft verändern wird. Und gerade in diesem Kontext, wenn man Zahlen und Analysen hinter sich lässt, ist die Bedeutung von KI besonders umkämpft. Denn ein schöpferischer Geist, kreatives Handeln sowie ästhetische Gestaltung sind Eigenschaften, die als zutiefst menschlich erachtet werden und die schon immer Grundlagen der Entwicklung von Kultur waren. Allerdings hat sich die neue Technologie längst unbemerkt in diesen Bereich eingeschlichen und trägt dort zu einer neuen Ästhetik bei. Mit Ästhetik ist im ursprünglichen Wortsinn „sinnliche Wahrnehmung“ gemeint und nicht, wie im heutigen allgemeinen Sprachgebrauch das <?page no="99"?> 8 Grenzen 99 Angenehme und Schöne an sich. So hat Ästhetik viel mit Sehen, Hören, Riechen und Fühlen zu tun, d.h. mit Bildern, Texten, Tönen, Gerüchen und Formen. Unsere Wahrnehmung ist beim Gebrauch neuer, digitaler Medien längst von Künstlicher Intelligenz geprägt. Diese wählt, indem sie unser Profil immer genauer auswertet und Vorlieben feststellt, Fotos (Bsp. Instagram), Videos (Bsp. Youtube, TikTok) oder Musik (Bsp. Spotify) aus und empfiehlt sie. Darüber hinaus schlagen kognitive Systeme uns vor, mit wem wir in Sozialen Medien befreundet sein sollten (Bsp. Facebook), und Algorithmen verschönern in quasi jedem Smartphone unsere Bildnisse. Visuelle Prozesse werden hier durch Künstliche Intelligenz kreativ modelliert (vgl. Mersch 2019, 65). Dies hat eine unmerkliche Medienrevolution zur Folge. Denn spätestens seit Niklas Luhmann (1995) wissen wir, dass die von uns wahrgenommene Realität ein Konstrukt der Massenmedien ist. Das was wir in den Medien sehen und hören, bestimmt unsere Sicht auf die Welt. Als Luhmann dies ausührte, wurde der Inhalt jedoch noch ausschließlich von Menschen selektiert und ausgewertet, idealer Weise mit einer journalistischen Ausbildung, und dann medial vermittelt. Inzwischen gehört es zur Normalität, dass selbstlernende Systeme uns die Darstellung der Wirklichkeit aufbereiten, in der Regel so, dass sie uns geällt und möglichst angenehm ist, denn wir sollen ja viele Daten auf den Plattformen hinterlassen (vgl. Dobler 2019). Die Fähigkeit zur Bilderkennung, -verarbeitung und -kategorisierung ist erstaunlich gut entwickelt. Die App EyeEm etwa kann innerhalb von Sekundenbruchteilen aufgenommene Bilder auswerten und mit Tags versehen. KI versucht dabei, in den vorliegenden Datensätzen Korrelationen zu entdecken. Die Genauigkeit steigt mit den zur Verügung stehenden Daten, da die KI nur so gut ist, „wie die Datengrundlage es erlaubt“ (Grimm u.a. 2019, 167). Kausalitäten können kognitive Systeme bislang allerdings nicht erkennen. Folglich kommt es oft zu Scheinkorrelationen, die faszinieren aber eben nicht richtig sind. Zudem besteht die Gefahr, dass die selbstlernenden Systeme Vorurteile übernehmen und ausbauen (vgl. Ramge 2018, 26). 8.2 Repräsentation der Wirklichkeit Die Wiedergabe beziehungsweise die Konstruktion der Wirklichkeit war Jahrtausende lang die Tätigkeit von bildenden Künstlern, indem sie das Gesehene im Gehirn verarbeitet, mit den Händen kunstvoll zum Ausdruck gebracht und in Gemälden als Kommunikationsmedium anderen Menschen zur Verügung gestellt haben. Die damit einhergehende kreative Aneignung und Repräsentation der Realität wurde lange Zeit als menschliche Eigenschaft betrachtet. Inzwischen können Künstliche Intelligenzen aber auch hier Erfolge aufweisen, die menschliche Einzigartigkeit in Frage stellen. Eine Kollaboration des Mauritshuis, der TU Delft und von Microsoft, die von der niederländischen ING-Gruppe finanziert wurde, versuchte 2016 mit dem Projekt The next Rembrandt den großen Malermeister virtuell zurückzubringen und ein Porträt erschaffen zu lassen (www.nextrembrandt.com). Ganz im Sinne des Transhumanismus sollten die Fähigkeiten eines Verstorbenen in eine Künstliche Intelligenz übertragen und zu Voraussetzungen einer Neuschöpfung werden. Daür wurden der Technologie zahlreiche Daten zur Verügung gestellt, deren Grundlage 3D-Scans von 346 originalen Gemälden des Alten Meisters lieferten. Die Zahl <?page no="100"?> 100 Ralph-Miklas Dobler der rechnenden Algorithmen ist unbekannt, da die selbstlernenden Systeme, die auf mehrere Rechner bei der Werbeagentur J. Walter Thompson, der TU Delft und Microsoft verteilt waren, diese beständig veränderten und neu produzierten. Herausgekommen ist ein Bild, das in der Tat den Gemälden von der Hand des Rembrandt Harmenszoon van Rijn (1606-1669) gleicht. Anstatt mit Öl und Pinsel auf Leinwand wurde das Porträt eines Avatars - der dargestellte Mann hat nie gelebt - aus 168.263 Bildfragmenten in 148 Millionen Pixel mit einem 3D-Drucker und UV-Tinte auf eine Kunststoffunterlage übertragen (vgl. Kreye 2016). Das Ergebnis sieht so authentisch aus, dass selbst Kunstwissenschaftler*innen bei der Betrachtung kaum Unterschiede feststellen können. Im Kontext der Diskussion um die Digitalisierung von Kulturgütern ist es bemerkenswert, dass hier der umgekehrte Weg gegangen und die Zahl der analogen Gemälde erhöht wurde. Es genügte nicht, das Bild auf einem Bildschirm in höchster Auflösung zu erzeugen und dann zweidimensional auszudrucken. Stattdessen wurde die dreidimensionale Struktur des Gemäldes bis hin zum plastischen Aufbau des malerischen Mittels imitiert. Offenbar haben reale Gemälde doch eine haptische Qualität und eine Aura, die ein digitalisiertes und vervielältigtes Bild nicht ersetzen kann (vgl. Benjamin 1963). Auf dem Gebiet der Musik könnte man als vergleichbare Leistung das Linzer Mahler-Unfinished-Projekt anühren, bei dem die 10. Symphonie des Komponisten Gustav Mahler (1860-1911) von einer Künstlichen Intelligenz vollendet wurde (vgl. Graf 2019). Urauführung war am 6. September 2019. Auch hier hat das System existierende Musik „verstanden“, indem es aus einer großen Datenmenge die entscheidenden Merkmale erlernt und dann daraus neue, ähnliche und wahrscheinliche Elemente erzeugt hat. Das Programm MuseNet vom Entwickler Open- AI hat erfolgreich musikalische Kreativität simuliert. Die menschliche Leistung wurde bei den genannten Beispielen durch eine kreative Künstlichen Intelligenz so perfekt imitieren, dass die Täuschung - es handelt sich nicht um Werke von Rembrandt oder Mahler, sondern um Imitationen - kaum zu bemerken ist. Die Algorithmen konnten sowohl beim Gemälde als auch bei der Musik in typischer Weise aus den Datenmengen erstaunlich gut Vorhersagen treffen, wie Rembrandt ein weiteres Gemälde gemalt bzw. wie Mahler seine Symphonie vollendet hätte. Noch wichtiger ist, dass bei dieser Nachahmung ästhetische Werke produziert wurden, die bei den Betrachtern und Zuhörern Emotionen erzeugen können. Das heißt, Künstliche Intelligenz kann Geühle nicht nur lesen und interpretieren, sondern sie ist ähig, durch ästhetische Produkte menschliche Empfindungen hervorzurufen. Dies bedeutet jedoch nicht, dass KI-Systeme Emotionen verstanden oder gezielt eingesetzt haben, um eine Aussage zu treffen oder eine Botschaft zu übermitteln (vgl. Nikrang 2019; Grimm u.a. 2019, 158). Den historischen Kontext der Entstehung der Artefakte kann die Künstliche Intelligenz nicht einarbeiten, das heißt es ist ihr nicht möglich, die geistesgeschichtlichen Wirkungszusammenhänge aus dem Werk herauszulesen (vgl. Dilthey 1981). „Ein Kunstwerk kann nicht ohne Zeit und Raum, nicht ohne die Herkunft entstehen“ (BR24 2019). So darf man sich trotz der faszinierenden Leistung der kognitiven Systeme fragen, wozu man im 21. Jahrhundert ein neu geschaffenes Gemälde oder eine neue Symphonie in täuschend echten alten Formen braucht. <?page no="101"?> 8 Grenzen 101 Rembrandt und Mahler sind wie zahlreiche Kunstformen Zeugnisse vergangener Epochen. Sie geben ein Bild vom Denken und Handeln des Menschen unter verschiedenen gesellschaftlichen Bedingungen. Abgesehen von ihrer bis heute andauernden ästhetischen Wirkung haben sie einen hohen kulturgeschichtlichen Wert, da das Studium der Vergangenheit unter Aspekten kultureller und sozialer Nachhaltigkeit zunehmend an Bedeutung gewinnt. Unter dieser Perspektive sind der neue Rembrandt und der neue Mahler Fälschungen, die das Bild der Vergangenheit verzerren. Abgesehen von der technischen Faszination gibt es kaum Gründe, weshalb man die gesicherten kulturelle Zeugnisse der Vergangenheit in Datenform künstlichen Intelligenzen einspeisen sollte, um noch mehr Werke zu produzieren. Wie so oft handelt es sich beim Projekt des Next Rembrandt ganz grundsätzlich um Marktlogik, Aufmerksamkeitsökonomie und einen gezielten kleinen Skandal (vgl. Kunst 2019). Ein denkbarer sinnvoller Einsatz im Kontext von Gemälden, die inzwischen zu wertvollen Investitionsobjekten geworden sind, wäre die Überprüfung der Echtheit. Zudem könnten Rekonstruktionen von zerstörten Objekten vorgeschlagen werden. Schließlich könnte man Künstliche Intelligenz einsetzen, um den kreativen Prozess an sich besser zu verstehen. Dies ührt zur entscheidenden Frage, ob Künstliche Intelligenz kreativ sein kann. 8.3 Kreativität Abermals hängt die Beantwortung der Frage davon ab, was wir unter Kreativität verstehen. Vom lateinischen Wort creare - erschaffen - abgeleitet, bezeichnet der Begriff vereinfacht gesagt die Herstellung eines materiellen oder immateriellen Gutes. Ergebnis der Kreativität ist die Kreation, und der Mensch selbst ist in vielen Religionen als göttliche Schöpfung eine Kreatur - Michelangelo hat die christliche Erschaffung des Menschen ikonisch an der Decke der Sixtinischen Kapelle in Rom festgehalten (vgl. Wennerscheid 2019, 113-115). Im Gegensatz zur Produktion, die mit der Industrialisierung seriell in größeren Mengen bewerkstelligt werden konnte, ist der Kreation eine gewisse Einzigartigkeit eigen. Bei den aktuellen ästhetischen Ergebnissen der künstlichen Intelligenzen wird nicht ein bestehendes Bild oder eine fertige Symphonie imitiert, sondern der Stil, die Eigenart, das Besondere der beiden Künstler wird erkannt. Sodann werden die Gegenstände in ihre Einzelteile zerlegt und in neuer Zusammensetzung wieder zusammenkomponiert. Das hier vorliegende Prinzip einer Rekombination von bestehendem Wissen zu etwas Neuem ist kombinatorische Kreativität (vgl. BR24 2019). Kunstälscher*innen gehen ähnlich vor, die Künstliche Intelligenz optimiert quasi deren intellektuellen Prozess durch maschinelles Lernen. Wenn man also unter Kreativität versteht, dass Bestehendes in neuer Art zusammengestellt wird, dann ist Künstliche Intelligenz so kreativ wie der Mensch. Dies ist aber nicht die einzige Form von Kreativität. Im Gegenteil, Kreativität ist in erster Linie voraussetzungslose Innovation, Erschaffen von Neuem, von noch nie Dagewesenem und ein Bruch mit allem Überkommenen. Im künstlerischen Bereich bezeichnet man die Schöpfer*innen von voraussetzungslos Neuem als Avantgarde und avantgardistisch ist der Rembrandt-Druck mit Sicherheit nicht. Er reiht sich perfekt in die Reihe der Bildnisse des Malers ein, keineswegs ist er aber ein innovativer Bruch mit dem herkömmlichen holländischen Porträt des 17. <?page no="102"?> 102 Ralph-Miklas Dobler Jahrhunderts. Rembrandt selbst hat aber zu Lebzeiten eine, in der Geschichte der Malerei voraussetzungslose Innovation geschaffen. Neben den einzelnen Bildnissen gab es im Barock auch die Tradition des Gruppenportraits (vgl. Riegl 1931). Mit mehr Rechenleistung wäre es einem Programm zweifelsfrei leicht gefallen auch ein solches Bildnis mit mehreren Menschen täuschend echt im Stil eines bestimmten Malers zu erschaffen. Viel wichtiger ist jedoch, dass derselbe Rembrandt im Jahr 1642 etwas völlig Unerhörtes getan hat: Er brach radikal mit allen Konventionen - ohne seinem Stil untreu zu werden - und schuf eine neue Form des Gruppenporträts (vgl. Pächt 1991, 19-30). Das später „Die Nachtwache“ genannte Gemälde zeigt die Mitglieder der Schützengilde von Amsterdam im Aufbruch und folglich in einem gewissen Durcheinander. Zukunftsweisend und innovativ begründete Rembrandt mit dieser Darstellung das situative, bewegte und nichtstatische Gruppenbild. Künstliche Intelligenz kann Rembrandt zwar perfekt imitieren, indem sie in seinem spezifischen Stil neue Bilder erschafft. Allerdings kann das System nicht wie Rembrandt denken, es hat die Malerei und ihre visuellen Botschaften nicht verstanden. 8.4 Unterschiede Gebunden an vorliegende Daten kann Künstliche Intelligenz sich nicht von allem Vergangenen oder Gegenwärtigen lösen und etwas radikal Neues, Zukünftiges erfinden. Die Maschine braucht immer eine Vorlage, etwas Dagewesenes. Wildes Denken, Regelbruch und unlogisches Handeln sind keine Eigenschaften von Künstlicher Intelligenz (vgl. Grimm u.a. 2019, 158). Um es an konkreten Beispielen des 20. Jahrhundert zu verdeutlichen: radikal neue Musik durch synthetische Klangerzeugung und den Einsatz von Tonspuren aus der Industrie wie Kraftwerk bzw. Depeche Mode, oder die Idee von Marcel Duchamp, ein Pissoir als sogenanntes Readymade zu Kunst zu erklären, oder Joseph Beuys, der Fett zu einem Bestandteil seiner Arbeiten machte, oder Jackson Pollok, der bei seinem Drip oder Action Painting auf dem Boden liegende Leinwände vollspritzte, fehlen bislang als Ergebnisse einer kreativen Künstlichen Intelligenz. Ihr fehlt die transformative Kreativität. Bislang ist nur der Mensch in der Lage, Neues zu entdecken und ohne Wahrscheinlichkeitsrechnungen, die aus bestehendem Wissen bzw. Daten bestehen, überraschend neue Ideen hervorzubringen (vgl. Rauchaupt 2018). Zu den Unterschieden zwischen Künstlicher Intelligenz und Menschen gehört auch die Religion. Das Numinose, Heilige, Mythische, Jenseitige hat die Menschheit schon immer begleitet. Zugleich spielt das Religiöse auch in Zukunftsvisionen eine Rolle, allerdings wird Religion keine Betätigung der Künstlichen Intelligenz werden, da den Maschinen unter anderem das Bewusstsein der eigenen Endlichkeit, die Suche nach Erklärung und Orientierung sowie das Geühl von Schmerz und Leiden fremd ist. Viel plausibler ist jedoch, dass Künstliche Intelligenzen in naher Zukunft zu neuen Göttinnen und Göttern werden, deren Allmacht die Menschen vertrauen und von denen umfassende Hilfe und Unterstützung in allen Lebenslagen erwartet wird (vgl. Feustel 2018; vgl. Nida-Rümelin & Weidenfeld 2018, 21). Insbesondere der Animismus, bei dem unbelebte Gegenstände wie etwa Steine zu lebendigen Göttinnen und Göttern gemacht werden, ist eine gängige religiöse <?page no="103"?> Grenzen 103 Praxis zahlreicher Kulturen. Bereits jetzt hat der Umgang mit Künstlicher Intelligenz sehr viel mit Religion gemeinsam. So trägt eines der bekanntesten Bücher zur Frage der Singularität von Ray Kurzweil (2006) den Titel The Singularity is Near und paraphrasiert damit die biblische Apokalypse des Johannes „Das Himmelreich ist nahe“. Dazu passt auch, dass es Künstlicher Intelligenz bei aller die menschlichen Fähigkeiten übersteigenden Problemlösekapazität an etwas fehlt, was auch religiösen Systemen abgeht, nämlich der Vernunft (vgl. Nassehi 2019, 247). 8.5 Das 21. Jahrhundert Was Kreativität ist und ob der Begriff positiv oder negativ besetzt ist, wird kulturell und historisch unterschiedlich bewertet. Gegenwärtig können Künstliche Intelligenzen autonom Bücher schreiben, Musik komponieren und Gemälde malen. Die Produkte wirken so wie die von Menschen gemachte Literatur, Musik und Kunst, sie vermitteln Emotionen und sind ür den Laien nicht zu unterscheiden. Wenn es um das Erschaffen von Ähnlichem aus einem umfangreichen Bestand an Vorbildern geht, dann ist Künstliche Intelligenz im 21. Jahrhundert bereits jetzt ungemein kreativ, und tatsächlich wissen wir gar nicht, wie viele Botschaften und Produkte, die wir täglich konsumieren, bereits das Ergebnis von Algorithmen sind. Qualität und auch Quantität werden in Zukunft zunehmen. Ausgehend vom aktuellen Stand der Technik lernender neuronaler Netze, die Teile der Funktion des menschlichen Gehirns imitieren und in ihrer Effizienz bei weitem übertreffen, wird auch eine partnerschaftliche Unterstützung kreativer Prozesse künftig zunehmen (vgl. Manovich 2019, 27). Nicht abzusehen ist, ob dies zu einer kulturellen Homogenisierung und zu einer Verringerung der Diversität ühren wird, die Problematik der Trainingsdaten wurde schon mehrfach angesprochen. Genau genommen liegt der letzte Schritt nicht fern, bei dem aus einer kollaborativen KI eine heroische KI wird (vgl. Mersch 2019, 66). Es dürfte aus technologischer Sicht nur noch eine Frage der Zeit sein, bis die Verantwortung ür Prozesse in verschiedenen gesellschaftlichen Bereichen komplett Künstlicher Intelligenz übergeben werden. Diese wird dann auch kulturelle Produkte, die einem gewissen Muster folgen und daher von selbstlernenden Systemen gut trainiert werden können, komplett selbständig entwickeln und produzieren. Dazu werden vor allem TV-Dramen, Romane, Fotografien, Musik und Musikvideos, Nachrichtensendungen, Design und Architektur gehören. Das 21. Jahrhundert bietet die besten Voraussetzungen ür eine entsprechende Entwicklung. Täuschung und Fake lassen ein Bewusstsein ür den Wert von Originalität und Authentizität verschwinden (vgl. Dobler & Ittstein 2019). Die Wahrheit steht auf dem Prüfstand. Und in gleichem Maß wie der technologische Fortschritt selbstlernende Maschinen entwickelt hat, die Eigenschaften von kulturellen Leistungen so perfekt imitieren können, dass sie das Alte in neuem Gewand aufleben lassen, ist das 21. Jahrhundert bislang eine Zeit des Remix (vgl. Djordjević & Dobusch 2014). Vieles was uns heute umgibt, war schon einmal da und ist nur neu aufbereitet. Sei es in der Kleidung, in der Musik oder auch im Nachdenken über Klimawandel. Deshalb sind die aktuellen Diskurse natürlich nicht nutzlos oder wenig kreativ. Im Gegenteil, ähnlich wie es die KI macht, entsteht etwas <?page no="104"?> 104 Ralph-Miklas Dobler Neues. Entscheidend ist jedoch, dass bei diesem kreativen Akt das Alte immer erkennbar erhalten bleibt, wodurch die Neuheit aufgrund der Bekanntheit gebrochen ist und geringere Wirkung entfalten kann. In der Tat könnte man sich gegenwärtig ja ähnlich wie bei Rembrandt und Mahler fragen, warum Modeketten nach ünfundzwanzig Jahren wieder T-Shirts von Guns’n’Roses verkaufen oder warum in der Musik zum zwanzigsten Mal ein Song von Abba nachgesungen und gemixt wird. Die Tatsache, dass sich die meisten damit begnügen, dürfte eine Folge der neoliberalen Effizienzlogik sein, bei der Menschen nicht mehr geügig, sondern durch vermeintliches Gefallen, scheinbare Anerkennung und geühlte Erüllung abhängig gemacht werden (vgl. Han 2019, 27-29). In zahlreichen Apps und Services, die überwiegend kostenlos sind, bieten die großen Digitalkonzerne den Benutzer*innen genau das (vgl. Dobler 2019). Die vom Menschen produzierten kulturellen Leistungen entsprechen momentan jedenfalls in vielem denjenigen der Künstlichen Intelligenz, weshalb die gegenwärtige Wahrnehmung, dass KI der menschlichen Kreativität recht nahekommt, durchaus richtig sein kann. Allerdings ist das menschliche Potential momentan lange nicht ausgeschöpft. KI ist faszinierend und kann uns, wenn wir es wollen, durch eine ästhetische Erweiterung der Realität unterhalten. Künstliche Intelligenz kann jedoch keine Regeln brechen und Chaos erzeugen, aus dem völlig Neues entsteht. Die dazu nötige Freiheit, aus der mathematischen Berechenbarkeit und dem Schematismus des selbstlernenden Algorithmus auszubrechen, kennt die Künstliche Intelligenz nicht. Neben der so drängenden Frage, ob die letzte Bastion menschlicher Eigenschaften erobert wurde, erscheint es weit wichtiger, sich der eigenen Fähigkeiten zu versichern, diese zu pflegen und sich klar zu machen, was die gesellschaftlichen Folgen sein könnten, wenn die eigene Bequemlichkeit der Künstlichen Intelligenz freie Bahn einräumt. Sollten eines Tages alle kulturellen Phänomene und menschlichen Ausdrucksweisen, Lebensarten und Empfindungen einer Rationalisierung unterzogen und in das einheitliche Schema der Mathematik gepresst werden, so wird man sicher sein können, dass die Menschheit zuvor durch eine Metrisierung und Schematisierung aller Lebensbereich ihren Beitrag dazu geleistet hat (vgl. Mau 2017). Denn wahre Kreativität ist eben nicht regelhaft und präzise zu formulieren (vgl. Roth 2019). Kreativität hat viel mit unbewusstem und intuitivem Handeln zu tun und Intuition gehört als unbewusster Akt zwischen „Organismus, Gehirn, Bewusstsein, Sprache und Gesellschaft“ zu den schwierigsten zu durchschauenden menschlichen Eigenschaften (vgl. Baecker 2019, 81). Bislang ist es der Neurobiologie noch nicht gelungen, die Funktion von Kreativität zu ergründen. Dazu gehört etwa, dass dem langen Nachdenken über Probleme oft völlig unerwartet und plötzlich die Lösung folgt, manchmal lange Zeit nachdem man das Projekt bereits aufgegeben hat (vgl. Roth 2019). Sicher ist, dass quantitativ vergleichsweise wenige Menschen kreativ sind. Kreativität kann nicht durch Erfahrung trainiert werden. Wer Probleme effizient lösen kann, ist intelligent, zu Kreativität gehört aber zusätzlich auch die Neuartigkeit. Bestätigte Faktoren, die kreatives Denken ördern, sind Entspannung, Freiheit, Freude, Offenheit ür Fremdes sowie körperliche Bewegung. Diese Dinge in Form eines Algorithmus zu fassen, ist schwierig. Künstliche Intelligenz wird künftig auch kreative Akte des Menschen effizienter gestalten und damit verändern. Unter Druck geraten wird dadurch vor allem die den Alltag bedienende Kreativbranche. Ob man das gut oder schlecht findet, hat <?page no="105"?> Grenzen 105 oft auch viel mit der Generation zu tun, aus der man stammt. Es wird eine neue Art von Ästhetik entstehen, die menschliche Wahrnehmung grundlegend verändert. Wahrscheinlich wird damit auch eine Veränderung der Wertvorstellungen einhergehen. Völlig zu Recht kann daher die digitale Revolution mit dem Humanismus des 16. Jahrhunderts auf eine Ebene gestellt werden. Zu einer Bedrohung wird dies aber nur, wenn die gesamte vernetzte Bevölkerung es verpasst, die neue digitale Welt aktiv und passiv zu gestalten. Grundvoraussetzung daür ist eine neue Wissens- und Bildungsgesellschaft, die mündige Persönlichkeiten auf eine Welt mit erkennenden, denkenden und handelnden Programmen vorbereitet, mit denen künftig jeder ganz selbstverständlich interagieren wird. Dies wird Auswirkungen auf das Selbstbild und das Menschenbild haben, da sich das Verhältnis Mensch- Maschine aus einem Master-Slave-Modell entweder zu einer Umkehrung der Rollen oder zumindest zu einer Partnerschaft verwandeln wird (vgl. Grimm u.a. 2019, 164). Zugleich müssen ür den erfolgreichen Umgang mit Künstlicher Intelligenz aber auch deren Grenzen verstanden werden. Die menschliche Kreativität, die letzten Endes zur Erschaffung von KI geührt hat und Treiber ür Entwicklung und Innovation aber auch ür Kunst und Ästhetik war, kann nur schwer ersetzt werden. Oder doch? Im Jahr 2018 hat die Kreativagentur Tunnel23 in ihrem Projekt „Sonnenblicke auf der Flucht“ eine KI mit Texten von Goethe und Schiller trainiert. Daraus entstanden ist ein Gedicht, das aus historischen Daten berechnet wurde (Sonnenblicke 2018). Ein entscheidender Unterschied war jedoch, dass Goethe und Schiller nicht mehr zu erkennen waren. Im Gegenteil, das Gedicht hat eine sehr freie Form, ohne Versmaß und ohne Reim. Es hat ungewöhnliche Metaphern, hier und da ist es mysteriös und stellenweise unverständlich. Kurzum, es wirkt ziemlich modern. Die Agentur versah es daher kurzerhand mit einem menschlichen Autorennamen und schickte es anlässlich eines Wettbewerbs bei der renommierten Frankfurter Brentano-Gesellschaft ein. Prompt wurde es in deren Jahrbuch, die Frankfurter Bibliothek, aufgenommen (Frankfurter Bibliothek 2018). 8.6 Literatur Benjamin, Walter 1963. Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit. Frankfurt: Suhrkamp. BR24 2019. Wie schöpferisch kann KI sein? BR24 Kultur 7.10.2019. https: / / www.br.de/ nachrichten/ kultur/ wie-schoepferisch-kann-kuenstlicheintelligenz-sein,ReCMrfp [Stand 2020-03-3] Dilthey, Wilhelm 1981. Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften. Frankfurt: Suhrkamp. Djordjević V. & Dobusch L. 2014. (Hg.) Generation Remix. Zwischen Popkultur und Kunst. Berlin: iRights.Media. Dobler, Ralph-Miklas 2018. Bilddiskurs am Beispiel der Elektrizität. Signifikant. Jahrbuch ür Strukturwandel und Diskurs 1, 2018, 107-113. Dobler, Ralph-Miklas 2019. Social Media as Positive Spaces. Signifikant. Jahrbuch ür Strukturwandel und Diskurs 2, 2019, 63-68. Dobler, Ralph-Miklas & Ittstein, Daniel Jan 2019 (Hg.) Fake - interdisziplinär. München: UVK Verlag. <?page no="106"?> 106 Ralph-Miklas Dobler Feustel, Robert 2018. „Am Anfang war die Information“. Digitalisierung als Religion. Berlin: Verbrecher. Frankfurter Bibliothek 2018. Jahrbuch ür das neue Gedicht. Jahreszeiten. Frankfurt: Brentano-Gesellschaft. Graf, Vanessa 2019. Mahler-Unfinished. Wenn Mensch und Maschine Musik machen. Ars Electronica Blog 2.9.2019. https: / / ars.electronica.art/ aeblog/ de/ 2019 / 09/ 02/ mahler-unfinished/ [Stand 2020-03-5] Han, Byung-Chul 2019. Kapitalismus und Todestrieb. Essays und Gespräche, Berlin: Matthes & Seitz. Kreye, Adrian 2016. Ein echter Rembrandt - aus dem Rechner. Süddeutsche Zeitung 16.4.2016. https: / / www.sueddeutsche.de/ kultur/ kuenstliche-intelligenzein-echter-rembrandt-aus-dem-rechner-1.2949787-2 [Stand 2020-03-5] Kunst 2019. Malende Algorithmen. Wohin ührt künstliche Intelligenz die Kunst (dpa), Die Zeit, 17.7.2019. https: / / www.zeit.de/ news/ 2019-07/ 17/ wohin-fuehrtkuenstliche-intelligenz-die-kunst [Stand 2020-03-5] Kurzweil, Ray 2006. The Singularity is Near: When Humans Transcend Biology. London: Penguin. Luhmann, Niklas 1995. Die Realität der Massenmedien. Wiesbaden: VS. Manovich, Lev 2018. AI Aesthetics. Moskau: Strelka Press. Mau, Steffen 2017. Das metrische Wir. Über die Quantifizierung des Sozialen. Berlin: Suhrkamp. Mersch, Dieter 2019. Kreativität und Künstliche Intelligenz. Einige Bemerkungen zu einer Kritik algorithmischer Rationalität. Zeitschrift ür Medienwissenschaft 21, 2019, 65-74. Nida-Rümelin, Julian & Weidenfeld, Nathalie 2018. Digitaler Humanismus. Eine Ethik ür das Zeitalter der Künstlichen Intelligenz. München: Piper. Nikrang, Ali 2019. Die Simulation der Kreativität: Können Maschinen kreativ sein? Wissenschaftsjahr 2019 - Künstliche Intelligenz https: / / www.wissenschaftsjahr.de/ 2019/ neues-aus-der-wissenschaft/ das-sagt-die-wissenschaft/ koennen-maschinen-kreativ-sein/ [Stand 2020-03-5] Pächt, Otto 1991. Rembrandt. München: Prestel. Rauchaupt, Jens von 2018. Artificial Creativity - Kann Künstliche Intelligenz kreativ sein? Adzine.de 2.11.2018 https: / / www.adzine.de/ 2018/ 11/ artificial-creativity-kann-kuenstliche-intelligenz-kreativ-sein/ [Stand 2020-03-7] Riegl, Alois 1931. Das holländische Gruppenporträt. 2 Bde. Wien: Staatsdruckerei. Roth, Gerhard 2019. Menschliche Kreativität ist unersetzbar. Ein Interview mit dem Hirnforscher Gerhard Roth. Stuttgarter Nachrichten 15.2.2019. https: / / www.stuttgarter-nachrichten.de/ inhalt.kuenstliche-intelligenzmenschliche-kreativitaet-ist-unersetzbar.186fe04c-b8eb-4d3b-909a- 2bc1162158d3.html [Stand 2020-03-5] Sonnenblicke 2018. „Sonnenblicke auf der Flucht“ … wenn KI Gedichte schreibt. KonstanText 7.6.2018. https: / / konstantext.de/ index.php/ item/ sonnenblickeauf-der-flucht-wenn-kuenstliche-intelligenz-ein-gedicht-schreibt [Stand 2020-03-5] Wennerscheid, Sophie 2019. Sex Machina. Berlin: Matthes & Seitz. <?page no="107"?> 9 Interkulturelle künstliche Intelligenz als Wertschöpfungsfaktor Daniel Jan Ittstein Aufgrund der technischen Entwicklung und ökonomischen Bedeutung wird die künstliche Intelligenz (KI) zukünftig vermehrt ein integraler Bestandteil vieler Geschäftsmodelle sein. Dabei befinden wir uns derzeit noch in einem verhältnismäßig frühen Stadium der Entwicklung, hinsichtlich dessen vielerorts noch davon ausgegangen wird, dass die Algorithmen und die darauf basierenden Geschäftsmodelle ohne Limitationen funktionieren. Firmen wie Apple, Google, Amazon, Tencent oder Alibaba agieren bereits weltweit im KI-Geschäft. Es stellt sich daher die Frage, inwiefern Interkulturalität eine Rolle bei der Entwicklung, Etablierung und Verbreitung von KI-Geschäftsmodellen spielt. 9.1 Künstliche Intelligenz als Teil des kulturellen Kontexts Das volle Potenzial der KI kann nur entfaltet werden, wenn wir sie umfassend in unsere sozioökonomischen Strukturen und Prozesse integrieren (Brynjolfsson & Mitchell 2017: 1534). Diese Entwicklung wird durch die zunehmende ‚Roboterisierung‘ der Umwelt unterstützt, da schon heute deutlich mehr Mikrocontroller in Autos, Flugzeugen, Häusern, Maschinensteuerungen, Satelliten, Mobiltelefonen, Waschmaschinen, Spielautomaten oder Kameras sowie Computern eingesetzt werden als noch vor wenigen Jahren (Christaller 2014: 1). Der ubiquitäre Einsatz der Technik wird aller Voraussicht nach schon bald dazu ühren, dass KI und auch Roboter nicht mehr die klar abgrenzbaren Applikationen oder Maschinen sind, wie wir sie uns heute noch vorstellen. Die gesamte Lebensumwelt, innerhalb derer wir kommunizieren, handeln und uns bewegen, wird durchdrungen von KI sein. Wir Menschen werden durch die Nutzung digitaler Geräte Teil dieser ubiquitären Technik und die Technik wird Teil von uns (Ittstein 2018b: 34-35). Gerade deshalb ist die KI stark mit dem jeweiligen Kontext verwoben, aus dem sie die relevanten Daten erhält und in dem sie dann wirken kann, so wie auch Hagerty und Rubinov feststellen: „[…] artificial intelligence is shaped by its social context at all phases of its development and use. As such it takes distinct forms in different places.“ (Hagerty & Rubinov 2019: 3) Dieser Kontext ist immer ein äußerst heterogenes Gebilde, das durch juristische, politische, geografische, ökonomische oder sonstige Faktoren determiniert ist. Ein Kontextfaktor spielt ür die KI hierbei eine besondere Rolle: die Kultur - aufgrund ihrer struktur- und prozessbeeinflussenden Natur. Dabei ist ‚Kultur‘ ein mehrdeutiges Konstrukt und Gegenstand verschiedener zum Teil höchst divergierender Definitionen. Diese Differenzierungen sind fundamental und wohlbegründet, denn je nachdem, in welcher Epoche, mit welchem theoretischen Hintergrund (zum Beispiel Anthropologie, Ethnologie, Kulturwissenschaften, Sozialpsychologie, Wirtschaftswissenschaft) und mit welchem Erkenntnisinteresse (zum Beispiel verstehen vs. erklären) eine Definition formuliert wurde, stehen unterschiedliche Facetten dieses komplexen Konstrukts im Vordergrund der Betrachtung. <?page no="108"?> 108 Daniel Jan Ittstein 9.2 Interkulturalität als Wertschöpfungsfaktor In der interkulturellen Managementforschung überwiegen nach wie vor etisch vergleichend ausgerichtete Ansätze, hinsichtlich derer der Forscher einen Standpunkt außerhalb des Systems einnimmt. Dabei wird Kultur vorwiegend als ein nationales Wertesystem verstanden und dessen Einfluss auf Managementpraktiken analysiert. Seit etwa der Jahrtausendwende etabliert sich daneben eine emisch und interpretativ ausgerichtete Forschung, die eine Innenperspektive einnimmt und in deren Mittelpunkt unterschiedliche Bedeutungssysteme und deren Einfluss auf das Management stehen (Pike 1954). Kulturelle Unterschiedlichkeit wird demnach nicht nur nationalkulturell definiert und durch ‚nationale‘ Kulturdimensionen erklärt. Vielmehr wird versucht, vielältige Kulturen und Identitäten zu berücksichtigen (zum Beispiel Multiple-Culture-Ansätze) (Barmeyer & Davoine 2016: 100). Ungeachtet des zugrunde liegenden Paradigmas herrscht nach wie vor eine ausgeprägte Problemorientierung in der interkulturellen Managementforschung vor (Barmeyer & Davoine 2016: 100). Interkulturelle Prozesse werden vorwiegend als problematisch beziehungsweise zumindest als Herausforderung gesehen. Vor diesem Hintergrund konzentriert sich interkulturelle Managementforschung darauf, diese Probleme zu minimieren oder deren Folgen zu beseitigen. Eine ganz andere Perspektive ist es, Interkulturalität im Management potenziell positiv - als konstruktive Ressource und Wertschöpfungsfaktor - zu sehen. Durch die bewusste Wahrnehmung von interkulturellen Unterschieden kann diese Vielfalt konstruktiv-synergetisch genutzt werden - zum Beispiel, um innovativer zu sein, bessere Produkte zu entwickeln, die Mitarbeiter*innenmotivation zu erhöhen oder optimierte Geschäftsmodelle zu gestalten (vgl. Ittstein 2018a). Dies bedeutet nicht, dass die Herausforderungen negiert oder nicht wahrgenommen werden sollten. Aber der Fokus liegt darauf, positive Synergien zu finden, die durch Interkulturalität entstehen können. In der betrieblichen Praxis von (Digital-)Unternehmen ist diese konstruktiv-synergetische Sichtweise bereits deutlich stärker als in der Forschung verbreitet. Digitale Initiativen und Firmengründungen werden seit vielen Jahren am Bedarf möglicher Kunden(gruppen) ausgerichtet (Blank 2013; Ries 2011). Mit Methoden wie dem ‚Design Thinking‘ wird die Perspektive im Rahmen der (digitalen) Produktentwicklung iterativ auf den Kundennutzen in Bezug auf kleine Gruppen oder gar Individuen gelenkt (Lewrick u.a. 2017). Dabei orientieren sich diese Methoden zumeist an ethnografischen Ansätzen (Geertz 1973; Hine 2015). Mittels dichter Beschreibung werden Kundenbedürfnisse evaluiert, um darauf basierend Produktfunktionalitäten zu definieren. Im Rahmen der Kundeninteraktion werden weiterhin durch die digital-technischen Möglichkeiten der Akteurs-Analyse (Stichworte: Big Data, maschinelles Lernen, KI) Kundenbeziehungen in einem umfassenden Ausmaß individualisiert. „Customers are identified every time they visit a website, and a great deal of information about each customer can be accumulated over time. Based on this information, firms can customize products or services for particular customers. In fact, the Internet is the ideal medium for serving the fragmented nature of today’s consumer markets, and it is becoming increasingly viable for a firm to communicate and deliver content over the Internet to small niche markets.“ (Kim u.a. 2004: 576) <?page no="109"?> 9 Interkulturelle künstliche Intelligenz als Wertschöpfungsfaktor 109 In der Verschiedenheit der Kunden wird bei Digitalunternehmen entsprechend eine Chance gesehen. Aus digitalgeschäftlicher Sicht bietet jede noch so kleine Unterschiedlichkeit das Potenzial, ein spezifisches Produkt zu entwickeln und damit ein Bedürfnis einer Kundengruppe oder eines Individuums zu erüllen (Neubert 2018; Kreutzer & Sirrenberg 2019: 156). Im Rahmen einer Beschäftigung mit digitalen Unternehmen, deren Geschäftsmodellen und Geschäftsmodellinnovation macht es demnach keinen Sinn, in nationalen Kategorien zu denken. Vielmehr sollte versucht werden, sämtliche Stakeholder aus einer emischen Perspektive zu verstehen und mit ihnen auf dieser Basis zu interagieren, um gemeinsam Werte zu schaffen. Zu diesem interaktiven Wertentwicklungsverständnis passt im interkulturellen Kontext kein statisches Kulturmodell. Vielmehr entwickeln die beteiligten Parteien im Rahmen der Interaktion etwas Neues - ein gegenseitiges Verständnis da- ür, wie gemeinsam Werte geschaffen und Bedürfnisse befriedigt werden können. Dies entspricht dem dynamischen Konzept der „negotiated culture“ (Brannen 1998: 90). Negotiated Culture „views organizations as settings where patterns of meaning and agency arise from the ongoing interactions and exchanges of its members in particular organizational contexts.“ (Brannen 2009: 90) Barmeyer und Davoine (2016) spezifizieren: „Um Aufgaben in sozialen Systemen zu verrichten, werden durch laufende Aushandlungsprozesse der Akteure soziale Strukturen geschaffen, stabilisiert oder verändert. Interagieren nun Menschen unterschiedlicher kultureller Zugehörigkeit miteinander, so entsteht eine neue ‚ausgehandelte‘ Kultur durch die Rekombination und Modifikation kultureller Merkmale und Bedeutungen. Ausgehandelter Kultur liegt ein anthropologisch orientierter interpretativer und sozialkonstruktivistischer Kulturbegriff zugrunde: Kultur ist demnach dynamisch und konstituiert sich durch interaktive (Re-)Produktion von Bedeutungs- und Interpretationsmustern, die von einer bestimmten, eingegrenzten Gruppe Individuen geteilt werden. Bedeutung wird nicht einfach wie in monokulturellen Kontexten ‚übertragen‘, sondern sie wird (re-)vereinbart oder (re-)konstruiert.“ (Barmeyer & Davoine 2016: 104) Demnach stellt sich die Frage, welche kulturelle Rolle, Form und Funktion die KI nun einnehmen kann, wenn sie in die verschiedenen Prozesse und Strukturen eines Geschäfts(-modells) integriert wird, das immer in einem spezifischen Kontext wirkt. Weiterhin ist zu fragen, inwiefern schon durch diese Integration und Nutzung der KI im Rahmen eines Geschäfts(-modells) ein kultureller Aushandlungsprozess stattfinden kann, um Werte zu generieren. Inwiefern beeinflusst Kultur die KI und die KI wiederum die Kultur? 9.3 Reziprokes Verhältnis zwischen künstlicher Intelligenz und Kultur Aus anthropologischer Sicht kann die KI am ehesten als technosoziales System verstanden werden. Das bedeutet, dass die technischen Aspekte der KI intrinsisch und untrennbar mit dem sozialen und damit kulturellen Kontext verbunden sind. Kulturelle Werte und Annahmen durchdringen nicht nur die Daten, mit denen die KI arbeitet, sondern determinieren, wie wir die Technik entwickeln, wahrnehmen <?page no="110"?> 110 Daniel Jan Ittstein und nutzen; sie entscheiden darüber, welche Erwartungen, Hoffnungen und Ängste wir mit dieser Technologie verbinden. Es bietet sich an, die reziproke Beziehung zwischen Kultur und KI aus drei Blickwinkeln zu betrachten: Vorstellung und Wahrnehmung, Design und Entwicklung sowie Implementierung und Nutzung. Vorstellung und Wahrnehmung Die Vorstellung und Wahrnehmung der KI ist maßgeblich vom kulturellen Hintergrund abhängig. So wurde zum Beispiel festgestellt, dass die Vorstellungen vieler Amerikaner*innen bezüglich der KI von populären, gewaltgeprägten Science- Fiction-Filmen wie Terminator beeinflusst sind, was vielfach dazu ührt, dass eine weit verbreitete Angst vor ‚Killerrobotern‘ vorherrscht (Richardson 2015). In der Schweiz wiederum assoziieren viele Menschen mit dem Begriff ‚künstliche Intelligenz‘ eher Roboter und Maschinen als Algorithmen. Die KI wird mehr mit Risiken als mit Chancen in Verbindung gebracht (LINK Institut 2018). Im Gegensatz dazu ist die kulturelle Wahrnehmung von KI und Robotern in Japan oft mit dem beliebten Manga-Charakter Astro Boy verknüpft. In Verbindung mit dem Shintoismus ührt dies zu weniger Berührungsängsten hinsichtlich der Technik (Robertson 2018). Das heißt aber auch in Japan nicht, dass breitflächig eine harmonische Koexistenz von Robotern und Menschen vorausgesetzt werden könnte. So waren Anstrengungen der japanischen Regierung, vermehrt Pflegeroboter einzusetzen, nur bedingt erfolgreich, da viele Familien letztlich doch die persönliche Pflege präferierten (Wright 2018). Eine zentrale Rolle ür die Entwicklung der Vorstellungen und Wahrnehmungen spielen die Medien. Meist werden in Zeitungen, aber auch in Fachzeitschriften Artikel über KI mit Bildern von Robotern angereichert. Diese unmittelbare Verknüpfung des Begriffs der KI mit Grafiken aus der Robotik ist nicht immer passend und kann sich, je nach kulturellem Hintergrund, durchaus auch negativ auf die Transformationsbereitschaft auswirken, da falsche Assoziationen geweckt werden können. Daneben wird die Wahrnehmung der KI auch zunehmend durch eigene Erfahrungen im Umgang mit der Technik geprägt. Thieulent et al. konnten herausfinden, dass „[…] 47% of consumers believe they have experienced at least two types of use of AI that resulted in ethical issues […].“ (Thieulent u.a. 2019: 13) Dabei bestehen hinsichtlich Art und Häufigkeit der ethischen Eingriffe regionale Unterschiede, diese reichen von der Nutzung von Patient*innendaten ohne Zustimmung bis hin zu maschinell getroffenen Entscheidungen, ohne dass dies vorab offengelegt worden wäre (Thieulent u.a. 2019: 28). Beim Design und der Entwicklung der KI muss entsprechend der kulturelle Kontext beachtet werden. Design und Entwicklung Das Design und die Entwicklung von KI ist wesentlich davon beeinflusst, in welchem kulturellen Kontext dies geschieht. Dabei sind insbesondere kulturell determinierte Verzerrungen (Biases) in den Modellen und Daten zu beachten, die durch die anhaltende globale digitale Spaltung (Digital Divide) noch verstärkt werden. Im Hinblick auf das Design oder besser gesagt die Modellierung der Algorithmen <?page no="111"?> 9 Interkulturelle künstliche Intelligenz als Wertschöpfungsfaktor 111 können kulturelle Verzerrungen in den so genannten Pre-Loading-Rules enthalten sein. Letztere sind generelle Regeln ür die Datenverarbeitung im Modell. Sie werden vorab formuliert, damit der Algorithmus leistungsähiger ist und das Training beschleunigt wird. Da diese Regeln von Menschen gemacht werden, basiert die Software immer auf kulturell determinierten Annahmen hinsichtlich Art und den Umfang des möglichen Problem- und Lösungsraumes - oder wie Mann und O’Neil es ausdrücken: „Algorithms are in large part our opinions embedded in code.“ (Mann & O’Neil 2016) Dadurch kann es passieren, dass bestimmte Aspekte oder Optionen von vornherein ausgeschlossen werden - die KI demnach eine Art ‚blinden Fleck‘ aufweist. Dies kann sich unmittelbar auf die Bewertungen und die Entscheidungen der KI auswirken. Daneben können (Trainings-)Daten zu einer kulturellen Verzerrung in der KI führen. Daten basieren letztlich immer auf kulturellen Vorstellungen, Werten und Normen. Dadurch werden die Arbeitsweise und die Ergebnisse der KI unmittelbar beeinflusst, wie Beispiele in Verbindung mit dem Einsatz von KI-gestützter Rekrutierungssoftware eindrücklich verdeutlichen. Die meisten am Markt gebräuchlichen Lösungen wie Mya, ARYA oder HireVue diskriminieren noch immer Menschen anhand von Namen, Geschlecht oder Sprache (Raub 2018: 538). Letztendlich wird stets argumentiert, dass die letzte Entscheidung bei den Personalverantwortlichen liege - aber in der Praxis verlassen sich Unternehmen insbesondere beim arbeitsintensiven Vorauswahlprozess gerne auf die Algorithmen, was dazu führt, dass Menschen mit gewissen kulturellen Hintergründen kaum Chancen haben, in die engere Auswahl zu kommen. Verstärkt wird dieser Bias-Effekt der KI durch den persistenten, globalen Digital Divide. 25 Letzterer führt dazu, dass große Teile der Weltbevölkerung vom Design und der Entwicklung der KI ausgeschlossen sind. So bemerkt Raub „Perhaps the most significant, overarching problem is the severe lack of diversity in tech.“ (Raub 2018: 540) Dabei sind es nicht etwa sprachliche Gründe oder fehlende Bildungsmöglichkeiten, die den Zugang versperren (Rudolph 2019: 112). Vielmehr liegt dies daran, dass Technologiefirmen selten Frauen oder Minderheiten einstellen und halten. Besonders auffällig ist das hinsichtlich der großen amerikanischen Technologiefirmen Apple, Facebook, Google, Microsoft und Amazon, wo zum Beispiel nur 3% der Belegschaft afro-amerikanischer Herkunft sind (The Economist 2020: 52). Frauen werden zwar häufiger eingestellt, aber 52% dieser verlassen die Firmen mit Mitte dreißig und kommen nicht wieder zurück (Raub 2018: 540). Verstärkt wird der Effekt der Nichtteilhabe von Frauen und Minderheiten dadurch, dass die KI derzeit vor allem in den USA, China und Ländern des so genannten globalen Nordens entwickelt wird. 26 Die Bevölkerung des globalen Südens ist dagegen weitgehend von der Entwicklung dieser Grundlagentechnologie ausgeschlossen (ITU 2020; Wold Economic Forum 2020). All diese strukturelle Diskriminierung wird schließlich durch die fehlende Awareness vieler KI-Entwickler 25 “The usual meaning of ›the digital divide‹ refers to inequality of access to the Internet. […] [A]ccess alone does not solve the problem, but it is a prerequisite for overcoming inequality in a society whose dominant functions and social groups are increasingly organized around the Internet.” (Castells 2002: 248) 26 Vgl. Kapitel 6. Globaler Norden wird die Ländergruppe der reichen Industrieländer genannt; Globaler Süden wird die Ländergruppe der Entwicklungs- und Schwellenländer genannt. <?page no="112"?> 112 Daniel Jan Ittstein manifestiert. Wie Yao bemerkt: „AI researchers pride themselves on being rational and data-driven, but can be blind to issues such as racial or gender bias that aren’t always easy to capture with numbers.“(Yao 2017) Daneben ührt der Digital Divide auch dazu, dass der digitale Fußabdruck (Digital Footprint) weltweit unterschiedlich ausgeprägt ist (ITU 2020: 4). Insbesondere in wenig entwickelten Ländern hinterlassen Menschen deutlich weniger Datenspuren, wodurch diese auch hinsichtlich der KI unterrepräsentiert sind. Zum Beispiel hinterlässt ein US-amerikanischer Haushalt im Durchschnitt alle sechs Sekunden einen Datenpunkt. In Verbindung mit einem durchschnittlichen Haushalt der Mittelklasse in Mozambique entstehen überhaupt keine Datenpunkte (World Economic Forum 2018: 8). Letztendlich ührt die fehlende Diversität im Hinblick auf Design und Daten zur Marginalisierung großer Bevölkerungsgruppen. Es scheint, als ob die KI als soziotechnische Akteurin größtenteils die Rolle eines weißen, rational denkenden Mannes aus einem Industriestaat einnimmt und auch entsprechend handelt, wenn sie genutzt wird. Implementierung und Nutzung Die KI als Software ist mit bestimmten Funktionen ausgestattet und wird daher in der Informatik als ‚Akteur‘ bezeichnet. Diese hat Handlungsautonomie - die schwächste Form der Autonomie, die einem Akteur zugeschrieben werden kann und die schon vorliegt, wenn eine Handlung gegeben ist. Um diesen Begriff von den anspruchsvolleren Autonomiekonzeptionen abzugrenzen, sollte in diesem Zusammenhang laut Misselhorn lieber von Selbstursprünglichkeit anstelle von Autonomie gesprochen werden (Misselhorn 2018: 76). Künstliche Systeme sollten nun drei Bedingungen erüllen, um als selbstursprünglich bezeichnet werden zu können: - Interaktivität mit der Umwelt, d.h. der Akteur reagiert auf die Umwelt und beeinflusst diese, eine gewisse Unabhängigkeit von der Umwelt, die darin besteht, dass der eigene Zustand ohne direkte Einwirkung der Umwelt verändert werden kann, sowie - Anpassungsähigkeit, die die Veränderung der eigenen Verhaltensregeln im Licht neuer Umweltbedingungen beinhaltet (Floridi & Sanders 2004: 363-364; Misselhorn 2018: 77). Es stellt sich die Frage, inwiefern der KI solch eine Selbstursprünglichkeit zuzuschreiben ist. Eine allgemeine Antwort darauf ällt schwer, da es viele Ausprägungen künstlicher Systeme gibt. Entsprechend wird in der Informatik unterschieden zwischen determinierten und deterministischen Algorithmen. Ein determinierter Algorithmus gelangt bei demselben Input immer zu demselben Output. Diese Bedingung muss auch bei deterministischen Algorithmen erüllt sein, nur dass diese zudem stets über denselben Weg zu dem Ergebnis kommen. Beiden Arten von Algorithmen ist zuzuschreiben, dass sie Interaktiv sind: Nutzer machen eine Eingabe und der Algorithmus wirft etwas aus. Auch ist davon auszugehen, dass die Algorithmen unabhängig sind. Denn selbst ein deterministisches System wie der Schachcomputer Deep Blue kann eine Schachpartie spielen, ohne dass ein Mensch eingreift. Dieser Eindruck der Unabhängigkeit wird zudem dadurch verstärkt, dass <?page no="113"?> 9 Interkulturelle künstliche Intelligenz als Wertschöpfungsfaktor 113 die Handlungen der KI weder durch Außenstehende noch durch den Designer des Systems gänzlich nachvollzogen werden können. 27 Da künstliche Systeme darüber hinaus ständig durch neue Daten modifiziert werden, ist auch die Bedingung der Anpassungsähigkeit gegeben. Es ist demnach davon auszugehen, dass einer KI Selbstursprünglichkeit zuzuschreiben ist. Die Handlungen des Systems können außerdem moralische Konsequenzen verursachen können, wie am Beispiel der fehlerhaften Gesichtserkennung bei der amerikanischen Polizei eindrücklich zu sehen ist; dadurch ist ein künstliches System ebenfalls ein moralischer Akteur (Misselhorn 2018: 80). 28 Das bedeutet, dass sich die KI in ihren Handlungen durch ein kulturell determiniertes Normensystem leiten lässt, das durch Design und Daten konstituiert ist. Die KI als moralische Akteur ist durch ihr Handeln unmittelbar mit dem jeweiligen kulturellen Kontext verwoben und tritt in Interaktion mit der nutzenden Person. Zwischen der KI und den Menschen kann infolgedessen eine interkulturelle Beziehung entstehen. Diese Interaktion kann zu verschiedenen Herausforderungen ühren: Im Rahmen der der interkulturellen Mensch-Maschine-Interaktion können linguistische Übersetzungsprobleme nicht immer erkannt werden, was dann zu falschem Handeln ühren kann. So wurde zum Beispiel der Like-Button von Facebook in Brasilien mit ‚curtir‘ übersetzt, was grundsätzlich auch ‚mögen‘ bedeutet, aber eher im Sinne von ‚genießen‘. Diese falsche Übersetzung hatte Konsequenzen: In Brasilien haben vor einigen Jahren Aktivist*innen Bilder von getöteten indigenen Bauern gepostet, die von Agrarwirtschaftsmilizen umgebracht worden waren. Obwohl die Information durchaus relevant ür die vielen Follower der Aktivist*innen war, wurden die Bilder nicht gelikt, da die Nutzer*innen den Anblick der Toten verständlicherweise nicht genießen konnten. Daraufhin nahm der Filter-Algorithmus von Facebook die Inhalte der Aktivist*innen als unpopulär wahr und reduzierte deren Visibilität (Hagerty & Rubinov 2019: 10). Deutlich komplexer wird es, wenn sich hinter Wörtern kulturell bedingt unterschiedliche Konzepte verbergen. Aufällig wird das zum Beispiel anhand im KI- Zusammenhang häufig benutzter Konzepte wie Fairness oder Datenschutz. So beziehen sich die Diskussionen in den USA bezüglich der Datenschutzverordnung (General Data Protection Regulation GDPR) meist auf Themen des Eingriffs in die Privatsphäre. In Deutschland dagegen geht es zentral um die Frage des Schutzes der Daten (Tisserand 2018). Besonders herausfordernd wird es zudem, wenn eine Beschäftigung mit globalen Konzepten der Ethik im Zusammenhang mit der KI stattfindet. Die westliche Moralphilosophie unterscheidet sich in Teilen wesentlich von anderen Konzepten, wie dem Shintoismus oder dem Konfuzianismus. Daneben gibt es eine große Variation innerhalb dieser Ansätze, so dass es äußerst schwer ist, eine sinnvolle gemeinsame Schnittmenge - so genannte Hypernormen - zu definieren, die als Basis ür ein global akzeptiertes moralisches Gerüst einer KI dienen könnten (Donaldson & Dunfee 1999: 52). Sich zeitnah über solche Hypernormen zu verständigen, wäre gerade im Hinblick auf zentrale Herausforderungen einer interkulturellen 27 Vgl. Kapitel 3 - Black-Box-Problematik 28 Vgl. Kapitel 3 <?page no="114"?> 114 Daniel Jan Ittstein KI-Ethik von Bedeutung; dazu gehören die aktive Inklusion diverser Datensätze, Herstellung kontextueller Fairness, Etablierung einer Transparenz hinsichtlich der Arbeitsweise der Algorithmen oder der Art, wie und wann mögliche durch die KI verursachte Benachteiligungen beseitigt werden können. Aber derzeit sind die KI- Strategien der Staaten und auch der Unternehmen noch vorwiegend von einer nationalen Sicht auf ethische Grundfragen getrieben (Dutton 2018). 29 Mit solch einer Perspektive lassen sich jedoch kaum die praktischen Fragen beantworten, zum Beispiel nach dem gerechtfertigten Ausmaß der Überwachung oder dem geeigneten Mittel zur Bekämpfung des Digital Divide. Als Nächstes soll gefragt werden, inwiefern eine KI designt und trainiert werden kann, damit sie mit den interkulturellen Herausforderungen zurechtkommt und in interkulturellen Interaktionen adäquat handeln kann. 9.4 Grenzen des interkulturellen Trainings einer KI Um zu bestimmen, inwiefern eine KI interkulturell trainiert werden kann, muss zunächst determiniert werden, inwieweit es möglich ist, dass eine KI eine interkulturelle Kompetenz entwickelt - d.h. eine affektive, kognitive und Verhaltenskompetenz erlangen kann, die es dem Algorithmus ermöglichen, die Werte, Denkweisen, Kommunikationsregeln und Verhaltensmuster von sich selbst und des Nutzers zu verstehen, um in kulturellen Interaktionssituationen eigene Standpunkte transparent zu kommunizieren und somit kultursensibel, konstruktiv und wirkungsvoll zu handeln (Barmeyer 2012: 86). Und genau an diesem Punkt scheinen die engen Grenzen des derzeitig technisch Machbaren der KI überdeutlich zu werden. Denn um interkulturelle Kompetenz zu entwickeln, müsste der Algorithmus zunächst über ein eigenes Bewusstsein verügen, damit er sich selbst wahrnehmen kann. Auch wenn sich derzeit Forschende wie Ishiguro damit beschäftigen, Robotern ein Bewusstsein anzutrainieren, so kann es sich dabei höchstens um ein funktionales handeln, was niemals zu der Ausbildung einer affektiven oder verhaltensbezogenen Kompetenz, sprich dem Ausbau sozialer Persönlichkeitseigenschaften, im Stande wäre. Sicherlich könnte die KI kognitive Kenntnisse erlernen, zum Beispiel landeskulturelle Besonderheiten, Zahlen, Daten und Fakten - und das sicherlich besser als jeder Mensch. Diese Kenntnisse sind in Bezug auf interkulturelle Interaktionen allerdings nutzlos, wenn sie nicht in Kombination mit den affektiven und verhaltensbezogenen Kompetenzen auftreten (Gudykunst u.a. 1977). Jedoch könnte die KI den Menschen dabei unterstützen, seine interkulturelle Kompetenz auszubauen. Zum einen könnten die überragenden kognitiven Fähigkeiten der Algorithmen daür eingesetzt werden, den Menschen während einer interkulturellen Situation mit relevanter Information zu versorgen. Zum anderen ist es durchaus vorstellbar, dass in einiger Zeit die KI dem Menschen dabei helfen kann, emotionale Zustände von anderen Menschen kulturspezifisch zu deuten oder nonverbale Kommunikationsmuster zu ‚übersetzen‘. Bis jedoch solche interkulturellen Assistenten entwickelt worden sind, werden sicherlich noch einige Jahre vergehen. 29 Vgl. Kapitel 6 <?page no="115"?> 9 Interkulturelle künstliche Intelligenz als Wertschöpfungsfaktor 115 9.5 Interkulturalität bewusst nutzen Unsere kulturelle Wahrnehmung und Vorstellung determinieren zu einem großen Teil, wie wir zur KI stehen und welche Lösungen wir grundsätzlich als erstrebenswert oder machbar erachten. Das Design und die Entwicklung sind zu einem hohen Maße durch kulturellen Hintergründe der Entwickler und die kulturell durchdrungenen Daten beeinflusst. Die Nutzung findet immer in einem vielältigen kulturellen Kontext statt. Dabei ist die Besonderheit dieser Technologie, dass sie nicht nur in einem entsprechenden Kontext geschieht, sondern dass sie diesen auch unmittelbar als ethisch handelnde Akteurin beeinflusst. Es findet ein reziproker Anpassungsprozess statt, der unsere Kultur im Sinne eines kollektiven Gesamtkomplexes von Vorstellungen, Denkformen, Empfindungsweisen, Werten und Bedeutungen verändern wird. Die KI kann insofern zwei Rollen einnehmen: Zum einen kann sie die kulturellen Unterschiede verstärken - oder wie es Silberg und Manyika ausdrücken: „[…] algorithms may bake in and scale human and societal biases.“ (Silberg & Manyika 2019: 1) Auf der anderen Seite besteht allerdings auch die Chance, dass die KI uns Menschen hilft, kulturelle Voreingenommenheit abzubauen. Unternehmen sollten sich dieser reziproken kulturellen Wirkung bewusst sein. Zudem sollte entsprechend darauf geachtet werden, dass das Design der Algorithmen kulturadaptiv ist, indem zum Beispiel Pre-Loading-Rules bewusst vom ‚Cultural Bias‘ befreit und Modelle aufgesetzt werden, die verschiedene kulturelle Metriken gleichzeitig nutzen. Dabei spielt sicherlich eine bewusst diverse Aufstellung des Entwicklungsteams eine wesentliche Rolle, das reflektiert Begrifflichkeiten und Konzepte hinterfragt und nach gemeinsamen Nennern sucht. Daneben muss ein Bewusstsein im Hinblick auf die kulturelle Prägung der Daten vorhanden sein und deshalb versucht werden, konsequent diverse Datensätze zu verwenden (Byrum 2020). Die Modelle sollten erklärbar sein (Explainable AI), damit durch die Nutzer*innen Handlungen und Entscheidungen auch nachvollzogen werden können. Insgesamt sollte die KI an ethischen Hypernormen ausgerichtet werden. Aber das Bedeutendste sollte sein, dass Mensch und KI als Partner*in begriffen werden. Ohne das menschliche Urteilsvermögen wird eine KI nicht immer in der Lage sein, adäquat interkulturell zu handeln, da Algorithmen eben nur einzelne Facetten kultureller Kompetenz abdecken können. Gerade in diesem Zusammenhang kommt Unternehmen eine besondere Verantwortung zu. Sicherlich haben Staaten und supranationale Organisationen eine zentrale Rolle hinsichtlich der Weiterentwicklung dieser Technologie. Aber die von ihnen erlassenen Regulierungen können meist nicht mit der Geschwindigkeit des technologischen Fortschritts mithalten (World Economic Forum 2018: 4). Entsprechend müssen Unternehmen im Hinblick auf Design und Entwicklung von KI-Lösungen zwingend Prinzipien der Nichtdiskriminierung und Menschenwürde verankern, um Schaden zu vermeiden, wenn die KI gegenüber den Kunden, Beschäftigten oder Anderen als ethisch handelnder Akteur wirkt. Aus dieser Verantwortung heraus wächst aber auch eine Chance. Wenn sich Unternehmen bewusst auf diese diversen kulturellen Wahrnehmungen, Vorstellungen und Erwartungen einlassen, so wird das einen positiven Einfluss auf Kunden- <?page no="116"?> 116 Daniel Jan Ittstein und Mitarbeiter*innenbeziehungen haben, da dadurch das Vertrauen in die Technologie und in das Unternehmen erheblich gesteigert werden können. Dadurch ist es nicht nur möglich, die Produktivität zu steigern sowie resilienter und anpassungsähiger zu werden, um Risiken zu minimieren, sondern es kann auch ein Beitrag geleistet werden, um die Gesellschaft bei dieser bedeutenden Transformation zu unterstützen. 9.6 Literatur Barmeyer, Christoph 2012. Taschenlexikon Interkulturalität. Bd. 3739, UTB. Barmeyer, Christoph & Davoine, Eric 2016. Konstruktives interkulturelles Management: von der Aushandlung zur Synergie. interculture journal: Online-Zeitschrift ür interkulturelle Studien 15, 26, 97-115. Blank, Steve 2013. Why the lean start-up changes everything. Harvard Business Review 91, 5, 63-72. Brannen, Mary Yoko 2009. Culture in context: New theorizing for today’s complex cultural organizations. In Beyond Hofstede. Springer, 81-100. Brannen, Mary Yoko 1998. Negotiated culture in binational contexts: A model of culture change based on a Japanese/ American organizational experience. Anthropology of Work Review 18, 2‐3, 6-17. Brynjolfsson, Erik & Mitchell, Tom 2017. What can machine learning do? Workforce implications. Science 358, 6370, 1530-1534. Byrum, Joseph 2020. Build a Diverse Team to Solve the AI Riddle. MIT Sloan Management Review. https: / / sloanreview.mit.edu/ article/ build-a-diverse-team-tosolve-the-ai-riddle/ ? utm_source=newsletter&utm_medium=email&utm_content=Build%20a%20Diverse%20Team%20to%20Solve%20the%20AI%20Riddle&utm_campaign=Enews%20AI%206/ 11/ 2020 [Stand 2020-06-12]. Castells, Manuel 2002. The Internet galaxy: Reflections on the Internet, business, and society. Oxford: Oxford University Press. Christaller, Thomas 2014. Robotik: Perspektiven ür menschliches Handeln in der zukünftigen Gesellschaft. Bd. 14, Softcover reprint of the original 1st ed. 2001. Berlin: Springer. Donaldson, Thomas & Dunfee, Thomas W. 1999. When ethics travel: The promise and peril of global business ethics. California Management Review 41, 4, 45-63. Dutton, Tim 2018. An Overview of National AI Strategies. https: / / medium.com/ politics-ai/ an-overviewhttps: / / medium.com/ politics-ai/ an-overview-of-national-ai-strategies-2a70ec6edfd-of-national-ai-strategies- 2a70ec6edfd [Stand 2020-06-9]. Floridi, Luciano & Sanders, Jeff W. 2004. On the morality of artificial agents. Minds and machines 14, 3, 349-379. Geertz, Clifford 1973. The interpretation of cultures. Bd. 5043, New York: Basic Books. <?page no="117"?> 9 Interkulturelle künstliche Intelligenz als Wertschöpfungsfaktor 117 Gudykunst, William B., Wiseman, Richard L. & Hammer, Mitchell 1977. Determinants of the sojourner’s attitudinal satisfaction: A path model. Annals of the International Communication Association 1, 1, 415-425. Hagerty, Alexa & Rubinov, Igor 2019. Global AI Ethics: A Review of the Social Impacts and Ethical Implications of Artificial Intelligence. arXiv preprint arXiv: 1907.07892. Hine, Christine 2015. Ethnography for the Internet: Embedded, embodied and everyday. London and New York: Bloomsbury. Ittstein, Daniel Jan 2018a. Interkulturalität bei digitaler Geschaftsmodellinnovation am Beispiel von Amazons Markteintritt in Indien. In K. von Helmolt & D. J. Ittstein, hg. Digitalisierung und (Inter-) Kulturalität - Formen, Wirkung und Wandel von Kultur in der digitalisierten Welt. Stuttgart: ibidem-Verl., 215-241. Ittstein, Daniel Jan 2018b. Robotics & beyond: globaler Fortschritt, Wachstum und Arbeit in Zeiten der Digitalisierung. In R.-M. Dobler & Ittstein, Daniel Jan, hg. Digitalisierung interdisziplinär. München: UVK Verlag. ITU 2020. Measuring Digital Development 2019. https: / / www.itu.int/ en/ ITU- D/ Statistics/ Documents/ facts/ FactsFigures2019.pdf [Stand 2020-06-10]. Kim, Eonsoo, Nam, Dae-il & Stimpert, J. L. 2004. The applicability of Porter’s generic strategies in the digital age: Assumptions, conjectures, and suggestions. Journal of management 30, 5, 569-589. Kreutzer, Ralf T & Sirrenberg, Marie 2019. Künstliche Intelligenz verstehen: Grundlagen - Use-Cases unternehmenseigene KI-Journey. Wiesbaden: Springer. Lewrick, Michael, Link, Patrick & Leifer, Larry 2017. Das Design Thinking Playbook: Mit traditionellen, aktuellen und zukünftigen Erfolgsfaktoren. Mann, Gideon & O’Neil, Cathy 2016. Hiring algorithms are not neutral. Harvard Business Review 9, https: / / hbr.org/ 2016/ 12/ hiring-algorithms-are-not-neutral [Stand 2020-07-1]. Misselhorn, Catrin 2018. Grundfragen der Maschinenethik. 2., durchgesehene Auflage. Ditzingen: Reclam. Neubert, Michael 2018. The Impact of Digitalization on the Speed of Internationalization of Lean Global Startups. Technology Innovation Management Review 8, 5, 44-54. Pike, K. L. 1954. Emic and etic standpoints for the description of behavior. Language in Relation to a Unified Theory for the Structure of Human Behavior Part I, 8-28. Raub, McKenzie 2018. Bots, bias and big data: artificial intelligence, algorithmic bias and disparate impact liability in hiring practices. Arkansas Law Review 71, 2, 529-570. Richardson, Kathleen 2015. An anthropology of robots and AI: Annihilation anxiety and machines. London and New York: Routledge. <?page no="118"?> 118 Daniel Jan Ittstein Ries, Eric 2011. The lean startup: How today’s entrepreneurs use continuous innovation to create radically successful businesses. New York: Crown. Robertson, Jennifer 2018. Robo sapiens japanicus: robots, gender, family, and the Japanese nation. Oakland: University of California Press. Rudolph, Steffen 2019. Digitale Medien, Partizipation und Ungleichheit: Eine Studie zum sozialen Gebrauch des Internets. Wiesbaden: Springer. Silberg, Jake & Manyika, James 2019. Notes from the AI frontier: Tackling bias in AI (and in humans). McKinsey Global Institute. The Economist 2020. Race in Silicon Valley. Beyond the pale. June 20th 2020, 52- 53. Thieulent, Anne-Laure u.a. 2019. Why addressing ethical questions in AI will benefit organizations. https: / / www.capgemini.com/ wp-content/ uploads/ 2019/ 08/ AI-in-Ethics_Web.pdf [Stand 2020-06-21]. Tisserand, Nadja 2018. Unterschiedliche Auffassungen von Privatsphäre und Datenschutz in unterschiedlichen Kulturen: Ein interkultureller Vergleich zwischen Deutschland und Frankreich in Bezug auf Google. München: GRIN. World Economic Forum 2018. How to Prevent Discriminatory Outcomes in Machine Learning. http: / / www3.weforum.org/ docs/ WEF_40065_White_Paper_How_to_Prevent_Discriminatory_Outcomes_in_Machine_Learning.pdf [Stand 2020-06-10]. World Economic Forum 2020. World Gender Gap Report 2020. http: / / www3.weforum.org/ docs/ WEF_GGGR_2020.pdf [Stand 2020-09-10]. Wright, James 2018. Tactile care, mechanical Hugs: Japanese caregivers and robotic lifting devices. Asian Anthropology 17, 1, 24-39. Yao, Mariya 2017. Fighting Algorithmic Bias And Homogenous Thinking in A.I. Forbes. https: / / www.forbes.com/ sites/ mariyayao/ 2017/ 05/ 01/ dangers-algorithmic-bias-homogenous-thinking-ai/ #580066170b3d [Stand 2020-06-23]. <?page no="119"?> Über die Autorin und Autoren Nicole Brandstetter hat Anglistik und Romanistik an der Universität Regensburg und der Université de la Bretagne Occidentale in Brest studiert. Während ihrer Promotion beschäftigte sie sich in einem interdisziplinären Graduiertenkolleg mit Formen der ästhetischen Lüge. Anschließend betreute sie als PR-Beraterin Projekte und Kunden aus verschiedenen Bereichen und arbeitete viele Jahre an einer privaten Bildungsinstitution. Dort war sie als Mitglied der Leitungsebene ür Organisations- und Unterrichtsentwicklung, Personalfragen sowie Öffentlichkeitsarbeit verantwortlich. Im September 2015 erhielt sie den Ruf an die Hochschule ür angewandte Wissenschaften München. Ihre Forschungsschwerpunkte sind Narrative in der digitalen Gesellschaft, Authentizitäts- und Inauthentizitätsdiskurse in der Literatur sowie Lehr-Lernforschung. Ralph-Miklas Dobler hat Kunstgeschichte, klassische Archäologie und Religionswissenschaften in Tübingen, Venedig und Berlin studiert. Seine Promotion an der FU Berlin untersuchte aus einer sozialgeschichtlichen Perspektive kirchliche Stiftungstätigkeit und Memoria im nachtridentinischen Rom. Die Habilitationsschrift an der Rheinischen Friedrich-Wilhelms-Universität Bonn befasste sich in grundlegender Weise mit der fotografischen Inszenierung von Staatsbesuchen in europäischen Diktaturen. Nach langjähriger Praxis als Wissenschaftler bei der Max-Planck-Gesellschaft sowie Lehrtätigkeit an den Universitäten Tübingen, Dresden, Freiburg und Bonn erfolgte 2016 der Ruf auf die Professur ür Kunst- und Medienwissenschaften an der Hochschule ür angewandte Wissenschaften in München. Forschungsschwerpunkte: Visueller Diskurs, Digitale Medien, Kulturelles Erbe und Erinnerung. Daniel Jan Ittstein ist ein Wirtschafts-, Finanz- und Kulturwissenschaftler, der sich aus einer Profitwie auch Non-Profit-Perspektive, im Rahmen von kleineren wie auch sehr großen Organisationen mit Managementfragen im Schnittfeld Digitalisierung, Entrepreneurship, Internationalität und Nachhaltigkeit beschäftigt. Auf Basis seiner praktischen Managementerfahrung in Europa, Asien, Lateinamerika und den USA sind seine fachlichen Schwerpunkte: globale (digitale) Transformationsprozesse, globale digitale Innovation und Geschäftsmodelle, Collaborative Leadership, Global Virtual Teams, Entrepreneurship, Internationales Projektmanagement, Interkulturelles Management. Zudem beschäftig er sich intensiv mit der Frage wie „die Wirtschaft“ und „die Wirtschaftswissenschaft“ von morgen aussehen kann und soll. Sein regionaler Schwerpunkt ist Asien. Im Februar 2016 erhielt er den Ruf an die Fakultät ür interdisziplinäre Studien der Hochschule München. <?page no="120"?> inguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwis senschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik schaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Stat \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ anagement \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschicht Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidak acherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendid tik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtscha Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ rismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundhe Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunika manistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommun tionswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechts swissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rec wissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ senschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenscha Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ ktrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziolog Theaterwissenschaft Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechts aterwissenschaft Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rec wissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ senschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenscha Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie ktrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziolo \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik eaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Angl \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ auwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawist Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ ndinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Manageme Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ hilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwer bau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaf Jörg Homberger, Gabi Preissler, Harald Bauer Operations Research und Künstliche Intelligenz 2019, 358 Seiten €[D] 24,99 ISBN 978-3-8252-4620-4 e ISBN 978-3-8385-4620-9 BUCHTIPP Dieses Buch behandelt zentrale Themen des Operations Research und der Künstlichen Intelligenz und zeigt deren enge Verknüpfung auf. Neben klassischen Bereichen wie der Linearen Optimierung, der Graphentheorie und der Kombinatorischen Optimierung werden naturanaloge heuristische Verfahren vorgestellt und die Multiagententechnologie, die ein bedeutendes Teilgebiet der Künstlichen Intelligenz darstellt, behandelt. Hierbei werden sowohl autonome Agenten, die bei der Lösung verteilter Probleme zusammenarbeiten, als auch die Zusammenarbeit der Agenten mit Hilfe von Verfahren aus dem Operations Research optimiert. Überblick über die behandelten Themenfelder: Lineare Optimierung, Graphentheorie, Kombinatorische Optimierungsprobleme, Ameisenalgorithmen, Genetische Algorithmen, Agentenbasierte Verhandlungen, Schwarmintelligenz und maschinelles Lernen. UVK \ Narr Francke Attempto Verlag GmbH + Co. KG \ Dischingerweg 5 \ 72070 Tübingen \ Germany Tel. +49 (0)7071 97 97 0 \ Fax +49 (0)7071 97 97 11 \ info@narr.de \ www.narr.de <?page no="121"?> inguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwis senschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik schaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Stat \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ anagement \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschicht Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidak acherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendid tik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtscha Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ rismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundhe Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunika manistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommun tionswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechts swissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rec wissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ senschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenscha Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ ktrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziolog Theaterwissenschaft Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechts aterwissenschaft Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rec wissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ senschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenscha Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie ktrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziolo \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik eaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Angl \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ auwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawist Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ ndinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Manageme Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ hilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwer bau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaf Floris Ernst, Achim Schweikard Fundamentals of Machine Learning Support Vector Machines Made Easy 2020, 154 Seiten €[D] 24,90 ISBN 978-3-8252-5251-9 e ISBN 978-3-8385-5251-4 BUCHTIPP Künstliche Intelligenz wird unser Leben nachhaltig verändern - sowohl im Job als auch im Privaten. Doch wie funktioniert maschinelles Lernen eigentlich genau? Dieser Frage gehen zwei Lübecker Professoren in ihrem englischsprachigen Lehrbuch nach. Definitionen sind im Buch hervorgehoben und Aufgaben laden die LeserInnen zum Mitdenken ein. Das Lehrbuch richtet sich an Studierende der Informatik, Technik und Naturwissenschaften, insbesondere aus den Bereichen Robotik, Artificial Intelligence und Mathematik. Artificial intelligence will change our lives forever - both at work and in our private lives. But how exactly does machine learning work? Two professors from Lübeck explore this question. In their English textbook they teach the necessary basics for the use of Support Vector Machines, for example, by explaining linear programming, the Lagrange multiplier, kernels and the SMO algorithm. They also deal with neural networks, evolutionary algorithms and Bayesian networks. Definitions are highlighted in the book and tasks invite readers to actively participate. The textbook is aimed at students of computer science, engineering and natural sciences, especially in the fields of robotics, artificial intelligence and mathematics. UVK \ Narr Francke Attempto Verlag GmbH + Co. KG \ Dischingerweg 5 \ 72070 Tübingen \ Germany Tel. +49 (0)7071 97 97 0 \ Fax +49 (0)7071 97 97 11 \ info@narr.de \ www.narr.de <?page no="122"?> inguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwis senschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik schaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Stat \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ anagement \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschicht Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidak acherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendid tik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtscha Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ rismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundhe Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunika manistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommun tionswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechts swissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rec wissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ senschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenscha Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ ktrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziolog Theaterwissenschaft Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechts aterwissenschaft Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rec wissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ senschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenscha Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie ktrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziolo \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik eaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Angl \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ auwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawist Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ ndinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Manageme Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ hilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwer bau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaf Gernot Brauer Die Bit-Revolution Künstliche Intelligenz steuert uns alle in Wirtschaft, Politik und Gesellschaft 2019, 340 Seiten €[D] 24,99 ISBN 978-3-86764-901-8 e ISBN 978-3-7398-0471-2 BUCHTIPP Wie tickt heute die Welt? Ist die Künstliche Intelligenz schon schlauer als wir? Entscheiden Maschinen intelligenter? Wie viele Menschen werden sie arbeitslos machen? Hebeln Computer Handel und Wettbewerb aus? Werden wir eine bessere Medizin mit unseren Daten bezahlen? Gibt es für Privatheit noch eine Chance? Und ist das ewige Leben kein bloßer Traum, sondern schon bald Realität? Diese Fragen beantwortet dieses Buch. Nach einer Übersicht über die alles ändernde Datenflut zeigt es an einer konkreten Software-Entwicklung, die Regierungen, Verbände und Firmen mit unvorstellbar genauen Datenanalysen und Prognosen versorgt, was Big Data und was Künstliche Intelligenz können, wie ihre Experten denken und handeln, welches Geschäftsmodell sie entwickeln und was das für uns bedeutet. UVK \ Narr Francke Attempto Verlag GmbH + Co. KG \ Dischingerweg 5 \ 72070 Tübingen \ Germany Tel. +49 (0)7071 97 97 0 \ Fax +49 (0)7071 97 97 11 \ info@narr.de \ www.narr.de <?page no="123"?> ISBN 978-3-7398-3045-2 Computersysteme können aus Daten und Informationen immer besser lernen und eigenständig Entscheidungen treffen. Entsprechende Programme kommen zunehmend in allen Bereichen menschlichen Handelns zum Einsatz. Diese Technologie wird das Leben einschneidend verändern. Wie, das ist allerdings noch weitgehend unklar. In dem Band wird das Zukunftsthema Künstliche Intelligenz umfassend aus verschiedenen Perspektiven untersucht. Neben grundlegenden Überlegungen zur Definition und Geschichte werden vor allem die Chancen und vermeintlichen Gefahren betrachtet. Dabei werden verschiedene Anwendungsfelder und Zukunftsszenarien untersucht. www.uvk.de