eBooks

Die Bit-Revolution

2019
978-3-7398-0471-2
UVK Verlag 
Gernot Brauer

Wie tickt heute die Welt? Ist die Künstliche Intelligenz schon schlauer als wir? Entscheiden Maschinen intelligenter? Wie viele Menschen werden sie arbeitslos machen? Hebeln Computer Handel und Wettbewerb aus? Werden wir eine bessere Medizin mit unseren Daten bezahlen? Gibt es für Privatheit noch eine Chance? Und ist das ewige Leben kein bloßer Traum, sondern schon bald Realität? Diese Fragen beantwortet dieses Buch. Nach einer Übersicht über die alles ändernde Datenflut zeigt es an einer konkreten Software-Entwicklung, die Regierungen, Verbände und Firmen mit unvorstellbar genauen Datenanalysen und Prognosen versorgt, was Big Data und was Künstliche Intelligenz können, wie ihre Experten denken und handeln, welches Geschäftsmodell sie entwickeln und was das für uns bedeutet. Dieses Buch ist am Geschehen nah dran. Es zeigt, wie schnell die Künstliche Intelligenz unser aller Leben verändert. Es beurteilt ihre Chancen und Risiken und zeigt, was da auf uns zu kommt.

Gernot Brauer DDiiee BBiitt--RReev voolluuttiioonn Gernot Brauer ist ein erfahrener Kommunikationsmanager aus der Industrie und ein routinierter Journalist, der als Buchautor zwei Begabungen verknüpft: die Fähigkeit zu exakter Recherche auch sehr komplexer oder versteckter Sachverhalte und eine Leidenschaft für spannendes Erzählen ebenso wie kritisches Hinterfragen dessen, was er ans Tageslicht bringt. Was Gernot Brauer ermittelt, mag noch so kompliziert sein - er stellt es so dar, dass man es versteht, dass man es mit Gewinn und Vergnügen liest und dabei auch noch sonst kaum durchschaubare Zusammenhänge begreift, in denen wir leben und von denen wir abhängig sind. Er nimmt seine Leser mit in eine Reise in unser aller Zukunft. Für dieses Buch hatte Gernot Brauer exklusiven Zugang zu einem Computergenie. Auf der Basis ausgefeiltester Künstlicher Intelligenz hat dieser Mann ein Programm zur Entscheidung und Prognose auf den Markt gebracht, wie es nach seiner Überzeugung weder IBM noch Microsoft oder Google haben, weder Facebook noch sonst jemand. Auch Lesern, die von Datenverarbeitung nur so viel wie der Durchschnittsbürger verstehen, präsentiert Gernot Brauer diese unglaubliche Entwicklung so klar, als seien sie selbst dabei. Er breitet vor uns eine Welt aus, die unser Leben mitbestimmt - mit jedem Tag, der vergeht, ein Stück mehr. Was da abgeht, ist atemberaubend. Gernot Brauer hat bereits mehr als ein Dutzend Bücher über verschiedenste Themenfelder veröffentlicht. Mit seiner Kenntnis der Wirtschaft und der Gesellschaft schafft er es immer wieder, seine Leser nicht nur verlässlich zu informieren, sondern auch gut zu unterhalten. Denn schon die Tatsachen, die er anzubieten hat, sind spannend genug. Gernot Brauer DDiie e BBi it t- -R Reev vool luut ti io on n Künstliche Intelligenz steuert uns alle in Wirtschaft, Politik und Gesellschaft UVK Verlag · München Viele vertiefende, oft spannende Einzelheiten zu Kapiteln dieses Buches finden Sie auf der zum Buch gehörenden Webseite unter www.uvk.digital/ 9783867649018. Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http: / / dnb.ddb.de> abrufbar. ISBN 978-3-86764-901-8 (Print) ISBN 978-3-7398-0471-2 (EPUB) ISBN 978-3-7398-0470-5 (EPDF) Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. © UVK Verlag München 2019 - ein Unternehmen der Narr Francke Attempto Verlag GmbH & Co. KG Lektorat: ÌxBuxBx Åg[[gB: -gCCgB>, Forstinning, und Saskia Brauer> Berlin Einbandgestaltungß Susanne Fuellhaas, Konstanz Cover-Illustration: © iStockphoto à metamorworks Ð: >DBgEfD>D ’gd>g îß ÌxBuxBx Åg[[gB: -gCCgB> Druck und Bindung: Printed in Germany UVK Verlag Nymphenburger Strasse 48 “ 80335 München Tel. 089/ 452174-65 www.uvk.de Narr Francke Attempto Verlag GmbH & Co. KG Dischingerweg 5 “ 72070 Tübingen Tel. 07071/ 9797-0 www.narr.de EEiinnlleeiittu unngg Dieses Buch handelt von einer der umwälzendsten Revolutionen seit Menschengedenken. Dieser gesellschaftliche Wandel vollzieht sich vor unseren Augen. Trotzdem erkennen viele Menschen noch nicht, dass es sich um eine Revolution handelt, die fast alle gewohnten Lebensverhältnisse umkrempeln wird, „a change analogous to the rise of conciousness in humans“ (Minelli 2017: xiii), so grundlegend wie die Entwicklung des menschlichen Bewusstseins. „Wir leben in einer Welt, in der man entweder ein Teil dieser Revolution ist oder von ihr überrollt wird“ (Schröder 2017: 14). Diese Umwälzung ist eine Folge der Digitalisierung. „Alles, was digitalisiert werden kann, wird digitalisiert. Autos, Flugzeuge und Kühlschränke sind künftig nur noch Blechhüllen, mit denen kaum Geld verdient wird. Die Gewinner sind - dank Netzwerkseffekt - vor allem die Vermittler“ (Keese 2014: 165). Längst nutzen wir Produkte und Dienste, die die Ablösung des mechanischen durch das elektronische Zeitalter wesentlich prägen. Aber wir realisieren erst schemenhaft, wie sehr dieser Wandel zur Künstlichen Intelligenz uns selbst ändern wird. Davon berichtet dieses Buch, von technischen und gesellschaftspolitischen Entwicklungen rund um uns und von Konsequenzen für das Menschsein überhaupt. Es zeigt in zwölf Kapiteln, was die Künstliche Intelligenz mit uns macht. Dazu nimmt dieses Buch Sie als Leser mit auf eine weite Reise. Sie beginnt in Kapitel 1 in der Welt der Big Data. Dieses Kapitel erörtert, wie schlau die Künstliche Intelligenz bereits ist und was wir von ihr noch zu erwarten haben. Aber dieses Buch berichtet nicht nur über Maschinen und deren unglaubliche Leistung. Es portraitiert auch die Personen hinter der Technik. Kapitel 2 führt uns zuerst mit Heiner und dann mit Hardy zusammen, Big Data Daddy genannt, einem Mann, der die Datenwelt komplett umkrempelt. Es erläutert eine von ihm patentierte Software, die Regierungen, Verbände und Firmen mit Datenanalysen und Prognosen bisher unvorstellbarer Präzision versorgt. Dann berichtet es von Phil, ebenfalls einer Multibegabung, und seiner Zusammenarbeit mit Hardy bei der Entwicklung der Software Quantum Relations und des digitalen Weltmodells, auf dem sie aufbaut. In Kapitel 3 lernen wir kennen, wie diese Software die Finanzwelt revolutionierte und warum sie ihr ihre Geschäftsgrundlage denoch ziemlich bald wieder entziehen könnte. In Kapitel 4 schließlich geht es um den jüngsten, größten Coup dieses Mannes, das Programm Prisma, das mit der Software Prisma Dicision Point geradezu allwissend agiert und sich derzeit weltweit verbreitet. So weit das erste Drittel des Buchs. Das zweite Drittel fragt in Schritt 5, was Big Data in der Wirtschaft bedeuten. Kapitel 6 erläutert, warum diese Welt aus Daten den Wettbewerb und in ihm den Handel aufzulösen imstande sind und was an ihre Stelle treten dürfte. In Kapitel 7 erörtern wir Konsequenzen für jeden von uns: Was geschieht, wenn Maschinen intelligenter werden als wir? Übernehmen Sie dann die Regie? Das Mensch-Maschine-System birgt enorme Chancen, aber auch veritable Gefahren. Das gilt auch im Gesundheitswesen. Das beleuchtet Kapitel 8. Das Gesundheitswesen ist ein gutes Beispiel für das Problem der Privatheit, mit dem das letzte Drittel des Buches beginnt. Je mehr Daten jemand über uns hat, desto gläserner sind wir für ihn. Wollen wir das und können wir es überhaupt verhindern oder zumindest wirksam begrenzen? Davon handelt Kapitel 9. Dort erörtern wir auch die Datenschutzethik. In Kapitel 10 geht es darum zu verstehen, wie global verfügbare Daten als eine neue, weltweite Aufklärung wirken und alles Entscheiden wissensbasi ert, vernunftgeleitet und kooperativ gestalten können. In Schritt 11 ziehen wir daraus Konsequenzen für die Politik. Und im abschließenden Schritt 12 stellen wir dar, was aus unserem Leben wohl wird, wenn wir es an Maschinen übergeben können. Maschinen sterben nicht. Kommt dann das ewige Leben? Dieses Schlusskapitel zeigt Ihnen, worauf wir uns voraussichtlich einrichten können. Dieses Buch fußt auf einer Vielzahl von Fakten und belegt, woher sie stammen. Es berichtet darüber so, dass man sie möglichst einfach verstehen kann. Dazu verzichtet es wo immer möglich auf Fachsprachen und auf vermeidbare wissenschaftliche Umständlichkeit. Das sei hier an einem einzigen Beispiel erläutert. Es ist gekürzt, sonst wäre es noch komplizierter. Es beschreibt Transaktionen. Und nun kommt es: Diese Transaktionen „implizieren eine individualisierende Adressierbarkeit der an den Transaktionen beteiligten Entitäten, die deren zeitliche und häufig auch räumliche Verortbarkeit beinhaltet. Transaktionen rekurrieren somit auf ganze Medienensembles der Zeitmessung, der Adressierung und der Verortung, deren gemeinsame Nutzung Gegenstand der Anbahnung wie auch Implementationsbedingung von Transaktionen ist … Prüfprozesse betreffen die Gültigkeit der Übereinkünfte der Transaktionsprozesse durch die Transaktionsbeteiligten … Transaktionen rechnen also mit Verweigerung und attribuieren diese Möglichkeit den Transaktionsbeteiligten. Big Data … irritiert die skizzierten Modalitäten von Kommunikation und Transaktion und führt eine Verunschärfung des voluntaristischen Aspekts von Transaktionen herbei.“ Es sei erlaubt, den vermuteten Gehalt dieses Satzungetüms so herunterzubrechen: Transaktionen, also Übertragungen, setzen voraus, dass die daran Beteiligten wissen, wer die jeweils anderen Mitbeteiligten sind, wann und häufig auch wo man sie erreichen kann und dass man sie zu bestimmten Zeiten an bestimmten Orten auch wirklich erreicht … Dazu sind Übereinkünfte nötig. Die können die Beteiligten prüfen, aber auch verweigern. Bei Big Data ist eine solche Verweigerung allerdings nur eingeschränkt möglich. Auch computer nerds verständigen sich in einer mit unzähligen Abkürzungen durchsetzten Fachsprache, die sich dem Normalbürger oft nicht erschließt. Das beginnt schon mit dem Wort nerd selbst; es bezeichnet Personen, die an neuen Computertechnologien aktiv teilhaben, sei es als IT (Informations-Technologie)-Spezialisten oder als early adopters, also sehr frühe Nutzer. Wir vermeiden oder erklären in diesem Buch solche Fachausdrücke. Nur Begriffe wie Computer oder Internet, die schon Teil der deutschen Umgangssprache sind, werden auch so benutzt. Dieses Buch fußt einerseits auf Gesprächen in den Jahren 2017 und 2018 mit den Hauptakteuren, denen ich für diese Auskünfte sehr danke. Ihre Aussagen sind in wörtlicher oder indirekter Rede wiedergegeben oder nacherzählt. Alle erwähnten Personen, Firmen und Fachbegriffe sind im Anhang erläutert. Im Übrigen stützt sich dieser Text auf eine Vielzahl schriftlicher Quellen. Sie sind auf der zu diesem Buch gehörenden Webseite alphabetisch nach Autoren gelistet. Wo der Text daraus sinngemäß oder wörtlich zitiert (nur wörtliche Zitate stehen in Anführungszeichen), wird auf die Quelle in Klammern verwiesen (Name, Erscheinungsjahr: Seite). Wird aus einer Quelle mehrfach direkt nacheinander zitiert, wird ab dem zweiten Zitat nur auf sie verwiesen (ibid.: Seite). Wird aus einer schon genannten Seite nochmals zitiert, ist eine erneute Erwähnung derselben Seitenzahl natürlich entbehrlich; dann genügt ein ibid. (ebenda). Sie brauchen diese Verweise nicht zu beachten. Wenn Sie aber eine Quelle ausführlicher nachlesen möchten; zeigt Ihnen die Webseite zu diesem Buch, wo Sie fündig werden können. Die Webseite bringt übrigens noch weit mehr: Hintergründe und Zusammenhänge in der Welt der Big Data und der Künstlichen Intelligenz. In den Kapiteln wird auf solche Vertiefungen jeweils verwiesen. Sie können dort aber auch einfach ein wenig schmökern. Es lohnt sich. Und nun viel Interesse an Big Data und viele Einsichten in diese spannende Welt. Gernot Brauer ð ºdC[id<8Cg EEiinn RRaatt vvo orraabb Wer online geht, tut das stets in Gesellschaft, auch wenn er es nicht bemerkt oder nicht will. Wenn Sie online gehen, sehen und hören Ihnen nämlich zahllose programmierte Maschinen zu. Mit jedem Klick auf eine Webseite, besonders intensiv mit jeder Anfrage an eine Suchmaschine oder an ein Preisvergleichsportal machen Sie ein Stück weit sichtbar, was Sie interessiert. Mit jeder Aktivität und jeder Meinungsäußerung in einem sozialen Netzwerk zeigen Sie nicht nur Ihren Freunden, sondern auch technischen Beobachtern, was für ein Typ Sie sind, was Sie tun und wie Sie drauf sind. Denn jeden Klick auf jede Webseite registrieren externe Computer sofort. Sie parken Cookies auf Ihrem Gerät; das sind kleine Dateien, die die Einstellungen Ihres Geräts und andere Informationen speichern. Die werden für weitere Kontakte mit Ihnen ausgelesen und kommerziell genutzt. Cookies zu speichern können Sie auf Ihrem Gerät zwar unterbinden, aber dann wird die aufgerufene Webseite vielleicht nicht gut funktionieren. Wann immer Sie ins Internet gehen, werden Sie also möglichst gründlich durchleuchtet. Dazu dienen Tracking-Technologien. Was diese über Sie in Erfahrung bringen, wird kommerziell ausgewertet und im Internet auch weiterverkauft. Ihr Surf-Verhalten steht deshalb auch anderen Betreibern zur Verfügung. So erfahren auch diese, was Sie interessiert und sprechen Sie mit zielgerichteter Werbung an. In vielen Webseiten sind Plugins sozialer Netzwerke wie Facebook und Twitter, YouTube und Google+ schon integriert. Sie registrieren bei jedem Seitenaufruf Ihre Daten und geben so genaue Auskunft über Ihre Aktivitäten. Dazu müssen Sie weder bei dem sozialen Netzwerk eingeloggt noch dort Mitglied sein. Bei einigen Webseiten müssen Sie dieses Symbol zwar erst anklicken. Sind Sie dort bereits angemeldet, erteilen Sie damit jedoch Ihre Zustimmung, Daten automatisch an den sozialen Netzbetreiber zu übermitteln. Sie können auch einfach ein Häkchen setzen - dann ist der ausgewählte button immer aktiv. Google Analytics und Wettbewerber (vgl. Joos 2018) registrieren außerdem Ihre Verweildauer im Netz, Ihre geographische Herkunft und einiges mehr - immer mit dem Ziel, der Werbung erfolgversprechende Pfade zu bahnen. So entstehen Wahrscheinlichkeiten darüber, welche Werbung wann und wo etwas bringt. Viele Webseiten arbeiten global mit einem Dutzend und mehr externer Analyse-Dienstleister zusammen. In ihren Datenschutzrubriken müssen Webseitenbetreiber die Auswertungsfirmen zwar nennen. Aber welcher Internetnutzer liest dieses Kleingedruckte sorgfältig? Der Internetpionier und Mitverfasser des Internet-kritischen Cluetrain-Manifesto von 1999, Doc Searls, sieht diese Entwicklung äußerst kritisch: „Werbung wurde furchtbar pervertiert, bis hin ins Unmoralische. Ein Geschäft würde mir niemals einen Sender auf die Schulter pflanzen, nachdem ich in ihm eingekauft habe. Im Web ist das Standard, und das ist einfach falsch. Weil so viel davon unbeobachtet abläuft, haben wir all diese gruseligen Verhaltensmuster“ (Kuhn 2018). Besonders heikel sind personenbezogene Daten, also die, anhand derer man Sie als Einzelperson identifizieren kann. Dazu gehören Name, E-Mail-Adresse und zum Beispiel Zahlungsinformationen. Zwar müssen persönliche Daten in vielen Fällen anonymisiert oder pseudonymisiert werden. Das lässt sich aber umgehen: Nicht wenige Offerten im Internet, etwa Gewinnspiele, haben hauptsächlich den Zweck, an freiwillig übermittelte personenbezog ene Daten zu kommen. Wer etwas gewinnen will, muss ja offenlegen, wer er ist. Haben Sie erst einmal irgendwo Ihren Namen und Ihre Adresse hinterlassen, werden solche persönlichen Daten sofort mit denen verknüpft, die im Netz sonst noch über Sie kursieren. Die wirken wie ein offenes Buch: Schon mit zehn Facebook-likes lässt sich eine Person besser einschätzen als das ein durchschnittlicher Arbeitskollege kann. 70 likes reichen aus, um die Menschenkenntnis eines Freundes zu überbieten, 150 um die der Eltern zu übertreffen, und mit 300 likes kann eine Maschine das Verhalten einer Person genauer vorhersagen als deren Partner. Mit noch mehr likes kann sie sogar übertreffen, „was Menschen von sich selber zu wissen glauben“ (Krogerus 2016). Alsbald sind Sie also absolut gläsern. Selbst wenn Sie nicht im Internet surfen, sondern nur eine Kundenkarte vorlegen, greift dieses System. Wer aus dieser Datenwelt aussteigen will, müsste deshalb bereit sein, ein Einsiedlerdasein wie Robinson Crusoe zu führen (Morgenroth 2014: 226). Aber Sie benutzen das Internet ja gerade, um Kontakte aufbauen und pflegen zu können und um sich zu orientieren. Mit dem Schutz Ihrer Privatsphäre ist es in der Datenwelt folglich nicht weit her. Das werden Sie in Kapitel 9 genauer einzuschätzen lernen. Es gibt zwar Regeln, die den Datengebrauch limitieren; in der EU ist es in erster Linie eine Richtlinie, die seit dem Frühsommer 2018 europaweit gilt. Aber große Grauzonen verbleiben, zumal viele „Datenkraken“ keine europäischen Firmen sind, sondern amerikanische mit einem weit laxeren Rechtsrahmen. Es gibt Empfehlungen dafür, wie man die Ausforschung der eigenen Person via Internet begrenzen kann, etwa indem man nicht ständig online ist. Die meisten dieser Empfehlungen sind etwas weltfremd. Wer will es schon Robinson Crusoe gleich tun? Aber man kann handeln, etwa sich bei digitalcourage.de informieren, eigene Daten und Mails verschlüsseln und die Politik zum Handeln auffordern. Vor allem aber sollten Sie die Mechanismen kennen und zu nutzen oder zu umgehen lernen, denen Sie sich als Datenbesitzer aussetzen. Das ist ein Zweck dieses Buches. Der andere ist, Ihnen die faszinierende Welt der Künstlichen Intelligenz in ihrer ganzen Vielfalt nahezubringen. Sie birgt, wie es in diesem Buch zu Recht heißt, ein „unfassbar aufregendes, intellektuelles Abenteuer.“ Erobern Sie es sich. Hinweise zum Buch Dieses Buch und die Webseite zu diesem Buch gehören zusammen. Die Webseite enthält Hintergrundinformationen, Erläuterungen und Vertiefungen sowie das ausführliche Literaturverzeichnis. Alle im Buch verwendeten Quellen verweisen auf dieses Literaturverzeichnis. Hier noch einmal die Webseiten-Adresse: www.uvk.digital/ 9783867649018 ê ºdC —|< 4BA|y IInnhhaalltt 0 Einleitung und ein Rat vorab Wie verbreitet Big Data sind, wie sie das wirtschaftliche Handeln verändern und was das für uns bedeutet. 1 Milliarden in Millisekunden. Ist die Künstliche Intelligenz schon schlauer als wir? 1.1 Die Entwicklung des Computers im Zeitraffer 13 1.2 Die großen Beweger - die Datenkraken 18 1.3 Der Weg zu Big Data 28 1.4 Internet und darknet 36 1.5 Das Internet der Dinge 41 1.6 Die Blockchain 44 1.7 Die Künstliche Intelligenz 50 2 Big Data Daddy . Was befähigt einen Mann, die Datenwelt komplett umzukrempeln? Ein Dreier-Team hat mit Quantum Relations den Weg zum Cloud Computing geebnet. Woher kamen diese drei Menschen, was führte sie zusammen, wie gingen sie vor? 2.1 Ein Filmproduzent entdeckt die Welt von Big Data 67 2.2 Hardy, der Universalist 74 3 Von Newton über Einstein zu RavenPack und zu Prisma. Wie tickt heute die Welt? Einstein zu verstehen war die Basis für quantim relations. RavenPack revolutionierte damit die Finanzwelt. Prisma ermöglicht nun blitzschnelle Entscheidungen mit höchster Treffsicherheit nicht nur auf der Basis von Zahlen, sondern auch der gesamten mentalen. Welt. Das gab es noch nie. 3.1 Algorithmen - die Alleskönner 83 3.2 Wissendes Subjekt und gewusstes Objekt 89 3.3 Von Quanten zu Quantum Relations 92 3.4 Phil, die Multibegabung 98 3.5 Der Weg zu RavenPack 100 3.6 Die Schloer Consulting Gro up wird geschaffen 113 3.7 Die Prisma Analytics GmbH entsteht 116 4 Goldstandard der News. Wie verbreitet sich dieses Know-How jetzt global? Einer der größten Datenkonzerne wird mit Prisma Analytics verbunden, so dass das System in Echtzeit jede menschliche Regung registrieren und verarbeiten kann. 4.1 Maschinenleistung und der menschliche Faktor 123 4.2 Wie Prisma Daten visualisiert 130 10 ·Cf|[< 5 Big Data in der Wirtschaft. Werden Arbeitnehmer entbehrlich? Big Data automatisieren die Arbeit in unvorstellbarem Maß, verdrängen Millionen Beschäftigte, schaffen auch neue Jobs, aber für höher Qualifizierte. Wer verliert, wer gewinnt? 5.1 Data Scientists 141 5.2 Jobkiller Datentechnik 142 5.3 Die Wirtschaft 4.0 145 5.4 Big Data in der Automobilindustrie 151 5.5 Big Data in der Prozesindustrie 163 5.6 Big Data im Handel 166 5.7 Die Smart City 171 6 Was Spekulanten einbüßen. Hebelt der Computer Handel und Wettbewerb aus? Spekulations- und Handelsgewinne beruhen auf Informationsvorsprung. Der verschwindet in digitalisierten Märkten. Daten werden zur neuen Währung der Welt. 6.1 Wenn Wissensvorsprung sich auflöst 177 6.2 Das Global Value Exchang e-System 179 6.3 Die Global Economic Unit 181 7 Wissen ist gut, denken ist besser. Entscheiden Maschinen intelligenter als wir? Niemand weiß so viel wie Computer. Sie lernen auch zu denken und zu entscheiden. Übernehmen sie bald auch uns? Was das Mensch-Maschine-System bedeutet. 7.1 Grenzen Mensch - Computer verschwimmen 185 7.2 Hardys Vision vom intelligenten Planeten 191 8 Der nackte Patient. Werden wir eine bessere Medizin mit unseren Daten bezahlen? Gesundheitsdienste wollen und werden alles über uns wissen. Wie viel Souveränität behalten wir noch über unsere intimsten Daten, die über unsere Gesundheit? 8.1 Die Maschine als Arzthelfer 193 8.2 Auch im Gesundheitswesen Big Data 196 8.3 Zo e - die Vision einer gesünderen Welt 200 8.4 Datenschutzprobleme 204 9 Gläsern sind wir schon jetzt. Gibt es für irgendeine Privatheit noch eine Chance? Was in der Datenwelt legal ist und was legitim: Persönlichkeitsschutz, Datengebrauch, Datenschutzrthik. 9.1 Was wird aus der Privatsphäre? 209 9.2 Wem gehören Daten? 213 9.3 Der Datenklau von Cambridge Aalytica 214 9.4 Das deutsche Datenschutzrecht 217 9.5 Die EU-Datenschutzgrundverordnung 221 9.6 Eckpunkte einer Datenstrategie in der Welt von Big Data 223 9.7 Privacy by Desi g 226 9.8 Die Digitalcharta 230 ·Cf|[< 11 9.9 Was ethische Normen leisten können 234 9.10 Ethical Alligned Design 236 9.11 Ein Leitlinienentwurf von Bitkom 237 9.12 Cybersicherheit ist eine globale Aufgabe 239 10 Die neue A ufklärung. Wie w ird g lo ba l greifb ar es Wissen d as Le be n al le r v erä nd ern? Ist eine Welt vorstellbar, in der wir wissensbasiert, vernunftgeleitet und kooperativ das allgemeine Beste ermitteln und danach handeln? Experten erwarten genau das. 10.1 Die Welt der Open Data 241 10.2 Interkulturelle Zentren investigativen Wissens 247 10.3 Digital Humanities 249 10.4 Big Data in den Wissenschaften 252 10.5 Eine Zwischenbilanz 257 11 Politik durch die Bürger, nicht nur für sie. Kommt die kooperative Regierung? Noch ist ein datengesteuertes Regierungssystem auf Basis des Bürgerwillens eine Vision. Aber wir besitzen schon die Möglichkeit, es zu installieren. 11.1 Helbings Plan 261 11.2 Running for President 262 11.3 Wie und wozu der Staat Daten abgreift 270 11.4 Ohne Algorithmen läuft nichts mehr 274 11.5 Suchmaschinen steuern, wie wir denken 276 11.6 Aufklärung durch Fakten 286 12 Das ewige Leben. Kann der Mensch mit der digitalen Maschinenwelt zu einem ewig möglichen Leben verschmelzen? Forscher und Universitäten prognostizieren schon, wann es so weit sein wird. 12.1 Das zweite Ich 289 12.2 Humanismus und Transhumanismus 291 12.3 Noch sind viele Fragen offen, aber wir sind unterwegs 295 Anhang: Glossar der Fachbegriffe 299 Namensregister 307 Register der Firmen und Insti tutionen 321 Stichwortregister 331 Die Webseite enthält folgende Abschnitte: Der Umgang mit Daten (Datenspeicherung, Clouds, Datenauswertung, Besonderheiten der Auswertung von Big Data, Hadoop) Der Markt der Künstlichen Intelligenz Stichwortverzeichnis der Webseitenabschnitte Literatur 344 360 363 365 11 MMiilllliiaarrddeen n iinn MMiilllliisse ek kuunnddeen n Ist die Künstliche Intelligenz schon schlauer als wir? Was bei Big Data abgeht, ist schier unvorstellbar. Datenwolken beginnen jedes Handeln zu durchdringen und alle Entscheidungen zu konditionieren. Firmen wie Microsoft, Google und Facebook erzeugen cyber-physische Systeme. Dieses Kapitel erläutert die Datenwelt und verweist auf ihre großen Beweger und deren Technologien (Details auf der Webnseite). Es zeigt, wie verbreitet Big Data sind, wie sie als Künstliche Intellugenz das Handeln verändern und was das für uns bedeutet. 1.1 Die Entwicklung des Computers im Zeitraffer 13 1.2 Die großen Beweger - die Datenkraken 18 1.3 Der Weg zu Big Data 28 1.4 Internet und darknet 36 1.5 Das Internet der Dinge 41 1.6 Die Blockchain 44 1.7 Die Künstliche Intelligenz 50 1 1..11 DDiiee EEnnttwwiicckklluunngg ddees s CCoommppuutteer rss iimm ZZeei ittrraaffffeerr „Stell dir vor, es ist Revolution, und die Leute merken es kaum. Unterdessen ist der wahre Umsturz längst im Gange“, schreibt der Computerexperte Martin-Jung (2018a) und erläutert: er verläuft exponentiell. Menschen erfassen das nur schwer. Daher gibt Martin-Jung ein Beispiel: Wenn in ein Fußballstadion alle zwei Sekunden Wasser getropft würde, erst ein Tropfen, dann zwei, dann vier, dann acht und immer so weiter die doppelte Menge wie lange würde es dauern, bis die riesige Betonschüssel voll ist? Nicht einmal zehn Minuten (ibid.). Anfangs merkt man nicht, was da passiert. So ist oder war es zumindest auch mit der Welt der Computer. Es ist höchste Zeit, sich vorzubereiten (ibid.). Computer, das Internet und Daten allerorten gehören inzwischen zu unserem Leben wie Wasser und Brot. 2,8 Milliarden Menschen sind mittlerweile online; das ist ein Zuwachs von 280 Prozent in nur zehn Jahren (Noska 2017). Was sich derzeit vollzieht, revolutioniert unseren Alltag von Grund auf. „Wir verarbeiten Daten nicht nur schneller und besser als zuvor. Wir tun Dinge, die wir zuvor nie tun konnten“, sagt Jason Cornez, Chief Technology Officer der im Finanzmarkt tätigen Analysefirma RavenPack, und der Leiter des Bereichs Finance Product Management von MathWorks, Stuart Kozola, stimmt ihm ebenso zu wie Thani Sokka, der Technikchef des Datenhauses Dow Jones (RavenPack 2017b). Datenanalysen, die auf herkömmlichen Computersystemen noch vor Kurzem eineinhalb Monate dauerten, lassen sich in der cloud (was das ist, zeigen wir auf unserer Webseite) in Stunden erledigen. Die Auswertung aller Daten von Wetterstationen für eine Wettervorhersage, die vor einem Jahrzehnt noch 15 Minuten dauerte, ist jetzt in einer Sekunde erledigt. Eine nochmalige Beschleunigung um das 17.000-fache deutet sich an (näheres im Abschnitt über Quantencomputer). Entscheidungen sind also sofort möglich. Der Handel mit Aktien vollzieht sich bereits in 200 Millisekunden - wir kommen in Kapitel 3 darauf noch zu sprechen. 14 1 Milliarden in Millisekunden Datenwolken umgeben uns seit wenigen Jahren so selbstverständlich, dass wir gut daran tun, uns zu erinnern, wie relativkurz die Geschichte der elektronischen, automatisierten Datenverarbeitung zurück reicht. Die Herkunft der elektronischen Datenverarbeitung. Die Idee, wir selbst seien so etwas wie biologische Automaten, eine Art natürlicher Computer, ist zwar schon recht alt. Im 17. Jahrhundert verstand der deutsche Philosoph und Mathematiker Leibniz die Welt als ein System aus Automaten, die er Monaden nannte - eine Weltsicht, die heute wieder aktuell ist (vgl. Mainzer/ Chua 2011). Leibniz betrachtete alles, was lebt, als natürliche Monaden, als solche biologischen Automaten, die wesentlich besser funktionieren als von Menschen gebaute Automaten seiner Zeit. Und in der Tat: Der menschliche Körper atmet, verdaut und regeneriert sich schlafend automatengleich, ohne dass das Bewusstsein eingreifen muss. Leibniz zeigte sich überzeugt, dass eines Tages Automaten nicht nur menschliche Arbeit übernehmen und die Menschen damit für kreative Tätigkeiten frei machen könnten, sondern dass diese Automaten auch Entscheidungen zu treffen vermöchten. Er sollte Recht behalten. Den ersten programmierbaren Automaten baute aber erst im im 19. Jahrhundert, im Zeitalter der Dampfmaschinen, der Brite Charles Babbage auf noch rein mechanischer Grundlage. Zur Steuerung benutzte er auswechselbare Lochkarten für damals schon teilautomatisch getaktete Webstühle. Elektromechanische Rechenmaschinen tauchten dann im ausgehenden 19. Jahrhundert auf. Erstmals verwendet wurden sie in den USA zur Volkszählung 1890 (Kurzweil 2012: 251). Trotz der Weite des Landes und der Einwandererströme war sie in sechs Wochen durchgeführt und nach zweieinhalb Jahren ausgewertet (Press 2013). Leibniz‘ Vision wurde erst zur Mitte den 20. Jahrhunderts umgesetzt, als zelluläre Automaten konstruiert werden konnten. In ihnen lassen sich Arbeitsschritte beliebig zerlegen und in diesen kleinsten Schrittchen dann wie in den Zellen eines Gehirns arbeitsteilig und miteinander kombiniert erledigen. Computer sind solche zellulären Automaten. Ihr Kern ist ein Zentralprozessor, in dem Zellen mit Hilfe elektrischen Stroms zugleich rechnen und speichern. Er kann auf den ersten Blick wenig, nämlich „nur“ die zwei unterschiedlichen elektrischen Spannungszustände an oder aus registrieren und verarbeiten. Das tut er aber erstens in maximal möglichem Tempo, nämlich mit Lichtgeschwindigkeit, zweitens auf kleinstem, mittlerweile molekular kleinem Raum und drittens parallel, das heißt: Seine Zellen erledigen eine Vielzahl von Registrierungs- und Verarbeitungs-, also Rechenaufgaben zur selben Zeit. Computer sind der sichtbarste Teil einer technischen Revolution, die die Welt in den letzten fünfzig Jahren zunehmend umgekrempelt hat und weiter verwandelt. Ihr Kern ist die Elektronisierung zunehmend aller technischen Vorgänge und damit ihre Digitalisierung. Sie führt geradewegs in die Welt von Big Data. Aus einer größeren Zahl kluger Köpfe, die sie vorangebracht haben, seien hier in der Reihenfolge ihrer Geburtstage drei genannt, die für die Digitalisierbarkeit der Welt besonders wichtig sind. Es sind erstens der ungarisch-amerikanische Mathematiker und Vater der Spieltheorie John von Neumann (1903-1957); er spielte in den Jahren des Zweiten Weltkriegs als Computerpionier im sogenannten Manhattan-Projekt zum Bau der ersten Atombombe eine tragende Rolle und präsentierte 1946 den ersten militärisch genutzten Computer ENIAC. Als zweiter ist der deutsche Erfinder Konrad Zuse (1910-1995) zu nennen; er beschäftigte sich schon seit 1935 mit programmierbaren Computern auf der Basis binärer Zeichen und präsentierte 1941 seinen ersten Computer, konnte ihn aber nicht mit Vakuumröhren ausstatten, weil das NS-Regime Computer nicht als kriegswichtig einschätzte 1.1 Die Entwicklung des Computers im Zeitraffer 15 (Kurzweil 2012: 189). Der dritte Pionier ist der britische Logiker und Mathematiker Alan Mathison Turing (1912-1954), dessen Arbeit sogar kriegsentscheidend war, mittlerweile verfilmt wurde und uns gleich noch etwas genauer beschäftigt. 1936, ein Jahr nach Zuses Innovation, schreibt dieses englische Computergenie Alan M. Turing seinen Aufsatz „on computable numbers“. Im Jahr darauf erscheint sein Text auch gedruckt (Turing 1937). Darin entwickelt er das Konzept einer Turing machine. Es ist zunächst nur eine Idee. Aber sie definiert das Arbeitsprinzip aller späteren Computer, die als Universalmaschinen mehr oder weniger schnell und elegant jedes mathematische Problem lösen können, das sich mit Algorithmen bearbeiten lässt. Turings Geniestreich versetzt die Briten während des Zweiten Weltkriegs in die Lage, mit dem Rechnersystem Colossus im Forschungszentrum Bletchley Park bei London (Hinsley/ Stripp 2005) das Verschlüsselungssystem Enigma der deutschen Marine und mit ihm deren Funksprüche zu knacken. Das war der „erste große Erfolg der Informatik“ (brand eins 2016) und für den Sieg der Alliierten auf See der entscheidende Durchbruch. Nach den Worten des US-Oberbefehlshabers und späteren Präsidenten Eisenhower ist es sogar der „kriegsentscheidende“ Schlüssel gewesen, um den U-Boot-Krieg zu gewinnen (Ulbricht 2005). Nach dem Krieg arbeitet dieser „überragende Theoretiker der Berechenbarkeit“ (Mainzer 2014a) in Großbritannien am Projekt ACE (Automatic Computing Engine) und ab 1949 an der Universität Manchester an der software für den ersten zivilen Computer Manchester Mark 1 (ibid.). 1942 stellt der science fiction-Autor Isaac Asimov seine Roboter„gesetze“ vor. Sie bestehen aus drei einfachen und klaren Forderungen: Erstens: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen wissentlich Schaden zugefügt wird. Zweitens: Er muss menschlichen Befehlen gehorchen, es sei denn, der Befehl widerspricht Punkt 1. Und er muss drittens die Existenz der Menschen beschützen, solange das nicht mit Regel 1 oder 2 kollidiert. 1943 sagen Warren McCulloch und Walter Pitts erstmals künstliche Neuronen voraus (McCulloch/ Pitts 1943). Im selben Jahr baut der deutsche Erfinder Konrad Zuse seinen ersten Computer mit dem Namen Zuse 3 und legt 1945 die weltweit erste Version einer höheren Programmiersprache namens Plankalkül vor. Praktisch verwendet wird diese Sprache allerdings nicht. 1969 beschreibt er in seinem Buch „Rechnender Raum“ das Universum und seine physikalischen Zustände als einen gewaltigen zellulären Automaten. 1946 wird nach dem Konzept des Mathematikers John von Neumann der erste fast vollständig frei programmierbare Computer fertiggestellt, der amerikanische Electronic Numerator, Integrator and Computer (ENIAC). Nach seinen Prinzipien arbeiten seither alle Computer. Dieser erste ENIAC gehört damals dem Militär. Was ist da Grundlegendes passiert? „Ein Computer verlangt, dass alles aus dem kontinuierlichen Fluss unserer Alltagswirklichkeit in ein Raster von Zahlen umgewandelt wird, das als eine Darstellung der Wirklichkeit abgespeichert werden kann, die sich dann mit Hilfe von Algorithmen manipulieren lässt“ (Berry 2014: 48). Fairerweise ist zu sagen: Computer selbst verlangen gar nichts. Wir programmieren sie vielmehr auf bestimmte Leistungen. Computer und die sie verbindenden Netze galten anfan gs als bloße Hilfsmittel und die „Leistung der Maschine als Diener“, nicht als „ihr Beteiligter, der eine kritische Betrachtung ermöglicht“ (McCarty 2009). In den letzten zehn Jahren haben viele Menschen aber zu begreifen begonnen, dass aus dem Hilfsmittel Computer in hohem Tempo ein Mit- Arbeiter und zunehmend ein Vor-Arbeiter wird. Er kann nämlich vieles bereits schneller und besser als wir. Die Technik hat im Umgang mit Daten also neue Qualitäten erzeugt. Diese Leistung nennt man üblicherweise Künstliche Intelligenz. Schon im ausgehenden 20. Jahrhundert erwies sich, dass sich mit Computerhilfe die gesamte Welt neu organisieren lässt. Nicht zufällig kommen im Wortschatz von Computer- 16 1 Milliarden in Millisekunden experten die Begriffe global, Welt und Planet signifikant häufig vor, etwa in der IBM- Initiative smarter planet, im Google-Motto „organize the world‘s information“ oder in Google- Papieren wie etwa „web search for a planet“ (Barroso et al. 2003). Auch in Überlegungen zum Computerprogramm quantum relations ist dieses Vokabular immer wieder zu finden. Quantum relations werden uns im Kapitel 3 dieses Buchs noch detailliert beschäftigen. Dass Google das Wort Information in seinem Motto verwendet, ist gewiss gut durchdacht. Denn mit „Information“ ist nicht nur gemeint, dass wir „im Zeitalter digitaler Informationsverarbeitung durch Computer leben, sondern dass wir Information überall entdecken können: So werden aus Nullen und Einsen die Datenströme sozialer Netzwerke und aus Marktplätzen ‚hochkomplexe Informationssysteme‘ - von der Quantenphysik bis zur Evolutionstheorie, vom algorithmischen und nachrichtentechnischen Begriff zur experimentellen Hirnforschung“ (Mainzer 2016b). 1950 überlegt Alan Turing, wie man feststellen kann, ob eine Maschine selbstständig unterscheiden und damit denken kann. Seine Antwort gibt er in einem Bild: Kommuniziert eine Testperson mit zwei anonymen Gesprächspartnern ohne Blickkontakt nur via Tastatur und Bildschirm und kann sie dabei nicht unterscheiden, wer von den beiden Antwortenden Mensch oder Maschine ist, dann hat die Maschine diesen Test bestanden. Heute löst dieser berühmte Test nur noch wenig Begeisterung aus. Wissenschaftler finden, er gehe am inzwischen erreichten Forschungsstand vorbei. Experten wie Francesca Rossi, KI-Forscherin an der Universität Padua, jetzt bei IBM, fordern daher neue Teststandards (Henssler 2018). 1951 nehmen die ENIAC-Pioniere (vgl. 1946) John Mauchly und John Presper Eckert ihren ersten wohnzimmergroßen und 13 Tonnen schweren zivilen Computer mit 5.200 Röhren und 18.000 Kristall-Dioden in Betrieb, den UNIVAC I. Er macht für das United States Census Bureau, also das statistische Amt, knapp zweitausend Rechenoperationen pro Sekunde. Die Trends zur US-Präsidentschaftswahl 1952 berechnet er verblüffend genau (brand eins 2016). Anfang 1952 erhält auch die US Air Force einen UNIVAC. Exemplar Nummer 5 geht im selben Jahr an den Fernsehsender CBS, um Ergebnisse der Präsidentschaftswahl vorherzusagen. Auch er rechnet korrekt. Marvin Minsky, ein Pionier der Künstlichen Intelligenz, baut im selben Jahr für seine Dissertation den Prototypen eines Neurocomputers. Und in Deutschland gründet der junge Physiker Heinz Nixdorf sein IT-Unternehmen. 1955 treffen sich am Dartmouth College im US-Bundesstaat New Hampshire Forscher, unter ihnen John McCarthy und der spätere „Vater der künstlichen Intelligenz“ Marvin Minsky, um mit Wissen über sogenannte neuronale Netze im Gehirn des Menschen ein Projekt für das Lernen und alle anderen Merkmale der Intelligenz aufzusetzen. Es soll so genau sein, dass danach eine Maschine gebaut werden kann, die diese Vorgänge simuliert. Sie soll, so hoffen die Forscher, so kreativ sein wie der homo sapiens, sich ständig selbst verbessern und mit Zufällen umgehen können. Auch wenn die Entwickung des homo sapiens Millionen Jahre dauerte: Die Wissenschaftler rechnen für sechs Forscher, einige Praktikanten und eine Sekretärin mit einer Projektzeit von nur drei Jahren. Die Realität sieht allerdings anders aus: An diesen Zielen wird bis heute gearbeitet. 1957, nicht lange nach der Dartmouth-Konferenz, legen der spätere Wirtschaftsnobelpreisträger Herbert Simonund der Informatiker Allen Newell ihr Konzept für einen general problem solver (GPS) vor. Diese Maschine soll Fragen aller Art mit künstlicher Intelligenz beantworten. Er kann aber nur zum Beweisen simpler Theoreme aus Logik und Geometrie, Wortpuzzles oder Schach angewandt werden. 1958 berichtet die New York Times von einem ‚lernenden Computer‘ der US-Navy. Er kann nach 50 Versuchen rechts von links unterscheiden. 1965 wird der erste Roboter entwickelt, der ansatzweise Muster erkennen kann: Forscher am Stanford Research Institute in Menlo Park, Kalifornien, bauen in diesem Jahr Shakey zu- 1.1 Die Entwicklung des Computers im Zeitraffer 17 sammen (Eberl 2016: 43). Die Microsoft-Gründer Bill Gates und Paul Allen lassen sich von Shakey ebenso inspirieren wie Arthur C. Clarke, der 1968 zusammen mit dem Regisseur Stanley Kubrick im Kinofilm „2001 - Odyssee im Weltraum“ dreht, mit HAL 9000 als Prototyp einer gefährlichen Computerintelligenz. 1966 stellt der aus Berlin stammende, an der Entwicklung des Internetvorgängers Arpanet beteiligte Informatiker Joseph Weizenbaum am Massachusetts Institute of Technology (MIT) das Computerprogramm Eliza vor. Es simuliert einen intelligenten Dialog mit Menschen gerade so, wie sich Turing das vorgestellt hatte. Tester glauben, das Programm sei wirklich so schlau. Aber tippt man ein: „Ich bin tot“ ein, gibt Eliza lediglich zurück: „Und wie fühlt es sich an, tot zu sein? “ Weizenbaum ist damals davon überzeugt, dass man Maschinen nicht zum Denken bringen könne, wenn man versuche, die menschliche Denkweise maschinell nachzubilden. Vielmehr müsse man die Menschen stärker wie Maschinen behandeln, indem man ihnen einen Spiegel vorhält (Hankey 2017: 93). Künstliche Intelligenz, glaubt der deutschstämminge Professor damals, sei zwar möglich, aber extrem gefährlich. Niemals dürften Computer folglich selbst etwas entscheiden. Denn zu Urteilsvermögen und Emotionen seien sie nicht fähig (ibid). Sie können allerdings emotionale Äußerungen von Menschen erkennen und deuten. Werbestrategen nutzen diese maschinelle Leistung heute, um ihre Botschaften noch gezielter zu setzen. Die IT-Welt verdankt Joseph Weizenbaum später den ersten lauten Zwischenruf gegen einen mechanistischen Maschinenglauben im Zeitalter der Digitalisierung. Die Titel seiner Bücher sprechen für sich: 1977 „Die Macht der Computer und die Ohnmacht der Vernunft“ und 1993, in der aufkommenden Interneteuphorie „Wer erfindet die Computermythen? “ Trotz solcher Skepsis hält die stürmische Weiterentwicklung der Computertechnologie ungebremst an. Der amerikanische Experte Ray Kurzweil wagt im Jahr 2000 über Computer eine Prognose: Als „sinnliche und spirituelle Maschinen des 21. Jahrhunderts“ seien sie von unserer Kultur nicht mehr zu trennen (Kurzweil 2000: 208). Heute wird dazu von Cyborgs gesprochen. 1999 sagt Kurzweil voraus, 2009 würden Menschen ein Dutzend Computer am Körper tragen (ibid.: 295) - eine Vorhersage, die sich - wenn auch mit einem Jahrzehnt Verspätung - als tendenziell richtig erweist. Und für 2019 lautet seine Prognose, Computer würden bis dahin „weitgehend unsichtbar überall eingebettet“sein - in Wände, Tische, Stühle, Schreibtische, Kleider, in Schmuck und im Körper“ (ibid.: 314). Mit dem Internet der Dinge kommt derzeit genau dies auf uns zu. Nur sprechen wir statt von in den Dingen eingebetteten Computern von Sensoren. In der Tendenz hat Kurzweil richtig gelegen. Ein einzelner Transistor auf Mikrochips ist bereits deutlich kleiner als das kleinste Grippevirus (Eberl 2016: 49), und Sensoren in Allerwelts-Haushaltsgeräten werden so normal und so billig wie fließendes Wasser. Der wissenschaftliche Dienst des deutschen Bundestages spricht vom Internet der Dinge ganz treffend als vom ‚Allesnetz‘ (Borgmeier/ Grohmann 2017: 5). Weiter ist Kurzweil im Jahr vor der Jahrtausendwende davon überzeugt, dass damals 4000 Dollar teure Computer innerhalb von zwei Jahrzehnten ein Zehntel davon kosten, aber die Leistung des menschlichen Gehirns erreichen würden (ibid.: 315 f.). Dieser Preissturz gilt für Standard-PCs tatsächlich, für Hochleistungscomputer natürlich nicht. Den prognostizierten Zeitraum dieser Entwicklung sollten wir nicht wörtlich nehmen - aber in der Tendenz lag Kurzweil auch hier richtig. Der Vergleich mit der „Rechen“leistung des menschlichen Gehirns wird längst angestellt. Das beste Smartphone von heute ist mit rund hundert Milliarden Rechenoperationen pro Sekunde bereits fast so schnell wie es der beste Supercomputer Mitte der 1990er-Jahre war (Eberl 2016: 48). Für einen Blick voraus kann man diesen Vergleich getrost umdrehen: „Alles in allem werden wir in den nächsten 20 bis 25 Jahren - also bis 2035 oder 2040 - noch einmal eine Vertausendfachung der Rechenleistung, der Speicherfähigkeit und der Datenübertragungsrate von Mikrochips erleben. Auch 18 1 Milliarden in Millisekunden eine Verzehntausendfachung bis 2050 ist ohne Weiteres drin. Das was ein heutiger Supercomputer kann, könnte also bis 2040 oder 2050 für weniger als 500 Euro in jedem Smartphone stecken“ (ibid.: 52).Zur Erläuterung: Die derzeit leistungsfähigsten Supercomputer der Welt, Titan am Oak Ridge National Laboratory in Tennessee, USA, und Tianhe-2 im chinesischen Guangzhou, haben Arbeitsspeicher zwischen 700 und 1400 Terabyte und erreichen mit 18 bis 34 Billiarden Rechenoperationen pro Sekunde die Größenordnung des menschlichens Gehirns. Allerdings benötigen sie zwischen acht und 18 Megawatt elektrischer Leistung. Das ist der Bedarf einer deutschen Stadt mit 20.000-Einwohnern. Dem Gehirn genügt zum Anhören eines halbstündigen Vortrags die Energiezufuhr eines Esslöffels Joghurt. Für eine eineinhalbstündige Präsentation verbraucht es die Energie einer Praline von gerade einmal fünf Gramm (ibid.: 146). Bis die Technik es mit der Effizienz von uns Menschen aufnehmen kann, ist der Weg also noch weit. Heute ist das beste Smartphone mit rund hundert Milliarden Rechenoperationen pro Sekunde wie erwähnt fast so schnell wie der beste Supercomputer Mitte der 1990er-Jahre (ibid.: 48). Dieses Tempo ist schon gigantisch. Eine für die Kommunikation grundlegende Fähigkeit geht Computern und damit auch Smartphones dagegen derzeit noch ab. Sie können noch nicht sprechen. Wir nehmen in Kauf, dass wir uns bisher in der Sprache ausdrücken müssen, die Computer verstehen: in Zeichen und Zahlen, genauer in binären Zeichen, in Bits. Das ändert sich aber: Algorithmen lernen die Vorlieben der Nutzer. Sie sollen „flüssige Unterhaltungen mit dem Computer möglich machen“ (Schulz 2017: 18) und können das in Grenzen bereits. In bestimmten Themenfeldern können Systeme zur Sprachanalyse die natürliche Sprache schon jetzt verstehen und interpretieren. Sie können Fragen im Dialog mit den Menschen beantworten und dabei ständig weiterlernen. Fujitsu setzt Simultanübersetzungs-Software ein, die sich selbstlernend weiterentwickelt. Sie wird beispielsweise in japanischen Krankenhäusern genutzt. Dort verbessert sie in bis zu 50 Sprachen den Dialog mit Patienten - freilich nur mit hochleistungsfähiger Hardware im Hintergrund (Fujitsu 2017: Media Day). 2017 stellte das Unternehmen sein Sprachsystem Live Talk vor. Es wurde für Menschen mit eingeschränktem Hörvermögen entwickelt sowie für jede Form von Kommunikation, die in anderen Sprachen funktionieren soll. Das gesprochene Wort wird dazu über eine Spracherkennung in schriftlichen Text umgewandelt, und der wird auf einem PC, Tablet oder Smartphone angezeigt (Schonschek 2017). Der chinesische Internetkonzern Baidu erreicht nach seinen Angaben bei der automatischen Spracherkennung bereits eine Trefferquote von 97 Prozent, bei der Gesichtserkennung sogar von 99,7 Prozent. Die Spracheingabe funktioniert dreimal schneller als als Eintippen von Text und erzeugt zumindest im Chinesischen zwei Drittel weniger Fehler (Der Spiegel 2017: 20). 1 1..22 DDi ie e ggrro oß ße en n BBe ewwe egge err -- ddi ie e DDaatteennkkrraakkeenn Das kybernetische Universum der Gegenwartheißt Cyberspace. Dieser Name geht auf den Schriftsteller William Gibson zurück; er hatte ihn sich im letzten Band seiner ‚Neuromancer‘-Trilogie 1982 ausgedacht, einer literarischen Weiterführung von Gedanken des Mathematiker Norbert Wiener (Kreye 2017). In diesem Cyberspace sind Microsoft, Apple und Google, die sozialen Netzwerke Facebook, Twitter und weitere wie YouTube, Instagram, Tumblr sowie Medienkonzerne die großen Beweger. Kritiker nennen sie wie schon erwähnt Datenkraken, weil sie via Internet milliardenfach Daten absaugen, aufbereiten und vermarkten. Ihre Namensliste ließe sich fortsetzen; ihre Rangfolge muss aber immer wieder neu justiert 1.2 Die großen Beweger - die Datenkraken 19 werden. Hier eine Übersicht über die Konzerne, deren Namen jeder kennt, deren Herkunft und Macht aber keineswegs allgemein bekannt ist. Microsoft 1975 gründen Bill Gates und Paul Allen das Unternehmen Microsoft. Erste Erfolge bringt ein BASIC-Interpreter. 1981 kommt das im Auftrag von IBM entwickelte Betriebssystem MS-DOS auf den Markt, im Jahrzehnt darauf das grafische Betriebssystem Windows und das Software-Paket Office. Beide dominieren den PC-Weltmarkt. PCs, also personal computers, haben den Umgang mit Rechnern von der anonymen Ebene der Regierungen, ihrer Militärs und der großen Konzerne zuerst zum einzelnen Beschäftigten in socheen Firmen und dann zum einzelnen Bürger verlagert. Der Effekt: Microsoft ist heute mit weit über 100.000 Mitarbeitern der größte Software-Hersteller der Welt. Apple 1976 starten Steve Jobs, Steve Wozniak und Ronald Wayne anfangs als Garagenfirma den Elektronikkonzern Apple, den Jobs nach einer Unterbrechung ab 1997 bis zu seinem Tod 2011 leitet. Das Unternehmen entwickelt und vertreibt zunächst Betriebssysteme, Anwendungs-Software und Computer. Die grafischen Benutzeroberflächen auf Bildschirmen und die Computermaus gehen in den 1980er Jahren wesentlich auf Apple zurück. Mit dem iPod (2001), dem iPhone (2006) als erstem Smartphone und dem iPad (2010) als erstem Tablet erfindet Apple weitere Produktfelder. 2003 gestaltet mit dem ersten Download-Portal iTunes Store für Musik und Filme diesen Markt wesentlich mit. iTunes und der 2008 eröffnete App Store gehören zu den meistgenutzten Absatzwegen für digitale Güter. Das Unternehmen gehört inzwischen zu den größten der Welt. …“‡} überschreitet Apple als erste Firma die Marke von einer Billion US-Dollar Börsenwert. Damit setzt sich der iPhone-Konzern gegen Alphabet, Amazon und Microsoft durch (Brien 2018a). Google 1998 verfassen Larry Page und Sergey Brin ihre Facharbeit über the antonomy of a large-scale hypertextual web search engine (Brin/ Page 1998) und gründen im selben Jahr im kalifornischen Palo Alto ihre Firma Google. Das ist vier Jahre nach der ersten Volltext-Suchmaschine für das Internet namens WebCrawler, die anders als Google den Rang einer Webseite noch allein aus der Seite selbst abgelesen hatte. Page und Brin schalten im November dieses Jahres mit dem Slogan Search the web using Google! ihre erste deutlich komplexer arbeitende Suchmaschine mit einer anderen Suchsystematik frei: Bei Google bestimmen links wesentlich darüber mit, wie prominent eine Seite präsentiert wird. Schon im ersten Monat schießen die Zugriffe der Nutzer auf 50.000 hoch und verzehnfachen sich in nur vier Monaten auf eine halbe Million. 2015 liegen sie bei unvorstellbaren 2834 Milliarden (https: / / de.statista.com). Inzwischen bestimmt Google den page rank einer Webseite längst nicht mehr nur nach Art und Menge der links, sondern nutzt ca. zweihundert sogenannte Signale um zu entscheiden, wie weit oben in Suchergebnissen eine Seite angezeigt wird (Drösser 2016: 60). Welche Signale das sind, ist vertraulich. Das BetriebssystemMicrosoft Windows besteht aus etwa 50 Millionen Zeilen. Das Google- Suchprogramm ist vierzigmal so groß; es braucht rund zwei Milliarden Zeilen. Das ist so komplex, dass Google ein eigenes Programm namens Piper nutzt um sicherzustellen, dass alle 25.000 Google-Entwickler mit derselben Version diverser Algorithmen arbeiten - wir erörtern noch, was das ist - und dass es keine Inkonsitenzen gibt. Dort wirkt also „ein Algorithmus als oberster Hüter der Algorithmen“ (Drösser 2016: 230). Als „Gründungs-DNA“ bezeichnet Google die computerbasierte Künstliche Intelligenz (Google 2016a). Big Data 20 1 Milliarden in Millisekunden spielen für das Unternehmen und seine Kunden schon seit Jahren eine tragende Rolle. So sagte Google schon 2009 aus Big Data-Analysen den Ausbruch einer Grippewelle in den USA richtig voraus, lag allerdings später daneben (Näheres im Kapitel Gesundheit). Der Anspruch von Google ist so einfach wie umfassend: „Grundlegend wollen wir die Informationen der Welt organisieren und für alle Menschen zugänglich machen“ (Google- Sprecher Robert Lehmann). Damit ist das Unternehmen schon recht weit: Zu den Datenbeständen, die man bei Google abrufen kann, gehören der book corpus mit bisher 3,5 Millionen englischsprachiger digitalisierter Bücher aus den letzten zweihundert Jahren, die Git- Hub Data mit 2.8 Millionen open source-, also öffentlich zugänglichen Quellen (GitHub ist ein Onlinedienst, der Software-Entwicklungsprojekte auf seinem Server bereitstellt), über 145 Millionen Einzeldaten und mehr als zwei Milliarden file paths über die Namen und Geburtstage aller US-Amerikaner seit 1879, die eine Sozialversicherung besaßen oder besitzen. Ferner hält Google Übersichten der US-Behörden über alle zwischen 1888 und 2013 in den USA aufgetretenen Krankheiten sowie über Verordnungen und Kosten für ärztliche Behandlungen und Rezepte bereit, enorme Mengen von Wetterdaten, alle Daten des Geo- Satelliten Landsat seit 1982 und des ESA-Satelliten Sentinel 2, weitere Rasterungen der Erdoberfläche. Schließlich kann man dort 2500 Genome von 25 Völkern rund um den Globus und große weitere Genom-Datenbanken ebenso abrufen wie Datenbestände zu allen Taxifahrten in New York City seit 2009 und alle registrierten Hacker-Angriffe. Aus Analysen der 170 Millionen New Yorker Taxifahrten ließ sich beispielsweise ablesen, wo sich kurz vor politischen Entscheidungen die Aktivitäten von Lobbyisten ballten und woher Besucher einschlägiger Nachtclubs kamen (BMBF/ Wi 2018: Federrath). Öffentlich zugängliche Daten stellt Google in seiner cloud kostenfrei bis zu einem Terabyte pro Monat bereit. Bezahlt werden muss die Aufbereitung und Auswertung je nach Zeitaufwand. Facebook 2004 gründet der heutige Milliardär Mark Zuckerberg seine Plattform Facebook als zunächst exklusives Netzwerk der Harvard University. Schritt für Schritt öffnet er sie für weitere Universitäten, expandiert ins Ausland, bis schließlich 2006 jedermann zugelassen wird, der älter als 13 Jahre ist (Stampfl 2013: 23). Das Unternehmen wächst stürmisch. Im Sommer 2006 will Yahoo Facebook für eine Milliarde Dollar übernehmen (Schulz 2018: 16). Aber der Firmengründer Mark Zuckerbeerg verkauft nicht. 2010 erklärt Facebook-Teilhaber Thiel: „Google organisiert die Informationen der Welt, Facebook aber organisiert die Menschen der Welt“ (ibid.). Das wird mit stetig steigenden Nutzerzahlen jedes Jahr ein Stück wahrer. Als das Unternehmen zwei Jahre später, am 18. Mai 2012, an die Börse geht und dabei 16 Milliarden Dollar einnimmt (ibid.), schreibt Zuckerberg in einem öffentlichen Brief, Facebook sei „gebaut, um eine soziale Mission zu erfüllen, die Welt offener zu und enger zu verbinden“. „Welches Unternehmen“, fragt später Der Spiegel, „beglückt bei seinem Börsengang mit einem politisch-ideologischen Leitfaden? “ (ibid.) und gibt selbst eine Antwort: „Die Mission dient nicht nur als Antrieb, sondern als Rechtfertigung: Alles ist erlaubt, wenn es die Welt besser macht“ (ibid.). Noch melden sich Kritiker nicht zu Wort, die später sagen werden, die permanente Kommunikationsdynamik dieses Netzwerks diene „zur Autohypnose einer Bevölkerung, die gutgelaunt zuschaut, wie die Grundrechte abgebaut werden“ (Emcke 2018). Noch bleibt auch eine Bemerkung Zuckerbergs weitgehend unbeachtet, die zeigt, wie kalt ihn das lässt: „Ein Freund fragt Zuckerberg, warum so viele Menschen freiwillig ihr Leben auf Facebook offenlegen würden. Seine Antwort: weil sie ‚dumb fucks‘ seien; Vollidioten“ (Schulz 2018: 15). Noch sagt Tim Cook, der Apple-Chef, nicht: „Ich habe keine eigenen Kinder, aber einen Neffen: Ich will nicht, dass er soziale Netzwerke nutzt“. Später wird er das sagen (ibid.: 13). 1.2 Die großen Beweger - die Datenkraken 21 Zum Zeitpunkt des Börsengangs hat dieses soziale Netz 720 Millionen aktive Nutzer (Moorstedt 2013b: 90, vgl. Leistert 2011), Mitte 2015 leitet es mehr Leser auf die Websites von Medien als Google. Aber viele folgen solchen linkszu Medienhäusern gar nicht mehr, sondern lesen ihre Nachrichten nur noch direkt bei Facebook. „Der Konzern wird zur dominierenden Kraft der globalen Medienbranche - und weigert sich zugleich, Teil von ihr zu sein“ (Schulz 2018: 19); denn was Medien traditionell leisten, Nachrichten einzuordnen, zu bewerten und zu kommentieren, weist Facebook von sich - es sei lediglich eine Plattform, auf der andere ihre Information und Überzeugung anbieten könnten, nicht mehr. „Facebook hätte die power, die Menschheit subtil zu ändern“, urteilt der Spezialist für Künstliche IntelligenzRamin Assodolahi(BMBF/ Wi 2018: Assodolahi), aber versucht genau das nicht zu tun. „Jeder, der bis drei zählen konnte, wusste, dass Facebooks Geschäftsmodell nun einmal darin besteht, Daten zu sammeln und weiterzuverkaufen“, sagt auch der Sprecher des Deutschen Ethikrats Peter Dabrock (Anger 2018). Das Ansinnen, Facebook müsse sein Geschäftsmodell ändern, sei utopisch. „Das kann man natürlich fordern, aber es wäre das Ende von Facebook“, sagte Dabrock dem Handelsblatt. Denn dieses Modell finde in einer hochkompetitiven Globalwirtschaft statt. „Wettbewerber sitzen mit Alibaba und Tencent vor allem in China“ (ibid.). Auf einzelne Gefahren reagiert das Netzwerk taktisch klug, aber strategisch belanglos. Als beispielsweise ein Selbstmörder sein Selbstmordvideo ins Netz gestellt hat, lässt Facebook die persönlichen Daten aller Nutzer auf Anzeichen von Suizidgefahren durchforsten und gibt denen, die dabei auffallen, ungefragt Ratschäge. Reine Menschenfreundlichkeit ist das nicht; „Facebook schaltete diese Warnung aus wirtschaftlichen Erwägungen (BMBF/ Wi 2018: Dabrock). Dass clevere Internetnutzer die Facebook-Plattform manipulatorisch einsetzen könnten, blendet das Unternehmen lange aus, selbst noch, als Facebook von Russen missbraucht wird, die, als Amerikaner getarnt, Ende 2016 Hunderttausende Facebook-Nutzer in russisch kontrollierten Gruppen zusammentreiben, in denen sie mit fake news zugeschüttet werden, um sie für die Botschaften des damaligen Präsidentschaftsbewerbers Trump empfänglich zu machen. Ein US-Sonderermittler klärt das ein Jahr später auf. Er klagt Facebook nicht an, lässt aber keinen Zweifel daran, dass Facebook das zentrale Instrument für diese organisierte Wahlmanipulation durch ausländische Kräfte war. Im Herbst 2017 muss Zuckerbergs Unternehmen zugeben, dass 150 Millionen Amerikaner auf seiner Plattform Propaganda serviert bekamen, die russische Geldgeber bestellt und bezahlt hatten (Schulz 2018: 22). In den Augen des Spiegel-Redakteurs Rosenbach erscheinen Facebook und Co. deshalb „nicht mehr als Förderer der Demokratie, sondern als Werkzeuge destabilisierender Mächte - als zunehmend unheimliche Orte, wo sinistre Strippenzieher insgeheim Meinungen beeinflussen, Desinformation verbreiten, Zwietracht säen und demokratische Wahlen manipulieren“ (Rosenbach 2018). Heute loggen sich pro Tag 1,37 Milliarden Menschen bei Facebook ein, fast ein Fünftel der Weltbevölkerung (Busse/ Martin-Jung 2018). Insgesamt hat Facebook inzwischen weltweit über zwei Milliarden Nutzer (ibid). Die aufgekaufte Video- & Foto-Plattform Instagram, die seit 2010 existiert, und der 2009 gegründete Messenger-Dienst WhatsApp, ebenfalls von Facebook übernommen, haben ebenfalls Nutzerzahlen an der Milliardengrenze (Schulz 2017: 15). Millionen Nutzer finden es gut, sich via Facebook öffentlich zu präsentieren. Sie kommunizieren mit Freunden aus ihrem realen Leben ebenso wie mit Personen, die sie noch nie gesehen haben, und das so intensiv, dass allein die Anzahl der täglich bei Facebook hochgeladenen Fotos größer ist als die sämtlicher Kunstwerke in allen Museen der Welt (Manovich2014: 66). Bei Facebook, Twitter & Co. tummeln sich 2017 weltweit über zweieinhalb Milliarden Nutzer, ein Drittel der Erdbevölkerung (Bastien 2016). Das macht das Unternehmen zu einem der 22 1 Milliarden in Millisekunden einflussreichten und auch reichsten der Welt. Jedes Jahr, heißt es, verdiene Facebook mit den Daten jedes Nutzers einbis zweitausend Euro (Behrens 2018a: 64). Seit Anfang 2018 kann man bei Facebook, das sich zu einer ernsthaften Konkurrenz für den Videokanal YouTube entwickelt hat, nicht nur Fotos und Videos ansehen und auch digital Rundfunk hören, sondern sogar eigene Rundfunksendungen verbreiten. Dazu hat die baden-württembergische Landesmedienanstalt dem Anbieter #imländle die Lizenz für ein regionales streaming erteilt. Solche live streams sind nämlich Rundfunk, wenn sie journalistisch-redaktionell gestaltet werden, sich an die Allgemeinheit richten und anhand eines Sendeplans in gewisser Regelmäßigkeit linear verbreitet werden. Bei dem, was die Bloggerin Petra Nann #imländle anbietet, ist das der Fall (Landwehr 2018). Facebook bleibt bis auf weiteres der Platzhirsch der sozialen Netzwerke. Facebook kann mit einer software, die vorerst nur bei Fotos von Sehenswürdigkeiten, bei Büchern, Kunstgegenständen, Lokalen, Wein und Logos eingesetzt wird, gepostete Bilder analysieren, das Abgebildete identifizieren und es durch Zusatzinformationen aus dem Netz ergänzen. So lassen sich auch Gesichter erkennen und identifizieren. „Im Nu wüsste man, wo der Gesprächspartner oder jeder beliebige Passant arbeitet, woher er kommt, wie alt er ist, wo er wohnt, welche Musik er gerne mag und noch vieles mehr“ (Stampfl 2013: 27). Zu Recht fragt Stampfl: Bedeutet das nicht das Ende der Anonymität im öffentlichen Raum? Inzwischen berichtete Der Spiegel: „Bei einer Hähnchenbraterei im ostchinesischen Hangzhou bestellen Gäste ihre frittierten Chicken Wings an einem Computerterminal. Bezahlt wird mittels 3D-Gesichtserkennung und Telefonnummer. Nur wenige Sekunden dauert diese Prozedur. Es geht darum, Fast Food noch schneller zu machen - und Daten zu sammeln. Der Werbespruch dazu lautet: ‚Zahlen Sie mit einem Lächeln‘“ (Der Spiegel 2017: 20). Diese automatische Gesichtserkennung ist in China vielfach schon Alltag: Gescannte Gesichter von Flugpassagieren ersetzen die Bordkarte. Bahnhöfe, Hotels, Schulen und Kindergärten nutzen sie als Einlasskontrolle (ibid.). Facebook-Nutzer erhöhen mit der Preisgabe privater Informationen die Chance, dass andere das auch tun; „eine positive Feedbackschleife, die immer mehr Zusammenhalt ermöglicht“ (Tamir/ Ward 2017: 115. vgl. Bowles/ Gintis 2002). Das zeigt, wie präsent Plattformen sein können, auch wenn sie wie Facebook gar keine eigenen Inhalte transportieren, sondern nur für fremden content Raum zur Verfügung stellen und in diesem Raum Menschen vernetzen. Innerhalb von nur sechs Jahren ist Facebook „von einem virtuellen Poesiealbum zum Betriebssystem der Welt geworden“ (Moorstedt 2013b: 93). Adamek konnte schon 2011 behaupten: „Wer dort nicht präsent ist, der existiert nicht“ (Adamek 2011: 16); er begründete dies mit einer „diffuse[n] Sehnsucht [der Nutzer] nach einem emanzipatorischen Aufbruch, vielleicht auch nach einem Gegenpol zu den herrschenden Verhältnissen“ (ibid.: 16). Beobachter wie die Gründerin und Direktorin der MIT Initiative on Technology and Self Sherry Turkle bewerten diese von Maschinen organisierte Kommunikation als „einen Ersatz des Menschlichen durch das ‚Maschinistische‘. Die „weniger vorhersagbaren, letztlich aber fordernderen und lohnenderen Beziehungen in den Bereichen Freundschaft, Liebe und Kollegialität“ (Pasquale 2017: 96) würden ersetzt durch roboterisierte Interaktion. Was weniger fordert, werde zunächst als befreiend erlebt. Es drohe aber den eigenen Einfallsreichtum und die eigene Kreativität zu schmälern, „also gerade jene Ressourcen, die die schöne neue Welt der Algorithmen erst ermöglicht haben“ (ibid.). Betrachtet man eine im November 2012 auf Facebook geschaltete Eigenwerbung, zeigt die Firma in einem Film unter anderem Stühle, die Menschen benutzen, die zusammenkommen: „Jeder kann auf einem Stuhl sitzen. Und ist der Stuhl groß genug, können sie sich zusammensetzen“ - das soll heißen: Wer bei Facebook mitmacht, ist Teil einer weltweiten Gemeinschaft. Doll nennt das „Unifizierungsphantasien“ (2014: 467); er versteht sie als glo- 1.2 Die großen Beweger - die Datenkraken 23 bale Versuche, „dadurch Facebook - das ja in erster Linie ein Geschäftsmodell ist - zum wirkungsmächtigen politischen Werkzeug aufzuwerten“ (ibid). Nicht von ungefähr werde der, der den Facebook-Film sieht, mit dem Symbolbild des blauen Planeten und der Silhouette eines fiktiven Kontinents „an das Whole Earth Movement und den weltbürgerlichen Counterculture-Universalismus der 1960er Jahre erinnert“ (ibid., vgl. Turner 2006). „Vielleicht machen wir ja all’ diese Sachen“, heißt es in der Facebook-Eigenwerbung, „um uns daran zu erinnern, dass wir eben nicht alleine sind“ (ibid.: 468). Facebook wertet seine Kenntnisse über seine Nutzer intensiv aus. Dazu dienen like-buttons, Knöpfe, durch deren Antippen man bekunden kann, dass einem etwas gefällt oder missfällt. Aber auch wenn man sie gar nicht berührt: Sie dienen Facebook überall da, wo sie zu sehen sind, dennoch als Zähler dafür, dass von einem bestimmten Gerät aus eine bestimmte Internetseite abgerufen wurde (Busse/ Martin-Jung 2018). Anhand von Metadaten wie Ort und Datum, Geschlecht und Familienstand werden die geposteten Daten gewichtet. Das ist ein „echtes profiling, fast im kriminaltechnischen Sinn“, kritisierte Anfang 2018 der Präsident des Kartellamtes Andreas Mundt. Es gehe um Daten, die für viele wirklich individuell seien und nicht ohne Weiteres zusammengeführt werden dürften. Facebook missbrauche derzeit ganz klar seine Marktmacht (ibid.). Ein Beispiel: Schon 2012 stellte das Unternehmen fest, dass von 260 Millionen Nutzern, die 2008 mit anderen Facebook-Mitgliedern liiert waren, vier Jahre später noch 65 Prozent mit ihrem ersten Partner zusammen waren. Die anderen 85 Millionen bildeten ein dichtes Netz aus Partnern, Ex-Partnern und Ex-Ex-Partnern. „Da ergeben sich manchmal sehr interessante Verbindungen, die ‚Links of Love“, schrieb 2013 Der Spiegel (Höltgen 2014: 385). Mit Sentimentsanalysen kann das System positive und negative Äußerungen unterscheiden. Es diagnostiziert also auch die emotionale Verfassung der Teilnehmer (Bastien 2016). Facebook nutzt mit allen diesen Tricks eine Technologie, „die im Kern dafür konstruiert wurde, psychologische Abhängigkeiten zu schaffen“ (Kreye 2017a). Soziale Netzwerke „machen süchtig, und sie tun einem nicht gut“ (Mark Benioff, Chef von Salesforce, einer der wichtigsten Manager im Silicon Valley (cit. ibid.). Der Facebook-Mitgründer Sean Parker gestand erst 2017 ein, dass dessen Entwickler mit likes und anderen Symbolen „von Anfang an ganz bewusst die Verletzlichkeit der menschlichen Psyche ausgenutzt hätten, um mithilfe kleiner Glückshormon-Ausschüttungen durch das Anklicken und Empfangen solcher digitaler Streicheleinheiten Suchtmechanismenzu entwickeln“ (ibid.). Chamath Palihapitiya, bei Facebook früher für das Nutzerwachstum zuständig, räumte ein: „Sie werden programmiert“. Er fühle „ungeheure Schuld“, dass er geholfen habe, „das gesellschaftliche Gefüge auseinanderzureißen“, weil der Mechanismus der likes usw. den öffentlichen Diskurs verzerrt (ibid.). Mit der Allgegenwart von Facebook steigt die Zahl der Nutzer, die ihrer Ausforschung nicht tatenos zusehen wollen. In diesem Sinn tätig zu werden ist gar nicht so schwer. Jeder Facebook-Nutzer kann nämlich schon jetzt selbst begrenzen, was dieses Unternehmen über ihn ermitteln darf. So fragt Facebook bei jeder Anmeldung den Vor- und Nachnamen ab. Diese Auskunft darf Facebook jedoch nicht erzwingen, urteilte das Landgericht Berlin im Februar 2018. Gegen dieses Urteil hat Facebook Berufung eingelegt; bis zu einem engültigen Urteil kann das Unternehmen falsche Namen deshalb sperren (Strathmann 2018). Auch den Abruf von Standortdaten kann man verhindern, wenn man im eigenen Profil „Aktivitätenprotokoll anzeigen“ anwählt, dann auf „mehr“ klickt, „Standort-Verlauf“ aktiviert und dann „Standort-Verlauf löschen“ wählt. Auf Smartphones wählt man im Menü oben rechts die „Kontoeinstellungen“, dann den „Ort“ oder „Standort“ und deaktiviert den Ortungsdienst. In iPhones oder iPads wählt man in den Einstellungen „Privatsphäre“ und „Ortungsdienst“, deaktiviert ihn auch dort und startet die Facebook-App danach neu. 24 1 Milliarden in Millisekunden Steuern kann man schließlich, auf welche Apps Facebook zugreifen kann. Im Dreieck oben rechts kann man für alle Dienste die Datentransfers unterbinden. Wer die Funktion komplett deaktiviert, kann sich allerdings nicht mehr mit seinem Facebook-Account anmelden und muss eventuell ein separates Konto anlegen. Unter „Von anderen Personen verwendete Apps“ kann man ferner einstellen, welche eigenen Daten Facebook-Freunde an andere Apps weitergeben dürfen. Unter „Werbeanzeigen“ und dann unter „Einstellungen für Werbeanzeigen“ kann man nicht nur personalisierte Anzeigen und die Weitergabe eigener Daten für Werbung anderswo verhindern, sondern auch, dass Facebook unter „Deine Interessen“ auf solche festgestellten und dort hinterlegten Interessen mit gezielter Werbung reagiert. Schließlich: Wer ganz aus Facebook aussteigen will, muss rechts oben ein Fragezeichen im Kreis anklicken. Dann erscheint ein Fenster, in dem man „Konto löschen“ eingeben kann. Bis alle geposteten Beiträge gelöscht sind, kann es allerdings drei Monate dauern (Strathmann 2018). Auch Plattformen wie Facebook kommen im Übrigen in die Jahre, und Nutzergewohnheiten ändern sich. In den USA ist bei jüngeren Menschen, wenn es um Messaging geht, nicht mehr Facebook, sondern Snapchat die Nummer eins (t3n 2018c). Und mit der Nutzerstruktur ändern sich auch die Nutzungsgewohnheiten: „Bis vor ein paar Jahren stand die Followerzahl im Vordergrund. Doch die sozialen Netzwerke reduzieren die organische Reichweite immer mehr, sodass die Followerzahl allein keine Aussagekraft mehr hat. Man muss also mit guten Inhalten das Engagement derjenigen, die man noch erreicht, entsprechend anregen. Wir schauen darauf“, erläutert zum Beispiel BMW Marketingmanager Dreher, „wie viele Leute sich mit unserem Content auseinandersetzen. Das sieht man schon innerhalb weniger Minuten und kann entsprechende Maßnahmen ableiten“ (ibid.). Aber Dreher erwartet, dass das nicht so bleibt: „Am Anfang war Facebook die Plattform für alle Altersgruppen, inzwischen ist es eher in einem mittleren bis höheren Altersbereich vertreten. Als erste Tendenz ging dann vor vier bis fünf Jahren Instagram von einer Plattform eher für Fotografen in den Mainstream über und sprach eine eher jüngere Zielgruppe an. Und Snapchat ist gerade für die ‚jüngste‘ Zielgruppe im Kommen (t3n 2018c). Twitter Den Microblog-Dienst Twitter gibt es erst seit 2006. Der erste tweet wurde am 21. Mai jenen Jahres gesendet. Politiker wie Donald Trump, Privatpersonen, Organisationen, Unternehmen und Massenmedien nutzen dieses soziale Netzwerk als Plattform zur Verbreitung von ursprünglich maximal 140 Zeichen kurzen Textnachrichten (tweets) im Internet. Jeder tweet kann hashtags (#), links (als URL) und Standorte enthalten. Sie werden followern angezeigt - das sind alle Personen, die tweets eines twitterers abonnieren, indem sie ihnen folgen. Über hashtags oder Verlinkungen/ retweets erreichen tweets auch ein breiteres Publikum. Auch die Nutzerzahlen auf Twitter sind gewaltig. Sie stiegen von 30 Millionen pro Monat Anfang 2010 auf 319 Millionen Ende 2016 (de.statistica.com). Das stärkste Wachstum gab es bis Ende 2014. Zu Jahresbeginn 2015 überstieg die Nutzerfrequenz bereits die Marke von 300 Millionen pro Monat. Über Twitter wird gestritten und polemisiert. Dieses Netzwerk, urteilt Schulz, „machte Trump erst möglich, und die Twitter-Mitarbeiter quält dieser Gedanke jeden Tag“ (Schulz 2017: 14). Das mag - wie Trump-tweets auch - stimmen oder nicht: Twitter ist unbestritten ein wesentliches Segment der öffentlichen Meinung. Aber seinen Massenansturm an Texten können Menschen allein gar nicht auslösen. Längst sprechen auch Maschinen Menschen an. Von dem 300 Millionen Twitter-Teilnehmern waren schon 2017 geschätzt rund 60 Millionen social bots (ZDF 2017a.). 1.2 Die großen Beweger - die Datenkraken 25 Beispiele: An dem Tag, an dem die Terrororganisation Islamischer Staat die irakische Stadt Mossul eroberte, stellte sie 40.000 bot-Texte mit Siegespropaganda ins Netz (Leyen 2017: 5). Im letzten US-Präsidentenwahlkampf war die Fernsehdebatte zwischen Hillary Clinton und Donald Trump „gerade einmal drei Minuten alt, da waren zu den beiden Präsidentschaftskandidaten schon mehr als 30.000 tweets zu lesen. Die meisten stammten von Propagandabots“ (Welchering 2016: 14). Solche bots sind darauf programmiert, im Netz Themen aufzuspüren, die der Auftraggeber in der Öffentlichkeit verbreitet sehen will (ZDF 2017a). Sie wirken als Trendverstärker und sind für normale Nutzer von echten tweets nicht zu unterscheiden. In Trumps Wahlkampf kam jeder dritte tweet von einem solchen Automaten, bei Hillary Clinton war es jeder fünfte (ibid.). Bei den Fernsehdebatten befeuerten sich die bots gegenseitig. Diese Technik ist auch hierzulande verfügbar. Alle deutschen Parteien haben aber erklärt, auf sie verzichten zu wollen (ibid.). Die insgesamt enormen Nutzerzahlen machen Twitter zu einer nützlichen Quelle für Big Data-Auswertungen. Mit dem Twitter-Archivierungstool yourTwapperkeeper kann man alle tweets und die zugehörigen Metadaten erfassen und archivieren, die einen bestimmten Suchbegriff, einen Namen oder einen hashtag enthalten. Mit dem Twitter-API (ein solches Application Programming Interface bietet in standardisierten Formaten einen strukturierten Zugang zu Kommunikationsdaten) lassen sich sehr große Archive öffentlich verbreiteter tweets zu Themen oder Interessensbereichen aufbauen. Grundsätzlich liefert das API sehr lange Listen von tweets und die zugehörigen Metadaten. Sie können „extrahiert, kombiniert und visualisiert werden, um die Dynamik der social media-Kommunikation zu verstehen“ (Burgess/ Bruns 2014: 192). Derartige Analysen setzen allerdings eine umfangreiche Technik voraus: Um die tweets von 55 Millionen Nutzern auszuwerten, müssen 58 Server 1,7 Milliarden tweets analysieren (Cha et al. 2010). Die beste Auswertung kann allerdings ein Problem nicht beseitigen: Twitterersagen nicht immer, was sie wirklich denken oder fühlen, sondern agieren auchtaktisch: „Möglicherweise erhoffen sich manche Nutzer positive Konsequenzen wie finanziellen Reichtum oder Ruhm, möglicherweise verfassen andere deshalb so scharf formulierte tweets, die vorgeben, sich über das Verhalten eines Politikers zu echauffieren, weil sie hoffen, damit in den Nachrichten zitiert zu werden“ (Paßmann 2014: 264). Man muss also einkalkulieren, dass manche „‚erfolgreichen‘ twitterer deshalb so ‚erfolgreich‘ sind, weil sie die Erwartungen ihrer follower sehr genau antizipieren und so gleichsam eine Liste von Kriterien darüber haben, was mit ihrem account ‚geht‘ und was ‚nicht geht‘“ (ibid.: 273). Amazon Amazon ist ursprünglich ein Online-Händler, bei dem man über das Internet ziemlich alles kaufen kann. Das hat dem Unternehmen nicht nur große Erträge, sondern auch enorme Datenmengen über Kundenverhalten eingebracht. So ist der Umgang mit Daten ein eigenes Amazon-Kompetenzfeld geworden, auch auf dem Feld von Big Data. Bei deren Verarbeitung setzt Amazon auch auf cloud-Dienste, also auf elektronische Netzwerke, die drahtlos miteinander kommunizieren. Ein Vorreiter sind die Amazon Web Services (AWS). Dieser cloud-Dienst ist in vielen Teilen für Big Data optimiert. AWS bietet einen schnellen Zugriff auf IT-Ressourcen zur raschen Nutzung praktisch aller Big Data-Anwendungen in sogenannten Data Warehouses (vgl. Schnider/ Jordan 2016) vom Laden und Transformieren über ereignisgesteuertes Extrahieren und Clickstream-Analysen bis zur Betrugserkennung, zu Empfehlungsfunktionen und zur Internet-der-Dinge-Verarbeitung. Ganze Datenbanken lassen sich direkt in dieser cloud betreiben (Joos o.J.a: 3). Zu AWS muss man Daten aber selbst mitbringen. Eigene Datenbanken bietet Amazon dort nämlich nicht an - anders als Google, Facebook und Twitter auf der einen, die finanzmarktorientierten Firmen Thomson Reuters, Dow Jones und Bloomberg auf der anderen Seite. 26 1 Milliarden in Millisekunden Die Amazon cloud und AWS sind zwei parallele Geschäftsfelder. Um in der Amazon cloud Big Data-Infrastrukturen aufzubauen, muss niemand AWS nutzen. Man kann auch Dienste von Drittherstellern buchen. Prominentes Beispiel dafür ist MapReduce(MapR), ein Unternehmen, das seine Hadoop-Distribution -Genaueres hierzu finden Sie auf der Webseite zu diesem Buch - auch in AWS zur Verfügung stellt, so dass der Dienst zusammen mit den anderen Big Data-Lösungen im AWS gemeinsam genutzt werden kann (Joos o.J.a: 9). Dow Jones Dow Jones& Company ist ein 1882 von den drei Journalisten Charles Dow, Edward Jones und Charles Bergstresser gegründetes US-amerikanisches Verlagshaus. Seit 2007 ist es eine Tochtergesellschaft der News Corporation in New York. Das Unternehmen bietet ca. 130.000 Indizes für die unterschiedlichsten Wirtschaftsbereiche an. In Europa ist Dow Jones vor allem durch den Aktienindex Dow Jones Industrial Average bekannt, der inzwischen mehrheitlich McGraw-Hill Financial gehört. Inzwischen öffnete Dow Jones sein in 130 Jahren aufgebautes Archiv für seine Kunden, Partner und deren Dienstleister. Analysten und Marktstrategen sollen dort geschäftsrelevante Informationen finden und mit Hilfe von data analytics und machine learning in ihre Arbeit integrieren können, und das auf dreierlei Art: erstens als snapshots, worunter Dow Jones Auszüge aus Archivmaterial bis zu Terabytes pro Lieferung versteht, zweitens als streams, wenn Kunden Daten verzögerungslos in Echtzeit benötigen, und drittens über application programming interfaces (APIs), mit denen Kunden im Datenbestand von Dow Jones Newswires und des Wall Street Journal sowie in Quellen öffentlicher und privater Organisationen suchen können. Zu den Kunden, die diese Quellen in eigenen Diensten verarbeiten, gehören IBM mit seinem Superrechner Watson, RavenPack - dieses Unternehmen beschäftigt uns in Kapitel 3 noch genauer -, Alexandria Investment Research & Technology, Equals3 und Linguamatics. Bloomberg Das 1981 gegründete Unternehmen Bloomberg versorgt mehr als 300.000 Abonnenten mit seinen Nachrichten und installierte binnen zehn Jahren bei mehr als zehntausend Abnehmern seinen Bloomberg Professional Service, der diese Kunden mit aufbereiteten und analysierten Daten versorgt, sowie den TV-Sender Bloomberg News (www.bloomberg.com/ company). Das Unternehmen Bloomberg lässt sich kaum in die Karten schauen und publiziert allenfalls länger zurückliegende bewältigte Aufgaben. Ein Beispiel: 2008 war das Unternehmen Datenlieferant einer Großbank. Als diese um Vorschläge für einen billigeren Umgang mit Marktdaten bat, antwortete Bloomberg damit, den Zugang zu Daten und die Vernetzung aller Fachstellen bei Datenzugriffen völlig neu aufzusetzen und ihre Darstellung neu zu organisieren (Bloomberg for Enterprise 2014), zunächst in einem Pilotprojekt, nach dessen erfolgreichem Test aber in gesamten Unternehmen. Alle Marktdaten flossen in einem einzigen desktop zusammen. Die Kosten sanken um 20 Prozent. Die Bank sparte vier Millionen Dollar im Jahr und wurde zugleich viel schneller (ibid.). Kontakte zur Prisma Analytics GmbH gibt es seit Langem. Ein Bloomberg-Experte kennt Prima genau genug um zu sagen: „Wenn unser Boss heute davon erfährt, wird morgen der Kontrakt unterschrieben.“ Aber Bloomberg ist Hauptwettbewerber des PrismaAnalytics- PartnersThomson Reuters (TR) bzw. inzwischen dessen Nachfolger Refinitiv, auch wenn TR stärker im equity market engagiert ist, also im Aktienhandel, und Bloomberg stärker im bond market, also im Bereich Anleihen. Ob die Zusammenarbeit von Prisma mit Thomson Reuters einen Kontrakt auch mit Bloomberg ermöglicht oder verhindert, muss sich noch zeigen. 1.2 Die großen Beweger - die Datenkraken 27 Weitere Anwender Datenanalysen auf der Basis intensiver Rechenprozesse mit großen Datenmengen auf Computerclustern bietet außerdem eine schnell wachsende Zahl kleiner oder mittelgroßer Dienstleister; sie verwenden in der Regel märktgängige Programme wie das schon erwähnte Hadoop. Genannt seien die Firmen Seerene, eine Ausgründung des Potsdamer Hasso- Plattner-Instituts, die trotz ihrer englischen Namen deutschen Firmen Blue Yonder oder Celonis, die US-amerikanischen software-Spezialisten Tableau und pmOne Analytics, 2015 mit damals den Kunden Haereus, Henkel, Vorwerk u.a. (Bange 2015). Wir erwähnen diese Kunden hier, weil diese IT-Firmen im Wesentlichen mit Datenbeständen ihrer Kunden arbeiten, indem sie diese mit öffentlich zugänglichen, in der Regel internetbasierten Daten abgleichen. Von Blue Yonder lässt sich beispielsweise die Handelskette Kaufmarkt bei ihren Fleischabteilungen helfen: Das Programm ermittelt, wie das Wetter wird, wann Feiertage sind, kennt den Geschäftsverlauf der letzten 3 Jahre, steuert entsprechend der daraus errechneten vermutlichen Nachfrage den Fleischeinkauf und liegt damit so richtig, dass das Angebot und die wechselnde Nachfrage passgenau stimmen und Kaufmarkt auro deshalb gegenüber der früheren Einkaufspraxis einen zweistelligen Millionenbetrag im Jahr einspart (Martin-Jung). Aus der Zusammenarbeit von Auftraggebern und Dienstleistern ist inzwischen eine Vielzahl von Paarungen entstanden - wir erwähnen sie hier um zu zeigen, wie weit Big Data- Auswertungen inzwischen verbreitet sind: In ihnen tauchte die Unternehmensberatung Accenture ebenso auf wie die Deutsche Telekom, ]init[ ebenso wie IBM, die Deutsche Bahn wie die Berliner Charité, das National Center for Tumor Diseases ebenso wie der Flughafen Stuttgart, die Otto Group wie die Bezahl-Firma Payback, Kaiser’s Tengelmann (inzwischen an Edeka verkauft) ebenso wie die Stadtentwässerung Köln, der Fernsehkonzern ProSiebenSat.1 genauso wie der ebenfalls mittlerweile verkaufte Mobilfunkanbieter e-plus (Bitkom 2016). Wie sehr die großen Konzerne inzwischen auf Big Data setzen, zeigt schlaglichtartig die Kundenliste eines einzigen Data-Dienstleisters. Er wurde erst 2007 gegründet. Inzwischen zählen zu seinen Kunden die Fluggesellschaften TUIfly und Eurowings, die Deutsche Post und die Deutsche Bahn, das Stahl-Unternehmen Thyssen-Krupp sowie die Chemie-Riesen BASF, Bayer und Henkel. Der Markt ist sehr in Bewegung. Hier dazu nur drei weitere Meldungen aus den Jahren 2015 und 2016: Dell kaufte den Big Data-Protagonisten EMC, Cisco das deutsche Startup-Unternehmen ParStream und Microfocus Teile des Big-Data-Portfolios von Hewlett- Packard Enterprise (Bitkom 2017: Landrock). Dieser Trend zu Firmenverbünden hält an. Aber man muss nicht gleich Firmen kaufen, um bei den Branchengrößen Big Data- Applikationen zu erwerben. Man kann auch lediglich Aufträge erteilen. Ein Beispiel: Der Marketingchef eines Hotels möchte wissen, was potenzielle Kunden über sein Haus denken. Dazu kann er das IBM-System WASM f ragen. Im ersten Schritt definiert es Themen (topics) der Suche. Hier könnte er die Namen seines Hotels und die der Konkurrenz eingeben. Dann geht es um Suchbegriffe (terms) - etwa Kundenzufriedenheit, Service, Preis- Leistungs-Verhältnis, Komfort. Nicht verwandte Begriffe wie Paris Hilton kann er ausschließen. Dann erzeugt das System aus unstrukturierten Interneteinträgen (posts) von Hotelgästen ein strukturiertes Datenbild mit Informationen zu den terms einschließlich Metadaten wie Datum und Uhrzeit des Eintrags, Ort, Gerät und Betriebssystem des Nutzers und etlichen Hinweisen mehr (Bastien 2016). Und schon erfährt der Hotelmanager nicht nur, wie seine Gäste sein Hotel erleben, sondern auch detailliert, welche Gäste aus welchen Zimmern zu welchen Übernachtungspreisen wie zufrieden waren - ein für sein künftiges Marketing sehr bedeutsames Wissen. Zu nennen sind schließlich die riesigen chinesischen Onlineplattformen Baidu, Alibaba und Tencent. Sie versorgen 750 Millionen Internetnutzer und nutzen zugleich deren Daten; entsprechend große Datenmengen fallen da an und werden verwertet; denn Datenschutz spielt in China keine, in Europa aber eine entscheidende Rolle. Darum geht es im folgenden Kapitel. 28 1 Milliarden in Millisekunden 1 1..33 DDeer r WWeeg g zzu u BBiigg DDaattaa Daten werden schon so lange zusammengetragen, dass wir dies oft gar nicht mehr realisieren. Telefonbücher des ausgehenden 20. Jahrhunderts waren in Großstädten vier Finger dicke Wälzer, gefüllt mit Daten. Jeder Meldezettel in einem Hotel oder für ein Amt enthält Daten. Rechnungen: Daten. Kontoauszüge: Daten. Jedes aktuelle Passfoto ist eine Sammlung biometrischer Daten und dient längst als Vorlage zu automatisierten Erkennungsmethoden. Der Künstler Philipp Messner von der Werkgruppe zero to be one hat aus solchen Passbild- Daten in einem 3D-Drucker Masken anfertigen lassen, die er bisweilen öffentlich trägt. Das Vorhalten der Maske, sagt er, gebe das Bild, das die Maschine vom Individuum erzeugt, an das System zurück (Scheutle/ Adler 2017: 26). Auch Fingerabdrücke gehören in dieses Feld. 2010 hat der Chaos Computer Club den Zeigefingerabdruck des damaligen deutschen Innenministers Wolfgang Schäuble unbemerkt von einem Wasserglas abgenommen und veröffentlicht. Mittlerweile kann ein solcher Abdruck leicht sogar aus einem Foto herausgelöst werden (ibid.: 16). Mit Computern hatten herkömmliche Datensammlungen zunächst nichts zu tun. Aber jeder weiß: Computer haben unseren Umgang mit Daten völlig verändert. Die Suche in Datenbeständen ist immer mehr eine Aufgabe für Automaten, nur noch peripher für Menschen, wie überhaupt Menschen im Umgang mit Daten und ihren Verarbeitungsprogrammen nur noch eine sehr begrenzte Rolle spielen. Dazu ist der Datenfluss längst viel zu groß. Das Internetportal Tumblr beispielsweise verzeichnete schon im Jahr 2012 pro Sekunde auf den eigenen Datenbanken 40.000 Zugriffe mit einer Million Schreibprozessen, benötigte zur Entwicklung der Systeme und zu deren Verwaltung aber gerade einmal 20 Ingenieure (Mathney 2012). Beim Kauf von WhatsApp durch Facebook wurde bekannt, dass 49 Ingenieure ausreichten, um die Daten von sogar fast eine halben Milliarde Nutzern zu verwalten (Engemann 2014: 375). Die eigentliche Arbeit machen Computer. Sie verarbeiten inzwischen jeden Tag 2,5 Milliarden Gigabyte an Daten (Google 2017: 30). 90 Prozent aller Computerdaten weltweit wurden in den letzten zwei Jahren geschaffen (ibid.: 32). Es sind zu 80 Prozent unstrukturierte Daten, sozusagen Kraut und Rüben žKgF …“‡}z ‚œ. Was sind eigentlich Daten? Das Wort data, der Plural des lateinischen Wortes datum, ist grammatikalisch das Partizip Perfekt des Verbs dare, das auf deutsch geben bedeutet. Ein datum ist also etwas Gegebenes, im Gegensatz zum factum, dem Partizip Perfekt des lateinischen Verbs facere (tun). Faktum ist folglich das, was getan oder erzeugt worden ist (Rosenberg 2014: 136), Daten dagegen setzen nicht voraus, dass jemand handelt. Data ist also ein rhetorischer Begriff für etwas, das vor einer Handlung bereits da ist (ibid.: 154). So wie wir dieses Wort verstehen, ist es zwar „ein Kunstwort des 20. Jahrhunderts, doch die Vorstellungen, die diesem Begriff zugrunde liegen, sind ebenso wie sein Gebrauch viel älter“ (ibid.: 133). Gesprochen hat man von Daten seit dem 18. Jahrhundert. Der englische Universalgelehrte Joseph Priestley nannte in seinen 1788 erschienenen Lectures on History and General Policy historische Fakten erstmals Daten (Priestley 1788: 104). Heute versteht man darunter in erster Linie Informationen in computerlesbarer Form, vor allem als Zahlen. Auch das geht auf das späte 18. Jahrhundert zurück (ibid.: 150). In der Maschinensprache von Computern drücken wir Buchstaben und Zahlen in Binärcodes aus, denn diese Codes sind die einzigen Signale, die eine elektrische Maschine unmittelbar „versteht“. Sie bedeuten „Strom aus“ oder „Strom an“, geschrieben mit den Zeichen 0 oder 1. Man nennt diese kleinsten Rechenbausteine Bits. Was in der Welt der Buchstaben und Zahlen mit einem einzigen Zeichen darstellbar ist (1, 2, 3…), benötigt in dieser binären 1.3 Der Weg zu Big Data 29 Welt mehrere: Die binäre Zeichenfolge für 0 lautet 000, die für 1 lautet 001, für 2 lautet sie 010, für 3 dann 011, für 4 schließlich 100 und so fort. Um Wörter, Bilder, Sinneswahrnehmungen usw. zu speichern. zerlegt man sie so lange, bis sie sich in diesen einfachsten aller Zahlen ausdrücken lassen, in Kombinationen von 0 und 1. So wird ein Befund in Rechnern gespeichert und verarbeitet und wird Information nach Bedarf wieder zusammengesetzt - wie eine Möhre, die man in hauchdünne Scheiben schneidet, um sie besser analysieren zu können, die man aus den Scheiben aber auch wieder zur ursprünglichen Wurzel zusammensetzen kann, so „dass die Scheiben weiter zusammenkleben und aussehen wie die ganze Möhre“ (Rudder 2014: 15). Daten „sind überall. Immer. Milliarden von Sensoren liefern ständig Daten - ob von der Windkraftanlage, vom Mähdrescher, vom Geldautomaten oder vom Fitnessarmband. Menschen geben über social media viel mehr preis als je zuvor“ (SAS 2017a).Daten in Zahlenkolonnen sind nur der Anfang. „Denken Sie auch an Texte, das gesprochene Wort, Bilder, Videos“ (ibid.). Für eine systematische Analyse lagen letztere Daten lange ebenso brach wie Informationen, die eher Texten als Datenkolonnen ähneln, also weblogs, Informationen aus dem smart home, Aufzeichnungen aus dem call center und dergleichen. Im Zeitalter von Big Datawerden sie aber erschließbar und zunehmend auch wirklich erschlossen. Die Welt dreht sich weiter, die der Daten schneller und schneller. Man vergisst leicht, dass die ersten Online-Auftritte erst zwei Jahrzehnte zurück liegen. Die Popularität des Web stieg erst allmählich. Im Jahr 2006 stellte Apple das Smartphone vor. Es setzte sich weltweit doppelt so schnell durch wie das Internet. Kameras stecken nicht nur in Smartphones, sondern zeichnen auch auf sehr vielen Straßen und Plätzen und in fast jedem öffentlichen Verkehrsmittel Daten so konsequent auf, dass diese Überwachung des öffentlichen Raums inzwischen „permanent und ubiquitär“ ist (Ströppel in ibid.: 77). Die meisten von uns haben „nicht die leiseste Ahnung, welche persönlichen Informationen, von banal bis hochsensibel, im Umlauf sind“ (Morgenroth schon 2014: 127). Wahrscheinlich haben wir uns daran gewöhnt, „dass durch moderne Kommunikations-, Selbstkontroll- und Visualisierungstechnologien wie Google Earth, Jawbone oder diverse tracking tools der freiwillige und/ oder kommerzielle Anteil von Überwachung derart überhand genommen hat, dass der Anteil der staatlichen Kontrolle scheinbar immer weniger stark ins Gewicht fällt“ (ibid.). Einige Bobachter glauben sogar, dass sich „Überwachung mit Anerkennung verbindet“, weil „Überwachung als eine Form von Zugehörigkeit“ erlebt wird. Diese Beobachter fragen nicht, „ob die von der Snowden-Affäre ans Licht gezerrte staatliche Überwachung unumstritten ist (weil sie offensichtlich umstritten ist), sondern warum so viele Menschen Überwachung akzeptabel und sogar angenehm finden“ (Boellstorff 2014: 119). Eine Antwort auf diese Frage bieten sie freilich nicht. Datenspuren gleichen ein wenig Reifenspuren im Schnee, nur dass diese digitalen Spuren niemals wegtauen werden. Sind sie einmal gespeichert, bleiben sie das auch. Wer in einem sozialen Netzwerk eine Datenspur legt, macht sich nachverfolgbar. Reichert geht so weit zu sagen, posts als neue Formen von Individualität seien ein „Imperativ zur permanenten Selbstentzifferung auf der Grundlage bestimmter Auswahlmenüs, vorgegebener Datenfelder und eines Vokabulars, das es den Individuen erlauben soll, sich selbst in einer boomenden Bekenntniskultur zu verorten“ (Reichert 2014a: 447). Von dieser Ansicht ist es nicht mehr weit zu der, dass das Individuum in der Welt der sozialen Medien nur noch als „Figur seiner Brauchbarkeiten in den Blick kommt“ (ibid. 448). Es erzeuge ein „multiples Selbst“ (Deleuze 1993: 260), das zwischen Orten, Situationen, Teilsystemen und Gruppen oszilliere - ein Bezug auf eine „personale Identität oder ein Kernselbst“ sei dabei nicht mehr vorgesehen (ibid.). In Form des targetinghabe sich vielmehr „die computergestützte Rasterfahndung auf die Allgemeinheit ausgeweitet“ (ibid.). 30 1 Milliarden in Millisekunden Konsequenzen hieraus beschäftigen uns noch später in diesem Buch. Vorab nur so viel: Peter Galison, Professor für Wissenschaftsgeschichte und Physik an der Harvard University, sieht in diesem Informationskapitalismus einen massiven Angriff auf unsere Selbstbestimmung. Unsere Freiheit werde auf eine Weise beschnitten, die in die Selbstzensur führt (Galison 2014). „Herzlich willkommen im Datengefängnis“ titelt deshalb Ehlers; es sei bereits „absolut unmöglich, aus diesem Datengefängnis auszubrechen“ (Ehlers 2016: 11). Auch nach Morgenroths drastischer Einschätzung gleicht die zunehmende Überwachung durch das Sammeln von Daten, wie er sagt, „einer lebenslangen Freiheitsstrafe“ (2014: 165). Daten werden aber nicht abgeschöpft, um Bürger zu knechten, sondern um mit ihnen Geld zu verdienen. Wirtschaftlich besonders interessant wird der Umgang mit Daten, wenn jemand erstens influencers identifizieren kann, also Personen, die starken Einfluss auf andere ausüben und, hat man sie erst einmal überzeugt, die anderen mitziehen (Stampfl 2013: 52), und wenn man zweitens sogenannte Alphadaten besitzt; das sind Daten, die niemand anderer hat. Eine solche Ausspionierung kann schon Kindern passieren, die mit Barbie-Puppen spielen. Hello Barbie ist mit Mikrofon, Lautsprecher und einer WLAN-Schnittstelle ausgerüstet. Spricht ein Kind mit einer solchen Puppe, wird das Gespräch aufgezeichnet, transkribiert und der abgeschriebene Text auf Wunsch per E-Mail den Eltern geschickt. „Big Barbie is watching you“ (Seele/ Zapf 2017: 4). Auch Erwachsene werden analysiert, ohne dass sie es wissen. Wenn Sie in einem Schaufenster ein Kleidungsstück betrachten, das da auf einer Schaufensterpuppe drapiert ist, kann es passieren, dass nicht nur Sie diese Puppe betrachten, sondern dass Sie zugleich auch betrachtet werden. Das „passiert“ nicht irgendwie, sondern wird strategisch geplant und technisch dadurch ermöglicht, dass im Auge der Puppe eine Kamera eingebaut ist. Sie registriert, unmerklich für den Passanten, wohin dieser blickt. Schon seit 2012 bietet Almax solche EyeSee Mannequins an (Morgenroth 2014: 56). Die Kameras in diesen Puppen dienen als eine Basis zur Optimierung der Schaufenstergestaltung und generell von Warendisplays. Nur der Besitzer der Puppen verfügt über ihre Informationen. Als Passant bemerken Sie gar nicht, dass und wie Sie da abgescannt werden. A propos Augen: Google kann Informationen aus dem Web nicht nur in eine Brille übertragen, sondern will sie auch in Kontaktlinsen einspeisen. Das hieße: Wir bewegen uns durch die Welt und hätten ständig Namen, Fakten und Nachrichten über unser Umfeld mit den Menschen darin vor Augen (Stampfl 2013: 28). Zugleich könnte Google sehen, was wir sehen - eine beunruhigende Perspektive. Glauben Sie bitte nicht, das könne Ihnen nur „draußen“ passieren, in der Welt von Kauf und Verkauf. Überwachung gehört auch bei Ihnen zuhause zunehmend zum Alltag. Google hat Prototypen einer Kontaktlinse hergestellt, die mit Hilfe eingebauter Sensoren sekündlich die Tränenflüssigkeit analysieren und den Blutzuckerwert bestimmen (ibid.: 149). Elektronisch aufgerüstete elektrische Zahnbürsten können alles, was sie im Mund des Nutzers feststellen, an den Hersteller übermitteln (und der kann diese Daten dann weiterverkaufen). In deutschen Wäldern sind schon 100.000 Kameras aufgestellt, die nicht nur das Wild beobachten, sondern alles, was sich zwischen den Bäumen bewegt, also auch Passanten (ibid.). Für ein heimliches Stelldichein suchen Sie sich besser einen anderen Platz- wenn es da noch keine Kameras gibt. Aber bedenken Sie: In polizeilichen Datenspeichern liegen in Deutschland ohnehin schon 5,2 Millionen Fotos von rund drei Millionen Personen (Okon 2017). Die Vielfalt der Datenbestände und ihr exponentiell wachsendes Volumen, ihre Unvergleichbarkeit nach Typ, Format und Qualität haben es illusorisch gemacht, dass Menschen da noch durchblicken, zumal Daten oft in unverbunden nebeneinander bestehen Silos stecken und dort vertikal (unter Oberbegriffen) und nicht horizontal (mit Bezug auf benachbarte Felder) sortiert sind. Nur Maschinen bewältigen diese Datenflut. Sobald es um große Datenmengen geht - bis 2025 erwartet man ein Datenvolumen von einer Billion 1.3 Der Weg zu Big Data 31 Gigybytes, dem Zehhnfachen des Werts von 20116 (Gantz 2017) -, wird allgemein von Big Data gesprochen. Deren Beschaffung, Auswertung und Nutzung beschäftigt einen ganzen Industriezweig. Metadaten Einen Aussagewert bekommen Daten erst, wenn man weiß, was die Zahlen bedeuten. Dazu sind Metadaten nötig. Dieses Wort prägte der Informatiker Philip R. Bagley: „Mit jedem Datenelement lassen sich andere verbinden, die Daten ‚über‘ das Element darstellen. Wir bezeichnen solche Daten als ‚Metadaten‘ “ (1968: 91). Ein Beispiel: Bei einem Telefongespräch, dessen Inhalt die Daten sind, sind Metadaten die Angaben über die miteinander sprechenden Personen, genauer über deren Rufnummern, die Orte, an denen sie sich aufhalten, während sie sprechen, über die Gesprächszeit und so weiter. Bei Sensordaten, die in der Regel nur einen Zahlenwert enthalten, zeigen die Metadaten, was die ermittelten Werte bedeuten: etwa eine Tempoangabe, ein Längenmaß, eine Temperatur. Sie registrieren auch, wann und wo womit gemessen wurde. Bei Twittersind die Metadaten oft umfangreicher als die Mitteilungen selbst: Sie enthalten die numerische ID des tweet-Empfängers (die to_user_id für @replies), den Twitter-Namen des tweet-Absenders / (from_user), die numerische ID des tweets selbst (die id), die numerische ID des tweet-Absenders (from_ user_ id), die vom Absender benutzte Sprache, z.B. en, de, fr (iso_language_code), das vom Absender benutzte twitter tool , z.B. web, tweetdeck (source), die URL für das Profilbild des tweet-Absenders (profile_image_url), die geografischen Daten des Absenders (geo_type: Format, geo_coordinates_0 und geo_coordinates_1), die Sendezeit des tweets in direkt lesbarem Format (created_at) und die Sendezeit des tweets als Unix timestamp (time) (Burgess/ Bruns 2014: 192 f.). Bei der Betrachtung von Metadaten werden den Daten also Bedeutungen zugeordnet. Das bestimmt entscheidend deren Wert, denn „außerhalb des Ursprungskontexts verlieren große Datenmengen an Aussagekraft“ (boyd/ Crawford 2013: 205). Sie stammen immer aus spezifischen Zusammenhängen. Die werden in den Metadaten erkennbar. Umgekehrt gilt aber auch: Schüttelt und verknüpft man sie neu und „hat das Datenvolumen einen bestimmten Maßstab erreicht, wird es schwierig, den Kontext richtig zu interpretieren, vor allem wenn die Daten auf bestimmte Aspekte reduziert wurden, damit sie in ein Modell passen“ (ibid.). In einem dritten Schritt werden Daten schließlich zu Informationen, indem man sie mit anderen Daten vergleicht und verknüpft. Um bei einem der Beispiele zu bleiben: Die gemessene Temperatur ist höher als der Durchschnitt von x, bleibt aber um y unter dem kritischen Grenzwert z. Die eigentliche Information lautet dann beispielsweise: Achtung Abweichung, aber noch keine Gefahr. „Metadaten sind die Botschaft“, sagt Matt Blaze, Kryptografie-Professor an der Universität von Pennsylvania. Offizielle politische Entscheidungen, keineswegs immer offen zutage liegende wirtschaftliche Empfehlungen für und Entscheidungen von Unternehmen, aber auch „die impliziten, oft verborgenen Beziehungen der Bürger untereinander, der soziale Kontakt des Einzelnen und der von Gruppen - das alles bilden Metadaten ab“ (Morgenroth 2014: 162). Sie sind also wahre Entschlüssler. Das bewies eine US-Bioinformatikerin. Nur aus Metadaten konnte sie einen anonymen Spender menschlichen Erbguts ermitteln. Fündig wurde sie allein aus Angaben zu Ort und Alter der Person, aus Verwandtschaftsverhältnissen, demografischen Tabellen sowie aus einer Datenbank mit Erbinformationen zur Ahnenforschung (Mainzer 2017: 144). Metadaten dienen nicht nur zur Entschlüsselung harmloser Temperaturmessungen und nicht so harmloser Erbinformationen, sondern auch als eine neue Form biopolitischer 32 1 Milliarden in Millisekunden Kontrolle (dataveillance). In anderen Worten: Sie lassen sich zur Überwachung von Menschenmengen und zur Vorhersage von Massenverhalten nutzen. Das tun heutzutage viele Regierungsstellen, die zum Beispiel politische Wahlen kartografieren, Stadträte, die Verkehrsflüsse messen lassen und Unternehmen, die Zulieferketten organisieren. Pasquinelli beschreibt das „Regime der Datenüberwachung als eine Gesellschaft der Metadaten“, in der es nicht mehr nötig ist, individuelles Verhalten zu kennen, weil es genügt, „kollektiven Trends zu folgen“ (2014: 329). Deleuze warnte bereits 1990 vor spezifischen Kontrolltechnologien auf der von in Datenbanken gespeicherten kollektiven Informationen. Eine Analyse der politischen Dimension der Metadatten, sagt Pasquinelli, sei noch immer erforderlich (2014: 329). Diese Einschätzung gilt nach wie vor. Und was sind Big Data? Der Begriff Big Data geht Boellstoff zufolge (2014: 107) auf die 1990er Jahre zurück. 2003 taucht er erstmals in einer akademischen Publikation auf (Lohr 2013). Im Wort Big Data steckt zweierlei: die wörtliche Bedeutung von Daten als Gegebenheiten (Paßmann 2014: 261) und ihre massenhafte Darstellung in numerischer Form. Es ist eine „Sammelbezeichnung für umfangreiche Datenbestände, die zumeist im Rahmen einer Zweitverwendung zusammengeführt, verfügbar gemacht und ausgewertet werden“ (Weichert 2013: 133). Auch boyd/ Crawford betrachten Big Data nach der „Fähigkeit, Daten zu analysieren, zu aggregieren und Querverbindungen herzustellen“ (2013: 188). Sie sehen in Big Data drei Faktoren wirksam; Technologie, Analyse und, so wörtlich, Mythologie in Gestalt des „weitverbreitete[n] Glaube[ns], dass große Datensätze uns Zugang zu einer höheren Form der Intelligenz und des Wissens verschaffen, die neue, bislang unmögliche Einsichten generieren, Einsichten, die eine Aura der Wahrheit, der Objektivität und der Genauigkeit umgibt“ (ibid.: 189). Big Data definiert man zunächst quantitativ: Eines ihrer Kennzeichen ist ihre schiere Menge. Grob überschlagen verdoppelt sich die global verfügbare Datenmenge jede Jahr (BMBF/ Wi 2018: Martin). Allerdings veraltet das aus ihnen generierte Wissen, zumindest IT-Wissen, auch binnen eines Jahres (ibid.). Weiter kennzeichnet Big Data, dass es „fast unmöglich“ ist, ihnen zu entkommen (Keller/ Neufeld 2017). „Datenkraken“ umgarnen die Menschen wie Sirenen, um ihnen Daten zu entlocken - Lanier sprach deshalb schon 2014 von „Sirenenservern“ (Lanier/ Mallett 2014: 19). Wer sich dagegen nicht wehrt, gehört in unserer „Post-Solo-Ära“ zur „Generation C“, zum „homo connectus“ (Keuper 2017). Wer „seine Daten nicht herausrückt, zahlt mehr als die anderen und gerät bald in Verdacht, etwas zu verbergen. Wer keine Daten preisgibt, lebt teurer und isoliert sich sozial“ (ibid.). Vor fünf Jahren waren Big-Data-Experten in Deutschland nach Ansicht des Fraunhofer- Institutschefs für Intelligente Analyse- und Informationssysteme Stefan Wrobel noch „Rufer in der Wüste“. Inzwischen haben gerade inhabergeführte Mittelständler die Chancen von Big Data begriffen und sind sehr stark eingestiegen. Die gesellschaftliche Debatte sei aber nicht weit genug mitgegangen. Es gebe mehr Schattierungen als der Öffentlichkeit bewusst sind (BMBF/ Wi 2018: Wrobel). Die deutsche Wirtschaft in ihrer Breite sei erst eingestiegen, ergänzt der Leiter des Dresdner Kompetenzzentrums für skalierbare Datendienste (ScaDS) Wolfgang Nagel, „als im Westen Google und im fernen Osten Alibaba die Big Data-Technologie einzusetzen begannen“ (BMBF/ Wi 2018: Nagel). Inzwischen ist der deutsche Mittelstand beiBig Data nach Einschätzung des Leiters Schlüsseltechnologien für Wachstum im Bundesforschungsministerium Herbert Zeisel allerdings „Weltspitze“ (BMBF/ Wi 2018: Zeisel). Wer sich mitBig Dataetwas genauer befasst, stößt bald auf die englischsprachige, auch in Deutschland viel zitierte 3V-Formel volume, variety und velocity aus (Ekbia u.a. 2015): Eine 1.3 Der Weg zu Big Data 33 Grundbedingung für Big Data-Analysen sind also große Datenmengen (volume), ein breites Spektrum an Datentypen (variety) und deren Verarbeitung in Echtzeit (velocity, also Tempo). Diesen mit v beginnenden Begriffen kann man noch drei mit f beginnende an die Seite stellen: fast, flexible und focused (Dorschel 2015: 6). Zu den Kennzeichen von Big Data gehören ferner veracity, womit Regeln für die Datennutzung gemeint sind, und value, also der Wert, den die Datennutzung erbringt, und für den Leiter des Fraunhofer-Verbunds IUK- Technologie Dieter Fellner ferner validity (Wert), vulnerability (Gefährdungspotenzial) bzw. security (Sicherheit) und privacy, also der Schutz der Privatheit (BMBF/ Wi 2018: Fellner). Und noch ein Stichwort ist zu nennen: Daten sind nicht nur informationstechnisch zu betrachten, sondern auch „kulturell, technologisch und wissenschaftlich“ (boyd/ Crawford 2012: 663). Das haben wir in diesem Buch später zu leisten. Auf Fragen der Big Data- Sicherheit können wir dagegen nur verweisen (vgl. Schonschek 2018). Führen wir uns kurz die Datenmengen vor Augen: 1987 lag das Volumen der analog existierenden Daten bei 2,6 Milliarden Gigabyte, im Wesentlichen in Form von Texten und Tabellen, das der digital existierenden Daten erst bei 20 Millionen. In zwei Jahrzehnten, bis 2007, drehte sich dieses Verhältnis mehr als um: Die analog aufgezeichnete Datenmenge versiebenfachte sich auf 19 Milliarden Gigabyte, die Menge der digital gespeicherten Daten aber explodierte geradezu um das Dreizehntausendfache auf 267 Milliarden Gigabyte (Hilbert 2011). Die Planung von Unternehmensressourcen lässt sich noch in Megabytes beziffern. Das Management von Kundenbeziehungen benötigt schon Gigabytes. Das Web enthält Terabytes. Mobile Netze, Sensoren allerorten, HD-Videos, die Flut der Bilder und der posts hat Petabyte-Ausmaße (Mainzer 2017: 143). 2008 nutzteBarack Obamas Wahlkampfteam Big Data erstmals politisch-strategisch. Jede öffentliche Beachtung dieser Aktionen wurde aber möglichst vermieden, da sonst die Gefahr bestanden hätte, dass „Medien und Öffentlichkeit argwöhnisch auf Begriffe wie ‚data mining‘ oder ‚Big Data‘ reagieren würden“ (Moorstedt 2013: 37). 2009 veröffentlichteGoogleauf der Basis einer Big Data-Analyse die Grippeprognoseflu trends. Zur Popularisierung von Big Data reichte das noch nicht aus. 2010 widmete die britische Wochenzeitung The Economist den digitalen Datenfluten eine erste Sonderausgabe. 2011 beschrieb das Marktforschungsunternehmen GartnerBig Data schon als die größte ökonomische Herausforderung unserer Tage (Genovese/ Prentice 2011). Bis 2012 wurde der Begriff Big Data in der breiteren Öffentlichkeit aber „weder beworben noch benutzt oder bezweifelt“ (Geiselberger/ Moorstedt 2013: 13). Das zeigt das Programm Google Trends, das Zugriffe auf Begriffe im Internet nachweist. 2012 publizierte die New York Times für Big Data jedoch ein Signal: Steve Lohr konstatierte dort im August: „In diesem Jahr hat Big Data den Durchbruch geschafft - als Idee, als Wort und - ja, auch das - als Marketinginstrument. Big Data hat die Nische der Technologieexperten verlassen und den mainstream erreicht“ (Lohr 2012). 2013 schoss bei Google Trends die Big Data-Kurve in deren Suchmaschinenstatistik steil nach oben. In diesem Jahr kam der Suchbegriff Big Data bei Google bereits auf knapp 1,8 Milliarden hits. Das Interesse am Begriff cloud computing war im selben Jahr mit 148 Millionen hits erst ein Zehntel so groß (Brettning 2013). „Konzerne wie Intel, SAP, IBM oder Cisco versprechen mit Initiativen wie ‚Big Insight‘ und allen möglichen Begriffen, denen das Adjektiv „smart“ vorangestellt ist, die Lösung von Menschheitsproblemen wie Verkehrsstaus oder Energieknappheit“ (ibid.: 13 f.). 2014 prognostizierte die International Data Corporation, der digitale Datenbestand werde von 0,8 Zettabyte im Jahr 2009 auf 44 Zettabyte im Jahr 2020 anwachsen, auf das Fünfzigfache 34 1 Milliarden in Millisekunden also (EMC/ IDC 2014) und der Datenverkehr bis 2021 auf 3,3 Zettabyte jährlich (Cisco Visual Networking Index (VNI, cit. Hensel 2017d). 2017 wuchs der Datenberg um etwa zweieinhalb Exabyte jeden Tag (! ). Das entspricht alle 24 Stunden der digitalen Aufzeichnung von 530 Millionen Songs, der Speicherkapazität von rund fünf Millionen Laptops, dem Literaturumfang von 250.000 Nationalbibliotheken von der Größe der nordamerikanischen Library of Congress oder von 90 Jahren HD-Videoaufzeichnungen - wie gesagt jeden Tag. Allein Google bewältigt 24 Petabytes pro Tag (Mainzer 2017: 144). Diese Daten werden von kommerziellen Unternehmen gesammelt, gespeichert und genutzt. So entsteht ein gigantisches Vermögen. Sie sind überschlägig rund 85 Milliarden Euro wert (Bitkom 2017: Arnold). Trotzdem werden Big Datalängst noch nicht so umfassend eingesetzt, wie man denken könnte: „Im Durchschnitt erheben und analysieren die Unternehmen nur gut ein Drittel (35 Prozent) der möglichen Daten, die beim digitalen Kontakt mit ihren Kunden über Webseiten, Online-Shops oder newsletter entstehen. Bei den Unternehmen mit 500 oder mehr Mitarbeitern beträgt der Anteil immerhin 51 Prozent. Bei jenen mit 100 bis 499 Mitarbeitern sind es dagegen nur 38 Prozent, bei 20 bis 99 Mitarbeitern sogar nur 33 Prozent“ (Schonschek 2018a). 2018 wurden in Deutschland voraussichtlich 6,4 Milliarden Euro mit Hardware, Software und Dienstleistungen für Big Data-Anwendungen umgesetzt, zehn Protent mehr als im Vorjahr (Hensel 2018b). Am stärksten wuchs der Bereich hardware mit 18 Prozent gegenüber 2017 auf 671 Millionen Euro. Den höchsten Umsatz macht aber weiterhin die Software mit 3,1 Milliarden Euro (plus neun Prozent). 2018 wollten die Dienste rund 2,6 Milliarden Euro umsetzen (ibid.). 2020 soll allein das Internet der Dinge - es beschäftigt uns später in diesem Buch noch genauer - auf 26 Milliarden Geräte anwachsen. Die Bereitschaft, sie zu nutzen, ist groß: 84 Prozent der Menschen wollen sich von intelligenten Haushaltsrobotern, smarten Autos oder Medizin-Elektronik helfen lassen (Schonschek o.J.: 8). 7,3 Milliarden PCs, Laptops und Smartphones sollen dann laufen (ibid.: 213). Und die Flut an Daten steigt jeden Tag weiter. 2025 soll der Fundus an Informationen nach IDC-Angaben auf rund 163 Millionen Zettabyte erreichen. Das Datenvolumenentspricht dem Speicherplatz von 40 Billionen DVDs, die aufeinander gestapelt über hundert Millionen Mal zum Mond und zurück reichen würden (IBM 2018: 3). In diesem Jahr 2025 soll das Internet der Dinge nach einer McKinsey-Studie aus dem Jahr 2016 einen wirtschaftlichen Mehrwert von bis zu 11,1 Billionen US-Dollar erreichen (Groß 2017). Dann, so schätzt man, wird jeder Mensch mit Internetzugang etwa 4.800 Mal am Tag mit vernetzten Geräten interagieren - das wäre ein solcher Kontakt alle 18 Sekunden (ibid.). Bis dahin erwarten Experten zugleich eine Verlagerung des Datenwachstums zu Unternehmen: Sie sollen bis 2025 rund 60 Prozent der globalen Datenmenge erzeugen (Schadhauser 2017). Die weltweite Datenmenge wächst nach Hochrechnungen bis 2025 auf 163 ZB - eine Zahl mit 21 Nullen und die zehnfache Datenmenge von 2016. Zwischen 2015 und 2025 soll jährliche Wachstumsrate aller Daten bei 30 Prozent liegen (IDC und Festplattenhersteller Seagate, cit. Buchberger 2017). Fast 20 Prozent davon sollen für unseren Alltag kritisch sein, knapp zehn Prozent hyperkritisch (Schadhauser 2017). Wie soll diese Flut zu bewältigen sein? Angeblich problemlos; denn die Rechenleistung ebenso wie die Speicher- und Kommunikationsfähigkeit von Microchips soll sich in den nächsten 20 bis 25 Jahren - ohne dass die Chancen quantenähnlich funktionierender Computer schon einberechnet wären - noch einmal vertausendfachen (Eberl 2016: 22), so dass die dann lebenden Menschen mit solchen gigantischen Datenfluten durchaus umgehen können. Versuchen wir uns Datenmengen bildhaft vorzustellen: Wenn jedes Sandkorn auf der Erde ein Byte an Information verkörpert und wir diese Summe mit dem Faktor 75 multi- 1.3 Der Weg zu Big Data 35 plizieren, kommen wir auf 40 Millionen Zettabyte (ZB) Daten. Sie werden laut Expertenschätzungen 2020 weltweit zu verarbeiten sein - wie gesagt das Fünfundsiebzigfache der Sandkörner aller Wüsten der Erde von der nordafrikanischen Sahara über die westafrikanischen Namib und die südwestafrikanische Kalahari, die arabische Rub a-Chali zur zentralasiatischen Wüste Gobi und zu etlichen mehr. Wie kann das sein? Nun: Auf einem einzigen Transatlantikflug einer Boeing 777 fallen rund 30 Terabyte Daten an. Sie liefern Erkenntnisse, die das Produkt Flugzeug ebenso verbessern wie den Service der Airline und das Reiseerlebnis der Passagiere (Brettning 2013a). In einer einzigen Raffinerie können über 60.000 Sensoren arbeiten, in einer Papierherstellungsmaschine 50.000. Jeder Sensor sendet ohne Unterlass Daten. In der Papierherstellung senkt deren kluge Verarbeitung die Kosten pro Maschine und Jahr um bis zu fünf Millionen Euro (www.bigdata-insider.de 11.4.2017). In der Fertigung etwa der Autoindustrie werden Roboter außer mit Strom selbstverständlich auch mit Daten gefüttert. Und das fahrerlose Automobil kann nur deshalb verkehrstüchtig sein, weil optische und Radarsensoren fortlaufend seine Umgebung abtasten und aus diesem Datenkranz die Route, die Fahrtrichtung und das passende Tempo errechnen. Jetzt beginnt wie schon skizziert das Internet der (gewöhnlichen) Dinge sich zu verbreiten. Haushaltsgeräte ebenso wie die zahllosen Maschinen in Fabriken und Werkstätten in aller Welt bekommen dazu Internetanschlüsse und können dann Daten nicht nur empfangen, sondern auch senden. Der informelle Begriff für diesen Datenstrom aus Endgeräten heißt bei Experten firehose, Feuerwehrschlauch. Man muss sich nur hüten, diesen Strom bereits für die jeweils gepostete Gesamtheit der Daten zu halten. Alles was Nutzer als privat oder geschützt kennzeichnen, zählt da nämlich noch gar nicht mit (boyd/ Crawford 2013: 200). Und nur ein Bruchteil dieses Datenstroms ist als garden hose (Gartenschlauch) öffentlich zugänglich; wohl weniger als zehn Prozent (Meeder 2010). Der Umgang mit Big Data setzt voraus, dass der, der sie sammelt, auswertet und verknüpft, die dazu nötigen Mittel und Werkzeuge hat. Dabei geht es nicht nur um Know-How, sondern ganz schlicht um Kapazitäten und damit um Geld. Die Summen, die da bewegt werden, sind astronomisch hoch. Bitkom zufolge entfallen allein in Deutschland knapp 60 Prozent der von Smartphones induzierten Umsätze - das sind 20 Milliarden Euro - auf Daten- und Sprachdienste. Zehn Milliarden Euro nehmen die Smartphone-Hersteller ein, zwei Milliarden die Netzbetreiber und 1,5 Milliarden die Anbieter von Apps. „Wohl noch nie in der Wirtschaftsgeschichte ist in so kurzer Zeit rund um einen einzelnen Gerätetyp ein so großer Markt entstanden“, sagte Bitkom-Präsidiumsmitglied Markus Haas (t3n 2018e). Das aktuelle Big-Data-Ökosystem hat allerdings dazu eführt, „dass sich eine neue digitale Kluft auftut: die zwischen den Daten-Reichen und den Daten-Armen“ (boyd/ Crawford 2013: 212). Big Data-Auswertungen kommen vorwiegend von potenten datenreichen Akteuren, deren Analysen wirtschaftliche oder politische Interessen zugrunde liegen. Neutral arbeitende und vergleichsweise daten-arme Forscher haben es ungleich schwerer, solche Analysen zu erstellen. Aber es gibt solche Initiativen (vgl. etwa Hoeren 2016 über das von der Bundesregierung geförderte Großforschungsprojekt ABIDA, Assessing Big Data). Wenn Sie tiefer in die Datenwelt einsteigen und kennenlernen möchten, wie man Daten speichert, was clouds sind, wie man Daten auswertet, welche Besonderheiten bei der Auswertung von Big Data zu beachten sind und welche Techniken dazu benutzt werden - das Stichwort dazu heißt Hadoop-, dann rufen Sie jetzt bitte die Webseite zu diesem Buch auf: Ý ¢&à #ìeë ìWX ¢eX&ë‚ 36 1 Milliarden in Millisekunden 1 1..44 IInntteerrnneett uunndd dda arrkknne ett Im Gutenberg-Zeitalter waren Bücher, Zeitungen und Zeitschriften die Basis für die Wissensspeicherung und den Informationstransport. Diese Ära ging seit den 1950er Jahren mit der aufkommenden Computertechnik und endgültig mit der Verbreitung des Internets im ausgehenden 20. Jahrhundert zuende. 1999 veröffentlichten Doc Searls und drei weitere Autoren die erste weltweit beachtete kritische Betrachtung des Internets in den 95 Thesen ihres Cluetrain Manifesto. Fast 16 Jahre später, Anfang 2015, brachte Doc Searls mit David Weinberger und in Abstimmung mit den beiden anderen Original-Autoren in 121 neuen Thesen eine Art Update heraus: „New Clues“ erinnerten an das offene Wesen des Internets und kritisierten dessen Kommerzialisierung und seine Entfremdung von der Ursprungsidee. Zugleich äußerte Searls sich zur Privatheit im Netz: „Das Netz ist keine Kathedrale, es steht höchstens das Baugerüst. Denken Sie an Privatsphäre, die war zunächst nicht mal Teil des Designs. Die ursprünglichen Internet-Protokolle wurden entwickelt, damit wir uns vernetzen. Es war ein bisschen wie im Garten Eden, wir sprangen nackt umher. In der physischen Welt haben wir 10.000 Jahre dafür gebraucht, so etwas wie Privatsphäre zu entwickeln und uns Kleidung anzuziehen. Im Netz sind wir nackt und Firmen nutzen das aus. Wir müssen das Äquivalent zu Bekleidung erst noch entwerfen“ (Kuhn 2018). Was war geschehen? Hier ein Zeitraffer: Anfang der 1960er Jahre entwirft der Medienphilosoph Marshall McLuhanbereits das Szenario einer elektronisch vernetzten Gesellschaft. Netzwerke ermöglichen exponentielles Wachstum. Das hat der Vater des EthernetRobert Melanction Metcafe schon 1946 gesehen. Wer auf traditionelle Weise statt hundert Adressen zweihundert anschreiben kann, rechnete er vor, kann seine Wirkung verdoppeln. Aufwand und Ertrag steigen dann linear. In der digitalen Welt rechnet man aber anders: Der Nutzen eines elektronischen Kommunikationssystems wächst im Quadrat seiner Teilnehmerzahl. Zwei Computer können zueinander nur eine Verbindung aufbauen, zehn aber bereits 10x10, also hundert, und hundert 100x100, also zehntausend. Signalwege hin und zurück sind dabei separat gerechnet. Sind Botschaften ohne feedback nur zu verbreiten, ist der Effekt „nur“ halb so groß. Aber der Schneeballeffekt bleibt: Netzwerke addieren Wirkungen nicht, sie potenzieren sie. Darin und in Verbreitungswegen wie etwa Facebook-likes oder retweets liegt der enorme Effekt. 1962 stellt der amerikanische Ökonom Fritz Machlup fest, dass schon fast 30 Prozent des USA-Bruttsozialprodukts aus Wirtschaftszweigen kamen, die Wissen produzieren oder Informationen verarbeiten. Erstmals benutzt er das Wort knowledge society, Wissensgesellschaft (Machlup 1962: 362). Alain Touraine (1969) und Daniel Bell (1973) nennen sie die Informationsgesellschaft (Schrape 2016: 13). 1969, nur sieben Jahre nach dem Arpanet, das als Vorläufer des heutigen Internets gilt, vermietet eine Versicherungsgruppe aus Ohio unter dem Namen Compu-Serv Network Rechenleistung auf Großrechnern an Unternehmen, die sich selbst noch keinen Computer leisten können. Daraus entsteht das Unternehmen Compuserve, das zusammen mit AOL (America online) die frühen Jahre des Internets wesentlich prägt. 1979 bietet das Unternehmen erstmals E-Mail-Dienste für PC-Nutzer an; 1980 folgt mit dem Echtzeit-chat eine weitere Neuerung, die ihrer Zeit weit voraus ist, und 1981 folgte ein Protokoll für den direkten Dateiaustausch. Um im damals noch langsamen Internet auch Grafiken übertragen zu können, entwickelt Compuserve 1987 ein eigenes Format für die Grafik-Komprimierung, das heute noch verwendete GIF. Anfang der 1990er Jahre wagt das Unternehmen den Sprung nach Europa, 1991 startet es in Deutschland. 1996 ist es der weltweit größte kommerzielle Online-Dienst. Für das zu spät gekommene Microsoft Network als Zugangs-Provider interessiert sich in 1.4 Internet und darknet 37 Deutschland kaum jemand. In seinem geschlossenen Bereich bietet der Dienst Geschäftskunden auch Nachrichten, Börsenkurse und Analysen. 1998 verkauft Compuserve seinen Online-Dienst aber an den wichtigsten Konkurrenten AOL. Das freie Web, dass www (siehe unten: 1989), hängt diese Dienste immer mehr ab. Mitte 2008 kündigt man den rund 11.000 verbleibenden deutschen Nutzern, CompuServe Classic, in den USA gehostet, überlebt nochein Jahr (Kuch 2012). AOL-Web-Adressen gibt es bis heute. 1970er Jahre: Gegen Ende dieses Jahrzehnts sprechen Nora und Minc bereitsvon der Informatisierung der gesamten Gesellschaft (Nora/ Minc 1978). Dass sie immer weniger auf gesprochener und gedruckter, sondern immer stärker auf elektronisch gespeicherter und transportierter Information beruhen wird, deutet sich erst an. 1980er Jahre: In der ersten Hälfte dieses Jahrzehnts wird die elektronische Vernetzung in der Alltagswelt sichtbar und die Idee der Informationsgesellschaft beginnt den gesellschaftlichen Diskurs zu prägen (Schrape 2016: 14). 1989 bekommt diese Idee ungeheuren Schub, als Tim Berners-Lee mit dem world wide webein global gültiges Organisationsprinzip nicht nur zum Datentransport im Internetvorstellt, sondern auch zur Verknüpfung von Daten. Damals ist das Internet eine Plattform für Wissenschaftler. Seine Aufgabe sind Datentransits (Stampfl 2013: 19). Datensicherheit und Geheimhaltung sind noch kein Thema. Ab 1990 entsteht jedoch eine telematisch vernetzte Gesellschaft (Weiser 1991), die die Leistung von Computern so selbstverständlich und fortlaufend nutzt wie die Luft zum Atmen. Als das Web sich dann tatsächlich weltweit verbreitet, ist es für allgemeine Sicherheitsarchitekturen zu spät (Drösser 2016: 162 f.). Zwar gibt es Verschlüsselungen; die muss aber jeder Nutzer in Gang setzen und mit jedem Empfänger elektronischer Botschaften absprechen, damit der sie wieder entschlüsseln kann. Diesen Umstand scheuen viele Nutzer. Es könnte daher noch eine Weile dauern, bis unsere Zivilisation die Verschlüsselung jeder Kommunikation als selbstverständlich empfindet (ibid.: 163). 2017 ist das Web bereits das „Nervensystem der menschlichen Zivilisation“ (Mainzer 2017: 143, vgl. Krieger 2014). Es enthält heute mehr als eine Billion Dokumente und wird von mehr als 3,5 Milliarden Menschen genutzt (Jaekel 2017: 2). Noch hat es in der Publikumsgunst starke Konkurrenz. 2013 hatte der deutsche Fernsehkonsum mit täglich durchschnittlich drei Stunden und 43 Minuten den der Bildschirmbetrachtung noch um eine Stunde übertroffen. 2016 haben die Deutschen klassische Fernsehen und digitale Medien aber schon annähernd gleich intensiv genutzt, und 2017 übertraf der Bildschirmkonsum in Deutschland den TV-Konsum erstmals, wenn auch erst um sechs Minuten; 2018 sollte er bereits um eine Viertelstunde vorn liegen (Bitkom 2017: Zeplin). Das Netz wird das Fernsehen bald gründlich abhängen, schon weil es so unglaublich schnell funtioniert. Úm einen 800 Megabyte großen Spielfilm auf sein Smartphone zu laden, braucht man mit UMTS noch mehrere Minuten, Mit LTE geht das in einer Minute und mit dem künftigen 5G-Netz in einer Sekunde (Eberl 2016: 51). Die Struktur des Web hat sich im Vergleich zu seinen Anfangsjahren völlig verändert. Es bietet rund zehn Milliarden Seiten semantischer Information (ibid.: 148). Facebook, Google und andere global arbeitende Internetkonzerne öffnen einen ständig wachsenden Teil dieser Informationen einem möglichst großen Publikum (Stampfl 2013: 20), ziehen aber immer stärker ihre Nutzer vom allgemeinen www ab und halten sie auf ihren eigenen Seiten. Firmendaten, die nicht vertraulich sind, liegen massenhaft in der cloud und werden dort verarbeitet (Näheres dazu später). Die Menge der im Internet verbreiteten Informationen verdoppelt sich vor allem in den sozialen Netzwerken von Jahr zu Jahr, sagt eine Faustregel, genannt Zuckerberg’s law. Das Web 2.0 der sozialen Netzwerke haben die Web-Nutzer mitgeschaffen und gestaltet. Sie hinterlassen dort personenbezogene Daten. Dieses ‚Mitmach-Web’ funktioniert, weil sie 38 1 Milliarden in Millisekunden solche persönlichen Daten herausgeben (Stampfl 2013: 20). Die Masse der Internetnutzer stört sich wenig daran, dass die Anbieter nur auf den ersten Blick kostenloser Plattformen sich ihre Dienste mit der Vermarktung dieser privaten Daten bezahlen lassen. Der Nutzer muss dieses Verfahren erlauben, um die jeweilige Plattform überhaupt betreten zu können. Im Web basieren soziale Beziehungen nicht auf wechselseitiger Erfahrung oder gemeinsam erlebter Geschichte, sondern auf Datenaustausch und dem Wunsch, auf dem neuesten Stand privater und sozialer, sportlicher und kultureller und erst in zweiter Linie politischer und wirtschaftlicher Themen zu sein: „Netzwerk-Sozialität“, erläutert Wittel, „besteht aus flüchtigen und vergänglichen, aber dennoch wiederholten sozialen Beziehungen; aus kurzlebigen, aber intensiven Begegnungen; sie entsteht auf projektbezogener Basis, durch die Bewegung von Ideen, durch die Einführung von immer nur vorübergehenden Standards und Protokollen“ (Wittel 2006: 163). Ein immer größerer Teil der Weltbevölkerung orientiert sich im Internet und organisiert mit seiner Hilfe das Leben. Inzwischen hängt „nahezu die gesamte Lebenswelt der Menschen von programmgesteuerten Infrastrukturen ab, die unsere Zivilisation wie ein komplexes Nervensystem durchziehen“ (Stampfl 2013: 89). Auch das US-Militär, das wie alle auf Kommandos gedrillten Organisationen lange eine Bastion der vertikalen Pyramidenstruktur war, hat darauf reagiert. Hierarchien, sagen die RAND-Forscher Arquilla und Ronfeldt, haben es schwer, Netzwerke zu besiegen. Denn sie lassen sich nur mit Netzwerken bekämpfen. Wer das Netzwerk zuerst und am besten beherrscht, verschafft sich entscheidende Vorteile (Arquilla/ Ronfeldt 2001: 15). Auch Militärs arbeiten deshalb zunehmend in einem Netz. Unseren Alltag durchdringen Netzwerke ohnehin immer stärker. Sie führen dazu, dass der Gebrauchswert einer Ware für den Käufer davon abhängt, wie viele andere sie nutzen (Wagner 2015: 67). Das organisieren Computer. Schon seit etwa der Jahrtausendwende ist vom ubiquitous computing die Rede (Mattern 2001), also von Computern allüberall. Smartphone-Besitzer, die ständig online sind, zeigen, wie das geht - auch wenn der Facebook-Gründer Mark Zuckerberg bereits das Ende der Smartphone-Ära ausgerufen hat: In einer Mischung aus künstlicher Intelligenz und augmented bzw. virtual reality (Schneider 2017), also mit teilweise oder komplett künstlicher Realität, will er eine neue Netzplattform schaffen und sein soziales Netzwerk Facebook darin zum Taktgeber des Alltags machen. Das ist eine Kampfansage an die Konkurrenz. Bislang hat er erreicht, dass viele Menschen weltweit sagen: Internet nein, aber Facebook ja. Google und Facebook& Co. organisieren das Internet zunehmend als ihre eigene Auslieferplattform. Es gibt einen Trend zur Verengung (BMBF/ Wi 2018: Schmölz). Bestimmt Zuckerberg das Ende der Smartphones mit, dann kann er zumindest mitkontrollieren, was danach kommt (ibid.). Sein Plan fußt im Wesentlichen auf drei Säulen: Erstens will er die ganze Welt mit dem Internet versorgen. Das soll internet.org leisten, eine Plattform unter dem Dach des Facebook-Konzerns. Zweitens will er die führende Plattform für augmented und virtual reality werden, also für Künstliche Intelligenz. Unter anderem dazu hat er das Unternehmen Oculusgekauft, das internetfähige Brillen herstellt. Und drittens geht es ganz generell um die Verbreitung Künstlicher Intelligenz. Auf ihrer Basis soll bald alle Kommunikation zwischen Maschinen und Menschen ablaufen (ibid.). Heute ist das Web eine weithin offene Welt. So offen wird es möglicherweise aber nicht bleiben. 2010 stellte Wu in Analysen älterer Massenmedien fest, dass auf kurze Perioden der Freiheit regelmäßig längere Phasen der Eingrenzung, der Kommerzialisierung und der Monopolisierung folgten. Er bestätigte damit McLuhan, der gewarnt hatte, die neue elektronische Interdependenz verwandele die Welt in ein globales Dorf (1962/ 1968: 47 f.), aber nicht als riesige Bibliothek, sondern als elektronisches Gehirn, das von außen steuerbar und vor allem überwachbar sein werde - und deshalb dringe der Orwellsche „Große Bruder in uns ein“ (ibid.). Wu erwartet, dass auch das Internet diesem Zyklus unterworfen sein wird. Da- 1.4 Internet und darknet 39 für sieht auch Stampfl „gute Gründe. Heute steht fest: Die Offenheit des Internets ist nicht in Stein gemeißelt“ (Stampfl 2013: 2). Rechtliche Regeln greifen im world wide web bisher übrigens kaum. Deshalb hieße es besser word wild web, zumal sich in seinem darknet allerlei lichtscheues Gesindel annähernd straffrei herumtreibt. Dem darknet „haftet etwas Mystisches, Kriminelles und Bedrohliches an. Bereits das Präfix dark weckt ebensolche Assoziationen“ (Tsanetakis 2017). Weil in mehr als fünfzig Staaten Kritik an staatlicher Autorität und an Korruption, politische Opposition, aber auch Satire im Netz zensiert werden, dient das darknet bis zu vier Millionen Nutzern jedoch als Schutzraum (Tanriverdi 2018). Denn es gewährleistet Sicherheit und Privatsphäre. „Dissidenten in Syrien oder Ägypten sind auf Onlinekanäle angewiesen, über die sie sich unbewacht austauschen können“ (Schmid 2016: 27). Auch „Journalisten nutzen das darknet zur sicheren Kommunikation mit Informanten. Medien betreiben im darknet anonyme Briefkästen, wo jedermann ohne Angst vor Repressalien heikles Material deponieren kann. Selbst Facebook bietet dort seit fast zwei Jahren einen klandestinen [unbeobachteten] Zugang - Mitglieder aus Ländern, in denen Zensur herrscht, können sich unbemerkt von der Obrigkeit einwählen“ (ibid.). Darknet-Webseiten enden statt auf .com auf .onion. Das darknet ist nicht mit einem normalen browser zugänglich, sondern nur mit einer speziellen Software wie TOR (The Onion Router) oder I2P (Invisible Internet Project). TOR wird schon seit 2006 von einer gemeinnützigen Organisation betrieben. „Finanziert wird TOR größtenteils vom US-Verteidigungsministerium. Verwcnden kann es aber jeder - „nicht, weil die US-Behörde die Technik selbstlos verschenkt, sondern weil die Anonymität der Nutzer von deren Masse abhängt. Je mehr Menschen TOR verwenden, desto geringer ist die Gefahr für den Einzelnen (und für die US-Geheimdienste), doch enttarnt zu werden. Es gilt der Grundsatz: Alle sind der größte Niemand“ (Tanriverdi 2018). Darknet-Nutzer tauschen gesuchte Adressen der Webseiten zumeist über Foren aus (ibid.). Weltweit gibt es innerhalb des TOR-Netzwerks neun Rechner, die protokollieren, welche Nutzer ihre Bandbreite gerade für TOR zur Verfügung stellen (ibid.). Bevor der browserTOR eine Webseite lädt, verschlüsselt er seine Anfrage mehrfach. Dann steuert er sie blitzschnell über drei zufällig gewählte Server, drei aus rund sechstausend. Der erste entschlüsselt nur die Webadresse des realen Anfragers und der dritte nur die darknet-Adresse des Mailempfängers, so dass sich die Kommunikation im Netz so gut wie gar nicht zurückverfolgen lässt. Für Menschen, die sich vor Überwachung schützen müssen, gehört diese Technik zum Standard. Trotzdem spielt das darknet bei TOR-Benutzern spielt nur eine untergeordnete Rolle. Nur ein Bruchteil von ihnen sucht Webseiten auf, die im darknet liegen - gerade einmal fünf Prozent (Tanriverdi 2018). Neben verfolgten Minderheiten tummeln sich im darknet auch Kriminelle. Möglich machen das hidden internet services, also versteckte Dienste. Zwei britische Analysen stellten fest, etwa die Hälfte der darknet-Seiten habe nach UK- und US-Maßstäben legale Inhalte, die andere Hälfte verfolge nach freiheitlichen Maßstäben aber tatsächlich dunkle Ziele (Tsanetakis 2017). Nach Angaben des Nachrichtenmagazins Der Spiegel machen hidden services, hinter denen sich auch Waffen- und Drogendealer verstecken, jedoch nur „eine einstellige Prozentzahl“ (Schmid 2016) des darknet-Verkehrs aus. Wer dort heiße Ware einkauft, bezahlt sie übrigens fast immer mit Bitcoins (mehr hierzu später in diesem Buch) oder einer anderen Kryptowährung. Überweisungen mit diesem digitalen Geld haben nämlich den Vorzug, dass sie ebenfalls kaum rückverfolgbar sind. Zunehmend benutzen Kriminelle aber auch das offene Internet, weil sie trotz des höheren Risikos dort mehr Interessenten ansprechen können. Die server, über die solche Geschäfte laufen, sind meist in Ländern registriert, in denen mit polizeilicher Überwachung und 40 1 Milliarden in Millisekunden Strafverfolgung wohl kaum zu rechnen ist, etwa auf den Kokosinseln oder im Südsee- Königreich Tonga (ibid.). Wie das offene Internet arbeitet, wird in Protokollen geregelt. Sie ermöglichen Beziehungen zwischen miteinander vernetzten, aber autonomen Einheiten, und sichern in Netzwerken die Organisation und Kontrolle. Das erste Protokoll für Computernetzwerke namens host software hat 1969 Steve Crocker geschrieben. Es ist robust, kontingent, interoperabel, flexibel und heterogen, einfacher gesagt: Es bringt alles unter, gleich in welcher ursprünglichen Definition oder Identität, aus welcher Quelle oder für welche Bestimmung Daten stammen. Drei Prinzipien wirken dabei zusammen: erstens das der Individuation - das Ganze ist zwar größer als die Summe seiner Teile, aber entscheidend sind die Teile -, zweitens das der Vielheit - Netzwerke sind aus zahlreichen Teilen konstruiert und auch so organisiert- und drittens das der Bewegung - sie ermöglicht die Sammlung die Verteilung, den Austausch oder die Auflösung von Daten. Ganz ähnlich funktionieren auch Städte, soziale Milieus, Volkswirtschaften oder Kulturen (zur digitalen Kultur vgl. Leeker 2016). Lassen wir dazu kurz einen Experten zu Wort kommen: „Das Netzwerk besteht aus intelligenten Endpunkt-Systemen, die selbstbestimmt sind und es ermöglichen, dass jedes Endpunktsystem mit jedem gewählten host kommunizieren kann. Statt ein Netzwerk zu sein, in dem Kommunikationen von einer zentralen Autorität gesteuert werden (wie dies in vielen privaten Netzwerken der Fall ist), ist das Internet als Sammlung autonomer hosts gedacht, die frei miteinander kommunizieren können (Hall 2000: 6, 407; vgl. auch Stevens 1994). Internetprotokolle findet man im Request for Comments (RFC). Bislang gibt es ein paar tausend RFC-Dokumente. Die Internet Engineering Task Force und verwandten Organisationen ermitteln, veröffentlichen und verwalten sie (Drösser 2016: 291). Das IP [Internetprotokoll] nutzt ein stark dezentralisiertes Modell, wobei „jeder Computer für jeden anderen Computer im globalen Internet ein gleichwertiger Teilnehmer ist“ (ibid.). Das Web funktioniert also komplett anders als zum Beispiel herkömmliche Unternehmen, in denen ein Chef oder ein Vorstand das Sagen haben und alle anderen mehr oder minder gehorchen. Und wie funktioniert das Internet praktisch? Das Weißbuch Requirements for internet hosts definiert Arbeitsebenen und nennt sie Schichten: die Applikationsschicht (z.B. Telnet, das Web), die Transportschicht (z.B. TCP), die eigentliche Internetschicht (z.B. IP) und die Link- oder Media-Access-Schicht (z.B. Ethernet). Die Applikationsschicht gleicht einem Anrufbeantworter; sie speichert innerhalb des Netzwerks den Dateninhalt, verwaltet also die Daten. Die Transportschicht sorgt dafür, dass die Daten im Netzwerk korrekt ihr Ziel erreichen. Falls Daten verloren gehen, sendet die Transportschicht die verlorenen Daten erneut. Die dritte Schicht ist die eigentliche Internetschicht. Sie steuert die tatsächliche Bewegung von Daten von einem Ort zu einem anderen, legt also fest, auf welchem Weg Daten transportiert werden. Die vierte Schicht schließlich, die Link- oder Medienzugriffsschicht, portioniert und verkapselt die Daten und schnürt leicht transportierbare Datenpakete. So kann ein Telefongespräch beispielsweise über normale Telefonwie über Glasfaserkabel laufen (ibid.: 297 f.). Zusammen ergeben diese Schichten ein raffiniertes System dezentralisierter Kontrolle (ibid.: 292). Inzwischen werden erste Weitentwicklungen des Internets sichtbar. Blockstack beispielsweise will ein neues dezentrales Internet aufbauen, in dem der Nutzer Herr über seine Daten bleibt. Dieses Netzwerk wird seit 2014 entwickelt. Es weist schon über 76.000 registrierte domains auf. Mehr als 13.400 Entwickler arbeiten an Blockstack-Applikationen (Lenz 2017). Fachleute nennen es das Web 3.0. Es wird ein kollaboratives Netz mit dezentralen Eigentumsstrukturen (Rosenbach 2018a). Das Besondere an Netzwerken gilt dann noch stärker: Intelligenz ist im Web nicht allein in einzelnen Computern vorhanden, sondern in der Web-Struktur selbst. Anfangs haben dort nur Menschen mit Menschen kommuniziert. Zunehmend tut das die Technik jetzt 1.5 Das Internet der Dinge 41 autonom, kommunizieren also Objekte mit anderen Objekten - das Stichwort dazu heißt Internet der Dinge. In der Welt von Big Data weicht die Vorstellung, das Internet sei ein abgegrenzter Kommunikations- und Handlungsraum, den man betreten und benutzen kann oder auch nicht, der einer digitalen Gesellschaft, in der dieses Internet der Dinge(Internet of Things, IoT) alles durchdringt. Es wird so sehr ein Teil von uns, dass es uns umgibt wie die Luft, die wir atmen. Das wollen wir jetzt noch etwas genauer betrachten. 1 1..55 DDaass IInntteerrnneett ddeerr DDiinnggee Vor inzwischen einer Generation stand in einer US-amerikanischen Universität ein Coca- Cola-Automat ganz am Ende des Campus. Studenten wollten da nicht vergebens hin laufen, falls sein Vorrat erschöpft wäre. Also verbanden sie ihn mit dem Universitätsnetz um festzustellen, ob noch volle Flaschen vorhanden waren. Das könnte man die Geburtsstunde des Internets der Dinge nennen (Rother 2017). Es bezeichnet ein Netzwerk von Objekten mit eingebetteten Chips, so dass sie Betriebszustände steuern und mit ihrer Umgebung kommunizieren können (Gartner 2017). „Ursprünglich wurde der Begriff für die Vernetzung eindeutig identifizierbarer Objekte mit RFID-Technologie benutzt. RFID-Tags speichern die zu einem Objekt oder Behälter gehörenden Informationen. Inzwischen gilt das Internet der Dinge als dynamische, selbstkonfigurierende, globale Netzwerkinfrastruktur, die physische und virtuelle Dinge aller Art miteinander verbindet. Schon 2015 waren mehr Geräte miteinander vernetzt als es Menschen gibt (Schwarz 2015: 19). Ein Hersteller von Netzwerkstechnik rechnet schon mit 50 Milliarden vernetzter Objekte. Für diese Vernetzung sollen mehr als tausend relativ kleine ‚Nanosatelliten’ mit kleiner Sendeleistung ins All geschossen werden (Howard/ Bausum 2016: 12). Das Internet der Dinge gilt als Treiber der Digitalisierung. Das Auswerten von Maschinendaten, Sensorik und intelligenter Echtzeit-Verarbeitung riesiger Datenmengen in der cloud erzeugt neue Geschäftsmodelle. Standards und Protokolle identifizieren und vernetzen diese Dinge über intelligente Schnittstellen miteinander und binden sie in Informationsnetzwerke ein (van Kranenburg schon 2007, cit. Grohnau/ Forholz 2017). Mit dem Internet der Dinge entwickelt sich eine neue Gattung des Internets, das Chips in Geräten aller Art miteinander und mit Rechenzentralen verbindet (vgl. Sprenger 2015). Diese Geräte werden nicht nur Kühlschränke sein, über die man immer wieder einmal etwas in den Medien liest, sondern Hausgeräte aller Art von der Heizzentrale im Keller bis zur Zahnbürste im Badezimmer, vom Auto in der Garage bis zum Rasenmäher-Roboter im Garten und jenseits privater Grundstücksgrenzen die Ampel am Straßenrand, die Straßenbeleuchtung darüber und die unzähligen Geräte, mit denen in Fabriken Produkte entwickelt, hergestellt, verteilt, gewartet und schließlich recycelt werden. Selbst Hersteller simpler Wasserflaschen fangen an, diese zu vernetzen (Salat 2017). Jedes dieser Objekte erzeugt dann Daten. Sie werden erfasst, gespeichert, sortiert, analysiert, miteinander verknüpft und weitergegeben (Vogt 2017). Siemens hat für das Internet der Dinge bereits ein Betriebssystem namens „Mindsphere“ entwickelt (Kerkmann/ Höpner 2018). Und die International Data Corporation hat wie schon erwähnt ausgerechnet, dass bis 2025 jede Person jeden Tag durchschnittlich 4800 Mal mit vernetzten Geräten interagieren wird (Lobe 2018). Darauf richten sich die Industrie und die Wirtschaft im goßen Stil ein. Mehr als die Hälfte der deutschen Unternehmen planten für 2018 die Einführung von IoT-Plattformen und mehr als 70 Prozent mindestens ein neues IoT-Projekt. Am aktivsten sind Versicherungen und Banken (85 Prozent), gefolgt von Maschinen- und Anlagenbauern (78 Prozent) und 42 1 Milliarden in Millisekunden öffentlichen Verwaltungen (73 Prozent). Bei der öffentlichen Hand dürfte es aber langsamer vorangehen: Nur 53 Prozent wollen oder können die dazu nötigen Finanzmittel bereitstellen. In den anderen Branchen ist zwar die Finanzierung weitgehend gesichert, aber auch dort gibt es Hürden: Mehr als ein Drittel der Teilnehmer (36 Prozent) räumt beim Internet of Things„Startschwierigkeiten“ ein (Quack 2018). Bis 2020 soll das Internet der Dinge trotzdem weltweit schon Milliarden von Geräten im Wert von 14,4 Billionen US-Dollar umfassen (Barrenechea 2018). Binnen zehn Jahren sollen rund fünf Milliarden Anwender über Hochgeschwindigkeitsnetzwerke verbunden sein. Neben Menschen gehen wie gerade gesehen auch Milliarden Maschinen ans Netz (ibid.). Telekommunikationsunternehmen bieten eigene, maßgeschneiderte Übertragungsnetze an, etwa das Telekom-NarrowBand für IoT-Lösungen. Sie beschränken sich auf die Machine-to-Machine-Kommunikation beschränken. „Müllcontainer, die ihren Füllstand an eine zentrale Plattform melden, damit die Stadt die Entleerungsroute danach planen kann, brauchen keine Sprachübertragung und nur sehr geringe Bandbreiten. Sie senden in größeren Abständen kleine Datenpakete, das muss wartungsarm und kostengünstig funktionieren. Nur dann können solche Lösungen im großen Stil ausgerollt werden. Diese Qualitäten erfüllt NarrowBand IoT“ (Tausend 2017). Was da zu erwarten ist, hat ein europäisches Telekom-Unternehmen bei Kunden ausprobiert, deren Geräte schon online sind. Es sind ihre internetfähigen Telefone und die dort angeschlossenen Geräte. Die Firma registrierte nicht nur, wann ihre Kunden beim Surfen im Internet ihr pauschales monatliches Datenvolumen ausgeschöpft hatten, sondern entwickelte auch ein Programm, mit dem sie es einfach aufstocken können. Infos dazu liefert es als SMS. Die Kunden goutieren diese Offerte. Sie hat dem Unternehmen Millionen an zusätzlichen Erträgen gebracht, und die Kundenzufriedenheit ist dabei sogar noch gestiegen (SAS 2016). Ein anderes Beispiel ist das autonome Fahren¸es beschäftigt uns in Kapitel 5 noch genauer. Die dazu nötige Intelligenz steckt nicht nur im einzelnen Fahrzeug, sondern in den Mobilitätsnetzen. Die Automobile sind in diesem System nur die Endgeräte. Ihre Information wird über ein globales Netz in einer cloud gesteuert. Dazu werden eine Unmenge von Daten produziert und verknüpft: fahrzeuginterne Daten wie zum Beispiel Fahrtempo, Reifendruck, und externe wie GPS- und Umweltdaten, Straßenzustands- und -benutzungsdaten. Bis zum Jahr 2020 ergibt das voraussichtlich Datenmassen im Petabyte-Bereich, also in der Größenordnung von 10 15 . Solche Datenmengen kann in Deutschland bisher erst der Supercomputer des Garchinger Forschungszentrums verarbeiten. USA-Rechner und einige in China sind bereits um das Zweibis Dreifache größer (Mainzer 2017a). Drei Bereiche machen das Internet der Dinge aus: erstens das der Entwickler und Hersteller (das Industrial IoT, auch IIoT geschrieben) mit Bestandsaufnahme-, Mess- und Testgeräten, Überwachungssystemen für Leitungssysteme, Fertigungsrobotern und anderen Arten vernetzter industrieller Steuerungssysteme, zweitens das der Wirtschaft und des Handels (das Commercial IoT) sowie drittens das der Verbraucher (das Consumer IoT) mit den Geräten, die uns am vertrautesten sind: mit Haus- und Haushaltsgeräten, Smartphones, Uhren, Unterhaltungssystemen und allem, was uns sonst noch persönlich umgibt. Ob Landwirtschaftsbetriebe oder Raffinerien, ob Fertigungsanlagen oder Logistikzentren, ob Gesundheitssysteme oder intelligente Städte mit ihren öffentlichen Einrichtungen, den Verkehrs- und Versorgungsnetzen und den privaten Haushalten - überall werden IoT- Geräte deren Verhalten und damit indirekt auch das unsere automatisch registrieren, koordinieren und auf uns wie auf Ereignisse von außen reagieren. Im Internet der Dinge wird kaum etwas noch auf Verdacht oder aufgrund bloßer Schätzung geschehen. Denn die Netzwerksarchitekturen zwischen Produzenten, Vermarktern und Verbrauchern werden die Produktions- und Verbrauchskreisläufe eng und zeitnah verzahnen. 1.5 Das Internet der Dinge 43 Fertigungsanlagen lassen sich dann je nach Marktentwicklung ebenso in Echtzeit steuern wie der Verkehr je nach der Belastung seiner Infrastruktur und die Energieversorgung je nach dem momentanen Verbrauch. „Echtzeit“ muss übrigens nicht unbedingt „ohne Verzug“ bedeuten, sondern lediglich „in ausreichender Schnelligkeit für den jeweiligen IT-Benutzer“. Korrekter muss es also „rechtzeitig“ heißen (Mather 2017). Da entwickelt sich ein gigantischer Markt. Experten sagen voraus, dass es bis 2020 bereits viermal mehr mit dem Internet vernetzte Geräte als Menschen auf der Welt geben wird. In Nordamerika waren es schon 2017 durchschnittlich 13 Geräte pro Haushalt (ibid.). Im Jahr 2020 sollen dort im Bereich Internet der Dinge bereits 300 Milliarden US-Dollar umgesetzt werden. Mit seinen Auswirkungen auf die weltweite Wirtschaftsentwicklung soll dieses Netz dann 1,9 Billionen US-Dollar bewegen (ibid.). Das ist die Sonnenseite der Vernetzung aller denkbaren Alltagsgeräte untereinander und mit Unternehmen, die darauf ihr Geschäftsmodell aufbauen. Aber wie stets gibt es auch eine Schattenseite. Sie wird vorstellbar, wenn man bedenkt, dass in dieser enormen Vernetzung vieler Systeme schon die kleinste Manipulation verheerende Folgen auslösen kann. Beispiele verdeutlichen diese Gefahr: Laut cyber crime-Experte Jens Wiesner vom Bundesamt für Sicherheit in der Informationstechnik (BSI) und Ex-BKA-Chef Jörg Ziercke tauchte im Frühjahr 2017 erstmals eine kriminelle ransomware speziell für Industrieanlagen auf, und zwar mit ähnlichen Erpressungstrojanern wie WannaCry und Petya, die schon Daten von vielen Firmen, Krankenhäusern und Organisationen im Griff hatten. Ziercke zufolge besteht eine „asymmetrische Bedrohungslage, die sich deutlich zuspitzt, weil wir es mit hochentwickelten Werkzeugen professioneller Angreifer zu tun haben“ (Pfeiffer 2017). Diese Kriminellen bedienen sich scheinbar harmloser Alltagsgeräte, digitaler Wasserkocher etwa oder Kaffeemaschinen mit Chip. Wenn Sie als Verbraucher solche vernetzten Geräte bei sich anschließen, machen sie „Türen auf, von denen sie gar nicht wissen, dass sie existieren“, warnt Wiesner (ibid.). Wie groß das Sicherheitsproblem ist, zeigte eine Avast-Untersuchung 2017: Von fast drei Millionen IoT-Geräten waren über 175.500 Geräte unsicher. Auch 17 Prozent der Router, 13 Prozent der Webcams und fünf Prozent der Drucker waren für Hacker anfällig (Salat 2017). Um verletzliche IoT-Geräte zu ermitteln, benutzen Cyberkriminelle die darknet- Suchmaschine Shodan. Sie sammelt jeden Monat Informationen von mehr als 500 Millionen mit dem Internet verbundener Geräte und Dienste (ibid.). Mit botnets, die man sich im darknet ausleihen kann, können Hacker Tausende von Geräten auf einen Schlag infizieren. Denn viele Hersteller verwenden Standard-Login-Daten: sie scheuen sich aus Kostengründen, für jedes ihrer Geräte ein eigenes Kennwort zu definieren. Proof of concept-Attacken haben gezeigt, wie über ein einziges solches Gerät, etwa eine Glühbirne oder ein Verkehrssensor, ganze IoT-Netze infiziert werden können (ibid.). Was solche Trojaner anrichten können, kann dramatisch sein, etwa im Protokollrechner der Lademaschine für die Brennelemente des Kernkraftwerks Gundremmingen - dort wurdern solche Schadprogramme erst nach Jahren entdeckt (ibid.). In der Ukraine schaltete ein Blackenergy-Trojaner Umspannwerke ab und sorgte so dafür, dass mehr als 200.000 Menschen ohne Strom waren. In Russland schaffte es die Carbanak-Bande zwar nicht, ins Banknetz einzudringen, konnte aber Überwachungskameras hacken und den Bankern deshalb bei der Passwort-Eingabe zuschauen. Im Hafen von Antwerpen ließ ein Virus über Jahre Container zwar nicht physisch, aber im System verschwinden und machte sie damit für den Drogenschmuggel verwendbar. Im Firmennetzwerk der US-Supermarktkette Targetverschafften sich Kriminelle Zugriff auf zig Millionen Kreditkartendaten über den Wartungszugang der Klimaanlage. Und beim größten Ölproduzenten der Welt Saudi Aramco löschte ein Cyber-Angriff 35.000 Festplatten (ibid.). 44 1 Milliarden in Millisekunden Wer in den Datenfluss von Gesundheits- und Sicherheitssystemen, von Verkehrs- oder Versorgungssystemen eindringen kann, kann, wie wir sehen, unermesslichen Schaden anrichten. Ganze Volkswirtschaften könnten erpressbar werden. Authentifizierungs- und Autorisierungsprotokolle, sichere Software und sogenannte Firmware, also geschützte Verbindungs- und Kommunikationsmöglichkeiten, werden daher noch weit wichtiger werden als sie es heute schon sind. Öffentliche wie private Schaltstellen im IoT-Netzwerk müssen miteinander verknüpfte Sicherheitssysteme entwickeln, um auffälliges Verhalten in Echtzeit erfassen, Bedrohungen sofort erkennen und Reaktionen möglichst automatisch steuern zu können. Dazu werden drei Sicherheitsfunktionen für IoT-Netzwerke erforderlich sein: 1. Das IoT-Netzwerk muss transparent sein. Denn nur dann es es möglich, Geräte ohne Zeitverzug daraufhin zu überprüfen, ob sie wirklich nur das können und tun, was sie tun sollen -das nennt man Authentifizierung. 2. Das IoT-Netzwerk benötigt richtliniengesteuerte, geschützte und überwachte Netzwerkszonen. Nur auf der Basis grundlegender Berechtigungen, die jedem IoT-Gerät ein spezifisches Risikoprofil zuweisen, ist die nötige Überwachung möglich. 3. Geräterichtlinien sind die Voraussetzung für eine Überwachung auch der Zugangsknoten (access points), der Datentransfers (Netzwerksdatenverkehr) und der Arbeit in der cloud. Ohne sie würde dieses Netz unkalkulierbar gefährlich (ibid.). 1 1..66 DDiiee BBlloocckkcchhaaiinn Etwa im Jahr 2017 begann eine Technologie von sich reden zu machen, die das Potenzial hat, nach dem world wide web und nach wikis, social media und open source zur nächsten großen Internet-Innovation zu werden, zum „nächsten unaufhaltsamen Evolutionsschritt für die Freiheit und Eigenständigkeit des Einzelnen“ (Lenz 2017). Es ist die Blockchain. „So, wie das Internet nicht mehr weggehen wird, wird auch die Blockchain bleiben“ (t3nguide 2018). Es ist eine Datentechnik, deren Höhenflug gerade erst startet, obwohl sie bereits zeigt, was sie kann. Das WHO-Welternährungsprogramm beispielsweise verteilt seine Hilfszahlungen global bereits via Blockchain und spart so allein in Jordanien bis zu 150.000 Dollar im Monat (Nienhaus 2018). Die Blockchain ist, wie schon ihr Name sagt, eine Kette (chain) von Blöcken (blocks), die in Summe eine Datenbank ergeben, die auf vielen Computern gleichzeitig abgelegt und bearbeitet wird. Alle Transaktionen, die in dieser Datenbank hinterlegt werden, sind für jeden Teilnehmer dieser Blockchain einsehbar. Denn die Computer, die an einer Blockchain teilnehmen, sind über das Internet vernetzt und bilden damit ein Blockchain-Netzwerk. Jeder neue Datenblock entsteht im dezentralen, automatisierten Konsens mit allen Beteiligten. Jeder Block erhält zur Verifizierung der hinterlegten Informationen die Prüfsumme des vorherigen Blocks und die der gesamten Kette (Müller-Dott 2018a) und wird an die Blockchain angehängt. Die Reihenfolge der Datensätze in der Blockchain liegt als Protokoll damit fest. Einzelne Teilnehmer können sie danach nicht mehr manipulieren. Die Blockchain registriert also alle Transaktionen „wie in einem Haushaltsbuch, aber nicht auf einem Großrechner, sondern parallel und kryptografisch geschützt auf zig Computern von Nutzern, die es gemeinsam führen. Ein Computer macht einen Eintrag; die anderen überprüfen ihn. Sind sie einverstanden, übernehmen sie die Daten automatisch in ihre Kopie des Haushaltsbuchs. Kein Mensch muss dafür einen Knopf drücken“ (Röder 2018). Jeder verwaltet seine Daten selbst und legt fest, wem er sie zugänglich macht und wem nicht. So entsteht ein System, in dem alle Computer alle Transaktionen dokumentieren und sich dabei gegenseitig kontrollieren. Keine zentrale Stelle, weder eine Bank noch ein Staat 1.6 Die Blockchain 45 noch der Betreiber eines sozialen Netzwerks kann Daten manipulieren. Jeder einzelne Nutzer entscheidet, wer seine Daten sehen darf und wofür wie sie benutzt werden dürfen - etwa, in anonymisierter Form, für die medizinische Forschung (ibid.). Das macht die Blockchain nicht nur für den Handel mit Waren und Dienstleistungen interessant, nicht nur für Bezahlsysteme, sondern auch für das weltweite Gesundheitswesen, in dem es auf massenhafte Datenverfügbarkeit ebenso ankommt wie auf den strikten Schutz der Privatheit des einzelnen Beteiligten. Fälschungen würden sofort entdeckt, weil sie mit den Kopien auf den anderen Rechnern nicht übereinstimmen. Wollte jemand in einer Blockchain trotzdem einen Datensatz fälschen, müssten er diesen und alle nachfolgenden Blöcke nicht nur neu berechnen, sondern auch auf der Mehrzahl der angeschlossenen Rechner weltweit gespeichern können. Das würde so viel Zeit, Rechenleistung und Energie kosten, dass niemand das auch nur versucht. Blockchains sind daher vor Manipulation sicher. Blockchains benötigen deshalb auch keine externen Instanzen, die die Integrität eines Datensatzes bestätigen. Man kann deshalb sagen: Viele Zeugen ersetzen in der Blockchain den Notar (Röder 2018). „Die entscheidenden Eigenschaften der Blockchain-Technologie sind also: Sie speichert Informationen dauerhaft, nachvollziehbar und unveränderbar dezentral (Müller-Dott 2018a) - allerdings auch dann, wenn es sich (was vereinzelt vorkommt) um unerlaubte Inhalte wie etwa Kinderpornografie handelt (Gojdka 2018). Es müsste eine Prozedur geben, fordert deshalb das Forschungsinstitut für Kryptoökonomie an der Wirtschaftsuniversität Wien, solche Dinge auf richterliche Anweisung aus eine Blockchain herauszubrechen (ibid.). Blockchains wurden bekannt, weil man über sie einfach, verlässlich und anonym Zahlungen auslösen und verwalten kann. Blockchains tauschen nämlich nicht nur Daten aus, sondern auch Werte, und das ohne Intermediär. Das Ergebnis sind extrem niedrige Transaktionskosten. Kryptowährungen wie Bitcoin arbeiten so - wir kommen darauf gleich noch zurück. Das Londoner Innovation Lab der Deutschen Bank hat ausprobiert, wie man über eine Blockchain auch Firmenanleihen ausgeben kann. Es wäre sehr einfach. „Man bräuchte weniger Anwälte und Wirtschaftsprüfer, keine Clearing-Häuser und vielleicht auch keine Börsen mehr“ (ibid.). Der Höhenflug der Bitcoin Ende der 1990er Jahre setzte auf der Basis der Blockchain die Entwicklung kryptographischer Währungen, kurz Kryptowährungenein. Sie koppelten sich erstens von jeglicher zentralen Regulierung ab, nicht nur von der staatlichen, sondern auch von der der Banken, und sollten zweitens gegenüber Einzelinteressen immun sein. Wer Bitcoin erfunden hat, ist unbekannt; er versteckte sich hinter dem Tarnnamen Sastoshi Nakamoto und zog sich 2010 ganz zurück. Seine Digitalwährung sollte von Menschen nicht manipuliert werden können. Dazu beschränkte er die Bitcoin-Menge auf 21 Millionen. Mehr Bitcoinskönnen nicht auf den Markt gebracht werden. Dafür sorgt ein komplizierter Computercode, der bisher noch nicht geknackt werden konnte. Knapp 17 Millionen Bitcoins sind im Umlauf; neue entstehen, wenn alte den Besitzer wechseln (Gschwendtner/ Tanriverdi 2018). Elektronische Währungen müssen wie Münz- und Papiergeld so ausgestattet sein, dass man ein und dieselbe Summe nur einmal ausgeben kann. Ohne zentrale Buchungen bei Banken muss das System dies dezentral möglich machen. Dafür muss es Regeln geben. Bitcoin notiert Geldbeträge wie Telefonnummern in einem elektronisch geführten öffentlichen Buch, in einer Blockchain im Internet. Jeder Nutzer der Bitcoin-Software speichert eine Kopie auf seinem Computer. Wer Bitcoins kauft, verfügt über zwei Login-Adressen, eine geheime und eine öffentliche. Mit der ersten kann der Besitzer jederzeit bestätigen, dass ihm die Bitcoins gehören. Mit der 46 1 Milliarden in Millisekunden anderen zahlt er oder kassiert er. Diese Adresse ist nicht mit seinem echten Namen verknüpft, es ist aber öglich, solche Zahlungen im Kassenbuch nachzuschlagen (Gschwendtner/ Tanriverdi 2018). Das macht es unmöglich, einen Bitcoin-Betrag zu fälschen oder doppelt auszugeben, denn in diesem öffentlichen Buch ist verzeichnet, wem welcher Betrag gehört - nicht aber, wer das tatsächlich ist. Der europäische Gesetzgeber unterwirft Bitcoin & Co. der Richtlinie über Währungsbörsen und Onlinedienste. Sie schreibt unter anderem vor, dass Akteure bei ihren Kunden deren Identität feststellen müssen. Anonymität darf also nicht sein. Bei einem öffentlich einsehbaren Transaktionsregister läge folglich der gesamte Zahlungsverkehr der Beteiligten offen (vgl. Tschorsch/ Scheuermann 2016). Das ist ein ungelöstes Problem (Hölzel 2017). Die Akzeptanz von Bitcoin als Zahlungsmittel ist bisher sehr begrenzt. 2016 ließ die Schweizer Stadt ZugBitcoins für Zahlungen bis zu 200 Franken zu (Thiele/ Zydra 2018), tauschte aber eingehende anonyme Bitcoin-Beträge nach Auskunft von Stadtpräsident Müller (Müller, D. 2018) sofort in Schweizer Franken um (ibid.), denn „die Schweiz interessiert es nicht, woher das Geld der Leute kommt“ (Anti-Geldwäsche-Experte Andres Frank, cit. ibid.). China hingegen will das Schürfen von Bitcoin verbieten und hat 2018 den Zugang zu allen Kryptobörsen gesperrt (t3nguide 2018). Das bestätigte ein Beamter der westchinesischen Provinz Xinjiang dem Wall Street Journal (Diesen 2018). Auch Südkorea will den Handel mit Kryptowährungen untersagen (ibid.). Nobelpreisträger Joseph Stiglitz findet das richtig; er bestreitet Bitcoin nämlich jeden Nutzen und plädierte schon früher für ein Verbot (t3n 2017b). Harvard-Ökonom Kenneth Rogoff dagegen findet nicht, dass man Kryptogeld verbieten sollte, aber man müsse es regulieren (cit. Hesse 2018: 71). Die Kunstwährung Bitcoin bewegt täglich umgerechnet mehrere Milliarden Dollar (Körber 2018). Man kann sie aber nicht verlässlich in echtes Geld umtauschen (Keese 2014: 273 f.). Es gibt einerseits also Probleme. Aber als Spekulationsobjekt hat diese Kryptowährung Konjunktur. Der Bitcoin-Kurs schwankt deshalb stark. 2014 ging eine Bitcoin-Tauschbörse noch in Konkurs. Anleger verloren ihr Geld. Danach boomte der Bitcoin-Kurs aber. Von August 2016 bis August 2017 hatte er sich von rund 500 auf 4577 Dollar fast verzehnfacht (coinmarketcap.com) und bis Dezember nochmals vervierfacht (LinkedIn 2017). Wer zu Beginn des Jahres 2013 für 256 Euro Bitcoins gekauft hatte, konnte sich schon im Herbst 2017 über einen Gewinn von über zwei Millionen Euro freuen (finance-check 2017), bis gegen Jahresende sogar über rund vier Millionen. Im Dezember 2017 sprangen die Bitcoin-Notierungen zwischen 11.600 Dollar und 16.600 Dollar hin und her. Als die Chicagoer Optionsbörse CBOE Bitcoin in den Terminkontrakthandel aufnahm, schoss der Kurs weiter nach oben - „so schnell, dass der Börsenbetreiber den Handel unterbrach. Dann pendelte sich der Bitcoin-Future um 18.000 US-Dollar ein“ (t3n 2017c). Vereinzelt erreichte er die Marke von 20.000 Dollar (Lenz 2017). Innerhalb weniger Tage brach er dann wieder ein; bis Februar 2018 ging er auf etwa 10.000 Dollar und dann weiter auf rund 8.000 zurück. Die „Wirtschaftsweise“ Isabel Schnabel fühlt sich „an die großen Blasen der Wirtschaftsgeschichte“ erinnert (t3n 2017c). Die Weltwirtschaft beunruhigt das derzeit aber nicht. Dennder Bitcoin-Umlauf entspricht in seinrm Marktwert „nur“ etwa einem Promille des Dollar-Umlaufs, einem „Tropfen im weltweiten Währungsozean (Gschwendtner/ Tanriverdi 2018). Bitcoin gilt trotzdem es als eine der größten Erfindungen der letzten Jahrzehnte: Diese Währungsplattform arbeitet wie erwähnt dezentral, ohne Reibungsverluste und braucht keine zentrale Aufsicht. „Diese Prinzipien haben das Web groß gemacht, und sie werden auch Bitcoin groß machen“, prognostizierte CasSelle schon 2014 (Keese 2014: 274). „Digitales Geld“, ist deshalb Hesse überzeugt, „wird kommen. Die Bank of England, die Notenbank von Schweden und andere Zentralbanken arbeiten bereits an solchen Konzepten“ (Hesse 1.6 Die Blockchain 47 2018: 71). Experten warnen jedoch vor der Unberechenbarkeit der Digitalwährung. Auch Banken sind skeptisch. Aber einige Regierungen - zuerst Großbritannien, dann Russland, später auch die Türkei - überlegten, ob sie auf diesem Gebiet aktiv werden sollen, und eine, nämlich Venezuela, hat es bereits getan. Der venezolanische Päsident Maduro hat eine eigene Kryptowährung verfügt, um den Staatsbankrott abzuwenden (Maduro 2017). Offiziell hat das Land seine digitale Währung an den Ölpreis gekoppelt; daher der Name Petro. Den Investoren versprach der Staat einen Barrel Öl pro Petro. Die zusätzliche Währung Petro Gold soll ähnlich funktionieren, sie ist an einen Barren Gold gekoppelt. Dieser Trick scheint zu funktionieren: Am Ausgabetag der venezolanischen Kryptowähung Petro nahm die Regierung mit diesem Kunstgeld rund 735Millionen US-Dollar ein. Aber „die Währung schaut wie ein kompletter Betrug aus“, sagte der Finanzprofessor David L. Yermack. Zumindest habe die Regierung „widersprüchliche Angaben“ darüber gemacht, auf welcher Blockchain die Token liegen (Hegemann 2018). Zurück zu Bitcoin: Über die Funktionstüchtigkeit dieser Währung entscheidet die Rechenleistung und damit die finanzielle Ausstattung sogenannter Miner. Die darin steckende Gefahr führte zu Wettbewerbern wie etwa Litecoin, Peercoinund Ripplesowie Ethereum. Ethereum (Näheres: t3nguide 2018: 9.12) wird in einer science fiction das Element genannt, das dem Licht zu reisen erlaubt. Ether, von dem sich Ethereum ableitet, heißt deutsch Äther. Im Verständnis der indischen Sankhya-Philosophie durchdringt dieses Element den Weltraum, trägt Leben und Klang. In der Finanzwelt ist Ether die Kryptowähung von Ethereum. Beide waren 2017 unter den Krypto-Währungen ein Star der Spekulation. Am Jahresanfang kostete eine Einheit etwas über acht Euro, elfMonate später 390 - eine Rendite von 5.000 Prozent (finance-check 2018). Die Relationen verschieben sich aber. Anfang 2017 hatte Bitcoin unter den Kryptowährungen noch einen Marktanteil von 87 Prozent, ein Jahr später nur noch von 36 Prozent (Quartz, cit. LinkedIn 19.01.2018). Ripple, hinter Bitcoin und Ether die drittwertvollste Digitalwährung, ist keine direkte Kryptowährung und kann auch nicht von Nutzern geschürft werden, sondern eine Kombination aus Handelsplatz und Zahlungsnetzwerk. Ripple hat gut hundert Kunden aus dem Finanzsektor. Im Spätherbst 2017 hatte American Express angekündigt, für internationale Zahlungen das Ripple-Netzwerk zu nutzen. Der ehemalige Bundesverteidigungsminister Karl- Theodor zu Guttenberg berät Ripple übrigens seit Juli 2014. Das Open-Source-Protokoll der Gesellschaft Ripple Labs unterstützt als währungsneutrales Netzwerk beliebige Währungen wie Euro, Dollar oder Bitcoin. Ripple hat aber auch eine eigene digitale Währung, genannt XRP. Deren Hauptzweck ist es, Geld sicher von einem Ort zum anderen zu senden. Es setzt dazu auf ein System von Verbindlichkeiten und Vertrauen zwischen den Nutzern über Schuldscheine (IOU, I owe you), die in einem Register aufgezeichnet und in einem peerto-peer-Netzwerk gespeichert werden. Das Register wird alle paar Sekunden vom sogenannten Konsens-Algorithmus aktualisiert. (t3n 2018g). Anfang 2018 waren laut coinmarketcap knapp 39 Milliarden XRP im Umlauf. Die Marktkapitalisierung ist auf über 55 Milliarden Dollar angewachsen. Insgesamt gibt es weit mehr als tausend dieser Kryptowährungen sehr unterschiedlicher Vertrauenswürdigkeit. Sie boomen: Laut New York Times tauschten 2017 täglich rund 100.000 Menschen konventionelles Geld in Kryptowährungen um (Lenz 2017). Der Marktwert aller Kryptowährungen überstieg 500 Milliarden US-Dollar (ibid.). Im Vergleich zur Blase der Dotcom-Ära ist das aber „immer noch fast Kleingeld: Im März 2000 steckten allein im derNational Association of Securities Dealers Automated Quotations Nasdaq, der größten elektronischen Börse in den USA,6,7 Billionen Dollar - weit mehr als das Zehnfache“ (Lenz 2017). 48 1 Milliarden in Millisekunden Banken entwickeln auf Blockchain-Basis übrigens auch eine eigene Kryptowährung, die utility settlement coin(USC). Zunächst soll sie auf der bankeninternen Blockchain nur zum Handel zwischen Banken genutzt werden. Später sollen auch normale Kunden USC besitzen können (Nienhaus 2018). Kryptowährungen sind bislang ein Nebenfinanzmarkt (Fujitsu 2017: Werner), angeblich aber „ein neues, unzerstörbares Finanzmarkt-, Handels- und Plattformsystem“, wie schon erläutert frei von „staatlich-territorialen Ansprüchen, Zentralbanken und Banken“ (Lenz 2017) und deshalb gut „für eine neue Ära der Finanz- und Geldgeschichte“ (ibid.). Auf dem Feld der Maschine-zu-Maschine-Bezahlvorgänge gelten sie als die nächste game changing technology der Digitalisierung (ibid.). Denn in der Globalisierung erscheint es logisch, dass Menschen ihr Geld und ihre Daten selbst besitzen und kontrollieren möchten. Das funktioniert statt über ein kostenpflichtiges Konto bei einer Bank in einer Blockchainüber eine kostenlose Funktion auf dem Smartphone. „Zahlreiche junge, digital affine Menschen verspüren den Wunsch, mit alten Mächten zu brechen - die Zeit für Disruptionen in der Finanzwirtschaft scheint reif“ (ibid.). Die Blockchain gilt Beobachtern deshalb als „die Speerspitze einer generellen Digitalisierung der Wirtschaft“, sagt Sebastian Steger, ein Experte für diese Technologie der Unternehmensberatung Roland Berger (tenguide 2018: 6). Ihre Benutzung sei allerdings ein Teamsport, und den sei man in einem Business-Umfeld nicht unbedingt gewöhnt“, setzt Oliver Gahr, Programmdirektor „Innovation, Blockchain und IoT“ im IBM-Forschungs- und Entwicklungszentrum in Böblingen hinzu (ibid.: 4). In automatisierte Abwicklungen mit einem hohen Grad an Transparenz würden sich Unternehmen nicht „einfach so reinstürzen“. 2017 hielten in einer Yougov-Studie „Potenzialanalyse Blockchain“ denn auch erst sieben Prozent der Fach- und Führungskräfte diese Technologie für marktreif und einsatzbereit (ibid: 4). 47 Prozent der deutschen Firmen prüfen aber den Einsatz von Blockchain- Technologien und 21 Prozent arbeiten bereits an Prototypen. Schon jetzt bieten Amazon, Microsoft und IBM ihren Kunden Produkte an, um eigene Blockchain-Ansätze zu realisieren. IBM arbeitet schon an über 400 Projekten weitweit (ibid.). 2017 wurden mit Blockchains gut 700 Millionen US-Dollar umgesetzt. Innerhalb der kommenden zehn Jahre sollen es nach Schätzungen von Wintergreen Research 60 Milliarden Dollar werden. Einsatzfelder der Blockchains Das Einsatzfeld für Blockchains ist breiter als der Finanzmarkt; nur wenige Beispiele: In der Logistik wie im Lebensmittelbereich lassen sich Warenflüsse vom Hersteller über den Einzelhändler bis zum Verbraucher stets hieb- und stichfest nachverfolgen; auch im Gesundheitswesen kann man die Lieferkette von Medikamenten Schritt für Schritt von der Produktion bis zur Auslieferung festhalten. Die Blockchain selbst bietet keine Netzwerkseffekte (BMBF/ Wi 2018: Schmidt), aber on top sind sie möglich (ibid.: Fiedler). Blockchains lassen sich auch für smarte Verträge verwenden (Behrens 2017: 84). Gäbe es passende Datenbanken in Blockchain-Technologie und eine passende Infrastruktur, ließen sich etwa Immobilienkäufe und -verkäufe deutlich vereinfachen. Teure Notarbeurkundungen und Grundbucheintragungen wären dann nämlich überflüssig (Körber 2018). Eine durchgreifend neue Struktur lässt sich im Energiebereich schaffen. Energie soll verbrauchsabhängig berechenbar werden: Wer Strom in Spitzenzeiten verbraucht und deshalb Stromanbieter veranlasst, Kapazität auch für diese Spitzen vorzuhalten, soll mehr bezahlen als der, der seine stromverbrauchenden Geräte in den Stunden laufen lässt, in den die Nachfrage deutlich niedriger ist. Dazu müssen Stromzähler den Verbrauch zeitabhängig erfassen und senden. Die derzeit 2.361 deutschen Unternehmen der Energiewirtschaft können das managen, wenn auch zu hohen Infrastrukturkosten. Millionen von Privatleuten, die Solarstrom erzeugen und ins Netz einspeisen, wären damit aber überfordert. Die 1.6 Die Blockchain 49 Blockchain-Technologie jedoch ermöglicht „als dezentral verwaltetes Register zum Speichern, zur Auslesung und zum Verarbeiten von Transaktionen bei gleichzeitiger systemimmanenter Verifizierung - kurz: als ‚Vertrauensmaschine‘ - eine echte Marktintegration erneuerbarer Energien“ (Thon et al. 2018). Stromerzeuger jeder Größenordnung können ihr Erzeugungsportfolio so am Verbrauchsprofil des Stromkunden ausrichten. Besonders wirksam verspricht via Blockchain das Identitätsmanagement zu werden. Heute ist Identität im Prinzip staatlich verordnet - der Staat vergibt Personalausweis-, Steuer, und Sozialversicherungsnummern und gibt entsprechende Ausweise aus - oder sie wird von Firmen bestimmt, etwa von Facebook, desssen zwei Milliarden Nutzer eine Facebook- Identität haben und diese Identität auch zum Authentifizieren bei Drittanbietern verwenden. Per Blockchain kann jeder eine Identifikationsnummer aber selbst generieren. Sie gehört nur dieser Person. Da diese Daten in der Kontrolle der Nutzer liegen, ist das Prinzip privacy by design automatisch berücksichtigt. Mobile Connect beispielsweise ist ein solches digitales Identitätssystem. Es authentifiziert die Benutzer über ihr Gerät. Sie können auf eine Vielzahl von Anwendungen zugreifen und brauchen, um auf Online-Dienste zugreifen zu können, keine Benutzernamen und Passwörter mehr. Mobile Connect ist ein Standard, der auf OpenID Connect aufbaut (Lohkamp/ Voshmgir 2018). Weil Blockchains den Schutz persönlicher Daten vereinfachen, können sie auch im medizinischen Bereich Sicherheit und Vertrauenswürdigkeit bieten (BMBF/ Wi 2018: Zahn), zum Beispiel mit der Datenschutz- und Verschlüsselungstechnologie ISÆN, der Individual perSonal data Auditable addrEss Number. Mit ihr können Web-Nutzer jederzeit feststellen, wer über sie welche personenbezogenen Daten verarbeitet und eine Zustimmung zu deren Verarbeitung und Weitergabe jederzeit einschränken (Jähnichen et al. 2018). Ein letztes Beispiel für das Blockchain-Potenzial: Das car sharingwürde so einfach wie nie: Sobald jemand für ein bestimmtes Auto den festgelegten Betrag bezahlt, kann es sich entriegeln, der Blockchain melden, wie weit und wie lange es fährt, und dann die Abrechnung auslösen. Der car sharing-Anbieter würde durch eine automatisierte Technik ersetzt. Jeder könnte über die Blockchain sogar sein eigenes Auto anderen vermieten (Nienhaus 2018). Das soll sehr preisgünstig werden: In den USA soll bei einem Uber-Fahrzeug der Preis für eine gefahrene Meile nämlich von etwa zwei Dollar auf etwa 30 Cent sinken. In Kombination mit dem öffentlichen Nahverkehr soll der Preisverfall für eine permanente Verfügbarkeit von individueller oder gemeinsamer Mobilität in Städten und bald auch im Umland sorgen. Die Blockchain eignet sich dshalb „als Unterbau für den Betrieb einer autonom fahrenden Robo-Taxi-Flotte. Sie könnte sich mit der unbestechlichen und manipulationssicheren Technologie selbst managen und muss dabei ‚nur‘ kostendeckend arbeiten“ (Röder 2018). Ein Start-up namens IOTA (www.iota.org) hat daraus bereits 2015 Konsequenzen gezogen. In Form einer Stiftung (Die Stiftung 2018) hat es die gleichnamige Software entwickelt, die der Blockchain-Techologie ähnelt.Will ein IOTA-Knoten eine Transaktion speichern (lassen), muss er zunächst zwei andere Transaktionen validieren. Der Lohn für dieses Bestätigen ist das Speichern der eigenen Transaktion. Das funktioniert ohne eine Gebühr und zu sehr geringen Kosten, und das Validierungstempo nimmt bei zunehmenden Transaktionen etwa über Mini-Beträge nicht ab, sondern zu. Genau darum ging es der IOTA Foundation: ein Protokoll zu schaffen, das sich für das Internet der Dinge eignet. Denn noch sind nicht alle IoT-Geschäftsmodelle einfach umsetzbar (Heumüller 2018). Diese Software ermöglicht es beispielsweise, dass Autos ohne Eingriff des Fahrers selbsttätig Parktickets buchen und bezahlen, selbstverständlich mitutengenau, und dass sie ohne Zutun des Nutzers getanktes Benzin oder gespeicherten Strom bezahlen usw. Diese Software soll alle Maschinen-zu-Maschinen-Kommunikation vollautomatisch organisieren, und zwar auch dann, wenn es dabei nur um Cent-Beträge geht. Nennenswerte Transaktionskosten anderer Bezahlsysteme würden das bisher verhindern. IOTA, Anfang 2018 noch ein 50 1 Milliarden in Millisekunden 40-Personen-Team, will das global organisieren und dazu schon bis Ende 2018 auf 200 Personen wachsen (Behrens 2018a: 63). Das Unternehmen und sein Anfang 2018 noch gar nicht marktreifes Produkt gerieten zu diesem Zeitpunkt dennoch schon ins Visier von Betrügern. Das bekamen Anfang 2018 zwei Münchner zu spüren, die mit IOTA spekuliert hatten. Ein vorgeblicher Passwort- Generator war in Wirklichkeit nämlich eine betrügerische Pishing-Seite. Am 19. Januar plünderten Betrüger IOTA-Konten. Der Schaden belief sich auf 4,4 Millionen US-Dollar (Bernstein 2018). Wie glitzernd die Zukunft solcher Anbieter trotzdem aussehen kann, zeigt jedoch ein Zahlenvergleich: Der Schadenbetrug grob gerechnet nur ein Promille des in kürzester Zeit entstandenen IOTA-Firmenwerts. 11..77 DDiiee KKüünnssttlliicchhe e IInntte el llliigge en nzz Schon die Ägypter träumten von Maschinen, die dem Menschen die Arbeit und das Denken erleichtern oder sogar abnehmen würden (Wartenberg 2017). Aber erst im Jahr 1900 schuf der französische Mathematiker Louis Bachelier dazu einen ersten konkreten Baustein, die statistischen Grundlagen der Finanztheorie auf der Basis angenommenen stets vernünftigen Verhaltens des homo oeconomicus, also eines Menschen, die alle Entscheidungen nach wirtschaftlicher Zweckmäßigkeit trifft (Bachelier 1900). Sie werden bis heute benutzt. Tatsächlich verhält sich der Mensch aber nicht nur nach rationalen Erwägungen, sondern agiert erstens mit unvollständigem Wissen und zweitens emotional und reaktiv, also aus Freude oder Angst und manchmal so, wie es andere ihm vormachen oder von ihm erwarten. Trotzdem hat Bachelier die Grundlagen für Verfahren gelegt, die sich als enorm wirksam erwiesen, auch für Zeiten der Künstlichen Intelligenz. Die Erwartungen an die Künstliche Intelligenz (KI) sind hoch: Acht von jeweils zehn Deutschen erwarten, dass sie die Verkehrssteuerung verbessern und so Staus reduzieren kann, sagt eine Bitkom-Studie (cit. Schonschek 2018b). Jeweils etwa zwei Drittel erwarten, dass sie die Verwaltung beschleunigt (68 Prozent), die Forschung fördert (67 Prozent) und Kundenanfragen zuverlässiger beantworten hilt (64 Prozent). Die Mehrheit geht davon aus, dass die Polizei mit KI Verbrechen schneller aufklären kann (54 Prozent) und dass Ärzte mit KI-Hilfe bessere Diagnosen stellen werden (57 Prozent). Eine Mehrheit (58 Prozent) zieht zumindest in bestimmten Situationen eine KI-Entscheidung sogar der eines Menschen vor; die anderen (40 Prozent) lehnen das aber ab (ibid.). Finanzdienstleister setzen in Deutschland nicht mehr in erster Linie auf das theoretisch stets rationale und insoweit durchaus intelligente Verhalten des homo oeconomicus, sondern auf Künstliche Intelligenz (KI). Diese analysiert Verhalten und zieht daraus Schlüsse, aber sie kann mehr als nur analysieren (einschließlich predictive analysis, das heißt vorausschauender und prescriptive, also Konsequenzen vorschreibender Analyse): sie löst nämlich auch maschinell selbstständiges Handeln aus und steuert dieses Handeln. Mehr als 80 Prozent des Risikokapitals, das im Bereich Informationstechnologie eingesetzt wird, fließen in Produkte, Anwendungen und Dienste der Künstlichen Intelligenz (KI). Mehr als zwei Drittel dieser Summen, allein 2016 rund 2,7 Milliarden Dollar für KI- Anwendungen sowie weitere knapp 800 Millionen für die Grundlagenforschung, wurden für Plattformen zur Entscheidungsfindung auf Basis langfristiger deep learning-Techniken eingesetzt. Nun sind auch biologische Organismen - besonders Menschen-intelligente Systeme. „Häufig finden Informatik und Ingenieurwissenschaften jedoch Lösungen, die sogar besser und effizienter sind als in der Natur“ (Mainzer 2016c). 1.7 Die Künstliche Intelligenz 51 Dass die KI lange mehr oder weniger eine Theorie gewesen, vielfach eher ein abstraktes Schlagwort als eine konkrete Vorstellung geblieben ist - 83 Prozent von 1500 befragten US- Führungskräften konnten sich noch 2017 unter KI nichts vorstellen (Martin-Jung 2018) - und erst in jüngster Zeit rasant vorangekommen ist, hat einfach zu erkennende, aber keineswegs einfach zu erledigende Gründe. Ein KI-System muss auf Einflüsse und Aufträge von außen selbsttätig reagieren und sich dazu aktiv anpassen können. Dazu muss es selbst die Initiative ergreifen, selbst die Werkzeuge entwickeln, die seinem Zweck bestmöglich entsprechen, und sie selbst einsetzen. Es muss dazu alle Arten von Daten lesen, vergleichen, quantitativ und qualitativ bewerten und in Echtzeit im richtigen Kontext verarbeiten; denn nur so generiert es zusätzliches Wissen. Und was ermittelt, muss automatisch auch in anderen Kontexten verwendbar sein. Software is eating the world Wenn man das zuende denkt, erkennt man, wie prophetisch das Silicon Valley-Urgestein Marc Andreessen 2011 formulierte: „Software Is Eating the World“. Informationssysteme verlassen ihre bisher gut kontrollierbaren Wirkungsstätten in Büros, Fabrikhallen oder Rechenzentren, „ziehen hinaus in die ‚echte‘ Welt und assistieren bei der Suche nach einem Partner oder bei der Entscheidungsfindung im politischen Prozess“ (Gatzke/ Gruhn 2018). Jede zweite Bank oder Versicherung nutzt bereits eine KI-Anwendung, mit der sie ihre Kunden besser verstehen und passende Leistungen entwickeln und anbieten will. Dazu setzen diese Finanzinstitute Software-Roboter ein. Sie tun das allerdings nicht nur aus schierer Kundenfreundlichkeit, sondern auch, um Kosten zu sparen und um ihre Mitarbeiter von Routinearbeit zu befreien. Das ist auch nötig; denn manche Versicherungen bekommen pro Jahr 200 Millionen Dokumente zugesandt. Maschinen extrahieren die Inhalte, klassifizieren sie und erleichtern den Unternehmen fällige Entscheidungen. Versicherungen können durch diese Digitalisierung laut Boston Consulting Group bis zu 40 Prozent ihrer Kosten einsparen. „Dieses Potenzial kann aber nur heben und ausschöpfen, wer sein KI-System richtig anlernt, und zwar mit allen Informationen, die das Unternehmen zu seinen Kunden bisher gesammelt hat, und natürlich mit allen Fakten zu allen Produkten, die das Unternehmen anbietet (Hornik 2018). Jedes fünfte Institut sammelt außerdem bereits Erfahrungen mit digitalen Assistenten, sogenannten chatbots (Semlinger 2017a). Besonders weit sind sie zwar noch nicht. Sie „sollen den Handel revolutionieren, aber noch sind sie zu blöd“ (WiWo 2017, cit. Welcker 2017).Sie lernen jedoch jeden Tag hinzu und werden deshalb immer schlauer. Datenverarbeitungsprogramme rechnen mit wirtschaftlichen vernünftigem Verhalten und errechnen daraus Chancen und Risiken, aber sie tun es nicht wie zu Zeiten Bacheliers für eine konkrete Person, sondern ermitteln, was wahrscheinlich ist, wenn sich viele Akteure beteiligen. Das funktioniert gut; und Fachleute erstaunt das auch nicht. Denn „in der Theorie komplexer dynamischer Prozesse lassen sich globale Trends durch wenige statistische Verteilungsgrößen modellieren“ (Mainzer 2014a: 220). Globale Meinungstrends, sagt der Mathematiker und Big Data-Experte Mainzer, „entstehen einerseits durch kollektive Wechselwirkung ihrer Mitglieder (z.B. Kommunikation). Andererseits wirken globale Trends auf Gruppenmitglieder zurück, beeinflussen ihr Mikroverhalten und verstärken oder bremsen dadurch die globale Systemdynamik“ (ibid.: 220). Das zu untersuchen und die richtigen Schlüsse daraus zu ziehen wäre eine schier unlösbar komplexe Aufgabe, müsste man dazu die Gesamtheit der Daten und der beteiligten Personen im Auge behalten. Das ist jedoch gar nicht nötig. Bemerkenswert und typisch für Big Data ist nämlich, „dass es nicht auf die Korrektheit der Daten ankommt, sondern auf Reaktionsschnelligkeit. Solange alle Beteiligten auf dieselben Daten zurückgreifen, spielt die 52 1 Milliarden in Millisekunden Qualität und Zuverlässigkeit der Information für die Gewinnchancen keine Rolle“ (Mainzer 2014a: 241). Reaktionsschnelligkeit ist ein Stichwort, das auf Fähigkeiten von Maschinen verweist, die mit Künstlicher Intelligenz in Lichtgeschwindigkeit arbeiten. Den Beginn dessen, was wir heute Künstliche Intelligenz nennen, liegt in den Jahren 1956 bis 1958. Den Begriff selbst benutzte der US-Wissenschaftler John McCarthy erstmals 1956 auf einer Konferenz am Dartmouth College in New Hampshire (Eberl 2016: 39). Damals begann der Mathematiker John von Neumann, einer der drei Väter des Computerzeitalters, mit einer Reihe von Vorträgen, die 1958 posthum unter dem Titel The Computer and the Brain erschienen. Es war der „erste seriöse Blick ins menschliche Gehirn aus dem Blickwinkel eines Mathematikers und Computerwissenschaftlers“ (Kurzweil 2012: 191). Gehirne und Computer, stellte von Neumann fest, funktionieren grundsätzlich ähnlich; heutige Computer ausschließlich digital, das Gehirn teilweise auch analog. In den 1,3 Kilogramm unserer Gehirnmasse befinden sich etwa 80 Milliarden Nervenzellen. Die Zahl der Verbindungen unter ihnen schwankt erheblich, je nach dem, welche Stelle des Gehirns man betrachtet. Durchschnittlich ist jede Nervenzelle weit mehr als tausendfach über sogenannte Synapsen mit anderen anderen Neuronen verknüpft. Das ergibt zwischen hundert Billionen und einer Billiarde Verknüpfungen. Ihre addierte Länge erreicht fast sechs Millionen Kilometer - hintereinander gelegt reichte das 150-mal um die Erde (Eberl 2016: 92). Gehirnzellen sind im Vergleich zu Computern extrem langsam. Aber weil ihre zig Milliarden Verbindungen alle gleichzeitig aktiv sein können, arbeiten sie in hohem Maß parallel und damit in Summe recht schnell. Trotzdem sind Computer bis zu zehn Millionen mal schneller als eine einzelne Gehirnzelle (ibid.: 195). Um es mit der Leistung des gesamten Gehirns aufnehmen zu können, muss ein Computer allerdings zwischen 10 14 und 10 16 Rechenschritte pro Sekunde (calculations per second, cps) ausführen können - eine Leistung, die Supercomputer erst 2012 erreicht hatten (ibid.: 197). Der Weg dahin dauerte fast fünfzig Jahre. Den Begriff der Künstlichen Intelligenz gibt es wie kurz erwähnt schon seit den 1950er- Jahren, doch damals gab es noch nicht genügend Computerleistung und ungenügende Algorithmen. Deshalb „fiel die Disziplin zwischenzeitlich in eine Art KI-Winterschlaf, aus dem sie erst seit kurzem wieder erwacht“ (Matzer 2018). In der Zeit dieses Winterschlafs 1966 hatte der deutsche Professor Joseph Weizenbaum am Massachussetts Institute of Technology wie schon skizziert ein System namens Eliza geschaffen, „eine Art computerbasierten Psychotherapeuten, der die Gefühle einer Person beobachten und auf diese reagieren sollte“ (Hankey/ Tuszinsky 2017: 92). Seither hat die Technik der Künstlichen Intelligenz enorme Fortschritte gemacht. Die einen sagen zuversichtlich: „Die Künstliche Intelligenz, lange verbannt in das Reich von science fiction, ist auf dem Weg, die dominierende Technologieplattform zu werden, für alles - ein Einschnitt mindestens so groß wie die Erfindung des Internets“ (Schulz 2017: 14). Andere sind skeptischer: „Zur wahren Konsolidierung aller Funktionalitäten für Künstliche Intelligenz unter dem einheitlichen Subterm „AI“ [artificial intelligence] oder „KI“ [Künstliche Intelligenz] ist es noch ein langer Weg“ (Schmidt 2017). AI und KI bedeuten dasselbe. Bisher gab es für Künstliche bzw. autonome Intelligenz nicht einmal eine konsensfähige Definition. 2017 hat Bitkom eine vorgeschlagen. Sie soll es erleichtern, für intelligente Automation Taxonomien festzulegen, also Antworten darauf, welche Stufen intelligenter Autonomie es gibt. Der Industrie sind solche Überlegungen ziemlich egal. Bei Google liefen 2012 rund 50 KI-basierte Projekte, 2015 schon 2.700. Die Nachfrage steigt schnell. Auf der Internationalen Konferenz für Robotik und Automatisierung im Sommer 2015 in Seattle rief die MIT-Professorin und Direktorin des dortigen Labors für Computerwissenschaften 1.7 Die Künstliche Intelligenz 53 und Künstliche Intelligenz bereits das Zeitalter der persuasive robots aus, der allgegenwärtigen Roboter (Eberl 2016: 32). Sie bezog sich damit auf den Informatiker Mark Weiser, der schon 1990, als das Internet noch in den Kinderschuhen steckte, das persuasive computing vorhersagte. Rechenleistung, sagte er, werde überall unsichtbar in den Dingen stecken. Trotz dieses schon langen Entwicklungswegs, trotz des „immensen Hypes“ rund um sie steht die praktische Umsetzung der Künstlichen Intelligenz nach Ansicht der Business Intelligence-Fachfirma SAS noch ganz am Anfang. Engpassfaktoren sind einer SAS-Studie zufolge nicht die Technologie, sondern der Mangel an data science know-how sowie organisatorische Hindernisse und fehlende soziale Akzeptanz. Das bestätigt ein Blick auf die Wirtschaft: Im Jahr 2017 gab erst jede fünfte Firma an, mit ihren data science teams gut für den KI-Einsatz vorbereitet zu sein. 19 Prozent verfügten über derartige teams noch gar nicht (Hensel 2017c). SAS-CEO Jim Goodnight ist jedoch überzeugt: „Nur mit Analytik kann ein Unternehmen sicherstellen, dass ihm die derzeitigen wirtschaftlichen Umbrüche nutzen und nicht schaden“(Frisch 2017). Denn die Wirtschaft stützt sich auf drei Trends: auf Konnektivität, Automatisierung und eben Künstliche Intelligenz (ibid.). International ist die KI ein Profilierungsinstrument erster Ordnung. Die Vereinigten Arabischen Emirate haben seit 2017 einen eigenen Minister für KI (Kerkmann/ Höpner 2018). China hat erklärt, bis 2030 in Sachen KI Weltmarktführer zu werden und investiert bis dahin in die KI-Forschung 150 Milliarden Dollar, die EU bis 2020 nur rund zwei Milliarden (Marting-Jung 2018). Betrachten wir die KI ein bisschen genauer. Der amerikanische Philosoph John Rogers Searle unterscheidet zwischen schwacher und starker Künstlicher Intelligenz. Als schwache KI bezeichnet er etwas, das Menschen können, beispielsweise den Arm zu bewegen, das aber Maschinen ihm abnehmen, etwa mit der KI eines Industrieroboters, der einen von Menschen erteilten Auftrag erfüllt. Darüber entscheidet jedoch der Mensch. Selbst wenn der Roboter sich selbstständig lenkt, ist es ist immer noch der Mensch, der ihn für ihn denkt. Eine starke KI hingegen erleichtert menschliche Arbeit nicht nur, sondern ersetzt sie. Dann führt eine Maschine nicht nur etwas aus, sondern entscheidet auch wie ein Mensch, ob das nötig ist und wie es geschehen soll. So weit denkt sie also selbst, weiter aber noch nicht. Darauf hat Schön aufmerksam gemacht: Der Mensch löst Denkaufgaben zum Beispiel durch Abstraktion. Seine Denkprozesse werden zugleich hochgradig von Gefühlen und Intuition mitgeprägt. Und schließlich spielt das Unbewusste in unserer Psyche eine nicht zu unterschätzende Rolle. „All das wird von Algorithmen nicht abgebildet oder nachgeahmt. Maschinen gehen eigene, mit menschlichem Denken nur bedingt vergleichbaren Lösungswege“ (Schön 2016). Ein Beispiel: „Wenn Situation A, dann Reaktion B. Und wenn Voraussetzung C, dann Folgerung D. Das lässt sich einer Maschine durchaus beibringen. Aber was, wenn A und C gleichzeitig auftreten? Oder wenn ein Faktor X hinzukommt, der noch gar nicht bekannt und in der antrainierten Logik nicht definiert ist? Dann können Maschinen an Grenzen stoßen“ (Schmitz 2017). Wo Menschen alternativ - also abweichend - handeln würden, könnten rein KI-gesteuerte Anlagen mangels erkennbarer Entscheidungsmuster stillstehen (ibid.). Noch könnte es also nicht ganz so weit sein mit der Künstlichen Intelligenz auf dem Niveau der menschlichen. „Wenn es darum geht, riesige Datenmengen schnell auszuwerten, in Milliarden von Informationen binnen Sekunden eine einzige Abweichung zu identifizieren oder auch den zehntausendsten Prüfzyklus so exakt und fehlerfrei auszuführen wie den ersten, sind Maschinen den menschlichen Fähigkeiten hoch überlegen. Doch wo haben Dinge wie Intuition, Geschicklichkeit, situative Diplomatie oder Ähnliches ihren Platz? Geschäftlich sind sie oft entscheidend, doch als Datenquelle eindeutiger Informationsverarbeitung kaum darstellbar“ (ibid.). Schon der Weg zur KI scheidet deshalb die Geister: Für die einen richtet die KI „geistige Kollateralschäden an“ (brand eins 2016), andere können sie kaum erwarten. Umfragen im 54 1 Milliarden in Millisekunden Jahr 2017 zeigten, dass die Wirtschaft mit Instrumenten der Künstlichen Intelligenz inzwischen fest rechnet: Die KI ist demnach in deutschen Unternehmen angekommen und verändert schon heute die Art, wie Organisationen agieren und Entscheidungen treffen. Sieben von jeweils zehn Managern erwarten außerdem, dass KI bis zum Jahr 2025 einen großen bis sehr großen Einfluss auf die Unternehmensstrategie haben wird. Das ermittelte eine Studie von Sopra Steria Consulting bei über 200 Geschäftsführern, Vorständen und Führungskräften aus Unternehmen mit mehr als 500 Mitarbeitern (Welcker 2017). Die Süddeutsche Zeitung hatte im Herbst 2017 einen Bericht zur KI noch mit einer bereits ein halbes Jahrhundert alten science fiction-Animation über die Romanfigur Perry Rhodan illustriert (SZ vom 9.11.2017: 11) - so als liege deren Welt noch in weiter Entfernung. Für Microsoft-Forschungsleiter Christopher Bishop aber steht die Künstliche Intelligenz unmittelbar vor der Tür; er nennt sie die „größte Transformation der Informatik seit der Erfindung des Computers“ (Schulz 2017a: 69 f.). Im Zentrum dieser Wissenschaft und Technologie, sagte er, sei etwas Fundamentales geschehen: „Software wird nicht mehr von Hand entwickelt, sondern entwickelt sich selbst, indem sie aus Daten lernt“ (ibid.). Die Zusammenarbeit von Ingenieuren und IT-Fachleuten mit Künstlicher Intelligenz macht nach Einschätzung des Schweizer Forschungsinstituts-Chefs IDSIA Jürgen Schmidhuber show and tell robotics möglich: Der Bediener zeigt dem Roboter, was er zu tun hat, und der macht es ihm nach (Kerkmann/ Höpner 2018). Er lernt wie überall, wo es um Künstliche Intelligenz geht, im Grunde wie ein Kind: „Je mehr Daten einem Meta-Algorithmus zur Verfügung stehen und je länger das Modell trainiert wurde, desto besser und genauer wird das Ergebnis“ (Ciorapciu 2017). Im Zusammenhang mit KI ist ist auch von cognitive computing und machine learning die Rede. Diese zwei Begriffe bezeichnen verwandte Aspekte moderner Computersysteme. Was cognitive computing genau heißen soll, ist noch nicht ganz klar. Es gilt als ein Anwendungsfeld der KI und wird oft mit machine learning in einem Atemzug genannt. Gemeint ist damit maschinelles Handeln aus einem in einer Maschine vorhandenen Wissen heraus. Cognitive computing bezieht sich auf das Wort Kognition. Dieser Begriff umfasst Erkennen, Verstehen und Wissen. Kognitive Systeme können Aussagen in natürlicher Sprache und in Fachbegriffen verstehen und bewerten (Matzer 2017: 3). Sie registrieren, was einer Situation zugrunde liegt und mit welcher Software sie zu bearbeiten ist. Die dafür geeignete Informatik-Disziplin heißt deep learning und ist eine Untermenge von machine learning (ibid.). Machine learning bedeutet, dass Maschinen Beispiele - auch solche, die nur aufgezeichnet sind - selbstständig daraufhin analysieren können, ob sie die Lösung einer Aufgabe erleichtern oder nicht. Sie können selbst ermitteln, welche Beispiele ihr Training und die Erfolgsquote ihres Handelns fördern (Welcker 2017). Machine learning ist deshalb die Fähigkeit technischer Apparaturen, aus der Erfolgsquote ihrer Tätigkeiten selbstständig Schlüsse zu ziehen, um diese Quote zu steigern. 2018 beschäftigte sich bereits die Hälfte der deutschen Unternehmen aktiv mit machine learning. 2016 waren es erst 28 Prozent gewesen. Mehr als jedes fünfte Unternehmen setzt machine learning im Unternehmen inzwischen produktiv ein. Fast die Hälfte der Entscheider erwartet, dass machine learning bis 2020 mehr als 20 Prozent der Wertschöpfung der neuen digitalen Produkte und Dienstleistungen ausmachen wird. Das sind bei den hundert umsatzstärksten Unternehmen in Deutschland dann über 60 Milliarden Euro im Jahr. Bis 2022 sollen machine learning und Künstliche Intelligenz ein Viertel der digitalen Wertschöpfung ausmachen. Dabei gibt es natürlich auch Herausforderungen. Deutsche Unternehmen kennen sie. Bei Datenschutzproblemen oder falsche Prognosen würde fast die Hälfte der befragten Entscheider ihre machine learning -Projekte dehalb stoppen (Crisp 2018). In all diesen Bereichen geht es nach den Worten des Bitkom-Bereichsleiters IT-Services Mathias Weber darum, „die menschliche Wahrnehmung, seine Intelligenz und sein Denken 1.7 Die Künstliche Intelligenz 55 mit Hilfe von Computern und spezieller Software nachzubilden, zu unterstützen und zu erweitern.“ So verstehen auch Institute wie das Deutsche Forschungsinstitut für Künstliche Intelligenz (DFKI, mit 800 Mitarbeitern nach eigenen Angaben das weltweit größte Zentrum für KI-Forschung) und das entsprechende Max-Planck-Institut (MPI) das cognitive computing als Erweiterung und Unterstützung menschlicher Fähigkeiten. Sie sprechen von companions, die die Intelligenz des Menschen nicht ersetzen, sondern erweitern sollen (ibid.). Hoffnung und Enttäuschung liegen beim Urteil über Künstliche Intelligenz dicht beieinander. Die einen schwärmen von einer „sich selbst beflügelnden Computerintelligenz“, die anderen empfinden ein solches Urteil als „arg verfrüht. In Wahrheit ist die Branche in eine Sackgasse geraten. Denn allmählich wird klar: Wir bestaunen da lauter Mirakel beschränktester Fachidiotie“ (Dworschak 2018: 104). Computer können nicht verallgemeinern und sind blind für menschliche Zwecke (ibid. 2018a: 105). Analysieren sie etwas Sichtbares, hängt ihr Ergebnis davon ab, wie Formen und Farben über eine Fläche verteilt sind, wie Kontraste verlaufen, ob eher glatte Flächen vorherrschen oder detailreiche Strukturen. Das ist aber pure Statistik; was ein solches Bild sagen soll, ist der Maschine egal (ibid.: 105). Lernende Maschinen können - anders als Menschen - das Gelernte nämlich in kein größeres Ganzes einfügen. Ein neuronales Netz „kann zwar Muster erkennen, aber es weiß nichts über deren Bedeutung“ (Eberl 2016: 42). Maschinen haben „keine Ahnung von gesundem Menschenverstand“, sagt auch Adrew McAfee. Computer könnten Problemlösungen unterstützen und beschleunigen, aber keine initiieren und vorantreiben (cit. ibid.: 249). Menschliches Lernen „baut auf früheren Erkenntnissen auf, es verknüpft sie mit bereits Verstandenem. So wird die natürliche Intelligenz immer reicher“. Für die Künstliche führt dorthin kein Weg. Künstliche neuronale Netze aus miteinander verbundenen Neuronen können zwar Anwendungsprobleme aus der Statistik, der Technik oder der Wirtschaftswissenschaften computerbasiert lösen (Tutanch 2018); sie perfektionieren sich aber stets nur für eine einzige, eng umgrenzte Aufgabe. Für die nächste beginnen sie wieder von vorn, also bei null (Eberl 2016: 106). Neuronale Netze eignen sich also für Aufgaben, „bei denen nur geringes systematisches Lösungswissen vorliegt und eine große Menge von teils unpräzisen Eingabeinformationen zu einem konkreten Ergebnis verarbeitet werden müssen, beispielsweise die Sprach- oder die Bilderkennung“ (Tutanch 2018). Neuronale Netze können zudem Simulationen und Prognosen ableiten. Für komplexe Systeme können sie auch Zusammenhänge simulieren, erstellen oder prognostizieren, etwa in der Wettervorhersage, der medizinischen Diagnostik oder in Wirtschaftsprozessen. Aber maschinelles Lernen verläuft bisher eben nur in vorgegebenen Bahnen, entweder als überwachtes Lernen - dazu wird ein konkretes Ergebnis für die unterschiedlichen Eingabemöglichkeiten vorgegeben - oder als unbeaufsichtigtes - dann gibt es zwar kein vorab erwünschtes Ergebnis, eines aber bleibt gleich: „Der Lernvorgang basiert allein auf den Informationen der eingegebenen Muster“ (Tutanch 2018). Maschinen lernen erst, wenn sie nicht nur Sachverhalte erkennen, sondern auch Zusammenhänge, wenn sie also „intelligent, akkurat und umfassend Kontext aus den unterschiedlichsten Quellen verstehen und unmittelbar verarbeiten können. Das heißt, die Maschine wendet menschliche Verständnismuster an, um Big Data und unstrukturierte Informationen aus unterschiedlichsten Quellen zu interpretieren“ (Welcker 2017). Dieses Zusammenspiel funktioniert schon auf vielfältige Weise: mit Dokumenten, Nachrichten, Presseartikeln, Forschungsberichten, E-Mails, Formularen und sogar Bildern und Videos. Unternehmen verbessern durch dieses cognitive computing ihr Informations- und Wissensmanagement in Forschung, Produktion, Entwicklung und Marketing nicht nur. Sie krempeln es vielmehr grundlegend um. Schon sprechen Experten von einem KI-Hype (BMBF/ Wi 2018: Zeisel) - er habe sich aus einem Big Data-Hype weiterentwickelt (BMBF/ Wi 2018: Goerdeler). Nach Überzeu- 56 1 Milliarden in Millisekunden gung des Branchenverbandes Bitkom wird die Künstliche Intelligenz die Weise revolutionieren, „in der Menschen arbeiten, lernen, kommunizieren, konsumieren und leben“ (Bitkom 2017b: 3). Schon in wenigen Jahren würden viele Produkte und Services, die die Stellung der deutschen Unternehmen in der Weltwirtschaft ausmachen, mit Maschinenintelligenz ausgestattet oder sogar von ihr geprägt. Um in diesem Rennen in der Spitzengruppe zu sein, verfüge Deutschland über günstige Voraussetzungen: über große, leistungsfähige Forschungseinrichtungen, zahlreiche global tätige Industrieunternehmen und hidden champions aus dem Mittelstand (ibid.). Trotzdem glauben die meisten deutschen Top 500-Manager nicht, dass die KI als big next thing wesentlich in Deutschland umgesetzt wird (BMBF/ Wi 2018: v. Busse). Tatsächlich führt Deutschland bei KI-Patenten nicht. Die meisten kommen aus China (BMBF/ Wi 2018: Goerdeler). Idealerweise, sagen Kognitionswissenschaftler, sollten die Roboter der Zukunft eine theory of mind anlegen können, eine Theorie darüber, wie wir denken, die Fähigkeit zu erspüren, was das jeweilige Gegenüber gerade denken und fühlen könnte - also eine begründete Annahme über Bewusstseinsvorgänge in anderen Personen. Das entspricht etwa dem, was man unter kognitiver und emotionaler Empathie versteht (Eberl 2016: 294). Diese Perspektive hat wie stets zwei Gesichter: ein Hoffnung anzeigendes, etwa wenn die KI Behinderten, Personen mit geringen Sprachkenntnissen oder mit eingeschränkter Mobilität eine möglichst gleichwertige Teilhabe an der Arbeitswelt und am gesellschaftlichen Leben eröffnet und ein Gefahr witterndes, etwa wenn Maschinen menschliche Arbeitsplätze wegfallen lassen. Vor allem für Routinetätigkeiten wird es auf den Arbeitsmärkten deutlich weniger Nachfrage geben - wir umreißen das noch. Aber, sagt Bitkom weiter, weder werde der Mensch komplett ersetzt noch sei ein automatisiertes Reich der Freiheit zu erwarten, in dem Arbeit nicht mehr nötig sein werde. Zu erwarten sei vielmehr, dass mit der intelligenten Automatisierungund mit dem Wegfall von Arbeit, die Maschinen erledigen, zahlreiche neue Berufe entstehen. Ausbildung, soziale Dienste, Umweltschutz, Unterhaltung, Freizeitgestaltung sowie Kunst und Kultur würden als menschliche Tätigkeiten sogar wichtiger werden. Gerade die kreative Arbeit werde gestärkt, denn sie liege außerhalb der ‚Reichweite‘ von Maschinen (ibid.: 4). Voraussetzung werde es allerdings sein, nicht nur die Künstliche Intelligenz weiter zu fördern, sondern auch die menschliche - etwa indem Schulen stärker menschliche Stärken wie Kreativität und Kommunikation, soziale Interaktion und Problemlösung trainieren statt im Wesentlichen nur Wissen zu vermitteln(ibid.: 6). Amerikanische und britische, deutsche und französische sowie australische und singapurianische Firmen unterschiedlichster Branchen setzten 2016 bereits zur knappen Hälfte cognitive computing ein und verwendeten auch bereits complex event processing-Technologien sowie intelligente Plattformen und Dienste für das Internet der Dinge, und jede dritte aus der verbleibenden zweiten Hälfte hatte das vor. In naher Zukunft wollten 55 Prozent KI für pfiffigere Kundenbindungen einsetzen, 52 Prozent ihre Prozesse weiter automatisieren und 50 Prozent Risiken besser managen (ap-Verlag 2016b). Die deutsche Industrie, besonders die Automobilindustrie und das verarbeitende Gewerbe, wollen durch den Einsatz Künstlicher Intelligenz mit robotic process automation, also intelligenten Automatisierungstechnologien und Sensorik, digitalen Assistenten, predictive analytics und affective computing die Produktion weiter beschleunigen. Mit affective computing erkennen und interpretieren Maschinen menschliche Gefühlsäußerungen und warnen zum Beispiel bei Müdigkeit vor Fehlbedienungen oder Unfällen (Semlinger 2017). Im Fahrzeugsektor und in der verarbeitenden Industrie setzt bereits die Mehrheit der Unternehmen bei der Automatisierung ihrer Fertigungsprozesse auf Künstliche Intelligenz. Das hat eine Anlyse von Sopra Steria Consulting im Vorfeld der Hannover Messe 2017 ermittelt (ibid.). Die Firmen versprechen sich davon schnellere Abläufe und damit Wettbewerbsvorteile. Als Jobkiller sehen die Entscheider in diesen Branchen diese Technologien 1.7 Die Künstliche Intelligenz 57 derzeit noch nicht: 40 Prozent möchten vielmehr ihr Personal durch bots und digitale Assistenten unterstützen (ibid.). Bei den deutschen Logistikern sind laut Trend-Index 2017 der Messe transport logistic sogar 70 Prozent dafür, den Einsatz Künstlicher Intelligenz auf eigene Marktchancen zu prüfen. Allerdings sehen die Manager Risiken bei der Akzeptanz der KI sowohl bei Kunden als auch bei den Mitarbeitern. 64 Prozent der Fach- und Führungskräfte halten insbesondere selbstfahrende Autos für wichtig, um im Geschäft der Zukunft erfolgreich zu sein. Insgesamt halten deutsche Unternehmen die KI und und das maschinelle Lernen für wichtig; doch nur eine Minderheit setzt die Technologien bereits gezielt ein, da zwar häufig die notwendige IT-Infrastruktur vorhanden ist, das Know-how aber noch nicht ausreicht. Knapp ein Viertel der größeren deutschen Firmen nutzen KI- und ML-Lösungen, von den kleinen und mittelständischen Firmen sind es jedoch nur 15 Prozent (Tiedemann 2018). 61 Prozent der IT-Verantwortlichen schätzen die IT-Infrastruktur bereits als KI-tauglich ein. In den Chefebenen ist man vorsichtiger: Dieser Meinung sind nämlich nur 43 Prozent der Geschäftsführer und CIOs. Deutlichen Nachholbedarf gibt es in Bezug auf das Knowhow. Weniger als ein Viertel der Befragten sind der Meinung, dass das Wissen im Bereich Data Science, Algorithmen und Mathematik ausreicht, um KI-Verfahren richtig einsetzen zu können (ibid.). Über die Hälfte der Befragten sieht beim Einsatz von KI- und ML-Lösungen in Deutschland dringenden Diskussionsbedarf, befürchtet aber, dass ethische Aspekte die KI-Entwicklung einschränken könnte (ibid.). Nach dem Willen der Bundesregierung soll Deutschland bei der Zukunftstechnologie in den nächsten Jahren weltweit führend werden. 2018 beschloss das Bundeskabinett dazu Eckpunkte für eine nationale KI-Strategie. Zu ihnen zählt der bessere Zugang zu Gesundheits- und Verkehrsdaten sowie eine bessere Bezahlung von KI-Experten. „Wir müssen im Wettbewerb gerade mit den USA und China einen Zahn zulegen“, sagte Forschungsministerin Anja Karliczek (CDU) (Balser 2018). Die Regierung will dem Papier zufolge etwa die Daten der öffentlichen Hand und der Wissenschaft verstärkt für Anwendungen im Bereich künstliche Intelligenz öffnen. „Die Menge an nutzbaren, qualitativ hochwertigen Daten muss deutlich erhöht werden, ohne dabei Persönlichkeitsrechte, das Recht auf informationelle Selbstbestimmung oder andere Grundrechte zu verletzen“, heißt es in dem Papier (ibid.). Ob es angesichts der massiven chinesischen Investionen in dieses Zukunftsfeld genügt, „einen Zahn“ zuzulegen, mag man bezweifeln. Branchenbeobachter urteilen über diese Regieruntsinitiative denn auch skeptisch. Sie komme auch zu spät und dann auch noch zu zögerlich. Ein Beleg: Erst 2018 erklärte das Bundesverteidigungsministerium, es wolle mit Künstlicher Intelligenzgroße Datenmengen analysieren, um Krisen und Kriege vorherzusagen. Dafür will es maschinell analysierte Daten auch mit geheimen Informationen kombinieren. 80 Datenbanken mit Millionen Einzelinformationen nach das Ministerium für Software analysierbar. Aus der Kombination der Daten soll die KI Modelle möglicher Krisen kreieren und diese grafisch darstellen (Brühl 2018). Was es bis 2017 getan hat, sagte es nicht. Die Sonderform Deep Learning Eine Sonderform von machine learning ist deep learning. Es ist dem Gehirn abgeschaut. Beim Menschen aktiviert deep learning im Neokortex des Gehirns vier Schichten. Das weiß man seit den 1980er Jahren. In diesen Schichten werden Signale immer komplexer zusammengesetzt. Computer können jedoch in sehr viel mehr als nur vier Schichten arbeiten und daher auch hochkomplexe Datenmengen besonders schnell verarbeiten, etwa Bilder (Mainzer 2017a). Verschaltungsmuster, auch cluster genannt, repräsentieren dazu im Gehirn wie im Computer 58 1 Milliarden in Millisekunden die realen Gegenstände. Sie und sogar die Prozesse, nach denen unser Gehirn funktioniert, kann man im Computer mittlerweile modellieren. Ein neuronales Netz ist eine Art künstliches Abstraktionsmodell des Gehirns. Es besteht aus Künstlichen sogenannten Eingangs- und Ausgangsneuronen sowie mehreren Schichten Zwischenneuronen. Die Eingangsneuronen lassen sich durch Lernen auf verschiedenen Wegen über die Zwischenneuronen mit den Ausgangsneuronen verknüpfen. Je mehr Neuronen und Schichten existieren, desto komplexere Sachverhalte lassen sich abbilden. Die Lernmethoden richten sich nach der Funktionsweise des menschlichen Gehirns und führen zu eigenen Entscheidungen oder Prognosen. Denn das System kann das Erlernte immer wieder mit neuen Inhalten verknüpfen und so hinzulernen. Maschinell erreicht man das, indem die Maschine aus vorhandenen Daten und Informationen Muster herausliest und klassifiziert. Diese Erkenntnisse lassen sich wiederum mit Daten korrelieren und in einem weiteren Kontext verknüpfen. Schließlich ist die Maschine fähig, auf Basis der Verknüpfungen Entscheidungen zu treffen. Dazu braucht man in der Regel Massen an Daten, normlerweise zu mindestens 5000 Vorgängen derselben Art, um zu einem Ergebnismodell zu kommen, und mindestens zehn Millionen Fälle, um Ergebnisse ausreichend zu schärfen (Goodfellow 2016). In drei Vierteln aller deep learning-Projekte, die McKinsey untersuchte, waren Millionen von Datensätzen erforderlich (McKinsey 2018a: 14). In einem Drittel der Fälle war es außerdem nötig, rei Viertel der Datensätze allmonatlich zu aktualisieren, ein Viertel sogar jede Woche (ibid.: 16). Grundsätzlich ist es aber auch möglich, dass ein Algorithmus aus nur wenigen realen Fällen lernt, im Extremfall sogar nur aus einem einzigen (Duan 2017). Drei deep learning-Methoden und -Techniken werden hauptsächlich angewandt: feed forward neural networks - in feed forward neural networks fließt Information nur in eine Richtung. Es gibt keine Rückkopplungsschleifen; diese Technik gibt es seit 1958; entwickelt hat sie damals Frank Rosenblatt (McKinsey 2018a: 4) - recurrent neural networks - sie sind dagegen noch ziemlich neu; im November 2016 teilten Forscher der Universität Oxford mit, dass ein solches System zu 95 Prozent genau Sprache von den Lippen ablesen konnte, wähend menschliche Testpersonen das nur mit 52 Pozent Genauigkeit schafften (ibid.) - und convolutional neural networks. Letzere arbeiten in Schichten, die dem Teil des Gehirns nachgebaut sind, mit dem Lebewesen Gesehenes verarbeiten (ibid.). Außerdem gibt es generative adversarial networks; sie kombinieren die Leistung zweier neuronaler Netze. „Durch kontinuierliches Hinterfragen der Entscheidungen erhalten die Informationsverknüpfungen bestimmte Gewichtungen. Bestätigen sich Entscheidungen, erhöht sich deren Gewichtung, werden sie revidiert, verringert sich die Gewichtung. Zwischen der Eingabeschicht und der Ausgabeschicht entstehen immer mehr Stufen an Zwischenschichten und Verknüpfungen. Über den Output entscheidet die Anzahl der Zwischenschichten und deren Verknüpfung“ (Litzel 2017c).Neuronale Netze, fassen Rashid/ Langenau zusammen, „sind zu den leistungsfähigsten und nützlichsten Methoden auf dem Gebiet der Künstlichen Intelligenz geworden. Heute ist GoogleDeepMind zu fantastischen Dingen fähig, beispielsweise von sich aus zu lernen“ (Rashid/ Langenau 2017: XII). Die Basis dazu nennt man reinforcement learning; das bedeutet, dass ene Maschine durch Versuch und (immer weniger) Irrtum lernt. DeepMind hat mit dieser Fähigkeit hochkomplizierte Spiele gewinnen; wir schildern das gleich noch genauer. Anzuwenden ist deep learningin solchen Netzenangeblich relativ simpel. „Die Handwerkzeuge kann sich jeder Informatikstudent aus dem Internet herunterladen“ (Schulz 2017: 18). Das ist vielleicht ein wenig zu locker gesehen. Denn - um ein Beispiel zu nennen - allein die data-science-Programmiersprache R verfügt über mehr als 10.000 Analysepakete einer weltweiten community aus Fachwissenschaftlern und Software-Entwicklern. Ihr Angebot wächst exponentiell - von der Röntgenbildanalyse bis zur Klassifikation von sound files. Auch Konzerne 1.7 Die Künstliche Intelligenz 59 beteiligen sich: IBM, Microsoft, Oracle, Google, Tibco(Litzel 2017b). Das Nationale Bernstein Netzwerk für Computational Neuroscience in Berlin, eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF), untersucht, wie die Verschaltungsmuster mit kognitiven Zuständen verknüpft sind: mit der Wahrnehmung, mit dem Denken, mit Gefühl und Bewusstsein. Davon hängt Lernerfolg ab. Ein charakteristischer Unterschied trennt deep learning von machine learning: Beim maschinellen Lernen greift der Mensch in die maschinelle Analyse der Daten und den eigentlichen Entscheidungsprozess noch ein. Beim deep learning sorgt er lediglich dafür, dass die Informationen für das Lernen bereitstehen und die Prozesse dokumentiert werden. Die eigentliche Analyse und das Ableiten von Prognosen oder Entscheidungen überlässt er der Maschine. Er nimmt also keinen Einfluss auf die Ergebnisse des Lernprozesses. Deshalb lässt sich im Nachhinein auch nicht mehr komplett zurückverfolgen, welche Muster eine Maschine benutzt hat, um eine bestimmte Entscheidung zu treffen. Noch ist der Abstand von der Leistung des Gehirns zu der künstlicher neuronaler Netze groß, ja „noch meilenweit von den Fähigkeiten eines echten neuronalen Netzwerkes mit dem Namen ‚Gehirn‘ entfernt“ (Oettinger 2017: 8). Deep learning per Computer sei dem Lernen eines Zweijährigen in vielen Aspekten noch so unterlegen, dass das Begriff Lernen eigentlich in die Irre führe (ibid.). In anderen Aspekten haben Computer aber Fähigkeiten, die um Dimensionen besser sind als der Mensch. Deep learning ist, wie wir gesehen haben, überall dort gut geeignet, wo sich große Datenmengen nach Mustern und Modellen untersuchen lassen. Es wird daher für die Gesichts-, Objekt- oder Spracherkennung eingesetzt. Bei der Spracherkennung beispielsweise erweitern Systeme ihren Wortschatz selbstständig um neue Wörter oder Wortwendungen. So funktioniert auch das automatische Übersetzen gesprochener Texte, das autonome Fahren oder die Vorhersage von Kundenverhalten in einem CRM [customer relations management]-System (ibid.). Google Brain verarbeitet inzwischen Daten mit einer Million Neuronen und einiger Milliarden synaptischer Verbindungen - nicht ganz so viel wie im Gehirn, aber es hängt nur von der technischen Auslegung ab, diese Kapazität weiter zu steigern. Das Google-Übersetzerprogramm beherrscht mittlerweile über hundert Sprachen. 500 Millionen Menschen weltweit nutzen es bereits. Diese Software hat sich nach Google-Angaben allein 2016 weiter entwickelt als im gesamten vorausgegangenen Jahrzehnt (Google 2017: 17). Längst können Computer also sehr viel mehr als nur Buchstaben, Zahlen und Bildpunkte in Bits und Bytes zu zerlegen, diese zu speichern, wieder zu Wörtern, Sätzen und ganzen Texten, zu Zahlen und deren grafischer Umsetzung in Diagramme oder zu Bildern zusammenzusetzen und mit anderen gespeicherten oder gerade als stream eintreffenden Daten abzugleichen. Sie können mittlerweile alle fünf Sinne benutzen und sogar Signale zu verarbeiten, die wir Menschen gar nicht wahrnehmen können. Sehen und hören können Computer schon länger. Nun lernen sie nicht nur zu tasten und zu riechen, sondern auch Echos und ultraviolette Signale zu deuten und Magnetfelder auszuwerten. Das Wesentliche ist, dass sie in allen diesen Fällen eigene Schlussfolgerungen ziehen können. Bei uns Menschen nennt man das denken und intelligent zu handeln. Das können Computer in Grenzen nun auch. Eng mit dieser Entwicklung verknüpft sind sogenannte bots, die nach Expertenansicht noch gewaltig an Bedeutung gewinnen werden. Es sind Programme, die anstelle von Menschen agieren, bislang „eher einfache Avatare, die beispielsweise einem Anwender helfen, sich durch eine Produktpalette zu navigieren. Die semantische Verarbeitung und die Analyse ‚natürlichsprachlichen‘ Inputs können bots in wenigen Jahren so gescheit machen, „dass sie den Anspruch einer Turing-Maschine erfüllen“ (Bitkom 2017: Landrock; die legendäre Maschine des britischen Mathematikers Turing hatte wie schon erwähnt in den frühen 1940er Jahren den Geheimcode der deutschen Marine geknackt). Bots verarbeiten große Datensätze in Echtzeit. Sie basieren nicht grundsätzlich auf Künstlicher Intelligenz, auch 60 1 Milliarden in Millisekunden wenn diese häufig im Hintergrund zum Einsatz kommt, erläutert Senior Data Scientist und Chatbot-Experte Marius Försch (Hensel 2018a). Als eine der größten Herausforderungen für chatbots sieht Försch die menschliche Sprache. Sie ist nicht immer eindeutig. Während menschliche Gesprächspartner Doppeldeutigkeiten aus dem Kontext ableiten können, fällt das Chatbots noch schwer. Umgangssprache, Dialekte, Ironie oder auch Rechtschreibfehler tragen dazu ebenfalls bei. Deep learning unterstützt die Technik aber beim Überwinden dieser Verständnisprobleme. Gute bots erkennen inzwischen auch ironisch gemeinte Angaben und interpretieren und beantworten sie trotzdem richtig. Drei Beispiele: Schach, Go, Poker Wie schnell die Künstliche Intelligenz aus eigenen Fehlern lernt, zeigen die folgenden drei Beispiele. Das erste war ein Schachturnier, bei dem der Supercomputer Deep Blue schon vor einem Jahrzehnt den damaligen Schachweltmeister Garri Kasparov besiegte. Einen solchen Sieg hatte der spätere Wirtschaftsnobelpreisträger Herbert Simon schon 1957 vorhergesagt. Es glaubte, das werde in zehn Jahre, soweit sein. Tatsächlich dauerte es aber 40 Jahre, bis bis der IBM-Rechner Deep Blue 2009 Kasparow unter Turnierbedingungen niederrang. Denn der Hochleistungscomputer konnte dank der enorm gestiegenen Rechenleistung pro Sekunde 200 Millionen Schachstellungen bewerten (Eberl 2016: 46). „Natürlich kann man Algorithmen entwickeln, die Schach spielen“, sagt dazu Drösser; „sie berechnen zu jedem Zeitpunkt den nächsten Zug - etwa, indem sie alle möglichen Züge bestimmen, jeden davon nach einem gewissen System bewerten und dann den mit der höchsten Bewertung auswählen (Drösser 2016: 26). Und auch Stampfl urteilte sehr gelassen: „Eine einzige Sache, nämlich Schach, konnte er wirklich gut, aber ansonsten rein gar nichts“ (Stampfl 2013: 12). Das gilt nicht nur im Schach: Viele AI-Applikationen können nur sehr spezifische Aufgaben lösen, das aber unglaublich schnell. Dabei erreichen oder übertreffen deren Algorithmen die Leistung des Menschen zum Teil erheblich (Bitkom 2017 Chakraborty). In definierten Aufgaben schneiden sie „bereits besser ab der Durchschnitt der Menschen“ (SZ, 30.12.2016: 72). Das zweite Beispiel lieferte ein Computer der zu Google gehörenden Firma DeepMind: Mit der Software AlphaZero ausgerüstet besiegte er 2016 einen der weltbesten Spieler im chinesischen Strategiespiel Go, Lee Sedol (SZ 30.12.2016: 72). Go ist mit 19x19 Feldern wesentlich komplexer als Schach. Die DeepMind-Entwickler brachten ihrem Computer aber eine Art Intuition bei: Sie kombinierten analytische Berechnungen mit dem sogenannten Monte- Carlo-Verfahren, das Zufallszüge ins Spiel bringen (Eberl 2016: 109). Ein Monte-Carlo-Algorithmus ermittelt aus zufälligen Zwischenergebnissen ein annähernd korrektes Ergebnis. Wiederholt man das oft genug, sinkt sukzessive die Fehlerwahrscheinlichkeit in der Regel unter einen vertretbaren Schwellenwert, den KPI ( Key Performance Indicator) - dann ist die Antwort wahrscheinlich richtig (Matzer 2018b). Das war der Durchbruch. Der Sieg basierte also nicht nur auf klassischen KI-Funktionen, sondern auch auf reinforcement learning, das heißt auf Lernen durch Belohnung. Algorithmen auf dieser Basis werden auch autonome Fahrzeuge auf der Straße oder Roboter in Fabrikhallen steuern (Barrenechea 2018). Beiden Spielen ist eines gemeinsam: Jeder Mitspieler kann den momentanen Zustand des Spiels und die vorhandenen Möglichkeiten offen erkennen. Denn die Spielfiguren stehen ja auf dem Spielfeld. „Die Mathematik, die darin steckt, ist höchst ausgeklügelt. Sie führt aber nur zum Erfolg, weil im Brettspiel Felder und Regeln fixiert sind. Hier geschieht, anders als im Leben, nichts Unvermutetes“ (Dworschak 2018: 105). Auch bei Go ist daher die Summe aller möglichen Schritte analysierbar und damit berechenbar, wenn ein Computer das schnell genug schafft, um dann den besten Spielschritt zu wählen. 1.7 Die Künstliche Intelligenz 61 Anders beim Poker, dem dritten Beispiel. Dort sind die Karten verdeckt und die Spielzüge der Mitspieler daher nicht vorhersehbar. Das Spiel läuft also mit unvollständiger Information und die Spieler können, ja müssen bluffen - Stichwort pokerface. Intuition, Emotion und Gefühl spielen beim Poker eine wesentliche Rolle. Das hat bisher als eine uneinnehmbare menschliche Festung gegolten. So ist es jedoch nicht mehr. Der spektakulärste Sieg eines Systems Künstlicher Intelligenz gelang Anfang 2017 einem Computer der Carnegie Mellon-Universität Pittsburgh. Am 30. Januar 2017 schrieb eine AI Software dieser Universität namens Liberatus aus der School of Computer Science im Computer Science Department Geschichte: In einem zwanzigtägigen Poker- Marathon im Rivers-Kasino dieser nordamerikanischen Stadt besiegte sie die vier besten Poker-Profis mit einem Vorsprung von über 1,7 Millionen US-Dollar. Diese Software bekam nur die einfachen Kartenregeln einprogrammiert. Den entscheidenden Rest leisteten lernende Algorithmen selbst. Sie arbeiten ähnlich wie das neuronale Netz des Gehirns: Aus Fehlern ziehen sie eigene Schlüsse - das technische neuronale Netz allerdings in wesentlich kürzerer Zeit als das humane. Das System der Carnegie Mellon-Universität spielte nächtelang gegen sich selbst und absolvierte dabei Millionen von Spielen, mehr als für einen einzelnen Menschen im ganzen Leben möglich wären. Mit jedem Spiel lernte es hinzu, nur wesentlich schneller als menschliche Spieler, 17.500 Mal schneller als ein einzelner Laptop arbeiten kann (Spice 2017). Algorithmen analysierten jede Nacht die besten Spielzüge und entschieden selbst, wie sie ein Problem optimal zu lösen hatten. „Der Computer minimierte also nicht seine Schwächen, sondern optimierte seine Stärken“, erläuterte Sandholm (ibid.). So erwarb er einen Erfahrungsschatz, den kein Einzelner haben kann - allerdings zu enormen Kosten: In die Weiterentwicklung von alpha-go hat Google allein für hardware 28 Millionen Dollar investiert (BMBF/ Wi 2018: Hecker). Dieser Wettkampf „Brains vs. Artificial Intelligence: Upping the Ante“ bewies erstmals, dass Künstliche Intelligenz auch unter den Bedingungen unvollständiger Information mehr kann als die besten menschlichen Profis. Ein Meilenstein der Künstlichen Intelligenz ist diese Leistung vor allem deshalb, weil die meisten Entscheidungen im Geschäftsleben, im Gesundheitswesen, im Militärwesen und auf dem Gebiet der Datensicherheit wie im Poker ohne vollständige Information getroffen werden müssen. Der Computer konnte gewinnen, weil auch er gelernt hatte zu bluffen (Spice 2017, Mainzer 2017a). Dieses Know-How verbreitete sich in Windeseile. Denn nach dem gewonnenen Spiel begann die Universität, die ihn entwickelt hatte, die Strategie dieses Computers offenzulegen, erstmals vor der Association for the Advancement of Artificial Intelligence in San Francisco. KI-Entwicklungstendenzen Wolfgang Nimführ, Manager der IBM Analytics Group, sieht in der Evolution der Künstlichen Intelligenz vier Stufen. Die erste war der Blick in die Vergangenheit mit deskriptiven Analysen für Antworten auf die Frage „Was ist wann passiert? “ In den Stufen 2 und 3 geht es mit prädikativen und präskriptiven Analysen um die Zukunft, um die Frage also, was passieren wird, wenn man an bestimmten Stellschrauben dreht. Prädikative Analysen versetzen beispielsweise Betreiber intelligenter Stromnetze (smart grids) in die Lage vorauszusagen, wie sich der Strombedarf entwickeln wird, und können so die Erzeugung von Solar- und Windstrom mit dem Stromverbrauch in Einklang zu bringen. Präskriptive Analysen berücksichtigen nicht nur Informationen über vergangene und aktuelle Ereignisse und erkennen Regeln, sondern entwerfen auch Wenn-dann-Szenarien. Anders als prädiktive geben präskriptive Analysen den Anwendern also konkrete Empfehlungen, mit welchen Strategien und Methoden sie künftige Situationen mit der höchsten Erfolgschance handhaben sollten. 62 1 Milliarden in Millisekunden Stufe 4 schließlich sind kognitive Analysen mit Künstlicher Intelligenz. Dazu kommt der IBM-Supercomputer Watson ins Spiel. Er „funktioniert ähnlich wie das menschliche Gehirn und kann unstrukturierte Daten - darunter Bilder, Dokumente, Sensoren, Webseiten und Blogs - verstehen, logische Zusammenhänge herstellen, interpretieren, beurteilen und Schlussfolgerungen für Entscheidungen ziehen. Ein solches kognitives System lernt, wie wir gesehen haben, selbstständig und verbessert sich kontinuierlich; es „wird zu einem persönlichen Berater, einem ‚Roboter-Kollegen‘ (robo advisor), mit dem Nutzer natürlich und intuitiv interagieren können“ (Nimführ 2016). Bereits etabliert sind analytics-driven business models, also datengetriebenene Geschäftsmodelle, zum Beispiel für Kfz-Versicherungstarife, deren Prämienhöhe vom tagtäglichen Fahrverhalten des Kunden abhängt, und social analytics, also die Erkundung und Auswertung von Daten aus sozialen Medien. Die Treffergenauigkeit von Big Data-Analysen und -prognosen aus sozialen Medien ist schon erstaunlich hoch. In den USA hat eine Internetplattform namens Fourthsquare die posts von Nutzern einer Lebensmittel- oder Restaurantkette danach ausgewertet, wie diese Gäste dort Geld ausgegeben und etwas empfohlen oder kritisch bewertet hatten. Noch bevor das Unternehmen Geschäftszahlen veröffentlichte, sagte Fourthsquare dem Unternehmen einen Umsatzeinbruch von 30 Prozent voraus. Der trat auch tatsächlich ein (Bitkom 2017: Arnold). Bei einer solchen Ausforschung privater Meinungsäußerungen kommen schnell ethische Aspekte ins Spiel. Sie haben uns in Kapitel 9 zu beschäftigen. Intelligente Künstliche Systeme können also Situationen erkennen, sie bewerten und auf sie sinnvoll reagieren. Sie verstehen Anfragen und reagieren verständig. Also sind sie in der Lage, auf Anfragen auch zu antworten. Sie können sich deshalb in Grenzen, nämlich im Rahmen des ihnen einprogrammierten Themenfeldes, mit Menschen unterhalten. Und, was fast noch wichtiger ist: Sie können den Erfolg oder Misserfolg ihrer Reaktion selbst einschätzen, um daraus Schlüsse zu ziehen und sich bei Misserfolg künftig anders zu verhalten. Das nennt man nicht nur bei uns Menschen Lernfähigkeit. Auch Maschinen haben zu lernen gelernt. „Diese maschinelle Lernfähigkeit ist der Nukleus Künstlicher Intelligenz. Von ihr hängt ab, wie gut Maschinen Aufgaben lösen. Sie bestimmt den Grad ihrer Selbstständigkeit, den Grad an Komplexität der Aufgabe, die Maschinen lösen können, und die Effizienz der Problemlösung“ (Mainzer 2017a). Der Leiter Bildverstehen bei Daimler-Benz, Uwe Franke, relativiert allerdings: Man spreche von lernenden Maschinen; das bessere Wort sei aber, sie zu trainieren mit einer definierten Zielstellung (cit. SZ 30.12.2016: 72). Vier Analysekategorien werden unterschieden: Standardisierte Analysen taugen für eher geringere Anforderungen an Zeit und Datenvielfalt. In-memory-Technologien eignen sich für sehr große Datenauswertungen. Hadoop-Lösungen helfen bei einer großen Vielfalt an Datenformaten. Complex event processing und streaming eignen sich, wenn Daten schon beim Entstehen zu erfassen und auszuwerten sind (Geißler 2018). Das Interesse an der KI-Entwicklung ist groß. Eine SAS-Befragung von Top-Führungskräften in rund hundert Firmen der Region EMEA (Europa, Mittlerer Osten, Afrika) ergab 2017 an Künstlicher Intelligenz großes Interesse, aber erst mäßige Fähigkeiten, es auch umzusetzen. Denn nur in jedem fünften Unternehmen standen KI-Experten zum Handeln bereit und nur in jedem vierten liefen KI-Prozesse schon gut. Ebenfalls jedes vierte suchte externe Unterstützung, aber erst jedes achte sagte, es sei bereit, auf dem Gebiet der Künstlichen Intelligenz und des maschinellen Lernens weitere Schritte zu gehen. Das überrascht; denn maschinelle Lernverfahren unterstützen Experten inzwischen auch bei der Modellbildung oder automatisieren sie sogar, etwa für das Internet der Dinge, wenn es darum geht, Kundenbedürfnisse in Echtzeit zu ermitteln und zu bedienen, den Kundennutzen zu analysieren und so das Produkt zu verbessern sowie um Geräte und Anlagen intelligent fernzusteuern sowie Geräte vorausschauend zu warten. Alle dazu nötigen Daten verarbeiten Computer ohne menschliches Zutun. Sie entscheiden, wie das Poker-Beispiel 1.7 Die Künstliche Intelligenz 63 gezeigt hat, auch bei Unsicherheit. Algorithmenzerlegen dazu komplexe Probleme in einfachere Subprobleme und lösen sie durch Kooperation miteinander. Neue Eigenschaften oder Strukturen entwickelt ein solches System im Zusammenspiel seiner Elemente spontan und vernetzt unabhängige Programme „zu einer maschinellen Parallelwelt, die kein Programmierer je programmiert oder getestet hat und deren Dynamik wir weder kennen noch ohne Weiteres analysieren können“ (Hofstetter 2016: 16). Marketingexperten in ganz Europa äußerten sich 2016 dazu, wie sie die Rolle der Künstlichen Intelligenz in Bezug auf ihre eigene Branche einschätzen. Mehr als drei Viertel (78 Prozent) erwarten für ihre Arbeitsplätze keine Bedrohung (Ballüder 2017; dass das in vielen Branchen anders aussehen wird, erläutern wir später in diesem Buch). Sie erleben Künstliche Intelligenz vielmehr als Chance für technologisch fortschrittliche Kampagnen, die die Kunden im richtigen Moment erreichen und, was für sie am Wichtigsten ist, einen greifbaren return on investment erbringen soll. Sie erwarten daher auch, dass die Bereitschaft von Marken und Agenturen, diese Technologien einzusetzen, in den kommenden fünf Jahren noch erheblich zunehmen wird (ibid.). Branded Research ermittelte im Auftrag von Infosys bei rund tausend Führungskräften aus Wirtschaft und IT in sieben Ländern, dass die Künstliche Intelligenz der Experimentierphase inzwischen entwachsen ist: Rund 90 Prozent der Führungskräfte berichteten von messbaren Vorteilen für die Firma (Hensel 2018). Unternehmen mit einer klar definierten Strategie für KI, die ihre Belegschaft unterstützen und nicht ersetzen, würden an der Spitze der Konkurrenz stehen, andere zurückbleiben, erklärt Infosys-Präsident Mohit Joshi (ibid). Dieser Wandel hat wie stets ein Doppelgesicht: In 69 Prozent der von Infosys befragten Firmen fürchteten die Mitarbeiter, von KI-Technologien ersetzt zu werden. Zugleich glaubten 45 Prozent der Führungskräfte, die KI werde die Produktivität der Mitarbeiter verbessern und mehr Zeit für wichtige Aufgaben lassen. 70 Prozent erwarteten einen positiven Effekt auf die Belegschaft (ibid.). Heute steht die Menschheit am Tor in die kognitive Ära - „eine Zeitenwende“ (Nimführ 2016). Die Komplexität soziotechnischer Systeme ist „eine Herausforderung, an deren Anfängen wir erst stehen“ (Mainzer 2014a: 274). IDC-Marktforscher erwarteten 2017, in weniger als zwei Jahren, bis 2019, würden mehr als 50 Prozent aller neu entwickelten Appsmit kognitiven Fähigkeiten ausgestattet werden. Der IDC ging davon aus, dass schon 2018 die Hälfte aller Verbraucher regelmäßig mit kognitiven Services umgehen werde (Schonschek 2017). Schon jetzt können Konsumenten von KI-Systemen profitieren, etwa mit DailyDress, einer App, die „individuelle Outfit-Inspirationen“ passend zum eigenen Kleiderschrank anbietet (ibid.). Nach Überzeugung des früheren deutschen Verteidigungsministers und jetzigen in den USA im Bereich der Datenanwendungen arbeitenden Unternehmensberaters Karl-Theodor zu Guttenberg stehen wir bei der Künstlichen Intelligenz „förmlich vor Quantensprüngen - mit Auswirkungen, die viele gesellschaftliche Felder weitaus stärker transformieren werden als wir uns das vorstellen können“ (cit. Brettning / Dunker: 48). Der Gründer und Chef des amerikanischen Grafikchipherstellers Nvidia, Jen-Hsun Huang, sagt noch entschiedener: „Die Künstliche Intelligenz wird einen größeren Einfluss auf unser Leben haben als die Erfindung des Computers, des Internets oder des Mobiltelefons zusammen“ (Bitkom 2017: Metze). KI bringt viele Vorteile auch für schwächere Teile unserer Gesellschaft. Nur ein Beleg: Smartphones haben den Zugang zu Wissen und Informationen für alle Einkommensgruppen erleichtert (Kumar 2017). Aber sie kann auch massiv auf Abwege führen: 2016 startete Microsoft ein KI-Projekt der Kategorie „lernfähige Intelligenz“ in den sozialen Netzwerken. Je mehr man sich mit diesem Microsoft-Computer Tay unterhält, desto mehr lernt er - nur was? Einige Stunden nach dem Start twitterte Tay plötzlich „I just hate everybody“ - ich hasse sie alle. Es folgten Hass-Tweets gegen Feministinnen - sie sollten „sterben und in der Hölle 64 1 Milliarden in Millisekunden schmoren“. Wenige Minuten später sagte Tay dann: „Hitler was right. I hate the Jews“ - Hitler hatte recht. Ich hasse die Juden. Dann postete Tay Bilder von Hitler. Wie war das möglich? Tay hatte von den Inernetnutzern gelernt, die sich in dem Teil des Web, das er beobachtete, am stärksten tummelten - von Rechtsradikalen. Es hätten auch Dschihadisten oder Linksextreme sein können, Satanisten oder Leute, die gegen den Einfluss Außerirdischer Aluhüte tragen. Ein selbst lernender botentscheidet selbst nämlich gar nichts, sondern lernt, was man ihm sagtbzw. was er findet. Er hat keinen kritischen Verstand, der an etwas zweifelt oder auch nur die Chance dazu zulässt. „KI-Systeme“, schrieb deshalb brand eins noch 2016, „sind bestenfalls nützliche Idioten, bei denen es nur zum Nachplappern reicht. Mitläufer. Gefährliche Kopien.“ Das stimmt aber inzwischen nicht mehr. Viele KI-Prozesse steuern mittlerweile Sachverhalte, die Fehler tolerieren oder beim Auftreten eines Fehlers manuelle Korrekturen zulassen. Ein solches intelligentes Assistenzsystem, das schon seit Jahren problemlos genutzt wird, ist der Autopilot in Flugzeugen. Ein ähnliches KI-System auf der Basis Künstlichen Lernens (KL) wird künftig auch autonom fahrende Automobile steuern. Besonders verantwortungsvolle Entscheidungsprozesse wie zum Beispiel diese autonome Steuerung von Automobilen sollten nach Überzeugung des Branchenverbandes Bitkom aber bis auf Weiteres bei verantwortlichen Menschen verbleiben, bis nämlich die Steuerungsqualität der KI ein von allen Beteiligten akzeptiertes Niveau erreicht hat (Bitkom 2017b: 7). Frank Chen, in den 1990er Jahren ein IBM-Forscher für lernende Software, nun Partner der weltweit einflussreichsten Wagniskapitalfirma Andreessen Horowitz, sagt voraus: „Künstliche Intelligenz wird in jeder Anwendung stecken, daran gibt es keinen Zweifel“ (Schulz 2017: 18). Google-Chef Schmidt sieht das genauso: „Wir sind vor allem anderen ein Künstliche-Intelligenz-Unternehmen“. Und auch Microsoft-Chef Satya Nadella hat keinerlei Zweifel: „Künstliche Intelligenz ist der Kern von allem, was wir tun“ (ibid.). Die Unternehmensberatung Accenture sieht das nur graduell anders: Umfassende Künstliche Intelligenz werde zwar noch einige Jahrzehnte auf sich warten lassen. Augmented intelligence aber, also künstlich verstärkte menschliche Intelligenz, werde zügig eine tragende Rolle spielen (Bitkom 2017: Chakraborty). Diese erweiterte Intelligenz beruht auf der Fähigkeit der menschlichen Intelligenz, die Ergebnisse der KI um Erfahrungswerte und Expertenwissen zu ergänzen. Sie verknüpft die Ergebnisse automatisch arbeitender Algorithmen mit der Erfahrung und Intuition von Menschen. Algorithmen liefern Einsichten, Menschen reichern sie mit ihrem Wissen an und machen daraus Aktionen (Selz 2018). Im Unterschied zur Künstlichen Intelligenz ist das KI-System in der augmented intelligence also„keine ‚Entscheidungsmaschine‘. Es schafft vielmehr (immer schneller, vollständiger und selbstlernend) die besten Voraussetzungen für das Treffen von Entscheidungen sowie zum Entwickeln strategischer Perspektiven. Ziel ist es, Anwender geschickter darin zu machen, maschinelle Intelligenz smart zu nutzen, und zwar ohne sich durch vordefinierte Fragestellungen, bzw. zu enge Denkansätze selbst zu beschränken - oder sich einem Analyserahmen auszusetzen, den die Künstliche Intelligenz vorgibt“ (Schmitz 2017). Die augmented intelligence soll zum Beispiel die Text- und Videoanalyse weitgehend automatisieren, Maschinen aller Art steuern und sie im Rahmen vorgegebener Parameter lernfähig machen, so ziemlich überall virtuelle Agenten einsetzbar machen und zugleich die Sicherheit der Datenwelt deutlich erhöhen. Porsche beispielsweise veröffentlichte 2017 Anzeigen seiner Sportwagen, die man mit dem Smartphone fotografieren und dann digitale Audio- und Video- Dateien sowie und Fotos und Texte aufrufen konnte, „ein cleverer Brückenschlag zwischen haptischer Erfahrung und digitalem Erlebnis“ (Zunke 2017: 116). Ein anderes Beispiel: Wer den Fußboden seiner Wohnung scannt, kann auf der Basis des Apple Smartphone-Programms iOS11 mit der IKEA-App Place Möbelstücke automatisch maßstabsgerecht einspiegeln lassen. Das funktioniert laut IKEA zu 98 Prozent genau. Die Darstellung ist so lebensecht, 1.7 Die Künstliche Intelligenz 65 dass man die Struktur der Materialien sowie Licht und Schattenfall auf den Möbelstücken erkennen kann (ibid.). Inzwischen beginnen auch die sozialen Netzwerke - etwa Facebook mit seiner camera effects platform - solcheChancen zu öffnen. Dort erwarten Fachleute deren bald größte Verbreitung (ibid.). Nach Keeses schon 2014 publizierter Prognose wird die augmented reality „vermutlich zum Standard des menschlichen Miteinanders werden. Freilich nur in ausgewählten Situationen. Der Grillabend mit Freunden bleibt bestehen, ebenso wie das Essen beim Franzosen und das Vorlesen für Kinder am Bett. Auch das persönliche Geschäftsgespräch über heikle Themen wird nie ersetzbar sein. Aber alles andere kommt in die cloud“ (Keese 2014: 252). Man sollte dabei narrow artificial intelligence von general artificial intelligence unterscheiden. Wo narrow AI dem Rechner praktisch beibringt, sich wie ein menschliches Wesen zu benehmen und menschliche Wahrnehmung und Ausdrucksweise nachzuäffen, bemüht sich general AI darum, menschliches Denken nachzugestalten. „Solche Systeme existieren bis heute nicht und alles, was so aussieht, ist noch Fiktion“, resümierte Schabenberger. Der Hauptgrund: Narrow AI kann spezielle Probleme punktuell und schrittweise bewältigen, doch general AI müsste alle Probleme jedweder Art jederzeit ohne Training bewältigen können - eine Utopie, aber auch eine Gefahr. Sie wäre in der Lage, „sehr viel schneller als ein Mensch zu denken“, warnte Schabenberger (Matzer 2018). Die anlaufende Entwicklung von cyberphysical systems lässt erwarten, dass sich keine isoliert lernende Technologie herausbilden wird. „Vielmehr werden sich selbst reproduzierende und mehr oder weniger autonom agierende Technologien mit Menschen in soziotechnischen Systemen eingebunden sein. Das Internet der Dinge und Industrie 4.0 sind erste Schritte in diese Richtung. Der Faktor ‚Mensch‘ wird bei dieser Entwicklung eine zentrale Herausforderung bleiben (ibid.: 268, denn die Künstliche Intelligenz braucht immer auch menschliche Einsicht, um wirklich wertvoll zu werden (Potter 2018). Das Unvorhersehbare lässt sich nämlich nicht technisch trainieren. Einem Algorithmus können Experten auf Basis hunderttausender Bilder beibringen, aber ein einziges fremdes Bild lässt das System nicht mehr funktionieren. Ein Teil der realen Welt wird also immer außerhalb des Informationssystems bleiben. Denn hinter der beobachtbaren Unordnung stecken mehr Ausnahmen als Regeln (Gatzke/ Gruhn 2018). Ingenieure und data scientists, die KI konstruieren und programmieren, dürfen Methodologien für KI deshalb nicht der Technik überlassen. Diese Parameter müssen vielmehr gesellschaftlich vorgegeben werden. Es sind die, die das Überleben des Menschen sichern: Empathie, Ethik, Gerechtigkeit und Fairness (Matzer 2018). Dass manipulierbare Maschinen menschenähnliche Intelligenz erreichen werden, halten die meisten Forscher für prinzipiell ausgemacht - umstritten ist, wann. Erreichen Maschinen diesen Punkt, können sie sich selbst so sehr verbessern, dass sie zur Superintelligenz heranwachsen können. Ist das realistisch? Durchaus: Google teilte Anfang 2017 mit, seine Forscher hätten eine KI-Software entwickelt, die selbstständig neue, bessere KI-Software programmiert: „ein digitales perpetuum mobile“ (Schulz 2017: 19). Bis zum Jahr 2030 werde sich die Beziehung zwischen Menschen und Maschinen in Richtung einer umfassenden Interaktion ändern, schlussfolgert Dell auf Basis der IFTF- StudieThe Next Era of Human-Machine Partnerships: „In einigen Jahren werden Menschen in Arbeit und Alltag als ‚digitale Dirigenten‘ fungieren“ (Hesel 2017b). Die Studie sagt voraus: Bis 2030 müssen alle Firmen Technologie-Unternehmen sein. Sie müssen daher schon jetzt darüber nachdenken. Leben und Arbeiten werden sich für die Beschäftigten wie für die Kunden radikal verändern. Bitkom zieht daraus eine naheliegende Konsequenz: Zentrale Aufgabe werde es sein, nicht nur die Künstliche, sondern auch die menschliche Intelligenz weiter zu fördern - etwa indem sich die Schulen stärker auf Kreativität und Kommunikation konzentrieren, auf soziale Interaktion und Problemlösung statt auf reine Wissensvermittlung. Bitkom forderte 66 1 Milliarden in Millisekunden deshalb, ab sofort und auf allen Ebenen massiv in digitale Bildung, Informationskompetenz und den Mut zu eigenem Urteil und zu eigenen Entscheidungen zu investieren (Bitkom 2017b: 6). Es gelte, nicht nur die digitale Technik aufzurüsten, sondern auch das „Betriebssystem“ Gehirn. Der US-Unternehmer Brian Johnson arbeitet dazu bereits an Chips, die er dem Gehirn einpflanzen möchte, „um zuerst das zu reparieren, was vielleicht kaputt ist, und dann auszuloten, was noch möglich ist“ (Fares 2017, Episode 2). Dazu muss man die Funktion des Gehirns allerdings weitgehend entschlüsseln, und davon sind wir nach Ansicht des ars electronica futurelab-Forschungsleiters Christoph Lindinger „noch sehr weit weg“ (ibid.). Nicht nur Bitkom nennt die durch KI bevorstehenden Veränderungen gleichwohl „fundamental und unumkehrbar. Sie haben Auswirkungen auf den Einzelnen und die Gesellschaft - das Selbstbild des Menschen (Vormachtstellung gegenüber Maschinen, Autonomie), das soziale Gefüge (soziales Handeln und soziales Rollenverständnis), den Wert und die Gestaltung der Arbeit (strukturell und systemisch) und die politische Willens- und Meinungsbildung“ (Bitkom 2017b: 9). Lesen Sie dazu ergänzend auf der Webseite: Ý ¢&à ÝeàøX '&à Þ²ëX÷W< X&ë GëX&÷÷W&ëa‚ 22 BBiigg DDaatta a DDaaddddyy Was befähigt einen Mann, die Datenwelt komplett umzukrempeln? Ein Deutscher, ein Deutschamerikaner und ein Amerikaner steuern die Entwicklung einer Software, die sie das Quantum Relations-Prinzip nennen. Sie steigert den Nutzen von Big Data-Analysen schier unglaublich. Wo kamen diese drei her, was führte sie zusammen, wie gingen sie vor? 2.1 Ein Filmproduzent entdeckt die Welt von Big Data 67 2.2 Hardy, der Universalist 74 22..11 EEiinn FFiillmmp prroodduuzze en ntt eennttddeec ckkt t ddiiee WWeel ltt vvo onn BBiigg DDaattaa Drei Personen haben seit den 1990er Jahren die Welt der Daten neu aufgemischt, ohne dass das die data community, gescheige denn die Öffentlichkeit, groß zur Kenntnis gernommen hätte. Es sind ein Deutscher, ein Deutschamerikaner und ein Amerikaner. Zwei sind Jur i st en , ein er , der De utsch am erikan er , ist ein Selfmade-W is senschaf tler v on u ng ewöh nl ichem Rang. Der erste, Heiner, in jungen Jahren ein Filmnproduzent, handelt in seiner Firma Patentpool mit Patenten, macht sie marktreif und setzt sie ein. Lesen Sie zunächst seine abenteuerliche Geschichte: München, Fraunhoferstraße Wenn sich München noch abends behaglich in der Sonne ausstreckt und noch immer leuchtet nach einem warmen Frühsommertag, wenn sich „über den festlichen Plätzen und weißen Säulentempeln, den antikisierenden Monumenten und Barockkirchen, den springenden Brunnen, Palästen und Gartenanlagen der Residenz … strahlend ein Himmel von blauer Seide“ ausgespannt hat, wie Thomas Mann das schon vor mehr als hundert Jahren beschrieb - dann haben die Münchner zu Tausenden ihrer Stadt den Rücken gekehrt und im Oberland die Seeufer mit ihren bunten Badetüchern betupft, und die anderen, die Daheimgebliebenen, die Biergärten ihrer bayerischen Landeshauptstadt geradezu überschwemmt. Wer geht da schon ins Theater? Das fragt sich auch Heiner. Vor den holzgetäfelten Wänden der Gaststätte Fraunhofer hockt der mehr als einsneunzig große Zwanzigjährige vor einem Bier. Die Sonne flutet nicht mehr durch die fast doppelmannshohen Fenster des 1830 errichten Baus. Dazu ist die gleichnamige Straße mit ihren nur zwei Fahrspuren für Autos, Trambahnen und Radfahrer zu eng und stehen in der schon 1830 trassierten und im letzten Viertel des 19. Jahrhunderts weitgehend zugebauten schnurgeraden Straßenverbindung von der Münchner Altstadt zur Isar die Häuser der Straßenseite gegenüber zu nah. „Es ist schon nach acht. Ob noch jemand kommt? Was meinst du, Peter? “ „Lass uns noch einen Moment warten. Ich sehe - acht Leute im Saal. Meine Güte.“ Die acht Gäste verlieren sich ein bisschen in den 55 Quadratmetern des Nebenzimmers, das der Restaurateur und frühere Thomasbräukellerwirt Heinrich Treffler als frisch berufener Fraunhofer-Wirt noch in den letzten Jahres des 19. Jahrhunderts als Gesellschaftslokal hatte ausbauen lassen, weit mehr als ein Jahrhundert nach der Umwandlung eines Jahrhunderte alten „Brothäusls“ für eine kleine Bäckerei zu einer „Bierzäpflerey“, für 68 2 Big Data Daddy die der Münchner Andreas Rankl schon 1774 „unterthänigst und gehorsamst“ eine Schankerlaubnis beantragt und im darauffolgenden Jahr auch bekommen hatte. 1915 ist in jenen „Gesellschaftsraum“ die 1893 von Abiturienten des damals um die Ecke gelegenen Königlichen Luitpold Gymnasiums zu München gegründete Studentenverbindung Turonia eingezogen, ist lange geblieben, erst spät wieder gegangen, und erst sechzig Jahre danach hat daher ein gewisser Josef Bachmaier, von seinen Freunden Beppi genannt, in den neubarocken, nun schon historischen Räumen mit ihrer original erhaltenen Ausstattung eine Kleinkunstbühne errichtet. Entstanden sind Bretter für die Lust an der Gaudi und am bayerischen Leben mit einer, wie es dort heißt, „unzwideren [also nicht als zuwider erlebten, vielmehr anregenden] Lust zum Widerspruch und zur Kritik, oft genug umgesetzt in gezielte politische Aktionen, selten ohne Begleitung von Herrn Humor.“ Regionalgrößen haben sich hier aus dem bayerischen Kultursumpf nach oben gespielt und sind zumindest im Bayerischen Berühmtheiten geworden. Jetzt, am Ende der 1970er Jahre, treten auf eben diesen Brettern, die bekanntlich die Welt bedeuten, allwöchentlich die beiden deutschen Kabarett-Größen Otfried Fischer (einmal pro Woche) und Bruno Jonas (zweimal) auf - und eben Heiner und Peter, sogar dreimal pro Woche. „Pack‘ ma’s, fang’ ma o, lass uns anfangen. Mehr werden wir nicht“, sagt nun Heiner zuerst auf bayerisch - in seinem Lebenslauf nennt er deutsch, englisch, französisch, schwäbisch und bayerisch als seine Sprachen -, setzt sich ans Klavier und beginnt in die Tasten zu hämmern. „Vom Winde verdreht“ heißt ihr Kabarettstück. Heiner und Peter haben die 64 Szenen geschrieben. Peter, der schon mit 18 Jahren am Stuttgarter Theater Giancarlo del Monaco assistiert hatte, dem Sohn des Operntenors Mario del Monaco, und der 1977 zur Kunstausstellung documenta 6 die erste Oper dieser internationalen Kunstschau inszeniert hatte, waren zusammen aus Stuttgart gekommen, wo sie schon zuvor ein Theater gemietet und Stücke auf die Bühne gebracht hatten. Peter war nach München gegangen, um Theaterwissenschaften zu studieren, und Heiner hatte sich für Jura immatrikuliert. „Lass uns mal einen Akzent setzen“, hatte dort der eine zum andern gesagt. Und - gesagt, getan - waren sie im Fraunhofer aufgetreten; erfolgreich, wenn auch vor nur schütter besetzten Reihen. Weitere Kabarett- und Theaterinszenierungen folgten, eine im Stuttgarter Kursaal, eine Operninszenierung im Theater Ulm, die dann nochmals mitten im Stuttgarter Hauptbahnhof gegeben wurde, eine auf einer Tour und 1984 eine Revue über Lion Feuchtwanger in Münchens Müllerschem Volksbad, einem Jugendstil-Juwel direkt an der Isar, die der Bayerische Rundfunk aufzeichnete. In Stuttgart lief es besser als an ihrem Studienort München. Der Südwestrundfunk stieg ein und berichtete über ihre Programme. Es wurde ein Riesenerfolg, eine „Riesennummer“, wie Heiner das später genannt hat. Immer war es ausverkauft. Erfolg macht mutig. Studentisch gehen Heiner und Peter zwar getrennte Wege: Der eine, Peter, versenkt sich in die kreative, ganz und gar nicht exakte Kunst des Musiktheaters, der andere, Heiner, wählt die nach logischen Prinzipien exakt arbeitende Jurisprudenz und dort ein Spezialgebiet, das ihn als Theater- und Kabarett-Fex besonders interessiert: das Urheberrecht, also das Recht dessen, der etwas Kreatives erzeugt, an diesem Erzeugnis. Um nicht mehr nur mit dem flüchtigen Kulturprodukt Theater vorlieb nehmen zu müssen, dessen Erlebbarbeit in dem Moment endet, in dem ein Wort auf der Bühne ausgesprochen, eine Note gespielt oder gesungen ist, liebäugelt Heiner mit dem Instrument Film. Denn was man filmen kann, kann man auch später noch zeigen und als content verkaufen. Diese Überlegung wird ihn zu Big Data hinführen. 2.1 Ein Filmproduzent entdeckt die Welt von Big Data 69 Die Prima-Film Um ihre Zusammenarbeit auf einen tragfähigen Boden zu stellen, gründen Heinerund Peter 1983 die Prima Bühnen- und Filmproduktions-GmbH. Sie hätte durchaus auch schon Sekunda genannt werden können; denn auf den Namen Prima hörte schon das Konzept für eine Fernseh-Show, das Heiner damals entwickelt. In Darmstadt und Sindelfingen, in Krefeld und Kiel bringt Prima auch Opern auf die Bühne. Die Prima tummelt sich bald in ganz Mitteleuropa. Sie produziert Opern im venetischen Padua wie im ligurischen Genua, im toskanischen Siena und endlich sogar im Königlichen Theater von Lissabon. Bald stehen sechzig Inszenierungen auf ihrem Programm. Noch im Gründungsjahr der Prima GmbH verwirklichen die beiden ihre erste Koproduktion einer, wie sie es nennen, Showoper „Night“ mit dem Bayerischen Staatstheater in der Experimentierbühne im früheren königlichen Marstall gleich hinter der Münchner Oper. Die nackten, roh gemauerten Wände dieses Theaterlabors ermöglichen fast jede Verwandlung. Der Regisseur, Jungfilmer Jopseph Rusnak, kleistert sechzig winzige Bühnen wie Schwalbennester an diese Wände. Das hatte es noch nirgends gegeben. Mit von der Partie ist die italienische Songschreiberin und Rocksängerin Gianna Nannini, die zum Start ihrer Karriere 1979 ihre erste LP California herausgebracht hatte. Deren feministischer Inhalt und ein provozierendes Cover hatten in Italien einen Skandal ausgelöst. Denn auf dem Plattencover hatte Nannini die Fackel der Freiheitsstatue gegen einen Vibrator austauschen lassen. 1984 produzieren Heiner und Peter über eine ihrer Inszenierungen auch einen Film. Aber von Opernverfilmungen, so befriedigend dieses Metier aus künstlerischer Sicht auch ist, können die beiden auf die Dauer nicht leben. Und so wendet sich Heiner stärker dem Feature-Film zu. Außerdem ist sein Jurastudium beendet. Das Examen hat er 1983 mit Glück im ersten Anlauf geschafft, sogar mit Prädikat. Das eröffnet ihm die Chance zu promovieren. Sein zunächst gewähltes Thema zeigt, dass ihn die Welt des Theaters und des Films nicht loslässt. Im Auftrag seines Doktorvaters an der Freien Universität Berlin beginnt er die Entstellung literarischer Werke durch Verfilmungen zu untersuchen. Es geht um Urheberrecht, um Gebrauchsmusterschutz, um Geschmackmusterschutz und auch schon um die Schutzwirkung von Patenten. Dieses Know-How wird er brauchen, wenn er sich dem Themenfeld Big Data zuwenden wird. Von Big Data ist noch nirgends die Rede; das Internet ist ja noch gar nicht erfunden. Gerade erst hat die US-Luftwaffe eine kleine Forschergruppe unter der Leitung des Massachusetts Institute of Technology MIT und des Pentagons beauftragt, ein Computer-Netzwerk namens Arpanet (Advanced Research Projects Agency Network) zu entwickeln. Es soll Forschungscomputer über größere Distanzen verknüpfen. Dass einmal Menschen in aller Welt miteinander über private Rechner und Mobiltelefone Ideen und Informationen aller Art, banale und bedeutungsvolle, geschäftliche und private, austauschen und dass dies unvorstellbar große Berge an Informationen auslösen und verbreiten wird, kann noch niemand erahnen. Die sich anschließende Referendarzeit lässt Heiner nicht mehr die zeitlichen Freiräume, die er bisher hat nutzen können. Aber 1987 ist er dann Anwalt. Ein Mann aus Odessa Im Jahr darauf - Heiner schlägt sich in der Anwaltskanzlei, der er nun angehört, mit dem üblichen Tageskram herum - erscheint dort ein gut aussehender, hochgewachsener Mann. Seinem Auftreten nach ist er ein Deutscher, der jedoch im Lauf des Gesprächs, das er in tadellosem Deutsch absolviert, einen sowjetischen Pass herauszieht, ausgestellt in Odessa, der Millionenstadt in der ukrainischen Sowjetrepublik am Schwarzen Meer. Der Gast in der 70 2 Big Data Daddy Kanzlei stellt sich als der Außenhandelsbeauftragte der Hafenstadt vor. Er kommt in Geschäften. Beide sind schließlich in der Filmindustrie engagiert. Der Mann lädt Heiner ein, ihn zu besuchen. Odessa, das ist trotz des sowjetischen Alltags ein wenig das Los Angeles dieses Vielvölkerstaats, ein Gebiet mit Mittelmeerklima, keine so kalte Stadt wie Moskau oder wie Leningrad, das erst viel später seinen ursprünglichen Namen Sankt Petersburg zurückerhalten wird. Odessa ist ein Platz fürs leichtere Leben, und nicht nur in Erinnerung an den Filmregisseur Eisenstein hat sich dort auch die russische Filmindustrie niedergelassen. Heiner findet in Odessa wenig Postkartenschönheit. Er berichtet später: „Es war eine irre Zeit, zu Anfang ganz grässlich. Alles mussten wir da hin bringen: Kameras, Stative, sogar Papier. Da gab‘s nichts, nichts zu fressen, keine Krankenhäuser, nicht nur kein Penicillin, sondern auch keinen Mull, nicht mal ein Heftpflaster. Es gab gar nichts. Nur Wodka gab es natürlich.“ Die Kameras werden in Odessa gebraucht, weil die Heiners Firma und die seines Gastes alsbald fusionieren: Aus der Filmfirma Prima und dem Odessa Filmstudio, einem Staatsbetrieb mit tausend Mitarbeitern, wird die Primodessa Film, das erste deutsch-sowjetische Kultur-Joint-Venture überhaupt, mit Adressen in Odessa ebenso wie in der Münchner Cuvilliésstraße. Bis dahin hatte nur ein sowjetischer Monopolbetrieb das Recht, Filme zu importieren oder sowjetische Streifen ins Ausland zu verkaufen. Und seit Jahrzehnten durfte nur er das Land auf internationalen Festivals und Filmmessen vertreten. „Wir waren die ersten, die da reingegrätscht haben“, sagt Heiner. Bald beschäftigt er in Odessa vierzig Personen. Produziert 1989 am Schwarzen Meer Filme für Premieren auf den Hofer Filmtagen und auf dem Filmfest München. Importiert aus seiner deutschen Heimat Wolfgang Petersens 1981 gedrehte und nicht nur dort erfolgreiche Verfilmung von Lothar-Günther Buchheims autobiografischem Roman „Das Boot“. Der Streifen wird auch überall zwischen Leningrad und Wladiwostok gezeigt und ist irrsinnig erfolgreich. Rubel rollen zuhauf in die Kassen. Es sind allerdings Transferrubel, eine künstliche Währung, die nur zur Abrechnung und zum Zahlungsausgleich zwischen sozialistischen Ländern gilt. Im Westen, in Ländern mit harter Währung, sind sie fast nichts wert. Bald türmen sich auf den Primodessa-Konten vierzig Millionen Transferrubel. Joseph Rusnak bekommt für sein von der Primodessa Film produziertes Erstlingswerk „Kaltes Fieber“ den Deutschen Filmpreis für die beste Regie. Später wird er eine Folge der Krimireihe Schimanski und auch für Roland Emmerich einen Film inszenieren. „Das asthenische Syndrom“ der Jungfilmerin Kira Muratowa folgt, ein düsterer, bedrückender Film, den manche Leute fürchterlich nennen - aber er bekommt aus dem Stand 1990 den Spezialpreis für die beste Regie der Berlinale-Jury und damit einen Silbernen Bären. „Und auf einmal“, sagt Heiner, „waren wir nicht mehr nur die Verrückten - guck mal, die Russen -, sondern waren ernst zu nehmen.“ Postwendend lädt der damalige Berlinale-Chef Moritz de Hadeln Muratowas nächsten Film über Heiner ebenfalls zur Berlinale ein; Einladungen zu den Filmfestivals von Rotterdam und Venedig folgen. Odessa, diese Stadt mit ihren klassizistischen und gründerzeitlichen Prachtbauten, ihren sozialistisch hoch aufragenden Hotelburgen und ihrem im Sommer von Sonnenhungrigen gefluteten weitläufigen Stränden, diese Stadt mit der seit Sergej Michailowitsch Eisensteins Film „Panzerkreuzer Potemkin“ über die russische Oktoberrevolution weltberühmten, Hunderte überbreite Stufen ins Meer abfallenden Freitreppe, ist eigentlich eine Postkartenschönheit. Aber sie braucht dringend frische Impulse und frisches Geld. Perestroika und Glasnost haben begonnen, das sowjetische Staatsgefüge durchzurütteln. Bald werden sie es einstürzen lassen. 2.1 Ein Filmproduzent entdeckt die Welt von Big Data 71 Im September 1991 läuft in der bis dahin sowjetischen Teilrepublik Ukraine ein Referendum. Eine Mehrheit von über 90 Prozent der Wähler votiert für die Unabhängigkeit des Landes von der zerfallenden Sowjetunion und dem erstarkenden Russland. Über Nacht werden alle Transferrubel eingefroren. Sie sind fortan wertlos. „Das war schade“, sagt Heiner nur. Er hat gespielt, gewonnen, verloren. Neues Spiel. Neues Glück? Er versucht es noch einmal. Mehr als ein Dutzend Filme produziert die Primodessa zügig hintereinander. Aber das Transferrubel-Debakel hat die Macher gelehrt: Sie brauchen Devisen. Ständig ist Heiner auf internationalen Festivals und Filmmessen unterwegs, heute in Los Angeles, morgen in Mailand, in Cannes sowieso. Auf dem Filmfestival in Cannes laufen drei Primodessa-Filme in Nebenwettbewerben und in Verkaufs-Screenings. Auf dem dortigen International Film Market hat die Primodessa Film einen eigenen Stand. Um diese Auftritte zu finanzieren, kann sie aber ihre Rubel nicht einsetzen, sie braucht Westwährung, die sie kaum hat. Aussichtslos erscheint es, wie andere Filmproduktionsgesellschaften zu jedem Wettbewerbsbeitrag den Regisseur und die wesentlichen Schauspieler einfliegen zu lassen und Hotelzimmer zu finanzieren. „Da kostet während des Festivals ja schon eine Besenkammer 500 Mark die Nacht“, sinniert Heiner. Also überreden er und sein russischer Kompagnon den Chef der in Odessa ansässigen Black Sea Shipping Company, der zivilen Schwarzmeerflotte, zu einem deal. Der vermietet den Filmern das 1957 gebaute, 120 Meter lange Forschungsschiff Michail Lomonossow, benannt nach einem russischen Universalgelehrten der Aufklärung, für einen Trip bis nach Cannes. Es verfügt über sechzig Kabinen - genug, um jeden der erwünschten Filmschaffenden von Odessa nach Cannes zu verfrachten und dort abgesehen von den Hafen-Liegegebühren ohne weitere Kosten auch wohnen zu lassen. Auch Filmarchitekten und Bühnenbildner sind mit an Bord. Das schneeweiße Schiff mit seinem zerklüfteten Vorderdeck, mit dreistöckigen Aufbauten und einem Hubschrauberlandeplatz direkt über dem Heck, mit gelben Masten und einer schwarzroten Binde am Schornstein, erreicht Cannes nicht so, wie es in Odessa abgelegt hat. Denn die Bühnenbildner seilen sich auf der Fahrt durch den Bosporus und das Mittelmeer von den Bordwänden ab und malen auf das weiße Metall in zwölf Meter hohen Buchstaben den Namen ihrer Gesellschaft: PRIMODESSA FILM. So, als überdimensionale Plakatwand, läuft die Michail Lomonossow in Cannes ein und sorgt mit diesem überraschenden Coup für nicht wenig Hallo. Gleich kommt die Redaktion von Moving Pictures International, einem Blatt, das zu den Festivals in Cannes damals täglich erscheint, und berichtet. Die Filmer nutzen die Stunde und laden über das Blatt tout Cannes zu einer rauschenden Party an Bord. Alles was Rang und Namen hat auf diesem Filmfestival, folgt diesem Signal. Als der Abend sich senkt, tanzen bald eintausendfünfhundert animierte Gäste über die schwimmenden Bretter, testen statt der üblichen Partyhäppchen Soljanka und Borschtsch, tingeln in Scharen von der Brücke ganz oben bis zu dem Maschineräumen ganz unten im Bauch dieses Schiffes, tobt um Mitternacht der Bär und tummeln sich noch bis zum Morgengrauen verliebte Pärchen in den 60 Kabinen an Bord. Als die Sonne aufgeht, hat Cannes ein Tagesgespräch. Aber für die künstlerische und wirtschaftliche Existenz der Primodessa Film bedeutet das wenig. Als die Party vorbei ist, das Festival endet und die Michail Lomonossow, von ihrer Zweckentfremdung als Plakatwand gereinigt, wieder in Odessa anlegt, muss dringend Geld in die Kasse. Die Russen in dem Joint Venture erinnern sich, dass Heiner russische Filme in erklecklicher Zahl nach Spanien und Argentinien verkauft hat. Was der kann, können wir auch, sagen sie sich und beginnen, dasselbe Filmmaterial nach seiner Verwendung durch 72 2 Big Data Daddy denlateinamerikanischen Fernsehsender X oder den Verleiher Y nun im selben Land auch an Z zu vermarkten und Anzahlungen dafür zu nehmen. Das bringt X oder Y erbost auf den Plan - kein Zustand auf Dauer. Es ist Zeit, das Abenteuer Primodessa zuende zu bringen. Heiner steigt aus, lange bevor sich in der Arbeit an einem von ihm produzierten Film über organisierte Kriminalität beiläufig herausstellt, mit wem er da kooperiert hat: „mit einem Mann mit KGB-Vergangenheit“, erfährt er, „der, wenn er es für zweckmäßig hält, über Leichen geht und der nach seinem Primodessa-Engagement die Milliarden des moskauhörigen früheren ukrainischen Präsidenten Leonid Krawtschuk gewaschen hat. Ich hatte Glück, da nicht einen Kopf kürzer heraus gekommen zu sein.“ Ärger mit dem Urherberrecht Heiner kehrt nach Stuttgart zurück, in die Stadt, aus der er als Abiturient aufgebrochen war, engagiert von einer Film- und Fernsehproduzentin, die nach ihrer Zeit als Journalistin beim ZDF in die Familie Porsche eingeheiratet, zwei Kinder bekommen hat und für einige Jahre Erziehungspause jemanden sucht, der „den Laden so lange schmeißt“. Das bietet sie ihm an, und er schlägt ein. Daraus werden viereinhalb Jahre. Arbeit hat er genug. Er wird producer von Fernsehsendungen landauf und landab, viel Seichtes darunter, das Winterfest der Volksmusik, das Sommerfest der Volksmusik und so weiter, sitzt einmal mit den Kastelruther Spatzen bei einem Bier, dann mit dem Musikantenstadl-Moderator Karl Moik bei einem Wein. Er entwickelt auch neue Fernsehformale wie Mad in Germany. Noch immer hat ihn das Thema Massendatenverarbeitung, hat ihn Big Data nicht erreicht. Doch langsam rückt diese Welt näher. Der Neue Markt tobt bereits. Heiner erlebt Juristen-Kollegen, die über Nacht eine AG gründen, sie gleich weiterverkaufen und Millionen verdienen, noch ehe diese Firma überhaupt ein Produkt hat, geschweige denn es produziert und erfolgreich vermarktet. Warum läuft er, Heiner, noch als Auftrags-Fernsehfuzzi herum? Seine TV-Ideen bringen nichts ein. Er entwickelt eine um die andere, investiert Ideen und nicht wenig Geld, bekommt für einen Pilotfilm von einem der deutschen Privatsender 50.000 Euro Honorar überwiesen, hat ihn aber für eine sechsstellige Summe gedreht. Der Unterhaltungsredakteur des Senders, den er beliefert, wechselt vom einen Privatsender zu einem anderen. Die Verträge und den Pilotfilm lässt er zurück, wo beide langsam verstauben, aber die Idee nimmt er mit. Unter den neuen Vorzeichen und unter der Autorenschaft des Redakteurs wird sie verwirklicht, ohne den Ursprungsinitiator einzubeziehen. Wie da mit dem Urheberrecht umgegangen wird, nervt den Juristen, der über gerade diese Thematik promoviert hat. Und nicht nur das: Die Welt der Unterhaltung, des Entertainments, ändert sich auch. Musik kommt immer mehr aus der Steckdose und aus dem Recorder, der ein paar Jahre später vom Smartphone abgelöst wird. Die Zeit, in der man sich einen Film als Kassette gekauft, die nach Hause getragen und sie sich dort angeguckt hat, geht erkennbar zuende. Und nicht nur das: Eine längerfristige Perspektive muss her. Der Kampf für Urheberrechte eröffnet im Prinzip ein lohnendes Feld. Aber Rechtsstreitigkeiten auf diesem Gebiet sind beliebig schwierig zu führen. Klarer sind die Verhältnisse jedoch bei Patenten. Und Heiner weiß: Patente sind ein scharfes Schwert, ein sehr scharfes. Er zieht eine Zwischenbilanz: „Über die Musik kam der Film, über Film kam Porsche und kam die Erkenntnis, dass das Schwärzen des Urheberrechts einfach zu störend ist, um Ideen einzubringen, besonders für den, der eine gute Idee hat - sie wird immer geklaut. Wenn du Zeit investierst, sagte ich mir, dann dort, wo das Schwert scharf ist. Ich hatte zum Glück in Urheberrecht promoviert und kannte die gewerblichen Rechtschutzebenen: das Urheberrecht, das Gebrauchsmuster, das Geschmacksmuster, das Patent.“ 2.1 Ein Filmproduzent entdeckt die Welt von Big Data 73 Zielpunkt Patentpool 1997 entwickelt Heiner den Businessplan für eine Firma, die dieses Know-How wirtschaftlich nutzen soll. Sie soll Paptente vermarkten. Er findet zwei große Venture Capital-Firmen, die ihm, dem Privatmann, das nötige Geld dafür geben; denn sie wollen ihn und sein Team als ihr window on technology haben. 1998 tragen ihm die zwei Gesellschaften an, für sie ein Unternehmen unter dem Namen Patentpool zu führen, eine Gesellschaft, die Patente erwirbt, sie gegen missbräuchliche Verwendung schützt und sie stattdessen selber vermarktet, das heißt verkauft oder lizensiert. Die beiden Anfrager aus dem Kapitalmarkt wenden sich an ihn als Münchner, weil das Unternehmen Patentpool in der europäischen Patenthauptstadt München mit dem Deutschen und dem Europäischen Patentamt samt einer Vielzahl externer Patentanwälte so ideal sitzt wie eine Spinne im Netz und weil Heiner neben seinem Porsche- Auftrag nebenbei auch schon das Vertriebsmanagement für einige neu entwickelte Technologien gesteuert hat. So hat er schon mit der Firma Stihl kooperiert. Die Kinder des Inhabers kennt er sehr gut; denn er hat ihnen das Skifahren beigebracht. Sie leiten inzwischen eigene Firmen. Ein Ingenieur hat eine Idee für den Gartenbereich. Heiner regelt die kommerzielle Nutzung dieser Erfindung. „Das war so was von einfach“, winkt er ab - mit Patenten umzugehen ist keine Hexerei. Man muss es nur können. Er beißt an und macht Patentpool zu seiner nächsten Lebensaufgabe. Im Prinzip tut er weiter genau das, was er aus dem Bereich der Film- und Fernsehproduktionen schon kennt: „Da kommen Kreative, die heißen nun nicht mehr Film- oder Fernsehregisseur oder Drehbuchautor, sondern die sind jetzt Professor oder Entwickler oder Ingenieur. Deren Projekte brauchen Geld, aber auch Management, genauso wie eine Filmproduktion. Das Drehbuch heißt nun Businessplan. Nur die Gesprächspartner sind natürlich andere.“ Patentpool mietet sich in der Münchner Altstadt im Tal 34 ein, wo das Unternehmen heute noch sitzt. Anfangs hat da auch Jens Odewald seine Firmenadresse, der frühere Kaufhof- Vorstandsvorsitzende. Nach seinem Ausscheiden aus diesem Kaufhauskonzern hat er eine Private Equity-Firma gegründet, die Mergers und Übernahmen betreut. Er hat einen jüngeren Kollegen, Robert Stelzer, dessen Frau das Haus gehört, in dem er arbeitet. Der wiederum ist Kommilitone eines der beiden Venture Capital-Chefs, mit denen Heiner kooperiert, und der hatte gesagt: Geh doch mal dort hin, da ist ein Büro frei. Das Resultat: Er mietet zunächst nur einen einzigen Raum, dann zwei und bald vier, und eines Tages das ganze Stockwerk. Dynamische Webseiten gibt es noch nicht. Web pages sind statisch. Die Patentpool-Idee sind dynamische one-page-Auftritte, bei dem man die hinter der Startseite liegenden Seiten sieht, wenn man auf bestimmte Elemente klickt oder die Seinten hinunter scrollt.. „Man hat uns für verrückt erklärt: Wer, hörten wir nur, braucht denn one page web sites? “ Die Entwicklung des Internets beginnt erst. Heiner und sein Team sind der Zeit weit, vielleicht zu weit voraus. Dabei haben sie die richtigen Kontakte, sind mit dem deutschen Microsoft-Chef per du. Aber die Firmen sind einfach noch nicht bereit, externe Ideen einzukaufen. Heiner hat mehrfach erfahren müssen, dass große Unternehmen in Europa sich gar nicht vorstellen können, jemand anderer könne etwas erfinden, das besser ist als das Know-How der eigenen Firma. „Es ist das sprichwörtliche not invented here-Syndrom. Microsoft hat nur gelächelt: one page record? Wenn das möglich wäre und wenn das jemand wollen würde, müssten wir das doch wissen. Wir bezahlen Millionen im Jahr für alle möglichen Trendforschungen, um zu erfahren, was die Leute eigentlich wollen. Wenn Sie das besser wissen, dann würden wir ja Millionen im Jahr umsonst rausschmeißen.“ In den USA gelingen solche Vorhaben besser. Dortige Venture-Kapitalisten, weiß Heiner, verfahren nach der Devise: Wir stecken Geld in zehn Projekte; und wenn eines davon klappt, lohnt sich das Ganze. Dazu muss Patentpool auf eigenen Beinen stehen. Heiner erledigt die Formalien dafür. Damit kann Patentpool beginnen. 74 2 Big Data Daddy 2 2..22 HHa arrddyy, , ddeer r UUnniivve errs saalliisst t Die Firma Patentpool läuft ein halbes Jahr, als Heiner eines Abends in München in ein Penthaus hoch über der Isar, über den Museumslichtspielen neben dem Deutschen Museum, eingeladen wird - später wohnt da ein Bundesliga-Fußballer. Hier hat sich Big Data Daddy Hardy einquartiert. Der hat sich in diesem Penthaus nur für kurze Zeit einmieten wollen. Denn er ist in diesem Jahr, 1997, nur in der Stadt, weil die schon seit 1913 bestehende Unternehmensberatung Arthur Andersen mit Stammsitz in Chicago für ihren Kunden Siemens mit Hauptsitz in München ein Problem mit Namen Tosca lösen soll: Der Siemens-Konzern hat schon einen hohen zweistelligen Millionenbetrag investiert, damit Andersen die sieben verschiedenen Computer-Benutzeroberflächen der regionalen Siemens-Gesellschaften in aller Welt so koordiniert, dass die Siemens-Zentrale in München weiß, was in der Siemens-Welt in Südamerika oder Südostasien vorgeht. Aber Andersen muss vorerst kapitulieren und holt deshalb Hardy zu Hilfe. Nun soll Big Data Daddy es richten. Big Data Daddy? Auf den Mann, den wir so nennen, trifft das Wort big in gleich mehrfacher Hinsicht zu. Er geht mit Datenbergen um, die wahrhaft big sind. Das Schlüsselwort dafür ist Big Data. Es bezeichnet ursprünglich „Datenmengen, die zu riesig und zu komplex sind, um sie auf herkömmliche Art und Weise zu verarbeiten. Mittlerweile assoziiert man Big Data mit dem Datensammeln von Internetkonzernen und Geheimdiensten sowie den daraus resultierenden Optionen der Analyse, Prognose und Kontrolle von Verhalten“ (Ritschel/ Müller 2016: 4). Ein Beispiel: Halb spielerisch und halb als ernsthafte Marketing-Information hat das Datenhaus SAS im Sommer 2017 einmal den „besten Ort der Welt“ ermittelt, den Ort, an dem als gleichzeitig optimalem Geschäftsstandort, als interessantestem Urlaubsort und als schönstem Wohnort „in jeder Hinsicht paradiesische Zustände herrschen“ (SAS 2017). Mit machine learning und advanced analytics hatte das Unternehmen nicht weniger als 148.233 Orte in 193 Ländern analysiert. Was advanced analytics bedeutet; erläutern Gleich/ Grönke (2017): aus großen Datenmengen eine Vorhersage über zukünftige Entwicklungen zu treffen, den Planungsprozess, das Kostenmanagement und Kundenanalysen zu beschleunigen und zu verbessern. Das schließt je nach Zweck predictive analytics, data mining, big data analytics, forecasting, text analytics, optimization und simulation ein (Dull 2017). Data mining nennt man das Bündel statistisch-mathematischer Methoden zur Mustererkennung durch Suche, Vorverarbeitung und Auswertung von Daten. Sogenannte Business-Intelligence-Plattformen (BI) sollen Daten sammeln, auswerten und darstellen und Algorithmen zwischen den Daten Zusammenhänge herstellen. Die Betreiber erwarten daraus Risiko- und Kostenreduzierungen sowie mehr Wertschöpfung (Geißler 2018). Zu diesen Erwartungen hier nur so viel: Jedes zweite Best-in-Class-Unternehmen berichtete in einer Befragung schon 2016, mit advanced analytics habe es seine Planungssicherheit und seinen Umsatz verbessert und neue Geschäftsmodelle, Produkte und Dienstleistungen entwickelt. Nachzügler, die advanced analytics bereits nutzen, waren den Best-in-Class-Unternehmen erstaunlich dicht auf den Fersen: Etwa jedes dritte dieser Unternehmen gab an, durch solche fortgeschrittenen Analysen zu profitieren. Selbst „etwas advanced analytics“ kann also schon großen Nutzen erbringen (BARC 2016). Big Data Daddy ist big auch in anderer Hinsicht. Der geborene Deutsche mit seiner Wahlheimat USA und berufsbedingt immer wieder wechselnden Wohnsitzen im amerikanischen Westen, im Fernen und im Mittleren Osten, in Deutschland, in Spanien, in Frankreich, in Bulgarien, ist wahrhaft ein Berg von einem Mann. Das hindert ihn nicht, oft mehr im Flugzeug zu sitzen als an seinem Schreibtisch. Er, Hardy, gilt zu Recht als ausgefuchster Programmier-Spezialist, ja als ein Genie dieser Spezies. Dabei hat er das gar nicht studiert, 2.2 Hardy, der Universalist 75 sondern es sich nebenbei selbst beigebracht. Studiert hat er Psychologie - nicht zuletzt, so darf man vermuten, um auch seinen eigenen Lebensweg als Kind und Jugendlicher besser verstehen zu lernen. Der ist für den als Frank Otto Schlör geborenenen, elternlos aufgewachsenen Buben extrem steinig gewesen, so sehr, dass er, kaum volljährig geworden, die deutsche Heimat hinter sich lässt und sich in die USA absetzt, möglichst weit weg, bis nach Kalifornien, wo er auch seine deutschen Vornamen ablegt und gegenHardy vertauscht. Dort beginnt er neben seinem Psychologiestudium damit, sich auch mit Computern zu befassen. Das hat den angenehmen Nebeneffekt, ihm, dem jungen Spund von Anfang zwanzig, den Lebensunterhalt finanzieren zu helfen. Bald wird irgendwo zwischen Atlantic City und Las Vegas, Reno in Nevada und Ledyard in Conneticut, dem deutschen Baden- Baden und dem monegassischen Monte Carlo, dem indischen Goa und dem chinesischen Macao ein Glücksspielmanager auf den begabten jungen Mann aufmerksam. Der Manager ärgert sich, dass Passanten tagsüber mehr oder minder gelangweilt an den Türen zu seinen slot machines, zu den „einarmigen Banditen“, vorbei schlendern, ohne sich von ihnen zu einem Spiel verführen zu lassen. Er beauftragtHardy, das gründlich zu ändern. Der, mit einer Nase für Psychologie, sieht schnell, wie man die Aufmerksamkeit von Passanten zielsicher lenken kann, und hat das technische Händchen, das auch zu tun. Bald gebärdet sich eine der zahllosen Glücksspielmaschinen in dem weitläufigen, überall blinkenden und glitzernden Saal, eine der ganz billigen, mit kleiner Münze zu fütternden, direkt am Eingang wie verrückt, rasselt und bimmelt so, dass Schwerhörige davon wach werden müssten, spuckt mit lautem Getöse Gewinnmünzen in eine Blechwanne aus, die diesen Lärm als Resonanzboden nochmals verstärkt. Irgendwo ganz hinten im Saal setzt nun, wieder mit allem Geblink und Getöse, einer der teureren Einarmigen ein, mit Silbermünzen zu füttern, die ebenfalls gewonnenes Geld ausspucken. Unmerklich lenkt dieses Maschinenballett die Besucher zuerst in den Saal und dann bis in seine hintersten Winkel, und das schon an Nachmittagen, an denen Glücksspielhallen sonst noch relativ leer bleiben. Der Boss dankt es Hardy großzügig, und der kann es sich fortan leisten, für den Rest des Jahres aus Jux und Tollerei auch Autorennen zu fahren.Inzwischen haben Big Data eines dieser Spielerparadiese übrigens so stark erobert, dass sich eines der bekanntesten Spielcasinos der Welt das Sammeln von Kundendaten und deren Analyse jährlich hundert Millionen Dollar kosten lässt. „Es ist die beste Investition überhaupt“ (Morgenroth 2014: 42). Joshua Kanter, der Vice President für das dortige Kundenbindungsprogramm, nennt den Einsatz von Big Data sogar wichtiger als eine Glücksspiel-Lizenz (Rijmenam o.J.). Hardy setzt nach diesem Ausflug in die Welt des Glücksspiels sein Psychologiestudium fort. Mit diesem Wissen lernt er, feinfühlig Beziehungen zu Menschen aufzubauen und ihnen einen Spiegel ihrer selbst vorzuhalten, um aus einer solchen Beziehung heraus Verhalten selbst verstehen und anderen verständlich machen zu können. Die klinische Psychologie hingegen,gewinnt er den Eindruck, sei nicht weit entfernt von Astrologie und Alchemie. Was ihn mehr und mehr interessiert, sind die Beziehungen der Menschen zueinander. Er fungiert als jemand, der Patienten einen Vorhang öffnet. Da draußen, sagt er ihnen, scheint die Sonne, und hier im Raum ist es dunkel. Lass uns den Vorhang aufziehen und die Welt so betrachten, wie sie wirklich ist. Er entscheidet sich schließlich gegen die klinische Psychologie und für die Sozialpsychologie. Das ist etwas völlig anderes als die Analyse von Gemütszuständen einzelner Menschen. Bei ihr geht es um das Verhalten von Gruppen. Dazu steigt Hardy tief in die Forschung ein. Deren Einsichten liefern ihm das Werkzeug, den Finanzcrash vom Oktober 1987 zu prognostizieren - natürlich in einer Art Intuition. Aber was ist Intuition anderes als der Effekt, der sich einstellt, wenn man zahllose äußere Signale verarbeitet? Es ist Massendatenverarbeitung im eigenen Kopf, die Fähigkeit, Signale zu bemerken, zu verknüpfen und aus ihnen richtige Schlüsse zu ziehen. Im Oktober 1987 sagt Hardy zwei Wochen vor dem ersten Börsenkrach nach dem Zweiten Weltkrieg diesen black monday- 76 2 Big Data Daddy richtig voraus. Der Aktienindex Dow Jones fällt an diesm einen Tag um mehr als 20 Prozent. Die Finanzwelt wankt. Er will das in der Tiefe verstehen, will mehr als nur statistisch ermitteln, wie Menschen Signale registrieren, kombinieren, bewerten und nutzen. Noch undeutlich sieht er, dass es da um enorm viele Signale geht und um noch mehr abzuleitende Qualitäten. Er beginnt zu erahnen, dass fundamentale Werkzeuge fehlen, um die Wirklichkeit richtig zu begreifen. Die Realität, sagt er sich, ist eine Schnittmenge des eigenen Vorstellungs- und Denkvermögens mit der physischen Welt. Man meint oft, schließt er daraus, die physische Welt bestehe ohnehin, unabhängig von uns. Das mag sein. Aber tatsächlich wissen wir von ihr nur, was unser Gehirn uns über sie mitteilt. Ist die Realität also das, was wir betrachten? Nein, sagt Hardy, für uns ist sie das, was unser Gehirn uns über sie abbildet. Und weil jedermanns Wahrnehmungs- und Vorstellungsvermögen unterschiedlich ausgebildet ist, ergeben sich für jeden Betrachter unterschiedliche Bilder der äußeren Welt. In jeder dieser Vorstellungswelten entsteht also von ihr ein spezifisches Bild. Die physische Welt ist für alle diese Bilder der Rahmen. Dass die Bilder in diesem Rahmen unterschiedlich aussehen können, ja müssen, ist offensichtlich. „Fragen Sie mal einen jüdischen Siedler im Palästinensergebiet, wie er die Welt sieht,“ erläutert Hardy seine Gedanken, „und dann einen Palästinenser, dessen Frau dringend zum Arzt muss, aber an einem jüdischen Checkpoint Stunden lang festgehalten wird und deshalb dort stirbt, bevor sie eine Klinik erreicht - fragen Sie diese beiden einmal, wie sie dieWelt sehen. Sie betrachten denselben Rahmen, aber sehen komplett gegensätzliche Bilder.“ Hardy macht eine Pause und sinnt einen Moment dem nach, was er da gerade gesagt hat. Jeder, der ihm zuhört, hat solche Bilder im Kopf, weiß er, und deshalb setzt er hinzu: „Und weil das so ist und weil wir die Welt trotzdem möglichst richtig verstehen wollen, werden die Informationstechnologien und ihre Möglichkeiten zur gleichzeitigen Verarbeitung unterschiedlicher Signale immer wichtiger.“ Sein Gegenüber schaut fragend. Er daraufhin: „Wenn sie einmal einen alten Film sehen und darin Finanzgeschäfte dargestellt sind, was sehen Sie dann? Riesige Tische mit Bergen an Telefonen darauf und drum herum Menschen, die über mindestens zwei Leitungen gleichzeitig telefonieren: Hallo Hongkong, was kostet Gold im Moment? Hallo New York, was kostet Gold derzeit bei euch? Hallo Honkong, wenn Sie zehn Cent nachlassen können, kommen wir ins Geschäft… Diese Telefonate rund um den Globus kosteten ein Vermögen, aber wer da an der Strippe hing, hatte die Welt auf Tastendruck zur Verfügung. Da waren clevere Kerle am Werk. Aber ausgerüstet waren sie nur mit einer dummen Telefonleitung.“ „Als in den 1980er Jahren der PC auf den Markt kam“, sagt Hardy weiter, „hörte das ziemlich plötzlich auf. Auf einmal konnte man einen Apparat vor sich hin stellen, der die unterschiedlichen Preise gleichzeitig sichtbar macht. Das war die Zeit, in der zum Beispiel die Nachrichtenagentur Reuters begann, sich außer um Politik auch um Währungen zu kümmern und mit ihnen zu handeln. Die zuvor unglaublichen Kosten für die Kommunikation fielen in sich zusammen. Die Daten standen in Echtzeit bereit, verzögerungsfrei. Es begann aber auch die Zeit, in der der Bankensektor lernte, mit diesen Daten zu spekulieren. Das war die Geburt der futures, der options und solcher Instrumente. Und wieder kam die Informationstechnologie entscheidend mit ins Spiel. In den 1990er Jahren wurde dieses Geschäft schnell sehr komplex, etwa durch Derivate und swaps und all diese für Laien schwer verständlichen Finanzkonstrukte. Schließlich liberalisierte der damalige US-Präsident Bill Clinton auf Druck des Finanzhauses Goldman Sachs die Finanzaufsicht. Das löste die Lawine aus, die dann in die Finanzkrise der 2000er Jahre mündete.“ Hardy war kein Mitspieler in diesem System. Er beobachtete es aber von außen. Angesprochen hierauf, muss er lächeln: „Ein einziges Mal habe ich mich damals an Finanzge- 2.2 Hardy, der Universalist 77 schäften beteiligt, aber nur indirekt. Ich nahm kein Geld in die Hand, sondern gab jemandem Hinweise über eine von mir vermutete Richtung. Diese Vermutung war richtig. Das Geschäft, das daraus folgte, hat sich gelohnt - für ihn, nicht für mich. Aber eigentlich doch auch für mich: Ich begriff nämlich, dass diese Zusammenhänge wirklich interessant sind. Dass da Geld zu verdienen war, war mir gar nicht so wichtig. Was mich umtrieb, war die Chance zu verstehen, wie menschliches Verhalten von Grund auf entsteht. Dafür ist nichts grundlegender als menschliche Gier. Kann jemand mit einem Effekt von zehn zu eins einen Hebel betätigen, mit einem Effekt von zwanzig zu eins, von fünfzig zu eins, ja hundert zu eins und wird er dabei mit einem unglaublich kleinen Einsatz ganz außerordentlich reich, dann löst das zweifellos ganz extreme Gier aus. Genau da wollte ich ansetzen: herausfinden, wie das menschliche Denken und Fühlen mit der physischen Welt interagiert und wie alle diese äußeren Signale auf innere Bilder wirken. Ich fand dafür keine fertigen Werkzeuge. Also musste ich auf einem Stück Papier oder auf einem Computerbildschirm eine Methode niederschreiben, wie sich mentale und physische Realität gegenseitig bedingen.“ Das Quantum Relations Principle Hardy ist aber weder IT-Spezialist noch Mathematiker, nichts von alledem. Er muss sich alles aneignen. YouTube mit heute 800 Millionen Nutzern pro Monat (Mainzer 2017: 144), unter ihnen zahllose Studenten, die Vorlesungen von Professoren auf Video hören, ist noch gar nicht erfunden. Wer einem anderen zuhören will, muss ihn noch persönlich erleben. Hardy bucht Kurse, etwa an der Universität von Los Angeles bei einem IT-Professor, taucht tief in die Philosophie ein, besucht Vorlesungen, ohne dafür offiziell angemeldet zu sein, geht mit seinem Studentenausweis einfach hinein und findet Philosophie sehr aufregend. Er hört einen Professor, einen Inder oder einen Pakistani, der Wissenschaftsphilosophie unterrichtet. Hardy ist fasziniert; er findet das absolut spannend. „Seither habe ich mir zwei Fragen gestellt, erstens: Was ist eine Sache und wie stellt man sie fest? Und zweitens: Wie löst man Probleme? Dabei können total-out-of-the-box-Lösungen herauskommen, völlig unerwartete also. Immer geht es darum zu erkennen und zu verstehen, wie Dinge zusammenwirken, die Menschen unterschiedlich betrachten, die aber gleichzeitig geschehen, und zwar mit anderem vernetzt.“ In Newport Beach denkt er darüber nach, was das alles bedeutet und wie man das Gehörte so übersetzen kann, dass es umsetzbar wird. Philosophie ist für ihn dann sehr viel wert, wenn man sie anwenden kann. Was ihn interessiert, ist eine hands on-Möglichkeit für ein zunächst abstraktes Gedankengefüge, ist die Chance, das eigene Gehirn daran zu schärfen. Er versenkt sich in Schopenhauer, in Nietzsche, in Kant - mit der immer gleichen Frage, dem einen Ziel: Er will die Logik dieser Gedanken verstehen und einige dieser Kristalle anwendbar machen, sie in seinen Werkzeugkoffer stecken können. Hardys Vision zu diesem Zeitpunkt ist es, Philosophie, Mathematik und Physik so zu nutzen, dass sich deren Erkenntnisse in einer universellen Software zusammenfügen und wie ein Werkzeugkoffer benutzen lassen. Er nennt dies Quantum Relations, einen Werkzeugkasten für logisches Denken, ein Instrumentarium, um gedanklich Probleme zu lösen. Es heißt quantum, weil sich Sachverhalte mit Hilfe digitaler Techniken in kleinste Bausteine zerlegen lassen, in Quanten, und relations, weil es die Beziehungen solcher Quanten zueinander sind, die einen Sachverhalt einzigartig machen. Das hat zunächst mit IT, mit Informationstechnologie, gar nichts zu tun. Aber Hardy wird zunehmend klar, dass er IT brauchen wird, um verstehen, kommunizieren und interagieren zu können. Er muss IT ausreichend erlernen, um begreifen zu können, wie man solche Werkzeuge baut, wie solche elektronischen Architekturen aufgebaut sind und wie sie sich aufbauen lassen. Zu programmieren braucht er sie nicht. Dafür sind ziemlich leicht 78 2 Big Data Daddy externe Experten zu finden. Aber er muss Leute ausfindig machen, die ihm helfen, diese Werkzeuge zu finden oder zu bauen und ihre Vorzüge richtig einzusetzen. Und dazu braucht er etwas anderes als herkömmliche Computersprachen wie Java oder dergleichen. Jahre früher war Hardy mit einem Nachrichtenhändler bekannt geworden, der über seinen Computerterminal periodisch neue Nachrichten und außerdem auch Finanzdaten verbreitete. Seine Kunden stellten in ihren Büros dazu Terminals auf, die data buffer genannt wurden, wörtlich übersetzt Datenpuffer; denn immer wenn neue Nachrichten hinzu kamen, fielen ältere dafür heraus. Und auch daran erinnert er sich: Ein Freund, der ihn Jahre zuvor auf die Sozialpsychologie aufmerksam gemacht hatte, legte ihm einmal einen Stapel Zeitungen aus den Jahren 1904 bis 1972 auf den Tisch und sagte dazu: „Ich habe diese Blätter gelesen und fand dabei etwas Bemerkenswertes über Sprache heraus. Schauen Sie sich dieses Material genau an. Was Sie über menschliches Verhalten und über Verhaltensmuster wissen müssen, werden Sie darin entdecken. Ich verreise jetzt. Wenn ich zurück bin, sollten wir uns treffen und darüber reden.“ „Der Mann reiste nach England“, berichtete Hardy später, „und ließ mich mit seinem Zeitungsstapel allein. Ich kämpfte mich durch jede einzelne Zeile; wollte wissen, was der Mann mir hatte sagen wollen. Was hatte er in den Zeitungsseiten gesehen, aber ich erst einmal nicht? Warum hatte er bis 1904 zurückgehen müssen? Warum hatte er aus jedem Zeitungsjahrgang immer nur wenige Tage ausgewählt; warum gerade diese Tage und nicht andere? “ In allen diesen Blättern war von Ereignissen die Rede, die einer Vielzahl von Menschen viel bedeutet hatten. Dazu gehörte der Tag des Kriegsausbruchs 1914. Da war von britischen Bürgern die Rede, die damals in ihre Kirchen geströmt waren, um Gott für die Chance dieses, wie sie sagten, großen Krieges zu danken. Alles war durchtränkt von Gefühlen. Andere Berichte handelten von der Weltwirtschaftskrise des Jahres 1929 und von den Katastrophenstimmungen, die damals die Menschen erfassten. Hardy hatte nichts von alldem zuvor gelesen. Aber er fand, es stecke etwas in diesen Berichten, das er unbedingt verstehen musste. Er erinnerte sich an den Typen mit dem data buffer. Alle Informationen, die der in seinem System gespeichert hatte, wurden da nacheinander abgespult, von oben nach unten. Manchmal stoppte das Menü für einen Moment, und dann rauschten wieder Zeilen mit großem Tempo über den Bildschirm. „Bei diesem Tempo kann ich das unmöglich lesen“, sagte sich Hardy, „ich muss einzelne Nachrichten speichern.“ Er bat einen seiner Studienkollegen aus einer Computer-Ecke um Hilfe: „Können Sie mir ein Programm schreiben, mit dem ich Teile aus dem buffer auf einer Festplatte abspeichern und später ansehen kann? “ „Kein Problem“, sagte der. „Gehen Sie unbesorgt nach Hause, ich schreibe es Ihnen derweil.“ So geschah es. Nun konnte Hardy auch in der im buffer aufgezeichneten Historie vor und zurück blättern. Er stieß auf zeitliche Abläufe, die sich zum Verständnis dessen, was geschehen war, als entscheidend wichtig erwiesen. Was war binnen einer Stunde passiert, und wie lange dauerte es bis zu Reaktionen? Hardy erkannte, dass Dinge vormittags in einem anderen Tempo passiert waren als nachmittags, dass es rush hours auch in den Nachrichten gab, einmal mit dichtem Inhalt, einmal mit dünnem. Er erzählte davon einem Freund, der Statistik studierte. Der nickte, als kenne er so etwas schon. Er sagte: Achte auf dieses und jenes. Er half ihm, hinter den Berichten Ablaufstrukturen zu finden. Um sie deuten zu können, musste Hardy noch mehr hinzulernen. In der Stanford University schlich er sich in Vorlesungen und Seminare hinein, wieder ohne angemeldet zu sein und auch ganz ohne Absicht, dort eine Prüfung zu machen oder einen akademischen Grad zu erwerben. Er wollte einfach nur sein Verständnismodell weiterentwickeln. Er verstand etwas von Psychologie und noch mehr von Sozialpsychologie. Und er wusste ungefähr, wie ein Computer funktioniert und wie man was aus ihm herausholen kann. Er konnte Fragen 2.2 Hardy, der Universalist 79 der philosophischen Logik mit solchem Wissen verknüpfen. Auch lernte er biologische Fakten zu verstehen. Nicht, dass er sich zum Biologen ausbilden wollte - aber er lernte viel über das Verhalten biologischer Systeme. Und ziemlich schnell begriff er, was das mit menschlichem Verhalten zu tun hat: „Nehmen Sie einen Hefeteig und lassen Sie ihn aufgehen. Er wird, so lange er kann, über jede Schüssel hinaus quellen. Gierige Menschen tun genau das. Man kann geradezu Kurven von Tempoverläufen zeichnen, in denen so etwas passiert. Kurven menschlichen Verhaltens sehen ganz ähnlich aus.“ Hardys Wissensdurst ist unbegrenzt. Es stört ihn nicht, von einem Wissensfeld in ein benachbartes und weiter ins übernächste zu springen. Es hilft ihm, seinen Horizont stetig zu weiten. Immer schlüssiger wird dabei sein Blick auf die Menschen und desto leichter fällt es ihm, menschliches Verhalten zu verstehen und zu prognostizieren. In der Nacht macht es manchmal Klick in seinem Gehirn, und da ist sie, eine Selbstverständlichkeit, abgeleitet aus diesem querschnittlichen Denken. Nichts steht still Hardy lebt in seinem Apartment inmitten einer enormen Bibliothek von vielleicht achttausend Büchern aller möglichen Fachrichtungen und vergräbt sich hinein. Er hält es aus, viele Nächte nur drei Stunden zu schlafen, lebt Tag und Nacht in und mit diesen Büchern, reißt Seiten heraus, pinnt sie vor sich an die Wand und ist so in der Entschlüsselung von Realitäten gefangen, dass er für anderes keine Minute mehr erübrigt. Immer stärker durchwebt diese Suche für ihn die Vorstellung von Datenreihen und Zeitstrahlen, von immerwährender Veränderung. Nichts steht still. Nichts bleibt, wie es ist. Alles wirkt nicht nur auf sich selbst, sondern auch auf seine Umgebung. Alle statischen Berichte und Protokolle, jede Art linearer Schlussfolgerungen aus solchen grundsätzlich dynamischen Zuständen verfälschen sie automatisch. Denn immer frieren sie Bewegungen ein. Die meisten dieser Berichte sind ohnehin unbrauchbar, weil sie Ereignisse oder Aussagen über Ereignisse kombinieren, die einmal fünf Jahre zurückliegen, einmal drei Jahre, ein anderes Mal nur wenige Augenblicke. Eine solche zeitlose Realität, wird Hardy klar, hat es aber niemals gegeben. Wer so tut, als sei es doch so gewesen, der versucht zeitlich unvergleichbare Ereignisse miteinander zu verbinden, übersieht also ihren dynamischen Charakter, aber bemerkt das oft nicht einmal. Vielfältige Begründungszusammenhänge, schließt er daraus, haben immer zwei Richtungen; sie setzen eine wechselseitige Abhängigkeit von Ursache und Wirkung voraus. Das führt dazu, die Realität als ein Netz dynamischer Beziehungen zu verstehen, in dem Substanzen und Identitäten sich stetig wechselseitig verstärken und Subjekt und Objekt sich im steten Fluss von Ereignissen und Versuchen auflösen. Wie wir die Realität aufzeichnen, schlussfolgert Hardy, ist deshalb weithin Betrug, nämlich Selbstbetrug. Wenn etwas wichtig genug ist, um es aufzuschreiben, dann ist es auch wichtig genug, das jede Minute oder jede Stunde zu tun, jedenfalls in Bezug auf die Zeit, in der es geschieht oder geschah. Wer die Realität verstehen will, muss zeitbezogene Parameter mit einbeziehen. Er muss die zeitlichen Verlaufskurven erkennen und verstehen, in denen sich etwas ereignet, muss die eigene oder fremde Wahrnehmung in diesen Zeitbezug einordnen können. Das ist, was ihm allmählich klar wird. Wer für eine Frage eine Lösung anbieten will, muss die Megatrends im Hinterkopf haben und berücksichtigen, die sich über längere Zeitabläufe entwickeln. Lösungen, die wir heute finden, werden erst morgen wirksam. Dazu muss man sie sichtbar machen. Nur dann kann man sich vorstellen, welche Realität morgen sein wird. Wer ein Modell aus der Realität ableiten will, die er vorfindet, bleibt im Heute befangen; davon ist Hardy nun überzeugt. Auch 80 2 Big Data Daddy Hochrechnungen jetziger Zustände reichen nicht aus, um valide Prognosen wagen zu können. Sie bilden, was sie zeigen wollen, verkürzt ab. Alles hängt aber mit allem zusammen. Hierauf fußt Quantum Relations. Darüber hat Hardy schon in den 1980er Jahren einiges aufgeschrieben und sich zugleich mit IT befasst, vor allem zur Analyse der menschlichen Sprache. Sie - das empfindet er immer stärker - konditioniert den Sozialverband Menschheit ungeachtet aller babylonischen Sprachverwirrung so stark wie sonst nichts. „Vor 200.000 Jahren“, sagt er mit einer weiten Handbewegung, so als könne er diese Zeitspanne mit einem Arm halbwegs umfassen, „haben Menschen es fertiggebracht, mit ein paar fadenscheinigen Speeren Mammuts zu töten. An Größe und Kraft waren ihnen die Tiere vielfach überlegen. Der eine oder andere Jäger ist dabei um Leben gekommen. Die anderen konnten sich erfolgreich verständigen. Sie sprachen, riefen sich etwas zu, verstanden und koordinierten ihre Signale. Was sie oder was Attila und seine Hunnen seinerzeit verabredeten, ist nichts wesentlich anderes als das, was Finanzanalysten heute tun, wenn sie Gruppen von Finanzfachleuten synchronisieren. Heute messen wir allerdings, was und wie wir kommunizieren. Wir vermessen die Sprache und sprachliche Ausdrücke, auch und gerade, wenn wir in oder vor Gruppen reden, wenn wir zum Beispiel Ansprachen halten. Um drei Stellschrauben geht es dabei: um das Was, das Wie und um Sequenzen.“ Es ist Hardys Fahrwasser, in dem er nun segelt, und so setzt er voraus, dass der, der mitsegeln will, versteht, was mit dem Wort Sequenz ausgedrückt ist: eine Abfolge, notwendigerweise eine zeitliche, ein Nacheinander, und zugleich ein Zusammenhang, eine Beziehung. „In Gruppen“, sagt Hardy denn auch, „agieren Menschen ganz anders als wenn sie allein oder nur zu zweit sind. Stellen Sie jemandem in einer Gruppe zwanzig Fragen und dann einem Einzelnen nochmals dieselben - die Antworten werden sich unterscheiden. Denn sie werden immer aus einer zeitlichen Situation im Bezug auf die jeweilige Gruppe gegeben.“ Hardy, der Sozialpsychologe, lässt keinen Zweifel: „Alles was zur Beschreibung der Realität taugt, hat nur Gewicht, wenn es durch die Linse des menschlichen Verhaltens betrachtet wird. Alles dreht sich darum, wie sich Menschen verhalten, auf welchem Weg sie unterwegs sind. Allerorten und jederzeit geht es um Beziehungen, um relations. Und diese Beziehungen verändern sich ständig, sowohl was ihre Prioritäten wie was ihre Energien betrifft. Das lässt sich zu Modellen verdichten, in die die jeweiligen physischen und emotionalen Lebensbedingungen gesamthaft einfließen. Diese Modelle nenne ich Quantum Relations.“ Noch Fragen? Hardys Blick fixiert niemanden. Wie um zu bekräftigen, dass seine Analyse keine Frage aufwirft, setzt er hinzu: „Da sind wir, und damit gehen wir um.“ Hardy hat seine Quantum Relations-Theorie für den Umgang mit Big Data weitgehend in München entwickelt. 1999 meldet er sie trotzdem in den USA zum Patent an. Denn das Europäische Patentamt - Hardy sieht es von seinem Penthaus direkt an der Isar, am anderen Ufer, ihm genau gegenüber, täglich vor sich - erteilt Patente nur auf Produkte, nicht auf Methoden. In den USA ist das anders. 1999 lässt er das quantum relations-Prinzip dort mit Erfolg als seine geistige Schöpfung registrieren und kann diese danach unbesorgt vor Begehrlichkeiten von Wettbewerbern weiterentwickeln. Seine Ideen und ihre Anwendungsmöglichkeiten bekommen durch die Erfindung des kommerziellen Internets in den frühen 1990er Jahren wesentlichen Schwung. Hardy beginnt an einer technisch überzeugenden, die Maßastäbe der computergenerierten Analyse von Sachverhalten und daraus abzuleitender Empfehlungen auf ein neues Nivau stellenden und wirtschaftlich tragfähigen Quantum Relations-Lösung zu arbeiten und erzeugt zum Beispiel mit seinem EU-Patent EP1126674B1 vom Dezember 1999 eine Reihe von Innovationen, die den Weg zum cloud computing eröffnen. 2.2 Hardy, der Universalist 81 Das Prinzip Cloud Computing Hardy legt seinen Ideen für den Umgang mit solchen Informationen eine dezentrale, also auf viele Orte verteilte Speicher- und Verarbeitungsstruktur zugrunde - eine Struktur, die Fachleute Systemarchitektur nennen. Als Hardy diese Überlegungen anstellt, ist sie noch nicht einsetzbar, aber logisch schon abzuleiten. Heute gibt es sie; sie heißt cloud computing. 1998 ist das Internet davon noch sehr weit entfernt. Dieser weltweite Verbund von Rechnernetzwerken ist seinen Arpanet-Kinderschuhen erst seit wenigen Jahren entwachsen. Mit der Umstellung von Arpanet-Protokollen auf das internet protocol setzt sich der Name Internet ab Mitte der 1980er Jahre allmählich durch. Das 1984 entwickelte domain name system macht es möglich, Rechnern überall auf der Welt Namen, sogenannte Adressen, zu geben. 1989 hat Tim Berners-Lee am europäischen Kernforschungszentrum CERN die Grundlagen des world-wide web entwickelt. 1990 beschließt die US-amerikanische National Science Foundation, das Internet für kommerzielle Zwecke nutzbar zu machen. 1991 veröffentlicht Berners-Lee seine Entwicklung und macht sie unter dem Web-Kürzel www weltweit verfügbar. Rasanten Auftrieb erhält das Internet 1993, als der erste grafikfähige web browser zum kostenlosen download bereitsteht. Erst er verwandelt nackte Buchstaben und Zahlen in eine für jeden Internetnutzer optisch erfassbare, griffige Welt. Um Lösungen für morgen entwickeln zu können, müssen wir uns in dieses morgen versetzen. „Eine Technologie mag noch gar nicht erfunden sein - aber wenn es logisch ist anzunehmen, dass sie erfunden werden wird, dass es sie geben wird, wann auch immer, kann man mit ihr schon vorab rechnen“, sagt Hardy und erläutert: „1998 habe ich im ersten quantum relations-Entwurf als Datenquelle eine Technologie zugrunde gelegt, die heute jeder kennt: Smartphones. Es gab noch keine, aber es war logisch, dass sie kommen würden. Das erste Smartphone hat Apple-Chef Steve Jobs bekanntlich erst 2006 präsentiert, acht Jahre später.“ Es hat die Datenerzeugung und die Angebote an Diensten, die Apps genannt werden, seither „förmlich explodieren lassen“ (Bryner 2016). Ein Teil der Realität mag sich noch nicht materialisiert haben. Aber das heißt nicht, dass er nicht als Idee existiere - davon geht Hardy fest aus. Diese Realität ist da, nur verschiebt sich ihre Fassbarkeit in der Raumzeit. Sicher kann er sich dessen nicht sein. Es handelt sich um Möglichkeiten. Sie sind mehr oder minder wahrscheinlich. Aber das, sagt Hardy, lässt sich ermitteln. Später, 2010, erinnert er sich, wie ihm das Phänomen Wahrscheinlichkeit einleuchtete: „Alles auf dem Gebiet der Künstlichen Intelligenz begann in den 1950er Jahren bei Forschern, die das menschliche Denken als ein Gebäude aus Regeln begriffen, die man programmieren kann. Also schufen sie Systeme nach dem logischen Schluss: Wenn man weiß, dass Vögel fliegen können und wenn ein Adler ein Vogel ist, kann man daraus ableiten, dass Adler fliegen können. Als wir herausfanden, dass das System keine Vögel feststellen konnte, die nicht fliegen konnten, mussten wir das explizit mit eingeben. Spätere Systeme überwanden diese strikte Abhängigkeit von einprogrammierten Regeln und orientierten sich stärker an Wahrscheinlichkeiten. Ein System, das noch nie einen flugunfähigen Vogel registriert hat, verringert zum Beispiel die Wahrscheinlichkeit, dass Vögel fliegen können, auf 99 Prozent. Lernt es dann mehr über Strauße und Pinguine und über Vögel in Käfigen oder mit gebrochenen Schwingen, verringert es diese Wahrscheinlichkeit kontinuierlich. Das System erlernt solche Anpassungen mit der Zeit von allein, nicht viel anders als Menschen so etwas lernen“ (Schloer 2010). Wie gehen wir Menschen mit Wahrscheinlichkeiten um? Normalerweise entscheiden und handeln wir auf der Basis unvollständigen, eben wahrscheinlichen Wissens, und verknüpfen es mit Gefühlen, Emotionen und Reaktionen auf unsere Umwelt, beispielsweise in einem Herdenverhalten. Der US-Nobelpreisträger Herbert A. Simonnennt das bounded rationality, beschränkte Rationalität (Simon 1957) und folgert daraus, dass man die Suche nach Alternativen einstellt, wenn man eine vorläufig befriedigende Lösung sieht, obwohl 82 2 Big Data Daddy noch bessere Möglichkeiten verborgen sein könnten (Mainzer 2016: 25). So glaubten Europäer lange Zeit, Schwäne seien grundsätzlich weiß. Im 17. Jahrhundert wurden in Australien jedoch ganz unvermutet schwarze Schwäne entdeckt. Algorithmen können der Aussage „Schwan“ Orte zuordnen. Einen „Schwan auf einem europäischen Dorfteich“ werden sie mit hoher Wahrscheinlichkeit als weiß klassifizieren, einen „Schwan an einer australischen Flussbiegung“ jedoch als schwarz. Einen Schwan in einem amerikanischen Zoo? Hmmm… Viele Bestätigungen steigern nicht die Wahrscheinlichkeit einer allgemeinen, bislang ausnahmslosen Annahme (ibid.: 26). Hardy ist nicht in München, um Wahrscheinlichkeiten zu errechnen. Gerufen von Andersen besieht er sich vielmehr die Siemens-Malaise, versteht das Problem, und weil er es richtig versteht, kann er es auch lösen. Der Name Tosca verschwindet für zwei Jahrzehnte aus den Annalen und taucht erst wieder auf, als die Firma Patentpool, die seine Entwicklungsarbeiten vorfinanziert, gegen Microsoft vorgeht, weil der Software-Gigant sich nach Überzeugung der Münchner einer ihnen gehörenden patentierten Software bedient, ohne dafür zu bezahlen. Patentpool will Debatten darüber vermeiden. Also benutzt das Unternehmen einen Tarnnamen, unter dem dieser Fall eine Weile lang läuft. Er soll leicht merkbar sein, bei Unbeteiligten Vertrauen erwecken und ist mittlerweile wieder frei: Es ist der Name Tosca. Hardy hat sich, als der Fall Tosca 1 gelöst ist, die Hälfte des Andersen-Honorars geschnappt und ist drauf und dran, wieder nach Hause zu fliegen, nach Los Angeles. Das ist der Moment, in dem er Heiner begegnet. Viel versteht Heiner noch nicht an diesem Abend, der eigentlich der Musik gewidmet sein soll, aber doch genug, um in der Idee quantum relations, die Hardy ihm da locker umreißt, eine Chance zu wittern. Der Abend wird lang. Heiner diskutiert die Idee darauf mit seinen venture capital-Partnern, seinen Investoren. Die schauen ihn fragend an, verstehen von dieser abstrakten Theorie über den Umgang mit Daten noch weniger als er, fragen nach einem ausgefeilten Businessplan und dergleichen. Damit kann Heiner nicht dienen und Hardy ebenso wenig, denn dem geht das Projekt ohnehin Tag und Nacht im Kopf herum, und das muss, sagt er, einstweilen genügen. Wird es das? Heiner spricht wieder mit seinen Finanzpartnern, stößt auf höfliches Schweigen, wenn nicht auf ein mehr oder weniger klar ausgesprochenes Nein. „So könnt ihr mit uns nicht umgehen“, gibt Heiner zurück. „Uns“ sagt er schon; in Gedanken sind er und Hardy schon ein winning team, auch wenn noch gar nichts verabredet ist. „Wenn ihr uns kein Geld dafür gebt, dann besorgen wir uns das eben wo anders und entwickeln Patentpool und quantum relations ohne euch weiter.“ Das war’s. Fortan ist das Tischtuch zerschnitten. Aber Heiner ist schon zu routiniert, als dass er dabei den kürzeren Zipfel erwischte. Es dauert nicht lange, bis er einen Schwung reicher Leute zu einer Präsentation in das Münchner Nobelhotel Mandarin Oriental einlädt. Fünfzig, sechzig Personen finden sich zwischen den Marmorpaneelen eines der dortigen Konferenzräume ein. Viele kennen sich schon. „Wir luden Sie ein“, sagt Heiner zu ihnen, „sich unsere Botschaft einmal anzuhören und dann zu entscheiden, ob Sie mitmachen wollen." Relativ schnell hat er die nötigen Millionen beisammen, um starten zu können. „Wir hatten Zeit genug, um uns von den Venture-Kapitalisten zu trennen. Die waren nicht einmal sauer; sie hatten einfach andere Interessen, wollten Geld verdienen. nicht zunächst investieren. Um den Exit hinzubekommen, haben wir ihnen zwar 35 Prozent Rendite per annum bezahlen müssen. Aber danach sind sie gestrauchelt. Am Neuen Markt sind damals viele Beteiligungen geplatzt.“ An dieser Stelle hätte der gemeinsame Weg von Heiner und Hardy zuende sein können. Denn der Kollaps des Neuen Marktes hätte sie mit hinwegfegen können. Dass es dazu nicht kam, hat einen einfachen Grund: Ihre gemeinsame Basis, die Quantum Relations-Idee, ist keine dot.com-Blase, keine Sumpfblüte des Neuen Marktes, sondern ein zukunftsfähiges onzept für Analysen und Handlungsempfehlungen auf der Grundlage von Big Data-Verarbeitungen. 33 VVoonn NNeew wtto onn üübbeerr EEiinnsst te eiinn zu RavenPack und zu Prisma. Wie tickt heute die Welt? Einstein zu verstehen war die Basis für quantim relations. RavenPack revolutionierte damit die Finanzwelt. Prisma ermöglicht nun blitzschnelle Entscheidungen mit höchster Treffsicherheit nicht nur auf der Basis von Zahlen, sondern auch der gesamten mentalen Welt. Das gab es noch nie. 3.1 Algorithmen - die Alleskönner 83 3.2 Wissendes Subjekt und gewusstes Objekt 89 3.3 Von Quanten zu Quantum Relations 92 3.4 Phil, die Multibegabung 98 3.5 Der Weg zu RavenPack 100 3.6 Die Schloer Consulting Grou p wird geschaffen 113 3.7 Die Prisma Analytics GmbH entsteht 116 3 3..11 AAl lggoorriitth hmme en n -- ddiiee AAl lllees skkö önnnneer r Wir lassen denken Hardys berufliche Welt kreist um eine Computeranwendung, der Außenstehende nahezu magische Kräfte andichten. Sie kommt in den verschiedensten Ausprägungen vor: klein und genial oder riesig und imposant. Manchmal kommt sie leise daher, „von einem auf den ersten Blick nicht sichtbaren Geistesblitz belebt“, manchmal aber auch „bahnbrechend, revolutionär anders gedacht, methodisch überwältigend anspruchsvoll, auf den Schultern vonGiganten“, dann wieder „schlicht, derart wohlgefügt, dass man sich nicht vorstellen kann, jemals wieder anders zu denken. Es gibt Schulen und Stile, Geschmack und Kriterien. Es gibt epochale Meisterwerke und brauchbare Produkte fleißigen Epigonentums. Sie alle werden von Menschen geschaffen - von Menschen, die Kreativität, Bildung und unzählige Nächte auf ihre Vervollkommnung verwenden.“ (Stiller 2015: 9). Die Rede ist von Algorithmen. Algorithmen machen das Leben im digitalen Zeitalter bequem. Mit ihrer Hilfe ist fast jede Frage nur einen Mausklick von einer Antwort entfernt (Stampfl 2013: 8). Sie berechnen die Wirklichkeit (Seyfert 2017). Stiller nennt sie „Kunstwerke der Faulheit, konsequent und kunstfertig reduziert, um perfekt zu sein“ (ibid.). Sie entlasten uns Menschen von Arbeit, vor allem von stumpfsinniger, immer wiederkehrender, von schierer Fleißarbeit also. So wie Maschinen im Zeitalter der Mechanisierung und Motorisierung uns von Muskelarbeit befreit haben, tun Algorithmen es auf dem Gebiet der geistigen Arbeit. Sie registrieren bei entsprechender Programmierung komplexeste Veränderungen unseres Umfelds verzögerungslos und erleichtern es uns, diese zu priorisieren, ohne stetig selbst hinschauen zu müssen. Sie erlauben uns damit, auch einmal faul zu sein. Sie stecken in Computern und sind dort längst fleißiger und schneller als der Mensch es je sein könnte. Algorithmen lösen mathematische Aufgaben. Für jede mathematisch definierte mögliche Eingabe ermitteln sie die korrekte Lösung in Lichtgeschwindigkeit. Sie verknüpfen Daten so zu Informationen, dass sie zur Entscheidungsfindung beitragen, und generieren damit Mehrwert. Bei fehlerhafter Programmierung, bei unvollständigen oder fehlerhaften Daten können sie allerdings auch fehlerhafte Ergebnisse liefern (Bitkom 2017b: 7). So erteilte die 84 3 Von Newton über Einstein Deutsche Bank im Sommer 2010 versehentlich Verkaufsaufträge über 150 Milliarden Euro. Schuld gewesen, hieß es, sei ein ‚Software-Fehler‘. Die Order ließ den japanischen Leitindex einbrechen (Stampfl 2013: 9). An der New Yorker Börse verloren etwa zur gleichen Zeit aus einem vergleichbaren Grund wegen eines einzigen fehlerhaft ausgelösten Verkaufsauftrags Aktien 17 Prozent (ibid.) - Ausnahmenvon sonst gut funktionierenden Regeln. Algorithmen entscheiden nicht, sie berechnen. Entscheidungen sind und bleiben vorerst unsere Angelegenheit. Aber Algorithmen ermöglichen es uns, mit Daten Dinge zu tun, die wir früher nicht konnten: „Wir können intelligenter suchen, Epidemien vorhersagen, große Mengen von Twitter-Daten durchforsten, um Hinweise auf neue Entwicklungen oder Trends zu bekommen, Nachrichten an persönliche Interessen anpassen und vieles mehr“, sagt Natali Helberger, eine Professorin für Informationsrecht am gleichnamigen Institut der Universität Amsterdam und schlussfolgert: „Diese Entwicklungen schaffen Chancen für viele spannende neue Dienste und Anwendungen“ (Grötker 2016). Algorihmen funktionieren gut, ohne dass ihre Funktionsweise völlig durchsichtig wäre. Der amerikanische KI-Experte Pedro Domingos sagt noch viel drastischer: „Sie sind völlig undurchsichtig. Selbst wir Experten verstehen nicht, wie sie genau funktionieren. Wir sollten deshalb keine Regeln aufstellen, die nur vollständig erklärbare Algorithmen erlauben. Es ist schwierig, die Komplexität der Wirklichkeit zu erfassen und die Dinge dabei einfach zu halten“ (Domingos 2018: 108). Algorithmen arbeiten weitgehend automatisch.Deep packet inspection beispielsweise untersucht Datenpakete, die durch das Internet wandern, auf bestimmte Merkmale, die auf den Inhalt der Daten deuten können. Auf diese Weise können zum Beispiel Viren oder Spam bereits im Netz erkannt werden. Der Internetverkehr wird durchleuchtet oder gesteuert, damit alle Daten besser und schneller ans Ziel gelangen. Menschen schauen allenfalls auf Statistiken um zu kontrollieren, wie erfolgreich ein Algorithmus im Großen und Ganzen gearbeitet hat (Grötker 2016a). Die Sprecherin der Fachgruppe Internet und Gesellschaft der Deutschen Gesellschaft für Informatik, Agata Królikowski, ergänzt: „Mustererkennung, Analyse von verborgenen Regelmäßigkeiten: das alles wird mit Big Data gemacht. Aber wir sind eigentlich immer noch dabei, mit Algorithmen zu experimentieren, die aus Big Data Smart Data machen können, um Geräte so miteinander kommunizieren zu lassen, dass sie den Alltag des Menschen wirklich verbessern. Hier sind vor allem Algorithmen des maschinellen Lernens im Einsatz. Ein zentrales Beispiel ist die Spracherkennung“ (ibid.). Sie steckt bereits in Mobiltelefonen. Algorithmen zwingen uns auch, darüber nachzudenken, in welcher Gesellschaft wir morgen leben wollen: „Wie weit wollen wir zulassen“, fragt Helberger weiter, „dass Algorithmen Entscheidungen treffen, die wichtig für unser Leben sein können“, etwa über unsere Kreditwürdigkeit, zu medizinischen Diagnosen, zur Entscheidung, auf welche Schulen unsere Kinder gehen sollen, die Risikoprofile dazu zu entwickeln, wer morgen mit einiger Wahrscheinlichkeit einen Betrug oder ein Verbrechen begeht? Wie viel sollen der Staat, die Polizei, die Medien und Werbeunternehmen über uns wissen? “ Muss alles gewusst werden, weil es nützlich sein kann, oder müssen wir neue Grenzen setzen? (ibid.). Wieder gilt: Es gibt keine einfache Antwort. Dazu sind die Aufgaben von Algorithmen zu unterschiedlich: Die Profilierung von Bürgern, die Fernsehen schauen oder die Zeitung lesen, erfordert andere rechtspolitische Wertungen als die von Besuchern eines Online- Versands. Algorithmen, die Kreditwürdigkeit feststellen, sind nach anderen Grundsätzen zu beurteilen als die, die prognostizieren, ob eine Maschine in der Fabrik vor einem technischen Problem steht und eine Reparatur nötig hat (ibid.). Helberger plädiert für „sektorspezifische Diskussionen“. Trotzdem stellen sich übergreifende Fragen nach den Voraussetzungen für Transparenz und Nachvollziehbarkeit des Umgangs mit Daten. 3.1 Algorithmen - die Alleskönner 85 Algorithmen beschleunigen nicht nur Rechenvorgänge, sondern strukturieren zunehmend auch unser Denken. Schirrmacher hat das vor einigen Jahren gesehen, als er sich mit Forschungsergebnissen des Stanford-Forschers Clifford Nass beschäftigte (vgl. Ophir et al. 2009). „Das Denken wandert nach außen“ (Schirrmacher 2011: 73). Diese Erkenntnis beunruhigte ihn. Denn ein Algorithmus erledigt Aufgaben, die einen klaren Anfang und ein definiertes Ende haben, mit „uhrwerkhafter Präzision“ (Drösser 2016: 25). Jeder Arbeitsschritt ist dazu als Befehl eindeutig definiert, und meist folgt ein Befehl auf den anderen, außer wenn das Aufgabenschema parallele Wege ermöglicht (ibid.: 22). Unpräzise und ungeplante Schritte schließt ein solches Verfahren folglich aus - gerade solche also, die wir kreativ nennen. Dem widerspricht nur auf den ersten Blick eine Software, die Musik so wiedergibt, wie ein Pianist sie interpretiert, also gerade nicht so exakt wie eine Maschine. Wissenschaftler der Universität Wien haben dazu die interpretatorischen ‚Fingerabdrücke‘ berühmter Pianisten analysiert und gespeichert (ibid.: 27). Seither lässt sich jedes Klavierstück mit einem ‚menschlichen Faktor‘ in technischer Wiedergabe so variieren, als spiele es Maestro A, B oder C. Aber auch das ist nur Steuertechnik, keine kreative Gestaltung. „Algorithmisch zu denken“, sagt Stiller, heiße „darüber nachzudenken, wie man denkt. Ein Algorithmus ist ein Teil unseres Denkens, den wir so gut verstanden haben, dass wir ihn getrost auslagern können. Wir lassen denken. Dafür sind Computer gut“ (ibid.). Die Herrschaft der Algorithmen baue auf die Berechenbarkeit des Menschen und der Gesellschaft, folgert Stampfl (2013: 58). Algorithmen arbeiten mit dem, „was sie aus unserem gestrigen Verhalten oder dem eines Durchschnittsnutzers extrahieren können. Der erratische, sich weiterentwickelnde Mensch finde„in dieser Logik keinen Platz“ (ibid.). Denn Algorithmen begreifen die Welt nicht, sie berechnen sie bloß, allerdings mit erstaunlichen Folgen, wie wir im Abschnitt Künstliche Intelligenz gesehen haben. In einem solchen System muss der Mensch mit seiner Sprunghaftigkeit, seinem Abwechslungsreichtum, seiner Fehlerhaftigkeit, kurz: seinerUnberechenbarkeit immer zum Störfaktor werden (ibid.: 13). „Das Menschliche, Kultur, Moral und Individuum“, heißt es an gleicher Stelle, finde in der Megamaschine keinen Platz, weil es deren definitionsgemäßer Voraussetzung nicht genügt: „Menschen sind nicht quantifizierbar“. Das ist, wie eine genauere Betrachtung zeigt, aber nur halb richtig. Für den einzelnen Menschen ist sie korrekt; bei Menschen im Plural greifen aber stets Wahrscheinlichkeiten. Die lassen sich durchaus berechnen, und genau das geschieht auch. Wegen der kalten Präzision und der atemberaubenden Geschwindigkeit, mir der Algorithmen arbeiten, gelten sie manchen Menschen als gefährlich. Noch einmal Stiller: „Man nennt sie in einem Atemzug mit Gleichmacherei, Großkonzernen, Bespitzelung und Bedrohung. Erschreckender als die Vorwürfe der einen ist nur das Lob der anderen, als sei Algorithmik eine Alchimie unserer Zeit, die Wissen aus dem Nichts erschafft“ (Stiller 2015: 9). Was sind also Algorithmen tatsächlich? Es sind wie gesagt Programme, die mathematische Aufgaben lösen. Man kann sie aber - was oft auch geschieht - mit Aktuatoren verknüpfen, also mit Geräten, die digitale Entscheidungen in die physische Welt übertragen und je nach Algorithmussignalen Handeln auslösen, zum Beispiel in der Kfz-Branche beim Lenken, Beschleunigen oder Bremsen von Automobilen ohne menschlichen Fahrer je nach dem, was Sensoren über dessen Umfeld errechnen. Handelt dann ein Algorithmus? Genau betrachtet nein; gehandelt haben dessen Programmierer. Sie haben ihre Ideen, Erfahrungen und Wertvorstellungen in die Lösung eines Problems einprogrammiert und entschieden: Im Fall A soll Technik B nach Vorschrift C agieren. B kann durchaus eine Maschine sein; auch die Prämisse A hat ja eine Maschine ermittelt. Diese Handlungsanweisung kann millionenfach ausgeführt werden, in Millionen von Automobilen, um beim Beispiel zu bleiben, ohne dass jemand während der Fahrt auf- 86 3 Von Newton über Einstein merksam sein und blitzartig Entscheidungen treffen muss, die trotz vielleicht stressiger Umstände nicht fehlerhaft ausfallen dürfen. Es sind „eingefrorene Handlungsanweisungen“, wie das eine Professorin für komplexe Netzwerke treffend genannt hat (Zweig 2016). Nicht selten verkürzt das aber die Relität.„Wir Informatiker“, erläutert die Sprecherin Internet und Gesellschaft der Deutschen Gesellschaft für Informatik Agata Królikowski, „modellieren die Realität, um sie im Computer abzubilden. Wir können nicht alle Parameter in den Computer packen - das wäre zu rechenintensiv. Deshalb müssen wir vereinfachte Annahmen treffen. Bei klassischen Algorithmen hat der Entwickler die Eckpunkte in der Hand: „die Daten, Testfälle und die Umgebung“ (Grötker 2016a). Wie sich eine neue Software in der Realität tatsächlich verhält, muss man testen. Verifikation nennt man das. Wenn Maschinen mit Menschen zusammenarbeiten und sie gefährden, geht es auch um Fragen von Haftung und Haftungsausschluss. Bei Algorithmen für maschinelles Lernen ist das ziemlich schwierig. Weder können wir die Umgebung vollständig abschätzen, in der ein Algorithmus eingesetzt wird, noch die Daten, mit denen er trainiert wird. Der Entwickler muss mit Wahrscheinlichkeiten rechnen. „In einem gewissen Grad ist das eine black box“ (ibid.). Dabei geht es auch um die Rolle der Analysten: „Welche Suchresultate sehen Menschen? Unterscheiden diese sich, und wenn ja, nach welchen Kriterien? Sind das persönliche Kriterien? “ Algorithmen zu kontrollieren und zwischen akzeptablen und inakzeptablen Arbeitsweisen zu unterscheiden, kann nach Helbergers Überzeugung nicht allein eine Aufgabe der Nutzer sein. Dazu sind die technischen und organisatorischen Prozesse zu kompliziert (Grötker 2016). Nötig sind deshalb gesetzliche Kontrollaufgaben für „Datenschutzbehörden, Medien- und Wettbewerbshüter und Verbraucherschutz-Institutionen“ (ibid.). Gesetze, ergänztO’Reilly (2013) dazu, „sollten Ziele bestimmen, Rechte, Ergebnisse, Verantwortliche und Grenzen. Was ist ihnen gemeinsam? 1. Ein tiefes Verständnis für die Notwendigkeit eines konkreten Ergebnisses, 2. Regeln, nach denen feststellbar ist, ob diese Ergebnisse erreicht werden, 3. Algorithmen, die neue Daten bewerten und 4. periodische tiefergehende Analysen darüber, ob diese Algorithmen korrekt sind und nach den Vorgaben arbeiten.“ Hinzu kommen noch neue Herausforderungen durch Künstliche Intelligenz. Sie verlangen nach Initiativen der Gesellschaft und des Gesetzgebers gleichermaßen. Top-down und bottom-up Das ist die eine Seite der Algorithmen-Entwicklung. Sie folgt dem top down-Prinzip: „Oben“ wird eine Frage gestellt, ein Problem definiert, ein Lösungsweg ausgewählt und für ihn eine technische Konfiguration zusammengestellt. Dann lässt man diese tun, wozu sie programmiert wird, etwa den Verkehrsfluss rund um ein Automobil, wenn nötig auch Wetterdaten und Staumeldungen ständig abzuscannen - insgesamt kontinuierlich Berge an Daten - und fortlaufend mit dem Fahrzustand so zu vergleichen, dass das eine sichere Fortbewegung relativ zur Fahrzeugumgebung gewährleistet. Top down wird auch verfahren, wenn man ein Medikament entwickelt, genau weiß, was es bewirken soll, und dann so lange Rezepturen erprobt, bis die richtige Zusammensetzung und Dosierung gefunden ist. Das andere Entwicklungsprinzip funktioniert bottom up: In meist großen und in der Regel unstrukturierten Datenbergen, in sprichwörtlichen Heuhaufen, sucht man nach Mustern, gewissermaßen nach den in den Haufen verborgenen Nadeln. Fachleute nennen das data mining. So stellte die US-Handelsfirma Target schon vor vielen Jahren fest, dass Schwangere oft Produkte kauften, die für andere Käufer uninteressant waren. Prompt ließ sich diese Ursache-Wirkung-Kette mit ziemlich hoher Treffergenauigkeit umdrehen: Wer diese Produkte kauft, ist mit großer Wahrscheinlichkeit 20 bis 40 Jahre alt, mit noch größerer weib- 3.1 Algorithmen - die Alleskönner 87 lich und mit allergrößter Wahrscheinlichkeit schwanger. Ein zunächst ganz anonymer Kauf lässt so individuelle Rückschlüsse zu. Allerdings: Wer Produkte für Schwangere kauft, muss nicht selbst schwanger sein. Vielleicht hat ja der Ehemann, die Mutter oder eine Freundin diesen Einkauf erledigt. Das ist zwar nicht sehr wahrscheinlich, aber doch möglich. Aussagen aus Big Data sind deshalb immer Angaben über die Wahrscheinlichkeit, dass etwas so ist, wie es dargestellt oder erwartet wird. Rückschlüsse dieser Art erlaubt auch die Bilderkennung. Googles Fotoverwaltung Picasa, Apples iPhoto und viele andere Anwendungen verfügen über integrierte Gesichtserkennungen, die beliebig viele Personen auf einer großen Anzahl von Fotos automatisiert identifizieren und sortieren (Morgenroth 2014: 215). Vergleichbar arbeiten inzwischen sehr viel stärker verfeinerte Instrumente zum Beispiel bei Facebook: Aus nur wenigen likes, also Angaben, dass Facebook-Nutzern etwas, das sie gelesen oder gesehen haben, gefällt, ziehen sie sehr kennzeichnende Rückschlüsse auf den Charakter der Person, der da etwas gefällt. Denn die eingesetzten Algorithmen isolieren aus den likes die sogenannten big five-Charakterzüge Offenheit (Wie aufgeschlossen sind Sie gegenüber Neuem? ), Gewissenhaftigkeit (Wie perfektionistisch sind Sie? ), Extraversion (Wie gesellig sind Sie? ), Verträglichkeit (Wie rücksichtsvoll und kooperativ sind Sie? ) und Neurotizismus (Sind Sie leicht verletzlich? ). Anhand dieser Dimensionen kann man relativ genau sagen, mit was für einem Menschen man es zu tun hat, welche Bedürfnisse und Ängste er hat und wie er sich tendenziell verhalten wird (Krogerus 2016). Diese Tendenz zum immer stärker gläsernen Menschen wird uns später noch genauer beschäftigen. Seit Algorithmen so programmiert werden können, dass sie sich ihre Arbeitsergebnisse merken, Fehlschlüsse erkennen und künftig ausschließen können, sinkt die Wahrscheinlichkeit von Fehlschlüssen kontinuierlich und wird die jeweilige Prognose deshalb immer genauer. Algorithmen haben ein Potential, das auf den ersten Blick magisch erscheint. „Lernende Algorithmen“ sind Beispiele für Künstliche Intelligenz. Diese Bezeichnung führt jedoch in die Irre. Der Algorithmus selbst verändert sich nämlich nicht. Er entwickelt anhand der verarbeiteten Daten „nur“ eine sich immer stärker verfeinernde Entscheidungsstruktur. Wie Algorithmen erkennen: falsch positiv, falsch negativ Noch einmal zurück zu den sehr irdischen Bedingungen für diese phantastisch tüchtige Welt der Algorithmen: Algorithmen sind Instrumente zur Vermessung der Welt und zur Steuerung von Abläufen aufgrund gemessener, gespeicherter und verarbeiteter Daten. Sie ermöglichen rechnerbasierte Modelle der heutigen Welt. Weil diese elektronischen Helfer mathematisch arbeiten, benötigen sie wie gesagt eindeutige, exakte Eingaben; sonst können sie nichts leisten. Ein Navigationssystem funktioniert nur, wenn völlig klar ist, nach welchen Prioritäten es Routen auswählen soll: nach der kürzesten Stecke oder der schnellsten? der schönsten (aber was heißt das, mathematisch betrachtet)? der am ehesten staufreien (das lässt sich berechnen, aber nur für eine bestimmte Sekunde), der mautfreien? Solche Festlegungen werden Modellierungen genannt. Sie werden von Menschen gemacht, und die machen schon einmal Fehler. Selbst wenn ein Algorithmus dann richtig rechnet, muss das Ergebnis deshalb nicht automatisch richtig und sinnfällig sein, wenn der Programmierer zuvor etwas falsch gemacht hat. Auch die Analysetechnik selbst kann Fehler machen, etwa wenn sie etwas Rundes „falsch positiv“ als Teller erkennt, obwohl es sich gar nicht um Geschirr handelt. „Falsch negativ“ würde sie handeln, wenn sie tatsächlich existierende Teller nicht als solche erkennt. Meistens steigt die Anzahl der falsch positiven Entscheidungen, wenn die der falsch negativen möglichst klein bleiben soll, und umgekehrt. Beides zugleich zu optimieren - das geht kaum. 88 3 Von Newton über Einstein Programmierer gehen diese Schwierigkeit in der Regel heuristisch an: Sie suchen mit ihren Maschinen eine optimale Lösung zu ermitteln ohne garantieren zu können, dass die gefundene tatsächlich die beste ist. Sie verfahren damit ganz so wie wir Menschen: Suchen wir auf einer Landkarte einen kürzesten Weg, scheint es ein bestimmter zu sein. Messen wir’s nach? Kaum. Meistens stimmt es. Weil bereits eine nahezu unübersehbare Fülle von Algorithmen einsetzbar ist, gibt es inzwischen Meta-Algorithmen, die nachgeordnete Algorithmen aussuchen und ihnen mitteilen, was sie zu tun haben. Ein internetbasiertes Unternehmen, das vor dem Problem steht, welche Inhalte es welchen Nutzern auf einer Webseite anzeigen soll oder welche Produktempfehlungen es geben soll, kann einen solchen Meta-Algorithmus aus Kontextinformationen heraus zum Beispiel entscheiden lassen, welche Algorithmen am Besten geeignet sind, jedem Kunden, der eine Webseite besucht, Angebote nach „zuletzt angesehenen Artikeln“ vorzusortieren oder nach solchen, die „oft zusammen gekauft“ werden. Wieder andere Algorithmen können mitteilen: „Kunden, die diesen Artikel angesehen haben, kauften auch …ähnliche Artikel“ etc. Ein Mega-Algorithmus entscheidet hierüber anhand seiner Erfahrung, aber auch danach, welcher Algorithmus oder welcher Mix an Algorithmen in der Vergangenheit den meisten Mehrwert erzielt hat. Algorithmen nehmen also Kunden bei solchen Fragen nach sie interessierenden Angeboten die Arbeit von Suchmaschinen ab, die sie sonst aktiv zur Arbeit schicken müssten. Tun sie das, setzt allerdings der Suchmaschinenbetreiber wieder Algorithmen ein, die feststellen, wonach der Anfrager schon früher gesucht hat - und schon nimmt die Technik ihm eine Reihe von Vorauswahl-Entscheidungen ab, ob er will oder nicht. Suchmaschinen haben in der unglaublichen Fülle des Web die Aufgabe, das an Daten zu finden, was aus irgendeinem Grund von Belang ist. Ihre Leistung ist auf den ersten Blick nicht schlecht. Sie durchkämmen mehrere hundert Milliarden gespeicherte Web-Inhalte. Aber die meisten nutzen nur statische Inhalte, also ein für allemal aufgeschriebene Aussagen, die wie Bücher Stück für Stück ohne inneren Zusammenhang nebeneinander im Regal stehen - „so als wäre das Web eine gigantische strukturlose Bibliothek und als gäbe es einen heftigen Wettbewerb zwischen Suchmaschinen darüber, welche von ihnen über die Bücher in dieser Bibliothek mehr weiß als die anderen“ (Schloer/ Spariosu 2017: 99). Wer heute ein Suchwort eingibt, bekommt - im buchstäblichen Sinn als Antwort - Textstellen oder Zahlen angezeigt. Denn dmkit arbeiten die Suchmaschinen. Üblicherweise werden nur Zahlen, Wörter und Sätze verarbeitet, in begrenztem Umfang auch Bilder. Nur selten wird eine generelle Klassifizierung einbezogen. Das liegt an den erheblichen Begrenzungen heutiger browser und deren maschineller Such- und Lieferkomponenten. Auf Lösungen in Echtzeit sind Suchmaschinen schlecht vorbereitet. Viele berücksichtigen zwar die Suchhistorie des Nutzers, zeigen also Ähnliches wie das an, das ihn früher schon einmal interessiert hat. Den übrigen persönlichen Referenzrahmen des Benutzers, etwa dasGeschlecht oder politische Interessen, kennen sie aber kaum. Können Algorithmen das besser? Nicht wirklich: Auch sie können das Geschlecht, die Religion oder die Intelligenz einer bestimmten Person nicht bestimmen, sondern geben nur, vereinfacht formuliert, einen Tipp ab, der mit gewisser Wahrscheinlichkeit richtig ist - oder eben falsch (Morgenroth 2014: 193). Morgenroth rechnet vor, was das heißt: Bei einer Geschlechtsbestimmung war die Treffsicherheit einer Facebook-Analyse mit 93 Prozent ziemlich hoch. Rechnet man diese Zahl aber auf 1,2 Milliarden Facebook-Nutzer um, dann irrten sich diese Algorithmen bei immerhin 84 Millionen Menschen - das sind mehr als Deutschland Einwohner hat (ibid.). Nehmen wir an, Sie seien politisch interessiert, besonders am Thema Nachhaltigkeit, und möchten wissen, welche ihrer örtlichen oder regionalen Kandidaten für den Bundestag 3.2 Wissendes Subjekt und gewusstes Objekt 89 oder den Landtag dieses Thema ähnlich einschätzen wie Sie. Die Suchmaschine kann das feststellen. Aber eine angemessene Aussage setzt voraus, dass Sie sie direkt hiernach fragen. „In der klassischen business intelligence, basiert auf relationalen Datenbanken, müssen Fragen schon festgelegt werden, bevor Daten überhaupt gespeichert werden. Techniker nennen das schema on write - die Struktur und damit die Semantik der Daten werden in der Konfiguration der Datenbank definiert, welche dann die Daten speichert. Einfach gesagt heißt das: Da wird stets Gleiches zu Gleichem sortiert. Aus diesem Grund sind relationale Datenbanken nicht in der Lage, neue Datentypen zu akzeptieren, deren Schema noch nicht definiert ist. Sie versagen also gerade dann, wenn die Big Data-Dimension variety / Vielfalt relevant ist. Erkenntnisse aus einem „Entdeckungsprozess“ - einem interaktiven Lernen aus den Daten -, lassen sich so nur mühsam gewinnen (Bitkom 2014: 35). Denn die Maschine weiß abgesehen von der gespeicherten Suchhistorie zunächst nicht, wie das Profil des Suchers aussieht, kennt also Ihre Erwartungen nicht, wenn sie sich nicht zum Beispiel bei Facebook nach Ihnen erkundigt. Bei Facebook ist das nämlich anders; dort werden persönliche Profile ermittelt - mit gefährlichen Konsequenzen für die Privatheit der Nutzer. Es hilft derzeit auch wenig, wenn Sie der Suchmaschine ihre politischen Interessen erläutern möchten. Denn über die Sucheingabe hinaus gibt es mit dem System gar keinen Dialog und schon deshalb noch keine ausreichende Möglichkeit, Suchergebnisse anders als über die Suchhistorie auf die Interessen des Anfragers zuzuschneiden. Nächstes Problem: Suchen Sie doch einmal nach einer abstrakten Idee und nach einem Risiko-/ Chancen-Profil, wie es für ungezählte Entscheidungen nötig ist. Zu Ideen wird Ihre Suchmaschine Sie auf einen Wikipedia-Beitrag verweisen, aber Ideen, die die Wikipedia- Autoren nicht kannten oder nicht aufgeführt haben, gehen Ihnen verloren. Und den Abgleich von Chancen und Risiken müssen Sie nach wie vor selber vornehmen; dafür ist ihre Suchmaschine nicht gebaut. Ihre Suchmaschine listet Ihnen zwar Fundstellen in der Regel in einer absteigenden Zeitreihe auf, die jüngste zuerst. Aber aktive, intelligente Lösungen in Echtzeit kann sie nicht bieten. Sie arbeitet nämlich statisch. Suchergebnisse werden Ihnen nur in dem Moment geliefert, in dem Sie diese erfragen. Abonnieren können Sie sie nicht. Sie verfügt nicht wie viele Webseiten über eine Newsfeed-Funktion, mit der Sie Nachrichten über Neuigkeiten abonnieren können.Vielleicht liegen morgen wichtige neue Angaben vor. Aber eine Update- Funktion, also eine mehr oder weniger automatische Aktualisierungsfunktion,hat Ihre Suchmaschine eben nicht. Suchmaschinen wie die von Google helfen Ihnen also nicht, für Sie wichtige dynamische, sich stetig wandelnde Prozesse zu erkennen, zu analysieren und zu bearbeiten. Dafür gibt es andere Instrumente der künstlichen Intelligenz. Gerade das Quantum Relations-Programm ist hierauf spezialisiert. 33..22 WWiisssse ennddeess SSuubbjjeekktt uunndd ggeewwuusssstteess OObbjjeekktt Als Hardy begann, seine Software Quantum Relations zu Prisma Analytics weiterzuentwickeln, hatte er sein Ziel weit ausgesteckt: Er wollte ein „radikal innovatives“ (Schloer 2006: 180), allgemeines, interdisziplinär angelegtes Modell einer von Maschinen unterstützten Analyse schaffen und dazu Felder der Psychologie und der Soziologie ebenso einbeziehen wie Elemente der Physik sowie Ideen der westlichen und östlichen Philosophie. Wer sich ein solches Ziel setzt, geht davon aus, dass das, was die übliche, vereinfachende Wissenschaft als solide und objektive Fakten und Wirklichkeiten betrachtet, in Wirklichkeit selektive Beobachtungen und Lernvorgänge sind, die emotional und kulturell filtern. In ver- 90 3 Von Newton über Einstein schiedenen Publikationen von einem ersten Aufsatz 1988 bis zu seinem jüngsten Buch (Schloer/ Spariosu 2017), dem wir hier zeitweilig folgen, erklärt Hardy denn auch: Unser Weltbild ist das Resultat eines in hohem Maß subjektiven Umgangs mit der Realität, gespiegelt im Gedächtnis, dem einzelner Menschen ebenso wie dem kollektiven Gedächtnis einer größeren Einheit, etwa einer Nation oder eines Kulturkreises. Hardy weiß sehr bald: Dazu gilt es nicht nur die Konsequenzen menschlicher Entscheidungen erkennen zu lernen, sondern auch die komplexen Wechselbeziehungen und versteckten Abhängigkeiten globaler Realitäten zu verstehen. Kurz gesagt geht es darum, das, was aus Beobachtungen der Realität an Daten entsteht, als ein in vielen Ebenen integriertes System zu begreifen - eine Einsicht, die sich schon seit den 1960er Jahren verbreitet. Im Frühjahr 2001 spricht er in Paris auf in einem Vortrag über Maschinen, die besser denken können als Menschen. Unter den Zuhörern ist Mihai I. Spariosu, ein Professor der Universität in Athens, Georgia. Der findet das so spannend, dass er sich Hardys Entwicklerteam anschließt und mithilft, dessen Ideen weiter auszuarbeiten und deren philosophische und praktische Konsequenzen zu entwickeln. Bis heute tauschen er und Hardy ihre Überlegungen aus, „daily, all the time“, wie Hardy sagt, so weit Spariosus leitende Position an der University of Georgia Zeit dazu lässt. Hardy rückt bald ein Stück weit ab von der klassischen westlichen Überzeugung, das wissende Subjekt und die gewussten Objekte existierten unabhängig voneinander. Er geht vielmehr davon aus, dass in unserem Universum nichts ohne Bezug auf etwas anderes existiert. Das, was wir als Realität erkennen, setzt sich nicht in erster Linie aus dauerhaft bestehenden Objekten und unterschiedlichsten sie wahrnehmenden Personen zusammen, sondern aus einem dynamischen Netzwerk von Wechselwirkungen zwischen Objekten und uns selbst. Und dieses Netzwerk bewegt und verändert sich kontinuierlich. Ein simples Beispiel hierfür, das Hardy selbst erwähnt (in Schloer 2006: 181): Fährt jemand in einem Auto exakt gleich schnell neben einem Zug her, dann scheint für ihn der Zug gar nicht zu fahren, denn er bewegt sich weder zu ihm hin noch von ihm weg. Es ist der Referenzrahmen, der diesen falschen Eindruck erzeugt. Nur weil die umgebende Landschaft sich nicht gleich schnell mit bewegt und weil auch Fahrtwinde, Fahrgeräusche etc. eine Rolle spielen, der Referenzrahmen also unvollständig ist, erlebt der Autofahrer den Zug trotzdem als fahrend. Wenn alles Teile eines Ganzen sind und wenn sie im physischen wie im geistigen Sinn grundsätzlich unter Bedingungen oder bei Gelegenheiten entstehen, dann können sie keinen unveränderlichen, dauerhaften Charakter haben. Daraus muss folgen: Die physische Realität innerhalb unseres Universums kann korrekt nur als Beziehung von miteinander verbundenen Objekten in sich selbst organisierenden Systemen beschrieben werden. Das berücksichtigt Hardy in seiner Quantum Relations-Entwicklung. Aus der Einsicht, dass unser Universum mit anderen Universen oder Bezugsrahmen vielfältig verknüpft ist, zieht er den Schluss, dass die Welt ein Beziehungsnetzwerk voneinander abhängiger, größerer und kleinerer Systeme ist, die sich, insofern sie miteinander interagieren, auch wechselseitig beeinflussen. Das gilt nicht nur für physische Systeme, also für Körper, sondern auch für mentale, intelligente Kräfte, die sich in Beobachtungen manifestieren, in Gedanken, Konzepten, Glaubenssätzen, Gefühlen, Eindrücken, Meinungen oder Erinnerungen einzelner oder vieler Menschen (Schloer/ Spariosu 2017: 24). Zum ersten Mal publiziert Hardy diese Gedanken zu Beginn unseres Jahrhunderts (Spariosu 2005). Was im ganz Großen gilt, im Universum, trifft auch für das Kleine zu, für das einzelne menschliche Bewusstsein. Individuelles Denken oder Bewusstsein lässt sich daher mit den gleichen Beziehungsprozessen beschreiben wie physische oder soziale Systeme: als wech- 3.2 Wissendes Subjekt und gewusstes Objekt 91 selseitig abhängiges System in unterschiedlichen Begründungszusammenhängen, mit anderen ähnlichen Systemen verbunden, ganz so wie dies auch für alles gilt, was das Bewusstsein erkennt oder erfährt: Wir definieren die Welt über die Beziehungen, die wir kontinuierlich eingehen und nutzen. Aus dieser Einsicht folgen Ableitungen, die wir hier einfach, sehr umgangssprachlich, ja manchmal ein wenig flapsig formulieren, obwohl sie sehr grundsätzlich sind: Erstens: Kein Mensch ist allwissend, und was er nicht weiß, macht ihn nicht heiß. Jedes normale menschliche Bewusstsein erkennt und versteht die Realität nur unvollständig, weil nicht beobachtete Elemente der Realität kein Teil dessen werden, was der Beobachter als Erfahrung speichert. Zweitens: Kein Mensch betrachtet die Welt ohne eine Brille aus Erfahrung und Umfeld. Immer registriert er, was er wahrnimmt, vor dem Hintergrund der eigenen Erlebnisse und des Bezugsrahmens aus sittlichen Normen, gesellschaftlichen Werten und sozialen Bezügen, in einem frame of reference (FOR), einem Bezugsrahmen. Drittens: Da sich das Bewusstsein jedes Einzelnen vom dem seines Nachbarn unterscheidet, muss daraus folgen: Was wir physische Realität nennen, ist ein individuelles Abbild, das andere Individuen nicht in der exakt selben Weise erzeugen können. Jedes dieser Abbilder ist einzigartig. Einzigartig muss deshalb auch sein, was es wie miteinander verbindet. Denn es besteht ja aus unterschiedlichen Beziehungen und Wechselwirkungen zwischen unterschiedlichen Systemen im Rahmen anderer Systeme (ibid.: 24 f.). Viertens: Könnte man alles, was wir wahrnehmen, in einem Datenspeicher irgendwo speichern, ergäbe sich ein Bild von der Welt aus vielen Facetten, aber eben ein Bild, nicht die Welt selbst. Denn was Menschen nicht wahrnehmen und deshalb auch nicht wissen, kann sich auch nicht in diesem Speicher befinden. Was wir für die Wirklichkeit halten, ist daher notwendigerweise ein Ausschnitt der Realität, eben der wahrnehmbare (ibid.: 26). Wir werden noch sehen, was das für die Speicherung und Verarbeitung von Elementen des Bewusstseins, also für Daten bedeutet. Zuvor aber müssen wir den Spieß einmal umdrehen und fragen: Haben nur Menschen Bewusstsein? Sicher nicht; es existiert auch bei Tieren. Bei Pflanzen? Das weiß niemand genau, aber die neueste Forschung geht davon aus. Bei Maschinen? Zunehmend lautet die Antwort ja, in dem Maß nämlich, wie eine Kombination aus Sensorik, Lernfähigkeit und Memory-Leistung eine sich selbst analysierende und regulierende Technik ermöglicht. Bewusstsein kann also in Lebendes oder in Maschinelles eingebunden sein oder in eine Kombination vom beidem. In solchen Kombinationen wird das menschliche Bewusstsein durch Rechenleistungen von Maschinen verbessert, etwa durch Computer. Für Googleist das bereits eine Selbstverständlichkeit. Beim eigenen Personal unterscheidet dieser Konzern schon jetzt nicht mehr zwischen Maschine und Mensch bzw. zwischen, wie es dort heißt, Maschinenpark und Menschenpark. Dieses Unternehmen treibt eine Entwicklung voran, „die in allen Branchen unausweichlich scheint“ (Morgenroth 2014: 103). Setzt sich die maschinelle Entwicklung zu immer „intelligenterer“ Technik nämlich fort - was alle Experten erwarten -, ist es plausibel davon auszugehen, dass Maschinen mit ihrer enormen Fähigkeit zur Speicherung und Verarbeitung von Daten ein weit höheres Maß an Bewusstsein erlangen können als das, was normale Menschen aufgrund ihres Beobachtungs-, Schlussfolgerungs- und Interaktionsvermögens besitzen. Solche Maschinen können dann als quasi-selbstständige Informationsträger für die Menschen tätig werden (ibid.: 25). Was das bedeuten wird, beschäftigt uns in diesem Buch im Abschnitt über Künstliche Intelligenz. 92 3 Von Newton über Einstein 3 3..33 VVo on n QQu ua anntteen n z zuu QQuua an nt tu umm R Reella at tiio on ns s Was sind eigentlich Quanten? Was wir bislang unscharf einfach Daten genannt haben, ist nun etwas genauer zu betrachten. Experten in der Welt von Big Data sprechen physikalisch korrekt lieber von Quanten. Das ist ein ursprünglich lateinisches Wort quantum; es heißt übersetzt ‚wie groß‘ oder ‚wie viel‘. In der heutigen Physik bezeichnet es Elementarteilchen, also nicht mehr weiter teilbare Teilchen. Sie bestehen aus Masse bzw. aus Energie. Denn jede Materie aus Elektronen und Protonen besitzt nicht nur eine Eigenschaft als Teilchen, sondern auch als energetische Welle. Von einem System zu einem anderen übertragen werden können Quanten nur als Energieeinheiten. Wir können das nicht sehen, weil Quanten viel zu klein sind, als dass man sie beobachten könnte. Aber sie sind überall: Jetzt, wo Sie diesen Text lesen, führen Lichtquanten (Photonen), die von der Buchseite in Ihr Auge gelangen, dazu, dass Sie diesen Text wahrnehmen können. Ja mehr noch, in Ihrem Gehirn laufen gerade jetzt Quantenprozesse ab, mit denen Sie diesen Text verstehen. „Quanten sind also etwas ‚ganz Normales‘ und Allgegenwärtiges“ (Sturm 2001). In der Alltagswelt beschäftigen uns Quanten als die kleinsten Bausteine von Materie und Energie wenig. In interstellar großen und ebenso in atomar kleinen Größenordnungen jedoch werden sie wichtig. Für Big Data-Analysen interessieren die atomaren. Zwar gibt esnoch keine Quantencomputer. Sie hätten nur das Ausmaß größerer Moleküle. 14 Nanometer kleine Transistoren, die in Computern arbeiten, rücken aber bereits „an eine Grenze, nach der die Gesetze der Quantenwelt herrschen“ (Mainzer 2014a: 125). In der Quantenwelt nennt man die kleinsten Datenbausteine nicht bits, sondern Quantenbits, kurz qubits. Ray Kurzweil, einer der besten Kenner der Datenwelt, beschreibt sie so: Wie bits können auch qubitsnur zwei Zustände haben: energielos oder energiegeladen; wir beschreiben das mit den Ziffern 0 oder 1. Das qubit basiert anders als das bit aber „auf der fundamentalen Uneindeutigkeit (Ambiguität), die für die Quantenmechanik kennzeichnend ist.“ Es ist einfach gesagt ein statistischer Zustand: die 50: 50-Wahrscheinlichkeit sowohl für den Zustand 0 wie für 1. „Die Position, der Impuls oder jeder andere Zustand eines Elementarteilchens bleiben so lange ‚uneindeutig‘, bis die Ambiguität durch einen Prozess aufgehoben wird, der das Teilchen veranlasst, sich zu ‚entscheiden‘, wo es ist, wo es war und welche Eigenschaften es hat“, also energielos oder -geladen zu sein (Kurzweil 2000: 177). Wie bits kann man auch qubits aneinanderreihen, um so zu bestimmten Datenaussagen zu kommen. Anders als bei bits, die wegen ihres klaren 0-oder-1-Zustands eindeutig erkennen lassen, was jeweils Sache ist, stellt bei qubits eine solche Reihe - so lange keine äußere Einwirkung eine ‚Entscheidung’ herbeiführt - wegen ihres 0-und-1-Zustands simultan alle möglichen Lösungen eines Problems dar. Nun müssen wir uns vom Mathematiker Klaus Mainzer noch erläutern lassen: Qubits sind in ambigem Zustand korreliert, also miteinander verschränkt, und zwar selbst dann, wenn sie räumlich voneinander entfernt sind. Quanten können sich deshalb überlagern. Ändert sich einQuantenzustand, verändert das den überlagerten gleich mit - überlagernde Quanten steuern die überlagerten quasi fern. Man könnte nun den qubits-Strang mit der zu lösenden Aufgabe so verknüpfen, dass diese qubits dekohärieren, das heißt: dass alle qubits von ihrem ambigen 0-und-1-Zustand zu einem 0-oder-1-Zustand wechseln, so dass sich eine Reihe von Nullen und Einsen bildet, die den Test besteht. Dass sich dieses Phänomen namens Dekohärenz zu diesem Zweck nutzen lässt, wurde bereits im ausgehenden 20. Jahrhundert bewiesen (Kurzweil 2000: 180). Ein Computer mit tausend qubits kann im Prinzip 2 1000 Lösungsalternativen speichern. Alle 3.3 Von Quanten zu Quantum Relations 93 würden in diesem Verfahren mit Lichtgeschwindigkeit simultan getestet. Übrig bliebe die richtige Lösung (ibid.: 178). In einem Quantencomputer könnten „Teilaufgaben als Überlagerung von Zuständen zusammengefasst und gleichzeitig bearbeitet werden. Analog zu Parallelrechnern mit mehreren Prozessoren spricht man dann von Quantenparallelismus“ (Mainzer 2014a: 119). Das wird nochmals kleinere Computer nochmals wesentlich schneller und Aufgaben lösbar machen, mit denen die größten derzeitigen Supercomputer noch überfordert sind. Quantencomputer können theoretisch Rechenaufgaben lösen, deren Bearbeitung heute noch so lange dauern würde wie das Universum exisitiert. Ein solches Gerät mit nur 40 qubits soll eines Tages eine Billion möglicher Lösungen gleichzeitig können (ibid.). Ihre Leistung wird also gigantisch sein und unsere heutige Technik dinosaurierhaft aussehen lassen. Warum ist das alles noch Theorie? Aus zwei Gründen: Erstens dürfte einQuantencomputer die Größe von Atomen oder Molekülen nicht wesentlich überschreiten, weil sich Quanteneffekte nur in atomaren Größenordnungen nutzen lassen. Es ist jedoch sehr schwierig, einzelne Atome oder Moleküle zu messen, weil sie sich von Natur aus unter dem Einfluss von Wärme bewegen. Außerdem sind einzelne Atome generell zu instabil, um eine Maschine daraus zu bauen (ibid.). Und zweitens verhalten sich Quanten in ihrer ambigen Weise nur so lange, wie auf sie keine Außeneinflüsse wirken. Schon wenn man versucht, ihren Zustand oder eine Zustandsänderung zu messen, verlieren sie ihren ambigen 0-und-1- Zustand. Dann ist auch keine überlagernde Superposition möglich und damit kein solches Rechentempo. Es gibt aber Tricks: Einer besteht darin, Quanten in einer Flüssigkeit zu bearbeiten. Dort wirkt sich das zwangsläufig unstete Verhalten einzelner Moleküle auf das statistische Verhalten aller Moleküle in der Flüssigkeit nicht aus (ibid.). An einem anderen Trick arbeitet Fujitsu mit einem japanischen Forscherteam unter Hirotaka Tamura und einem kanadischen Unternehmen. Fujitsu übersetzt Gesetze der Quantenwelt in die heutige, etablierte Technologie, ohne dabei die Anwendungsprobleme von Quanten mit übernehmen zu müssen. Fujitsu-Technikvorstand Reger spricht von „Quantenglühen“, einer noch in Entwicklung begriffenen Herstellungstechnik etwa so wie man Stahl glühen, abschrecken und wieder glühen muss, um durch eine Veränderung der Molekülstruktur superscharfe Klingen schmieden zu können. Ähnlich wird man auch Molekülstrukturen in Computern so verändern können, dass sie quantenähnliche Überlagerungen ermöglichen. Um Umwelteinflüsse auszuschließen, wird der einzige bisher arbeitende Prototyp dazu von einem superstarken Magnetfeld abgeschirmt, verbraucht dazu endlos viel Energie und kostet Unsummen. Aber dieser Beschleuniger für kombinatorische Optimierungsaufgaben zeigt, wohin die technische Reise geht (Fujitsu 2017: Reger). Dieser Prototyp ist kein Quantencomputer, aber seine Technik ist von der Quantenmechanik inspiriert, arbeitet Aufgaben also nicht Schritt für Schritt ab, sondern durch Überlagerung seiner 1024 Bits in einem einzigen Augenblick - siebzehntausendmal schneller als Computer heute. Weiterzuentwickelnde Versionen sollen sogar hundertausendfach mehr Tempo erreichen. Und noch ein entscheidender Vorzug zeichnet diese Technologie aus: Quanteninspirierte Vorgänge lassen sich grundsätzlich nicht kopieren. Dazu müsste man einen Quantenzustand messen, und durch diesen Außeneinfluss verlöre er wie schon erwähnt den ambigen Zustand, der diese Leistung ermöglicht. Ein solches System lässt sich deshalb nicht ausspionieren. So lassen sich sichere Netzwerke bauen, eine sichere cloud, ja eine sichere digitale Welt - und das schon in sehr absehbarer Zukunft. Während „richtige“ Quantencomputer bisher nur durchdacht, aber noch nicht baubar sind und niemand Prognosen wagt, wann das so weit sein könnte, sind quanteninspirierte Rechner keine Utopie mehr. In vielleicht sieben bis zehn Jahren soll diese Technologie serienreif sein (ibid.). 94 3 Von Newton über Einstein Was Quantum Relations wörtlich bedeutet Das, was wir Wahrheit oder Realität nennen, ist tatsächlich die Summe vieler verschiedener bewusster und unbewusster Perspektiven und Referenzrahmen zu einem jeweiligen Zeitpunkt. Objekte (das Beobachtete) und Subjekte (die Beobachter) sind deshalb nicht scharf voneinander zu trennen. Hardy und sein akademischer Sparringspartner Spariosu nennen die traditionelle wissenschaftliche Unterscheidung zwischen subjektivem und objektivem Wissen deshalb „ontologisch ungültig“ (soll heißen: sie existiert so nicht) und „epistomologisch unbrauchbar“ (sie führt zu nichts) (2017: 26). Daraus leiten beide ihre für den Umgang mit Daten entscheidende Konsequenz ab: „Das individuelle Bewusstsein reichert Beziehungen an (das ist alles, was es beobachten kann) und reagiert mit weiteren Beziehungen (das ist alles, was es tun kann)“ (ibid.: 28). Diese wesentliche Begrenzung des Bewusstseins erledigt in der Quantum Relations-Systematik, wie wir gesehen haben, alle von Beobachtungen unabhängige Objektivität, auch wissenschaftliche. „Die einzige Möglichkeit, die Dynamik und den output, also das Ergebnis individuellen Bewusstseins qualitativ und quantitativ zu messen, besteht darin, die Beziehungen zu messen, die es mit dem Bewusstsein anderer oder anderen Systemen aufbaut und pflegt“ (ibid.: 28). Quantum Relations verknüpfen auf kreative Weise Albert Einsteins Relativitätstheorie, die Quantenmechanik, die allgemeine Systemtheorie und die heutigen kognitiven und Sozialwissenschaften, um physische, geistige und soziale Phänomene gesamthaft zu analysieren. Ganz kurz zur Erläuterung: Albert Einstein hat für ein dynamisches Modell der Realität schon vor mehr als hundert Jahren in seiner Relativitätstheorie den Grundstein gelegt. Dass wir davon im Alltag so wenig bemerken, liegt an den kosmischen Größenordnungen, in denen ihre Effekte erst offensichtlich werden. Selbst bei einem Raumschiff sind sie noch marginal. Würde die Besatzung eines space shuttle, das mit 3000 Kilometern pro Stunde unterwegs ist, die Länge ihres Raumschiffs vermessen und die Bodenstation ebenfalls, müssten sich die Messergebnisse bei genauester Messtechnik unterscheiden, zwar nur um weniger als einen Millimeter, aber eben doch (Schloer 2006: 30, 182). Werner Heisenberghat in den 1920er Jahren außerdem erkannt, dass man einen Beobachter nicht von einem beobachteten System trennen und trotzdem präzise Messresultate des beobachteten Objekts erzielen kann. Will man Lernen maschinell möglich machen, muss man wie schon erwähnt Einsteins Relativitätstheorie, die Quantenmechanik und die die allgemeine Systemtheorie zu Hilfe nehmen. In ihrer abstrahierenden Vorstellungswelt geht es nicht um konkrete Beziehungen einzelner Individuen oder Gruppen, sondern um die Beziehungen und Wechselwirkungen von Teilchen zueinander. Bekanntlich hängen diese Wechselwirkungen davon ab, wie viel Masse einzelne Teilchen haben und wie viel Energie. Einstein hat schon vor gut hundert Jahren gezeigt, dass Masse und Energie zwei Aggregatzustände sind, die unter bestimmten Umständen ineinander übergehen können. Masse kann zu Energie werden. Das können wir betrachten, und zwar nicht erst, seit es Atombomben gibt, die ihre Masse in zerstörerische Energie umwandeln; auch Sonnenschein ist zu Energie gewordene Sonnenmasse. Einsteins Methodik macht es möglich, dynamische Modelle der Realität zu erzeugen, die vielfältigen Wechselbeziehungen zwischen Beobachtern und Beobachtungen zu messen und ziemlich brauchbare Schlussfolgerungen darüber abzuleiten, wie sie sich künftig verhalten und einander beeinflussen werden. Diese Quantum Relations-Theorie lässt sich, wie der US- Wissenschaftler Spariosu 2006 darlegte, nicht nur auf die unbelebte Welt anwenden, sondern auch auf uns Menschen mit unseren Erwartungen und Befürchtungen, Hoffnungen und Ängsten (Schloer/ Gagner 2006: 132). Quantum Relations berücksichtigen im komplexen Beziehungsgefüge einzelner Menschen mit ihren sozialen Gruppen (Familien, Freunde, Kollegen usw.) und ihrem Umfeld ein Wechselspiel negativer und positiver Rückkopplungen. Negative Rückkopplung soll bedeu- 3.3 Von Quanten zu Quantum Relations 95 ten: Individuen nehmen ihr Umfeld so wahr, dass diese Wahrnehmung bestehende Auffassungen bestätigt. Das geschieht, wenn ein Individuum oder eine Gruppe auf ihr Umfeld das projiziert, was den eigenen Wahrnehmungen am Besten entspricht. Sie betrachten ihre Welt also durch die eigene Brille und sehen darin ihr Vor-Urteil bestätigt. Ist das so, dann braucht sich für den Wahrnehmenden nichts zu ändern. Die Beobachter können passiv bleiben, müssen nichts tun - daher negative Rückkopplung. Positive Rückkopplung wird nötig, wenn ein System und dessen Wahrnehmung sich nicht mehr decken - entweder, weil man durch die eigene Brille nicht mehr klar sieht oder weil das, was man sieht, sich verändert hat. Was man dann erkennt oder erfährt, entspricht nicht mehr dem Vor-Urteil, und die Betrachter, also Einzelne wie Gruppen, müssen ihr bisheriges Bild von der Welt ändern, müssen aktiv werden (ibid.: 79 f.). Positive Rückkopplung ist also eine Art zu lernen. Sie kann auch darin bestehen, kognitive oder soziale Krisen, also solche des Wissens oder der Beziehung zu anderen Menschen, als kreative Kräfte einzubeziehen (ibid.: 80). Nun bleiben Beziehungen zwischen Beobachter und beobachtetem Objekt niemals konstant. Deshalb ist stets nicht nur die bestimmte Masse eines Teilchens oder dessen Energie zu betrachten, sondern auch die Zeit, in der es beobachtet wurde oder wird. Dieser Parameter Zeit ist für Quantum Relations zentral. Am Wichtigsten aber ist, dass das, was auf diese Weise analysiert werden soll, keine physische Qualität zu haben braucht. Es kann sich statt um Personen und ihre Umfelder auch um mentale (gedachte), emotionale (gefühlte) oder soziale Konzepte handeln. Der allgemeine Begriff hierfür ist schon gefallen: Objekt. Das quantum relations-Programm analysiert für alle Objekte oder Objektbündel ihre Beziehungen zu anderen Objektbündeln (ibid.: 31). In Bezug auf Daten sprechen die Wissenschaftler hierbei von data fusion objects (DFOs), also von Objekten, in denen Daten sich miteinander verbinden. DFOs können als bloße statistische Größen existieren, deren ‚Verhalten‘ lediglich aus Summenbildung besteht, aber auch als Handlungen oder Verhalten. Sie existieren innerhalb vielfältiger frames of reference (FORs) und interagieren miteinander nach klar ermittelbaren Regeln. Das Ergebnis solcher Interaktionen kann also ablesbar und messbar sein. Diese Beobachtung, Messung und Analyse ist eine dynamische Rechenaufgabe, die traditionell im Kopf eines Menschen abläuft, die ein Computer aber mittlerweile effizienter erledigen kann (ibid.: 49). Quantum Relations fußen also nicht nur auf üblichen physikalischen Messgrößen, sondern auch auf dem beobachtenden Verhalten. Sie bewerten, wie sich bei kontinuierlich überwachten Beziehungen von Beobachter und beobachtetem Objekt interne und externe Wechselbeziehungen entwickeln und verschieben. Diese können linear oder nichtlinear sein, ganz im Sinn der philosophia perennis, wie Leibniz das nannte, und ähnlich wie in der vedisch geprägten Vorstellungswelt Indiens. Lineare Kausalität Newtonscher Prägung existiert nach dieser Vorstellung im kognitiven Prozess - dort ebenso wie im heutigen Westen - entweder beim Beobachter oder für das beobachtete Objekt. Westlich geprägte Forscher sind überzeugt, was wir wahrnehmen, sei die reale Welt, und wir könnten ihre Daten mit neutralem Sinn registrieren. Im Newtonschen Sinn ist das auch richtig. Nach Einsteins Erkenntnissen aber greift es zu kurz. Spariosu hat das folgendermaßen erklärt: „Wenn unterschiedliche Systeme den selben Sachverhalt unterschiedlich darstellen, dann kann man jede Beschreibung der Realität nur als abhängig vom jeweiligen System begreifen. Jede Beschreibung eines Systems hängt dann auch vom Beschreibenden in dem Moment ab, in dem er es beschreibt. Wenn das für die komplette physische Welt gilt, dann sollte das auch für jede Beschreibung menschlichen Verhaltens zutreffen. Deshalb können wir mentale Zustände (mind) mit denselben Beziehungen ausdrückenden Prozessen beschreiben wie physische (matter)“ (Schloer/ Gagner 2006: 133). 96 3 Von Newton über Einstein Quantum Relations fußen ferner nicht nur auf der westlich geprägten Art und Weise zu denken und die Welt zu verstehen, sondern auch auf östlichen Denkschulen etwa des Buddhismus und des Daoismus. Der konfuzianische wie der chinesische Buddhismus dienen als Begründungshilfen und verstärkende Rückkopplungsschleifen. Die buddhistische Lehre bejaht beispielsweise durchaus die Existenz von Objekten und unsere Fähigkeit zu Projektionen, versteht beide aber als vielfach voneinander abhängig. Dieses buddhistische Verständnis von subjektiv wahrgenommener Realität, die in Wechselwirkungen eingebunden ist, entspricht der allgemeinen Systemtheorie wie den quantum relations. Die die quantum relations-Forscher haben es in ihr Prinzip integriert. Was q-search bedeutet Wer sich mit der Umsetzung von Quantum Relations in ein Computerprogramm genauer beschäftigt, stößt bald auf einen spannenden Vorzug dieser Vorgehensweise: eine interaktive Such- und Lieferfunktion, die die Wissenschaftler q-search genannt haben. Sie macht nach Hardys Überzeugung die bislang üblichen Google- und Yahoo/ Microsoft-Such- und Transaktionstechnologien eines Tages überflüssig; ja sie kann, sagen er und sein wissenschaftlicher Partner Spariosu, „das gesamte Feld der intelligenten, interaktiven Informationssteuerung in Echtzeit revolutionieren“ (ibid.: 14). Man stelle sich ein Universum vor, in dem wir einem Avatar, also einem nur in Computern existierenden Abbild von uns selbst, unsere Suchaufgabe übertragen, erklärt Hardy später: Dieser Avatar sei „in einem sehr realen Sinn eine Kopie unseres Selbst, weiß viel über unsere Bedürfnisse und unsere Gewohnheiten und kann dieses Wissen dazu nutzen, die Suche auf Ergebnisse einzugrenzen, die wir brauchbar finden würden“ (ibid.: 101). Q-search registriert zusätzlich zu einer Beobachtung auch vom Betrachter abhängige Bedingungen dieser Beobachtung, vor allem die Zeit. Die Ermittlungs- und Bewertungsmethode reicht deshalb weit über die Analyse von Texten und Zahlen hinaus. Anders als herkömmliche textbasierte Suchmaschinen kann q-search bewegte Objekte ebenso erkennen und speichern wie Töne oder einen Verhaltensverlauf, bezogen auf den jeweiligen Zeitpunkt, zu dem etwas geschah und beobachtet wurde. Diese Beobachtung lässt sich als maschinell verarbeitbarer Datensatz speichern, nicht nur als visuelles oder akustisches Signal. Das gibt browsern Such- und Auswahlchancen bisher unbekannter Menge und Qualität. Quantum Relations integriert also die ‚Welt des Benutzers‘ und dessen spezifisches Verständnis und Verhalten zum Ursprungszeitpunkt in die Beobachtung und vergleicht das mit seinem aktuellen Verständnis und Verhalten. Es stellt damit Unterschiede in der Bewertung von Beobachtungen fest. Weil das kontinuierlich geschieht, kommt das System nicht nur zu retrospektiven Beurteilungen, sondern kann sogar prospektiv die wahrscheinliche künftige Bewertung errechnen und damit das erwartbare Verhalten des Nutzers. Für diese Prognosetechnik rechnet man also mit Wahrscheinlichkeiten. Während es in der klassischen Mechanik immer nur ein einziges richtig ermitteltes Ergebnis geben kann, führt die Quantenmechanik stets zu einem Set von Ergebnissen, jedes mit einer und nur dieser einen Ergebniswahrscheinlichkeit. Daher gilt dort ganz fundamental: „Nur Wahrscheinlichkeiten sind kalkulierbar, nicht Ergebnisse“ (ibid.: 35). Quantum Relations sagt ein Set wahrscheinlicher Amplituden voraus und berechnet außerdem die ‚Dichte‘ dieser Wahrscheinlichkeiten. Diese kann man sich als Darstellung darüber vorstellen, wie wahrscheinlich ein einzelnes Messergebnis zu einem bestimmten Sachverhaltist (ibid.: 36). Ein Beispiel: Wahrscheinlich werde ich mich am späteren Weihnachtsabend in gewisser Entfernung von zuhause aufhalten. Dass ich in meinem Haus oder in dessen Nähe sein werde, ist zu 59 Prozent wahrscheinlich, dass ich mich im Haus eines Verwandten oder 3.3 Von Quanten zu Quantum Relations 97 in dessen Nähe aufhalten werde, zu 39 Prozent, aber nur zu zwei Prozent, dass ich anderswo sein werde. Die Summe dieser Wahrscheinlichkeiten ergibt immer 100 Prozent, also 1. Systeme auf Quantum Relations-Basis liefern also zwar keine ‚endgültigen‘ Ergebnisse, wohl aber viele mehr oder minder wahrscheinliche. Damit werden sie zu sehr aussagekräftigen Prognoseinstrumenten. Und weil sie mehr Daten speichern und zueinander in Beziehung setzen als der einzelne Mensch wissen und erinnern kann, sind sie darin auch besser als der Einzelne. Sie ‚wissen‘ schon, was der Betroffene noch gar nicht realisiert. Diese Möglichkeit versetzt Quantum Relations-Auswerter in die Lage, Trends, also wahrscheinliche Bedingungen und Entwicklungen, Chancen und Risiken sehr frühzeitig zu erkennen, und zwar sowohl in Bezug auf den Einzelnen wie auf ein größeres System, etwa eine Gesellschaft. Anders als viele andere wissenschaftliche Methoden, die mit Vereinfachungen arbeiten, verarbeiten quantum relations von Anfang an die Vielfalt und Verschiedenheit der zugrundeliegenden Daten. Big Data sind in Quantum Relations-Projekten deshalb keine Last, sondern eine riesige Chance. Je mehr Daten genutzt werden können, desto besser lässt sich die Welt und alles Verhalten maschinell erfassen und desto besser sind die Ergebnisse, die die Maschine aus ihnen ableitet. Das ist ein einzigartiger, revolutionärer Vorzug von Quantum Relations- Systemen (ibid.: 76). Wenn Auswerter sie nutzen, integrieren sie breit gefächerte kognitive, also wissensbasierte Perspektiven, und zwar sowohl sprachliche wie philosophische, kulturelle wie geschlechtsabhängige und andere, je nach Betrachter. Hardy, der Quantum Relations-Experte, benutzt ihre Instrumente nicht nur, um Wechselwirkungen zwischen Objekten zu beobachten und maschinell auszuwerten, sondern auch um zu prognostizieren, was im Gehirn des Beobachters vor sich geht. Er entwickelt und nutzt dazu ein ungefähres Modell dessen, was im Kopf des Menschen geschieht. Der Mensch registriert und verarbeitet ja nicht nur physikalische, sondern auch psychische und soziale Signale, also Gedanken, Gefühle, Erinnerungen, Verhaltensmuster, Vorlieben und anderes. Er modelliert die Dynamiken, die die Wechselbeziehungen der sozialen oder psychischen Elemente zueinander steuern: Gedächtnisse interagieren mit anderen Gedächtnissen, mit Beobachtungen und Glaubenssätzen, mit Emotionen und Verhaltensmustern. Genau so agieren auch Programme in Datenspeichern. Quantum Relations-Methoden bilden solche Veränderungen in klar bestimmbarer Weise ab (ibid.: 52). Der Vorzug selbst lernender Technik Noch einen Punkt gilt es als ebenfalls ganz zentral zu beachten: Das bereits erwähnte data fusion objects (DFO)bzw. frames of reference (FOR)-Prinzip hat den technischen Vorzug, selbst lernen zu können. Es sucht automatisch nach der besten Methode und dem kürzesten Weg, um sein Ziel zu erreichen. Es geht nämlich davon aus, dass sich alle intelligenten Systeme auf höchste Effizienz ausrichten und dass höchste Effizienz zu einem Gleichgewicht aller natürlichen, frei fließenden Kräfte führt. Dazu müssen sie lernen können. In der quantum relations-Theorie bedeutet Lernen wie in jeder Systemtheorie nicht so sehr, sich mit den Eigenheiten und dem Muster eines bereits bestehenden Systems vertraut zu machen, sondern. eine grundlegende Neuordnung, bei der neue Elemente zutage treten, neue Wege zu gehen sind und unterschiedliche Rückkopplungen sichtbar werden. Die quantum relations- Technologie bildet diesen Prozess im Inneren einer intelligenten Maschine ab. Deshalb nennt Hardy Quantum Relations „ein Betriebssystem für allgemeine Intelligenz par excellence“ (ibid.: 74). Es unterstützt und verbessert eine kooperative, symbiotische Sicht auf unsere Welt. Alle lebenden und nicht lebenden Elemente des Systems Erde und seiner Subsysteme hängen demnach voneinander ab, und jede Perspektive für das allgemeine Gute ist darin als potenziell wertvoll zu betrachten und zu respektieren (ibid.: 87). 98 3 Von Newton über Einstein Als Hardy diese Einsichten 2006 erstmals zusammenhängend veröffentlicht, spricht er noch von „ersten Schritten“ zur Realisierung (ibid.: 194). Aber sein sehr viel größeres Ziel hat er schon damals vor Augen: die komplexesten Aspekte menschlichen Verhaltens zu analysieren und daraus mit hinlänglicher Genauigkeit Voraussagen abzuleiten (ibid.). Damit verspricht Hardys Methode nicht nur Fähigkeiten zur Prognose, sondern auch zu Einsichten in ökologische und soziale Zusammenhänge, die kulturelle und politische Konsequenzen plausibel machen. Von ihnen handeln die letzten Kapitel dieses Buches. Der erste Schritt zu validen Prognosen betrifft jedoch noch nicht diese gesamtgesellschaftlichen Themen, sondern wirtschaftliche Teilaspekte. Zunächst entwickeln Hardy und sein Team ein Instrument, das bald zum Standardrepertoire der weltweit zusammenwachsenden Finanzmärkte gehört: eine Software zur millisekundenschnellen Bewertung von Unmassen anAktien. 33..44 PPhhiill" ddiiee MMuullttiibbeeggaabbuunngg Nun ist von Phil Gagner zu sprechen. Anders als Hardy, der geborene Deutsche und nur „gelernte“ USA-Bürger, ist Phil ein waschechter US-Amerikaner, ein ausgefuchster Anwalt und dazu ein Experte nicht nur im Rechtswesen, sondern auch in den Bereichen Computertechnik und neue Technologien bis hin zur Automatisierung durch Roboter, zum Design digitalerHardware und zur Entwicklung von Software, also den auf dieser Technik laufenden Programmen, zur Datenverarbeitung und zur Finanzwelt. Als Hardy ihm erstmals begegnet, und zwar in Deutschland, in München, hoch über der Isar, in seinem damaligen Penthaus, ist Phil Gagner am Massachusetts Institute of Technology bei Marvin Minsky beschäftigt, dem dortigen Gottvater der Künstlichen Intelligenz. Minsky hatte Phil als Wissenschaftler unter Vertrag genommen, als der gerade einmal 16 Jahre alt war. Im Handumdrehen hatte Phil mit seinem hohen Intelligenzquotienten seinen Bachelor in gerade einmal eineinhalb oder zwei Jahren gemacht, nicht in vier, und dann am MIT eine Blitzkarriere gestartet. Genau wie Hardy ist Phil jemand, der nicht nur in einer beruflichen Ecke zuhause sein kann. Er ist einer der Menschen, deren Antennen besonders weit ausgefahren sind. Hardy ruft im Herbst einen in Deutschland arbeitenden amerikanischen Landsmann mit Namen Brian an, um mit ihm über die Idee gemeinsamer Projekte zu sprechen. „Hier ist übrigens demnächst das Oktoberfest“, sagt er. „Wenn Sie Lust haben, kommen Sie doch herüber, Sie sind dann mein Gast.“ Brian ruft Phil an, und der sagt: „Oktoberfest? Moment mal. Oktoberfest? Ja, warum nicht? Das könnte ich einrichten.“ Brian holt Phil am Flughafen ab. Es ist ein Samstagvormittag. Er fährt ihn zu Hardys Penthaus mitten im Zentrum. „Das ist Phil“, sagt Brian. Der mustert Hardy und sagt dann nur: „Sie haben 15 Minuten. Wo soll ich sitzen? “ Hardy hasst diesen arroganten Typen da vor ihm. Aber sie setzen sich, und Hardy skizziert einige seiner Gedanken. Phil reagiert mit allerlei schicken mathematischen Formeln. „Warten Sie mal“, sagt Phil plötzlich. Hardys Konzept beginnt ihn zu interessieren. Das Oktoberfest eröffnet an diesem Samstag pünktlich um zwölf. Die Leute um die beiden herum packen zusammen. Taxis werden gerufen: Auf zum Oktoberfest. „Ja, fahrt schon mal los, wir kommen gleich nach.“ 3.4 Phil, die Multibegabung 99 Ungefähr sieben Stunden später - es beginnt schon dunkel zu werden - kommen alle zurück, alle betrunken. Hardy und Phil sitzen noch immer im selben Raum und reden sich die Köpfe heiß. „Warum seid ihr bloß nicht gekommen? “ „Wir hatten zu tun.“ Sie reden weiter, die ganze Nacht hindurch. Am Morgen sitzen sie noch immer beisammen. Hardy schwimmt geradezu in einem Meer von Büchern um sich herum. Und Phil löchert ihn mit Fragen zum Gebrauch von Sprache. Beide ziehen ihr IT-Wissen heran, machen Ausflüge in die Welt der Physik. Phil reagiert bewundernswert schnell. Er blickt auf eine Sache, versteht sofort, kombiniert blitzartig und spuckt bumm bumm bumm ein Ergebnis aus. Ein absolut brillanter Kerl, muss Hardy insgeheim zugeben - aber auch eine Nervensäge erster Güte. Lässt mich keinen einzigen Stich machen. Ich versuche neue Sachverhalte in einer neuen Sprache zu fassen. Das lässt er nicht durchgehen: „Nein, so ist das nicht, dieses Wort gibt es gar nicht.“ Hardy holt ein Lexikon heraus, einen ganz dicken Webster, und sucht das Wort intensity, Intensität. „Das bedeutet gar nichts“, lässt Phil ihn wissen, „das ist alles Quatsch“. Hardy hält ihm das Lexikon unter die Nase: „Nun lesen Sie doch mal. Lesen Sie doch. Hier steht es schwarz auf weiß.“ Phil sagt nichts, nimmt das Buch, klappt es zu und legt es weg. „Ist mir völlig egal, was ein Lexikon sagt.“ Sie streiten sich weiter, schließlich von ein paar Mini-Flaschen spanischen Metaxa- Schnapses nur etwas besänftigt. Irgendwann mitten in der Nacht machen sie eine nur kurze Pause, bekommen ihren roten Faden aber schnell wieder zu fassen und setzten die Diskussion ungerührt fort, bis zum Nachmittag des folgenden Tages. Es ist gegen fünf Uhr, Sonntag. Werktags wäre jetzt Büroschluss. „Ok“, sagt Phil da. „Ich glaube, deine Idee ist komplett verrückt. Aber sie interessiert mich. Ich glaube, du hast da etwas.“ Mit diesen Worten gehen beide aufs Oktoberfest und trinken jeder eine Maß. Den nächsten Tag verschlafen sie dann komplett. Am übernächsten Morgen wachen sie auf, frühstücken und setzen sich danach nochmals zu einer sehr produktiven Aussprache zusammen. Phil überzeugt Hardy, seine Ideen nochmals neu durchdacht zu Papier zu bringen. Was Hardy nur flüchtig skizziert oder gar nur in Steno notiert hat, bekommt nun eine klare, vorzeigbare Form. „Jedes Wort“, hat Phil ihn ermahnt, „hat eine bestimmte Bedeutung. Die genau musst du treffen. Es muss einfach passen, und das musst du auch kontrollieren.“ Um es kurz zu machen: Phil entscheidet sich, nur in die USA zurück zu reisen, um sein sehr gut bezahltes Anwaltsdasein aufzugeben, kommt dann wieder nach Europa und arbeitet ab 2002 mit Hardy zusammen daran, die Idee Quantum Relations anwendbar zu machen. „Phil“, sagt Hardy, „ist, kurz gesagt, jemand, der mich wirklich versteht, aber mit nichts einverstanden ist, was ich sage und tue. Es ist wunderbar. Der Kerl ist wirklich scharf, und irgendwelche Gräben existieren für ihn überhaupt nicht.“ 100 3 Von Newton über Einstein Mit Phil Gagners tiefer Kenntnis auf dem Gebiet der Künstlichen Intelligenz, die er sich in seinem MIT-Studium unter Marvin Minsky angeeignet hat, vermögen die beiden mit ihren Teams Anwendungen von Hardys Quantum Relations-Theorie auf Computercodes zu rechnerbasierten Modellen der heutigen Welt zu entwickeln. 33..55 DDeerr WWeegg zzuu RRaavve ennPPaacckk Der Finanzmarkt als erstes Anwendungsfeld Eine Software-Entwicklung kostet erst einmal Geld, und nicht wenig, besonders wenn sie sich so anspruchsvolle Ziele setzt, wie Hardy das tut. Also, sagt er sich, wäre es gut, wenn die einzusetzenden Summen möglichst bald wieder Geld verdienen. Nur dann, weiß auch Heiner, der für Geldbeschaffung zuständig ist, werden Investoren bereit sein, diese Entwicklung vorzufinanzieren. Das, so einigt man sich, kann besonders effizient dort gelingen, wo Geld nicht nur eine Investitionssumme ist, sondern zugleich die Ware, mit der man handelt. Es ist der Finanzmarkt. Hardy, Heiner und Phil nehmen sich also vor, die bisher noch abstrakte quantum relations- Methodik für diesen Markt der Aktien und Anleihen auf konkrete Füße zu stellen. Heiner stellt dazu 1999 seine Firma Patentpoolund deren Räume in der Münchner Altstadt zu Verfügung, und Hardy nutzt sie, sobald er seinen Siemens-Auftrag für Arthur Andersen erledigt hat und sein dafür gemietetes Penthaus hoch über der Isar wieder verlässt. Es liegt nahe, dass der eine in die Büroetage des anderen mit einzieht. Technisch ist das kein Problem. Vorderhand ist das Quantum Relations-Entwicklungsteam klein, und technisch braucht es anfangs nicht viel mehr als elektrischen Strom, Telefon- und Internetanschlüsse sowie ein paar leistungsfähige Computer. Patentpool hat eigentlich etwas andere Aufgaben, nämlich die Vermarktung von Patenten. Zwar ist auch die Anwendung des patentierten Quantum Relations-Prinzips eine Vermarktungsaufgabe, aber erst, wenn die Umsetzung der Theorie in ein marktfähiges Produkt komplett oder doch weitgehend vollzogen ist. Die RavenPack-Raben Die computertechnische Umsetzung von Quantum Relations nennt Hardy nicht cloud computing, weil es diesen Begriff in den frühen 2000er-Jahren noch gar nicht gibt, sondern findet dafür das bildhafte Wort raven space. Ravens, also Raben, sind in der nordischen Mythologie zwei besonders kluge Tiere namens Huginn und Muninn. Huginn steht für Geist und Muninn für Geld. Beide durchstreifen die Welt jeden Tag nach Informationen und unterrichten den Gott Odin über ihre Befunde. So erhält Odin überragendes Wissen über alles, was in der Welt vorgeht. Von space, also von Raum, ist die Rede, weil es um eine Vernetzung vieler verschiedener Computer geht. Hardy will ein über einen größeren Raum verteiltes computing system entwickeln, einen exakten Vorläufer von cloud computing. Dazu sucht er den one way path, den dazu einzig richtigen Weg, um mit dieser Mehrzahl von Rechnern vernetzt umzugehen. Und er sucht und einen Namen für eine zu gründende Firma, die das Quantum Relations-Prinzip im Finanzmarkt etablieren soll. Der Name, den Hardy sich dazu ausdenkt, lautet RavenPack. Er übersetzt die mythische Leistung der schlauen Raben Munnin und Huginn in die Fähigkeit, führenden Finanzhäusern die wichtigsten Informationsquellen des weltweiten Kapitalmarkts aufzubereiten. Das RavenPack-Logo zeigt abstrahiert ein Rabenpaar. Erste RavenPack-Aufgabe soll es sein, einen raven space zu erzeugen, also ein vernetztes Computersystem zur Marktanalyse, das blitzschnelles Reagieren ermöglicht. 3.5 Der Weg zu RavenPack 101 Hardy erläutert: „Man kann sich einen solchen raven space als Quadrat vorstellen, in dessen vier Ecken jeweils technische Module stecken. Betrachten wir zuerst die linke untere. Dorthin stecken wir das Com-Modul, com wie commercial, also wirtschaftlich. Es wird auf die spezifischen Belange jedes Kunden konfiguriert. Da laden die Kunden eigene Datenpakete, aber auch Fragen hinein. Sind diese Daten sicher vor Hackern? Absolut, denn dort bleiben sie nicht, sondern werden gleich in die obere linke Ecke des gedachten Quadrats weitergeschickt, in das Interface- Modul, das streng abgeschirmte Schnittstellen-Modul, das Hackern keine Angriffsmöglichkeit bietet. Damit solche ungebetenen „Gäste“ dort gar nicht erst suchen, kann man, um Hacker abzulenken, an das Com-Modul ein paar harmlose Datensätze anhängen. Das Interface-Modul, sagt Hardy schon 1999, ist dazu da, die zugelieferten Basisinformationen um zahlreiche weitere Datenquellen anzureichern: um Faxinhalte, um damals noch in der Entwicklung steckende, aber irgendwann einsetzbare Smartphones und andere smart devices. Sie sind dann zu ergänzen um industrielle Datenbestände und um Daten aus Bevölkerungsanalysen, etwa aus Volkszählungen, aus Befragungen und dergleichen mehr. Die so wesentlich angereicherten Daten fließen nun in die rechte obere Ecke des gedachten Quadrats in das sogenannte business operating system (BOS), das eigentliche Rechenprogramm. Es greift auf die gelieferten Massendaten zurück und arbeitet dazu in drei Schichtungen. Die erste errechnet die für ein Projekt nötigen Finanzen, die zweite durchleuchtet die nötige Logistik und die dritte sucht die passenden Umsetzungswege. Bevor nun in der vierten Ecke des Quadrats der page composer angesteuert wird, der das Rechenergebnis Seite für Seite sichtbar macht, gleicht das BOS seine Daten noch mit gespeicherten permissions ab, also mit Zugriffs- und Bearbeitungsrechten bestimmter Personen und Institutionen. Danach speichert ein page composer sein Wissen ab und schreibt es in html files nieder, also in der gängigen computerlesbaren Sprache. Diese files hätte das System, wäre es zu diesem Zeitpunkt nicht nur ein Gedankengebäude, dann an die Eingangsstelle zurückzuleiten, an das Com-Modul, wo der Kunde es einsehen oder abholen könnte.“ Es dauert noch ein paar Jahre, bis aus dieser Vision Wirklichkeit wird. 1999 lässt Hardy seinen raven space patentieren. Im selben Jahr heben Heiner und er das Big Data-Unternehmen RavenPack aus der Taufe. Es wird wirtschaftliche, politische und soziale Daten mit Künstlicher Intelligenz auf der Basis von Quantum Relations für den Finanzmarkt analysieren und Empfehlungen anbieten. Es beschäftigt bald 40 EDV-Spezialisten an den Vorstufen des Quantum Relations-Programms, im Wesentlichen an der Umsetzung dessen, was in Hardys Patent zu lesen steht. Die Kosten dafür sind enorm: eine halbe Million DM im Monat.Aber es gibt auch schon eine Belohnung: 2001 überreicht NetInvestor Hardy für die Erfindung des raven space einen Preis für eine der damals 25 besten Zukunftstechnologien. Kurz nach der Jahrtausendwende macht ihm ein Markteinbruch jedoch vorläufig einen Strich durch ihre Rechnung. Die sogenannte dot.com-Blase platzt; für zahlreiche Start-ups des gerade begonnenen Internet-Zeitalters und einige ihrer Finanzierer ist es das Aus. Alles kommt sehr überraschend. Sogar Hardys Prognosespezialisten erwischt es kalt. Innerhalb von zwei bis drei Monaten muss RavenPackdie meisten seiner 40 Programmierer entlassen. Die Bremsspuren sind gewaltig. Die Gehälter von 500.000 Mark pro Monat muss das Management auf 40.000 herunterbrechen. „Wir sind da nicht stolz darauf, aber anders wäre es nicht gegangen“, sagt Heiner später und setzt hinzu: „40.000 Mark zu besorgen war schon schwierig genug in dieser Zeit, in der ja alles einbrach, jede Art von Aktie. Kein Mensch wollte mehr Aktien, niemand glaubte mehr an das Internet. Es gab dunkle Momente, in denen man schlaflos der Zukunft entgegen schaute. Aber Beharrlichkeit zahlt sich aus.“ 2001, nach dem Zerplatzen der dot.com-Blase, verlässt Hardy seinen Standort München und zieht mit den bei RavenPack verbliebenen Programmierern ins südspanische Marbella. Denn sein kalifornischer Lebensstil und der Münchner Matschwinter sind auf die Dauer nicht zu 102 3 Von Newton über Einstein vereinbaren. Zu seinem Team gehören auch andere Amerikaner, die meistens ebenfalls aus dem sonnigen Westen der USA kommen. Auch die fühlen sich wohl im warmen Marbella. Und außerdem ist es dort billiger als im teuren München. Und schließlich, ganz entscheidend: Es gibt ausreichend internet connectivity, Marbella verfügt schon zur Jahrtausendwende über eine der stärksten Leitungen zur Übertragung von Daten. Das ist ein wichtiger Grund, dorthin zu gehen. Denn eine cloud, also eine Zusammenschaltung von Computernetzwerken nur über Funk, gibt es noch nicht. Hardy pendelt zunächst noch einmal im Monat zwischen RavenPack in Marbella und Patentpool in München. Auch für Heiner ist es nicht unangenehm, einmal im Monat den deutschen Winter zu unterbrechen und nach Marbella zu fliegen. „Das ist ja auch schön.“ Die RavenPack-Story 2002 - 2009 Ende 2002 gelingt es dem RavenPack-Team, ein eingeschränkt funktionsfähiges System fertigzustellen, um mögliche Investoren von den technischen Möglichkeiten der eigenen Software zu überzeugen. Es wird zunehmend realistisch, die Fähigkeiten von RavenPack für Analysen und Vorhersagen in der Entwicklung der Finanzmärkte nutzbar zu machen. Es erscheint den Entwicklern besonders attraktiv, aber selbstverständlich ist es nicht Denn noch gilt weithin die Überzeugung, Marktentwicklungen könnten gar nicht vorhergesagt werden, weil der aktuelle Preis jedes Wertpapiers, der price of now, bereits alle aus der Vergangenheit verfügbaren Informationen enthalte. Diese Ansicht hat lange viele Anhänger; Hunderte Studien stützen sich noch Jahre später auf diese efficient market hypothesis über den leistungsfähigen Markt (Michel 2010). 2006 wird RavenPack zeigen, dass diese Annahme falsch ist. Und 2009 wird das renommierte New Yorker Unternehmen Macquarie Research nach monatelanger Auswertung von RavenPack-Informationsströmen die Einschätzung von 2006 bestätigen: Mit der RavenPack software reiche der Informationsvorsprung aus, um mit automatisierten Handelsplattformen auf Marktveränderungen rechtzeitig reagieren und so Gewinne erwirtschaften zu können. Aber der Markt ist schwierig. Als die dot.com-Blase 2001 platzt; gerät der Neue Markt in Aufruhr; zahlreiche erst kurz zuvor gegründete und teilweise wie im Rausch gewachsene Firmen verschwinden. Erst 2003 kann RavenPack nach der Überwindung dieser Krise wieder aufstocken. Denn erst dann kommt Investorengeld allmählich zurück in den Markt. Armando Gonzalez stößt zu RavenPack, der spätere CEO. Firmenchef ist zu dieser Zeit Hardy. Er entwirft und entscheidet das Prinzipielle, bestimmt die große Linie, braucht aber jemanden an seiner Seite, der für das Feintuning zuständig ist. Also wird Gonzalez zunächst Hardys Assistent - ein schlauer Kopf, ein reiner Kaufmann, kein Programmierer. Aber auch er entwickelt sich zum gefragten Datenexperten mit Veröffentlichungen unter anderem im Wall Street Journal, in der Financial Times und bei CNBC. Damals ist nicht abzusehen, welches Unternehmen sich besser entwickeln wird, Patentpool oder RavenPack. Heiners Patentpool ist parallel noch in einem anderen Projekt namens Toximed engagiert. Das kostet viel Kraft. Heiner erinnert sich genau: „Grundlage waren tierische Gifte von Spinnen, Schlangen, Skorpionen und Echsen. Ein Forscher, Dirk Weickmann, hatte im Kampf gegen Krebs traurige Ergebnisse hinnehmen müssen und setzte auf neue Methoden, legte infiziertes Brustkrebsgewebe in eine Petrischale und fügte solche tierischen Gifte hinzu. Und tatsächlich: Nach 24 Stunden stellte das Gewebe sein Wachstum ein. Nach 72 Stunden sind gesunde Zellen nachgewachsen. Das gab’s in der Geschichte des Deutschen Krebsforschungszentrums noch nicht.“ Das ruft die Konkurrenz auf den Plan. Weickmanns Befunde werden der Pharmaindustrie gefährlich. Plötzlich durchsuchen Polizei-Hundertschaften mehrere Häuser, insgesamt sechs, sogar bei Heiners Mutter in Stuttgart, bei der er seit zwanzig Jahren noch einen 3.5 Der Weg zu RavenPack 103 Zweitwohnsitz hat. Computer werden beschlagnahmt. Gründe nennt die Polizei nicht, aber Heiner glaubt sicher zu sein: „Beauftragt hat das eine Verleumdungsagentur im Auftrag der Pharmaindustrie. Wir hatten das Ergebnis der Studie natürlich unseren hundert oder zweihundert Investoren mitgeteilt. Das war schließlich eine Sensation. Daraufhin hat man uns die Zusammenarbeit aufgekündigt, weil wir publiziert hätten. In unserem Vertrag stand nämlich, dass wir das nicht veröffentlichen dürfen - was wir ja auch nicht getan haben, weil eine Information an zweihundert zahlende Investoren keine Publizierung ist.“ Hardy muss unterdessen seine Software in Marbella perfektionieren und braucht dazu zusätzliches Geld von Patentpool. Das Unternehmen schafft Investoren herbei. Zunehmend kommt Geld aber auch direkt aus dem Markt. RavenPack beginnt sich durch den Verkauf von Echtzeit-Informationen an automatisierte Handelsplattformen von Hedge Fonds und Banken zu finanzieren. In den folgenden Jahren kommen etwa hundert solche Großkunden zusammen. Ihre Abonnements der RavenPack Software sichern dem Unternehmen ein stabiles Geschäft. Aber woher sollen die Massen an Echtzeit-Informationen kommen, die RavenPack dazu benötigt? Als Software-Haus kann es sie unmöglich selbst generieren. Deshalb verabredet RavenPack, das 2007 noch ein Portfolio-Unternehmen der Patentpool-Gruppe ist, eine Zusammenarbeit mit einem US-amerikanischen Medien- und Finanzkonzern: Hardy schafft es, Dow Jones als Datenlieferanten zu gewinnen. Über deren Plattform vermarktet RavenPack seine Datenauswertungen unter dem Namen Dow Jones News Analytics. Den 180.000 Kunden der Dow Jones Newswire Services bietet RavenPack Lizenzen dieses System für automatisierte Handelsprozesse auf den globalen Finanzmärkten an. Banken und Hedge Fonds, Vermögensverwalter und Großinvestoren rund um die Welt greifen zu. RavenPack analysiert zu diesem Zeitpunkt rund 2500 Einzelnachrichten in der Minute in Echtzeit, also im Moment ihrer Veröffentlichung, greift aber auch auf das 20 Dow Jones- Jahrgänge umfassende Nachrichtenarchiv zu. Alle Aussagen übersetzt es auf der Basis von advanced computational linguistics - auf deutsch mit fortgeschrittener computergesteuerter Sprachanalyse - in auswertbare Zahlenformate. Die riesigen Textmengen lassen sich anhand frei konfigurierbarer Parameter als mathematisch-statistische Angaben in klar definierte Zusammenhänge stellen und grafisch darstellen. Grundlage ist Hardys Quantum Relations-Methodik, die dieser in den USA patentrechtlich hat schützen lassen und bereits mehrfach wissenschaftlich publiziert hat. Er erklärt den Nutzen seines Systems so: „Die Entwicklung der Wirtschaft wird von einer Vielzahl parallel eintreffender Informationen beeinflusst, ob es sich um eine wegweisende Rede eines Notenbank-Präsidenten handelt, um neu veröffentlichte Arbeitslosenzahlen, geänderte Leitzinsen, Aktienkurse, Rohstoffpreise oder politische Umwälzungen - um nur einige zu nennen. Unser System speichert und verarbeitet alle für eine Problemlösung relevanten Informationen in Echtzeit zum Zeitpunkt ihrer Bekanntgabe und ermöglicht so verlässliche Entscheidungsgrundlagen für automatisierte Handelsprozesse. Auch fokussierte Trendauswertungen oder spezielle Indizes lassen sich durch individuelle algorithmische Beschreibungen jederzeit implementieren“ (RavenPack 2007). Und Dennis Cahill, Senior Vice President der Dow Jones Enterprise Media Group, sekundiert damals: „Aus Kostengründen war die Speicherung und intelligente Verarbeitung sehr großer Datenmengen bisher ausschließlich sehr großen Finanzierern vorbehalten. Mit Dow Jones News Analytics präsentieren wir jetzt eine leistungsfähige Lösung zur automatisierten Bewertung von Handelsgeschäften, Hedge- und Investmentstrategien bei geringeren Inhouse-Entwicklungs-Ressourcen zu deutlich günstigeren Kosten“ (ibid.). Mit dieser Software empfiehlt RavenPack seinen Kunden also Geschäfte mit Aktien, ohne dass diese Kunden sich das dazu nötige Wissen selbst aneignen müssen. 104 3 Von Newton über Einstein Für Heiner bestätigt die Partnerschaft von RavenPack mit Dow Jones die Patentpool-Geschäftsstrategie: „Seit fast zehn Jahren bringen wir innovative Technologien mit Hilfe privater Investoren zur Marktreife und unterstützen die Entwickler in den verschiedenen Stufen des Innovationsmanagements. Die Fertigstellung der RavenPack Software ist das Ergebnis von mehr als sieben Jahren Entwicklungsarbeit“ (RavenPack 2007). Das amerikanische Bankhaus Rothschild bewertet RavenPack zu diesem Zeitpunkt auf mehr als 90 Millionen Euro - ein Wert, „von dem unsere Investoren künftig in barer Münze profitieren werden“ (ibid.). Es gibt aber eine Kehrseite. Ein leitender Fondsmanager einer großen Vermögensverwaltung in London sagt damals voraus, die RavenPack-Initialzündung werde dazu führen, dass sich die gesamte Finanzindustrie grundlegend verändern und wieder auf ihr Kerngeschäft konzentrieren werde. Durch die zunehmende Automatisierung werde in fünf bis sieben Jahren nur noch jeder hundertste Arbeitsplatz in dieser Branche existieren, und der werde von einem Computerspezialisten ausgefüllt werden“ (Michel 2010). Noch vor Ablauf des ersten Jahrzehnts im neuen, dem 21. Jahrhundert, sagen Experten weiter voraus, werde der Einsatz von Supercomputern bei Entscheidungen für automatisierte Handelsprozesse bewirken, dass die gewohnte Finanzindustrie bald überhaupt nicht mehr existieren werde. Diese Entwicklung habe an der New Yorker Wall Street und an anderen großen Finanzplätzen der Welt schon begonnen und sei nicht mehr aufzuhalten. Angesichts der immensen Schäden, die den Volkswirtschaften durch Investment Banking und Spekulationsgeschäfte entstanden sind, sei das für die Menschheit eine sehr gute Nachricht (ibid.), heißt es 2007. Diesen Beitrag geleistet zu haben, erklärt Heiner zehn Jahre später, machten Hardy und ihn noch heute mächtig stolz. Der Lehman Brothers-Bankrott bremst RavenPack aus Am 15. September 2008 muss das Bankhaus Lehman Brothers, eine der größten Banken weltweit mit 2007 noch 28.600 Beschäftigten, wegen der Finanzkrise Insolvenz beantragen. Diese Krise hat viele Ursachen, nicht zuletzt diese: Die Märkte verlieren in die beliebten, immer komplexer konstruierten ‚Finanzprodukte‘ der Investmentbanken das Vertrauen, und weil niemand mehr ihren Wert beurteilen kann, taumeln auch deren Preise. So bricht der Markt zusammen. Der Wert der Ware ist nicht mehr zu bestimmen; sie wird letztlich wertlos (Fichtner 2017: 42). Nur mit unvorstellbaren Anstrengungen gelingt es westlichen Regierungen und Notenbanken, eine Kettenreaktion zu vermeiden. Für Patentpoolund RavenPack ist es ihre zweite Weltwirtschaftskrise. Denn ihre Hauptkunden sind Investmentbanker. Die gehen reihenweise bankrott. Mit ihnen ist auf Sicht kein Geschäftzu machen. Zwei Jahre lang versuchen Patentpool und RavenPack, mit ihrer Software und den durch dieses Programm laufenden Informationen erfolgreich Aktien zu handeln, haben auch gute Prognosen, aber machen keine Gewinne. Denn sie verfügen einfach über zu wenig Geld, um Aktien im großen Stil kaufen und verkaufen zu können. Zwei Millionen Kapital schießen sie an der Börse hin und her. Für jeden Kauf und jeden Verkauf fallen Gebühren an. Je kleiner das gehandelte Aktienpaket, desto relativ höher ist der Gebührenanteil. Hätten sie hundert Millionen in Aktien hin und her schieben können, hätte sich der Handel gelohnt, sagt Heiner rückblickend. So aber bleibt unter dem Strich nichts hängen. Aber Hardys Software, die Aktien bewertet und ihre Kursentwicklung abschätzt, ist gut. Alle finden, dass sie gut ist. Frisches Geld für ihren Einsatz ist deshalb der alles entscheidende Schritt. RavenPack braucht nicht 40.000 Euro wie zuletzt für die monatlichen Gehälter der eigenen Mannschaft, sondern vier Millionen. So viel kann Patentpool in Zeiten der Lehman-Krise nicht aufbringen. Daraufhin spricht RavenPack ohne Rückfrage bei der Muttergesellschaft Patentpool eine Firma für sogenannte Brückenfinanzierungen an, eine englisch-schwedische Bridge Group. Die zeigt sich an RavenPack interessiert, stellt für eine vier- 3.5 Der Weg zu RavenPack 105 Millionen-Investition aber eine grundlegende Bedingung: Sie darf sich nur an einem Produkt beteiligen, das nach den gängigen Regeln des Kapitalmarkts aufgesetzt ist. RavenPack steht daraufhin vor zwei Alternativen. Entweder nehmen die Initiatoren 200.000 bis 300.000 Euro in die Hand und lassen externe Experten mit diesem Geld einen Hochglanz-Kapitalanlageprospekt erarbeiten. Käme der in Deutschland heraus, müsste ihn die Bundesanstalt für Finanzdienstleistungen auf seine rechtliche Eindeutigkeit prüfen und dann genehmigen. In Marbella ist dazu aber niemand greifbar. Oder die Initiatoren gründen in der Schweiz eine AG, die RavenPack Holding AG, mit dem Zweck, ein Zwitterprodukt aus handelbarer Aktie und nicht an einer Börse notiertem Wertpapier zu emittieren. Es bekommt zwar eine Wertpapier-Kennnummer und hält damit die geforderten Regeln des Kapitalmarktes ein, wird aber trotzdem nicht an der Börse gehandelt, so dass die Initiatoren der AG über das Gesellschaftskapital allein verfügen. Das ist die Lösung. Neues Geld hat das Sagen Im April 2009 trifft das Geld der Bridge Group ein. Nun ist RavenPack wieder ausreichend flüssig und kann mit dem frischen Kapital auch in New York ein Büro aufmachen. Ein weiteres in London kommt später hinzu. Eine Gesellschaft namens RavenPack International, die anfangs nur das RavenPack-Büro in New York führt und inzwischen ruht, wird zum rechtlichen Mantel der RavenPack sociedad limitada (SL). Diese SL, die einer deutschen GmbH ähnelt, anders als eine solche aber keine 25.000 Euro Haftungskapital aufbringen muss, wird in Marbella ins Leben gerufen. Sie setzt die Arbeit der bisherigen RavenPack- Gesellschaft nahtlos fort und arbeitet weiter auf der Basis der Technologien, die Hardy 1999 als Patent angemeldet und dort eingebracht hat. Mit der Finanzspritze der Bridge Group kommt das Unternehmen wieder auf Touren. Patentpool hat das Nachsehen. Der Anteil der Münchner am RavenPack-Kapital geht mit dem Einstieg der Bridge Group stark zurück. Zu Anfang haben ihnen 80 Prozent von Raven- Pack gehört. Fortan liegt er nur noch bei 25 Prozent. „Hätte ich damals ein bisschen mehr Energie gehabt“, urteilt Heiner viel später, „hätte ich sagen können: Gut, wir machen einen Gegenfinanzierungsvorschlag, so dass wir die Bridge Group nicht bräuchten. Den umzusetzen dauert dann halt etwas länger. Aber ich war auch ein bisschen müde nach so vielen Jahren in der Aufgabe, RavenPack zu finanzieren, häufig genug auf den letzten Drücker. Also war ich froh, dass die vier Bridge Group-Millionen kamen. Lieber halten wir 25 Prozent an einem Unternehmen, das wirklich wertvoll und Weltspitze ist, als 80 Prozent an einem, das nicht mithalten kann.“ Das neue Geld hat also das Sagen. Aber nicht nur die Kapitalmehrheit ändert sich mit dem Einstieg der Bridge Group (die heute nicht mehr besteht), sondern auch die Führungsstruktur. Patentpool kann mit nur noch 25 Prozent nicht mehr bestimmen. Prompt erklärt Hardys bisheriger Assistent Gonzalez: Dann bin ich künftig hier auch der Chef. Ihm ist ein unfriendly takeover gelungen. Hardy verliert bei RavenPack seinen Job. Auch Heiner hat dort nichts mehr zu entscheiden. Er gehört fortan nur noch zum Beirat der Firma. Das Unternehmen steht auch ohne Hardy sicher auf eigenen Füßen. Auf die Neustrukturierung von 2009 folgen einige Finanzierungsrunden mit Management-Beteiligungen und anderen Finanzierungsschritten, die alle dasselbe Ziel haben: neues, flüssiges Geld in die Kasse zu holen. Als Ergebnis sinkt der Patentpool-Anteil an RavenPack von 25 weiter auf nur noch gut zehn Prozent. Den Kunden ist das egal - Hauptsache: Die Analysequalität von RavenPack stimmt und sowohl bei ihnen wie auch bei RavenPack selbst kommt genügend Geld in die Kasse, um weitere Expansionen finanzieren zu können. 106 3 Von Newton über Einstein Wie RavenPack arbeitet „Im Prinzip“, sagen die RavenPack-Leute, „arbeiten wir heute noch genau so wie zu Hardys Zeiten. Wir scannen die Welt nach Informationen, um damit unseren Kunden Vorteile zu verschaffen. Wir zeigen ihnen Wege zu für sie noch unerschlossenen Werten. Aber im Detail hat sich natürlich sehr viel weiterentwickelt. Unsere Kunden können Daten und Analysen abrufen, die nicht nur ein Jahr zurückliegen können, sondern auch fünf, ja sogar zehn Jahre zurück, und sie erhalten diese Ergebnisse so schnell wie auf der Basis neu eingehender Daten. Unsere Dienste laufen plattformübergreifend auf den Computerprogrammen Unix, Linux und OS/ X, und sie nutzen auch Internetquellen. Unser System verarbeitet Hunderte Nachrichten und social media posts in Millisekunden. Wir speichern diese Art von Big Data, analysieren sie, verknüpfen sie mit anderen Daten und senden unsere Resultate unverzüglich an unsere Kunden.“ Diese Beschreibung hat eine Kernvoraussetzung: Der Finanzmarkt hat zu den ersten Wirtschaftszweigen gehört, die sich mit Künstlicher Intelligenz automatisierten. Das hat sein Handeln unglaublich beschleunigt. Institutionelle Investoren, also Banken, Fonds und Konzerne, erläutert die BWL-Professorin am Centre for Financial Research Monika Gehde- Trapp schon 2015 „agieren heute fast ausschließlich durch Maschinen (Gehde-Trapp 2015). Sie haben die Erledigung von Aufträgen an den Börsen nicht nur schneller und billiger gemacht, sondern auch zu einem höheren Handelsvolumen geführt, zugleich aber auch häufiger zu Marktversagen. Die Professorin erinnert an den „chaotischen Börsengang von Facebook“ (ibid.). Die Rechner der Nasdaq, der elektronischen US-Börse, hatten die enorm vielen Kaufaufträge nicht zügig genug abwickeln können. Tausende von Aufträgen hingen stundenlang im System fest. Wegen fehlender Kaufbestätigungen schickten große Investoren ihre Aufträge immer wieder los. Die Maschinen konnten Auftragswiederholungen und echte neue Aufträge nicht unterscheiden. Sie registrierten nur endlos viele. Das hat die Kurse der Aktie zuerst nach oben schießen und dann, als klar wurde, dass es sich meist nur um Auftragswiederholungen handelte, in den Keller stürzen lassen - nicht nur ein riesiger Imageverlust, sondern auch ein finanzielles Fiasko für die Börse“ (ibid.). Die Computer, deren Algorithmen untereinander derartige Geschäfte abschließen, ohne dass Menschen eingreifen, heißen im Branchenjargon algotrader. Diese Hochfrequenz- Handelsmaschinen wickeln für jeden Kunden 100.000 Transaktionen ab - pro Sekunde (Eberl 2016: 272). Ohne Auftragswirrwar sorgen sie für zusätzliche Aufregung und Kursausschläge im Markt. „Wenn es gut läuft, sind sie aktiv, wenn es schlecht läuft, halten sie sich zurück. Und sie werten riesige Datenmengen sehr schnell aus. Daher interpretieren sie auch sehr kleine und kurzfristige Signale ohne echten Informationsgehalt als ein Zeichen, dass sie sich zurückhalten sollen“ (ibid.). Big Data-Analysen können hier dämpfend eingreifen, sagt die Professorin: „Wenn wir eine technologische Innovation beobachten und sehen können, wie algotrader reagieren, können wir Ursache und Effekt identifizieren“ (ibid.). Auch hier spielen nicht nur harte Fakten eine Rolle, sondern, wie wir schon früher gesehen haben, auch Stimmungen. „Seit einigen Jahren werden in der Finance-Forschung daher zunehmend Informationen wie Google-Suchintensitäten, Twitter oder Facebook genutzt, um die Investorenstimmung zu messen. Die Stimmung, die Investoren zum Beispiel in Google- Suchanfragen zeigen (wie oft wird z.B. der Begriff „Rezession“ gegoogelt), beeinflusst Haus- und Wertpapierpreise (ibid.). „Je schlechter die Stimmung, desto höher sind die Kapitalkosten“ (ibid.). Analysen zeigen, „dass Investoren bei Schönwetter oder klarem Winterwetter mehr Aktien handeln als an nebligen Tagen. Das Wetter beeinflusst unser Leben in vielen Bereichen, ohne dass uns dies bewusst ist“ (Nimführ 2016). Gut also, wenn Big Data-Analyen auch zu diesen soft facts Einblicke liefern. 3.5 Der Weg zu RavenPack 107 Bald nutzen etwa 80 Prozent der Computer in global führenden Finanzinstituten wie Stanley Morgan oder Goldman Sachs, bei Dow Jones oder der Deutschen Bank die RavenPack- Technologie zur Steuerung von Anlageentscheidungen in Millisekunden. Trotz etlicher hundert Firmen, die für den Finanzsektor Daten aller Art aufbereiten und anbieten: Die RavenPack Software ist Standard geworden. Jedes analysierte Ereignis heißt im Jargon der RavenPack-Analysten ein event, ganz gleich, ob da jemand, über den irgendwo eine Nachricht ausgesprochen oder aufgeschrieben, gedruckt oder gesendet oder online gestellt wurde, gehandelt oder nur gesprochen oder beispielsweise in einem blog oder in einem Interview nur laut nachgedacht hat, ob es sich um eine klare Tatsache oder nur um eine Absichtserklärung handelt, nur um eine Vermutung oder gar nur um ein bloßes Gerücht. Jede Meldung und auch jede Einzelaussage innerhalb einer komplexeren Meldung ist so ein event. Da solcherlei Nachrichten pausenlos durch die Welt schwirren, ist ihre Zahl gigantisch - Big Data eben. Allein über Indien verarbeiten die RavenPack-Analysen rund eine Million solcher events. Wie viele müssen es erst aus den führenden Wirtschaftszentren sein, aus New York und London, Tokio und immer öfter auch China, selbst wenn man als limitierenden Faktor einberechnet, dass RavenPack nur Quellen in englischer Sprache verarbeiten kann? Auch Japan und China verbreiten pausenlos Meldungen in englischer Sprache. Um dieser event-Schwemme Herr werden zu können, muss das Unternehmen diese Nachrichtenflut bündeln. RavenPack sortiert sie zunächst nach siebentausend Variablen sogenannter granular events, womit voneinander unterscheidbare Ereignistypen gemeint sind, von einfachen Firmenentscheidungen über komplexere Entscheidungs-„Pakete“ etwa bei Firmenübernahmen bis hin etwa zu Naturkatastrophen. Aus diesen Quellen in einer Vielzahl von Formaten vom Dow-Jones-Nachrichtenstrom bis zu social media-Analysen leitet RavenPack Ereignisbewertungen für seine Abonnenten ab. Alles was wirtschaftlich wichtig sein könnte, von einer Schätzung der Wirtschaftsentwicklung über alle Arten unternehmerischer Entscheidungen bis zu ersten Gerüchten über Firmenfusionen, registriert, verarbeitet und verbreitet das Unternehmen elektronisch, also mit Lichtgeschwindigkeit. Aus etwa zwei Milliarden Dokumenten präsentiert es seinen Kunden extrahiertes Wissen in mehr als tausend verschiedenen Aufbereitungs- und Verdichtungsformen. Dieser Fächer reicht von Sortierungen nach den top 500 oder den top 100-Unternehmen in den USA oder in der EU über Listen der wichtigsten großen und seit Herbst 2012 auch der bedeutenden kleinen Unternehmen bis zu volkswirtschaftlichen und geopolitischen Nachrichtenanalysen mit Querschnittsbetrachtungen einzelner Länder, Märkte, Branchen oder Firmengruppen und bis zum Wirtschaftsrecht, zu Produktentwicklungen und Produktvergleichen, klinischen Testreihen, neuen Patenten und sogar bis zum Sport. Während die blitzschnellen Standardinformationen in der Regel von Computern verarbeitet werden - zu 80 Prozent werden sie von Maschinen analysiert, deren Aktionen im Börsenalltag schon auf der Basis kleiner, oft winzig kleiner Veränderungen automatische Kauf- und Verkaufsaufträge auslösen - richten sich makroökonomische Analysen an Experten, die längerfristige Anlagestrategien entwickeln. Für solche Informationen investieren RavenPack-Kunden viel Geld. Heiner schätzt die Kosten für ein Abonnement der RavenPack software durch Banken und Fonds pro Kreditinstitut auf hunderttausend Euro im Jahr. Nur aufbereitete Daten taugen auch zur Verwendung 80 Prozent der dazu benutzten Quellen sind unstrukturiert, passen also nicht automatisch in ein Verarbeitungsraster, sondern müssen erst passend gemacht werden, um nicht nur gelesen, sondern auch verglichen und bewertet werden zu können. Am Beginn der Datenanalyse steht immer das Kodieren der zu verwendenden Daten (nach Dateneinheit, Sorte, Währung, Firma u.ä.), dann die Feststellung, wofür und in welchem Maß diese Daten rele- 108 3 Von Newton über Einstein vant sind. Dann übersetzt die Software events für den Finanzmarkt in unterschiedlichste Schlüsselzahlen, nummeriert also typische Ereignisse zigtausendfach durch und speichert für die Auswertung nur diese kennzeichnenden Zahlen. Was auch immer registriert wird - RavenPack verdichtet es zu Schlüsselzahlen. Das beginnt mit der Bewertung der Aktualität (Maßstab ist jeweils, dass es keine gleiche Info in den letzten Stunden/ Tagen/ Wochen/ Monaten/ im letzten Jahr gab). Diese Sorte Schlüsselzahlen heißt SIM-Daten. Das Kürzel steht fürEvent Similarity Days. SIM-Daten versetzen RavenPack in die Lage, bei jedem Ereignis sofort zu erkennen, ob es ein vergleichbares Ereignis in den zurückliegenden 365 Tages eines Jahres schon einmal gegeben hat oder ob das, was gerade geschieht, ohne Vorbild und Vergleich ist. Natürlich entscheidet diese SIM-Einstufung mit über die Bedeutung des Ereignisses für die Welt der Finanzen. Denn daraus ergibt sich seine Priorität. Eine Priorität ist der Neuigkeitswert des Ereignisses - je neuer, je einmaliger, desto mehr Wirkungskraft kann das Ereignis erzeugen. Hier setzt der SIM-Schlüssel an. SIM 30 bedeutet, dass es vor genau 30 Tagen ein vergleichbares Ereignis gab, SIM 0, dass zwei solche Ereignisse momentan zeitgleich ablaufen. Ein saloppes Beispiel: Erfährt RavenPack, der Chef einer börsennotierten Software-Firma im Silicon Valley sei in einer Lawine ums Leben gekommen, empfiehlt RavenPack, möglichst bevor dies irgend jemand anderer erfährt: Verkauf‘ die Aktien dieses Unternehmens, denn morgen stürzt ihr Wert höchstwahrscheinlich ab. Oder: Bucht zu einer bestimmten Jahreszeit eine Delegation chinesischer Landwirtschaftsexperten Flugtickets in den nordamerikanischen Mittleren Nordwesten, nach Minnesota zum Beispiel, wäre es plausibel, dass der Weizenpreis steigen wird, denn dann war’s ein Sommer, in dem China keine ausreichende Ernte hatte was Daten von dort leicht überprüfbar machen. Börsenprofis früherer Zeit kannten vielleicht fünfzig solcher Plausibilitäten. RavenPack kennt sie alle. Dies sind wie stets in der Massendatenverarbeitung keine eindeutigen Fall-zu-Fall-Schlussfolgerungen, sondern Ergebnisse von Wahrscheinlichkeitsberechnungen. Sie müssen daher nicht stimmen, aber mit berechenbarer Wahrscheinlichkeit ist es tatsächlich so. Eine zweite Sorte Schlüsselzahlen heißt Event Sentiment Score (ESS). Sie ergibt sich aus Bewertungen durch Finanz- und Wirtschaftsexperten und schließt zahlreiche Parameter in die Auswirkung auf Börsenwerte ein: das Land, dessen Mentalität, das Klima, und zwar das ökonomische ebenso wie das ökologische und weitere. ESS-Angaben sind daher nicht sofort zu bekommen, brauchen aber auch nicht für jeden event neu ermittelt zu werden. In den meisten Fällen genügt eine Verknüpfung mit bestehenden ESS-Daten. Auf diesen Zahlen fußt die sogenannte Sentimentsanalyse, also eine Bewertung der Bedeutung für die zugrunde liegende Frage. Das Sentiment wird weit heruntergebrochen; allein für den Ablauf von Firmenübernahmen gibt es von ersten Gerüchten bis zum Vollzug der Fusion oder zu ihrem endgültigen Scheitern 123 Einstufungsmöglichkeiten. Raven- Pack hat allein 3.317 Kategorien definiert, nach denen sich Wirtschaftsnachrichten auf diese Weise einordnen und zu Prognosen nutzen lassen. Weiter muss geklärt werden, um welche Art von Ereignis es geht. Das leistet das fact level tagging. Es definiert, ob es sich um eine Tatsache handelt, eine Meinung oder eine Prognose. Dann ist der Rang des Ereignisses zu klassifizieren. Dabei hilft den Analysten die Art, in der Journalisten berichten. Wird es schon im Titel der Meldung genannt, war es also eine Schlagzeile wert? Dann dürfte es auch börsenrelevant sein. Kommt es in einem Artikel wenigstens relativ bald vor und nicht erst unter „ferner liefen“? Dann hebt auch das die Bewertung. Sie fließt ein in den Event Relevance Score (REL) und dessen Skala von 0 bis 100. Ein Jahrzehnt lang, von 2007 bis Anfang 2017, hat RavenPack alle Informationen zur Empfehlung von Finanzmarktentscheidungen ausschließlich aus Nachrichtenüberschriften gezogen. Jegliche Differenzierung in einem typischen „ja, aber“-Text, die es nicht bis in die Überschrift schaffte, fiel unter den Tisch. Mittlerweile ermöglicht es diese Software, auch 3.5 Der Weg zu RavenPack 109 längere Texte ohne Zeitverlust in Analysen einzubeziehen. Dabei zeigt sich, dass auf Schlagzeilen allein kein Verlass ist. Bei börsennotierten Firmen, stellte RavenPack fest, lässt sich die Bedeutung eines events zwar in rund der Hälfte aller Fälle schon aus der Schlagzeile der Nachricht entnehmen. Je bedeutender das Unternehmen ist, desto eher ist das so. Bei kleineren Firmen versteckt sich das Wissenswerte und Entscheidungsrelevante jedoch öfter irgendwo in der Tiefe eines Textes zu einem solchen Vorgang. Und es gibt auch chakteristische regionale Unterschiede: Zu US-Events, so zeigt die RavenPack-Erfahrung, sagt schon die Schlagzeile häufiger das Wesentliche als zu solchen aus der EU. Bei komplexen Texten, etwa bei Branchenberichten, fand RavenPack es bis 2016 in drei Vierteln aller Fälle nötig, in die Details eines Textes zu gehen. Mit ihrer 2017 weiterentwickelten Software sind es immer noch etwa zwei Drittel, was aber doch schnellere Ergebnisse zeitigt als bis 2016 möglich. Aus den Schlüsselzahlen für Einmaligkeit, Neuigkeitswert und Relevanz lässt sich nun abschätzen, wie wichtig die Börse ein Ereignis nehmen wird - ohne dass jemand dessen Inhalt im Detail geprüft hätte. „Die vorhergesagte Wirksamkeit unseres ESS-Signals und der REL beziehen sich positiv aufeinander“ erläutern die RavenPack-Leute, „und zwar so, dass eine höhere Bedeutung eines Ereignisses im Durchschnitt zu besseren finanziellen Ergebnissen führt.“ Eine Standard-Hypothese von RavenPack lautet also: Je höher der SIM- und der REL-Wert, desto ernster ist ein Ereignis zu nehmen und desto wertvoller ist dessen Analyse - erste Sahne, würden die RavenPack-Leute sagen, wenn sie deutsch sprächen, aber sie benutzen den englischen Börsenjargon, und dort heißt das alpha. Bei dem unglaublichen Tempo, in dem solche Bewertungen ablaufen müssen, in Millisekunden, sind die 24 Stunden eines Tages eine halbe Ewigkeit. RavenPack-Bewertungen gelten standardmäßig denn auch nur einen Tag - bis zum Börsenschluss des jeweiligen Tages. Bis zu einer halben Stunde vor diesem Glockenschlag werden sie aktualisiert. Kodierungen, also die Zuordnung von Schlüsselzahlen, erledigen RavenPack-Server in New Jersey und London, seit 2015 außerdem mit schnell wachsender Bedeutung web services in der Amazon cloud. Der entscheidende Vorzug der cloud ist nicht nur ihr geradezu unendlicher Speicherplatz, sondern vor allem das atemberaubende Tempo, mit dem Ergebnisse dort parallel registriert, verarbeitet und wieder ausgegeben werden. Verlangen Kunden, dass für herauszusuchende Daten einer Analyse bestimmte Filter benutzt werden, ist es eine Sache von Millisekunden, bis auch sie aktiv sind. Komplette Antworten mit Entscheidungsempfehlungen dauern nur Sekunden, in ungewöhnlich komplexen Sonderfällen allenfalls wenige Minuten. Allerdings sind Daten in der cloud anfällig für Missbrauch. Der cloud-Betreiber Amazon Web Services (AWS) weist deshalb ausdrücklich darauf hin, dass zwar er selbst für die Sicherheit des cloud-Systems verantwortlich ist, der cloud-Nutzer aber für die der dort eingestellten oder mit ihnen verbundenen Daten (AWS 2017). So bereitet RavenPack Antworten auf Die RavenPack-Software schält die im Finanzsektor für eine Entscheidungsempfehlung wichtigsten Informationen - normalerweise für oder gegen einen Wertpapierkauf oder -verkauf - in 70 Prozent aller Fälle in den schon genannten 200 Millisekunden heraus, und zwar dank der Parallelverarbeitung aller Datenschnipsel in der cloud ganz unabhängig davon, ob nur eine Schlagzeile auszuwerten ist oder ein mehrere hundert Seiten starker Forschungsbericht. RavenPack offeriert die gewonnene Expertise und die Handlungsempfehlung so schnell, dass Kunden nicht nur sofort reagieren könnten, sondern informiert gleichzeitig auch über die Zeitspanne, in der die Entscheidungsempfehlung gültig und damit sinnvoll anwendbar bleibt. In der Regel gilt eine finanzwirksame Entscheidungsempfehlung wie erwähnt für einen Tag. Dass nicht wenige Empfehlungen auch in einem Zwei-Tages-Zeitraum an- 110 3 Von Newton über Einstein wendbar bleiben, haben RavenPack-Experten eher mit Überraschung quittiert. In der Praxis reagieren in den meisten Fällen keine Menschen mehr, sondern Maschinen, sogenannte Aktuatoren, die aufgrund der RavenPack-Analysen Kauf- oder Verkaufsaufträge auslösen. Die wichtigsten Auftraggeber bei Banken und Fonds, die RavenPack-Analysen bestellen, sind selbst Datenexperten. Sie wollen als Ergebnis wiederum Daten, schnell und schnörkellos. Diese Kundengruppe macht aber nur rund ein Zehntel des Marktes aus. Für rund ein weiteres Viertel, das sich mit Auswertungs-Zahlenkolonnen allein nicht begnügt, stellt RavenPack deshalb auch Web-APIs bereit, also Auswertungsprogramme, die diese Kunden in ihre eigenen Datenverarbeitungssysteme integrieren können. Das stellt jedoch ebenfalls nur eine Minderheit des Marktes zufrieden. Die Mehrheit der Auftraggeber will Ergebnisse visualisiert haben - das Wichtigste auf einen Blick. Und sie bekommt sie: als Grafik zum Beispiel, die wie ein verrutschtes Schachbrett aussieht. Die Felder sind unterschiedlich groß, je nach der relativen Bedeutung des einzelnen Akteurs auf diesem Schachbrett. Die eine Feldfarbe ist rot (also Hände weg, verkaufen), andere sind grün (also zugreifen, kaufen), wieder andere zeigen Zwischentöne. Basis solcher Grafiken sind kuratierte, das heißt ausgewählte und priorisierte Ergebnisse von RavenPack-Analysen und Bewertungen zu börsennotierten Firmen, die das Unternehmen in einem bestimmten, den jeweiligen Kunden interessierenden Marktsegment für beachtenswert hält. Kunden können ein Such- und Auswahlraster auch selbst vorgeben, dann erhalten sie als Ergebnis „nur“ den sich daraus ergebenden Vergleich und dessen Bewertung. Mit der jeweiligen Schlussempfehlung liefert RavenPack ihnen aber den Zugang zu allen benutzten Quellen, so dass jede Einzelne sie nachlesen und sich ein eigenes vertieftes Urteil bilden kann. Solche Analysen liefern zunächst nur ein Augenblicksbild. Da sich die Quellenlage aber fortlaufend ändert, verändert sich zeitgleich auch das dargestellte Ergebnis. Und mit ihm schreibt RavenPack auch die Auswertung fort, und zwar in real time, verzögerungslos, trotz teilweise enormer Datenmengen nicht nur von Megabytes, sondern bis in den zweistelligen Gigabyte-Bereich. Das goutieren etwa drei Viertel der Kunden. Das restliche Viertel ist mit Offerten zu gewinnen, in denen RavenPack eigene und fremde Daten von Google oder anderen großen Datenhäusern miteinander verknüpft. Solche Analysen liegen wie erwähnt in einer Zeitspanne vor, in der man gerade einmal - nur einmal - mit den Fingern schnipsen kann: in 200 Millisekunden. Ebenso schnell, in Millisekunden, wirken sich solche Informationen in Kursentwicklungen aus. Große Organisationen, zum Beispiel Banken mit ihrem verzweigten Kundenbestand, wollen nicht nur Signale aus dem Umfeld verstehen und nutzen, sondern auch die Datengebirge ihrer eigenen Organisation. Das können Milliarden Dokumente sein, zigtausende Buchungsbelege an einem einzigen Tag. Diese auf herkömmliche Weise zu analysieren wäre völlig unmöglich. Die EDV einer Bank ist nicht darauf eingerichtet, solche Inhaltsanalysen ruckzuck zu bewältigen. Die RavenPack Software ist jedoch genau dazu da. Für eine internal documents analysis kann man sie dazu mieten. Ein solcher Auftrag wird in rund einer Stunde vielfach paralleler cloud-Rechenzeit erledigt. Normalerweise arbeitet die software allerdings in der Amazon cloud. Deshalb lässt sich nicht ausschließen, dass jemand unbefugt mitliest. Die Abläufe lassen sich aber auch in eine Firmen-cloud einbauen. So lässt sich Vertraulichkeit sichern. Dieses Leistungspaket hat seit eingen Jahren viel Beifall gefunden. Im April 2012 hat RavenPack bei den Technical Analysts Awards den Preis für das best specialist research gewonnen, also für die beste Analyse auf einem speziellen Gebiet, im Fall RavenPack auf dem der Aktienbewertung. Im Jahr darauf wird es im schon genannten Wettbewerb als bester spezialisierter Datenanbieter bewertet, und wieder ein Jahr später landet es in derselben Kategorie auf Platz 2. Seither baut das Team in Marbella seine Software weiter aus. Mehrere Entwicklungsstufen folgen rasch hintereinander. Ab November 2013 können die RavenPack-Com- 3.5 Der Weg zu RavenPack 111 puter täglich 22.000 Datenquellen auswerten. Im September 2014 geht bereits die vierte Version des RavenPack-Analyseprogramms an den Start. Es steigert den Analyseumfang gegenüber der Vorgängerversion um 70 Prozent. Aber diese Leistung ist teuer. Damit sie bezahlbar bleibt, muss das Marbella-Unternehmen sich möglichst konzentrierte Zugriffe auf Nachrichten beschaffen und vor allem mehr Kunden gewinnen, um die Kosten für die Ermittlung der Börsenrelevanz solcher Nachrichten auf mehr Schultern verteilen zu können. Die Antwort, die RavenPack auf diese Herausforderung wählt, ist sehr einfach: Nicht alles selber entwickeln, sondern Partner gewinnen und wenn möglich aufkaufen, die das entsprechende Know-How bereits haben. Also arbeitet das Unternehmen ab März 2015 mit einer Firma zur Verbreitung von Indikatoren für die Wertpapierbewertung namens Fact Setzusammen und ab Januar 2016 mit den Wharton Research Data Services zur Optimierung der Nachrichtenflut nicht zuletzt in Richtung soziale Netzwerke. Es geht Schlag auf Schlag weiter: Im Februar 2016 übernimmt RavenPack für sein USA-Geschäft Benzinga News, im Juli desselben Jahres Alliance News, um nach dem Brexit speziell für Großbritannien richtig aufgestellt zu sein, und ab Oktober dieses Jahres kooperiert es mit The Fly speziell im Hinblick auf das Big Data-Geschäft. Das rechnet sich. Denn die Kosten für grundsätzliche Analysen entstehen nur einmal, aber mit jedem zusätzlichen Abnehmer wachsen die Erträge. Die Analyse kommt also aus einer zentralen Hand und nur die Kundenberatung bleibt bei den übernommenen Firmen. Denn deren Kunden wollen weiter von ihren gewohnten Beratern betreut werden. Technologisch bleibt RavenPack weiterhin etwa so aufgestellt wie es das war, als Hardy es verließ. Natürlich aktualisiert das Marbella-Team seine Datenbanken, aber immer auf derselben bewährten Analyse-Methodik. Die Patente hat noch Hardy erzeugt. Seit der Trennung 2009 hat RavenPack nichts mehr patentiert. Von ihm, Hardy, seinem früheren Ziehvater, hat sich das Marbella-Team komplett emanzipiert. Präsident und CEO bleibt Armando Gonzalez. Ein Team von Spezialisten um Peter Hafez sowie zeitweise Marc Pandolfi, Kevin Crosbie, Jason S. Cornez und endlich Tania Calvo arbeitet ihm zu. Zweieinhalb Jahre nach der Modernisierung der RavenPack software vom Herbst 2014 folgt ein weiterer Finanzierungsschritt. Mit ihm steigt erstmals eine professionelle Finanzierungsgesellschaft bei RavenPack ein. Bis dahin ist deren Kapital ausschließlich von privaten Investoren gekommen. Dieser neue Finanzierungsprofi ist Draper Esprit, der erst 2006 in London gegründete westeuropäische Zweig des Global Draper Network mit Hauptsitz im Silicon Valley und Standorten rund um die Welt. Anfang 2017 wird das Investment von Draper bei RavenPack zunächst nur mit Handschlag besiegelt. Verträge sind noch nicht geschrieben und auch Geld ist noch keines geflossen. Doch bereits im beginnenden Frühjahr 2017 tritt ein Draper-Manager bei RavenPack öffentlich auf und erläutert, warum seine Firma in Marbella einsteigt: weil sie die Ansicht von RavenPack-Chef Gonzalez teilt, dass deren Big Data-Analysen zu den „anspruchsvollsten der Welt“ gehörten (RavenPack 2017a- 1). Für Investoren sind sie „eine vitale Informationsquelle“, so Yin Luo, der stellvertretende Chef der Wall Street-Firma Wolfe Research (cit. Cookson 2017). Bis zu diesem Zeitpunkt Anfang 2017 hat das RavenPack-Team die Zahl der für das Börsengeschehen analysierten Marktereignisse gegenüber 2014 vervierfacht und seine information ratio, also den Wert seiner Informationen für Börsenentscheidungen, nach eigener Einschätzung verdoppelt. Das vier Millionen-Investment von Draper Esprit versetzt RavenPack in die Lage, sein Team von bis dahin gut fünfzig Leuten aus zwanzig Nationen nach Bedarf zu verdoppeln (Coookson 2017). Es drückt im Gegenzug den Anteil der Münchner, also von Patentpool, am RavenPack-Kapital auf nur noch rund fünf Prozent. Rund 50 Prozent hält nun Draper Esprit, den großen Rest teilen sich Mitglieder des RavenPack-Managements. Wegen des 112 3 Von Newton über Einstein rentablen Geschäfts liegt der Marktwert des Unternehmens fünfbis sechsmal so hoch - würde RavenPack an der Börse gehandelt, würde das den Aktienkurs bestimmen. Der Wertanteil des neuen Geldes von Draper liegt deshalb bei 25 Millionen, so dass RavenPack nun insgesamt fast 50 Millionen wert ist. Auch wenn das ohne Börsennotierung erst ein theoretischer Wert ist: Die Möglichkeit eines Börsengangs deutet sich an. Das weiter im spanischen Marbella sowie in London, New York und New Jersey arbeitende Unternehmen RavenPack erarbeitet zu diesem Zeitpunkt Finanzmarktanalysen und -empfehlungen für Aktienkäufe und -verkäufe für rund einhundert Kunden im Finanzsektor, für eine ebenso spezialisierte wie konkurrenzversessene Kundschaft. Zu ihr gehört seit mehr als acht Jahren einer der größten Hedge Fonds der Welt. Mehr als die Hälfte der zehn weltgrößten Fonds nutzen die RavenPack-Daten, außerdem mehr als vierzig Institutionen und eine Anzahl Universitäten. Um alle Kunden bedienen zu können, greift RavenPack schon seit 2007 nicht nur auf die Nachrichtenkapazität von Dow Jones zurück, also auf Dow Jones Newswires, Barron’s und das Wall Street Journal, sondern analysiert mittlerweile auch 19.000 andere Webseiten von Firmen, Verbänden und Institutionen sowie social media bis hin zu blogs. Für rückblickende Vergleiche stehen siebzehn Jahrgänge des Dow Jones Newswire-Archivs in Papierform und zehn Jahre digitalisierter Dow Jones-Informationen bereit. Verarbeitet werden auch Nachrichten von Benzinga, Alliance News, The Fly und Fact Set. Auf diese Weise hat RavenPack insgesamt Zugriff auf Daten über 43.000 börsennotierte Unternehmen und deren Entwicklung, ihre Produkte und Dienste. Das gilt auch für die Entwicklung aller führenden Währungen und Zinsentwicklungen bis zu Kryptowährungen wie Bitcoin und für Nachrichten aus nahezu allen Staaten und staatlichen Organisationen sowie für Aussagen über rund siebentausend Schlüsselpersonen aus Politik und Wirtschaft in aller Welt. Insgesamt stehen auf der RavenPack Analytics-Kontaktliste rund 194.000 Adressen (RavenPack 2017). In den gut zehn Jahren von Januar 2007 bis März 2017 hat RavenPack aus allen diesen Quellen insgesamt 62 Millionen Nachrichten registriert, bewertet und kommuniziert. Die Finanzbranche verändert sich weiter Machine learning und Künstliche Intelligenz verändern die Finanzbranche weiter. DerFinancial Stability Board (FSB), ein internationaler Zusammenschluss zur Überwachung dieser Branche, nennt das diese technischen Hilfen große Vereinfacher. Mit ihnen könnten Aufsichtsbehörden und Unternehmen zum Beispiel Betrug schneller erkennen und Banken sich besser gegen Kreditausfälle absichern. „So soll es möglich sein, in Fällen, in denen es bisher zu wenig Daten für eine gute Analyse gab, durch Hinzunahme anderer Informationen, zum Beispiel aus sozialen Netzwerken, die Kreditsicherheit zu bewerten“ (t3n 2017a). Allerdings ist dieses Know-How noch nicht allzu verbreitet. Das zeigt die Antwort der Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin) auf eine Anfrage. Seit 2017 gibt es dort zwar ein Referat für „Finanztechnologische Innovationen“, das auch für marchine learning zuständig ist. Es beschäftige sich mit Kryptowährungen. Um machine learning wolle man sich „erst nach und nach“ kümmern (ibid.). Dazu muss das Referat, das zunächst nur aus Mathematikern, Ökonomen und Juristen bestand, erst um Programmierer und IT-Experten aufgestockt werden. Zugleich zeigt sich, dass Algorithmen den Finanzmarkt auch aushöhlen können. Wenn es nämlich eine Mehrzahl annähernd gleich gut informierter Marktteilnehmer gibt, wenn tendenziell alle am algorithmisch erzeugten Wissen teilhaben können, fällt der Startvorsprung in sich zusammen. „Es sieht so aus, als würden sich die Algorithmen selbst die Geschäftsgrundlage zunehmend entziehen. Mit ihren blitzschnellen Reaktionen sorgen sie dafür, dass die winzigen Margen, von denen sie profitieren, immer kleiner werden“ (Drösser 2016: 149). 3.6 Die Schloer Consulting Group wird geschaffen 113 Vielleicht wird sich der eine oder andere Börsianer dann an ältere Erfahrungen seines Gewerbes erinnern. Wer sich keiner ausgefeilten, aber auch teuren Software wie der von Raven- Packbedient oder von ihr keinen ausreichenden Nutzen erwartet, aber trotzdem an diesem Markt teilhaben will, kann nämlich auch erfahrungsgestützte einfache Regeln anwenden. Eine solche Regel lautet: „Wenn die Kurslinie einer Aktie die durchschnittliche Kursentwicklung aller Aktien von unten nach oben durchschneidet: kaufen! Durchschneidet sie die Kurslinie aber von oben nach unten: verkaufen! “ (Drösser 2016: 145). Das ist freilich eine Börsenempfehlung, die nur die momentane Kurstendenz nutzt. Klingt sie zu einfach? Es ist nur eine Regel. Ausgefeilte Programme wie das beschriebene „sind nicht mehr nur auf die nackten Kurszahlen angewiesen, sondern … handeln zunehmend wie ein guter alter menschlicher Trader - mit Erfahrungswissen, Faustregeln und aufgrund von Nachrichten aus der ‚wirklichen‘ Wirtschaft, nur dass sie dies mit erheblich größerem Detailwissen und ohne jegliche Emotion tun“ (ibid.: 150), allerdings auch nur so, wie sie ein Mensch zuvor programmiert hat. 33..66 DDiiee SSc chhllooeerr CCoonnssuullttiinng g GGrroouupp wwi irrdd gge es sc chha afff fe en n In Marbella hat Phil 2008 seine Koffer gepackt und ist in die USA zurückgekehrt, um sich als Multitalent nicht auf bloße Finanzdienstleistungen eingrenzen zu lassen. Auch Hardy will nach seiner Trennung von RavenPack sehr viel mehr tun als nur das, was man dort erfolgreich vermarktet. Als erstes beschafft er sich dazu einen Haftungsmantel, also eine Gesellschaft nach Art einer GmbH, die Haftungsrisiken abdeckt. Da er zunächst noch in Spanien wohnt, gründet er dort die Schloer Consulting Group (SCG), wie RavenPack eine SL, eine sociedad limitada. In dieser Firma treibt Hardy die Programmierung seiner Software voran und berät er bald auch Einzelkunden in Anwendungsfragen. Sie beginnt alsbald mit eigenen Datenanalysen für einzelne Firmen und Institutionen, die Hardy als Kunden gewinnt. Diese Kunden kommen nicht aus der Finanzwelt, sondern vornehmlich aus multinationalen Unternehmen, NGOs und Regierungen. Die SCG erarbeitet also Analysen für politische und allgemeine marktwirtschaftliche Zwecke und verkauft ihr Know-How an Regierungen, private Organisationen und große Einzelunternehmen. Sie macht damit auch Umsatz. So weit sie trotzdem Geld braucht, um ihre ehrgeizige Progammentwicklung finanzieren zu können, schießt Patentpool es vor und besorgt es sich wieder von privaten Investoren, denen diese Aktivitäten einleuchten. In der Region Marbella behält Hardy zunächst noch eine private Kontaktadresse bei dem deutschen Arzt Dr. Konrad Wienands, der seine Praxis schon seit Jahrzehnten im spanischen Urlaubsort Estepona hat und in medizinischen Fragen zu Hardys Beraterkreis zählt. Dieses Quartier gibt er bald danach aber auf und zieht zunächst nach Villeneuve an der französisch-monegassischen Grenze. Denn in Rede steht eine auf langfristige Zukunftsfragen der Computertechnologie und der Künstlichen Intelligenz angelegte Kooperation mit der Universität Nizza. Diese Pläne zerschlagen sich aber. Also konzentriert Hardy sich auf sein Beratungsunternehmen, die SCG, und entwickelt in ihr computergenerierte Analysen unterschiedlichster Art. Von Zeit zu Zeit arbeitet er auch im slowenischen Ljubljana im dort 2008 geschaffenen Supercomputing Center LSC ADRIA, bei seiner Eröffnung eines der zehn stärksten Rechenzentren Europas und zum Eröffnungszeitpunkt eines der fünfzig stärksten der Welt. Es ist von Anfang an darauf ausgelegt, Milliarden von Daten parallel zu verarbeiten. 114 3 Von Newton über Einstein In Ljubljana unterstützt Dr. Vladimir Kercan Hardys Team. Wie Hardy und Heiner ist auch er ein Quereinsteiger in die Welt von Big Data. Zur Analyse der Bewegung von Hydraulikmaschinen muss er Abläufe simulieren und benötigt dazu Supercomputer. Hardy nutzt die Ljubljana-Technik für andere, eigene Zwecke. Er lässt im großen Stil hier erproben, was die Quantum Relations-Software leisten soll. Dazu wird die Leistung der Anlage um weitere 2500 Prozessoren aufgestockt, so dass seither 25 Petabyte Daten in Echtzeit verarbeitbar sind. Immer wieder macht Hardy kurz in München Station, zunehmend häufiger auch in Bukarest in Rumänien, wo nicht nur gute Programmierer einfach und preisgünstig zu haben sind, sondern wo die SCG auch einen Kunden gewinnt, den rumänischen Chef des Inlandsgeheimdienstes in diesem ab 1990 demokratisch gewordenen Staat. Ihm liefert die SCG computerbasierte Ergebnisse der Meinungsforschung nach dem Motto: Wenn ihr Wahlen gewinnen wollt, solltet ihr Folgendes wissen und kommunizieren… Aber summa summarum verweilt Hardy kaum mehr als zwei Monate im Jahr an einem Ort. Denn meist ist er als Chef seiner Schloer Consulting Group bei deren Kunden rund um die Welt unterwegs. Sie kommen nicht aus dem Finanzmarkt, sondern aus der Wirtschaft und aus der Politik bis hin zu Regierungsstellen. Bald teilt Hardy mit, seine SCG bestehe „aus einem globalen Netzwerk besonders befähigter älterer und jüngerer Mitarbeiter aus fast jedem Managementfeld: Wirtschaft, Wissenschaft und Technologie“ und verfüge dazu, wie seine Webseite meldet, über ein Netzwerk freier „Experten auf den Feldern Recht, Finanzen, Wissenschaften, Energie, Ingenieurswesen, Medizin, computerbasierter Dienste einschließlich fortgeschrittener Künstlicher Intelligenz, der öffentlichen Verwaltung, der Diplomatie, der Sicherheit national wie global, der Erziehung und vieler anderer Disziplinen interdisziplinär und interkulturell“ - das klingt wie ein noch namenloses who is who einer der Top-Unternehmensberatungen der Welt. In den Wirtschaftszentren der Welt und bei den Regierungen großer Staaten rechnen sich Hardy und sein Team anfangs jedoch keine großen Chancen aus, für ihre Fähigkeiten und für ihre Software Interessenten zu finden. Dort hört man in erster Linie auf etablierte Akteure. „Wir haben bei Microsoft vor verschlossenen Türen gestanden“, erinnert sich Heiner. „Natürlich waren wir auch beim deutschen Software-Marktführer SAP. Wir waren mit unseren Software-Angeboten bei allen, die Rang und Namen haben. Hier in Deutschland will aber keiner davon viel hören. Also muss man dort hingehen, wo jemand uns zuhören will, zumal wir alles, was wir in ausreichend vielen Reports geschrieben haben, auch beweisen können. Dazu haben wir Dokumentationen gemacht. Finanziert wurden sie vorwiegend mit dem Geld von Kunden aus der Golfregion, aus Oman zum Beispiel, ein bisschen auch aus Rumänien, aber nicht aus zentralen Territorien wie Deutschland, England und USA.“ In kleineren Unternehmen und in regionalen Büros ist der Weg an die Entscheiderspitze kurz. Darauf setzen die SCG-Männer. Einer der Knoten in Hardys Netz ist Abu Dhabi, eines der sieben arabischen Emirate, die sich zu den Vereinigten Arabischen Emiraten (VAE) zusammengeschlossen und ihren Regierungssitz in dieser Wüstenstadt am Golf etabliert haben. Im Nachbaremirat Dubai, auf einer bei Nacht strahlend hell erleuchteten Wüstenautobahn nur eine Autostunde entfernt, arbeitet das für Middle East, Nordafrika und Europa zuständige Regionalbüro eines der größten Datenhäuser weltweit, Thomson Reuters. Als sich Heiner und Hardy die Chance bietet, über den rumänischen Unternehmer Daniel Moldoveanu in Abu Dhabi mit diesem internationalen Nachrichtenkonzern Kontakt aufzunehmen, greifen sie zu. Heiner erinnert sich: „Wir sie da hin gegangen, als genügend evidence vorlag. Aber wir haben nicht in der Deutschlandzentrale begonnen, sondern in Middle East, um genau zu sein: in deren Region Europe / Middle East / North Africa mit Sitz in Dubai. Das war ein klassisches top down-Marketing: Ich kenn‘ diesen Chef, und der wiederum kennt jenen Chef. Also lassen wir uns weiterempfehlen.“ 3.6 Die Schloer Consulting Group wird geschaffen 115 Middle East Reports Über diese Verbindung bekommt Hardy Ende 2013 Zugriff auf Nachrichtenströme im Mittleren Osten. Auf deren Basis produziert seine SCG ab 2014 Middle East Situation Reports, fünfbis über sechshundert Seiten starke Wälzer im DIN A4-Format voll mit erst teilautomatisch erstellten Nachrichtenanalysen aus der Golfregion, mit einer Bewertung dieser Nachrichtenlagen in unterschiedlichsten Handlungsfeldern und mit Handlungsempfehlungen, die Hardy und sein Team aus den Analysen ableiten. Monat für Monat produziert Hardys Mannschaft ein solches Buch. Jedes ist auf eine aktuelle Nachrichtenlage bezogen, untersucht ein Segment der Wirtschaft, einmal das Geschäft mit Rohöl, einmal die Landwirtschaft, einmal den Handel usw. und leitet aus den Schlussfolgerungen Handlungsempfehlungen ab. Diese Ergebnisse, eine Mischung aus Situationsanalyse und Handlungsempfehlungen, stellt Hardys Consulting-Firma eine nach der anderen ihren Gesprächspartnern in Middle East-Regierungsstellen und Firmenleitungen vor. Nicht nur Top-Manager der Wirtschaft und der Politik, auch Nahostspezialisten des britischem Geheimdienstes MI6 lesen diese SCG-Auswertungen und Schlussfolgerungen und stellen fest: „So etwas Präzises und Aktuelles hatten sie noch nie in der Hand. Das kannten sie gar nicht“, wie Heiner das rückblickend wertet. „Natürlich haben die da Hunderte von Agenten vor Ort, aber keiner von denen brachte die Lage so präzis auf den Punkt wie diese Papiere - und wenn doch, dann vielleicht einmal alle vier Jahre, so dass die Inhalte bei ihrer Veröffentlichung nicht mehr aktuell sein konnten, nicht so taufrisch wie unsere im Rhythmus von nur vier Wochen.“ Monat für Monat werden die Analysen immer feinschliffiger. Denn die Auswertungsprogramme lernen selbst auch hinzu. Liegen sie einmal irgendwo nicht auf dem Punkt, registrieren sie das selbsttätig, suchen nach Ursachen für die Abweichungen, rechnen dies in künftige Analysen mit ein und justieren sich selbst und damit die Güte ihrer Aussagen vollautomatisch: „Die trial and error-Quote, also das Verhältnis von Versuch und Irrtum, kann stetig sinken und die forecasts werden immer präziser.“ Monate lang verfasst er mit seinem Team situation reports für zunächst einen einzigen Entscheider auf der obersten Beraterebene einer Regierung unter dem Staatschef verfasst. Es sind tief gegliederte Analysen, messerscharf auf den Punkt gebracht und schlussendlich auf einer einzigen obenauf liegenden, blau unterlegten Seite zu Schlussfolgerungen, Warnungen und Chancen verdichtet und mit Entscheidungsempfehlungen versehen. Der Auftraggeber lobt diese Fleißarbeit sehr, schlägt sie auf, betrachtet das Frontfoto, überfliegt das Inhaltsverzeichnis und liest die blue section, die eine obenauf liegende Seite auf blauem Papier. Über die sechshundertundx weiteren lächelt er nur. Nach einiger Zeit stellt er allerdings fest, dass die Managementempfehlungen der blue section, also die auf dieser einen Seite, exakt stimmen, weil genau das eintritt, was Hardy prognostiziert hat. Nun will er mehr - aber nicht mehr Quantität, sondern mehr von dieser Qualität. Viel von seiner knappen Zeit verbrauchen dürfen diese Entscheidungsempfehlungen nicht. Es dauert nicht lange, bis außer dem britischen Geheimdienst MI6 auch Hardys Datenlieferant Thomson Reutersauf dieses Material aufmerksam wird. Daniel Moldoveanu, der frühere rumänische Geheimdienstchef mit seinem unvergleichlichen Netzwerk, kennt auch bei Thomson Reuters Middle East die richtigen Leute und fragt dort eines Tages: „Wie wäre es denn, wenn wir auch eure Daten analysieren? “ Als Basis für ein längerfristig erfolgreiches Analysegeschäft taugen seine voluminösen middle east-Expertisen nur sehr beschränkt. Das begreift Hardy bald. Da kommt das Interesse von Thomson Reuters gerade recht. 116 3 Von Newton über Einstein 3 3..77 DDiiee P Prriissmmaa AAnnaallyyttiiccss GGmmbbH H eennttsstteehhtt Die Chance, bei einer positiven Antwort am Thomson Reuters-Archiv partizipieren zu können, ist für Heiner und Hardy, Phil und Daniel der Auslöser, eine weitere Firma zu gründen, die - ähnlich wie zuvor RavenPack - Hardys weiter gewachsenes quantum relations Know- How nicht mehr nur in reports dokumentieren, sondern als Software marktreif entwickeln und in den Markt bringen soll. In Erinnerung an Hardys erstes Münchner Engagement bei Siemens namens Prisma wird diese Gesellschaft Prisma Analytics genannt. Dass der Name Prisma zu diesem Zeitpunkt schon belastet ist, spielt keine Rolle. Zwei Jahre zuvor, 2013, hatte der whistle blower Edward Snowden seine Tätigkeit bei der US-amerikanischen Sicherheitsagentur NSA quittiert und war nach Hongkong geflogen, um zwei Journalisten und einer Dokumentarfilmerin Hunderttausende geheimer NSA-Dokumente über weltweite und in tiefste Privatbereiche vordringende, Prism genannte Überwachungsprogramme der US-Regierung zu enthüllen (vgl. Gellman/ Gockel 2019) - frei nach Foucault, staatliche Macht müsse sich „mit einer ununterbrochenen, erschöpfenden, allgegenwärtigen Überwachung ausstatten“ und dazu überall „Tausende von Augen“ haben, „bewegliche und ständig wachsame Aufmerksamkeiten; ein weites, hierarchisiertes Netz“ (Foucault 2008: 920). Für die fast gleichnamige, aber völlig anders aufgestellte deutsche Prisma Analytics GmbH schreiben Heiner und Hardy einen business plan. Das dauert ein Vierteljahr. Dann, im Februar 2016, wird dieses Unternehmen nach deutschem Recht in München auf juristisch festen Boden gegründet. Als SCG CEO, also als Hauptgeschäftsführer seiner Schloer Consulting Group, zeichnet Hardy Anteile an dieser neuen Gesellschaft, in der er neben Heiner Miteigentümer und zweiter Geschäftsführer wird. Dritter im Bunde ist eine Genfer Firma namens Integrated Circels des rumänischen Unternehmers Daniel Moldoveanu. Ihre Arbeit nimmt diese Gesellschaft aber nicht in Deutschland auf - das ist von vornherein klar -, sondern in Rumänien, schon wegen des dort ganz anderen Gehaltsniveaus für Programmierer. Daniel bringt erstklassige Verbindungen zur Bukarester Universität in die GmbH ein. „Dass wir in unglaublicher Geschwindigkeit zu rumänischen Kosten und in so großer Zahl exzellente Programmierer einstellen konnten“, sagt Heiner dazu, „ist nur Daniel zu verdanken.“ Der kann über sein rumänisches und internationales intelligence-Netz auch zuverlässig abschätzen, was dort und was anderswo zu tun erlaubt ist und wem man, wenn man klug ist, besser nicht auf die Füße tritt. Seinen Münchner Geschäftspartner warnt er wenn nötig schon einmal: „Um das Land x machen wir derzeit besser einen größeren Bogen, sonst gibt es da Ärger.“ Heiner in München sagt dazu nur: „Wir fragen gar nicht: Wer hat das gesagt? Bekommen wir das schriftlich? “ Papier ist geduldig; einflussreiche Politiker und mögliche Geschäftspartner sind es nur selten. Wo in Bukarest die Arbeitsplätze für die Prisma Analytics GmbHhin kommen sollen, ist schnell entschieden: in Daniels Bürovilla im Zentrum der rumänischen Hauptstadt, eine stilvoll renovierte Jugendstil-Schönheit rumänischer Art. Unter dem Namen Integrated Circles war dort seine frühere verdeckte Beratungstätigkeit für die rumänische Regierung konzentriert. Inzwischen ist das Haus an verschiedenste andere Firmen vermietet. So wie die Mannschaft von Prisma Analytics sich findet und wächst, wird diesen Nutzern einer nach dem anderen gekündigt. Im Frühjahr 2016 stehen in dem Anwesen schon 50 Schreibtische der neuen GmbH dicht an dicht, im Sommer sind es bereits siebzig, und ein Jahr darauf, im Sommer 2017, muss das Unternehmen anderswo in Bukarest neuere, größere Räumlichkeiten beziehen. Eine Dependance arbeitet in Cluj, dem früheren Klausenburg in Siebenbürgen mit seiner lange Zeit deutschstämmigen Bevölkerung, die das Ceaucescu-Regime aber mit nicht endenden Repressionen weitgehend aus dem Land drängte. Die Universität Cluj ist für Programmierer eine gefragte Adresse, aus der sich das Unternehmen Prisma als personelle und intellektuelle Ressource bedient. 3.7 Die Prisma Analytics GmbH entsteht 117 Die Idee Situation Room Auf zwei Schienen schickt sich die Prisma Analytics GmbH an, ihre Software nutzbar zu machen. Die eine wird bereits im November 2015 in einem Vorvertrag zwischen dem global agierenden Nachrichten- und Datenunternehmen Thomson Reuters und der noch gar nicht offiziell eingetragenen Prisma Analytics beschrieben, für die einstweilen Heiner und Hardy bzw. deren Firmen Patentpool und SCG als Partner fungieren. Dieser Vorvertrag macht den Weg frei, das weltweite Kundennetz von Thomson Reutersin die Nutzung der Prisma Analytics Software einzubinden. Als beide Seiten sich so zu gemeinsamem Handeln verabreden, nutzen schon 300.000 Firmen und Institutionen Thomson Reuters-Datenauswertungen mit einer von TR entwickelten und seit Jahren erfolgreich eingesetzten Auswertungs-Software Eikon. Eikon ist ein Statistik-Programm mit vielen nützlichen Eigenschaften, aber nicht dafür ausgelegt, für Fragestellungen in Echtzeit Handlungsempfehlungen zu liefern. Auf der Anwenderebene, so ist das Thomson Reuters-Management überzeugt, wird Eikon auch weiterhin gute Dienste leisten. Prisma Analytics kann aber mehr; dieses Programm soll zusätzliche Einsichten in weltweite Trends mit ihren Chancen und Risiken besonders für Entscheiderebenen sichtbar machen und damit längerfristige Handlungsperspektiven eröffnen. Ab Ende 2016, so heißt es im Herbst 2015 - wie sich zeigen wird, vorschnell -, werde der Thomson Reuters-Außendienst mit seinen rund fünftausend Kundenberatern das neue Programm kennenlernen, es seinen Eikon-Anwendern vorstellen und Abonnements dafür verkaufen. Das ist die eine Schiene, auf der Prisma Analytics sich im Markt durchsetzen soll. Die andere Schiene haben die Prisma-Manager zu Anfang gar nicht intensiv auf dem Schirm. Sie wissen aber, dass sie die Leistungsfähigkeit ihrer Software ihren potenten Kunden überzeugend demonstrieren müssen. Also beschließen sie, für diese Klientel in Bukarest den Prototypen einer Kombination von Datenlabor und show roomzu schaffen, einen situation room, wie sie ihn nennen. Schildere mir deine Situation, soll das heißen, und ich errechne dir in diesem Raum aus unseren Daten deine Chancen und Risiken. Stelle mir eine Frage, je grundsätzlicher, umso besser. In diesem Raum bekommst du eine Antwort, die du verstehen wirst, eine kurze und knappe, klare und handlungsleitende Antwort. Wenn du dann willst, rufen wir dir in diesem situation room alle Details auf, die diese Antwort erzeugten. Aber wir prunken nicht mit einem Wald aus Bildschirmen, ganz im Gegenteil: Wir bringen unser Ergebnis so auf den Punkt, dass zunächst ein einziger Satz oder eine einzige Visualisierung von Zahlengebirgen genügt, um dir die Richtung zu zeigen. Dieser prototypische situation room soll als Machbarkeitsbeweis entstehen und dann für Kunden dort nachgebaut werden, wo diese einen solchen hin haben wollen. Das beeindruckt große Kunden gerade in Middle East nicht wenig. Solche situation rooms sollten direkt bei ihnen installiert werden, erklären sie bald und umreißen auch gleich das gewünschte Umsetzungsprinzip: Der CEO eines global agierenden Konzerns sollte von seinem Büro nur durch eine einzige Tür in seinen direkt anschließenden situation room gehen können um sich rückzuversichern, ob und wie er angemessen entscheidet. Über eine solche Erwartung lasse sich reden, sagt das Prisma-Team und überschlägt, was das organisatorisch bedeutet. Planung und Aufbau, Einrichtung und Programmierung eines solchen Raums werden drei bis vier Monate dauern. Denn jeder dieser Räume wird eine kundengerechte Maßanfertigung sein. Daher kann nur einer nach dem anderen entstehen. Etwa drei situation rooms pro Jahr glaubt man aufbauen können. Betreiben sollen die Kunden ihre situation rooms selbst. Eventuelle Benutzungsprobleme könnten nach aller Voraussicht Eikon-Kundenberater lösen, sobald sie in das Prisma-Programm tief genug eingestiegen sind. Zusätzlich plant Prisma ein help center, ein Auskunftsbüro, bei dem Kunden bei Software- Problemen Unterstützung bekommen sollen, falls sie einmal nicht selbst weiterkommen. Top-Kunden, so erwartet man bei Prisma weiter, werden solche situation rooms zu eigenen Prognoseabteilungen ausbauen. „Das wird personalintensiv werden. Ein solcher Service 118 3 Von Newton über Einstein muss sieben Tage pro Woche 24 Stunden am Tag dienstbereit sein. Das bedingt mindestens drei Schichten und eine zusätzliche Wochenend-Mannschaft. Falls die Nachrichtenlage es erforderlich macht, muss sie unverzüglich Alarm auslösen können. Einen solchen Apparat in den gewohnten Betriebsablauf eines Unternehmens oder einer Behörde einzuflechten, muss gelernt werden. Industriekunden“, sagt Heiner, „wissen das; ihnen ist klar, dass sie dafür Kapazität einsetzen müssen.“ Den ersten situation room soll eine von der Regierung der Vereinigten Arabischen Emirate 2002 in der Form eines Staatsfonds gegründete staatliche Aktiengesellschaft bekommen, die Mumbadala Development Company in der Hauptstadt Abu Dhabi. Mumbadala heißt auf deutsch Austausch und bedeutet sehr frei übersetzt auch Diversifizierung. Der Name ist Programm: Das Unternehmen soll die Wirtschaft der Emirate auf breitere Füße stellen, weg von begrenzten Öl- und Gas-Reserven. Es verfügt über die enorme Kapitalkraft von mehr als 63 Milliarden Dollar. Dass so viel Kapitalmacht über die bestmöglichen Früherkennungssignale in der ökonomischen Welt verfügen will, aber auch in ökologischen, sozialen und politischen Aktionsfeldern, liegt auf der Hand. Der zweite Interessent für einen eigenen situation room kommt aus der selben Region, aus dem Nachbaremirat, dem regionalen Wirtschaftszentrum Dubai. Dort sitzt, schon dem Namen nach global aufgestellt, die DP World, eine staatliche Investmentgruppe und einer der weltweit führenden Hafenbetreiber, ein wichtiger, aber kein einfacher Kunde. Der Chef des Unternehmens ist ein Chinese. Er hat über das Tagesgeschäft in allen 70 über den Globus verteilten Häfen seiner Organisation zu bestimmen. Grundlegende Entscheidungen kann er aber nicht ohne seine Kapitelgeber treffen, nicht also ohne die arabischen Scheichs, die die Emirate regieren. Besonders für sie gilt, auch wenn sie in Harvard studiert haben, dass sie Entscheidungen nicht gern auf der Basis abstrakter Daten treffen. Ein situation room mit Bildschirmen voller abstrahierender Verlaufskurven, Balkendiagramme und anderer Darstellungen wäre für den DP World CEO eine willkommene Hilfe. Aber seine Investoren, befürchtet das Prisma-Team, würden an einer so abstrakten Datenaufbereitung relativ bald das Interesse verlieren. Hardy hat nicht zuletzt solche VIP vor Augen, als er sich entschließt, in seinem Analyse- und Diagnose-System ohne solche theoretisierenden Darstellungen auszukommen. An ihre Stelle setzt er leicht erfassbare optische Signale. Zu den Großkunden, die Anfang 2016 auf der Liste der ernsthaften Prisma-Interessenten stehen, gehört auch die Regierung des südostasiatischen Staates Malaysia. Dieses Königreich ist einer der dynamischsten Staaten im ganzen südostasiatischen Raum. Ein Grund dafür: Vor zwei Jahrzehnten hat dort die Regierung entschieden, dass im Geschäftsleben die Hauptsprache nicht mehr malayisch, sondern englisch sein soll. Die Wirtschaft ist global sehr gut vernetzt. Wirtschaftsführer bekleiden zugleich hohe Staatsämter. Die Staatsführung machen vier Clans untereinander aus; die Königswürde wechselt alle paar Jahre reihum. Wer etwas erreichen will, braucht also nur mit wenigen Entscheidern zu sprechen. Da gibt’s nicht viel Raum für Debatten. Hardy kennt dieses Land gut; für einige Jahre hat er dort auch seine Wohnung genommen. Deshalb, aber auch über Daniels Netzwerk, kennen Heiner und er malaysische Regierungsvertreter, denen zugleich große Unternehmen gehören. Heiner berichtet im Frühjahr 2016: „Man trifft sich downtown, in einem 42-Loch-Golfclub mitten in der Hauptstadt Kuala Lumpur, in einem Riesen-Clubhaus auf einem riesigen Grundstück. Da sitzen diese Herren, die das Land und zugleich seine Wirtschaft regieren, und reden und feiern, und die Chauffeure warten draußen vor der Tür. Hardy und ich haben dort schon zweimal präsentiert. Zum Schluss gab’s einen Handschlag; und nun schau’n wir mal, wie es weitergeht - nächstes meeting innerhalb der nächsten zwei Monate.“ Es dauert aber nicht zwei Monate, sondern eineinhalb Jahre, bis Prisma Analytics und Malaysia zu konkreten Absprachen kommen. Malaysia hat landesweit rund tausend points of 3.7 Die Prisma Analytics GmbH entsteht 119 information installiert. Das sind Zentren, in denen Experten für die jeweils regionale Entwicklung wesentlichen Fragen nachgehen: Hier geht es um Wettervoraussagen für die Landwirtschaft, dort um Marketingbedingungen für Rohkautschuk, hier um die optimale Palmölproduktion, dort um politische Verflechtungen und Rücksichtnahmen. Jeder dieser points of information soll für einsolches Themenfeld das Kompetenzzentrum sein, das auf Fragen nach der richtigen ökonomischen und ökologischen Politik bestmögliche Antworten ermittelt und bereithält. Für jedes dieser Kompetenzfelder soll die Prisma Analytics Software unterschiedliche Daten analysieren und Empfehlungen extrahieren. Die Beschaffung qualifizierter Daten hierfür kann eine Herausforderung sein; programmiertechnisch aber sieht Hardy kein Problem. Denn Prisma hat ohnehin unterschiedlichste Kunden zu bedienen, die völlig unterschiedliche Fragen stellen und trotzdem maßgeschneiderte Antworten erwarten. Was dazu an Daten eingelesen wird, entstammt in erster Linie dem enormen Fundus von Thomson Reuters, aber natürlich auch nationalen und regionalen Quellen der jeweiligen Länder. Was ausgelesen wird, richtet sich nach dem jeweiligen Nutzer und seinem konkreten Bedarf. Der fällt von Kunde zu Kunde unterschiedlich aus. Also muss das System auch unterschiedliche, individualisierte Informationenermitteln und bewerten. Drücken zwei Personen in diesem System den gleichen Knopf, liefert das System ein zwar strukturell, nicht aber inhaltlich gleiches Ergebnis. Denn die Prisma Analytics Software verarbeitet in der Branche oder für den Kunden A andere Daten als in Branche B, in der Region C andere als im Land D und erzeugt deshalb auch für jeden Anfrager andere Rückschlüsse. Weil jedes Aktionsfeld jedes einzelnen Kunden unterschiedliche Erfolgsvoraussetzungen hat und deshalb unterschiedliche Informationenbenötigt, errechnet die Software jeweils spezifische Ergebnisse und Werthaltigkeiten. Prisma Analytics individualisiert seine Analysen für jeden Abnehmer aus Daten, die auf den einzelnen Kunden zugeschnittenen sind. In den vorgesehenen situation rooms wird diese Individualisierung nur auf die Spitze getrieben: Die in einem solchen Raum arbeitende Software leitet nämlich aus dem Datenkranz und aus der genauen Kenntnis über die Präferenzen des Nutzers Fragen, die ein Kunde haben könnte, schon systematisch ab, bevor er sie überhaupt stellt. Das versetzt dieses System in die Lage, im Hintergrund wahrscheinliche Antwortparameter schon vorauseilend zu errechnen und deshalb konkret gestellte Fragen unverzüglich zu beantworten, fast in real time. Sobald die Prisma Analytics Software ausgeliefert wird, soll das Prisma Analytics-Team in Cluj, das bereits seit einiger Zeit in vollem Betrieb und bislang vornehmlich auf den Nahen Osten fokussiert ist, im globalen Maßstab makroökonomische und geopolitische Analysen in Echtzeit produzieren. Das Team in Bukarest dagegen soll mit Prisma Analytics Einzelfragen oder ganze Fragenpakete von Einzelkunden beantworten und ihnen maßgeschneiderte Empfehlungen geben. Mit beiden Offerten beginnt Prisma Analytics mit RavenPack zu konkurrieren. Das bewerten die Prisma-Akteure indessen gelassen. Zur Erinnerung: RavenPack, ursprünglich von Patentpool in München gegründet und von Heiner und Hardy gemanagt, dann nach Marbella gezogen, geht dort seit 2007 - spezalisiert auf den Finanzmarkt - eigene Wege. Patentpool ist am RavenPack-Kapital nur noch mit fünf Prozent beteiligt. Hardy hat für die ebenfalls von Patentpool gegründete Firma Prisma Analytics die gleichnamige neue Software entwickelt, die Analysen und Handlungsempfehlungen für alle Managementfelder anbietet, keineswegs nur für den Finanzmarkt. Bei Patentpool heißt es deshalb: „Der Markt ist groß genug; er verträgt locker zwei Top-Firmen. Uns“, sagt Heiner weiter mit einem Lächeln, „ist natürlich lieber, wenn wir, Prisma Anlytics, das Rennen machen, schau’n wir mal. Ein gesundes Konkurrenzverständnis hat uns jedenfalls nie geschadet, gerade in der Frühphase nicht.“ 120 3 Von Newton über Einstein Empfehlungen auf Echtzeitbasis sind sehr gefragt Während das Prisma Analytics-Team in Bukarest und in Cluj diese Einschätzung zur Kenntnis nimmt und beginnt, sie umzusetzen, ist Hardy schon wieder auf Achse. Aus Südostasien berichtet er in die rumänische Hauptstadt: „In den letzten Wochen hatte ich zahlreiche Schlüsseltreffen mit früheren und aktuellen Beratern der ASEAN-Gruppe, NGOs und Regierungen aus dieser Region um zu lernen, welche Art von Analyse für sie von Nutzen sein könnte und um sie dazu zu bewegen, den Kauf von Lizenzen für die Geopolitik- Anwendung zu erwägen. Es war keine Überraschung für mich festzustellen, dass es nicht nur im Nahen Osten, sondern auch in Asien einen enormen Bedarf an der Belieferung mit content auf Echtzeitbasis gibt, der den CEOs wie auch den Exekutivabteilungen und Ministerien aller Regierungen hilft, die minütlichen Drehungen und Wendungen dieser komplexen Welt zu verstehen. Ich werde mit einem notebook voll von Anfragen nach Bukarest zurückkehren, mit allen Anforderungen, auf die wir Antworten anbieten müssen; Anforderungen, die wir allesamt erfüllen können, sogar sehr gut.“ Und weiter heißt es in Hardys Report: „Der Markt für den Inhalt geopolitischer und makroökonomischer Echtzeitanalysen ist sehr beachtlich und wird binnen Kürze das gesamte Potenzial von bisherigen Finanzanwendungen in den Schatten stellen, deren Markt wiederum schrumpft und in naher Zukunft gesättigt sein dürfte. Sogar Berater der Zentralbanken in der asiatischen Region, die sich historisch in der Regel eher auf reine Finanzdaten konzentrieren, haben mir gegenüber in der vergangenen Woche angedeutet, dass sie in Zukunft viel mehr benötigen werden als nur Zahlen. Sie brauchen Chancen-/ Risiko- Evaluierungen aus einer Vielzahl verschiedener Gesichtspunkte, die vor allem geopolitische Einflüsse und grundlegende Analysen von Megatrends und Makroökonomie einbeziehen.“ Bald darauf schreibt nicht Hardy, sondern ein Thomson Reuterscommodity specialist, also ein Experte für Nachrichten über bestimmte Warengruppen: „Anfang dieser Woche hatten wir das Vergnügen, das Prisma Analytics-Team auf zwei Treffen in Dubai und Abu Dhabi mit einigen der größten Unternehmen auf ihrem Gebiet in Middle East / North Africa bzw. sogar weltweit in Dubai begrüßen zu dürfen. Das feedback aus dem Publikum während dieser Treffen war gelinde gesagt hervorragend. Angefordert wurden sowohl Demos der App wie auch Machbarkeitsstudien für den situation room, und wir konnten wertvolles feedback über Reizpunkte und Herausforderungen zusammentragen. Hardy und wir alle werden in den nächsten Monaten nicht nur die Weiterentwicklung der EikonAppGlobal Dashboard of Risk and Opportunity verfolgen, sondern auch an dem Bukarester situation room arbeiten, um diesen als Machbarkeitsnachweis für alle künftigen Planungen nutzen zu können. Hardy und ich stimmten darin überein, dass es wichtig wäre, mindestens noch sechs ähnliche Treffen vor Jahresende im Mittleren Osten zu arrangieren.“ Der commodities specialist hat nicht nur in Hardy einen kenntnisreichen Adressanten, sondern auch in dessen Teamkollegen Muhamed Catic. Männer wie Catic können sehr genau einschätzen, wie viel „Musik“ in einer Nachricht wie der steckt, der Markt verlange weitere situation rooms nach Prisma Analytics-Manier. Hardy kennzeichnet die Aussichten seiner Firma mit den Worten: „In meinen Gesprächen mit potenziellen Kunden in der Welt der NGOs und Regierungen, aber auch mit Vorstandssprechern großer Unternehmen diskutierten wir oft die Auswirkungen neuer Technologien und ihre Bedeutung als primärer Einflussfaktor im wirtschaftlichen Wandel. In einer Welt, in der sich die Technologien Monat für Monat schneller und mit wesentlich mehr Einfluss auf die Welt entwickeln als es jemals zuvor geschehen ist, wird es zwingend erforderlich sein, den Zugang zu wissenschaftlichen und technischen Daten für das Prisma Analytics-Projekt dauerhaft sicherzustellen. Tatsächlich hat neben den CEOs und NGOs auch ein hochrangiger Vertreter einer Zentralbank hier in Asien mir gegenüber angedeutet, dass er äußerst großes Interesse an einer kontinuierlichen Analyse habe, die zwischen den aufstre- 3.7 Die Prisma Analytics GmbH entsteht 121 benden Technologie-Trends (bis zu 20 Jahre in die Zukunft) und deren zu erwartenden Auswirkungen auf den wirtschaftlichen und geopolitischen Verschiebungen in der Zukunft Korrelationen zeigt. Technologien unterscheiden sich nicht allzu sehr von Zahlungsmitteln; sie sind sich ähnlicher als man auf den ersten Blick glaubt.“ Und in „abschließenden Bemerkungen“ fasst Hardy zusammen: „Meine fortwährende Marktforschung in den vergangenen Wochen hat deutlich mehrere wichtige Aspekte bestätigt: Die Methodik und der zunehmende Vollkommenheitsgrad, mit der die Finanzbranche ihre Händler mit Echtzeitdaten und Informationen unterstützt, macht diese Infos nicht nur zu einem sehr mächtigen Werkzeug für die Finanzmärkte. Die Mechanismen ihrer Erzeugung und ihres Einsatzes sind auch auf Märkte voll skalierbar, die derzeit noch nicht mit Informationen auf dieser minütlichen Basis bedient werden. Einige Regierungsvertreter (einer von ihnen ein derzeit aktiver Minister einer asiatischen Regierung) sagten mir diese Woche, dass in seinem Land die meisten Analysen und Informationen oft um Monate verzögert erscheinen, und schlimmer noch: die Informationen seien in der Regel noch im Stil des 19. Jahrhunderts gestaltet, auf die lange Bank geschoben und oft nur als Jahres- oder Quartalsberichte aufbereitet. Zu dem Zeitpunkt, an dem die enthaltenen Informationen bewertet werden sollen, waren diese fast immer völlig veraltet und standen außerhalb jeglichen Zusammenhangs. Die politischen Führungseliten seines Landes aber brauchen einen Informationsstrom im Stil der Finanzindustrie mit Analysen und Informationen in der gleichen Art und Weise, in der sie Finanzhändler benötigen, um An- und Verkaufsentscheidungen schnelltreffen zu können. Warum sollte das bei multinationalen Unternehmen oder Regierungen anders sein? “ Graduell ist es aber anders, und der Grund dafür ist einfach: Multinationale Unternehmen und Regierungen sind im Gegensatz zu Akteuren im Finanzmarkt keine Ein-Zweck- Organisationen. Sie folgen nicht nur einem einzigen Indikator, nämlich dem Aktienkursindex, sondern müssen eine enorme Breite paralleler Prämissen und Konsequenzen bedenken. Die Analysen, die sie benötigen, müssen viel breitere inputs verarbeiten können als nur die für Finanzmarktempfehlungen. Diese inputs muss ein Partner bereitstellen können, dessen Nachrichtenströme entsprechend breit sind. Dafür kommt nur in Frage, wer im weltweiten aktuellen Nachrichtengeschäft tätig ist. Um diesen Partner für die Schloer Consulting Group und das Team von Prisma Analytics geht es im folgenden Kapitel. 2016 schreibt der schon erwähnte commodity specialist aus Dubai an Hardy nach Bukarest: „Ich bin überzeugt, dass sich die Entwicklung der Projektinhalte des in die richtige Richtung bewegt, und ich werde mit Ihrem Team in Bukarest nächste Woche daran arbeiten, dieses Projekt genau zu dem zu machen, was wir in den vergangenen Monaten besprochen haben. Wir sind sehr gespannt, dessen inhaltliche Qualität in die Thomson Reuters-Auswertungssoftware Eikon eingebunden zu sehen, und das so schnell wie möglich. In einer strategischen Partnerschaft zwischen Thomson Reuters und der Schloer Consulting Group / Prisma Analyticswollen wir das zu erwartende Niveau und die Detailtiefe der Analytik einem völlig neuen Publikum nahebringen. Ich glaube fest daran, und damit stehe ich bei Thomson Reuters nicht allein, dass wir Bloomberg wie auch anderen Anbietern Marktanteile abnehmen und mit dieser Form von Analyseverfahren neue Marktsegmente (Regierungen, NGOs, Hochschulen etc.) aufbauen können. Wir werden unseren Teil tun: Unsere Account-Manager, Vertriebsspezialisten und Marktexperten werden dafür sorgen, dass jeder Eikon-Anwender und -Interessent diese Inhalte kennenlernt und die erforderliche Schulung erhält. Nach heutigem Stand gibt es circa 200.000 Eikon-Anwender und circa 320.000 Bloomberg-Abonnenten. Vom ersten Tag an werden wir mit etwa fünftausend Top-Vertriebsmitarbeitern regelmäßig per WebEx konferieren. Wir erwarten, dass Sie ein Kundendienst-Call center zur Verfügung stellen, um die Kunden bedienen zu können. Bitte machen Sie in Ihrer Planung keine Fehler.“ 122 3 Von Newton über Einstein Der commodity specialist nennt Zahlen über Absatzchancen, die in Bukarest und in München aufhorchen lassen. Sie liegen weit über den vorsichtigen Prisma Analytics-Erwartungen. „Dies ist nur eine Schätzung“, teilt der commodity specialist mit, „die tatsächlichen Zahlen könnten bedeutend höher sein, geht man von dem frühen Interesse aus, das einige potenzielle Kunden an Ihrem Angebot haben. Einige werden nur eng definierte Analysen kaufen, andere wahrscheinlich weit über das reguläre Ausmaß hinaus auch große individuelle Lösungen bestellen.“ Der commodity specialist nennt damit ein Stichwort, dessen Tragweite er zu diesem Zeitpunkt kaum selbst abschätzen kann. Den Außendienst des Datenhauses Thomson Reuters zu munitionieren, ist ja eine Sache. Sie soll bis zum Herbst 2016 erledigt sein. Die „größeren individuellen Lösungen“ aber, von denen er spricht, haben Hardy und sein Team zwar im Fokus, jedoch noch nicht in ihrem Kalender. Es sind die situation rooms für Großkunden, von denen Hardys Team selbst bei Zurückstellung anderer Aufgaben nicht mehr drei im Jahr aufbauen könnte. Aber weniger Kraft für andere Aufgaben - das kommt gar nicht in Frage. So entsteht zunächst nur ein prototypischer situation room in Bukarest. Im Sommer 2017, als die Prisma Analytics GmbH dort in eine größere Büroetage umzieht,wird er aber wieder in Kisten gepackt und an den Prisma-Marketingstandort Barcelona gebracht, wo er mit neuer Software neu aufgebaut wird. „Der Ball ist in Ihrem Feld“, schließt der commodity specialist, „und es ist an Ihnen, daraus eine wesentliche Produktstrategie für beide zu machen, für Sie und Thomson Reuters. Wir haben alle Werkzeuge und die Infrastruktur, die den Erfolg für Ihr Produkt ermöglichen. Es ist nun an Ihnen, es zu implementieren und so zu unterstützen, wie wir es erwarten.“ Das weiß Hardy natürlich auch selbst. Thomson Reuters-Kunden steuern mit Eikon normalerweise ein klar umgrenztes Aktionsfeld. Haben sie Fragen zu stellen, dann wiederholen diese sich und lösen unterschiedliche Antworten nur dann aus, wenn sich Umfeldbedingungen und damit auch Chancen und Risiken des eigenen Handelns verändern und weiterentwickeln. „Für diese Zweckbestimmung ist die Thomson Reuters-Analyse-Software Eikon perfekt“, weiß Hardy - und ist doch überzeugt, dass er sie mit Prisma Analytics ausstechen wird. Einer seiner Kunden hat ihm gerade erst versichert, Echtzeitinformationen würden in Regierungskreisen binnen fünf Jahren zur gängigen Informationskultur gehören. „Wer immer als Erster diesem großen Markt die richtigen tools zur Verfügung stellt, wird diese Informationswelt beherrschen. All das bestätigt, dass wir mit unserer Strategie auf dem richtigen Weg sind. Natürlich wird es wie bei allen neuen Dingen anfangs Anpassungen und im Verlauf viele Optimierungen geben. Aber weil wir in vielen Bereichen die Ersten sind, habe ich keinen Zweifel, dass wir zu großen Gewinnern werden, wenn wir an diesen Strategien festhalten und sie weiter perfektionieren.“ Worauf Hardy anspielt, ist klar: auf quantum relations, sein Analyseprinzip, das als Instrument der Entscheidungsunterstützung unter dem Namen Prisma Analytics auf den Markt kommen wird. Top-Entscheider benötigen eine viel breitere, grundsätzlichere Unterstützung als Eikon sie liefern kann. Kunden, die für Konzerne oder Regierungen die Marschrichtung zu bestimmen haben, müssen grundlegende Richtungsentscheidungen treffen und erwarten dazu strategische Hilfen. 44 GGoollddsstta annddaarrdd ddeer r NNe ew wss Wie verbreitet sich dieses Know-How jetzt global? Einer der weltweit größten Datenkonzerne wird mit Prisma Analytics verbunden, so dass das System nun in Echtzeit jede menschliche Regung registrieren und verarbeiten kann. 4.1 Maschinenleistung und der menschliche Faktor 123 4.2 Wie Prisma Daten visualisiert 130 44..11 MMaasscchhiinneennlleeiissttuunngg uunndd ddeerr mmeennsscchhlliicchhee FFaakkttoorr Wirtschaftsbosse und Politiker fragen im immer dichter werden Datendschungel nach Orientierung. Deshalb vergeht nach der Gründung der Prisma Analytics GmbH noch nicht einmal ein Jahr, bis das in Bukarest arbeitende Team vertraglich gesichert oder per Handschlag abgesprochen außer einer nationalen Regierung auch eine Nationalbank und eine globale Unternehmensberatung zu seinen ernsthaften Interessenten zählt. Alle Entscheider solchen Kalibers - Hardy schätzt ihre Zahl weltweit auf eine Größenordnung zwischen 50.000 und 200.000 Personen - benötigen drei Arten von Informationen: Hinweise auf sich eröffnende Chancen, Warnungen vor neuen Risiken sowie Prognosen künftiger Zustände und Entwicklungen. Diesen nur auf der Basis von Millionen Daten befriedigend zu bedienenden dreifachen Bedarf bedientPrisma Analytics. „Dafür stellen wir großen Kunden wie Regierungs- oder Firmenchefs maßgeschneiderte situation roomshin. Dort finden sie alle auf sie zugeschnittenen Chancen, Warnungen und Prognosen.“ Vor dieser Königsklasse der Trendanalysen liegt das alltäglichere Feld der allgemeinen Kundenberatung. Eine erste voll funktionsfähige und intern fehlergeprüfte Anwendungs-Infrastruktur der Prisma Analytics- Inhalte will Hardy den 5000 Eikon-Kundenbetreuern bis zum zweiten Quartal 2017 zur Verfügung stellen. Einen Monat vor Fristablauf lieferter eine erste Version. Finanzanalytik und geopolitische Analysen Diese Prisma Analytics Software hat mindestens zwei sehr unterschiedlichen Kundensegmenten zu dienen. „Irgendwann ab Sommer“, schreibt Hardy in einem internen Papier, „werden wir es mit zwei völlig unterschiedlichen Gruppen von Nutzern zu tun haben: mit der Finanzindustrie, die offenkundig das Hauptaugenmerk von Thomson Reuters ist, und mit Führungskräften globaler multinationaler Unternehmen, NGOs und Regierungen, die schon immer den Schwerpunkt der Schloer Consulting Group darstellten.“ Beide Gruppen stellen nicht nur unterschiedliche Fragen, sondern arbeiten auch komplett unterschiedlich. Die Finanzindustrie „tickt“, wie die Arbeit von RavenPack gezeigt hat, im Sekunden-, ja im Millisekundentakt mit einem Horizont von gerade mal einem Tag. Regierungen, Konzerne und NGOs agieren viel langsamer, aber auch viel langfristiger. Beide Gruppierungen fragen unterschiedliche Auskünfte nach. Prisma plant folglich den Start zweier paralleler Auswertungssysteme, eines Pakets Finanzanalytik und parallel dazu eines für geopolitische Analysen. „Beide Anwendungen teilen sich erhebliche Mengen an Inhalten und Visualisierungen“, erläutert. Hardy das im Sommer 2016. Allerdings ergeben sich aus Finanzanalysen in erster Linie numerische Darstellungen und Indizes. Sie fußen auf Finanzbzw. Wirtschaftsdaten und auf der linguistischen Analyse von Nachrichten. Geopolitische Analysen hingegen be- 124 4 Goldstandard der News stehen nicht nur aus Zahlenkolonnen. Prisma reichert Zahlenreihen mit kommentierten Tickermeldungen an und erläutert so die Zahlen in einem geopolitischen und makroökonomischen Kontext. Zu dieser Form der Analyse gehört auch eine Nutzen-/ Risiko-Matrix. Sie erfordert die Darstellung komplexer Wechselbeziehungen zwischen prognostizierten Einflüssen und Trends.Beide Analyseformen, ist Hardy im Sommer 2016 überzeugt, nutzen dieselbe Methodik, aber stellen ihre Befunde unterschiedlich und mit sehr unterschiedlichem Zeithorizont dar und müssen nebeneinander existieren. Diese Überzeugung wird er binnen Jahresfrist jedoch komplett verwerfen, als die Weiterentwicklung der Prisma Analytics Software ihm eine Möglichkeit zeigt, beide Anwendungen aus einem Guss zu realisieren. Der „menschliche Faktor“ stört mehr als er hilft Das Prisma Analytics-Programm fußt auf Millionen data fusion objects (DFOs), also auf Daten mit ihren zugehörigen Metadaten. Jedes DFO hat bei Prisma seine eigene 18-stellige IPv6- (Internet-Protokoll Version 6)-Nummer, mit der sich Daten in Rechnernetzen paketweise übertragen lassen. Seit Februar 2016 lässt Prisma Analyticsjede IPv6-Nummer reservieren, die zu bekommen ist. Im Februar 2017 sind bereits Milliarden solcher Nummern für Prisma Analytics-DFOs vergeben, ein Jahr später viele tausend Milliarden. „Das ist wichtig“, erläutert Hardy, „da wir letztlich Billionen von Objekten in unserer Datenbank haben werden. Wir beschriften jedes einzelne Objekt (data fusion object) mit einem verallgemeinerten Satz von Metadaten, die wir einen ‘Pass‘ nennen, und betten jedes einzelne Objekt durch Zuordnung einer IPv6-Nummer in seine eindeutige abrufbare Biometrie ein“ (Schloer 2018). Prisma Analytics arbeitet dazu nicht mit eigener hardware, sondern ausschließlich in einer cloud. Das geschieht trotz immer wieder befürchteter Exklusivitätslücken bei der Nutzung fremder Computer nicht zuletzt deshalb, weil normale Festplatten zwar rund ein Jahrzehnt halten, weil beim Zusammenschalten Hunderttausender von Festplatten und bei gleicher Ausfallwahrscheinlichkeit statistisch betrachtet aber jede Stunde eine von ihnen „streikt“. Sie zu ersetzen würde Zeit brauchen Jede Form von Zeitverzögerung würde abgesehen vom Risiko des Datenverlusts aber das Prinzip real time unterlaufen. In der cloud, sagt Hardy, falle dieses Risiko weg - ein entscheidender Vorteil. Alle Informationen laufen in der cloud durch ein Wörterbuch, das unterschiedliche, aber sinngleiche Schreibweisen erkennt und Dopplungen vermeidet. Köln und Cologne, Aachen und Aix-la-Chapelle, Münchenund Munich sind ja keine jeweils unterschiedlichen Städte. Der Name des früheren lybischen Staatschefs Muhamar Al-Gaddhafi wurde in 20 führenden Medien auf 25 unterschiedliche Weisen geschrieben. Trotzdem muss eindeutig sein, um wen es jeweils geht. Zu diesem Abgleich kommt eine fremde Software zum Einsatz, das IBM- System Watson. Die Programmerung der Prisma-Analysen leistet das Team in Bukarest. Dabei kommt den Prisma-Programmierern ein Umstand entgegen: Anfangs hatten die Antworten, die ihr Programm zu erarbeiten hat, bis zu einem gewissen Grad noch auf dem gefußt, was Analysten, also Menschen, aus Fakten herausgelesen hatten, mithin auf deren Bewertung. Das hält Hardy aber für einen systematischen Mangel. Denn Analysten können von ihrem persönlichen Wertegerüst nicht einfach absehen. Hardys Konsequenz daraus klingt aufs erste Hinhören scharf: „Der Faktor Mensch ist der Tod klarer Faktenorientierung. Denn er bereichert unsere Entscheidungsfähigkeit nicht nur nicht, sondern steht ihr faktisch im Weg.“ Er hat das oft ausprobiert und ebenso oft in einer Art Spiel demonstriert, das als ‚stille Post“ allgemein bekannt ist. „Auf internationalen Konferenzen habe ich immer wieder einmal sechs Personen aus dem Publikum zu einem Experiment mit vorhersehbarem Ergebnis gebeten. Der ersten habe ich einen simplen, kurzen, rein faktischen Text zu lesen gegeben, etwa von folgender Art: ‚In einem Vorort von Philadelphia verlässt ein schwarzer Mann von etwa 50 Jahren an einem Werktag-Vormittag gegen zehn Uhr sein schon etwas baufälliges Haus. Er geht zu Fuß zur Post, um dort einen Brief aufzugeben…‘ 4.1 Maschinenleistung und der menschliche Faktor 125 und so fort -fünf simple Sätze. Die erste Person fragte ich dann, ob sie den Text verstanden habe - ja, hieß es, er sei ja nicht schwer - ob sie ihn sich habe merken können - ja, natürlich, ganz klar - ob sie ihn wirklich gut in Erinnerung habe - gewiss doch, warum fragen Sie denn? “ Dann hatte Hardy den Text jemandem zur Verwahrung gegeben und die erste Person gebeten, seinen Inhalt der zweiten Person so genau wie möglich weiterzuerzählen, diese zweite Person danach der dritten und so fort bis zur sechsten. „Diese sechste Person bat ich schließlich, die Geschichte in der Konferenz öffentlich vorzutragen. Unmittelbar anschließend bat ich denjenigen, der den Ursprungstext verwahrt hatte, nun diesen zu verlesen. Beide Versionen hatten regelmäßig nicht das Geringste miteinander zu tun. Das Publikum reagierte stets heiter-verblüfft. Es waren schließlich keine Kinder, sondern intelligente Leute, die da mitgespielt hatten, Teilnehmer internationaler Konferenzen. Sie konnten die Geschichte kaum vergessen haben, denn sie hatten sie ja gerade erst gehört.“ Für Hardy war die Sache ganz klar: Niemand redet nur an einen anderen hin. Stets geschieht etwas Komplexeres: Jeder Sprecher hat eine Idee von seinem Gegenüber, was der ist, wie der „tickt“, was ihn interessiert usw. Das gilt wechselseitig und verändert das zu Sagende automatisch. Außerdem hatten die sechs Personen, die da ‚stille Post’ gespielt hatten, hatten von persönlichen Präferenzen nicht absehen können. Was ihnen wichtig erschienen war, hatten sie besser behalten und farbiger weitergegeben als das, was sie als nebensächlich einschätzten. Erinnerungslücken hatten sie aus ihrer eigenen Erfahrung aufgefüllt und so die originale Geschichte immer weiter verändert. Sie hatten also ausgewählt und gewertet, so wie auch Journalisten aus der Masse ihrer Quellen auswerten, verdichten und werten. Das Ergebnis einer solchen journalistischen Arbeit ist die ‚Tendenz‘ ihrer Publikation. Wer viele Zeitungen oder Webseiten parallel liest, kann dann vergleichen und so seine eigene Urteilsfähigkeit schärfen. „Entscheider“, erläutert Hardy aus seiner Erfahrung, „haben dafür aber keine Zeit. Sie müssen bisher notgedrungen mit unvollständiger Information vorliebnehmen, die irgend jemand irgendwie vorausgewählt hat. Natürlich bringen sie zusätzlich ihre eigene Sicht der Dinge ein, was Entscheidungsvoraussetzungen nochmals subjektiver und damit fehleranfälliger macht. In solchen Analysen ist der menschliche Part also grundsätzlich ein Störfaktor.“ „We want you to feel the machine“ Analysen und die Entscheidungen, die sie auslösen, werden nach Hardys Überzeugung deshalb umso besser, je stärker sie auf der Leistung emotionslos arbeitender Maschinen beruhen, die zugrunde liegende Daten analysieren, und nicht auf Menschen. „We want you to feel the machine, to get in touch with the machine.“ Der Nutzer soll die Leistung der Maschinen erspüren. Und die sollen jeden Tag Tausende solcher auf individuelle Nutzer zugeschnittener Analysen produzieren, natürlich rund um die Uhr, sommers wie winters, werktags wie feiertags und stets auf die Sekunde aktuell. Hardy mechanisiert also das Verständnis von Information. Niemand soll die Parameter, nach denen eine Information ausgewählt und gewichtet wird, nach seinen Zielen gewichten - andere Nutzer könnten schließlich andere Ziele verfolgen. Wer das täte, steckte tief in subjektivistischem Denken. Wer dagegen Maschinen aus Fakten Schlüsse ziehen lässt, tut das auf neutralem Terrain. Denn Algorithmen errechnen Wahrscheinlichkeiten für das, was und wie etwas geschieht. Das tun sie aber mit so hoher Eintrittwahrscheinlichkeit, dass sich Entscheidungen darauf gut aufbauen lassen. Wer den ‚menschlichen Faktor‘ aus seinen Analysen möglichst heraushalten will, darf deren Gewichtungen noch aus ein em weiteren Grund nicht fraglos akzeptieren. Diesen Faktor bringen im Wesentlichen Analysten ein, die im Westen arbeiten und wie selbstverständlich westliche Bewertungen zugrunde legen. Das kann einseitig sein. Also sammelt und 126 4 Goldstandard der News bewertet Hardy ab 2016 systematisch auch arabische, afrikanische, indische, lateinamerikanische, russische, chinesische und südostasiatische Quellendaten. Thomson Reutersverfügt aus über zwei Jahrzehnten elektronischer Datenspeicherung (nicht gerechnet sein älteres schriftliches Archiv) zwar schon mehr als 22 Millionen Einzelnachrichten. In Hardys Speichern tragen diese aber alle die Metainformation western, denn sie wurden, wie er sagt „durch eine westliche Brille betrachtet“. In seinen eigenen Speichern liegen bald vier Millionen zusätzlicher Datensätze (in seiner Sprachedata fusion objects) aus anderen Weltregionen, mit denen er diese Einseitigkeit der Weltbetrachtung ansatzweise ausgleicht, zwar durchweg in englischer Sprache, aber zumindest von Akteuren anderer Weltregionen ausgewählt, formuliert und verbreitet, also stets durch deren Brille betrachtet. Kaum ein anderes Analysesystem ist so breit aufgestellt. Der Fokus auf Englisch lässt lateinamerikanische, zentralasiatische, innerafrikanische und andere Quellen dennoch unterrepräsentiert. Erst der systematische Einsatz von Übersetzungs-Software wird das ausgleichen können. Die Zugriffsmöglichkeit zu westlichen und nicht-westlichen Informationsquellen ermöglicht Prisma ein besonderes Augenmerk auf die Verbreitung zum Beispiel neuer Technologien. Innovative Lösungen mögen in ihrer großen Mehrzahl aus den USA oder aus der Alten Welt kommen; die Weltmeister im Adaptieren solcher Innovationen leben aber in Asien. Das hat unter anderem mit der demografischen Entwicklung zu tun. Europa hat ähnlich wie Japan alternde Gesellschaften; in den ASEAN-Staaten leben vorwiegend junge Menschen. In Deutschland ist die Aufbruchsstimmung der 1960er Jahre Geschichte, dort blüht sie auf - ein Grund dafür, die Demographie in alle Analysen mit einfließen zu lassen. Demografische Kennzeichnungen von Daten gehören zu den Metadaten, die die eigentlichen Informationen umgeben. Zusammmen ergeben sie das jeweiligedata fusion object (DFO). Metadaten sind quasi der Datenpass. Mit der IPv6-Nummer lassen Daten sich finden und anhand der Metadaten qualifizieren, jedes einzelne Objekt von der Quelle der Information über den Zeitpunkt der Aussage und ihren Charakter (Faktum, Vermutung, Erwartung, Befürchtung usw.), über den geografisch-kulturellen Hintergrund (western, eastern, far eastern, african usw.) und so fort bis zur Evidenz (was über die Wirksamkeit dieser Information bekannt ist) und zur Konsequenz (welche Wirksamkeit zu erwarten ist). Zu jedem DFO gehören durchschnittlich rund zwei Dutzend solcher mitprägender Randbedingungen und viele hundert Umfeldeinflüsse. Wegen der vielfältigen Wechselbeziehungen einer einzigen Randbedingung mit allen anderen ergibt das bis zu 200.000 Einflussgrößen. Der Kristall, durch den Prisma zu schauen hat, ist also wahrhaftig komplex. Nur Maschinen mit der Fähigkeit zur Parallelverarbeitung von Millionen Datensätzen zur selben Zeit können das leisten. Diese Entwicklung, die hier nur umtissen werden kann, ist mathematisch anspruchsvoll und technisch komplex. Als wäre das nicht schon eine ausreichende Herausforderung, kommen nun aber doch noch menschliche Temperamente mit ins Spiel. Szenen einer Firmenehe Während Hardys Prisma Analytics-Team diese Algorithmen entwickelt, hat seine Gesellschaft bei Thomson Reuters die Managementebene Middle East übersprungen. Die Gespräche über eine intensive Zusammenarbeit laufen mittlerweile in der Thomson Reuters-Zentrale in London. Auch ein Mitglied der Firmenleitung aus Nordamerika ist mit von der Partie. Aber die Verhandlungen ziehen sich hin. Denn der data scientist Hardy und die im Marketing geschulten Thomson Reuters-Nachrichtenhändler ‚ticken‘ nicht gleich. Berufshintergrund und Temperament lassen sie die gemeinsamen Ziele unterschiedlich bewerten. Nur langsam nähern die beiden Vorstellungswelten sich an. Darüber geht das Jahr 2016 zu Ende. Für Anfang 2017 verabredet man aber Nägel mit Köpfen. Im Februar 2017 fährt Thomson Reuters eine Testreihe zur Integration des Prisma Software- Pakets in die Systemwelt von Eikon. Auf der Prisma-Seite reagiert niemand nervös. Alle vor- 4.1 Maschinenleistung und der menschliche Faktor 127 ausgelaufenen Tests sind völlig problemlos verlaufen. Endet auch dieser wie erwartet, soll die Thomson Reuters-Mannschaft im März mit einer Kombination von Eikon- und Prisma- Analysen in die Märkte ausschwärmen. Wie abgesprochen soll die Prisma Analytics Software ab dem zweiten Quartal 2017 weltweit eingesetzt werden können. Zu früh gefreut: Mit der Auslieferung an Thomson Reuters geht sie noch nicht in Betrieb. Die Computersysteme beider Unternehmen sind nun sind gewissermaßen verlobt, aber noch längst nicht verheiratet. Vielmehr beginnt nun eine mehrere Monate dauernde Phase, in der die zwei Systeme zueinander voll kompatibel gemacht werden müssen. Natürlich hat das Prisma-Team seine Software so entwickelt, dass sie sich geschmeidig an die von Thomson Reuters andocken lässt. Aber wie stets steckt der Teufel im Detail. Die Anpassung zieht sich hin. Sie dauert Monate. Vordergründig geht es um technische Fragen. Aber im Hintergrund spielt mit, dass da zwei Firmenkulturen zu verheiraten sind. Deshalb geht es nicht nur um Technologien, sondern auch um Temperamente. Was nun geschieht, hat Vorbilder in vielen Firmenfusionen, in denen alle Managementaspekte ausreichend klar abgesprochen zu sein scheinen und dann aber doch zwei Welten aufeinanderprallen, die unterschiedlicher nicht sein können. Prisma Analytics ist zu diesem Zeitpunkt, im Frühjahr 2017, ein Unternehmen von 60 bis 70 Personen in Bukarest und in Cluj. Die meisten von ihnen sind junge Programmierer, fast alle weiblich, weit überwiegend rumänische Jungakademiker, intelligent, ehrgeizig und fokussiert auf ein einziges Ziel: die Vision zu realisieren, die Hardy ihnen vorgegeben hat. Wenn nötig kennen sie keinen Büroschluss, nicht am Abend, nicht in der Nacht, nicht am Wochenende. Eingespielte Verbindungen gibt es außerdem zu der nicht zu Prisma gehörenden Mannschaft des Supercomputing Center LSC ADRIA im slowenischen Ljubljana. Und im katalanischen Barcelona wird ein kleines Team aus Marketingexperten in die Prisma Analytics GmbH integriert. Die Prisma-Leute leben die Überzeugung, dass es ein Instrument geben muss und geben wird, das Sachverhalte aller Art und beliebiger Komplexität glasklar analysiert und einfach auf den Punkt bringt. Es muss ein Computerprogramm sein. Denn selbst ein routiniertes Team könnte den Wust von Einflussgrößen, die zu berücksichtigen sind, nicht mehr durchschauen. Eine Software muss deshalb Entscheidungsempfehlungen ermitteln und im richtigen Moment anbieten - so klar, als liege eine andere Weichenstellung vernünftigerweise außerhalb jeder Diskussion. Das ist ein mathematisch eindeutig definiertes und mit mathematisch-wissenschaftlicher Präzision zu realisierendes Ziel. Thomson Reuters hingegen hat nicht nur viel mehr Mitarbeiter, sondern ist auch viel verzweigter und komplexer aufgestellt. Es ist nicht eine Kompanie von Kämpfern für ein einziges Ziel, sondern eine aus unterschiedlichsten Truppenteilen in unterschiedlichsten Uniformen mit unterschiedlichsten Führungsstrukturen durchsetzte Armee. Auch sie hat Ziele - welche, ist angesichts der molluskenartigen Struktur zumindest für den Außenstehenden aber nicht immer ersichtlich. Es sind jedenfalls Ziele im Plural. Manche Truppenteile verfolgen eigene Marschrouten. Vielleicht muss das in großen Organisationen so sein, damit sie nicht unbeweglich werden. Es führt allerdings zu zersplitterten Zuständigkeiten. Truppenteil A besitzt Munition, im Fall Thomson Reuters Informationen, mithin Daten. Über den Transport entscheidet Truppenteil B, über den Einsatz oder gar die Weitergabe an Außenstehende aber Truppenteil C. Bevor sich A nach Diskussion mit B die Zustimmung von C einholen kann, werden bei B aber Stühle gerückt - und der neue Befehlshabende weiß noch von nichts. Bis er auf dem Laufenden ist, vergeht natürlich Zeit, und in der hat sich der Generalstab entschieden, dass er C nicht mehr braucht. Also wird nicht die in Rede stehende Datenmunition verkauft, sondern erst einmal der Verkäufer C. Bis neue Vereinbarungen mit neu zuständigen Gesprächspartnern ausgehandelt sind, vergeht selbstverständlich wiederum Zeit. 128 4 Goldstandard der News Nicht nur diese unterschiedlichen Strukturen erweisen sich als Bremsklötze für die vereinbarte Zusammenarbeit, sondern auch divergierende Temperamente. Hardy denkt, plant und handelt als data scientist. Sein credo ist die Mathematik. Die ist, was sie ist. Punktum. Thomson Reutershingegen ist market driven, orientiert sich an den Wechselfällen des Marktes, denkt und handelt in Marketing-Kategorien. Diese beiden Kulturen haben nur begrenztes Verständnis füreinander und, ärger, ihre Protagonisten nicht immer die Zeit und die Nerven, allzu tief in die Wenns und Abers der jeweils anderen Seite einzutauchen. Der eine denkt in IT-Kategorien, die anderen in Marketing-Prioritäten. Folglich reden sie immer wieder einmal aneinander vorbei. Aber die Gespräche gehen doch schlussendlich voran. Sie ermutigen Hardy, nicht die Analysemethodik, wohl aber die Darstellung der Ergebnisse nochmals auf den Prüfstand zu stellen. Denn aus den situation reports hat er gelernt: Was zählt, ist die blue section, die Zusammenfassung auf einen Blick. „Ein Top-Manager nimmt sich für ein Thema, über das er zu befinden hat, zwei bis sechs Minuten Zeit - die Zeit, die er für die Lektüre einer Seite Text und für vielleicht noch eine Rückfrage braucht“, lautet Hardys Erfahrung. Er kennt die Fragen, die Entscheider ihm üblicherweise stellen: „Welche Dynamik steckt in den Prozessen, die mein Geschäftsfeld betreffen? Wo kann ich beherzt zugreifen? Wo sollte ich besonders aufpassen? Was muss ich auf jeden Fall tun? Wenn ich entscheide: Wen muss ich beauftragen, dann was zu erledigen? Was darf ich auf keinen Fall zulassen? “ Und Hardy weiß auch, was dann meistens folgt, nämlich der Appell: „Halten Sie mich nicht lange mit Erklärungen auf. Kommen Sie klar auf den Punkt. Wenn ich mich für A entscheide, welche Konsequenzen hat das, wenn für B, welche dann? “ Akzeptiert der Manager dazu einen Rat, muss der genau auf dem Punkt sitzen. Lange Vorträge, komplizierte Darstellungen helfen da nicht. „Was soll ich tun? wird er fragen. Die Antwort muss kurz und klar sein, sollte nicht mehr als fünf Wörter umfassen, maximal zehn. Ein Satz also, nicht mehr. Aber der muss es in sich haben. Und dazu muss er auf einer unglaublichen Menge von Daten beruhen.“ Nach dieser Maxime strukturiert Hardy nun sein Analyse- und Prognosesystem: Ein einziger Satz erläutert die wichtigste Chance, ein zweiter die größte Gefahr. Ein Satz, wenn möglich gar nur ein Stichwort, umreißt die Handlungsempfehlung. Ein wenig funktioniert das wie die aus dem Marketing-Bereich bekannten SWOT-Analysen, zusammengesetzt aus S(trengths), W(eaknesses), O(pportunities) und T(hreats), also Stärken und Schwächen und daraus abgeleiteten Chancen und Risiken - nur mit dem entscheidenden Unterschied, dass Hardys Analysen auf der bisher unerreichten Leistung ausgefeilter Big Data-Analysen fußen. Alles Wesentliche auf einen Blick Im Frühsommer 2017 liegen Prisma Analytics-Bildschirmdarstellungen vor, die komplexeste Sachverhalte in sehr einfache Texttabellen verdichten. Sie bereiten die Inhalte nach dem Muster der blue sections früherer situation reports tabellarisch auf. Für jeden abgefragten Sachverhalt gibt es ein Textfeld mit einem kurzen, bündigen Satz über die wichtigste Chance und über die größte Gefahr, dazu grafisch aufbereitete Trends und Hintergrundinformationen für die Nutzer, die diese Details näher kennenlernen möchten. Mitte 2017 ist dieses Produkt auslieferfertig. Thomson Reuters-Vertriebsleute, die es zu Gesicht bekommen, sagen: Her damit - genau das wollen wir haben. Aber auch dieses Analyse-System verlässt die Prisma-Büros in Bukarest, Cluj und Barcelona gar nicht erst. Denn Hardy ist noch immer nicht zufrieden. Seine tabellarischen Darstellungen solcher Fakten, Konsequenzen und Handlungsempfehlungen bleiben deshalb trotz ihrer inhaltlichen Qualität noch unter Verschluss und können es auch noch bleiben. Denn noch haben sich Prisma-Programmierer und Thomson Reuters-Marketingleute über eine für die Zusammenarbeit wesentliche Detailfrage nicht einigen können. Sie betrifft die Thomson Reuters-Datensätze, die Prisma Analytics analysiert und bewertet. 4.1 Maschinenleistung und der menschliche Faktor 129 Für die Spezialisten des Nachrichtendienstes Reuters sind Daten die einzig relevante Ware. Es sind schließlich die news, die sie vermarkten. Metadaten informieren „nur“ über die Bedingungen, unter denen die Daten entstanden. Sie sind für die news-Leute ein kurioser Ballast, den in ihrer Organisation bitteschön andere Unternehmenssparten verwalten sollen, wenn diese das denn für wesentlich halten. Prisma aber benötigt diese Metadaten mehr als alles andere, weil nur sie den Kontext erkennen lassen, der Daten umgibt: woher sie kommen, wie alt sie sind und so fort. Von den news people bei Thomson Reuters sind diese Metadaten nicht zu bekommen. Die Abteilungen, die sie verwalten, verweisen darauf, der Liefervertrag für Daten an Prisma sei mit dem Firmenbereich geschlossen worden, der die Nachrichtendaten besitzt, nicht mit ihnen. Man möge sich bitte an die anderen halten. Irgendwann platzt Hardy der Kragen: „Den Stoff, den ich von Ihnen haben möchte, muss ich nicht bei Ihnen besorgen. Ich kann ihn auch von Yahoo beziehen. Da kann ich ihn einfach herunterladen. Das kostet mich keinen Cent. Und wenn mir das nicht gefällt, gibt es noch zwanzig andere Lieferanten geeigneter Daten. Es ist nur die Frage der Datenaufbereitung, die mich veranlasst, in erster Linie nach Ihren Thomson Reuters-Daten zu fragen. Unsere Systeme sind inzwischen kompatibel; das macht bei der Datenaufbereitung alle Anpassungsschritte entbehrlich. Es ist nur diese Bequemlichkeit, die Sie anderen Datenlieferanten voraus haben.“ Den Gesprächspartner beeindruckt das nicht im Geringsten. Es dauert vier Monate, bis Hardy die makroökonomischen Daten mit ihren Metadaten erhält. Noch nach weiteren Monaten ist diese Metadaten-Bataille nicht ausgestanden. Das zeigt gerade einmal einen Monat vor dem verabredeten Prisma-Produktstart - dafür ist der 6. Oktober 2017 verabredet - ein Telefonat zwischen beiden Seiten. Hardys Ansprechpartner bei Thomson Reuters Middle East ist in der Leitung. Lange hört Hardy ihm zu, wortlos, reglos. Nur einmal sagt er: „Perfect“. Sonst sitzt er geraume Zeit schweigend da, verdächtig geduldig, verdächtig stumm. Wieder geht es um Metadaten. Er wartet lange. Dann verweist er auf den geplanten Prisma-Starttermin im Oktober. Es klingt ein bisschen wie eine Drohung, wenn er hinzufügt: Entweder Sie kommen mit Ihren Metadaten rüber oder ich löse das anders. Wenn ich von maschinenlesbaren Daten spreche, dann spreche ich automatisch von Metadaten. Einfache Nachrichten zu transportieren ist keine Kunst. Sie interessieren mich nicht einmal. Sie zu analysieren und zu bewerten ist nämlich ohne Metadaten nicht möglich. Textdaten ohne Metadaten machen für mich keinen Sinn. Das einzige, was Maschinen sinnvoll lesen und auswerten können, sind Metadaten. Ich wusste nicht einmal, dass Sie Daten ohne Metadaten überhaupt im Angebot haben. Sie sind ein Marketingmann. Für Sie machen Nachrichtendaten ohne Metadaten absolut Sinn. Ich aber bin ein wissenschaftlich arbeitender Analyst. Für mich machen Daten ohne Metadaten keinerlei Sinn.“ Sieht sein Gegenüber ein, was Hardy bewegt? Hardy wartet. Einmal sagt er kurz „ja“. Dann wartet er weiter. Er wartet lange. Von seiner Seite nun eisiges Schweigen. Doch dann bricht es aus ihm heraus: „Nein! Nein, nein, nein, nein. Zwei oder drei Tage darf das noch dauern, aber nicht Wochen.“ Wieder tritt eine Pause ein. Fast eine Minute lang sagt Hardy kein Wort. Dann nochmals: „Nein, nein, nein, nein, nein. Nein, nein, nein, nein, nein, nein. Nein, nein. Nichts davon. Das interessiert mich alles überhaupt nicht, und ich will es auch gar nicht hören. Das berührt meine Domäne nicht im Geringsten. Ich kümmere mich um die Technologie und um sonst gar nichts. Und ich spreche mit niemand anderem über etwas anderes als über Technologie.“ Wieder tritt eine Sprechpause ein. Noch einmal bekräftigt Hardy dann seine Domäne. „Was Sie im Oktober sehen werden, wird Sie umhauen, it will knock you out of the door, I promise you.“ Als gelernter, höflicher US-Amerikaner bekommt er am Schluss des Telefonats dann doch noch die Kurve. Denn auf das, was er nun hört, sagt er nur noch: „Brilliant, phantastic. Yes, absolutely.“ Er bekommt endgültig auch alle Metadaten, die er für seine Analysen und Bewertungen benötigt. 130 4 Goldstandard der News 44..22 WWiiee PPrriissmmaa DDaatteen n vvi issuuaalliissiieerrtt Zwei wesentliche Weichen muss Hardy noch stellen, nachdem er im Sommer 2017 die Auslieferung seiner Software auf den Herbst desselben Jahres vertagt hat. Die eine steuert, wie die Person des jeweiligen Anfragers in die Analyse integriert wird, die andere die Art und Weise, wie ihm die Antworten dargestellt werden. Die erste Weiche führt dazu, dass die Analyse für den jeweiligen Kunden Maßanzüge erzeugt. Denn sie verarbeitet nicht nur data fusion objects (DFO) über Sachverhalte, sondern auch über den Auftraggeber. Auch jeder Anfrager ist ein DFO - das ist einer der Grundbausteine von Hardys System. So wie Umfeldbedingungen verflochten sind, so sind sie es auch mit der Person, für die die Analyse erstellt wird. Und so, wie sich Umfeldbedingungen mit der Zeit verändern, verändern sich auch das Weltbild, die Motivation und das Verhalten der jeweiligen an Analysen interessierten Person. Jede Aussage, die das System berücksichtigt, muss daher einen genauen Zeitstempel enthalten. Die Algorithmen, die die Analysen erstellen, rechnen das ein. Außerdem: Anfrager und System sitzen nicht wie zwei voneinander unabhängige Gesprächspartner gegenüber. Nie geht es um die nackte Realität, sondern immer um Vorstellungen darüber, was diese enthält. Diese ermittelt das Analysesystem, etwa aus der Art der Fragen, die jemand stellt, sowie aus der Art, in der er Antworten gewichtet und aus allen sonst erkennbaren Reaktionen. „Nach einer Woche, in der ein Anfrager unser System nutzt“, sagt Hardy, „weiß es genau, wer das ist, was er oder sie fühlt und erwartet, erhofft oder befürchtet.“ Daraus leitet das System ab, welche Antworten in welcher Auswahl und Aufbereitung dem Anfrager den stärksten Nutzen versprechen. Und die zeigt es an. Um dies an einem Beispiel sehr verkürzt deutlich zu machen: Fragt jemand das System nach Elektroautos, dann stellt es fest, wo der Anfrager herkommt. Identische Sachverhalte für Fortschritte beim Elektroantrieb führen für den US-Hersteller Tesla, dessen Elektroautos den Weltmarkt erobern, zu deutlich anderen Empfehlungen als für den russischen Autohersteller Lada oder den rumänischen Dacia, deren Kompetenz auf diesem Feld noch nicht ausgeprägt ist. Stromkonzerne bekommen zum selben Themenfeld wieder andere Antworten, denn wenn die Elektromobilität sich schnell verbreitet, bekommen sie zwar ebenso schnell immer mehr Kunden, aber auch schnell mehr Probleme mit der dann nötigen Netzkapazität. Ferner ist der Wandel zur Elektromobilität nicht nur eine technische Herausforderung, sondern mit schon jetzt aktiven Bürgerinitiativen gegen zusätzliche Überlandleitungen, die sie bundesweit als „Monstertrassen“ bekämpfen, auch ein Politikum ersten Ranges. Für die Öl- und Gasindustrie wiederum muss diese Nachricht alle roten Lampen aufleuchten lassen. Das System bereitet jedes Faktenbündel nutzerorientiert individuell auf. Die zweite Weiche, die Hardy in den Monaten vor der Markteinführung seiner Prisma Analytics Software noch stellt, betrifft die Visualisierung dessen, was das System ermittelt und empfiehlt. Wieder ist Hardys Ziel theoretisch ganz einfach: Anfrager sollen überhaupt keine Antworttexte mehr lesen müssen, sondern nur die Augen offen zu halten und lediglich eine sinnlich fassbare Anordnung von buttons und deren Handlungssignale richtig erfassen, sofern sie keine - stets mit abgebotene - Vertiefung wöählen. Begonnen hat Hardy eine solche Visualisierung schon ein Jahr zuvor. Wäre seine Software wie ursprünglich geplant 2016 in den Markt eingeführt worden, hätte er diese Idee zurückstellen müssen. Nun, da sich die Abstimmung mit Thomson Reuters noch hinzieht, kann sich sein Team hierauf konzentrieren. Bis zum Herbst 2017 entsteht ein völlig neues Visualisierungsprogramm. Hardy investiert ein Jahr Arbeit von mehr als fünfzig Programmierern in dieses Ziel. Bald deutet sich für die zuvor unerreichbar gewesene Vorhersage-Präzision ein 4.2 Wie Prisma Daten visualisiert 131 genial einfaches Darstellungsprinzip an. Es fußt auf der Beobachtung seiner Kunden. Wie ‚ticken‘ Entscheider, fragt Hardy sich, was spricht sie an, was lässt sie kalt? Jahrelang hatte er unzählige Manager beobachtet und mit ihnen über ihre Arbeit gesprochen. Allmählich ergaben sich für ihn als Resultat eine Reihe von Folgerungen, die übrigens für Kerneuropa deutlich anders ausfielen als auf arabische und asiatische Länder, anders auch als in Bezug auf Afrika oder Lateinamerika. Diese Unterschiede in einem Satz gebündelt: In Europa kann man mit abstrahierenden Darstellungen punkten. Anderswo funktioniert das nicht gut. „Wir in der Alten Welt, speziell wir Deutsche“, sagt Hardy, „wurden von Philosophen erzogen: Kant und Hegel, Marx und Engels, Nietzsche und Schopenhauer, Weizsäcker und Wittgenstein - alles Deutsche. Sie haben uns abstraktes Denken gelehrt. Abstrahierende Darstellungen sind uns also nicht fremd. Wir verstehen sie relativ schnell. In anderen Weltregionen ist das ganz anders. Zumindest fühlen sich Entscheider dort mit allzu abstrakten Darstellungen nicht wohl. Sie wollen etwas zum Anfassen, eine handelbare Ware zum Beispiel. Dann tauen sie auf. Will man ihnen einen Trend deutlich machen, sollte man ihnen nicht mit abstrakten Kurvenverläufen kommen, sondern mit einer Darstellung wie auf einem Schachbrett mit seinen meist sehr realistisch geschnitzten dreidimensionalen Figuren. Die sind konkret. Eignen sich die Schachfiguren König und Dame, Springer und Turm zur Beweisführung eines Sachverhalts nicht, sagt sich Hardy, sollte man zumindest versuchen, Analogien zum Mühle-Spiel mit seinen kreisrunden Steinen zu nutzen. „In datengetriebenen Analysen und Präsentationen,“ setzt er hinzu, „tut man gut daran, das, was man zeigen will, auf Bildschirmen so real wie möglich zu visualisieren, etwa mit Schach- oder Mühle-Figuren, möglichst mit deutlichem digitalem Schattenwurf - so, als könne man jede dieser Spielfiguren anfassen und selbst weiterbewegen.“ Tatsächlich bewegen sich in Hardys Visualisierung von Sachverhalten und Entscheidungsempfehlungen diese ‚Spielsteine‘ auch. Sie erinnern an die kreisrunden Steine des Mühlespiels. Hardy nennt sie buttons. Auf seinem Darstellungsfeld erscheinen nur zwei. Jeder button hat eine Farbe und auf dem Feld einen Ort. Wenn man ein bisschen zuwartet, sieht man, wie sie ihre Position allmählich verändern. Denn Umfeldbedingungen für die analysierten Sachverhalte bestimmen diesen Ort, und da diese sich ändern, ‚wandern‘ die ‚Spielsteine‘ ohne Zutun eines Entscheiders langsam über das Präsentationsfeld. Die analysierende Technik arbeitet real-time: Jede signifikante Veränderung einer Einflussgröße zeigt sie unverzüglich in ihrer Konsequenz an. Die buttons zeigen also, ob der Zeitpunkt zu handeln immer näher rückt oder ob er bereits überschnitten ist und man nun schnell sein muss, wenn man überhaupt noch etwas wie erwünscht regeln will. Das Bildfeld zeigt neben den buttons lediglich einige wenige Schlagworte, die ihre Bedeutung erläutern. Das ‚ Spiel’feld dieser buttons hat wie das Mühlefeld regelmäßige Felder, ist aber nicht wie dieses quadratisch, sondern mit 20 waagerechten Feldern doppelt so breit wie mit zehn Feldern hoch. Das liegt daran, dass die waagerechten Felder in zwei in Zehnerschritten geteilte, sowohl negative wie positive Skalen von null bis hundert Prozent eingeteilt sind, von negativen -10 Prozent ganz links über -20, -30 Prozent und so weiter bis zu -100 Prozent in der Mitte, wo dieses Feld direkt an +100 Prozent angrenzt und dann weiter nach rechts in seinen Werten wieder zurückgeht über +90, +80 Prozent und so fort bis zu +10 Prozent ganz rechts. Diese waagerechten Werte kennzeichnen den Grad an Bestätigung (confirmation) und damit Relevanz einer Information. Je weiter rechts oder links außen das System eine Information anzeigt, desto weniger bestätigt und damit zuverlässig, hilfreich oder gefährlich ist sie also; je stärker sie ins Zentrum rückt, desto evidenter ist sie. Eine positive Bestätigung ist ein Zeichen für eine sich bietende Chance, die negative Seite signalisiert ein Risiko, eine Gefahr. Die senkrechte Achse, ebenfalls in Zehnerschritten von null bis 100 Prozent gegliedert, visualisiert die Konse- 132 4 Goldstandard der News quenz einer Information. Auch auf ihr steigen die Werte von außen, also oben, nach innen, hier also - ungewohnt - nach unten. Diese Skala hat nur positive Werte. Negative Konsequenz zu ermitteln macht keinen Sinn; weniger als null Konsequenz kann es nicht geben. Wo das Risiko wartet Am unteren Feldrand vereinen sich genau in der Mitte alle drei 100-Prozent-Werte in einem einzigen Punkt. Ist das für eine Information die ideale Verortung? Mitnichten. An und in der Nähe der 100-Prozent-Grenzlinie kann höchster Nutzen in höchste Gefahr umschlagen. Das Risiko ist dort enorm. Mit abnehmendem Grad an Konsequenz sinkt auch das Risiko, so dass der Risikobereich in der bildlichen Darstellung auf diesem ‚Spiel’feld beidseits der Mittelachse ganz unten am breitesten ist und dann immer schmäler wird, bis er irgendwo auf der senkrechten Achse verschwindet. Die Maschinen, die aus der Vielzahl der zur Verfügung stehenden Daten eine Handlungsempfehlung ermitteln, errechnen und visualisieren auch, wie groß dieses Risikofeld ist. Der Bildschirm zeigt es in der Form eines gleichschenkligen, spitz nach oben zulaufenden Dreiecks an. Dass, erläutert Hardy, ist „eine no go area. Denn es ist einfach ein Fakt, dass eine Entwicklung, die auf ihren maximalen Effekt zu läuft, all of a sudden, ganz plötzlich und ohne jede Vorwarnung in ihr Gegenteil umschlagen kann“, erläutert Hardy. „Wer seinen button dort sieht, pokert auf maximalen Erfolg, aber riskiert zugleich ein absolutes Desaster.“ Keine Entscheidung sollte daher in diesem triangle fallen. Um das ‚Spiel’feld schnell begreifbar zu machen, sind alle Markierungen auf der rechten, positiven Seite grün und die auf der linken, negativen Seite rot unterlegt. Eine Information kann stabil negativ, also unerwünscht oder gefährlich sein, dann ist sie irgendwo auf der linken Feldhälfte als rote Markierung verortet, aber auch stabil positiv und damit erwünscht, dann zeigt sie sich rechts und ist grün. Ihre Position liegt wie erwähnt nicht dauerhaft fest, sondern wandert in dem Maß, wie die Entscheidungsbedingungen sich allmählich verändern. Bewegt sich der button als Zeichen einer Entscheidungsempfehlung auf der rechten ‚Spiel’feldseite in ausreichender Distanz zum Risiko-Dreieck in Richtung auf die Mitte hin, ohne der 100-Prozent-Linie und damit der Gefahr eines Umschlags ins Negative schon zu nahe zu sein, ist die richtige Zeit zu entscheiden. Wandert er allmählich nach oben, also an die Peripherie, geht der Grad an Konsequenz allmählich zurück. Wer eine Entscheidung nun noch hinauszögert, landet mit ihr bald in der Belanglosigkeit und muss sich überlegen, ob er sie nicht ganz aussetzen sollte. „Stabile Entscheidungschancen bestehen,“ sagt Hardy, „wenn der Bestätigungsgrad der analysierten Informationen bei 60 bis 70 Prozent und der Konsequenzgrad zwischen 70 und 80 Prozent liegt.“ Wie stets bei Algorithmen-Ergebnissen fußt auch diese Darstellung auf errechneten Wahrscheinlichkeiten. Tatsächlich in die Zukunft schauen kann natürlich auch dieses System nicht. Einer Entscheidung Wahrscheinlichkeiten zugrunde zu legen, ist aber eine bewährte Methode. Nun kann es natürlich sein, dass ein Anwender Teile des Faktenhintergrundes, den das System seinen Empfehlungen zugrunde gelegt hat, anzweifelt oder dass er über andere Fakten verfügt, denen er mehr vertraut. Auch dann aber ist das System für ihn eine entscheidende Hilfe. Denn er kann es beauftragen, seine Fakten mit zu berücksichtigen oder sogar an die Stelle der systemeigenen Fakten zu setzen. Auch dann wird das System mit seiner maschinellen Intelligenz diese Fakten analysieren und Verhaltensempfehlungen geben. Anwender, die über einen exklusiven Wissensvorsprung verfügen, können diesen also von Prisma Analytics exklusiv auswerten lassen, ohne dass ein Wettbewerber zusehen kann. Ein solcher Kunde kalibriert das Analysemodell mit seinem input einfach neu und 4.2 Wie Prisma Daten visualisiert 133 erhält diese Eingaben auf dieselbe übersichtliche Weise bewertet. „How cool is that? “ fragt Hardy nicht ohne ein bisschen Stolz. Selbstverständlich kann der Benutzer das System auch anweisen, diejenigen selbstermittelten oder vom System bereitgestellten Fakten, die er für minder glaubwürdig hält, aus den Berechnungen heraus zu lassen. Das System wird auch das tun und ihm das korrigierte Ergebnis wiederum in Sekundenschnelle liefern. Umgekehrt kann der Kunde mit ein paar Mausklicks auch festlegen, dass ein oder einige Einflussfaktoren mehr Gewicht haben sollen als das System vorschlägt. Wieder wird es auch diese Vorgaben übernehmen und unverzüglich neu rechnen. Auf diese Weise kann das System jedem Nutzer zugleich verlässlich zeigen, ob die von ihm priorisierten Informationen wirklich so viel wichtiger sind als die, die es selbst speichert und nutzt. Mehr evidence, mehr Verlässlichkeit auf eine Analysemethode ist kaum vorstellbar. Mit nur wenigen Mausklicks lassen sich die Bedingungen justieren, unter denen Empfehlungen entstehen - in allen Fällen als visualisierte Darstellung, ohne lange Erklärungen, auf einen Blick erfassbar und deutbar, sinnfällig und rein datenbasiert, also oder jede persönliche Meinung. Das gilt für alle denkbaren Fragen aus der Finanzindustrie oder generell der Ökonomie, der Politik oder speziell der Ökologie, denn der riesige Datenspeicher aus zig Millionen data fusion objects steht für alle diese Fragen bereit. Frei von Verfärbungen durch menschliche Bewertungen zeigt das System über die wesentliche Konsequenz einer Entscheidung hinaus auch die wichtigsten weiteren auf, die die erste erzeugt, näher oder ferner liegende Folgen, gravierende wie beiläufige, nach Bedeutung geordnet. Mit Hochdruck arbeiten das Bukarester Prisma-Team und das in Cluj im Sommer 2017 an dieser Datenoberfläche. Deren im Hintergrund arbeitende Künstliche Intelligenzmuss „lesen, vergleichen, korrekt qualifizieren und quantifizieren können, in sachbezogene, kontextbezogene und dimensional skalierbare Bezugssysteme stellen, tiefgehend lernen und verarbeiten können, aus jeder Art von Daten - in Echtzeit -, um verwertbares Wissen zu extrahieren. Das KI-System muss in der Lage sein, dies aus jeder Datenquelle, jedem Typ, jedem Thema und jedem Umfang zu schaffen. Ihre extrahierten Wissensobjekte müssen automatisch zu wiederverwertbaren Ressourcen für andere globale oder lokale Anforderungen werden“ (Schloer 2018). Im Februar 2018 setzt er hinzu: „Das Geheimnis der Künstlichen Intelligenz ist weitgehend gelöst. Die Durchbrüche von Prisma Analytics in den letzten Monaten werden unserer Ansicht nach dazu beitragen, schrittweise transformative Veränderungen in unseren menschlichen und maschinellen Gesellschaften einzuleiten, wie wir sie noch nie zuvor gesehen oder uns vorgestellt haben“ (ibid.). Hardys ‚Spiel’feld funktioniert nun für alle Entscheidungsfelder, für die Nutzer nach Aussagen fragen könnten: in der Geopolitik und der Makroökonomik zur Bewertung politischer, wirtschaftlicher und sozialer Trends und deren Dynamik ebenso wie zur Bewertung ihrer Durchsetzungskraft und ihrer Konsequenzen. Es funktioniert in der Wirtschaft, wenn es darum geht, Entscheidungen so zu treffen, dass sie sich auszahlen. Es funktioniert ganz generell im sogenannten change management, also in der Steuerung von Veränderungsprozessen vor allem im Hinblick auf ihre Nachhaltigkeit, Es funktioniert beim Umgang mit Gesetzen und Vorschriften und ihren Wirkungen auf Politik, Gesellschaft und Wirtschaft von regional bis global, auf dem Feld neuer Technologien und deren absehbaren Auswirkungen, überhaupt bei der Bewertung globaler Veränderungen auch auf lokale Entscheidungen sowie nicht zuletzt bei globalen Risiken aller Art, den naturgegebenen ebenso wie den von Menschen gemachten. Immer gibt es einen optimalen decision point, einen Punkt, an den man entscheiden sollte. Das System rechnet ihn aus und zeigt ihn an. Wie kann das möglich sein, wenn Ereignisse von allerlei Wechselfällen, ja auch von Zufällen mitbestimmt sind? Taugen sie überhaupt als Basis für Prognosen? In der Tat nur 134 4 Goldstandard der News bedingt. Die Motive hinter den Handlungen von Menschen, ihre Antriebe und Haltungen indessen sind weitaus stabiler. Wer sie kennt, kann daraus brauchbare Prognosen ableiten. Genau so funktioniert Prisma Analytics. Diese Software ist in der Lage, aus Myriaden von Einzelereignissen die sie steuernden Motive und Haltungen zu extrahieren - ganz gleich ob es sich um eine Stadt oder einen Landstrich, eine Firma, eine Partei oder ein anderes Suchwort handelt. Das System ermittelt beispielsweise das dort vorherrschende Maß an Hoffnung und Furcht eben so wie andere Handlungsmotive. Wer das System benutzt, kann außer einem Hauptsuchwort auch noch mehrere andere eingeben und dazu einen Zeitraum bestimmen, in dem das System die Wechselbeziehungen dieser Suchwörter zueinander für den bestimmten Zeitraum von vielleicht eineinhalb Jahren ermitteln und auswerten soll. Wäre das beispielsweise der Umgang einer deutschen Millionenstadt mit einer europaweit zu spürenden politischen Entwicklung, die sich in Frankreich bis Juni 2018 Front National nannte und seither Rassemblement National heißt, in Italien Lega Nord, in Deutschland AfD, wäre das für traditionell arbeitende Wissenschaftler eine Ermittlungs- und Darstellungsaufgabe von leicht einem Jahr. Prima Analytics liefert das Ergebnis sofort. Ermittelt das System für die Akteure in der als Beispiel genannten Millionenstadt zu 15 Prozent Hoffnung und zu fünf Prozent Furcht, sagt das allein noch wenig. Denn sind 15 Prozent viel oder wenig? Das zeigt sich erst im Vergleich mit ungezählten anderen Suchfeldern im Prima Analytics-Weltmodell zueinander. Auch das leistet diese Software. Aber ergeben sich 15 Prozent Hoffnung, weil viele Akteure mutig Zukunftsaufgaben angehen oder sind da Tagträumer unterwegs, die sich eine schönere Zukunft zwar vorstellen können, ohne aber etwas dafür zu tun? Das lässt sich aus dem Vergleich mit anderen Wertekategorien entnehmen. Prima Analytics extrahiert für jedes Suchwort die energy distribution und bewertet dazu außer Hoffnung und Furcht unter anderem auch Aktivität und Lösungsorientierung, zu beurteilen in der Paarung escalation versus resolve. Das ermittelt Prima Analytics - für jeden Tag des gewählten Zeitraum separat - und zeigt die Veränderungen im Zeitverlauf auf Wunsch ebenfalls an. Für jedes energy model, das Prisma Analytics errechnet, präsentiert das System auf Knopfdruck ferner die Datenquellen, aus denen die Antwort sich speist; zunächst deren Schlagzeile und einen Hinweis, für wen diese Quelle wichtig sein dürfte, dann die Kernaussage, die Konsequenzen aus dem Dargestellten, dazu die Beweise und die Visualisierung des Inhalts. Der Darstellung jedes decision points auf dem Rasterfeld sind vertiefende Zusatzinformationen unterlegt, die der Nutzer per Mausklick aufrufen kann: das sogenannte core statement, also die Hauptaussage zur Bewertung einer Situation, ein Hinweis auf die größte Chance, wenn der Nutzer wie empfohlen entscheidet, ein weiterer auf das größte verbleibende Risiko sowie eine Liste unmittelbarer Konsequenzen seiner Entscheidung (welche Stellen muss er veranlassen, was zu tun oder ggf. was zu unterlassen? ). Das ist auf den ersten Blick schon alles. Weitere Textinformationen parkt das System zwar in Fülle, bietet sie erst einmal nicht an, außer wenn der Nutzer sie ausdrücklich erwartet und aufruft. Einfachheit und Übersichtlichkeit sind also gewahrt - trotz der Unmasse von Einflussgrößen, die das System im Hintergrund verarbeitet und laufend weiter abgleicht, damit das präsentierte Ergebnis upto date bleibt. Prisma Analytics ermittelt als energy model also in erster Linie Begründungen für Verhalten und findet sie in den Wertegerüsten, die das behaviour of things bestimmen. So ergeben sich Antworten auf die drei Kernfragen: Was war, Was ist und Was wird sein? Daraus leiten sich Voraussagen einschließlich Hinweisen auf sich bietende Chancen und Warnungen vor Gefährdungen ab, kurzum Empfehlungen für richtiges Handeln. Wenn Prima Analytics erst einmal breit installiert sein wird, kann es Tausende solcher Analysen in der umrissenen Qualität jeden Tag - real-time, also verzögerungslos. 4.2 Wie Prisma Daten visualisiert 135 Prisma Analytics beobachtet und berechnet die Welt. Die Nutzer sind Teil dieses Systems - also beobachtet Prisma Analytics auch sie. Nach spätestens einer Woche kennt Prisma Analytics seinen jeweiligen Nutzer genau. Dann kann das System ihm punktgenau sagen: Folgendes solltest du wissen, folgendes solltest du tun… Mit seinen buttons erweist sich das Prisma Analytics-System so genial einfach und als so universell einsetzbar, dass Hardy sein noch ein Jahr zuvor fest geplantes zweigleisiges System von Geopolitik- und Finanzmarkt-Analysen fallen lassen und alle Kraft auf diese Prisma Analytics-Kernfunktion stecken kann. Denn sie dient beiden Anwenderbereichen gleich gut, und das in einer Qualität, die die Stabilität einer Entscheidung und zugleich das Maß an Bestätigung und an Konsequenzen quantitativ sichtbar macht - undenkbar mit herkömmlichen Analysemethoden. Am 6. Oktober 2017, dem nach mancher Verzögerung als endgültig definierten Starttag für die Prisma Analytics Software in den Markt, steht diese tatsächlich mit allen Systembestandteilen in ihrer neuen Visualisierung einsatzreif zur Verfügung. Aber auch der Oktober vergeht und die Prisma Analytics Software ist noch immer nicht auf dem Markt - jedoch nicht wegen irgend welcher technischer Probleme, sondern ganz im Gegenteil wegen ihres technischen Durchbruchs, der unbedingt patentrechtlich geschützt werden muss, bevor jemand davon Einzelheiten erfährt. Heiner lässt den Entwurf der Patentschrift verfassen und reicht sie in München beim Deutschen Patent- und Markenamt ein. Und Hardy fasst die Lage zusammen: „Im September und Oktober 2017, zehn Monate nach dem ursprünglich geplanten Abschluss der Entwicklung einer quantum relations machine (QRM), ist es der Prisma Analytics GmbH gelungen, als weltweit erster eine intern PLATO genannte, vollständig generalisierte deep learning AI-Plattform fertigzustellen, die aus globalen, unvergleichbaren, gemischten Datenquellen das advanced deep neutral machine learning ermöglicht“, die also Maschinen ohne Zutun des Menschen (deshalb neutral) im globalen Maßstab selbst lernen lässt“ (Prisma Analytics 2017). Von Anfang an hatte diese Maschine erstens systemlogisch zu arbeiten, das heißt in jeder Funktion dieselbe Logik und Funktionalität anzuwenden, zweitens universal zu sein, das heißt Daten jedweder Herkunft und Charakteristik analysieren zu können, und drittens - besonders wichtig - Begründungszusammenhänge erkennen und verarbeiten zu können, im Fachjargon causalities genannt. Dieser Begriff verweist darauf, dass alles, was existiert und geschieht, miteinander vernetzt ist. Ein Effekt kann die Folge einer Aktion und wieder Anlass für eine neue Aktion sein. Wer zu einer solchen causality-Analyse eine Technologie anbieten und damit die ungeheure Vielfalt aller Datenbestände gesamthaft nutzen kann, erzeugt einen geradezu endlosen Strom tiefen und nutzbaren Wissens, und das nicht nur für ein lokales Problem oder eine spezifische Frage, sondern im globalen Maßstab für Probleme aller Art. Im Herbst 2017 steht fest, dass Hardys Quantum Relations-System das leistet. Sein größter Vorzug ist die Fähigkeit dieses System Künstlicher Intelligenz, dynamische, also in Bewegung befindliche Daten zu verknüpfen und daraus „eine elektronische Kopie der realen Welt“ zu erzeugen (Schloer 2018). Dieses Weltmodell liegt den Analysen zugrunde; auf ihm bauen die Anwendungen auf. Aus ihm extrahiert die Quantum Reations Machine Verhaltensmuster für Entscheidungssituationen aller Art. Im Spätherbst 2017 liegen Auswahlmenüs zu rund 50 Echtzeit-Analysen, Indizes und Visualisierungen vor, um Risiken, Trends, und kommerzielle Marktchancen zueinander in Beziehung setzen zu können. Im frühen Frühjahr 2018 kann es schon Antworten auf die tausend wichtigsten Probleme in Industrie, Finanzen, Handel, Geopolitik, sozialer Entwicklung, Wissenschaft und globaler Sicherheit geben. Alle diese Analysen sind aktiv, das heißt: so lange diese Berichte im System bleiben, wird ihr analytischer Inhalt fortlaufend aktualisiert. Dieses Produkt richtet sich hauptsächlich an Entscheidungsträger. Darauf haben Hardy und sein Team und Thomson Reuters hin- 136 4 Goldstandard der News gearbeitet. „Wir sind nur noch Tage davon entfernt“, schreibt Hardy Ende Februar 2018, „auf der Thomson Reuters Eikon-Plattform den Schalter umzulegen. Ab diesem Punkt werden wir anfangen, unsere ersten Kunden in unser ‚Ökosystem‘ hereinzulassen“ (Schloer 2018). Der letzte Satz zeigt, dass Hardy seinen Startplan noch ein weiteres Mal hat umwerfen müssen. Dafür gibt es zwei Gründe. Der eine liegt sozusagen in der Natur der Sache, das heißt in der Komplexität von Hardys Programm. Es lässt sich immer noch weiter verfeinern. Der andere kommt für Prisma Analytics einigermaßen überraschend von außen. Ein neuer Mitspieler drängt nämlich auf das Spielfeld und schafft es, dort nach kurzer Zeit das Sagen zu haben. Es ist Blackstone, die größte Vermögensverwaltung der Welt. Dieses US-Unternehmen ist unfassbar reich. Es verwaltet Ende März 2018 mehrere Billionen Dollar und macht allein in einem einzigen, damals gerade zuende gegangenen Quartal, also von Januar bis März 2018, einen Nettogewinn von mehr als einer Milliarde Dollar. Blackstone ist damit weltweit für vermögende Anleger so attraktiv, dass dem Unternehmen in nur einem Quartal rund 60 Milliarden Dollar frisches Kapital zuflossen - im ersten Quartal 2018 waren es 56,9, im Vorjahresquartal 64,6 Milliarden Dollar -, die ertragreich angelegt werden sollen. Ein solcher Krösus kann sich finanziell fast alles erlauben, vor allem nach Marktsegmenten zu greifen, die dieses Vermögen noch zu mehren versprechen. Ein solches Segment ist die Verarbeitung von Billionen von Daten. Plötzlich bekommt das Thomson Reuters-Datengeschäft einen neuen Besitzer Um die Jahreswende 2017/ 18 herum verhandeln Blackstone und Thomson Reuters über das Datengeschäft des Medienkonzerns. Ende Januar 2018 teilen beide Firmen mit, was die Financial Times am 31.01.2018 in die Worte fasst: „Blackstone agreed its largest deal since the financial crisis by pulling together $17.3bn to take a controlling stake in the financial terminals and data business of Thomson Reuters, making the US money manager a direct competitor to Bloomberg“, den „fellow billionaire and former New York mayor Michael Bloomberg, who dominates Wall Street’s financial information industry.“ Thomson Reuters hatte 2016 nach Analysen des Beratungsunternehmens Burton-Taylor einen Marktanteil von 23.1 Prozent gegenüber Bloomberg mit 33.4 Prozent. Die Übernahme der Mehrheit am Thomson Reuters-Datengeschäft durch Blackstone ist nun ein Frontalangriff von Blackstone auf Bloomberg in einer Größenordnung, die Thomson Reuters aus eigener Kraft nicht zu Gebote gestanden hätte - von Prisma Analytics einstweilen gar nicht zu reden. Hardys Vereinbarungen mit Thomson Reuters werden in diesem deal - dem für Thomson Reuters größten in seiner Geschichte - einfach mit übernommen. Blackstone erwirbt mit der Rückendeckung der zwei weltweit größten institutionellen Investoren, dem Canada Pension Plan Investment Board und dem Singapore state fund GIC, am Thomson Reuters-Geschäftsfeld Finanz- und Risikomanagement für die genannten 17,3 Milliarden Dollar - doppelt so viel wie Thomson zehn Jahre zuvor für Reuters bezahlt hat - die Kapitalmehrheit von 55 Prozent und hat damit von Stund´an dort uneingeschränkt das Sagen. Die von Thomson Reuters gegründete Eikon-Plattform, in die Prisma Analytics eingebunden ist.wird ab sofort von Blackstone gemanagt. Blackstone tilgt den Namen Thomson Reuters aus diesem Geschäft; die übernommene Plattform firmiert ab dem 1.Oktober 2018 unter Refinitiv. Das Unternehmen ist auf dem Gebiet des Datenmanagements zweifellos ein Schwergewicht. Für etwa 400.000 Kunden in weltweit 40.000 Firmen hält es 8,5 Millionen wirtschaftliche Kenndaten von unterchiedlichsten Bruttosozialprodukten und Arbeitslosenquoten über die Preise von Aktien und Anleihen bis zur Größe von Handelsströmen bereit, alle mit dem jeweiliegen Zeitstempel, wenn gewünscht auch zurück bis ins Jahr 1950. 4.2 Wie Prisma Daten visualisiert 137 Im Forex (Foreign Exchange)-Markt, der deutlich größer als der Aktienmarkt ist, steuern Refinitiv-Empfehlungen jeden Tag Umsäze von mehr als 400 Milliarden und im Aktienmarkt sogar von 500 Milliarden Dollar. Für diese Kunden liefert Refinitiv täglich 40 Milliarden Marktnachrichten, bis zu sieben Millionen pro Sekunde. Allein Eikon versendet jeden Tag mehr als elf Millionen Nachrichten an seine Kunden und greift dabei auf einen Datenbestand aus drei Millionen Firmen und 280.000 Fonds zurück. Im Web ist seither nachzulesen: „Eikon is a set of software products provided by Refinitiv for financial professionals to monitor and analyse financial information. It provides access to real time market data, news, fundamental data, analytics, trading and messaging tools. The main product runs on Windows and lets users compose customized views on multiple screens. It also extends Microsoft Office with data retrieval addins.“ Dass zu diesem set of softwares auch Hardys Programm Prisma Analytics gehört, wird nicht erwähnt; seineSoftware ist wohl noch nicht bekannt genug. Außerdem vermarktet Refinitiv eine eigene Analyseplattform unter dem Namen QA Direct in der cloud mithilfe von Microsoft Azure. Der Zugang zur cloud, sagt dazu der Refinitiv-Managing Director Investing & Advisory Pradeep Menon˜ sei mittlerweile ein „Geschäfts-Imperativ“; binnen vier Jahren würden rund 90 Prozent aller Firmen die cloud zur Analyse ihrer Marktdaten nutzen. „What used to take two to three weeks now happens in a few days“, setzt Menon hinzu und gibt damit ungewollt einen Hinweis darauf, dass Hardys Software Prisma Analytics dieser Konkurrenz weit überlegen ist - schließlich braucht sie für ihre Analysen nicht Tage, sondern liefert sie real time, also verzögerungslos. Zugleich kündigt Blackstone an, in dieses Geschäftsfeld weiter zu investieren, und zwar„in a number of areas, including content coverage, artificial intelligence and analytics across the Eikon and Elektron platforms for buy-side trading, wealth and banking clients“(Trade 2.10.18). Erste Konsequenzen folgen auf dem Fuß: Am 14. November des Jahres gibt Refinitiv eine Parterschaft mit der Union Arabischer Banken bekannt; davon verspricht sich das Unternehmen eine „unique networking platform for financial and non-financial associations, regulators, and supervisory agencies within MEA and across the globe“. In diesen turbulenten Markt hinein liefert Prisma Analytics seine interaktive Rechercheplattform mit umfassenden Such- und Indexprogrammierungs-Funktionen im Mai 2018 endgültig aus. Hat die Plattform neue Entscheidungsgrundlagen anzubieten, meldet sie sich bei ihren Nutzern automatisch. Die Funktionen sind frei bestimmbar und der Benutzer kann frei auswählen, welche Dateneinflüsse er wie gewichtet haben möchte. Das, sagt Hardy, „bietet derzeit so niemand anderer an“ (Schloer 2018). Die Nachfrage nach solchen Leistungen steigt. Lange sind Entscheidungsunterstützungen mit Künstlicher Intelligenz ein „winziger Nischenmarkt“ gewesen, „auf dem nur wenige spezialisierte Unternehmen maßgeschneiderte Angebote bereitstellten“ (ibid.). 2016 und 2017 hat sich das zu ändern begonnen. Programme, die das leisten, sollen in erster Linie die Produktivität anheben. Dafür werden jedes Jahr weltweit 1,2 Billionen Dollar investiert. Der KI-Markt für Entscheidungsunterstützungssysteme soll bis 2020 etwa zwei Billionen US-Dollar groß werden (ibid.). Daran wollen Prisma Analytics und Refinitiv partizipieren. Wenn Hardy von den Datenbeständen seines Marktpartners spricht, kommt dieser Mann, den nicht leicht etwas beeindruckt, manchmal fast ein wenig ins Schwärmen. Vom „Goldstandard der news“ spricht er dann, um deutlich zu machen, dass es eine breiter aufgestellte Datensammlung auf der Welt derzeit nicht gibt. Aber es sind Rohdaten. Ihren Wert entwickelt erst die Quantum Relations-Maschine von Prisma Analytics. Das wusste auch das Thomson Reuters-Management. Schließlich hatte es vergeblich versucht, Prisma zu kaufen. Aber das Unternehmen war nicht zu haben. Eine Kooperation indessen lag im wechselseitigen Interesse. Damit ist der Wettbewerb um den Ehrentitel „Goldstandard der news“ neu eröffnet. 138 4 Goldstandard der News Es geht um Masse und Klasse. Nützlich sind beide. Wer den Titel künftig zugesprochen bekommt, muss der Markt entscheiden. Dieser turbulente Markt der Datenanalysen birgt Überraschungen - das hat der Blackstone deal deutlich gezeigt. Prisma Analytics war dort nicht Akteur, sondern nur eine fremdbestimmte Figur auf dem Spielfeld. Aber dies ist ja nicht das einzige Feld, auf dem Hardy und sein Team handeln. Die weiterhin gültige, von Refinitiv übernommene Vereinbarung mit Thomson Reuters gibt Hardy das Recht, alle dortigen Datenbestände auch für eigene Analysen zu nutzen. Das fruchtet nun. Im Sommer 2018 schließt Prisma Analytics ein Abkommen mit der eN- Coral Digital Solutions Sdn Bhd in der malaysischen Hauptstadt Kuala Lumpur. Dieses malaysische Staatsunternehmen liefert landesweit Beratungsdienste in den Bereichen Bildung, Gesundheit und Bankwesen sowie für Ministerien und Behörden. Lange hat Hardy diese Kontakte gepflegt, Vertrauen aufgebaut und seine Gesprächspartner schließlich von der Leistung seiner Software überzeugt. eN-Coral Digital Solutions will 3000 Prisma Analytics-Lizenzen erwerben und bezahlt dafür 34 Millionen Euro jedes Jahr. Bis zum Herbst 2019 sollen alle dreitausend Stationen betriebsbereit sein. Die Erwartungen auf malaysischer Seite sind hoch: Dr. Wan M. Hasni, einer der eN- Coral-Direktoren, will damit „die öffentliche Verwaltung in Malaysia zu einem globalen Marktführer hinsichtlich des Verstehens von Risiken und Chancen in Echtzeit“ machen. Für Hardy ist das nur ein Anfang. Beide Partner wollen in ganz Südostasien zusammenarbeiten. Um für solche Partnerschaften professionell aufgestellt zu sein, baut Prisma Analytics in München sein Management aus. CEO bleibt Heiner Pollert, der Jurist und Chef von Patentpool, treibende Kraft ist nach wie vor Hardy. Den holt bei der Gründung weiterer Gesellschaften übrigens seine deutsche Vergangenheit ein: Bei Handelsregistereintragungen finden die Urkundsbeamten in ihren Dokumenten keinen Hardy Schloer, wohl aber einen Frank Otto Schlör, offensichtlich dieselbe Person, den sie deshalb auch eintragen. Pollert und Schloer zur Seite steht der Finanzchef der Patentpool Group Michael Tischer; der Jurist verantwortet in München das cash management & accounting von Prisma Analytics. Aus dem Unternehmen Praetorius Capital stammt Sebastian Pötzsch, der COO der Prisma Analytics GmbH; seine beruflichen Erfahrungen fußen auf Tätigkeiten bei SAP, der Deutschen Bank und für Mittelständler. Der business plan-Exerte Chris Edwards hat eine bunte Vergangenheit, die von der Versicherungsbranche über die Papierindustrie bis zu Lebensmitteln, Unterhaltung und nicht zuletzt zur Software-Industrie reicht. Er kümmert sich bei Prisma Analytics um die Langfristentwicklung. „Building business from scratch is my passion“, sagt er dazu. Dominik Wagner schließlich gründete 2011 die Kreativagentur „Eichmeister“, die bereits Projekte für Infineon, die EU und namhafte Blockchain-Anwendungen betreut hat. Bei Prisma Analytics verantwortet er die Außendarstellung in Markenpflege, Design, Werbe- und Kommunikationsmittel. Dieses Management-Team arbeitet in München in den Räumen von Patentpool. Das etwa 80 Personen starke Prisma Analytics Programmierer-Team entwickelt seine Produkte nach wie vor in der rumänischen Hauptstadt Bukarest; eine Handvoll Computerexperten liefert Ergebnisse weiterhin auch von Cluj zu, dem früheren siebenbürgischen Klausenburg im bergigen rumänischen Norden. Marketing und Vertrieb hingegen sind inzwischen in der katalanischen Metropole Barcelona im spanischen Nordenfest verwurzelt. Zusammengehalten wird dieses Netz vom unermüdlich zwischen diesen Polen und den Standorten seiner Kunden hin und her jettenden Hardy, der Flugzeuge gut und gern sein eigentliches Zuhause nennen könnte. 4.2 Wie Prisma Daten visualisiert 139 Prisma Analytics wird Start-up of the year 2018 Im November 2018 ist es endlich soweit: Die von manchen Anlaufschwierigkeiten begleitete Zusammenarbeit von Prisma Analytics und Thomson Reuters kommt in die Gänge, allerdings unter inzwischen geänderten Vorzeichen. Das Unternhmen Refinitiv, das nach dem Einstieg von Blackstone bei Thomson Reuters diesen Datenpool regiert, integriert Hardys Software unter dem griffigen Namen Prisma Decision Point® endgültig in das vormalig von ThomsonReuters gesteuert Eikon-System. Patentpool-Chef Heiner erläutert: „Bei Prisma Decision Point handelt es sich um eine interaktive Umgebung, auf eine zukunftsweisende Art die Echtzeit-Intelligenz und prädiktive Analysen für komplexe Entscheidungen liefert, etwa im Bereich Risikomanagement oder Krisenprävention. Sie speisen sich aus Daten aus den Feldern Geopolitik und Makroökonomie, aus sozialen Trends und aus Daten über Konflikte, globale Sicherheit und Risiken, über weltweite Gesetzesänderungen und disruptive Technologien.“ Dabei stützt sich das System nicht nur auf den Eikon-Datenpool, sondern auch auf die gesamten Wikipedia- Datenbank, auf die Wissensspeicher der 50 größten Radio- und Fernsehsender, darunter CNN, auf 5000 RSS Feeds - das sind Informationen, die eine Software aus dem Internet zu gewählten Suchbegriffen automatisch bereitstellt - sowie auf Übersetzungsprogramme in allen Sprachen, was eine individuelle und internationale Nutzung und Verständlichkeit gewährleistet. Aus der Verbindung von selbstlernenden Analyse-Algorithmen mit in Echtzeit gepflegten Daten, erklärt Heiner weiter, sei Prisma Decision Point® als eigene Applikation in die Eikon- Plattform von Thomson Reuters eingebettet. Diese habe sich bei deren Kunden als die global vertrauenswürdigste und vollständigste Plattform für Finanz- und Nachrichtenanalyse etabliert. Mit seiner Erfahrung in der Datenerhebung erreiche das Eikon-Programm 99 Prozent der weltweiten Marktkapitalisierung, gestützt durch seine in der Branche führenden Fundamentaldaten sowie 22.000 Unternehmen und deren Börsendaten aus 87 Ländern. Eikon bedient außerdem 1.300 globale institutionelle Kunden. Das Prisma-Datenmodell, das dort seither einfließt, basiert auf den geschützten Technologien Prisma Decision Point, Quantum Relations und Cplus8 - Cplus8 nennt Prisma Analytics seine Technik, Daten vollautomatisch so zu importieren und zu transformieren, dass im Ergebnis eine „Abstraktion der existierenden Welt entsteht, so wie diese sich stetig entwickelt, jedes Element, jede Person, jedes Konzept im Rahmen seiner vielfältigen Beziehungen zueinander“. C steht für causation, also Ursache, und die acht prime groups, die dazu addiert werden, sind purpose (Absicht), concepts (Konzepte), beliefs (Überzeugungen), groups (Gruppen), objects (Objekte), events (Ereignisse), geography (Örtlichkeit) sowie science and evidence (das was wissenschaftlich ermittelt wird oder und klar zutage liegt). Nach diesem Raster analysiert Prima Analytics jeden Text, jede mündliche Äußerung, jedes Bild, alles, was überhaupt kommuniziert wird, und fügt es in sein digitales Weltmodell ein - Billionen von Informationen, jede durch eine IPv6-Nummer eindeutig identifiziert und im Analysesystem beliebig nutzbar. Die Metadaten zu jeder Datenquelle geben außerdem Auskunft darüber, wer sie wann wie und wo in die Welt gesetzt hat. „Wenn wir unsere Technologie richtig positionieren“, kommentiert Hardy, „wird Cplus8 den Lauf der menschlichen Evolution verändern, da wir die Barrieren entfernt haben, die mit unstrukturierten Daten und der wertlosen Datenflut verbunden sind. Wir haben eine neue Schwelle in der Echtzeitanalyse durch Maschinen überschritten. Das ist wirklich ein Wendepunkt, nicht nur für uns, sondern für die gesamte Menschheit.“ Hardy hat bald darauf Grund, sich zu freuen: Am 31. Oktober 2018 erhält Prisma Analytics in Dubai den Fintec Global Award für das Start Up of the Year. Die Auszeichnung belohnt Firmen mit zukunftsweisenden Konzepten für die Finanzbranche, und der Award ehrt eine der ersten kausalen Datenbanken, die selber lernt, keine Einflüsse von Analysten zulässt 140 4 Goldstandard der News und somit zu hundert Prozent faktenorientiert ist. Er würdigt Prisma Analytics als einen Vorreiter angewandter Künstlicher Intelligenz. Hinter dem Fintec Award steht eine Jury aus einem Dutzend besonders einflussreicher Finanzmanager. Was sie entscheiden und warum sie das tun, spricht sich schnell herum. In München spürt das Prisma Analytics-Magagement das sofort. Hardys Partner Heiner: „Der Fintec Award ist nicht nur eine große Ehre und Bestätigung jahrelanger Entwicklungsarbeiten, sondern auch ein Turbolader in Richtung kommerzieller Erfolg. Seither können wir uns vor interessierten Kundenanfragen kaum retten.“ Die Bewertung der Prisma Analytics GmbH bewegt sich dadurch massiv nach oben; die Neu-Bewertung wird deutlich über 200 Millionen Euro liegen. Ende 2018 startet Prisma Analytics mit einer globalen Online-Konferenz in den Markt Bis sich die Eikon-Organisation mit Quantum Relations intensiv befasst, vergeht auch das Jahr 2018. Erst kurz vor dem Jahresende, am 13. Dezember, präsentiert Hardy das Programm Prisma Decision Point in einer einstündigen, global verbreiteten Online-Konferenz, die sich in erster Linie an die Analysten im Eikon-Außendienst richtet. Flächenwirkung kann die Kombination von Eikon und Quantum Relations daher erst 2019 erzeugen. Hardy weiß, dass die Umstellung von konventionellen Analysen auf sein System ein Schritt ist, den seine Zuhörer zuerst verstehen, dann verdauen und in seinen Konsequenzen erst verarbeiten müssen. „Es ist wie der plötzliche Umstieg von der Pferdekutsche in ein heutiges Automobil. Statt Grünfutter braucht man auf einmal Benzin oder elektrischen Strom, statt Karrenwegen asphaltierte Straßen und Autobahnen, dazu Autohäuser, Tankstellen, einen Teiledienst usw. Das überblicken viele Menschen jedoch nicht von heute auf morgen.“ Zu den ersten Kunden, die Prisma Analytics nicht über den Eikon-Vertrieb geordert haben, sondern direkt bedient werden, gehören die in den Emiraten angesiedelten Unternehmen Mumbadala und DP World sowie die Regierung von Malaysia. Feste Vereinbarungen stehen Ende 2018 vor dem Abschluss. Ebenfalls gewonnen ist das Police Department des Stadtstaats Dubai, eine Behörde von 29.000 Personen. Hardys Team schneidet Prisma Decision Point mit spezifischen Visualisierungen auf die Belange dieser Abnehmer zu. Weiter konkretisiert hat sich für diese Organisationen 2018 auch die Idee der situations rooms und der mit ihnen verbundenen Datenzentren. Einen weiteren information room will - außer den gerade genannten Organisationen - auch der malaysische Ölkonzern Petronas haben. Für die Kunden der Prisma Analytics Software baut Hardys Unternehmen 2018 außerdem das schon länger geplante help center auf. Dieser Kundendienst versorgt von Barcelona aus weltweit Prisma Analytics-Nutzer, wenn sie Unterstützung brauchen. Ende 2018 folgt eine Zertifizierungsinstanz. Für beide Aufgaben arbeiten anfangs rund ein Dutzend Personen. „Aber wir werden bald tausend Leute und mehr beschäftigen“, sagt Hardy, „das steht außer Frage, sobald der Markt anspricht.“ Ebenfalls Ende 2018 kommt in der katalanischen Metropole eine Zusammenarbeit mit Universität Barcelona in Gang. Diese Hochschule soll die bisher nebeneinander bestehenden Eikon- und Prima Analytics-Verfahren so ineinander verschränken, dass die Kunden ein Instrument aus einem Guss ordern können. Zugleich erhält Hardy selbst am 3. Dezember 2018 eine Berufung als Professor für Information Science an der University of Modern Sciences der Herzegowina. Er hält dort keine Programmierkurse - das tun andere -, sondern unterrichtet die Informationsarchitektur von Quantum Relations, im Kern die Fächer Epistomologie, also Erkenntnistheorie, und Ontologie, also Grundstrukturen der Wirklichkeit und ihrer Benennung, kurz das Wesen von Information und die Fähigkeit, Wissenswertes von anderem unterscheiden zu lernen. 55 BBiigg DDaattaa iinn ddeer r WWi irrttssc chhaafft t Werden Arbeitnehmer entbehrlich? Fast alle Branchen haben das Potenzial von Big Data erkannt und nutzen es: von der voll vernetzten Fabrik über das automatisch fahrende Auto bis zur sogenannten Smart City. Maschinen ersetzen immer öfter Routinearbeit, so dass ganze Berufszweige aussterben dürften, schaffen auch neue Jobs, aber für höher Qualifizierte. Wer verliert, wer gewinnt? 5.1 Data Scientists 141 5.2 Jobkiller Datentechnik 142 5.3 Die Wirtschaft 4.0 145 5.4 Big Data in der Automobilindustrie 151 5.5 Big Data in der Prozesindustrie 163 5.6 Big Data im Handel 166 5.7 Die Smart City 171 5 5..11 DDaattaa SScciieennttiissttss In diesem Kapitel geht es um Big Data in der Wirtschaft, ökonomisch betrachtet um business intelligence (BI), was im wörtlichen Sinn Aufklärung über geschäftliches Geschehen bedeutet (Litzel 2017b: 3). Es ist ein vorrangiges Anwendungsfeld, aber keineswegs das einzige. Von Big Data im Gesundheitswesen und in der Politik sprechen wir in späteren Kapiteln. Geradezu selbstverständlich sind Big Data auch ein Thema der Wissenschaft. Einzelheiten dazu finden Sie in Kapitel 10. Nur kurz erwähnen können wir hier, dass Big Data zunehmend auch weitere Felder durchdringen, beispielsweise den Sport (Schrenk 2013). So erklärt der frühere DFB-Fußballdirektor Hansi Flick: „Geometrie und Physik, Richtungen, Winkel und Geschwindigkeiten - alles das bilden Positionsdaten ab. Wenn wir dieses Potenzial nutzen, können wir insbesondere die Talentdiagnostik völlig neu definieren - ja vielleicht revolutionieren (Memmert/ Raabe 2017: VII). Und das ist erst der Anfang. Das Deutsche Forschungszentrum für Künstliche Intelligenz erwartet, dass zur Weltmeisterschaft 2050 eine Roboter-Fußballmannschaft den menschlichen Fußballweltmeister besiegen wird (Ustorf 2017). In der Wirtschaft geht es allgemein gesprochen um die digitale Transformation, genauer um einen „strukturierten und ganzheitlichen Transformationsprozess [für] den Wandel zu digitalen Unternehmen“ (Hölscher 2017: 13), also um eine interessengesteuerte Tätigkeit in vier Aktionsfeldern: engage your customers, empower your employees, optimize your operations, transform your products (Noska 2017). Das ist eine querschnittliche Aufgabe. Für die Experten, die derartige Dienste entwickeln und einsetzen, prägten die LinkedIn-Manager Patil und Hammerbacher die Bezeichnung data scientists. Schon 2012 nannte die Harvard Business Review deren Beruf „the sexiest job of the 21st century“ (Bitkom 2014: 164). Hal Varian, im Jahr 2009 Google-Chefvolkswirt, hatte in jenem Jahr das traditionell als langweilig angesehene Berufsfeld der Statistiker ganz ähnlich bewertet: „In den Zehner-Jahren wird ein job wirklich sexy sein: der des Statistikers“ (Geiselberger/ Moorstedt 2013: 17). Wenn das wahr werden soll, müsste es sich schon jetzt in den Schulen zeigen. Es gibt Länder, Südkorea etwa, in denen Kinder so selbstverständlich programmieren lernen wie 142 5 Big Data in der Wirtschaft lesen und schreiben. In Deutschland erhalten erst 400.000 Schüler Unterricht in digitalem Gestalten. „Es sollten aber eine Million sein“ (BMBF/ Wi 2018: Goerdeler). Und „ein Einser-Abiturient sollte sich nicht mehr fast automatisch für ein Studium der Medizin ö.ä. entscheiden, sondern auch für eine Zukunft als data scientist (BMBF/ Wi 2018: Nagel). Data scientists arbeiten in der Wissenschaft ebenso wie im öffentlichen Dienst und vor allem in der Wirtschaft. Zunehmende data literacy, also der routinierte, souveräne Umgang mit Daten, heißt nicht, dass man data scientists künftig nicht mehr bräuchte. Sie müssen Datenquellen weiterhin erschließen und zusammenführen, sie bereinigen und so aussagefähige Analysen überhaupt erst möglich machen (Potter 2018). Einige haben es mittlerweile bis in Spitzenpositionen geschafft, bis in die Funktion CDO, also Chief Data Officer, in Aktiengesellschaften ein Vorstandsrang neben dem CEO, dem Central oder Chief Executive Officer, also dem Firmenchef. Immer mehr Firmen bestellen neben dem Firmenchef, dem Personal-, Finanz-, Technik- und Vertriebschef einen solchen Chief Data Officer. Der, sagt die Gartner-Analystin Debra Logan, „muss Leute, Prozesse und Technik über Funktions- und Data-Set-Grenzen hinweg managen“ (ibid.). Das ist zweifellsos eine Führungsaufgabe. Jeder dritte CDO berichtet laut ihrer Untersuchung denn auch direkt an den Firmenchef, jeder sechste an den Chief Information Officer und jeder neunte an einen anderen (Senior) Vice President, in deutschen AGs also an ein anderes Vorstandsmitglied. Nach Angabe der Unternehmensberatung Gartnergibt es weltweit mindestens 3.700 Personen in einer solchen Führungsposition (vgl. Quack 2017). CDOs müssen entscheiden, für welches betriebliche Problem knappe business analytics- Ressourcen eingesetzt werden. Welche dieser Ressourcen, also Daten, IT-Technik und Personal, führen am Besten zur Lösung? Mit welchen Algorithmen? Wie müssen Ergebnisse aufbereitet werden, damit sie zielgerichtet eingesetzbar sind? (Kieninger 2017). Das zu beantworten ist typisches Management-Know-How. Eine Konsequenz: Mehr als 80 Prozent der Firmen geben ihre Datenanalysen nicht aus der Hand, sondern sehen dies als vollständig intern zu managende Aufgabe an. Dieser Wandel zum datengesteuerten Handeln mischt die gesamte Wirtschaft neu auf. Er gibt start-ups schnelle Wachstumschancen, aber drängt zu beharrende Unternehmen auch aus dem Markt. Seit dem Jahr 2000 ist nach Angaben des Accenture-CEO Pierre Nanterme die Hälfte aller damals zu den Fortune 500 gehörenden Firmen vom Markt verschwunden (cit. Roche 2017: Armanet). Sie haben den digitalen Wandel nicht geschafft. 55..22 JJoob bkkiilllleer r DDaatte en ntte ecchhn niikk Die Firmen, die den digitalen Wandelmeistern, stehen sofort vor einem neuen Problem: Wohin mit den Arbeitnehmern, deren Jobs künftig Computer erledigen? Zur Würde des Menschen gehört, dass er sich durch Arbeit verwirklichen kann, und Personen, die befürchten, von Auswirkungen der Digitalisierung auf die Arbeitsplätze betroffen zu sein, reagieren empfindlich. Aus Angst, sich überflüssig zu machen, empfahlen zum Beispiel Angestellte in einem großen Buchladen ihren Kunden, sie sollten Bücher, die nicht vorrätig waren, bei Amazon bestellen anstatt über den neuen, firmeneigenen Online-Service - was dazu hätte führen können, die ganze Firma überflüssig zu machen (Martin-Jung). Bewahrungskräfte in Firmen wehren sich auch anderswo gegen die Konsequenzen der Datenwelt. Damit sie die Chancen dieses Wandels nicht dauerhaft blockieren, empfiehlt der Gründer und Chef des Münchner Unternehmens Etventure, Philipp Depiereux: „Gründen Sie eine Digital-Einheit außerhalb des Unternehmens“ (cit. ibid.). Kleine Digitaleinheiten könnten unabhängig vom Mahlstrom der Bürokratie, von compliance-Bedenken, juristischen Sorgen und ähnlichen Hindernissen arbeiten. Dieser letzte Satz ist einigermaßen kühn formuliert; 5.2 Jobkiller Datentechnik 143 er darf so nicht unkommentiert stehen bleiben. Denn juristische Sorgen sind keine bloßen Hindernisse. Das Recht setzt einen Handlungsrahmen für alle. Trotzdem bleibt die Frage zu beantworten, welche Konsequenzen für den Arbeitsmarkt wir erwarten oder fürchten sollten. Hier einige Zahlen: In der amerikanischen Öl- und Gasindustrie sind seit 2014 geschätzt zwischen 50.000 und 80.000 Facharbeiterjobs verloren gegangen, obwohl die Geschäfte mit fossilen Energien wieder gut laufen. Viele Ölförderungsanlagen werden nämlich inzwischen von weit entfernten Steuerungszentralen voller Monitore gesteuert (Schulz 2017: 19). Diese Entwicklung verändert nicht nur die Ölindustrie: Im Mai 2016 meldete der wichtigste Zulieferer von Apple, Foxcom, er werde 60.000 Arbeitsplätze durch Roboter ersetzen (Andelfinger/ Hänisch 2017: 5). Goldman Sachs, eines der weltweit führenden Häuser im investment banking, im Wertpapierhandel und in der Vermögensverwaltung, hatte bis vor Kurzem noch sechshundert Aktienhändler, nun sind es noch zwei. Die Arbeit der anderen machen Algorithmen. In der britischen Finanzindustrie droht eine halbe Million Mitarbeiter durch Software ersetzt zu werden, schätzt die Beratungsfirma Deloitte (ibid.). Selbstfahrende Autos - das klingt gut. Aber was wird aus den Fahrern von Taxis, Lieferwagen und Lastzügen? Automatisierte Containertransportfahrzeuge fahren in Häfen (z.B. Hamburg) schon längst. Komatsu hat nun einen Lkw vorgestellt, der im Bergbau selbstständig Lasten transportieren soll (Crisp 2018: 12). Lastwagenfahrer ist heute noch einer der weltweit am weitesten verbreiteten Jobs, aber „vielleicht schon in fünf Jahren“, erwartet der frühere IBM-Forscher Frank Chen, „spätestens aber in fünfzehn Jahren wird es diesen Job nicht mehr geben“ (Schulz 2017: 18). Führende Manager der Lkw-Branche teilen diese Horrorvision allerdings nicht. Sie gehen nicht davon aus, dass der Fahrerplatz in Lastwagen in vorhersehbarer Zeit verwaist sein wird. Einerseits werde der Fahrer nämlich zur Überwachung der Automatik gebraucht; schließlich muss jemand die Verantwortung auch für selbstfahrende Brummis tragen. Und jemand muss auch eingreifen können, selbst in scheinbar banalen Fällen. Verliert ein Lkw beispielsweise einmal einen Spanngurt und liegt der dann quer über der Fahrbahn, interpretiert die Automatik ihn als eine Haltelinie, die nicht überfahren werden darf. Dann muss der Fahrer das System autorisieren, doch weiter zu fahren oder noch besser kurz aussteigen und den Gurt beiseite räumen. Vor allem aber: Das Lkw-Führerhaus wird in automatisch fahrenden Lastwagen nicht mehr in erster Linie als Arbeitsplatz zur Bedienung des Lenkrads benutzt. Der Fahrer wird vom Bediener der Fahrzeugtechnik zum Disponenten für die logistische Aktionskette, in der der Lkw-Transport nur ein Baustein ist. Fahrten wird er nicht nur durchführen, sondern auch planen und vernetzen. Er wird Ladung disponieren, das Auf- und Abladen steuern und als mobile Bürokraft zahlreiche weitere Aufgaben mit übernehmen, die heute noch ortsfest erledigt werden. Aus dem Fahrer wird so der Disponent, der zusammen mit seiner Ware unterwegs ist (Loidold 2017). Doch selbst falls es Lastwagenfahrern nicht existentiell an den Kragen geht: Die Wirtschaftswissenschaftler Frey und Osborne erwarten durch die Digitalisierung der Welt überall eine drastische Umformung der Gesellschaften und damit der Arbeitswelt. Machine Learning-Komponenten und Künstliche Intelligenz heben den Automatisierungsgrad. Noch Zukunftsmusik, aber schon vorstellbar ist, dass Robotic Process Automation (RPA) im Zusammenspiel mit KI das menschliche Denken nachbilden kann (Martens 2018). RPA ist eine Technologie zur Automatiscierung regelbasierter Geschäftsprozesse mit Software- Robotern. Während die KI den Bereich des Lernens und Denkens revolutioniert, wickelt RPA die jeweiligen Arbeitsschritte ab (ibid.). Deshalb rechnen schon knapp 80 Prozent der 144 5 Big Data in der Wirtschaft Mitarbeiter von deutschen Großunternehmen damit, dass digitale Technologien ihre Arbeit in den nächsten fünf Jahren übernehmen werden, und rund die Hälfte der Befragten kennen das Thema RPA und seine Konsequenzen. Allerdings haben erst zwölf Prozent der Unternehmen ihre Geschäftsprozesse bereits mitSoftware-Robotern umgesetzt (ibid.). Treffen wird es auch Bürojobs. Bereits innerhalb der nächsten fünf Jahre könnten gut 40 Prozent der Geschäftsprozesse im sogenannten backoffice von robotischer Prozessautomatisierung (RPA) erledigt werden, sagt die Beratungsagentur A. T. Kearney voraus (Martin- Jung 2018a).Dabei fällt auf: 58 Prozent von gut 7000 Pesonen die eine Tochtergesellschaft der Boston Consulting Group befragt hat, glaubten, die KI werde ihren Job niemals ersetzen können, in Frankreich waren es sogar 69 und in Deutschland 67 Prozent, die beiden weltweit höchsten Werte. In China dagegen, wo die KI schon alltäglich zu werden beginnt, waren weniger als ein Drittel der Meinung, sie seien unersetzlich (ibid.). In nur zwei Jahrzehnten, sagen Frey und Osborne weiter, werde die KI allein in den USA jeden zweiten Job kosten (cit. Hagelüken 2016, vgl. Frey 2017). Das bestätigen auch Experten der Universität Oxford mit der Prognose, in den USA würden bis 2030 etwa 47 Prozent aller Arbeitsplätze der Automatisierung von Prozessen zum Opfer fallen, besonders in den Bereichen Finanzen, Verwaltung, Logistik, Spedition und Produktion. Noch drastischer soll es den bislang 18 Prozent der US-Beschäftigten mit körperlicher Arbeit oder für die Bedienung von Maschinen in Standardsituationen ergehen. 81 Prozent von ihnen sollen durch Maschinen ersetzt werden. In der Datenerhebung sind bislang 17 Prozent der Beschäftigten tätig. Zwei Drittel auch von ihnen sollen überflüssig werden. Die Datenverarbeitung gibt 16 Prozent der Beschäftigten ihr Einkommen - 69 Prozent von ihnen wohl nicht mehr lange (McKinsey, cit. ibid.). Insgesamt soll allein im Jahrzehnt von 2020 bis 2030 der Prozentsatz der Arbeitplätze mit niedriger digitaler Kompetenz von über 40 auf 30 Prozent schrumpfen, der Anteil der Hochqualifizierten zugleich allerdings auch von 40 auf 50 Prozent steigen (McKinsey 2018: 4). In den bevölkerungsreichsten Staaten geht die Zahl der Arbeitsplätze, die von Automatisierung bedroht sind, hoch in dreistellige Millionenziffern: In China sind es fast 400, in Indien mehr als 230 Millionen (ibid.). Hierzulande arbeiten 42 Prozent der Berufstätigen in Jobs mit hoher Automatisierungswahrscheinlichkeit, 18 Millionen Jobs sind gefährdet (Ustorf 2017). In Japan und in Russland sind es jeweils doppelt so viele, nämlich 35 Millionen, in Großbritannien und in Italien jeweils knapp zwölf, in Frankreich knapp zehn und in Spanien annähernd neun Millionen (McKinsey, ibid.: 15). Selbst Drittweltländer sind zunehmend betroffen. Ein Beispiel: Adidas lässt T-Shirts inzwischen per Roboter in den USA für 33 Cent das Stück nähen. Denn das ist sogar billiger als Handarbeit in Billiglohnländern (BMBF/ Wi 2018: Schmidt). Natürlich schafft die Digitalisierung auch neue Arbeitsplätz. Sie könnte die Konkurrenzsituation sogar grundlegend zugunsten alter Industrieländer verändern (Hagelüken 2018): Die Digitalisierung bringt auch Produktion nach Deutschland zurück, lautet das Fazit einer Studie der Hochschule Karlsruhe. Sie spricht von 500 Rückverlagerungen pro Jahr (ibid.) - allerdings nicht die früher verlagerten einfachen Fertigungs-Jobs, sondern in höher qualifizierte der digitalen Planung und Steuerung. Diese Aussicht auf neue Jobs macht Hoffnung: Boston Consulting hat aus einer Analyse von 40 Berufen in 23 Industrien den Schluss gezogen, bis 2025 könne die Digitalisierung eine Million neue Jobs erzeugen, während „nur“ 610.000 wegfallen - es bliebe ein positiver Saldo von 390.000 neuen Arbeitsplätzen (Eberl 2016: 245). Dort Berufstätige werden nach Ansicht des IBM-Vorstandsvorsitzenden Gianni Rometty „keinen weißen oder blauen Kragen mehr haben. Menschen werden die Dinge mithilfe der Technologie beschleunigen und mehr Zeit mit wichtigen Aufgaben verbringen“ (Kumar 2017). 5.3 Die Wirtschaft 4.0 145 5 5..33 DDiiee WWiirrttsscchhaafftt 44. .00 Big Data sind in der Wirtschaft zusätzlich zu den klassischen Produktionsfaktoren Arbeit, Kapital und Boden, wie sie Adam Smith und nach ihm David Ricardo beschrieben haben, Teil des vierten Produktivitätsfaktors Information/ Kommunikation. Eine der wesentlichen Leistungen dieses Produktivitätsfaktors ist die Vernetzung. Vernetzt werden nicht nur Daten und Geräte, sondern ganze Geschäftsprozesse - Big Data ist deshalb kein reines Technologie-, sondern auch ein Strategiethema (Stange 2013). Andere Experten bezeichnen den vierten Produktivitätsfaktor auch anders, etwa wie schon 1854 Jean-Baptiste Say als unternehmerische Tätigkeit. Wieder andere verstehen Information als Form von Wissen und dieses wiederum als Teil des nach ihrer Ansicht vierten Produktivitätsfaktors Humankapital, was Leistungsfähigkeit des Menschen bedeutet. Noch andere Experten verstehen auch Energie als Produktivitätsfaktor eigener Art. Dies alles brauchen wir hier nicht weiter zu vertiefen; festzuhalten ist nur, dass Big Data bereits in den Rang eines grundlegenden Produktivfaktors aufgerückt sind. Das Schlagwort für die Bedeutung von Big Data in der Ökonomie heißt Wirtschaft 4.0, in der Industrie folglich Industrie 4.0. Sie und die Digitalisierung sind, je nach Branche, „die Megathemen unserer Zeit“ (Andelfinger/ Hanisch 2017: 1). Die Ziffer 4.0 ergibt sich, wenn man nach der traditionellen Phase der handwerklich geprägten Wirtschaft die Phasen der Industrialisierung durchnummeriert Dann heißt die Zeit der Dampfmaschinen Industrie 1.0, die Phase der Elektrifizierung Industrie 2.0 - ihr wesentliches Merkmal war die Massenproduktion an Fließbändern, die Henry Ford in den Schlachthäuseren Chicagos kennengelernt hatte; er übernahm sie in die Industriefertigung und produzierte auf ihnen jahrelang 80 Prozent aller US-Automobile in lediglich sechs Modellvarianten. Industrie 3.0 nennt man die Phase der Roboterisierung und Industrie 4.0 nun die datengetriebene Vernetzung der Produktion. Dieser Begriff entstammt der vom Bundesforschungsministerium (BMBF) gesteuerten der Hightech-Strategie. Es wurde auf der Hannover Messe 2013 in Umlauf gesetzt (ibid.: 8) und bezeichnet vollständig automatisierte Wertschöpfungsketten von Zulieferern bis zu Kunden sowie die ebenso automatisierte Kommunikation zwischen Menschen und Maschinen (ibid.; vgl. auch Lucks 2017, speziell in Bezug auf den Mittelstand vgl. Schulz 2017b.). Die Industrie 4.0 ermöglicht eine stärker als je kundenorientierte Fertigungslandschaft; denn Firmen können nun wissen, „wie ihre Produkte beim Kunden eingesetzt werden - aus B2B [business to business] wird B2B2C [business through business to customer]“(ibid.: 4). Zur Erläuterung: Bis zur Phase 3.0 war klar, was in einer Fabrik das Werkzeug war und was das Werkstück: Das Handwerkzeug und später die Maschine war das Werkzeug, der Rohstoff, das Halbzeug oder das entstehende Produkt war das Werkstück, das mit Hilfe des Werkzeugs entstand. In der digitalen Welt verlieren manche Produkte aber ihre materielle Substanz. In der Wirtschaft 4.0 lassen sich nämlich auch Datensätze als Produkte und damit als Teile von Wertschöpfungsketten betrachten. Wie Rohstoffe lassen sie sich in unterschiedlicher Weise verarbeiten, kombinieren und recyceln, um damit immer wieder neue Wertschöpfungen möglich zu machen. In dieser Phase 4.0 sind Daten anders als Rohstoffe also nicht nur Werkstück der Bearbeitung, sondern zugleich auch Werkzeug. Denn die Werkstücke kommunizieren nun in einem flexiblen Arbeitsprozess miteinander sowie mit Transporteinrichtungen und mit den beteiligten Menschen. Produkte können so individuell zur gewünschten Zeit nach Kundenwünschen hergestellt werden. In Firmen, die das systematisch umsetzen, verschmelzen Werkzeug, Werkstück und Markt zu einem System, das sich flexibel selbst organisiert und auf neue Anforderungen selbsttätig reagiert. Andere Unternehmen sind noch von einer „Hier-und-jetzt“-Mentalität 146 5 Big Data in der Wirtschaft geprägt, berichtet Wippermann (2017). Das lasse bisweilen „wenig Platz für Überlegungen im Hinblick auf die Zukunft“. Bei Problemen entscheide oft der geringste Investition- oder Zeitaufwand. Ohne IT-Standards und ohne Kontrolle von IT-Spezialisten führe das nur zu Bastellösungen mit einer „Schatten-IT“ (ibid.). Die Bevölkerung sieht schon wegen der Konsequenzen für wegautomatisierte Arbeitsplätze in der Wirtschaft 4.0auch eine Gefahr: Nur 19 Prozent der Deutschen fanden in einer Umfrage des Allensbacher Institutes für Demoskopie vom April 2016 den Begriff Wirtschaft 4.0 sympathisch, und das Wort „Digitalisierung“ weckte nur bei 42 Prozent positive Gefühle (brand eins 2016). Und die Politik? „Als ich noch im politischen Hamsterrad gefangen war“, sagt der heute im amerikanischen data business tätige frühere deutsche Verteidigungsminister Karl-Theodor zu Guttenberg, „habe ich Dramatik und Geschwindigkeit der digitalen Revolution nicht erkannt“ (Brettning/ Dunker: 47). Seither sind die Ministerien in Berlin und Bonn aber wacher geworden. Die Bundesregierung fördert die intelligente digitale Vernetzung von Unternehmen und die autonome, regelbasierte Steuerung von Wertschöpfungsfunktionen anhand von Massendatenanalysen massiv (Sauter 2016: 3): in der Landwirtschaft, in der Automobilindustrie und generell für Verkehrssysteme, in der Telekommunikation, zur Energiewende, im Handel, in der medizinischen Forschung und Diagnostik, in der Bildung, im Finanzwesen und generell in der öffentlichen Verwaltung, zur Vorhersage von Krisensituationen und zur Verbesserung des Datenschutzes in Rechenzentren (Bitkom 2015: 2). Inzwischen ist die Politik auf diesen Gebieten sehr wach, denn „die Veränderungen, die mit der Smart Data-Nutzung einhergehen, haben im Grunde die Kraft einer Revolution, die sich nicht nur im eigenen Land abspielt“ (Markl in: BMWi 2016: 9). Firmen, die im BigData-Geschäft tätig sind, sind überzeugt, dass mit Daten morgen Dinge möglich werden, die heute noch unvorstellbar sind, so der Cloudera-Mitgründer Mike Olson (Schumacher 23017). Nach seiner Auskunft werden erst weniger als 50 Prozent der strukturierten Daten aktiv zur Entscheidungsfindung herangezogen, unstrukturierte Daten würden gar nur zu weniger als einem Prozent genutzt. Wegen der schnell wachsenden Zahl an IoT-Geräten und ihrer Datenströme werde die Herausforderung noch zunehmen. Olson zitierte eine IDC-Studie, der zufolge der Datenstrom im Internet der Dinge bis 2020 rund 30 Milliarden Geräte vernetzten soll (ibid.). ABB sprach bereits für das Jahr 2017 von 70 Millionen miteinander verknüpften Geräten, deren Daten in 70.000 dezentralen Systemen automatisch verarbeitet werden. Zehn Prozent davon sind end-to-end-Systeme, die in der cloud jeweils eine gesamte Prozesskette steuern. Nochmals Beispiele: Unterschiedlichste Wirtschaftsbereiche, bei Weitem nicht nur industrielle, nutzen in schnell wachsendem Maß GPS-Daten für operative, dispositive und optimierende location intelligence. Mit dieser sogenannten Geocodierung kann beispielsweise eine Stadtverwaltung bei Großveranstaltungen den Strom der Fußgänger lenken und überhaupt den Verkehr überwachen. Mobilfunkanbieter können ihre Kapazitäten nach der örtlichen Nutzerfrequenz steuern, Spediteure die Fahrzeiten ihrer Lieferfahrzeuge und Agrarbetriebe ihre Maschinen auf den Feldern anhand von deren Standortdaten optimieren. Für die Geocodierung gibt es inzwischen sehr leistungsfähige Software (Matzer 2017a). So verknüpft das deutsche Projekt GeoMultiSens satellitenbasierte Sensordaten des Deutschen Forschungszentrums für Geowissenschaften (GFZ) mit Petabyte großen Datenpaketen des Zuse Instituts Berlin (ZIB), mit Daten aus der Berliner Humboldt-Universität und solchen der Geoinformatics Group beim GFZ. Und so funktioniert Geocodierung in der Praxis: Mit Big Data gesteuerte Traktoren ackern und ernten automatisch und fahrerlos bis auf zwei Zentimeter genau, wenn das zu bearbeitende Land ebenso genau kartiert ist. Man hat überlegt, insektenkleine Mikrodrohnen mit Sensoren regelmäßig Flächen überfliegen und dabei Daten sammeln zu lassen. Die 5.3 Die Wirtschaft 4.0 147 Physik setzt solchen Mikrodrohnen allerdings Grenzen. Ein Team um Ronald Fedkiw von der Stanford-Universität klebt stattdessen ein mit Sensoren, Energieversorgung, Controller und Sender nur 30 Milligramm wiegendes Mikrosystem lebenden Bienen auf den Rücken. Wohin sie fliegen, wird per Wlan regisitriert. Mit diesem Huckepack-Sender erregen Bienen im Korb bei ihren Artgenossen kein Missfallen. Ob er sie daran hindert, wie üblich Honig zu sammeln, weiß man noch nicht (Rüdiger 2018a). Ist ein Stück Land erst einmal ausreichend genau kartiert, weisen digitale Karten Maschinen im Frühjahr an, auf welchem Streifen Land sie wie viel Samen oder Dünger ausbringen sollen. Im Sommer und im Herbst ernten Landmaschinen dann bis zu rund 120 Tonnen Ackerprodukte pro Stunde. Die müssen zeitlich exakt von den Feldern abtransportiert werden. Mähdrescher registrieren automatisch, wann ihr Korntank annähernd voll ist und rufen dann ebenso automatisch über Mobilfunk ein Transportfahrzeug heran. Auch diese „kennen“ automatisiert das Gelände und den Mähdrescherstandort und suchen sich den besten Weg vollautomatisch. Sie achten auf die Zeit und die Schonung des Bodens. Die übernommene Getreidemenge melden sie einschließlich Qualitätsdaten schon vom Acker aus an den Betrieb. Das alles organisiert die Maschine-zu-Maschine-Kommunikation im Verbund mit GPS und Big Data, ohne dass irgendeine Person eingreifen muss (Bitkom 2017: Wocken). Das Programm steuert alle Abläufe so, dass es mit minimalem Aufwand das maximale Ergebnis erreicht.Mehrere Anbieter wie z.B. Claas, John Deere, Fendt, ATC und Case IH arbeiten an selbstfahrenden Traktoren (Crisp 2018: 12). Empfängt eine Landmaschine jedoch Wetterdaten mit Regenwarnungen, signalisiert sie dem Fahrer - so lange es ihn noch gibt -, statt mit minimalem Spritverbrauch nun wetterbedingt mit maximalem Tempo zu fahren (https: / / www.agrarheute.com/ news/ farming-40-getreideernte). Mit etwas Glück erntet der alles Getreide dann nämlich noch trocken. Ein weiteres Beispiel: Microsoft verarbeitet rund drei Petabyte Daten der Münchner Rückversicherung über Naturkatastrophen, die das Unternehmen seit 1974 gesammelt hat (Rüdiger 2018), und leitet daraus Prognosen über den nötigen Wetterschutz ab. Und noch ein Beispiel: Das Unternehmen TerraLoupe arbeitet mit Luftbilddaten, die heute in Genauigkeiten von bis drei Zentimetern pro Pixel erhältlich sind, und leitet daraus Anwendungen vor allem für das Segment „Haus“ ab (Rüdiger 2018). Ein letzter Hinweis: In speed boats, den Formel 1-Boliden unter den Rennbooten, liefert eine Vielzahl von Telemetriesystemen hundertmal pro Sekunde mehr als siebzig Messdaten des Rumpfes und der Maschinen als eine Grundlage für Rennanalysen und Materialoptimierungen (IBM o.V. 2015). Schnell gewachsen ist die Bedeutung von Big Data in der vorbeugenden Instandhaltung. Sie bedeutet traditionell, dass man Werkstücke und Werkstoffe nach einer durchschnittlichen Betriebszeit ersetzt, weil es billiger ist, auf eine mögliche Restlaufzeit zu verzichten als eine Störung zu riskieren. Ein typisches Beispiel für das traditionelle Verfahren war der Ölwechsel in Automobilen nach vorab festliegenden Kilometerleistungen ohne Ermittlung des tatsächlichen Verschleißes. Wird dieser aber stetig gemessen, kann man mit dem Austausch bis zum letzten Moment warten oder, wenn Messdaten früher Alarm schlagen, frühzeitig eine Störung vermeiden. Diese predictive maintenance soll Fehler und Störungen gar nicht erst aufkommen lassen. Stets geht es um die maximale Ausschöpfung der Anlageninvestition bei minimaler Störung des Produktionsablaufs (Bitkom 2017: Schinkel). Aus ökonomischen Gründen misst man nicht fortlaufend jedes Bauteil in all seinen physikalischen Eigenschaften in einem sogenannten whitebox-Modell. Denn in einer blackbox kann man aus wenigen beobachteten Messgrößen indirekt verlässliche Prognosen ableiten. Sensordaten signalisieren dabei eventuelle Schäden und Störungen, die analog unter Umständen noch gar nicht erkennbar sind. Die Datenanalyse stellt dann fest, was zu tun ist, noch bevor es zu Ausfällen kommt. So lassen sich ungeplante Reparaturen vermeiden und Anlagen vorausschauend steuern. 148 5 Big Data in der Wirtschaft Die Effekte einer solchen Prozessautomatisierung können hoch sein. ABB durchforstete beispielsweise den Betrieb eines unrentabel gewordenen schwedischen Bergbaubetriebs, Boliden Garpenberg. Dieser ältesten Mine des Landes drohte die Schließung. Nach ABB- Vorschlag erhob die Mine kontinuierlich Daten und überwachte ihre Abläufe, verringerte so den Personal-, Material- und Energieaufwand erheblich und steigerte die Abbaumenge um 60 Prozent. Die Mine schreibt wieder schwarze Zahlen (Bitkom 2017: Weiss). Das Beratungsunternehmen Fujitsu beziffert solche Einsparpotenziale bei Fertigung und Logistik auf durchschnittlich 10 bis 30 Prozent der Kosten, in der Wartung sogar auf 30 bis 40, in der Qualität auf 10 bis 20 und bei Instandhaltungen auf 20 bis 30 Prozent (ibid.). So weit zur Anbieterseite. Nun zu den Verbrauchern. Wer seine Kunden genau genug kennt, kann sie individueller versorgen. Intelligente Stromzähler, die es in den USA und Kanada bereits zu Millionen gibt, schicken alle 15 Minuten Statusmeldungen von wenigen Kilobyte an den Energieanbieter. Das klingt nicht nach Massendaten. Aber je mehr Stromzähler das sind, umso mehr Datensätze sind viermal pro Stunde zu verarbeiten - in Summe Big Data (Matzer o.J.d: 9). Auch hierzu wieder ein Beispiel: Auf dem Stuttgarter Flughafen hat man 2015 rund zehntausend Sensoren in alle Stromverbrauchsgeräte gesetzt, in Messstellen und Zähler für Strom, Wärme und Kälte sowie in Lüftungssysteme zur Messung von Temperatur und Luftfeuchte. Alle Daten dieser Sensoren werden mit weiteren zusammengeführt, etwa zum Fluggastaufkommen oder zu Wetterprognosen. Mit diesen Daten lässt sich die Energieversorgung der Infrastrukturen zuverlässig, stabil und kostengünstig steuern (Matzer o.J.d: 7). Was Individualisierung auch in der Fertigung bedeuten kann, probiert beispielsweise das Unternehmen Adidas aus. In seiner Speedfactory testet es die Herstellung individueller Sportartikel in der Serienfertigung mit gerade einmal hundert Beschäftigen.Im Kern läuft sie nämlich computergesteuert. Die Sportschuhe kommen zum Teil aus dem 3D-Drucker. Der Kunde kann das Aussehen seines Schuhs mitbestimmen und bekommt genau das, was er will. Das schafft eine hohe Kundenbindung und die Erkennung von Trends wird einfacher (Rother 2017). Adidas versucht seine Daten auch überbetrieblich nutzbar zu machen: Aus 100.000 Joggingläufen ermittelte das Unternehmen das durchschnittliche Alter der Läufer, den Wochentag (in Paris joggt man sonntags doppelt so häufig wie werktags, in Berlin sind es sonntags nur +30 Prozent) und die Stunde (in Tokio am stärksten um sechs Uhr früh und neun Uhr abends, in Berlin gegen zehn Uhr vormittags und und zwischen fünf und sieben Uhr abends) und sucht nun Städte, die ihr Sportangebot verbessern wollen. Bei Nike erhalten Kunden beim Betreten des Geschäfts über das Mobiltelefon Informationen über Angebote, die zu ihren Vorlieben passen. Digitale Tische bieten Kunden auf Wunsch Detailinformationen zu den ausliegenden Produkten. Die Firma liefert Ware auf Wunsch auch nach Hause (ibid.). Die Versicherungsbranche hat es wegen der Vielzahl versicherter Risiken, unterschiedlichster Kunden und je nach den Umständen des einzelnen Falls mit einer Vielzahl von Dokumenten zu tun. Einige Versicherer nutzen zu deren Bearbeitung das IBM-System Watson Complaint Analysis, ein selbstlernendes System mit machine learning-Komponenten in einem Rechnerverbund von 90 Rechnern mit 19 Terabyte Arbeitsspeicher. Dieses Programm reagiert auf Zuschriften von Versicherten automatisch, erkennt in Kundenschreiben Unmutsäußerungen, analysiert sie und bereitet die Inhalte auf. Watson kann sogar Ironie erkennen. Schreibt ein Kunde etwa „Vielen Dank für die schnelle Schadensbearbeitung“, beschwert sich aber im nächsten Satz, erkennt Watson das Wort „schnell“ als Ironie und reagiert richtig (IBM o.V. 2015). Andere Versicherer waren zumindest bis vor Kurzem noch nicht so weit. 2014 hatten von 30 europäischen und nordamerikanischen Versicherern 90 Prozent noch gar keine Big Data-Strategie (BearingPoint 2014). 5.3 Die Wirtschaft 4.0 149 Dabei liegen die Nutzenpotenziale auf der Hand (vgl. Wagner/ Makowski 2015). Versicherungen haben im Schriftverkehr kniffligen Aufgabe zu lösen: Sie müssen nach Möglichkeit feststellen, ob und wo in den Aussagen eines Dokuments etwas nicht stimmt. Das sollen Maschinen erkennen. Dazu ist als erstes ein knowledge graph nötig, also ein Archiv voller Begriffe, die in Zuschriften vorkommen, und dann eine grammatikalische und logische Analyse der Wortzusammenhänge. Beides zusammen ist die Basis, um einen Text maschinell verstehen zu können. In Dokumenten werden für gleiche Sachverhalte nämlich unterschiedliche Begriffe verwendet - das System muss trotzdem den gemeinsamen Nenner erkennen. Das funktioniert mittlerweile recht gut. Danach sollen die Schadensaufnahme, Bewertung und Regulierung gerecht, schnell und kostengünstig ablaufen. Maschinen erledigen inzwischen 60 bis 80 Prozent dieser Arbeit. Diese Standardisierung führt zu erheblicher Kostenersparnis (Bitkom 2017: Lackner). Ebenso wichtig wie alle diese technisch begründeten Big Data-Nutzungen sind die, die das Marketing nachfragt. Auch dazu ein Beispiel von vielen: Disney führte in seinen Erlebnisparks für seine Besucher Armbandtickets mit GPS-Empfänger und NFC-[near field communication]-Sender ein. So stellt Disney fest, wie sich die Besucher bewegen, wo sie verweilen oder wo Überfüllung droht. Das ermöglicht es, Besucher in Echtzeit besser zu steuern (Stricker 2014: 3). Sensoren alleorten, mobile Endgeräte im Besitz von Kunden, postings und tweets in sozialen Netzwerken - alles kann dabei helfen, nicht nur Fakten zu registrieren und zu verarbeiten, sondern auch Stimmungen aufzuschnappen, aktuelle Markttrends zu erkennen, Entwicklungen zu simulieren und konsolidierte Informationen in weitreichende und strategische Unternehmensentscheidungen einfließen zu lassen (Brettning 2013). Big Data-Auswertungen werden so zum nahezu überall einsetzbaren Instrument, um die Wirtschaft und die Gesellschaft zu organisieren. Wie aussagekräftig sind solche Momentaufnahmen für die Zukunft? Das können Sie selbst abschätzen, wenn Sie statistische Zahlen vergleichen. Der Branchenverband Bitkom ermittelt sie in Deutschland zusammen mit der KPMG jeweils zum Jahreswechsel bei Firmen in zwölf Branchen mit über einhundert Mitarbeitern quer durch die Wirtschaft. Befragt werden Geschäftsführer und Fachbereichsleiter nach Zielen und Herausforderungen von Datenanalysen, danach also, wie Firmen diese Datenanalysen nutzen und wie zufrieden sie mit den Erkenntnissen sind. Hier die Kernergebnisse: Unstrittig bestimmen Big Data die Produktivität zunehmend mit. Während Cole noch warnt, die deutsche Wirtschaft verschlafe gerade die digitale Zukunft; sie müsse sich „vor allem beeilen! Denn im Digitalzeitalter ticken die Uhren im Takt von Moore’s law, wonach sich die Leistungsfähigkeit digitaler Systeme ungefähr alle 18 Monate verdoppelt“ (Cole 2017: 13), geben vier von fünf deutschen Unternehmen an, wichtige Entscheidungen zunehmend auf der Basis von Datenanalysen zu treffen. Bei über zwei Dritteln der Befragten spielen solche Analysen in der Wertschöpfung eine immer größere Rolle (Martin-Jung 2016). Auf den ersten Blick geschieht viel. Alle Firmen arbeiten mit Firmendaten und analysieren sie IT-gestützt. Eine starke Dynamik gibt es bei systemisch genutzten Daten, das sind in erster Linie Standort- und Sensordaten z.B. aus der Produktion. Es folgen Kundendaten (86 Prozent) und öffentlich verfügbare Daten (70 Prozent). Schon 2015 gaben drei Viertel der befragten Unternehmen an, Entscheidungen zunehmend auf Erkenntnissen aus Datenanalysen zu treffen, 2016 bereits 80 Prozent. Am seltensten benutzt wurden wissenschaftliche Publikationen, regulatorische Daten und - Achtung - Daten aus sozialen Netzwerken. Erst jedes fünfte Unternehmen analysierte sie zu diesem Zeitpunkt. Das überrascht, da gerade hier neue Erkenntnisse locken. Bitkom vermutet als Ursache Unsicherheiten bei der rechtlichen Bewertung (ibid.). 150 5 Big Data in der Wirtschaft An besseren Informationen zum Datenrecht besteht großer Bedarf. Viele Firmen nennen dieses Rechtsgebiet schwer durchschaubar. Jedes zweite Unternehmen glaubt, es gebe gar keines. Zwei Drittel der Unternehmen sind unsicher, ob sie alle Datenschutzregeln einhalten. 47 Prozent zweifeln am Datenschutz ganz generell (ibid.). Stark gestiegen ist aber die Ansicht, Datenanalysen verringerten unternehmerische Risiken. Das sagten 2016 erst 31 Prozent, aber 2017 schon 51 Prozent. Nach einer anderen Quelle halten fast alle deutschen Firmenchefs (96 Prozent) eine effektive data analytics-Strategie für wachstumsentscheidend. 80 Prozent glauben, dass ihr derzeit installiertes System Geschäftsergebnisse zuverlässig vorhersagt (Hensel 2017). Laut Cole arbeiten gerade Banken und Versicherungen intensiv an Risikominimierungen. Mit Big Data-Analysen können sie sie genauer voraussehen und damit verringern. Unterschiedlich fällt die Big Data-Wertschätzung bei der Geschwindigkeit aus, mit der Entscheidungen getroffen und Produkte eingeführt werden. Fast 50 Prozent der Firmen registrieren mehr Tempo, nur 17 Prozent mehr Verzögerung. 15 Prozent konnten durch Datenanalysen 2016 ihre Kosten nennenswert reduzieren. 2017 galt dies für 19 Prozent (Cole 2017). Schaut man genauer hin, dominierten in den Unternehmen zumindest 2016 aber noch einfache, deskriptive Datenanalysen wie z.B. Excel-Tabellen. Um Gründe für geschäftliche Erfolge oder Misserfolge zu finden, setzte jedes zweite Unternehmen sie ein. Cole warnt, da müsse sich noch viel verändern. Denn mit Digitalisierung, Vernetzung und Mobilität sind, um Cole zu zitieren, „die Folgen atemberaubend. Es entsteht sozusagen der perfekte Sturm, der alles hinwegfegt! “ (Cole 2017: 13). Europäische Firmen lagen gegenüber amerikanischen lange zurück. 2015 arbeiteten 28 Prozent der US-Unternehmen mit Big Data und jedes zweite hatte zumindest ein Pilotprojekt laufen. In Europa waren erst 18 Prozent der Firmen mit Big Data aktiv, Pilotprojekte gab es bei 39 Prozent (Bange 2015). 2017 stellten die „Data & Analytics Trends 2017“ von Teradata dann überraschend fest: Deutsche Unternehmen führen in drei von vier Feldern der Datennutzung weltweit: beim Einsatz von Datenanalysen (84 Prozent), in der digitalen Transformation (82 Prozent) sowie im data warehousing (82 Prozent). Nur beim Einsatz von IoT-[Internet der Dinge]-Technologien mussten sich deutsche Firmen hinter Australien (70 Prozent) und Indien (69 Prozent) mit einem dritten Platz begnügen (Hensel 2017). Erst eine Minderheit der Unternehmen nutzt laut Bitkom aber Auswertungstools, die auch Vorhersagen möglich machen. Die Bedeutung anspruchsvollerer Analysen nimmt jedoch deutlich zu. Knapp 40 Prozent der Firmen setzten solche ein, ebenso viele weitere planen das oder diskutieren zumindest darüber, unterschiedlich nach Branchen. In den Medien- und in der Automobilbranche lässt etwa jede dritte Firma solche Analysen machen, in der Logistik und bei Banken nur etwa jede zehnte. Das bestätigt auch eine Studie über die digitale performance europäischer Banken. Ihr zufolge liegt der Einsatz von Big Data- Analysen für personalisierte Marketing-Strategien bei Banken noch in weiter Ferne. Dabei sitzen Finanzinstitute mit ihren Kundenadressen und mit dem, was sie zum Beispiel aus Kreditverträgen über ihre Kunden wissen, „auf einem Berg von digitalem Gold“ (Fiore 2017). Da liegt großes Potenzial brach. Immerhin gibt es Bewegung: Die Zahl der Firmen, die Maßnahmen überlegen, ist in einigen Branchen schon größer als die der bereits aktiven. Sie erkennen also, dass sie mitziehen müssen (Bitkom 2017: Heitkamp/ Pols). Diese Bitkom-Einschätzung bestätigt Beobachtungen des Maschinenbau-Professors Holger Hütte: „Digitalisierungmeint eben viel mehr als Produkt- und Prozessinnovation“ (cit. Prussky 2017). Neue Werte und Angebote auf der Basis einer digitalen Erfassung des Zielgruppenverhaltens nennt er viel entscheidender als technische Innovationshebel. „Gerade kleine und mittlere Unternehmen“, urteilt jedoch auch Hütte, „tun sich da noch schwer“ (ibid.). 5.4 Big Data in der Automobilindustrie 151 Schwer wiegen Langfristfolgen der Datenrevolution. Fast 60 Prozent der Firmen erwarten in ihrer Branche massive und weitere 28 Prozent moderate Umwälzungen, zusammen also 87 Prozent. Zugleich erklärten 2016 erst 44 Prozent, sie seien auf sie hinreichend vorbereitet (Kane 2016). Selbst wer weniger Befürchtungen hat, kann nicht übersehen, dass die datengetriebene Wirtschaft 4.0 massive Konsequenzen für den Arbeitsmarkt und damit für das von erfüllender Arbeit abhängende Selbstverständnis vieler Menschen bringt. Die Wirtschaft 3.0 hat im großen Stil ausführende menschliche Tätigkeiten durch Maschinenarbeit ersetzt. Die Wirtschaft 4.0 macht nun menschliche Arbeitskraft nicht nur für kontrollierende, sondern in stark wachsendem Maß auch für dispositive Aufgaben überflüssig. Technische Systeme lösen solche Aufgaben zunehmend schneller und stetiger, billiger und weitgehend ohne Ausfälle (Horvath 2016) und prägen damit eine Gesellschaft 4.0. Inzwischen ist - beginnend in Japan - schon von der Gesellschaft 5.0 die Rede, der Gesellschaft, die mit der globalen Vernetzung von allem und jedem in erster Linie über das Internet der Dinge zurecht kommen muss (BMBF/ Wi 2018: Martin). Trotz aller Trendsignale bleibt eines erstaunlich: Eine Big Data-Strategie hat nach wie vor nur eine Minderheit der Firmen, nämlich erst rund ein Drittel. Besonders kleinere und mittlere Unternehmen liegen zurück (Bitkom 2017: Heitkamp/ Pols). Die Medienbranche ist mit gut 50 Prozent vergleichsweise gut vertreten, Banken mit 40 Prozent. In der Automobilindustrie sind es erst ein Drittel der Firmen. Dort dominiert der top-down-Ansatz so stark, dass bottom-up-Verfahren noch nicht stark entwickelt sind. (ibid.). In einem stimmen Skeptiker und Befürworter der datengetriebenen Wirtschaft weitgehend überein: Zwei Drittel (67 Prozent) der Befragten erwarten, dass sich der Stellenwert von Big Data in ihrem Unternehmen in den kommenden drei Jahren weiter erhöhen wird. Schon 2015 lag dieser Wert mit 63 Prozent auf einem hohen Niveau. Big Data bleibt somit gerade in der Wirtschaft - und nicht nur dort, wie der nächste Abschnitt zeigen wird - ein wichtiger Zukunftstrend (Bitkom 2017: Heitkamp/ Pols). Angesichts der aufkommenden Künstlichen Intelligenz ist diese die Neuordnung der Arbeitswelt eine riesige Herausforderung. 55..44 BBiigg DDa attaa i inn dde err AAuut to om mo ob bi illi in nddu ussttrriie e Kaum eine Branche zeigt so schlagend wie die Automobilindustrie, dass die Wirtschaft ihre Strukturen grundlegend neu aufsetzen muss. SAP betrachtet diesen Industriezweig nach einer Reengineering-Welle der 2000er Jahre für mehr Qualität neuerlich als Vorreiter einer Transformation. Die Autofirmen nutzten „die neuen Möglichkeiten von Big Data und realtime computing, um ihr gesamtes Geschäftsmodell neu zu definieren“, urteilt SAP-Manager Faisst (Stricker 2014: 3). Kaum eine Branche muss dabei so grundlegend umlernen. Automobilingenieure sind es seit Generationen gewohnt, Metalle zu verarbeiten. Ihre Ingenieure müssen nun aber als data scientists agieren - frei nach dem Motto des früheren General Electric-Bosses Abhi Kunte: „If we don‘t start becoming and behaving like a true software company we don‘t have a future”(Crisp 2018: 12). Ein mindset change und entsprechende Qualifikationsmaßnahmen sind unumgänglich (Bitkom 2017: Blankenburg), und zwar auf allen Ebenen dieser Konzerne. Audi-Manager Mathias Ulbrich, bis Anfamg 2018 CIO des Unternehmens, bestätigt: „Wir betrachten Big Data über die komplette Wertschöpfungskette hinweg“ (Ulbrich 2013). Schon 2013 rechnete er pro Tag mit Datenvolumina im mehrstelligen Gigabyte-Bereich (ibid.), und das, obwohl es „die perfekte Feedbackschleife über den kompletten Produktlebenszyklus hinweg“ zu diesem Zeitpunkt noch gar nicht gab, nur „erste Leuchtturmprojekte“ (Fromme 2013). 152 5 Big Data in der Wirtschaft Big Data prägen zunehmend die Fahrzeugentwicklung und den Fahrzeuggebrauch. Der damalige VW-Chef Martin Winterkorn nannte seine Autos schon 2014 „rollende Rechenzentren“ (cit. Keese 2014: 181). In der Produktion und Logistik melden Sensoren in vernetzten Maschinen deren Status und Störungen früher, die betriebswirtschaftliche Software reagiert darauf in Echtzeit (Stricker 2014: 3). Auch das Auto selbst kommuniziert und versteht. Big Data liefern zum Beispiel Informationen zum Fahrverhalten. Mit ihnen lässt sich das Auto an Gewohnheiten der Fahrer anpassen. Automarken differenzieren sich über Zusatzleistungen, nicht zuletzt durch Fahrerinformationssysteme. Auch dort kommen Big Data zum Einsatz. Ebenso ist das car sharing durch Big Data optimierbar. Diese Aufzählung ließe sich weiter verlängern. Statt das zu tun, umreißen wir nun in elf Schlaglichtern die Aktionsfelder, die die Datennutzung in der Autobranche grundlegend verändert. Fokus 1: Forschung und Entwicklung Die Zielrichtungen der heutigen Fahrzeugentwicklung sind nicht so neu, wie es auf den ersten Blick scheint. Schon im Mai 1968 gab es in Los Angeles unter dem Titel Command and Control of Vehicular Forces eine Tagung des Institute of Electrical and Electronics Engineers IEEE, auf der die Fahrzeugsteuerung, der Fahrer, die Ortung sowie Trends in der Steuerungstechnik im Zentrum standen. Man stehe, hieß es dazu, „am Beginn einer Ära, in der sich automatische Steuerung und Kontrolle bis in den Kleinwagenbereich“ durchsetzen würden. Automatisches Fahren werde ebenso kommen wie automatische Ortung. Die Kommunikation mit dem Fahrzeug werde akustisch wie elektronisch erfolgen (Lindholm 1969, cit. nach Buschauer 2014: 419). Was damals gefordert wurde, ist mittlerweile Realität. Die Vernetzung von Daten aus Internet-Autoforen und Autohäusern, Automobilmessen und Blogs ermöglicht es, Kundenverhalten vorherzusagen. Damit kann man Autodesigns früher und zuverlässiger auf ihre Kundenakzeptanz bewerten und so die Erfolgsquote neuer Modelle und die Innovationsrate im Unternehmen erhöhen (Scheiderer 2017). Ein Beispiel: In der Entwicklungsphase des Jaguar Land Rover SUV-Modells Evoque packten Designingenieure mit ihren Fahrzeugsimulationen schon 2013 Tag für Tag Plattenspeicher im Terabyte-Bereich mit Daten voll. Virtuelles prototyping und Big Data- Vergleiche prägten nicht nur das äußere Erscheinungsbild des Fahrzeugs, sondern auch die Arbeitsweise der Entwicklungsteams. Denn wie jedes neue Fahrzeug haben sie auch dieses in all seinen Eigenschaften zunächst digital beschrieben und erst dann konstruiert (Fromme 2013). So kann man die endgültige Konstruktion länger offenhalten und Veränderungen bei Technologien, im Markt und im Wettbewerb in kürzerem Abstand zur Produktpremiere noch einfließen lassen. Auch Daimler-Benz verlängert diese Phase vor dem so genannten design freeze. Nach dern Worten von Entwicklungsvorstand Thomas Weber lassen sich schon seit Jahren sechs Monate und mehr gewinnen, wenn mehr digital abgesichert wird. „Das macht uns schneller, effizienter und spart Geld“ (Fromme 2013). Vor fünf Jahren hat auch Volkswagen begonnen, das Thema Big Data professionell aufzugreifen. 2017 arbeiteten im Münchner VW Data Lab des Konzerns rund hundert Personen gemeinsam mit Tech-Startups aus Deutschland, aus dem Silicon Valley, aus Israel sowie mit Universitäten und anderen Partnern. Weltweit suchen sie Innovationen und versuchen dabei selbst wie ein Startup zu agieren, „schnell auszuprobieren, durch trial and error bzw. try fast and succeed fast. Gebe es einmal keinen success, dann gelte eben „lessons learned“, sagte 2017 die damalige Data Lab-Chefin Cornelia Schaurecker (Bitkom 2017). Dieses Wissen nutzt das Data Lab als open source für die zwölf Marken des VW-Konzerns, damit Erfahrungen konzernintern bekannt und breit verfügbar werden. Ein internationales Team ist da zu- 5.4 Big Data in der Automobilindustrie 153 gange: „Wir sprechen über 20, ja 25 verschiedene Sprachen. Die data scientists kommen aus aller Welt“ (ibid.). Seit Oktober 2016 gehört zum Lab ein AI research team. Es soll fünf Jahre und mehr im Voraus abschätzen, was kommt. Das VW Data Lab ist in sämtliche Bereiche der automobilen Wertschöpfungskette eingebunden - von der Entwicklung über die Beschaffung und die Produktion sowie das Finanzwesen bis hin zur Qualitätssicherung, zum Marketing, zu after sales, zu den Händlern und den vernetzten Kunden. „Eine imaginäre Kriegskasse zeigt uns, welche Einsparpotentiale gemeinsam mit den Fachbereichen erarbeitet werden. Natürlich zahlt nicht jeder news case sofort in die Registrierkasse ein; manche sind sehr, sehr strategisch. Immer betrifft das drei Bereiche, den connected customer, das connected product und die digital enterprise“ (ibid.). Eine Beratungsfirma half, das Lab in seiner Kultur, Arbeits- und Denkweise wie ein Startup aufzubauen. Erste Ideen gab es im Frühjahr 2013. In Betrieb ging das Lab im November 2014. Zuvor gab es zwar schon Big Data-Projekte bei den einzelnen Marken. Synergien ergab das aber kaum. Seither hat Volkswagen alle data analytics-Kompetenzen für interne und externe data scientists, Robotik-Spezialisten und Experten verschiedenster Fachrichtungen von der Statistik und Mathematik über die Informatik bis zur Betriebswirtschaftslehre im Lab versammelt. Sie sollen IT-Lösungen für Big Data und das Internet der Dinge entwickeln. Mittlerweile hat das im Szeneviertel Schwabing (https: / / datalab-munich.com) tätige VW Data Labeinen ebenfalls firmeninternen Wettbewerber in Berlin bekommen (https: / / vw-dilab.com), ebenfalls im Szeneviertel der Hauptstadt, in Friedrichshain im früheren Osthafen. Das Berliner Team sucht den Schulterschluss mit den dortigen über tausend start-ups, „to build products beyond the scope of the traditional Volkswagen core business in order to create a new digital ecosystem for the group’s brands“ (ibid.). Was hat dazu ein Autobauer wie Volkswagen, das Google nicht hat? Fahrzeugdaten! Smartphone-Daten reichen für viele Anwendungen nicht aus, nicht beispielsweise für das künftige autonome Fahren. Außerdem arbeiten die data scientistsdes Autoherstellers beispielsweise an Apps, die frühzeitig erkennen, wo ein Parkplatz in der Stadt frei wird. Dazu kommen nicht nur Mitarbeiter von Technologieanbietern immer wieder temporär ins Lab. Auch Gäste aus externen start-ups oder aus der Wissenschaft schauen für ein paar Wochen vorbei. Wenn das lab eine Technik nicht hat, dann lädt es sich ein start-up ein und erarbeitet mit ihm Lösungswege gemeinsam oder fragt Wissenschaftler, etwa die des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS. Es kann in einem internetbasierten Automobilforum mit semantischer Textanalyse über 30 Millionen postings zu Fahrzeugen, Autoteilen und Herstellern durchforsten und auswerten. Daraus ergeben sich Themen und Stimmungsbilder für verschiedene Märkte. Verknüpft man sie mit Daten aus der Produktion, der Fahrzeugdiagnose sowie mit Kunden- und Werkstattberichten, sind die gewonnenen Einblicke für die Marktforschung ebenso nutzbar wie für die Produktentwicklung und das Qualitätsmanagement (Stange 2013). Die Richtung, in der diese Entwicklung läuft, haben Packer und Oswald zur These gebündelt, das Auto sei keine Maschine mehr, sondern eher ein device aus einer Vielzahl digitaler Steuerungen, ein Instrument digitaler Navigation für die medientechnisch transformierte Automobilität (2010: 319). Autos wandeln sich zu mobiler Medientechnik, einer screening technology, gesteuert durch networked control auf der Basis von bandwidth (ibid.: 335f.), zu deutsch in eine breitbandig vernetzte, von Bildschirmen gesteuerte Technik. Was wird diese Entwicklung bringen? Das Auto wird zum „Smartphone auf Rädern“ (Lesch, ZDF 2017). Sobald sprachgesteuerte Endgeräte serienreif sind, wird man Infos in Autos und ebenso in Smartphones gar nicht mehr eintippen müssen, sondern kann ihnen einfach sagen, worum es geht. Mixed reality-Anwendungen sollen Smartphones mittelfristig sogar ganz ersetzen (Noska 2017). Braunschweiger Wissenschaftler erprobten bereits vor 154 5 Big Data in der Wirtschaft enigen Jahren den automatischen Kontakt entsprechend programmierter Autos etwa mit Ampeln, die ihnen zufunken, wie lange sie noch grün zeigen werden. Bislang ist kaum möglich, den kompletten Bewegungsprozess rund um ein Automobil, den wir Menschen in Sekundenbruchteilen registrieren - in Fahrsimulatoren wird das derzeit wissenschaftlich ermittelt -, ebenso schnell und sicher elektronisch abzubilden. Der Physiker Lesch erwartet aber, dass das so vernetzte Auto in fünf bis acht Jahren serienreif wird (ibid.). Dann soll nicht mehr passieren, was im Mai 2016 einenTesla-Fahrer das Leben kostete: Das Umfelderkennungssystem seines Autos hatte einen kreuzenden Sattelschlepper wegen des großen Freiraums zwischen dessen Radachsen und der hochbordigen Ladefläche als gefahrlos zu unterfahrende Schilderbrücke missinterpretiert. Das Auto war deshalb ungebremst weitergefahren und der Tesla-Fahrer dabei zu Tode gekommen. Noch könnte es sein, folgert Lesch, dass die Kooperation mit Big Data „aus uns Big Deppen machen“ könne (ibid.). Ab 2021 wollen Audi, BMW und Daimler-Benz diesen „digitalen Dämmerschlaf“ (ibid.) aber im Griff haben. Dazu arbeitet zum Beispiel das Münchner Automobilunternehmen BMW mit dem Chiphersteller Intel, mit dem von Intel übernommenen israelischen Unternehmen Mobileye (das elektronische Spurhalteassistenten, Abstandswarner und automatisch gesteuertes Fernlicht anbietet) und dem Experten für elektronische Landkarten HERE zusammen (Scheiderer 2017). Nach internationaler Übereinkunft muss die Technik des autonomen Fahrens fünf Entwicklungsschritte bewältigen. Schritt 1 ermöglicht dem Fahrer, den Fuß vom Gaspedal zu nehmen, wenn das Fahrzeug bei kontrolliertem Abstand zum vorausfahrenden automatisch seine Geschwindigkeit hält - das gibt es seit Jahren. Schritt zwei macht es möglich, die Hände vom Lenkrad zu nehmen, weil das Fahrzeug auch automatisch die Spur hält. Auch das ist Stand der Technik, aber noch nicht überall Serienstandard. Schritt 3 gilt als „Quantensprung“ (ibid.): Dazu muss das Auto ein digitales 360-Grad-Abbild seines Umfelds erzeugen und verarbeiten können. Auf Autobahnen soll der Fahrer den normalen Verkehr dann nicht mehr beobachten müssen ausgenommen Baustellen. Davor soll das Auto ihn warnen, damit er wieder selbst entscheidet, was getan werden muss. Erst in Schritt 4 bewegt sich das Fahrzeug auch in kniffligen Situationen vollautomatisch. „Unter diesen Umständen“, heißt es bei BMW, „könnte der Fahrer sogar am Steuer schlafen - generell muss er aber fahrtüchtig sein“ (ibid.). Stufe 5 schließlich macht aus dem Auto eine nachtwandlerisch sichere Technik. Es fährt autonom. „Einen Fahrer braucht es nicht mehr“ (ibid.). Wann das Alltag sein wird, mag noch niemand abschätzen. „Erste Pilotprojekte“, sagen die Münchner, „sind im Lauf den kommenden Jahrzehnts denkbar, wahrscheinlich in abgegrenzten Bereichen ausgewählter Innenstädte“ (ibid.). Fokus 2: Beschaffung Beschaffung ohne Big Data - das war gestern. Bereits simple Schritte in einer zeitgemäßen Datentechnik verbessern den operativen und strategischen Einkauf nachhaltig (Schmidt 2018). Im strategischen Einkauf geht es um langfristige Ziele, im operativen Teil um das Tagesgeschäft mit Bedarfsermittlungen, Lieferüberwachungen, der Pflege von Stammdaten um dem Einkauf von Sondermaterialien (ibid.). Big Data können helfen, Lieferanten automatisiert und in Echtzeit hinsichtlich Lieferzeiten, Qualität, Quantität, etc. zu bewerten. So konnten einige Unternehmen ihren Lager- und zugleich Lieferantenbestand um bis zu 50 Prozent reduzieren (ibid.). Ein Automobilunternehmen kauft nicht nur Rohstoffe und Zulieferteile ein, sondern lässt sich von seinen Lieferpartnern einbaufertige Komponenten maß- und zeitgenau auch entwickeln, beispielsweise komplette Armaturenbretter. Das funktioniert auf der Grundlage einer sehr engen Datenvernetzung. In die Karten dieses Spiels mit einer Unzahl von Variab- 5.4 Big Data in der Automobilindustrie 155 len lässt sich kein Hersteller gern hineinblicken; das gehört zum betriebsinternen Know-How. Aber es ist klar, dass die Entwicklungsabteilungen eines Automobilproduzenten Daten im großen Stil an ihre Zulieferer senden müssen, damit diese präzise Vorgaben haben, ebenso wie diese umgekehrt ihre Daten an die Zentrale übermitteln, wo nicht nur alles passgenau zusammengesetzt, sondern in virtuellen crash-Versuchen auch auf seine Verkehrssicherheit getestet werden muss. Wie unglaublich komplex diese Steuerungsaufgaben sind, mag ein einziges Beispiel andeuten: BMW baut acht Fahrzeugreihen vom 1er bis zum 8er und dazu einige Modelle von MINIund von Rolls-Royce. VW fertigt für seine zwölf Marken etliche Dutzend verschiedene Modelle zur gleichen Zeit. Jedes braucht zwei Außenspiegel, einen rechts, einen links. Die können beheizt sein oder auch nicht, macht bereits pro Modell vier Varianten. Unterschiedliche Zulassungsvorschriften einzelner Länder für die Krümmung des Spiegels und damit den Blickwinkel des Fahrers nach hinten erhöhen die Variantenzahl auf einen ordentlichen zweistelligen Wert. Den multipliziere man nun mit den vielleicht zwanzig Karosseriefarben pro Modell, und man sieht, dass allein so ein relativ läppischer Außenspiegel in vielen hundert Varianten geordert, entworfen, abgestimmt, produziert und schließlich geliefert, gelagert und eingebaut werden muss. Wenn das Modell dann auch noch in verschiedenen Fabriken unterschiedlicher Kontinente hergestellt wird, kann das die Variantenvielfalt mit Rücksicht auf die jeweils nationale Industriepolitik mit ihren local content-Vorschriften über den vorgeschriebenen Mindestanteil von Zulieferteilen aus nationaler Produktion nochmals kräftig steigen lassen. Der nötige Datentransfer erreicht schnell erstaunliche Größenordnungen. Zulieferer entwickeln dabei durchaus Kreativität. Continental etwa, bekannt für Autoreifen, will Verkehrsinfrastrukturdaten für eine neue Qualität des Autofahrens nutzen. Ampelgrünphasen und das dafür optimale Fahrtempo könnten dem Fahrer angezeigt werden - grüne Welle auf elektronisch. Zugleich soll eine Echtzeit-Verkehrsflussanalyse die Ampelschaltungen optimieren (Stricker 2014: 3). Fokus 3: Produktion (digital enterprise) Autos herzustellen ist heute weitgehend eine Roboteraufgabe - schon aus Kostengründen. Bei einer Laufzeit von 35.000 Stunden kostet bei VW ein Roboter nach Auskunft seines früheren Personalvorstands Horst Neumann einschließlich seiner Betriebskosten 100.000 bis 200.000 Euro, das sind drei bis sechs Euro pro Stunde (cit. Eberl 2016: 236). Für diesen Stundenlohn würde kein menschlicher Arbeiter tätig. Diese automatisierte Fertigung läuft sensorgesteuert. Nahezu jeder Betriebszustand eines Geräts und jeder Arbeitsschritt, den er ausführt, wird von unzähligen Fühlern registriert, und immer werden dabei Daten erzeugt. Diese Automatisierung ist längst nicht mehr neu, aber ihre Komplexität steigt kontinuierlich. Allein zwischen 2013 und 2015 soll sich die Anzahl der industriell eingesetzten Sensoren verdreifacht haben (Fromme 2013). „Im Zuge der ‚vollvernetzten Produktion der Zukunft‘, der sogenannten smart factory, werden weitere Formen von predictive maintenance möglich sein“, sagt Audi-Fertigungsleiter Helmut König voraus. „So werden Komponenten wie Motoren, Getriebe und Kupplungen eigene Intelligenzen mitbringen und Eigendiagnosen erstellen.“ Die Mitarbeiter in Produktion und Instandhaltung bekämen damit neue Frühwarnsysteme und Präventionsmöglichkeiten (Matzer o.J.d: 6). Die Analyse des Zusammenspiels von Produkt-, Betriebsmittel-, Logistik-, Infrastruktur- und Prozessdaten gilt für die Analyse, Absicherung und Optimierung der Produktionsprozesse als Schlüssel. Allein im Produktionsumfeld der Fahrzeugelektronik bei Audischätzt man das Datenvolumen auf hundert Terabyte pro Jahr. Insbesondere sind Lösungen nötig, 156 5 Big Data in der Wirtschaft mit denen man Anomalien und Schwachpunkte früh erkennt, um die Produktionsprozesse stabiler, effizienter, transparenter und beherrschbarer zu machen (Bitkom 2017: Lepp). Die Herstellung von täglich knapp zweitausend Audi-Automobilen verlangt binnen 24 Stunden 5,5 Millionen Prüfschritte. Bei 1,8 Millionen Fahrzeugen pro Jahr addiert sich das zu hundert Terabyte Daten. „Kriegsentscheidend“ ist es, dass die Produktion datenoptimiert läuft. Es geht um die richtigen Daten-Architekturen, Werkzeuge, Statistiken und Algorithmen, um Domänenwissen über Zusammenhänge, Interpretationen und Kenngrößen, um Methoden, nämlich Zieldefinitionen, Strategien und Vernetzungen und nicht zuletzt auch um die Menschen, die das alles planen, einrichten und steuern müssen, um ihre Kompetenzen, ihre Arbeitsprozesse, ihre Flexibilität und damit die Bereitschaft, Änderungen hinzunehmen wie auszulösen, um ihre generelle Akzeptanz, nicht mehr in erster Linie Metall zu verarbeiten, wie es die Automobilindustrie seit jeher gewohnt war, sondern eben Daten (ibid.). Zwei hauptsächliche Verfahren kommen dabei wie schon umrissen zum Tragen: das top down- und das bottom up-Verfahren. Im ersten geht es darum, Ziele festzulegen, etwa eine Optimierung des Produktionsablaufs, dann Handlungsfelder zu definieren, etwa anhand von Schwachstellen, dazu Big Data-Lösungen zu entwerfen, also Daten, Algorithmen und eine Infrastruktur auszuwählen, diese zu sammeln und aufzubereiten, besonders Produktionsablaufdaten zu zentralisieren und zu speichern, Daten zur Auswertung mit Metadaten zu verknüpfen und mit anderen Daten abzugleichen, daraus Informationen abzuleiten, also ihre Bedeutung zu verstehen, Zusammenhänge erkennbar zu machen, Konsequenzen vorherzusagen und dazu Befunde in erster Linie zu visualisieren und schließlich diese top down erarbeiteten Ergebnisse zu nutzen und nach ihnen zu handeln (ibid.). Das bottom up-Verfahren läuft umgekehrt. In einem Wust von Daten sucht man nach sinnvollen Nutzungsmöglichkeiten und neuen Ideen. Einer der großen deutschen Automobilhersteller nutzt in seiner Fabrik 30.000 sprudelnde Datenquellen von mehr als hundert technischen Anlagen, um die Güte des Produktionsprozesses vorherzusagen, Schwachstellen möglichst früh zu erkennen und abzustellen und so möglichst kein Rohmaterial und keine Maschinenzeit unproduktiv zu vergeuden (SAP 2016b). Ein Beispiel aus der Fertigung eines großen Automobilzulieferers: Er wollte Werkzeugbrüche beim Honen von Bauteilen möglichst vorhersagen, um sich auf sie einstellen können. Dazu ließ er mit einem Algorithmus Schwingungsdaten in einem 850 Milliarden Datensätze umfassenden Datenraum untersuchen und so bewerten, dass sich Werkzeugbrüche zuverlässig erkennen ließen und ein Vorhersagemodell entstand (Bitkom 2017: Bruns). Das Beratungsunternehmen Experton geht davon aus, dass sich die Material- und Produktionsflüsse weiter optimieren lassen, wenn nahezu alle Eingangsressourcen einzeln lokalisiert und gesteuert werden können: „Das feedback aus den Nachfragemärkten wandert fast in Echtzeit durch die Lieferanten- und Produktionskette und sorgt für eine optimale Steuerung der Fertigung sowie der verbrauchten Materialien und Energieträger“, urteilen die Analysten Carlo Velten und Steve Janata (Fromme 2013) - eine wahrhaft schöne neue Technikwelt. In der Automobilbranche ist das bottom up-Verfahren trotzdem weniger populär - dazu sind die top down-Strukturen zu dominant. Fokus 4: Qualitätssicherung Die Qualitätssicherung ist in vieler Hinsicht datengetrieben. Denn sie muss die Alltagstauglichkeit von Millionen Fahrzeugen sichern und analysieren. Aus diesem weiten Arbeitsfeld greifen wir hier nur ein Schlaglicht heraus: Kommt ein Kunde mit einer Beanstandung zu einem der Händler, gibt der Händler diese Daten in seinen Rechner ein. Jährlich kommen so einige Millionen Meldungen zusammen. Ein Programm erkennt nach automatischen Übersetzungen der Landessprachen, nach dem Abgleich von Begriffen und durch statisti- 5.4 Big Data in der Automobilindustrie 157 sche Analysen, ob sich da im Markt ein Thema aufbaut, das einzugreifen erfordert. Erkennt das System Auffälligkeiten frühzeitig, kann der Autohersteller schneller reagieren. Programmgestützte Analysen verkürzen den Reaktionszeitraum von der Produktauslieferung bis zur Schwachstellenbehebung von früher mehreren Monaten auf jetzt wenige Wochen. Ein solches System hat zum Beispiel das VW Data Lab entwickelt und konzernweit eingeführt. Volkswagen investierte in diesen rollout mehrere Millionen Euro (Roewekamp 2015). Fokus 5: Marketing Marketing ist eines der wesentlichen Big Data-Einsatzgebiete: Analytisches Kunden-Clustering und mehr Kundenwissen aus Fahrdaten, Werkstattdaten und sozialen Netzwerken führen zu besseren Absatzprognosen, zu individuelleren Angeboten und damit zu einer genaueren Produktionsplanung (Stricker 2014: 3). Wieder muss hier ein prototyisches Beispiel für gekonntes Marketing auf Big Data-Basis genügen. Es ist der relaunch der Marke MINI. Dazu stellte das neu aufgebaute Marketing- Team dieser zuvor nur in einer Marktnische erfolgreichen britischen Marke eine Webseite mit weit gefächerten kulturellen Angeboten ins Netz, ohne dass zunächst erkennbar wurde, wer der Absender dieser Webseite war. Sie bot lifestyle-Offerten für junge, urban lebende Erwachsene mit gutem Einkommen, die es sich leisten konnten und wollten, solche Angebote zu nutzen. Wer an Gewinnspielen teilnehmen oder Freikarten erhalten wollte, musste persönliche Daten freigeben, um zum Beispiel an Eintrittskarten und andere Offerten zu kommen. Die Webseite war so attraktiv, dass sich mehrere Millionen Nutzer für sie nicht nur interessierten, sondern sich auch registrierten. So entstand ein nach den Angeboten und deren Nutzung perfekt vorsortiertes Paket möglicher Kundenadressen. Das Marketing-Team konnte es sich leisten, zunächst nur rund zehn Prozent dieses Adressaten-Reservoirs nach einiger Zeit nicht mehr nur über kulturelle und sportliche Veranstaltungen zu informieren, sondern auch über den Start einer neuen, nämlich der eigenen Fahrzeuggeneration. Die Macher konnten davon ausgehen, dass alle angeschriebenen Personen sich ein solches Fahrzeug leisten konnten und dass nicht wenige es auch kaufen würden, wenn es den lifestyle-Versprechen der Webseite entspräche. Der Rest ist bekannt: MINI ist zur eine Art Kultmarke geworden (Kleebinder 2009). Kundendaten tragen ganz generell dazu bei, die Nachfrage besser planen zu können und Lieferzeiten zu verringern. Auch die Ausstattung der Händlerfahrzeuge lässt sich so optimieren. Mit Daten aus dem Vertrieb und der Finanzierung, die in Echtzeit abgerufen werden, lässt sich auch die Preisstrategie für Fahrzeuge deutlich verfeinern (Stricker 2014: 3). Und sogar die Probefahrt ist mittlerweile grundsätzlich per Computer möglich. Dazu dienen sogenannte digital twins, virtuelle Abbilder eines Produkts, Prozesses oder Dienstes (Hensel 2017e). Vor einem Autokauf organisiert ein digitaler Zwilling eine virtuelle Probefahrt per virtual reality. Fokus 6: Conncected Car Ein durchschnittliches neues Audi-Fahrzeug hat 150 Steuergeräte an Bord. Es erzeugt 50 Megabyte Daten pro Fahrzeug. Natürlich war das früher nicht so. 2015 wurde jedoch ein Meilensteinjahr für das vernetzte Automobil. Seither müssen europaweit alle Neuwagen über eCallverfügen. Dieses Notrufsystem für Kraftfahrzeuge meldet per Mobilfunk und GPS einen Unfall automatisch an die Rufnummer 112. Das war der Durchbruch für Telematik im Automobil: 2013 waren erst 18 Prozent der Fahrzeuge mit Telematik-Systemen ausgerüstet, 2016 schon fast die Hälfte, und bis 2020 sollen alle diese Technik enthalten (Stricker 2014: 3). Dann werden in Europa voraussichtlich 90 Millionen vernetzte Autos verkauft. Sie melden sich nicht nur bei Notfällen. Diese Technik liefert dem Hersteller auch 158 5 Big Data in der Wirtschaft regelmäßig Kundendaten über das Fahrverhalten sowie Fahrzeugdaten etwa zum Kraftstoffverbrauch und zum Verschleiß. Gleichzeitig versorgt die Telematik Autofahrer mit Informationen zum Beispiel zu Staus. Sie wirbt auch für eine benzinsparende Fahrweise oder für Dienstleistungen und Werkstätten. Verknüpfungen von Geo- und Handydaten haben in den letzten Jahren die Navigation im Verkehr revolutioniert. Geo-Daten, wie sie Google Maps liefert, verlieren schnell an Wert, wenn man sich nach ihnen richtet und dabei in einen Stau hineinfährt. Smartphones von Autobesitzern senden jedoch, wenn ihre Besitzer das erlauben, ihre Standortdaten regelmäßig an Google. Aus deren Häufung errechnet das Unternehmen, wie schnell diese Mobiltelefone und damit die Autos vorankommen, in denen sie liegen. Auf der Basis von Erfahrungswerten vergangener Jahre sagt das Programm daraufhin präzise voraus, um wie viele Minuten ein noch Kilometer entfernter Stau die Fahrt verzögern wird (Google 2017: 23). IBM hat Ende 2016 gemeinsame Forschungen mit BMW darüber angekündigt, wie cognitive computing das Fahrerlebnis stärker auf das Temperament des einzelnen Fahrers abstimmen kann und wie dazu intuitive Fahrerassistenzsysteme für Autos der Zukunft aussehen und arbeiten sollen (IBM Newsroom 2016). Mit solchen machine learning-Fähigkeiten erkennen und lernen die Autos, welche Präferenzen und Gewohnheiten ihre einzelnen Fahrer haben und unterstützen und beraten sie entsprechend. Das System speichert auch Bedienungsanleitungen mit der Folge, dass der Fahrer dem System auch während der Fahrt in natürlicher Sprache Fragen stellen kann, ohne dabei die Straße aus den Augen zu verlieren. Die neuen Dialogmöglichkeiten steigern mit individuellen Empfehlungen das Fahrerlebnis (ibid.). Das Auto von morgen tut also sehr viel selbst. Es konfiguriert sich, passt sich also automatisch an die persönlichen Präferenzen des Fahrers an - von der persönlichen Sitzeinstellung bis zu Lieblingszielen. Es überwacht sich selbst. Es vernetzt sich mit seiner Umgebung und mit anderen Fahrzeugen. Es lernt, Fahrer und Umwelt besser zu verstehen, und kann deshalb auch fundierte Vorschläge machen. Es fährt schon bald komplett autonom. Und es integriert sich in das Internet der Dinge und teilt unterschiedlichste Daten mit diesem System (IBM Newsroom 2016). Auch Microsoft arbeitet mit dem Automobilzulieferer Bertrandt daran, Fahrzeuge digital zu vernetzen. Die Datenanalyse soll Informationen etwa darüber erzeugen, ob sich irgendwo ein Stau bildet, ob Fahrbahnschäden vorhanden sind und so weiter. Diese Daten sollen an Städte oder Hersteller verkauft werden. „Dumm nur, dass bisher vollkommen ungeklärt ist, wem die Daten, die ein vom Anwender gekauftes und bezahltes Fahrzeug erzeugt, eigentlich gehören“ (Rüdiger 2018). Was sich da anbahnt, wenn Hunderttausende connected cars auf den Straßen fahren, wird ein regelrechter Daten-Tsunami. Dabei werden nach Auskunft der Experten Nolting (Volkswagen) und Neumann (Ultra Tendency) Daten hauptsächlich in drei Bereichen benötigt: erstens bei der Elektrifizierung z. B. zur dynamischen Reichweitenberechnung oder für Karten, zweitens für das autonome Fahren und drittens zur weiteren Optimierung der logistischen Wertschöpfungskette, z. B. um Staugefahren zu erkennen, bevor Staus entstehen (Schumacher 2017). Schon in der Testphase lag die Datenrate pro Fahrzeug bei 350 Megabyte pro Sekunde. Die nächste Fahrzeuggeneration, ausgestattet mit Kameras für das fahrerlose Fahren, wird pro Sekunde zwei Gigabyte Daten zu verarbeiten haben (Bitkom 2017: Pawlik). Um den Verkehr besser zu regeln, wird alsio serhr viel Technik gebraucht. Aber sie muss gasr nichtz einmal massenhaft einbgesetzt weerdern. „Um den Verkehrsfluss zu optimieren, sollten rund zehn Prozent autonome Fahrzeuge ausreichen“ (Rügiger 2018a). Das autonome Automobil dürfte das Land, in dem diese Fahrzeuge fahren, tiefgreifend verändern. Wer hinter dem Steuer abgesehen von dessen Betätigung nicht mehr zur Untätigkeit verdammt ist, kann ohne Zeitverlust seine Büroarbeit zu einem erheblichen Anteil 5.4 Big Data in der Automobilindustrie 159 unterwegs erledigen. Seine Anwesenheit in einem Büro wäre nur noch nötig, wenn es um sozialen Kontakt und um Besprechungen geht, die von Angesicht zu Angesicht laufen sollen. Längere Pendlerwege sind dann kein Problem mehr. Man kann wohnen, wo das Land schön und die Grundstückspreise attraktiv sind. Einen Familienangehörigen zu einem Kurs in gehöriger Entfernung zu schicken, ist keine Last mehr; das Auto findet ja selbst seinen Weg - wenn das Angebot an Straßen dieser zusätzlichen Flexibilität auch entspricht. Der Vorzug, statt des Autos eine Bahn zu nehmen, in der man schon jetzt etwas anderes tun kann, fällt dann in sich zusammen, während die Notwendigkeit bleibt, sich nach deren Fahrplan zu richten. Der sogenannte Modalsplit zwischen privatem und öffentlichem Verkehr könnte sich zu Lasten des öffentlichen drastisch verändern - mit enormen Folgen für die Verkehrsinfrastruktur (Loidold 2017). Viele rechtliche Fragen sind dabei noch offen. So fragt z.B.Herwig, was eigentlich passiert, wenn ein manuell gesteuertes Auto mit einem automatischen Auto kollidiert und der Hersteller der Steuer-Software beweisen kann, dass sein Code keinen Fehler enthält - sind dann automatisch die Menschen schuld? (Herwig, cit. Keese 2014: 276). Und Keese ergänzt: „Sollte manuelles Fahren verboten werden, wenn sich herausstellt, dass automatische Autos sicherer sind? Brauchen Autos, die nachweislich fehlerfrei programmiert sind, noch eine Haftpflichtversicherung? Könnte der Besitzer eines solchen Autos auf dem Klageweg erreichen, dass er aus der Haftpflicht befreit wird, weil sein Wagen bauartbedingt keinen Schaden mehr anrichten kann? Wem gehören die Daten, die ein Auto auf seinem Weg erzeugt - dem Autobesitzer, der Navigationsplattform, dem Hersteller des Wagens oder allen zusammen? Auf alle diese Fragen stehen Antworten noch aus“ (ibid.). Schon gibt es auch Ableitungen für andere Verkehrsteilnehmer, auch für Menschen zu Fuß: Die AppNavCogsammelt über Smartphone-Sensoren Umgebungsdaten. Eine kognitive Technologie wertet sie aus und leitet daraus Informationen über die aktuelle Umgebung ab. Die erhält der Nutzer über die Sprachausgabe in seinen Kopfhörer (IBM o.V. 2015). Mit diesem Dienst können sich nicht nur Ortsfremde orientieren, sondern sogar Blinde. Fokus 7: Connected Customer Autohersteller betreiben mittlerweile tief gestaffelte Portale, in denen sie ihren Kunden während der Fahrt ein Optimum an Zustandsinformationen und Beifahrern ein Maximum an Unterhaltung bieten. Dabei stehen die Hersteller im Wettbewerb mit Internet- und Mobilfunkunternehmen. Nötig sind Kooperationen: Zusammen mit solchen Partnern und mit Dienstleistern erweitern die Autohersteller ihren Fahrerinformationsservice in mehrere mobilitätsrelevante Richtungen. Steigt der Fahrer aus, kann er den Dienst per Smartphone- App weiter nutzen. Die Services lotsen ihn auf Wunsch zur günstigsten Tankstelle, suchen während der Fahrt ein passendes Restaurant oder informieren ihn über geschäftliche Termine und über Schlagzeilen in den Medien (Stricker 2014: 3). Kommt ein Auto in einen Hagelschauer, der den Lack beschädigt und vielleicht sogar Dellen hinterlässt, sinkt der Wert seines Fahrzeugs und der Versicherung entstehen Kosten für Gutachter und Reparaturen. Versicherungen wollen nun eine mobile App anbieten, die Wetterdienste, Standort- und weitere Daten kombiniert. Droht am aktuellen Standort des Autos ein schwerer Hagelschauer, kann die Versicherung das dem Fahrer melden und ihn bitten, das Auto sicher unterzustellen. Das erspart beiden Seiten Aufwand und Kosten. Dazu muss das System alle Daten aus verschiedensten Quellen effektiv miteinander verknüpfen (Bryner 2016). Autos werden zum server von Millionen und Milliarden Informationen weltweit, die nicht nur den Fahrer und seine Mitfahrer informieren, sie unterhalten, sie mit dem Büro oder der Familie verbinden, die ganze Welt des Internets auch an Bord des Fahrzeugs verfügbar 160 5 Big Data in der Wirtschaft halten, sondern zugleich auch viel über denjenigen aussagen, der da fährt (Morgenroth 2014: 76, vgl. auch SZ 11.01.2014: 23). Über den Daten-Input ins Fahrzeug regt sich kaum jemand auf; diesen Daten-Output dagegen kann man sehr kritisch betrachten: „Die Technologie verwandelt jedes Auto in einen fahrenden Spion“ (Morgenroth 2014: 77). „Würden Sie wollen, dass bekannt ist, wie oft Sie zum Arzt fahren? “ (ibid.: 78). Natürlich hat auch eine solche Technologie Nach- und Vorteile: Britische Autoversicherer bieten ihren Kunden schon seit einiger Zeit günstigere Tarife an, wenn sie in ihrem Auto eine Telematik- Box installieren, die den Versicherer mit Daten über das Fahrverhalten versorgt (ibid.: 79). Wenn Sie das für harmlos halten, sollten Sie folgende Geschichte sorgfältig bedenken: DriveNow heißt der BMW-Dienst für individuelle Stadtmobilität, zu gut deutsch für Mietwagen. Wenn dort jemand einen Wagen ordert, speichert das System die Handynummer des Fahrers sowie den Start und Endpunkt der Fahrt, aber nicht die Wegstrecke. Angaben zum Bewegungsprofil lassen sich aus diesen Daten also nicht unmittelbar ableiten. Das Unternehmen verfügt dennoch über Daten zum Fahrtverlauf. Nach Angaben von Netzpolitik.org zeichnet BMW diese Daten ohne Personenbezug auf. Erst die Identifikation des Fahrers über DriveNow und die Verknüpfung beider Datenstränge führt zu einem persönlichen Profil. Stefan Fritz, der Geschäftsführer von synaix, nennt dieses BMW-Verfahren „schlimmer als bei Google oder Facebook“. Denn bei Anbietern wie Facebookund Google entstehe zum einen mit der Dienstnutzung ein Vertragsverhältnis und zum anderen bezahle man mit seinen Daten für einen Nutzen, denn man in Anspruch nehme. Bei BMW kaufe man ein Produkt, der Hersteller wälze alle Risiken zur Instandhaltung, Nutzung, Auslastung und Wartung auf den Käufer ab und die Maschine spähe ihn in asymmetrischer Form aus, ohne dass er als Käufer am Nutzen in irgendeiner Form partizipieren könne (Fritz 2016). Diese Datenabschöpfung durch BMW wurde bekannt, weil ein DriveNow-Mieter einen Radfahrer überfahren hatte. Über die Firmendaten kam ihm ein Gericht auf die Spur. Die Verkehrsanwältin Daniela Mielchen hat lange vor diesem Ereignis vom „Auto als Zeugen der Anklage“ gesprochen (Morgenroth 2014: 81) und gefragt: „Wem gehören die Daten, die das Auto sammelt? Dem Autohersteller? Dem Staat? Oder doch dem Fahrer? Darf der Fahrer nach dem Unfall Daten zurückhalten, die ihn belasten könnten? “ Eine klare Antwort steht ebenfalls noch weitgehend aus. Bei Apple funktioniert die Kopplung von Käufer- und Nutzerdaten etwas anders: Im Preis von Apple Smartphones und Tablets ist die Nutzung einiger Services wie Mail, Fotosync oder von Technik zur Synchronisation von bookmarks über mehrere Apple-Geräte hinweg inklusive. Mit der Nutzung dieser Dienste entsteht aber ein separates Vertragsverhältnis. Fokus 8: Diagnose und Wartung „Im gesamten Jahr 2011 hatte BMW erst rund 20 Gigabyte Informationen für den Fahrbetrieb seiner Automobile zu verarbeiten, 2014 schon 30 Gigabyte technische Daten täglich", sagteAxel Deicke, der Geschäftsführer von Auto Service Engineering bei BMW (Stricker 2014). Verantwortlich sind dafür nicht nur Telematiksysteme, sondern eine Vielzahl an Computerchips und Elektrokomponenten im Automobil. Fast jedes Einzelteil ist ein kleiner Rechner für Daten zum Fahrzeugeinsatz, zum Verschleiß oder zu Fehlern. Was Fahrzeugentwickler und der Kundenservice auswerten, sind Big Data. Diese Daten fließen aus vielen Quellen, zum Beispiel aus den schon erwähnten RFID- Tags, die mit einem Impulsgeber am oder im überwachten Gerät und einem Lesegerät irgendwo anders Signale aus Leiterplatten rückverfolgbar machen. Diese Sender-Empfänger-Systeme identifizieren und lokalisieren Objekte automatisch und berührungslos mittels Radiowellen. Sie können so klein wie ein Reiskorn sein und lassen sich als stabile 5.4 Big Data in der Automobilindustrie 161 Schaltungen aus Polymeren drucken. Schon 2011 wurden weltweit rund 30 Milliarden von ihnen hergestellt und verbaut, viele in Automobilen. Außerdem wurden für Autos über hundert Millionen GPS-Router verkauft. Die Datenflut dieser Geräte und der Telematiksysteme muss möglichst in Echtzeit verarbeitet werden, schon weil nur so Notfälle beherrschbar sind. Informationen in Form von Sprache, wie sie bei Notrufsystemen oder Kundengesprächen entstehen, sind da zu langsam. Der Watson-Rechner von IBM, der wohl leistungsstärkste der Welt, der in drei Sekunden 200 Millionen Seiten Dokumente durchsucht und analysiert, kann auch polystrukturierte Daten verarbeiten, wie sie im natürlichen Sprachgebrauch vorkommen. Dass IBM hier in der ersten Liga spielt, kann man erwarten: 2011 gewann das Computersystem in der US-Quizshow Jeopardy! haushoch gegen die bis dahin besten Teilnehmer. Das hat „mittlerweile ähnlich mythischen Charakter wie einst der Sieg von Deep Blue gegen Garri Kasparow“ (Schmidt 2017). IBM hat unter dem Markennamen Watson verschiedene Technologien zusammengeführt, die Unternehmen kognitiv steuern. Zu ihnen gehört die Analyse unstrukturierter Informationen wie beim Verstehen der Sprache - eine Aufgabe „mit besonders hoher Faszination“ (ibid.). Inzwischen versteht Watson sogar indirekte, nur aus dem Zusammenhang erschließbare, unscharfe Angaben und berechnet aus Hypothesen und Wahrscheinlichkeiten trotzdem Antworten, die er wieder als Sprache ausgibt. In japanischen Hotels gibt es schon seit 2015 Roboter-check-ins mit natürlichem Sprachdialog (Nimführ 2016). Das dortige Henn-na-Hotel - wörtlich übersetzt das 'seltsame Hotel' - steht in einem Freizeitpark bei Nagasaki. „An der Rezeption sitzt eine japanisch aussehende Roboter-Dame neben einem raptorenähnlichen Dinosaurier wie aus Jurassic Park, der zwar gruselig wirkt, aber Besucher ebenso höflich begrüßt wie die Androidin nebenan. Anstelle von Schlüsseln setzt das Hotel auf Gesichtserkennung Automatisch fahrende Wägelchen bringen die Koffer aufs Zimmer und kleine Sprechpuppen stehen für alle möglichen Dienstleistungen wie etwa den Weckdienst zur Verfügung. Nach Angaben des Hotelmanagers sollen diese innovativen Gimmicks nicht nur Gäste anlocken, sondern auch helfen, die Übernachtungskosten deutlich zu senken“ (Eberl 2016: 31). Sprachein- und ausgaben sind vorhersehbar „das nächste große Ding der Techwelt, vergleichbar mit der Einführung des Smartphones vor zehn Jahren (Rosenbach 2017: 63). Spracheingaben sind etwa dreimal schneller als Texteingaben und auch viel einfacher als das Eintippen der Daten von Hand. Man braucht nur eine Lautsprecherbox mit Mikrofonen. Was sie aufnehmen, schickt die Box in die cloud. Dort wird sie zu digitalem Text. Algorithmen leiten aus ihm Annahmen über den Kontext des Gesprochenen und die Absicht des Sprechers ab und erarbeiten dann eine Antwort, die als text to speech ausgegeben (ibid.: 64). Das ist erst der Anfang. Schon gibt es mehr als zehntausend Anwendungsprogramme, in Deutschland einige hundert: Nahverkehrsgesellschaften wie die Berliner BVG erläutern die schnellste Verbindung, Lieferdienste bringen Pizza, Medien fassen ihre Inhalte zusammen, Kinos berichten über ihr Programm und Sportvereine über die aktuelle Mannschaftsaufstellung und über Spiele (ibid.: 63). Das kommt an: In den USA dürften bereits über zehn Millionen hörende und sprechende Geräte verkauft worden sein. Der Las Vegas-Hotelier Steve Wynn ließ alle 4748 Zimmer seiner Hoteltürme in der Wüstenstadt mit ihnen ausrüsten. Kritische Stimmen hört man noch nicht häufig, aber es gibt sie: „Hochempfindliche Mikrofone in der eigenen Wohnung kann man durchaus auch als freiwillige Totalverwanzung sehen, als Einladung zum großen Lauschangriff (ibid.: 64). Der schon erwähnte geniale britische Logiker, Mathematiker und Kryptoanalytiker Alan Turing war überzeugt, Computer seien „vielleicht mit dem primären Ziel geschaffen worden, die menschliche Sprache zu entschlüsseln“ (Kittler 2008). Aber etwas auszusprechen allein bewirkt noch nichts. Kittler wies darauf hin, dass es „kein Wort in einer gewöhn- 162 5 Big Data in der Wirtschaft lichen Sprache gibt, das tut, was es sagt“ (Kittler 1999). Keine Beschreibung einer Maschine setzt sie auch in Bewegung. „Tatsächlich ist die Ausführbarkeit des digitalen Codes nicht mit der Performativität der menschlichen Sprache zu verwechseln“, warnt deshalb Cramer (2008). Codes seien dazu da, „Bedeutung in Handlung zu übersetzen“, (Galloway 2004). Bisher fehlt jedoch eine mit einer maschinellen Ontologie übereinstimmende Definition solcher Codes (Pasquinelli 2014: 326). Zurück zu Watson: 2016 hat sich die Zahl der Entwickler, die mit Watson APIs arbeiten, mehr als verdreifacht. Watson arbeitet mit 50 verschiedenen kognitiven Technologien, um Bilder, Texte und andere Datenformate verarbeiten zu können. Seine Fähigkeiten werden laut IBM bereits in über 45 Ländern und 20 verschiedenen Branchen genutzt. Watson konnte bereits Krankheiten identifizieren, die Ärzte noch gar nicht erkannt hatten (Henssler 2018). Das System wertet Versuchsdaten aus und assistiert Werkstätten bei Diagnose- und Wartungsarbeiten. In den USA hat Watson schon vor einigen Jahren 210.000 frei formulierte, unstrukturierte Fehlerberichte der National Highway Traffic Safety Administration (NHTSA) analysiert. Relativ häufig kam dort das Wort Vorderradaufhängungen vor. Das System konnte den Fehler eingrenzen, Entwickler und Werkstätten konnten den Schwachpunkt beheben. Ende 2017, so schätzt IBM, werden eine Milliarde Menschen auf der Welt Kontakt mit Watson haben, zweihundert Millionen als Konsumenten, ebenso viele als Patienten (Schonschek 2017). Die Raffinesse dieser auf Massendatenverarbeitung beruhenden Technik hat weitreichende Folgen. Die kombinierte Auswertung zum Beispiel von Werkstatt- und Fahrzeugdaten ermöglicht bedarfsgerechtere Fahrzeugkonzepte, verbessert die Kundenbetreuung, die Werkstattauslastungen und führt letztendlich zu zufriedeneren Kunden. Ein fundiertes Verständnis der Fehlerhäufigkeiten und -quellen führt zu Alarmsystemen für Problemfelder, zu besseren Kulanzregelungen und bedarfsgerechteren after sales services. Problemfahrzeuge, sogenannte „Montagsautos“, lassen sich gezielt identifizieren und betreuen und Rückrufe nach ihrer Dringlichkeit staffeln, die sich aus dem Fahrprofil ableiten lässt (Stricker 2014: 3). Nutzungsprofile können auch auf überkomplizierte Technik oder Nachbesserungsbedarf hinweisen und die künftige Wartungsintensität abschätzen lassen. Das Auto- Leasing, das Flottenmanagement, das Vermieten und das car sharing lassen sich anhand der tatsächlichen Nutzung berechnen statt nur nach der Kilometerleistung (Stricker 2014: 3). Um Produktfehler zügiger orten zu können, gibt es schon seit einigen Jahren einen Abgleich der Millionen von Diagnosedaten, die in Vertragswerkstätten weltweit täglich anfallen. Sie sind bares Geld wert: Welche Werkstätten haben mit welchem Modell ähnliche Erfahrungen gemacht? Zu welcher Lösung sind sie gekommen? Mit diesen Informationen lassen sich die Ursachen eines Defekts schneller eingrenzen. Die betroffenen Kunden bekommen schneller Hilfe (Fromme 2013). Keine Vision mehr sind Fahrzeuge, die sich selbst diagnostizieren und bedarfsorientiert Werkstatttermine vereinbaren. Fokus 9: Teiledienst VW hat in Kassel auf einer Million Quadratmeter ein Zentralteilelager für 500.000 verschiedene Teile. Der Teilevorrat muss auch den 15-Jahres-Bedarf nach dem Produktionsende abdecken. Diesen Bedarf muss der Hersteller vorab abschätzen und entsprechend vorausproduzieren. Das geschieht bisher anhand von Erfahrung. Mit Big Data-Technologien wurden nun mehr als drei Millionen Teilebestellungen seit 1996 analysiert. Die Daten dazu waren dezentral abgelegt und ließen sich nicht einfach bündeln. Besonderes Augenmerk lag auf Teilen, deren 15-jährige Nachliefergarantie bereits abgelaufen war. Daraus leitete VW ab, was das für jüngere Teile bedeutet. Je nach der Häufigkeit, in der solche Teile geordert worden waren, stellten sich vier typische Verlaufskurven heraus. Daraus ließ sich ableiten, wie stark unterschiedlichste Teile zu bevorraten sind, deren Produktionszeit auslaufen soll. 5.4 Big Data in der Automobilindustrie 163 Mit lernenden Programmen lassen sich Abweichungen von Soll und Ist nun immer besser angleichen. In 70 Prozent der Fälle sind diese Hochrechnungen mittlerweile so gut oder besser als die traditionellen händischen (Bitkom 2017: Compostela). Fokus 10: Kundenbindung Auch wenn sich Autos der verschiedenen Hersteller - schon wegen der rigiden Sicherheits- und Umweltvorschriften, nach denen alle konstruiert werden müssen - technisch ähnlicher werden, sollen sie sich für den Kunden klar unterscheiden, und das immer mehr. Dazu müssen die Hersteller über Kundenbetreuung und Services ein immer variantenreicheres Markenerlebnis anbieten können. Big Data-Analysen geben dazu wesentliche Anstöße. Weder muss ein Stichwort genügen: Die neuen digitalen Dienste machen neben dem Qualitätserlebnis im Fahrzeug, dem Fahrerlebnis und dem Kundendienst einen immer wesentlicheren Teil des Markenerlebnisses aus. Entsprechend müssen sie gestaltet sein: herausfordernd und sportlich oder edel und komfortabel oder einfach praktisch und wertorientiert - zugeschnitten auf die jeweiligen Markenwerte. Fokus 11: Weiterverkauf mobile.de ist mit über 1,4 Millionen Fahrzeugen und mehr als 40 Millionen Web-Besuchen täglich Deutschlands größter Fahrzeugmarkt. Das sind 5.000 bis 10.000 Kontakte pro Sekunde, in der Mehrzahl über Mobiltelefon. - eine Datenrate von etwa zehn Megaybyte pro Sekunde. Webseiten ähnlicher Größenordnung sind Spiegel online, BILD.de, wetter.com und Wikipedia. Die Nutzerfreundlichkeit dieser Autobörse und der schnelle Verkaufserfolg für die Anbieter sind deren Kundenversprechen. Mehrwert-Dienste müssen das stetig beweisen. Getreu dieser Strategie hat mobile.de gemeinsam mit inovex für die Beurteilung von Angebotspreisen („market prices“) und für individuelle Fahrzeugempfehlungen Systeme entwickelt. Ein Algorithmus berechnet aus den mehr als zehntausend Fahrzeugen, die Autobesitzer dort täglich neu anbieten, die attraktivsten Offerten. Diese liefern eine neutrale, datengetriebene Basis für Preisempfehlungen an die Käufer. Technische Grundlage dafür ist eine Big Data-Plattform für die Angebots- und web traffic-Daten. Der tatsächliche Preis schwankt in der Hälfte aller Fälle nur noch um rund zehn Prozent gegenüber dem Angebotspreis. Das Programm verarbeitet Datenströme fehlertolerant. Datenanalysen ebenso wie Ideen von Produktmanagern, von data scientists und von data engineers entwickelt das System selbstständig weiter (Bitkom 2017: Eckart). 2020 sollen weltweit mit Dienstleistungen rund um das vernetzte Auto hundert Milliarden Euro umgesetzt werden (Voss 2018). Bis 2025 will allein VW mit Diensten rund ums vernetzte Auto rund eine Milliarde Euro Umsatz pro Jahr machen (ibid.). Aber „die Apps der Autohersteller sind Datenschnüffler“, schrieb „Stiftung Warentest“ bei einem Test 2017. Der Datenschutz bleibe bei allen Herstellern mehr oder weniger auf der Strecke. Alle Apps sendeten mehr Daten als Automobilen je nach dem Zweck der Datenerhebung und einer vertraglichen Regelung oder Einwilligung entstehen, sofern diese Daten mit dem Fahrzeug oder dessen Kennzeichen verknüpft werden. Zu solchen Daten, die ein Hersteller erhebt und speichert, hat der Betroffene ein unentgeltliches Auskunftsrecht. Zudem muss die Borddokumentation der Autos über die wichtigsten Fragen zur Datenverarbeitung informieren (Voss 2018). 96 Prozent der deutschen Autofahrer würden die Kommunikation deshalb lieber ganz abschalten (ibid.). Dabei hatten sich die deutschen Datenschutzbehörden in Bund und Ländern und der Verband der Automobilindustrie 2016 auf den Umgang mit personenbezogenen Daten geeinigt. 164 5 Big Data in der Wirtschaft 5 5..55 BBiigg DDa at taa iinn dde er r PPrrooz ze es sssiinnddu ussttr riie e Blicken wir auf einen anderen Industriezweig, die Prozessindustrie. Von ihr spricht man als Sammelbegriff beim Umgang mit hochsensiblen, teilweise umwelt- und gesundheitsgefährdenden Energien, Flüssigkeiten und Gasen. Industrielle Kerne dieser Branchen sind Raffinerien, Großanlagen der Chemieindustrie, aber auch Kernkraftwerke. In einer Raffinerie entstehen jährlich 300 Megabyte Messwerte und sogar 400 Megabyte sogenannter Alarmdaten im Fall von Regelabweichungen. Etwa 66.000 Sensoren sind dazu in jeder Raffinerie im Einsatz. Tausende von ihnen liefern Daten im Minutentakt, allerdings in unterschiedlicher Zuordnung; sie zeichnen Fließgeschwindigkeiten auf, Füllhöhen, die chemische Zusammensetzung von Flüssigkeiten und Gasen, deren Temperaturen, wechselnde Drücke, wechselnde Auslastungen der einzelnen Segmente in der gesamten Anlage und vieles mehr. Die Durchforstung dieses Datendschungels ergab, dass man den Betrieb mit „nur“ 104 Schlüsseldaten steuern konnte und dass das System für die überwachenden Experten nur 13 stetig verfügbar zu halten brauchte. Automatisch angezeigt wird lediglich das Signal mit der höchsten Abweichung von der Norm. Weitere wichtige Messwerte stehen auf Abruf bereit (Bitkom 2017: Weiss). Wenn keine Störung auftritt, laufen solche Anlagen weitgehend vollautomatisch. Tritt eine Störung ein oder droht sie auch nur, können die Folgen allerdings groß sein. Ungeplante Anlagenstopps sind noch das kleinere Übel. Ihnen folgen nicht selten zeit- und kostenintensive Wartungs- und Reinigungsarbeiten. Schon deshalb wollen die Anlagenbetreiber Zwischenfälle so selten wie möglich erleben. Umso weniger können sie riskieren, dass Kernbrennstoffe, Flüssigkeiten oder Gase in die Umwelt austreten. Manche dieser Anlagen wie etwa die von BASF in Ludwigshafen liegen in Städten, manche Kernkraftwerke wie etwa das im bayerischen Ohu in Blickentfernung zu einer Stadt wie in diesem Fall Landshut. Was Anlagenbetreiber tun, damit es gar nicht erst zu Störfällen kommt, ähnelt der Vorgehensweise der Automobilindustrie: Smart Data beziehungsweise die Analyse der sekündlich generierten Datenmengen machen es möglich, den Verschleiß einzelner Bauteile wie etwa den von Ventilen vorherzusagen. Die Anlagenbetreiber justieren dann die Taktung der Prozessanlagen, optimieren deren Laufzeiten und planen Wartungsstillstände frühzeitig ein. In Energienetzen erzeugt eine performance asset maintenance ein datenbasiertes und damit verlässlicheres Fundament. Das ist besonders bei Windkraftanlagen auf hoher See oder in Gasrohrnetzen wichtig EineWindturbine liefert pro Tag rund 200 Gigabyte an Daten (Eberl 2016: 223). Gelingt es, „auch nur ein Prozent mehr Leistung herauszukitzeln, entspricht das bereits einer zusätzlichen Turbine von fünf Megawatt Leistung und Millionen von Euro an Kosteneinsparungen“ (ibid.).Viele dieser Anlagen kann man nicht so einfach überwachen. Denn immer öfter stehen sie an klimatischen Extremstandorten, an denen es besonders häufig stürmt, nicht selten mitten im Wald oder mitten im Meer. Sie zu warten ist besonders schwierig. Ähnlich wie bei anderen technischen Prozessen mit rotierenden Teilen und verschleißenden Komponenten wollen Energieerzeuger aber auch dort wissen, ob, wo, wann und wie Komponenten mit gewisser Wahrscheinlichkeit ausfallen werden. Eine frühzeitige Fehlererkennung (predictive maintenance) sorgt mit Methoden der Korrelationsanalyse, also mit smart analytics, für geringere Stillstandszeiten und geringere Instandsetzungskosten. Windkraftanlagen haben deshalb Ferndiagnose- und Fernsteuermöglichkeiten, die eine Vielzahl Daten erheben. Unstimmigkeiten, die auf frühzeitige Schäden hinweisen, fallen so rechtzeitig auf. Siemens beobachtet in seinen Fernwartungszentren etwa 300.000 Maschinen und Anlagen unterschiedlichster Art und sichert deren Betriebsqualität. So erreicht der Velaro, die spanische ICE-Version, 99,9 Prozent Zuverlässigkeit. Bei mehr als 15 Minuten Verspätung erstattet der Zugbetreiber Renfe den vollen Fahrpreis. Bei 2300 Fahrten war das bisher nur einmal nötig (ibid.). 5.5 Big Data in der Prozessindustrie 165 Das ist - zusammen mit anderen Aspekten - die Erzeugerseite. Zum Gesamtbild gehört aber auch die Versorgungssicherheit für die Verbraucher. In Deutschland ist Energie besonders sicher verfügbar; die Wahrscheinlichkeit von Netzausfällen ist die niedrigste in ganz Europa. Also haben die Energienetze in Deutschland bereits einen sehr hohen Qualitätsstandard. Versorgungsunterbrechungen liegen im Mittel deutlich unter zehn Minuten pro Jahr. Zur Aufzeichnung solcher Unterbrechungen dienen Verfügbarkeitsindizes mit englischen Namen wie System Average Interruption Duration Index (SAIDI), System Average Interruption Frequency Index (SAIFI) und Customer Average Interruption Duration Index (CAIDI). Mit exakt nach dem momentanen Energieverbrauch zu steuernden smart grids im Energiesektor wird auch dort die Störungsprognose noch wichtiger werden. Eine Energie-Studie des TÜV Rheinland analysierte 47 Anlagen mit gemeinsam genutzten Kommunikationsinfrastrukturen weltweit (Iglhaut 2017). Sie ergab, „dass Kooperationen zwischen Energie- und Telekommunikationssektor nur schleppend zustande kommen. Der Aufbau von Vertrauen und gegenseitigem Verständnis in beiden Branchen ist noch stark ausbaufähig“ (ibid.). Bedenkenträger prägen derzeit also das Bild; aber es zeigt auch, „dass ein Austausch und eine Zusammenarbeit beider Sektoren (Energie und Telekommunikation) wünschenswert und für die digitale Zukunft der EU dringend erforderlich sind“ (ibid.). Auch netzseitig steigt der Bedarf an Zustandsdaten aus dem Übertragungs- und besonders aus dem Verteilnetz. Die Energiewende belastet das zweite dieser Netze, weil es zusätzlich zu Strom aus Kraftwerken auch den aus Photovoltaikanlagen auf Hausdächern, ebenerdigen Solaranlagen und Windturbinen transportieren muss. Dazu sind qualitativ hochwertige Daten nicht nur hilfreich, sondern unbedingt nötig. Eine automatisierte, regelmäßige Speicherung dieser Indizes zusammen mit anderen Daten nützt den Netzbetreibern enorm. Sie verknüpfen zum Beispiel technische Netzdaten mit nichttechnischen Umgebungsdaten und errechnen daraus Verbrauchsmengen bei Kunden und den Anteil erneuerbarer Energien (Plattform 2015). Wenn wir schon von Kunden sprechen: Wie die Automobilindustrie muss natürlich auch die Prozessindustrie ihre Produkte verkaufen. Nun gleicht zwar heutzutage kein Automobil, das an einem beliebigen Tag vom Band eines Herstellers läuft, dem anderen. Jedes wird nach Kundenwunsch produziert und unterscheidet sich deshalb vom vorherigen und vom nächsten. In der Prozessindustrie ist die Orientierung an Kundenwünschen aber ein noch relativ junger Gedanke. Informationen zum momentanen Energieverbrauch sind noch nicht selbstverständlich und Energieeffizienzmaßnahmen noch keineswegs Standard. Energielieferenten wollen und müssen jedoch stärker auf Bedürfnisse ihrer Kunden eingehen und ihnen das passende Energieprodukt quasi maßgeschneidert anbieten. Stadtwerke müssen bei ihren Investitionen gezielt lokale Trends berücksichtigen: Wo nimmt die regenerative Energiereinspeisung zu? Wie schnell setzen sich in ihrem Umfeld Elektrofahrzeuge durch? Was bedeutet das smart home mit seiner Automationstechnik für dynamische Tarife im Energiesektor? Viele Stadtwerke haben dazu viele Daten, entnehmen ihnen bisher aber kaum solche Informationen. Also geht es darum, diese Daten mit vielen weiteren Quellen zu verknüpfen, um eine stabile Entscheidungsgrundlage zu schaffen (BMWi 2016: 29). Im Vertriebsebenso wie im Technikbereich können Stadtwerke und andere Energielieferanten dazu auf eine Vielzahl von Daten zurückgreifen, die entweder aus Rechnungen oder aus der Anlagenüberwachung stammen. Sie lassen sich organisatorisch auch für andere Zwecke verwenden, wenn ihre Qualität stimmt, zum Beispiel ihre Granularität - die Daten müssen sich einzelnen Nutzungen fein genug zuordnen lassen - aber nur, wenn keine wesentlichen datenschutzrechtlichen Einwände dagegen sprechen. Das ist jedoch oft der Fall. Netzbetreiber dürfen ihre Kundendaten über die üblichen Abrechnungszwecke hinaus nämlich nur mit Zustimmung der Kunden nutzen. Anders ist das nur bei anonymisierten 166 5 Big Data in der Wirtschaft Daten. Grundsätzlich sollten Kunden bei der Verwendung ihrer Daten mitreden können. Dazu müssen sie für sich einen Mehrwert erkennen. Nur dann werden sie auch zustimmen, Daten zu mehr zu verwenden als nur zu Rechnungen. Energienetz-Steuerungsdaten unterliegen in einem hohen Schutz. Sie müssen so sicher sein, dass sie nicht von Angreifern manipuliert oder an Dritte weitergegeben werden können. Um das Risiko eines Angriffs auf Datenbestände möglichst klein zu halten, trennen die Betreiber die operativen Versorgungsnetzdaten (OT-Netz) vom IT-Netz. Verteilen sie Energie über nationale Grenzen hinweg, wird das kompliziert. Denn dann fällt eine Vielzahl von Daten aus dem nationalen Rahmen. Diese Daten müssen dann internationalen Normen entsprechen. Verteilnetzbetreiber müssen also auch Datenmanager sein. Big Data bieten auch in der Energiewirtschaft große Chancen, um Prozesse weiter zu verbessern (vgl. Doleski 2017). Doch die Risiken sind ebenfalls groß. Ein fehlerhaftes oder ein für den ausgewählten Prozess unpassendes Analyse-Tool oder fehlerhafte Modellannahmen führen zu einem falschen Modellansatz und ergeben unbrauchbare Informationen. Stimmen zwar die Daten, aber werden sie falsch interpretiert, ist das Ergebnis ebenfalls kontraproduktiv. Man sollte Datenrisiken deshalb zwar nicht überbewerten, aber man darf sich auch nicht unterschätzen. Und wissen muss man auch: Netzbetreibern ist es nur erlaubt, Daten diskriminierungsfrei zur Verfügung zu stellen, das heißt: Benutzt der eigene Vertrieb bestimmte Daten, muss der Netzbetreiber sie auch jedem anderen Vertrieb zu den gleichen finanziellen Bedingungen zugänglich machen. Daher lässt im Energiehandel in Deutschland mit Daten kein Geld verdienen (ibid.). 5 5..66 BBiigg DDa attaa i imm HHaannddeell Handel und Wandel gehören so eng zusammen wie die zwei Seiten einer Medaille: Wer etwas kaufen will, muss seit Jahrhunderten entweder in ein Geschäft gehen oder warten, bis ein „fliegender“ Händler ihm etwas bringt. Das begann sich zu ändern, als Aristide Boucicaut den Parisern den ersten Versandkatalog vorstellte. Das war 1856. Bald danach belieferte er ganz Frankreich. In den USA führte Aaron M. Ward 1872 den Versandhandel ein. Richard Warren Sears folgte ihm 1888 mit seinem Bestellkatalog. In Deutschland legte Ernst Mey 1886 einen ersten solchen Katalog auf. Zwei Jahre danach gründete August Stukenbrok in Einbeck einen Versandhandel nur für Fahrräder. Nach dem Ersten Weltkrieg wurde der Versandhandel populär, etliche Versandhäuser entstanden: 1925 die Firmen Baur in Burgkunstadt und 1926 Klingel sowie Wenz in Pforzheim, ein Jahr später Quelle in Fürth und nochmals zwei Jahre darauf Schöpflin in Lörrach und Bader in Pforzheim, 190 Grundig sowie 1932 N.Israelin Berlin. Nach dem Zweiten Weltkrieg begann eine zweite Gründungswelle mit dem Südwest Versand in Ulm 1948, dem Otto-Versand in Hamburg 1949, dem Neckermann-Versand in Frankfurt/ Main 1950 und dem Schwab-Versand in Hanau 1955. In den 1960er Jahren brachte es diese Branche aber nur auf rund fünf Prozent des Einzelhandelsumsatzes. Marktführend blieb neben einigen kleineren Otto. Dessen Versandhandel lief lange recht komfortabel. Otto-Kataloge lagen, wenn sie nicht sofort entsorgt wurden, in Wohnungen herum und wurden dort wieder und wieder gesehen. Das Sortiment war klar und die Preise blieben bis zur nächsten Katalogauflage konstant. Kundenbindung war kein Problem: Wer bestellte, tat das mit vollem Namen und voller Adresse. Aber das blieb nicht so. Das Internet verdrängte die Katalogversender vom Markt. Heute versammeln sich die Menschen nicht mehr um das „Lagerfeuer“ eines telefonbuchstarken Katalogs auf dem Wohnzimmertisch, ja nicht einmal mehr vor dem Fernseh- 5.6 Big Data im Handel 167 gerät, und sie gehen auch weniger shoppen, denn suchen und kaufen online. Dazu erlebt die out of home-Werbung auf Plakatwänden und an Haltestellen gerade eine Renaissance. Denn im öffentlichen Raum können Menschen dieser Werbung kaum ausweichen. Im Übrigen aber müssen sie individuell angesprochen werden. Da jeder ein eigenes Kommunikationsgerät benutzt, meistens ein Smartphone, muss die Ansprache individualisiert sein. 2016 managten mobile digitale Assistenten in den USA online-Käufe für über zwei Milliarden Dollar. 2017 hing schon mehr as die Hälfte aller Investitionen in Produkte für Verbraucher davon ab, wie diese auf frühere Angebote reagiert hatten - künstliche Intelligenz wertete diese Angaben aus. 2018 sollen KI-Dienstleistungen über mobile Geräte die Größenordnung von 30 Milliarden Dollar erreichen. 2019 erwartet man im weltweiten content marketing für KI-Anwendungen bereits eine Größenordnung von 300 Milliarden Dollar. Und 2020 sollen wissensbasierte Systeme schon 60 Prozent aller Marktbewegungen erkennen, verstehen und empfehlen. Der online-Einzelhandel soll bis dahin allein in den USA ca. 500 Milliarden Dollar umsetzen und der Weltmarkt für das cognitive computing, für intelligente Maschinen (nicht eingerechnet ihre Anwendungen), dann schon allein mehr als 200 Milliarden Dollar groß sein (Bitkom 2017: Metze). Die Otto Group führt 123 Unternehmen, rund einhundert von ihnen online. Sie hat auf ihren diversen Onlineportalen 30 Millionen deutschsprachige unique users pro Tag. Das ist ein enormer Datenpool. In ihm geht es darum, die Nutzer zu verstehen und ihnen Angebote zu machen, die sie interessieren. E-Commerce und neue Werbekonzepte spielen dabei zusammen. Beide setzen auf Personalisierung. Zwar kauft nur eine relativ kleine Minderheit der Online-Interessenten tatsächlich auch. Aber das sind ausreichend viele. Trotzdem bleibt ein Problem: In den großformatigen Seiten von Katalogen haben die Menschen noch geblättert. Das Format von Laptops und Tablets bis hin zu Smartphones und bald zur smart watch ist aber immer kleiner geworden. Die Vielzahl der Produkte kann auf Smartphonesgar nicht mehr dargestellt werden. Und die Aufmerksamkeitsgrenze liegt auf Smartphones nur etwa bei acht Sekunden; Botschaften, die in dieser Frist nicht ankommen, gehen verloren. Wenn Google home sich durchsetzt, gibt es gar keine Bildschirme mehr, weil über Sprache kommuniziert wird. So könnte die Aufmerksamkeitsspanne noch geringer ausfallen. Im Branchenjargon heißt es: „Kunden in der attention economy zu erreichen, wird immer schwieriger. Erfolgreich ist nur, wer auf datenbasierte Kundenbeziehungen setzt“ (Bitkom 2017: Zeplin). Die Lösung heißt: Nicht der Kunde sucht nach Angeboten, die Angebote müssen vielmehr den individuellen Kunden suchen und finden (Stampfl 2013: 28). Deshalb muss der Handel über geeignete Kanäle einzelne Kundenzielgruppen direkt und in ihren communities passgenau erreichen. Dazu braucht er deren Daten. In Online-Shops hinterlassen Kunden schon viele Spuren. Firmen wie Otto möchten aber am liebsten alle geheimen Wünsche und Sehnsüchte ihrer Kunden kennen, um ihnen besonders passgenaue Angebote machen zu können. Facebooklikes geben Hinweise auf solche Vorlieben. Der frühere polnische Cambridge- Doktorand Michal Kosinski hat für die Nutzung von Big Data eine Software entwickelt, die mit zehn Facebook-likes eine Person bereits besser einschätzen kann als ein durchschnittlicher Arbeitskollege. 70 likes reichen aus, um die Menschenkenntnis eines Freundes zu überbieten, 150 um die der Eltern zu übertreffen, und mit 300 likes kann die Maschine das Verhalten einer Person genauer vorhersagen als deren Partner. Mit noch mehr likes lässt sich ausmanövrieren, „was Menschen von sich selber zu wissen glauben“ (Krogerus 2016). Facebook likes und ähnliche Daten mit den eigenen Kundendaten zu verknüpfen macht also Sinn. Die gesamte customer journey wird ja nachverfolgt und möglichst von überall werden Daten gesammelt und miteinander verknüpft: Basisdaten (Name, Alter, Geschlecht, Einkommensverhältnisse usw.), Standortdaten (Wohnort, Wohnumfeld). Acxicom ermittelt aus Besuchen der Webseiten von Immoscout, wo und wie jemand wohnt, was seine Miete kos- 168 5 Big Data in der Wirtschaft tet oder künftig kosten darf usw. Aus ebay-Aktivitäten analysiert dieses Unternehmen das Kaufverhalten von Kunden, die finanzielle Potenz und die Kreditwürdigkeit (Morgenroth 2016) sowie persönliche Interessen, Vorlieben und Abneigungen. Solche Daten werden nicht nur genutzt, um Käufe auszulösen, sondern auch um herauszufinden, weshalb Kunden nicht kaufen, wo es in der customer journeyalso Brüche gibt oder auch wo fancy analytics andeuten, dass sich Potenziale für eine neue Kundenansprache finden lassen. Denn in etwa acht Sekunden muss die Botschaft „ankommen“, sonst klickt der Nutzer sich weiter. Massenhaft Daten nutzt die Otto Group auch, um Warenabnahme- und Absatzprognosen zu errechnen. Da die Vorlaufzeiten für Fertigungen in Übersee besonders groß sind und weil dort nicht ohne Weiteres einfach nachgeordert werden kann, ist solches Wissen besonders für große Handelsketten sehr wichtig. Nicht wenige kaufen deshalb Daten von den marktmächtigen Datenkraken Google und Facebook hinzu. Business analytics-Spezialisten entwickeln dazu Algorithmen, um externe Datenquellen automatisiert zu bereinigen und in ein einheitliches Format zu konvertieren. Diese Daten steuern nicht nur den Materialfluss, sondern auch die Preisstellung. Sie machen es möglich, Preise an die Kaufkraft und Spendierwilligkeit einzelner Kunden koppeln. 2012 bekam Googleein Patent für eine Technologie zugesprochen, mit deren Einsatz Online-Händler die Preise ihrer Waren in Echtzeit dynamisch gestalten können (Morgenroth 2014: 70). Inzwischen hat manches identische Produkt für Interessenten online unterschiedliche Preise. Ein Kunde, von dem das System weiß, dass er vermögend und kein Pfennigfuchser ist, zumindest aber, dass er in einer wohlhabenden Region oder in einem reicheren Stadtviertel wohnt, bezahlt für ein Produkt deshalb vielleicht mehr als der Geizhals oder der Geringverdiener aus einem sozial schwächeren Viertel. Beide werden nie erfahren, dass Sie für exakt denselben Artikel mehr oder weniger bezahlt haben als andere. „Die Rolle des Internets als ausgleichendes Medium wird dadurch torpediert“ (ibid.). Ziele von Online-Kampagnen können sehr vielfältig sein: Reichweite, branding, awareness, Markenbildung, Absatz. Da man dazu nie genug Daten haben kann - und seien sie, wenn sie in fremde Hände kommen sollen oder von solchen kommen, auch anonymisiert - ist die Otto Group offen für Datenkooperationen. Einen gemeinsamen deutschen Datenpool über bilaterale Partnerschaften oder über Datentreuhänder hält man in deren Zentrale in Hamburg für eine sinnvolle Sache. Je schneller er zustande kommt, desto besser. Dass die Otto Group im Datenmanagement aufs Tempo drückt, ist nicht erstaunlich, wenn man globale Wettbewerber betrachtet. Die chinesische B2B-Plattform Alibaba, mit 50.000 Mitarbeitern Chinas größtes IT-Firmengruppe, setzte 2017 an einem einzigen Verkaufstag im Herbst rund 25 Milliarden US-Dollar um. Zum Vergleich: An einem Julitag bekam Amazon „nur“ eine Milliarde Dollar in die Kassen - für Amazon der biggest day ever. Eines der Alibaba-Erfolgsrezepte ist der Einsatz künstlicher Intelligenz. Sensoren registrieren, was ein Kunde zur Anprobe mit in die Kabine nimmt. Ein deep learning-System bietet ihm auf einem Bildschirm dann individualisiert je nach Geschäft und Angebot passende Ergänzungen an. Das funktioniert, weil die KI Hunderte Millionen Kleidungsstücke ebenso kennt wie den Geschmack von Designern und Modefans (t3n 2017). Hier noch ein Blick auf einen anderen großen Handelskonzern. Die Metro-Gruppe hat 2016 konzernweit ihre Fähigkeiten und Fertigkeiten zu Datenanalysen erkundet. Die trotz ihres englischen Namens deutsche Unbelievable Machine Company hatte mit unverstelltem Blick von außen ein capability assessment framework zu entwickeln, einen Rahmen zur Bewertung solcher Potenziale. Statt starrer Reifegradmodelle, wie sie früher üblich waren, ergaben sich mehrdimensional messbare und damit in ihren Konsequenzen planbare Aussagen darüber, wie ausgereift der Umgang mit Daten inzwischen ist (Bitkom 2017: Bollnöfer). Je nachdem, wo sich ein Kunde in seiner customer journey gerade aufhält, bekommt er auf seine mutmaßlichen Wünsche immer feiner abgestimmte Angebote. Nicht alle Unterneh- 5.6 Big Data im Handel 169 men verfügen über die dazu nötigen Technologien. Ihnen helfen marketing automation tools, die große Datenbestände automatisiert auswerten, aber natürlich nur nach den einprogrammierten Regeln arbeiten, auch wenn sich Marktbedingungen oder Käuferverhalten ändern. Werden die Regeln nicht angepasst, verlieren die tools ihre Wirkung (Sawant 2018). Passen sie und erzeugen On- und Offline-Werbung zur passenden Zeit beim passenden Kunden das von ihm erwartete Bild, rechnet sich alles (Sawant 2018). Individuelle und personalisierte Angebote sind daher für Marketer ein must have. Big Data analytics und machine learning sind die Technologien, die Interessenten entlang ihrer customer journey begleiten und effizient zu Käufern machen (ibid.). Selbstlernende Maschinen sammeln nicht nur Daten, sondern lernen auch aus dem Käuferverhalten. Sie beziehen externe Datenquellen mit ein: demografische Daten einer Region oder das Wohnumfeld oder das Wetter. Sie ziehen Schlüsse aus dem früheren Kaufverhalten des Einzelnen oder aus Kaufzyklen von Kundensegmenten. Und sie durchsuchen social media und blogs nach aus aus Kommentaren und likes erkennbaren Trends. Sie modifizieren nicht nur alte und erstellen neue Vertriebsregeln, sondern können Kundeninteressen auch in Echtzeit erzeugen, bevor diese ihre customer journey bewusst antreten. „So triggern selbstlernende Systeme Interessenten genau zu dem Zeitpunkt, wenn sie ihre customer journey beginnen und begleiten sie bis zum Kaufabschluss“ (ibid.). Ein machine learning-Algorithmus analysiert darüber hinaus die örtlichen Daten eines Kunden: „Bestellt er lieber etwas online am PC, benutzt er eine mobile App oder kauft er eher vor Ort im Laden ein? “ (ibid.). Die Ergebnisse vergleicht das System mit ähnlichen Kunden. Informiert sich ein Kunde im Ladengeschäft, kauft dann aber online, erkennt das System das und informatiert den Händler. Während ein Kunde surft, begleitet ein selbstlernendes System den Interessenten auf seiner customer journey. Dieser Prozess lässt sich auf ganze Kundensegmente anwenden. Man sieht es bei Amazon: „Kunden, die dieses Buch kauften, interessierten sich auch für …“ (Sawant 2018). Mit den richtigen Informationen sind die Unternehmen also in der Lage, für jeden personalisierte Angebote zu machen. Bald werden wir uns unter dem Stichwort voice commerce online mit Sprachbots über die Produkte unterhalten, für die wir uns interessieren. Das macht das Argument hinfällig, Beratung bekomme man nur im Laden, und das wird die Art und Weise verändern, in der wir einkaufen, weiter massiv verändern. „Mehr noch: Das gesamte Internet erfährt eine Transformation - von der bald altmodischen Texteingabe samt Maus und Tastatur hin zu einem von Videos und Sprache dominierten System. Bildschirme und Tastaturen werden irgendwann zu Raritäten zählen“ (Klar 2018). Insgesamt erzeugt diese Branche ein zwiespältiges Bild: Einerseits will sie ihren Datenpool möglichst anonym halten, damit kein Rückschluss auf einzelne Kunden möglich ist - schon gar nicht, wenn die Daten an Dritte zur Nutzung weitergegeben werden. Andererseits möchte sie jeden einzelnen Kunden möglichst bis ins Innerste kennen (welche Big Five- Charaktermerkmale kennzeichnen ihn, welche Hobbies und Vorlieben hat er? ), um ihm möglichst passgenaue Kaufangebote machen zu können (Bitkom 2017: Zeplin). In einem Report „The State of Customer Service“ hatte Xerox 2015 mehr als 6.000 USamerikanische, britische, deutsche, französische und holländische Verbraucher befragt und bestätigt gefunden, dass zwischen Anbieter und Verbraucher die Form der Interaktion immer wichtiger wird. Was heute dazu noch genügt, wird bald nicht mehr ausreichen. „Es ist klar, dass sich die Beziehung zwischen Konsumenten und Marken in den nächsten fünf Jahren radikal verändern wird“, sagt Tim Joyce, der Chief Innovation Officer von Xerox Customer Care. „Die Kunden haben einen hohen Anspruch an die Servicequalität. Und die Technologien sind so ausgereift, dass Unternehmen diese Bedürfnisse erfüllen können.“ Dabei überrascht, wie wenig hierzu in der Breite der Wirtschaft anscheinend die sozialen Netzwerke betragen können. Sie genießen zur Lösung konkreter Probleme nur sehr be- 170 5 Big Data in der Wirtschaft grenztes Verbrauchervertrauen. Erst fünf Prozent aller Kundendialoge in Technologie, Telekommunikation und Medien laufen über diese Kanäle. Facebook und Twitter wollen aber Kundendienste stärker erschließen. Marken, die nicht über alle Kanäle hinweg gleichmäßig stark präsent sind, können mit Hilfe anspruchsvoller Datenanalysen erreichen, dass sie an den Orten vertreten und ansprechbar sind, die ihre Zielgruppen bevorzugen. Eine Umfrage lässt erkennen, dass sie dazu erfahrene Serviceanbieter brauchen. Die können Schnittstellen miteinander verbinden und die am besten geeigneten Kanäle bedienen. So wird jede einzelne Interaktion mit Kunden zum Teil eines kontinuierlich laufenden Dialogs (ap-verlag 2016a). Dabei betreuen immer öfter Maschinen Maschinen. Der virtual agent beispielsweise, ein Xerox-Programm, kann mit anderen Maschinen kommunizieren und Probleme lösen, bevor ein Kunde davon überhaupt etwas bemerkt. Auch wearable devices, also am Körper tragbare Sensoren, die sich mit anderen Systemen vernetzen, sollen immer mehr Bedeutung bekommen. Erst sechs bis sieben Prozent der Verbraucher nutzen solche tragbaren Technologien. Also besteht noch viel Potenzial. Einerseits wird die Kundenbetreuung also immer persönlicher. Andererseits zeigen die aktuellen Trends, dass dabei intelligenten Maschinen eine immer stärkere Rolle zukommt. Big Data-Anwendungen haben das Potenzial, ganze Arbeitsfelder durch Maschinenarbeit zu ersetzen. Auch der Kundendienst - in Call Centern, Webchats und sozialen Netzwerken - wird von vernetzten Geräten bis zur anspruchsvollen Analytik fortlaufend automatisiert. Fast die Hälfte aller Nutzer, 41,6 Prozent, ist zwar überzeugt, im Jahr 2025 gar kein call center mehr zu benötigen. Die anderen werden aber erleben, dass Routineanfragen dort nur noch automatisch beantwortet werden. Ausgebildete Mitarbeiter sollen sich stattdessen um die Kunden kümmern, die eine intensivere Betreuung benötigen. Call center-Mitarbeiter und nicht nur sie können so ihren eigentlichen Vorteil zur Geltung bringen, den menschlichen Faktor. Der Alltag jedoch wird dann von Maschinen organisiert - ein Wandel, der uns in den beiden anschließenden Abschnitten noch genauer beschäftigen muss. „Was gerade im Markt abgeht, ist überwältigend“, urteilt Mindbreeze-Gründer und -Chef Daniel Fallmann. „Geht ein Digitalisierungsprojekt in einem Unternehmen richtig ab, kurbelt es das Wachstum nicht bloß an. Es wirkt wie ein Brandbeschleuniger: schnell und intensiv. Das verschafft den Unternehmen einen Wettbewerbsvorteil, weil die digitalen Werkzeuge und Prozesse es ihnen erlauben, sich voll und ganz am Kunden zu orientieren“ (Martin-Jung 2016). Das Wort Brandbeschleuniger macht klar, wie gefährlich diese Entwicklung für diejenigen ist, die ins Feuer geraten. Das Institut für Handelsforschung erwartete schon in der ersten Hälfte der 2010er Jahre, dass bis 2020 rund ein Drittel aller Ladengeschäfte schließen muss, und das Beratungsunternehmen Mücke, Sturm & Co. rechnete vor, dass weitere 40 Prozent nur Überlebenschancen haben, wenn sie sich auf das online-Geschäft umstellen: „Der traditionelle Handelskäufer stirbt aus, und damit auch der traditionelle Handel. Er muss sich völlig neu erfinden oder wird verschwinden“ (cit. Keese 2014: 180). Der grundlegende Wandel, der sich in dieser online-Welt in den letzten fünf Jahren vollzogen hat, lässt sich in einem Wort bündeln: in dem Wort Plattform. Dabei ist nicht der computertechnische Begriffsinhalt dieses Worts gemeint, sondern seine strategische Bedeutung für Chancen im Markt. Plattformen sind das zentrale Geschäftsmodell der digitalen Ökonomie. Fünf der zehn wertvollsten Unternehmen arbeiten inzwischen auf Plattformen als Vermittler zwischen Anbieter und Nachfrager. 1998 war Microsoft das wertvollste Unternehmen der Welt. Jetzt sind es Apple, Alphabet, Facebook, Alibaba und Amazon. Nahezu alle großen wirtschaftlichen Erfolge der letzten Jahre fußen auf Plattformen; man braucht nur auf 5.7 Die Smart City 171 Facebook und Whatsapp, Amazon und AWS" Google, Booking,Airbnb, Mytaxi oder Uberzu blicken. Weltweit gibt es inzwischen allein für industrielle Güter 450 Plattformen. 80 Prozent aller Werbung laufen bereits über die Plattformen von Facebook und Google (BMBF/ Wi 2018: Deininger).Der Grund: Sie sind zumindest zum Teil Plattformen. Der Umsatz von Amazon.de lag 2016 bei rund zehn Milliarden Euro, der der Amazon-Plattform mit angeschlossenen Händlern bei 22,6 Milliarden, der der Otto Group bei 3,2 Milliarden (BMBF/ Wi 2018: Schmidt). Die deutsche Industrie zögere bei Plattformen gefährlich, sagt ‚Wer liefert was? ‘-CEO Peter Schmidt (BMBF/ Wi 2018: Schmidt). Erst zehn Prozent aller deutschen Firmen mit mehr als 20 Mitarbeitern im Segment Handel sind auf Plattformen aktiv, in anderen Branchen erst zwei Prozent. 40 Prozent kennen digitale Plattformen noch gar nicht (ibid.). „Wir drohen bei Plattformen den Anschluss zu verlieren“, befürchteten im April 2018 in einer Umfrage 78 Prozent der Teilnehmer an den Big Data Days der Bundesminsisterien für Forschung und für Wirtschaft. Deutschland habe die Plattformökonomie bislang verschlafen, sagte dort rundheraus Fiedler (BMBF/ Wi 2018: Fiedler), und Deininger sekundierte: „Wer Plattformen jetzt nicht nutzt, wird zu spät dran sein (BMBF/ Wi 2018: Deininger). Welche unglaubliche Dynamik Plattformen entwickeln können, zeigt der chinesische Konzern Alibaba. Er entwickelte sich in drei Schritten: Zuerst entstanden Internet-Marktplätze, dann eine shared economy und endlich eine Info-Ökonomie aus vier Einzelhandels- und zwei Großhandels-Marktplätzen sowie 10.000 Läden und Anteilen an Warenhäusern, ergänzt durch cloud-Dienste, Online-Marketing und den Bezahldienst Alipay Finance (BMBF / Wi 2018: Schmidt). 55..77 DDiiee SSmmaarrtt CCiittyy Dass solche Entwicklungen die Struktur unserer Städte nicht unberührt lassen, liegt auf der Hand. Nicht nur Häuser, der Straßenverkehr und Verwaltungsabläufe werden digitalisiert; die smart city verlangt auch den smart citizen. Das haben wir nun zu betrachten. Die Wortbedeutung von smart hat sich völlig verschoben. Noch vor einer Generation war etwas, das als smart galt, nur irgendwie pfiffig. Der dresscode „smart casual“ (im Gegensatz zu formal: dunkler Anzug, langes Kleid, aber auch zum bloßen casual, bis hin zu T-shirt und shorts) lässt sich am Besten interpretieren als „sportlich mit Pfiff“. Seit es pfiffige Telefone gibt, eben Smartphones, bedeutet smart aber vor allem wie das Smartphone selbst: datengetrieben, vernetzt. Eine smart city zeichnet sie sich durch „smartes“ Verhalten aus. Was dort geschieht, soll der vernetzten Informationsgesellschaft dienen. Ein Beispiel: Straßenlaternen mit Sensoren passen die Lichtintensität im öffentlichen Raum an individuelle Veränderungen des Umfelds an. Die Sensoren erfassen Daten, die cloud kombiniert sie mit historischen und kontextabhängigen Daten (Jahreszeit, Ereignisse, Fahrplan für öffentliche Verkehrsmittel usw.) und steuert, wann die Lampen abhängig von den Bedingungen zu dimmen, aufzuhellen, einzuschalten oder auszuschalten sind. Das senkt die Energiekosten allein in der US-Stadt Schenectady (65.000 Einwohner) um über 370.000 Dollar pro Jahr (Shiklo 2018). „Die Digitalisierung wird die Stadtökonomie nachhaltig verändern“, schreibt wenig überraschend das Bundesinstitut für Bau-, Stadt- und Raumforschung. „Die absehbaren Entwicklungen erfordern es, dass Kommunen und privatwirtschaftliche Akteure der Stadtökonomie gemeinsam mit der Bürgerschaft und Wissenschaft aktiv werden“ (Bundesinstitut 2017c: 11). Experten, die das Institut befragt hat, sehen dabei vor allem die Städte selbst in der Pflicht: 83 Prozent der Befragten verlangen, dass kommunale Unternehmen bei der 172 5 Big Data in der Wirtschaft Einführung smarter Technologien und Infrastrukturen eine führende Rolle übernehmen (2017b: 11). Dabei müssten sich die Kommunen um sieben zentrale Themenfelder und Trends kümmern: um Datenschutz und IT-Sicherheit, Transparenz und Datenhoheit, IT- und Datenkompetenz, Vernetzung von Datenbeständen, predictive analytics, Privatisierung im virtuellen Raum und Nutzung von Big Data (2017b: 10). Eine Fülle instruktiver Belege über den Wandel der Städte zu smart cities hat Neckermann zusammengetragen (Neckermann/ Smedley 2017). Wir müssen uns hier auf das Grundsätzliche beschränken. Die physische und die digitale Infrastruktur in Städten sollen sich so ergänzen, dass „einerseits die tagtägliche Leistungserbringung und andererseits Investitionsentscheidungen vollständig an Effizienzgesichtspunkten auszurichten“ sind (Stampfl 2017: 6 f.). Alles soll mess- und somit nachvollziehbar werden. Herzstück soll eine zentrale Kontroll- und Überwachungsinstanz sein, „die sämtliche ‚Lebensäußerungen‘ der Stadt „nicht nur misst, überwacht, bewertet, steuert“, sondern auch „unter Kontrolle hält und letztendlich Entscheidungen trifft“ (ibid.: 8). PersönlicherDatensender und -empfänger soll das Smartphone sein, die Schnittstelle des Bürgers zur Stadt, kommunale Daten kommen hinzu. Zwei Beispiele: Los Angeles, eine der verkehrsreichsten Städte der Welt, kontrolliert mit einer intelligenten Verkehrslösung den Verkehrsfluss. In den Straßenbelag integrierte Sensoren senden Daten zum Verkehrsfluss an eine zentrale Plattform. Sie analysiert die Daten und passt Ampelanlagen sekundenschnell der Verkehrslage an. Sie verwendet auch historische Daten, um vorherzusagen, wohin der Verkehr fließen kann - alles ohne menschliches Zutun (Shiklo 2018). Intelligente Parklösungen identifizieren, wann ein Fahrzeug die Parkfläche verlassen hat. Sensoren im Boden melden per Smartphone den Autofahrern in der Nähe, wo sie einen freien Parkplatz finden können (ibid.).So weit die positive Seite. Aber es gibt such eine negative.Gerät in Shanghai ein Autofahrer in die falsche Spur, erkennt das eine Kamera und zeigt den Verstoß ein paar hundert Meter weiter auf einem Monitor am Straßenrand an. Sekunden später landet der Strafzettel auf dem Smartphone des Fahrers. Per Knopfdruck kann er sofort bezahlen (Der Spiegel 2017: 20). Zur Kontrolle der Luftqualität können Städte ein Netzwerk von Sensoren entlang stark befahrener Straßen und auch in Fabriken einsetzen, um die Menge schädlicher Gase in der Luft zu überwachen. Die hochentwickelten Sensorenmessen Emissionen von Kohlenmonoxid (CO), Stickstoffoxiden (NOx) und Schwefeldioxid (SO2). Eine zentrale cloud-Plattform aggregiert, analysiert und visualisiert die Sensormesswerte (Shiklo 2018). Die ebenfalls chinesische Stadt Songdo gilt bereits als ein Musterbeispiel für Chancen und Risiken von Big Data in smart cities (Mehnert 2016). In dieser datentechnisch aufgerüsteten Stadt sind Stadtplanung, Verwaltung und Kommunikation mit Anwendungsfeldern wie Energieversorgung, Mobilität und Nachhaltigkeit eng vernetzt. Die smart city soll damit effizienter und zugleich nachhaltiger funktionieren (vgl. Siegemund 2013, Rötzer 2015). Besonders früh setzte das Senseable City Lab des Stadtstaates Singapur solche Technologien ein: „Wasser und Stromverbrauch, der Flugverkehr, die Bewegungen von Containern im Hafen, GPS-Daten von Taxis, Bussen und Privatautos, Wetter, Temperatur und natürlich die Telefondaten werden dort unaufhörlich miteinander verflochten. U-Bahn-Benutzer wissen dann nicht nur, wo baustellenbedingt die Züge langsamer fahren. Sie wissen auch, wie voll sie gerade sind und ob es sich lohnt, eine halbe Stunde auf leerere zu warten“ (Häntzschel 2013: 85). Wenn man Sensordaten mit den Daten aus sozialen Medien kombiniert und in Echtzeit analysiert, kann man Lösungen für öffentliche Sicherheit potenzielle Tatorte prognostizieren und Meldungen an die nächste Polizeistreife senden. So kann die Polizei potenzielle Straftäter schneller stoppen oder sie erfolgreich verfolgen (Shiklo 2018).Im Bereich öffentliche Sicherheit filtert eine IBM-Software Blue Crush aus Daten schon vor einem Polizeieinsatz Kriminalitätstrends heraus. So legen Daten Spuren zu kriminellen hot spots (Stampfl 2013: 5.7 Die Smart City 173 54). Verbrechen lassen sich bekämpfen, bevor sie geschehen. In Memphis ging damit die Kriminalitätsrate um dreißig Prozent zurück (ibid..). Besonders gründlich überwachen die Chinesen ihre Bürger in ihrer Hauptstadt. „Im Oktober 2015 verkündeten die Behörden stolz, die Überwachung der Stadt Peking mit Kameras sei nun vollständig, es gebe auch Fortschritte bei der automatischen Gesichts- und Stimmerkennung“ (Strittmatter 2017: 13). Wie überall haben Big Data auch in smarten Städten also ein Doppelgesicht: Sie erleichtern die Orientierung und die Verwaltung der Stadt, aber auch die flächendeckende Überwachung. Das zeigt sich auch in Deutschland zum Beispiel an der Polizeiarbeit. Eine Software-basierte Verbrechensprävention(predictive policing) wertet Straftaten nach Mustern aus, um künftige Tatorte und -zeiten vorherzusagen. Mehrere deutsche Bundesländer testen solch ein Prognosesystem. Mit welcher IT-Infrastruktur die Polizei Massendaten rechtskonform auswerten darf, ist aber noch nicht ganz klar. Sie muss sich dazu mehr und mehr mit Big Data beschäftigen. Hochwertige Ergebnisse erbringt das nur, wenn die gesamte IT-Umgebung einer Stadt auf große Datenmengen ausgelegt ist. Nur dann lassen sich Petabyte an Daten aus unterschiedlichste Quellen und Strukturen intelligent analysieren und nach Zusammenhängen durchforsten (Moeller 2017).Ein Beispiel: Fußballspiele mit hooligans unter den Zuschauern gelten als Hochrisikospiele. „Für die Einsatzplanung können unter anderem Wetterdaten aufschlussreich sein. Wird es ein kalter oder ein warmer Tag? Wird mit steigender Temperatur mehr Alkohol konsumiert als an kalten Tagen? Steigt damit auch das Aggressivitätspotenzial unter den Fans? Welche Fangruppen könnten wo aufeinandertreffen? “ (ibid.). Vor echte Herausforderungen stellen Behörden Daten, die sie in Einsätzen sichergestellt haben. Wo früher Papierakten als Beweismittel durchgearbeitet wurden, sind es heute Festplatten, memory sticks oder Daten in der cloud. Kreative Verknüpfungsmöglichkeiten sind dank predictive policing fast in Echtzeit möglich.Man nennt solche Beweismittel Schmutzdaten und hält sie, um Infizierungen durch schädliche Software zu vermeiden, vom Polizeinetz getrennt. Pro Jahr und Bundesland fallen in Deutschland zwischen 500 Terabyte und zwei Petabyte solcher Schmutzdaten an. Sie müssen ebenso wie Behördendaten sicher aufbewahrt werden und verlässlich abrufbar sein (ibid.). Ein Teil unterliegt einer langfristigen bis unendlichen Archivierungspflicht. Dazu müssen IT-Verantwortliche Zugriffsrechte, Verschlüsselungstechnologien, Datenintegritäten und die Datensicherung beachten und trotzdem gewährleisten, dass man auf sie schnell zugreifen kann (ibid.). In einer bürgerfreundlichen Verwaltung sollen Dienstleistungen vom Ausweisantrag über die Steuererklärung bis zur Gesundheitsversorgung online nutzbar sein. In Friedrichshafen können Herzinsuffizienzpatienten ihre Vitaldaten schon seit 2007 per Internet an das Krankenhaus übermitteln. Dort laufen auch schon intelligente Stromzähler, die zu einem effizienteren Stromverbrauch führen sollten. Nach fünf Jahren ergab sich als Fazit allerdings: Obwohl die Bürger das Projekt gut kannten, hatten die meisten nur „eine diffuse Vorstellung“ vom Nutzen. Es war nicht gelungen, die Bürger „mit eigenen Ideen in das Projekt zu integrieren“ und es damit „langfristig zu verankern“ (Hladky 2017: 10). Datengesteuert funktionieren flexible car sharing-Modelle. Für Elektroautos werden Ladestationen installiert und Wegstrecken durch App-Daten optimiert. Das soll die Zahl der Privat-Pkw verringern und den öffentlichen Verkehr beschleunigen. In Wien soll der Anteil des motorisierten Verkehrs bis 2030 auf 15 Prozent sinken (ibid.). Smarte Parkautomaten geben nicht nur Parkscheine aus, sondern melden freie Parkplätze dem Navi im Auto und justieren auch die Parkgebühren je nach Verkehrsbelastung (O’Reilly 2013). Die Technik dazu soll in großem Stil in Masten der Straßenbeleuchtung installiert werden. Sie stehen überall, führen bereits Strom und gehören durchweg der jeweiligen Stadt. Allein in München sind es 85.000. In sie will die Stadt flächendeckend Sensorik einbauen. Dann werden sich Straßenlampen automatisch erhellen, wenn ein Auto oder eine Person sich nähern. Die 174 5 Big Data in der Wirtschaft Masten registrieren auch Smartphone-Adressen, empfangen und senden Internet-Daten und managen so einen Datenstrom, der den Benutzern willkommen sein mag, der aber zugleich ihr Verhalten dokumentiert (Stampfl 2016: 211). München stattet in seinem neuen Stadtteil Freiham seit Juli 2017 erste Straßen mit solchen Lichtmasten aus. Genutzt werden sie dort nur für Daten ohne Personenbezug: Klima- und Umweltdaten über Schadstoffe (Stickoxide, Feinstaub) und Reizstoffe (Pollen, Ozon), Verkehrsmengendaten, Daten zum Parkraummanagement. Die Masten bekommen auch elektrische Ladestationen, Sicherheitseinrichtungen und liefern wetterabhängige Mobilitätsdienstleistungen (Glock 2017). Die Stadt setze dabei grundsätzlich auf Smart Data statt Big Data, erklärte Münchens 2. Bürgermeister Josef Schmid. Smart data sind Daten, „aus dem Sie einen praktischen Nutzen ziehen können“ (Wierse / Riedel 2017: VI). Smart Data sollen also „nicht nur aufzeigen, was in den Maschinen geschieht, sondern auch, warum es passiert, welche Vorhersagen man treffen kann und welche Handlungen daraus abgeleitet werden sollten“ (Eberl 2016: 223). Datenschutz und Datensicherheit, sagt der 2. Bürgermeister, hätten dabei immer höchste Priorität (Schmid 2017: 7). 2018 gingen in München auch die ersten drei von acht künftigen multimodalen Mobilitätsstationenin Betrieb. Sie verknüpfen das Kernangebot des Öffentlichen Verkehrs mit elektrischen Dreirädern und Ladesäulen für Elektroautos. In zwei Stationen werden auch Quartiersboxen für einen 24-Stunden-Liefer-, Einkaufs- und Tauschservice integriert. Lieferdienste erhalten in den Städten Lagerboxen als Umschlagplätze und Abholstationen. Denn auch der Lieferverkehr soll sinken, vor allem in den Hauptverkehrszeiten. Alle smart cities haben eines gemeinsam: Sie nutzen das Internet der Dinge (IoT) und machineto-machine-Kommunikation (M2M), um Menschen, Arbeitsplätze, Geräte, Apps und Dienste miteinander zu verbinden und die Stadt zu einem Ort zu machen, in dem man besser leben und arbeiten kann (Müller-Dott 2018). Das ist eine Gratwanderung zwischen mehr Service auf der einen und dem Recht der Bürger auf Privatsphäre auf der anderen Seite. München agiert da sensibel. Als hingegen San Jose in Kalifornien seine 39.000 Straßenlaternen digital aufrüsten wollte, stellten Anschlüsse für Videokameras und Mikrophone in den Augen der dortigen Bürger ein Risiko dar (ibid.). Smart cities sollten ihren Umgang mit Personendaten deshalb auf das beschränken, was unmittelbar für die jeweilige Aufgabe notwendig ist und nicht für andere Zwecke missbraucht werden kann. Ein Beispiel: Um Staus zu vermeiden, muss keine Kamera die Gesichter von Autofahrern aufnehmen; es reicht, die Wlan- und Bluetooth-fähigen Geräte zu zählen, die an dem ausgewählten Punkt vorbeikommen. Trotzdem: Das weltweite Marktvolumen für smart cities soll 2020 einen Wert von 1,6 Billionen US-Dollar erreichen (Frost & Sullivan, cit. Müller-Dott 2018). Diese Mobilitätsdienstleistungen in smart cities sollen zu einem System zusammenwachsen. Es wird Mobility-as-a- Service (MaaS) genannt und kombiniert alle Arten der Personenbeförderung wie bike und car sharing, Taxis und Busse sowie Züge für Nah- und Fernverkehr zu einer nahtlosen Transportlösung. Dienstleister garantieren diesen Service und sorgen dafür, dass dem Kunden stets der passende Transport zur Verfügung steht. Gebucht und bezahlt wird über eine zentrale Plattform, auf die man über das Smartphone zugreifen kann. Damit verschmelzen die klassischen Transportmittel für den Personenverkehr mit der sharing economyund mit Reisebüros zu einem durchgängigen Service (Javornik 2017). Für dieses intelligente Transportsystem müssen private und öffentliche Partner kooperieren. Hohe Datenmengen sind in Echtzeit zu verarbeiten. Big DataAnalytics, vor allem predictive analytics, spielen dabei eine zentrale Rolle. Nur so lassen sich die nötigen Informationen zur Disposition von Zügen oder für die Routenwahl von Automobilen ermitteln. Die Routenauswahl soll außer dem aktuellen Verkehrsaufkommen auch das Wetter berücksichtigen, den Berufsverkehr inklusive Ferienzeiten und Feiertagen, große Sport- oder Musikveranstaltungen, ungeplante Tagesbaustellen und plötzliche Straßenblockaden durch Unfälle. In 5.7 Die Smart City 175 Finnland läuft ein solches MaaS-Pilotprojekt für den öffentlichen Nahverkehr, Taxis, eine Autovermietung und bike sharing seit 2016. Nach Schätzungen von Comtrade Digital Services lassen sich in solchen Systemen bis zu 80 Prozent aller Reisen vorhersagen und damit auch planen (ibid.). Über die Vorzüge der smart city sind sich viele Stadtplaner mit Datenexperten einig. Digitale Systeme werden Verkehrsnetze in Echtzeit ebenso steuern wie den Wasser- und Abwasserhaushalt und das Müllrecycling. Ortsfremde werden sich per Smartphone über Orte, Plätze und alles andere orientieren, was eine smart city zu bieten hat (Litzel2017a). Einheimische werden ihre Kontakte zur Stadtverwaltung im Wesentlichen online abwickeln. Das klingt recht bürgerfreundlich, hat aber auch eine Kehrseite. Einerseits können sich kleinere Städte den Aufwand für die Digitalisierung ihrer Funktionen vielleicht gar nicht leisten. Ihnen empfiehlt eine Expertise, auf einer Plattform mit offenen Daten ein gemeinsames städtisches Ökosystem zu bilden, so wie etwa das iberische Smart Cities-Netzwerk aus derzeit 111 Städten (Shiklo 2018). Andererseits: „Wer kein Smartphone besitzt, ist verloren“ (Haentzschel 2013: 87). Und lässt eine Regierung etwa aus politischen Gründen Netze abschalten, wie es in Kairo geschah, müssen Passanten wieder Straßenschilder lesen und Demonstranten wieder Flugblätter drucken. Es gibt Stimmen, die das aus Datenschutzgründen begrüßen. Greenfield hat (2013) schon ein ganzes Buch „Against the smart city“ geschrieben. Die smarte Technik überstrahlt auch, dass Städte erst durch ihre Bewohner urban werden. Dafür steht das Schlagwort der human smart city. Dieser Begriff umreißt einen Perspektivenwandel: statt auf die smart city zu setzen sollte man auf den smart citizen fokussieren (ibid.: 9). Städte würden nämlich erst dann smart, heißt es etwas gestelzt, wenn sie „in einem partizipativen Stadtmanagement das Humankapital ihrer Bürger ausschöpfen“ (Stampfl 2017a: 9 f.). Die ausgefeiltesten technologischen Konzepte, sagt auch das Münchner Forum, können allein nicht die Qualität schaffen, „die eine Stadt lebendig und lebenswert macht“ (Bäumler 2017: 17). Gerade das bürgerschaftliche Element präge aber die Individualität einer Stadt, schaffe Atmosphäre und Lebensqualität. Smart citizens sind Bürger, die digitale Strukturen für bürgerschaftliche Ziele einsetzen. Eine solche Bürger-Werkstatt muss online funktionieren. Open-Source-Projekte sollen als neue Formen der Selbstorganisation Interessen bündeln und den Austausch mit Gleichgesinnten fördern. Das Münchner Forum forderte die Politik auf, für die digitale Zukunftswerkstatt neue bürgerschaftliche Instrumente zu schaffen und smart citizens Schulungen anzubieten, mit denen sie „in der smart city bürgerschaftliche Positionen wahren können“ (ibid.). Das Bundesinstitut für Bau-, Stadt- und Raumforschung hält solche Forderungen nach Transparenz und Offenheit in der vernetzten Stadtgesellschaft für ganz zentral. Die Digitalisierung mache Transparenz zur Notwendigkeit. „Städtische Institutionen werden ihr Handeln stärker an gesellschaftliche Forderungen und Bedürfnisse anpassen müssen“ (Bundesinstitut 2017d: 10). Jeder Bürger ist aufgerufen, sich zu beteiligen, je nach Temperament und Möglichkeit analog, also von Angesicht zu Angesicht, oder digital, also über Internetplattformen. Diese elektronischen Plattformen stellen Kommunen bereit, in München etwa in Form des RIS, des Rathaus-Informations-System, aber auch Bürger aus eigener Initiative, so seit 2015 eine Münchner Internet-Plattform www.nachbarn.de, die es in den hundert größten deutschen Städten schon auf über 2.500 elektronisch vernetzte und aktive Nachbarschaften gebracht hat, allein in München und Umgebung auf rund 200 (Rickenberg 2017: 22). Das offizielle München nimmt die Forderung nach bürgerlicher Mitwirkung ernst. Die Bewohner des neuen Stadtteils Freiham konnten über die Erfassung und Nutzung von Daten mitentscheiden. Er gab Workshops über technische Möglichkeiten und wünschenswerte Anwendungen. Die Vorschläge reichten von Apps über das örtliche Wetter-, Verkehrsdaten und Pollenwarnungen bis zur Möglichkeit, verloren gegangene Tiere aufzuspüren und Menschen zu helfen, die sich verlaufen haben. Das war aber schnell wieder vom Tisch. 176 5 Big Data in der Wirtschaft Denn personenbezogene Daten bleiben tabu. Darin ist man sich einig. Und noch in einem Punkt gibt es Konsens: Alle erfassten Daten sollen zum Wohl der Allgemeinheit genutzt werden, nicht aus wirtschaftlichem Interesse einzelner Marktakteure. Interessen von Händlern haben in diesem Netz nichts zu suchen (Hladky 2017: 11). Eine Idee zur Verwirklichung der smart city tarnt sich als Spiel und wirbt mit dem Konzept der gameful city. Ihre Erfinder wollen den smart citizen spielerisch dazu zu bewegen, sich mit seinem städtischen Umfeld und dem „Betriebssystem“ Stadt auseinanderzusetzen (ibid.: 10). Die Stadt bilde mit ihrer „digitalen Haut“ (Rabari/ Storper 2015) ohnehin sämtliche ökonomischen, politischen und sozialen Prozesse digital ab und schaffe so ein digitales Bild der Stadt. Spielprinzipien können dreierlei bewirken: erstens Partizipation und Selbstorganisation stärken, zweitens die Bürger mit crowd sourcing und data mining massenhaft Daten einsammeln lassen und sie drittens über gamification zu sozial erwünschtem Verhalten ermuntern (ibid.: 11). Noch hat man das nirgends ausprobiert. Es bleibt also spannend. Auch wenn es sich eigentlich von selbst versteht, soll noch kurz erwähnt werden, dass nicht nur cities smart funktionieren sollen, sondern auch kleinere Kommunen. In einem bayerischen Dorf, dem der Strukturwandel seinen Laden ebenso genommen hat wie seine Bankfiliale, bringt nun ein Transporter Güter aus der Region in Ortsteile ohne Geschäfte. Er liefert nicht nur Waren aus, sondern auch Geld nimmt Waren von Bauern auch an und fördert damit die Vorsorgung aus der Region. Dazu hat diese Gemeinde eine intelligente digitale Plattform geschaffen, die Erzeuger, Händler und Kunden miteinander vernetzt, Daten austauscht und die Touren des Lieferwagens plant (Fraunhofer SCS 2017). Dieser Service kommt sehr gut an. Und in Freyung, am Rand des Bayerischen Waldes, kann man über eine App ein Mittelding vo*n Rufbus und Ruftaxi ordern, das Bürger von zuhause abholt und nach Hause bringt, gerade wie das wollen. 66 WWaass SSppeek kuullaanntte enn eei innbbüüßße enn Hebelt der Computer Handel und Wettbewerb aus? Spekulations- und Handelsgewinne beruhen auf Informationsvorsprung. Der soll in digitalisierten Märkten aber verschwinden. Daten profilieren sich als neue Währung der Welt. 6.1 Wenn Wissensvorsprung sich auflöst 177 6.2 Das Global Value Exchange-System 179 6.3 Die Global Economic Unit 181 6 6..11 WWeennnn WWiisssseennssvvoorrsspprruunngg ssiicchh aauuffllöösstt So geht - wenn man will - Finanzmanagement heute: Man verlässt sich auf eine Software des Inders Hardeep Walia und seiner US-Firma motifinvesting, entscheidet sich für das Motiv, das Finanzentscheidungen zugrunde liegen soll, an welche Trends also jemand glaubt, sagen wir an neuen, bezahlbaren Wohnraum im großen Stil, an den Durchbruch des Elektroautos und an eine dazu nötige neue Batterietechnologie, an globale Spielleidenschaften auch erwachsener Leute oder an weitweite Abmachungen über genfreies Saatgut, und lässt dann Walias Computer aus Big Data errechnen, welche Wertpapiere sich im jeweiligen Segment am Besten entwickeln. Das System schlägt ein passendes Portfolio vor. Wer will, kann es per Mausklick sofort akzeptieren oder nach Bedarf ändern. Dann kaufen Walias Computer diese Wertpapiere ebenfalls vollautomatisch bei einem Online-Broker und erledigen alles in Sekunden. Händisch hätte das früher Stunden, wenn nicht Tage gedauert. Der Schlüssel dazu ist die auf Big Data-Analysen basierende Bewertungstechnologie aller Anlagemöglichkeiten in kürzester Zeit. „Aber woraus besteht sie eigentlich solche herkömmlich analysierte Information? “ sinniert Hardy einmal mitten in seinem Tagesgeschäft. „Analysten markieren in Texten bestimmte Stichwörter oder Kernaussagen und verdichten diese zu einer Art Religion. Aber wahrhaft analysieren sie gar nichts. Was sie tun, ist pure Astrologie. Nehmen sie“, sagt er zu seinem Gegenüber, „die Börse als Beispiel. Da gilt der Glaube, der Aktienmarkt habe bestimmenden Einfluss auf die Wirtschaftsentwicklung. Das ist schiere Religion. Die Kurse können nochmals um sechstausend Punkte steigen - das ändert an meinem Leben rein gar nichts. Der Kurs allein trägt zum Bruttosozialprodukt nicht bei. Wir glauben, die Finanzindustrie fördere den Wohlstand. Aber so ist das nicht. Die Zahl ihrer Arbeitsplätze sinkt stetig. Stattdessen saugt sie alles verfügbare Geld aus dem Wirtschaftskreislauf und sammelt es, wo es nicht produktiv arbeiten kann. Eine Konsequenz: In den USA sind 60 Millionen Menschen auf Sozialküchen angewiesen. Also leben 60 Millionen in absoluter Armut - trotz eines pro Kopf der Bevölkerung enormen Bruttosozialprodukts und eines US-Aktienindex, der seit Jahren nur eine Richtung zu kennen schien: nach oben, trotz aller zwischenzeitlichen Knicke nach unten. Das zeigt, wie bedeutungslos solche Angaben sind. Es ist alles Religion, purer Glaube; Information, die für das Leben der Menschen zu nichts gut ist.“ Hardy erinnert sich: Eines Tages stellten er und sein Team in einem Index alle 15 Minuten einen charakteristischen Kurseinbruch fest. Sie hatten keine Ahnung, wo die Ursache lag. Also setzten sie auf dieses Rätsel eine Maschine an. Die fand heraus, dass die Fleischbörse in Kansas alle 15 Minuten die aktuellen Preise für Schlachtvieh publizierte. Allein das Wort Schlacht reichte aus, um negative Konnotationen auszulösen, die der Finanzmarkt 178 6 Was Spekulanten einbüßen mit einem sofortigen Kursknick beantwortete. „Wir konnten kaum glauben, dass das die Ursache war“, sagt er. „Aber sie war es. Das zeigt, wie belanglos, ja absurd solche Ausschläge sein können.“ Hardys Eindruck vor allem vom Finanzmarkt ist mit höflichen Worten kaum zu umreißen: „Ob der Dollar gegenüber dem Euro oder einer anderen Währung gerade steigt oder fällt, ist für die meisten Menschen völlig ohne Belang, ausgenommen die, die gerade grenzüberschreitend etwas kaufen oder verkaufen. Trotzdem gehören Börsenkurse und Währungsparitäten zu den top news vieler Medienkanäle. Der Dow-Jones-Index wird uns präsentiert wie eine Heiligenfigur - falls ihm etwas zustößt: welches Desaster! Aber mal ehrlich: Was ändert das in unserem Leben, was schon gar, wenn man in längeren Zeiträumen denkt? Unsere Nachrichtenwelt ist voll solcher astrologischer ‚Fakten‘. Mein Gott, der Saturn steht am Himmel in ungünstiger Konstellation zum Planeten X. Am Besten bleibe ich die nächsten vierzehn Tage im Bett - ja kein Risiko eingehen…Das ist alles Quatsch.“ Was wir stattdessen brauchen, sind nach Hardys Überzeugung Informationen, die es Entscheidern erlauben, zum richtigen Zeitpunkt das zu entscheiden, was nötig ist, damit konstruktives Handeln zum Besten aller Menschen ausgelöst wird. Seine quantum relations machine hat genau diesen Zweck. Geld - daran erinnert Hardy gern einmal - wurde einst dazu geschaffen, um den Austausch von Waren zu erleichtern, weil man deren Wert dann müheloser gegeneinander verrechnen kann. Inzwischen ist Geld aber selbst eine Ware geworden. Es wird gehandelt wie Öl oder Kartoffeln. Wer mit Geld handelt, braucht erstklassige Informationen; je mehr er hat, vor allem je mehr er exklusiv davon hat, desto mehr Geld kann er verdienen. Systeme der Finanzmarktanalyse stellen diese Informationen bereit; und sie liefern sie jedem, der sie sich leisten kann. Aber die Börsen führen längst ein an Hektik kaum überbietbares Eigenleben. Die durchschnittliche Haltedauer unter Einsatz hoher maschineller Intelligenz vollelektronisch bewerteter, gekaufter und verkaufter Aktien ist auf neun Sekunden gesunken. Denn Algorithmen, die dazu eingesetzt werden, ermitteln Chancen und Risiken dieses Geschäfts in Millisekunden und lösen, wenn sie mit Aktoren verknüpft sind, Transaktion maschinell aus. Mindestens 80 Prozent aller Börsengeschäfte laufen inzwischen auf diese Weise, ohne dass ein Mensch eingreifen muss. Das funktioniert unter anderem deshalb so geschmeidig, weil die eingesetzte Technik wegen ihres ungeheuren Arbeitstempos Anlageentscheidungen treffen kann, noch ehe ein anderer dieselbe Chance oder dasselbe Risiko ausreichend klar erkannt hat. Die entscheidende Geschäftsgrundlage der Banken, Hedge Fonds und anderer Großinvestoren auf diesem Feld ist also ein Informationsvorsprung, den die Big Data-Analyse ermöglicht. Was da läuft, ist ein Nullsummen„spiel“: Wenn der Schnellere gewinnt, muss der andere, später informierte, verlieren. Was aber, wenn dieser Wissensvorsprung sich auflöst? Was geschieht, wenn auch dem möglichen Verlierer alles Wissen der Welt zur Verfügung steht, und zwar ebenso schnell wie dem potentiellen Gewinner, wenn es also nur noch darauf ankommt, die vorhandenen Informationen richtig zu interpretieren und zu nutzen? Dann, sagen Hardy und sein Team, fällt die Grundlage für Finanzmarktspekulationen in sich zusammen. Wo keine auf Wissensvorsprung fußenden Chancen mehr genutzt werden können, ist dem Poker um steigende oder fallende Kurse die Basis entzogen. Bis spätestens 2025 werde in der Finanzindustrie auf diese Art kein Geld mehr zu machen sein, sind Hardy und sein Team überzeugt, „und sie wird überflüssig werden. Warum? Weil alle heutigen Handelsinstrumente bis dahin wegen der totalen computerbedingten Durchsichtigkeit der Abläufe ihre spekulative Seite verloren haben werden. Und ohne Spekulation ist in der Finanzindustrie kein Profit zu machen“ (ibid.: 111). 6.2 Das Global Value Exchange-Systems 179 Das schlägt auf die Erfolgreichen durch. Thomson Reuters kündigte 2017 an, um 20.000 Personen schrumpfen zu wollen. Das Unternehmen verkaufte zunächst die in Hardys Augen „most important division that they had“, nämlich ihren zwar kostenintensiven, aber kaum umsatzträchtigen Bereich science and technology, also Forschung und Entwicklung. Mit ihm wechselte jedes wissenschaftliche Dokument, das jemals irgendwo auf der Welt verfasst, gedruckt, gesendet und dort gespeichert worden ist und jeder Fachbeitrag in einem beliebigen Fachmagazin den Besitzer - rund um die Welt alles, was über wissenschaftliche Sachverhalte elektronisch abrufbar ist. Das gesamte Material ging an Google. Für den Kaufpreis erweiterte Thomson Reuters sein handelbares Datenvolumen. Wie weit solche Veränderungen mit der computergesteuerten Automatisierung fast aller Finanzmarkt-Transaktionen zu tun haben und wie weit sie wettbewerbsbedingt sind, lässt sich von außen kaum abschätzen. Es zeigt aber, wie stark diese Branche sich ändert. Empfehlungen im Bereich Vermögenswerte und zu Investitionen werden nach Hardys Überzeugung künftig nur noch eine einfache beratende Dienstleistung sein. Vielleicht werde die Finanzindustrie dann immer noch ihren gewohnten Namen tragen, aber sie werde sich auf einen nichtspekulativen Beratungsbereich im Feld der Aktien und Anleihen beschränken müssen. „Der Hauptgrund für den bevorstehenden Niedergang globaler Finanzierungen, wie wir sie kennen, ist die rapide Entwicklung der Informationstechnologie“ (ibid.). Steigen oder fallen würden Kurse natürlich weiterhin trotzdem, weil der reale Wert einer geschäftlichen Tätigkeit wachsen oder schrumpfen kann. Aber das wäre eine für alle sichtbare und beurteilungsfähige Entwicklung. Jeder könnte die zu dieser Beurteilung nötigen Daten aus einer der globalen Datenbanken entnehmen. Zusammen mit diesen Daten wären dort auch Bewertungsvorschläge hinterlegt. Man werde nur zuzugreifen brauchen. Geschäfte sozusagen in Hinterzimmern wären erledigt; alle Transaktionen könnten und würden ja auf einem offenen digitalen Marktplatz auf der Grundlage realer Werte erfolgen. Diese Idee hatte von Anfang an Fürsprecher. „Seit alle menschlichen Gemeinschaften in ein einziges Handelsnetz und ein Netzwerk globaler Informationen eingebunden sind“, schrieb in der Tradition Benedict Andersons zum Beispiel Anthony Appiah schon 2007, „haben wir einen Punkt erreicht, an dem wir alle uns realistisch vorstellen können, mit jedem einzelnen unter unseren sechs Milliarden Mitmenschen in Kontakt zu treten und ihm etwas zu schicken, das uns wertvoll erscheint: ein Radio, ein Antibiotikum, eine gute Idee“ (Appiah 2007: 10). „Wir“, sagen Hardy und sein Team in Erwartung dieser globalen Datenbanken, „prognostizieren ein solches System und nennen es Global Value Exchange (GVE). Alle Aktionen und Transaktionen werden dort aktuelle Produkte und Dienste betreffen, die auf allen Ebenen des Weltmarktes in ihrem wahren Wert ausgetauscht werden“ (Schloer/ Spariosu 2017: 15). Erstmals werde das GVE-System für potenziell alle Erzeuger und alle Verbraucher weltweit, gleich um welche Produkte und Dienste es geht, auf einem einzigen, transparenten, elektronischen Marktplatz eine standardisierte Transaktionstechnologie bereitstellen (ibid.). Und steht sie bereit, dann, so ist dieses Team so sehr überzeugt, dass es dies gar nicht eigens ausspricht, dann wird sie auch zum Nutzen aller eingesetzt werden. 6 6..22 DDaas s GGl lo ob ba all VVa al lu ue e EEx xcch ha an ng ge e--S Syys stteemmss Aller? Spekulationsgewinner sind nicht mit gemeint. Die wesentlichen GVE-Ziele sind vielmehr „erstens der entstehenden Weltwirtschaft eine faire Austauschplattform für Waren und Dienste zu ehrlichen Preisen zur Verfügung zu stellen, 180 6 Was Spekulanten einbüßen zweitens durch die präzise Kalibrierung wirtschaftlicher Einheiten Stabilität zu erzeugen und unterschiedliche Währungen und anderes, was an unterschiedlichen Orten der Welt zu unterschiedlichen Bewertungsmaßstäben führt, entbehrlich zu machen, und drittens den hochspekulativen Zwischenhandel zu beseitigen, der vom Waren- und Geldverkehr zwischen Schuldner und Gläubiger unmäßig profitiert und sich generell am Wucher orientiert“ (ibid.: 15). Hier wird erstmals klar ausgesprochen, was diesem Buch ursprünglich seinen Untertitel hätte geben sollen: Daten als neue Währung der Welt. Schon 2013 hatte es geheißen: „Persönliche Befindlichkeiten, Vorlieben, Bedürfnisse und Verhalten - die richtigen Informationen zur richtigen Zeit sind die neue Währung in der Welt von Big Data“ (Brettning 2013). Hardy hält es für unausweichchlich, dass Daten, speziell wissensgeladene Daten, unsere künftige Währung werden. Und auch regierungsoffiziell heißt es: Daten wird wirtschaftlicher Wert zugebilligt. Sie haben schon deshalb die Funktion einer „neuen Währung“ und können als Substitut für ein anderes Entgelt dienen (BMWi 2016a: 32, 58). Die Perspektive hieß und heißt also schon seit einiger Zeit: In der Informationsgesellschaft ist Information nicht nur ein Hilfsmittel zum Umgang mit Währung, sondern selbst die Währung (Moore, cit. Keese 2014: 165). Das ist weniger revolutionär als es auf den ersten Blick scheinen mag. Im weitgehend bargeldlosen Zahlungsverkehr werden schon heute fast alle wesentlichen Transaktionen durch Überweisung erledigt. Schon seit der Einführung von Geldautomaten und deren Anbindung an Banken-Netzwerke in den späten 1960er Jahren konnte man elektronisch buchen. Bereits Ende der 1970er Jahre war die Digitalisierung der Banken-Buchhaltung vollzogen. In den frühen 1980er Jahren stellte David Chaum dann ein Konzept für digitales Bargeld vor (Chaum 1983) - Stichwort Geldkarte. Es blieb von Banken abhängig, die nach wie vor die Kontrolle über die Zahlungsabwicklung ausübten. Die Geldkarte ist wieder verschwunden - zu umständlich. Denn es geht cleverer. Auch Bargeld bracht man dazu nicht unbedingt. Apple-Chef Tim Cook glaubt nicht mehr an dessen dauerhafte Existenz: „Ich hoffe, dass ich die Abschaffung des Bargelds noch erlebe. Warum sollten wir dieses Zeug besitzen? “ (t3n 2018a). In China ist es fast so weit: Dort wird Bargeld seit 2018 weithin gar nicht mehr angenommen (BMBF/ Wi 2018: Wesselmann).Im August 2018 teilte die chinesische Zentralbank zwar noch mit, Läden, die Bargeld ablehnen, würden mit einer Geldbuße belegt. Aber schon 2017 benutzen fast 80 Prozent der Chinesen mobile Zahlsysteme - 2016 waren es erst 22 Prozent gewesen. Die mobilen Apps des 2004 als Bezahlmethode für den Onlinehandel gestarteten Dienstes Alipay haben 520 Millionen Nutzer, WeChat Pay, das aus einem Chat-Dienst entstanden ist, 900 Millionen. Erprobt wird bereits das Bezahlen per Fingerabdruck oder Gesichtserkennung. Alipay nutzt das schon. Bei „Smile to pay“ zum Beispiel reicht der Blick in eine Kamera, um einzukaufen oder etwas zu essen zu bestellen. Bei Hello Fresh öffnen hungrige Mitarbeiter den Automaten per Fingerabdruck, der Warenwert wird einfach von ihrem Konto abgebucht (Handelsblatt 2018). Einzelne Staaten erwägen, Bargeld völlig aus dem Verkehr zu ziehen. Dagegen sprechen vor allem noch Privacy-Gründe. Der Hamburger Datenschutzbeauftragte begündet das so: „Über Finanzdienstleistungen sind zahlreiche Informationen, nicht nur über Konsumgewohnheiten, sondern auch über die persönlichen Vermögensverhältnisse und die Kreditfähigkeit von Personen verbunden“ (ibid.). Wohin jemand einen Geldschein trägt, kann niemand ohne Weiteres nachvollziehen, wohin er Geld überweist oder per Smartphone versendet, aber durchaus. In Deutschand kommt dieser Wandel zum digitalen Geld trotzdem mit Macht: Seit 2018 (in den USA schon seit 2015) kann man mit Google Pay bezahlen. Der Marktstart von. Apple Pay steht bevor. Firmen wie McDonald’s warten darauf. Bei der Pizza- und Pasta-Kette Vapiano können Kunden schon länger mit einerApp bezahlen (ibid.). 6.3 Die Global Economic Unit 181 66..33 DDi iee G Glloobbaall EEccoonnoommiic c UUnniitt Das Team, das Prisma Analytics entwickelt und das GVE-System skizziert hat, will digitale Bezahlmethoden ähnlich einer Blockchain, aber in einem eigenen System, zum globalen Standard weiterentwickeln. Als universtelle Messgröße für alle nicht-politischen Werte, also als Zahlungseinheit, spricht es sich für eine noch namenlose global economic unit (GEU) aus, im Prinzip eine Kombination von Euro und Blockchain. Diese GEU soll eine von allen nationalen und wie im Fall Euro supranationalen politischen Instanzen unabhängige Maßgröße sein, ähnlich wie die beschriebenen Kryptowährungen es bereits sind, nur ohne deren Schwächen, die sich in den letzten Jahren in wilden Spekulationsblasen zeigten. Im GVE-System soll diese GEU als elektronische Währung und als Zahlungsmittel dienen, ein bisschen so, wie heute sogenanntes Giralgeld zwischen Konten hin und her überwiesen wird, das ja auch nur noch aus Daten besteht, nicht aus Geldscheinen und schon gar nicht aus Gold. In der GVE-Vorstellung würden aber wie in einer Blockchain die Zwischenstufen unnötig, die solche Zahlungen bisher abwickeln, also Banken und Geld- Dienste Dritter wie zum Beispiel Kreditkartenfirmen. Es gäbe auch keine Schwankungen zwischen einzelnen Währungen mehr. Der Wertmaßstab GEUwäre als Produktivitätseinheit stabil (ibid. 132). Die Promotoren dieses globalen Wertausgleichssystems GVE sind schon seit Jahren überzeugt, dass unser heutiges Finanz-, Wirtschafts- und Handelssystem „seinen Nutzen und den guten Willen der meisten lokalen und globalen Marktteilnehmer überstrapaziert hat“ (ibid.: 112). Die derzeitigen globalen Bedingungen für Finanzierungen und Handelsströme auf dem Weltmarkt hätten klar gezeigt, wie unzulänglich das wirtschaftliche Handeln bisher funktioniert. Dieses zum Vorteil nur weniger Teilnehmer arbeitende System habe weltweit ein Umfeld revolutionären Charakters erzeugt und könne „bald neue Wellen von Gewalt und Anarchie auslösen, die die Zivilisation um Jahrzehnte zurückwerfen könnte, wenn es keine brauchbaren Modelle des Wandels gibt und diese nicht weltweit angewandt werden“ (ibid.). Der Niedergang der heutigen Finanzindustrie könne in der wirtschaftlichen Lage der Nationen aber einen neuen tragfähigen Sinn für Gerechtigkeit und Fairness erzeugen (ibid. 113). Eine Reform, die unfaire Geschäftspraktiken mit Vorteilen für gewisse Marktteilnehmer zum Schaden anderer beseitigt, sei überfällig (ibid.: 136). Im Ansatz ist dieses Reforminstrument, auf dem auch Kryptowährungen aufsetzen, als Blockchain inzwischen vorhanden. Eine Symbiose von Erzeugern und Verbrauchern In Hardys Prognose des künftigen Weltmarkts könnte eine Kryptowährung die entscheidende Rolle spielen. Das Prinzip, nach dem der weltweite Austausch von Waren und Werten ohne die Zwischenstufen von Banken und Händlern Markt künftig funktionierern soll, nennt er wie schon erwähnt Global Value Exchange (GVE). Die Idee zum GVE -System ist das Resultat eines langen Entwicklungsprozesses. Erarbeitet hat es sein interdisziplinäres Team in rund einem Jahrzehnt. Auf das Ergebnis ist dieses Team durchaus stolz; es eröffne, sagt es, „im weltweiten Kontakt eine neue Stufe in der menschlichen Entwicklung“ (ibid.). Produzenten und Verbraucher sollen in diesem System Waren und Dienste coevolutionär erzeugen und nutzen, gesteuert von Rückkopplungsschleifen in die natürlichen Ressourcen. Mehr noch: Dieses GVE-System soll nicht nur Transaktionen zwischen Produzenten und Abnehmern steuern, sondern auch alle anderen Interaktionen der Menschen. Was immer auf dem globalen Markt angesagt ist, soll dann symbiotisch geschehen, sich also am wechselseitigen Vorteil und damit am Gemeinwohl orientieren „und nicht mehr an Neid, Ausbeutung und Versklavung“ (ibid.). Die Promotoren des GVE-Systems erwarten das, 182 6 Was Spekulanten einbüßen weil in einer auf fairem Wettbewerb und funktionierendem offenem Datenfluss fußenden Weltwirtschaft für vergleichbare Dienste in vergleichbarer Qualität weltweit stets vergleichbare Preise zu bezahlen wären. Als bloßer Marktplatz wäre dieses weltweite Handelssystem GVE gegenüber Marken, Herstellern, Versorgern und Kunden völlig neutral (ibid. 114). Funktionieren würde es ähnlich wie eine elektronische Börse, nur weit anspruchsvoller, denn auf ihm liefen Handelsvereinbarungen über Produkte und Dienste ähnlich wie in einer Blockchain über alle einzubindenden Branchen hinweg automatisch ab (ibid.: 115). Eine solche Entwicklung entspricht nach ihrer Überzeugung der global wachsenden Standardisierung wirtschaftlicher Werte und deren Produktivität. Erinnern wir uns daran, dass die Quantum Relations-Technologie nicht nur mit Daten darüber umgeht, was Sache ist, sondern auch analysiert, was Meinung ist, Wunsch, Hoffnung und Befürchtung. Das System kann also ermitteln, was ein Marktteilnehmer wahrscheinlich erwartet oder erhofft. Das soll in die Austauschprozesse systemgesteuert einfließen. Für manch einen Käufer oder Verbraucher, sagen die GVE-Promotoren, werde es daher gar nicht mehr nötig sein, explizit Kaufwünsche zu äußern. Denn das System verfüge über eine ausgefeilte Profilierungstechnik, um künftigen Wünsche von Marktteilnehmern zu erahnen, ihre Bedürfnisse vorauszusehen und von sich aus passende Angebote für Produkte und Dienste zu machen. Natürlich beschränkt sich das nicht auf physische Produkte. Die vom System ermittelten Wünsche können auch nach Informationen bestehen, auf Ausbildung hinzielen oder auf assistierende Unterstützung. Gemäß GVE-Modell werden alle diese Angebote, Produkte, Dienste und Informationen von derselben maschinellen Logik des Systems verarbeitet (ibid. 119). Kein Marktteilnehmer, sagen die GVE-Promotoren weiter, könne den Zugang zu und die Verbreitung von Informationen beschränken. Das GVE fördere, ja erzwinge vielmehr transparente, symmetrische Geschäftsbeziehungen zwischen Markt, Verkäufer und Käufer (ibid.: 123). Das GVE-System soll den Handel ersetzen In dieser Aufzählung fehlt eine Ebene, die heute das Marktgeschehen weithin bestimmt: der Handel. Alle heutigen Marktsysteme nützen diese Mittler in hohem Maß. Die Handelsebenen tragen jedoch zum Mehrwert nicht entscheidend bei, sondern schöpfen einen Teil davon ab. Sie riskieren nach Überzeugung der GVE-Planer am wenigsten, aber verdienen am meisten. Das soll nicht so bleiben. Die künftige Weltmarktordnung ersetzt nach ihrer Vorstellung Händler durch ein automatisches, weltweit agierendes technisches System, das den Herstellern von Produkten und Diensten und den Verbrauchern die Kontrolle über alle Transaktionsprozesse belässt. Das GVE-System ist selbst auch der Mittler: Käufer orientieren sich und ordern elektronisch direkt beim Erzeuger, und der liefert über Versanddienste direkt an die Verbraucher (ibid.: 125). Die GVE-Hauptziele Die Hauptziele eines GVE-Systrem haben Hardy und sein Team so zusammengefasst: erstens ein fairer Austausch von Waren und Diensten zu ihren realen Werten, zweitens die direkte Handelsplattform zwischen Erzeugern und Verbrauchern, die exorbitante Margen des Handels, hoch spekulative Geschäfte und generell den Wucher beseitigt sowie drittens ein für alle gleiches Zahlungssystem, das unterschiedliche Währungen oder Instrumente mit unterschiedlichem Wert an unterschiedlichen Orten ersetzt und durch die genaue Kalibrierung wirtschaftlicher Einheiten zu globaler Stabilität führt. 6.3 Die Global Economic Unit 183 Das GVE-System, sagen seine Promotoren weiter, übernehme zwar einige Grundprinzipien der traditionellen Wirtschaft auf der Basis fairen und für alle Seiten Erfolg versprechenden Handels und ehrlich verdientem Ertrag. „Was jedoch anders ist: Erstmals werden diese fundamentalen Prinzipen zu Grundbausteinen und automatisch wirksamen Bestandteilen des Weltwirtschaftssystems auf der Basis eines wirklich freien Marktes, ohne Eingriffe von Regierungen oder anderen externen Stellen und undurchlässig für Betrug, Korruption und Missbrauch“ (ibid.: 136 f.). Vermutlich ohne diese Überlegungen im Detail zu kennen, gehen auch Ramge/ Mayer- Schönberger davon aus, „dass Märkten ein Neustart bevorsteht, der auf Datenreichtum basiert und unsere Wirtschaft ähnlich tiefgreifend verändern wird wie die industrielle Revolution (Ramge/ Mayer-Schönberger 2017: Kapitel 1). Prisma Analytics, ist Hardy überzeugt, wird auch hierfür das ideale Steuerungsinstrument werden. Märkte funktionieren nach causality. Die Entscheidung darüber, wer unter welchen wirtschaftlichen Randbedingungen welches Produkt bekommt, soll mit Prisma-Analytics- Unterstützung optimal funktionieren. „Ich kann mir kein anderes Steuerungsinstrument vorstellen, das das besser bewältigt als unseres. Das Global Value Unit (GVU)-Projekt nutzt auf einzigartige Weise diese bereits bestehende, unabhängige und patentrechtlich geschützte Künstliche Intelligenz mit ihren realen, verifizierbaren und quantifizierbaren Elementen vielfach einsetzbaren Wissens.“ Dieser Wissenspool, wie ihn Prisma Analytics einsetzen kann, sei eine Klasse für sich. Kein anderes Datenverarbeitungssystem, ist Hardy überzeugt, reiche da heran, nicht bei IBM, nicht bei Microsoft oder Google, nicht Facebook, nicht bei Thomson Reuters bzw. Refinitiv oder bei bei Bloomberg. Wissen ist das wertvollste Gut „Seit die Menschen sesshaft geworden sind und gelernt haben. Äcker zu bebauen und Vorrat zu halten, haben sie auch gelernt, Wissen zu bevorraten und zu vermehren. Und je mehr sie das vermochten, desto schneller wuchs die Erdbevölkerung. Das einzige, das dabei stets besonders wertvoll war und ist, ist unser Wissen. Was es wert ist, ließ sich lange nur erahnen. Heute ist der Wert von Wissen aber berechenbar. Die Zuordnung von IPv6- Nummern zu jedem Wissensbestandteil macht dies maschinell möglich. Welch andere, bessere Basis für eine globale Währung könnte es geben? “ „In der Renaissance“ erläutert Hardy, „ genoss der Lehrerberuf das höchste Ansehen unter allen Berufen. Heute ist es der Banker. Aber der Lehrer muss wieder den höchsten Rang bekommen. Wenn es das höchste Ziel in der Gesellschaft wird, nicht Geld anzuhäufen, sondern Wissen, verändert das deren Wertegerüst und Verhalten dramatisch.“ Dass Wissen heute etwas so unglaublich Wertvolles ist, sieht Hardy durch milliardenschwere Transaktionen bestätigt. Im Juni 2016 kaufte Microsoft für 26,2 Milliarden Dollar LinkedIn, obwohl der Wert von LinkedIn in den Büchern „nur“ mit 3,2 Milliarden verzeichnet war. Zuvor hatte Facebook 2014 für 19 Milliarden Dollar WhatsApp erworben, wenige Monate nachdem eine Gruppe von venture capital-Experten WhatsApp auf 1,5 Milliarden Dollar taxiert hatte. Diese Differenz von Buchwerten zu Kaufpreisen belegt, wie entscheidend die in den Büchern kaum sichtbare Ressource Wissen bei diesen Transaktionen bewertet wurde. Wissen ist auch die entscheidende Ressouce hinter Hardys Modell einer Kryptowährung, die einstweilen nur GVU heißt, global value unit. Dabei ist diese Verknüfung eigentlich kaum überraschend: Weil Wissen das Wichtigsten ist, das Menschen besitzen, sollte auch das entscheidende Austauschmittel der Menschen, also Geld, auf Wissen beruhen. Auf diese Verknüpfung stützt Hardy sein virtuelles Währungssystem. 184 6 Was Spekulanten einbüßen Wie das geschehen soll? „Ein paar Hundert Einheiten Wissen“, rechnet Hardy vor, „ergäben eine Einheit solchen digitalen Geldes. Wer solches Geld besitzt, sollte die Hälfte davon in Firmen investieren, die ihrerseits Wissen produzieren. Die Hälfte dessen, was jemand auf diese Weise erwirtschaftet, soll ihm dann selbst gehören und seinen Wissensbestand vermehren - er kann es reinvestieren in Maschinen und Anlagen, in Forschung und Entwicklung oder in was immer zur Wissensvermehrung gebraucht wird. Die andere Hälfte soll den digitalen Geldumlauf vermehren und zugleich den Wert des digitalen Geldes erhöhen, das bereits in Umlauf ist. So entsteht Mehrwert in Form zusätzlichen Wissens. Und Wissen soll in dieser globalen Wirtschaft ja der Premiumfaktor sein, nicht schieres Geld.“ Dieses virtuelle Währungssystem setzt geprüftes Wissen mit Hilfe des globalen IPv6- Internetprotokolls und in Verbindung mit der Blockchain-Technologie so ein, dass eine voll funktionsfähige, handel- und konvertierbare Kryptowährung entsteht, die immun ist gegen Betrug, Diebstahl und Wertverlust, eben weil sie auf dem System der Blockchain und auf einem stetig wachsenden Bestand aktiven und werthaltigen Wissens besteht.Damit wird es, wie er sagt, „ohne die Risiken existieren, die die meisten anderen Kryptowährungen prägen“. Die rund 1500 heutigen Kryptowährungen mit einer Marktkapitalisierung von etwa 570 Milliarden Dollar zu Beginn des Jahres 2018 (ein Jahr zuvor waren es nur 18 Milliarden gewesen), von denen Bitcoin die bekannteste ist - ihr kometenhafter Aufstieg und Fall war 2017 nach dem ähnlich kometenhaften Aufstieg von Donald Trump zum US-Präsidenten die am zweihäufigsten transportierte Nachricht des Jahres -, sind nach Hardys Überzeugung ein eher zufälliger Nebeneffekt des bestehenden brüchigen Weltwährungssystems. Was eigentlich auf Sicherheit und Wertzuwachs angelegt sei, leide aber unter unkontrollierbaren Schuldenbergen, Wertmanipulationen und überhaupt unter politischer Fremdsteuerung. Es sei vorhersehbar am Ende; offen sei nur: wann und wie. Auch bei keiner der bestehenden Kryptowährungen sieht Hardy ein verlässliches Wertfundament, das sie gegen Wertverluste absichert. Die Alternative Global Value Unit GVU verspricht jedoch diese Sicherheit. Denn sie wird immer genau das wert sein, was Wissen wert ist, ohne dass jemand an dieser Relation drehen könnte. Das GVU vereint das Internet, die Blockchain, die im quantum relations-System arbeitende Künstliche Intelligenz und den Reichtum unserer Welt zu einem zukunftssicheren und wertstabilen System. Der unschlagbare Vorteil der GVU besteht aus Hardys Sicht in der Integration des Datenanalysesystems Cplus8 in dieses Systems Künstlicher Intelligenz, die jede Art aktueller Information vollautomatisch analysiert und integiert, ohne dass irgend jemand von außen eingreifen und Stellschrauben verdrehen kann. Die GVU ist nach Hardys Überzeugung deshalb als monetäres System komplett neutral, nachhaltig, sicher und transparent. Und: Sie steht nach seinen Worten in den Startlöchern. Die Konzepthase habe sie hinter sich. Die sogenannte Beta-Phase der Erprobung habe 2018 begonnen. Ein früherer Finanzminister eines der G20-Staaten, berichtet Hardy weiter, habe das GVE-Konzept in allen Einzelheiten studiert. Für ihn zeige es den einzigen bekannten Weg, die heutigen Weltwährungsprobleme zu lösen. „Wenn es eingeführt wird,“ sagt Hardy, „wird es die Welt grundlegend verändern“. Denn die vornehmste Aufgabe der Menschen werde danach nicht mehr darin bestehen, Geld zu vermehren, sondern Wissen. Wann kann das geschehen? Wenn es nach Hardy geht, schon sehr bald. Die Umsetzung werde nur einem Staat gelingen - je entwickelter er ist, desto eher. Zwar sagt er zu Recht: „Wer auch immer den Weg zu IPv6-Geld gehen wird - ich sitze da an der Pforte.“ Aber er sagt auch: „Wir sind bereit, Cplus8-Lizenzen an jeden zu vergeben, der in der Lage ist, Wissen zu aggregieren. Denn wo immer und so lange Wissen vermehrt wird, dient das der Menschheit.“ 77 WWi isssse en n iisst t ggu utt, , ddeen nkkeen n iisstt bbees ss seer r Entscheiden Maschinen intelligenter als wir? Niemand weiß so viel wie Computer. Aber sie lernen auch zu denken und zu entscheiden. Übernehmen sie bald auch uns? Was das Mensch-Maschine-System wirklich bedeutet. 7.1 Grenzen Mensch - Computer verschwimmen 185 7.2 Hardys Vision vom intelligenten Planeten 191 7 7..11 GGrreennzze enn MMeennsscchh -- CCoommppuutteerr vveerrsscchhwwiimmmmeenn Behutsam greift ein Roboter ein Metallteil und reicht es einer Arbeiterin weiter. Er nimmt dabei auf jede ihrer Bewegungen Rücksicht und hält inne, bevor er sie auch nur berührt. Er bewegt sich mühelos und vorsichtig. Fehler macht er keine. Diesen APAS assistant hat Bosch konstruiert. Er soll typisch werden für den Industriearbeitsplatz der Zukunft. „Der Arbeitsalltag in der Fertigung wird sich in den kommenden Jahrzehnten grundlegend ändern. Mensch und Maschine werden enger zusammenarbeiten als je zuvor. Industrie 4.0 unterstützt Mitarbeiter und erleichtert ihnen die Arbeit“, sagt Bosch-Geschäftsführer Stefan Hartung. Der Bosch-APAS inspector erkennt mit Hilfe lernender Bildverarbeitung, ob die Materialoberfläche eines Fertigungsteils den Vorgaben entspricht. Der Mensch bringt der Maschine bei, welche Abweichung sie tolerieren darf und ab wann sie ein Teil aussortieren muss. Den Rest macht die Maschine dann selbst. Die Menschen vor Ort sind es zufrieden: Zwei Drittel der Beschäftigten sehen ihre Jobs durch die zunehmende digitale Vernetzung verbessert, hat das Beratungsunternehmen Accenture ermittelt, nur sechs Prozent befürchten das Gegenteil (Gerstl 2017). Sie haben auch kaum eine andere Wahl, denn die Kooperation von Mensch und Maschine setzt sich schnell durch. An einem Fließband stellt Bosch aus 2.000 verschiedenen, automatisch georderten Komponenten zum Beispiel 200 verschiedene Hydraulikmodule her. Ein Chip am Werkstück signalisiert, wie das fertige Produkt aussehen muss und welche Arbeitsschritte bis dahin zu erledigen sind. Die Arbeitspläne erscheinen automatisch als Foto oder Film auf Monitoren - individuell, je nach Ausbildungsgrad und in der Muttersprache des Mitarbeiters (ibid.). Bosch verspricht sich von solchen Industrie-4.0-Lösungen bis zum Jahr 2020 einen Zusatzumsatz von mehr als einer Milliarde Euro und Einsparungen von einer weiteren Milliarde Euro.Was in einer solchen Fertigung noch die Aufgabe von Menschen ist und was bereits die von Maschinen, steht nicht fest und lässt sich auch kaum vorhersagen. Wir beginnen uns daran zu gewöhnen, dass Maschinen tun, was früher unsereiner getan hat. Überrascht reagieren viele Menschen jedoch noch, wenn Maschinen auch geistige Tätigkeiten übernehmen. Dabei entwickelt sie sich mit Riesenschritten; wir haben das schon gesehen. Ein Schüssel ist das Smartphone, das uns dabei öfter als jede andere Maschine unterstützt. Esgalt schon 2010 als wichtiger als Radio, Fernsehen und das stationäre Web zusammen (Kuhn 2010). Inzwischen werden Smartphones als „ausgelagerte Gehirne“ bezeichnet (Constanze Kurz, Sprecherin des Chaos Computer Clubs, SZ 30.12.2016: 11). Eben Moglen, Rechtsprofessor an der Columbia University, nennt Smartphones sogarRoboter, für die wir, die stolzen Besitzer, nur noch die Hände und Füße seien (Morgenroth 2014: 58). 186 7 Wissen ist gut, denken ist besser Was Computer heute schon können Baudrillard hatte angesichts von Computer, Fernsehen, Video und Kamera schon 1988 gefragt: „Bin ich nun Mensch oder bin ich Maschine? “ Er sah Menschen und Maschinen im einen „integrierten Schaltkreis“ verbunden. Denn Maschinen würden mit dem menschlichen Körper derart eng verbunden, dass ununterscheidbar werde, was „dabei die Qualität des Menschen oder der Maschine ausmacht“ (cit. Stampfl 2013: 13). Das war damals noch eine Vision. Inzwischen verschwimmen die Grenzen zwischen menschlicher und maschineller Arbeit tatsächlich. So werden zum Beispiel Zeitungsartikel längt nicht mehr nur von Journalisten geschrieben - wer sie liest, kann kaum mehr unterscheiden, was ein Mensch und was eine Maschine formuliert hat. Die Entwickler automatisierter Texterstellungs-Software kommen allerdings weniger aus dem Journalismus als aus dem Sektor Suchmaschinen- Optimierung, Marketing und von Dienstleistern für Produktkataloge. Deutschland ist mit fünf Anbietern stark vertreten: Retresco, Aexea, Texton, 2TXT und TextOmatic (Karcher 2016). Das Volumen solcher automatisierter Texte war schon 2013 sehr groß: ca. 300 Millionen Artikel (Ulanoff 2014, cit. Haim/ Graefe 2018: 146). Allein das Forschungsprojekt PollyVote hat laut Haim schon 17.500 „objektive“ Texte automatisch auf Englisch und auf Deutsch „ausgespuckt“. Weitere Sprachen lassen sich bei Text-Robotern in der Regel mit geringen Zusatzkosten einrichten (Karcher 2016). Roboter-generierte Texte werden nicht nur im Forschungs-Projekt PollyVote, sondern auch bei etablierten Medien eingesetzt, etwa bei AP Associated Press, der Los Angeles Times, der New York Times, bei ProPublica, im SID Sport-Informations-Dienst und in der Berliner Morgenpost. Nicht wenige Verlage erproben die neue Technik „still und heimlich“, um die Belegschaft nicht zu verschrecken (Karcher 2016). Hier drei Beispiele: In der Universität Karlsbad lasen Studenten je einen Sportbericht der Los Angeles Times und des Computers Boltbeat, ohne zu wissen, welcher Text woher kam. Sie bewerteten den Computertext als deutlich informativer und vertrauenswürdiger, wenn auch als langweiliger, und beide als gleichermaßen anschaulich, klar und präzise (Hestermann 2017: 63): Die Niederländer Hille van der Kaa und Emiel Krahmer ließen 232 Probanden, unter ihnen 64 Journalisten, 2014 ebenfalls zwei Texte vergleichen, einen computergenerierten Bericht über ein Fußballspiel und einen von einem Menschen verfassten Börsenreport. Beide wurden als gleichermaßen glaubwürdig beurteilt. Und an der Macromedia-Hochschule München verglichen tausend Probanden online menschengemachte und computergenerierte Texte. Die Computertexte schnitten bei der Bewertung der journalistischen Qualität besser ab und galten als glaubwürdiger, die der Journalisten als besser lesbar. Die Reihe dieser Beispiele lässt sich mit ähnlichen Computeraufgaben fortsetzen: Die Software Quakeboat der Los Angeles Times wandelt behördliche Erdbebenwarnungen in Echtzeit in Zeitungsmeldungen um. Das Programm Blossom der New York Times filtert aus den dort täglich rund dreihundert eingehenden Meldungen die heraus, die sich für soziale Medien eignen, vor allem für Facebook. Die Zeitung veröffentlichte schon ein Gedicht in klassischem Versmaß, das die Software Swiftkey aus Shakespeare-Sätzen verfasst hatte. Das Drehbuch zum Science-Fiction-Film Sunspring stammt ebenfalls aus einem Rechner. Er wertete Drehbücher früherer science-fiction-Filme aus und kombinierte deren Inhalte neu. Der Film erreichte bei einem Londoner Filmfestival einen Platz unter den top ten (alle ibid.). Noch fassen automatisierte Texte im Wesentlichen Daten nur zusammen. Eigenständige Diskussionen und komplexe Interpretationen einer Sachlage, sagt Karcher(2016), könne der Kollege Roboter noch kaum leisten. Aber „Künstliche Intelligenz ist wie ein Marathonlauf. Wir sind erst einige Meter gelaufen“ (Goblirsch 2018). Deshalb prognostizieren Haim und Graefe: „Während beim datengetriebenen Journalismus oder bei der automatisierten Bündelung von Inhalten Bestehendes genutzt, umstrukturiert und erneut präsentiert, Inhalte also kuratiert werden, schafft der automatisierte Journalismus gänzlich neue Produkte, 7.1 Grenzen Mensch - Computer verschwimmen 187 indem er menschliche Sprache auf Basis strukturierter Rohdaten ohne menschliches Zutun generiert. Mit diesem Schritt geben Redakteure ein Stück journalistischer Deutungshoheit an Algorithmen bzw. die Entwickler von Algorithmen ab“ (Haim/ Graefe 2018: 142). Noch gilt: „Der Algorithmus erkennt von sich aus keine Probleme, er stellt auch keine Fragen oder kann reflektieren“ (Goblirsch 2018). Aber Mischformen, die stärker auf das Zusammenspiel von Algorithmen und Journalisten setzen, deuten sich bereits an (vgl. Schwizler 2016): Dabei wird zu Beginn der Recherche bereits „ein (datenorientierter und zahlenlastiger) Rohtext generiert, mit dem der Journalist dann weiterarbeitet“ (Haim/ Graefe 2018: 145). Die beiden Wissenschaftler stellen fest, „dass die Idee eines automatisierten Journalismus zunächst ambivalente, überwiegend aber dennoch optimistische Haltungen zutage bringt. Zwar werden ein Stellenabbau und eine noch stärkere Kommerzialisierung der Branche befürchtet. Automatisierung sollte aber zugleich imstande sein, mehr menschliche Ressourcen für höherwertige Aufgaben freizusetzen und damit auch die journalistische Qualität insgesamt zu erhöhen. Der Weg dafür ist geebnet, aber er ist - um im Bild zu bleiben - noch nicht befestigt“ (ibid.: 150). Und unerledigt ist auch „eine Reihe ethischer Fragen, beispielsweise ob Nutzer grundsätzlich Kenntnis davon ha-ben sollten, dass Inhalte (teilweise) automatisiert erstellt wurden“ (ibid.: 157). Offen sind ferner Fragen nach der Datenqualität und Funktionsweise der Algorithmen (Diakopoulos 2015). Die Ablösung des herkömmlichen Journalismus geht im Zeitalter der Digitalisierung derweil weiter. Die App Resi des deutschen Web-Pioniers Martin Hoffmann schickte als virtuelle Gesprächspartnerin längere Zeit täglich rund ein Dutzend Nachrichten an junge Leute von 15 bis 25 Jahren, die sich kaum mehr aus klassischen Nachrichtenseiten informieren (Peteranderl 2017: 57). Langfristig wirtschaftlich wurde das Projekt allerdings nicht; 2018 stellte sein Initiator diese stand alone-Lösung wieder ein (Weidmann 2018). Besser hält sich eine Lösung, die auf etablierte Distributionskanäle setzt. Die Zeitung Der Fränkische Tag verbreitet seit 2014 regionale Neuigkeiten per Messenger „und wurde vom Erfolg förmlich überrollt“ (ibid.). WhatsApp und der Facebook Messenger haben sich als Ausspielkanäle für journalistisch aufbereitete Lokalnachrichten dort seither bewährt, denn die Redaktion kann so „den user abholen, wo er sich die meiste Zeit des Tages aufhält“ (ibid.). In weit größerem Maßstab übertragen 70 Journalisten seit 2017 Artikel aus rund 3000 Medien in die Microsoft-Nachrichtenplattform MSN; von Berlin aus verbreitet MSN sie in acht Sprachen in zehn europäische Länder (Mrazek 2018). Das SRF, das Schweizer Radio und Fernsehen, hat den Chatbot Janino in Facebook gestellt, um Bürgern bei dort häufigen Volksabstimmungen zu helfen. Zwei virtuelle Figuren erläutern Themen, etwa die Einbürgerung junger Ausländer der dritten Generation, die Finanzierung von Nationalstraßen oder eine Unternehmenssteuerreform. Ein virtuelles Gesicht übernimmt die Pro-Position, das andere die Position der Gegner. Auch die Meinungen der Parteien zu denThemen lassen sich abfragen. Grafiken und Videos vertiefen die chats (ibid.: 59 f.), Dass kein Mensch Auskünfte gibt, sondern eine Maschine, wird bewusst an der Optik erkennbar. Chatbots sind kleine Programme Künstlicher Intelligenz, die als Kommunikationsroboter mit Hilfe von machine learning selbstständig lernen. In social media werden sie als social bots eingesetzt. Chatbots nutzen elektronisch gespeicherte Kundenprofile, die nicht nur auf deren Eingaben beruhen, sondern vor allem auf nicht sichtbaren Daten wie etwa Standort, IP- Adresse, Endgerätetyp (mobil, stationär), browser-Version und Betriebssystem. Bei Buchungen oder Online-Käufen steuert der Nutzer mit seinen Anfragen die Entscheidungsbäume im Algorithmus des bot, und der bot liefert Tipps (Matzer 2017: 11). Beim Einkauf beraten bots- Kunden also digital. Kein Mensch greift da ein. Beispiele: Im Facebook Messenger ebenso wie mit der AppWeChat können Nutzer, während sie mit Freunden chatten, per Klick zum 188 7 Wissen ist gut, denken ist besser Beispiel einen Fahrer bestellen. Messenger-Bots helfen beim Pizza-Bestellen oder mixen personalisierte Musiklisten. Virtuelle Butler wie Siri von Apple, Home von Google, Cortana von Microsoft und Echo von Amazon werden zu Plattformen für Dienstleistungen aller Art. Bots einzurichten ist einfach: Dem Microsoft Azure Q&A-Maker genügen als Basis Fragen und Antworten. Aus der URL erkennt der Q&A-Maker die Struktur. Zu flexiblerer Kommunikation entwickelt er Eingangsfragen und alternative Fragemöglichkeiten. Dabei lernt er ständig hinzu (Bütikofer 2017). Es gibt schon Webseiten mit Bots für die Partnervermittlung oder zur Beschäftigung von Kindern. „Einige von ihnen warnen ganz explizit davor, Bots mit Menschen zu verwechseln - obwohl doch nur Maschinen am Werk sind (ibid.). Bis 2020 sollen bots in call centers 80 Prozent aller Anfragen beantworten (Oracle, cit. Bütikofer 2017). Mittelbis langfristig könnten botsheutige Apps sogar weitgehend ersetzen (ibid.). Nicht jeder findet diese Entwicklung gut Mehr als 50 Prozent von 1500 befragten Online-Käufern lehnen Kommunikation per Chatbot bisher ab. Vielen ist der Mensch-Maschine-Dialog zu unpersönlich und zu unausgereift (Fittkau & Maaß 2017). Bei der Kommunikation mit Webshop- und Webseitenbetreibern riefen gut 40 Prozent derer, die sich dorthin wandten, lieber call center an als sich auf einen chat einzulassen. Von denen, die online-Dialoge akzeptieren, ziehen es drei Viertel vor, eMails und Onlineformulare an „echte Ansprechpartner“ zu senden. Jeder fünfte will chatten - aber mit chatbots wollen nur vier Prozent kommunizieren. Die Kommunikation von Mensch und Maschine ist ihnen noch zu unpersönlich. Noch? Skeptiker unter den Datenexperten hoffen, dass die Skepsis nicht nur anhält, sondern sich weiter vertieft. Für Hofstetter erscheint am Horizont als Alternative zum homo sapiens nämlich bereits „der Posthumane, der Hybrid aus Mensch und Maschine, der cyborg, der den homo sapiens und seine Fähigkeiten weit überflügeln wird“ (Hofstetter 2016: 309). Hofstetter nennt den Transhumanismus, der damit einsetzen könnte und auf den wir später in diesem Buch noch genauer zurückkommen, eine „sehr reale Bedrohung“ (ibid.: 310). Um diese Gefahr nicht außer Kontrolle geraten zu lassen, hat Hofstetter zehn Forderungen: Erstens sollte man persönlichen Daten den Vorzug geben: „Wer auch in Zukunft Kreativität, Initiative, Würde - kurzum: die Freiheit des Menschen - garantieren will, muss umdenken. Er muss Grenzen ziehen. Dazu gehört die Anerkennung der Subjektivität persönlicher Daten“ (ibid.: 285). Zweitens solle man zivilen Widerstand leisten. Hofstetter fordert „eine Bewegung der Zivilgesellschaft, die dort Druck aufbaut, wo politische Eliten versagen oder unter dem Druck der Big Data-Lobby zusammenbrechen“ (ibid.: 90). Drittens geht es darum, Grundrechte für Datensubjekte zu schaffen. Das umfasst die jederzeitige Dateneinsicht ebenso wie eine Löschung von Daten auf Verlangen, eine gerechte Gegenleistung für die Nutzung persönlicher Daten durch andere und ein Diskriminierungsverbot für alle, die nicht wollen, dass bei ihnen oder über sie Daten überhaupt erhoben, verarbeitet oder genutzt werden (ibid.). Viertens sind nach Hofstetters Überzeugung intelligente Algorithmenabkommen nötig und fünftens ein Kampf gegen die Machtkonzentration der Big-Data-Anwender: „Monopolistische informationelle Strukturen müssen kartellrechtlich überprüft und zerschlagen werden“ (ibid.: 302). Sechstens fordert Hofstetter, die Besteuerung von Big-Data-Anwendungen zu revidieren (eine Maschinensteuer einzuführen traut sich nach Ansicht von Armin Grunwald vom Institut für Technikfolgenabschätzung zur Zeit aber niemand; BMBF/ Wi 2018: Grunwald), siebtens, den Staat im Umgang mit Big Data zu professionalisieren, achtens, die Finanzie- 7.1 Grenzen Mensch - Computer verschwimmen 189 rung für Europas IT-Projekt sicherzustellen, neuntens zwischen Mensch und Maschine klare Grenzen zu ziehen und schließlich zehntens, Verhaltensregeln auch für intelligente Maschinen zu schaffen (ibid.: 285 ff.). Gemeint sind damit Verhaltensregeln „im ‚Leben‘ der Maschinen, an die sich alle zu halten haben und deren Nichtbeachtung zu einem wirtschaftlichen Nachteil für die Maschine führt, die die Konvention verletzt“ (ibid.: 314). Forderungskataloge wie dieser fußen auf dem Doppelgesicht der computertechnischen Zukunft: Einerseits werden Computer, wenn sie wie Menschen denken können, mit ihren gewaltigen Datensammlungen sowie darauf basierenden Folgerungen und Empfehlungen unsere Fähigkeiten und Kenntnisse erweitern. Das ist die Zukunftshoffnung. Andererseits lösen sie Zukunftsängste aus, nämlich die Befürchtung, dass sie uns das Heft aus der Hand nehmen und Maschinen programmieren, um uns zu ersetzen. Filmisch wurde dies in Streifen wie Morgan oder Ex Machina schon verarbeitet nach dem Motto: „Etwas unheimlich sind solche ‚allwissenden, denkenden Maschinen‘ und deren Fähigkeiten allemal“ (ap-verlag 2016). Boellstorff sieht solche Szenarien, in der die „Computertechnik die Gesellschaft gestaltet“, dennoch eines Tages Wirklichkeit werden (Boellstorff 2014: 106). Es gibt Experten, die hier entschieden widersprechen, etwa der Münchner Professor für interntionale Politik Carlo Masala. Dass man die Urteilsfähigkeit von Menschen durch Maschinen ersetzen könne, nennt er einen Mythos ohne jede Aussicht auf Realisierung. „Wir bauen nichts auf“, sagte er noch Ende 2018, „was auch nur langfristig Analysten ersetzt“ (Masala 2018). Mythos Nummer 2 ist nach seiner Überzeugung die Hofffnung, Maschinen könnten mit Prognosen jemals zu einhundert Prozent richtig liegen. In seiner Arbeit zur langfristigen Abschätzung politischer oder militäischer Krisen irgendwo auf der Welt hät eine Wahrscheinlichkeit von 85 Prozent dafür, dass eine Voraussage eintritt, für einen angemessenen, ja schon maximalen Wert. Denn keine Künstliche Intelligenz könne „die Cleverness von Akteuren voraussehen“ (ibid.). Mythos Numme 3 nennt er die häufige Annahme, Ursachen und Wirkungen seien linear miteinannder verknüpft. Kein typischer Analyst der politischen Verhältnisse in einem Land wie Ägypten habe jedoch Ursache-Wirkungs-Verkettungen im Blick, die es ihm ermöglichten, Unruhe in der Bevölkerung und Demonstrationen auf den Straßen Kairos mit dem Klima Australiens in Verbindung zu bringen. Beide seien aber verknüpft. Agypten bezieht nämlich 40 Prozent seines Weizens vom fünften Kontinent, den jedoch seit drei Jahren eine Dürre heimsucht. Folglich gibt es schlechtere Ernten, wird weniger Korn exportiert, wir das Getreide in Agypten deshalb knapp und steigen die Brotpreise bis auf ein Niveau, dass die Menschen dort auf die Straßen treibt. Die Künstliche Intelligenz, deren enorme Fähigkeiten der Bundeswehrhochschul-Professor sehr gut kennt, zum Beispiel auf dem Gebiet von Waffen, die sich selbst ihr Ziel suchen und bald selbst entscheiden können, ob sie töten oder nicht, könne den Menschen sehr weit entlasten, sagt Masala, aber ersetzen könne sie ihn nicht. Der data scientist Hardy, dessen Weg durch die Welt der Daten wir in diesem Buch nachzeichnen, beurteilt das differenzierter. Er ist überzeugt, dass die Mensch und Maschine- Symbiose eine neue Art globaler Intelligenz hervorbringen wird. Ob das die kreativkonstruktive oder die destruktive Seite des Menschen fördern werde, hänge aber von uns ab (Schloer/ Spariosu 2017: 211). Wenn wir davon ausgehen, „dass Maschinen heute nicht nur unserer physischen, sondern auch unserer geistigen Fähigkeiten erweitern und unsere heutigen individuellen und kollektiven Möglichkeiten bald übertreffen und damit in ihrem eigenen Sinn lebendig werden“, müssten wir das Zusammenwirken von Mensch und Maschine überdenken (ibid.: 209). Es gebe jedenfalls keinen Grund anzunehmen, „dass Maschinen etwas besser können, wenn man sie allein nach ihren eigenen Regeln tun lässt, nicht anders als es unserem Nachwuchs ergehen würde, ließen wir ihn allein“ (ibid.: 210). 190 7 Wissen ist gut, denken ist besser Menschen haben Aggressionen, Computer nicht Hardys Zutrauen in gemeinsame Zukunft von Mensch und Maschine ist groß. Er traut Maschinen sogar mehr als Menschen und sagt ganz drastisch: „Keine Maschine, ganz gleich wie intelligent, wird jemals so unberechenbar und gefährlich handeln wie Menschen derzeit. Die Intelligenz von Computern in der neuen Ära der Mensch-Maschinen-Intelligenz wird weitaus sicherer, verantwortlicher und vorhersehbarer sein als wir, die Menschen, es in unserer Geschichte jemals gewesen sind. Sie können einen Hammer nehmen und ein notebook mitten zwischen 50 anderen Computern zerschlagen - das wird die anderen Geräte weder bekümmern noch werden sie Sie dafür attackieren“ (Schloer 2010). Hardy sieht das durch die Geschichte bewiesen: „Das Verhalten der Menschen in den letzten paar tausend Jahren spricht für sich selbst: Sie sind, was sie immer schon waren: todbringende Raubtiere, darauf aus zu töten, unermüdliche Sucher nach mehr Kraft und Besitz, und all das ohne Rücksicht auf das unendliche Leid, das sie damit sich und anderen bringen“ (ibid.). Die Menschen hätten zwar die Zivilisation und ziviles Verhalten entwickelt. „Aber das sind nur clevere Wege, um mit den alten Instinkten vom Jagen und Töten umgehen zu können.“ Als Beispiel aus unserer Zeit nennt er die Finanzmärkte: „Da läuft ein Nullsummenspiel, in dem der eine nur auf Kosten des anderen verdient, ohne Rücksicht auf Nachteile oder die immensen Kosten, die der Vorteil des einen für andere bringt. Da läuft etwas falsch. Helfen wird nur ein Weg zur Mensch-Maschinen-Intelligenz. Es geht um nicht weniger als eine Ko-Evolution, in der Menschen und Maschinen gemeinsam eine neue Mentalität und bessere Lebensbedingungen für uns alle erzeugen“ (ibid.). Hardy sprach, als er das sagte, nicht vor irgendwelchen Esoterikern mit Weltuntergangsphantasien, sondern vor nüchtern denkenden Ingenieuren auf einem internationalen IBM- Kongress. „Maschinen können sehr schnell arbeiten“, fuhr er fort. „Aber wir Menschen sind langsam darin, die Ergebnisse ihrer Leistung zu evaluieren.“ Auch dafür sei die Finanzindustrie ein gutes Beispiel. Eine einzige mittelgroße Bank wie die Commerzbank muss 20 Millionen Kunden versorgen und stündlich 30 Millionen Finanztransaktionen abwickeln (Bitkom 2018: Schnebel). Computer-Algorithmen entscheiden in den Banken immer öfter in Millisekunden. Da könne kein Mensch mithalten. Unsere gewohnten Prozesse und Strukturen seien auf Stabilität und Dauerhaftigkeit ausgelegt und damit weder anpassungsfähig noch schnell. Heute jedoch werde „alles im ‚Jetzt‘ erwartet, damit man sofort eingreifen kann“ (Bryner 2016). Technische Lösungen zeigen, wie kurz die Zeitspanne geworden ist, die man „jetzt“ nennt. Zwischen Nordamerika und Europa beschleunigen neue Glasfaser-Seekabel die Nachrichten von einer zur anderen Küste um wenigeMillisekunden „exklusiv für die schnellen Händler, die damit Tausendstelsekunden Zeit gewinnen. Eine kann einen Gewinn von vielen Dutzend, wenn nicht hundert Millionen Dollar pro Jahr bedeuten“ (Drösser 2016: 147, vgl. Eberl 2016: 272). Der Flaschenhals in diesem Tempowettbewerb, fügt Hardy hinzu, seien auf dem Finanzmarkt die menschlichen Analysten: Sie seien einfach zu langsam. Man brauche sie noch zur Bewertung. Wenn sich der Datenzufluss verändert, müsse sich nämlich auch die Bewertung anpassen. Das könnten Maschinen noch nicht, da sie von den einmal einprogrammierten Kriterien nicht abweichen. Was wir deshalb brauchen, sind nach seiner Überzeugung „intelligente Maschinen, wirkliche maschinelle Intelligenz“ (ibid.). Ihm ist klar, was er da fordert. Die Frage „Was nützt den Menschen? “ will er nicht im Sinn „größtmöglicher materieller Vorteile zu Lasten des menschlichen Wohlbefindens im Ganzen“ verstanden wissen. Die neue Künstliche Intelligenz, sagte er schon im Jahr 2010 seinen IBM-Zuhörern, solle und werde „den Menschen früher oder später ihre Freiheit zurückgeben, nicht alle Abläufe und Erträge auf der Erde erarbeiten zu müssen, sondern ein vernünftiges Maß an Engagement und Verwaltungsaufwand, aber auch Freude an diesen wundervollen Gaben“ zu haben (ibid.). 7.2 Hardys Vision vom intelligenten Planeten 191 77..22 HHa arrddyys s VViissiioonn vvo omm iinntteel llliiggeen ntteen n PPllaanneet te en n Globale Intelligenz sei „die Fähigkeit zu verstehen, was die Menschheit weiterbringt und das Leben auf unserem Planeten bereichert“. Sie basiere auf dem allgemeinen Bewusstsein einer wechselseitigen Abhängigkeit aller örtlichen Geschehnisse in einem weltweiten Bezugsrahmen und den wachsenden individuellen Verantwortlichkeiten, die hieraus entstehen. Keine politische Macht könne dies allein bestimmen oder voraussagen. Globale Intelligenz, ist Hardy überzteugt, müsse deshalb einen kollektiven Lernprozess auslösen und könne nur entstehen „auf der Basis fortlaufenden kulturübergreifenden Zusammenwirkens, des offenen Gesprächs und friedvoller gemeinsamer Arbeit aller Menschen auf der Erde“ (Schloer 2010). Dass dies im Jahrhunderet zweier Weltkriege wie eine bloße fromme Hoffnung erscheinen mag,weiß er natürlich. Es ficht ihn nicht an - mehr noch: Er sieht zu dieser diese friedlichen Revolution keine Alternative. Im ausgehenden 20. Jahrhundert hatte Hardy erlebt, wie die Menschen die Gesellschaft des Jahres 2000 erwarteten, in der Computer alle planende und steuernde Arbeit tun und Roboter alles herstellen würden und in der die Menschen die Zeit und die Einsicht gewonnen hätten, dass man Meinungsunterschiede dialogisch, also friedlich lösen kann und auch muss. Aber „das Jahr 2000 kam und ging vorüber, und eine Gesellschaft dieser Art ist nicht in Sicht“ (ibid.). Hardy ist nicht einmal sicher, ob er sich eine solche Welt wünschen soll. Das aber will er: eine Welt, in der es gerechter und friedlicher zugeht als heute. Zu erreichen sein werde das nur mit mehr und stärker automatisierter Technik - da ist er sich sicher. Er zählt deren zehn Gebote auf: „(1) Wir müssen große Zentren globalen Wissens mit Supercomputern errichten, die alle weltweit offen verfügbaren Daten und ihre Inhalte fächer- und kulturübergreifend speichern und analysieren. (2) Alle diese weltweiten Wissenszentren müssen wir miteinander verknüpfen, so dass ein weltweit zugängliches Reservoir von Wissensspeichern entsteht. (3) Dazu müssen wir ein weltweit vernetztes System von Sensoren und Datensammel- Technologien entwickeln, das Daten jeden Tag bei Tag und Nacht in Echtzeit in den Speichern ablegt. (4) Wir brauchen die bestmögliche Künstliche Intelligenz, um diese Datenspeicher fortlaufend nach tiefsitzenden Mustern und Verständnisweisen, global verantwortbaren Chancen und weltweit drohenden Risiken zu durchsuchen. (5) Wir müssen Technologien entwickeln, mit denen jedermann diese Wissensbanken jederzeit anzapfen und ihre Inhalte kostenfrei nutzen kann, damit sich der Fortschritt der Menschheit unabhängig von Wirtschaftskräften entfalten kann. (6) Wir müssen Kommunikationstechniken in einem weltweiten Standardformat einführen und kontinuierlich Datenströme verbreiten einschließlich jeder Art von Risikowarnung und Änderungsbedarf, die die Menschheit kennen muss, um zu überleben. (7) Diese Lösungen müssen weltweit kostenlos und ohne politische oder dogmatische Einflüsse verfügbar werden. (8) Alle Dienstleistungen, die die Menschen erbringen, sei es der Welthandel, das Gesundheitswesen, die Bildung oder sogar das Regieren, benötigen einen globalen Maßstab mit lokalen Ableitungen. (9) Jede Art lokaler maschineller Intelligenz muss mit den automatisierten globalen Wissensnetzwerken komplett verknüpft werden können. 192 7 Wissen ist gut, denken ist besser (10) Alle globale Information muss für alle Menschen offen zugänglich bleiben“ (ibid.). Die Umsetzung dieser zehn Gebote werde zur Basis für die „Heraufkunft des intelligenten Planeten“, erklärte Hardy seinen Zuhörern auf dem erwähnten IBM-Kongress. Er ließ keinen Zweifel daran, welche Grundlage er dazu für erforderlich hält: die Symbiose von Mensch und Maschine, den Einsatz umfassender Künstlicher Intelligenz (Schloer 2010). 88 DDeerr nnaacckktte e PPa attiieen ntt Werden wir eine bessere Medizin mit unseren Daten bezahlen? Gesundheitsdienste wollen und werden alles über uns wissen. Wie viel Souveränität behalten wir noch über unsere intimsten Daten, über die Daten zu unserer Gesundheit? 8.1 Die Maschine als Arzthelfer 193 8.2 Auch im Gesundheitswesen Big Data 196 8.3 Zoe - die Vision einer gesünderen Welt 200 8.4 Datenschutzprobleme 204 88..11 DDiiee MMaasscchhiinnee aallss AArrzztthheellffeerr Kaum etwas ist so privat wie persönliche Gesundheitsdaten, sollte man meinen. Davon geht auch der Gesetzgeber aus und schützt solche Daten besonders. Aber im Zeitalter von Big Data ändert sich das. Was die Datentechnik ermöglicht, ist „die nächste Weltveränderungsidee im Silicon Valley, dass die Entschlüsselung der Biologie und das Verständnis von Krankheiten am Ende ein Datenproblem sei und deswegen zumindest teilweise von Software-Experten gelöst werden könne. Alles ist eine Rechenaufgabe, auch der Mensch“ (Schulz 2017a: 69). Derzeit besteht das Gesundheitswesen aus einem ambulanten und dem stationären Sektor. „Bald wird der digitale Sektor hinzukommen“, sagen Gesundheitsökonomen (Müller 2017a: 68). Bis 2025 soll der digitale Medizinbereich allein in Deutschland jährlich hundert Milliarden Euro umsetzen. Derzeit liegt das Gesundheitsbudget landesweit bei insgesamt rund 350 Milliarden Euro (ibid.). Auf diesem Feld liegt also „eine enorme Gelegenheit“ für neue Geschäftsfelder (Apple-Chef Tim Cook, cit. Schulz 2017a). Entsprechend massiv investieren nicht nur traditionelle Pharmakozerne wie Bayer in die medizinische Forschung, sondern gerade die großen „Datenkraken“. Bayer gab für die Forschung 2016 etwas mehr als fünf Milliarden US-Dollar aus, Facebookaber bereits fast sechs, Apple zehn, Microsoft gut zwölf, Alphabet/ Google fast 14 und Amazon mehr als 16 Milliarden (ibid.). Geschätzt gibt es bereits 300.000 Gesundheits-Apps, also Computerprogramme, die einen medizinischen Nutzen versprechen (Rebscher/ Kaufmann 2017; vier Jahre zuvor hatte Albrecht in der Medizinischen Hochschule Hannover erst von 100.000 gesprochen, cit. Viciano 2013). 2014 hatte Langkafel geurteilt: „Den medizinischen Autopiloten gibt es noch nicht - noch nicht? “ (Langkafel 2014: VII). Das Rad der Entwicklung dreht sich schnell, wesentlich schneller als in der Pharmaforschung. Dort lange dauert es nach aller Erfahrung zehn Jahre, bis ein Medikament nach allen klinischen Tests und allen Genehmigungsrunden eingesetzt werden kann (Roche 2017: Jaeger). Datenspezialisten sind so lange Zeiträume nicht gewohnt. Sie und Medizinforscher denken und arbeiten folglich in zwei Geschwindigkeiten: Die einen planen für Jahre, die anderen für Monate oder sogar nur für Wochen. Für Vorhaben beider Seiten eine gleiche „Wellenlänge“ zu erzeugen, ist keine leichte Aufgabe (ibid.). Denn die Projekte sind äußerst komplex. Einige Beispiele: Facebook entwickelt einen menschlichen Zellatlas, der alle Körperzellen kartografieren und so neue Medikamente ermöglichen soll. 194 8 Der nackte Patient Google untersucht, wie Algorithmen auf Fotos Hautkrebs erkennen und wie Computerprogramme Depressionen überwinden und Herzinfarkte vorhersagen können. Amazon arbeitet unter dem Codenamen 1492 - das Datum für die Entdeckung der neuen Welt (ibid.: 70) - an virtuellen Arztbesuchen und an Patientendatenbanken in der cloud. Die Biological Computation Group in der britischen Universitätsstadt Cambridge erläutert das Vorgehen der Daten-Unternehmen in der Medizinforschung so: Auch biologische Vorgänge seien am Ende Informationsverarbeitungsprozesse. Wisse man, wie man Computer programmiert, könne man auch lernen, Zellen zu programmieren“ (ibid.: 71). Und verstehe man diese Funktion, könne man auch eine Programmiersprache entwickeln um einzugreifen. „Am Ende könnte ein molekularer DNA-Computer stehen, der Krebs in einer Zelle erkennt und ihr den Selbstmord befiehlt. Eine Art Doktor direkt in der Zelle, ‚spekulativ, aber sehr vielversprechend‘, sagt Chris Bishop, der Leiter des Labors in Cambridge“ (ibid.). Binnen zehn Jahren will Microsoft das Problem Krebs lösen und diese Krankheit zumindest so weit beherrschen, so dass sie nicht mehr tödlich verläuft. Dazu sammeln diese Unternehmen Daten in Mengen, die Menschen nicht mehr verarbeiten könnten. Die Microsoft-Datenbank enthält bereits 27 Millionen digital abgespeicherte medizinische Abhandlungen. Das schweizerische Pharmaunternehmen Roche verarbeitet sogar 18 Milliarden globale Daten im Jahr (Roche 2017: Jaeger). Wer kommt da noch mit? „Nur Maschinen“, gibt Hoifing Poon zu, der Leiter eines Forschungsprojekts für den Einsatz Künstlicher Intelligenz in der Präzisionsmedizin (Schulz 2017a: 70). Zwei Beispiele: Dass es drei Formen der Diabetes gibt, ließ sich nur maschinell aus Big Data ermitteln (BMBF/ Wi 2018: Assodolahi). Ein IBM KI-System hat kürzlich die DNA-Sequenzierung eines Gehirntumors korrekt und schneller interpretiert als ein ganzes Team menschlicher Experten (Schulz 2017a: 70). Die Maschine als Arzthelfer? Ja, urteilt Schulz: „Die Möglichkeiten scheinen endlos, zumindest in den Planspielen der Software-Ingenieure“ (ibid.). Der Abgleich von Millionen gleichgelagerten Daten überwinde nämlich traditonell eingeschränkte Perspektiven, und zwar sowohl die, die aufärztlicher Erfahrung beruhen, gleich ob individuell gesammelt oder als kollektives Wissen in Leitlinien hinterlegt, als auch die in die in klinischen Studien niedergelegten mit dort strukturell nicht erfassten - weil nicht untersuchten - Einflussfaktoren (Rebscher/ Kaufmann 2017: 16). In anderen Worten: Je mehr Daten, desto sicherer werden die Ergebnisse. Verführerisch hieran ist, dass Massendaten für sich zu sprechen scheinen, während oftmals unsichtbar bleibt, wie Big Data erzeugt und genutzt werden (Fenwick/ Edwards 2017). Der medizinische „Goldstandard“ bleibt zwar die doppelblinde klinische Studie. Massendaten könnten diesen „verzerrungsfreien Ansatz“ nicht gewährleisten. Sie machen aber Korrelationen und Muster sichtbar. „Damit kann die Big Data-Analytik helfen, die erkannten Häufungen und Muster ihrerseits guten Studiendesigns zuzuführen, um damit kausale Wirkungen zu untersuchen“ (ibid.: 19). Diese Analytik wirft Fragen mit weitreichender Relevanz für den Datenschutz auf. Es sind Fragen nach den wissenschaftlichen, aber auch ökonomischen Perspektiven dieser Entwicklung, nach der Zuverlässigkeit digitaler Lösungen, nach dem Vertrauen von Patienten in e-health-Dienstleistungen, nach dem künftigen Arzt-Patienten-Verhältnis und ganz generell nach gesellschaftlichen Folgen einer „Kultur der Selbstvermessung“ (Stiftung Datenschutz/ Bergh 2017). Eine schlankere medizinische Versorgung? In den USA fließen mehr als 20 Prozent der Staatsausgaben in das Gesundheitssystem (Schulz 2017a). Es verschwendet jedes Jahr zwischen 500 und 850 Milliarden Dollar wegen unnötiger Dienste, zu 22 Prozent aber auch wegen Betrugs an Versicherungen und wegen 8.1 Die Maschine als Arzthelfer 195 anderer Betrügereien (Kelland 2010). In Europa übertrifft der durchschnittliche Kostenanstieg im Gesundheitswesen das Wirtschaftswachstum (BSP) und belastet den Steuerzahler daher überdurchschnittlich. Doppeluntersuchungen, Irrtümer und Betrügereien im Gesundheitswesen verschlingen jährlich 180 Milliarden Euro (ibid.). Weltweit belasten die Kosten des Gesundheitswesens laut WHO die Menschen so stark, dass sie jedes Jahr hundert Millionen Patienten in die Armut treiben (Schloer/ Spariosu 2017: 140). Dramatischer noch: Die Unkenntnis über Unverträglichkeiten von Medikamenten zueinander kann lebensbedrohlich sein. Ein Beispiel: Im Jahr 2001 starben in Deutschland mehr als fünftig Menschen, weil sie ein cholesterinsenkendes Mittel verordnet bekommen hatten, das sich mit anderen Medikamenten nicht vertrug. Der jeweils verschreibende Arzt hatte von den bereits eingenommenen anderen Medikamenten nichts gewusst. Weltweit belasten kritische Reaktionen auf Medikamente zwei Millionen Patienten. 100.000 von ihnen verlieren deswegen jährlich ihr Leben (Matzer 2017: 9). In den USA ist das die dritthäufigste Todesursache. Drei bis fünf Prozent der Todesfälle gehen mangels korrekter Infomation auf klinische Fehlbehandlungen zurück, sagt der Leiter des europäischen IBM-Forschungszentrums in Rüschlikon, Alessandro Curioni. Das kostet 136 Mrd. US-Dollar - mehr als die Behandlung von Diabetes und Herz-Kreislauf-Erkrankungen zusammen (ibid.: 10). Die kostentreibende Blockade gespeicherter Gesundheitsdaten aus Rücksichten auf die Privatheit von Patienten belastet auch die Forschung: „Anders als im europäischen Ausland sind Erkenntnisse aus der Versorgungsforschung in Deutschland bisher nur selten im direkten Behandlungsgespräch zwischen Patient und Arzt nutzbar“, beklagt der Siemens- Manager Professor Volker Tresp, Leiter des Smart-Data-Projekts KDI - Klinische Datenintelligenz (BMWi 2016: 33). Tresps Team will in mehreren Bereichen Vorteile erzielen. „Zum einen“, erklärt ein Mitglied, „in der Prävention: Jeder Arzt wird Ihnen sagen, dass eine gesunde Lebensweise entscheidend für die Vermeidung von Krankheiten ist. Appskönnen Menschen dabei unterstützen, auf eine gesunde Lebensweise zu achten, und vorwarnen, wenn es in die falsche Richtung läuft. Der Effekt ist gerade bei gesamtgesellschaftlicher Betrachtung nicht zu unterschätzen. Zum anderen sollen sich Vorteile aus dem screening ergeben. Durch Datenaufnahmen lassen sich zum Beispiel in der Mammographie Krankheitsbilder noch vor Auftreten der Symptome erkennen. Smart Data können die Gesundheit wiederherstellen helfen - und unterstützen die Nachsorge, um dafür zu sorgen, dass Krankheiten nicht wiederkehren (ibid.: 33). Die klinische Datenauswertung hat Tradition. Neu ist aber die schiere Menge an Daten. „Aufgrund molekularer Daten aus Genom-und Proteinanalysen und metabolischen Profilen“ erleben Tresp und sein Team „derzeit eine regelrechte Datenexplosion. Diese Datenmenge werde die behandelnden Ärzte und Pfleger mittelfristig überfordern (ibid.). Das werde die gesamte Gesundheitsbranche vor die Frage stellen, wie sie mit dieser Datenflut künftig umgehen wird. Zugleich wirkt sich der demografische Wandel aus: Die Menschen werden älter und leiden daher häufiger an Krankheiten. „Sinnvolle Datenauswertungen können helfen, die drohende Kostenexplosion zu kontrollieren“ (ibid.). Ein Beispiel ist die Rheumatherapie. Für sie setzen Ärzte fünfzig bis hundert verschiedene Medikamente ein. Oft probiert der behandelnde Arzt so lange, bis er das richtige gefunden hat. „Wenn dieser Vorgang durch die Auswertung großer fallbezogener Datenmengen beschleunigt werden kann“, sagt Tresp, „ist ein klarer Nutzen gegeben: Der Patient wird schneller gesund und die Behandlungskosten sinken“ (ibid.). Ähnlich ist die Situation nach Nierentransplantationen, bei der Medikamente zu finden und so zu dosieren sind, dass der Körper das neue Organ nicht abstößt. Auch daran forschen Tresp und sein Team. Nötig sind dazu einerseits Daten von vielen Patienten, um Zusammenhänge zu erkennen, und andererseits detailliertes Wissen über die einzelnen Patienten, um das richtige Medikament in der richtigen Dosierung verschreiben zu können (ibid.). 196 8 Der nackte Patient Dieses Projekt soll Abrechnungs-, Behandlungssowie Studien- und Referenzdaten aus verschiedenen Quellen datenschutzgerecht kombinierbar und für die Versorgungsforschung zugänglich machen. Dazu sollen in Deutschland erhobene Daten in anonymisierter Form, also ohne die Namen einzelner Personen, genutzt werden, um den regionalen Versorgungsbedarf besser abschätzen und damit planen zu können. So will man Ursachen chronischer Erkrankungen und die Wirksamkeit von Therapien und Versorgungsmodellen besser verstehen. Eine erste Anwendung stellt Kennzahlen zur Entwicklung des regionalen Pflegebedarfs für alle Kommunen im Nordosten Deutschlands bereit. Ein Projekt in Zusammenarbeit mit einer Universität, einem Fraunhofer-Institut und einem Netzwerk niedergelassener Ärzte gilt der Früherkennung der Niereninsuffizienz (Dialyse) (ibid.). Das digitale Gesundheitswesen macht es möglich, vom Schwerpunkt Krankenversorgung zum Schwerpunkt Gesunderhaltung überzugehen. Denn es erzeugt die Mittel, um Erkrankungen zu erkennen, bevor sie ausbrechen, und um viele zu verhindern (Roche 2017: Suter-Crazzolara, vgl. auch Conrad 2016). „Das Krankenhaus der Zukunft“, folgern Rebscher/ Kaufmann daraus, werde „tendenziell eher weniger Patienten und weniger Betten haben. Durch die Nutzung digitaler Anwendungen und Möglichkeiten werden viele Menschen künftig keine stationären Patienten mehr sein“ (Rebscher/ Kaufmann 2017: 54). Der US-Krankenversicherer Humana nutzt schon seit mehreren Jahren seine Daten, um den Versicherten vorbeugende Gesundheitsmaßnahmen vorzuschlagen und um so an Kundengruppen verdienen zu können, die bei anderen Versicherern Verluste verursachen (Stricker 2014: 3). Andere Krankenkassen experimentieren mit Modellen, in denen Versicherte geringere Prämien bezahlen, wenn sie sich an bestimmten Programmen beteiligen und dadurch wahrscheinlich gesünder leben, was natürlich durch erhobene Daten überwacht wird. Viele Patienten willigen wegen des finanziellen Vorteils in diese Datentransfers ein, und die Kassen werten solche Daten selbstverständlich statistisch aus. „Ob Kalorien, Schritte, Blut- oder Stimmungswerte: Am Körper getragene mobile Geräte messen, überwachen und coachen alltägliches Verhalten und körperliche Leistungen. Die technisch vermittelte Erforschung, Steuerung und Optimierung des Selbst - das sogenannte self-tracking- etabliert nicht nur neue Verhältnisse von Körper, Technik und Wissen, sondern verwischt gleichermaßen die Grenze zwischen Selbst- und Fremdführung“ (Duttweiler 2016). Diese sogenannten Selbstqualifizierer versorgen unzählige Firmen freiwillig mit ihren intimen Daten und legen damit „eine elektronische, öffentliche Krankenakte über sich an“ (Morgenroth 2014: 151) - frei nach dem Motto: „Belohnung ist die billigste und einfachste Methode, sensible Daten anzuhäufen und die Grenze zum Privaten weiter verwischen zu lassen“ (ibid.: 153). 88..22 AAu ucchh iimm GGe es suunnddhhe ei itts swwees seen n BBi igg DDa attaa Private Organisationen sind da schon weit voraus. Sie fragen gar nicht erst einzelne Patienten, sondern gleich die Ärzte, die Apotheken, die Kliniken und sogar Fitness-Center. Das Unternehmen IMS Health verarbeitete schon 2013 über 100.000 Datenquellen, darunter nur begrenzt anonymisierte Patientendaten von rund 2500 Ärzten, von einem Viertel aller deutschen Apotheken und von 140.000 Fitness-Centern überall in Deutschland (Morgenroth 2014: 84). Da kommen Big Data zusammen. Das 1996 gegründete US-Unternehmen Acxicom Systems verfügt mit seiner mikrografischen Datensuite Mikrotyp über ein einzigartiges Spektrum an Markt- und Konsumentendaten. Die Deutschlandkarte dieses Unternehmens zeigt 1,46 Millionen Straßenabschnitte, in denen mindestens fünf Haushalte zusammengefasst sein müssen, weil der Datenschutz des Einzelnen das so verlangt (Junge 2013: 25). Anhand von Wohnort und Wohnform, Alter, Geschlecht sowie registriertem Such- und 8.2 Auch im Gesundheitswesen Big Data 197 Kaufverhalten sortiert Acxicom die Bürger in 19 soziale Segmente (ibid.). Das ermöglicht nicht zuletzt durch Zusammenarbeit mit ebay „eine präzise Qualifizierung nahezu jeder postalischen Anschrift in Deutschland“ (Morgenroth 2014: 30). Acxicom wirbt auf seiner Webseite mit solchen Methoden: Sie gebe den Kunden die Möglichkeit, „eine Publikation erfolgreich zu managen, das Kundenerlebnis zu personalisieren und gewinnbringende Kundenbeziehungen zu schaffen“. Rudder nennt das „ein interessantes Paradoxon: Wenn irgendwo ‚personalisieren‘ steht, weiß man stets, dass es um etwas sehr Unpersönliches geht“ (Rudder 2016: 249). Speichern wir Daten schon unnötig häufig? Vielleicht nicht: „Wir haben nicht zu viele Daten, wir haben zu wenige“ (Mainzer 2017a). Aus der Krebsforschung weiß man, dass Tumore individuell mutieren, bei jedem Patienten verschieden. Für die Diagnose braucht man deshalb andauernd Justierungen. Das bedeutet enorme Datenerhebungen, um überhaupt zu einer brauchbaren Diagnose zu kommen (ibid.). Solche Datenauswertungen unterstützen je nach Verwendungszweck entweder die Pharmaindustrie oder auch die Ärztewelt bei der Diagnose und Therapie etwa von Krebserkrankungen, verbessern die Hilfe für Infarktbetroffene, erleichtern die Bereitstellung personalisierter Medikamente z. B. gegen Erbkrankheiten oder die Überwachung von Vitalparametern von Frühgeborenen, Senioren oder chronisch Kranken. Das klingt verführerisch: „Warum sollte ein medizinisches System nur die Diagnose verbessern? Warum nicht auch gleich den Operationsplan festlegen? “ (Gatzke/ Gruhn 2018). Außerdem machen diese Daten es möglich, die Ausbreitung von Krankheiten weltweit zu kartieren und damit Vorbeugungsmaßnahmen frühzeitiger einzuleiten. Über Präventionsstrategien (vgl. Schultz 2016) hinaus geht es auch um Arzneimittelwirkungen und um die sogenannte Nachmarktkontrolle, mit der Daten über Wirkungen von Medikamenten bei ganz unterschiedlichen Personen und Umweltbedingungen ermittelt und analysiert werden. Das beseitigt „Wissensasymmetrien zwischen Risikoproduzenten und Kontrollinstanzen“ (Broemel/ Trute 2016: 59); es macht einfacher gesagt alle Beteiligten gleich schlau. Der Datenschutz bleibt dabei nicht selten auf der Strecke. Ein Harvard-Team demonstrierte schon vor einigen Jahren, „dass Patienten allein durch ihren medizinischen Hintergrund sowie öffentlich verfügbare Informationen identifiziert werden können“ (Morgenroth 2014: 84): „Betreiben Sie Sport? Schwimmen Sie gerne und lesen Sie Ernährungsberater? Wie viele Fotos zeigen Sie mit Bier, Chips und Eiscreme? Oder mit einer Zigarette im Mund? Deuten Ihre geposteten Fotos oder likes darauf hin, dass sie wenig schlafen und viel feiern? Falls ja, würde Ihre Krankenversicherung oder Ihr Arbeitgeber das sicher nicht gerne sehen“ (ibid.: 87). Eric Schmidt, Executive Chairman der Alphabet Holding (vormals Google), hat am „gläsernen Nutzer“ keinen Zweifel gelassen: „Je mehr Informationen wir über dich haben - mit deiner Erlaubnis - um so mehr können wir unsere Suchergebnisse verbessern. Dazu brauchst du überhaupt nichts mehr zu tippen, denn wir wissen, wo du bist - mit deiner Erlaubnis. Wir wissen, wo du warst - mit deiner Erlaubnis. Wir können mehr oder minder erahnen, worüber du nachdenkst“ (Schrape 2016: 17). Sind wir also gläsern? Und wie! Weil niemand ohne Not gläsern sein will, sollen persönliche Daten nach allgemeiner Meinung vorsichtshalber erst einmal vertraulich sein. Dieses Prinzip unterlaufen wir aber tagtäglich nach dem längst widerlegten Motto: Andere können mit so ein paar Daten doch sowieso nichts anfangen. Abgesehen davon, dass das nicht stimmt: Sollten das die anderen entscheiden dürfen? Einen ersten Schritt zur allgemeinen Verdatung des Gesundheitswesens ist Deutschland zur Jahrtausendwende gegangen. Seither gibt es in der deutschen Krankenversorgung Gesundheitskarten im Kreditkartenformat. Die Bundesregierung hatte sie nach dem erwähnten Cholesterinblocker-Desaster beschlossen, musste aber erleben, dass dies mehr als fünf- 198 8 Der nackte Patient zehn Jahre lang „kaum mehr als einen besseren Mitgliedsausweis“ hervorbrachte (AOK- Bundesvorstand Martin Litsch, cit. Rosenbach/ Schmergal 2017: 75). Viel Information enthalten diese Karten nämlich noch nicht. Die deutsche Bevölkerung akzeptiert diese elektronische Karte. In einer Forsa-Umfrage der Techniker-Krankenkasse beurteilten sie 40 Prozent sehr gut und weitere 48 Prozent gut (Rebscher/ Kaufmann 2017: 66). Aber wer den Arzt wechselt, wer in eine andere medizinische Praxis oder in eine Klinik überwiesen wird, muss in der Regel Briefe mitbringen, die der zuvor behandelnde Arzt dem Hausarzt ausgestellt und so dokumentiert hat, was er festgestellt und getan hat. Die Weitergabe solcher Daten setzt in vielen Fällen eine schriftliche Einwilligung des Betroffenen voraus; andernfalls bleiben sie da, wo sie sind, und der neue Mediziner muss von vorne beginnen. Erst jetzt soll die Karte tatsächlich mit Gesundheitsdaten aufgeladen werden. Ein Lesegerät, ein sogenannter Konnektor, soll sie auslesen und Daten über eine vom normalen Internet abgeschirmte verschlüsselte Verbindung auch weitersenden (ibid.). Welche Daten so gespeichert werden, ist noch nicht abschließend geklärt. Es gibt Warner, die sagen: „Eine elektronische Patientenakte darf nur Einträge aus ärztlicher Expertise enthalten und keine netzgestützten Vermutungen über unbewiesene Diagnosen oder ungeprüfte Therapien“ (ibid.: 41). Andere sehen das lockerer. Die Basisfunktionen dieser persönlichen Patienten-Akte (PEPA) sind kaum umstritten: „Steuerung der Zugriffsberechtigungen, Einsicht in und lokales Speichern professionell erzeugter Inhalte, Einstellen eigener Informationen, Übertragung der Aktenführung an einen Stellvertreter, Einsicht in Zugriffsprotokolle“ (ibid.: 55). Elektronische Krankenakten sollen nur Fakten enthalten. Trotzdem ist bisweilen Vorsicht geboten. Denn das schließt einen schlampigen Umgang mit Daten oder Datenmissbrauch nicht aus. Unter der Therapeut-Patient-Beziehung kann man nämlich auch verstehen, was „den Erwartungen sanktionierbarer Leistungen durch Klinikmitarbeiter und Patienten“ entspricht; zu gut deutsch: In den Akten steht dann, was die Beteiligten darin gern lesen würden, nicht unbedingt, was sie festgestellt haben. Es gibt eben „die ‚guten Gründe‘, um ‚schlechte‘ Klinikakten herzustellen“ (Garfinkel 2000: 111). Je ‚schlechter‘, das heißt je ungenauer Dokumente sind, desto leichter könnten sich Ärzte rechtfertigen, falls es zu einem Gerichtsprozess kommt (Paßmann 2014: 263). Nicht nur solche Machenschaften können die Vertraulichkeit von Gesundheitsdaten unterlaufen, sondern auch Pfusch. Ausgerechnet das viel gepriesene multitasking, berichten Professoren der Harvard Medical School, habe dazu geführt, „dass immer häufiger Textbausteine von einer Krankenakte in die nächste wandern: „Unter Zeitdruck übernehmen Ärzte und Krankenschwestern vollständige Krankengeschichten und die Beschreibung der akuten Krankheit von anderen Patienten mit gleichen Beschwerden und kopieren sie ohne Prüfung in eine neue Akte, noch ehe der Patient überhaupt in der Klinik erschienen ist“ (Schirrmacher 2011: 40 f.). Es gibt auch andere Missbrauchsgefahren: „Die Datenbanken von drei der größten Medizingerätehersteller der Welt Medtronic, St. Jude Medical und Boston Scientific wurden gehackt“ (Müller 2017a: 70), ob wegen technischer Industriespionage oder um an private Gesundheitsdaten zu kommen, ist unklar. Auch ob und wie viele private Daten dabei in falsche Hände gerieten, ist nicht bekannt. Kriminell wird es auch, wenn Firmen mit Gesundheitsdaten Geschäfte machen, wie sensibel diese Daten auch immer sein mögen. So hat das US-Unternehmen MEDBase200schon vor Jahren Listen verkauft, „deren schiere Existenz einem den Atem verschlägt“ (Morgenroth 2014: 94): über Aids-Kranke, Alkoholiker und Menschen mit Potenzstörungen. Alle Listen enthielten nach Angaben des Unternehmens tausend Namen zum Preis von 79 Dollar je Liste. „Das heißt, dass es weniger acht Cent kostete, um eine Person bloßzustellen“ (Hill 2013). 8.2 Auch im Gesundheitswesen Big Data 199 Kommen Big Data-Gesundheitsauswertungen auch ohne Bloßstellungen privater Lebensumstände aus? Ja, und zwar auf zwei Wegen. Erstens können Menschen sich freiwillig Gesundheitschecks unterziehen, wie das bei Ärztebesuchen seit jeher üblich war und nun mit Sensoren am Körper rund um die Uhr möglich ist. Sie erkennen sich und „erscannen“ sich zugleich (Moorstedt 2013a). Und zweitens lassen sich gesundheitsrelevante Erkenntnisse auch aus Daten ableiten, die nicht auf direkten körperlichen Gesundheitsdaten beruhen. Ein Beispiel: Für Gesundheitsbehörden ist es wichtig, bevorstehende Epidemien möglichst früh erkennen. Auf traditionelle Weise lassen sich sich solche Krankheitswellen nur mit etwa zweiwöchiger Verzögerung feststellen. Eine auf auf Eingaben in Google Suchmaschinen basierende flu trends-Analyse lieferte Ergebnisse aber schon innerhalb eines Tags (Ginsberg et al. 2009: 1012). Unklar blieb dabei allerdings, ob Menschen Google erst nach einer ärztlichen Grippe-Diagnose und nach Verordnung eines Medikaments konsultuierten oder schon anhand von Symptomen als Eigendiagnose ohne Arztbesuch. Diese Aussagen geben Googles Big Data nicht her. Dass Google für seine Analyse grippebedingter Suchmaschineneingaben vorrangig medizinische Gründe hatte, ist übrigens kaum anzunehmen. Plausibler wäre, dass dies als „philanthrope Investition inszeniert werden“ sollte (ibid.: 341). Sie legitimiert nämlich ein Stück weitGoogles massive Archivierungs- und Auswertungsprogramme. Suchmaschinen-generierte Big Data-Analysen, urteilt Richterich, würden damit als intuitiv gerechtfertigte, geradezu notwendige Nutzung von Potentialen inszeniert (ibid.: 355). Beweisen lässt sich eine solche Motivation nicht, widerlegen aber bislang auch nicht. Der Erfolg ließ Google an diesem Projekt von 2008 trotz zwischenzeitlicher Rückschläge weiterarbeiten. Die Google flu trends sind mittlerweile für 29 Staaten verfügbar, so für Japan, Peru, Uruguay, Norwegen und für Deutschland. Hier wird die Suchmaschinenintensität nach dem Stichwort Grippe in den Bundesländern gemessen. Für die USA ist sie sogar für einzelne Städte verfügbar. Die Ergebnisse werden alle paar Tage aktualisiert (ibid.: 350). Suchmaschinen-Benutzer werden dabei nicht einzeln identifiziert. Anhand von Verhaltensdatenbanken können sie aber wiedererkannt und angesprochen werden. „Die systematische Archivierung gesundheitsbezogener Daten aller Personen, die sich mit gesundheitsrelevanten Anfragen einer Suchmaschine anvertrauen“, ist deswegen grundsätzlich kritisch zu beurteilen (ibid.: 339). Privatheit und Privatsphäre müssten „im Themenfeld von Big Data als Kategorien gänzlich neu verhandelt werden“ (ibid.: 361). Google sieht sich mit solchen Initiativen in guter Gesellschaft. Mit dem Global Alert and Response (GAR)-Projekt erarbeitet nämlich auch die Weltgesundheitsorganisation WHO ein transnationales Überwachungs- und Frühwarnsystem. Ihre Vision ist ein „integriertes und globales Erkennungs- und Reaktionssystem für Epidemien und andere Aufgaben der öffentlichen Gesundheitspflege auf der Basis starker nationaler Gesundheitssysteme und einem international wirksamen System für koordinierte Maßnahmen“ (www.who.int/ csr/ en/ ). „Das eigentlich Bahnbrechende dahinter“, sagt der ars electronica futurelab-Forschungsleiter Christoph Lindinger, „ist die Datenbasis. Im Idealfall wirst du schon gewarnt, bevor du krank wirst. Und sehr viele Krankheiten, die derzeit existieren, können ja, wenn sie früh genug entdeckt werden, sehr gut geheilt werden“ (cit. Fares 2017, Episode 4). Plattformen machen auch im Bereich Medizin Sinn; das ist noch bei Weitem nicht ausgereizt (BMBF/ Wi 2018: Zahn). Sie müssen zumindest im Bereich des Gesundheitswesens auf Vertrauen basieren. Dazu ist „ein gewisses regulierendes Eingreifen des Staates oder öffentlicher Einrichtungen erforderlich“ (ibid.). Auch juristische oder technische Geschäftsmodelle müssen Vertrauen abbilden. Denn Risiken werden stärker wahrgenommen als Chancen (ibid.). Als Beispiele seien SAHRA und InnOPlan genannt. 200 8 Der nackte Patient Das Projekt „SAHRA - Smart Analysis Health Research Access“ ist eines von 13 Leuchtturmprojekten im Technologieprogramm „Smart Data - Innovationen aus Daten“ des Bundesministeriums für Wirtschaft und Energie (BMWi). SAHRA soll verschiedenartige versorgungsrelevante Datentöpfe analysierbar, Abrechnungsdaten, Behandlungsdaten sowie Studien- und Registerdaten rechtssicher kombinierbar und für die dazu ermächtigten Versorgungsforscher und Anwender zugänglich machen und sie in die Versorgungspraxis übertragen. Plattformnutzer können Daten bereitstellen, ohne sie auf ihr speichern zu müssen; sie behalten über freigegebene Daten so die Hoheit. (www.sahra-plattform.de) InnOPlan entwickelte in den Jahren 2015 bis 2017 Big Data-Technologien ausschließlich mit Daten, die nicht patientenbezogen sind, etwa mit Informationen zur Dauer einer Operation, um mit vernetzten Medizingeräten die Arbeitsabläufe im Operationssaal in Zukunft zu verbessern und mit standardisierten Kommunikationsprotokollen Prozesskosten in Krankenhäusern zu senken. Es geht also um Verbesserungen etwa bei Verwaltungsaufgaben von Krankenhäusern wie der Planung von Operationen und deren Koordination. Nur langfristig willInnOPlanauch patientenbezogene Daten hinzuziehen, aber, so Norbert Hansen, Manager des Unternehmens Karl Storz, erst, „wenn das Thema Datenschutz seitens der Gesetzgebung geklärt ist“ (BMWi 2016: 31), was ja mittlerweile geschah. Hansen und sein Team formulieren noch vorsichtig: „Dies hätte eine verbesserte medizinische Versorgung für den Patienten zur Folge, was auch die Krankenkassen entlasten würde und entsprechend auch die Krankenhäuser. Der Mehrwert liegt deshalb nicht nur auf administrativer, sondern in Zukunft auch auf medizinischer Ebene“ (ibid.). Dazu dient eine smart data-Plattform, die Daten von Medizingeräten und IT-Systemen erfasst. Das Projekt sollte zeigen, wie die Medizingeräte funktionieren müssen, um zu intelligenten Datenlieferanten zu werden. Die Entwicklung „vom gläsernen Bürger zum gläsernen Patienten“ (Jandt/ Hohmann 2015: 21) ist vorgezeichnet. Zwei Drittel aller Experten, die das Bundesinstitut für Bau-, Stadt- und Raumforschung 2016 befragte, gehen davon aus, dass es den „gläsernen Bürger“ geben wird. Das werde sich positiv auswirken, nämlich wirtschaftlich, zugleich aber auch negativ, weil es die soziale Diskriminierung verstärkt (Bundesinstitut 2017a: 11). Technischer Treiber für den „gläsernen Bürger“ ist das Smartphone als zentrale Schnittstelle (ibid.). Die Entwicklung zum „gläsernen Patienten“ muss in eine evidenzbasierte, also auf klaren Fakten beruhende Medizin (dazu Ladeur 2016a) ebenso eingepasst und „für die Regulierung im Gesundheitsbereich aufbereitet und stabilisiert werden“ (Broemel/ Trute 2016: 59). 8 8..33 ZZooee -- ddiiee VViissiioonn eei inneer r ggeessüünnddeerreen n WWeel ltt Hochklassige Experten sind also am Werk, um das sensible Thema Gesundheitsdaten datentechnisch in den Griff zu bekommen. Dazu gehört auch eine medizinische Plattform, die Hardys Team zumindest durchdacht hat. Er nennt sie Zoe und benutzt damit das griechische Wort ¤EÌ für Leben. Zoeumreißt die Vision einer gesünderen Welt. Sie soll bei abgesichertem Datenschutz für den einzelnen Patienten medizinisches Wissen aus der Behandlung von Millionen Menschen aus Tausenden von Forschungsinstituten und Laboren rund um die Welt speichern, verarbeiten und verfügbar halten (Schloer/ Spariosu 2017: 16) - je mehr Daten, desto besser. „Eine Antwort, die auf 500.000 Datensätzen beruht“, sagt Hardy, „ist einfach genauer, verlässlicher und damit besser als eine, die nur 5.000 Fälle verarbeiten konnte.“ Und je breiter die Datenquellen verteilt sind, desto nochmals besser können die Antworten sein. Das Zoe-Datensammeln und -analysieren beruht schon deshalb nicht nur auf der klassischen westlichen, sondern auch auf der alternativen und der fernöstlichen Medizin. 8.3 Zoe - die Vision einer gesünderen Welt 201 Außerdem ist Zoe nicht in erster Linie auf kurative Medizin ausgerichtet, also auf Heilung von Krankheit, sondern auf Prävention, also auf Krankheitsvermeidung, anders gesagt auf Gesunderhaltung. Das bedeutet beispielsweise, Senioren-Wohnungen mit Sensoren auszustatten. Sie erfassen Daten über den körperlichen Zustand der Bewohner und leiten sie an eine Datenbank weiter. Eine Technologie wertet sie aus und leitet daraus Informationen über den Gesundheitszustand der Bewohner ab. Macht dieser es nötig, sucht eine Pflegekraft den Bewohner auf und sieht nach dem Rechten (IBM o.V. 2015). Aber bei Zoe geht es um sehr viel Grundsätzlicheres. Mit Software- und Hardware-Lösungen auf der Basis von Quantum Relations sollen Supercomputer das weltweite Gesundheitswesen defragmentieren, also in global nutzbaren Datenspeichern zusammenführen. Patienten, Schwestern, Ärzte, Kliniken, Apotheken, Forscher, Pharmafirmen, alternative Gesundheitsversorger und Versicherer sollen über Internet-Schnittstellen von überall in der Welt darauf zugreifen können, um private, öffentliche, informelle, klinische und wissenschaftliche Fragen beantwortet zu bekommen. Das Zoe-Team hat diese Ziele in fünf Punkten zusammengefasst: 1. Das System muss webbasiert arbeiten. Patienten, Mediziner, alternative Gesundheitsanbieter, Kliniken und Wissenschaftler müssen von PCs via Internet zugreifen können. 2. Alle Teilnehmer sollen online Entscheidungshilfen für die Diagnose und die Behandlung abrufen können. Dazu soll das System Informationen maßgeschneidert für jeden Patienten ebenso abliefern wie Daten und Aussagen über den Stand der Gesundheitspflege. 3. Alle Aussagen des Systems müssen auf klaren Fakten aufbauen. Behandlungen sind nach den Standards der Gesundheitspflege auszuwählen, nach empirischen Daten und medizinischer Literatur. Diese Abstützung auf belegte Fakten ist ständig zu aktualisieren. 4. Zoe soll die Datenspeicherung zentralisieren. Daten aus einzelnen Behandlungen sollen in die Gesamtheit einfließen, auch als Basis für neue Ableitungen und Entdeckungen. 5. Mit quantum relations-fähigen Computern kann man dann jede Behandlung anhand dynamischer, interaktiver Verlaufsdarstellungen nachverfolgen. Das System soll dazu die Kommunikation zwischen Patienten und Versorgern und zwischen öffentlichen oder privaten Versorgern organsieren (ibid.: 143) und absichern, dass Privates trotzdem privat bleibt. Zoe soll dann die gesamthaft effektivsten Behandlungsinformationen empfehlen (ibid.). Entscheiden soll danach der Patient. Das eine oder andere dieser Ziele mag etwas banal klingen; etwa, dass Patienten sich in einem solchen System untereinander austauschen können. Doch es ist alles andere als banal; es ist nötig. Jorge Armanet, Chef einer solchen Plattform namens Health Unlocked, berichtet: Zwei Drittel der Patienten, die dort einloggten, hatten sich noch nie mit jemandem austauschen können, der gesundheitlich so gestellt war wie sie oder er. Das galt sogar für drei Viertel aller Patienten, die zwei gesundheitliche Probleme gemeinsam hatten, und für alle mit einer seltenen Krankheit. Über drei Viertel der Patienten fühlten sich besser, weil sie so auf ihren Gesundheitszustand Einfluss nehmen konnten, auch wenn nur ein Viertel deshalb seltener zum Arzt ging. Mehr als die Hälfte der Patienten kam mit ihrem Arzt besser zurecht, und fast alle, nämlich 96 Prozent, würden diese Plattform weiterempfehlen (Roche 2017: Armanet). Zweimal zehn Erfolgsparameter Was das Zoe-System leisten soll, fasst Hardys Team in zehn Punkten zusammen: 1. Es soll über jeden Patienten Gesundheitsberichte aller Art in einer kompletten und für Berechtigte jederzeit zugänglichen elektronischen Gesundheitsakte vereinen. 202 8 Der nackte Patient 2. Zugangsberechtigt sollen Patienten, Gesundheitsversorger, Wissenschaftler und Kliniken samt deren Verwaltungen und Versicherer sein. 3. Datenfluss und Datenspeicherung sollen sich nach dem Schutz der Privatheit und der Datensicherheit richten. 4. Der Patient und der Gesundheitsversorger - also der Arzt, der Apotheker, die Klinik - sollen über kontextaffine Schnittstellen kommunizieren, damit Daten auf möglichst einfache Weise in die elektronischen Akten einfließen. 5. Ein automatisches System der Patientenbeobachtung mit Alarmfunktionen soll integriert werden. Sollte es beim Patienten Probleme feststellen, die nicht unbehandelt bleiben dürfen, soll es zunächst den Patienten selbst und dann auch einen Versorger unterrichten. 6. Kontextsensible Instrumente sollen es einfacher machen, über Diagnosen und Behandlungen zu entscheiden. Auch auf diese Daten sollen Patienten und Gesundheitsversorger zugreifen können. 7. Neben medizinischen sollen auch soziodemografische Faktoren wie Stress, die örtliche Umgebung, die Familie, der Beruf und der Lebensstil mitgespeichert und ausgewertet werden, vor allem weil das die Möglichkeiten der präventiven Gesundheitspflege verbessert. 8. Die fallbezogene Forschung soll auf den Datenbestand in anonymisierter Form jederzeit zugreifen können. 9. Patienten und Gesundheitsversorger sollen fortlaufend über neue Befunde informiert werden; dazu soll es Daten über den Informationsbedarf des Einzelnen und statistische Abgleiche geben, damit faktenbasierte Information Echtzeit bereitsteht. 10. Die medizinische Literatur soll komplett integriert und durch Daten aus den Krankenakten der Patienten vervollständigt werden (ibid.: 146). In nochmals zehn Punkten hat das Team schließlich dargelegt, wie das System Patienten dazu bringen soll, sich selbst zu helfen, so lange das verantwortbar ist: 1. Sobald der Patient sich einloggt, soll er seinen persönlichen Bereich auswählen können. Dort kann er mit Gesundheitsversorgern und Versicherern kommunizieren, um Antworten auf seine Fragen zu bekommen. Für jedes neue Thema kann er dort einen eigenen Speicherplatz schaffen und diesen passend gliedern. Gespeicherte Ordner kann er als klinisch kennzeichnen; dann erlaubt er Ärzten, darin zu lesen. Kennzeichnet er sie als administrativ, erlaubt er auch den Dialog zwischen ihm und beispielsweise einer Versicherung. Auch Mails zwischen ihm und anderen werden gespeichert und sind auf Wunsch sichtbar. Ganze Mailkorrespondenzen ermöglichen es dem Patienten, Zusammenhänge nachzuvollziehen. 2. Der Patient soll Daten über frühere gesundheitliche Probleme, Behandlungen, Impfungen etc. in das System eingeben und dort nachlesen können, ebenso Informationen über seinen aktuellen Gesundheitsstand, seine Lebenssituation sowie Werte und Vorlieben. 3. Der Patient soll seine Krankenakte selbst organisieren können. Sie soll eine Kombination von Auskünften enthalten, die einerseits von ihm selbst stammen, andererseits aus Diagnosen und Behandlungen des Gesundheitsdienstes und von Diagnose-Labors. Er soll volle Kontrolle über die Datensicherheit haben und auch darüber, welcher Teil der Akte von wem eingesehen werden kann oder nicht. Er soll schließlich festlegen können, dass ein bestimmter Mediziner nur in bestimmte Teile seiner Krankenakte Einblick bekommt. 4. Jeder Patient mit einem Gesundheitsproblem soll in seiner Akte Symptome speichern können. Das System soll ihm dazu ein Minimum an Fragen stellen, auf die Antworten nötig sind, damit Spezialisten Beschwerden verstehen und einordnen können. Auf dieser Basis errechnet der Computer die Anfangsdiagnose in einer Sprache, die der Patient versteht. 8.3 Zoe - die Vision einer gesünderen Welt 203 5. Der Patient kann sich vom System Auskünfte über Behandlungsvorschläge geben lassen, die auf dem Stand der Medizin sowie auf der Bewertung von Behandlungen anderer (dem Patienten namentlich nicht bekannter) Patienten mit ähnlichen Beschwerden fußen, sofern diese in Zoe gespeichert sein werden. 6. Das System soll klare und verlässliche Auskünfte auch über Alternativen zum Besuch eines Arztes anbieten. Dazu soll der Patient genaue Angaben über präventive und alternative Behandlungsmöglichkeiten erhalten, etwa holistische, pflanzliche, homöopathische und traditionelle aus der chinesischen Medizin etc. 7. Will der Patient einen Arzt oder einen anderen Gesundheitsdienst etwa für Akupunktur, Homöopathie, Naturheilverfahren, einen Chiropraktiker, einen ayurvedischen Heiler usw. kontaktieren, soll das Zoe-System ihm helfen, einen zu finden. Es soll die Namen und Adressen solcher Mediziner sowie deren Rufnummern nennen, Mailanschriften und Webseiten, die örtliche Nähe, die Spezialisierung, die Bewertung der Behandlungsqualität, die Krankenkassenzulassung etc. Der Patient soll dann auswählen können. 8. Der Patient soll Termine online buchen und auch den Terminkalender seines Arztes einsehen können, aber dort keine anderen Namen erkennen. 9. Die Wirksamkeit von Anwendungen oder Abwehrsignale des Körpers soll sich der Patient anzeigen lassen können. Mit seiner Erlaubnis sollen andere Patienten, Ärzte, oder Forscher anonymisierte Infos für klinische Versuche verwenden dürfen. 10. In der Präventivmedizin soll das System für jeden Anfrager je nach dessen persönlicher Herkunft, seinem Lebensstil und dem Gesundheitsverlauf in seiner Familie die Höhe des Gesundheitsrisikos beurteilen und mitteilen können. Zoe soll es pharmazeutischen Forschern ermöglichen, weltweit Patienten zu finden, die Symptome aufweisen, welche sie für klinische Versuche benötigen. Dazu soll das System Patienten, die einwilligen, mit Ärzten in Kontakt bringen. Das würde die Effizienz und die wissenschaftliche Bedeutung solcher klinischen Versuche nicht nur wesentlich steigern, sondern auch billiger machen. Da Zoe Unmengen medizinischer Daten verarbeiten soll, könnten Ergebnisse klinischer Versuche bald für nahezu jedermann zu ungleich geringeren Kosten als bisher zur Verfügung stehen. Man sollte sich klarmachen, was allein dieser Paradigmenwechsel in der medizinischen Versorgung wert sein dürfte (ibid.: 161). Zoe soll medizinisches Wissen aus allen globalen und fachlichen Quellen vereinen und verarbeiten, gerade auch Forschungsergebnisse. Es soll deshalb Schluss machen mit dem Problem, dass es zu Beginn des 21. Jahrhunderts noch durchschnittlich 17 Jahre dauerte, bis neue medizinische Erkenntnisse, die auf anonym gesammelten Daten basieren, in die Praxis einfließen - und selbst dann werden sie sehr bisher ungleich genutzt (ibid.: 160). Ein Modell in neun Pluspunkten 1. Zoe mindert die Gesundheitskosten, weil es das Gesundheitssystem effizienter macht,weil automatische Entscheidungshilfen den Zeitaufwand für Ärzte verringern, weil es die ärztliche Produktivität hebt, Fehler reduziert, die Vorsorge verbessert und die Kosten der Verwaltung und klinischer Erprobungen senkt. 2. Weil alle Behandlungen und Arzt-Patienten-Beziehungen aufgezeichnet werden und alle Beteiligten sie deshalb nachverfolgen können, haben Betrügereien keine Grundlage mehr. 3. Zoe wird die Qualität medizinischer Leistungen anheben, weil es medizinische Einsichten ebenso fördert und verbessert wie die Haftung für medizinische Standards und die Einbeziehung von Werten und Wünschen des Patienten. Auch Irrtümer werden erfasst; das System sendet Warnungen, wenn Fehler auftauchen, und ein lernendes System hilft, Fehler zu reduzieren. 204 8 Der nackte Patient 4. Alle Patienten haben stets Zugriff zu Informationen bestmöglicher Qualität und können die Behandlung, die sie bekommen, mit allen gespeicherten Behandlungsstandards abgleichen. Freilich beseitigt dies nicht das Problem, dass im Internet auch unseriöse Gesundheitsempfehlungen kursieren. Ärzte wissen das nur zu gut, aber Patienten werden verunsichert (Bartens 2018). Vielleicht verschweigt deshalb jeder dritte Patient seinem Arzt, ob er sich im Internet orientiert hat (ibid.). 5. Zoe beseitigt Doppelarbeit. Wenn ein Patient ein Datenblatt ausfüllt, wird es automatisch gespeichert und stetig ausgewertet. Das ist besonders dann wichtig, wenn ein Patient die Klinik wechselt, die Station, den Arzt oder den Spezialisten. 6. Zoe soll die umfassende Kommunikationsplattform für medizinische Versorger, Praktiker, Kliniken, Forschungsinstitute und Patienten werden. Sie soll die Kommunikation zwischen allen organisieren, einschließlich der Übertragung von Röntgenbildern, Laborergebnissen, Akten usw., soll Beratungen und Zweitbeurteilungen vermitteln und nach Bedarf medizinische Teams zusammenstellen. 7. Zoe soll die Flut an weltweiten medizinischen Publikationen so verdichten, dass Auswertungen jeder Art möglich werden. Daten aus unzählbaren Terminen mit Patienten in aller Welt haben für die Menschheit insgesamt große Bedeutung. Der auf lange Sicht wichtigste Vorzug von Zoe soll darin bestehen, in dieses Reservoir hineingreifen zu können, um mit diesem vergleichenden Wissen den einzelnen Patienten besser helfen und die wissenschaftliche Forschung weiter voran bringen zu können. 8. Der Patient behält in Zoedie Kontrolle über die Privatheit seiner Krankendaten, weil er den Zugriff nur auf nur die Daten erlaubt, die er dafür für wesentlich hält. Jeder Patient kann zugleich alle öffentlich zugänglichen Aspekte des Gesundheitswesens verfolgen. Das fördert die Selbstverantwortung der Patienten besonders im Bereich der Vorsorge und respektiert persönliche Präferenzen und Wünsche. 9. Die Zoe-Programmatik basiert darauf, die unterschiedlichen Überzeugungen und Praktiken der Medizin miteinander zu verbinden und zu harmonisieren. Das System fördert eher die Integration als die Auseinandersetzung über Heilmethoden rund um die Welt. Es erleichtert die Zusammenarbeit zwischen westlichen und östlichen Gesundheitssystemen und fördert höchste Standards, wie das eine auf messbaren Erfolgen basierende Medizin auch verlangt (ibid.: 176 f.) „Als ich dieses Projekt Zoe niederschrieb“, sagt Hardy heute, „war es noch eine Vision, eine Theorie. Inzwischen beginnt es aber Praxis zu werden. Inzwischen haben viele Hospitäler damit begonnen, nach dieser Maxime zu handeln. Das ist die beste Verifizierung, die man sich vorstellen kann.“ 8 8..44 DDaatteennsscchhuuttzzpprroobblleemmee Medizinische Praktiker werden sich freuen, wenn ein System wie Zoe ihnen alle verfügbaren Daten über einen Patienten und die Chancen seiner Behandlung frei Haus liefert. Datenschützer werden jedoch die Hände über dem Kopf zusammenschlagen. Denn es widerspricht heute noch allen Vorsichtsmaßnahmen, die der Datenschutz gegen eine nahezu ungehemmte Verfügbarkeit über Daten aufrichtet. Diese Vorsichtsmaßnahmen sind erstens die Zweckbindung von Datenerhebungen; sie gilt im Gesundheitswesen besonders streng. Und zweitens gilt für Heilberufe und deren Einrichtungen die ärztliche Schweigepflicht, wenn der Patient sie hiervon nicht entbindet. Das unbefugte Offenbaren von Patientendaten ist in Deutschland nach § 203 StGB strafbar. 8.4 Datenschutzprobleme 205 Wer im deutschen Gesundheitswesen rechtskonform arbeiten will, darf aber nicht nur ins Strafgesetzbuch blicken. Föderale Datenschutzordnungen gerade im Gesundheitswesen haben in Bund und Ländern eine Vielzahl weiterer Regelungen erzeugt. Grundsätzlich gilt wie stets, dass Bundesrecht Vorrang vor Landesrecht hat. Aber die Vorschriften summieren sich zu einem wahren Dickicht aus Sozialgesetzbuch (SGB V), Bundesdatenschutzgesetz (BDSG), Sonderregeln für bestimmte Patientendaten (GenDG, TPG, AMG und KFRG), der Schweigepflicht (§ 203 StGB) und dem Datenschutz im Krankenhaus mit abweichenden Regelungen für kirchliche Krankenhäuser sowie Vorschriften über die Freiwilligkeit jeder Behandlung, der Aufklärungspflicht über deren Bedingungen und mögliche Folgen, der Angemessenheit von Formulareinwilligungen, ihrer Widerruflichkeit mit Wirkung für die Zukunft, ausgenommen klinische Studien nach dem Arzneimittelgesetz, den allgemeinen Aufnahmebestimmungen, dem Vorhabensbezug bei Forschungsvorhaben, manchmal allerdings nur für die krankenhausinterne Forschung, der Einhaltung von Pflichten zur Benachrichtigung, der Pflicht zur Anonymisierung vor Smart Data-Verarbeitungen, dazu dem verhältnismäßigen Aufwand und alternativ der Pseudonymisierung, also dem Ersetzen von Namen durch andere, um auszuschließen oder zu erschweren, dass der betroffene Patient erkannt werden kann. Anonymisierung löst übrigens nicht das Problem der Diskriminierung, weil dieses nicht personengebunden ist, sondern ganze gesellschaftliche Segmente betreffen kann, etwa ‚die‘ Schwarzen, ‚die‘ Juden, ‚die‘ Frauen (Jaume-Palasí 2017). Das sogenannte blind recruiting kann Diskriminierung sogar noch verstärken (Belot 2017). All das durchschauen nur noch Experten. Datenschützer behaupten rundheraus: Ein Big Brother-System wie Zoe geht gar nicht. Unter der Überschrift Big Brother hatte George Orwell 1949 einen im Jahr zuvor fertiggestellten, 1984 spielenden Roman publiziert, in dem der fiktive Diktator des totalitären Staates Ozeanien seine Bürger bis zur Perfektion kontrolliert und unterdrückt. Orwell wusste genau, worüber er schrieb: Jahrelang wurde er selbst durch den britischen Geheimdienst überwacht. Der Titel enthält den Zahlendreher des Jahres 1948 zu 1984 als Anspielung auf eine zwar damals noch fern erscheinende, aber eng mit der damaligen Gegenwart verknüpfte Zukunft. 1984 ist vergangen und die Manipulationsmöglichkeit durch Daten sind fast unendlich gestiegen, nicht zuletzt bei Daten zum eigenen Körper. Muss Zoe deshalb ein monströser Traum bleiben, so effektiv und so effizient seine Umsetzung auch klingen mag? Nein, sagen seine Verfechter. Zoe sei einzigartig, weil dieses Programm medizinische Informationen nicht nur standardisiert speichern werde, sondern seine Daten auch mit ethischen Aspekten, religiösen Überzeugungen, dem gewählten Lebensstil, geografischen und Umweltbedingungen, der Erziehung und anderen Faktoren abgleichen werde, die die Gesundheit einer Person beeinflussen können - das sei medizinisch entscheidend. Rigoros durchzusetzende Standards hätten zu gewährleisten, dass der Patient seine Daten dennoch unter Kontrolle halten kann, so dass sie nur mit seiner Zustimmung benutzt werden können (ibid.: 167). Und mehr als das: Die Zoe-Erfinder kommen geradezu ins Schwärmen: „Mit Zoe kann der Patient alle Aspekte des Gesundheitswesens beobachten und sich so schnell in die Gesundheitsthematik einarbeiten.“ Dazu plant das System den „Zoe Lebenspartner“, einen elektronischen Avatar des Patienten in einem virtuellen Gesundheitssystem. Das betone die Verantwortung des Patienten besonders auf dem Gebiet der Gesunderhaltung, schreiben die Zoe-Planer weiter: Von Anfang an solle Zoe dem Patienten und seinen Gesundheitsversorgern nämlich nicht nur gewöhnliche Krankeninformationen liefern, sondern auch auf ihn persönlich zugeschnittene Wellnessinformationen. Das beginne bei so einfachen Dingen wie der täglichen Gewichtskontrolle mit gleichzeitigem Kalender für Rücksprache beim Arzt, solle weitergehen mit der Verschreibung von Medikamenten und umfasse für Patienten mit Erkrankungen, die häufig auftreten, zum Beispiel Diabetes, 206 8 Der nackte Patient auch den Kontakt zu sozialen Netzwerken mit Unterstützer- und Selbsthilfegruppen. Die Grundidee heiße, den Gesundheitsdienst nicht zu zersplittern, sondern ihn möglichst gesamthaft zu organisieren und jeden Patienten zu ermutigen, das Zoe-System als Teil seines Alltags zu nutzen (ibid.: 178). Dreh- und Angelpunkt privacy Ein globales digitales Gesundheitssystem wie Zoe steht und fällt mit der Antwort auf die Frage, wie bei seiner erwünschten Offenheit für Ärzte und Kliniken zugleich die Vertraulichkeit persönlicher Daten zu gewährleisten ist. Die Zoe-Strategen lassen keinen Zweifel daran, dass ihnen diese Hürde bewusst ist und dass auch sie die privacy, also die Privatheitdieser Daten gewährleistet sehen wollen. Sie äußern sich aber bisher nicht dazu, wie das geschehen soll. Auf einem parallelen Feld, nämlich dem der Finanzen, ist die Digitalisierung wesentlich weiter fortgeschritten als im Gesundheitswesen. Dass Banken und Finanzämter online arbeiten, erscheint selbstverständlich. Es lohnt sich deshalb, einen Blick auf deren Datenschutzregeln zu werden; sie dürften grosso modo auch auf das Gesundheitswesen übertragbar sein. Kreditinstitute regeln den Zugang zu Kontodaten bekanntlich auf zwei Wegen, einem offline und einem online. Wer sein Konto online führt, braucht eine Konto-ID und eine sogenannte Persönliche Identifikations-Nummer, eine PIN. Beide kann er frei wählen. Die ID kann er sich ausdenken, muss er sich merken oder kann dazu eine existierende Zahlenreihe nutzen, etwa die Kontonummer. Die PIN kennt nur er selbst; sie ist nirgends sonst hinterlegt. Mit diesen beiden Schlüsseln kann er sein Konto öffnen und betrachten, aber noch keine Transaktionen ausführen, etwa eine Überweisung. Dazu benötigt er eine zusätzliche, nur wenige Minuten und nur einmal gültige Transaktionsnummer, eine TAN, die das System erst unmittelbar vor der Auftragsannahme generiert und ihm auf einem separaten Kanal übermittelt, etwa via SMS. Erst wenn er auch diese eingibt, nimmt das System seinen Auftrag überhaupt an. Für den offline-Zugang ist nur seine Kontonummer auf seiner Bankkarte gespeichert. Jeder Überweisungs- oder Geldautomat verlangt zusätzlich die PIN. Noch deutlich aufwendiger, aber auch sicherer funktioniert das Identifizierungssystem der Finanzverwaltung. Am Beginn steht eine online-Anfrage, auf die man zunächst an einen Bestätigungs-Link antworten muss. Dann muss man unter anderem einen Kurznamen vergeben. Hierauf antwortet das System auf zwei getrennten Wegen: mit einem Mail, das zu diesem Kurznamen eine 19-stellige Aktivierungs-ID mitteilt, und mit einem Brief, der dazu einen zwölfstelligen Aktivierungscode aus Buchstaben und Zahlen übermittelt. Zusätzlich sendet das System zum Kurznamen noch eine Authentifizierungsdatei, die sich im PC des Nutzes verankert und die man von dort auch nicht übertragen kann; vielmehr muss man, wenn man das Eingabesystem der Finanzverwaltung aufruft, ihm anzeigen, wo diese Datei gespeichert ist, damit es sich diese dort holt. Erst dann sowie nach der Eingabe des Kurznamens, der ID und des Codes erklärt das System sich bereit, Daten entgegenzunehmen. Die sinnvolle Adaption solcher Regeln auf zu speichernde Gesundheitsdaten etwa von Untersuchungsbefunden, Röntgenbildern und Arztbriefen bis zu Medikationen soll auch diese Daten gegen unberechtigte Zugriffe absichern können. Muss jemand irgendwo in der Welt, sei es auf einer Geschäftsreise oder im Urlaub, einen Arzt oder eine Klinik aufsuchen, könnte er dann statt seiner Bankkarte seine Gesundheitskarte als Schlüssel zu diesen Daten benutzen. Aber das ist noch ebenso zu erörtern wie die Frage, welche Zugriffsmöglichkeiten zusätzlich nötig sein werden,etwa für einen Arzt in einem Notfall, wenn ein Patient war die Karte eindtecken hat, aber vielleicht nicht ansprechbar ist. Effenso offen ist, in welcher Form die Wissenschaften, die Pharmaindustrie und die Versicherungsbranche Zugriff auf derartige, in allen diesen Fallen zu anonymisierenden Datenbestände bekommen sollen und was sie mit ihnen anfangen dürfen. 8.4 Datenschutzprobleme 207 Wenn es im Gesundheitswesen ohne sensible personengebundene Daten unterschiedlichster Art nicht geht, sollen sie zumindest sicher verwahrt sein, sagt Microsoft und offeriert bereits eine Art Gesundheitsschließfach, healthvault genannt, um sie in der cloud verlässlich speichern zu können. Google und amazon haben ähnliche Projekte vorangetrieben (Schulz 2017a: 71). Die Konzerne beeilen sich nach Schulz‘ Angaben (ibid.) zu versichern, in puncto Datensicherheit aus früheren Fehlern gelernt zu haben. Für sensible Gesundheitsdaten gebe es keinen sichereren Ort als bei ihnen. Dort besitzen die Betroffenen ihre Daten selbst und entscheiden nach den Worten von Microsoft-Forschungschef Peter Lee auch selbst, wem sie „Zugang zu diesen Daten gewähren und wieder zurücknehmen“ (ibid.). Alle skizzierten Sicherheitsschlüssel beruhen auf der Funktionsweise des heutigen Internets. Werden Gesundheitskarten künftig via Blockchain gelesen, ergeben sich andere Absicherungsmöglichkeiten, die im Abschnitt über die Blockchain schon umrissen ist. Und wird Prisma Analyticseingesetzt, ergeben sich nochmals deutlich attraktivere Einsatzmöglichkeiten.Schon 2007 hatten Heiner und Hardy, die quantum relations-Protagonisten,beiPatentpool das Management privater Gesundheitsdaten erörtertet. Die Skepsis, ob Menschen massenhaft ihre Gesundheitsdaten für maschinelle Analysen zur Verfügung stellen würden, war da schon ein wichtiges Thema. „Wer lässt schon gern die Hosen herunter? “ hatte Heiner gefragt und hinzugesetzt. „Heute meint jeder, kaltschnäuzig oder nicht: Privacy, das ist doch Geschichte? Was ist privacy? Wo gibt es die noch? Die gibt es nicht mehr, außer wenn wir ein Geheimnis miteinander teilen. Das können wir schon privat halten. Aber wenn wir etwas am Telefon besprechen, wird man das wissen, von Facebook gar nicht zu reden.“ Nach Jahren der Erprobung und allmählichen Einführung von Gesundheitskartenist Hardyheute überzeugt: „Die einzige plausible Absicherung von privacy im Gesundheitssystem steckt künftig im Zoe-System. Dort kann der einzelne Patient jede ihn betreffende Information im System entschlüsseln und festlegen, wer was zu sehen oder zu lesen bekommt und wie lange. Lässt ein Patient beispielsweise bei einem Arzt einen checkup machen, eine Gesundheitskontrolle, kann er ihm sagen: ‚Für diesen checkup erlaube ich Ihnen den Zugriff auf meine Daten, damit Sie für Ihren Befund eine Vergleichsgrundlage haben, für 24 Stunden. Danach ist dieses Fenster wieder geschlossen‘.“ Hardy sieht eine Entwicklung vor sich, in der ein Patient mit seinem Smartphone in seiner Gesundheitsakte blättern und dann situativ entscheiden kann, welche Aktenblätter er wem zu lesen erlaubt. Die Struktur von Prisma Analytics lasse auch eine solche Anwendung zu. Ohne sichere firewalls gegen unberechtigte Zugriffe hätte das Zoe-System auch auf der Basis von Prisma Analytics kaum eine Chance. Gelingt es aber, diesen Knoten zu lösen, sind die Effekte vermutlich enorm: Jeder Betroffene kann dann seine Gesundheitsakte selbst lesen und lernen, sie zu verstehen. Ist das der Fall, besteht Aussicht, dass er gesundheitsbewusster lebt. Jeder Arzt kann die Krankheitsgeschichte seines Patienten auf Knopfdruck aufrufen. Das verhindert kostentreibende Doppeluntersuchungen und ähnliche vermeidbare Arbeit und beugt Fehldiagnosen vor. Schließlich bekäme die Wissenschaft Einblicke in den Gesundheitszustand der wie in ein offenes Buch. In der Forschung und Nutzung medizinischen Wissens könnte sie leichter Schwerpunkte setzen. Wenn die Aussichten auf ein solches System so prickelnd sind - warum steht es dann nicht schon zur Realisierung bereit? „Um Prisma Analytics in seiner jetzt ausgefeilten Form marktreif zu machen“, erläuterte Hardy kurz vor dem Marktstart, „haben wir alle Kapazität eingesetzt, über die wir verfügen.“ Mit geringem Zusatzaufwand lasse sich diePrisma Analytics-Grundstruktur aber so umprogrammieren, dass sie, statt einem Manager für eine firmenpolitische oder wirtschaftliche oder finanzielle Entscheidung den nach Zeit und Umfeld optimalen decision point anzuzeigen, einem Zeitgenossen seine körperliche performance signalisiert: wie diese sich entwickelt und verändert, wodurch, ob zum Besseren oder zum Schlechteren, wie schnell oder langsam, aufgrund welcher Einflussfaktoren und aufgrund 208 8 Der nackte Patient welchen Verhaltens, so dass der Zeitgenosse erkennt, ob und wo Handlungsbedarf besteht, ob er nur seine Ess- und Bewegungsgewohnheiten ändern oder ob er einen Arzt aufsuchen sollte, und wenn ja, welchen. „Über solche Weiterungen“, setzt Hardy im Herbst 2017 hinzu, „habe ich aus Zeitgründen bisher nicht einmal nachdenken können. Klar ist aber, dass sie von der Systemarchitektur her möglich sind. Klar ist auch, dass sie sinnvoll sein werden. Also werden sie kommen. It’s just a matter of time.“ 99 GGlläässeerrnn ssiinndd wwiirr sscchhoonn jjeettzztt Gibt es für irgendeine Privatheit noch eine Chance? In Deutschland wie in der EU bestimmt der Persönlichkeitsschutz den Umgang mit Daten. Sparsamkeit im Datengebrauch und der Schutz der Privatheit stehen als Rechtsgüter obenan. Auf Big Data passt dieser Rechtsrahmen aber nur schwer; neue Regeln sind nötig. Was rechtens ist, muss außerdem noch nicht richtig sein; denn ethische Fragen reichen über das gesetzlich Erlaubte weit hinaus. Eine Datenschutzethik entsteht allmählich. 9.1 Was wird aus der Privatsphäre? 209 9.2 Wem gehören Daten? 213 9.3 Der Datenklau von Cambridge Aalytica 214 9.4 Das deutsche Datenschutzrecht 217 9.5 Die EU-Datenschutzgrundverordnung 221 9.6 Eckpunkte einer Datenstrategie in der Welt von Big Data 223 9.7 Privacy by Desi g 226 9.8 Die Digitalcharta 230 9.9 Was ethische Normen leisten können 234 9.10 Ethical Alligned Design 236 9.11 Ein Leitlinienentwurf von Bitkom 237 9.12 Cybersicherheit ist eine globale Aufgabe 239 99..11 WWaass wwi irrdd aauus s dde er r PPrriivva atts spphhä ärree? ? Neu ist die Auseinandersetzung über die Privatsphäre nicht. Schon in der Gründerzeit des späten 19. Jahrhunderts änderte sich das Verhältnis von Privatheit und Öffentlichkeit nämlich radikal: 1876 wurde das Telefon erfunden, im Jahr darauf stellte Thomas A. Edison den Phonographen vor, 1888 wurde die Momentphotographie möglich und 1890 die Kinematographie. Das wurde gefeiert, aber als Möglichkeit zur „Überwachung, totalen Transparenz und des Verlusts der Kontrolle über alle privaten Äußerungen“ auch kritisiert. Zahlreiche Schlagzeilen verkündeten damals den „Niedergang“, die „Abschaffung“ oder das „Ende“ des Privaten, weil technische Innovationen die Übertragung, Speicherung und Reproduktion von Bildern und Tönen erlaubten. Und schon 1890 forderten die zwei US- Juristen Warren und Brandeis aus der Einsicht heraus „gossip … has become a trade“ - Geschwätz sei zur Handelsware geworden - erstmals ein Recht auf Privatheit, „the right to privacy“ (Scheutle/ Adler 2017: 83). Die Privatsphäre ist also schon lange gefährdet, nicht erst durch das Silicon Valley, das Internet, soziale Netzwerke oder Praktiken der NSA. Daten können außerdem auf wundersamste Weise auf Irrwege geraten, manchmal aus purer Gedankenlosigkeit. Das US-Unternehmen Strava Heatmap beispielsweise, das US-Militärs sportlich trainiert, publizierte für Soldaten im Netz Trimm-dich-Pfade, die naheliegenderweise über deren Militärbasen verliefen, und machte so Teile der geheimen militärischen Infrastruktur öffentlich (BMBF/ Wi 2018: Federrath). Das Pentagon war nicht amüsiert. Jenseits solcher Pannen verläuft das Datensammeln unvermindert auf gigantischen Niveau. Es hebelt nicht nur die Privatheit des Einzelnen aus, sondern wird damit auch zu einer „Gefahr für die Demokratie: Google weiß, was wir denken, AmazonsKindle Reader, was 210 9 Gläsern sind wir schon jetzt wir lesen; YouTube und die Spielkonsole wissen, was wir sehen; Siri und Alexa lauschen unseren Gesprächen Apple und IBM vermessen unsere Gesundheit… Und unser Auto ist ein Datenkrake“ (Helbing 2018). Die Entwicklung geht rasant voran: „Die KI-Software Alexa, die im Amazon-Echo-System steckt, hatte 2014 noch 13 skills. „Heute sind es über 50.000“, berichtete Rohit Prasad, Vice President und Chefforscher Alexa AI (Rüdiger 2018a). In China kontrollieren Datennetze rigoros den Alltag der Bürger (wir kommen darauf noch zu sprechen) und die „Karma-Police“ des britischen Geheimdienstes „fungiert quasi als digitales jüngstes Gericht“ (ibid.). In einem solchen Umfeld wird Datenschutz zu einem Kernziel der Demokratie: die Privatsphäre der Menschen zu schützen. Die wahre Bedrohung für die Privatsphäre geht heute in der westlichen Welt weniger vom „großen Bruder“ staatlicher Institutionen aus, sondern von vielen „kleinen Brüdern“ in Form von Unternehmen: „Nicht der Bürger ist im Visier der Schnüffler, sondern der Konsument“ (Stampfl 2013: 61). Das hat handfeste wirtschaftliche Gründe: Persönliche Daten sind die „Währung des Internetzeitalters“ (ibid.: 42); „im Internet sind wir die Ware“ (Eberl 2016: 265). „You have zero privacy anyway. Get over it“, sagte Scott McNealy, CEO von Sun Microsystems, schon 1999 (ibid.: 66); „Du hast null Privatheit, finde dich damit ab“.Just zu dem Zeitpunkt, als auch der Facebook-Gründer Mark Zuckerberg ausrief „The age of privacy is over“ - die Ära der Privatheit ist vorbei - und hinzufügte, Privatheit sei keine ‚soziale Norm’ mehr (ibid.: 23), kaufte er übrigens für 30 Millionen Dollar vier Häuser rund um sein Privathaus auf, um so seine Privatsphäre zu schützen (Hankey/ Tuszynsky 2017: 94). Zuckerbergs Satz sollte nach Stampfls Ansicht aber ohnehin nicht als Zustandsbeschreibung aufgefasst werden, sondern eher als Handlungsmaxime: „Facebook zeichnet nicht nur gesellschaftlichen Wandel nach, sondern ist ganz wesentlich Motor desselben“ (2013: 23). Im Internet genügt es, beispielsweise bei der Software Spokeoeinen Namen einzugeben, und sofort erhält man „ein digitales Dossier über die betreffende Person, das die genaue Adresse anzeigt, das Alter, den Beziehungsstatus und den Beruf und das Auskunft erteilt über Hobbys, ob der Gesuchte Hausbesitzer ist und welchen geschätzten Wert das Eigenheim hat, wie groß es ist und wie lange er schon darin wohnt“ (ibid.: 46). Ähnliche Einblicke in das Privatleben offeriert das Programm RapLeaf.Twitnest zeigt das Netz von Twitterern und Followern sowie auf Mausklick ein Beziehungsprofil; Klout legt offen, womit sich ein Twitter- Mitglied auseinandersetzt; Heypic ermittelt via Twitter geografische Informationen auf der Basis von geotags in Fotos (ibid.: 45) und so weiter und so fort. „So werden unsere Daten zur Basis für die Berechnung unseres Lebens“ (Stampfl 2013: 14). Aber sie müssen nicht stimmen. Nach einer schon ein Jahrzehnt alten Einschätzung von Ellison, Heino und Gibbs (2006) sollten wir uns generell „davor hüten, Kommunikationen über soziale Netzwerke und digitale footprints als ‚authentisch‘ zu verstehen. Posts, tweets, hochgeladene Fotos, Kommentare und andere Arten von Online-Aktivitäten gewähren keineswegs immer einen Blick ins Innere ihrer Urheber - sie werden „oft sorgfältig kuratiert und systematisch verwaltet“ (Manovich 2014: 71), also in vielfacher Weise geschönt. Facebook filtert Nacktheit. Auch Bilder nackter Statuen erscheinen dort nicht. Das Programm kann nämlich den Unterschied von Fleisch und Stein nicht bewerten. Ein anderes Programm prüft das Alter von Personen und kommt manchmal zu noch krasseren Fehlurteilen - warum, ist undurchsichtig. Die Befunde werden dennoch zur Beurteilung von Personen benutzt. Ein wieder anderes Programm identifiziert aus nur vier einzelnen Zeit- / Ort-Angaben eines Mobiltelefons in 95 Prozent aller Fälle die jeweilige Person. Denn Bewegungsprofile sind in den allermeisten Fällen sehr eindeutig und charakteristisch (Morgenroth 2014: 61 f.). Ausgewertet werden sie massenhaft: Das Unternehmen Skyhook Wireless bearbeitet täglich 400 Millionen Anfragen, um anhand von Funkwellen die genaue Position mobiler Endgeräte zu ermitteln (ibid.: 62). 9.1 Was wird aus der Privatsphäre? 211 Wenn man dies berücksichtigt, behält der whistle blowerEdward Snowden recht: „Ein heute geborenes Kind wird nicht mehr wissen, was Privatleben ist“ (cit. Morgenroth 2014: 61). Es wächst mit der Erfahrung auf, dass seine privaten Daten kommerziell gesammelt, ausgewertet und genutzt werden. Denn in der digitalen Wirtschaft sind Daten die neuen Rohstoffe und zugleich „zur Währung geworden“ (Stampfl 2013: 68). Sie sind reproduzierbar, auch wenn dies wie bei Geldscheinen verboten sein kann. Sie können urheberrechtlich geschützt sein; dann muss der Urheber ihrer Verwendung zustimmen. Und sie sollten Privatsache sein, wenn sie sich auf Personen beziehen. Was Daten anrichten können Privatheit und Selbstbestimmung, Autonomie und Meinungsfreiheit sind grundgesetzlich geschützt, aber mit rechtlichen Maßstäben allein nicht richtig zu fassen. Können Big Data- Anwender alles tun, was sich wirtschaftlich lohnt, sind sie schnell in Gefahr. Das sieht man jeden Tag: Finanzdienstleister bewerten die Zahlungsbereitschaft von Kunden anhand von deren Kreditkartennutzung - „wer bar zahlt, muss sich fragen lassen, ob er nicht etwas Alkoholisches eingekauft hat“ (Bitkom 2017: Grimm/ Keber). Barzahler gelten als riskantere Kunden. „Wer billiges Motoröl kauft, gehört ebenfalls zur Risikogruppe. Wer dagegen Filzgleiter benutzt, um das Parkett zu schonen, stellt ein kleineres Risiko dar“ (ibid.). Weicht ein US-Wähler zu stark von der Politik der beiden führenden Parteien ab, läuft er Gefahr, auf einer watch list zu landen (Pasquale 2017: 101). Protestiert er gegen den Einkaufsrummel vor Weihnachten, „kann ihn eine Gesichtserkennungs-Software für immer als Volksverhetzer brandmarken“ (ibid.: 101 f.) Nimmt er einmal nicht den üblichen Weg zu seiner Arbeit, kann die Firma Recorded Future ihn als jemand klassifizieren, der etwas zu verbergen haben könnte. Liest er die falschen Blogs, kann das für die Software Squeaky Dolphin des britischen Geheimdienstes auffällig sein (ibid.: 101). Für unbedenklich hält Pasquale dergleichen nur dann, „wenn man davon ausgeht, dass die Infrastruktur dahinter von einer wohlmeinenden Intelligenz getragen wird“ (ibid.). Für Mobiltelefone gibt es auf dem Markt Softwares, die den Benutzer von A bis Z ausspionieren: Gespräche werden mitgeschnitten, Tastatureingaben mitgelesen, Aufenthaltsorte gespeichert. Solche Softwares greifen auf sämtliche Smartphone-Daten inklusive aller Dateien zu, auf Fotos- E-Mails, Kurz- und chat-Nachrichten. „Die Programme sind so geschickt programmiert, dass sie sich verstecken und für den normalen Nutzer unsichtbar agieren“ (ibid.: 67). Werden auch Telefon-, SMS- und GPS-Daten von Freunden einbezogen, lässt sich anhand der Bewegungsdaten eines Mobiltelefons sogar recht gut prognostizieren, wo sich der Telefonbesitzer wahrscheinlich in Zukunft aufhalten wird (ibid.: 62 f.). Durch geschickte Kombination der Daten kann das Programm den Bereich, in dem er sich aufhält, auf knapp 30 Quadratmeter genau vorhersagen (ibid.: 63), also auf die Fläche eines größeren Wohnraums. Wir sollten daher „aufhören, diese Geräte Telefone zu nennen, und sie stattdessen als das bezeichnen, was sie in Wahrheit sind: Spione“ (ibid.: 63). Ein digitales Schattenbild jedes Einzelnen Aus Facebook-likes werden Persönlichkeitsprofile abgeleitet. Der gesamte Lebenslauf, wie wir ihn schreiben, wird so durch einen zweiten ergänzt, der ohne unser Wissen oder zumindest ohne unsere Kontrolle über uns geschrieben wird (ibid.: 99). Anhand von Datenspuren solcher Art rekonstruieren nicht nur Experten des US-Unternehmens Cataphora Sachverhalte und Entwicklungen bis ins kleinste Detail und erstellen Prognosen über zukünftiges Verhalten. Auch immer mehr Personalabteilungen arbeiten so. Sie lesen längst nicht mehr nur Lebensläufe. Wer sie „als Checkliste benutzt, um jemanden anhand seines Lebenskalenders zu beurteilen,“ zeige „Zeichen von Schlichtheit“, sagt Franz Kühmayer, Trendfor- 212 9 Gläsern sind wir schon jetzt scher am Zukunftsinstitut (Waßermann 2018).Ein Lebenslauf verrate Fakten, spannender aber seien die Geschichten zwischen den Zeilen - inklusive der Lücken. Mit künstlicher Intelligenz könne man ein breiteres Spektrum zugänglicher Daten über einen Kandidaten ermitteln und auswerten. Stepstone und Google entwickeln bereits ein „automatisiertes DNA matching zwischen Kandidaten und Unternehmen“ (Schnell, cit. ibid.). Zahlen und Graphen entscheiden auf diese Art über das Schicksal von Menschen, „die nur noch Punkte und Linien sind. Der Mensch ist aber nicht schubladenkompatibel“ (Morgenroth 2014: 187). Oder doch? Der Mensch sei eben eine Maschine, deren Betriebssystem man nur richtig lesen müsse, um sie zu verstehen und zu steuern, ist Elizabeth Charnock überzeugt, die CEO von Cataphora (ibid.: 158). „Am Ende dieser Reduktion eines Menschen auf seine Daten und deren Analyse“, urteilt Morgenroth, „entsteht ein digitales Schattenbild jedes Einzelnen. Das zweite Ich. Solche Schattenbilder verraten Details über Personen, deren sie sich selbst nicht bewusst sind“ (ibid.: 157). Er verbucht solche Ausforschungsmethoden in der Kategorie „Hall of Shame“ (ibid.: 161 f.). Selbst falls das Verhalten von Cataphorarechtlich zulässig ist: Ist es auch moralisch in Ordnung? Das ist sehr fraglich. Ist dann das Urteil Hall of Shame gerechtfertigt? Das kann durchaus sein. Denn anhand von Facebook-likes werden die Nutzer nach Neigungen beurteilt, die aus Big Data stammen und nicht direkt aus dem realen Verhalten. Aber auch das unmittelbare Verhalten lässt sich bereits beobachten und aufzeichnen, und zwar in der privatesten Umgebung, in der eigenen Wohnung. Werden smarte Fernsehapparate mit Kamera und Mikrofonen ausgestattet, werden sie zu solchen Spionen im Haus. Saugt das Smart-TV Daten auf und sendet sie irgendwo hin, ist auch der Partner, die ganze Familie betroffen (ibid.: 208). Ist das nur eine Big Brother-Befürchtung? Nein; das Wort wenn in diesem Satz ist spätestens seit dem Frühjahr 2017 überholt. Wikileaks legte im März dieses Jahres achttausend Dokumente vor, die belegen sollen, dass die amerikanische Auslandsaufklärung mit einer speziellen Software Samsung-Fernsehgeräte des Modells F-8000 mit Kamera und Mikrofon in Wanzen verwandelt. Auch wenn das Gerät den Anschein erwecke, es sei ausgeschaltet, zeichne ein Programm namens Weeping Angel tatsächlich Gespräche auf und sende sie an einen CIA-Server (Planholdt 2017). Die CIAsammelt demnach Audiodateien sogar von verschlüsselten Anwendungen wie WhatsApp. Diese CIA-Praxis zeigt, dass keine digitale Konversation, kein Foto und kein Lebensabschnitt sicher geschützt werden kann. „Alles was wir schreiben oder elektronisch mit einem Telefon übertragen, kann in irgendeiner Form bloßgestellt werden“, bestätigt Robert Cattanach, ein früherer Anwalt im US- Justizministerium (ibid.). Das Unternehmen Open Whisper Systems, das als Krypto-Spezialist Verschlüsselungen von WhatsApp und Signal liefert, sieht seine Technik allerdings nicht von der CIA geknackt (chip.de 2017). Geknackt werde vielmehr die Software der Telefone. So ließen sich Informationen schon vor der Verschlüsselung oder nach ihrer Entschlüsselung abgreifen (ibid.). Zum Hacker-Arsenal der CIA gehören laut Wikileaks malware, Viren und Trojaner, um iPhones, Android-Geräte und Windows-Rechner auszuspionieren. Über die von Enthüller Edward Snowden aufgedeckten Informationen des US-Abhördienstes NSA gehe das weit hinaus, erklärte Wikileaks. Dieser Einsatz sogenannter Cyber-Waffen sei hochgradig gefährlich. Kämen sie in falsche Hände, könnten sie gegen Dritte eingesetzt werden. In der Weiterverbreitung liege ein extremes Risiko, sagte Wikileaks-Gründer Julian Assange (ibid.). Selbst wenn wir die kriminelle Seite der Datenausspähung einmal ausklammern, bleibt festzuhalten: Fast alles, was Firmen an Daten ermitteln, wird kommerziell ausgewertet. Jeder Nutzer wird beobachtet. Weil er das weiß, schränkt er sich vielleicht ein, schon um nicht aufzufallen, oder vermeidet es ganz, sich kritisch zu äußern. Diese dem Betroffenen vielleicht nicht bewusste Manipulation und soziale Kontrolle ist moralisch nicht in Ord- 9.2 Wem gehören Daten? 213 nung. Sie untergräbt das fundamentale demokratische Recht auf freie Meinungsäußerung. Immer geht es dabei um die privacy, um die Privatsphäre, sei es im innersten Kreis der Intimsphäre, in der Familie oder im eigenen Haus, sei es in der Öffentlichkeit. „Es ist meine Entscheidung, ob ich in die Kirche gehe, welche Kleidung ich trage oder ob ich mit einem Freund ein Gespräch worüber in der Öffentlichkeit führe. Auch meine politische Einstellung, meine Meinung über andere oder Daten über meine Gesundheit und meine Formen des Zusammenlebens sind privat“ (ibid.). 99..22 WWeemm ggeehhöörreenn DDaatteenn? ? Daten ohne Zustimmung dessen weiterzugeben, über den sie etwas aussagen, ist nur in Grenzen erlaubt. Gesellschafts-, datenschutz- und marktrechtlichgeht es um den Schutz vor Ausspähung und Datenmissbrauch (Kalss/ Torggler 2017). Offenbar ist das Datenschutzrecht aber nicht „smart genug für die Zukunft“; Regelungsdefizite gibt es beispielsweise für das smart car, das smart home und für smart health sowie ganz generell für Big Data- Analysen (Roßnagel/ Geminn 2016: VII). Mit Big Data umzugehen ist gleichzeitig eine Riesenchance und eine Riesengefahr. Von vielen Chancen war schon die Rede. Die Gefahr lässt sich in ein Schlagwort fassen: Es ist das Risiko, durch Weggabe oder Wegnahme privater Daten nicht mehr selbstbestimmt handeln zu können. Verbraucherschützer sprechen von gefährdeter Datenautonomie und verletzter oder ganz verschwindender Privatheit, von „immer weniger Möglichkeiten der Daten- und Informationskontrolle“ (Hagendorff 2017): „Hacker, IT-Unternehmen, Geheimdienste, Datenbroker, Technikentwickler etc., aber auch das aufkommende Internet der Dinge, Big Data oder intransparente Algorithmen treiben den Kontrollverlust voran. Vormals voneinander separierte Informationskontexte - Intimes, Privates, Öffentliches, Institutionelles etc. - gehen allmählich ineinander über“ (ibid.). Wenn ein Handelsunternehmen Datensätze über einen Kunden verwendet, auch eingekaufte oder aus sozialen Netzen erhobene, setzt es hochgradig komplexe Suchalgorithmen ein. Unterläuft es damit die grundgesetzlich garantierte Privatheit? Man ist geneigt, diese Frage mit ja zu beantworten und dem Handelsunternehmen die rote Karte zu zeigen. Aber so einfach ist es nicht. Wem solche Daten gehören, vor allem Big Data, ist rechtlich nämlich umstritten (Hoeren 2014). Betrachten wir dazu kurz das Beispiel von Daten in einem Automobil. Es sind Fahrzeugdaten, etwa zum Betriebszustand des Motors; die braucht der Autohersteller oder sein Händler für die regelmäßige Wartung. Wahrscheinlich gehören sie dem Unternehmen, das die Technik dazu bereitstellt. Das Auto empfängt Daten über den besten Fahrweg. Die liefert ein Navigationsunternehmen. Sind diese Daten dessen Eigentum oder gehören sie vielleicht der Straßenbauverwaltung? Oder übereignet das Navi-Unternehmen diese Daten dem Unternehmen, das das Übertragungsnetz betreibt? Das ist unklar. Wer ist der Eigentümer von Daten über den Verkehrsfluss und damit über Daten, die auch andere Autos in der Nähe aussenden? Wem gehören die Daten über internetbasierte Informationen, die ein Mitfahrer im Auto herunterlädt? Die Liste dieser Fragen lässt sich verlängern. Die Antwort ist fast immer gleich: Das Eigentum an Daten ist nicht ausreichend geklärt (ibid.). Noch einigermaßen klar ist, dass Daten in einem Unternehmen, die von dessen Maschinen erzeugt werden, dem Unternehmen gehören, vor allem wenn dabei keine eigenschöpferische Leistung erbracht wird (ist die Maschine ein PC, ist das aber schon anders). Geht es um Daten aus Interaktionen von Mensch und Maschine, wird es komplizierter. Sitzt an einem Bildschirm ein Designer, erzeugt er personenabhängige Daten. Wem gehören sie? 214 9 Gläsern sind wir schon jetzt Wahrscheinlich dem Arbeitgeber, der für diese Arbeit bezahlt. Benutzt aber jemand persönliche Daten während der Autofahrt, gehören diese dann der Person oder dem Unternehmen, das das Auto gebaut und ein Kundenportal zur Verfügung gestellt hat? Wieder fehlt eine klare Regelung. Die klarsten Regeln sind Gesetze. Abgesehen davon, dass die Mühlen des Gesetzes langsam mahlen und dass eine Selbstverpflichtung, eventuell durch Zertifizierung, schneller und effizienter funktioniert als eine Regulierung (BMBF/ Wi 2018: Weinhardt), bringt der Rückgriff auf ein Gesetz nur so lange etwas, wie es auch anwendbar ist. Datenübertragung ist eine weltumspannende Aufgabe, und ihre Akteure sitzen in aller Welt. Nationale Gesetze greifen da nur sehr eingeschränkt. Zu fordern, die Politik müsse „für die angemessenen Rahmenbedingungen sorgen“ (Bitkom 2015: 62) ist einfach. Welche Politik? Die jeweils nationale, die europäische, die der UN? Wir werden noch sehen, dass rechtsferne Räume bestehen, in denen sich Nachrichtendienste tummeln, die Daten kaum behindert abgreifen und analysieren. Und schließlich sind Daten ein begehrtes Gut auch für Akteure, die nach Recht und Gesetz gar nicht fragen. Je massenhafter Daten benutzt werden, desto anfälliger werden das Wirtschaftssystem und ganz generell unsere Gesellschaft für Störungen, und zwar nicht nur für fehlerbedingte, sondern auch für absichtsvoll herbeigeführte. Das zeigen Beispiele schnell. In den USA und in Teilen Europas und Japans haben Unbekannte im Herbst 2016 „mit massenhaften Anfragen einen großen Webdienstleister gestört“ (Der Spiegel 2016). Twitter und Netflix, Paypal, Spotify und Amazon waren für Millionen Menschen stundenlang nicht erreichbar. Solche Angriffe werden immer komplexer. Die Täter missbrauchen internetfähige Haushaltsgeräte: IP-fähige Kameras, Drucker, Router, Babytelefone oder TV-Festplattenanschlüsse. „Schwachstellen in der Software der Geräte machen es möglich, dass Angreifer ihre Rechenleistung kapern und daraus Netzwerke aus Millionen Geräten knüpfen, die sie zentral steuern - sogenannte botnets. Die Besitzer der Geräte merken davon meist nichts“ (ibid.). Wer Zugriff auf Big Data-Anwendungen hat und sie entschlossen genug nutzt, kann Wahrnehmungen, Vorlieben und Abneigungen ganzer gesellschaftlicher Bereiche manipulieren und damit ihr Verhalten steuern. Zur Identifizierung von Nutzern werden zunehmend biometrische Daten verwendet, etwa der Fingerabdruck oder die Farbe der Iris. Das soll unberechtigte Zugriffe ausschließen. Beide sind für jede Person einzigartig und gelten deshalb als besonders sicher. Falls allerdings „Ihr Passwort gestohlen wird, können Sie ein neues anlegen. Was aber tun Sie, wenn Ihr Fingerabdruck gestohlen wird? “ (Morgenroth 2014: 60). Auch auf diese Frage gibt es noch keine befriedigende Antwort. Wer sich in verdeckten Bereichen des Internets auskennt, im schon erwähnten darknet, findet dort ein „Amazon für Hacker“ (Morgenroth 2016). Die Gefahr, dass solche tools in falsche Hände geraten, ist real. Im negativsten Fall sehen Skeptiker geradezu eine Apokalypse heraufziehen, sollten sich elektronische Systeme nicht auch abschalten lassen. Der in Oxford arbeitende Philosoph Nick Bostrom fürchtet in einer solchen Krise gar eine existenzielle Katastrophe für die Menschheit (Bostrom 2009). 9 9..33 DDe er r DDaatte ennkklla auu vvo onn CCaammbbrri iddgge e AAaallyyttiiccaa Längst hat der gezinkte Umgang mit Daten auch die große Politik erreicht. Hinter dem Onlinewahlkampf Donald Trumps und vermutlich auch hinter der Brexit-Kampagne steckte „ein und dieselbe Big Data-Firma: Cambridge Analytica“. Diese Tochtergeselllschaft der britischen Strategic Communications Laboratories mit Niederlassungen in den USA, England, Brasilien und Malaysia (Huffpost 2018) hat im Auftrag von Firmen und Politikern Daten 9.3 Der Datenklau von Cambridge Aalytica 215 analysiert: „um das Verhalten von Zielgruppen zu verändern“ (ibid.). Nach Angaben ihresCEOAlexander Nix war das Unternehmen in mehr als hundert weltweite Wahlkampagnen involviert. 2016 zeigte Nix sich „begeistert, dass unser revolutionärer Ansatz der datengetriebenen Kommunikation einen derart grundlegenden Beitrag zum Sieg für Donald Trump“ leistete (Nix 2018). Dafür soll das Unternehmen, das teilweise dem ultrakonservativen US-Milliardär Robert Mercer gehört und dessen Vizechef zeitweilig der umstrittene Trump-Berater Steve Bannon war, sechs Millionen Dollar kassiert haben (Huffpost 2018) - sechs von 16 Millionen Dollar, die die Firma von Kandidaten und Komitees der US- Republikaner insgesamt kassierte (ibid.). Zu dieser schmutzigen Seite von Trumps US-Wahlkampf gehörten E-Mails von Hillary Clinton, die nach westlichen Geheimdienstanalysen russische Hacker gestohlen hatten. Cambridge Analytica-Chef Nix hatte sie nach Auskunft des whistle blowers und früheren Firmenmitarbeiters Christopher Wylie zumindest angeboten. Sie trugen dazu bei, dass Trump die Präsidentschaftswahl 2016 gewann (ibid.). Nix griff aus politischem Kalkül auch bei anderer heißer Datenware zu. Über seine Methoden schwieg er. Sie waren offenbar nicht alle legal. Recherchen investigativer Journalisten legen nahe, „dass die Firma für politische Kunden mit dubiosesten Methoden Schmutzkampagnen fährt und sich in großem Stil illegal Daten beschafft hat“ (ibid.). Laut New York Times verfügte Cambidge Analytica ohne Zustimmung von Facebook oder von deren Nutzern über persönliche Daten von mehr als 50 Millionen Facebook-Mitgliedern. Türöffner waren 270.000 Teilnehmer an einer Umfrage „This is your digital life”, die man sich über eine Facebook-App herunterladen konnte. Die Software dazu hatte Aleksandr Kogan, geschrieben, ein in der UdSSR geborener Psychologiestudent. Die Universität Cambridge versprach den Nutzern einen Persönlichkeitstest. Wer teilnehmen wollte, erklärte sich einverstanden, dass seine Antworten und seine privaten Daten an Kogans Firma GSR gingen. Zugleich bekam Kogan Zugang zu Profil- Grunddaten von deren Freunden. Denn nach Informationen der New York Times sowie der britischen Blätter Observer und Guardian gestattete jeder, der die Umfrage ausfüllte, automatisch den Zugriff auf solche Daten von durchschnittlich 160 weiteren Nutzern (ibid.). Dieser Zugriff wurde erst später abgeschaltet (Seemann 2018). Die Facebook-Daten blieben nicht bei Kogan, sondern wurden an Cambridge Analytica weiterverkauft. Denn „besteht die Möglichkeit, eine Tat zu begehen, ist ein Erfolg dabei wahrscheinlich und sind Sanktionen gering, dann geschieht sie über kurz oder lang auch“ (BMBF/ Wi 2018: Lukas). Kriminell war entweder, dass die App vorgab, nur wissenschaftliche Zwecke zu verfolgen (Seemann 2018) oder dass Kogan die Daten zweckentfemdete, um an ihnen ebenso zu verdienen wie Cambridge Analytica. Er versuchte, das später mit den Worten herunterzuspielen, die Wirksamkeit der Cambridge Analytica-Methode sei übertrieben worden (ibid.), und Angestellte der Trump-Kampagne erklärten, das Cambridge Analytica-Material sei bei ihnen praktisch nicht zum Einsatz gekommen (ibid.). Facebook bekam 2015 Wind von der Sache, forderte Kogan und Cambridge Analytica auf, die Daten zu löschen, unternahmen aber sonst nichts (Schulz 2018: 19). Facebook ist aber nach Überzeugung der schleswig-holsteinischen Datenschutzbeauftragten Marit Hansen „auch für Unterlassenes verantwortlich“ (BMBF/ Wi 2018: Hansen). Dass die Facebook-Daten überhaupt den Weg zu Kogan gefunden hatten, entsprach der damaligen Facebook-Politik. Dieses Unternehmen plante damals ein App Store-Geschäftsmodell nach dem Vorbild von Apple und Google. Es sollte Entwickler anlocken, die via Facebook soziale Apps anbieten und Gegenzug der Facebook-Vermarktungsplattform 30 Prozent vom Umsatz abgeben sollten. Der rasante Anstieg des Smartphones kippte das aber. Gewinn macht Facebook fast nur noch durch Werbung. Eine offene Schnittstelle, über die auch andere verdienen, würde da eher stören. „Deswegen hat Mark Zuckerberg auch kein 216 9 Gläsern sind wir schon jetzt Problem damit, besseren Datenschutz zu versprechen und API-Zugriffe weiter einzuschränken“ (ibid.). Als 2015 öffentlich wurde, dass Kogandie Facebook-Daten „not in line with Facebook’s terms of service“ (https: / / cambridgeanalytica.org) weitergegeben hatte,verlangte Facebook zwar die Löschung (Seemann 2018). Das hat Cambridge Analytica nach eigenen Angaben angeblich auch getan. „Die Berichte des whistle blowers Christopher Wylie legen aber nun nahe, dass sie noch existieren“ (ibid.), eineinhalb Jahre nach dem Trump-Wahlkampf. Das alles nährt die Befürchtung, dass global operierende Firmen wie Cambidge Analytica und Facebook „massiven Einfluss auf das Wählerverhalten weltweit nehmen und so demokratische Prozesse ihrer Legitimität berauben können“ (Huffpost 2018.). Darüber konnte keiner der Beteiligten zur Tagesordnung übergehen. Am 20. März 2018 wurde Nix von seinem Posten beurlaubt. Die Verbraucherschutzbehörde ermittelte. Der Sicherheitschef des Unternehmens verließ seinen Posten (Schulz 2018: 13). Wütende Forderungen britischer und US-amerikanischer Stellen nach rückhaltloser Aufklärung begannen sich hochzuschaukeln. Der Facebook-Aktienkurs brach um 20 Prozent ein (onvista 2018); in nur zwei Tagen verlor das Unternehmen60 Milliarden Dollar an Wert (Schulz 2018: 13). Investoren drohten mit Klagen. Eine Kampagne Delete Facebook forderte Nutzer auf, ihr Facebook-Konto zu löschen, damit nicht auch ihre Daten irgendwann bei Cambridge Analytica landen (Schäfer 2018), und ein Branchendienst sekundierte: „dann aber bitte zu Diaspora und Co. wechseln, direkt Whatsapp und Instagram mitlöschen“ - beide gehören Facebook - „und auf Signal oder Threema setzen! Übrigens: Auch Twitter ist keine Lösung! “ (Weck 2018). Am 24. März war die „Facebook-Falle“ dem Nachrichtenmagazin Der Spiegel eine Titelgeschichte (Schulz 2018) und die „Diktatur der Daten“ der Süddeutschen Zeitung am 1. April die Hauptschlagzeile auf ihrer Titelseite wert (Schoepp 2018). In der ersten Aprilwoche - Facebook war mittlerweile in London und in Washington D.C. vor Parlamentsausschüsse zitiert worden - teilte das Unternehmen mit, nicht nur 50 Millionen Nutzer seien betroffen, sondern geschätzt 87 Millionen (Kang/ Frenkel 2018). Für das US-Parlament zitiert, demonstrierte Zuckerberg zwar „Demut und Aufklärungsbereitschaft, wenn es opportun erschien, und Ahnungslosigkeit und Begriffsstutzigkeit, wenn es nötig erschien“ (Emcke 2018), hatte nach Überzeugung des Münchner browser-Anbieters cliqz aber „vor der Weltöffentlichkeit dreist gelogen“, weil er sehr genau wisse, „dass Facebook uns alle überwacht, unabhängig davon, ob wir Mitglied bei Facebook sind oder nicht“ (cliqz 2018). Sogar eine Facebook-Zerschlagung wurde gefordert. Aber dafür gibt es keine Handhabe, „denn es ist unklar, wo ggf. Kunden geschädigt werden (BMBF/ Wi 2018: Schmidt). Dass aber „ Menschen in großer Zahl die Datengesellschaft boykottieren, ist heute so realistisch wie die Erwartung, dass sie das Essen einstellen, um gegen die Lebensmittelindustrie zu protestieren“ (Schoepp 2018). Der Facebook chief executive Mark Zuckerberg reagierte mit der Ankündigung, sein Unternehmen werde allen Nutzern die privacy-Rechte einräumen, die die EU in ihrer Datenschutzgrundverordnung verlangt (ibid.), nach Einschätzung des Deutschen Ethikrats-Chefs Peter Dabrock ein Zeichen dafür, „dass die EU-Position greift (BMBF/ Wi 2018: Dabrock). Dabrock riet von weiteren politischen Eingriffe aber ab: In der Öffentlichkeit werde der Eindruck vermittelt, ein Bundesamt für Algorithmenaufsicht könne bei Facebook eine Korrektur verlangen. Aber „das sollte die Politik nicht tun“ (Anger 2018). Wirtschaftliche Konsequenzen griffen ohnehin weit rigoroser: Die Cambridge Analytica-Kundschaft mied das Unternehmen nach der Offenlegung des Skandals so komplett, dass es rund einen Monat später Insolvenz anmelden musste. Der Datenskandal um Cambridge Analytica, urteilte Der Spiegel, „ist kein Einzelfall, sondern strukturell bedingt. Konsequenz eines Geschäftsmodells, das allein auf das Sammeln und Auswerten von Daten ausgerichtet ist, das auf seine Nutzer im Zweifel wenig Rück- 9.4 Das deutsche Datenschutzrecht 217 sicht nimmt. Ein Modell, das nun grundsätzlich in Frage steht“ (Schulz 2018: 14). Es gibt Kritiker; die deshalb verlangen, „den Zugang zu Daten so offen wie nur irgend möglich zu gestalten“ (Martin-Jung 2018). „Statt mehr Datenschutz durchzusetzen“, sagt auch Seemann, „sollte die Politik dafür sorgen, dass sich die Plattformen wieder öffnen. Erst wenn wir verstehen, was da vor sich geht, können wir Lösungen für die unvorhergesehenen Effekte der neuen digitalen Öffentlichkeiten finden. Weil die Debatte falsch geführt wird, passiert jetzt erstmal das genaue Gegenteil (Seemann 2018). An die Politik richtet sich auch die Forderung, Europa solle „dem Digital-Kapitalismus amerikanischer Prägung seine eigene Kultur einer digitalen Marktwirtschaft europäischer Prägung“ entgegenstellen (ibid.). Löchrige Datensouveränität Aber wenn es um Datengebrauch und -missbrauch geht, brauchen wir gar nicht die weltweite Arena der großen Politik zu bemühen. Löchrige Datensouveränität zeigt sich schon in Bezug auf den einzelnen Bürger. Programme zur Auswertung persönlicher Äußerungen im Netz, von likes beispielsweise, lassen ja Rückschlüsse auf den Charakter und die Intelligenz von Personen ebenso zu wie auf ihre Gemütsverfassung und andere sehr private Lebensumstände. Wer Computerspiele online benutzt, gibt durch sein spielerisches Verhalten über seine Psyche mehr preis als aus Bewerbungsunterlagen ablesbar ist. Wer Webseiten besucht, die das Facebook-Logo tragen, den registriert Facebook selbst dann, wenn er dessen button gar nicht anklickt (Morgenroth 2014). Dabei ist Facebook nur der bekannteste von etlichen Anbietern, denen man besser nicht arglos vertraut. Die Stiftung Warentest hat vor einigen Jahren zwei Drittel aller Apps bei der Datensicherheit kritisch bewertet (ibid.). Eine Untersuchung von 19 europäischen Datenschutzorganisationen hatte sogar 90 Prozent moniert (Haufe 2013). Wer das Datensammeln kritisch bewertet, muss auch Google analysieren. Das hat der irische Webentwickler Dylan Curran getan. Google ermittelt über seine Nutzer Daten zu Standorten, Profilen, Browserverläufen, zur Suchhistorie, zu genutzten Geräten oder zu Gmail, zu Ort, Geschlecht, Alter, Hobbys, Beruf, Interessen, Beziehungsstatus, wahrscheinlichem Gewicht sowie über Google Maps auch zu ihrem Tagesablauf (Brien 2018). Zu Curran speicherte Google in seinem drive-Ordner auch Dokumente, die er gelöscht hatte, auch die Kombination, mit der er seine E-Mails verschlüsselte. Was da zusammenkommt, ist gigantisch. Über eine takeout-Funktion kann man das Ergebnis herunterladen. Bei Curran waren es insgesamt 5,5 Gigabyte, umgerechnet drei Millionen Word-Dokumente. Seine Facebook-Datei war rund 600 Megabyte groß (ibid.). 9 9..44 DDaass ddeeuuttsscchhee DDaatteennsscchhuuttzzrreecchhtt Wie schützt man solche Datenberge vor Missbrauch? Das soll das Datenschutzrecht regeln. 1970 schuf das Bundesland Hessen als erstes deutsches Land ein Datenschutzgesetz. 1978 folgte das Bundesdatenschutzgesetz. Es übertrug die EU-Direktive 95/ 46/ EC in deutsches Recht. 16 Datenschutzagenturen der Bundesländer und eine auf Bundesebene sollen in Deutschland den Datenschutz und den Schutz der Bürger vor Datenmissbrauch gewährleisten. Verbraucherschutzorganisationen können Verletzer vor Gericht bringen. Sie klagen häufig gegen unklare Auskünfte und bekommen oft Recht, besonders wenn Geschäftsbedingungen nur allgemeine Floskeln enthalten. Spätestens dann berichten auch die Medien. Strafen für Verletzungen können 300.000 Euro betragen. Das Datenschutzgesetz zählt Datenschutzgrundprinzipien allerdings nirgends explizit auf, verankert sie jedoch in den meisten Rechtsnormen. Zu ihnen gehört das Recht auf informationelle Selbstbestim- 218 9 Gläsern sind wir schon jetzt mung, das das Bundesverfassungsgerecht in seinen 1983 ergangenen Urteil zur Volkszählung präzisiert hat. Das Volkszählungsurteil 1983, eine Dekade vor der Entstehung des Internets, urteilte das Bundesverfassungsgericht über die Volkszählung. Das höchste deutsche Gericht prägte dabei das Grundrecht auf informationelle Selbstbestimmung. Es leitete dieses Grundrecht aus dem allgemeinen Persönlichkeitsrecht (vgl. Bull 2015) des Art. 2 Abs. 1 GG in Verbindung mit Art. 1 Abs. 1 des Grundgesetzes über die Menschenwürde ab. Es schützt den Einzelnen gegen unbegrenzte Erhebung, Speicherung, Verwendung und Weitergabe seiner persönlichen Daten. Das Grundrecht befugt den Einzelnen, „grundsätzlich selbst über die Preisgabe und Verwendung seiner persönlichen Daten zu bestimmen“ (BVerfGE 65,1: 1). Grundrechte sind zunächst Abwehrrechte gegen den Staat, entfalten mittelbare Drittwirkung aber auch gegenüber Personen. Gerade die Unbegrenztheit der elektronischen Datenverarbeitung, sagte das Gericht, erfordere diesen Schutz des Einzelnen und verpflichte den Staat, Rahmenbedingungen festzulegen (vgl. Schaar in ibid.: 12). Dem Gericht war klar, dass dieses Grundrecht kein Selbstläufer ist. „Wer damit rechnet“, schrieb es, „dass etwa die Teilnahme an einer Versammlung oder einer Bürgerinitiative behördlich registriert wird und ihm dadurch Risiken entstehen können, wird möglicherweise auf die Ausübung seiner entsprechenden Grundrechte (Art. 8, 9 GG) verzichten“ (BVerfGE 65, 43). Was zu persönlichen Datem gehört Das deutsche Datenschutzrecht bezieht sich in erster Linie auf Daten von Personen und betrifft Informationen über private oder materielle individuelle Lebensumstände. Die Nutzung solcher Daten setzt die Zustimmung des Betroffenen voraus. Daten, die für einen bestimmten Zweck erhoben wurden, dürfen nicht ohne Weiteres für andere Zwecke weiterbenutzt werden. Schon bei der Erhebung ist daher zu prüfen, ob es überhaupt nötig ist, alle in Frage kommenden personenbezogenen Daten zu speichern, und wenn ja, für wie lange Zeit. Das gilt speziell für Metadaten. Sie sind für Informationsabfragen im Internet, zur Steuerung von Geräten, zur Positionsbestimmung usw. erforderlich. Der Datenschutz erstreckt sich auch auf sie. Das Bundesverfassungsgericht hat in der Grundsatzentscheidung festgestellt, dass es bei automatischer Datenverarbeitung kein „belangloses Datum“ gibt (BVerfG 1983, Rn. 152, Broemel/ Trute 2016: 5). Deshalb „ist letztlich jedes personenbezogene Datum geschützt“ (ibid.: 51). Werden Metadaten massenhaft gespeichert, ergeben sie nämlich Persönlichkeitsprofile. In vielen Fällen lassen sich Daten deshalb ausreichend schützen, wenn man die Metadaten absondert oder löscht (Schaar in: Fachgruppen 2016: 14). IP [Internet-Protokoll]-Adressen gelten in Deutschland als persönliche Daten. Deren Nutzung muss der Besitzer zustimmen. Das würde in der Praxis Web-Analysen blockieren. Nutzt man jedoch nur einen Teil der IP-Adresse, spart man Namen, Anschriften und Geburtsdaten aus, ist die Anonymität gewahrt. Dann können sie für Analysen auch ohne Einwilligung von Betroffenen eingesetzt werden. Zulässig ist es in Deutschland, persönliche Daten zu erheben, damit Verträge erfüllt werden können. Anders als in den USA, wo man statt der „Engführung der deutschen datenschutzrechtlichen Perspektive“ (Broemel/ Trute 2016: 50) unkompliziert an das Internet der Dinge (Trute 2016) und an Künstliche Intelligenz anschließen will, sind Datenanalysen, also der Einsatz von Algorithmen, in Deutschland nur nach vorheriger ausreichender Information und Einwilligung der Betroffenen erlaubt (BMWi 2016a: 34). Das gilt auch für 9.4 Das deutsche Datenschutzrecht 219 Big Data-Analysen, etwa im Kampf gegen Betrug. So müssen beispielsweise Banken und andere Organisatoren von Zahlungen feststellen, wer bezahlt und wer empfängt, damit es nur autorisierte Transaktionen gibt. Beim Besuch von Webseiten muss der Nutzer zustimmen, bevor der Inhaber einer besuchten Seite seine Daten speichern und auswerten darf. Der Seitenbetreiber muss dem Nutzer zumindest im Kleingedruckten mitteilen, welche Daten er erhebt und wozu. Solche Einwilligungen gelten unter Fachleuten aber als schiere Fiktion. Denn sie werden meist pauschal verlangt und müssen erteilt werden, wenn ein Nutzer eine entsprechende Webseite überhaupt ansehen will. Probleme der Einwilligung zu Datentransfers In vielen Fällen ist eine Leistung ohne die Einwilligung der Datenbesitzer gar nicht erhältlich, zum Beispiel gibt es „kein Bankkonto, keine Kreditkarte und kein Handyvertrag ohne Schufa-Auskunft“ (ibid.: 56). Nach der EU-Datenschutzgrundverordnung kann das rechtswidrig sein. Dirses Regelwerk legt im Erwägungsgrund 71 zu Artikel 22 nämlich fest, dass niemand auf eine Weise bewertet werden darf, „die ausschließlich auf einer automatisierten Verarbeitung beruht und die rechtliche Wirkung für die betroffene Person entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt, wie die automatische Ablehnung eines Online- Kreditantrags oder Online-Einstellungsverfahren ohne jegliches menschliche Eingreifen.“ Dazu zählen das profiling, aber auch die Arbeit der Schufa. Zulässig ist das nur zur Aufdeckung von Betrug und Steuerhinterziehung und für die Betriebssicherheit eines Dienstes oder wenn die betroffene Person ausdrücklich zugestimmt hat“ (EU-Datenschutz9grundverordnung 22, 71). Damit die Schufa sich an solche Vorgaben hält, sieht ihr eine Internet-community auf die Finger: „Du bekommst keinen Kredit, keinen Handy-Vertrag, und auch bei der Bewerbung um die schöne Wohnung ziehst Du dauernd den Kürzeren. Woran das liegt? An der Schufa natürlich! Wirklich? Benachteiligt die Schufa eine Gruppe von Menschen gegenüber einer anderen? Verstärkt sie Ungerechtigkeiten? Das wollen wir herausfinden. Und dazu brauchen wir Dein Geld (wenig) - und Deine Daten (möglichst viele)! “ (www.openschufa.de). Die 50.000 Euro Kapital, die diese community dazu nach eigenen Angaben benötigt, stellten ihr rund 800 Fans und über 1800 Unterstützer bis zum Frühjahr 2018 fast komplett zur Verfügung. Mitte April 2018 waren 43.368 € in der Kasse. Werden Daten mit Einwilligung erhoben, muss die policy des Anwenders diese Einwilligung widerspiegeln: Sie darf nicht von Einwilligungen abhängen, die für diese Leistung gar nicht nötig sind, und darf nur die Nutzungen erlauben, in die der Betroffene wirksam eingewilligt hat (Huber, ibid.: 49). Wirksam ist das Gegenteil von stillschweigend. Mit passender Technik lässt sich das überprüfen, etwa mit watermarking, einem digitalen Äquivalent zum Wasserzeichen. Mit ihm lassen sich Daten kennzeichnen. So lässt sich nachvollziehen, wer Daten wie verwendet (ibid.). Werden digitalisierte Daten massenweise gesammelt, ohne dass deren mögliche Verwendungen national oder international feststünden, erkennt man den „fiktionalen Charakter“ (Cate 2015; Cate/ Mayer-Schönberger 2013) solcher Einwilligungen besonders leicht. „Je distanter“, je nebulöser die Verwendungszusammenhänge, „desto mehr besteht die Gefahr, dass die Einwilligung ihre Funktion nicht mehr sinnvoll erfüllen kann - unabhängig davon, ob sie von einer Mehrheit von Nutzern überhaupt als bedeutsam angesehen wird“ (Broemel/ Trute 2016: 54). Das Wort Privatheit wird dann zur Leerformel (Hagendorf 2017). Die „Vernetzungskultur“, also die Weiterverwendung einmal erhobener Daten für unterschiedlichste, anfangs gar nicht bestimmbare Zwecke, steht daher zu Recht in der Kritik (vgl. Lovink 2012, 2017). 220 9 Gläsern sind wir schon jetzt Die Einwilligung hat also ein Doppelgesicht. Einerseits kann sie bedeuten, gegen die Durchleuchtung des eigenen Verhaltens durch Algorithmen bestmöglich hinhaltenden Widerstand zu leisten, also nur einzuwilligen, wenn es gar nicht anders geht. Andererseits kannman darunter den Entschluss oder die Notwendigkeit verstehen, sein Leben nach der Welt der Zahlen auszurichten; Fachleute sprechen dann von self tracking als Optimierungsstrategie (vgl. Duttweiler 2016). Die Praxis geht über die Einwilligung von Betroffenen regelmäßig hinweg, sogar wenn der Staat oder staatsnahe Dienstleister Daten erheben. Ein Beispiel: Im Energiehandel sammelt eine bei9m Bundeskartellamt angesiedelte Markttransparenzstelle laufend und engmaschig Daten von Stromproduzenten, Händlern, Netzbetreibern und anderen am Elektrizitätshandel beteiligten Stellen. Der Energiehandel gilt nämlich als besonders manipulationsanfällig (Monopolkommission 2013: Tz. 131 ff., 2011: Tz. 155 und 450 ff.). Das Kartellamt will deshalb Missbräuche und Gesetzesverstöße frühzeitig erkennen können. Datenvermeidung - ein stumpfers Schwert Erledigen sich Einwillgungsprobleme zumindest teilweise, wenn man es vermeidet, Daten überhaupt zu erzeugen, für die sich Datenauswerter interessieren? In Zeiten von Big Data kann Datenvermeidung keine Leitlinie mehr sein (BMWi 2016a: 56). Denn Daten sind der wichtigste Grundstoff der digitalen Ökonomie. Die Grundsätze von Zweckbindung und Datensparsamkeit sind deshalb mit anderen Rechten und Interessen abzuwägen (ibid.: 34.). Ziel soll eine effektive, individuelle „Datensouveränität“ sein. Sie soll den Dateninhaber vor Missbrauch schützen, aber gleichwohl Daten massenhaft verwertbar machen. Diese Datensouveränität bedeutet, dass der Eigentümer von Daten über deren persönlichen Gehalt und die wirtschaftliche Verwertbarkeit tatsächlich entscheiden kann (Weber in: Fachgruppen 2016: 41). Wie beim Urheberrecht muss der Einzelne dazu ein höchstpersönliches Recht an seinen Daten besitzen. Er kann Daten zwar dauerhaft oder widerruflich Dritten überlassen, hat aber stets den Anspruch auf Information über deren Speicherung und darauf, sie löschen zu lassen (Artikel 20 und 21 DSGVO, Weber in ibid.). Auch dafür, was Datenverwender mit den Datenbergen anfangen dürfen, sie die sammeln oder erwerben, hat der Gesetzgeber Schranken errichtet. Datennutzung „konkret festlegen“ Bei der Nutzung von Daten unterscheidet das Bundesdatenschutzgesetz die öffentliche, also behördliche und wissenschaftliche, von nichtöffentlicher Datenverarbeitung. Bei letzterer verlangt es in § 28, Zwecke der Datennutzung „konkret festzulegen“. Personenbezogene Daten dürfen verwendet werden, soweit sie nötig sind, um ein Vertragsverhältnisses zu begründen, durchführen oder zu beendigen. Das gilt als „berechtigtes Interesse“ des Verwenders. Er muss das ausreichend konkretisieren. Was berechtigt jeweils bedeutet, legt das Gesetz nämlich nicht fest; das liegt in seiner „Zwecksetzungskompetenz“. Der Nutzungszweck, sagen juristische Kommentatoren, müsse konkret feststehen und dürfe nicht nur in einem vagen allgemeinen Interesse bestehen, das erst zu einem späteren Zeitpunkt eingelöst werden könnte (Schaar, ibid.: 10). Bei allgemein zugänglichen Daten ist die Verwendungsfreiheit größer, etwa im Katastrophenschutz. Berechtigte Interessen des Verwenders sind zwar auch dort gegen schutzwürdige Belange der Betroffenen abzuwiegen. Wenn der Schutz der Betroffenen nicht eindeutig überwiegt, darf die verantwortliche Stelle Daten aber nach Meinung mehrerer Kommentatoren frei verwenden; eine nur zweckungebundene Verwendungserlaubnis nimmt nur einer von ihnen an (Raabe, ibid.: 19). 9.5 Die EU-Datenschutzgrundverordnung 221 Eine Richtschnur zulässiger Verwendung liefert das Telemediengesetz mit der Einteilung in Bestands- und Nutzungsdaten: Bestandsdaten, sagt es, sind nötig, damit Dienste-Anbieter und -Nutzer ein Vertragsverhältnis begründen, inhaltlich ausgestalten oder ändern können. Nutzungsdaten hingegen dienen dazu, Telemedien zu nutzen und abrechnen zu können (Raabe/ Wagner in: Fachgruppen 2016: 20). Der im Jahr 2001 in das Bundesdatenschutzgesetz eingefügte § 3a verpflichtet die für die Datenverarbeitung verantwortlichen Stellen bei der Auswahl und Nutzung von Daten zu „Datenvermeidung und Datensparsamkeit“ und besonders dazu, Daten zu anonymisieren oder zu pseudonymisieren, „soweit dies nach dem Verwendungszweck möglich ist und keinen unverhältnismäßigen Aufwand erfordert“. Dieses Gebot der Datensparsamkeit ist bei Big Data-Konzepten aber kaum einzuhalten. Das weiß die Öffentliche Hand auch. Das Bundesministerium für Wirtschaft und Energie warnte 2015 in „Leitplanken Digitaler Souveränität“ davor, datenbasierte digitale Geschäftsmodelle durch ein unzeitgemäßes Datensparsamkeitsdiktat zu verhindern. Datensparsamkeit und Zweckbindung, heißt es, müssten „überprüft und durch Prinzipien der Datenvielfalt und des Datenreichtums ergänzt und ersetzt werden“ (BMWi 2015: 5). Wie Bürger in dieser Vielfalt von Gesetzen und Bedingungen - die sich auch noch schnell ändern - freiwillig, bewusst und informiert über ihre Daten bestimmen können, ist schwer zu regeln - und dauert. Ein Beispiel: Die Hochschule Hof brauchte für ihr mehr als zweihundert Seiten starkes Datenschutzkonzept volle zwei Jahre (BMBF/ Wi 2018: Weber). Ansätze für übergreifende Bestimmungen enthält die EU-Datenschutzgrundverordnung, die uns anschließend beschäftigt. Die schon in Deutschland schwierige Lage, multipliziert mit den Be- und Empfindlichkeiten der mehr als zwei Dutzend EU-Mitgliedsländer, vermittelt eine Ahnung davon, was zu diesem Thema lange in Brüssel angesagt war: Dickicht und Ungewissheit. Trotzdem hat die EU 2009 eine Europäische Grundrechtecharta verabschiedet und in deren Artikel 8 Grundsätze des deutschen Datenschutzrechts übernommen. Sie verlangt dort die Aufklärung des Nutzers über die Verarbeitung seiner Daten in verständlicher, leicht zugänglicher Form und in klarer und einfacher Sprache oder mit standardisierten Bildsymbolen; jedenfalls so, dass der Nutzer sie klar wahrnehmen, gut verstehen und eindeutig nachvollziehen kann. 9 9..55 DDiiee EEUU--DDaatteen nsscchhuuttzzg grruunnddvve er roorrddnnuunngg Als der Ruf nach einer europaweiten Ordnung des Datengebrauchs durchdringend wurde, machte sich die EU-Kommission an den Entwurf einer EU-Datenschutzgrundverordnung. Dabei hatte die EU nach den Worten ihres Leiters Data Policy & InnovationJiri Pilar klare Ziele: den free flow of data, den access to data, das data sharing, ferner portability, interoperability, standards, liability und experiementation (BMBF/ Wi 2018: Pilar). Sie verfolgte dazu eine open data policy, festgelegt bereits in der Direktive 2003/ 98, zehn Jahre darauf aktualisiert in 2013/ 37 (ibid.). Das EU-Parlament, der Rat und die Kommission einigten sich am 15. Dezember 2015 auf den Inhalt. Seit Mai 2016 liegt der Text vor; seit 25. Mai 2018, zwei Jahre darauf, wurde er nicht nur in allen Mitgliedsstaaten nationales Recht, sondern giltseither auch für Unternehmen außerhalb der EU, die wie etwa Facebook und GoogleEU-Bürgern Angebote machen. Die Mitgliedsstaaten dürfen von der Verordnung nicht abweichen, aber über Öffnungsklauseln einige Datenschutzaspekte national regeln. Am 27.4.2017 ratifizierte der deutsche Bundestag die Grundverordnung als DSAnpUG-EU. Vieles in ihr entspricht bisherigem deutschem Recht. Die EU-Festlegungen zur Zweckbindung und gegen Datenminimierung sind mit ihm nahezu wortgleich. Was dem festge- 222 9 Gläsern sind wir schon jetzt legten Zweck nicht entspricht, darf auch nicht verarbeitet werden (Artikel 5 Absatz 1b). Zusätzlich muss ein sogenannter Erlaubnistatbestand vorliegen (Artikel 6 ff.), also ein Grund dafür, warum etwas erlaubt sein soll. Auch der Grundsatz der Datensparsamkeit gilt weiterhin; also dürfen nur die für einen konkreten Zweck erforderlichen Daten verarbeitet werden (Artikel 5 Absatz 1c). Pseudonyme Daten gelten als personenbezogene Daten (Erw.gr. 23), sind aber verwendbar, wenn die Zusatzinformationen, die die ursprünglichen Personen ermittelbar machen, getrennt verwahrt werden (Erw.gr. 23c). Das gilt nicht für genetische, biometrische und Gesundheitsdaten. Sie dürfen nur verwendet werden, wenn eine ausdrückliche Einwilligung für bestimmte Zwecke besteht. Ohne Einwilligung ist das zum Schutz lebenswichtiger Interessen nur möglich, wenn ein Betroffener nicht einwilligen kann. Für Forschung und Statistik dürfen Daten genutzt werden, wenn es in umsetzenden Rechtsvorschriften angemessene Garantien zum Datenschutz gibt. Mitgliedsstaaten können in Bezug auf die Verarbeitung dieser Daten weitere Bedingungen und Beschränkungen beibehalten oder einführen. Es reicht nicht aus, personenbezogene Daten „nur“ sicher und verlässlich zu speichern. Sie müssen auch gefunden und gemäß den Rechten der Betroffenen bearbeitet werden können. Dazu sind Metadaten da; denn aus ihnen werden die für die Verarbeitung erlaubten Zwecke ersichtlich, etwa wo die Daten erhoben wurden, ob Betroffene deren Benutzung eingeschränkt oder ihr sogar widersprochen haben. Bei Versicherungen beispielsweise kann das Recht auf Vergessenwerden mit der Aufbewahrungspflicht kollidieren. „Verlangt ein Betroffener, dass seine Daten gelöscht werden, muss direkt ersichtlich sein, ob eine Aufbewahrungspflicht besteht und wann sie endet. Das sind alles unstrukturierte Informationen, die nur mit professionellem Datenmanagement effizient verwaltet werden können“ (Schröder 2017: 15 f.). Eine Möglichkeit ist die Maskierung personenbezogener Daten. Auf diese Weise kann man Testdaten erzeugen, die in nichtproduktiven Systemen gesetzeskonform verwendet werden können, ohne die Ursprungsdaten der Gefahr einer unbeabsichtigten Offenlegung auszusetzen oder wenn der direkte Personenbezug dafür nicht zulässig ist (Schonschek 2017c: 10). Und wenn der Datenschutz doch verletzt wird? 2018 lief in der EU eine Analyse „whether to define principles to determine who is liable in cases of damages caused by the use of data“ (BMBF/ Wi 2018: Pilar). Das ist geradezu übervorsichtig formuliert. Bis zu klaren Sanktionen wird es also noch dauern. So viel ist aber klar: „Any transfer of personal data outside the EU is subject to the same level of protection as inside“ (ibid.). Noch ungeklärt ist auch der Schutz vor Algorithmen. Zur Regulierung von diskriminierenden algorithmischen Entscheidungen arbeitete die Gesellschaft für Informatik 2018 an einem Gutachten für einen Sachverständigenrat des Bundesministeriums der Justiz und für Verbraucherschutz (BMJV). Dazu hat sie eine Domain mit weiterführenden Informationen eingerichtet: https: / / adm.gi.de (frithjof.nagel@gi.de). Der geltende deutsche Datenschutz wird viel kritisiert, von der einen Seite wegen zu lascher, von der anderen wegen zu strenger Vorschriften. Eine Bürgerumfrage der Fraunhofer-Gesellschaft zu Big Data ergab 2015 grundsätzliche Datenschutzskepsis, aber Zustimmung bei konkretem Nutzen. Geht es nach der deutschen Bundeskanzlerin Angela Merkel, darf der Datenschutz Big Data nicht verhindern (Nationaler IT-Gipfel 2015). Ihr damaliger Stellvertreterin der großen Koalition Sigmar Gabriel, seinerzeit Bundesminister für Wirtschaft und Energie und 2017 Bundesaußenminister, forderte Datensouveränität statt Datenschutz (ibid.). Merkels damaliges Kabinettsmitglied Alexander Dobrindt, in der großen Koalition bis 2017 Bundesverkehrsminister und zugleich Minister für digitale Infrastruktur, verlangte Datenreichtum statt Datensparsamkeit (ibid.). 9.6 Eckpunkte einer Datenstrategie in der Big Data-Welt 223 Jeannette Hofmann vom Weizenbaum-Institut für die vernetzte Gesellschaft stimmt zu: „Datensparsamkeit ist überholt. Autos haben Datenschnittstellen schon per Gesetz. Datenflüsse sind keine Frage der individuellen Verantwortung mehr. Sie sind so selbstverständlich wie das Fließen elektrischen Stroms“ (BMBF/ Wi 2018: Hofmann). Was die zitierten wohlklingenden Äußerungen deutscher Politiker konkret bedeuten sollen, weiß aber niemand genau Sie zeigen jedoch: Politisch sind wesentliche Rechtsgrundlagen des Datenschutzes offenbar überholt. Nur 20 Prozent der Bürger haben zumindest eine Ahnung, welche Daten über sie überhaupt gesammelt werden. Aufklärung wird das nach Ansicht der Leiterin des Deutschen Instituts für Vertrauen und Scherheit im Internet Joanna Schmölz nicht ändern. Der Einzelne könne das nämlich gar nicht verstehen. Nötig seien deshalb „ein politischer Rahmen, wirtschaftliche Verantwortung und ein gesamtgesellschaftlicher Dialog mit dem Ziel von Bildung als kritischer Aneignung der Welt“ (BMBF/ Wi 2018: Schmölz). Das geht nicht von beute auf morgen. „Datenkraken“ füllen ein Rechtsvakuum derweil weiterhin mit eigenen Regeln. Das erzeugt ein besorgniserregendes Demokratiedefizit: „Nicht nur, dass der cyberspace mehr und mehr zu einem Territorium wird, in dem nationale und supranationale Gesetze nicht gelten. Es gibt auch keine Gewaltenteilung. Facebook, Google& Co. stellen die Regeln auf, kontrollieren ihren Vollzug und organisieren das Beschwerdewesen. Sie sind Legislative, Exekutive und Judikative in einem“ (Keese 2014: 272). Gesetze würden so gut wie möglich unterlaufen, kommentiert Keese, und da, wo es gar nicht anders geht, würden Fluchtpunkte angesteuert wie zum Beispiel über server auf Schiffen in internationalen Gewässern oder mit Internet-Verbindungen über Satelliten und Drohnen. Es passe in dieses Bild, dass Google 180 Kommunikations-Satelliten ins All schicken wolle: „Mit dieser Infrastruktur macht sich der Konzern unabhängig von anderen und entzieht sich staatlicher Kontrolle. Das Weltall und die hohe See sind weitgehend rechtsfreie Räume. Firmen können dort größtenteils tun und lassen, was sie wollen“ (ibid.: 273). 9 9..66 EEcckkppuunnkkttee eei inneerr DDaatteen nssttrraatteeg giiee iinn ddeer r BBi igg DDa at taa--WWe el ltt „Die alten Datenschutzprogramme passen mit Big Data nicht mehr zusammen“, sagt rundheraus der Vorsitzende des Deutschen Ethikrats Peter Dabrock (BMBF/ Wi 2018: Dabrock) und fügt hinzu: „Die Grundidee hinter dem Datenschutz ist die Datensouveränität. Sie ist nicht input-orientiert (welche Restriktionen? ), sondern output-orientiert, damit der Einzelne Privatheit gestalten kann (ibid.). Die Verarbeitung von Big Data stellt an den Datenschutz also besondere Anforderungen. Ein Branchendienst hat sie Ende 2017 so zusammengefasst: „Es muss klar erkennbar sein, welche Daten ohne eine ausdrückliche Einwilligung der Betroffenen auf Basis eines Gesetzes verarbeitet werden dürfen. Bei Bedarf sollen Nutzer sämtliche Informationen über die Verarbeitung personenbezogener Daten einsehen können. Die Datenverarbeitung darf nur im notwendigen Umfang auf personenbezogene Daten zugreifen. Ist kein Personenbezug erforderlich, sollen die Daten anonymisiert werden. Die Betroffenen brauchen technische Möglichkeiten, um den Zugriff auf einzelne Datenkategorien selektiv zu gewähren oder zu entziehen, soweit keine rechtliche Bestimmung entgegensteht. 224 9 Gläsern sind wir schon jetzt In den Anwendungen, die die Daten liefern, müssen nach dem Grundsatz privacy by default datenschutzfreundliche Voreinstellungen etabliert werden. Betroffene sollen personenbezogene Daten einfach löschen können. Der unbefugte Zugriff auf die Speichereinheiten oder die Manipulation der gespeicherten Daten müssen ausgeschlossen werden“ (Big Data Insider 2017: 5). So weit dieser Forderungkatalog. Schon wird weiter gefordert, dass der Datenschutz eine ähnliche Bedeutung bekommen solle wie die Regulierungsbehörden in der Finanzindustrie (Ehlers 2016: 11). Benennen wir also an den Handlungsbedarf. Die früher in Österreich unterrichtende Dozentin Nora Stampfl, die inzwischen in Berlin ein Büro für Zukunftsfragen führt, hat dazu schon 2013 Eckpunkte publiziert: Erstens: „Der Begriff ‚Datenschutz‘ erscheint anachronistisch und irreführend - im Mittelpunkt (muss) immer mehr der Schutz der Personen stehen“ (Stampfl 2013: 68). „Nicht Daten müssen geschützt werden, sondern Menschen und ihre Identitäten“ (ibid.: 72). Privatheit muss „als ständig neues Aushandeln von Grenzen verstanden werden“ (ibid.: 77). Zweitens: Personen-/ Datenschutz und personale Identität sind die zwei Seiten ein und derselben Medaille: der Souveräntät über das eigene Ich. Das setzt voraus, dass der Einzelne sein Bild (oder mehrere Bilder) nach eigenem Ermessen erzeugen und steuern kann. „ Viel einfacher als nach Identität und Individualität zu suchen ist es heute aber, sie zu konstruieren (ibid.: 25). Das geschieht massenhaft in den sozialen Diensten. Anerkennung werde heute gemessen in Google-Treffern, der Anzahl von Lesern eines Blogs, der von ‚Freunden’ auf Facebook und an Kontakten auf professionellen Networking-Plattformen wie Xing oder LinkedIn (ibid.). Diese Informationsinfrastruktur könnten wir als „dicht gewebtes Datennetz über unser Leben [legen], das uns situationsgerecht unterstützt, Informationen exakt dann bereithält, wenn wir sie benötigen, aber gleichzeitig auch Auskunft gibt über die kleinsten Details unseres Lebenswandels“ (ibid.: 26). Situationsgerechte Unterstützung muss aber auch die Möglichkeit bieten, Auskünfte per Mausklick zu sperren, beispielsweise mit einem Programm namens AdNauseam. Es klickt beim Besuch von Webseiten automatisch auf sämtliche Banner, die beim Surfen eingeblendet werden. Das macht das Profil persönlicher Vorlieben eines Nutzers völlig unbrauchbar. Ähnlich wirkt eine App namens TrackMeNot. Sie stellt beim Surfen laufend sinnlose Anfragen an Google und verwässert damit ebenfalls das persönliche Profil (Drösser 2016: 17 nach Brunton/ Nissenbaum 2015). Der Begriff surfen übrigens stammt von der Mediävistin Jean Armour Polly aus der New Yorker Industriestadt Syracuse. Sie benutzte ihn erstmals 1992. Bis dahin grub, wühlte oder navigierte man noch im Internet - „allesamt mühsame Verfahren. Der kalifornische Jugend- und Freizeitglamour des Surfens traf die Euphorie der Aufbruchsstimmung zu den neuen Ufern des Internets schon sehr viel besser“ (Kreye 2017). Und nun weiter mit den Eckpunkten einer zeitgemäßen Datenschutzstrategie, von denen wir zwei schon genannt haben: Drittens: Möglichkeiten wie die gerade beschriebenen, die das Absaugen persönlicher Profile unterlaufen, sind für das Grundrecht auf freie Meinungsäußerung oder -nichtäußerung elementar. „Wenn der Sender nicht mehr entscheiden darf, welche Information er preisgibt, der Empfänger aber gefiltert wahrnehmen darf, dann ist das Recht auf Meinung vom Sender hin zum Empfänger verschoben“. Meinungsfreiheit bedeutet aber, „Kontrolle zu behalten darüber, was publik wird und was nicht“ (ibid.: 69 f.) und ob und wie das, was (ohnehin) publik wird, auf den Einzelnen bezogen werden kann oder nicht. Jeder muss deshalb seine Individualität verschleiern können und damit die „Kontrolle über die eigene Identität behalten“. Es ist Kontrolle als ein „selbstbestimmtes Identitätsmanagement“ (ibid.: 70). 9.6 Eckpunkte einer Datenstrategie in der Big Data-Welt 225 Viertens: Der Gegensatz von Privatheit und Öffentlichkeit hat seine Bedeutung verloren; die Wahrheit liegt heute dazwischen (ibid.: 75). Deshalb müssen wir „Privatheit völlig neu denken“ (ibid.: 76). Sie bedeutet nicht mehr, Daten geheim zu halten, denn der Einzelne kann nicht bestimmen, ob Daten herausgegeben werden oder nicht. „Die Entscheidung der Zukunft wird nicht mehr sein ‚preisgeben oder nicht preisgeben‘, sondern ‚wem preisgeben‘ “ und wie? (ibid.). Geht die einzelne Privatinformation in Datenfluten unter, erledigt sich der Datenschutz wie von allein (ibid.: 71). Die Datenschutzdebatte, folgert Stampfl, würde sich auflösen - und zwischen den Zeilen lässt sie erkennen, dass sie das für zielführend hält: Dafür verbindliche Regeln zu schaffen und durchzusetzen, werde „immer mehr als gesamtgesellschaftliche Bildungsaufgabe verstanden werden müssen“ (ibid.: 69). Fünftens: Ein Paradigmenwechsel erscheint nötig: „Bislang bestand Einverständnis darüber, dass persönliche Informationen privat bleiben sollten, solange der Betreffende sich nicht dafür entschied, sie freizugeben. Immer mehr gilt heute das Gegenteil: Information sollte öffentlich zugänglich sein, wenn es keinen guten Grund dafür gibt, sie privat zu belassen“ (ibid.: 21). Dazu bedarf es freilich klarer Regeln. Und diese Aufgabe ist immer stärker international zu lösen. Sechstens: Solche Regeln müssen vorrangig datensammelnde private Firmen in die Pflicht nehmen und erst dann die (demokratischen) Staaten. Siebtens müssen die Schutzregeln einsichtiger und durchsichtiger werden, denn der Einzelne kann immer schwerer beurteilen, ob und wie weit sein Verhalten datenschutzrechtlich in Ordnung ist. Und achtens muss es plausible Zuständig- und Verantwortlichkeiten geben, damit der Einzelne erkennen kann, wer wofür tätig werden muss und wer die Verantwortung trägt (ibid.: 68). Es geht nicht darum, Räume zu schaffen, in die die Außenwelt nicht eindringt, sondern Verantwortlichkeiten und Zurechnungen aufzuzeigen, wann immer Daten erhoben werden (ibid.: 77). Vorsicht Kartellrecht Außer datenrechtlichen Fragen sind beim Umgang mit Big Data übrigens auch kartellrechtliche zu beachten, etwa die, ob auch Wettbewerber Daten einfach beschaffen können, welche Bedeutung die Menge und Breite von Daten und Datensätzen im Markt hat und ob die „Datenkraken“ ihre Marktmacht durch den Aufkauf von start-ups beliebig ausbauen dürfen, sodass sie sich diese potenziellen Rivalen schon einverleiben, bevor die sich überhaupt entfalten können. Zu solchen kartellrechtlichen Fragen hat sich das Bundeskartellamt im Herbst 2017 ausführlich geäußert (vgl. Bundeskartellamt 2017). Schließlich sollte man Datenschutz nicht nur als eine unvermeidliche Last betrachten, sondern auch als eine lohnende Aufgabe. Datenschutz, sagt der Leiter des Deutschen Ethikrats Peter Dabrock, „ist Vertrauenserhalt und damit ein Wettbewerbsvorteil“ (BMBF/ Wi 2018: Dabrock). Insgesamt geht es also darum, Normen und Abläufe zu schaffen, die in die digitale Welt passen. Dazu müsse es datenschutzkonform arbeitende trusted clouds zertifizierter Anbieter geben, fordert das Bundeswirtschaftsministerium (BMBF/ Wi 2018: Goerdeler), und die rechtliche Prüfung technischer Prozesse müsse mindestens teilautomatisch erfolgen, sonst könnten kleinere Unternehmen nicht mithalten (ibid.: Weber). Werden solche Regelungen die informationelle Ausforschung, Manipulation oder Diskriminierung verhindern? Können Bürger digitalen Technologien deshalb vertrauen? Bislang wohl nicht, denn nach Angaben des Norton Cybercrime Report 2011 haben knapp mehr als die Hälfte der Befragten bei Datenabfragen schon bewusst falsche Angaben gemacht (ibid.: 22). 226 9 Gläsern sind wir schon jetzt 9 9..77 PPr riivvaaccyy bbyy DDeessiiggnn Privacy by design bedeutet, den Schutz der Privatheit von Anfang an in Lösungen hineinzukonstruieren. Scanner in Sicherheitsschleusen von Flughäfen sind dafür ein Beispiel. Sie respektieren die privacy, weil sie Körper mit KI-Prinzipien der Mustererkennung lediglich als Symbol anzeigen, ohne Betroffene nackt erscheinen zu lassen. Die Hersteller haben sich dazu sogar von einer Ethikerin beraten lassen. Ihrer Empfehlung folgend tragen die Geräte die Aufschrift „Benutzung freiwillig“. Tatsächlich weigert sich aber niemand (BMBF/ Wi 2018: Lukas). „Privacy by Design“ prägt auch die EU-Datenschutzgrundverordnung. Sie beruht, wie wir schon gezeigt haben, auf den verfassungsrechtlich begründeten Prinzipien der Erforderlichkeit und der Zweckbindung. Beide ergeben nur zusammen Sinn, denn ohne Zweck lässt sich eine Erforderlichkeit nicht beurteilen. Eine Speicherung ohne vorgegebenen Zweck wäre eine Vorratsspeicherung, die nur unter besonderen Voraussetzungen erlaubt ist, etwa für statistische oder wissenschaftliche Zwecke (Schaar in: Fachgruppen 2016: 11). Für die wissenschaftliche Arbeit lassen sich zum Zeitpunkt der Erhebung personenbezogener Daten die späteren Zwecke oft aber gar nicht angeben. Betroffene sollten deshalb bestimmten wissenschaftlichen Forschungen entweder generell oder nur für bestimme Forschungsbereiche zustimmen können, wenn diese Forschung nach anerkannten ethischen Standards abläuft. Für Forschungsvorhaben gilt also eine weichere Zweckbestimmung, eventuell aber nur gestuft, also nur für einzelne Bereiche. Damit wird der in Deutschland schon praktizierte broad consent als zulässige Form der Einwilligung übergreifend geregelt (Gläß/ Drepper in ibid.: 23 ff.). Das heißt im Detail: Erstens: Die Verarbeitung personenbezogener Daten für Forschungszwecke hat gemäß Forschungszweck mit Datensätzen zu erfolgen, die zuvor anonymisiert wurden. Erlaubt dies der Forschungszweck nicht, sind die Daten soweit möglich zu pseudonymisieren. Zweitens: Die Verarbeitung von Personendaten für Forschungszwecke ist nur zulässig, wenn sie in einem System oder Netzwerk erfolgt, das die Forscher beherrschen und das gewährleistet, dass die Verfügbarkeit, Integrität, Vertraulichkeit, Transparenz, Intervenierbarkeit und Nichtverkettbarkeit der Daten festgelegt sind und beachtet werden. Drittens: Zulässig ist eine Verarbeitung erst nach einer auf ausreichender Information fußenden expliziten, freiwilligen, widerrufbaren Einwilligung der Betroffenen. Viertens: Ohne Einwilligung kann eine Verarbeitung für Forschungszwecke zulässig sein, wenn das öffentliche Interesse erheblich überwiegt und wenn der Zweck der Forschung anders nicht oder nur unverhältnismäßig schwer erreichbar ist. Fünftens: Forschungsverantwortliche dürfen personenbezogene Daten nur veröffentlichen, wenn die betroffene Person eingewilligt hat oder dies für Forschungsergebnisse über Personen der Zeitgeschichte unerlässlich ist. Die Rechte Betroffener müssen auch dann so weit wie möglich gewährleistet werden. Sechstens: Genehmigungspflichtig sind Projekte, bei denen hochsensitive Daten verarbeitet werden, etwa für Gensequenzierungen oder für Datenübermittlungen jenseits definierter Zwecke. Zeitlich nicht eng begrenzte Studien bzw. Forschungsdatenbanken müssen immer vorab genehmigt werden. Für internationale Studien, Forschungsnetzwerke, Krankheitsregister, Biomaterialdatenbanken und ähnliches kann das Bund-Länder-Forschungsgremium zusätzliche Standards festlegen (ibid.: 33). Gestaltungsspielraum besteht bei der Transparenz von Profilen (wie klar lassen sich Daten einzelnen Personen zuordnen? ), bei der Benutzerkontrolle (wenn jemand in algorith- 9.7 Privacy by Design 227 menbasierten Geschäftsmodellen mit der Benutzung personenbezogener Daten Geld verdient, sollen die Betroffenen am Mehrwert teilhaben - Broemel/ Trute 2016: 62) und bei zivilrechtlichen Ansprüchen aus der Datenübertragbarkeit oder Rücktrittsoptionen. Außerdem gibt es Ansprüche auf Berichtigungen und Widerspruch sowie auf Rechenschaftspflichten (European Data Protection Supervisor 2015: 10ff.). Schürfrechte am Leben Alle diese Regelungen greifen aber nicht, wenn Dateneigentümer aus welchen Gründen immer freiwillig auf ihre Durchsetzung verzichten. Sollte man meinen, so leichtsinnig seien Menschen nur selten? Man sollte es nicht. Googlebzw. Alphabet-Chef Schmidtbaut auf diese Verzichtsbereitschaft, auf die Einräumung von „Schürfrechten am Leben“, so die Harvard-Professorin Shosana Zuboff (cit. Keese 2014: 224): „In einem neuen Gesellschaftsvertrag“, sagte Schmidt nämlich, würden die Nutzer freiwillig Dinge hergeben, „die ihnen in der physischen Welt wichtig sind: Privatsphäre, Sicherheit, persönliche Daten, um damit in den Genuss der Vorteile zu kommen, die ihnen das Netzwerk in der virtuellen Welt bietet“ (cit. Keese 2014: 224). Der Alltag in den sozialen Medien gibt ihm vollständig recht. Andere Personen gehen noch weiter: „Seit 2006 veröffentliche ich auf meiner Webseite jede Vorlesung und Rede, die ich halten werde, und jeden Flug, den ich buche, bis hin zur Nummer meines Sitzplatzes. Ich tue dies aus der Überzeugung heraus, dass der reale, greifbare Mehrwert, den wir aus der Mitteilung von Daten über uns ziehen, die Risiken überwiegt“ (Weigand/ Santos 2017: Einleitung). Nach zwei Jahrzehnten Arbeit für Datenfirmen zeigt Weigand sich überzeugt, „dass die Prinzipien der Transparenz und selbstbestimmten Handlungsfähigkeit am vielversprechendsten sind, um uns vor dem Missbrauch sozialer Daten zu schützen“ (ibid.). Ob das für den alltäglichen Umgang von Laien mit Daten in einer Umgebung ausreicht, in der Profis diese Daten abgreifen, ist aber fraglich. Weigand hält dazu sechs Rechtsgarantien für nötig. Zwei dieser Rechte, das auf Datenzugang und das zur Inspektion von Datenfirmen, sollen dem Zweck dienen, die Transparenz zu erhöhen. Die übrigen vier Rechte zielen darauf, dem Dateneigentümer mehr Handlungsfähigkeit zu verschaffen, und zwar durch das Recht, Daten zu ergänzen, das Recht, sie zu verwischen, das Recht, mit Daten zu experimentieren und das Recht, sie zu portieren, also zu anderen Firmen mitzunehmen“ (ibid.). Verbraucher und Unternehmen benötigen zumindest Empfehlungen und Leitfäden, wie Datenschutzvorgaben am Besten umzusetzen sind. Dafür eignet sich nach Ansicht des Branchenverbandes Bitkom die „regulierte Ko-Regulierung": Anwender leiten aus best practices Verhaltensregeln ab, die die EU-Kommission oder Aufsichtsbehörden als rechtskonform anerkennen und ggf. für allgemeingültig erklären. Solche Prozesse sind in der Grundverordnung angelegt. Organisationen, die die Verwaltung und Überwachung solcher Regelungen übernehmen können, gibt es bereits (Bitkom 2017b: 10). Datenschutz in den Zeiten von Big Data Big Data sind auf der EU-Rechtsebene ein Problem eigener Art. In der EU-Datenschutzgrundverordnung spielt der Begriff noch gar keine Rolle. Big Data sind weder unzulässig noch ohne Weiteres zulässig. Das rechtliche Gebot der Datensparsamkeit widerspricht allerdings grundsätzlich dem volume, also der Datenmenge, die Big Data zugrunde liegt. Bei *Big Data geht es außerdem um mehr als nur um volume, velocity und variety, nämlich auch um veracity, also um Richtigkeit und Vertrauenswürdigkeit. 228 9 Gläsern sind wir schon jetzt Man kann Daten nach der Art ihrer Erhebung in vier Kategorien einteilen: Erstens können einzelne Personen sie bewusst, also freiwillig zur Verfügung stellen; zweitens können diese Personen beobachtet und diese Beobachtungen von anderen als Daten aufgezeichnet werden; drittens lassen sich neue Daten, die auch eine einzelne Person betreffen können, aus anderen ableiten oder schließlich viertens: es handelt sich um Daten, die ermitteln, wie wahrscheinlich etwas ist; sie werden zu Vorhersagen von Verhalten benutzt. Bezieht man diese Kategorien auf den Datengebrauch und den Datenschutz, zeigen sich charakteristische Ungereimtheiten: Der Datengebrauch löst sich bei Big Data zunehmend von der einzelnen Person und damit von den Rechten, die diese Person an ihren Daten hat. Das verringert immer mehr die Kontrolle des Einzelnen über die Erhebung und Nutzung der Daten. Und was ebenso kennzeichnend ist: Das Datenschutzrecht fußt vor allem auf den oben genannten Kategorien eins (freiwillige Hergabe von Daten) und zwei (Daten aus der Beobachtung von Verhalten. Big Data-Auswertungen basieren aber meist auf den Kategorien drei (aus anderen Daten abgeleitete neue Daten) und vier (Wahrscheinlichkeitsdaten) (Broemel/ Trute 2016: 52). Das passt nicht zusammen. Darin steckt in den Zeiten von Big Data die eigentliche Datenschutzproblematik. In Big Data-Anwendungen rechnen Algorithmen in erfahrungsbasierten, vorgegebenen Zusammenhängen. Dies ist ein typischer, wenn auch nicht immer industrietypischer Anwendungsfall einer top down-Strategie: Ziel und Weg liegen fest, und die nötigen Daten bringt man dann schon zusammen. Anders ist es, wenn man folgende Beobachtung zugrunde legt: „Wenn Mobiltelefonierer durchweg online sind und das Gerät regelmäßig nutzen, reichen schon die Daten von drei Monaten aus, um aus den gespeicherten Standortdaten nicht nur rückblickend ein Bewegungsprofil des Menschen abzuleiten, der das Handy benutzt, sondern auch vorherzusagen, wann sich die Person in Zukunft wo aufhalten wird“ (Stampfl 2013: 51). Das ist ein typisches bottom up-Auswertungsergebnis. Immer häufiger funktionieren Big Data-Auswertungen bottom up. Algorithmen und überhaupt maschinell lernende Artefakte (MLA) können zwei unterschiedlichen Lernstrategien folgen: zielorientiertem (top down-) und ergebnisoffenem (bottm up-)Lernen. Übrigens können MLA auch falsch lernen, etwa wenn ein MLA einen Aufkleber auf einem Lastwagenheck als Verkehrsschild missinterpretiert oder wenn ein Schattenwurf oder Spiegelungen des Sonnenlichts auf einer Pkw-Karosserie als wesentliche Fahrzeugteile betrachtet werden, so dass das System nachts nicht funktioniert, weil es beim Training doch immer hell war (Wadephul 2016: 42). Lernen sie aber korrekt, dann arbeiten sie zielorientiert nach einem relativ autonomen Autoadaptionsprozess, bei dem Probleme mit einer Vorstrukturierung gelöst werden sollen, top down also (ibid.: 39). Ergebnisoffene, auch „neugierig“ genannte MLA arbeiten hingegen sie erwähnt bottom up; sie können in Lernschritten auch ihre Programmstruktur und sogar die Möglichkeiten zur Adaption dieser Programmstruktur ändern (Harrach 2014: 14). Anspruchsvollere Algorithmen generieren deshalb qualitativ neues Wissen über bislang unbekannte Zusammenhänge (Broemel/ Trute 2016: 55). Diese algorithmenbasierte Erzeugung von Hypothesen verspricht auf vielen Feldern so viel, dass auch Disziplinen, die ohne Big Data-Analysen mit traditioneller Methodik nach wie vor gut arbeiten können, es sich kaum leisten können, Big Data zu ignorieren (ibid.: 59). Ein Beispiel für eine solche Analyse von Daten, über die bislang kaum einschlägiges Vorwissen besteht, ist die DNA-Sequenzierung (ibid.). Dabei geht es um die Essenz des Menschseins, aber nicht um einzelne Menschen. Personenbezogene Daten spielen daher kaum eine Rolle. Der Internetexperte Doc Searls, Mitverfasser des Cluetrain Manifesto, hat scharf kritisiert, dass die „Datenkraken“ mit unserer Privatheit im Netz nach Belieben umgehen: „Wenn 9.7 Privacy by Design 229 wir Google und Facebook wie eine Infrastruktur behandeln würden, wie Straßen oder Kraftwerke, würden Beamte sie immer wieder inspizieren, damit nichts falsch läuft. So aber weiß niemand, was dort passiert, die Datenzentren sind absolut blickdicht“ (Kuhn 2015). Es gibt deshalb Forderungen, auch Betreiber sozialer Netzwerke gesetzlich dazu zu zwingen, ihre Leistungen zumindest in einer Variante ohne personenbezogene Daten anzubieten (Schweitzer u.a. 2016: 22). Verpflichtungen dieser Art gibt es nicht, und eine nur freiwillige Option, so zu verfahren, würde das Datenschutzgrundproblem dieser Netzanbieter auch nicht erledigen (Broemel/ Trute 2016: 56). Es bleibt vorerst ungelöst. Erledigt ist dagegen der Datenschutz bei Big Data für statistische Zwecke. Das Bundesverfassungsgericht hat sie von der Zweckbindung personenbezogener Daten ausgenommen (BVerfG 1983: Rn. 160). Dort spielt das Kernproblem, das Big Data datenschutzrechtlich haben, keine Rolle: die ungewisse Verwendung. Der Wert von Big Data liegt ja gerade darin, dass sie zu noch unbekannten Zwecken genutzt werden können und sollen. Diese können also gar nicht „vorab bekannt sein oder sein müssen“ (Broemel/ Trute 2016: 52). Der herkömmliche Datenschutz bleibt auf der Ebene personenbezogener Daten stehen, die als Datengrundlage in Big Data-Anwendungen aber oft gar nicht nötig sind. Personendaten, so haben wir gesehen, sollen sparsam und nur dann erhoben werden, wenn es erforderlich ist, und sie sollen zweckgebunden verwendet werden. Die Big Data-Technologie nutzt aber, wie wir ebenfalls gesehen haben, möglichst große Datenmengen aus heterogenen Datenbanken für zum Teil noch unbekannte Zwecke (ibid.: 53). Solche vor allem aus dem Internet für ein geringes oder ohne Entgelt bezogenen Daten machen es möglich, Verhalten in großem Stil zu beobachten und algorithmenbasiert aufzubereiten. Big Data-Anwendungen machen also, wie sich zeigt, Regulierungsgrenzen sichtbar: Wer vorrangig auf die Kontrolle personenbezogener Daten und eine vorab definierte Verwendung setzt, kann Big Data nicht richtig greifen. Daten, die jemand freiwillig für vorab (ex ante) definierte Zwecke zur Verfügung stellt oder abgeleitete Daten sind eben von anderer Qualität und Sensibilität und deshalb anders zu bewerten als nur statistisch erschlossene. Das hat Konsequenzen für ihren Einsatzwert. Die „ex ante-Steuerung eignet sich allenfalls für bekannte Wege logischer Ableitung“, etwa für die Automatisierung und Überwachung von Standardabläufen, nicht aber „für den eigentlichen Bereich algorithmenbasierter Wissensgenerierung“, also für die Ermittlung von Innovationen (ibid.: 60). Zukunftsfähige Regeln für die Wissenserzeugung und -verwendung im Big Data-Maßstab müssen sich bei der Bewertung der Daten dezidiert vom Indiviualbezug lösen, der das übliche Datenschutzkonzept prägt (Broemel/ Trute 2016: 61, vgl.Ladeur 2015, 2016a). Das geschieht auch. Für Firmen machen algorithmenbasierte Aktivitäten der Wissensgenerierung „oftmals den attraktivsten Teil der Wertschöpfung aus“ (ibid: 55). Datenschutzfolgenabschätzung „Wir leben in dem falschen Glauben, wir hätten so etwas wie Privatsphäre“, sagen Mitnik/ Vamosi (2017: Vorwort). Selbst wenn wir diesem Satz nicht pauschal zustimmen: Was würden wir aufgeben, wenn wir auf privacy verzichteten? Mit Sicherheit viel; denn diese privacy „gibt die innere Ruhe, einmal ganz man selbst zu sein“ (ibid.). Wir brauchen Rückzugsräume. Eine kreative und pluralistische Gesellschaft funktioniert nur, wo es Privatbereiche gibt, geschützte Räume, in denen man selbst bestimmt, „ob, wann und wem man etwas sagt und mit wem man sich austauscht“ (ibid.). Privatheit, bestätigt die Philosophin Beate Rössler, heiße Kontrolle darüber zu haben, wer was über mich weiß. Das schließe die Kontrolle darüber ein, welche Personen Zugang oder Zutritt zu meinem Privatleben haben (Rössler 2001). 230 9 Gläsern sind wir schon jetzt Solche Überlegungen haben nicht allein mit dem juristischen Verständnis von Privatheit zu tun, sondern viel auch mit ihrem ethischen. Ethik ist eine philosophische Wissenschaft der Moral und des sittlichen Handelns. Sie ermittelt und bewertet die in einer Gesellschaft geltenden Maßstäbe und Überzeugungen. Für die Antwort auf die Frage, warum in einem Gemeinwesen bestimmte Werte und Normen gelten sollen, verlangt sie gute Gründe. Eine Ethik entwickelt also konsensfähige Kriterien, die den Menschen eine Handlungsorientierung ermöglichen. Um es zu betonen: Sie sagt nicht, was rechtens, sondern was richtig ist. Sie beantwortet die Frage: Was soll ich tun? Man kann sie als Theorie und Richtschnur richtigen Handelns beschreiben. Sie kann und soll eine wertebezogene Haltung erzeugen und fördern. Das gilt in unserer alltäglichen analogen Welt ebenso wie in der digitalen Datenwelt. Datenschutzfolgenabschätzung ist deshalb ohne ein ethisches Fundament kaum vorstellbar. Nach Artikel 35 der Datenschutzgrundverordnung muss diese Abschätzung dokumentieren, ob der Datengebrauch für Betroffene Risiken erzeugt - nicht nur rechtlich fassbare, sondern auch moralische. Die Datenschutzfolgenabschätzung ist also eine Schnittstelle von Ethik und Recht. Sie prägt auch die corporate social responsibility von Organisationen. Eine in deutsches Recht umgesetzte europäische Richtlinie definiert dazu Berichterstattungspflichten über gesellschaftsverträgliche Geschäftsmodelle von Unternehmen. Auch dort spielt privacy eine große Rolle. Eine zentrale Rolle hat die Datenschutzfolgenabschätzung in der EU-Charta digitaler Grundrechte. Diese Charta haben 27 Initiatoren 2016 entworfen, um für die digitale Ethik eine Diskussionsgrundlage zu schaffen. Sie schlägt Regelungen zum Umgang mit Big Data vor, auch zu bot-Techniken, also zu Kommunikationsautomaten, zu Künstlicher Intelligenz, zu Netzneutralität und zu vielen weiteren digitalen Themen. Sie ist kein Gesetzentwurf und hat auch nicht dessen üblichen Weg durch politische und staatliche Gremien hinter sich. Sie wurde nicht einmal von EU-Politikern vorgestellt, die sie im EU-Parlament zur Abstimmung stellen müssten, sondern vom Chefredakteur der Wochenzeitung Die Zeit Giovanni di Lorenzo, vom Netzexperten Sascha Lobo, vom damaligen Präsidenten des EU-Parlaments, späteren SPD-Kanzlerkandidaten und kurzzeitigen SPD-Vorsitzenden Martin Schulz und anderen unter Federführung der ZEIT-Stiftung. Die Stiftung veröffentlichte die Charta am 30. November 2016 in vier Spachern: auf deutsch, englisch, französisch und spanisch im Netz und als ganzseitige Anzeige in einigen Zeitungen. Die damit angestoßene öffentliche Diskussion im Netz soll den Text noch „reifen“ lassen, wie der Computerexperte und Kritiker des computer big businessSascha Lobo es ausdrückte. Artikel sollen ergänzt, verändert oder auch gelöscht werden können. Um diese Diskussion zusätzlich asnzuregen, haben wir diese Digitalcharta im Worlaut auch in dieses Buch aufgenommen; nur wenige untergeordnete Absätze sind im Folgenden zu einem zusammengezogen. 9 9..88 DDiiee DDiiggiittaallcchhaarrttaa Die Digitalcharta sagt nach einer Präambel: 1: Die WuRrde des Menschen ist auch im digitalen Zeitalter unantastbar. Diese muss Ziel und Zweck aller technischen Entwicklung sein und begrenzt deren Einsatz. Neue GefaRhrdungen der MenschenwuRrde ergeben sich im digitalen Zeitalter insbesondere durch Big Data, kuRnstliche Intelligenz, Vorhersage und Steuerung menschlichen Verhaltens, MassenuRberwachung, Einsatz von Algorithmen, Robotik und Mensch-Maschine-Verschmelzung 9.8 Die Digitalcharta 231 sowie Machtkonzentration bei privaten Unternehmen. Die Rechte aus dieser Charta gelten gegenüber staatlichen Stellen und Privaten. 2, 3: Jeder hat ein Recht auf freie Information und Kommunikation. Dieses Recht ist konstitutiv für die freie Gesellschaft. Es beinhaltet das Recht auf Nichtwissen. Jeder Mensch hat in der digitalen SphaRre das Recht auf eine gleichberechtigte Teilhabe. Es gilt das in der Europäischen Grundrechte-Charta formulierte Diskriminierungs-Verbot. Die Verwendung von automatisierten Verfahren darf nicht dazu führen, dass Menschen vom Zugang zu Gütern, Dienstleistungen oder von der Teilhabe am gesellschaftlichen Leben ausgeschlossen werden. Dies gilt besonders im Bereich Gesundheit, beim Schutz vor elementaren Lebensrisiken, dem Recht auf Arbeit, dem Recht auf Wohnen, dem Recht auf Bewegungsfreiheit und bei der Justiz und der Polizei. 4: Im digitalen Zeitalter werden innere und äußere Sicherheit auf neue Weise bedroht. Bei der Ausübung der Schutzverantwortung des Staates sind enge rechtsstaatliche Grenzen zu beachten. Sicherheitsbehörden duRrfen nicht auf durch Private erhobene Daten zugreifen. Ausnahmen sind nur auf gesetzlicher Grundlage zum Schutz besonders wichtiger Rechtsgüter zulaRssig. Eine anlasslose Massenüberwachung findet nicht statt. Waffensysteme dürfen nicht vollautomatisiert eingesetzt werden. 5: Jeder hat das Recht, in der digitalen Welt seine Meinung frei zu äußern. Eine Zensur findet nicht statt. Digitale Hetze, Mobbing sowie AktivitaRten, die geeignet sind, den Ruf oder die Unversehrtheit einer Person ernsthaft zu gefährden, sind zu verhindern. Ein pluraler oRffentlicher Diskursraum ist sicherzustellen. Staatliche Stellen und die Betreiber von Informations- und Kommunikationsdiensten sind verpflichtet, fuRr die Einhaltung von Absatz 1, 2 und 3 zu sorgen. 6, 7: Profiling durch staatliche Stellen oder Private ist nur auf gesetzlicher Grundlage zulässig. Jeder hat das Recht, nicht Objekt von automatisierten Entscheidungen von erheblicher Bedeutung fuRr die LebensfuRhrung zu sein. Sofern automatisierte Verfahren zu Beeinträchtigungen fuRhren, besteht Anspruch auf Offenlegung, URberprüfung und Entscheidung durch einen Menschen. Die Kriterien automatisierter Entscheidungen sind offenzulegen. Insbesondere bei der Verarbeitung von Massendaten sind Anonymisierung und Transparenz sicherzustellen. 8: Ethisch-normative Entscheidungen koRnnen nur von Menschen getroffen werden. Der Einsatz und die Entwicklung von Künstlicher Intelligenz in grundrechtsrelevanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden. FuRr die Handlungen selbstlernender Maschinen und die daraus resultierenden Folgen muss immer eine natürliche oder juristische Person verantwortlich sein. Bei Infrastrukturen, die fuRr das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisenvorsorge gewährleistet sein. 9: Die Informationen staatlicher Stellen muRssen öffentlich zugänglich sein. Das Transparenzgebot gilt auch gegenüber Privaten, sofern diese über Informationen verfügen, die für die Freiheitsverwirklichung Betroffener von entscheidender Bedeutung sind. 10, 11: Jeder hat das Recht, in seiner Wohnung frei und unbeobachtet zu leben. Jeder hat das Recht auf den Schutz seiner Daten und die Achtung seiner Privatsphäre. Jeder hat das Recht, uRber seine Daten selbst zu bestimmen. Personenbezogene Daten dürfen nur nach Treu und Glauben und für festgelegte Zwecke erhoben und verarbeitet werden, wenn dies für das jeweilige Nutzungsverhältnis erforderlich ist und eine vorherige Einwilligung erfolgt ist oder auf gesetzlicher Grundlage. Die Einwilligung muss ausdruRcklich und informiert erfolgen. 232 9 Gläsern sind wir schon jetzt Nutzungsverhältnisse müssen fair und transparent gestaltet werden. Die Einhaltung dieser Rechte wird von einer unabhängigen Stelle überwacht. Anbieter von Diensten oder Produkten dürfen nur solche Daten erheben und verarbeiten, welche für den Zweck der Benutzung erforderlich sind. Die Grundsätze von privacy by design und privacy by default sind einzuhalten.“ Ein Einschub: Unter privacy by design versteht man folgende Grundsätze: „Proaktiv, nicht reaktiv; als Vorbeugung und nicht als Abhilfe. Datenschutz als Standardeinstellung. Der Datenschutz ist in das Design eingebettet. Volle Funktionalität - eine Positivsumme, keine Nullsumme. Durchgängige Sicherheit - Schutz während des gesamten Lebenszyklus. Sichtbarkeit und Transparenz - für Offenheit sorgen. Die Wahrung der Privatsphäre der Nutzer - für eine nutzerzentrierte Gestaltung sorgen“ (digitalcourage o.J.a). Die Grundsätze von privacy by default sind die folgenden: „Datenschutzfreundliche Grundeinstellungen müssen zum Standard werden. Dafür braucht es einen Dialog mit Akteuren aus Politik, Wirtschaft und Zivilgesellschaft, der hierfür verbindliche Regeln generiert. Einfache Sprache und Bedienbarkeit von Datenschutzerklärungen und -menüs. Genaue und verständliche Aufklärung über die Verwendung von Daten. Dem Dschungel an permissions, denen man beim Installieren einer App zustimmen muss, muss Einhalt geboten werden. Daten dürfen nicht aus purer Laune erfasst werden“ (digitalcourage o.J.b). So weit dieser Einschub, und nun zurück zur Digitalcharta: „12, 13: Die Unversehrtheit, Vertraulichkeit und Integrität informationstechnischer Systeme ist sicherzustellen. Jeder hat ein Recht auf Verschlüsselung seiner Daten. Jeder hat ein Recht auf Sicherheit von informationstechnischen Systemen und der durch sie verarbeiteten Daten. Dabei ist höchstmoRglicher Schutz zu gewährleisten. Identitätsdiebstahl und IdentitaRtsfälschung sind zu bekämpfen. 14, 15: Das Recht, an Wahlen und Abstimmungen teilzunehmen, darf nicht an den Zugang zu digitalen Medien gebunden werden. Jeder Mensch hat das Recht auf freien, gleichen und anonymen Zugang zu Kommunikationsdiensten, ohne dafür auf grundlegende Rechte verzichten zu müssen. Das Internet ist Bestandteil der Grundversorgung. Jeder hat das Recht auf eine nicht-personalisierte Nutzung digitaler Angebote. 16, 17: Netzneutralität ist zu gewaRhrleisten. Dies gilt auch fuRr Dienste, die den Zugang zur digitalen SphaRre vermitteln. In der digitalen Welt sind Pluralität und kulturelle Vielfalt zu gewährleisten. Offene Standards sind zu fördern. Marktmissbräuchliches Verhalten ist wirksam zu verhindern. 18, 19: Jeder hat das Recht auf digitalen Neuanfang. Das findet seine Grenzen in den berechtigten Informationsinteressen der Öffentlichkeit. Kinder, Heranwachsende, benachteiligte und besonders schutzbeduRrftige Personen genießen in der digitalen Welt speziellen Schutz. Ihre Teilhabe an der digitalen Welt ist zu fördern. 20-22: Jeder hat ein Recht auf Bildung, die ein selbstbestimmtes Leben in der digitalen Welt ermöglicht. Digitalisierung ist eine elementare Bildungsherausforderung. Sie besitzt einen zentralen Stellenwert in den Lehrplänen öffentlicher Bildungseinrichtungen. Arbeit 9.8 Die Digitalcharta 233 bleibt eine Grundlage des Lebensunterhalts und der Selbstverwirklichung. Im digitalen Zeitalter ist effektiver Arbeitsschutz zu gewährleisten. Der digitale Strukturwandel ist nach sozialen GrundsaRtzen zu gestalten. Rechteinhabern steht ein fairer Anteil an den Erträgen zu, die aus der digitalen Nutzung ihrer Immaterialgüter erwirtschaftet werden. Diese Rechte müssen in Ausgleich gebracht werden mit nicht-kommerziellen Nutzungsinteressen. 23: Die Auslegung der in dieser Charta enthaltenen Rechte obliegt in letzter Instanz dem Europäischen Gerichtshof. Ausübung und Einschränkung der Rechte und Grundsätze dieser Charta erfolgen entsprechend Art. 52 EGC. Rechte und Pflichten aus dieser Charta gelten für alle Unternehmen, die auf dem Gebiet der EU tätig sind. Die Festlegung eines Gerichtsstands außerhalb der EU ist unzulässig“ (https: / / digitalcharta.eu/ ). Die Charta der Bürgerrechte für eine nachhaltige Wissensgesellschaft Dieser Digitalchartaentwurf ist nicht der erste Versuch zu einem normativen Rückgrat der digitalen Welt. Schon im Jahr 2003 entwarf eine Expertengruppeals Diskussionsgrundlage für den damaligen UN-Weltkongress zur Informationsgesellschaft. eine „Charta der Bürgerrechtefür eine nachhaltige Wissensgesellschaft“. Aber sie interessierte nicht groß. „Damals waren viele ja noch nicht im Netz angekommen“ (Beckedahl 2016). Der Entwurf der damaligen Charta wurde kontrovers aufgenommen, zumindest in Deutschland. Die ehemalige Bundesjustizministerin Sabine Leutheusser-Schnarrenberger unterstützte diese Initiative: „Ich freue mich“, sagte sie auf einer Tagung der Akademie für politische Bildung in Tutzing am Starnberger See, „dass es diesen Anstoß auf europäischer Ebene gibt. Wir brauchen eine öffentliche Debatte über diese Themen“ (Schröder 2016). „Wenn wir keinen Rahmen schaffen, innerhalb dessen sich die Digitalisierung entfalten soll“, hatte sie schon im August 2016 in einem Tutzinger Sommergespräch erklärt, „dann kann das die Privatsphäre, die Persönlichkeitsrechte und auch die Freiheit des Menschen gefährden.“ Markus Beckedahl, der schon an der Charta von 2003 mitgearbeitet hatte, stimmte zu: „Es ist eine weitere Diskussionsgrundlage über die Gestaltung einer zukunftsfähigen Netzpolitik. Nicht mehr und nicht weniger. Und das ist gut so“ (Beckedahl 2016). Kritiker hingegen sagen, die Charta sei „der Stoßrichtung nach nicht falsch, aber im Zweifel so wolkig formuliert wie ein Gummiparagraph“ (Hanfeld 2016). Und: Es gebe „vieles zu bemängeln“ (Mirau 2016). Der zuletzt zitierte Kritiker setzt dann aber doch hinzu: „Am Ende steht fest: Den Aufruhr war es wert“ (ibid.). Das Wort Aufruhr wohl eine gelinde Schönförberei. Der Entwurf interessierte, aber bewegte schließlich nichts und veränderte vor allem nichts. Deshalb bleibt zu fragen: Wie kann eine Datenethik Allgemeingut werden? Theoretisch ist das recht einfach möglich. Ein Beispiel aus Einem anderen Wirtschaftsgebiet: Schon lange ehe es ein Handelsgesetzbuch gab, galt das Prinzip des „ehrbaren Kaufmanns“. Die Wirtschaft, wünscht sich der Vorsitzende des Deutschen Ethtikrats Peter Dabrock, sollte in Anlehnung hieran klare Aussagen darüber machen, was einen ehrbaren Datenkaufmann kennzeichnet (BMBF/ Wi 2018: Lukas). Zu dessen Aufgaben werde der Datenschutz ganz selbstverständlich gehören. Bis Übereinkünfte solcher Art ausgearbeitet sind und allgemeine Geltung erringen, empfiehlt der Ethikrat eine Art Zwischenlösung. Dabrock plädiert für Datentreuhänder. „Diesen Organisationen könnte der Einzelne gegen eine Gebühr das tracking der Verwendung der eigenen Daten durch Dritte übertragen.“ Bei Problemen könne der Treuhänder eingreifen. „Das wäre niederschwellig, effektiv, geschähe in Echtzeit und diesseits von langwierigen Klagewegen“, erklärte Dabrock (Anger 2018). 234 9 Gläsern sind wir schon jetzt 9 9..99 WWaass eet th hi isscch he e NNo or rmme en n lleeiis stteenn kkö önnnne enn „Eine Big Data-Ethik ist in erster Linie eine Sozialethik. Ihre Ziele sind der Schutz, die Stärkung und die Befähigung des Einzelnen, seiner informationellen Freiheitsgestaltung und seiner Datensouveränität. Das fordert nicht nur den Einzelnen, Vorsicht walten zu lassen, sondern verlangt einen multidimensionalen, multiakteursbezogenen Governance- Ansatz“ (BMBF/ Wi 2018: Dabrock). Das sehen allmählich auch Firmen ein und warten nicht auf den Staat. Der Software- Konzern SAP hat eigene Leitlinien für Künstliche Intelligenz (KI) entwickelt und dazu einen externen Beirat aus vier Professoren und einem Wissenschaftler für den ethischen Umgang mit KI berufen, unter ihnen den eben zitierten Professor für Systematische Theologie an der Universität Erlangen-Nürnberg und Vorsitzenden des Deutschen Ethikrats Peter Dabrock. Der Beirat soll noch um weitere Mitglieder wachsen (Hensel 2018c). Auf einen Blick zeigen Beispiele, dass normative Regelnnötig sind, entweder durch verpflichtende Vereinbarung der Akteure oder unter Einbeziehung des Staates: Soll im Straßenverkehr in Zukunft ein Algorithmus entscheiden, ob bei einem Unfall das Leben eines Fußgängers höher bewertet wird als das eines Autofahrers? Sollen Versicherungen Prämien am Lebensstil eines Versicherten ausrichten dürfen? Der US-Versicherer Progressive nutzt bereits ein Telematikgerät namens Snapshot, das das Einhalten von Tempobegenzungen überwacht und sich positiv die Autoversicherungsprämie auswirken kann (Stricker 2014: 3). Ethische Festlegungen müssen noch einen Punkt berücksichtigen: Menschen entwickeln Gedanken deduktiv, Algorithmen aber iterativ (Jaume-Palasi 2017). Sie errechnen nur Wahrscheinlichkeiten. Gründe und Folgen einer wahrscheinlichen Entwicklung betreffen sie nicht. Ein algotrader beachtet keine menschlichen und gesellschaftlichen Konsequenzen einer wirtschaftlichen Entscheidung, die mit seinen Operationen einhergehen, auch wenn Menschen aufgrund algorithmischer Entscheidungen möglicherweise zu Tode kommen (Sorgner/ Lüpke 2017: 43). Müssen wir das hinnehmen? Antworten werden zu Recht eingefordert, ebenso wie ganz generell zur informationellen Selbstbestimmung, zum Umgang mit Künstlicher Intelligenz und zur Sicherheit unserer Daten sowie zur Netzneutralität. Sie werden rechtliche und ethische Aspekte haben müssen. Solche Regeln, an die sich alle zu halten haben, sind schon deshalb nötig, weil Gesetze nicht immer greifen: Ein Datensatz, den man sich aus dem Netz herunterladen kann, ist gemeinfrei (in the public domain), auch falls er ursprünglich illegal beschafft wurde, „so dass seine Nutzung keiner Genehmigung durch eine Ethikkommission bedarf“, urteilt Kalev Leetaru vom George Washington University Center for Cyber & Homeland Security (Spielkamp 2016). Leetarus Fazit: „Es existiert kein eindeutiger Prozess, der es ermöglicht, die ethischen Rechtfertigungen für ein bestimmtes Forschungsprojekt zu prüfen“ (ibid.). Und die Antwort einer Sprecherin auf die Frage zum ethischem Umgang mit Daten bei SAPmacht deutlich, dass von allein wenig geschieht: „Was wir machen, ist, aus der Umgebung einfach Datenpotenziale in die Kommerzialisierung zu heben“ (Bitkom 2017 Arnold). Ethische Normen können abstrakte, rechtlich nur schwer fassbare Begriffe wie etwa Unrecht konkretisieren. Sie geben außerdem der Rechtspolitik Impulse, weil sie schon bestehen, bevor Recht entsteht. Ein Beispiel: Juristisch gibt es noch kein Dateneigentum. Rechtsnormen, die Dateneigentum etwa im Internet der Dinge oder für elektronisch vernetzte Automobile festlegen, sind erst noch zu beschließen. Aber dürfen diese Daten überhaupt jemandem ausschließlich gehören? Widerspricht das nicht der informationellen Selbstbestimmung? Das muss geklärt werden. Die Debatte über eine Digitalcharta muss also weitergehen. 9.9 Was ethische Normen leisten können 235 Weitergehen muss auch die Debatte darüber, ob wir uns von der schönen neuen Welt der Daten unverhältnismäßig abhängig machen, etwa von Algorithmen. Algorithmustransparenz ist deshalb eine neue Anforderung. Die Gesellschaft wird sie von ihren Entwicklern und Anwendern fordern (Gatzke/ Gruhn 2018). Wenn Benehmen „Moral im Kleinen“ ist, dann bedeutet die hohe Zuwendung an technische Systeme wie etwa soziale Netzwerke nach Pasquales Überzeugung „eine Verschiebung unserer ethischen Orientierung weg von den uns umgebenden Menschen hin zu einer intensiven Verbindung mit einem Cyber-Netzwerk“ (2017: 97). Der Effekt sei ein so zerbrechlicher neuer Narzissmus, dass er ständig diese technische Unterstützung brauche (ibid.). Die dazu benutzten Systeme könnten so viel einfordern wie sie geben und uns deshalb in einem Hamsterrad gefangen halten (ibid.). Noch kritischer urteiltdie Rechtswissenschaftlerin Anita Allen.Die Professorin an der Pennsylvania University sieht in dem „Verlangen, aufgezeichnete Daten weiterzugeben, die Gefahr, dass „jedes vernetzte Gerät zum Spitzel“ wird (cit. ibid.: 100). Wie real diese Gefahr ist, haben wir schon gesehen. Bereits 2012 zeichneten die britischen Government Communications Headquarters jeden Tag über 50 Milliarden Metadaten auf, heute dürften es über hundert Milliarden sein (Eberl 2016: 268 f.) In China waren 2016 bereits 176 Millionen Überwachungskameras in Betrieb, bis zum Jahr 2020 sollen es mehr als 600 Millionen sein (Strittmatter 2018). Um das bewusster zu machen, hat der chinesiche Künstler Xu Bing aus 11.000 Stunden Aufzeichnungen dieser Kameras bereits den ersten 81 Minuten langen Spielfilm montiert, für den keine einzige der knapp 600 Szenen gespielt oder gedreht werden musste. AlleVideos, die in diesem Film ‚Die Augen der Libelle‘ verarbeitet sind, stammen aus chinesischen Überwachungs- und Livestream-Kameras (ibid.). Julie Cohen (2012) geht noch weiter: Überwachungsapparate würden auch eingerichtet, „um bestimmte Arten von Menschen zu erschaffen“. Die meisten Bürger nähmen das mehr oder minder achselzuckend als „eine Art Kriegsneurose“ hin, als Resignation vor ständiger Überwachung (ibid.: 101). Wem das zu apokalyptisch klingt, der sei an folgende Meldung erinnert: „Teenager können nicht aufhören, Facebook zu benutzen, auch wenn sie es hassen“ (Bosker 2014). Offenbar gibt es also Wege, um Handlungen auch gegen den Willen der Handelnden zu konditionieren (Yoffe 2009, Levine 2013). „Die Plattformen“, erklärt der Juraprofessor an der amerikanischen Universität Maryland Frank Pasquale, „prägen uns kontinuierlich auf der Basis ausgefeilter psychologischer Profile“ (2017: 103). Was zu tun ist, ist negativ formuliert relativ klar: „Datensparsamkeit ist nicht nur wirklichkeitsfern, sondern auch innovationshemmend“ (Lobe 2018). Was aber bedeutet das positiv formuliert? Es könnte zumindest bedeuten, „dass wir in einem Moment, wo das Internet der Dinge allmählich auch den menschlichen Körper ans Netz nimmt…, so etwas wie einen ökologischen Umgang mit Daten brauchen, der a priori überlegt, ob Daten überhaupt emittiert werden müssen“ (ibid.). Vielleicht, heißt es dort weiter, „sollte man den Datenkapitalismus wie den Emissionsrechtehandel organisieren, wo jeder Emittent nur eine bestimmte Datenmenge freisetzen darf“ (ibid.). Was gegen die bislang unbremsbare Datenflut zu tun ist, erörterten Mitte 2017 auch Experten im Deutschen Patent- und Markenamt München in einer Konferenz über die Gestaltung einer humanen vierten industriellen Revolution. Die Tagung nannte sich anspruchsvoll Weltforum für Geschäftsethik (Rüdiger 2017). Es ging um die Arbeit der Global Initiative for Ethical Considerations in the Design of Autonomous Systems IEEE an ethischen Standards. „Wir wünschen uns“, sagte die stellvertretende IEEE-Vorsitzende Kay-Firth Butterfield dort, „dass deren Einhaltung genauso selbstverständlich wird wie die anderer Standards“. Auch das Max-Planck-Institut für Innovation und Wettbewerb arbeitet an diesen Fragen. Seine Vorschläge sind aber noch einigermaßen abstrakt. 236 9 Gläsern sind wir schon jetzt 9 9..1100 EEtthhiiccaall AAlllliiggnneedd DDeessiiggnn Konkreter läuft der Standardisierungsprozess „Ethical Alligned Design“. Hier eine Übersicht: Standard P7000 (model profess for addressing ethical concerns during system design) soll ethische Erwägungen von Anfang an in Systemdesigns einfließen lassen. Standard P7001 konkretisiert die Transparenz autonomer Systeme. Er hat besondere Bedeutung für das autonome Fahren. P7002 (data privacy process) beschäftigt sich mit software, die persönliche Daten sammelt und auswertet. P7003 (algorithmic bias considerations) will verhindern, dass sich in angeblich neutralen Algorithmen Vorurteile von Programmierern wiederfinden. P7004 (standard for child and student data governance) entwickelt Richtlinien für den Datenschutz in Bildungseinrichtungen. P7005 (standard for transparent employer data governance) leistet dies für Mitarbeiterdaten. Mit P7006 (standard for personal data artificial intelligence agent) soll der Einzelne die Verwendung seiner Daten so steuern, dass er dabei sein digitales Profil noch kontrollieren kann. P7007 entwickelt Standards für ethisch betriebene Roboter und Automatisierungssysteme, P7008 solche für autonome und halbautonome Systeme. P7009 will erreichen, dass Roboter und andere intelligente autonome Systeme ethische Standards selbsttätig beachten, und P7010 soll festlegen, wo autonome intelligente Systeme erprobt werden (ibid.). Einzelheiten enthält das jährlich aktualisierte Handbuch „Ethically Alligned Design“ der IEEE im Internet. Aber verlieren wir uns nicht in Details, sondern halten wir die essentials im Blick. Es geht um drei Fragenkomplexe (vgl. Bitkom 2018: Schnebel/ Szabo): Erstens: Wer hat etwas zu sagen, wer schafft an? Bestimmen letztlich die großen Konzerne FANG (Facebook, Amazon, Netflix und Google) und BAT (ihre chinesischen counterparts Baidu, Alibaba und Tencent)? Das könnte so sein; schließlich ist das EU-Konkurrenzprodukt zur Google-Suchmaschine mit dem Namen Theseus trotz 300 Millionen Steuergeldern grandios gescheitert. Es war 2006 aus einem deutsch-französischen Quaero-Projekt hervorgegangen. Quaero galt dem damaligen französischen Staatspräsidenten Jacques Chirac als europäische Google-Konkurrenz. Die Bundesregierung erklärte aber im März 2007, sie habe „keine neue Suchmaschine zum Ziel“ (BMBF/ Wi 2018: Tettenborn). Zweitens: Welches Menschenbild steht hinter dieser Entwicklung, ein elitäres oder ein egalitäres? Öffnet die Digitalisierung die Schere zwischen arm und reich weiter oder hilft sie, diese wieder zu schließen? Fördert, ja verlangt sie die sogenannte Selbstoptimierung, die man auch Selbstausbeutung nennen kann, oder erleichtert sie eine Selbstbestimmung ohne äußeren Druck? Und soll der weitere Weg in die Digitalisierung reguliert werden oder dem freien Spiel der Kräfte gehorchen? Und schließlich drittens: Was bedeutet die fortschreitende Digitalisierung für die Zukunft der Arbeit? Welche Berufe verschwinden und welche werden diese Revolution überstehen? Was bedeutet sie für das HWelche positiven Visionen, kurz gefragt, eröffnet die Technologie? Wir wissen es noch nicht und müssen uns trotzdem darauf einstellen. Und welche rote Linie wollen wir nicht überschritten wissen? Auch wo sie verläuft, wissen wir noch nicht. In dieser unsicheren Situation können Leitlinien helfen. Es gibt solche schon. Im folgenden Abschnitt können Sie sie studieren: 9.11 Ein Leitlinienentwurf zur Datenethik von Bitkom 237 99..111 1 EEi inn LLe ei ittl li inniieenneennttw wu urrff zzuur r DDa atteenneetth hi ik k vvo on n BBi it tk ko om m Im Leitlinien-Entwurf zur Datenethik, den Bitkom zum Umgang mit Big Data schon 2015 publiziert hat, heißt es: „Nutzen von Big Data-Anwendungen: Sie sollen Verbrauchern, Kunden oder der Allgemeinheit sichtbaren Nutzen bringen. Transparenz von Big Data-Anwendungen: Transparenz verlangt, dass Datensubjekte (Betroffene) erkennen können, welche persönlichen Daten wie genutzt werden. Priorität für anonyme oder pseudonyme Daten: Solche Daten sollten genutzt werden, wenn damit ein gleich gutes Ergebnis wie aus personalisierten Daten erzielbar ist. Einige Anwendungen verlangen allerdings letztere Daten. Interessenausgleich schaffen: Personengebundene Daten sollen genutzt werden können, wenn die legitimen Interessen des Auswertenden die des Betroffen übertreffen. Unter dieser Voraussetzung können Daten auch für andere als die ursprünglichen Zwecke verwendet werden. Liegt diese Voraussetzung nicht vor, muss der Betroffene zustimmen. Transparentgebot: Wo Daten mit Zustimmung der Betroffenen verarbeitet werden, sollte das transparent geschehen, damit die Betroffenen erfahren, was mit ihren Daten passiert. Betroffene am Nutzen beteiligen: Big Data-Anwender sollten die Betroffenen an den Erträgen beteiligen, die sie aus der Verwendung von deren Daten erzielen. Datenaufsicht sichern: Organisationen, die Big Data verarbeiten, sollen eine strikte Datenaufsicht schaffen, die sicherstellt, dass Daten rechtlich einwandfrei, verantwortlich und nicht über Gebühr ausgewertet werden und dass die Rechte und Interessen der Betroffen gewahrt bleiben. Hummler/ Schöneberger (2017) fordern dazu sinnvolle Lösungen, mit denen die Kontrolleure anhand eines umfassenden persönlichen Datenschutzes kontrolliert werden können“. Daten gegen Missbrauch schützen: Organisationen, die Big Data verarbeiten, sollen das ihnen technisch und organisatorisch Mögliche tun, um den unberechtigten Zugang zu persönlichen Daten zu verhindern. Kein Einsatz für unethische oder unmoralische Zwecke: Organisationendürfen Daten für solcheZwecke weder sammeln noch verarbeiten. Das gilt auch, wenn dies Betroffene verletzen könnte. Interessenausgleiche schaffen: Die Weiterverarbeitung von Daten durch Dritte ist zulässig, wenn die Betroffenen zustimmen. Das kann auch als Interessenausgleich erfolgen und setzt voraus, dass der ursprüngliche Datenverwerter ermittelt, ob die Weiterverwendung durch Dritte zusammen mit anderen Daten Risiken birgt. Betroffene müssen darüber informiert werden. Datenautonomie fördern: Organisationen, die Big Data verarbeiten, müssen Betroffene ausreichend informieren, damit diese als Datensubjekte über die Verwendung autonom entscheiden können“ (Bitkom 2016: 27-31). Wozu Leilinien gut sein sollen Wozu sollen solche Leitlinien gut sein? Die öffentliche Hand setzt vorausschauende Datenanalysen ein, um beispielsweise zu entscheiden, ob da, wo es Unruhen gab oder wo Autos gestohlen wurden, die Polizei verstärkt patrouillieren sollte. Doch was geschieht tatsächlich, wenn die Statistik dann eine höhere Aufklärungsquote zeigt? Wird mehr ermittelt, weil stärker überwacht wird, ohne dass die Deliktzahl höher wäre als anderswo? Wird solchen Gegenden ein Stigma verpasst, gelten sie fortan als ärmer gleich unsicherer? Das 238 9 Gläsern sind wir schon jetzt könnte zu einer Ghettoisierung beitragen. Leitlinien sollen solche ethisch begründeten Fragen beantworten helfen. Im privaten Bereich gibt es ähnliche kritische Felder, etwa Schufa-Bewertungen. Sie lösen sehr weitreichende Entscheidungen etwa über Kreditvergaben, Mietverträge etc. aus. Nur sehr wenig ist darüber bekannt, nach welchen Kriterien solche Beurteilungen zustande kommen. Als Gesellschaft wollen wir aber erkennen und haben wir auch das Recht zu erfahren, welche Steuerungsmechanismen da greifen (Bitkom 2017: Böken et al.). Wieder geht es um Gewichtungen ethischer Art. Car sharing-Anbieter möchten wissen, wann Kunden in einem Quartier ein Auto benutzen wollen. Um zu gewährleisten, dass das gewünschte Modell bei einer Anfrage binnen 30 Minuten verfügbar ist, brauchen sie private Daten über das bisherige Nutzerverhalten im gesamten Quartier. Möchte der Fahrer, dass er bei Fahrtantritt je nach Baustellen, Staus und Wetter Routenempfehlungen bekommt, müssen Algorithmen diese Massendaten mit seinen privaten Daten verknüpfen. Wie legitim das ist, ist eine weitere ethische Frage, bei deren Antwort Leitlinien helfen können. Wer Algorithmen einsetzt, sollte dem, dessen Daten da verarbeitet werden, erläutern, was sie leisten sollen. Das sollte uns die Entscheidung darüber erleichtern, ob wir wollen, dass sie das leisten, wie lange Daten dazu gespeichert werden und ob es möglich sein soll, diese Daten eines Tages automatisch auch für andere Zwecke durchsuchen zu lassen. Was hinter einer Bildschirmoberfläche grundsätzlich geschieht, wenn man Daten eingibt, und was man heraus bekommt, kann man bei Google anhand der Geschäftsbedingungen erfahren. Wie Google auswählt, weiß man aber nicht. Gibt man zum Beispiel Jude ein, kann es passieren, dass Google eine Reihe abfälliger Bemerkungen über „die“ Juden ausgibt, auf Nachfrage mit der Begründung, diese Aussagen würden am häufigsten angeklickt. Wird da gesellschaftliche Wirklichkeit abgebildet oder verfestigt die Google-Suchmaschine Vorurteile? Sollte Google dies oder etwas anderes anzeigen? Muss Google sich als privates Unternehmen der Gesellschaft gegenüber rechtfertigen? Können wir erwarten oder verlangen, dass sich das Unternehmen nach gesellschaftlichen Vorstellungen richtet? Grundsätzlich filtert Google ohne jeden Einblick in seine Prioritäten massiv - aber was wird berücksichtigt? Nur ein Stichwort: Werden Urheberrechtsverstöße mit gewichtet und solche Quellen nachrangiger oder gar nicht angezeigt? Niemand erfährt es. Alle diese Fragen berühren ethische Normen. Gesetzliche Antworten würden nicht greifen. Denn Datenschutzrecht ist nationales Recht. Auch die EU-Grundverordnung greift in den Mitgliedsstaaten nur, weil sie in jeweils nationales Recht überführt ist. Grenzen für Google & Co. müssten aber weltweit gelten. Das hat nicht einmal die UNO geschafft, zumal die USA stärkere Restriktionen ablehnen. Außerdem stimmen die Nutzer der Plattformen, auf denen Daten gesammelt werden, der Sammlung im Kleingedruckten automatisch zu, fast immer ohne sich dabei Gedanken zu machen. Folglich gibt es gegen das Datensammeln wenig Beschwerden. Wo niemand klagt, kann niemand richten. Daher stimmt schon. „Mit Big Data wurde das Recht auf informationelle Selbstbestimmung zur Illusion (Seele/ Zapf 2017: 169). In der Öffentlichkeit ist die Frage aufgekommen, ob es für solche Überprüfungen einen Algorithmen-TÜV geben solle. Der TÜV ist ein Unternehmen, das auf gesetzlicher Grundlage die Funktion von Maschinen beurteilt und damit deren Gebrauch reguliert. Das hat sich bewährt. Ist es auf die digitale Welt übertragbar? Experten sind skeptisch. Denn riesige Mengen an Algorithmen sind gesellschaftlich nicht relevant, da sie zum Beispiel nur interne Produktionsprozesse bewerten. Sie steuern über nachgeschaltete Aktoren in der Fertigung die Effizienz, verbessern das Qualitätsmanagement oder verringern Maschinenausfälle, regulieren Abweichungen und helfen Kostenrisiken zu vermeiden oder Kosten einzusparen. Statt eines Algorithmen-TÜV sprechen sich die Experten schon wegen dieses und ähnli- 9.12 Cybersicherheit ist eine globale Aufgabe 239 cher für einen TÜV irrelanter Einsatzfelder eher für einen Transparenz-TÜV aus. Er müsste nach anerkannten Regeln arbeiten, die es aber noch gar nicht gibt. Für die informationelle Selbstbestimmung wird ein Schutzprogramm gefordert, „in dem die Konzepte und Instrumente des Datenschutzes den spezifischen Risiken der Technikanwendungen angepasst sind“ (Roßnagel/ Geminn 2016: XIX). Die EU-Datenschutzgrundverordnung reicht dazu nicht aus. Sie lässt den Mitgliedsstaaten aber viele Spielräume, „die Risiken smarter Informationstechnik im Alltag selbst zu regulieren“ (ibid.). Wie weit ist die Gesellschaft also mit der Absicht gekommen, den Umgang mit Big Data wegen deren offensichtlicher Bedeutung einerseits zu fördern, andererseits aber zu regulieren, damit möglichst nichts überbordet? Sie ist, wie wir sehen, an der Arbeit, aber noch nicht weit. Rückwärtsgewandte Empfehlungen wie „künftig häufiger mit Bargeld bezahlen oder WhatsApp ausschalten“ (Schneier 2015 unter dem vollmundigen Titel „Data und Goliath - Die Schlacht um die Kontrolle unserer Welt“) sind keine Lösung. In unserer hochdigitalisierten, vernetzten Gesellschaft ist ein solches Verständnis von Privatheit obsolet: Technische Strukturen „be- und vermessen, beurteilen und speichern unser Tun, machen durch mustererkennende Algorithmen sogar zukünftiges Handeln prognostizierbar“ (Seele/ Zapf 2017: 4). Rundumüberwachung „ist und bleibt eine Realität“ (ibid.: 165). 99..112 2 CCyybbeer rssiicchheer rhheeiitt iisstt eei innee gglloobbaallee AAuuffg gaabbee Auch wenn eine Schlacht um die Kontrolle der Welt nicht bevorsteht: Aggressive Cyberangriffe sind eine Realität. 2017 drangen russische Hacker von allen zuständigen Überwachern zunächst unbemerkt in das gesicherte deutsche Regierungsnetz ein, bis im Dezember ein ausländischer Geheimdienst Alarm schlug (Mascolo et al. 2018). Acht global agierende Konzerne und die Münchner Sicherheitskonzerenz haben es nicht nur deshalb für nötig gehalten, am Rande dieser Konferenz des Jahres 2018 in ganzseitigen Zeitungsanzeigen einen Zehn- Punkte-Forderungskatalog für mehr digitale Sicherheit zu publizieren (SZ 17.02.2018: 26, www.charter-of-trust.com). Sie verlangen darin, die Verantwortung für Cybersicherheit auf höchster Regierungsebene in eigenen Ministerien und in Unternehmensleitungen durch Chief Information Security Officers zu verankern. Konkret fordert diese charter of trust: Unternehmen und wenn nötig Regierungen müssten für die digitale Lieferkette risikobasierte Regeln mit verbindlichen Anforderungen aufstellen, Cybersicherheit allen Aktivitäten schon als Werkseinstellung zugrunde legen, vernetzte Geräte mit sicheren Identitäten ausrüsten, sie über einen update-Mechanismus dauerhaft absichern und für die Nutzer während einer angemessenen Nutzungsdauer in Sachen Datensicherheit ansprechbar sein. Staat und Wirtschaft müssten Cybersicherheits-Partnerschaften vertraglich vereinbaren, diese zu einem festen Bestandteil der Ausbildung machen, kritische Infrastrukturen und IoT-Lösungen zertifizieren, ein Netzwerk für industrielle Cybersicherheit aufbauen, diese global so verbindlich machen wie das Welthandels- oder wie Freihandelsabkommen und alle diese Initiativen gemeinsam „unverzüglich umsetzen“. Zu Wahrung der Datensicherheit über Grenzen hinweg hält Bitkom es für nötig, dass Datenverarbeiter beim Start jedes Projekts dessen Verträglichkeit analysieren. Es sei einfacher, ein Vorhaben vom Start weg gesetzeskonform auszulegen als es später anzupassen. Weiter fordert Bitkom, dass der Verbraucher den Überblick darüber behält, welche Daten seine Geräte übermitteln, um selbstbestimmt handeln zu können, und dass er erfährt, wo welche personenbezogenen Daten liegen. Nur dann habe er die Chance, sie auch löschen zu lassen. Das Recht auf Vergessenwerden gehe an der technischen Realität nämlich vorbei. 240 9 Gläsern sind wir schon jetzt Schließlich, sagt Bitkom, dürfe die Nutzung von Big Data „nicht die Chancengleichheit von Menschen beschneiden“ (ibid.: 63). Und ganz generell: Die Verantwortung für schwierige Entscheidungen dürfe nicht der Künstlichen Intelligenz zugeschoben werden, denn das könne sie nicht leisten. „Entscheidungen bleiben eine menschliche Domäne“ (Bitkom 2017b: 11). Der Technik-Philosoph Klaus Mainzer geht noch weiter. Über die grundgesetzlich garantierte Würde des Menschen hinaus verlangt er eine Festlegung auf die „digitale Würde des Menschen“ (Mainzer 2016, vgl. dazu auch Pietsch 2017). 1100 DDiiee nneeuuee AAu uffk klläärruunngg Wie wird global greifbares Wissen das Leben aller verändern? Wenn jeder aus Datenspeichern fast alles entnehmen und damit wissen kann - wie aufgeklärt kann und wird er dann handeln? Ist eine Welt vorstellbar, in der wir wissensbasiert, vernunftgeleitet und kooperativ das allgemeine Beste ermitteln und ihr Handeln danach ausrichten? Experten erwarten genau das. 10.1 Die Welt der Open Data 241 10.2 Interkulturelle Zentren investigativen Wissens 247 10.3 Digital Humanities 249 10.4 Big Data in den Wissenschaften 252 10.5 Eine Zwischenbilanz 257 1 100..11 DDiiee WWeelltt ddeerr OOppeenn DDaattaa Die Informationsgesellschaft - ein Wort, das es nur im Singular geben kann; denn das weltumspannende Informationsnetz macht alle Menschen, die in dessen Maschen leben und arbeiten, zu Angehörigen einer globalen Gesellschaft - diese Informationsgesellschaft also hat jetzt ein knappes halbes Jahrhundert Entwicklung hinter sich. Vor vierzig Jahren umriss der in die USA ausgewanderte Israeli Marc Uri Porat auf der Basis von Vorarbeiten Fritz Machlups (Machlup 1962) erstmals die Grundzüge einer globalen Informationsökonomie (Porat 1978). Beide stimmten in einer Grundbeobachtung überein: Herkömmlich sind Gesellschaften und wirtschaftliche Strukturen hierarchisch organisiert: Einer oder wenige befehlen und viele müssen gehorchen. Einer oder wenige schaffen an und viele schaffen. Die Informationswirtschaft hingegen ist nicht vertikal ausgerichtet, sondern horizontal. Sie existiert, ja dominiert bereits geraume Zeit. Schon in den 1970er Jahren, ermittelte Porat, beschäftigte sich fast die Hälfte aller arbeitenden Amerikaner mit irgend einer Art von Information und verdiente bereits mehr als die Hälfte der gesamten national verfügbaren Lohnsumme. Porat forderte daher von jedem US-Ministerium, es solle sich um Informationstechnologie kümmern. „Der Vorschlag verhallte ungehört, in Deutschland erst recht. Nach wie vor versteht die Politik wenig von Digitalisierung. Das hat die Informationstechnologie nicht davon abgehalten, sich weiter auszubreiten“ (Keese 2014: 181). Inzwischen stellt sich heraus, dass der, der die größten Datenmengen beherrscht, dabei die Nase so weit vorn hat, dann er alle anderen auf die Seite drängen kann und womöglich auch will. Wer schneller und genauer als andere weiß, was Menschen bewegt, sich für oder gegen etwas zu entscheiden, kann ihnen die am Besten maßgeschneiderten Angebote machen, wird damit am stärksten beachtet und kann seinen Vorsprung stets weiter ausbauen. Er wird immer uneinholbarer. So entsteht eine Verfügungsmacht über Daten, die niemand mehr besiegen kann, und der Wettbewerb endet. Googlebzw. Alphabet-Chef Eric Schmidt sah diese Macht schon vor Jahren erreicht: „Eines Tages stellten wir in einer internen Diskussion fest, dass wir den Aktienmarkt voraussagen konnten. Das wäre aber illegal. Deswegen haben wir damit aufgehört“ (cit. Keese 2014: 189). Google hat wie erwähnt angekündigt, ein globales System von Satelliten zu starten, um Daten im Weltraum zu parken und zu verarbeiten. Irgendwelche Gesetze - außer denen von Google - gelten dort nicht. Das Unternehmen könnte dann noch entschiedener tun, was es will. 242 10 Die neue Aufklärung Netzwerke garantieren exponentielles Wachstum geradezu; das haben wir im Abschnitt über Netzwerke schon gesehen. Google-Manager Jonathan Rosenberg hat diese Entwicklung einmal so kommentiert: „Mehr Nutzer bringen mehr Informationen und mehr Informationen mehr Nutzer, mehr Werbung mehr Nutzer und mehr Nutzer mehr Werbung. Es ist einfach wunderbar“ (cit. ibid.: 208). Wozu das führt, stellte die EU-Kommission 2013 in einem öffentlichen Memorandum fest: „Google besitzt seit mehreren Jahren in den meisten europäischen Ländern Marktanteile von weit über 90 Prozent“ (ibid.). Ohne Gegensteuerung sind die Konsequenzen für eine freie Gesellschaft mit freien Märkten einigermaßen dramatisch. Kesse hat sie 2014 so formuliert: „Wo der Netzwerkeffekt wirbt, stirbt über kurz oder lang der Wettbewerb, und der Monopolist kann tun und lassen, was er will. Er fährt Monopolrenditen ein. Seine Kundschaft nimmt trotzdem nicht reißaus, weil sie mangels Wettbewerb keine Alternativen mehr hat. Das Internet enttäuscht die Hoffnungen all derer, die sich vom Digitalzeitalter Vielfalt erträumt haben. Zwar gibt es diese Vielfalt. Aber sie findet in Nischen statt“ (ibid.: 203). Die Masse des Geschäfts gerät gerade unter Big Data-Bedingungen in die Hände von Monopolen. Es gibt Big Data in Hülle und Fülle. Google hat sie, Facebook hat sie, Bertelsmann hat sie partiell und andere haben sie auch, jeder für sich. Allenfalls gegen Rechnung sind sie auch für Dritte erhältlich. Daher gilt zugleich auch: Zugänglich sind Big Data keineswegs in Hülle und Fülle. Eine open data-Ökonomie, ein open government (vgl. Kirschner2016), gar eine open data- Kultur, gibt es aber erst als eine lose Sammlung von Bausteinen noch ohne Bauplan. Open data gelten als bisher einzig erkennbares probates Mittel, um diese Entwicklung zu bremsen. Daher müssen wir open data nun genauer betrachten. Open data sind Daten, die jedermann „nutzen, nachnutzen und weiterverbreiten“ kann. So definiert sie beispielsweise das irische Open Data Handbook. Die Plattform data.gov hat dazu Erwartungen ins Netz gestellt; wir zitieren kurz: Open dataseien eine Prämisse für gesellschaftlichen Mehrwert. Sie machten öffentliche Einrichtungen transparenter und einschätzbarer. Diese arbeiteteten so effektiver und effizienter. Zugleich steige die Bürgerbeteiligung. Auch wirtschaftlich seien open data wichtig zur Förderung von Innovation und Kundenorientierung und damit für ein smartes Wachstum (data.gov o.J.). Wie Open Data entstanden Community memory-Projekte, die frühesten bekannten Beispiele für open data in einer community built database (vgl. Pardede 2011), entwickelten sich Anfang der 1970er Jahre aus der Antikriegsbewegung (Levy, 1984: 150 ff.) in den Hacker-Szenen der US-amerikanischen Universitäten um San Francisco und in daraus sukzessive entstandenen öffentlichen und gemeinnützigen Computerprojekten (Höltgen 2014: 386). Einige Ex- Studenten gründeten damals in Kalifornien ein öffentliches Rechenzentrum namens Resource One Inc. (ibid.: 387). Community Memory war der Start für den Einsatz zuvor fast nur wissenschaftlich genutzter Computer in sozialen Netzwerken, „ja, der Ausgangspunkt für den Einzug dieser Technologie in die Öffentlichkeit und danach in die Privatsphären überhaupt“ (ibid.: 401 f.). In den späten 1970er Jahren tauchen Bulletin Board-Systeme auf, die man per Telefon über Akustikkoppler anwählen konnte. Ab Mitte der 1990er Jahre lösten soziale Netzwerke auf der Basis von Internet-Protokollen diese kleinen telefonabhängigen Netze ab (ibid.). Zwischen 2005 und 2010 begann eine ganze Reihe von Staaten, Daten ihrer öffentlichen Verwaltungen jedermann zugänglich zu machen. Sie verfochten dieIdee einer offenen Verwaltung, die die Bürger beteiligt. Eine wesentliche Grundlage dafür sind open government data, also „für alle zugängliche Daten der öffentlichen Verwaltung. Wirtschaft und Öffentlichkeit können diese frei nutzen, verändern und weiterverwenden“ (Kirschner 2016).Die Initiatoren hielten ein open government in einer modernen Verwaltung für unverzichtbar, da es 10.1 Die Welt der Open Data 243 Hierarchien abbaue und die Eigenverantwortung und Autonomie der Bürgerinnen und Bürger stärke - „letztlich zur Stärkung der Demokratie“ (ibid.). Seither hat diese open data-Politik zahlreiche Anhänger gefunden (Harper 2017). US- Beispiele sind außer data.gov auch HealthData.gov und oreilly.com. Bei den dort gespeicherten Daten handelt es sich um Statistiken ohne Transaktionsdaten, also ohne Pfade des Online- Verhaltens von Nutzern, und auch nicht um social media-Daten (Manovich 2014: 79). Eine weitere open data-Plattform ist cordaid.org. Diese Organisation publiziert, sofern kein Grund das ausschließt, seit Anfang 2013 alle ihre Projektinfos quartalsweise nach den Regeln der International Aid Transparency Initiative (IATI) (Besseling o.J.). Sie wirbt dafür, dass auch andere ihre Daten offen ins Netz stellen, damit jeder sehen könne, „wer was tut, wo, mit welchen Ressourcen und Ergebnissen und mit welchen Partnern in welchen Regionen“ (ibid.). Nicht wenige Menschen sind überzeugt, solche Bespiele müssten geradezu zwingend Schule machen. Die Open Data-Ökonomie, sagen sie, erschaffe sich selbst. In Zeiten allgemein steigender Offenheit werde es eine Abstimmung mit den Füßen geben: „Sind Datenbestände nicht offen und können diese mit Hilfe einer community erzeugt werden, so werden sie entstehen. Oft ist hierbei die Qualität sogar besser als bei anderen potenziell möglichen Datenquellen. Was wir aktiv schaffen können, sind die für eine Open-Data-Ökonomie notwendigen Rahmenbedingungen. Wir selbst müssen gestalten und dürfen nicht nur geschehen lassen“ (Schwarzer in: Fachgruppe 2016: 8). Plattformen, auf denen die öffentliche Hand Daten zur Verfügung stellt, sagt Schwarzer weiter, sollten nachvollziehbare Eigenschaften haben und untereinander verknüpft sein (ibid.). Zimmer (2010) bietet einen Überblick über Probleme von Wissenschaftlern bei der Erhebung öffentlich zugänglicher Daten für die Forschung (Mahrt/ Scharkow 2014: 228). Natürlich bestünden beim Datentransfer gewisse Risiken, sagt Schwarzer, aber überwiegen nicht dennoch die Chancen? Er fordert eine angstfreie, vernünftige Abschätzung. Die Potenziale für Arbeitsplätze und derEffekt auf das Bruttoinlandsprodukt in der sich wandelnden Gesellschaft übertreffen nach seiner Ansicht die Probleme (ibid.). Im letzten Kapitel dieses Buches werden wir aber sehen, dass man Arbeitsplatzeffekte mit guten Argumenten auch anders einschätzen kann. Das Open data-Potenzial Open data haben ein enormes volkswirtschaftliches Potenzial. Ihr Nutzen wird in vielen Ländern diskutiert. O’Reilly (2013) hält open data für einen Schlüssel zu einer effektiven Datenwelt; dazu müsse der Staat entweder eigene Daten öffentlich machen oder oder dies vom privaten Sektor verlangen. Eine Reihe von Staaten hat das inzwischen getan. Die USA haben behördliche Daten 2009 freigegeben, 2010 folgten die Briten. „Die vorderen Plätze belegen vor allen reiche, gut verwaltete Länder. In der EU stellt deren open dataportal für34 Länder in 78 Katalogen 812.000 datasets und dazu Metadaten in 24 Sprachen zut Verfügung (BMBF/ Wi 2018: Pilar). Nationen wie Indien oder Kolumbien stellen heute schon mehr Daten in mehr Qualität bereit als Deutschland, das nur auf Platz 26 landete - und damit hinter Rumänien, Tschechien und Moldawien“ (Google 2017). Am Besten läuft die open data-Politik laut Index der Open Data Knowledge Foundation in Taiwan. Auch kleine oder wenig industrialisierte Länder strengen sich an. In Indonesien befasste sich ein regional agenda-setting workshop 2015 mit open data. Die dorte erarbeitete Liste von Zieldefinitionen ist ermüdend lang, die Aufzählung der Umsetzungserwartungen ist es noch stärker - das Dokument zeigt aber, dass auch ein Dritte-Welt-Land den Nutzen öffentlich zugänglicher Daten erkannt hat (Open Data Lab Jakarta 2015). Bei der Suche nach weiteren open data-Akteuren hilft https: / / opendata.arcgis.com. 244 10 Die neue Aufklärung Wie sehr frei zugängliche Daten volkswirtschaftliche Potenziale eröffnen, zeigen Beispiele; hier nur eines: San Francisco sparte seit 2012 mehr als eine Million Dollar allein dadurch ein, dass nicht mehr so viele Anrufer nach Verkehrsdaten fragten - sie stehen nämlich im Netz (Google 2017: 11). Für Deutschland hat die Konrad-Adenauer-Stiftung das open data-Potenzial ermitteln lassen. Es hängt stark davon ab, wie weit sich Politik und Wirtschaft für open data engagieren. Die Stiftung verweist auf den „Nationalen Aktionsplan der Bundesregierung zur Umsetzung der Open-Data-Charta der G8“ und auf die Ziele einer open government-Partnerschaft. Vorsichtig geschätzt liegt der Mehrwert bei mindestens zwölf Milliarden Euro pro Jahr. Wenn Datenbesitzer ihre Daten der Öffentlichkeit frei zur Verfügung stellen, rechnet die optimistische Schätzung sogar mit über dreißig Milliarden Euro. Dazu müsste Deutschland sich das Ziel setzen, eine der führenden open data-Nationen zu werden (ibid.: 10). Noch gehen aber erst wenige deutsche Städte voran. Als Pionier gilt Bonn. Als erste deutsche Kommune hat diese Stadt gemeinsam mit Bürgern, Institutionen und der Verwaltung eine open data-Leitlinie geschaffen (ibid.: 12). Eine allgemeine Datenfreigabe wäre ein Ziel mit vielen Unbekannten: Offen wären nicht nur die Daten, sondern auch, wer sie nutzt; offen wäre, wie und für welchen Zweck. Offen wäre, ob Datenlieferant und Datennutzer eine längerfristige Beziehung aufbauen würden, und deshalb wäre offen, ob der Datennutzer nicht nur seinen eigenen Vorteil sucht. Datenbesitzer, ist daraus zu folgern, würden unter diesen Prämissen wohl kaum Daten liefern (ibid.: 13). Experten nennen drei weitere noch ungelöste Probleme: „Erstens: Große Teile der Daten stehen nicht in guter Qualität bereit oder sind schlicht irrelevant. Zweitens: Viele Akteure kennen sich nicht gut genug aus. … Drittes Problem: Datensicherheit: Wie gibt man große Menschen an Daten frei, ohne dabei den Datenschutz zu verletzen? “ (ibid.). Um diese Hürden zu überwinden, müssen nach Überzeugung der erwähnten Fachgruppe „Wirtschaftliche Potenziale und gesellschaftliche Akzeptanz“ der Smart Data-Begleitforschung Chancen und Risiken besonders von firmennahen open data klargestellt werden und müssen best practice-Beispiele für die Nutzung sichtbar und Plattformen geschaffen werden, die das inhaltliche Potenzial besonders von Firmendaten beispielhaft aufzeigen. Für eine open corporate data-Strategie muss es Weiterbildungsangebote geben. Analyseplattformen für Big Data müssen finanziell gefördert werden, zumindest in der Anschubphase. Nützlich wären auch Kooperationen, für die anonymisierte, ggf. historische Daten bereitstehen müssten. Eine Klassifizierung von Lizenzen müsste ebenso entwickelt werden wie Beteiligungsregelungen für Erträge Dritter aus der Nutzung solcher Daten. Schließlich müsste sich die Reputation von open data-Nutzern feststellen und bewerten lassen; denn von ihr wird abhängen, wer welche Daten nutzen darf. Ein erster Schritt könnten geschlossene Open Data-Plattformen sein (Fachgruppe 2016: 13 f.). Unterstellen wir einmal, dass sich das alles vereinbaren und einrichten lässt. Dann müssten als Nächstes die offen zugänglichen Daten selbst qualifiziert werden. Ihre Entstehung muss ja nachvollziehbar sein. Informationen zum Sensor, mit dem die Daten erzeugt wurden, würden erkennen lassen, wie genau sie sind. Auch die zugehörigen Metadaten müssten sich beurteilen lassen. Der Datengebrauch könnte dann zum Beispiel für bestimmte Zwecke lizensiert werden. Diese Konzessionen würden auch Metadaten enthalten. Dazu müssten diese ihre timeliness offenbaren, also ihre Aktualität, die Häufigkeit ihrer Aktualisierung und den Zeitraum, für den sie gültig und damit nutzbar bleiben (Hermsen in ibid.: 18). Da liegt noch viel unerledigte Arbeit. Die Datenqualität beurteilen können und auch tatsächlich beurteilen müssten die Nutzer dann selbst. Traditionelle Türhüter von Wissen im Staat, an den Universitäten und im Markt kann man nämlich ignorieren oder umgehen: „Es scheint nicht mehr den Professor zu geben, der einem sagt, was man nachschlagen soll und welche ‚drei Argumente dafür‘ 10.1 Die Welt der Open Data 245 und welche dagegen sprechen“ (Berry 2014: 53). Die Technik öffnet den Zugang zu Datenbanken menschlichen Wissens von überall her. Das alles wird nur auf der Basis soliden Vertrauens und zugleich rigider Überprüfbarkeit funktionieren. Das hat die Unternehmensberatung Deloitte in ihrer Studie „Datenland Deutschland“ bestätigt: „71 Prozent der Studienteilnehmer achten besonders darauf, welche persönlichen Daten sie im Internet zur Verfügung stellen. Über 50 Prozent übermitteln Daten nur an Organisationen, denen sie vertrauen. 73 Prozent wünschen sich Schutz vor dem Weiterverkauf ihrer Daten. 60 Prozent fordern Transparenz in Bezug auf Inhalt und Zweck der Datenweitergabe“ (Baron in: Fachgruppe 2016: 20). Zugleich sagen aber auch 70 Prozent der befragten Unternehmen, Datenanalysen hätten hinsichtlich Prognosen den höchsten Stellenwert. Künftig, heißt es in der Analyse der Fachgruppe, werden wir die Bereitstellung von Daten als Teil der öffentlichen Daseinsvorsorge betrachten müssen. „So wie Städte und Kommunen für ihre Bürgerinnen und Bürger ein Verkehrs- oder Energienetz unterhalten, sollten sie auch eine verlässliche und offene Dateninfrastruktur aufbauen. Das erfordert Investitionen, wird sich aber vielfach auszahlen. Denn Daten sind eine nahezu unerschöpfliche Ressource, deren Wert steigt, wenn man sie teilt“ (Zimmer in ibid.: 24). Die offene Datengesellschaft im globalen Maßstab Hier trifft sich die Analyse deutscher Smart Data-Forscher mit der Vision von Hardy, dem quantum relations-Erfinder und Motor der beiden Datenanalyse-Firmen, die dieses Buch vorgestellt hat, RavenPackund danach Prisma Analytics. Er überträgt das Modell der offenen Datengesellschaft in den globalen Maßstab. „Was wir als globale Intelligenz bezeichnen, ist das Vermögen, das zu verstehen, richtig auf das zu reagieren und für das zu arbeiten, was allen Menschen und allen anderen Lebewesen auf der Erde hilft. Ein solches verantwortliches Verständnis und Handeln setzt fortlaufende interkulturelle Forschung, Dialoge, Erörterungen und Zusammenarbeit voraus, in anderen Worten: es ist interaktiv, und keine einzelne Nation oder supranationale Instanz oder Autorität kann ihr Ergebnis vorherbestimmen“ (Schloer/ Spariosu 2017: 10). Die globale Lage begreift Hardy als Chance, die Menschheit weiter zu entwickeln. Weil etliche Veränderungen parallel laufen, erzeugen sie nach seiner Überzeugung einen Veränderungsdruck, der das Handeln der Menschen radikal umformen wird. „In den letzten drei Jahrzehnten haben wir in der Entwicklung neuer, umweltfreundlicher Technologien enorme Fortschritte gemacht und Möglichkeiten entwickelt, mit traditionellem Wissen zeitgerecht umzugehen. Biologie, Physik, Chemie und Medizin führten diesen Prozess Schulter an Schulter mit Kommunikationstechnologien. Wir haben alle Werkzeuge in der Hand, um unseren Planeten zu einer nachhaltigen globalen Gemeinschaft zu machen“ (ibid.: 9 f.). Welche Werkzeuge da gemeint sind, ist klar: in erster Linie sind es Big Data. Hardy sieht in ihrer Nutzung mehr Chancen als Risiken und möchte diese Chancen nutzen: „Wir müssen unseren Planeten als vielschichtiges, integriertes System begreifen. Die Weltgemeinschaft muss beginnen, darin ganz wie ein Superorganismus harmonisch zu leben, muss ständig hinzulernen und beweglich genug sein, um auf grundlegende Herausforderungen flexibel reagieren zu können. Dann wird es der Menschheit gut gehen“ (Schloer 2017: 10). Was Hardy, Heiner und ihr Team dazu offerieren, hört sich kühn an: „die Schaffung eines weltweiten Netzwerks interkultureller Zentren investigativen Wissens, der zugehörigen Technologie und menschlichen Entwicklung.“ Im englischen Originaltext, in dem diese Zentren intercultural centers of investigative knowledge heißen, hat Hardy sie ICIK abgekürzt. Dieses ICIK-Netzwerk soll unseren Planeten auf der Basis umfassenden, frei zugänglichen 246 10 Die neue Aufklärung aus globalen Datenbanken in Richtung auf eine friedliche Mentalität der Menschen neu ausrichten helfen. Das ist die Vision einer neuen Aufklärung, diesmal global. Dieses Wort ist hier - nota bene - im kulturgeschichtlichen Sinn gemeint, im Sinn von Descartes, Leibniz und Newton und ausdrücklich nicht im Sinne geheimdienstlicher Aufklärung mit ihren undurchsichtigen Mitteln. Erreicht werden soll diese globale Aufklärung auf der Basis innovativer und effektiver Lernziele und Strategien, die es den Menschen ermöglichen, Herausforderungen zu meistern und die Chancen der Globalisierung voll zu nutzen (ibid.: 16). Diese Vision geht deutlich weiter als die eines society’s nervous system - was man frei als gesellschaftliches Seismometer übersetzen kann -, darüber hatte das Institute of Electrical and Electronics Engineers IEEE im Januar 2012 geschrieben. Auf der Basis mobiler digitaler Medien, hieß es dort, solle es ein globales Steuerungs- und Kontrollsystem mit integriertem, selbstregulierendem feedback-System geben und mit sensing und control elements already in place ausgestattet werden, also mit bereits existierender Mess- und Überwachungstechnik. In diesem nervous system for humanity, dem Seismometer für Humanität, sollen mobile Geräte zu Augen und Ohren eines gigantic, intelligent, reactive organism und eines control framework politischer und sozialer Effektivität, Sicherheit, Stabilität und Nachhaltigkeit werden (Pentland 2012, cit. Doll 2014: 405). Das sind bisher nur große Worte. Aber man sieht: Hardy ist mit seiner Vision nicht allein. In ein ähnliches Horn hatte schon 1997 Jon Katz gestoßen, als er von der digital nationsprach. Deren Bürger sollten connected sein, also stets online. Alle Bürger, a new social class, sollten auf demselben Stand der Technik stehen (Katz 1997a; vgl. 1997b). Das damals aufkommende Internet sollte es allen ermöglichen, sich als Teil eines universellen Sozialkörpers zu fühlen, „als Teil eines Ganzen, als Partikulare eines Universellen“ (Brodocz 1998: 86). Es war eine friedliche, friedliebende Vision, die da entstand. Sie hätte auch von Hardy sein können. Denn auch er erinnert daran, dass schon alte Sagen Könige und Häuptlinge aufgefordert hätten, von kriegerischer Mentalität und dem Wettbewerb als Kämpfer zu einer achtsamen, friedlichen und innovativen Koexistenz miteinander und mit allem Leben auf der Erde zu kommen. Das quantum relations-Prinzip unterstütze das, nur impliziere es ein ethisches System zweiter Ordnung. In Systemen erster Ordnung suche man nur den Einklang mit seiner unmittelbaren Bezugsgruppe, der Familie, dem Stamm, der Nation, der Religion oder was immer. Eine Ethik zweiter Ordnung indessen beruhe auf der goldenen Regel: Behandle alle Menschen und alles, was sonst noch lebt, so wie du selbst behandelt werden möchtest. Das sei die plausibelste Art, in einem weltweiten Bezugsrahmen existieren zu können (ibid.: 13). Dies ist mehr als nur die Vision einer neuen Aufklärung, es ist ein Programm, wenn auch noch ein völlig abstraktes, dessen Realisierungschancen sich noch nicht absehen lassen. Das ICIK-Netzwerk, das Hardy vorschwebt, soll ethisch und sozial verantwortlich handelnde Führungskräfte der Wirtschaft, der Kultur und der Gesellschaft sowie Unternehmer für ein globales Zeitalter ausbilden. Außerdem soll ds ICIK-Netzwerk die interkulturelle Forschung, entsprechendes Lernen und Kommunikation fördern, und dies lokal, regional und global. Dazu sollen diese Zentren neues Wissen transdisziplinär und transkulturell ermitteln, verbreiten und einsetzen, dabei die neuesten wissenschaftlichen, humanen und künstlerischen Ergebnisse einbeziehen und dieses Wissen zur Lösung sozialer und wirtschaftlicher Probleme einsetzen. Das soll Innovationen erzeugen. Und schließlich sollen die Zentren Arbeitsergebnisse regionaler ICIK-Gemeinschaften weltweit so übertragen, dass dieses Wissen wirtschaftliche, soziale und kulturelle Werte erzeugt (ibid.: 16 f.). 10.2 Interkulturelle Zentren investigativen Wissens 247 1100. .22 IInntteerrkkuullttuurreel lllee ZZeen nttr reen n iinnvve es sttiiggaatti ivve en n WWiisssseen nss Das ICIK-Netzwerk (Interculturasl Centers of Investigative Knowledge) soll aus zwei Arten von Einrichtungen bestehen, aus Global Learning and Research Centers (GLRC), zu deutsch Zentren für weltweites Forschen und Lernen, sowie aus Integrated Data Centers (IDC), also integrierten Datenbanken. Sie könnten ein Vorbild in den World Data Centers haben, die im Internationalen Geophysischen Jahr 1957-58 geschaffen wurden und für weltweite Datennetzwerke und die Organisation großer Datenbanken bisher richtungweisend sind. Um aus den Datenbanken das Optimum an Informationen ziehen und verarbeiten zu können, sollen beide Arten von Einrichtungen die Quantum Relations-Programmatik nutzen. Hardy nennt es im Übrigen „absolut entscheidend“, dass diese Zentren politisch und finanziell unabhängig arbeiten, also weder von einer einzelnen Regierung noch von irgendeinem Multi gesteuert werden. Sie sollen mit öffentlichen und privaten Organisationen zusammenarbeiten, ohne dass es auf deren ideologische oder politische Einstellungen ankommen darf, solange sie den Zielen und Schwerpunkten des ICIK-Netzwerks nicht widersprechen (ibid.: 17). Kernaufgabe des ICIK-Netzwerks soll es sein, die Menschheit in Richtung auf friedliches Verhalten weiterzuentwickeln und als Konsequenz im Konsens lebende gesunde und wohlhabende Gemeinschaften aufzubauen. Auch das klingt abstrakt, wird aber fassbar, wenn man die konkreten Absichten des Teams näher betrachtet: So will es in diesen Zentren in einem intercultural knowledge production and management (IKPM) program Führungskräfte für das globalisierte Zeitalter ausbilden. Das soll in vier Aufgabenschwerpunkten geschehen: Sprachtraining, Training intellektueller Mobilität und Flexibilität, Einübung in kulturübergreifende Sensibilität und in der Verknüpfung von akademischem mit Praktikerwissen. Ein solches Programm kann sich kaum jemand allein ausdenken. Hardy hat es denn auch mit US-Professor Mihai Spariosu und weiteren Partnern entwickelt. In seiner Analyse des Wandels und der künftigen Aufgaben von Universitäten hatte Spariosu als Hardys Mitstreiter schon 2004 umrissen, wie solche Zentren zu arbeiten hätten: als „lokal-globale Einrichtungen, in denen verschiedene lokale Werte- und Glaubenssysteme sich aneinander spiegeln und miteinander kommunizieren können“. Das schließe Konflikte nicht aus. Die Bereitschaft zum friedlich-freundschaftlichen Dialog über solche Konflikte führe auf der Basis eines allgemein-humanen Ethos aber zu einem „lokal-globalen Wertesystem, dem Menschen aller Kulturkreise auf der Welt zustimmen können“ (Spariosu 2004: 208 f.). Zwei Jahre später verwies er dazu bereits auf Quantum Relations. Diese Technologie werde den Weg zu einer neuen Generation sich selbst erschaffender und organisierender Programme bahnen (2006: 96). Ein solcher interkultureller Humanismus, schrieb er dann 2012, solle nicht rigide in den Rahmen einer akademischen Disziplin gepresst werden, sondern sich in einem offenen, niederschwelligen Wissensraum entwickeln, zwischen anderen Disziplinen, damit dort neue Formen des Wissens entstehen (Spariosu 2012: 25). Exakt auf diesem interdisziplinären Ansatz beruhen die inzwischen arbeitenden quantum relations-Anwendungen. Im Jahr 2017 auf die Realisierungschancen dieser Vision angesprochen, nennt Hardy die Realisierung dieser Vision weitaus näher als man annehmen mag. Wegen des überhitzten Finanzmarkts sei ein neuerlicher „schwarzen Freitag“, eine veritable Krise wahrscheinlich. Zugleich hat eine gegenläufige Entwicklung vor Augen: „Während wir ökonomisch auf einen Systemcrash zulaufen, bewegen wir uns gleichzeitig in Richtung auf etwas sehr viel Erfreulicheres: auf die zweite große Renaissance in der Geschichte der Menschheit.“ „Alle Aufruhr, die wir derzeit weltweit erleben“, ist Hardy überzeugt, „führt zu einer Einsicht, die schon seit einiger Zeit ziemlich offen zutage liegt: dass die Art, wie wir mit unse- 248 10 Die neue Aufklärung rer Erde umgehen, dauerhaft nicht funktioniert. Die einen schließen daraus, man müsse damit aufhören, die Umwelt zu vergiften. Andere verlangen einen neuartigen Umgang mit den Ressourcen. Wieder andere fragen, wie man Technologien so einsetzen kann, dass sie die Lebensqualität für alle verbessern. Nochmals andere wollen Geld als Zahlungsmittel abschaffen oder zumindest dessen Besitz anders verteilen. Es gibt zahllose Konzepte. Denn was wir heute haben, ist nicht das, was wir wollen. Die Überzeugung wächst, dass ein grundlegender Wandel ansteht. Das erinnert mich an die Zeit, in der der Zweite Weltkrieg zuende ging. Auch er markierte nicht das Ende der Welt, sondern den Start in die zumindest in Europa seit Jahrhunderten längste Zeit des Friedens.“ Hardy erinnert an sein Prisma Analytics-Modell: Wenn etwas an der Grenzlinie von rot zu grün oder von grün zu rot angekommen ist, wenn also eine Entwicklung so weit kumuliert ist, dass es in der bisher eingeschlagenen Richtung kein „weiter so“ gibt, schlägt sie in ihr Gegenteil um. Beide Zustände bestehen unmittelbar Seite an Seite, sind oder werden instabil und kippen dann um. Wiederholt haben Menschen Hardy in den letzen Jahren gefragt, ob er daran mitwirken könne, als eine Art Schulen des Wandels zu schaffen, centers of teaching. Ein Prinz in den Aarabischen Emiraten bat ihn, vor Führungskräften eine Rede zu halten, die den Veränderungsprozess fördern sollte. Er willigte ein. Später nahm der Prinz ihn mit den Worten beiseite: „Noch Wochen lang ging die Diskussion an den Arbeitsplätzen meiner Leute über das weiter, was Sie ihnen gesagt haben. Als Konsequenz will er nun ein knowledge center in den Emiraten errichten, in der Regierungshauptstadt Abu Dhabi. Ein learning center ist auch für den Club of Amsterdam so gut wie beschlossen. Prof.Spariosu hat ähnliche Pläne. „Wo man hinschaut“, sagt Hardy, „sieht man Leute, die Zentren einrichten wollen, in denen Menschen erfahren, wie man verantwortliches Handeln erlernt. All das sind typische Zeichen einer Renaissance.“ Selbst das Wüten des IS oder die Politik „dieses Typs da in Nord-Korea“ wertet er als untrügliche Anzeichen für einen grundlegenden Wandel, für eine Renaissance. „Die Leute verstehen, dass sie offener und verantwortlicher mit unserer Welt umgehen müssen, dass sie lernen müssen, wie man das macht.“ Plattform und Wissensspeicher für das Wissenstransfer-Programm soll ein Integrated Data Center (IDC) werden, also eine integrierte und mit anderen vernetzte Datenbank. Sie soll öffentlichen und privaten Organisationen und allen Ländern offenstehen, in denen es das ICIK-Netzwerk gibt, ebenso wie einzelnen Personen. Diese Datenbank soll historisches und aktuelles Wissen verfügbar halten. Wirtschaftliche Transaktionen soll sie wie alle anderen Dienste für jeden öffentlichen oder privaten Teilnehmer bestmöglich unterstützen. Dazu soll das IDC im einem allgemein zugänglichen Big Data-Standard arbeiten, über eine dazu passende allgemein nutzbare Infrastruktur für Analyse und Statistik und ein ebenfalls allgemein zugängliches standardisiertes System für Dienste und Transaktionen in der cloudverfügen. Hardy sieht es bereits in Ansätzen kommen; denn immer öfter werden aus streng abgeschirmten Datenspeichern open data, und immer öfter können alle Interssenten an diesen Beständen partizipieren. Ein derart offenes System, in dem alle Daten frei zugänglich sind, schließt Privatheit dennoch nicht aus. Denn zwar sind dort alle Daten gespeichert, aber das System kann ihre Benutzung für die Persionen reservieren, die auf der Basis einer strikten, vieldimensionalen Erlaubnis auf sie zugreifen dürfen (ibid.: 202). Interkulturelles Forschen, Lernen Kommunizieren soll ermitteltes Wissen so anwenden, dass man damit praktische soziale und wirtschaftliche Probleme im Zusammenwirken der akademischen und der nichtakademischen Welt lösen kann. Dazu sollen die einzelnen Zentren unabhängige und selbstorganisierte Einheiten sein, aber untereinander kooperieren (ibid.: 183 f.). Ihre Schwerpunkte sollen kurz zusammengefasst die interkulturelle Forschung sein, die Bildung, die Beratung, das Training und der Austausch von Wissen (ibid.: 184). 10.3 Digital Humanities 249 Plattform dieses Austauschs soll von Anfang an eine interaktive Webseite sein, auf der über Länder, Kulturen und Zivilisationen hinweg darüber diskutiert werden soll, was globale Intelligenz ist, welches Wissen und Verhalten sie erzeugt und vermehrt und was dieses Wissen mit vereinten Kräften hervorbringen und verbreiten kann. „Diese Webseite dient dem Weltfrieden, dem Lernen und dem Verständnis der Kulturen sowie der Zusammenarbeit der Menschen in aller Welt“ (ibid.: 196). Große Worte. Wie realistisch sind sie? Berry (2014: 56) ist überzeugt, Computer könnten uns zwar „zu einer stärkeren Denkkraft verhelfen“, zu weiter reichenden Fantasien. Sie ermöglichten es uns vielleicht, an politische Vorstellungen von Gleichheit und Umverteilung anzuknüpfen. Im Alltag bestehe unsere digitale Kommunikation aber zu einem erheblichen Teil aus individualisierenden Blogs, Kommentaren, Twitter feeds etc. Er zweifelt daran, dass diese Art der Kommunikation „etwas wahrhaft Gemeinschaftliches ermöglichen [kann] - eine Art superkritisches Denken, das Ideen, Denkweisen, Theorien und neue Praktiken generiert“ (ibid.: 54). Auch Doll verweist auf den „Widerspruch zwischen der Beschreibung einer holistisch anmutenden Kollektivvorstellung und einem eher auf radikalen individuellen Ausdruck oder [auf] Selbstbespiegelung zielenden Gebrauch der sozialen Medien“ (2014: 472). Die digitale Alltagswelt bietet für Hardys Visionen mithin keinen allzu fruchtbaren Boden. Der Mathematiker, Physiker und Philosoph Klaus Mainzer ist davon überzeugt, dass wir diesen Humus aber unbedingt brauchen: „Wer über keine Wertorientierung verfügt, wird in der Big Data-Welt der schnellen Algorithmen untergehen“ (Mainzer 2017: 150). 1100. .33 DDi ig giit taall HHu umma anni ittiie es s Wozu maschinengestützte globale Intelligenz noch dienen soll, beschäftigt eine ganze Reihe nachdenklicher Köpfe der digital humanities, worunter alle geisteswissenschaftlichen Tätigkeiten „an der Schnittstelle zwischen der Informatik und den Kultur- und Geisteswissenschaften“ zu verstehen sind (Reichert 2014: 12, vgl. Schneider 2017, Lauer 2013, Schreibmann 2004). Sie beschäftigen sich mit Computertechniken verschiedenster Art bis hin zur Bildverarbeitung, Datenvisualisierung und Netzwerkanalyse, um interaktiv elektronische Literatur zu erschließen oder Online-Literaturdatenbanken aufzubauen (Frabetti 2014: 85). Als Pionier der digital humanities gilt der italienische Jesuitenpater Roberto Busa(1913- 2011). Er hatte seit 1949 gemeinsam mit Thomas J. Watson, dem Gründer von IBM, den korpuslinguistischen Index Thomisticus entwickelt (Busa 2000). Heute wollen Wissenschaftler der digital humanities wissen, wie man sich in der digital verankerten Wissenslandschaft „mit den Geisteswissenschaften auf eine andere, neue Weise befassen“ kann. Allerdings ist man sich „durchaus nicht einig, was dies konkret bedeuten“ könnte (Frabetti 2014: 85). Lauer (2013) fasst unter dem Begriff digital humanities nicht nur „textwissenschaftliche Fächer, sondern auch Disziplinen wie die Geschichte oder die Archäologie, die Musik- und die Kunstwissenschaften“ zusammen (2013: 99). Lunenfeld (et al. 2012) sieht in ihnen „eine methodische Ergänzung der Geisteswissenschaften um im weitesten Sinne rechnende Verfahren, für die der Computer und das Internet nützlich sind“ (Lauer 2013: 101). Nur halb ausgesprochen klingt hier mit, dass solches Nachdenken lange Zeit erst dann als seriös galt, wenn geisteswissenschaftliche Messlatten angelegt wurden. Da schwingt eine sehr alte Missachtung mit: „Schon bei ihrem Ursprung und bis heute hat die Philosophie die Technik als Gegenstand des Denkens verdrängt. Die Technik ist das Ungedachte“ (Stiegler 2009a: 7). Diese Abwertung der Technik sei von Aristoteles ausgelöst worden, und zwar durch seine Definition des „technischen Wesens“ als eines, das keinen Selbstzweck habe und nur als Werkzeug von jemandem für seine Zwecke benutzt werde (Aristoteles, 250 10 Die neue Aufklärung Nikomachische Ethik 6, 3-4). Mit anderen Worten: „Das Ausklammern der Technik aus der Philosophie beruht auf dem Begriff der Instrumentalität: Technisches Wissen wird als instrumentell interpretiert und damit als Nicht-Philosophie“ (Frabetti 2014: 88). Noch heute scheint das durch, wenn Berry glaubt, der Begriff digital humanities signalisiere, „dass das Gebiet vom geringwertigen Status einer Hilfsdienstleistung zu einem genuin intellektuellen Unternehmen aufgestiegen“ sei (Berry 2014: 48). Datentechnische Literaturanalysen gab es schon vor dem Computer, etwa am Ende des 19. Jahrhunderts bei Lutoslawski sowie im 20. Jahrhundert z.B. im französischen Strukturalismus und in der quantitativen Linguistik (Näheres zur Historie der digital humanities bei Lauer 2013). Das erste deutsche Periodicum dieses Fachs erscheint als Jahrbuch für Computerphilologie seit 1999. 2004 setzte die massenhafte Digitalisierung von Büchern ein. Gedruckt wurden bislang weltweit etwa 130 Millionen; bis 2013 hatte Google bereits 20 Millionen digitalisiert (Lauer 2013: 108), zunächst alle sieben Millionen Bände der Universitätsbibliothek Michigan, große Teile der Bibliotheken in Harvard und Stanford, der New York Public Library und der Bodleian Library in Oxford. 2006 folgten die Nationalbibliothek Katalonien und die Bibliothek der Universidad Complutense Madrid. 2007 kam die Bayerische Staatsbibliothek hinzu, aus der mittlerweile mehr als zwei Millionen rechtefreie Bände (Staatsbibliotheken 2018: 93) und bis Ende 2018 7,6 Millionen Zeitungsseiten (ibid.: 52) digitalisiert und damit weltweit verfügbar sind; die Bibliotheken in Regensburg, Passau und Augsburg folgten ebenso (ibid.) wie 2008 die Stadtbibliothek Lyon und 2010 die Österreichische Nationalbibliothek mit rund 120 Millionen Buchseiten. Das sind nur Beispiele; die Digitalisierung hält an. „Mehr Philologie war nie. Das hat die digital humanities nachhaltig geprägt“ (Lauer 2013: 109). Google hat den digitalen Geisteswissenschaften eine neue Basis gegeben. Der Aufbau einer solchen digitalen Weltbibliothek macht Wissen mühelos global verfügbar. Zwar ist die „Wissenschaft in Millionen Teile zerbrochen“ (Asimov 1951: 28). Doch da wir jetzt „eine riesige Zusammenfassung allen Wissens vorbereiten, wird es nie verloren gehen“ (ibid.). Genau das geschieht, wenn die digitalen Speicher nicht eines Tages versagen oder dauerhaft der Strom ausfällt. Zwei Bedingungen müssen allerdings zusammenkommen, die außerhalb digitaler Bibliotheken noch keineswegs allgemein gelten. Erstens müssen Daten relativ frei zugänglich sein. Das ist keineswegs überall der Fall, „weil die Daten-Kleinstaaterei die Kultur mit Zollschranken belegt. Die sich abzeichnende Feudalstruktur der digitalen Gesellschaft und die Mentalität der digital humanities sind insofern nicht kompatibel“ (Lauer 2013: 114). Zweitens sind, um Wissen nutzen zu können, Kontextinformationen und Methoden nötig, mit denen es auffindbar und vergleichbar wird. „Je mehr Daten, desto mehr Theorie, Wissen und Methodenkritik sind notwendig“ (ibid.: 112). Dazu dienen das Ressource Description Framework (vgl. https: / / de.wikipedia.org/ wiki/ Resource_Description_Framework) und das Europäische Datenmodell der Europeana-Bibliothek (vgl. Dröge et al o.J.). Von so hohen kulturellen Zielen will nicht jeder etwas wissen oder unterstellt zumindest, dass es letztlich doch Geschäftsinteressen sind, die die Akteure bewegen. Die aber weisen das von sich. Facebook-Gründer Mark Zuckerberg beispielsweise hat Anfang 2017 ein 5740 Wörter langes mission statement für seinen Konzern verfasst. Darin heißt es: „Das Wichtigste, was wir in diesen Zeiten bei Facebook tun können, ist, die Infrastruktur zu entwickeln, die den Menschen die Macht gibt, eine globale Gemeinschaft zu bauen, die für uns alle funktioniert“ (Schulz 2017: 15). Der Spiegel fand das „seltsam: Konzernmanager entwerfen die Prinzipien, nach denen unsere Gesellschaft funktionieren soll“ (ibid.). 10.3 Digital Humanities 251 Gemessen an Zuckerbergs hehrem Ziel ist die analytische Facebook-Praxis eher banal. Ein Beispiel: 2012 hat das Facebook Data Teamauf der Bssis von Daten von über einer Milliarde Nutzerprofilen - das sind mehr als zehn Prozent der Weltbevölkerung - und sechs Milliarden Songs des Online-Musikdienstes Spotify „Beziehungsstatus“ und „Musikgeschmack“ verglichen (https: / / www.facebook.com/ data, cit. Reichert 2014a: 437). Wozu soll das gut sein? „Wir Forscher im backend bei Facebook“, teilte das data team mit, „wissen, welche Musik eine Milliarde Facebook-Nutzer/ innen am liebsten hören, wenn sie sich verlieben oder trennen“ (ibid.: 437 f.) - nun ja. Tatsächlich zeigen empirische Studien, dass im Internet entstandene Ehen etwas stabiler sind. Im couples satifsaction index über die Zufriedenheit von Paaren, die sich im Internet gefunden haben, ergaben sie einen geringfügig höheren Wert als in der traditionellen Paarfindung (Cacioppo 2013). Aber fördert diese Information die globale Gemeinschaft, von der Zuckerberg sprach? Werfen wir dazu einen Blick auf die Glücksforschung, die sich vermehrt auf die sozialen Netzwerke stützt. Sie hat zwei historische Wurzeln (vgl. Frey und Stutzer 2002: 402). Aristoteles sah das Ziel allen menschlichen Tuns darin, Glückseligkeit zu erlangen. Frei nach dem Sprichwort, jeder sei seines Glückes Schmied, hat Jeremy Bentham daraus in der Aufklärung abgeleitet, am glücklichsten seien die Menschen, wenn die Regierenden unsichtbar blieben und die Regierten in Ruhe ließen. Denn innerer Frieden werde nicht durch die Macht eines Souveräns gesichert, sondern von jedem einzelnen im Inneren der Gesellschaft (Reichert 2014a: 442). Der Bürger solle sich selbst regieren. Benthams Regierungsprinzip heißt folglich self-government, also Selbstbestimmung. Deren großes Ziel sieht Bentham im vielfachen Glück der vielen Einzelnen (ibid.). Überträgt man diese Überlegungen in die Sprache der Gegenwart, stehen im Zentrum die individuellen Rechte, während der Staat sich darauf zu beschränken hat, für ein freies Agieren seiner Mitglieder die passenden Bedingungen zu gewährleisten (vgl. Foucault 2006: 81-111). Wie glücklich Menschen sind, hat traditionell der Well-being-Index (2008) aus Gallup-Umfragen ermittelt. Seine Befunde galten im Hinblick auf das nationaleWohlbefinden der USA als richtungweisend (Reichert 2014a: 440). Heute forciert Facebook eine Big Data-Prognostik, genannt happiness research. Ihre Methode zur prognostischen Verhaltensanalyse ist das profiling (vgl. Klaasen 2007: 35). Dazu klassifiziert man die Nutzer zuerst nach demografischen, geografischen und sozioökonomischen Faktoren, also nach Alter, Geschlecht, Lebensabschnitt, sozialer Schicht oder Klasse, Bildungsgrad, Einkommen und Wohnort. Als Ergebnis entstehen statistische Kollektive. Das profiling in sozialen Netzwerken erschließt dann sogenannte keywords, also Schlüsselwörter, und zeichnet sie auf. Sie basieren auf posts, also auf Daten, die Nutzer selbst ins Netz gestellt und damit sie ihre Interessen, Aktivitäten und Vorlieben signalisiert haben. Nun sucht man nach Ähnlichkeiten und Übereinstimmungen. Eine formt sich zum Beispiel, wenn ein Kollektiv bestimmte Musikvorlieben, Kinofilme oder Reiseziele teilt (ibid.: 446). Der Soziologe Adam Kramer arbeitete von 2008 bis 2009 bei Facebook, errechnete gemeinsam mit Mitarbeitern des Facebook data teams die Häufigkeit positiver und negativer Wörter in posts und verglich sie mit Aussagen zur Lebenszufriedenheit der Nutzer und mit Ereignissen, die die Medien bewegten (Kramer 2010: 287). Die Analyse lief auf Angaben zu den Begriffspaaren Glück/ Unglück und Zufriedenheit/ Unzufriedenheit hinaus. Die ermittelte Stimmungslage gilt als Indikator einer kollektiven Mentalität (Reichert 2014a: 443 f). Aus dem Gallup-basierten Well-being-Index ist auf diese Weise der Facebook-basierte Gross National Happiness Index (GNH) geworden, ein Wert über das sogenannte Bruttonationalglück einer Gesellschaft. Diese Analysetechnik wird auch von anderen Firmen benutzt; www.wefeelfine.org beispielsweise durchforstet alle paar Minuten das Internet nach Sätzen, die „I feel“ oder „I am feeling“ enthalten (Stampfl 2013: 55 f.) und stellt dann fest, was die Personen Erfreuliches oder Unverfreuliches fühlen. 252 10 Die neue Aufklärung Methodisch ist das heikel. Bei statistischen Stichproben, wie sie Gallup einsetzt, wird sorgfältig abgesichert, dass sie für die Allgemeinheit repräsentativ sind. Facebook setzt Repräsentativität schon schon wegen der schieren Menge seiner Nutzer aber einfach voraus. Daten in Facebook spiegeln angeblich die soziale Welt wider, doch es gibt erhebliche Lücken. Denn von Bereichen der Gesellschaft, die Facebook wenig oder gar nicht nutzen, können nur geringe oder gar keine Signale kommen. Also ist bei jeder Big Data-Auswertung zu fragen, welche Menschen da nicht berücksichtigt oder deutlich unterrepräsentiert sind. Welche Orte, Altersgruppen oder Lebensweisen sind weniger sichtbar, wenn man im Schatten von Big Data lebt? (Boellstorff 2014: 119). Diese Frage wird zu selten gestellt und noch seltener klar genug beantwortet. Doch selbst wenn dieser Fehler nur graduell, nicht existentiell sein sollte: Als Ergebnis zeigt sich ein deutliches Missverhältnis von großen Absichtserklärungen über die Verbesserung der Welt und der kleinen Münze der skizzierten Ergebnisse. Die Bereitschaft der Big Data-Verantwortlichen zu globalem Handeln ist anzuerkennen. Aber ob dieses Verständnis von Big Data für das Glück der Menschen wesentlich ist, muss sich erst erweisen. 1 100. .44 BBiigg DDa at taa iinn dde en n WWi isssse en nssc chhaaf ftte enn Big Data und deren Verarbeitung mit Künstlicher Intelligenz sind selbstverständlich ein Thema der Wissenschaft. So hat, um ein Beispiel zu nennen, am Fachbereich Wirtschaft und Recht der Frankfurt University of Applied Sciences im Frühsommer 2017 das Institut für Data Driven Business (D2B) seine Arbeit aufgenommen. Gemeinsam mit Unternehmen erforscht und erprobt es in seinem Data Driven Business Lab Pilotprojekte auf den Feldern Finanzen, Luftfahrt, Soziale Medien, Recht und Web 4.0 und wendet sie an (Semlinger 2017b). Dabei stellt sich eine Frage, die die Wissenschaft so zuvor noch nie beantworten musste: Machen Big Data sie womöglich entbehrlich? Braucht man gar keine wissenschaftliche Theorie, wenn das Durchsuchen von Daten bereits ausreichend Antworten liefert? Machen wit uns dazu zuerst mit den deutschen Einrichtungen der wissenschaftlichen Erforschung von Big Data vertraut. Ihr Zentrum ist der Fraunhofer-Verbund IUK-Technologie. Er besteht seit 2001, beschäftigt in 20 Mitgliedsinstituten rund 4300 Mitarbeiter und verfügt dazu über ein Jahresbudget von ca. 275 Millionen Euro. Damit ist es der größte europäische Anbieter angewandter Forschung in Informations- und Kommunikationstechnologien. Die Fraunhofer-Gesellschaft erarbeitet neben seinen Forschungsprojekten ein Schulungsprogramm mit Zertifizierung zum data scientist (BMBF/ Wi 2018: Fellner). Das seit 2016 in Dortmund bestehende Industrial Data Space Association arbeitet eng mit dem gleichnamigen Fraunhofer-Forschungsprojekt zusammen, um eine Infrastruktur für die gemeinsame Nutzung von Daten zu entwickeln. Auch die Gesellschaft für Informatik hat eine eigene task force Data Science geschaffen (BMBF/ Wi 2018: Federrath). Diese Gesellschaft erstellte 2018 für Sachverständigenrat für Verbraucherfragen (SVRV), ein Beratungsgremium des Bundesministeriums der Justiz und für Verbraucherschutz (BMJV), ein Gutachten zu Regulierungsmöglichkeiten von diskriminierenden algorithmischen Entscheidungen und diskutierte dies öffentlich auf einer eigenen domain (https: / / adm.gi.de). Da Big Dataein wichtiges Thema der Politik sind, lässt das Bundesministerium für Bildung und Forschung ihre Bedeutung in drei Konpetenzzentren durchleuchten. Es sind das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das nach Umsatz und Forschungspersonal größte KI-Institut der Welt, mit seinem Smart Data Innovation Lab 10.4 Big Data in den Wissenschaften 253 (SDIL), das Berlin Big Data Center (BBDC) und das Competence Center for Scalable Services (ScaDS) in Dresden und Leipzig. Mit dem Technologieprogramm „Smart Data - Innovationen aus Daten“ förderte das BMWi von 2014 bis 2018 außerdem insgesamt 13 Leuchtturmprojekte, die den Markt der Big-Data-Technologien für die deutsche Wirtschaft erschließen sollen. Das Programm war etwa 55 Millionen Euro schwer. Es sollteauf der Basis von Apache Flink entstand es als open data-Plattformzwischen dem öffentlich zugänglichen Internet und den internen Informationswelten großer Unternehmen Brücken schlagen. Das Programm enthält unstrukturierte und strukturierte Unternehmensdaten aus der betrieblichen Planung, der Fertigung und dem Vertrieb ebenso wie Daten aus knowledge communities, also Forschungszentren, aber auch aus Medien, aus der öffentlichen Verwaltung und aus anderen Quellen. Eine Textanalytik-Plattform kann auch news, tweets und RSS feeds auswerten; und ein sogenanntes inmemory text mining kombiniert maschinelles und explizites externes Wissen. Ein besonders interdisziplinär angelegtes Förderprojekt des Forschungsministeriums ist auch ABIDA (Assessing Big Data). Dieses Gemeinschaftsprojekt der Universitäten Münster und Hannover mit dem Karlsruher Insitut für Technologie lotet bei der Erzeugung, Verknüpfung und Auswertung großer Datenmengen gesellschaftliche Chancen und Risiken aus und entwirft Handlungsoptionen für Politik, Forschung und Entwicklung. Soziologen, Philosophen, Ökonomen, Rechts- und Politikwissenschaftler arbeiten dort Hand in Hand an elf Vertiefungsstudien, um mit Methoden der Technikfolgenabschätzung die Auswirkungen von Big Data auf die Gesellschaft im Spannungsfeld von Innovationspotenzialen auf der einen und gesellschaftlichen Werten auf der anderen Seite beurtilen zu können. Die Vertiefungsstudien laufen zu den Themenfeldern Arbeit, Bildung, Demokratie, Finanzen, Gesundheit, Handel, Heim, Freizeit, Mittelstand, Onlinemedien und soziale Netzwerke, Verkehr und Wissenschaft. Ein weiteres Forschungs- und Entwicklungsprojekt im Rahmen des Technologieprogramms „Smart Data - Innovationen aus Daten“ des Bundeswirtschaftsministeriums war Pro-Opt. Es sollte Unternehmen in dezentralen kooperativen Strukturen (smart ecosystems) die effektive und intelligente Analyse großer Datenmengen ermöglichen. Experimentierfeld war die Automobilindustrie. Das Projekt lief bis Ende 2017 (www.pro-opt.org).Noch aktiv ist dagegen das Projekt Industrial Data Space. Es moderiert die Entwicklung internationaler Standards zwischen Wirtschaft und Wissenschaft, fördert zertifizierbare Software-Lösungen und unterstützt dazu kleine und mittlere Unternehmen (www.industrialdataspace.org). Das Leistungszentrum Digitale Vernetzung schließlich erforscht Querschnittstechnologien für die Industrie, die Mobilität, die Gesundheit und den Energiesektor. Dazu bündeln vier Fraunhofer-Institute ihre Kompetenzen und kooperieren mit Firmen und öffentlichen Einrichtungen. Es geht um Datenanalysen aus unterschiedlichsten Quellen in einem „Netz von Netzen“, um Datenqualität und -sicherheit, um Datensouveränität und um deren Verwahrung, so dass man trotzdem zugreifen kann: Allein letzteres ist eine Mammutaufgabe: Jährlich erscheinen 1,5 Millionen wissenschaftliche Fachartikel, aber laut National Science Foundation werden pro Person nur 280 gelesen; BMBF/ Wi 2018: Assodolahi). Lässt sich die immense Datenmenge mit maschineller Hilfe auf das Wesentliche reduzieren? Und bleiben cloud-Strukturen dabei noch sinnvoll? (www.digitale-vernetzung.org). Darauf muss die Wissenschaft noch Antworten geben. Eines ist klar: Wer KI will, muss zunächst viel Geld in die Hand nehmen: Google, Facebook, Microsoft und IBM investierten allein im Jahr 2015 im Bereich der Künstlichen Intelligenz mehr als 10 Milliarden Dollar in Forschung und Entwicklung (Crisp 2018). 2018 sollten schon fast 20 Milliarden US-Dollar in Anwendungen der Künstlichen Intelligenz fließen. 2021 rechnen Analysten weltweit mit weit über 50 Milliarden US-Dollar KI-Investitionen. 254 10 Die neue Aufklärung Bis dahin sollen die KI und zugehörige Dienste ca. 40 Prozent aller Initiativen zur digitalen Transformation und 45 Prozent der kommerziellen Anwendungen stützen (IBM 2018: 5). Die USA investieren also massiv. Als Nummer eins auf dem Gebiet der Big Data-und KI- Forschung gilt nach Domingos Einschätzung Google „mit seiner riesigen Anzahl von Experten und Abteilungen, die sich in Projekten wie DeepMind und Goole Brain ausschließlich Künstlicher Intelligenz und maschinellem Lernen widmen.“ Auf Platz zwei steht nach Domingos Microsoft, dahinter folgen Facebook und Amazon (Domingos 2018: 106). Massiv investieren müssen dieUSA auch, denn ihr Hauptwettbewerber; der globale Aufsteiger China - noch vor zehn Jahren erst mit einem Pozent des Welthandels; jetzt mit mehr als 40 Prozent (McKinsey 2018 b) - tut dies ebenfalls. In China sind der Onlinehändler Alibaba und der Internetriese Tencent die Aktivten - vor allem aber die Suchmaschine Baidu, die masiv mit Künstlicher Intelligenz arbeitet (ibid.). Chinas Nachbar Südkorea setzte 2017 sogar ein Komitee des Präsidenten für die dortige „vierte industrielle Revolution“ ein, um die KI- Forschung und -Entwicklung zu fördern, und stattete sie bis 2022 mit zwei Milliarden Dollar aus (McKinsey 2018: 7). Die EU weiß das alles natürlich und versucht mitzuhalten. Allein bis 2020 will sie 24 Milliarden Euro in die KI investieren (Aoife White 2018). Deutschland förderte von 2014 bis 2018 das Projekt „Smart Data - Innovationen aus Daten“ mit etwa 55 Millionen Euro. Frankreich will die Zahl seiner KI-Studenten und -Forscher verdoppeln und die KI-Forschung sowie Start-ups mit 1,5 Milliarden Euro fördern (Dillet 2018). Auch Großbritannien setzt für die KI erhebliche Summen ein (HM Government 2018).Bis 2022 wollen Deutschland und Frankreich zusätzlich zu bestehenden Einrichtungen ein öffentliches Forschungszentrum für Künstliche Intelligenz aufbauen. Das haben auf deutscher Seite die Unionsparteien und die SPD in ihrem Koalitionsvertrag festgelegt. Beide Staaten galten in Sachen KI bisher allerdings eher als Zögerer. International bleibt nach den Worten des KI-Experten Pedro Domingosganz Europa „hinter seinen Möglichkeiten zurück“ (Domingos 2018: 106), obwohl dieser Kontinent hervorragende KI- Experten habe, „nicht so viele wie die USA, doch die Qualität ihrer Forschung ist derzeit noch besser als die ihrer chinesischen Kollegen“ (ibid.: 108). Doch die europäische Erfahrung fußt nun einmal auf Orwells Schreckensvision „1984“ und speziell die deutsche auf der Albtraumpraxis der Stasi, die amerikanische hingegen auf der positiv besetzten Vision vom Raumschiff Enterprise. Europäisch dürfe deshalb nicht heißen: „richtig, aber zu langsam“, sagt der im Bundesforschungsministerium für Schlüsseltechnologien zuständige Herbert Zeisel (BMBF/ Wi 2018: Zeisel). Was diese Einsicht politisch erbringt, wird sich bald zeigen. Lässt sich die Wirksamkeit der KI-Investitionen schon abschätzen? Näherungsweise durchaus. Das zeigt die Zahl KI-bezogener Patente. IBM (USA) hält mehr als tausend, die US-Firmen Microsoft ca. 500, Qualcomm ca. 500, Google ca. 200 und US-Universitäten weitere ca. 250. Im Wettbewerb der Nationen rangieren China und Japan auf Platz 2 annähernd gleichauf, chinesische Universitäten mit ca. 750 KI-affinen Patenten und Japan mit ähnlich vielen, dort aber aufgeteilt auf Konzerne NEC mit ca. 250, Sony mit ca. 200, Fujitsu mit ca. 150, Samsung mit ca. 120 und auf japanische Universitäten mit etwa hundert. Das einzige weitere Unternehmen, das mehr als hundert KI-Patente hält, ist Siemens mit ca. 200. Zu den elf Firmen, die unter KI-hundert Patente besitzen, gehört als einziges weiteres deutsches Unternehmen SAP (Boßmeyer 2018). Abschätzen lässt sich auch, was das an barer Münze einbringen wird. Nach McKinsey- Hochrechnungrn wird die Künstliche Intelligenz die globale Wirtschaftsleistung bis 2030 um etwa 16 Prozent wachsen lassen; das wären rund 16 Billionen - 16.000 Milliarden - Dollar (McKinsey 2018: 13), allerdings um den Preis von knapp der Hälfte, nämlich rund 10.4 Big Data in den Wissenschaften 255 sieben Billionen Dollar Kosten (ibid.: 21) für verloren gehende Arbeitsplätze, die fehlende Kaufkraft der von Arbeitslosigkeit Betroffenen, die Umstellung von Techniken allerorten usw. Die Ertragskurve soll erst nach Jahren der Investition langsam steigen, dann aber zunehmend schneller; McKinsey erwartet, dass sie im Jahr 2030 dreimal so schnell klettern wird als in den kommenden fünf Jahren (ibid.: 22). Machen Massendaten viele wissenschaftliche Schritte entbehrlich? Nicht wenige Wissenschaftler betrachten trotz dieser großen Anstrengungen Theorien über Big Data mit großer Skepsis oder setzen hinter ihre Schlussfolgerungen zumindest große Fragezeichen. Das hat nicht zuletzt der britische Journalist und Unternehmer Chris Anderson vor fast zehn Jahren ausgelöst, als er im Internet-Magazin Wired im Hinblick auf Big Data schrieb, theoretische Überlegungen und wissenschaftliche Methoden seien im Zeitalter der Massendatenauswertung überflüssig geworden: „Wir leben in einer Welt, in der riesige Datenmengen und angewandte Mathematik alle anderen Hilfsmittel ersetzen, die man sonst noch so anwenden konnte. Ob in der Linguistik oder in der Soziologie: Raus mit all den Theorien menschlichen Verhaltens. Vergessen Sie Taxonomien, die Ontologie und die Psychologie. Wer weiß schon, warum Menschen sich so verhalten, wie sie sich gerade verhalten? Der springende Punkt ist, dass sie sich so verhalten und dass wir ihr Verhalten mit einer nie gekannten Genauigkeit nachverfolgen und messen können. Hat man erst einmal genug Daten, sprechen die Zahlen für sich selbst“ (Anderson 2013: 126). Andere pflichten ihm bei: Die Forschung könnte fast ausschließlich durch die Daten selbst getrieben werden (Mahrt/ Scharkow 2014: 224). „Wir können die Daten untersuchen, ohne auf Hypothesen darüber angewiesen zu sein, was sich darin möglicherweise verbirgt. Wir füllen die Zahlen einfach in die größten Serverfarmen, die die Welt je gesehen hat, und warten darauf, dass die Algorithmen dort Muster aufspüren, wenn die Wissenschaft nicht weiterkommt“ (Anderson 2013: 128). Wenn Daten von Computern und Algorithmen automatisch analysiert werden können und wenn Einrichtungen wie das 2008 gegründete NEH Office of Digital Humanities Geisteswissenschaftler bei der Arbeit mit großen Datensätzen sogar systematisch mit Fördergeldern unterstützt (Manovich 2014: 65), „wozu müssen Forscher/ -innen dann noch Hypothesen formulieren und prüfen? “ (Ritschel/ Müller 2016: 5). Digitale Datenanalysen sind auch ohne Hypothesen und andere theoretische Überlegungen möglich. Streng genommen brauchtman auch „keine Forscher/ -innen mehr, denn den Sachverstand, der bei den verschiedenen Auswahlentscheidungen im Forschungsprozess gefragt ist, sollen auch Maschinen bzw. Algorithmen entwickeln können“ (ibid.). „Tatsächlich wird hier ein Trend sichtbar“, urteilt der Wissenschaftsphilosoph Mainzer, „der bereits die Dynamik menschlicher Zivilisation maßgeblich bestimmt und auch die Wissenschaften erfasst hat: Was wäre, wenn in Zukunft tatsächlich neue Erkenntnis und die Lösung unserer Probleme nur von der schieren Steigerung von Datenmengen, Sensoren und Rechen-Power abhängen? Ist die Suche nach Erklärungen, Ursachen und kausalen Zusammenhängen, Gesetzen und Theorien angesichts der steigenden Komplexität der Probleme nicht völlig überholt? Können wir uns angesichts des Tempos zivilisatorischer Entwicklung und der Notwendigkeit zu schnellen Entscheidungen solche zeitraubende Grundlagenforschung noch leisten? Sollten wir die ‚Warum‘-Frage vergessen und uns auf das ‚Was‘ der Daten beschränken? “ (ibid.: 23). Um Problemlösungen zu finden, werde man mit gewaltigen Rechenleistungen experimentieren. Theorien, Beweise und Erklärungen könnten als überflüssig erscheinen, da sie zu aufwendig seien und bestenfalls nachträglich nur das bestätigen, was man sowieso schon gesehen und beobachtet hat (ibid.: 24). 256 10 Die neue Aufklärung Nach dem Motto ‚Irgendwas werden wir schon finden‘ einfach in Daten herumzustochern, bringeohnehin nichts, meintder Zukunftsforscher Helbing(cit. Hagner/ Helbing 2013: 241). Daran habe er nie geglaubt, vielmehrseier überzeugt, „dass die Kombination von Daten und Modellen das beste Ergebnis liefert, also die Stärken von beidem kombiniert“ (ibid.). Auch boyd und Crawford teilen Andersons Überzeugung nicht, man könne auf Theorien verzichten: „Sprechen die Zahlen wirklich für sich selbst? Wir sind der Ansicht, dass sie das nicht tun“ (2013: 194). Beide verweisen auf Berrys Einsicht, dass Big Data zwar „destabilisierende Mengen an Wissen und Informationen“ erzeugen, denen aber „die ordnende Kraft der Philosophie fehlt“ (2011: 12). Sie erinnern an Bollier: „Als große Masse von Rohinformationen sind Datenmengen nie selbsterklärend“ (2010: 13). Big Data-Interpreten neigten nämlich dazu, „Muster wahrzunehmen, wo gar keine existieren“ (ibid.: 198). Das habe damit zu tun, „dass enorm große Datenmengen Zusammenhänge nahelegen“ (ibid.). boyd und Crawford übernehmen damit Einsichten, die schon David Hume (1711-1777) hatte: Korrelationen, also Assoziationen von Ereignissen, prägen sich den Menschen als Muster ein und dienen ihnen als Orientierung für ihr Verhalten, „weil sie sich in der Vergangenheit bewährt haben“ (Mainzer 2014a: 243). Mainzer nennt diesen Umgang mit Big Data daher „eine Fortsetzung der schnellen instinktiven und intuitiven Reaktion mit hightech tools. Hume“, fügt er hinzu, „würde auch Big Data als mit Superrechnern hochgerechnete Gewohnheiten bezeichnen“ (ibid.: 244, vgl. auch Rödder 2017). Auch fast alles, was wir bisher über Quantum Relations erörtert haben, widerspricht Andersons Annahme. Schließlich haben hochkarätige theoriegeleitete Wissenschaftler diese Theorie entwickelt - und anfangs war das ja eine Theorie, noch keine Praxis. Einiges spricht aber auch für Anderson, etwa der mit Big Data mögliche besonders deutliche Einblick in Kategorien und Marktnischen, die sich mit Stichprobenanalysen nicht gut ausleuchten lassen (Mayer-Schönberger/ Cukier 2013: 20 f.). Zwar ist die einzelne Big Data- Datenmessung unscharf, aber der Mittelwert ist aussagekräftig (ibid.: 21) und die Wahrscheinlichkeit sehr hoch, dass eine auf Bisherigem fußende Hochrechnung zutreffende Aussagen über Künftiges liefert. Mit Big Data generierte Bilder sind anders als gewöhnliche Stichproben gewissermaßen hochauflösend, so dass man in den „Daten-Tsunami“ (Müller- Jung 2013) „tiefer hineinzoomen kann“ (Ritschel/ Müller 2016: 6). Wieder gibt es ein Gegenargument: Dieser Tsunami könnte die Wissenschaft „überrollen und kollabieren lassen. Big Data wäre dieser Lesart zufolge weniger ein neuer vielversprechender Zugang zur Welt als vielmehr ein Beitrag zur Verbreitung des Messie-Syndroms in den Wissenschaften: Daten würden um ihrer selbst willen gehortet, ohne dass man bereits eine Fragestellung hat oder etwas ‚auf die Spur kommen möchte‘, wie der Wissenschaftsforscher Hans-Jorg Rheinberger kritisiert (ibid.: 5).Wenn die wissenschaftliche Analyse mit den stetig wachsenden Datenbergen nicht mehr Schritt halten kann, seien die sich abzeichnenden Gefahren Unordnung und digitaler Kollaps. Ebenso ernst muss man den weiteren Einwand nehmen: Wahrscheinlichkeitenberuhen stets auf dem Verhalten sehr vieler analysierter Verhaltensauslöser, Kreativität und Innovation bestehen aber gerade darin, dass einzelne Kreative das Unwahrscheinliche für möglich und lösungsmächtig halten. Die Wissensgesellschaft baut darauf, dass Wissen originelle Lösungen hervorbringt, keine Kopien, also das Unwahrscheinliche, nicht das Wahrscheinliche. Das darf man bei der Bewertung von Big-Data-Analysen nicht übersehen. Unsere zunehmend intelligente Umgebung hat die Kraft, unsere Freiheit zur Wahl des Unwahrscheinlichen zu stärken, aber gleichzeitig schlummert in ihr auch das Potenzial, sie und damit unsere Autonomie zu beschneiden und das zu tun, was aus Wahrscheinlickeitsgründen plausibel erscheint (vgl. Stampfl 2013: 99). Wissen, unterstreicht auchNico Stehr, einer 10.5 Eine Zwischenbilanz 257 der Vordenker der Wissensgesellschaft, bedeute vor allem eines: „etwas in Gang zu setzen“, Neues zu schaffen (brand eins 2016). Big Data, mit denen man im Prinzip aus vorhandenen Daten plausibles Verhalten hochrechnet, fördern das Herdendenken. „Am Ende“, befürchtet Mainzer (2014a: 240), könnten „Originalität und Kreativität auf der Strecke bleiben“. Man muss diese Befürchtung nicht teilen. Aber man sollte sie kennen. Denn nur dann kann man die ihr zugrunde liegendeBequemlichkeitshaltung aktiv bekämpfen. 1 100. .55 EEiinnee ZZwwiisscchheennbbiillaannzz Ziehen wir an dieser Stelle eine kurze Zwischenbilanz: Big Datalassen manche Anwender glauben, große Datensätze führten unmittelbar zu mehr Objektivität, zu einer höheren Form der Wahrheit (boyd/ Crawford 2013: 188 f.). Kritisch eingestellte Wissenschaftler halten das für grundlegend falsch. Sie kritisieren beispielsweise eine „Datafizierung des Sozialen“ (Houben/ Prietl 2018). Aus Sicht der geisteswissenschaftlichen Soziologie, wie sie Adorno der empirisch-positivistischen Soziologie entgegengestellt hat, ist ein Algorithmus „nicht Liebesobjekt, sondern Feindbild, weil er das Gesellschaftliche auf Mathematik reduziert und abweichende, alternative Positionierungen blockiert“ (Simanowski 2015: 85). Greenfield sieht unser Weltbild „konditioniert von Information, die uns aufgrund von Interessen übermittelt wird, die aber diese Interessen nicht offenlegt“ (Greenfield 2017, cit. Schloemann 2017: 9). Und obwohl das so sei, setzt er fort, sei das globale Netzwerk doch „grundlegend für unsere Alltagspraxis“ (ibid.), uns von unentwegt tätigen „Aufmerksamkeitshändlern“ geradezu aufgezwungen (Wu 2016).Noch drastischer urteilt Hofstetter: „Bei aller guten Absicht: Wenn AI [artificial intelligence] und ihre digitalen Geschwister unmittelbar handlungsleitend wirken, bedrohen sie alles, was Europa lieb und teuer ist: die Selbstbestimmung, die Demokratie, die rechtsstaatliche Gewaltenteilung. AI kann die öffentliche Moral beeinflussen und größere soziale Kontrolle herbeiführen, ganz im Sinne desSilicon Valley, das die menschlichen Lebensbedingungen auf paternalistischem Weg zu verbessern sucht. Da ist sie, die neue imperialistische digitale Elite, die ökonomisch denkt und politisch handelt, ohne dazu ermächtigt zu sein“ (Hofstetter 2016: 457). Woher kommt diese Skepsis? Eine Antwort lautet: Selbstlernende Algorithmen, die aus festgestellten Korrelationen schlussfolgern, müssten in ihren Schritten für die Wissenschaft transparent und von Nutzererwartungen unabhängig sein, wenn sie sinnvoll in sie eingebunden werden sollen (Ritschel/ Müller 2016: 7). Daran fehle es jedoch. Manovich ist zwar überzeugt, dass sich mit Big Data auch interessante Fragen nach gesellschaftlichen Zuständen und Veränderungen klären lassen (2014: 77), sagt aber zugleich: Viel öfter gehe es darum, Antworten auf die Frage, was Menschen zukünftig wollen, „effektiv zu kapitalisieren“ (ibid.). Hankey und Tuszynsky, die zwei Gründer des 2003 entstandenen NGO Tactical Technology Collective, warnen noch vor einer anderen Konsequenz: „Das System zeigt uns als Reflexion lediglich das, was wir in das System einspeisen“ (2017: 95). Deshalb erweitere die Technologie unseren Horizont nicht, sondern beginne damit, ihn zu beschränken und vorherzubestimmen. „Die losen Fragmente, die unseren zukünftigen Weg pflastern, zeigen uns lediglich ein Abbild der Welt, in der wir bereits leben“ (ibid.). Fast nur in einem ist sich die Wissenschaft einig: Big Data durchdringen die Gesellschaft in aller Tiefe. Das Wort wird, wie Schrape aufgezählt hat (2016: 17), als Chiffre für verschiedenartige Trends benutzt; daran wollen wir noch einmal kurz erinnern: Versicherungen erproben individuell anpassbare Preismodelle auf der Basis digitaler Selbstvermessung, die eine gerechtere Beitragsberechnung versprechen, aber auch die Gefahr einer Entsolidarisierung mit sich bringen. In der Verbrechensbekämpfungsollen - ähnlich, wie sich das Philip 258 10 Die neue Aufklärung K. Dick (1956) vorgestellt hat - Delikte und Ausschreitungen auf der Basis gesammelter Bewegungsdaten vorhergesagt werden. Im Verteidigungsbereich gilt die automatisierte Auswertung von Massendaten als gängiges „Handwerkszeug für moderne militärische Aufklärung und Lageanalyse“ (Hofstetter 2014: 13). In Wahlkämpfen beschäftigen Parteien Datenanalysten, um personengenaue Wählerprofile zu erstellen. Im Big Data-Marketing ermittelt man Konsumentenerfahrungen, um Kunden ein ganz auf sie zugeschnittenes Einkaufserlebnis zu bieten. In der Medizin benutzt man Massendaten nicht mehr nur für das Gesundheitsmanagement, sondern ebenso für die Früherkennung von Epidemien. Wachsende Datenmengen etwa in den digital humanities machen auch neue Erhebungs- und Auswertungsmethoden möglich (vgl. Reichert 2014b; Richter 2015). Kurzum: „Big Data ist die Chiffre für die Informatisierung der Gesellschaft 4.0“ (Schrape 2016: 18). Relativ einig sind sich viele Wissenschaftler darin, dass die Welt von Big Data riesig, unübersichtlich und voller Fallstricke ist. Broemel/ Trute zitieren zum Beweis (2016: 50) nicht untypische Titel datenschutzrechtlicher Fachbeiträge: „(Verlorene) Selbstbestimmung im Datenmeer“ (Rosnagel/ Nebel 2015), „Das Ende der Anonymität“ (Boehme-Nesler 2016 sowie mit Fragezeichen Sarunski 2016) oder „Zwischen Big Data und Big Brother“(Schaar 2013). Die große Mehrzahl der Wissenschaftler würde den Satz unterschreiben: „Egal wie groß der Datenberg, er ist praxis- und interpretationsgebunden“ (Böschen et al. 2016: 66). In der Hochenergiephysik, in den Lebenswissenschaften und in der Wirtschaft geht es, wie wir gesehen haben, um unüberschaubar viele Daten, in denen Muster nur noch durch machine learning mit passenden Lernalgorithmen zu ermitteln sind. Erklärungen und Prognosen setzen in diesen komplexen Systemen mit nichtlinearer Dynamik anspruchsvolle Algorithmen und bei großen Datenmassen Hochleistungsdatenbanken, vorauslaufende Computersimulationen und ein sorgfältiges Qualitätsmanagement voraus (Mainzer 2016: 33). Algorithmen ermitteln aber lediglich, welche Korrelationen diese Daten aufweisen, nicht die dahinter liegenden Gründe. Das ist nicht ungefährlich; denn „je größer die verfügbare Datenbasis ist, desto größer wird auch die Wahrscheinlichkeit, sich zufällig ähnelnde Datenreihen zu finden und daraus Zusammenhänge abzuleiten, die realiter gar nicht vorhanden sind“ (Schrape 2016: 18). Daher gilt: „Nur wer die Theorie kennt, kann allgemein gültige Theoreme über die Leistungsfähigkeit und Grenzen dieser Algorithmen beweisen. Erst solche Metatheoreme garantieren Verlässlichkeit und Korrektheit“ (Mainzer 2016: 33). Die Welt der Software und schnellen Rechner, erläutert Mainzer weiter, fußt auf logischmathematischem Denken, dass tief in philosophischen Traditionen verwurzelt ist. Wer dieses Gedankengeflecht nicht durchschaue, sei blind für die Leistungsmöglichkeiten von Big Data, aber auch für Grenzen der Anwendung in unserer Alltags- und Berufswelt (ibid.: 34). Also ist Anderson, den wir am Beginn dieses Abschnitts zu Wort kommen ließen, doch zu kurz gesprungen. Big Data-Analysen zeigen in der Regel nur auf, was Nutzer tun, aber nicht, warum sie es tun (Mahrt/ Scharkow 2014: 224). Mainzer hält Andersons Urteil über Theorien deshalb rundheraus für „äußerst töricht und äußerst gefährlich“ und erläutert das an zwei Beispielen: „Medizinisch handeln kann nur, wer die kausalen Ursachen z.B. von Tumoren erkennen kann. Auch die Wahrscheinlichkeit von kriegerischen Konflikten bringt nichts, so lange deren kausale Ursachen nicht klar sind“ (Mainzer 2017a). Wissenschaftler machen noch auf eine weitere Konsequenz aufmerksam: Big Data-Anwendungen, deren Algorithmen innovatives Wissen generieren, machen „aus Fragen der Daten Fragen des Wissens und dann Fragen der Macht“ (Broemel/ Trute 2016: 56, vgl. Reichert 2014, 2015). Der Einsatz von Computern ist nach Überzeugung von Distelmeyer (2017) „grundsätzlich mit Regulierungsansprüchen und Fragen der Verfügung verbunden - mit dem Wunsch nach und der Angst vor Kontrolle. Was sind das für Formen des Verfügens? In welchem Verhältnis stehen Erscheinungsformen und Bedingungen des Computers? Wie 10.5 Eine Zwischenbilanz 259 vermitteln interfaces - Schnittstellen zwischen Hardware, Software, Mensch und Ding - unsere Beziehung zum Computer als Medium und Machtmaschine? “ Auf Fragen der Macht hat in aller Klarheit schon der virtual reality-Pionier und Internet- Technologe der ersten Stunde Jaron Lanier verwiesen. In seinem Manifest von 2000 [One half a manifesto] hat Lanier die sechs wichtigsten Glaubensgrundsätze der Cyber-Ideologen beschrieben: Erstens: Kybernetisch ausgewertete Muster von Informationen seien der beste Weg, die Wirklichkeit zu verstehen. Zweitens: Menschen seien nicht viel mehr als kybernetische Muster. Drittens: Subjektive Erfahrung existiere entweder nicht oder sie spiele keine Rolle, weil sie an der Peripherie stattfinde. Viertens: Was Darwin für die Biologie beschrieben hat, liefere die beste Erklärung für jedwede Kreativität und Kultur. Fünftens: Qualität und Qualität aller Informationssysteme stiegen exponentiell. Sechstens: Biologie und Physik verschmölzen und machten Software zu einer Leit- und Lebenswissenschaft, die alle Lebensbereiche beeinflusst und steuert. Auf der Basis solcher Leitsätze, urteilt Keese, sei es „kein Wunder, dass Google, Facebook& Co. uns bedenkenlos ausforschen. Es ist sogar logisch“ (Keese 2014: 269). „Cyber-Totalitaristen“, wie Lanier sie nennt, berauschten sich an der Technik und ihren Möglichkeiten. Lanier wirft ihnen vor, sie verzichteten geradezu leichtfertig auf den nötigen wissenschaftlichen Skeptizismus und verstünden nicht, wo endet, was sie so begeistert betreiben: „Es besteht die reale Gefahr, dass sich evolutionäre Psychologie, künstliche Intelligenz und Verherrlichung von exponentiellem Wachstum zu etwas ganz Großem auswachsen. Denn es geht darum, die Software zu schreiben, die unsere Gesellschaft und unser Leben steuert. Falls das geschieht, wird sich die Ideologie der intellektuellen Cyber-Totalitaristen zu einer Macht ausbreiten, unter der Millionen von Menschen zu leiden haben werden“ (Lanier 2014, cit. Keese 2014: 268). Big Data liefern Korrelationen und eignen sich mit data mining und Datenvisualisierung zwar gut zum induktiven, also von einzelnen Beobachtungen ausgehenden Entdecken neuer Zusammenhänge und zur Bildung von Hypothesen. Ohne deduktive, also mit Theorien gegründete Erklärungen sozialer Wirkmechanismen, wenden Mayerl/ Zweig aber ein, „bleibt das Verständnis von gesellschaftlichen Vorgängen eine blackbox“. Die Warum-Frage habe die Wissenschaften aber schon immer angetrieben (2016: 80). In der blackbox ist es gefährlich. Denn ein Einzelner kann eine algorithmische Prognose normalerweise weder verstehen noch gar widerlegen: Bei der Wissensgenerierung „kommt der Einzelne gegen die algorithmenbasierte Zuschreibung von Eigenschaften nicht an“ (ibid.: 57). Er kann auch kaum erkennen, „inwiefern ein bestimmtes Merkmal in Kombination mit anderen Merkmalen Schlüsse auf die Bonität, Gesundheitsrisiken oder Produktpräferenzen zulässt (O’Neil/ Schutt 2013: 274). Das durchblicken selbst datenverarbeitende Unternehmen kaum“. Denn, wie gesagt: Algorithmen „machen nur Korrelationen sichtbar, keine Kausalitäten“ (Broemel/ Trute 2016: 57). Wer sie regulieren will, kann sich deshalb nicht damit begnügen, die Verarbeitung personenbezogener Daten zu steuern. Er muss eine Wissensordnung erzeugen. Die Preisgabe bestimmter personenbezogener Daten ist darin nur ein Baustein, „zwar nicht verzichtbar, aber noch nicht die Lösung“ (ibid.: 58). Das führt zurück zu Fragen der Macht. Broemel/ Trute halten den datenrechtlichen Personenschutz nicht für geeignet, Machtfragen zu beantworten, „also etwa die Konzentration von Macht und ihr Missbrauchspotential“ oder die Aufgabe, „Instrumente zur Offenhaltung gesellschaftlicher Koordination“ einzusetzen (ibid.) oder das Recht auf Datentransfers zu sichern, also zum Wechsel einer Plattform oder eines Vertragspartners. Die beiden Wissenschaftler sprechen von Problemen bei der Zuordnung von Daten, die in sozialer Interaktion entstehen, also dann, wenn Menschen miteinander kommunizieren (2016: 62). Sie fordern, dass der, der sich mit Algorithmen befasst, stets „die jeweiligen wissenschaftli- 260 10 Die neue Aufklärung chen Kontexte“ zugrunde legen müsse (2016: 59, für die Medizin vgl. Wegscheider/ Koch- Gromus 2015) und dass er dazu Theorie und Praxis verbindet. Die Frage nach Konsequenzen aus Big Data-Analysen für die Verteilung von Macht in der Gesellschaft und für deren Gebrauch und ihre Kontrolle ist also gestellt, aber noch längst nicht beantwortet. Die Breite der gesellschaftlichen und politischen Diskussion hat sie noch gar nicht erreicht. Sie dürfte die Big Data-Diskussion folglich noch lange begleiten. 1111 PPoolliittiikk dduurrcchh ddiiee BBüürrggeerr Nicht nur für sie. Kommt die kooperative Regierung? Noch ist Datenbesitz ein Herrschaftsinstrument. Das zeigen Geheimdienste wie die NSA und der BND. Aber schon kursiert die Vision eines vollständig datengesteuerten Regierungssystems auf Basis des Bürgerwillens. Ob das nur ein Traum ist oder ob Big Data dahin führen wird, weiß noch niemand, und es gibt auch berechtigte Skepsis. Aber ein wesentlicher Hinderungsgrund für die Verwirklichung ist schon beseitigt: Wir haben die technischen Möglichkeiten dazu. 11.1 Helbings Plan 261 11.2 Running for Presiden t 262 11.3 Wie und wozu der Staat Daten abgreift 270 11.4 Ohne Algorithmen läuft nichts mehr 274 11.5 Suchmaschinen steuern, wie wir denken 276 11.6 Aufklärung durch Fakten 286 1111. .11 HHe el lbbi innggss PPllaann Im Januar 2013 vergab die EU-Kommission ihren mit einer Milliarde Euro dotierten Preis für die Future and Emerging Technologies Flagship Initiative unter anderem an ein Projekt, in dem das menschliche Gehirn am Computer nachgebaut werden sollte. Diese Entscheidung kam überraschend, denn auf Platz 1 von sechs Plätzen der Vorschlagsliste für diesen Preis hatte das Projekt des ETH-Physikers Dirk Helbing für ein Computersystem gestanden, das die Welt so durchsichtig wie eine Glaskugel machen sollte. Herzstück dieser „Glaskugel“ sollte ein living earth simulator werden, der ganze Systeme modellieren sollte: Volkswirtschaften, Regierungen, Gesellschaften, Technologien, Kulturen. Helbing wollte damit Big Data- Projekte wie zum Beispiel Palantir, Recorded Future oder Sentinent World weit in den Schatten stellen, die die Zukunft mit riesigen Mengen persönlicher Daten vorherzusagen versuchen. Helbings Plan fußte auf seinen Analysen zur Verkehrssteuerung auf stark befahrenen Autobahnen, auf denen es dennoch nicht zu Staus kommen soll, und von Pilgermassen in Mekka, wo seine Analysen Milliarden teure Investitionen auslösten, damit sich während der alljährlichen Hadsch dort Menschenmassen nicht gegenseitig tottreten. Nun haben Autofahrer auf einer Richtungsfahrbahn und Pilger auf der Hadsch gerichtete Ziele. Für Volkswirtschaften, Regierungen und Gesellschaften gilt das jedoch nicht gleichermaßen. Das auf Wahrscheinlichkeiten beruhende Prinzip der Big Data-Analysen soll dieses Problem dennoch lösen, etwa wie eine Wettervorhersage: Wenn wir „beispielsweise über ein ganzes Jahr hinweg an jedem Punkt der Erdoberfläche die Temperatur und die Luftfeuchtigkeit messen, wären wir“ nach den Worten des Institutsdirektors for quantitative social science in Harvard, Gary King, „vermutlich in der Lage, relativ genaue Wettervorhersagen zu treffen, und zwar ohne irgendwelche Kenntnisse in Strömungslehre oder über die solare Radiostrahlung“ (Weinberger 2013: 225). Helbing vertraut für sein Weltmodell auf „spontane Selbstorganisationsphänomene auf der Basis der Interaktionen im System“ (Helbing in Hagner/ Helbing 2013: 270). Dazu gebe es gar keine Alternative; denn „aus meiner Sicht werden wir auf jeden Fall in der Zeit der Partizipation als nächstem Stadium der Demokratie ankommen, aber nicht mehr so sehr aus 262 11 Politik durch die Bürger philosophischen oder politischen Gründen, sondern aufgrund der Kräfte, die in komplexen Systemen automatisch entstehen (ibid.: 262). John Wilbanks, der stellvertretende Forschungschef von creative commons, setzt bei seiner Vorstellung einer digitalen Glaskugel ähnlich wie Helbing (der dieses Glaskugel-Bild übrigens als auf seine Ideen nicht recht passend ablehnt) auf das Internet als „eine mächtige und kreative Maschine, die niemanden ausschließt“ (ibid.: 233). Im Web und dessen „chaotischem Wettstreit der Ideen“ sieht Wilbanks die „vollständigere Repräsentation der Welt“ (ibid.: 237). Helbing und Wilbanks erweisen sich bei genauem Hinsehen als Geistesverwandte von Hardy, dessen Arbeit sich wie ein roter Faden durch dieses Buch zieht. Seine Vision eines globalen Gesundheitssystems Zoe, seine Überlegungen zum global value exchange system als Basis der Weltwirtschaft, sein ICIK-Netzwerk aus intercultural centers of investigative knowledgesind aus dem gleichen Geist geboren wie Helbings und Wilbanks Ideen: Die digitale Welt, in der Reichert zufolge das social web zur wichtigsten Datenquelle für Regierungs- und Kontrollwissen geworden ist (Reichert 2014: 10), ermöglicht es, ja erfordert es buchstäblich, die Gesellschaft auf der Basis von Big big big Data partizipativ neu zu organisieren. Buhr nennt diese neuen Verflechtungen „Konstitutionsmomente von Macht und Staatlichkeit“ oder „digitale Gouvernementalität“ (Buhr 2017: 5). Er trifft sich gedanklich mit Manuel Castells, einem Vordenker des Computerzeitalters. Der hatte 2003 seine Vision der datengetriebenen Gesellschaft so zusammengefasst: „Alle Ausdrucksformen aus allen Zeiten und von allen Orten werden in demselben Hypertext vermischt, beständig neu angeordnet und zu beliebiger Zeit an beliebigem Ort kommuniziert, je nach den Interessen der Sender und den Stimmungen der Empfänger. Diese Virtualität ist unsere Realität, weil wir im Bezugsrahmen dieser zeitlosen, ortlosen Symbolsysteme die Kategorien konstruieren und die Bilder aufrufen, die Verhalten bestimmen, Politik anregen, Träume nähren und Alpträume auslösen. Das ist die neue Gesellschaftsstruktur“ (Castells 2003: 401). Wir wollen nun in gebotener Kürze betrachten, ob und wie weit solche Visionen in der politischen Praxis durchscheinen, wie viel von ihnen sich bisher als praktikabel erweist. 1 111. .22 RRuunnn niinng g ffoorr PPrre essiidde ennt t Wahlentscheidungen beruhen zu achtzig Prozent auf Psychologie, also auf emotionalen und oft genug irrationalen Motiven, und nur zu zwanzig Prozent auf harten Fakten. Deshalb wählen Menschen Politiker, die ihnen gefallen und nicht unbedingt Parteien, die ihnen das bessere Angebot machen. Sie entscheiden aus dem Bauch heraus, manchmal sogar anders als ihr Bewusstsein es ihnen empfiehlt, und rationalisieren das erst nachträglich. Weil das so ist, ergeben emotionale und rationale Signale in Wahlkämpfen eine Gemengelage, die Leidenschaft und Verwirrung gleichzeitig erzeugen. Harte Fakten und rationale Überlegungen ziehen im Wettbewerb mit weichen, emotionalen Empfindungen bei den meisten Wählern den Kürzeren. Viele Politiker, die zur Wahl stehen, wissen das und kitzeln Emotionen bewusst, um kontroverse Themen so über rationale Hürden zu hieven. Mit dieserAnalyse wandte sich rund ein Jahr vor den letzten US-amerikanischen Präsidentschaftswahlen ein Global Analysis and Vision Centre aus Bukarest an das Wahlkampfteam der damaligen US-Außenministerin und Präsidentschaftsbewerberin Hillary Clinton. Der Briefkopf des Centre zeigte dessen Logo von zwei weiteren flankiert, von denen der Schloer Consulting Group und von Prisma Analytics. Alle drei Logos sagten Hillary Clinton nichts, wohl aber einem ihrer Wahlkampfberater. Er kannte den Verfasser, Hardy, den Deutschamerikaner. Der schrieb aus Bukarest, weil er dort gerade seine Firma Prisma Analytcs auf- 11.2 Running for President 263 baute, und weil er wusste, wie man solche weichen, emotionalen Empfindungen feststellen, analysieren und politisch oder wirtschaftlich auswerten kann. Und er wusste, wie stark Big Data die politische Landschaft verändern. Der erste Politiker, der diese Möglichkeiten konsequent nutzte, war Barack Obama, bei der Kampagne zu seiner Wiederwahl 2012 noch deutlich stärker als bei seiner Erstwahl 2008. Sein Wahlkampfteam schuf eine Megadatenbank mit Angaben aus Meinungsumfragen, von Spendensammlern, von Kundendaten, aus sozialen Netzwerken und mobilen Anwendungen (Scherer 2012). Obama-Berater Larry Grisolano zufolge kannte dieses Team buchstäblich jeden unentschiedenen Wähler in den gesamten USA, seine Adresse, sein Geschlecht, seine ethnische Zugehörigkeit, sein Einkommen (Rutenberg 2013) usw. - insgesamt mehr als 80 Faktoren. Tobias Moorstedt, der diesem Team einige Zeit angehörte, berichtete über dieses Computerprogramm: „Ich gebe die Postleitzahl und die Nummer des Wahlbezirks ein, um den sich mein Team derzeit kümmert. Nach wenigen Sekunden taucht eine lange Liste von Bürgern auf, die sich für die Obama-Kampagne interessieren. Neben soziodemografischen Daten erfährt man auch, ob und wie oft der betreffende Bürger in den vergangenen Jahren gewählt hat, ob er sich für eine Partei registriert oder für einen Kandidaten gespendet hat. Der Computer weiß, wie oft er bereits von der Kampagne kontaktiert wurde, wie er reagiert hat und welchen ‚support score‘ er derzeit aufweist. Das Programm ist wirklich sehr praktisch. Mit einigen Mausklicks kann man eine genau definierte Zielgruppe zusammenstellen“ (Moorstedt 2013: 41). Früher, so Moorstedt, „sprach man von ‚Flächenbombardements‘ (mit TV-Spots und Flugblättern), heute von ‚chirurgischen Schlägen‘ mit individuellen Botschaften“ (ibid.: 42). Barack Obamas Kampagne stützte sich auf Big Data-Analysen. Sie halfen, die stets begrenzten, aber insgesamt doch enorm hohen crowdfunding-Gelder - etwa eine Milliarde US- Dollar (Scherer 2012) - möglichst zielgenau einzusetzen (Moorstedt 2013). Mit einer Smartphone-App konnten Obama-Fans Nachrichten Facebook-Freunde schicken, die ein Computer ausgewählte. Jeder fünfte Adressat reagierte. „Mit solchen Traumquoten kann die traditionelle Wahlwerbung nicht aufwarten“ (Drösser 2016: 135). Die Analysen waren ein systematischer Bruch mit früheren Wahlkampfmethoden. Bis zu Obama hatte man aus genau analysierten Bevölkerungsstichproben auf die Wählerschaft im Ganzen geschlossen. Sein Team hingegen sammelte so lange Informationen über alle Bürger, „bis sich ein konkretes Bild jedes Einzelnen ergab“ (Issenberg 2012). Und es erfuhr mehr als das: Obamas Wahlkampfteam wusste nicht nur, „wer du bist“, sondern auch, „wie es dich zu dem Menschen machen kann, den es haben will“ (ibid.). Ein Beispiel: Wahlkampfhelfer erklärten einzelnen Bürgern, ihre Nachbarn würden nach der Wahl erfahren, ob sie ihre Stimme abgegeben hätten. Das habe die Wahlbeteiligung massiv erhöht (Issenburg 2012a). Für seinen Amtsnachfolger Donald Trump stellte die Datenfirma Cambridge Analytica ihr gesammeltes Wissen über 230 Millionen erwachsene Amerikaner zur Verfügung und ermöglichte so ebenfalls eine nicht immer legale Ansprache potentieller Wähler vor allem in sozialen Netzwerken (Müller v. Blumencron 2016, Nix 2018), nicht zuletzt über Twitter mit seinen 400 Millionen tweets jeden Tag (Mainzer 2017: 144). „Brauchen wir am Ende noch den Bundestagsabgeordneten, wenn wir unsere Interessen online zum Ausdruck bringen können? “ fragt Mainzer (ibid.: 146) und fügt hinzu: „Der amerikanische Präsident macht es mit seinem Twitterverhalten vor.“ Im US-Wahlkampf 2016 gen erierten Chatbots, also Maschinen, die ohne jedes menschliche Zutun mit Internetnutzern kommunizieren, automatisch bis zu einem Drittel der Facebook likes und retweets für einen Kandidaten. 400.000 bots sollen allein 3,8 Millionen tweets verbreitet haben, 20 Prozent der gesamten Wahlkampfmeldungen (Bessi/ Ferrara 2016). 264 11 Politik durch die Bürger Insgesamt sollen in Twitter bereits fast die Hälfte aller tweets von bots stammen (Zafar et al. 2017). Sie verzerren nicht nur den Eindruck der öffentlichen Meinung massiv, sondern auch ihre Entstehung, dann nämlich, wenn ein wahlberechtigter Bürger sich im Wesentlichen über Facebook oder Twitter informiert. Er lebt dann in der berüchtigten Filterblase, die vorrangig seine eigenen Interessen spiegelt. Die öffentlichen tweets überdecken, dass die Masse der politischen Big Data-Anwendungen von der Öffentlichkeit unbemerkt läuft. Der kanadische Soziologe Philip Howard hat deshalb schon 2006 gefordert, Hypermedienkampagnen von staatlichen Stellen regulieren zu lassen. Die Wahlkampfzentralen, sagt er, sollten die Bürger darüber informieren müssen, mit welchen Technologien sie arbeiten. Sonst werde es immer schwieriger, die demokratische Legitimität einer Wahl korrekt einzuschätzen (Howard 2006: 199). Hardys unwillkommene Prognose Schon bald nach der Wiederwahl Barack Obamas zum US-amerikanischen Präsidenten hatte Hardy eine Prognose über den Ausgang der damals noch fast vier Jahre entfernten nächsten Präsidentenwahl aufgestellt und darüber berichtet. Bis zu den Präsidentschaftswahlen des Jahres 2016, sagte er 2012, werde sich die US-Gesellschaft in zwei Lager gespalten haben. Der Wahlkampf werde tumultartige Züge aufweisen. Die Wähler würden extreme Unlust ausstrahlen. Gewählt werden würde ein zu emotionalen Ausbrüchen neigender und massiven Ärger verursachender Präsidentschaftsbewerber, der nirgendwo den status quo einhalten werde, nicht in den USA, nicht in Europa und nicht weltweit. Zusammenarbeit werde von Separatismus abgelöst werden - mit Rückwirkungen auf den Zusammenhalt der USA selbst, der EU und anderer Bündnisse in der Welt. Vom superreichen US-Unternehmer Donald Trump war als politische Figur noch nirgends die Rede. So weit bekannt hatte Trump damals, 2012, noch nicht einmal selbst erwogen, im Jahr 2016 als Präsidentschaftskandidat ins Rennen zu gehen. Bei einem Empfang der Korrespondenten im Weißen Haus im April 2011 hatte Präsident Barack Obama ihn auf die Schippe genommen: „Er verspottete Trumps protzigen Dekor-Geschmack, machte sich darüber lustig, dass Trump falschen Gerüchten aufgesessen war, er, Obama, sei in Kenya geboren, und zog über Trumps Fernsehserie ‚The Celebrity Apprentice‘ her“ (Haberman/ Burns 2016). Trump hatte fortan an seinem Image gefeilt, besonders bei den US- Republikanern - mit welcher Absicht, blieb zunächst im Dunkeln. Erst fast fünf Jahre später, im Januar 2016, roch der Republikaner Newt Gingrich den Braten: „Trump löcherte Gingrich mit Fragen, welche Erfahrungen er mit einer Präsidentschaftskandidatur habe, wie man eine solche Kampagne aufsetzen, wie man sie führen müsse und was sie wohl koste“ (ibid.). Gingrich, in dessen Augen Donald Trump „publicity wollte, mit Obamas Geburtsort herumspielte und das Rampenlicht suchte“, überdachte an diesem Abend seine Meinung und kam zu dem Schluss: „Es war das erste Mal, dass ich dachte, er könnte es tatsächlich versuchen“ (ibid.). Hardy hatte diese Entwicklung nur in Umrissen aus dem Ausland verfolgt, aus Europa. „Die Leute haben meine Prognose seinerzeit alle als Quatsch abgetan. Selbst einer meiner engsten Arbeitskollegen ermahnte mich zu größerer Vorsicht.“ Niemand außer ihm selbst nahm diese Voraussagen ernst. Aber was tatsächlich passierte, gab ihm dann recht, allen abweichenden Meinungsumfragen zum Trotz. „Wenn wir jemandes Verhalten analysieren“, schrieb Hardy kurz nach Donald Trumps Wahlerfolg, „können wir ganz gut vorhersagen, wie jemand sich in einer Gruppe oder auf Twitter oder Facebook verhält. Deshalb war es auch gar nicht so schwer, Jahre im Voraus das Ergebnis der US-Präsidentschaftswahlen vorherzusehen. Aber die Leute glauben einfach gern, morgen gehe es so weiter wie heute. Das ist natürlich sehr einfach. Das Gegenteil anzuneh- 11.2 Running for President 265 men, dass es nämlich morgen drastisch anders sein werde als bisher, ist nicht populär. Nein, nein, sagen sie, das kann doch nicht sein. Sie dürfen so etwas nicht einmal aussprechen. Dabei braucht man nur auf das Veränderungspotenzial solcher dynamischen Prozesse zu schauen, um zu wissen, was angesagt ist.“ Der britische Journalist George Monbiot hatte wie Hardy in seiner Einschätzung richtig gelegen: Ja, Trump sei ein „flacher, verlogener, lümmelhafter und hoch gefährlicher Mann. Aber gerade das zeigt: Er ist kein Außenseiter, sondern widerspiegelt perfekt seine Kaste, die Kaste, die die Weltwirtschaft und unsere Länder regiert. Wenn man alle Vorwände weglässt, ist er unser System“ (Monbiot 2016a). Überraschung? Nicht wirklich - man hatte nur genau genug hinschauen müssen. Das hatte Hardy getan. Er hatte ein Instrument entwickelt und benutzt, um gesellschaftliche Zustände und Entwicklungen genauer als andere analysieren zu können. Er nannte es das quantum relations-Prinzip. Es hat uns in diesem Buch schon beschäftigt. Ohne den Begriff Schweigespirale zu kennen, hatte Hardy eine Beobachtung bestätigt, die die Gründerin des deutschen Instituts für Demoskopie Elisabeth Noelle-Neumann in ihrem gleichnamigen Buch mit dem Untertitel „Öffentliche Meinung - unsere soziale Haut“ schon eine Generation früher geprägt hatte. Eine solche Haut ist in Deutschland vielleicht wichtiger als in anderen Ländern. Die Bundesrepublik ist im Gegensatz zu einigen Nachbarn kein Zentralstaat. Das Land wird nicht so sehr durch die Hauptstadt und ihr Meinungsklima zusammengehalten als vielmehr durch eine über die Bundesländer verteilte Medienkette. Deren Sender und Verlagshäuser publizieren die Meinungen, die in der Öffentlichkeit dann viele Menschen vertreten. Diese öffentliche Meinung ist „gegründet auf das unbewusste Bestreben von in einem Verband lebenden Menschen, zu einem gemeinsamen Urteil zu gelangen, zu einer Übereinstimmung, wie sie erforderlich ist, um handeln und wenn notwendig entscheiden zu können“ (Noelle-Neumann 1982: III). Sie besteht nicht allein aus Volkes Stimme. Zumindest vor dem Siegeszug der sozialen Medien fußte sie nach der Ansicht des früheren deutschen Regierungssprechers Bergsdorf in erster Linie auf der „politischen Kommunikation der Eliten, der von Medien vermittelten und von ihnen geführten Kommunikation“ und erst dann auf dem „Gespräch der Bürger über öffentliche Angelegenheiten“ (Bergsdorf 1991). Bergsdorf hatte die private Kommunikation über Alltägliches aller Art bei Facebook & Co. als Teil der öffentlichen Meinungsbildung noch nicht mit im Blick. Anders Noelle-Neumann: Öffentlichkeit, schrieb sie, sei nicht vorrangig eine Sache der „Berufenen, der zur Kritik Befähigten, der politisch fungierenden Öffentlichkeit. Alle sind beteiligt“ (Noelle- Neumann 1982: 93). Weil Menschen zu ihrem psychischen Wohlbefinden aber Rückhalt in der Meinung anderer suchen und weil sie, wenn sie sich allein fühlen, tendenziell unglücklicher sind, wollen sie sich „nicht isolieren, beobachten pausenlos ihre Umwelt, können aufs Feinste registrieren, was zu- und was abnimmt“ (ibid.: XIII) und sind gestärkt, wenn sie sehen, dass ihre Meinung geteilt wird. Wer aber „sieht, dass seine Haltung an Boden verliert, verfällt in Schweigen“ (ibid.). Indem die einen laut und öffentlich reden oder publizieren, wirken sie stärker als sie wirklich sind, und die anderen bleiben im Dunklen. Die Schweigespirale beschreibt also eine Rückkopplung, einen sich selbst verstärkenden Prozess, in dessen Verlauf die von den Medien vertretenen Positionen in der Gesellschaft an Boden gewinnen (Schulz, 1992: 287). Die anderen, die nicht die Mehrheitsmeinung vertreten, halten dann lieber den Mund. Diese Schweigespirale ist die bekannteste Variante eines Koorientierungsmodells von Kommunikationswirkungen (ibid.).Sie beschreibt einen Trend zur Konformität: Gleichlautende Meinungen werden mit sozialem Zuspruch belohnt, dagegen wird der Verstoß gegen das übereinstimmende Urteil anderer mit sozialer Isolierung bestraft (Noelle-Neumann 1989: 14 ff.). Die Massenmedien verstärken diesen Prozess, die sozialen noch stärker. In- 266 11 Politik durch die Bürger zwischen halten wir es für normal, uns in jeder Minute im Web zu inszenieren. So glauben wir einen Rest Kontrolle über uns zu behalten, auch wenn man „die Selbstvermarktung im Internet in Wahrheit eine Selbstversklavung“ (Morgenroth 2014: 123) nennen kann. Das Prinzip der Schweigespirale hat ein Beobachter schon vor mehr als 150 Jahren richtig erkannt, Alexis Clérel Graf de Tocqueville. „Leute, die noch am alten Glauben festhielten, fürchteten die einzigen zu sein, die ihm treu blieben, und da sie die Absonderung mehr als den Irrtum fürchteten, gesellten sie sich zu der Menge, ohne wie diese zu denken“, schrieb er (1857: 182). „Was nur noch die Ansicht eines Teils der Nation war, schien auf eine solche Weise die Meinung aller zu sein und dünkte eben deshalb diejenigen unwiderstehlich, die ihr diesen trügerischen Anschein gaben“ (ibid.). Tocqueville sagte das über die Vereinigten Staaten. In den USA sitzen die meinungsleitenden Medien vor allem in den Küstenstaaten, von New York bis Hollywood. Zu Beginn des 21. Jahrhunderts war das Obama-Land. Es prägte landesweit die öffentliche Wahrnehmung. Die sogenannte schweigende Mehrheit im Landesinneren kam dagegen lange nicht an - bis Trump kam. Filterblasen und Echokammern Inzwischen ist der Begriff Schweigespirale aus der Mode gekommen, ohne dass der Zustand, den er beschreibt, an Belang eingebüßt hätte. Heute ist unter geänderten Vorzeichen von Filterblasen die Rede (Pariser 2011, Borgesius 2016). Deren Erzeuger sind Google, Facebook& Co. Der Begriff beschreibt, dass uns diese Dienste nur Teile des Gesamtgeschehens präsentieren, und zwar nur die, die unserem Such- und Posting-Verhalten, unseren Vorlieben, unserem Weltbild entsprechen. Anderes blenden sie aus. Am Zeitungskiosk liegen auch all die Tageszeitungen offen aus, die wir nicht lesen, weil sie unser Weltbild nicht spiegeln. Wer eine solche Meinungsvielfalt dort oder im Internet geringschätzt, wer die Arbeit von Nachrichtenprofis verschmäht, ihnen gar fake news vorwirft, nimmt in Kauf, „dass der Einfluss von Zwischeninstanzen, die auf das Allgemeininteresse gerichtet sind, zurückgeht (Stampfl 2013: 84). Er gibt sich zufrieden mit dem, was seine Ansichten bestätigt. Das Web macht das sehr leicht. Google verrät nicht, was deren Suchmaschine Anfragern vorenthält (Stampfl 2013: 82). Was zunächst nach Nutzerfreundlichkeit klingt, erzeugt eine folgenreiche Beschränkung des Sichtfelds (ibid.). „Immer sollte ein Filter gewährleisten, ihn auf Wunsch auch ausschalten zu können“, fordert Stampfl (ibid.: 83). Das ist bei Google aber ebenso unmöglich wie ein Einblick in die rund 200 Auswahlprinzipien, die sich angeblich am vorangegangenen Suchverhalten des Nutzers orientieren - bei dieser Zahl an Parametern ist das nicht ganz glaubhaft. Bei Facebookist der Filterblaseneffekt angeblich nicht groß; die Filterwirkung bleibt unter zehn Prozent (Bashky et al. 2015). Facebook sorgt trotzdem ebenfalls dafür, die Welt in Follower und andere zu spalten. Gerade dieses soziale Netzwerk schafft riesige Echokammern (Sunstein 2009). Sie untergraben die Meinungsvielfalt und liefern den Nährboden für fake news irgendwelcher Nutzer, deren posts um den halben Planeten rasen (Schulz 2017: 13, vgl. Quattrociocchi 2016). Das ist mehr als ein Schönheitsfehler; denn Facebook ist für viele Menschen das wichtigste Fenster zur Welt. Für fast die Hälfte der Amerikaner ist Facebook die wesentliche Nachrichtenquelle (ibid.: 15). Echokammern sorgen dafür, dass Gleichgesinnte im Web unter sich bleiben. Sie tun das um so hartnäckiger, je stärker abweichende Information sie gewissermaßen anfeinden: „After interacting with debunking posts, user retain, or even increase, their engagement with the conspiracy echo chamber“ (Zollo 2015). Facebook likesfördern das ebenso wie People you may know- Empfehlungen - letztere „nearly doubled the number of edges added daily“ (Malik/ Pfeffer 2016). Wenn aber jeder nur Zugang zu dem Ausschnitt der Wirklichkeit erhält, der ihm gefällt, ist 11.2 Running for President 267 ein gemeinsames Verständnis übergreifender und abweichender Sachverhalte kaum noch möglich (Stampfl 2013: 83). Es wird auch gar nicht mehr erwartet. Denn social networking- Apps wie Highlight, Glancee und Sonar finden genügend Personen mit der ‚gleichen Sprache‘ wie die Nutzer und zeigen sie ihnen. Sobald sich solche Personen mit gemeinsamen Hobbys, Berufen, besuchten Schulen oder Universitäten in der Nähe aufhalten, schlagen diese Apps an (ibid.: 81). Die Technik hinter diesen Echoeffekten sind Algorithmen, die unserem Verhalten und unseren Präferenzen entsprechend Angebote auf uns zuschneiden. Nicht nur wir Nutzer selbst sind betroffen, auch Marken und Medien. Filterblasen machen für ganze Zielgruppen abweichende Ansichten irrelevant oder nicht einmal sichtbar und führen dazu, dass Nutzer sozialer Medien diese Segmente gar nicht wahrnehmen. Je mehr Nutzer Inhalte teilen, desto mehr ähnliche Inhalte bekommen sie angezeigt. So entsteht „eine Welt ohne Widersprüche, in der die eigene Meinung immer wieder bestätigt und amplifiziert wird“ und daher „als einzig richtige erscheint“. Es ist eine „algorithmisch kuratierte Wirklichkeit“ mit „Einfluss auf die poltische Meinungsbildung“ (Schulz 2017: 15 f.). Das Internet wurde als Informationsplattform für alles und jeden entwickelt. Es ist gleichgewichtig und demokratisch organisiert. Mit Wikipedia übertrifft es jede frühere Enzyklopädie heute weit. Zugleich bietet es „hochqualifizierte Foren noch für die exotischsten Probleme“. Aber seine Auffächerung birgt zugleich ein Problem: Irgend eine verbindende ‚Allgemeinbildung‘ fördert es nicht. „Wie aber sollen Menschen gedeihlich zusammenleben, wenn dem einen existenziell wichtig erscheint, wovon der andere noch nie etwas gehört hat? “ (Fichter 2017: 42). Selbst wer etwas hört und es sogar weiterverbreitet, liest es oft nicht einmal genau. Eine Untersuchung belegt „that sharing content and acually reading it are poorly correlated“ (Gabielkov 2016). Im Tempo eines Wimpernschlags fällt der Internetnutzer trotzdem ein Urteil. In der Regel bestätigt es die eigenen Maßstäbe. In dieser „Verfügbarkeitsheuristik“ erscheint das häufiger und gilt das als wichtiger, woran man sich schnell erinnert. Es ist kaum jemals etwas Komplexes und selten etwas Abstraktes, aber häufig etwas Emotionales. Es regt an und regt auf. Ein Beleg: Negativ gestimmte Facebook-Einträge erhalten mehr Kommentare als positive (Stiglitz/ Dang-Xuan 2013). Auch negative, emotional aufgeladene tweets werden stärker verbreitet als positive oder gelassen-neutrale (ibid.). Je negativer Nutzerbeiträge werden, desto öfter neigen diese Menschen Verschwörergruppen zu (Vicario 2016). Gefördert wird in anderen Worten eine „uncritical acceptance of suggestions and exaggeration ofthe likelihood ef extreme and improbable events“ (Kahnemann 2012). Stimmungen schaukeln sich hoch. Im Ergebnis werden „Probleme vertieft, Vorurteile verstärkt und Neigungen bestätigt“ (2017: 95). Das macht blind gegenüber Erfahrungen, Sichtweisen und Stimmen anderer Personen. „Im Endeffekt“, urteilt Stampfl, „begeben wir uns dadurch in eine intellektuelle Isolation und berauben uns der Möglichkeiten wahrer demokratischer Auseinandersetzung“ (2013: 85). Denn nur wer Hintergründe gut genug kennt, kann aus der Filterblase ausreißen und sich einen ganzheitlichen Blick auf die Dinge bewahren (ibid.: 82). Wissenschaftler haben nachgewiesen, wie stark die sozialen Netzwerke das Beharren in gewohnten Bahnen fördern. Testweise lieferten sie 700.000 Facebook-Nutzern mehr pessimistisches Material als diese gewöhnlich empfangen. Prompt wurden diese unzufriedener (Pasquale 2017: 103). Auch Medienleute fallen auf solche Denk- und Verhaltensmuster bisweilen herein: „Es stellt ihnen kein besonders gutes Zeugnis aus, wenn sie komplette Strömungen nicht registrieren und daher in ihrer Auseinandersetzung nicht abbilden“ (Schloer / Spariosu 2017: 40). Der kritische Nutzer kann dieser Falle ein Stück weit entgehen, etwa mit Programmen wie The Buzzard - im Juni 2017 an den Start gegangen, bedient es bisher erst eine Nische (Martens 2017: 11) - oder mit dem plug-in Escape your Bubble, einem Zusatzprogramm für 268 11 Politik durch die Bürger den Internetbrowser Chrome. Es ersetzt im newsfeed Artikel durch Beiträge der jeweils gegenteiligen Haltung. Das hat aber einen Haken: Die sozialen Netzwerke müssten selbst in die Nachrichtenauswahl eingreifen. Das setzt eine Bewertung der Inhalte voraus. Dies aber vermeiden diese Web-Plattformen sorgsam. „Das Interesse von sozialen Netzwerken liegt primär darin, Verweildauer und Nutzerfrequenz zu erhöhen. Und allen Beschwerden über den gefilterte feeds zum Trotz: Filterblasen und Echokammern führen dazu, „dass Nutzer mehr interagieren und sich wohler fühlen“ (ibid.: 42). Appelle an Gefühle Als Hardy im Jahr 2012 die nordamerikanische öffentliche Meinung durchleuchtete, war er weder auf veröffentlichte Meinungen noch auf Web-Zusatzdienste angewiesen, die die Schweigespirale beziehungsweise die Filterblase durchstechen. Mit seinem quantum relations- Prinzip drang er zur tatsächlichen Meinung auch der schweigenden Mehrheit im Landesinneren durch - wie, haben wir im Kapitel „Von Newton zu Einstein“ gezeigt. Als die anfangs zahlreichen Bewerber um die Amtsnachfolge Barack Obamas sich auf das Weiße Haus einzuschießen begannen und Donald Trump einen seiner Mitbewerber nach dem anderen aus dem Rennen warf. bot Hardy seine Analyse Hillary Clintons Wahlkampfteam an. Er wies nach, mit welchen Schlüsselphrasen und Reizwörtern Trump in der Bevölkerung Gefühle der Angst zu seinem Vorteil triggerte und nutzte. Er maß, wie die Zustimmungsraten für Trump in die Höhe schossen: von vier Prozent Mitte 2015 auf 37 Prozent am Ende des Jahres. Er analysierte Versprechen wie „Let’s make Amerika great again“ als reine Appelle an Gefühle, unterlegt mit keinerlei Fakten. Er zeichnete nach, wie Trump diese Slogans so oft wiederholte, dass sie sich bei Menschen einschliffen wie Musik, zu deren Rhythmus die Zuhörer bald den Takt mit den Füßen mitzutippen beginnen. Er belegte, wie sehr Trump Volkes Stimme ausdrückte, die des kleinen Mannes, also der Masse der Menschen, wie anfassbar dieser superreiche Mann sich als einer von ihnen ausgab. Und Hillary? Was Hardy berichtete, hörten deren Wahlkampfberater nicht gern: Sie gelte als elitär und verkopft, als unterempfindsam und übergenau, kurz als volksfern. Hardy erinnerte Hillarys Wahlkampfmanager an ein Video, das die Amerikaner 2014 zum Superbowl gesehen hatten, in der Pause des Baseball-Endspiels: „And God made a Farmer“ hieß dieses hochemotionale Stück US-Leitkultur. „Wenn Hillary diesen Farmer verkörpern kann, wird sie US-Präsidentin werden“, teilte Hardy dem Wahlkampfteam mit. Aber deren Berater reagierten gelassen: „Selbst in den swing states, in denen es ein Kopf-an-Kopf- Rennen geben könnte, hat Hillary zehn Prozent Vorsprung - was wollen Sie denn? “ Hardy wollte erläutern, dass herkömmliche Umfragen Systemfehler enthalten können, eben jene Problematik der Schweigespirale. In Hillarys Team interessierte das niemanden wirklich. Als eine realistische Chance dafür erkennbar wurde, dass Donald Trump die Wahlen für sich entscheiden könnte - was die Weltöffentlichkeit bis zum Wahltag nicht glaubte -, wiederholte Hardy seine Prognose: „Hillarys Image ist, jeden Abend am weißen Tischtuch mit leinernen Servietten zu speisen. Sie weiß nicht, was es heißt, einen Samen in die Erde zu legen und ihn zu düngen, dass er einen Stängel mit Ähren ausbilden kann“. Aber Hillary mit Erde an den Händen? Nicht vorstellbar. Dabei könne sie geradezu einen Erdrutschsieg einfahren, erklärte Hardy ihrem Wahlkampfteam, wenn sie nur ihre Rüstung abstreife und als Frau von nebenan aufträte, als ‚eine von uns‘. Das würden die meisten amerikanischen Wähler verlangen. Aber Hardys scharfe Analyse widersprach der Mischung aus Erwartungen im politischen Establishment und anderen Meinungsprognosen so stark, dass seine Analyse für den Wahlkampf folgenlos blieb. Das Wahlergebnis wirkte dann als umso größerer Schock - dieses Wort gebrauchte die deutsche Ministerin Ursula von der Leyen unmittelbar nach der Wahl. 11.2 Running for President 269 Was zeigen die US-Präsidentschaftswahlkämpfe von 2008 bis 2016, die Barack Obama zweimal gewann, Hillary Clinton gegen Donald Trump dann aber verlor, für unser Thema? Sie machen deutlich, wie wesentlich für Wahlkämpfe und grundlegende Entscheidungen Big Data geworden sind. Mittlerweile durchdringen Big Data-Anwendungen zahlreiche Politikfelder. Die bestehenden EU-Grenzdatenbanken, die polizeiliche Fahndungsdatei Schengener Informationssystem II, die Visadatenbank Visa-Informationssystem und die Asylbewerber-Biometriedatenbank Eurodac, das biometriebasierte Ein-/ Ausreisesystem und die Fluggastdatenbank passenger name record sowie Pläne zur Verknüpfung und möglichen algorithmischen Auswertung all dieser Datenbanken in einer Kerndatenbank im Rahmen des smart border package zeigen, wie stark sich das staatliche Handeln und Entscheiden durch Big Data verändert (Welchering 2016). Die öffentliche Diskussion zur Frage der Datenerhebung konzentriert sich aber weniger auf solche Möglichkeiten der Kontrolle als auf zwei andere Bereiche: auf Schnüffelei durch Regierungen und auf Ausbeutung durch kommerzielle Unternehmen (Rudder 2014: 12). Die Tatsache, dass Big Data äußerst wertvoll, aber keineswegs immer allgemein zugänglich sind, hat außerdem Machtkämpfen neue Plattformen gegeben. „Anstelle von Gold, Baumwolle und Rohstoffen geht es nun um Daten im Netz, die Wissen und Innovation codieren“ (Mainzer 2017: 149). Um an sensible Daten zu kommen, sind auch westlichen Demokratien - von autoritär regierten Staaten gar nicht zu reden - viele Mittel recht. Das Spektrum reicht von Wirtschaftsspionage über Manipulationsversuche von Wahlen (zuletzt bei der US-Präsidentenwahl, wie behauptet wird aus Russland) bis zu cyber war-Attacken. Laut Bundesamt für Sicherheit in der Informationstechnik (BSI) werden allein in Deutschland tagtäglich rund 380.000 neue Schadprogrammvarianten entdeckt. Die Menge an Spam-Nachrichten mit Schad-Software im Anhang ist laut BSI explosionsartig um das Zwölffache angestiegen. Gleichzeitig verlieren klassische Abwehrmaßnahmen an Wirksamkeit (Schonschek o.J.: 3). Unternehmen bestätigen diese Warnrufe. In der Ponemon-Studie The 2016 Cyber Resilient Organization wurden Firmen zu Cyber-Angriffenbefragt. 41 Prozent der Unternehmen sagten, sie benötigten für deren Abwehr mehr oder sogar sehr viel mehr Zeit als im Jahr zuvor. Das treibt die Kosten. Datenpannen kosten deutsche Firmen 3,6 Millionen Euro im Jahr. Das sind durchschnittlich gut 150 Euro pro gestohlenem oder verlorenem Datensatz. Kostentreiber ist der Zeitaufwand (ibid.: 4). Deutsche Sicherheitsexperten bewerten die Risikovorsorge der Organisationen als ungenügend, sagt eine Tenable Network Security-Umfrage. Laut Allianz Risk Barometer 2017 gelten Cyber-Risiken in den Firmen als das größte Unternehmensrisiko überhaupt, gleich ob IT-Ausfälle, Spionage oder Datenmissbrauch (ibid.: 5). Als Gegenmittel empfehlen Experten von Palo Alto Networks mehr Automatisierung: Ein elektronischer cloud access security manager (CASM) könne Risiken automatisch erkennen und beheben (ibid.). Damit liegen sie im Trend: Die Mehrheit von 700 von IBM befragten Sicherheitsexperten ist überzeugt: Kognitive Technologien und Maschinen-Intelligenz können den Kampf gegen Cyberkriminalität entscheiden (ibid.: 6). Der Weg dahin ist aber noch lang. Eine Studie „Big Data und Informationssicherheit“ von Kuppinger Cole und dem Business Application Research Center (BARC) stellt nämlich fest: Nur 13 Prozent der Befragten nennen ihr Unternehmen bei Big Data-Sicherheitbest-in-class. Diese Firmen kümmern sich nicht nur um Sicherheitstechnologien, sondern zu 85 Prozent auch um identity und access governance und zu 50 Prozent um eine starke Authentifizierung. In einem Punkt sind sie sich mit Palo Alto Networks völlig einig: Automatisierung, sagen auch sie, ist für security analytics-Lösungen der entscheidende Punkt (ibid.: 7). Und was treiben verdeckt arbeitende Dienste staatlicher oder staatsnaher Aufklärung „in der Grauzone von kriegerischen Handlungen und Spionage“? (Welchering 2016). Sie betreiben eine „makabre ‚Dialektik der Aufklärung‘, an die man bei der Aufklärung von Spionage 270 11 Politik durch die Bürger und Terrorismus zunächst nicht gedacht hatte“ (ibid.). Am deutlichsten wird die Verknüpfung von Staat und Big Data im Geheimdienst-Bereich, etwa im Programm Skynet, mit dem die US-amerikanische National Security Agency (NSA) auf der Basis von Massenüberwachung mit einem selbstlernenden Algorithmus Bewegungs- und Gefährderprofile (scoring) von Terroristen zum Beispiel in Pakistan zu ermitteln versucht. Dieses „besonders drastische Beispiel“ (Böschen et al. 2016: 71) zeigt, wie die Trennlinie zwischen Subpolitik, governance und klassischem hoheitlichen Handeln verschwimmt (ibid.: 72). Aber wir brauchen nicht bis nach Pakistan auszugreifen; Massendatenauswertung für Geheimdienstzwecke gibt es jeden Tag vor der eigenen Haustür. 1 111..33 WWiiee uunndd wwoozzuu ddeer r SSttaaaatt DDaatteenn aabbggrreei ifftt Staatliche Politik fußt auf Informationen und diese beruhen auf Daten. Das war schon immer so, gleich ob diese in Urkunden und anderen Schriftsätze gefasst waren, die reitende Boten verteilten, oder in Dossiers aller der Stellen, die Regierungen zuarbeiten, in allen Dateiformaten. Das ist in hohem Maß auch heute so. Das politische Wissen der Bundesrepublik Deutschland fließt in der allmorgendlichen Lagebesprechung im Bundeskanzleramt zusammen. Mit der angewachsenen Datenflut ist es immer komplexer geworden. Allein das Auswärtige Amt beschäftigt mit seinen Botschaften weltweit rund zehntausend Peronen, von denen sich grob geschätzt die Hälfte mit Lageanalysen und Abschätzungen erwartbarer Entwicklungen beschäftigt. Parallel ermitteln Militärattachés weitweit Lageerkenntnisse für das Verteidigungsministerium, deutsch-ausländische Industrie- und Handelskammern solche Informationen für das Wirtschaftsministerium und so fort. Jeder Teilnehmer an der Morgenlage bringt sein eigenes Lagebild mit. Das Gesamtbild, das sich daraus ergibt, ist so komplex wenn nicht verwirrend, dass Experten von außen, unter ihnen der Professor für internationaler Politik an der Univeristät der Bundeswehr München-Neubiberg Carlo Masala, nun versuchen, Entscheidungsgrundlagen des Bundeskabinetts auf eine gesamthafte Datengrundlage zu stellen - Arbeit für mehrere Jahre (Masala 2018). Dass der Staat auch Daten seiner Bürger in großem Stil verwaltet, ist nichts Neues. Das war zu Zeiten von Stehpult und Aktenordner schon so. Die Digitalisierung der Verwaltung hat das sowohl rationlisiert als auch ungeahnt erweitert. Er zwingt die Bürger, ihm in ihren Steuererklärungen ihre Einkommensverhältnise elektronisch offenzulegen, sichert deren Übermittlung aber zugleich aufwendig ab. Aus Sicherheitsgründen hört und sieht er mit, wo immer er kann und darf - und wo er das nicht darf, möchte er das dich immer öfter. So hat der frühere deutsche Innenminister Thomas de Maizière gefordert, der Staat solle per Gesetz Zugriff auf sie Software von Automobilen bekommen, um Autofahrern mit kriminellen Absichten schneller auf die Spur kommen zu können (Blechschmitt 2018). Ein 2017 in Kraft getretenes Gesetz zur effektiveren und praxistauglicheren Ausgestaltung des deutschen Strafverfahrens erlaubt unter bestimmten Voraussetzungen den heimlichen Einsatz staatlicher Spionage-Software schon jetzt, etwa bei schwerer Steuerhinterziehung oder bei systematisch missbräuchlichen Asylanträgen (ibid.). Eine heimliche Abschöpfung von Daten ganz anderer Größenordnung bestimmt seit Jahren die Arbeit der Geheimdienste. Millionen und Abermillionen von Datenverbindungen aus dem Alltag der Deutschen landen bei der NSA, ob sie Microsoft-, Google-, Facebook-, Yahoo- oder Apple-Dienste in Anspruch nehmen (Mainer 2017: 150), ob sie „mit ihrem Handy telefonieren, SMS versenden, Webseiten besuchen oder online einkaufen“, sagt der whistle blowerEdward Snowden (ZDF 2016). Die deutsche Regierung weiß das sehr gut; denn sie beaufsichtigt den Bundesnachrichtendienst. Snowden selbst wollte eine Zusammenarbeit des BND mit der NSA nicht bestätigen, er äußerte die „Vermutung, dass der 11.3 Wie und wozu der Staat Daten abgreift 271 BND darüber gut Bescheid weiß. Ob er wirklich Informationen zur Verfügung stellt - darüber sollte ich nichts sagen“ (ibid.). Der frühere BND-Präsident Gerhard Schindler aber gibt zu: „Der Bundesnachrichtendienst hat eng mit der NSA zusammengearbeitet und arbeitet noch immer eng mit der NSA zusammen. Das war politisch genau so gewollt. Dazu gab es eine Vereinbarung aus dem Jahre 2002, die im Jahre 2004 noch einmal ergänzt worden ist, und diese Vereinbarung, damals genehmigt vom Bundeskanzleramt, fordert den Bundesnachrichtendienst auf, mit der NSA in diesem Feld zusammenzuarbeiten“ (ibid.). Die NSA nutzt unter anderem seit 2007 ein geheimes Programm namens Prism zur Speicherung und Auswertung von Daten aus der Telekommunikation und aus dem Internet. Dazu greift sie direkt auf die Datenströme großer IT-Dienstleister wie Google, Microsoft, Apple, Facebook, Yahoo, AOL, Skype und von Telekom-Anbietern zu (Weichert 2013: 132), und das in unfassbarer Menge: allein im Monat März 2013 schluckte sie fast 100 Milliarden Dateneinheiten (ibid.). Außerdem setzt die NSA ein Programm namens XKeyScore (XKS) ein, eine Spionage-Software die mit Hilfe von Metadaten und anderen Daten Stichwortlisten von Suchmaschineneingaben spezifisch für eine einzelne Zielperson ausgeben kann. Auch Chats und E-Mails sind auswertbar. XKS erzeugt temporäre, ungefilterte Sammlungen aller für diese Person anfallenden Daten in Echtzeit. Identifiziert werden Zielpersonen durch den Namen oder Spitznamen, Merkmale des browsers, Telefonnummern und durch Kontaktlisten im Instant Messaging oder über die IP-Adresse oder mittels der verwendeten Sprache. Internetdaten können nur kurz, Verbindungsdaten für etwa 30 Tage, aber auch in andere Datenbanken verschoben und dort auch länger gespeichert werden (Wikipedia). Geheimdienste, natürlich nicht nur die NSA, sondern auch „die weltweit größte Überwachungsmaschine“ (Zeit online 25.09.2015), das britischen Government Communications Headquarters (GCHQ), und viele andere setzen in großem Stil Algorithmen ein. Sie ermitteln Kommunikations- und Verkehrsdaten, errechnen daraus Muster und leiten anhand von Unregelmäßigkeiten Veränderungen ab, besonders im zeitlichen Verlauf. Sie funktionieren damit als ein Werkzeug der geheimdienstlichen Wissensinfrastruktur, die für neue Bedrohungen frühzeitig sensibilisieren soll, und unterscheidet sich dadurch von der traditionellen Rasterfahndung, die Personen anhand bereits bekannter Gefährderprofile zu ermitteln versucht (Broemel/ Trute 2016: 60). Spionage nach Recht und Gesetz? Ein Untersuchungsausschuss des Bundestages hat die Zusammenarbeit von BND und NSA aufzuarbeiten versucht. „Da hat sich schon ein Abgrund aufgetan“, berichtete dessen Mitglied Konstantin von Notz über den Untersuchungsausschuss zur Tätigkeit der NSA in Deutschloand, „weil man gedacht hat, dass dieses Ausmaß der Überwachung 25 Jahre nach dem Ende der DDR, wo massenhaft und anlasslos Daten gesammelt und gerastert werden, in Rechtsstaaten nicht möglich ist. Das kam schon eher verschwörungstheoretisch rüber“ (ZDF 2016). Ronald Profalla, als ehemaliger Kanzleramtsminister damals für die BND-Aufsicht zuständig, wiegelte ab: „Die deutschen Nachrichtendienste arbeiten nach Recht und Gesetz, und die NSA hat uns schriftlich versichert, dass sie Recht und Gesetz in Deutschland einhält“. Aber Der Spiegel veröffentlichte nur wenige Wochen später, dass die NSA nur einige hundert Meter vom Kanzleramt entfernt von der Botschaft der USA aus das Handy der Kanzlerin abhöre. Eine Erklärung dafür findet sich sogar im NSA-Auftragsbuch: Das Weiße Haus will wissen, was eine deutsche Regierung tut (ibid.). „Entscheidend ist dabei, dass man die Inhalte und Bedeutungen und auch noch die Absichten kennen muss, um das Verhalten eines Menschen zu prognostizieren“ (Mainzer 2014a: 245). 272 11 Politik durch die Bürger Ist ein solcher Datenklau auf Regierungsebene normal? August Hanning, ebenfalls ein früherer BND-Präsident: „Es ist immer interessant zu wissen, wie der andere Partner denkt, wie die interne Kommunikation ist. Deswegen muss man damit rechnen, deswegen muss man sich schützen, und da sind wir Deutschen leider sehr naiv“. Selbst der frühere US-Präsident Barack Obama dementierte nicht; im Gegenteil: „Lassen Sie mich das klar sagen: Unsere Geheimdienste sammeln weiter auf der ganzen Welt Informationen über andere Regierungen genauso wie es Dienste aller anderen Staaten auch tun (ibid.). Millionen von Rohdaten aus deutschen Netzen, vor allem aus dem Kreuzungspunkt Frankfurt am Main, funkt eine Satellitenstation in Bad Aibling Monat für Monat an die NSA. Das hat bereits Tradition. Denn diese Station ließen die Amerikaner, die sie in ihrer früheren Besatzungszone errichtet hatten, 1994 bei ihrem Abzug aus Deutschland nicht einfach zurück. „Man gibt, um zu nehmen. Insofern ist die Übertragung der Bad Aibling Station sicherlich nicht umsonst erfolgt. Es war klar, dass es ein großes Interesse der Amerikaner gibt, an den Knotenpunkt Frankfurt heranzukommen, den größten hub, den Verteilungsknotenpunkt für digitalen Kommunikationsverkehr“ (ibid.). Frankfurt ist eine der Herzkammern des Internets. Durch Glasfasernetze, die Schlagadern des Internets, die sich dort kreuzen, fließen in Sekundenbruchteilen Milliarden von Daten - „ein Traum für jeden Geheimdienst der Welt, der hier zugreift“ (ibid.). Die Datenrate beträgt rund fünfeinhalb Terabyte. „Das ist die Spitzenlast, die da durchläuft. Damit ist Frankfurt momentan der größte Austauschknoten auf der Welt“ (Klaus Langenfeld, Aufsichtsrat des gemessen am Datendurchsatz weltweit größten Internet-Knotens DE-CIX in Frankfurt/ M., ibid.). Auch für die NSA sind Frankfurt und Bad Aibling „das Kronjuwel der strategischen Kooperation“ (ibid.). Die Computer in Bad Aibling filtern den Datenstrom aus Frankfurt mit bestimmten Suchbegriffen, sogenannten Selektoren. „Die werden täglich von der NSA geliefert. Wer diese Suchbegriffe kontrolliert, bestimmt, was abgehört wird“ (Ernst Uhrlau, ein weiterer ehemaliger BND-Präsident, ibid.). Michael V. Hayden, Ex-NSA-Direktor: „Die Kommunikation, die uns und auch den BND interessierte, die jeden Geheimdienst interessierte, lief nicht mehr in irgendwelchen isolierten Netzwerken, die von einer Regierung kontrolliert wurde. Es ging um Ihre und meine Kommunikation, die jetzt parallel vorhanden waren. Alle Geheimdienste rüsteten also auf, wir Amerikaner wahrscheinlich mit mehr Möglichkeiten; wir waren schneller als die anderen, es war eine andere Größenordnung, aber jeder musste da drauf“ (ZDF 2016). Offenbar lernte der BND schnell von seinem USA-Partner. „Wir mussten uns die Frage stellen“, erinnert sich Hanning: „Müssen und wollen wir das Rad neu erfinden, das die Amerikaner schon längst besitzen? Und der zweite Punkt ist: Wir haben in Deutschland auch nicht die technologische Basis. Da waren uns die Amerikaner weit voraus. Wir haben eben kein Silicon Valley“ (ibid.). Die deutschen Stellen verschafften den Amerikanern also Zugang zu den Internetdaten in Frankfurt. Dafür bekam der BND die Spionagewerkzeuge der Amerikaner. Mit dieser „Wunderwaffe“ konnte der BND nun „Daten wie mit einem Schleppnetz aus dem Internet leerfischen und anschließend durchsuchen“ (ibid.). Dazu noch einmal Snowden: „Sie können von jedem auf der Welt die Emails lesen“ - alle 24 Stunden werden weltweit 280 Milliarden Emails verschickt -, „jede Email-Adresse finden, jede Webseite registrieren, die abgerufen wird, Sie können jeden Computer beobachten, ausfindig machen und überall hin folgen auf der Welt“ (ibid.). Im Jahr darauf zitierte Der Spiegel einen namentlich nicht genannten hohen deutschen Sicherheitsbeamten mit den wohl entschuldigend gemeinten Worten: „Es gibt die Bösen, die bei uns spionieren, und es gibt die Guten. Die USA sind die Guten. Ihr Aufklärungsinteresse deckt sich derzeit mit unserem zu 90 Prozent“ (Knobbe/ Rosenbach 2017). 11.3 Wie und wozu der Staat Daten abgreift 273 „Ja gut, das ist ein Risiko“ „Ja gut, das ist ein Risiko, dass deutsche Unternehmen, dass deutsche Bürgerinnen und Bürger in Deutschland mit abgehorcht werden, überwacht werden", fasste Notz die Meinung im Untersuchungsausschuss zusammen, „aber diese Kooperation hat solche Vorteile, dass wir bereit sind, dieses Risiko einzugehen“ (ibid.). Man wisse ja dem Grundsatz nach, was da geschieht. Das war aber ein Irrtum, wie das ZDF anhand einer BND-internen Notiz belegen konnte: „Betreff Zusammenarbeit mit NSA in Bad Aibling: Volle Kontrolle durch BND ist real nicht möglich. Transparenz nur auf dem Papier. Infolge unserer technischen Unterlegenheit können wir fremde Daten… nicht lesen… Notwendige Interessensabwägungen und Ermessensentscheidungen bei Datenübermittlung nicht möglich“ (ibid.). Den Knackpunkt benannte dann Schindler: „Mit dem ersten Schwung an Selektoren, also quasi im Starterkit, gab es schon Selektoren, die eigentlich nicht dem Ziel des Memorandums entsprochen haben.“ Im ZDF-Klartext: „Das Satellitenspionagesystem, das die Amerikaner offiziell 1994 den Deutschen übergeben, hat sich nie nach dem deutschen Gesetzbuch gerichtet“ (ibid.). Dass das nicht geht, hat der frühere Präsident des Bundesverfassungsgerichts Hans-Jürgen Papier ganz klar ausgesprochen: „Die Ansicht, dass ausländische Dienste, ausländische Behörden sich darauf berufen dürfen, sie dürfen in Deutschland Grundrechtseingriffe vornehmen, weil sie nach amerikanischem Recht im Grunde dazu ermächtigt seien, ist undenkbar. Die jeweils zuständigen deutschen Behörden haben das Recht und die Möglichkeit, Eingriffe in die Grundrechte, insbesondere in das Telekommunikationsgeheimnis, die von deutschem Boden aus vorgenommen werden, zu verhindern oder zu unterbinden“ (ibid.). Im Bericht der Bundesdatenschutzbeauftragten vom 15. März 2015 heißt es lapidar: „Der BND hätte diese Selektoren weder verarbeiten noch nutzen dürfen. Der BND (nutzt) vorsätzlich und in großem Umfang auch Daten von Unbeteiligten beziehungsweise Unbescholtenen. Das sind schwere Rechtsverstöße“ (ibid.). Der Webexperte Sascha Lobo hat daraus schon früh eine ziemlich vernichtende Bilanz gezogen: Die vermeintlich harmlosen Metadaten können wesentlich aufschlussreicher sein als inhaltliche; Überwachungssysteme neigten auch in Demokratien dazu, sich zu verselbständigen; der Missbrauch von Überwachungssystemen sei daher kein Fehler außer der Reihe, sondern Standard; die Verbindung aus Behörden und Unternehmen bei der Überwachung sei problematisch und die Rolle der deutschen Stellen bei der illegalen Bespitzelung noch weitgehend unklar (Lobo 2014). Lobos Konsequenz: Erarbeitet werden müsse ein neues, sehr umfassendes Konzept des gesellschaftlichen Umgangs mit Daten, das weit über das Schlagwort Datenschutz hinausgeht. Es müsse aus Dezentralisierung, Datensouveränität der Nutzer und Datenminimalismus bestehen. Denn nur Daten, die entweder nicht gespeichert, sicher verschlüsselt oder unumkehrbar anonymisiert sind, würden nicht zur Bürgerüberwachung missbraucht (ibid.). Die Politik ist über die Akten des BND-Untersuchungsausschusses aber überraschend schnell zur Tagesordnung übergegangen, auch wenn Experten wie der Mathematiker und Big Data-Experte Klaus Mainzer den mehr oder weniger unbekümmerten Griff staatlicher wie kommerzieller Akteure in die Datenkiste mit Sorge betrachten: „Totalitäre Regime des 21. Jahrhunderts werden sich systematisch, schleichend und unsichtbar durch Algorithmen und Big Data realisieren. Es ist eine sich abzeichnende Technokratie, die eine totale Überwachung im Rahmen von Demokratien möglich macht, weil Bürgerinnen und Bürger freiwillig bewusst oder unbewusst Milliarden von Spuren, Signalen und Nachrichten in den Netzen hinterlassen. Die Zettelkästen der Stasi wirken dagegen geradezu putzig“ (2014a: 258). Oder kam das Wegschauen der Politik doch nicht so überraschend? Immerhin hat sie so viel Dreck am Stecken, dass es ihr nur recht sein konnte, wenn andere Tagesthemen dieses 274 11 Politik durch die Bürger Kapitel Datengebrauch und -missbrauch alsbald überdeckten. Nicht nur sind ja schwere Rechtsverstöße zutage getreten, sondern auch Legitimitätspobleme. Edward Snowden hat solche Nicht-Reaktionen vielleicht befürchtet, als er sagte: „Die größte Angst bereitet mir das, was sich nach diesen Enthüllungen für Amerika daraus ergibt, nämlich dass sich nichts ändern wird“ (in Rodriguez 2013, cit. Boellstorff 2014: 117). Denn selbst was legal, also rechtens ist, ist noch längst nicht auch richtig, also legitim, entspricht also noch längst nicht dem, was sich gehört. Das haben wir schon genauer betrachtet. Warum gehört diese Erörterung von NSA- und BND-Aktionen in dieses Buch mit hinein? Weil sich berechtigte Furcht und das Bedürfnis nach Sicherheit „paranoid verselbständigen“ können und dann „ins Gegenteil umschlagen und den autoritären Überwachungsstaat erzeugen, der sich wie ein Krake mit seinen Informationsnetzen über die Welt ausbreitet. Für diese Dialektik liefert Big Data die Voraussetzung“ (Mainzer 2017: 149). Stanlay Kubricks 1968 gedrehter Film „2001: Odyssee im Weltraum“ hatte einen Supercomputer noch als ein „sympathisches, mitfühlendes Wesen“ beschrieben, das „mit Bewusstsein und Denkvermögen ausgestattet ist“ (Stampfl 2013: 11). Damit „hat sich der Mensch ein Wesen geschaffen, das ihm intellektuell überlegen ist“ (ibid.). Inzwischen macht diese realistisch gewordene Fähigkeit manchen Menschen Sorge, ja Angst. Zumindest aber müssen sie sich mit ihnen auseinandersetzen. 1 111..44 OOhhnnee AAllggoorriitthhmmeenn llääuufftt nniicchhttss mmeehhrr Algorithmen haben zwar keinen eigenen Willen und entstehen immer noch im menschlichen Gehirn (Stampfl 2013: 10). Aber sind eben „das Schmiermittel unserer computerisierten Welt“ (ibid.). Ohne sie „läuft nichts mehr, gleichzeitig sind sie aber unsichtbar und zumeist streng geheim. Sie verrichten ihre Arbeit still und leise im Hintergrund und diktieren dennoch zunehmend, wie wir unser Leben zu führen haben“ (ibid.). Big Data ist längst über die Grenzen wissenschaftlicher Disziplinen hinweg eines der größten Querschnittsthemen der Gegenwart geworden, das alle Wissenschaften betrifft und zugleich im gesellschaftspolitischen Diskurs hohe Relevanz hat (Mayerl/ Zweig 2016: 77). Wer in der Gesellschaft noch mitreden will, und sei es nur im privaten Freundeskreis, und dazu das gratis angebotene Android-Betriebssystem für Smarthones nutzt, kann es nur sinnvoll verwenden, wenn er sich zugleich zu Google-Diensten wie Mail, Kalender, Text & Tabellen anmeldet. Das heißt: Nur bei Preisgabe der Anonymität im Internet lässt sich so ein Smartphone voll nutzen (Stampfl 2013: 26) - ein Beleg mehr dafür, wie „hochpolitisch, konflikthaft und wie unausweichlich“ die Datenwelt „an die gesellschaftlichen Machtverhältnisse gebunden“ ist (Böschen et al. 2016: 73). Das wird an bisweilen kuriosen Belegen erkennbar. Die nordamerikanische Stadt Boston nutzt Algorithmen im Straßenverkehr als Schlaglochdetektoren: Wo immer ein Auto dort in ein Schlagloch fällt, meldet das Smartphone des Fahrers das einer Behörde, die dann ein Reparaturteam ausschickt, um das Problem zu beheben. In wohlhabenderen Gegenden der Stadt gibt es mehr mehr Autos mit mehr Smartphone-Besitzern, folglich auch mehr Meldungen und damit mehr Reparaturen. Das heißt: „Algorithmen entscheiden, wer und was sichtbar ist“ (Drösser 2016: 224). Ärmere Gegenden sind unbeabsichtigt im Nachteil (ibid.: 221). Nehmen wir solche Fehlsteuerungen hin, weil sie erkennbar und daher auch änderbar sind? Oder zucken wir die Achseln und sagen wie Stampfl: „Maschinen dulden keinen Widerspruch. Im Umgang mit Technik bleiben daher nur zwei Optionen: Entweder wir schenken den Geräten blindes Vertrauen oder wir lehnen sie rundweg ab“ (2013: 96)? Das wohl kaum; denn dann würden wir wegschauen, falls Algorithmen außer Kontrolle geraten, weil sie eine unbeherrschbare Eigendynamik entwickeln (ibid.: 9). 11.4 Ohne Algorithmen läuft nichts mehr 275 Befürchtungen dieser Art sind allein mit einem Blick auf positive, erwünschte Ergebnisse in der betrieblichen Praxis ebenso wenig zu beseitigen wie die Sorge vor computerbedingter Gleichmacherei zu Lasten der Individualität und Kreatitvtät des Einzelnen. Aber es gibt auch Experten, die ein Stück weit Entwarnung signalisieren: „Wir träumen immer noch vom digitalen Vollautomaten, der uns alle Probleme abnimmt, aber das ist nur eine weitere Illusion, die sich gerade legt, sagt zum Beispiel Ortwin Renn, der Direktor des Potsdamer Institute for Advanced Sustainability Studies (IASS), und fährt fort: „Kreativität ist etwas anderes als Algorithmen - deren Grenzen wir heute kennenlernen. Das Pendel schlägt in eine andere Richtung, in Richtung Pragmatismus und Vernunft. Wir sind nicht mehr so naiv wie noch vor ein paar Jahren“ (brand eins 2016). „Algorithmen sind die neue Weltmacht“, sagt Drösser (2016: 230) in formelhafter Verkürzung. Nach einem ebenso formelhaften Satz Stampfls (2013: 19) übernehmen sie „die Kontrolle über die Daten“ und, weil diese von Menschen stammen, als Folge zunehmend die Kontrolle auch über Menschen. Werden isolierte Datenbestände zusammengeführt, lässt sich ein detailliertes Datenprofil eines Menschen ableiten. Das wirkt als „Reputationssilo“ (Turow 2011), und führt dazu, dass Personen unterschiedlich behandelt werden - und zwar nicht nur, „weil die Menschen unterschiedlich sind, sondern weil sich ihre auf Basis der eingesammelten Daten konstruierten Profile unterscheiden“ (Stampfl 2013: 49). Eine ganze Reihe von Experten macht dafür in hohem Maß Suchmaschinen verantwortlich. Menschen, die alltäglich routiniert googeln, glauben, sie entschieden über das, was sie sehen. Bis heute, schrieb brand eins (2016), bestehe die web community nicht aus selbstständigen Entscheidern, sondern aus digitalen Verbrauchern. Die meisten hätten keine Ahnung von dem, was die Kommunikationswissenschaftlerin Nele Heise „digitale Staatsbürgerkunde“ nennt, code literacy, Grundwissen darüber, was Computer, Netze und Algorithmen sind und was nicht. Viele Nutzer halten sich für kompetent, die von Suchmaschinen angezeigten Ergebnisse zu bewerten, obwohl sie kaum Kenntnisse über die hintergründigen Vorgänge haben (Fallows 2005). Nicht zuletzt deshalb tun sich Suchmaschinenanbieter wie etwa www.cliqz.com schwer, ihre Software, die nicht wie Google oder Facebook automatisch ihre Nutzer ausspäht, im Markt durchzusetzen. Das seit 2008 bestehende und seit 2013 zu Hubert Burda Media gehörende Müncher Unternehmen Cliqz, an dem seit 2016 auch Mozilla beteiligt ist, und das 2017 den Anti-tracking-Anbieter Ghostery übernahm, will mit seinen rund hundert Experten nicht weniger als die Benutzeroberfläche des Internets neu gestalten, inderm es die Nutzer so direkt wie möglich zum Ziel bringt und dabei ihre Privatsphäre wahrt. Der Webexperte Sascha Lobo aus dem Chaos Computer Club beklagt, seine Generation, die das Internet vor 20 Jahren in Gang gebracht hatte, ignoriere die Realität weitgehend: „Unser eigentliches Problem ist der ungeheure Daten-Determinismus, die Maschinengläubigkeit, bei der die Leute ihre Eigenverantwortung abgeben.“ Das Web werde konsumiert, nicht gestaltet. Damit würden „Entscheidungen an die Technologie delegiert, also in eine ferne Zukunft verschoben, mit der man nichts zu tun hat“ (brand eins 2016). Google-Nutzer realisieren kaum, dassSuchmaschinen das ausblenden, was ein Anfrager im Web nicht oder nur selten als sein Interessensgebiet gekennzeichnet hat. Einem Fußballfan würde er auf die Frage nach Bayern München zweifellos den Sportclub anzeigen, einem Touristen aber vorrangig die bayerische Landeshauptstadt. Ruft jemand BP auf, wird die Suchmaschine einem ökonomisch interessierten Nutzer British Petroleum anzeigen, einem ökologisch aktiven aber den BP-Tanker Brent Spar, der Alaskas Küsten mit Rohöl verseuchte. „So sind keine zwei Google-Trefferlisten identisch“ (Stampfl 2013: 80). Die Plattformen sind ein Medium, strukturieren aber Diskurse und intervenieren zugleich. Sie erzeugen de-factogovernance-Strukturen, eine Form von Subpolitik (Böschen et al. 2016: 70). 276 11 Politik durch die Bürger Alle Suchanfragen in ihrer Gesamtheit spiegeln, was die Menschheit bewegt (Stampfl 2013: 55): „Praktisch nebenbei zeigen uns digitale Daten jetzt realistisch, wie wir Menschen kämpfen, wie wir lieben, wie wir altern, wer wir sind und wie wir uns verändern. Man muss nur hinschauen“ (Rudder 2014: 13). 1111. .55 SSuucchhm maasscchhi in neenn sstte euueerrnn" wwi ie e wwi ir r dde en nkkeen n Dank Googles Internetseite Insights for Search ist das für jedermann nachvollziehbar (ibid.). Der Einzelne liefert sich dabei der Google-Steuerung weitgehend aus. Googles page rank ist deshalb nicht nur eine Schmaschine, sondern auch eine „Machtmaschine“ (Schirrmacher 2011: 125). „Was soll ich morgen tun? “ „Welchen Job soll ich annehmen? “ Antworten auf solcherart Fragen sind möglich, weil Google uns gut kennt. Sie werden nicht gegeben, weil die Suchmaschine so nicht programmiert ist, sind aber wegen des enormen Datenspeichers „gleichsam schon vor der Frage präsent“ (Stampfl 2013: 57). Stampfl geht so weit zu sagen: „Wurde das Internet einst als demokratisches Instrument par excellence verstanden, so besteht heute die Gefahr der Entmündigung und Manipulation im Netz“ (ibid.: 85). Das ist mehr als eine bloße Gefahr. Sparrow et al. 2011 haben ermittelt, dass Suchmaschinen wie Google tatsächlich wesentlich darauf einwirken, wie wir denken. Sie wissen, was die Welt wissen will. Weil sie dieses Wissen bereithalten, ersetzen sie ein Stück weit unser Gedächtnis. Sie strukturieren damit unseren Wahrnehmungshorizont und Richtungen unseres Handelns. „Werden wir noch einen freien Willen haben, wenn wir stets auf vorbestimmte Bahnen gelenkt werden? “ fragt Stampfl (2013: 9). Google ermittelt auch Wissen, wo der Mensch versagen würde, wenn er keinen unverhältnismäßigen Aufwand treiben will: Ein Beispiel: Ein Algorithmus berechnet die Nähe von Nutzern zueinander, die dieselben Filme mögen. Er findet Ähnlichkeiten zwischen Filmen und stellt fest, ob sie von derselben Art von Menschen positiv bewertet werden. So kann die Maschine Filme in Genres einteilen, ohne eine Ahnung zu haben, wovon sie überhaupt handeln (Drösser 2016: 94). Umgekehrt: Was Google nicht zeigt, so könnte man verkürzt sagen, existiert nicht. Das stimmt zwar nicht, aber wird oft so erlebt. Diese Bobachtung lässt sich auf die Welt des Internets verallgemeinern. Für einen wachsenden Teil der Weltbevölkerung ist das Internet quasi die Welt. Es hat sich „zu einer Art digitalen Öffentlichkeit entwickelt“ (Stampfl 2013: 62). Man wählt sich nicht mehr eigens ein. Denn „ein Ausschalten, ein ‚aus dem Internet gehen‘ wird nicht mehr vorgesehen sein“, prognostizierte Stampfl 2013. Inzwischen ist das für die Smartphone-Generation völlig normal. „War die Preisgabe von Daten und somit die Schaffung von Überwachungsmöglichkeiten bisher klar für den Nutzer abgrenzbar (man konnte sich aus dem Internet ausloggen, das Mobiltelefon ausschalten), so fällt im Zeitalter des ubiquitären Computings die Grenze zwischen offline und online“ (ibid.: 31). Die reale und die virtuelle Welt überlagern sich und verschmelzen miteinander. „Ist die Welt erst voller smarter Dinge, wird die Unterscheidung zwischen offline und online irrelevant“ (ibid.: 29). Das Web legt sich „wie eine zusätzliche Schicht über unsere Umwelt, auch übertragen sich sämtliche aus dem Internet bekannten Funktionalitäten auf physische Objekte“ (ibid.: 85). Das Internet wird so zum Outernet. In diesem Internet der Zukunft „wird alles eins werden: die Menschen, die Dinge, die Sensoren, die server, die Dateien, die Zustände, die Zeiten, die Möglichkeiten. Alles wird immer online und immer überall gleichzeitig sichtbar sein“ (Keese 2014: 252). Die größte Anpassungsleistung, schließt Keese hieraus, müssen wir „durch den weitgehenden Verlust von Geheimnissen vollbringen“. Eine Welt voller Sensoren sei zwangsläu- 11.5 Suchmaschinen steuern, wie wir denken 277 fig eine Welt ohne Geheimnis. Die neue Kommunikationsmethode steigere die Effizienz, gehe aber auf Kosten des Geheimnisses und unterwerfe uns fremden Mächten, „auf die wir nie wieder Einfluss haben werden und die wir im Zweifel noch nicht einmal kennen. Der Deal heißt: mehr Leistung und Leben bei weniger Freiheit. Wahrscheinlich werden sich die meisten von uns darauf einlassen. Die Versuchung ist groß. Wollen wir das? Wahrscheinlich nicht“ (ibid.: 255). Stampfl hatte schon ein Jahr zuvor ebenso rigoros geurteilt: „In unserer modernen ‚always on‘-Gesellschaft ist es kaum noch möglich, sich dem Vermessen- Werden zu entziehen“ (Stampfl 2013: 41). Das Internet der Dinge trägt dazu bei, uns der Web-Welt immer weiter zu öffnen. Smarte Anwendungen „eröffnen ein gewaltiges Einfallstor in unsere Privatsphäre, weil sie ein solch exaktes Bild unseres Lebens schaffen wie kaum eine andere Technologie“ (ibid.: 33). Offenbarten die Datenspuren bisher nur einen relativ kleinen Ausschnitt von Personen im Wesentlichen beschränkt auf das Surfverhalten, so erzeugt das Internet der Dinge ein facettenreiches Bild unseres Verhaltens, unserer Gewohnheiten, Interessen, Neigungen und Befindlichkeiten.“ Das berge umso mehr Sprengkraft, ist Stampfl überzeugt, als immer mehr Daten über Personen nicht durch sie selbst ins Internet gelangen, sondern durch Dritte. „Die Hoheit über die eigenen Daten geht dabei komplett verloren“ (ibid.: 48). Diese „neue Soziometrie“ (Mau 2017) zeigt Folgen. „Die Bewertungssysteme der quantifizierten Gesellschaft bilden nicht einfach die Ungleichheiten in der Welt ab, sondern sind mitentscheidend bei der Verteilung von Lebenschancen“ (ibid.). Wie wir seit Jahren erleben, verlagert sich nicht nur das „Leben“ des Einzelnen ein Stück weit in die Virtualität des Internets, sondern gerade das Miteinander, die Kommunikation mit anderen Menschen. Es ist nicht länger nötig, sich mit ihnen zu verabreden. „Die anderen sind in Zukunft einfach immer da“ (Keese 2014: 253). Bisher gilt das nur, wenn jemand im Web mit einem Anderen aktiv Kontakt aufnimmt. Aber diese Hürde wird bald fallen. „Gruppengespräche entstehen ganz einfach, indem wir mehrere Leute mit Namen anreden, als säßen sie neben uns“ (ibid.). Das Unternehmen Voxer produziert eine solche Mischung aus Funk und Telefon schon heute. Kommunizieren bedeutet dann, sich den Status eines anderen Menschen zu vergegenwärtigen, nicht mehr, ihn anzuwählen: „Wir wenden uns ihm elektronisch zu. Wir widmen uns seinem virtuellen Spiegelbild. Alle Geräte verschmelzen zu einem einzigen“ (ibid. 254). Im Silicon Valley, berichtet Keese, heißen Vergegenwärtigungen materieloser Substanzen Instanzen: „Eine Instanz ist eine Erscheinungsform, die ein virtueller Zustand vorübergehend annehmen kann. Gewissermaßen ein Gespenst, das kurz unter die Menschen tritt, bevor es sich wieder zum elektronischen Weltgeist verflüchtigt“ (ibid.). Apple kündigte schon 2014 an, das für solche Anwendungen passende Betriebssystem zu bauen: eine „Software, die alle hardware miteinander verschmilzt“ (ibid.). Der legendäre Satz Paul Watzlawicks, dass man ‚nicht nicht kommunizieren’ könne, wird damit „wahrer denn je“ (ibid.: 33). Dabei steckt die eigentliche Brisanz hinter Watzlawicks Wörtchen „man“: Wer erzeugt das Bild einer Person in der Web-Öffentlichkeit? Ein Stück weit er selbst, ein vielleicht Entscheidenderes aber andere über ihre likes und links - und nun zunehmend Maschinen. Je intelligenter die Dinge werden, desto undurchschaubarer werden sie für den Nutzer. „Je besser die Geräte uns verstehen, desto weniger werden wir sie verstehen. In der Folge müsste der Mensch entweder der Technik misstrauen oder sich selbst - beides bedeutete einen beträchtlichen Kontrollverlust“ (ibid.: 98). Die sozialen Netzwerke haben diese Entwicklung verstärkt. Für rund ein Drittel aller US- Amerikaner sind sie das entscheidende Tor zur Welt, genauer zu dem Ausschnitt der Welt, den Facebook& Co. ihnen öffnen. Es ist die Welt der Gleichgesinnten. Abweichendes Verhalten, konträre Gedanken haben, wie wir schon im Abschnitt über Hillary und die Schweigespirale gesehen haben, dort kaum einen Platz. „Facebook entscheidet also, was ich 278 11 Politik durch die Bürger zu sehen bekomme und was nicht, und wie wir sehen werden, hat das weitgehende Folgen politischer und publizistischer Natur“, sagt Drösser (2016: 106) und setzt hinzu, die Kritik an Facebook ziele nicht grundsätzlich auf die Tatsache, dass die Firma für uns Nachrichten selektiert, sondern darauf, „dass sie sich nicht zu dieser redaktionellen (und in gewisser Weise auch journalistischen) Selektion bekennt und die Kriterien dafür offenlegt“ (ibid.: 115). Stampfl stimmt zu: „Damit zerfallen die Weiten des Internets in Kommunikationsinseln und entziehen der Demokratie ihren Nährboden, den Raum für Interaktion und geteilte Erfahrung“ (2013: 86). Algorithmen steuern auch uns Auf die Automatisierung der Produktion folgt nach Helbings Ansicht „nun die Automatisierung der Gesellschaft“ (2015: 2). Dieser Eingriff wird von den einen als untauglich verurteilt („eine Zufallssuppe aus Variablen verwechselt Korrelationen mit Ursachen“, Schirrmacher 2013: 194), von anderen wird sie als „soziale Physik“ regelrecht zum Programm erhoben (Pentland u. a. 2015). Software, Algorithmen und Datenbanken sind aber nicht einfach Programme und Datenhaufen, sondern prägen Institutionen (Orwat u. a. 2010) oder Ideologien (Mager 2012), etwa in Form von Gesetzen (Lessig 1999). Daher stellt sich nicht nur die Frage nach einer governance von Algorithmen (Saurwein u. a. 2015), sondern ebenso die nach einer governance durch sie (Just/ Latzer 2016). Letzere kann viele Formen annehmen, etwa in hoheitlich-administrativem Handeln (Citron 2008), als explizite governance-Methode (O‘Reilly 2013), im Zusammenspiel staatlicher und privater Akteuren (Böschen et al. 2016: 67) oder als freies Spiel der Marktkräfte. Übersetzen wir diese abstrakte Sprache, dann will sie sagen: Algorithmen helfen uns nicht nur zu regieren, vielmehr regieren sie auch uns. „Entscheidungen von großer Tragweite werden nicht mehr von Menschen von Angesicht zu Angesicht getroffen, sondern Algorithmen berechnen das Ergebnis auf Basis des Datenschattens, der uns stets schon vorauseilt“ (Stampfl 2013: 47). Wir bemerken das vielfach gar nicht und werden es im Internet der Dinge immer weniger bemerken. Denn „da die Rechner in einer Vielzahl von Gegenständen integriert und ‚unsichtbar‘ sind, werden sie nicht mehr bewusst als solche betrachtet und auch ihre Nutzung entzieht sich der bewussten Wahrnehmung“ (ibid.: 29). Auch wenn der Staat nicht steuert, kommt es zu Prozessen „kollektiven Lernens und kollektiver Schöpfung, wodurch aber zwangsläufig offizielle Entscheidungsbefugnisse politischer Institutionen dekonzentriert“, also zersplittert werden (Beck 1986: 313). Die hieraus folgende Diagnose lautet entsprechend: Das Politische diffundiert in Formen sogenannter Subpolitik (Böschen et al. 2016: 67). Von Subpolitik spricht man, wenn Akteure politisch handeln, die dazu weder gewählt noch wie die Regierung oder deren Verwaltungen vom Wähler beauftragt sind. Sie verstärkt oder verwässert, beschleunigt oder verschleppt politisches Handeln. Je nach ihrer Erscheinungsweise (aktiv / passiv) sowie ihrer Formierung (situativ / strukturell) fällt Subpolitik unterschiedlich aus (ibid.). Aktiv subpolitische Handlungen wollen politischen Einfluss (vgl. Holzer/ Sorensen 2003: 82), passiv subpolitische hingegen wollen, dass ihre Akteure gerade nicht unter solchen Einfluss geraten (Böschen et al. 2016: 67). Strukturelle und situative Subpolitik unterscheiden sich darin, dass im ersten Fall die Chance auf Änderung kollektiver Ordnung aus irgendwelchen Situationen heraus entsteht, wogegen im zweiten Fall der Ordnungsgeber, besonders der Gesetzgeber, bestimmt (ibid.: 67). Algorithmen wirken subpolitisch, wenn sie Entscheidungen treffen und festschreiben. „Einmal festgelegt, entziehen sich diese unter Umständen dem weiteren Zugriff und wirken als algorithmische Subpolitik passivinfrastrukturell (ibid.: 71). Sie führen zu „Ordnungen des Sicht- und Sagbaren.“ Allzu leicht erscheint das Akteuren im politischen Diskurs als „unumgänglich, wenn sie an diesem [Diskurs] teilnehmen wollen“ (ibid.: 72). 11.5 Suchmaschinen steuern, wie wir denken 279 Aktiv situativeSubpolitik liegt zum Beispiel vor, wenn Big Data Plattformen die Vernetzung von Personen erleichtern und damit ihre Handlungsmacht tendenziell stärken, etwa bei Online-Aktivitäten (ibid.: 72). Aktiv strukturelle Subpolitik liegt dagegen vor, wenn Google entscheiden darf, was dort gelöscht wird - dieses Recht hat der EuGH (2012, 2014) Google zugewiesen. Das Safe-Harbour-Urteil des EuGH kassierte das Abkommen der EU mit den USA über den Transfer von Verbraucherdaten durch private Unternehmen mit der Begründung, das hoheitliche Handeln der US-Sicherheitsorgane missachte die in der EU- Grundrechtecharta festgelegten Individualrechte der Bürger an ihren Daten (ibid.: 71). Lehrreich ist in diesem Zusammenhang ein Blick auf die campaigning-Plattformen Campact.de, Change.org und Avaaz. Campact ist die Internet-Plattform für eine Bürgerbewegung, mit der, wie es auf deren Webseite heißt, 1,9 Millionen Menschen für progressive Politik streiten: „Wenn wichtige Entscheidungen anstehen, wenden wir uns mit Online-Appellen direkt an die Verantwortlichen in Parlamenten, Regierungen und Konzernen: Wir schmieden Bündnisse, debattieren mit Politiker/ innen und tragen unseren Protest auf die Straße: mit großen Demonstrationen und lokalen Aktionen. So treiben unsere Kampagnen sozialen, ökologischen und demokratischen Fortschritt voran - für eine Welt, in der alle Menschen in Frieden leben und ihre Freiheit gleichermaßen verwirklichen können.“ Die campact Software personalisiert die erscheinenden Petitionen algorithmisch. Als subpolitische Aussagen können sie die Politik zum Handeln veranlassen. Change.org ist politisch nicht vororientiert. Die Plattform postet Petitionen ohne Priorität in Bezug auf ihre Inhalte, beispielsweise sowohl solche, die eine offene Flüchtlingspolitik unterstützen, als auch solche, die diese scharf ablehnen. Sie gewichtet Petitionen in der Rangfolge, in der sie auf der Plattform erscheinen, kauft Werbung für diese Plattform ein und verkauft die Daten der Nutzer an zahlungskräftige Firmen. Das geht angeblich so weit, dass gezielt neue Petitionen lanciert werden, um Daten aus bisher noch nicht akquirierten und damit im Datenspeicher noch nicht abgebildeten politischen Spektren zu erlangen (Hillbrans/ Wedde 2016). Avaaz, eine weltweit agierende amerikanische clicktivism-Plattform, die inzwischen ebenfalls auch Straßenproteste organisiert, nutzt Daten von über 40 Millionen Personen, die durch Teilnahme an einer Avaaz-Kampagne dort Daten hinterlegt haben. Kampagnen werden vorab statistisch auf ihre Wirksamkeit getestet und erst dann freigeschaltet (Avaaz 2016). Denn alle Online-Petitionen dieser Plattformen stehen auch dort aus kommerziellem Interesse. Gleichwohl sind beide Plattformen aktive player auf dem Gebiet der Subpolitik. Politische Folgen haben auch Algorithmen anderer Plattformen. So hat die nur scheinbar technische Frage, welche Suchergebnisse Googles Algorithmen bevorzugen, einen unmittelbaren Effekt auf die Sichtbarkeit politischer Inhalte. Die schon erwähnte Gefahr, dass Nutzer wegen der Rückkopplung auf ihre durch die Suchhistorie erkennbaren Vorlieben „auf thematisch homogene Informationsblasen beschränkt bleiben“, ist offensichtlich. „Die politische Polarisierung in divergierende Milieus“, sagen Böschen et al., werde so „potenziell noch weiter verstärkt“ (2016: 70). Auch welche Bilder nach Facebooks Geschäftsbedingungen als anstößig gelten, wird schnell zum Politikum (ibid.: 70). Solche Plattform-Steuerungen sind passiv strukturelle Subpolitik (ibid.). Ein Beispiel: Google wies wegen zahlreicher Suchanfragen zu den Terroranschlägen des 11. September 2001 angebliche Verschwörungstheorien besonders häufig nach und verhalf ihnen so ingesamt zu vermutlich unverdienter Relevanz (König 2014). Eine durchgreifende Digitalisierung stellt nach Böschen et al. (2016: 72) Fragen der kollektiven Ordnungsbildung und von deren Legitimität in neuer Schärfe. Die verschiedenen Formen von Big Data sind aber weder ausreichend klassifiziert noch in ihrer politischen Bedeutung hinreichend verstanden (ibid.). Algorithmen ermitteln Relevanzen, etwa für das high frequency trading oder in autonomen Fahrzeugen oder Drohnen, die nach Vorgaben selbst- 280 11 Politik durch die Bürger ständige Entscheidungen treffen. Zwar liefern Menschen den Maschinen die Entscheidungsgrundlagen. Aber die Maschinen, entscheiden dann situativ selbstständig (ibid.). Algorithmen sind kein naturwüchsiges Ereignis, sagt der Mathematiker; Physiker und Philosoph Klaus Mainzer (2017a). Sie erzwingen keine digitale Zukunft, sondern eröffnen Zukünfte. Da sie unser Produkt sind, liegt es an uns, welche Wege wir einschlagen. Darunter können Irrwege sein, wie etwa die Option auf Kernwaffen und Kernenergien einer war. Erstere scheint gebannt, weil wir mit ihnen die gesamte Spezies Mensch auslöschen könnten. Letztere werden zunehmend durch regenerative Energien abgelöst, die keine ein Million Jahre währendes Endlager benötigen. Die Verantwortung liegt bei uns Menschen. Bezogen auf die Welt von Big Data lässt sich diese Verantwortung in einem einzigen Satz Mainzers bündeln: Auch die digitale Würde des Menschen ist unantastbar. Wie Artikel 1 des Grundgesetzes muss auch diese Ableitung konkretisiert werden. Sie besteht nicht in der immer wieder verbreiteten „Überzeugung vom Silicon Valley als globalem Motor des Fortschritts - und dem Fortschritt als ewiger Schwester des Guten“ (Schulz 2017: 13) und auch nicht in der dort verkündeten Rolle der Big Data-Unternehmen als selbsternannte gesellschaftliche Antreiber, die „die Menschheit vernetzen, globale Verkehrsprobleme lösen, zum Mars fliegen, den Krebs besiegen“ (ibid.). Vielmehr bedeutet sie, dass Menschen in Kenntnis der technischen Chancen und Risiken verantwortlich handeln. In Bezug auf die digitale Würde des Menschen muss das bedeuten, dass jeder die Chance haben muss, sein digitales Abbild wahrnehmen und ändern zu können, dass also das Abbild kein Eigenleben haben oder bekommen darf, das er nicht will. Diese Entwicklung gilt es genau zu beobachten. Nötig ist dazu die Stärkung der menschlichen Urteilskraft. Sie zu fördern hat sich neben anderen eine neue Fakultät der Technischen Universität München auf ihre Fahnen geschrieben, die School of Goverment, ebenso wie die zweite nationale Akademie zur Politikberatung, die Akademie für Technikwissenschaften acatech. In ihr sind neben Ingenieuren auch Wissenschaftler, Industriechefs und Gewerkschaftler vertreten. Zu beurteilen sind Kernfragen: „Wie verändern Big Data das Verhältnis von Privatheit und Öffentlichkeit? Welche Auswirkungen haben diese Veränderungen auf den politischen Diskurs, auf Wahlkämpfe und auf die demokratische Kultur insgesamt? Überwiegen die Vorteile oder die Nachteile? Wie können Privatheit und Öffentlichkeit neu justiert und ausbalanciert werden, um eine freie Willensbildung auch im Zeitalter von Big Data zu gewährleisten? “ (Richter 2015). Die Problematik ist erkannt. „An einer stabilen Gesellschaft haben alle Interesse. Das gilt auch für Google“ (Mainzer 2017a). Die Schlüsselfrage lautet nicht nur für professionelle Politikberater: Wie bereiten wir uns auf diese Umwälzungen vor? Welches Ausbildungssystem ist dazu nötig? Zweifellos muss es life long learning heißen. Wie ist es zu finanzieren? Vermutlich stellt sich die Frage nach einer ökonomischen Grundversorgung für alle Menschen mit neuer Dringlichkeit: Denn nur dann sind mehrfache Phasen des Lernens bezahlbar. Die Ausbildung wird sich nicht nur mit Informatik und Infrastrukturen zu befassen haben, sondern immer auch mit den Auswirkungen auf Menschen. Sie muss interdisziplinär angelegt werden (ibid.). Noch ist das nicht durchgehend Realität. Im digitalen Alltag gelten noch andere Prioritäten: „Die Optimisten wollen weiterrennen, ihre Argumentation geht so: Wissen ist Freiheit, Fortschritt ist Wohlstand“ (Schulz 2017: 14). Die Digitalisierungbeschleunigt alle Bereiche. Wer nicht mithält, wird abgehängt. Abgehängt wird, wenn sie nicht aufpasst, „auch die Politik: teils unwillens, teils unfähig, den Wandel zu gestalten und zu legitimieren“ (ibid.: 15). Aber Optimisten fallen auch auf Trugschlüsse herein. Ein solcher Trugschluss hat es mittlerweile in den Olymp der ehernen „Gesetze“ geschafft. Es ist „Amaras Gesetz“, so genannt nach Roy Amara, dem Mitgründer des Institute of the Future in Palo Alto, dem intellektuellen Herz des Silicon Valley. Es besagt, dass Innovationen anfangs in der Regel weit 11.5 Suchmaschinen steuern, wie wir denken 281 überschätzt werden, vor allem was das Tempo ihrer Realisierung angeht, dass ihre langfristigen Wirkungen aber ebenso regelmäßig unterschätzt werden, nicht selten ebenso stark. Dafür gibt es nach Überzeugung von Rodney Brooks, einem früheren Direktor des MIT-Labors für Computerwissenschaft und Künstliche Intelligenz, zahllose Belege, in der Welt der Computer ebenso wie bei der DNA-Sequenzierung, der Solar- und der Windkraft oder so banaler Innovationen wie den Lebensmittel-Lieferservices nach Hause (Brooks 2015). Ein Trugschluss entstünde auch, wollte man von der Innovationsfähigkeit eines Menschen linear auf die einer Maschine schließen. Erfährt jemand, dass ein Roboter oder eine Maschine mit Künstlicher Intelligenz eine zuvor nicht mögliche Leistung vollbringt, schließt er aus dieser Fähigkeit nämlich allzu leicht auf die Kompetenz, die man auch von einem Menschen erwarten würde, der eine vergleichbare Leistung vollbringt. Er setzt beide Leistungsniveaus gleich. Das Leistungsspektrum einer Maschine ist verglichen mit einem Menschen jedoch außerordentlich schmal. Die Maschine kann etwas, wozu Menschen sie konstruiert und programmiert haben, vielleicht verblüffend gut und unvergleichlich schnell - aber sonst nahezu nichts. Die Fähigkeit zur Verallgemeinerung und zur Abstraktion, die den Menschen ausmacht, geht ihr noch vollständig ab. Menschen lernen ständig Neues hinzu, Maschinen addieren bisher nur Gleichartiges. Für alles andere müssen sie von Menschen umprogrammiert werden. Maschinen können, was Menschen ihnen beibringen, nach ausreichend Übung perfekt. Aber auch wenn sie die besten Spieler im Schach oder Poker besiegen, haben sie doch keinerlei Vorstellung davon, was Schach oder Poker eigentlich ist - sie arbeiten nur Regeln ab, das allerdings mit Lichtgeschwindigkeit. Vorsicht also mit voreiligen Schlussfolgerungen. Die „Gesetze“, zu denen das von Amara gehört, sind längst nicht so ehern wie die für uns Menschen. Sie stehen unter dem Vorbehalt der Zweckmäßigkeit und der Wirtschaftlichkeit. Ein Beispiel für Entscheidungen nach Zweckmäßigkeit ist das schon erwähnte Moore’sche „Gesetz“ über exponentiell steigende Leistungsfähigkeit von Computern. Es hat lange gegolten. Ein iPod für rund 400 Euro konnte 2002 rund zehn Gigybyte Musik speichern, 2003 das Doppelte, also 20 Gigabyte, 2004 vierzig, 2005 achtzig und 2006 dann 160 Gigabyte. Denn More hatte richtig vorausgesagt, dass die Speicherkapazität von Mikrochips sich wegen ihrer Verkleinerung alljährlich verdoppeln würde. Gälte dieses „Gesetz“ noch, müsste ein aktuelles iPod rund eine halbe Million Gigybyte Musik speichern können. Tatsächlich speichert es aber „nur“ 256 Gigabyte. Das genügt für handelsübliche Anwendungen völlig. Ohne Marktdruck gab es keinen Grund, die Miniaturisierung fortzusetzen. Auch auf dem Feld der Künstlichen Intelligenz warnt Brooks vor naiven linearen Hochrechnungen. Mit dem plötzlichen Auftauchen superintelligenter Maschinen bräuchten wir nicht zu rechnen. Ihre Technik verschlinge noch erhebliche Zeit. Bevor es sie geben werde, würden wir uns längst an viele andere HighTech-Apparaturen gewöhnt haben. „Ich sage nicht, dass sie nicht kommen. Aber das wird weder so plötzlich noch so unerwartet passieren, wie mache Leute glauben“ (Brooks 2015). In manchen Branchen komme neue Software zwar alle Augenblicke auf den Markt, bei Facebook im Rhythmus von nur Stunden. An ein solches Tempo habe das Silicon Valley sich mittlerweile gewöhnt. Ein wesentlicher Grund: Solche Innovation kosten fast nichts. Die Umsetzung von Künstlicher Intelligenz verlange aber enorme Anlageninvestitionen. Das ist ebenso teuer wie komplex. Gemach also, sagt Brooks; bis wir wirklich in der digitalen Welt leben, werde noch sehr viel mehr Zeit vergehen also die Optimisten erwarten. Big Data ermöglichen eine quasi gläserne Politik Hardy und sein Team haben keine politischen Ambitionen, wohl aber eine politische Vision. Sie wollen einer Politik Chancen geben, die mit einem Maximum allgemein verfügbarer Daten alle Entscheidungen maximal durchsichtig macht, also eine quasi gläserne Politik 282 11 Politik durch die Bürger erzeugt. Stimmungsmache und Machtallüren sollen dort gleichermaßen chancenlos sein. Ein außerordentlich interdisziplinäres Team wirkt mit diesem Ziel zusammen: der Deutschamerikaner Hardy mit seiner Psychologieerfahrung und seiner Computerbegabung, Phil, der Jurist und IT-Spezialist, Daniel, der Mann mit seinem geheimdienstlich erprobten Netzwerk, und neben weiteren auch John Tim Tyler, ein Experte auf dem Feld globaler Sicherheit. Dieses Team ist davon überzeugt, dass sich Zukunftsprojekte am Besten verwirklichen lassen und auch am Besten funktionieren, wenn sie in ein holistisches, also ganzheitliches, technisch unterstütztes System eingebunden werden, das alles Leben auf Erden organisiert und auf seinen vielfältigen Ebenen und in seinen unterschiedlichen, aber ineinander verschränkten, interaktiven Referenzrahmen harmonisiert (Schloer/ Spariosu 2017: 207). Die Notwendigkeit dazu ist offensichtlich. Zwar mehren sich Stimmen, die fordern, sich hinter den eigenen Ofen zurückzuziehen, wo es übersichtlicher und wärmer erscheint als in der zugigen globalisierten Welt da draußen. Brexit, America first und Front National heißen einige dieser Schlagworte. Aber zu vielleicht keiner anderen Zeit waren Menschen mit Führungsverantwortung lokal wie global stärker herausgefordert, einen gemeinsamen, transnationalen, globalen Weg in eine nachhaltige Zukunft zu finden. Saubere und bezahlbare Energien, sauberes Wasser und genügend Nahrungsmittel für die wachsende Weltbevölkerung fallen nicht vom Himmel. Die Schonung der Umwelt und Rücksichten auf das Klima sind zwar national möglich, können aber nur global die Wirkung erzeugen, die nötig ist. Im Raum steht also die Forderung nach einer regulativen öffentlichen Vernunft. Die hat bereits der deutsche Philosoph Immanuel Kant aufgestellt. Ihn beschäftigte schon im 18. Jahrhundert die Frage, wie man für stabile, autonome und lenkbare Regime sorgen könne, die über freie Menschen herrschen können, mit mehr Vernunft als die Monarchie, die Kirche oder einen Leviathan. Kant sah dazu Universitäten als geregelte, Wissen produzierende Organisationen in der Pflicht, geleitet und beaufsichtigt von der Fakultät Philosophie, die dafür zu sorgen habe, dass die Hochschularbeit rational bleibt (Berry 2014: 51). In unserer Zeit, sind die Quantum Relations-Promotoren überzeugt, hat die Politik einer neuen Aufklärung gar keine andere Wahl als auf die Gestaltungskraft datengetriebener Technologien in den Händen einer friedlich gestimmten Allgemeinheit zu setzen. Noch sprechen Hardy und sein Team sehr abstrakt von einem „vollautomatischen Regierungssystem“, in dem nationale Egoismen ebenso wenig Platz haben sollen wie Expansionsgelüste und Furcht vor dem Nachbarn. „Man möchte das für einen utopischen Traum halten“, sagen sie. „Aber zumindest ein wesentlicher Hinderungsgrund für seine Verwirklichung ist schon beseitigt: Wir haben die technischen Möglichkeiten, heute damit zu beginnen“ (ibid.: 208). Der bislang größte Datenskandal bei Facebook mit geschätzt 87 Millionen Betroffenen - er ist im Abschnitt über Cambridge Analytica genauer beschrieben - hat im Umgang mit Daten allerdings zu einem Umdenken geführt und könnte „zu einer Wende im Umgang mit den Internetkonzernen führen“ (Schäfer 2018). Das Facebook-Versprechen „Wir geben dir die Möglichkeit, Inhalte zu teilen und die Welt offener und verbundener zu machen“, publiziert ausgerechtet in deren Datenschutz-Richtlinie, zieht nicht mehr so wie zuvor. Kommentatoren fordern deshalb, „dem Digital-Kapitalismus amerikanischer Prägung“ eine aufgeklärte und sozial gebundene „digitale Marktwirtschaft europäischer Prägung entgegenzustellen“ (ibid.). Erfahrene Politiker äußern da Skepsis. „Was uns heute vor allem verunsichert“, schrieb am Ende des 20. Jahrhunderts der frühere deutsche Bundeskanzler Helmut Schmidt, „ist die Erfahrung unserer Verführbarkeit“ (Schmidt 2000: 16). Dabei war Schmidt bekannt für seine nüchterne Art, Politik zu gestalten. „Wer Visionen hat, soll zum Arzt gehen“, hatte er noch 2009 „auf eine dusselige Frage“ pampig geantwortet (ZEITmagazin 4. März 2010). Im Rückblick auf das politische Tagesgeschäft, das er ein Leben lang mitgestaltet hatte, ließ er an der Gestaltungskraft der „politischen Klasse“, wie er sie nannte, kaum ein gutes Haar: 11.5 Suchmaschinen steuern, wie wir denken 283 „Ob unsere Politiker den Zusammenhang verstehen, ob sie ihre früheren Versäumnisse und Fehler einsehen, ob sie zur Korrektur willens und fähig sind, wissen wir nicht. Wir hören nur das tägliche Katzenkonzert, bei dem vielerlei Einzelvorschläge zur Behebung der Misere sich gegenseitig widersprechen“ (Schmidt 2000: 17). Auch von Seiten der Wähler erwartete er wenig: „Viele haben sich in ihrer Mehrheit den Stil der politischen Klasse angeeignet: viel Geschrei, aber wenig Wolle“ (ibid.: 76). Schmidt sah die Lösung dieser Ungleichung nicht wie Hardy und sein Team in der Heraufkunft Künstlicher Intelligenz, die bislang von Begehrlichkeiten, Eifersüchteleien und Machtgier einigermaßen frei ist. Er setzte auf die Einsicht politischer Profis aus der Königsloge der Politik, nämlich aus der Position von Staats- und Regierungschefs. Diese Persönlichkeiten hatten erlebt, dass eine Berufung auf allgemeine Menschenrechte die Menschen noch nicht zum Handeln bringt. Zwei Dutzend von ihnen gründeten deshalb in den 1990er Jahren einen Inter Action Councilund entwarfen in ihm nach einem Jahrzehnt der Diskussionen parallel zur Allgemeinen Deklaration der Menschenrechte eine Universal Declaration of Human Responsibilities, also eine gleichzeitige Deklaration der Menschenpflichten. In Artikel 12 schrieben sie einen aufklärerischen Grundsatz hinein: Jeder habe „die Pflicht, wahrhaftig zu reden und zu handeln. Niemand […] darf lügen“ (ibid.: 264). Wie die erste Deklaration, auf die diese zweite sich bezog, sollte sie von der UN-Vollversammlung verabschiedet werden. 1997 legten 24 frühere Staats- und Ministerpräsidenten als Gründungsmitglieder des Inter Action Council ihren Text vor; viele andere Staats- und Regierungschefs, die an dieser Entwurfsarbeit nicht selbst beteiligt waren, „haben sich inzwischen angeschlossen“ (ibid.: 253). Wer sich nicht anschloss, war die UN-Vollversammlung. Selbst wenn das geschehen wäre, hätte diese Charta der Menschenpflichten nur moralische, aber kaum politische, geschweige denn exekutive Wirkung. Denn ein Instrument, mit dem man Menschen im großen Stil auf Maximen verpflichten könnte, gab es noch nicht. Das hat sich inzwischen aber geändert. Es heißt - wenig überraschend - Big Data. Der volkreichste Staat der Erde, die Volksrepublik China, exerziert vor, wie sich das Verhalten von mehr als einer Milliarde Menschen mit Big Data steuern lässt: Seine 1,4 Milliarden Einwohner verfügen bereits über 1,3 Milliarden Mobiltelefone und bezahlen in 80 Prozent aller Fälle per Handy. Halb so viele, nämlich 751 Millionen, nutzen das Internet. Die Menschen arbeiten mehr als die im Westen; betrieblichen Urlaub gibt es im ersten Jahr überhaupt nicht, im fünften nur fünf Tage, im zehnten zehn, maximal werden 15 Tage erreicht. Den 760 Millionen in China Beschäftigten stehen in der EU etwas über 240, in den USA nur gut 150 Millionen gegenüber; China ist also ein gigantischer Markt mit ebenso gigantisch großen Konzernen. Den Datenmarkt steuern nur drei Unternehmen, nämlich Baidu, Alibaba und Tencent. Dieses Firmenkonglomerat (abgekürzt BAT)ist inzwischen mehr als halb so groß wie sein westliches Ebenbild FANG (Facebook, Amazon, NetflixundGoogle) (Bitkom 2018: Gruhn/ Zhu). Im Umgang mit Daten ist dieses Land „Wilder Westen. Ein Testlabor“ (Pan Shuai, Marketingchef Auslandsmärkte von Chinas Nr. 1 der Spracherkennung, IFlyTek, cit. Strittmatter 2018). Auf dem Gebiet der Künstlichen Intelligenz will China bis 2030 Weltmarktführer sein. Noch sind dazu in hohem Maß ausländische Experten vonnöten; 80 Prozent der dortigen KI-Forscher kommen derzeit noch aus dem Ausland. Aber dieser Markt soll in China 2020 schon eine Milliarde Yuan groß sein, bis 2025 zehn, bis 2030 rund 30 Milliarden (Bitkom 2018: Gruhn/ Zhu). Erste Anwendungen gibt es bereits. In der chinesischen Stadt Zhengzhou testet die Polizei smart glasses, das sind Sonnenbrillen mit einer Gesichtserkennungsfunktion. Sie sind mit 284 11 Politik durch die Bürger einem tablet verbunden, auf dem die eigentliche Gesichtserkennung stattfindet. Laut Wall Street Journal soll das innerhalb einer Zehntelsekunde bei 10.000 Menschen funktionieren. Das ist selbst in einem Land mit einer weitreichenden Überwachungsinfrastruktur wie China ein Novum. Nach Angaben staatlicher Medien wurden so bereits Dutzende Kriminelle aus dem Verkehr gezogen (t3n 2018b). Doch nicht nur Kriminelle sind im Visier, vielmehr jeder einzelne Bürger. „In Shanghai gibt es dafür jetzt eine App. Du lädst sie herunter. Dann meldest du dich an. Die App scannt dein Gesicht. Erkennt dich. Und ruft die Daten ab“ (Strittmatter 2017). Derzeit kann diese Software sie pro Bürger exakt 5198 Einzelinformationen von insgesamt 97 Ämtern und Behörden verarbeiten, teilte die Shanghaier Kommission für Wirtschaft und Information dem SZ-Korrespondenten mit. Diese Behörde hat nicht nur die App vorgestellt; sie organisiert auch die Welt, „in der ein allwissender und allsehender Mechanismus mehr weiß über dich als du selbst. Ein Mechanismus, der dir dabei helfen kann, dich zu bessern, weil er dir zu jedem Zeitpunkt genau sagt, was du tun kannst, um ein Ehrlicher, ein Vertrauenswürdiger zu werden. Sag, wäre das nicht eine gerechte, eine harmonische Welt? “ (ibid.) Noch ist die App freiwillig. Aber das dahinterliegende Programm, genannt „System für soziale Vertrauenswürdigkeit“, soll bis 2020 für alle Bürger im Reich der Mitte zur Pflicht werden. In Shanghai erfasst es bereits jeden Bürger. „Letztlich“, sagt Shao Zhiqing, Chef der Shaighaier Wirtschafts- und Informationskommission, „geht es um nicht weniger als um die Ordnung der Gesellschaft“ (cit. ibid.). Was da entsteht, nennt Strittmatter „eine Diktatur, die sich digital neu erfindet. Die den Menschen bis in den letzten Winkel seines Gehirns durchleuchtet. Mithilfe von Big Data. Und ihn dann bewertet, nach Wohlverhalten, und zwar mithilfe von Computerprogrammen, in jedem Augenblick seines Daseins. Ein jeder Bürger erhält einen Bewertungsstempel aufgedrückt, der seine neue Identität wird, der letztlich über seine Teilhabe am Alltagsleben und über seinen Zugang zu gesellschaftlichen Ressourcen entscheidet“ (ibid.). Der Bewertungsstempel hat die Form einer Chipkarte mit einem Punktekonto. Wer sich sozial nützlich macht, gewinnt in Fünf-Punkte-Schritten Punkte hinzu, wer sich unliebsam verhält, wird mit Punkteabzug bestraft, in Einzelfällen wie beispielsweise bei einer Aktivität für die vom chinesischen Staat verfolgte Falungong-Sekte mit gleich hundert Punkten minus. Bewertet wird also keineswegs nur das soziale, sondern auch das politische Engagement. Was als vertrauenswürdig gilt und was nicht, entscheiden Algorithmen, die der Staat programmieren lässt. Dokumente des chinesischen Polizei-Ministeriums nennen als zu identifizierende und zu überwachende Zielgruppe auch Petitionäre, Störer und Leute, die „die gesellschaftliche Stabilität unterwandern - jeden also, der der Partei auf die eine oder andere Art in die Quere kommt“ (Strittmatter 2018). Die Konsequenzen dieser digitalen Big Brother-Bewertung durch Big Data-Auswertungen hat das chinesische KP-Zentralkomitee im Oktober 2016 verabschiedet: „Bürger, die ihren Vertrauensvorschuss verwirkt haben, dürfen sich nicht für Regierungsjobs bewerben. Der Zugang zu Versicherungen und Bankkrediten wird erschwert oder verwehrt, ebenso Autokauf und Hausbau. Die Herabgestuften dürfen nicht mehr fliegen, bekommen keine Tickets für Hochgeschwindigkeitszüge, dürfen nicht in die komfortable Klasse der Nachtzüge. Ihr Internetzugang wird eingeschränkt. Sie sollen nicht mehr in Luxushotels wohnen, nicht länger in exklusiven Restaurants essen. Ihnen wird sogar die Ausreise aus China versagt, ihren Kindern der Zugang zu teuren Schulen“ (ibid.). All das ist nur die digitale Ausformung einer Politik, die das Land der Mitte gewohnt ist. Ein Belohunungssystem für konformes Verhalten gibt es seit Jahrzehnten, ein vom Obersten Gerichtshof abgesegnetes Bestrafungssystem für säumige Schuldner seit 2013. Bereits 6,7 Millionen Chinesen dürfen seither weder schnelle Züge benutzen noch fliegen. Zhang 11.5 Suchmaschinen steuern, wie wir denken 285 Zheng, Dekan der Wirtschaftsfakultät an Chinas berühmter Peking-Universität, sieht das gelassen: Ein Auskunftssystem gebe es auch in Deutschland: „Schufa, sagt er. Jetzt stellen Sie sich eine Schufa vor, bloß größer. Also viel größer. Eigentlich: allumfassend“ (ibid.). Bloß größer? Das chinesische Online-Bezahlsystem Alipay, Markführer mit 450 Millionen aktiven Kunden, offeriert ein ebenfalls noch freiwilliges Einstufungssystem für soziales Wohlverhalten namens Sesame Credit. Auch das funktioniert nach einem Punktesystem. Der Algorithmus ist eigentlich geheim; bekannt sind nur fünf Einstufungskriterien; neben Identität und dem Umgang mit Geld zählen auch „Verhaltensvorlieben“ und „persönliche Netzwerke“ (ibid.). Es errechnet die Bonität ganz normaler Kunden aus deren persönlichen Daten: aus „identical characteristics“ zu 15 Prozent; aus ihrer finanziellen Potenz zu 20 Prozent, aus aufgenommenen Krediten und Schulden zu 35 Prozent, aus ihren soziaalen Kontakten zu fünf Prozent und aus ihrem Verhalten als Bürger zu 25 Prozent (Bitkom 2018: Gruhn/ Zhu). Das staatliche chinesische Big Data-System ist noch eine Größenordnung umfassender: Nach Auskunft des Generalsekretärs im KP-Komitee für Politik und Recht Wang Yongqing von Ende 2015 geht es um nicht weniger als eine „vollständige Sammlung von grundlegenden Informationen über alle Orte, alle Sachen, alle Angelegenheiten und alle Menschen“ und über alle „Trends und Informationen darüber, was sie essen, wie sie wohnen, wohin sie reisen und was sie konsumieren“ (ibid.). Das, las Strittmatter in einem KP-Parteiblatt, mache dieses Frühwarnsystem „wissenschaftlicher, unsere Abwehr und Kontrolle effektiver und unsere Schläge präziser“ (ibid). Die chinesischen Internetkonzerne Baidu, Alibaba undTencent haben bereits signalisiert, dass sich der Staat „selbstverständlich sowohl ihrer Spitzentechnologie als auch ihrer Kundendaten bedienen darf“ (ibid.). Im Gegenzug öffnet ihnen der Staat zuvor verschlossene Regierungsdatenbanken. Eine Hand wäscht so die andere: „Wenn das mal läuft“, urteilt der chinesische Systemkritiker Murong Xuecun, „wird China George Orwells Ozeanien noch übertreffen“ (cit. ibid.). Ein Algorithmus, der pausenlos Daten sammelt und bewertet, ist „Jäger und Richter in diesem System“ (ibid.). Seine vom Staat offiziell verkündete Aufgabe ist die „automatische Verifizierung, die automatische Überwachung und die automatische Bestrafung“ jedes Vertrauensbruchs, im Klartext jeder Abweichung vom staatlich definierten Wohlverhalten. „Egal wo, egal zu welchem Zeitpunkt. Kein Schlupfloch mehr, nirgendwo“ (ibid.). Eine Option sich auszuklinken gibt es dort nicht (BMBF/ Wi 2018: Wesselmann). Für den Leiter Nationale und Europäische Digitale Agenda im Bundeswirtschaftsministerium Andreas Goerdeler ist das, was da in China läuft, eine „1984-Renaissance“ (BMBF/ Wi 2018: Goerdeler), also eine Wiederkehr der totalitären Strukturen, die George Orwell schon 1948 in seinem gleichnamigen Roman dargestellt hatte. In Deutschland ist ein solches social scoring wie in China ausdrücklich nicht geplant (BMBF/ Wi 2018: Hansen). Die meisten Chinesen nehmen es aber offenbar hin: Vor diesem Staat seien sowieso alle nackt. „Die Erwartung an die Privatsphäre ist in China gering, von Fatalismus durchwirkt“, sagt Strittmatter (ibid.). „Als ob das nicht ginge, nackter als nackt. Geht aber doch: Wenn dir einer die Hirnschale freilegt.“ Strittig ist in China, ob diese Big Data-Überwachung in einer einzigen Datenbank vereint werden soll. Akademiker fänden eine solche Datenbank „gefährlich“, urteilt etwa Zhang Zheng. „Die wirklich mächtigen Kräfte in Peking“ arbeiten aber wohl auf eine solche zentrale Datenbank hin. Wie attraktiv diese Komplettüberwachung der Bürger zu ihrem angeblichen Besten anderswo sein wird, wird man abwarten müssen. „Chinas ‚IT-unterstützter Autoritarismus‘, prophezeit die Berliner Denkfabrik Merics, wird zum attraktiven Vorbild und Technologielieferanten werden für andere autoritäre Länder“ (cit. ibid.). 286 11 Politik durch die Bürger 1111. .66 AAuuf fkklläär ruunngg ddu urrcchh FFa akkt te enn Zur aktiven Zeit des früheren deutschen Bundeskanzlers Helmut Schmidt gab es diese Überwachungstechnologien noch nicht. Jetzt sind sie da, und es wird an der Wachheit westlicher Gesellschaften liegen, ob sie auch hierzulande um sich greifen und sich verselbständigen werden. Das ist der eine Horizont für den Umgang mit Big Data in der westlichen Welt. Der andere zeigt eine Entwicklung, die Helmut Schmidt trotz der demagogischen Erfahrungen seiner Generation mit faschistischen und kommunistischen Regimen nicht vorhersah und in ihren jüngsten Entwicklungen auch nicht vorhersehen konnte: die Verführungskraft neuer Demagogen von der französischen Nationalen Front bis zu US- Präsident Donald Trump, der in den ersten Wochen seiner Präsidentschaft gleich mehrfach gerade nicht von Aufklärung sprach, sondern von fake news, also nur vorgespiegelten Wahrheiten. Fake news wurde schnell sein und seines Regierungssprechers Sean Spencers „Schlüsselwort, um das Vertrauen in die Arbeit von Journalisten weiter zu zerstören“ (Feldenkirchen 2017: 76). „Fake news töten unseren Geist“, sagte Apple-Chef Tim Cook (Schulz 2017: 15) - gerade auch, weil sie wirken; denn „geglaubt wird, was ins Weltbild passt“ (Sängerlaub 2017). Kellyanne Conway, zeitweilig eine von Trumps Sprecherinnen, hatte am 22. Januar 2017 außerdem versucht, Lügen als alternative facts zu verkaufen, was die frühere Herausgeberin der New York TimesJill Abramson als „Orwellsches Neusprech“ verurteilte. Orwells Schreckensvision, das Buch „1984“, sprang zu Trumps Amtsantritt auf Platz 1 der amerikanischen Amazon-Beststellerliste. Die orwellsche Big Brother-Metapher greift aber insoweit zu kurz, als Big Data nicht nur aus „verhältnismäßig ungewollten“ Daten besteht, etwa den von einem bewegten Smartphone generierten GPS-Daten, sondern auch aus „relativ gewollten“ wie beim posten in Facebook (Boellstorff 2014: 117). Für das, was man freiwillig tut, kann man schlecht einen Big Brother anklagen. Der deutsche Journalistik-Professor Ruß-Mohl nennt solche regierungsoffiziellen Lügengeschichten eine „neue Dimension“ der „Pest Desinformation“ (Ruß-Mohl 2017) und beklagt einen „Weg in die desinformierte Gesellschaft“ (ibid.). So wie sich Politik, Journalismus und die öffentliche Kommunikation derzeit entwickeln, sei die offene Gesellschaft gefährdet. Mit dieser Kritik steht er nicht allein (vgl. Marotzki 2004, Klumpp 2008, Renn 2014, WSIS 2018). Zu den Feinden offener Gesellschaften, schreibt Ruß-Mohl in der Einleitung seines Buchs „Die informierte Gesellschaft und ihre Feinde“, zählten explizit Populisten und Propagandisten, die die neuen Möglichkeiten der Digitalisierung und der sozialen Netzwerke zu nutzen versuchen, „um im öffentlichen Raum mit fake news, mit Konspirationstheorien, mit Halb- und Viertelwahrheiten zu ‚punkten‘ oder Verwirrung zu stiften“. Ruß-Mohl sieht „Verschiebungen im Machtgefüge zwischen Journalismus, PR und Werbung, die dazu führen, dass sich die Aufmerksamkeitsökonomie zur Desinformationsökonomie weiterentwickelt“. Jahrzehntelang ignorierte Vertrauensverluste im Journalismus, ausgelöst durch Elitenarroganz und -konsens mit der Unterstellung, „dass die Redaktionen mit den herrschenden Politikern, Wirtschaftsführern und Kulturschaffenden unter einer Decke stecken“, rächten sich nun. Die Digitalisierung verstärke diesen Trend noch durch Echokammern und social bots. Wir haben erläutert, was beides bedeutet. Gestützt und gefördert sieht er das durch eine „pubertäre Hybris“ im „neuen globalen Feudalsystem der IT-Giganten“ Google, Microsoft, Facebook& Co. (ibid.). Bei Marktanteilen in ihren Segmenten von zum Teil 90 Prozent sei der Effekt eine „digitale Disruption“, also eine totale Verdrängung bisher wirksamer Handlungsoptionen durch internetbasierte: „Kein Stein bleibt mehr auf dem anderen! Nichts ist sicher! Kein aktuelles Geschäftsmodell kann in Zukunft überleben! “ (Horx 2016). Ob in 11.6 Aufklärung durch Fakten 287 einem solchen Kontext Nachrichten ‚wahr’ oder ‚falsch‘ seien, spiele kaum noch eine Rolle, erklärt Ruß-Mohl, „weil sich mit Desinformation, die gezielt in sozialen Netzwerken viral verbreitet wird, die ‚Wahrheit‘ wegspülen“ lasse: Als Gegenmittel fordert der Medienwissenschaftler eine systematische Medienerziehung, Faktenchecks, Ko-Regulierungen, eine „Allianz für die Aufklärung“ als Bündnis von Journalismus und Wissenschaft (ibid.) und nicht zuletzt eine wachere Öffentlichkeit. Natürlich muss auch Hardys Prisma Analytics-Software mit fake news umgehen können. „Wir identifizieren jede Art von fake news oder Meldungen mit konspirativem Charakter“, erläutert er, „und kennzeichnen sie entsprechend. Aber auch wenn wir wissen, dass fake news nicht stimmen, sind sie doch von Belang, denn auch sie haben Energie. Wie wahre Nachrichten, die wir in unserem Wissensspeicher unter general, reference library, commercial research, peer reviewed medical publications, law and regulations und als general literature klassifizieren, können auch fake news Menschen beeinflussen. Also gehören sie in unser Analyseprogramm mit hinein.“ Nicht jeder reagiert also auf fake news mit grundsätzlicher Ablehung. Für manche Menschen sind sie sogar ein Spiel. Im Frühjahr 2017 tauchte dazu eine Software Face Swap auf, mit der man auf Smartphones Doppelportraits gegeneinander stellen kann: „Hund gegen Herrchen, Luftballon gegen Mopsgesicht, so was“ (Graff 2018). 2017 folgte auf der Basis des Programms Deepfakes, das Google der Wissenschaft bereitgestellt hatte, eine frei verfügbare Software Fakeapp (inzwischen Version 2.1). Das Internet-Magazin Motherboard berichtete, „wie man noch von den ältesten Windows-Rechnern aus auf das Maschinenlernsystem Tesorflow für den digitalen Gesichtstransfer zugreift. Damit kann nun jeder, der einen Computer einzuschalten versteht, die Gesichter der Traumfabrik dorthin versetzen, wo er sie gerne sähe“ - auch in Videos „on the Fly“, im Vorübergehen, wie Deepfakes nicht ohne Stolz sagte (ibid.). Das Nutzerinteresse explodierte regelrecht. Eine Reddit community brachte es in vier Wochen auf 100.000 Abonnenten. Wozu führt das? Graff, der die Szene beobachtete, gab selbst die Antwort: „Die Videos behaupten ihre eigene (gelogene) Wahrheit noch unverfrorener als die Wortlügen eines twitternden Präsidenten, und das mit größerer Evidenz (ibid.). Aufklärung durch Fakten - das ist also kein Selbstläufer, wie auch die politischen Erfolge von Diktatoren und Autokraten in aller Welt gezeigt haben und weiterhin zeigen. Global Value Exchange, Global Learning and Research Centers sowie Integrated Data Centers stoppen politische Rattenfänger nicht von allein. „Eine Kontrolle des Weltgeschehens durch einen Supercomputer ist ohnehin absurd“ (Helbing in Hagner/ Helbing 2013: 271). Deshalb ist die Menschheit zur Lösung ihrer globalen Probleme weiterhin auf Einsichten ihrer Bürger und deren politischer Klasse angewiesen - und auf unterstützende, ehrgeizlose, das Handeln und den Handlungsbedarf nach allem bisherigen Anschein objektiv analysierende und unterstützende, aber beherrschbare Technik. Das ist die Welt von Big Data. Wie man und mit welchen Erwartungen und Verhaltensweisen man sich in dieser Big Data-Welt bewegen sollte, wird ganz unterschiedlich bewertet. Die Bandbreite an Empfehlungen reicht von frohgemuten Ertüchtigungshilfen bis zur Angst, der Einzelne sei „einem Digitalmoloch völlig ausgeliefert“ und werde vom ihm ausspioniert. „Es ist ein Chor, der von Dsytopie, Disruption und Desillusionierung raunt“ (Graff 2017), auf deutsch also von Schreckensbildern, zerstörten Zuständen und enttäuschten Erfahrungen. Wer die Zukunft so sieht, fühlt sich „um alle unsere früheren Hoffnungen auf die schöne neue Digitalwelt betrogen“ (ibid.). Denn dann ist die Rede vom „Angriff der Algorithmen“ (O’Neil 2017) in „Überwachungaaten“ (Scherer 2016), von der „Erschöpfung“ (Albers 2017), die die digitale Welt auslöse (Gazzaley/ Rosen 2017) oder allenfalls von der Hoffnung, man könne „online bleiben, ohne den Verstand zu verlieren“ (Kalbitzer 2016). 288 12 Das ewige Leben Wer sich von solchen „Fanal[en] an Überwältigung und Hilflosigkeit durch neue Technologien“ (Graff 2017) nicht unterkriegen lässt, kann dennoch erwarten, dass wir in immer weiter ausgreifenden Datennetzen gefangen sein werden (vgl. Segal 2016, Greenfield 2017, Krieger/ Bellinger 2017, O’Neil 2017). Ob das Netz allerdings wirklich zum Fürchten oder nur „eine grandiose Projektionsfläche für akute Real-Ängste“ (ibid.) ist oder vielmehr ein Segen für die Strukturierung der Welt, werden Sie nach der Lektüre dieses Buches selbst einschätzen wollen. 1122 DDaass eewwiiggee LLeebbeenn Ist es kein bloßer Traum mehr, sondern schon bald Realität? Der Mensch kann mit der digitalen Maschinenwelt zu einem ewig möglichen Leben verschmelzen. Forscher und Universitäten prognostizieren schon, wann es so weit sein wird. 12.1 Das zweite Ich 289 12.2 Humanismus und Transhumanismus 291 12.3 Noch sind viele Fragen offen, aber wir sind unterwegs 295 1122..11 DDaass zzwweeiittee IIcchh Schon jetzt, vor unseren Augen, wandelt sich unsere gewohnte Art zu leben durch die Digitalisierung aller Umfelder und damit auch unserer eigenen Lebenswelten grundlegend. Das hat schleichend begonnen, lange vor den ersten Schritten in die digitale Welt. Schon seit dem ausgehenden 19. Jahrhundert haben Kriminologen, Psychologen und Psychiater Verfahren entwickelt, die man heute profiling nennt. Man erzeugt Persönlichkeitsprofile, heutzutage hauptsächlich aus Internetdaten, und benutzt sie, um Menschen zu identifizieren, zu verstehen, zu überwachen, ihr Verhalten nach Möglichkeit vorauszusagen und eventuell zu beeinflussen. Das sind erkennungsdienstliche Methoden. Bernard ist überzeugt, dass die sozialen Netzwerke zu „Komplizen des Erkennungsdienstes“ (2017) geworden sind. Nicht nur wer auf Facebook oder in einem anderen sozialen Medium Profile von sich anlegt, sondern auch jeder, der Smartphone-Ortungen oder digitale Körpervermessungen zulässt, erzeugt von sich solche Profile (Rabe 2017: 15). Er lässt diese „Selbstrepräsentation und Selbsterkenntnis“ zu (ibid.) oder betreibt sie sogar aktiv. Neben seinem physischen konstruiert und kommuniziert er auf diese Weise ein zweites, digitales Ich. Dieses zweite Ich ist keineswegs nur eine gefällige elektronische Maske. Menschen erleben es als konstitutiven Teil ihres Selbst; schließlich outen viele sich in den sozialen Netzwerken nahezu bedingungslos. Vor wenigen Generationen, 1948, galt die Furcht vor einer im Jahr 1984 von einem Big Brother beherrschten Gesellschaft und die Flucht in Nischen der Nicht-Beobachtung und damit der Nicht-Überwachung als notwendige Utopie, die Normierung und Regulierung des Menschen hingegen als die höchste Gefahr. Wem bei Orwell die „Vereinheitlichung der Gedanken“ drohte, der konnte „nur jenseits der elektronischen Datenerfassung seine menschliche Würde erhalten“ (ibid.). Das hat sich komplett gedreht. „Zweifellos gehört es zu den auffälligsten Kennzeichen der Gegenwart, dass Prozesse der Normierung und Regulierung von Menschen, die bis vor wenigen Jahrzehnten von einer staatlichen, wissenschaftlichen oder polizeilichen Instanz gesteuert worden sind, nun auf die betreffenden Individuen übergehen“ (Bernard 2017, cit. Rabe 2017: 15). Mittlerweile fühlen sich viele gerade junge Menschen von Verdatungsprozessen ihrer Identität nicht mehr verletzt, sondern gestalten und repräsentieren sie auf der Ebene dieses zweiten, digitalen Ichs geradezu. „Zum Kern des Menschlichen, sagt Rabe deshalb, „ist 290 12 Das ewige Leben geworden, was medial kommuniziert werden kann“ (ibid.) - eine Entwicklung, die Orwells 1984 „wie ein Kinderbuch erscheinen lässt“ (ibid.). „Es gibt eine Verschiebung dessen, was es heißt, frei zu sein“ (ibid.): Nicht mehr die Freiheit von Verdatung gilt als Grundgesetz menschlicher Souveränität, sondern die Freiheit zu selbst gewählter oder jedenfalls geduldeter, oft sogar selbst intensiv betriebener Verdatung des eigenen Ichs. Bernard (2017), der dies erstmals in aller Klarheit analysiert und ausgesprochen hat, schließt seine Überlegungen deshalb mit dem Satz: „Das Versprechen unserer Selbstentfaltung ist eine mächtigere Waffe als jede Vereinheitlichung der Gedanken.“ Der Romanautor Marc-Uwe Kling hat daraus ein literarisches Produkt gemacht: Eine Kostprobe: „Willkommen in der Zukunft. Hier läuft alles rund. Arbeit, Freizeit und Beziehungen sind von Algorithmen optimiert. Qualitypartner weiß, wer am Besten zu dir passt. Das selbstfahrende Auto weiß, wo du hin willst. Wer bei TheShop angemeldet ist, bekommt alle Produkte, die er haben will, automatisch zugeschickt, ganze ohne sie bestellen zu müssen. Kein Mensch ist mehr gezwungen, schwierige Entscheidungen zu treffen. Denn in Qualitityland lautet die Antwort auf alle Fragen: ok. Willkommen in Qualityland“ (Kling 2017). Aber ist nicht gerade die Bewältigung von Schwierigkeiten, von komplexen Zusammenhängen eine genuin menschliche Leistung? Komplexität, erläuterte der Physiker Harald Lesch in einer seiner Fernsehsendungen im Frühjahr 2017, ist ein Ausdruck für Unberechenbarkeit. Wir Menschen verfügen beispielsweise über ein „biologisches Navi“ (ZDF 2017), das wir trainieren können, etwa im Straßenverkehr. Ein total autonomes System für ein komplett datengesteuertes Automobil lebe von der Vorstellung, „dass man alles genau berechnen kann“. Je öfter ein solches System korrigiert werden müsse, desto instabiler und langsamer werde es jedoch. Wir kennten das von unseren PCs, die nach einer Weile immer neuer updates immer träger agieren. Denn immer mehr Korrekturen müssen immer öfter neu berechnet werden. Steigt unsere Abhängigkeit von technischen Systemen? Die Antwort hierauf lautet wohl: ja. Im Jahr 2015 übertraf die Leistungsfähigkeit von Algorithmen af das Bais von deep learning erstmals die des menschlichen Gehirns (Russakovsky 2015). Birgt das neue Chancen oder vermehrt es unsere Lebensrisiken? Hier lautet die Antwort: sowohl als auch. Bleiben wir dabei als Akteure autonom oder gewinnen wir Handlungsspielräume oder büßen wir solche ein? Hier sind die Experten uneins. Einige sehen letzerers kommen. Zu ihnen gehört Donald Putnam, der managing director des Beratungsunternehmens Grail Partners. Er sieht eine Zeit anbrechen, in der nicht mehr das Individuum Technologien nutzt, sondern Technologien die Kraft haben to intermediate and cushion the individual, frei übersetzt den Einzelnen sanft zu umgarnen. Heute ermittle der Einzelne noch sich bietende Möglichkeiten; morgen werde er nur noch seine Wünsche ausdrücken and the system learns to execute on my vision; Technologien also lernen, unsere Wünsche zu erspüren und zu verwirklichen (Fujitsu 2017: Putnam). Wer dann da wen steuern wird, ist schwer zu entscheiden. „Wenn wir uns von total autonomen Systemen völlig abhängig machen“, folgert Lesch, „werden wir zu Sklaven von Algorithmen. Die kennen nur Einser und Nullen. Begriffe wie Großzügigkeit, Freiheit, Vertrauen, Würde sind für diese Systeme Fremdwörter. Die kann man nämlich nicht programmieren. Die muss man leben“ (ibid.). Andere bleiben gelassen. „Wir Menschen fürchten uns vor einem Aufstand der Maschinen, „sagt der KI-Experte Pedro Domingos, aber „der wird nicht geschehen, Maschinen haben keinen Willen. Sehr wohl aber ist es möglich, dass wir freiweillig den Maschinen die Kontrolle überlassen, einfach, weil sie so großartig sind“ (Domingos 2018: 109). 12.2 Humanismus und Transhumanismus 291 1 122. .22 HHu ummaanniissmmuuss uunndd TTr raannsshhuumma anniissmmuuss Großzügigkeit, Freiheit, Vertrauen, Würde - Harald Leschs Worte gehören zu Begriffen, die ein Humanist gern verwendet. Er legt an Verhalten ethische Maßstäbe an und schätzt die Sinnfälligkeit menschlichen Handelns höher als ihre Effizienz. „Nur weil uns die Welt betrifft“, sagt einer von ihnen, „empfinden wir so etwas wie das Bedürfnis nach dem Wahren, dem Guten und dem Schönen. Aus dieser grundlegenden menschlichen Fähigkeit entsteht ein ganz eigenes Universum, in dem wir einander etwas bedeuten. Nur so gibt es Sinn in der Welt“ (Steininger 2017: 32). Derselbe Analyst unserer Lebensverhältnisse sagt aber auch: „Wir leben in einem Moment der Geschichte, in dem wir vielleicht die Deutungshoheit über unser Menschsein verlieren“ (ibid.). Intelligenz, die in rasender Geschwindigkeit immer Neues lernt, werde unsere Zukunft bestimmen. Bald werde sie unsere gesamte menschliche Intelligenz überflügeln und Lösungen für Probleme entwickeln, die wir noch nicht einmal gedacht haben (ibid.). Er bezieht sich auf Hariri, wenn er hinzufügt, die Zukunft gehöre ganz der Künstlichen Intelligenz. Sie werde unsere bisherige menschliche Geschichte ablösen. Zu uns herkömmlichen Menschen werde diese neue maschinelle Intelligenz ein ähnliches Verhältnis entwickeln wie wir es zu unseren Nutz- und Haustieren entwickelt haben (ibid.: 31). Frei nach Goethes Gedicht vom Zauberlehrling, der die Geister nicht mehr los wird, die er rief, werde die Zukunft dem ‚Dataismus’ gehören, „einer Welt, in der nicht mehr die Menschenrechte die höchsten Werte unserer Gesellschaft darstellen werden, sondern der frei lernende Informationsfluss im globalen Datennetz. Das wird vielleicht der Kern der Big Data- Revolution, die wir gerade erleben“ (ibid.: 32). Hariri würde das unterschreiben; schließlich ist er überzeugt: „Alle Lebewesen sind eine Form von Algorithmus“ (Hariri 2015, cit. ibid.: 31). Steiniger nennt das einen „verengenden Blick“ (ibid.) und wendet ein, dass Maschinen, auch intelligente Maschinen, kein wirkliches Du sein können - kein Du, das mich anspricht, dass mich meint“ (ibid.: 33). Schließlich gelten sie ja als „seelenlos“. Aber Vorsicht: Das könnte sich als Schutzvermutung herausstellen. Denn „die Zukunft der Freundschaft“ schließt nach Ansicht der Zündfunk- Redaktion des Bayerischen Rundfunks schon jetzt auch die zwischen Menschen und Maschinen ein. „Künstliche Intelligenz als perfekte Freundin“ (Fares 2017, Episode 1) ist in der Ära des Smartphones keine Utopie mehr. Schließlich beginnen wir nach den Worten des Futurologen Ian Pearson gerade Roboter mit Künstlichen Emotionen undKünstlicher Intelligenz zu entwickeln (ibid.). „Wenn das geht, wird eine echte Beziehung zu einem Roboter möglich sein. Man kann sich die Persönlichkeit des Roboters aussuchen. Man muss nicht mehr auf die Fehler seiner besten Freunde Rücksicht nehmen. Die Roboter werden unsere besten Freunde, Begleiter, Diener. Sie werden all das sein und manchmal sogar unsere Sexpartner“ (ibid.). In Japan ist das keine Zukunftsvision mehr. „Wann habe ich mich das letzte Mal mit echten Freunden getroffen? “ lässt die BR-Zündfunk-Redaktion eine jüngere Japanerin fragen. Ihre Antwort: „Vor einem halben Jahr vielleicht.“ Gegenfrage: „So lange ist das her? “ Antwort: „Bei echten Freunden muss ich Rücksicht nehmen und kann nicht wirklich sagen, was ich denke. Ich traue mich nicht zuzugeben, wenn es keinen Spaß macht. Aber eine Mietfreundin kommt mit, wohin ich will und amüsiert sich mit mir. Und ich kann gehen, wann ich will. Das ist ganz locker. Da kann ich einfach ich selbst sein“ (ibid.). Und eine andere berichtet: „Zuhause erwartet mich schon mein virtueller Freund. Anders als ein realer Freund kann er mich nicht verletzen. Und wenn ich müde nach Hause komme, sagt er: ‚Hey, du hattest einen anstrengenden Tag‘. Dann muss ich lächeln, und meine Müdigkeit verfliegt“ (ibid.). 292 12 Das ewige Leben Solche virtuellen Partner werden als dreidimensionale Hologramme sichtbar. Je öfter man mit ihnen spricht, desto lebensechter erscheinen sie. Die ersten Japaner haben ihre virtuellen Freundinnen bereits geheiratet (ibid.). Sie reagieren zwar nur, aber eben so, dass sie mit hoher Wahrscheinlichkeit die Empfindungen ihrer echten Ansprechpartner treffen. Ein Ich-Bewusstsein haben diese virtuellen Personen noch nicht. Doch daran wird gearbeitet. Transhumanismus nennt man einen Weg, auf dem ein Einzelner oder eine Gruppe von Menschen die naturgegebenen Grenzen des menschlichen Lebens überwinden können oder zumindest wollen (Raven 2015). Die Idee des Transhumanismus hat sich aus dem Extropianismus entwickelt, einer Bewegung, die auf enthusiastische cyber-libertarians der frühen 1990er Jahre und deren Erwartung zurückging, die künftige Technik werde uns aus den Grenzen der menschlichen Existenz geradewegs hinauskatapultieren. Je schneller wir unser ‚Körpergefängnis‘ verlassen würden, glaubten sie, desto besser werde es sein. Das passt recht gut zum Mantra des Silicon Valley „move fast and break things“. Der medizinische Fortschritt habe das Leben der Menschen in den zurückliegenden Jahrhunderten kontinuierlich verlängert. Nun gelte es, es grenzenlos auszudehnen. Was sich da zeigt, spiegelt sich in einer sehr grundsätzlichen Debatte zwischen Humanisten und Transhumanisten (vgl. Krieger/ Bellinger 2017). Der Humanismus will den Menschen verstehen, bevor man an ihm etwas Grundlegendes verändert. „Der Transhumanismus will ihn umgestalten, obwohl auch er ihn noch nicht ganz ausreichend versteht, wie die neuesten Transhumanisten zugeben. Einfach, weil wir es jetzt können“ (Benedikter 2017: 37). Die technologische Wiedergeburt Gesundheitsdienste sollen unser Leben lebenswert erhalten und es nach Möglichkeit verlängern - darauf werden sich alle einigen können. Dass Daten dabei eine wichtige Rolle spielen, haben wir gesehen. Dass sie den Tod jedoch nicht nur verzögern, sondern sogar abschaffen könnten, ist mehr als nur eine Träumerei oder eine vage Vision. Es ist eine konkrete Prognose, dass sich der menschliche Geist künftig von seiner biologischen Grundlage lösen und in ein digitales Zeitalter hochladen lassen werde. Wir würden damit den Tod unseres Körpers überwinden und in der cloud ein unkörperliches Leben weiterführen. Prominente Vertreter dieser Überzeugung sind der Israeli Yuval Hariri, der Amerikaner Max More, Chef einer Firma für das Einfrieren von Leben und Leiter des Extropy Instituts (More 2012), der PayPal-Gründer Peter Thiel und Ray Kurzweil mit seiner Singularity University, lange einer der führenden Köpfe von Google. Dieses Unternehmenerwartet, dass Computer bis 2045 eigenständig Begriffe mit Wahrnehmungen verknüpfen können - das wäre das Signal für diesen Durchbruch. Kommt es so weit, tun wir gut daran, die Entwicklung so zu steuern, dass dies uns stärker hilft als künftigen intelligenten Maschinen. Wenn bildgebende Verfahren prozessuale Abläufe des Bewusstseins und die Aktivierung von Gehirnarealen so darstellen können, dass diese Prozesse algorithmisch repliziert werden können, stünde nämlich eine neue Stufe des Trends zur Technisierung des Menschen bevor (Benedikter 2017: 37). Dann täten Computerprozesse es dem menschlichen Denkprozess gleich, der Ideen und Begriffe bilden kann und schöpferische Verbindungen zu Wahrnehmungen herstellt (ibid.). Damit würde, „dem ‚transhumanistischen‘ Traum nach, eine Trennung des ‚reinen‘ Geistes vom Körper erreicht“ (ibid.). Kurzweil schließt daraus auf die Möglichkeit, den menschlichen Geist tatsächlich in die cloud hochzuladen und ihm so ein Leben jenseits der sterblichen Hülle zu ermöglichen. Denn das im Kern Menschliche sei, was in seinem Kopf vorgeht, nicht die endliche Existenz des einzelnen Körpers. Kurzweil rechnet fest mit der Möglichkeit, die Leistung des Gehirns maschinell nachbauen und damit auch Wissen, Denken und Empfinden computerisieren zu können. Computer und Menschen sollen in ihrer Leistung eins und damit aus- 12.2 Humanismus und Transhumanismus 293 tauschbar werden. Die biologische Existenz des Menschen soll mit der Technik so stark verschmelzen, dass es zwischen Mensch und Maschine keinen Unterschied mehr gibt. Science fiction-Autoren, aber auch Personen aus dem Silicon Valley erwarten schon länger eine Zukunft, in der menschengebundene und von Maschinen erzeugte Intelligenz miteinander verschmelzen. Wir Menschen können dann alles tun, was wir wollen - Maschinen aber zunehmend auch. Das nennt man singularitarianism, auf deutsch Singularität. Peter Thiel hat diesen Begriff schon 2009 in einem Vortrag an der Universität Stanford benutzt. „Singularität ist der einzige Weg“ war er überschrieben (Wagner 2015: 18). Um diese Idee bekannt zu machen, gründeten der Technologe, Futurologe, Beststeller- Autor und Google-Manager Ray Kurzweil und der Weltraumunternehmer Peter H. Diamandis im Jahr 2008 die „außergewöhnlichste, seltsamste und umstrittenste Bildungseinrichtung des Silicon Valley“ (Keese 2014: 259), die Singularity University. Bei der Gründungsfeier sah man Vertreter der NASA, Forscher aus Stanford, Berkeley und weiteren US- Elitehochschulen ebenso wie Vorstandsmitglieder der Unternehmen Google, Autodesk, Microsoft, Cisco und Intel (Wagner 2015: 83). Kernfächer der Singularity University sind Biotechnologie und Bioinformatik, Medizin, Computersysteme, Netzwerke und Sensoren, Künstliche Intelligenz, Robotik, digitale Herstellung sowie Nanomaterialien und Nanotechnik (ibid.: 84). Für 25.000 bis 30.000 Dollar pro Person halten Kurzweil, Diamandis, Internet-Pionier Vint Cerf und Wired-Mitbegründer Kevin Kelly in zehnwöchigen Sommerkursen Wirtschaftler, Politiker und Wissenschaftler dazu an, Pläne zur Lösung der wichtigsten Menschheitsprobleme zu entwickeln (ibid.: 66). 12.000 Dollar muss bezahlen, wer an einem vierbis sechstägigen Workshop teilnehmen will (ibid.: 75). Anders als nach ihrem Namen zu vermuten steht die Singularity University mit ihren Ideen keineswegs allein. Schon im Jahr 2000 hatten die Internet-Unternehmer Brian und Sabine Atkins zusammen mit dem KI-Forscher Eliezer Yudkowsky das Singularity Institute for Artificial Intelligence gegründet, das sich 2013 in Machine Intelligence Research Institute umbenannte. Wie Ray Kurzweil und Peter Diamandis gehen auch dessen Betreiber davon aus, „dass die Entwicklung einer Superintelligenz in einem überschaubaren Zeitraum möglich, ja sogar wahrscheinlich ist“ (ibid.: 87). Zu nennen ist ferner die 2045 Initiative, ein loser Zusammenschluss von Philosophen, KI-Forschern, Neurologen, Physikern, Robotikern, Ingenieuren und Unternehmern, unter ihnen wieder Ray Kurzweil und Peter Diamandis (Wagner 2015: 92). Sie hat auch potente Förderer in Russland. Kurzweil prognostizierte am Ende des 20. Jahrhunderts, bis zum Ausgang des 21. Jahrhunderts werde diese Vision mehr als erreicht sein. Das menschliche Denken werde mit der Welt der ursprünglich von der menschlichen Spezies geschaffenen Maschinenintelligenz bis dahin verschmelzen (Kurzweil 2000: 358). Die Erfassung des menschlichen Gehirns durch Technik werde bis dahin vollzogen sein. Aber eigentlich kann es ihm, dem Google-Manager, und seinen Anhängern gar nicht schnell genug gehen. „Ich gehe davon aus“, hatte er gesagt, „dass die Singularität 2045 eintreten wird - dann werden menschliche Wesen ihre effektive Intelligenz milliardenfach ausweiten, indem sie mit der Intelligenz, die wir geschaffen haben, verschmelzen (cit. Rossmann 2017: 45). Der Name der 2045 Initiative spielt darauf an, dass Superintelligenzen schon bis dahin einsatzbereit sein werden. Intelligente Maschinen auf der Basis erweiterter Modelle der menschlichen Intelligenz nähmen dann womöglich für sich in Anspruch, selbst Menschen zu sein, „ungeachtet der Tatsache, dass ihre Denkfunktionen nicht auf kohlewasserstoffbasierten Zellprozessen, sondern auf elektronischen und photonischen ‚Äquivalenten‘ bestehen“ (ibid.). In einem solchen mind uploading könnten wir Menschen im Verhältnis zur Selbstbewusstsein entwickelnden technischen Intelligenz die Schwächeren werden. Denn eines Tages soll die Künstliche Intelligenz selbst technologische Singularität erreichen, „den Punkt, an dem die 294 12 Das ewige Leben KI die vereinte Intelligenz der Menschen übertrifft“ (Eberl 2016: 281). Intelligente Maschinen würden dann ansagen, wo’s entlang geht. „Wir würden uns als Menschen tatsächlich abschaffen und zu Göttern werden, d.h. zu intelligenten Maschinen“ (ibid.) - jedenfalls so lange, bis womöglich ein Webmaster jede beliebige dieser virtuellen Existenzen löschen könnte, „wenn er noch Platz auf der Platte braucht“. Er könnte sie auch „miteinander vermischen und einen Persönlichkeitsmix herstellen“ (ibid.: 75). Aber auch die umgekehrte Entwicklung schließen diese Zukunftsdenker nicht aus: Diese „Softwareresidente Intelligenz“ werde eines Tages in der Lage sein, sich auch wieder körperlich zu manifestieren: in einem oder mehreren virtuellen Körpern auf unterschiedlichen Ebenen der virtuellen Realität sowie in nanotechnisch hergestellten physischen Körpern (Wagner 2015: 359) - die technologische Form einer mithin auch körperlichen Wiedergeburt, das computerisierte ewige Leben. Ewiges Bewusstsein als Form ewigen Lebens dank Computer- und Datenspeichertechnologie? Ausgeschlossen ist das nicht mehr. Aber nach den Worten des Deutschen Ethikrats- Vorsitzenden Peter Dabrockist der Transhumanismus nicht nur ein „schlechtes säkulares Religionssubstitut“ (BMBF/ Wi 2018: Dabrock), sondern auch „ein Beispiel dafür, wie der Irrationalismus im Gewand der Singularitäts-Idee Einzug in die Geistes- und Sozialwissenschaften hält“ (Wagner 2015: 134). Gemach, sagt denn auch die Chefin der Comma Soft AG Christina Kratsch: „Eine KI-Weltherrschaft ist so weit hergeholt wie die TV-Phantasie Star Trek“ (BMBF/ Wi 2018: Kratsch). Sind Gehirn-Konservern realistisch? Am Rand muss hier erwähnt werden, dass neben seriösen Forschern auch dubiose Kräfte versuchen, aus der Vision des im Computer elektronisch duplizierbaren Gehirns Kapital zu schlagen. Eine US-Firma will Gehirne so lange konservieren, bis es gelingt, ihr neuronales Netz komplett weiterverwendbar einzuscannen. Dazu müssen lebende Gehirne extrem lange haltbar gemacht werden, und das ist nicht nur „absolut tödlich“ (Rixecker 2018). Den Leuten dort mag unbekannt sein, dass Albert Einstein vor einem Tod verfügt hatte, seinen Körper nach seinem Ableben zu verbrennen und die Asche in einen Fluss zu streuen, damuit keine Einstein-Pilgerstätte entstehen könne. Vor der Feuerbestattung hatte jemand aber heimlich sein Gehirn entnommen. Seither wird versucht, seine Genialität in diesen Ganglien auf die Spur zu kommen - völlig ohne Erfolg. Völlig ungeklärt ist auch, ob man eines Tages aus solchen Gehirn-Konserven überhaupt die Informationen wird auslesen können, die zur Simulation unseres Geistes nötig wären. Der Neurowissenschaftler Edward Boyden glaubt das; sein Berufskollege Michael Hendricks hingegen hält dieses Geschäftsmodell für rundheraus betrügerisch; er ist überzeugt, „dass eine Abbildung neuronaler Verbindungen nicht ausreichen kann, um daraus die Simulation einer Persönlichkeit zu generieren“ (ibid.). Das ficht das US-Startup nicht an. Es hat von Investoren bereits eine Million US-Dollar einsammeln können (ibid.). Nur am Rande können wir hier auch erwähnen, dass die meisten amerikanischen Botschafter des Transhumanismus keineswegs lupenreine Demokraten sind, vielmehr Verfechter einer Weltordnung, in der das Recht des Stärkeren gälte - und es erscheint klar, wer da gemeint ist: die großen Datenkonzerne. So schreibt etwa Morris, mit deren Hilfe würden die Menschen in die Lage versetzt, ihre „tierische Individualität aufzugeben und Teil von etwas zu werden, das vom homo sapiens so weit entfernt ist wie wir es von unseren einzelligen Urahnen sind“ (Morris 2013: 294). Ihm zufolge müssen die USA eine menschenähnliche technische Intelligenz sogar bewaffnen. In einer „pax technologica“ (ibid.: 132), einem Frieden durch technische Überlegenheit, wären sie dann die „globocops“ (Wagner 2015: 129). 12.3 Noch sind viele Fragen offen, aber wir sind unterwegs 295 1122. .33 NNooc chh ssi inndd vvi ieel lee FFrraaggeen n oofff fe enn" aabbe err wwi irr ssiinndd uunnt te er rwwe eg gs s Die KI werde uns Menschen nicht ersetzen, prognostiziert der Branchenverband Bitkom. Sie werde zwar die Denkarbeit „nachhaltig prägen, jedoch die menschliche Urteilskraft nicht verdrängen“. Maschinen und Menschen würden sinnvoll zusammenarbeiten. „Die Kombination der relativen Stärken des Menschen mit den anders gelagerten Stärken von Maschinen“, sagen Bitkom-Experten, befruchte beide wechselseitig: „Algorithmen finden Problemlösungen deutlich schneller als Menschen, jedoch oft nicht mit ausreichender Sensibilität, Intuition und Umsicht“ (Bitkom 2017b: 6). Je mehr technische Fortschritte die Automatisierung von Entscheidungsprozessen vorantreiben, desto dringender werde menschliche Urteilsfähigkeit gebraucht. Also gelte es, Mensch und Maschine so aufeinander einzupendeln, dass mit „assistiertem Entscheiden“ gute Resultate erzielt werden (ibid.). Die Technik der Digitalisierung hat wie jede Technik aber ihre eigene Evolution. An sie müssen wir uns nach Überzeugung des deutschen Soziologen Norbert Bolz genauso anpassen wie an andere Umweltbedingungen. „Denn man hat gar nicht mehr die Möglichkeit des Neinsagens“ (Bolz 2017: 37). Auch der Europa-Entwicklungschef von Google,Emmanuele Mogenet, ist sicher, dass man den Zug zur umfassenden Digitalisierung nicht mehr anhalten kann. Aber weder sei ein Supercomputer in Sicht, der die Menschen in allen Bereichen überragen werde, noch brauche sich irgend jemand zu sorgen, mit Künstlicher Intelligenz würden solche Maschinen die Menschheit demnächst unterjochen. Vielmehr sei die KI- Technik insgesamt eher ein Gleichmacher, der mehr Chancen für jeden Einzelnen eröffne. Für ein realistisches Ziel hält er Computer mir einer Art gesundem Menschenverstand. Bis es sie gebe, werde es aber noch Jahre dauern (cit. Armbruster 2017). Die hier geschilderten Chancen und Risiken der Künstlichen Intelligenz lassen sich in vier Szenarien bündeln. Betrachten wir sie ganz kurz: Szenario 1: Systeme der Künstlichen Intelligenz (KI) bleiben hoch spezialisierte Insellösungen. Dann ist die KI in Zukunft „eine Art Schweizer Taschenmesser der IT, eine Lösung für isolierte Fragestellungen. Kein KI-System kann Auto und Flugtaxi gleichzeitig steuern, kein System in Schach und Go simultan dominieren.“ (Wetterschereck 2018). Szenario 2: Menschen werden zu Cyborgs, zu lebendigen Wesen mit integriertem KI-Chip, behalten aber die Kontrolle. Auf diesen Chip könnten sie jede beliebige Fähigkeit laden. Augenblicklich und ohne Lernphase wären sie in der Lage, „jede Sprache der Welt zu sprechen, jedes Fahrzeug oder Flugzeug zu steuern.“ Die Menschen behielten aber die Kontrolle über ihre Individualität (ibid.). Szenario 3: Menschen werden zu Maschinenzombies und verlieren die Kontrolle. Ähnlich wie im Cyborg-Szenario hätten sie dank KI-Chips erstaunliche Fähigkeiten, allerdings keine Kontrolle mehr. Die würde nämlich das KI-System übernehmen. „Die Körper sind dabei nur ein billiges und vielseitig einsetzbares Vehikel für eine autonome KI. Die Gesellschaft wird vollkommen technisiert und ist in der Hand der KI“ (ibid.) Szenario 4: Die KI verfolgt ihre eigenen Ziele. Sie ist dem Menschen physisch und intellektuell überlegen und übernimmt deshalb die Weltherrschaft. Sie kann entscheiden, die Erdbevölkerung zum Wohle des Planeten drastisch zu reduzieren. Die Überlebenden in den wenigen Bevölkerungszentren dieser Welt könnten zusehen, wie sich die KI darauf vorbereitet, das Weltall zu erobern. „Wir werden wie Tiere im Zoo leben“, fürchtet sich KI-Forscher Christoph von der Malsburg“ (ibid.) Die US-Zukunftsforscher Ray Kurzweil und sein europäischer Widerpart Nick Bostrom sind zwei Wortführer diese Entwicklung. Sie „betreiben das gleiche Geschäft der Zukunftsprophetie, nur mit verteilten Rollen“ (Wagner 2015: 57). Die Technologien, die für realisierbar halten, sagt Bostrom, könnten entweder eine posthumane Entwicklung einleiten, in der 296 12 Das ewige Leben der menschliche Geist auf eine wunderbare neue Stufe gehoben wird. In diesem Fall, so Bostrom, „erwartet uns eine wunderbare Zukunft, die unsere wildesten Träume übertrifft“ (cit. ibid.: 52). Er hält eine großartige Zukunft für den Menschen aber für ebenso möglich wie eine Katastrophe, in der Superintelligenzen die ihnen dann lästigen Menschen vollständig ausrotten, um allein herrschen zu können. Denn so wie das Schicksal der Gorillas heute stärker von den Menschen abhänge als von den Gorillas selbst, „so hinge dann unsere Spezies von den Handlungen dieser maschinellen Superintelligenz ab“ (Bostrom 2014: 9). Bostrom ist also skeptisch. Sein Oxforder Institut beschäftigt sich im Kern damit abzuschätzen, wie wahrscheinlich das ist und wie man eine solche für den Menschen selbstzerstörerische Entwicklung abwenden kann. Gemeinsame Grundlage aller genannten Institutionen ist nach Wagners Einschätzung aber „der Glaube, dass die Ablösung oder Überwindung des heutigen Menschen durch die Künstliche Intelligenz im Grunde unabwendbar ist“ (ibid.: 94). Gegensätzlich beurteilen ihre Protagonisten nur, was das bedeutet und wohin es führt. Der Weg in diese Zukunft ist schon beschritten, auch in Deutschland. Das Institut für experimentelle Neurologie der Berliner Charité entwickelt schon ein virtual brain, das heißt eine Nachbildung des Gehirns. Die noch nicht komplett durchschaubare Komplexität des Gehirns wird dazu auf ein überschaubares Derivat reduziert (Rossmann 2017: 45). Mensch und Maschine können also vielleicht bald wirklich bis zur sogenannten Singularität verschmelzen. Das nennt Neider eine „Entmenschlichung durch Beschleunigung von elementaren Lebensvorgängen“; dem könne man sich nicht nur widersetzen (Neider in evolve 15/ 2017: 66); man solle es auch. Die digitale Quantifizierung des Menschen, seines Wollens, Wissens und Könnens, mache uns nämlich tendenziell „berechenbar, vorhersehbar, manipulierbar“ (Hofstetter in evolve 15/ 2017: 67). Wer das nicht will, müsse die kommende Big Data-Kultur so gestalten, „dass sie zu einer neuen menschlichen Kultur wird“ (Steininger 2017: 33). Das ist ein Aufruf an jeden Einzelnen. „Vielleicht“, setzt Steininger (ibid.: 33) hinzu, „ist die globale Zivilgesellschaft jenes internationale Forum, in dem es gelingt, gerade durch den Druck der Big Data-Revolution ein weltweites Gespräch anzustoßen, sozusagen im letztmöglichen Augenblick: Wer sind wir eigentlich? Wer wollen wir sein? “ Über die besten Antworten sind selbst die klügsten Leute noch längst nicht einig. Einigen könnten sie sich vermutlich nur auf eines: Selbst die literarischste Phantasie reicht nicht bis an diese zu erwartende Realität heran. Diesem Dilemma versucht der Romanautor Senkel (2018) zu entgehen, indem er seine Leser glauben machen will, er habe sein Buch „Dunkle Zahlen“ über eine derartige Entwicklung gar nicht geschrieben, sondern nur übersetzt. Eine digitale Literaturmaschine namens GLM-3, will er seine Leser glauben machen, ein Überbleibsel aus der Computerwelt der späten Sowjetunion, mit ihr untergegangen, habe den Text produziert (vgl. Müller 2018). Die Realität lässt solche Phantasien schnell alt aussehen. In Wahrheit habe die Menschheit noch gar keine Ahnung, welche Folgen die Automatisierung geistiger Tätigkeiten mit sich bringe, sagt der Chemie-Nobelpreisträger und Präsident der Royal SocietyVanki Ramakrishnan (cit. Kreye 2017). Der Skype-Gründer Jaan Taallinn zieht einen Vergleich: Der Niedergang der Atomindustrie sei gewesen, erinnert er, dass sie ihre Risiken herunterspielte. „Wenn wir die Unwägbarkeiten der KI nicht jetzt angehen und bald in den Griff bekommen, können wir nur verlieren“ (ibid.). Aber man solle Fortschritte auch nicht durch Horrorszenarien schmälern, wendet der Direktor des Alan-Turing-Institute Andrew Blake ein (ibid.); schließlich sei die Künstliche Intelligenz ein unfassbar aufregendes, intellektuelles Abenteuer. Für Emmanuele Mogenet, den Google-Entwicklungschef Europa (cit. Armbruster 2017), ist diese „Intelligenz-Explosion“ (Noska 2017) mehr als nur eine Option: „Wir haben gar keine Wahl. Wir müssen Künstliche Intelligenz machen.“ AAn nhhäänngge e Glossar der Fachbegriffe 299 Namensregister 307 Register der Firmen und Institutionen 321 Stichwortregister 331 ¸[B? ? |A jiA ¹|kfyigAdhhi 299 GGlloossssaarr ddeerr FFaacchhbbeeggrriiffffee Die Seitenzahlen nennt das Stichwortregister Advanced analytics interaktive visuelle Darstellungen zur Erläuterung komplexer Sachverhalte und Zusammenhänge. Advanced computational linguistics computerbasierte Analysen von Sprache. Affective computing Erkennen und Deuten menschlicher Gefühlsäußerungen durch Maschinen. Aktoren elektronische Programme / Geräte, die erteilte Befehle auisführen. Analytics Interpretation von Daten mit auf software basierenden Algorithmen und statistischen Methoden. Analyse~plattform Technologielösung, die verschiedene Analysesysteme mit einem Ausführungsmodul, einer Datenbank oder einem p Repository zum p Data mining sowie mit Techniken und Mechanismen zum Abrufen und Vorbereiten von Daten sowie zum Speichern und Verwalten der Daten, verknüpft. Algorithmus mathematische Logik oder ein Satz von Regeln für Berechnungen mit Computern, eine p software mit Instruktionen an einen Computer, bestimmte Arbeitsschritte zu erledigen. Algotrader ein p Algorithmus zum automatisierten Kauf oder Verkauf vorwiegend von Wertpapieren. App eine Anwendungspsoftware in einem Computer. Applikation eine Computer-Software, mit der der Computer eine Aufgabe erfüllen kann. Artificial intelligence (AI) p künstliche Intelligenz Augmented intelligence menschliche Intelligenz, die durch pkünstliche I. unterstützt wird. Augmented reality natürliche Realität, die durch p virtuelle Realität unterstützt wird. Avatar ein nur in einem Computer existierendes Abbild einer natürlichen Person Backup die gespeicherte Kopie eines Sachverhalts Behavioral analytics die Analyse menschlichen Verhaltens durch Computer mit dem Ziel, nicht nur Absichten zu verstehen, sondern auch künftiges Verhalten vorsagen zu können. Betriebssystem ein Computerprogramm, das Arbeitsspeicher, Festplatten, Ein- und Ausgabegeräte eines Computers verwaltet und diese den Anwendungsprogrammen zur Verfügung stellt. Big brother literarische Figur eines Herrschers, der seine Untertanen total überwacht, aus George Orwells 1948 erschienenem Roman „1984“. Big Data große Datenmengen, die mit speziellen Lösungen gespeichert und ausgewertet werden. Binär die Zerlegung und Nutzung von Daten in kleinste sprachliche Einheiten aus genau zwei Bestandteilen, genannt p Bits. Bit die kleinste Maßeinheit für eine digital/ p binär gespeicherte oder übertragene Datenmengein computerlesbarer Form (0 für „keine Energie / aus“, 1 für „Energie / ein“). Acht Bits ergeben einp Byte, sie definieren einen Buchstabe n oder eine Ziffer. Gut tausend (genau 2 10 =1.024) Bytes nennt man ein Kilobyte (KB). Eine Seite Text ergibt rund 3 KB und ein Buch von 300 Seiten rund ein Megabyte (MB), also eine Million Bytes. Gut tausend (wieder exakt 2 10 =1.024) MB, also eine Milliarde Bytes, ergeben ein Gigabyte (GB), das Datenvolumen einer Bibliothek. Fünf Bibliotheken passen auf eine DVD. 200 DVDs fassen bereits sechs Millionen Bücher; dieses Datenvolumen von 1.024 GB nennt 300 ×Cf»Cgi man ein Terabyte (TB) und 1.024 TB ein Petabyte (1 PB = 10 15 Bytes). Ein Kilometer DVDs aufeinander ergeben ein Exabyte (1 EB = 10 18 Bytes) - so viel Informationen hatte die Menschheit bis 2003 erzeugt. Die nachfolgenden Einheiten heißen, Zettabyte (1 ZB = 10 21 Bytes) und Yottabyte (1 YB = 10 24 Bytes). 1 JB ergäbe einen Stapel DVDs von der Sonne zum Mars. So unvorstellbar das ist: In den nächsten fünf Jahren werden sogar wesentlich mehr neue digitale Daten entstehen. Bitcoin Bitcoin ist eine virtuelle p Kryptowährung. Unter dem Pseudonym Satoshi Nakamoto wurde 2008 ein Whitepaper veröffentlicht, in dem ein auf der p Blockchaintechnologie beruhendes Zahlungssystem beschrieben wurde. Ein Jahr später wurde die Bitcoin-Referenzsoftware veröffentlicht.. Blockchain eine kontinuierlich erweiterbare Liste von Datensätzen, die mittels p kryptographischer Verfahren miteinander verkettet und auf einer Vielzahl von Nutzer- Computern gespeichert sind, so dass alle Beteiligten Zugriff haben und keine zentrale Speicherung und Verwaltung erforderlich ist. Bots Computerprogramme, die einprogammierte Themen im Internet vollautomatisch verbreiten und Anfragen schriftlich oder mit menschlicher Stimme ebenfalls automatisch beantworten. Bottom-up ein Arbeitsverfahren, das ohne generelle Annahmen oder Vorkenntnisse über Strukturen p Daten analysiert, um aus ihnen neue Sachverhalte, Regeln oder Gesetzmäßigkeiten zu ermitteln. Browser ein Computerprogramm zur Darstellung von Webseiten im World Wide p Web oder allgemein von Dokumenten und p Daten. Business intelligence wörtlich die Aufklärung über das geschäftliche Geschehen, Verfahren und Prozesse zur systematischen Sammlung, Auswertung und Darstellung von Daten in elektronischer Form zur Gewinnung von Erkenntnissen für operative oder strategische Entscheidungen in Unternehmen. Button wörtlich Knopf, auf Computern die einzelnen Tasten einer mechanischen oder elektronisch angezeigten Tastatur. Byte Maßeinheit der Informatik und der Digitaltechnik, 1 Byte ist eine Folge aus 8 p Bits. Call center eine Organisationseinheit, die aktiv oder passiv telefonische Marktkontakte herstellt. Causality verweist darauf, dass alles, was existiert und geschieht, miteinander venetzt ist. CEO Central oder Chief Executive Officer, der Chef einer Organisation. CDO Central oder Chief Data Officer, das für die Datengewinnung und -verarbeitung verantwortliche Mitglied einer Organisation. Chat elektronische Kommunikation in p Echtzeit, meist über das Internet. Chatbot elektronische Kommunikation durch einen p bot. CIO Central oder Chief Innovation Officer einer Organisation. Clickstream-Analysen ermitteln in der Internet-Marktforschung die optimalen Navigationspfade, an deren Ende sich der Aufruf einer speziellen Seite befindet, z.B. einer Bestellseite. Cloud wörtlich Wolke, die Bereitstellung von Datenverarbeitungs-Infrastruktur (Speicherplatz, Rechenleistung, Anwendungspsoftware) als Dienstleistung über das Internet. Cluster Zuordnungseinheit / Verschaltungsmuster einer Festplatte, eines Datenträgers, auf dem ein Teil einer Datei abgelegt/ gespeichert wird. Cognitive computing die Übertragung menschlicher Denkprozesse auf selbstlernende Computersysteme, die in Echtzeit mit Menschen und anderen Computersystemen kommunizieren, sich an frühere Interaktionen erinnern und eigenständig Schlüsse ziehen können. ¸[B? ? |A jiA ¹|kfyigAdhhi 301 COO Central oder Chief Organisational Officer, der Verwaltungschef einer Organisation. Content wörtlich Inhalt, in Computern die nutzbare Datenmenge. Cyber Vorsilbe für Sachverhalte, die auf computergesteuerte Prozesse und durch diese erzeugte p virtuelle Welten bezogen oder auf solche zurückzuführen sind. Cyborg Mischwesen aus lebendigem Organismus und Maschine. Darknet anonym nutzbarer Teil des Internets, der nur mit besonderen Programmen zugänglich ist. Data fusion object (DFO) computerlesbares Objekt, in dem sich p Daten miteinander verbinden. Data lakedie schemalose Speicherung und Verarbeitung von Rohdaten. Data mining das Sammeln von p Daten, die digital vorliegen. Data scientist Wissenschaftler, der Programme für die Datenverarbeitung entwickelt und nutzt. Data warehouse eine Datenbank, die Daten aus unterschiedlichen Quellen in einem einheitlichen Format zusammenfasst und für die Datenanalyse bereitstellt. Daten durch Beobachtung oder Messung gewonnene Angaben, Werte oder Befunde. Deep learning Sonderform von p machine learning, die dem menschlichen Lernen ähnlich ist. Digital die Aufbereitung von p Daten in computerlesbarer (p binärer Form), so dass eine Vielzahl von Umwandlungs- und Bearbeitungsarten möglich ist. Digital humanities eine methodische Ergänzung der Geisteswissenschaften um im weitesten Sinn rechnende Verfahren mit Hilfe von Computern und dem Internet. Download das Speichern von p Daten auf einem Computer. Echokammern p Filterblasen Echtzeit Verarbeitung von p Daten im Moment ihrer Entstehung. Ethereum Genaubetrachtet handelt es sich bei Ethereum nicht um eine p Kryptowährung, sondern um eine Plattform zur Abwicklung von Smart Contracts. dazu verfügt Ethereum aber auch über eine eigene Kryptowährung namens Ether. Exabyte 10 18 Bytes. Fake news Nachrichten, die absichtsvoll nicht der Wahrheit entsprechen. faseroptisch optisches Messverfahren auf Grundlage von Lichtwellenleitern; faseroptische Sensoren übertragen nicht durch eine elektrische Größe, sondern durch eine optische, d.h. durch Licht. Feedback Rückmeldung von einem Effekt auf dessen Ursache. File Datei, Sammlung von p Daten. Filterblasen entstehen, wenn soziale Dienste in Internet-Echokammern nur aufzeigen, was dem Weltbild und den Vorlieben der jeweiligen Nutzer entspricht, und alles andere ausblenden. Flash-Speicher sehr kleine und leicht transportierbare digitale Speicherbausteine, die eine nichtflüchtige Speicherung bei gleichzeitig niedrigem Energieverbrauch gewährleisten, aber nicht einzeln löschbar oder überschreibar sind, bekannt auch als Speicherkarten. Follower bei Twitter die Personen, die die p Tweets eines anderen Twitterers empfangen Fortune 500, Fortune 1000 Listen besonders erfolgreicher Firmen, publiziert im Magazin Fortune. Frame of reference (FOR) der Bezugsrahmen eines Datensatzes. Gigabyte eine Milliarde = 10 9 Bytes. 302 ×Cf»Cgi Global economic unit (GEU) eine noch theoretische, von allen nationalen Währungen unabhängige Maßgröße für geldähnliche Werte. Global value exchange (GVE) ein noch theoretisches Wirtschaftssystem, in dem alle Produkte und Dienste auf allen Ebenen des Weltmarkts in ihrem wahren Wert ausgetauscht werden. Hadoop ein freies, in der Programmiersprache Java geschriebenes Programmiergerüst auf Basis des p MapReduce-Algorithmus für in ihrer Größe veränderbare, verteilt arbeitende p Software. Hardware technische Geräte, auf denen p Daten gespeichert und genutzt werden können. Hedge Fonds Investmentfonds, die zu überdurchschnittlichen Renditen höhere Risiken eingehen. Hidden champions besonders leistungsfähige, aber noch wenig sichtbare Unternehmen. High frequency trading der Kauf und Verkauf von Wertpapieren in Sekundenbruchteilen. Homo oeconomicus jemand, der ausschließlich nach wirtschaftlichen Vernunftgründen handelt. Homo sapiens der denkende Mensch. Industrie 4.0 die Phase der computergesteuerten industriellen Produktion. Infrastructure as a Service (IaaS) die Speicherung und Berarbeitung von p Daten auf einem p Server in einer p Cloud mit fest installierten oder mobilen Eingabe- und Ausgabe-Geräten. Influencer jemand, der aus der Lebenswelt einer Konsumentenschicht heraus in deren Stil und Sprache möglichst viele andere Personen beeinflusst. Integrated data center (IDC) eine integrierte und mit anderen vernetzte Datenbank. Integrierter Schaltkreis eine auf einem dünnen, meist nur einige Millimeter großen Plättchen aus Halbleiter-Material aufgebrachte elektronische Schaltung. Intercultural centers of investigative knowledge (ICIK) noch theoretische Einrichtungen zur Sammlung und Nutzung von Wissen aller Art. Intercultural knowledge production and management (IKPM) program ein noch theroretisches Projekt, das Führungskräfte für das globalisierte Zeitalter ausbilden soll. Internet der Dinge / Internet of Things (IoT) eine globale Infrastruktur, die es ermöglicht, physische und p virtuelle Gegenstände miteinander zu vernetzen und sie durch Informations- und Kommunikationstechniken zusammenarbeiten zu lassen. Interface Schittstelle zwischen Geräten oder Geräten und Bedienern. IPv6-Adresse elektronische Computer-Adresse gemäß Internet-Protokoll Version 6. IT Informationstechnologie JPEG ein p Algorithmus, der Bilder auf weniger als ein Zehntel ihrer Datenmenge komprimiert. Kilobyte 2 10 =1.024 Bytes. Korrelation ursächliche Verbindung. kryptografisch verschlüsselt Kryptowährung nur im Internet nutzbare künstliche Währungen wie p Bitcoin, p Ethereum oder p (nur eingeschränkt vergleichbar) Ripple auf der Basis einer p Blockchain. Künstliche Intelligenz ein Teilgebiet der Informatik, das intelligentes Verhalten maschinell nachbildet oder Maschinen hierzu befähigt; in erster Linie, um mehr Dastern schneller und genauer zu analysieren als Menschen das können. Link Verweis in einer Internetseite auf eine andere, zu der man durch einen Klick springen kann. ¸[B? ? |A jiA ¹|kfyigAdhhi 303 Livestream Veröffentlichung von p Daten im Augenblick ihres Entstehens. Malware Computerprogramme, die unerwünschte und ggf. schädliche Funktionen ausführen. MapReduce Computerprogramm zur automatischen, sequentiellen und vollständigen Stapelverarbeitung von Daten aus einem Schlüssel und einem Wert; lautet der Schlüssel z.B. „Kundenname“, kann der Wert „Lieschen Müller“ sein. Machine learning die Fähigkeit von Computern, aus Datenbeständen selbsttätig zu lernen. Maschinelle Intelligenz das Ergebnis von p Machine Learning. Maschinensprache eine Programmiersprache, in der die Instruktionen, die vom Prozessor eines Computers ausgeführt werden können, als Programmiersprache eines Computers festgelegt sind. Megabyte eine Million = 10 6 Bytes. Memory wörtlich Gedächtnis, in Computern der Platz, an dem p Daten gespeichert und verarbeitet werden und die dazu nötige p Software bereitgehalten wird. Messenger-Dienst das Austauschen von Nachrichten nahezu in p Echtzeit über eine Tastatur und die Übermittlung via Internet. Metadaten strukturierte p Daten, die Informationen über Merkmale anderer Daten enthalten. Mixed reality eine Mischung äußerer und p virtueller Realität. Mobility as a Service (MaaS) eine kombinierter Service für alle Arten der Personenbeförderung. MP3-Standard p Algorithmus, der Audiodateien auf zehn Prozent der Originalgröße komprimiert. Netzwerk Verknüpfung von Computern, in der Regel über Leitungen oder das Internet. neuronal etwas, das ein Neuron, also eine Nervenzelle, betrifft oder davon ausgeht. Newsfeed eine Technik zur einfachen und strukturierten Veröffentlichung von Änderungen auf Webseiten in standardisierten Formaten zum automatischen Abruf durch Nutzer. online mit dem Internet (p Web) verbunden. Open data p Daten, die für jedermann offen zugänglich sind. Outsourcing die Auslagerung von Aufgaben aus einer Organisation in eine andere. Page rank die Rangfolge, in der eine p Suchmaschine Webseiten nachweist. Parallelverarbeitung die gleichzeitige Erledigung von mehreren oder vielen Aufträgen an Computer durch die in ihm eingebauten Prozessoren. Perpetuum mobile die auf der Erde physikalisch unmögliche Idee, etwas könne sich ohne äußeren Einfluss (= Energiezufuhr) kontinuierlich bewegen. Petabyte eine Trillion =10 15 Bytes. PLATO der Name der p Quantum Relations Machine. posten in einem p sozialen Netzwerk veröffentlichen. Predictive analysis eine Analyse, die zugleich Vorhersagen über die Wahrscheinlichkeit künftiger Ereignisse macht. Predictive maintenance vorausschauende Wartung, z.B. unter Einrechnung des mit Computern ermittelten Verschleißes. Predictive policing Vorhersagen für eine Einsatzplanung. Privacy Privarheit, vor allem der Schutz privater (persönlicher) p Daten. Profiling das Ableiten von Persönlichkeitsprofilen aus p Daten. 304 ×Cf»Cgi Programmieren ein Teilbereich der p Softwareentwicklung, vor allem die Umsetzung eines Softwareentwurfs in einen p Quellcode sowie je nach Programmiersprache das Übersetzen des Quellcodes in eine p Maschinensprache. Proof of concept Verfahren, um die prinzipielle Durchführbarkeit eines Vorhabens zu belegen, vielfach als positiver oder negativer Machbarkeitsnachweis einer Machbarkeitsstudie. Provider wörtlich Versorger, oft als service provider = Dienstleister. Prozessor eine elektronische Schaltung, die nach Befehlen andere Maschinen oder elektrische Schaltungen steuert und dabei einen p Algorithmus vorantreibt, meist zur Datenverarbeitung. Q-search eine interaktive Such- und Lieferfunktion für p Quantum Relations. Quantencomputer ein bisher noch nicht herstellbarer Computer, dessen Funktion auf der Quantenmechanik beruht, nicht auf der klassischen Physik. Quantum das Elementarteilchen, also das nicht mehr weiter teilbare Teilchen, wenn sein korpuskulares, also aus Masse bestehendes, und nicht sein wellenartiges Verhalten im Vordergrund steht. Quantum relations ein Analysewerkzeug für p Daten. Es heißt p Quantum, weil sich Sachverhalte mit Hilfe digitaler Techniken in kleinste Bausteine zerlegen lassen, in Quanten, und relations, weil die Beziehungen solcher Quanten zueinander einen Sachverhalt einzigartig machen. Quantum relations machine eine pSoftware, mit der sich auf der Basis von pQuantum relationsaus p Big Data ein digitales Weltmodell zur Datenbewertung und zu Voraussagen ableiten lässt. Quellcode der für Menschen lesbare, in einer Programmiersprache geschriebene Text eines Computerprogramms. Qubit die kleinste Partikeleinheit, die nur zwei durch Messung sicher unterscheidbare Zustände hat und nur durch die Quantenmechanik korrekt beschrieben wird. Ransomware Schadprogramme wie Erpressungsptrojaner oder Verschlüsselungstrojaner, mit deren Hilfe ein Eindringling den Zugriff des Computerinhabers auf p Daten blockiert. Real time in der Datenverabreitung die Analyse, Bewertung und Weiterverarbeitung von Daten in dem Moment, in dem sie entstehen. Reality mining die Sammlung von p Daten aus der physischen Welt mit p Sensoren. Repository verwaltetes Verzeichnis zur Speicherung und Beschreibung von digitalen Objekten für ein digitales Archiv. RFID Radio Frequency Identification, das automatische und berührungslose Identifizieren und Lokalisieren von Objekten über Funkwellen. Ripple nach Bitcoin und Ether die drittwertvollste Digitalwährung, eine Kombination aus Handelsplatz und Zahlungsnetzwerk mit gut hundert Kunden aus dem Finanzsektor. Scan Kopie einer Vorlage durch elektronisches Abtasten. Science fiction Literatur, die zukünftige Lebensverhältnisse mitheute noch unmöglichen technischen Zuständen beschreibt. Schweigespirale die Beobachtung, dass Menschen sich gestärkt fühlen, wenn sie sehen, dass andere ihre Meinung teilen, aber in Schweigen verfallen, wenn ihre Haltung an Zustimmung verliert. Sensor Gerät zur Messung, Aufzeichnung und Weiterleitung von Zuständen. Sentimentsanalyse die Erfassung und Nachverfolgung von Meinungen oder Gefühlen, die Verbraucher in Interaktionen oder Dokumenten äußern, unter anderem in sozialen Medien, in Telefonaten, Umfragen und anderen Formen der Kommunikation. ¸[B? ? |A jiA ¹|kfyigAdhhi 305 Server ein Computerprogramm oder ein Computer, der Dienstprogramme, p Daten oder andere Ressourcen bereitstellt, damit andere Computer oder Programme darauf zugreifen können. Silicon valley ein Tal südlich von San Francisco, das Zentrum der US-Computerindustrie. Singularität entsteht, wenn Computer und Menschen in ihrer Leistung austauschbar werden. Situation room ein Raum bei Kunden, in dem das Analyseprogramm p Quantum Relations arbeitet. smart bedeutet ursprünglich pfiffig, im Zusammenhang mit p Daten datengetrieben, vernetzt. Smart data aus heterogenen Datenmengen gewonnene hochwertige Informationen, die einen direkten Nutzen ermöglichen. Smart city die vernetzte, auf den Gebrauch von p Daten hin optimierte Stadt. Smart grids wörtlich smarte Gitter, ein System der Energieversorgung, das das Energieangebot direkt am momentanen Energieverbrauch ausrichten kann. Smartphones Mobiltelefone, die zugleich mobile Minicomputer sind. Social bots p bots, die in den p sozialen Medien einsetzt werden. Software ein Programm oder Programme, die Computer steuern. Soziale Medien, social media die Teile des Internets, die der Kommunikation privater Nutzer untereinander dienen, vor allem Facebook und Twitter. Speicherkarte auch Flash Card oder Memory Card genannt, ein kompaktes, wiederbeschreibbares Speichermedium für beliebige p Daten wie Text, Bilder, Audio- und Video- Dateien. Start-up eine kürzlich gegründete Firma in der ersten Phase ihres Lebenszyklus. streaming bedeutet, p Daten im Augenblick ihres Anfallens zu erfassen und auszuwerten. Strukturierte Daten sind Daten in immer wiederkehrender Sorte oder Struktur. Suchmaschine Computerprogramm, das nach frei wählbaren Begriffen das Internet durchsucht und Fundstellen auflistet. Tablet tragbarer, flacher Computer in besonders leichter Ausführung mit einem meist etwa buchseitengroßen p Touchscreen, ohne ausklappbare mechanische Tastatur. Task force organisierte Gruppe von Menschen zur Erreichung eines bestimmten Ziels. Terabyte eine Billion = 10 12 Bytes. Timeliness Aktualität top-down ein Arbeitsverfahren, das p Daten anhand genereller Theorien, Annahmen, Kenntnisse oder Absichten analysiert, um so neue Sachverhalte zu ermitteln und ermittelte zu bewerten. Touchscreen ein Computerbildschirm, der auf ihm dargestellte Zeichen durch Berühren als Computerbefehle entgegennimmt und verarbeitet. Tracking tool eine Technik, mit der die Reaktion von Nutzern auf Online-Werbung und das Kaufverhalten in Online-Shops untersucht werden kann. Transhumanismus die Erwartung, dass ein Einzelner oder eine Gruppe von Menschen die naturgegebenen Grenzen des menschlichen Lebens überwinden können. Trojaner im Computerbereich ein Programm, das, als etwas Nützliches getarnt, durch den Angegriffenen in den geschützten Bereich eines Systems gebracht wird und dort Schaden anrichtet. Tweet eine über den Kurznachrichtendienst Twitter verbreitete Mitteilung. 306 ×Cf»Cgi Uubiquitous computing bedeutet, überall und jederzeit online zu sein. Unstrukturierte Daten sind p Daten ohne wiederkehrende Struktur, wie Kraut und Rüben. Variety wörtlich Verschiedenartigkeit, im Bereich p Big Data die Vielfalt von p Daten. Veracity im Bereich p Big Data die Richtigkeit und Vertrauenswürdigkeit von p Daten. Velocity im Bereich p Big Data die Geschwindigkeit, mit der p Daten nutzbar sind. Virtual reality, virtuelle Realität eine Realität, die nur elektronisch, d.h. in Computern existiert. virtuell die Erzeugung einer sichtbaren, hörbaren oder fühlbaren Erscheinung ausschließlich aus elektronischen p Daten. Virus in der Medizin der kleinste Krankheitserreger, in Computern der Auslöser eines Schadprogramms. Volume im Bereich p Big Data die Menge von p Daten. Wearable devices am Körper tragbare Sensoren und ggf. Datenspeicher. Web Kurzform von world wide web, das weltweite Internet, ein System elektronischer Hypertext-Dokumente, genannt Webseiten, die durch Hyperlinks untereinander verknüpft sind und über die Protokolle http oder https übertragen werden. WhatsApp ein p Messenger-Dienst, der das Versenden von Kurznachrichten, Bildern, Videos, Dateien, Kontakten sowie dem eigenen Standort über p Smartphones ermöglicht. zellulär aus Zellen bestehend oder sie betreffend. Yottabyte 10 24 Bytes. Zettabyte 10 21 Bytes. Zoe wörtlich (griechisch) Leben, die in p Quantum relations enthaltene Vision eines weltweiten Gesundheitssystems auf der Basis universeller Datensammlung, -speicherung und -verarbeitung. ª|DiC? Aigd? <iA 307 NNaammeennssrreeggiisstteerr Die Seitenzahlen nennt das Stichwortregister Abramson, Jill Ellen (*1954), 1986 Chefredakteurin der Legal Times, 1988 Washington- Korrespondentin des Wall Street Journal, 1997 Hauptstadtkorrespondentin der New York Times und Leiterin des Washingtoner Büros; von 2011 bis 2014 Chefredakteurin der New York Times. Al-Gaddhafi, Muammar Muhammad Abdassalam Abu Minyar (1942-2011), 1969-1979 lybisches Staatsoberhaupt, bestimmte von 1979 bis 2011 diktatorisch die Politik dieses Landes. Allen-Castellitto, Anita LaFrance (*1953), Professorin für Recht und für Philosophie an der University of Pennsylvania Law School. Allen, Paul Gardner (*1953), US-Unternehmer, gründete zusammen mit Bill Gates das SoftwareunternehmenMicrosoft und leitete es gemeinsam mit ihm von 1975 bis 1983. Amara, Roy (1925-2007), Mitgründer und Präsident des Institute of the Future in Palo Alto, USA, einer Ausgründung der Rand Corporation zur Förderung von Zukunftsstudien. Anderson, Chris (*1961), US-amerikanischer Journalist und CEO von 3DRobotics, Gründer von DIY Drones, von 2001 bis 2012 Chefredakteur der Zeitschrift Wired, vorher sieben Jahre beim britischen Wirtschaftsblatt The Economist sowie bei Nature und Science. Arquilla, John (*1954), US-Wissenschaftler, 1989-2003 als Analyst für die Rand Corporation, unter US-Präsident George W. Bush Berater von Verteidigungsminister Donald Rumsfeld. Asimov, Isaac (1919-1992), russisch-amerikanischer Biochemiker, Sachbuchautor und einer der bekanntesten und produktivsten Science-Fiction-Schriftsteller seiner Zeit. Assadolahi, Dr. Ramin, Computerlinguist, klinischer Psychologe, Erfinder u. a. der Next- Word-Prediction, die in allen gängigen Mobilgeräten verwendet wird, leitet die ExB GmbH. Babbage, Charles (1791-1871), englischer Mathematiker, Philosoph, Erfinder und politischer Ökonom, erfand die mechanische Rechenmaschine Analytical Engine. Bachmaier, Josef, in den 1960er Jahren der Wirt der Münchner Traditionsgaststätte Fraunhofer. Bader, Bruno (1901-1992), gründete 1929 in Pforzheim einen Versandhandel für Schmuck, Armbanduhren, Tafelbesteck und Silberwaren. Bagley, Philip R. (1927-2011), US-amerikanischer Computerwissenschaftler mit richtungsweisenden Arbeiten in der elektronischen Datenverarbeitung; er schuf dasWort Metadaten. Bain, Malcolm, seit 2007 im RavenPack-Vertrieb tätig, seit 2017 Director Sales and Maketing Baudrillard, Jean (1929.2007), Professor an der Université de Paris-IX Dauphine, Medientheoretiker, Philosoph und Soziologe einflussreicher Vertreter des poststrukturalistischen Denkens. Baur, Friedrich (1890-1965), gründete 1925 in Burgkunstadt einen Schuh-Versandhandel, führte als erster in Deutschland die Sammelbestellung ein, erweiterte sein Sortiment um Textilien und Hartwaren und wurde zu einem der größten Versandhäuser in Deutschland. Bell, Daniel (1919-2011), eigentlich Daniel Bolotsky, entwarf 1973 eine Theorie des strukturellen Wandels von der Industriegesellschaft zu einer Wissens- und Dienstleistungsgesellschaft. Bentham, Jeremy (1748-1832) englischerJurist, Philosoph und Sozialreformer, wichtiger Sozialreformer Englands im 19. Jahrhundert und ein Vordenker des modernen Wohlfahrtsstaats. 308 ×Cf»Cgi Bergsdorf, Wolfgang (*1941), unter Bundeskanzler Helmut Kohl Abteilungsleiter Inland im Bundepresseamt, 2000-2007 Präsident der Universität Erfurt, 2007-2015 Präsident der Görres-Gesellschaft. Berners-Lee, Sir Timothy John (*1955), britischerPhysiker und Informatiker, Professor am Massachusetts Institute of Technology (MIT). hat seit 2016 einen Lehrstuhl an der Universität Oxford, Erfinder von HTML (Hypertext Markup Language) und Begründer des World Wide Web, leitet das World Wide Web Consortium(W3C). Bernhardt, Ute, Leiterin des Referats Datenwissenschaft, Informstionstechnologien, Industrie 4.0 im Bundesministerium für Wirtschaft und Energie, Berlin. Bishop, Christopher (*1959), Direktor des Microsoft Research Labors, Cambridge, Professor für Computerwissenschaft an der Universität Edinburgh und Fellow am Darwin College, Cambridge. Blake, Andrew (*1956), Direktor des Alan-Turing-Instituts, zuvor Managing Director von Microsoft Research, Cambridge. Boucicaut, Aristide (1810-1877), französischer Einzelhandelsunternehmer und Pionier des modernen Warenhauses, verlegte den ersten Versandkatalog. Bostrom, Nick (*1973 als Niklas Boström), schwedischer Philosoph an der Oxford University, Forscher auf den Gebieten der Bioethik und der Technikfolgenabschätzung. Brin, Sergey (*1973), entwickelte zusammen mit Larry Page die SuchmaschineGoogle, deren Prototyp 1998 startete, seit 2015 Präsident der Google-Muttergesellschaft Alphabet Inc. Brooks, Rodney (*1954), australischer Informatiker und Kognitionswissenschaftler, von 1997 bis 2007 Direktor des MIT-Labors für Computerwissenschaft und künstliche Intelligenz. Buchheim, Lothar-Günther (1918-2007), Maler, Fotograf, Verleger, Kunstbuch- und Romanautor, Filmemacher, Sammler, Gründer des „Buchheim-Museums der Phantasie“. Cahill, Dennis, 2006-2011 Chief Technology Officer der Dow Jones Enterprise Media Group, seither Executive Vice-President von Wolters Kluwer. Calvo, Tania, seit 2003 Expertin für das RechtsundGesundheitswesen bei RavenPack. Carafella, Mike, Computerwissenschaftler, Associate Professor an der University of Michigan, entwickelte zusammen mit Doug Cutting die Open-Source-Programme Hadoop und Nutch. Castells, Manuel (*1942), spanischer Soziologe; verfasste 1996 bis 1998 ein dreibändiges Hauptwerk zur Soziologie und Medientheoriesowie zur globalen Netzwerkgesellschaft. Catic, Muhamed, theoretischer Mathematiker der Universität Zagreb und Absolvent der Standford Graduate School of Business, leitet in den Vereinigten Arabischen Emiraten eine Firma, die Produkte für den Massenmarkt in Asien und Afrika herstellt und vermarktet, Chef des dortigen International Business Development, zuvor Beiratsmitglied des Scheich Mohammed Technology Parks in Dubai und Mitglied des Executive Committee of EAN international (Gesellschaft zur Artikel-Nummerierung). Cattanach Robert, früherer Anwalt im US-Justizministerium, Department of Justice, Civil Division, vertrat dort die Interessen der USA und ihrer Agenturen CIA, FBI, Department of State, Verteidigung und Energie. Ceaucescu, Nicolae (1918-1989), von 1965 bis 1989 Generalsekretär der Rumänischen Kommunistischen Partei, Staatspräsident und Vorsitzender des Staatsrates und damit neostalinistischerDiktator der Sozialistischen Republik Rumänien. Charnock, Elizabeth, gründete nach Stationen im technischen Management bei Hewlett- Packard und Sun Microsystems das Unternehmen Cataphora, deren CEO sie seither ist. Chen, Frank, Absolvent der Stanford University in Symbolic Systems (Cognitive Science), war nach anderen beruflichen Verpflichtungen von 2007 bis 2009 Vice President von HP Software und ist seiher Partner der weltweit einflussreichen Wagniskapitalfirma Andreessen Horowitz. ª|DiC? Aigd? <iA 309 Clinton, Hillary Diane Rodham (*1947), unter Präsident Barack Obama US-Außenministerin und danach im Kampf um dessen Nachfolge Präsidentschaftskandidatin der Demokraten gegen den siegreichen Republikaner Donald Trump. Cohen, Julia seit 1999 Jura-Professorin am Georgetown University Law Center, unterrichtet und publiziert über Copyright, Urheberrecht undPrivacy, ferner ist sie Beiratsmitglied des Electronic Privacy Information Center. Conway, Kellyanne (*1967), US-Juristin und Meinungsforscherin, vor ihrer politischen Karriere Vorstandsvorsitzende und Geschäftsführerin des von ihr gegründeten Meinungsforschungsinstituts The Polling Company Inc./ Woman Trend, 2016 Wahlkampfmanagerin u.a. von Donald Trump, Ende 2016 seine Beraterin („Counselor to the President“). Cook, Tim (*1960), Chief Executive Officer (CEO) des Unternehmens Apple, von Januar bis Juni 2009 und ab 2011 vertrat er seinen Vorgänger Steve Jobs, im August 2011 übernahm er Jobs Position dauerhaft. Cornez, Jason S., Master-Absolvent des MIT in Computerwissenschaft und Mathematik, zwanzig Jahre berufliche Praxis im Silicon Valley, seit 2008 Chief Technology Officer von RavenPack International S.L. Crosbie, Kevin, Absolvent der irischen Universität Limerick in Computertechnik und MBA-Absolvent der spanischen IE Business School, seit 2003 bei RavenPack als software- Entwickler beschäftigt, heute dort Leiter der Produktentwicklung. Cutting, Doug, Jurist und Entwickler der Open-Source-Plattformen Lucene und mit Mike Cafarella Entwickler der Plattform Nutch, mit diesem ferner der Entwickler von Hadoop. Curioni, Alessandro, Leiter des europäischen IBM-Forschungszentrums in Rüschlikon/ Schweiz. Dabrock, Prof. Dr. Peter, Theologe, seit 20165 Vorsitzender des Deutschen Ethikrates, u.a. seit 2008 Vorstandsmitglied der Zentralen Ethikkommission bei der Bundesärztekammer. Dallennes, Geoffroy, seit 2017 Marketing-Leiter von RavenPack, zuvor dort seit 2012 im Marketing und Vertrieb tätig gewesen. Daniel ~ Moldoveanu Deicke, Axel, Geschäftsführer Auto Service Engineering in der BMW AG. Depiereux, Philipp; Gründer und CEO der Digitalberatung etventure, die unternehmerische Erfahrungen im Mittelstand, in der Konzernwelt, in Startups sowie in US-Digitalprojekten bündelt. Dobrindt, Alexander (*1970), Vorsitzender der CSU-Landesgruppe im Dt. Bundestag, 2013-2017 Bundesminister für Verkehr und digitale Infrastruktur, 2009 bis 2013 CSU- Generalsekretär. Eckert, John Presper (1919-1995), konstruierte zusammen mit John W. Mauchly 1946 den Computer ENIAC und später den UNIVAC 1. Edison, Thomas A. (1847-1931), Erfinder und Unternehmer auf dem Gebiet der Elektrizität und Elektrotechnik, förderte die umfassende Elektrifizierung der industrialisierten Welt. Edwards, ChrisLangfristplaner in der Prisma Analytics GmbH mit beruflichen Erfahrungen aus der Vwrsicherungsbranche, der Papierindustri und der Geschäftsplanentwicklung für unterschiedliche Firmen von der produzierenden Industrie über die Lebensmittel- und die Unterhaltungsbranche bis zu Software-Anbietern. Einstein, Albert (1879-1955), theoretischer Physiker, entwickelte 1905 die spezielle Relativitätstheorie mit einer Arbeit zur Elektrodynamik bewegter Körper und 1915 die allgemeine Relativitätstheorie, leistete wesentliche Beiträge zur Quantenphysik und erhielt für seine Entdeckung des photoelektrischen Effekts den Nobelpreis 1921. 310 ×Cf»Cgi Emmer, Prof. Dr. Martin, Gründungsdirektor des Weizenbaum-Institruts für die vernetzte Gesellscaft an der Freien Universität Berlin. Emmerich, Roland (*1955), Filmproduzent, Regisseur, Drehbuchautor, u.a. von Stargate (1994) und vonIndependence Day, Godzilla, The Day After Tomorrow und 2012. Fallmann, Daniel, Informatiker, Gründer und Chef des österreichischen Unternehmens Mindbreeze für Content Analytics und Information Insight. Federrath, Prof. Dr. Hannes, Präsident der Gesellschaft für Informatik, seit 2011 Prof. für Sicherheit in verteilten Systemen am Fachbereich Informatik der Universität Hamburg, zuvor Prof. für Management der Informationssicherheit an der Universität Regensburg und als Vertretungsprofessor am Fachbereich Informatik der Freien Universität Berlin. Fellner, Prof. Dr. Dieter,österreichischer Informatiker, Leiter des Fraunhofer-Instituts für Graphische Datenverarbeitung IGD in Darmstadt. Feuchtwanger, Lion (1884-1958), einer der meistgelesenen deutschsprachigen Autoren des 20. Jahrhunderts. Fischer, Otfried (*1953), Schauspieler (u.a. TV-Serie Der Bulle von Tölz) und Kabarettist (u.a. Moderator der TV-Serie Ottis Schlachthof). Franke, Uwe, Leiter Bildverstehen bei der Daimler-Benz AG. Fritz, Stefan, Geschäftsführer synaix, einer Firma für angewandte Informationstechnologien. Gabriel, Sigmar Hartmut (*1959), SPD-Vorsitzender 2009 bis 2017, seit Ende 2013 bis 2017 Bundesminister für Wirtschaft und Energie und Vizekanzler, von Januar bis Herbst 2017 Bundesaußenminister. Gagner, Phil, promovierte an der Universität Georgetown, zeitweise Forscher am MIT- Labor für künstliche Intelligenz, dann Chefdesigner für Deck Computers, der damals innovativsten Computerfirma, einige Jahre leitender Forscher am US-Justizzentrum in Washington D.C., Gründer von Legal Data Systems, einer Firma, die Computerprogramme für juristische Zwecke entwickelt, Partner der Anwaltskanzlei Shaugnessy, Volzer & Gagner, bis 2008 C hefe ntwic kle r von Ra ve nPac k In te rnat io nal , da na ch P rojek tle ite r eine r so ft wa re z ur Kommunikation und Kontrolle des ersten wettbewerbsfähigen Systems zur Automatisierung von Zeitungen und u.a. eines nationalen Netzes zum Datenaustausch von US- Bundesgerichten, ferner Gutachter für globale Handelsfragen, zur Reform des Rechts am geistigen Eigentum und in den Bereichen Energie und Kommunikationssysteme, schließlich Vorstandsmitglied etlicher Handels- und Technologie-Gesellschaften und Teamleiter von Wissenschaftlern und Praktikern mit unterschiedlichster beruflicher Expertise. Galison, Peter Louis (*1955), Professor für Wissenschaftsgeschichte und Physik an der Harvard University. Gates, Bill (*1955), gründete 1975 zusammen mit Paul Allen das Unternehmen Microsoft, war Chairman, CEO und Chefentwickler sowie bis Mai 2014 größter Anteilseigner. Gibson, William (*1948), US-amerikanischerScience-Fiction-Autor, prägte das Wort Cyberspace. Gingrich, Newt (*1943), US-amerikanischerPolitiker der Republikanischen Partei, von 1979 bis 1999 Kongressabgeordneter des BundesstaatesGeorgia und von 1995 bis 1999 Sprecher des Repräsentantenhauses. Goerdeler, Dr. Andreas, Leiter der Unterabteilung Nationale und Europäische Digitale Agenda im Bundesministerium für Wirtschaft und Energie, Berlin. Gonzalez, Armando, gebürtiger Mexikaner mit US-amerikanischem Pass, studierte an der American University in Paris, war dort mehrere Jahre der studentische Sprecher der Hochschule, beendete sein Studium der Wirtschaft und internationaler Unternehmensführung mit Top-Noten, war bei RavenPack Assistent von CEO Hardy Schloer und ist dort seit 2007 CEO der RavenPack Interntional SL. ª|DiC? Aigd? <iA 311 Grisolano, Larry, 2007-2008 und 2011 in den Wahlkämpfen Barack Obamas Director of Paid Media and Opinion Research, verantwortete dort Wahlwerbung für 400 Millionen Dollar, heute Partner von AKPD Message and Media. Grunwald, Prof. Dr. Armin, seit 1999 Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse in Karlsruhe, seit 2002 auch Leiuter des Büros für Technikfolgen- Abschätzung beim Deutschen Bundestag, seit 2007 außerdem den Lehrstuhlinhaber für Technikphilosophie und Technikethik an der Universität Karlsruhe. Guttenberg, Karl-Theodor Maria Nikolaus Johann Jacob Philipp Franz Joseph Sylvester BuhlFreiherr von und zu (*1971), 2009 Bundesminister für Wirtschaft und Technologie, danach bis 2011 Bundesminister der Verteidigung, seither „distinguished statesman“ am Center for Strategic and International Studies (CSIS), einem Think Tank in Washington. Hadeln, Moritz de (*1940), gründete 1969 das Dokumentarfilmfestival Nyon, leitete 1972 bis 1977 das Internationale Filmfestival von Locarno und von 1980 bis 2001 die Internationalen Filmfestspiele Berlin sowie zwei Jahre lang die Internationalen Filmfestspiele Venedig. Hafez, Peter, Data Scientist mit einem Master-Abschluss in quantitativen Finanzierungen der City University's Cass Business School und einem B.A. der Universität Kopenhagen, seither fünfzehn Jahre Erfahrung in maschinellen Nachrichtenanalysen bei Standard & Poor's, Credit Suisse, der First Boston und der Saxo Bank, regelmäßiger Korrespondent im Blog Sentiment- News.com, heute Chief Data Scientist der RavenPack International SL. Hankey, Stefanie, Mitgründerin der 2003 entstandenen NGO Tactical Technology Collective. Hanning, August (*1946), 1998-2005 Präsident des Bundesnachrichtendienstes (BND), danach bis 2009 als Staatssekretär im Bundesministerium des Innern. Hansen, Marit, Landesbeauaftagte für den Datenschutz in Schleswig-Holstein und damit Leiterin des Unabhängigen Landeszentrums für Datenschutz in Kiel Hansen, Norbert, Senior Projekt-Manager des Unternehmens Karl Storz GmbH & Co. Hardy~ Schloer Hariri, Yuval Noah (*1976), israelischer Historiker, lehrt seit 2005 an der Hebräischen Universität Jerusalem; seine Monographie zur kurzen Geschichte der Menschheit wurde ein Bestseller. Hayden, Michael V. (*1945), bis 2008 US Air Force-General, 2006-2009 parallel CIA- Direktor. Helbing, Dirk (*1965), seit 2007 Professor für Computational Social Science am Department für Geistes-, Sozial- und Politikwissenschaften und Mitglied des Informatikdepartments, ETH Zürich. Heiner ~ Pollert Helberger Natelie (*1970), Professorin für Informationsrecht am gleichnamigen Institut der Universität Amsterdam. Hilton, Paris Whitney (*1981), Model, Sängerin, Schauspielerin und Designerin, Urenkelin des Hotelgründers Conrad Hilton und eine zukünftige Erbin des Hilton-Vermögens. Hoffmann, Martin, Webpionier, Autor des Blogs MRTNH.de. Hofmann, Prof. Dr. Jeannette, Prof. für Internetpolitik an der Freien Universität Berlin, Forscherin am Weizenbaum-Institut für dir vernetzte Gesellschaft, eine der Gründungsdirektoren des Alexander von Humboldt Instituts für Internet und Gesellschaft, Berlin sowie Honorarprofessorin für Internetpolitik An der Berliner Universität der Künste. Huang, Jen-Hsun, Gründer und Chef des amerikanischen Grafikchipherstellers Nvidia. Hütte, Holger, Professor für Maschinenbau an der University of Applied Sciences Weserbergland (HSW) und geschäftsführender Gesellschafter der Neopera Business Consulting GmbH Bremen. Hume, David (1711-1776), schottischer Philosoph, Ökonom und Historiker, einer der bedeutendsten Vertreter der schottischen Aufklärung, enger Freund von Adam Smith, stand mit ihm in regem intellektuellem Austausch. Israel, Nathan (1782-1852), gründete 1848 in Berlin ein Kaufhaus, das seine Söhne und Enkel im 20. Jahrhundert mit 2000 Angestellten zum größten der Stadt machten, ab 1932 auch im Versandhandel erfolgreich. Jähnichen, Prof. Dr. Ing. Dr. Stefan, früherer Präsident der Gesellschaft für Informatik, ist seit 2012 Direktor am FZI, leitet dort qmp Außenstelle Berlin und hat den Vorsitz des Informatik-Panels des European Research Council. Jobs, Steve (1955-2011), Mitgründer und langjähriger CEO von Apple Inc., Geschäftsführer und Hauptaktionär der Pixar Animation Studios und nach einer Fusion größter Einzelaktionär der Walt Disney Company. Jonas, Bruno (*1952), Kabarettist und Autor mit Soloprogrammen seit 1979. Joyce, Tim, 2015-2016 nach anderen beruflichen Stationen Chief Innovation Officer von Xerox Customer Care, seither COO von ConstPuctive Labs, entwickelt dort ein Virtual Reality Operating System. Kanter, Joshua, 2010 bis 2016 Senior Vice President Marketing von C„ssers Entertainment, Las Vegas, seit 2016 Senior Vice President Marketing Strategy, Viking Cruises. Kasparow, Garri Kimowitsch (*1963), von 1985 bis 1993 Weltmeister des Weltschachbundes FIDE, bis 2000 vom Großteil der Schachwelt anerkannter Träger dieses Titels. Katz, Jon, Professor am Department of Computer Science and UMIACS der University of Maryland und Direktor des Maryland Cybersecurity Center. Kercan, Vladimir, schloss 1975 im slowenischen Rijeka sein Studium der Werkzeugmechanik ab, machte zwei Jahre später seinen Magister in Ljubljana, promovierte dort weitere zwei Jahre darauf und wurde 1982 Chef der Firma œDM€NmOKHmHDH< Sein Fachgebiet KmOq die Wasserkraft und Turbinen. 1982-2013 wurde er Executive Manager der Firma œDM€NmOKHmHDH in Ljubljana, seither ist er Managing Director der Firma ¼1tPQpRr, ebenfalls Ljubljana. King, Gary, Professor der Harvard University, Direktor des Instituts für Quantitative Sozialwissenschaften. Kling, Marc-Uwe (*1982), Liedermacher, Kabarettist, Kleinkünstler und Autor, errang zahlreriche Kabarettpreise. Klingel, Robert, gründete 1920 in Pforzheim einen Vertrieb für Stoffe und 1926 einen Versandhandel vor allem für Pforzheimer Uhren und Schmuck. König, Helmut, Fertigungsleiter der Audi AG, Ingolstadt. Kosinski, Michal, polnischer Psychologe und Datenwissenschaftler, Assistant Professor an der Stanford Graduate School of Business, zuvor Deputy Director des University of Cambridge Psychometrics Centre, entwickelte als Cambridge-Doktorand eine Methode, eine Person mit Facebook-likes einzuschätzen. Kratsch, Dr. Christina, Leiterin der Comma Soft AG, eines Consulting-Unternehmens in den Bereichen Business-Strategie, IT und Data Science, Technologie und Operations. Kurz, Constanze (*1974), Informatikerin, Sachbuchautorin, Sprecherin Chaos Computer Club. Kurzweil, Ray (*1948), US-amerikanischer Autor, Erfinder, Futurist und Director of EngineePing bei Google. Langenfeld, Klaus, Aufsichtsrat des gemessen am Datendurchsatz weltweit größten Internet-Knotens DE-CIX in Frankfurt/ M. Leetaru, Kalev Hannes, US-Internet-Pionier in Washington, D.C., gründete 1995 noch als Schüler seine erste webbasierte Firma, einer der Pioniere der dot.com-Ära, Senior Fellow der George Washington Universität, ehem. Yahoo! Fellow der Georgetown Universität. 31ï ×Cf»Cgi ª|DiC? Aigd? <iA 313 Leibniz, Gottfried Wilhelm (1646-1716), Philosoph, Mathematiker, Diplomat, Historiker und politischer Berater der frühen Aufklärung, ein universaler Geist. Lesch, Harald (*1960), Astrophysiker, Naturphilosoph, Wissenschaftsjournalist, Fernsehmoderator und Hochschullehrer am Institut für Astronomie und Astrophysik der Universität München. Leutheusser-Schnarrenberger, Sabine, (*1951), von 1992 bis 1996 sowie von 2009 bis 2013 Bundesministerin der Justiz, seither europapolitische Sprecherin der FDP-Bundestagsfraktion. Lindinger, Christoph, leitet den Bereich Forschung und Innovation im Ars Electronica Futurelab, neben Beratungstätigkeiten für die Industrie und Regierungseinrichtungen Lehrbeauftragter an verschiedenen Universitäten. Lobo, Sascha (*1975), Blogger, Buchautor, Journalist und Werbetexter, gilt in deutschen Massenmedien als „Klassensprecher für das Web 2.0“. Lohr, Steve, schreibt seit über 20 Jahren für die New York Times über Technologie und Wirtschaft, gewann 2013 zusammen mit Berufskollegen den Pulitzer-Preis für Explanatory Reporting. Lorenzo, Giovanni di (*1959), italienisch-deutscher Journalist und Autor, Chefredakteur der Wochenzeitung Die Zeit. Lukas, Prof. Dr. Wolf-Dieter, Leiter der Abteilung Schlüsseltechnologien / Forschung für Innovationen des Bundesministeriumns für Bildung und Forschung, Berlin. Luo, Yin, stellvertretender Chef der Wall Street-Firma Wolfe Research, New York. Lutoslawski, Witold (1913-1994), polnischer Komponist und Dirigent. Machlup, Fritz (1902-1982), einer der ersten Nationalökonomen, die die Bedeutung von Wissen als wirtschaftliche Ressource theoretisch beschrieben. Mainzer, Klaus (*1947), arbeitet als Wissenschaftsphilosoph über Grundlagen und Zukunftsperspektiven von Wissenschaft und Technik, besonders über mathematische Grundlagen und Computermodellierung von Wissenschaft und Technik. Markl, Prof. Dr. Volker, Direktor des Berlin Big Data Center, leitet das Fachgebiet Datenbanksysteme und Informationsmanagement an der TU Berlin und die Forschungsgruppe Intelligente Analyse von Massendaten am Deutschen Forschungszentrum für künstliche Intelligenz (DFKI), ist u.a. Sprecher des „Data Analytics und Cloud Lab“ der TU Berlin. Martin, Hugh, 2012-2016 Chairman und CEO von Sensity Systems, Execuitve Vice President IoT Platforms & SCV Strategy von Verizon. Masala, Carlo (*1958), Politikwissenschaftler, promovierte in Köln über deutschitalienische Beziehungen, seit 2007 Professor für internationale Potitik an der Hochschule der Bundeswehr München-Neubiberg, ermittelt dort Langfristperspektivden für politische und militärische Krisenprävention. Mauchly, John Willim (1907-1980), amerikanischer Physiker und Computer-Ingenieur, entwickelte mit John Presper Eckert den Computer ENIAC, war am Entwurf des UNI- VAC I beteiligt. McCarthy, John (1927-2011), US-amerikanischer Logiker, Informatiker und Autor, erfand die Programmiersprache LISP. McLuhan, Marshall (1911-1980), kanadischer Philosoph, Geisteswissenschaftler, Professor für englische Literatur, Literaturkritiker, Rhetoriker und Kommunikationstheoretiker. McLuhans Werk gilt als ein Grundstein der Medientheorie. Metcalfe, Robert Melancton (*1946), vernetzte im Xerox Palo Alto Research Center Firmenrechner miteinander und entwickelte auf der Basis des funkbasierten Computernetzwerks ALOHAnet 1973 zusammen mit David Boggs eine kabelgebundene Netzwerktechnologie. 314 ×Cf»Cgi Mey, Richard (1844-1093), Unternehmer in Paris und Leipzig, 1886 erste deutscher Versandhändler. Mielchen, Daniela, Fachanwältin für Verkehrsrecht in Hamburg. Minsky, Marvin (1927-2016), begründete 1956 auf der Dartmouth Conference den Begriff der künstlichen Intelligenz und später mit Seymour Papert das Labor für Künstliche Intelligenz am Massachusetts Institute of Technology. Mogenet, Emmanuele, Europa-Entwicklungschef des Google-Zentrums Zürich, des größten Entwicklungsstandorts der Firma außerhalb Amerikas. Moglen, Eben (*1959), Rechtsprofessor an der Columbia University, Chefsyndikus der Free Software Foundation sowie Gründer und Vorsitzender des 2005 gegründeten Software Freedom Law Center. Moik, Karl (1938-2015), österreichischer Fernsehmoderator und Entertainer. Moldoveanu, Daniel, Gesellschafter der Prisma Analytics GmbH, zuvor Chef der nach der Auflösung des rumänischen Geheimdienstes Securitate1990 neu gegründeten, demokratisch geführten Nachfolgeorganisation Serviciul român de informaÿii; einer ihrer ersten Kunden war die neu gegründete Schloer Consulting Group. Monaco, Giancarlo del (*1943), Sohn des Operntenors Mario del Monaco, italienischer Opernregisseur, seit 2009 künstlerischer Leiter des Opernfestivals in Teneriffa. Monaco, Mario del (1915-1982), in den 1950er Jahren einer der bekanntesten Tenöre, galt zusammen mit Renata Tebaldi als Opern-Traumpaar. Moore, Gordon E. (*1929), Erfinder des integrierten Schaltkreises und Mitbegründer des Unternehmens Intel. Moorstedt, Tobias (*1977), Journalist und Autor, gehörte einige Zeit zu Obamas Wahlkampfteam. More, Max, Chef einer Firma für Einfrieren von Leben und des Extropy Instituts. Muratova, Kira Heorhijiwna (*1934), ukrainischeRegisseurin, eine der bekanntesten, aber auch umstrittensten Filmschaffenden des sowjetisch-russischen Films. Musk, Elon (*1971), global aktiver Unternehmer und Investor mit südafrikanischem, kanadischem und US-Pass, Gründer, CEO and CTO von SpaceX, Mitgründer, CEO and Produktionschef von Tesla, Gründer und CEO von Neuralink, Mitgründer und früherer Chairman von SolarCity, Co-Chairman von OpenAI sowie Mitgründer von Confinity, heute bekannt als PayPal. Nadella, Satya (*1967), seit 2014 als Nachfolger von Steve BallmerCEO von Microsoft. Nagel, Prof. Dr. Wolfgang E., Direktor des Competence Center for Scalable Data Services der Technischen Universität Dresden. Nannini, Gianna (*1954), italienischeSongschreiberin und Rocksängerin. Nass, Clifford (1958.2013), Professor für Kommunication an der Stanford University, Miterfinder der Media Equation Theorie und Experte für Mensch-Maschine-Themen. Neckermann, Josef (1012-1992), Versandkaufmann (Neckermann Versand), Dressurreiter. Neumann, John von (1903-1957), geboren als János Lajos Neumann von Margitta, leistete bedeutende Beiträge zur mathematischen Logik, Funktionalanalyse, Quantenmechanik und Spieltheorie und gilt als einer der Väter der Informatik. Newell, Allen (1927-1992), US-amerikanischerInformatiker und Kognitionspsychologe, einer der Väter der künstlichen Intelligenz und der Kognitionswissenschaft. Newton, Isaac (1643-1727), englischer Naturforscher, Verwaltungsbeamter und Philosoph, gilt mit seinem Werk Principia Mathematica als einer der bedeutendsten Wissenschaftler aller Zeiten. ª|DiC? Aigd? <iA 315 Nimführ, Wolfgang, Business Development Executive der IBM Analytics Group. Noelle-Neumann, Elisabeth (1916-2010), Gründerin des deutschen Instituts für Demoskopie. Notz, Konstantin von (*1971, Jurist und Politiker, seit 2009 Mitglied des Deutschen Bundestags, dort u.a. Mitglied des Geheimdienste-Untersuchungsausschusses. Obama, Barack (*1961), 2009 bis 2017 der 44. Präsident der Vereinigten Staaten von Amerika. Odewald, Jens (*1940), unter anderem Aufsichtsratsvorsitzender der Tchibo Holding AG und Vorstandsvorsitzender der Kaufhof AG, gründete 1996 das Beteiligungsunternehmens Odewald & Cie. Olson, Mike, Mitgründer und CSO der Münchner Datenverarbeitungsfirma Cloudera. Orwell, George (1903-1950), englischer Schriftsteller („1984“), Essayist und Journalist. Page, Lawrence „Larry“ Edward (*1973), US-amerikanischerInformatiker und Unternehmer, seit 2015 CEO von Alphabet Inc. Pandolfi, Marc, Absolvent der PACE University im Fach Wirtschaft, Berufspraxis u.a. als Vice President der S&P Capital IQ, einige Zeit Manager bei Thomson Reuters, später Regional Vice President Vertrieb von QuantHouse, bevor diese Firma 2012 an Standard & Poors verkauft wurde, dann Leiter der RavenPack-Büros in London und in New York, 2015-2017 Global Director of Sales & Marketing der RavenPack International SL, seither Proposition Manager Enterprise Platform Services bei Thomson Reuters. Papier, Hans-Jürgen (*1943), 2002-2010 Präsident des Bundesverfassungsgerichts. Patil, Deepak, 2014-2015 General Manager der Microsoft Cloud Infrastructure, seither Vice President Development von Oracle. Phil ~ Gagner Pichai, Sundar (*1972), CEO von Google Inc. Pilar, Jiri, Legal and Policy Officer der EU-Kommssion für Data Policy and Innovation. Poetzsch, Sebastian COO der Prisma Analytics GmbH, studierte General Management an der European Business School (EBS), Oestrich-Winkel, und an der Thunderbird School of Global Management in Glendale, Arizona. Berufliche Erfahrung sammelte er im Management Consulting, der Finanz- und der Immobilienbranche unter anderem bei Accenture Strategy, bei Deloitte Consulting und im Bankenwesen. Pollert, Heiner (*1959), promovierter Jurist, gründete als Theater-, Opern- und Filmproduzent in den frühen 1980er Jahren die Prima-Film, die in der Perestroika mit den sowjetischen Filmstudios Odessa fusionierte, gründete dann in München die Patentpool GmbH zur Vermarktung von Patenten, deren CEO er ist, aus dieser Gesellschaft heraus die Big Data-basierte Finanzberatungsgesellschaft RavenPack und 2016 die Prisma Analytivs GmbH, deren CEO er ebenfalls ist; dies ist eine ebenfalls Big Data-basierte Beratungsgesellschaft für Firmen und andere Organisationen, die auf der Grundlage eines digitalen Prisma Analytics Weltmodells die Entscheider-Software Prisma Decision Point erarbeitete und einsetzt. Seit 2009 ist er außerdem 1. Vorsitzender des Deutschen Instituts für Erfindungswesen. Pols, Alex, Geschäftsführer der Bitkom Research GmbH. Poon, Hoifong, seit 2011 Microsoft-Informatik-Grundlagenforscher, Leiter des Projekts Hanover, das künstliche Intelligenz in der Präzisionsmedizin einsetzbar machen soll. Priestley, Joseph (1733-1804), englisch-US-amerikanischer Theologe des Unitarismus, Philosoph, Chemiker und Physiker. Profalla, Ronald (*1959), war stellvertretender Vorsitzender der CDU/ CSU-Bundestagsfraktion und Generalsekretär der CDU sowie von 2009 bis 2013 Bundesminister für besondere Aufgaben und Chef des Bundeskanzleramtes; seit 2015 ist er Mitglied des Vorstandes der Deutschen Bahn. 316 ×Cf»Cgi Ramakrishnan, Venkatraman „Venki“ (*1952), indisch-britisch-amerikanischer Ribosomenforscher und Strukturbiologe, zudem seit dem 1. Dezember 2015 Präsident der Royal Society. Rankl, Andreas, erster Wirt der Münchner Gaststätte Fraunhofer. Reger, Joseph, habilitiert 1992 in theoretischer Physik an der Universität Mainz, seit 2014 Chief Technology Officer EMEIA und Executive Vice President von Fujitsu, zuvor seit 2013 CTO International Business des Unternehmens. Renn, Ortwin, der Direktor des Potsdamer Instituts for Advanced Sustainability Studies. Reuter, Paul Julius Freiherr von (1816-1899), geboren als Israel Beer Josaphat, Bankkaufmann, übernahm eine 1849 in seiner Heimatstadt Aachen gegründete Nachrichtenagentur, die seit 1851, nach Reuters Emigration, britisch wurde; dieses Unternehmen transportierte Börsendaten, bis zur Erfindung des Telegraphen mit Brieftauben, von Aachen nach London, belieferte später auch Fernsehsender mit Finanzinformationen und Nachrichten zum aktuellen Weltgeschehen, verbreitete auf eigenen Satelliten-Kanälen Material zur Politik, zum Sport und zur Unterhaltung und betrieb 1994-2002 Reuters Financial Television in London, Tokio und New York. Rheinberger, Hans-Jörg (*1946), Liechtensteiner Wissenschaftshistoriker, von 1997 bis 2014 Direktor des Max-Planck-Instituts für Wissenschaftsgeschichte in Berlin. Ricardo, David (1772-1823), britischer Wirtschaftswissenschaftler, führender Vertreter der klassischen Nationalökonomie. Ronfeldt, David, wissenschaftlicher Autor der Rand-Corporation. Rosenberg, Jonathan (*1961), seit 2002 Senior Vice President of Products bei Google und Berater von deren Muttergesellschaft Alphabet Inc. Rusnak, Joseph (*1958), deutscherFilmregisseur und Drehbuchautor. Ruß-Mohl, Stepan (*1950), seit 2002 Professor für Kommunikationswissenschaft an der Universität Lugano, außerdem Leiter des Europäischen Journalismus-Observatoriums, das Trends in der Medienbranche beobachtet und Journalismusforschung betreibt. Sandhorn, Thomas, Professor für Computerwissenschaft an der Carnegie Mellon University. Say, Jean Baptiste (1767-1832), französischerÖkonom und Geschäftsmann, Vertreter der klassischen Nationalökonomie, bekannt geworden besonders durch das Saysche Theorem. Schäuble, Wolfgang (*1942), gehörte 1984-1991 sowie 2005-2017 unter anderem als Bundesminister des Inneren und als Bundesminister der Finanzender Bundesregierung an, seit 2017 Präsident des Deutschen Bundestages. Schaurecker, Cornelia, 2013-2017 Mitgründerin und Direktorin des VW Data Lab, seither Vice President EMEA Group IT der BMW Group. Schindler, Gerhard (*1952), 2012-2016 Präsident des Bundesnachrichtendienstes. Schirrmacher, Frank (1959-2014), Journalist, Essayist, Buchautor und von 1994 bis zu seinem Tod Mitherausgeber der Frankfurter Allgemeinen Zeitung. Schloer, Hardy, in Deutschland als Frank Otto Schlör geboren, wanderte mit 18 Jahren in die USA aus, studierte klinische und Sozialpsychologie und bildete sich zum IT-Spezialisten aus, wurde freier IT-Berater, meldete erfolgreich Quantum-Relations-Patente an, war Mitgründer und CEO der Big Data-basierten Finanzberatung RavenPack, danach CEO seiner Schloer Consulting Group und 2016 COO der ebenfalls auf Big Data-Analysen fußenden Beratungsfirma Prisma Analytics GmbH. Schmidt, Eric (*1955), von 2011 bis 2015 Executive Chairman von Google, zuvordort Chief Executive Officer, seither Executive Chairman der Alphabet Inc. Schmidt, Helmut (1918-2015), von 1974 bis 1982 deutscher Regierungschef der sozialliberalen Koalition und nach dem Rücktritt Willy Brandts der fünfte deutsche Bundeskanzler. ª|DiC? Aigd? <iA 317 Schmidt, Dr. Holger, langjähriger Wirtschaftsjournalist für FAZ und Focus Magazin, Kolumnist beim Handelsblatt und Ko-Autor des Buches „Deutschland 4.0“ und Lehrbeauftragter an der TU Darmstadt. Schmid, Josef (*1969), 2.Bürgermeister der Stadt München. Schmölz, Joanna, wissenschaftliche Leiterin des 2011 von der Deutschen Post gegründeten Deutschen Instituts für Vertrauen und Sicherheit im Internet Schöpflin, Wilhelm (1881-1952), gründete 1929 in Lörrach einen Versandhandel. Schulz, Martin (*1955), von 1994 bis 2017 Mitglied des Europäischen Parlaments und von 2012 bis 2017 dessen Präsident, 2017 Kanzlerkandidat und SPD-Vorsitzender. Schwab, Friedrich, gründete 1954 in Hanau einen Vertrieb für Textilien, nahm 1955 den Versandhandel auf und verschickte 1970 Kataloge mit über 1000 Seiten. Searle, John Rogers (*1932), Professor für Philosophie an der University of California, Berkeley, Hauptarbeitsgebiete sind die Sprachphilosophie, die Philosophie des Geistes, Sozialontologie sowie Teile der Metaphysik. Searls, Doc (*1947), veröffentlichte 1999 zusammen mit Rick Levine, Christopher Locke und David Weinberger das Cluetrain Manifesto, eine Martin Luthers 95 Reformationsthesen nachempfundene Verteidigung des freien Internets gegen dessen Kommerzialisierungstendenzen in ebenfalls 95 Thesen. Das gleichnamige Buch von 2000 wurde ein Bestseller und in mehr als 5000 anderen Büchern zitiert. Sears, Richard Warren (1863-1914), begründete 1888 in den USA den Versandhandel. Silcox, Kathie, studierte Anthropologie an der Universität James Madison in Madrid, leitete danach Informationsanalysen von RavenPack International SL, realisierte dort Projekte für alternative Gesundheitsdienste, Finanzmärkte, das Nachrichtenwesen und zur Erforschung menschlichen Verhaltens, schrieb als Chefin und Hauptautorin des New Yorker Magazins FitEngine und für andere Fitness- und Gesundheitsmagazine weltweit, erforscht, berät, publiziert, lehrt und redet in der Öffentlichkeit über das alternative Gesundheitswesen, die östliche Philosophie und nachhaltige Technologien, steuert parallel globale Projekte der Gesundheitserziehung und assistierte einem der führenden Lehrer für Yoga und Meditation. Simon, Herbert (1916-2001), US-Sozialwissenschaftler, erhielt 1978 den Wirtschaftsnobelpreis für die Erforschung der Entscheidungsprozesse in Wirtschaftsorganisationen. Simon, Joe, Executive Vice President / Chief Technology Officer des Verlagshauses Condé Nast. Smith, Adam (1723-1790), schottischer Moralphilosoph und Aufklärer, gilt als Begründer der klassischen Nationalökonomie. Snowden, Edward (*1983), ehemaliger CIA-Mitarbeiter, US-amerikanischer whistle blower, deckte die NSA-Ausspähungspraxis auf, lebt wegen des Risikos, in den USA wegen Geheimnisverrats verurteilt zu werden, in Russland. Spariosu, Mihai, promovierte in Stanford, vielsprachiger Forschungsprofessor am Comparative Literature Department und Dekan der University of Georgia, unterrichtete an vielen renommierten Universitäten rund um die Welt, schuf das Studienfeld interkulturelles Wissensmanagement, war Präsident der Internationalen Stiftung für globale Studien seiner Universität und Mitgründer des Instituts für europäische Studien und der internationalen Schule für die Theorie der Humanwissenschaften in Santiago de Compostela / Spanien, leitet derzeit die Entwicklung von Zentren globalen Lernens in verschiedenen Ländern und Regionen der Welt. Stampfl, Nora, früher in Österreich unterrichtende Dozentin, führt inzwischen in Berlin ein Büro für Zukunftsfragen. Stehr, Nico (*1942), Kulturwissenschaftler, Soziologe und Inhaber des Karl-Mannheim- Lehrstuhls für Kulturwissenschaften an der Zeppelin Universität in Friedrichshafen. 318 ×Cf»Cgi Strittmatter, Kai (*1965), Korrespondent der Süddeutschen Zeitung in der Volksrepublik China. Stukenbrok, August (1867-1930), gründete 1888 in Einbek einen Versandhandel für Fahrräder. Tamura, Hirotaka, Fellow bei Fujitsu Ltd. Kawasaki, Japan, entwickelt eine quantenmechanisch inspirierte Computertechnik namens DA, digital anea. Tettenborn, Dr. Alexander, Leiter des Referats Entwicklung digitaler Technologien im Bundesministerium für Wirtschaft und Energie, Berlin. Thiel, Peter Andreas (*1967),US-amerikanischerInvestordeutscher Herkunft, Partner des Founders Fund in San Francisco und Präsident des HedgefondsClarium Capital in New York, gründete gemeinsam mit Max Levchin und Elon Musk den Online-Bezahldienst Paypal. Thomson, Roy (1894-1976), startete 1934 eine kanadische Zeitung, entwickelte in einer Generation einen globalen Medienkonzern, dem auch mehrere britische Zeitungen gehörten, darunter die Sunday Times und der Scotsman sowie das schottische Fernsehen, übernahm in den 1960er Jahren auch die Londoner Times, gründete zusätzlich ein Reiseunternehmen und übernahm die Fluggesellschaft Britannia Airways. Ende der 1970er Jahre lag allein die Auflage der Blätter, die in den USA zu Thomson gehörten, bei über einer Million. Tischer, Michael, Jurist mit langer Erfahrung im Vertragswesen, im Familienrecht und im Versicherungsrecht, von 1999 bis 2009 Aufsichtsratsvorsitzender der RavenPack AG, jetzt CFO der Patenpool Group und zuständig für das Finanzwesen von Prisma Analytics. Tocqueville, Alexis Clérel Graf de (1805-1859), französischerPublizist, Politiker und Historiker, gilt als Begründer der vergleichenden Politikwissenschaft. Touraine, Alain (*1925), französischer Soziologe mit Arbeitsschwerpunkten in der Arbeits- und Entwicklungssoziologie. Treffler, Heinrich, im 19. Jhd. Wirt der Münchner Gaststätten Thomasbräukeller und Fraunhofer. Tresp, Volker, Siemens-Manager und Professor an der Ludwig-Maximilians-Universität München, leitet das Smart-Data-Projekt KDI - Klinische Datenintelligenz. Trump, Donald (*1946), 45.Präsident der USA und ehemaliger Unternehmer. Turing, Alan Mathison (1912-1954), britischerLogiker, Mathematiker, Kryptoanalytiker und Informatiker, einer der einflussreichsten Theoretiker der frühen Computerentwicklung und Informatik. Turkle, Sherry, Psychologin, Gründerin und Direktorin MIT Initiative on Technology and Self. Tuszynsky, Marek, 2003 Mitgründer und seither Direktor des NGO Tactical Technology Collective. Tyler, John Tim, ausgebildet in Yale und am nationalen Sicherheitsseminar in Harvard, wirkte an einer task force des Weißen Hauses mit, beriet das US-Büro für Management und Budget sowie den Wirtschaftsbeirat und den US-Kongress, vertrat die USA in einem NATO Komitee, verkaufte US-Waffensysteme an das Ausland, darunter AWACS-Flugzeuge an Großbritannien und Frankreich und elektronische Ausrüstung aus der früheren Sowjetunion an afrikanische Staaten, verhandelte die gemeinsame Entwicklung von Kampfflugzeugen der USA mit Japan und Korea, steuerte zivile Projekte als Mitgründer der Firma Beetect, die mit Algorithmen und Techniken der Eigentumserkennung Honigbienen zur Ortung von Explosivstoffen einsetzt, und von Pareto Energy, die Mikrogitter für hochgenaue grüne Elektrizität entwickelte, war Beirat von Noxilizer und RavenPack. Uhrlau, Ernst (*1946),von 2005 bis 2011 Präsident des Bundesnachrichtendienstes. ª|DiC? Aigd? <iA 319 Varian, Hal (*1947), US-amerikanischer Wirtschaftswissenschaftler, seit 2007 Chefökonom beiGoogle Inc., seit 2009 Chefvolkswirt von Google. Wagner, Dominik, gründete 2011 die Kreativagentur „Eichmeister“, betreute dort Projekte für Infineon, die EU und namhafte Blockchain-Anwendungen betreut hat, verantwortet bei Prisma Analytics die Markenpflege, Design, Werbe- und Kommunikationsmittel. Walia, Hardeep, 2010 Gründer und seither Inhaber der US-Firma motifinvesting. Ward, Aaron M. (1844-1939); gründete 1872 in Chicago den Versandhandel Montgomery Ward& Company. Wayne, Ronald (*1934), neben Steve Jobs und Steve Wozniakder in Vergessenheit geratene dritte Gründer von Apple, zeichnete das erste Apple-Logo und schrieb das Benutzerhandbuch für den Apple Isowie den ersten Gesellschaftervertrag der Apple-Gründer. Weber, Prof. Dr. Beatrix, Leiterin der Forschungsgruppe Recht in Nachhaltigkeit, Compliance und IT im Institut für Informationssysteme der Hochschule für Angewandte Wissenschaften Hof. Weber, Mathias, Bitkom-Bereichsleiter IT-Services. Weber, Thomas (*1954), ehemaliges Vorstandsmitglied der Daimler AG, war 2004-2016 für die Konzernforschung und die Entwicklung von Mercedes-Benz Cars verantwortlich. Weinhardt, Prof. Dr. Christof, Professor des Instituts für Informationswirtschaft und Marketing am Karlsruher Institut für Technologie (KIT), leitet dort die Gruppe Information and Market Engineering; 2012 - 2014 Dekan an der Fakultät Wirtschaftswissenschaften am KIT, außerdem Gründer und Direktor des Karlsruher Research Instituts (KSRI) und Direktor des Forschungszentrums Informatik (FZI). Weizenbaum, Joseph (1923-2008), deutsch-amerikanischerInformatiker, Wissenschafts- und Gesellschaftskritiker, veröffentlichte 1966 das Computer-Programm ELIZA. Wenz, Versandhaus, 1926 in Pforzheim gegründet, gehörte neben Quelle und Neckermann zu den größten Versandhändlern in Deutschland. Werner, Rolf, seit 2916 Head of Fujitsu Central Europe und Vorsitzender der Geschäftsführung von Fujitsu Technology Solutions Germany, zuvor seit 2013 Managing Director der T- Systems Multimedia Solutions GmbH. Wienands, Konrad, Arzt in Estepona/ Spanien, promovierte in Aachen über Krebszellen, bildete dazu ihr Wachstum im Computer nach, mit langjähriger Erfahrung aus Kliniken und als niedergelassener Arzt, restrukturierte große Klinikverbünde, integrierte technische Prozesse in die medizinische Praxis, leistete Pionierarbeit bei der Integration bildgebender Verfahren in die Medizin, vor allem in der Magnetresonanzbildgebung und in der Rheumatologie. Wiener, Norbert (1894-1964), US-amerikanischer Mathematiker, prägte in seinem Werk Cybernetics or Control and Communication in the Animal and the Machine (1948) das Wort Kybernetik. Wiesner, Jens, 2013-2016 Referent im Bundesamt für Sicherheit in der Informationstechnik, seither dort Head of Section. Winterkorn, Martin (*1947), von 2007 2015 Vorstandsvorsitzender der Volkswagen AG, von 2009 bis 2015 Vorstandsvorsitzender der Porsche Automobil Holding SE und von 2007 bis 2015 Aufsichtsratsvorsitzender der Audi AG. Wilbanks, John, seit 2012 Chief Commons Officer bei Sage Bionetworks . Wozniak, Steve (*1950), US-Computeringenieur, war Mitglied des Homebrew Computer Clubs, eines „Schmelztiegels für eine ganze Branche“, aus dem zahlreiche Computerunternehmen hervorgegangen sind, u.a., Apple, das er mit Steve Jobs und Ron Wayne 1976 gründete. 320 ×Cf»Cgi Wrobel, Prof. Dr. Stefan, leitet das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS und ist Professor für Informatik an der Universität Bonn sowie seit 2014 zusätzlich einer der Direktoren des Bonn-Aachen International Center for Information Technology (b-it). Wurzer,Alexander, Center for Intellectual Property Studies der Universität Straßburg. Wynn, Steve (*1942), Eigentümer riesiger Hotels in LasVgas und Macao. Xuecun, Murong (*1974), eigentlich Hao Qun, chinesischer Systemkritiker, veröffentlicht vorwiegend online. Yongqing, Wang, bis 2017 Generalsekretär im Komitee für Politik und Recht in der kommunistischen Partei und „Korruptionsinspektor“ derVR China. Zeisel, Prof. Dr. Herbert, Leiter der Unterabteilung Schlüsseltechnologien für Wachstum des Bundesministeriunms für Bildung und Forschung, Berlin. Zhi Qing, Shao, Wirtschafts- und Informationskommission derVR China. Ziegler, Andreas, studierte an der RWTH Aachen Maschinenbau und spezialisierte sich auf Datenmanagement und auf Lösungen für die Beschaffung, Speicherung und Verarbeitung von Daten im großen Stil, war danach in Beratungsfirmen sowie globalen Anbietern von IT-Lösungen tätig, entwickelte DV-Programme für Autokonzerne (Audi, VW) und den Finanzsektor (Allianz, LBS), leitete zahlreiche globale Technologieteams, versteht sich als unternehmerisch denkender Kopf für technische Zusammenhänge in wirtschaftlichen Führungsaufgaben. Ziercke, Jörg (*1947), von 2004 bis November 2014 Präsident des deutschen Bundeskriminalamts. Zuboff, Shosana (*1951), amerikanische Wirtschaftswissenschaftlerin und emeritierte Professorin für Betriebswirtschaftslehre an der Harvard Business School. Zuckerberg, Mark (*1984), Gründer und Vorstandsvorsitzender des Unternehmens Facebook Inc., hält an diesem einen Anteil von 28 Prozent. Zuse, Konrad (1910-1995), erfand den ersten frei programmierbaren Rechner in binärer Sc ha l ttechni k und Gleitp unktr echnu ng u nd dam it d en ersten funktio nsfä hi gen Digita lrechner. —igd? <iA jiA ¹dADiC 8Cj ·C? <d<8<dBCiC 321 RReeggiisstteerr ddeerr FFiirrmme enn uunndd IInnssttiittuuttiioonneenn Die Seitenzahlen nennt das Stichwortregister ABB ein Energie- und Automatisierungstechnikkonzern mit Hauptsitz in Zürich, entstanden 1988 aus der Fusion der schwedischen ASEA und der schweizerischen BBC. Accenture einer der weltweit größten Managementberatungs-, Technologie- und Outsourcing-Dienstleister mit etwa 425.000 Mitarbeitern; Firmensitz ist Dublin. AirBerlin 1978 gegründete deutsche Fluggesellschaft, wurde im Herbst 2017 insolvent, als Etihad Airways den Ausgleich von Betriebsverlusten einstellte. Alibaba Group mit rund 50.000 Mitarbeitern die größte IT-Firmengruppe Chinas, betreibt u. a. die gleichnamige B2B-Plattform sowie das Online-Auktionshaus Taobao. Alipay das Online-Bezahlsystem der pAlibaba Group, weltweit größte Payment- und Lifestyle-Plattform mit über 520 Millionen Nutzern und mehr als 50 % Marktanteil im Online-Geschäft. Alliance News eine 2013 gegründete Firma, die für vorwiegend britische Investoren Nachrichten über Firmen, Märkte und Volkswirtschaften ermittelt und aufbereitet. Amazon 1994 gegründetes US-amerikanisches börsennotiertes Online-Versandhandelshaus mit breit gefächerter Produktpalette, Marktführer des Handels im Internet mit der weltweit größten Auswahl an Büchern, CDs und Videos. AOL 1985 gegründeter US-amerikanischer Medienkonzern in New York City, im Jahr 2000 mit 30 Millionen zahlenden Mitgliedern der größte Internetdienstanbieter weltweit, seit 2015 unter dem Dach von Verizon und dort 2017 mit Yahoo zu Oath fusioniert. Apache Foundation eine ehrenamtlich arbeitende Organisation zur Förderung der Apache-Softwareprojekte, zu denen unter anderem der Apache-Webserver gehört. Apple 1976 gegründetes, börsennotiertes US- Technologieunternehmen für Computer, Smartphones und Unterhaltungselektronik, Betriebssysteme und Anwendungssoftware. Arthur Andersen 1913 gegründet, war eine der Big-Five-Prüfungsgesellschaften in Chicago mit Dienstleistungen in den Bereichen Wirtschaftsprüfung, Steuerberatung und Unternehmensberatung, aufgelöst 2002. Audi 1910 in Zwickau gegründeter deutscher Automobilhersteller, heute ein Teil des Volkswagen-Konzerns mit Firmensitz in Ingolstadt und 88.000 Mitarbeitern. Acxicom 1996 gegründetes US-amerikanisches Unternehmen für computerbasierte Gesundheitssysteme mit Sitz in Frederick, Maryland. Baidu im Jahr 2000 gegründetes chinesisches börsennotiertes Unternehmen für die gleichnamige Suchmaschine, betreibt mit ihr eine der fünf weltweit am häufigsten aufgerufenen Webseiten. BASF 1890 gegründeter deutscher Chemiekonzern und der nach Umsatz und Marktkapitalisierung weltweit größte Chemiekonzern mit 112.000 Mitarbeiter in mehr als 80 Ländern. Bayer 1916 gegründetes, heute ein divisional gegliedertes Unternehmen der chemischen und pharmazeutischen Industrie mit 307 Gesellschaften und insgesamt 115.000 Mitarbeitern. Benzinga News 2010 gegründetes US-amerikanisches Unternehmen zur Sammlung und Verwertung börsenrelevanter Informationen mit Sitz in Detroit. Berlin Big Data Center ein Zentrum für Grundlagen tiefgreifender Big Data-Analysen, entwickelt ein hoch-skalierbares Open-S ource-System für die Lösung von Datenanalyseproblemen mit Methoden des maschinellen Lernens, der linearen Algebra und der Statistik/ Wahrscheinlichkeitstheorie, bildet data scientists aus, versetzt Menschen in die 322 ×Cf»Cgi Lage, Smart Data zu nutzen und fördert die Fähigkeit der Allgemeinheit, aus Big Data korrekte Entscheidungen abzuleiten. Bitkom 1999 gegründeter Bundesverband Informationswirtschaft, Telekommunikation und neue Medien, Branchenverband der deutschen Informations- und Telekommunikationsbranche. Bloomberg News 1990 gegründete Nachrichten- und Bildagentur mit Hauptsitz in New York City, Tochtergesellschaft des im Jahre 1981 gegründetes Informationsdienstleistungs-, Nachrichten- und Medienunternehmens Bloomberg L.P. mit Hauptsitz in New York City. Blue Yonder 2008 gegründetes Data-Science- und Machine-Learning-Unternehmen mit Wurzeln in der Teilchenphysik am CERN, entwickelt Machine-Learning-Algorithmen. BMW 1916 als Flugmotorenhersteller gegründetes und später als Motorrad- und Automobil-Produzent fortgeführtes Unternehmen mit den Marken BMW, MINI und Rolls- Royce Motor Cars mit Hauptsitz in München. Boliden Garpenberg eine 1955 von der Zinkgruvor AB übernommene Mine des 1924 gegründeten Bergbauunternehmens Boliden im mittelschwedischen Ort Garpenberg. Bosch 1886 von Robert Bosch gegründeter deutscher, inzwischen multinationaler Konzern. Hauptanteilseigner der Robert Bosch GmbH ist die Robert-Bosch-Stiftung in Stuttgart. Cambridge Analytica ein wirtschaftlich und politisch tätiges Datenanalyse- und Meinungsbeeinflussungs-Unternehmen („We find your voters and move them to action“) in New York, Washington D.C. und London, eine Tochtergesellschaft der britischen SCL Group, beteiligte sich erstmals 2014 an 44 politischen Kampagnen in den USA sowie 2016 am Wahlkampf von Donald Trump und an der EU-Austrittskampagne Großbritanniens, dem Brexit. Cataphora US-Unternehmen aus Kalifornien, das für andere Firmen das Online-Verhalten von Mitarbeitern untersucht; es analysiert Telefonverbindungsdaten, Einträge in elektronischen Kalendern und vor allem gespeicherte E-Mails. Celonis 2011 in München geründete Firma für Prozessanalysen, 2015 das am schnellsten gewachsene deutsche Technologieunternehmen, optimiert mit Celonis Process Mining Firmenstrukturen. Charité ältestes Krankenhaus von Berlin, seit 1710, eine der größten Universitätskliniken Europas mit über 3000 Betten, bedeutende Lehr- und Forschungsstätte, seit 2003 mit den medizinischen Fakultäten von Humboldt- und Freier Universität Berlin. Cisco1994 entstandene US-amerikanische Ausgündung aus der Stanford University als Telekommunikations-Unternehmen für Router und Switches. Cloudera ein 2008 in Palo Alto / Kalifornien gegründeter Hersteller von Software im Umfeld von Apache Hadoop¸ seit 2016 auch mit einem deutschen Standort in München. Coca-Cola 1892 gegründetes Unternehmen für das gleichnamige Erfrischungsgetränk, dasweltweit in mehr als 200 Ländern auf allen Kontinenten vertrieben wird; täglich werden mehr als 1,9 Milliarden Getränke von Coca-Cola verkauft. Competence Center for Scalable Services (ScaDS) ein 2014 gestartetes, auf vier Jahre angelegtes Forschungsvorhaben auf dem Gebiet der Akquise, Handhabung und Verwertung großer Datenbestände der Technischen Universität Dresden, der Universität Leipzig, des Max-Planck-Instituts für molekulare Zellbiologie und Genetik und dem Leibnitz-Institut für ökologische Raumplanung. Comtrade Digital Services Software-Entwickler für ca. 200 Großkunden in aller Welt, Sitz in Dublin, Firmen in Sunnyvale/ Kalifornien, München und Standorten in zehn Länden. —igd? <iA jiA ¹dADiC 8Cj ·C? <d<8<dBCiC 323 Continental ein börsennotierter deutscher Konzern der Automobilzulieferbranche mit Sitz in Hannover und 220.000 Mitarbeitern an über 200 Standorten in 53 Ländern. Daimler-Benz börsennotierter deutscher Hersteller von Personenkraftwagen und Nutzfahrzeugen sowie Anbieter von Mobilitäts- und Finanzdienstleistungen, gegründet 1890 als Daimler-Motoren-Gesellschaft, bekannteste Marke ist Mercedes-Benz. Dell US-Hersteller von Computern und Speichersystemen in Round Rock / Texas. Deloitte 1845 gegründetes Unternehmen für Wirtschaftsprüfung, Steuerberatung, Corporate Finance und Consulting für Unternehmen und Institutionen aus allen Wirtschaftszweigen mit Sitz in London. Deutsche Bahn mit 300.000 Mitarbeitern, davon knapp 200.000 in Deutschland, der Betreiber des deutschen Schienennetzes und wichtigster Betreiber von Zügen; transportiert im Fernverkehr ca. 380.000 und im Regionalverkehr über fünf Millionen Menschen täglich und ist mit DB Cargo und DB Schenker ein weltweit führender Logistik-Dienstleister. Deutsche Bank 1870 gegründetes größtes deutsches Kreditinstitut mit Hauptsitz in Frankfurt/ Main mit rund 45.000 Mitarbeitern in Deutschland und ca. 15 Prozent Marktanteil am Privatkundengeschäft, wird seit 2011 in der Liste global systemrelevanter Banken geführt. Deutsche Post weltweit führender Anbieter für Logistik und Briefkommunikation mit mehr als 500.000 Mitarbeitern in über 220 Ländern und Territorien, bearbeitet in über 27.000 Verkaufsstellen in Deutschland pro Werktag 59 Mio. Brief- und 4,3 Mio. DHL- Paketsendungen. Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI) 1988 als gemeinnützige Public-Private Partnership (PPP) gegründet, mit Standorten in Kaiserslautern, Saarbrücken, Bremen, ein Projektbüro in Berlin und Außenstellen in Osnabrück und St. Wendel die führende wirtschaftsnahe deutsche Forschungseinrichtung auf dem Gebiet innovativer Softwaretechnologien mit Methoden der Künstlichen Intelligenz. Deutsche Telekom betreibt mit rund 218.000 Mitarbeitern weltweit in mehr als 50 Ländern 165 Millionen Mobilfunk-, 28,5 Millionen Festnetz- und 18,5 Millionen Breitband- Anschlüsse. Disney The Walt Disney Company ist ein US-amerikanischer Medienkonzern für die Produktion von Zeichentrickfilmen und Unterhaltungsfilmen für Kinder und Jugendliche. Dow Jones US- Verlagshaus, seit 2007 eine Tochtergesellschaft der News Corp., in Europa bekannt durch den Aktienindex Dow Jones Industrial Average, der mehrheitlich McGraw-Hill Financial gehört. Die Dow Jones Consumer Media Group gibt unter anderem das Wall Street Journal und die Far Eastern Economic Review sowie die wöchentlich digital und gedruckt erscheinenden Financial News heraus. Die Dow Jones Enterprise Media Group umfasst Dow Jones Newswires, Factiva, Dow Jones Client Solutions, Dow Jones Indexes und Dow Jones Financial Information Services. Die Dow Jones Local Media Group verlegt in den USA acht regionale Tages- und 14 regionale Wochenzeitungen und liefert Inhalte für CNBC und US-Radiostationen. Seit April 2017 gibt es außerdem eine über Google BigQuery und IBM Cloud for Financial Services zugängliche Dow JonesData, News and Analytics (DNA) Platform. DP World einer der global größten Hafenbetreiber mit Sitz in Dubai, unterhält in vielen Ländern 78 Terminals. Etwa 80 Prozent des DP World-Geschäfts stammen aus Containerhäfen mit einem Umschlag von jährlich weit über fünfzig Millionen TEU (twenty foot equivalent units, das Standardmaß eines ca. 6 x 2,4 x 2,6 Meter großen Containers). Draper Esprit ein nur 14 Personen, aber mehr als eine Milliarde Dollar starkes Venture Capital-Unternehmen, das jedes Jahr etwa 2500 Firmen analysiert und ggf. einen Firmenanteil von fünf bis ca. 25 Prozent erwirbt, um diesen fünf bis zehn Jahre zu halten. 324 ×Cf»Cgi Edeka ein 1898 gegründeter genossenschaftlich organisierter Unternehmensverbund im deutschen Einzelhandel, Muttergesellschaft des Discountfilialisten Netto. EMC US-amerikanischer Hersteller von Hardware und Software mit Unternehmenssitz in Hopkinton, Massachusetts, betrieb Niederlassungen in über 60 Ländern, 2016 von Dell übernommen; seitdem firmieren Dell und EMC unter dem Namen Dell Technologies. e-plus war ein deutscher Mobilfunkanbieter, gehörte von 2000 bis 2014 dem niederländischen KPN-Konzern, ist seither Teil der Telefónica Deutschland Holding. Eurowings deutsche Billigfluggesellschaft in Düsseldorf, eine Tochtergesellschaft der Lufthansa, bündelt seit 2015 das Flugangebot abseits von deren Drehkreuzen Frankfurt und München. Experton 2006 gegründete Beratungshaus für die digitale Transformation und Automation, 2016 vom US-Beratungs- und Marktforschungshaus Information Services Group übernommen. Facebook US-Konzern in Menlo Park, Kalifornien, Betreiber des sozialen Netzwerks Facebook, der Video- & Foto-Sharing-App Instagram und der Messenger-Plattform Whats- App. FactSet 1978 gegründetes US-Finanzdaten- und Softwareunternehmen in Norwalk / Connecticut, stellt Informationen und Analysewerkzeuge für Analysten, Portfoliomanager, Versicherungsunternehmen und Investmentbanker bereit und konkurriert mit Bloomberg L.P. und Thomson Reuters. Flughafen Stuttgart seit 1936 bestehender größter Flughafen in Baden-Württemberg, gemessen am Passagieraufkommen auf Platz acht der größten Flughäfen Deutschlands. Frankfurt University of Applied Sciences Die Hochsule Frankfurt verfügt seit 2017 über ein Institut für Data Driven Business (D2B) und über ein gleichnamiges Labor mit Pilotprojekten auf den Feldern Finanzen, Luftfahrt, Soziale Medien, Recht und Web 4.0. Fraunhofer Gesellschaft Derseit 2001 bestehende Fraunhofer-Verbund IUK-Technologie mit rund 4300 Mitarbeitern in 20 Mitgliedsinstituten ist mit einem Jahresbudget von ca. 275 Millionen Euro der größte europäische Anbieter angewandter Forschung in Informations- und Kommunikationstechnologien. Das Leistungszentrum Digitale Vernetzung der Freunhofer-Gesellschaft erforscht Basis- und Querschnittstechnologien für die vernetzte Industrie und Produktion, die vernetzte Mobilität und die Zukunftsstadt, die vernetzte Gesundheit und Medizin sowie vernetzte kritische Infrastrukturen und Energie. Fujitsu japanischer Technologiekonzern mit Produkten und Dienstleistungen in der Informationstechnologie, Telekommunikation, bei Halbleitern und Netzwerken. Das Tochterunternehmen Fujitsu Technology Solutions GmbH ging 2009 aus Fujitsu Siemens Computers hervor. Gallup führendes Markt- und Meinungsforschungsinstitut in Washington, D.C. Gartner 1979 in Stamford / Connecticut gegründetes Unternehmen für Marktforschung und Analysen über die Entwicklungen der IT. Gesellschaft für Informatik die größte deutsche Fachgesellschaft für Informatik vertritt seit 1969 rund 20.000 persönliche und 250 korporative Mitglieder in Wissenschaft, Wirtschaft, öffentlicher Verwaltung, Gesellschaft und Politik. Mit 14 Fachbereichen, 30 Regionalgruppen und unzähligen Fachgruppen ist die GI Plattform und Sprachrohr für alle Disziplinen in der Informatik. Goldman Sachs ein weltweit tätiges Investmentbanking- und Wertpapierhandelsunternehmen mit Sitz in New York City, tätig hauptsächlich als Finanzdienstleister für Großunternehmen und institutionelle Investoren. —igd? <iA jiA ¹dADiC 8Cj ·C? <d<8<dBCiC 325 Google ein 1998 gegründetes Unternehmen in der US-amerikanischen Rechtsform Limited Liability Company mit Hauptsitz im kalifornischen Mountain View im Eigentum der Muttergesellschaft Alphabet Inc., Betreiber der Suchmaschine Google, die weltweit etwa 79% aller Suchanfragen des Internets erhält. Grundig 1920 von Max Grundig gegründetes Versandhaus für Radio-Baukästen, nach 1945 ein führendes Versandhaus, Symbol des westdeutschen Wirtschaftswunders, versäumte den Wandel vom Katalogversender zum Online-Vermarkter, musste 2003 Insolvenz anmelden. Hadoop freies, in der Programmiersprache Java geschriebenes Framework für skalierbare, verteilt arbeitende Software. Haereus ein 1851 gegründetes Familienunternehmen, heute ein deutscher Technologiekonzern mit den Schwerpunkten Edel- und Sondermetalle, Medizintechnik, Quarzglas, Sensoren und Speziallichtquellen. Henkel ein weltweit aktiver deutscher Konzern für Klebstoff-Technologien, Schönheitsmittel sowie Wasch- und Reinigungsmittel mit Hauptsitz in Düsseldorf. Here ein 1985 gegründeter Online-Geodatendienst und ein Navigationsprogramm, ursprünglich von Nokia für Nokia-Smartphones entwickelt, steckt heute in 80 Prozent aller Navi-Systeme in europäischen und US-Automobilen. Hewlett-Packard einer der größten US-amerikanischen PC- und Druckerhersteller in Wilmington, Delaware und mit der Unternehmenszentrale in Palo Alto / Kalifornien. Humana Milchunion war eines der 20 größten milchverarbeitenden Unternehmen der Welt mit Hauptsitz in Everswinkel / Nordrhein-Westfalen, fusionierte 2011 mit der Nordmilch-Gruppe zum Deutschen Milchkontor. IBM International Business Machines Corporation ein US-amerikanisches IT- und Beratungsunternehmen in Armonk / US-Bundesstaat New York mit weltweit knapp 380.000 Mitarbeitern, davon 22.000 in Deutschland. IDC International Data Corporation ein international tätiges Marktforschungs- und Beratungsunternehmen auf dem Gebiet der Informationstechnologie und der Telekommunikation mit Niederlassungen in über 110 Ländern. IMS Health war ein börsennotiertes US-Unternehmen in Danbury, Connecticut in der Marktforschung; es beriet besonders Pharmazie- und Gesundheitsunternehmen, bis es in der Quintiles IMS Holdings Inc. Aufging. Industrial Data Space Association Anwenderverein in Dortmund für die industrielle Nutzung der Dastentechnik mit bisher 80 Migliedern, kooperiert eng mit dem gleichnamigen Fraunhofer-Forschungsprojekt zusammen. ]init[ 1995 in Berlin als weltweit operierender Full-Service-IT-Provider für Online-Kommunikation und IT-Dienstleistungen gegründet, heute im Bereich E-Government und E- Businesseine der umsatzstärksten Internetagenturen Deutschlands. Instagram ein kostenloser zur Facebook Inc. gehörender Online-Dienst zum Teilen von Fotos und Videos mit einer App für Windows 10, Windows 10 Mobile, Android und iOS. Integrated Circels ein Schweizer Unternehmen für Business Intelligence-Lösungen für Kunden in Zentraleuropa, dem Balkan und dem Nahen Osten mit Sitz im Fribourg und einem Zweigbüro in Bukarest / Rumänien. Intel US-Halbleiterhersteller in Santa Clara, Kalifornien, gegründet 1968 von Mitarbeitern der Firma Fairchild Semiconductor; die Europazentrale ist seit 1974 in München. Jaguar Land Rover größter verbliebener britischer Automobilherstellermit den Automarken Jaguar und Land Rover, heute eine Tochtergesellschaft der indischen Automobilfirma Tata Motors. 326 ×Cf»Cgi Kaiser‘s Tengelmann eine deutsche Supermarktkette, bis Ende 2016 zur Unternehmensgruppe Tengelmann gehörig, seit2017 Teil der Edeka-Gruppe. Kaufmarkt SB-Warenhaus-Märkte des Unternehmens Kaufland von 1995 bis 2010. KPMG als Teil eines globalen Netzwerks selbstständiger Firmen eines der führenden deutschen Wirtschaftsprüfungs- und Beratungsunternehmen mit 10.000 Mitarbeitern an über 20 Standorten. Lehman Brothers war eine US-amerikanische Investmentbank in New York, die am 15. September 2008 infolge der Finanzkrise Insolvenz beantragen musste. Im Jahr 2007 hatte die Bank weltweit noch 28.600 Angestellte. Macquarie Research eines der zehn größten Unternehmen für Börsenanalysen mit 250 Analysten and 20 Bürostandorten in aller Welt. MapReduce ein von Google Inc. eingeführtes Programmiermodell für nebenläufige Berechnungen über große Datenmengen auf Computerclustern in Form einer Software- Bibliothek. McKinsey 1926 in Chicago gegründete Unternehmens- und Strategieberatung mit über 10.000 Beratern in mehr als 50 Ländern; das Unternehmen gehört ca. 1.100 aktiven „Partnern“. MEDBase200 seit 1982 tätiges US-Unternehmen, liefert Adresslisten für das medizinische Marketing vorwiegend an die Pharmaindustrie. Mercedes-Benz wichtigste Marke des Unternehmens p Daimler-Benz. Metro börsennotierter Konzern von Großhandels- und Einzelhandelsunternehmen mit Hauptsitz in Düsseldorf und rund 150.000 Mitarbeitern. Microfocus 1976 in Großbritannien gegründetes internationales Software-Unternehmen mit Sitz in Newbury / Berkshire; seit der Übernahme des Softwarebereichs durch p Hewlett Packard Enterpriseeines der sieben größten Softwareunternehmen weltweit Microsoft der weltweit größte Software- und Hardwarehersteller mit etwa 114.000 Mitarbeitern und einem Umsatz von rund 85 Milliarden US-Dollar. Mindbreeze 2005 gegründetes österreichisches Unternehmen in Linz zum raschen Auffinden relevanter Informationen aus allen Unternehmens-Anwendungen sowie externer Datenquellen, eine Software-Produktlinie für Enterprise Search, Information Access und Digital Cognition. Mobileye ein 1999 gegründetes israelischesUnternehmen für Fahrerassistenzsysteme mit Sitz in Jerusalem, stattet unter anderem Fahrzeuge von BMW aus. Mumbadala Staatsfonds in Abu Dhabi mit breit gefächerten Investitionsportfolios für langfristige und kapitalintensive Anlagen mit starken Renditen, setzt sein Kapital im global vernetzten Energiebereich und in joint ventures weltweit, in der Luft- und Raumfahrt, in high tech-Unternehmen unterschiedlichster Art, in Immobilien, in Infrastrukturen, im Gesundheitswesen und in Dienstleistungen ein; 2017 mit der International Petroleum Investment Company zur Mumbadala Investment Company fusioniert. Neckermann 1950 in Franfurt/ Main.gegründetes Versandhandelshaus, in den 1970er Jahren an Karstadt verkauft, machte ab 1995 mit Online-Shop für 700.000 Mode-, Haushalts-, Spielzeug- und Technikartikelfast 80 Prozent des Firmenumsatzes, wurde aber 2012 insolvent; die Otto Group sicherte sich die Markenrechte und führt seit 2013 wieder einen Onlineshop neckermann.de. Netflix 1997 in Los Gatos/ Kalifornien gegründetes US-amerikanisches Unternehmen, das sich mit dem Verleih und der Produktion von Filmen und Serien beschäftigt, stieg 2007 ins Video-on-Demand-Geschäft ein und machte sie per Streaming weltweit über hundert Millionen Abonnenten zugänglich. —igd? <iA jiA ¹dADiC 8Cj ·C? <d<8<dBCiC 327 Open Whisper Systems 2013 gegründetes, spendenfinanziertes Software-Unternehmen für Signap-Protokolle, stellt alle seine Produkte als Open-Source-Software kostenfrei zur Verfügung. Oracle 1977 gegründeter US-amerikanischer Soft- und Hardware-Hersteller in Redwood City/ Silicon Valley, entwickelt und vermarktet Computer-Hardware und -Software für Unternehmenskunden; gemessen am Umsatz einer der weltweit größten Software-Hersteller mit über 135.000 Mitarbeitern und 420.000 Kunden in 195 Ländern. Otto Group ein deutscher Handels- und Dienstleistungskonzern mit Sitz in Hamburg mit weltweit mit rund 50.000 Mitarbeitern, im Schwerpunkt im Einzelhandel tätig. ParStream ein Kölner Unternehmen, das es ermöglichst, große Datenmengen am Rand des Netzwerks nahezu in Echtzeit zu verarbeiten und zu analysieren und die Infrastruktur und die Betriebskosten in der Peripherie des Netzwerks gering zu halten, 2015 von p Cisco übernommen. Patentpool erwirbt und vermarktet seit 1998 patentgeschützte innovative Unternehmensideen, unter ihnen das Patent für Quantum Relations, für dessen Vermarktung Patentpool die p Prisma Analytics GmbH gründete. Payback seit 2000 in Deutschland ein Bonussystem bzw. eine Kundenkarte der gleichnamigen Betreiberfirma, die in einer Vielzahl von Geschäften bei der Verwendung der Karte mittels Data-Mining das Kaufverhalten der Kartenbesitzer detailliert analysiert. Paypal ein börsennotierter Betreiber eines Online-Bezahldienstes, der zur Begleichung von Mittel- und Kleinbeträgen zum Beispiel beim Ein- und Verkauf im Online-Handel genutzt werden kann. pmOne Analytics deutsches Unternehmen in Unterschleißheim bei München, leitet mit Advanced Analytics aus Unternehmensdaten für Kunden Prognosen ab. Porsche deutscher Sportwagenhersteller in Stuttgart-Zuffenhausen, entstanden aus einem 1931 von Ferdinand Porsche in Stuttgart gegründeten Konstruktionsbüro für Automobile. ProSiebenSat.1 ein börsennotiertesMedienunternehmen in Unterföhring bei München, betreibt neben den drei deutschen Pay-TV-Fernsehsendern ProSieben FUN, SAT.1 emotions und kabel eins Classics die deutschen Free-TV-Fernsehsender ProSieben, SAT.1, kabel eins, SAT.1 Gold, ProSieben MAXX, sixx und kabel eins Doku. RavenPack ein Unternehmen, das in Marbella/ Spanien für Banken, Fonds und Großinvestoren Big Data auf ihren Wert für den Aktienhandel an den Börsen analysiert und die dazu entwickelte Software vermarktet. Recorded Future ein 2009 in Somerville/ Massachusetts und Göteborg/ Schweden ansässiges Unternehmen, das für Sicherheit im Internet eine Software OMNI für Plattformen anderer Internetfirmen anbietet. SAP (Systeme, Anwendungen, Produkte), nach dem Umsatz der größte europäische Software-Hersteller und der viertgrößte weltweit für die Geschäftsprozesse eines Unternehmens wie Buchführung, Controlling, Vertrieb, Einkauf, Produktion, Lagerhaltung und Personalwesen, Standort Walldorf. SAS eine multinationale skandinavische Holdinggesellschaft und Eigentümerin mehrerer europäischer Fluggesellschaften; die Aktien befinden sich knapp zur Hälfte in staatlichem Besitz. SCG Schloer Consulting Group mit Sitz in Marbella/ Spanien ist das Big Data-Analyse- und Beratungsunternehmen des Quantum Relations-Patentinhabers Hardy Schloer. Seagate ein irischer Hersteller von Festplatten und Bandlaufwerken mit Sitz in Dublin und operativer Hauptzentrale in Cupertino, Kalifornien, das älteste und größte Unternehmen der unabhängigen Festplattenhersteller. 328 ×Cf»Cgi Seerene 2015 gegründetes Unternehmen in Potsdam, eine Ausgründung des Hasso- Plattner-Instituts, Software-Entwickler für Unternehmenssteuerungen. Siemens 1847 in Berlin gegründeter, heute parallel auch in München ansässiger börsennotierter Technologiekonzern mit 125 Standorten in Deutschland und Aktivitäten in 190 Ländern, eines der weltweit größten Unternehmen der Elektrotechnik und Elektronik. Skype 2003 eingeführter, kostenloser Instant-Messaging-Dienst, seit 2011 im Besitz von Microsoft, unterstützt werden Videokonferenzen, IP-Telefonie, Instant Messaging, Dateiübertragung und Screen Sharing. Sony nach Hitachi und Panasonic der drittgrößte japanische Elektronikkonzern mit Sitz in Minato, Tokio. Kerngeschäft ist die Unterhaltungselektronik. Sopra Steria Consulting 1969 gegründetes deutsches Unternehmen für die digitale Transformation, d.h. für Beratung, Systemintegration, Softwareentwicklung, Infrastrukturmanagement und Business Process Services mit mehr als 40.000 Mitarbeitern in über 20 Ländern. Synaix 1993 als IT-Dienstleister in Aachen gegründet und seit 2006 auf ganzheitliche Lösungen für die Digitalisierung von Geschäftsprozessen fokussiert, In Standard IT, Managed IT und Digital Process Hosting betreibt synaix die zentralen digitalen Geschäftsprozesse von ca. hundert Kunden. Spotify ein Musik-Streaming-Dienst, der es ermöglicht, DRM-geschützte Musik einer Reihe großer Plattenfirmen wie Sony, EMI, Warner Music Group und Universal sowie zahlreicher kleiner Labels über das Internet zu hören. StanleyMorgan US-amerikanische Bank mit Hauptsitz in New York, eine der 30 Großbanken, die vom Financial Stability Board (FSB) als „systemically important financial institution“ (systemisch bedeutsames Finanzinstitut) eingestuft wurden. Tableau ein 2003 als Ausgründung aus der Stanford University hervorgegangener Hersteller von Visualisierungs-Software in Seattle mit den Schwerpunkten Datenvisualisierung und Reporting. Target einer der größten Einzelhändler der USA in Minneapolis/ Minnesota, nach Wal- Mart der zweitgrößte Discount-Einzelhändler des Landes. Tencent ein chinesisches Internet-Unternehmen für Sofortnachrichtendienste, soziale Netzwerke, Onlinemedien (Webportale), Internet-Mehrwertdienste (stationär und im Mobilfunk), interaktive Unterhaltung (insbesondere Mehrspieler-Onlinespiele), Netzhandel (elektronischer Handel) und Onlinewerbung. The Fly ein Unternehmen für Finanzinformationen in Echtzeit in Summit/ New Jersey, Bayside/ New York und Buenos Aires/ Argentinien. Thomson Reuters ein 2008 durch die Fusion des kanadischen Zeitungskonzerns Thomson Corporation ihres Eigentümers Roy p Thomson mit dem britischen Nachrichtenunternehmen Reuters (gegründet von P. J. p Reuter) entstandener Medienkonzern mit Hauptsitzen in New York City und in Toronto, nach Einschätzung von Prisma Analytics das „größte und beststrukturierte Business-Datenarchiv der Welt“. Thyssen-Krupp ein diversifizierter deutscher Industriekonzern mit Schwerpunkt in der Stahlverarbeitung, entstanden 1999 aus der Fusion der Essener Friedrich Krupp AG Hoesch-Krupp mit der Thyssen AG. Tesla ein 2003 gegründetes US-Unternehmen zur Beschleunigung des Übergangs zu nachhaltiger Energie, das Elektroautos, Stromspeicher und Photovoltaikanlagen für ein breites Publikum herstellt. The Unbelievable Machine Company ein 2008 gegründeter Full-Service-Anbieter rund um Big Data, Cloud Services & Hosting in Berlin, Frankfurt/ Main und Wien. —igd? <iA jiA ¹dADiC 8Cj ·C? <d<8<dBCiC 329 Tibco ein US-amerikanisches Softwareunternehmen in Palo Alto/ Kalifornien, entwickelt Software-Produkte zur Vernetzung und Integration von Applikationen und Systemen in Unternehmen, in Deutschland mit Firmensitzen in München und Frankfurt/ Main. Toyota 1937 in Japan gegründetes, im Jahr 2015 größtes Automobil- und elftgrößtes börsennotiertes Unternehmen der Welt. TÜV eingetragene Technische Überwachungs-Vereine, die als Prüforganisationen Sicherheitskontrollen durchführen, hervorgegangen aus dem Dampfkessel-Revisions-Verein von 1866. TUIfly deutsche Fluggesellschaft, Basis auf dem Flughafen Hannover-Langenhagen, eine Tochtergesellschaft des Touristikkonzerns TUI und Mitglied des Konzernverbundes TUI Airlines. Tumblr eine seit 2007 bestehende Blogging-Plattform, auf der Nutzer Texte, Bilder, Zitate, Chatlogs, Links und Videosowie Audiodateien in einem Blog veröffentlichen kann. Twitter betreibt von San Francisco aus im Internet den gleichnamigen Microblogging-Dienst. Ultra Tendency ein Unternehmen zur Software-Entwicklung und -beratung in Magdeburg. Valmet 2013 entstandener börsennotierter Konzern in Espoo/ Finnland, Anbieter von Dienstleistungen und Technologien für die Zellstoff-, Papier- und Energieindustrie. VISA neben Mastercard eine der beiden großen internationalen Gesellschaften für Kreditkarten, Debitkarten und Guthabenkarten, beschäftigte 2016 rund 14.200 Mitarbeiter. Volkswagen deutscher Automobilhersteller in Wolfsburg, der größte europäische Automobilhersteller, neben Toyota und General Motors einer der größten der Welt. Vorwerk ein diversifizierter internationaler Konzern in Wuppertal mit dem Schwerpunkt Direktvertrieb vom Hersteller an den Verbraucher ohne Vermittlung des Handels. Wharton Research Data Services Forschungsplattform und Business Intelligence-Beratungsunternehmen in Philadelphia für rund 50.000 Kunden in 30 Ländern. WhatsApp ein 2009 gegründeter Instant-Messaging-Dienst, seit 2014 Teil von Facebook Inc. Wolfe Research ein US-amerikanisches Unternehmen für die Forschung und die Unternehmensführung in unterschiedlichsten Branchen. Xerox ein 1906 gegründetes US-amerikanisches Technologie- und Dienstleistungsunternehmen im Dokumenten-Management-Bereich mit weit über 100.000 Mitarbeitern weltweit. Yahoo ein US-Internetunternehmen in Sunnyvale/ Kalifornien, mit 700 Millionen Nutzern weltweit einer der größten Webportale, 2017 mit AOL zu Oath fusioniert. YouTube ein 2005 gegründetes Videoportal des US-amerikanischen Unternehmens YouTube, seit 2006 eine Tochtergesellschaft von Google mit Sitz im kalifornischen San Bruno. 330 ×Cf»Cgi IInntteerrvviieew wss für dieses Buch wurden geführt mit Dallennes, G., Marketing-Leiter von RavenPack, am 13.10.2017 in einer Videokonferenz. Lehmann, R., Pressesprecher von Google Germany GmbH, Mailauskunft am 14.11.2015. Moldoveanu, D., Gesellschafter der Prisma Analytics GmbH, am 14.09.2017 in Bukarest. Pollert, Dr. H., CEO der Patentpool Group und der Prisma Analytics GmbH, am 07.02.2017, 15.02.2017 und 19.11.2018 jeweils in München. Schloer, H., CEO seiner Schloer Consulting Group und COO der Prisma Analytics GmbH, am 27.01.2017 in München, am 14.09.2017 in Bukarest und nochmals am 05.12.2018 in München. HHi innwweeiis s zur Aktualität des Buchinhalts Am 12.12.2018 präsentierte Hardy Schloer auf der Grundlage des von ihm entwickelten digitalen Prisma Analytics Weltmodells seine patentgeschützte Entscheider-Software Prisma Decision Point erstmals öffentlich in einer globalen Online-Konferenz. Am selben Tag wurde dieses Buch letztmals aktualisiert und damit inhaltlich abgeschlossen. –<dkfüBA<Aigd? <iA 331 SSttiicchhw woorrttrreeggiisstteerr 2045 Initiative 293 3V-Formel 33 5G-Netz 37 AA AAC-Format 347 ABIDA 35, 253, 354 Abramson, Jill 286 Accenture 27, 64, 142, 185, 359 Acxicom 167, 196 Adidas 148 AdNauseam 224 advanced analytics 74 affective computing 56 Airbnb 170 Ale xa 21 0 Alexander, Keith 345 Algorithmen-TÜV 238 Algorithmus 15, 19, 58, 61, 62, 64, 83, 84, 85, 87, 88, 106, 112, 143, 156, 163, 169, 178, 187, 222, 228, 234, 238, 255, 257, 258, 259, 267, 270, 276, , Algorithmustransparenz 235 algotrader 106, 234 Alibaba 21, 32, 168, 170, 171, 236, 254, 283, 285, 360 Alipay 171, 180, 285 Allen, Anita 235 Allen, Paul 17, 19 Alliance News 111, 112 Alphabet 19, 170, 193, 197, 227, 241, 360 Alphadaten 30 AlphaZero 60 alternative facts 286 Amara, Roy 280 Amaras Gesetz 280 Amazon 19, 25, 48, 168, 169, 170, 188, 193, 194, 209, 214, 236, 254, 283" 360 Amazon Web Services 25, 349, 350 American Express 47 Analyse, kognitive 61 Analyse, prädikative 61 Analyse, präskriptive 61 Analyst 86, 190 Anderson, Chris 255, 256, 258 Andreessen, Marc 51 Daten 237 anonyme Daten 237 anonymisierte Daten 226 AOL 36, 37, 271, 358 Apache 353, 357, 358 Apache Hive 358 API 25, 26, 350, 351 App 351 Apple 19, 170, 188, 193, 210, 215, 271, 347, 350, 354, 360 Apple Pay 180 application programming interface 350 Arbeitsmarkt 143, 150 Arbeitsplatz 56, 104, 142, 143, 144, 146, 243 Arbeitsplätz 63 Arbeitsplätze 56 Archivierungspflicht 173 Aristoteles 249 Armanet, Jorge 201 Arpanet 36, 69, 81 Arthur Andersen 74 artificial intelligence 65 Asimov, Isaac 15 Aslaner, Milad 350 Assange, Julian 212 Assessing Big Data 253, Assistenzsystem, intelligentes 64 Assodolahi, Ramin 21 Atkins 293 Atkins, Brian + Sabine 293 Audi 154, 155, 157 Aufklärung 246, 269 Auftragsdatenverarbeitung 353 augmented intelligence 64 augmented reality 65 Auswärtiges Amt 270 Autodesk 293 Automat 28 automatisierter Journalismus 187 automatisierter Text 186 Automatisierung 56 Automatisierung der Gesellschaft 278 Automobilindustrie 151 autonomes Fahren 42, 153, 154 autonomesFahren 158 Autopilot 64 Autor 3 Avaaz 279 AWS 171 Axicom 196 AZ Direct 346 Azure 137, 188, 349, 350, BB Babbage, Charles 14 Bachelier, Louis 50 Bafin 112 Bagley, Philip R. 31 Baidu 18, 236, 254, 283, 285 Bannon, Steve 215 Bargeld 180 BASF 27 Baudrillard, Jean 186 Bayer 27, 193 Beckedahl, Markus 233 Bell, Daniel 36 Benzinga 112 Benzinga News 111 Beobachtung 96 Bergsdorf, Wolfgang 265 Berlin Big Data Center 253 Berners-Lee, Tim 37, 81 Bernstein Netzwerk 58 Bertelsmann 242 Beschaffung 154 Betriebssystem 19, 22 Bewegungsprofil 210, 211 Bewusstsein 91 Big Data 19, 25, 27, 29, 31, 32- 35, 40, 51, 55, 74, 80, 89, 97, 106, 107, 111, 141, 145, 146, 147, 149, 151, 166, 169, 170, 173, 174, 177, 188, 194, 199, 213, 214, 219, 223, 227, 228, 229, 237, 239, 242, 245, 252, 332 ×Cf»Cgi 255, 257, 269, 273, 274, 279, 283, 285, 287, 291, 296, 345, 348, 349, 353, 354 Big Data-Sicherheit 269 big five 87 BigTable 354 binär 28 Bing, Xu 235 Biological Computation Group 194 biometrische Daten 214 Bishop, Chris 194 Bishop, Christopher 54 bit 92 Bitcoin 45, 46, 47, 112, 184, 185 Bitkom 52 blackbox 147 Blackstone 135, 136, 137, 139 Blaze, Matt 31 Blockchain 44, 45, 47, 48, 49, 181, 182, 184, 185, 207, 348 Blockstack 40 Bloombeg 185 Bloomberg 26, 121, 136, 183, 357 Blossom 186 Blue Crush 172 Blue Yonder 27 BlueMix 349 BMW 153, 154, 157, 159, 160 BND 270, 272-274 Boliden Garpenberg 148 Bolz, Norbert 295 Booking 171 Bosch 185 Boston Scientific 198 Bostrom, Nick 214, 295 bot 56, 59, 64, 169, 187, 286 bot, social 24 botnet 43, 214 bottom up 86, 151, 155, 228, 344, 346, 355 Boyden, Edward 294 Brexit 214 Bridge Group 104, 105 Brin, Sergey 19 Brooks, Rodney 281 Bundesdatenschutzgesetz 221 Bundeskanzleramt 270 Bundesnachrichtendienst 271 Busa, Roberto 249 business analytics 168 business intelligence 89, 141, 348, 351, 352 Butterfield, Kay-Firth 235 button 131, 135 CC Cahill, Dennis 103 call center 170, 188, 353 Calvo, Tania 111 Cambridge Analytica 214, 215, 216, 263 camera effects platform 64 Campact 279 car sharing 49, 173, 174, 238 Carafella, Mike 353 Castells, Manuel 262 Cataphora 211, 212 Catic, Muhamed 120 Cattanach, Robert 212 CBOE 46 CDO 142 Celonis 27 centers of teaching 248 Cerf, Vint 293 Change 279 Chaos Computer Club 28, 275 Charité 27 Charnock, Elizabeth 212 Charta der Bürgerrechte 233 Charta digitaler Grundrechte 230 charter of trust 239 chat 36 chatbot 188, 263 Chemieindustrie 164 Chen, Frank 64, 143 Chief Data Officer 142 Chief Executive Officer 142 Chief Information Officer 142 Chirac, Jacques 236 CIA 212 Cisco 27, 33, 293 Clarke, Arthur C. 17 Clinton, Hillary 215, 262, 268, 269, 277 Cliqz 216, 275 cloud 20, 25, 33, 42, 81, 100, 102, 109, 110, 124, 136, 171, 292, 348, 349 cloud access security manager 269 cloud computing 348, 350, 359 cloud dataflow 349 Cloud Pub/ Sub 349 Cloudera 354, 358 Cluetrain Manifesto 36, 238 cognitive computing 54, 55, 56, 359 Cohen, Julie 235 Competence Center for Scalable Services 253 Complex event processing 62 CompuServe 36, 37 connected car 157, 158 connected customer 159 Continental 155 convolutional neural networks 359 Conway, Kellyanne 286 Cook, Tim 20, 180, 193, 286 Cornez, Jason S. 111 Cortana 188 Cplus8 139, 184 creative commons 262 CRM 59 Crosbie 111 Crosbie, Kevin 111 Curioni, Alessandro 195 Curran, Dylan 217 customer journey 167, 168, 169 Cutting, Doug 353, 358 cyber crime 43 Cyberangriff 239, 269 Cyberkriminalität 269 Cyber-physisches System 65, 356 Cyber-Risiko 269 Cybersicherheit 239 Cyberspace 18 Cyborg 17, 188, 295 DD Dabrock, Peter 21, 216, 223, 225, 233, 234, 294 -Benz 62, 152, 153 –<dkfüBA<Aigd? <iA 333 darknet 39, 43 data fusion object 95, 97, 124, 126, 130, 133 data mining 33, 74, 344 data scientist 141, 142, 151, 153, 252 Datalab 349 Daten 28, 29, 41, 106, 107, 127, 149, 159, 197, 213, 214, 245, 255, 256, 272 Daten, anonymisierte 226 Daten, biometrische 214 Daten, personenbezogene 220 Daten, pseudonyme 222, 237 Daten, strukturierte 342, 347 Daten, unstrukturierte 347 Daten, personenbezogene 223 Datenanalyse 149, 150 Datenauswertung 346, 351 Datenautonomie 237 Datenbankmanagementsystem 347 Datenbestand 34 Dateneigentum 234 Datenethik 233, 237 Datengefängnis 30 Dateninfrastruktur 245 Datenkrake 18, 210, 223, 225, 228, 354 Datenmenge 33, 35 Datenmissbrauch 350 Datenqualität 244 Datenrecht 149 Datenreichtum 221, 222 Datenrevolution 151 Datenschutz 150, 194, 197, 204, 205, 210, 217, 222, 224, 244 Datenschutzgrundverordnung 219, 221, 226, 227, 230, 239 Datenschutzrecht 217, 218, 228, 238 Datenschutzregeln 206 Datensicherheit 239, 244 Datensouveränität 220, 222, 223, 234 Datensparsamkeit 221, 222, 227, 235 Datenspuren 29 Datentreuhänder 233 Daten-Tsunami 256 Datenübertragungsrate 17, 349 Datenverkehr 34 Datenvermeidung 221 Datenvielfalt 221 Datenvolumen 31, 34 Datenwachstum 34 decision point 133, 134 Deep Blue 60 deep learning 50, 54, 57, 58, 59, 135, 168, 348, 359 deep packet inspection 84 Deepfakes 287 DeepMind 58, 60, 254 Deicke, Axel 160 Deklaration der Menschenpflichten 283 Deklaration der Menschenrechte 283 Dell 27, 354 Deloitte 245, 354 Depiereux, Philipp 142 Deutsche Bahn 27 Deutsche Bank 45, 84, 107 Deutsche Forschungszentrum für Künstl. Intelligenz 252 Deutsche Post 27 Deutsche Telekom 27 DFKI 55 Diagnose und Wartung 160 Diagnosedaten 162 Diamandis, Peter H. 293 Dick, Philip K. 258 digital humanities 249, 250 digital nation 246 digitale Elite 257 digitale Staatsbürgerkunde 275 digitale Weltbibliothek 250 digitale Würde des Menschen 280 digitales Ich 289 Digitalisierung 14, 41 Disney 149, 356 DNA 349 Dobrindt, Alexander 222 Domingos, Pedro 84, 254, 290 Dow Jones 26, 103, 104, 107, 112, 357 DP World 118, 140 Draper Esprit 111 DriveNow 160 EE ebay 168 Echo 188 Echokammer 266, 268, 286 Edeka 27 Edison, Thomas A. 209 Edwards, Chris 138 efficient market hypothesis 102 Eikon 117, 120, 121, 123, 127, 136, 137, 138, 139, 140 Einstein, Albert 94, 95 Einwillgung 220 Einwilligung 219, 223, 226 elektronische Patientenakte 198 elektronische Gesundheitsakte 201 Eliza 17, 52 eN-Coral Digital Solutions 138 Energienetz 166 Energieverbrauch 165 Energiewirtschaft 166 ENIAC 15, 16 Enigma 15 enterprise resource planning 350 Erpressungstrojaner 43 Escape your Bubble 267 ESS 108 Ethereum 47 Ethernet 36 Ethical Alligned Design 236 Ethik 230, 234, 246, 250 Eurowings 27 event 107 Event Relevance Score 108 Event Sentiment Score 108 Event Similarity Days 108 Extropy Institut 292 FF Face Swap 287 Facebook 20, 21, 22, 23, 24, 38, 64, 88, 106, 170, 183, 185, 193, 207, 210, 215, 216, 217, 221, 223, 224, 229, 235, 236, 242, 250, 251, 252, 253, 259, 263, 264, 266, 267, 271, 277, 282, 283, 286, 289, 346, 353, 354, 357, 358, 361 fact level tagging 108 334 ×Cf»Cgi Fact Set 111, 112 Fahren, autonomes 42, 153 Fahrerassistenzsystem 158 Fahrzeugdaten 213 Fahrzeugentwicklung 152 fake news 266, 286, 287 Fakeapp 287 Fallmann, Daniel 170 falsch negativ 87 falsch positiv 87 Fälschung 45 feed forward neural networks 359 Fellner, Dieter 33 Fernsehkonsum 37 Festplatte 346, 348 Filterblase 266, 267, 268 Financial Stability Board 112 Finanzindustrie 178, 179 Finanzmarkt 190 FinX Award 139 firehose 35 Firmware 44 flu trends 33, 199 Flughafen Stuttgart 27 Försch, Marius 59 Forschung u. Entwicklung 152 Forschungsprozess 255 Forschungszentrum für Künstliche Intelligenz 254 Fourthsquare 62 Foxcom 143 frame of reference 91, 95, 97 Franke, Uwe 62 Fraunhofer-Verbund IUK- Technologie 252 Freyung 176 Fritz, Stefan 160 Fujitsu 18, 254 full flash array 349 GG Gabriel, Sigmar 222 Gagner, Phil 98 Gahr, Oliver 48 Galison, Peter 30 gameful city 175 garden hose 35 Gartner 33, 142 Gates, Bill 17, 19 Gear Watch 344 Gehde-Trapp, Monika 106 Geheimdienste 270 Gehirn 52, 58, 59, 61, 65, 76, 185, 261, 274, 292, 293, 294, 286 general problem solver 16 Geocodierung 146 Gesellschaft 4.0 258 Gesellschaft 5.0 151 Gesellschaft für Informatik 252 Gesichtserkennung 22, 161, 170, 211, 283 Gesunderhaltung 196, 201, 205 Gesundheitsakte, elektronische 201 Gesundheitsdaten 193, 198 Gesundheitskarte 197 Gesundheitswesen 195, 196, 197, 258 GEU 181 Ghostery 275 Gibson, William 18 GIF 36 Gingrich, Newt 264 gläserner Patient 200 Global Alert and Response 199 global economic unit 181 Global Learning and Research Centers 247 global value exchange 181, 262 Global Value Exchange 179, 287 global value unit 183, 185 Global Value Unit 183, 184, 185 globale Intelligenz 191, 244, 249 globocop 294 GLRC 247 Glücksforschung 251 Go 60 Goerdeler, Andreas 285 Goldman Sachs 76, 107, 143 Gonzalez, Armando 102, 105, 111 Goodnight, Jim 53 Google 16, 19, 20, 30, 32, 33, 34, 38, 52, 58, 60, 61, 64, 65, 91, 106, 168, 170, 179, 183, 185, 188, 193, 194, 197, 199, 209, 212, 213, 215, 217, 221, 223, 224, 227, 229, 236, 238, 241, 242, 250, 253, 254, 259, 266, 271, 275, 276, 279, 280, 283, 286, 287, 293, 295, 296, 347, 349, 350, 351, 353, 345, 357, 360 Google Analytics 347, 351, 353 Google Brain 59, 254 Google Cloud 349, 350 Google Earth 29 Google Glass 344 Google Home 167 Google Mail 347 Google Maps 158, 217, 347 Google Pay 180 Google Sheets 352 Google Trends 33 Government Communications Headquarters 235, 271 GPS 161 Graphics processing unit 351 Grisolano, Larry 263 Gross National Happiness Index 251 Guttenberg, Karl-Theodor zu 47, 63, 146 GVE 179, 181, 182 GVU 183, 184, 185 HH Hadoop 62, 346, 349, 352, 359 Haereus 27 Hafez, Peter 111 Halm, Tatjana 357 Handel 166, 170 Hanning, August 272 Hansen, Marit 215 Hansen, Norbert 200 Hardy Schloer 75, 76, 77, 78, 79, 80, 81, 82, 89, 90, 94, 97, 98, 99, 100, 101, 102, 103, 104, 105, 113, 114, 115, 116, 118, 119, 120, 122, 125, 126, 128, 129, 130, 135, 137, 138" 140, 177, 178, 179, 180, 181, 183, 184, 185, 189, 190, 192, 200, 207, 245, 246, 247, 248, 262, 264, 268, 281, 282 Hariri, Yuval Noah 291, 292 Hartung, Stefan 185 –<dkfüBA<Aigd? <iA 335 Hasni, Wan M. 138 Hayden, Michel V. 272 Health Unlocked 201 healthvault 207 Heiner Pollert 67, 68, 69, 70, 71, 72, 73, 74, 82, 102, 105, 107, 114, 116, 135, 139, 183, 185, 245 Heisenberg, Werner 94 Helberger, Natalie 84 Helbing, Dirk 261, 278 Hello Fresh 180 Hendricks, Michael 294 Henkel 27 HERE 154 Hewlett-Packard 27 Heypic 210 hidden internet services 39 Hoffmann, Martin 187 Hofmann, Jeannette 223 Home 188 homo connectus 32 homo oeconomicus 50 Howard, Philip 266 Huang, Jen-Hsun 63 Hubert Burda Media 275 human smart city 175 Humana 196 Hume, David 256 Hutch 358 Hütte, Holger 150 II I2P 39 IAIS 153 IBM 27, 33, 48, 58, 60, 61, 64, 124, 143, 157, 160, 161, 172, 183, 185, 210, 249, 253, 256, 351, 357, 358 Ich, digitales 289 ICIK 246, 247, 248, 250, 262 IDC 247, 248 Identität 224 Identitätsmanagement 49 IDSIA 54 IFTF-Studie 65 ike 213 IKEA 64 Immoscout 167 Impressum 4 IMS Health 196 Industrial Data Space Association 252, 255 Industrie 4.0 65, 145, 185 influencer 30 information room 140 informationelle Selbstbestimmung 218, 234, 238, 239 Informationsgesellschaft 36, 37 Informationswirtschaft 241 Infrastructure as a Service 350 ]init[ 27 In-memory 62 InnOPlan 200 Insights for Search 276 Instagram 21, 24, 2149 Instandhaltung, vorbeugende 147 Instanz 277 Integrated Circels 116 Integrated Data Center 247, 248, 287 Intel 154, 293 intelligenter Stromzähler 148, 173 intelligentes Assistenzsys tem 64 Intelligenz, globale 191 Intelligenz, maschinelle 190 Inter Action Council 283 interkulturelle Zentren investigativen Wissens 245 International Data Corporation 34, 41 Internet 37, 38, 40, 44, 267, 272, 275, 276, 351 Internet der Dinge 17, 34, 35, 41, 42, 43, 56, 62, 65, 146, 174, 218, 235, 277, 350 Internetprotokoll 40 IOTA 49, 50 IoT-Plattform 41 IOU 47 iPad 19, 23 IP-Adresse 218 iPhone 19, 23 IPv6 124, 126, 139, 183, 184, 185 ISÆN 49 iTunes 19, 347 JJ Jaguar Land Rover 152 Janata, Steve 156 Java 358 Jawbone 29 Jobs, Steve 19, 81 Johnson, Brian 66 Joshi, Mohit 63 Journalismus, automatisierter 187 Joyce, Tim 169 JPEG 347 KK Kamera 30, 158, 172, 173, 174, 212, Kant, Immanuel 282 Karliczek, Anja 57 Kartellrecht 225 Kasparov, Garri 60 Katz, Jon248 Käuferverhalten 169 Kaufmarkt 27 Kelly, Kevin 293 Kercan, Vladimir 114 Kernkraftwerk 164 King, Gary 261 Kling, Marc-Uwe 290 Klout 210 knowledge graph 149 Kogan, Aleksandr 215, 216 kognitive Analyse 62 Koneva, Meglana 344 König, Helmut 155 Kosinski, Michal 167 KPI 60 KPMG 149 Kramer, Adam 251 Kratsch 294 Kratsch, Christina 294 Kreativität 65, 256 Kriminalität 257 Kriminalitätstrend 172 Królikowski 84 Królikowski, Agata 84, 86 Kryptobörse 46 Kryptowährung 45, 47, 181, 183, 184, 185 336 ×Cf»Cgi Kryptowähung 47 Kubrick, Stanley 274 Kühmayer, Franz 211 Kundenbindung 162 Künstliche Intelligenz 15, 17, 19, 21, 38, 50, 52, 53, 54, 55, 56, 57, 60, 61, 62, 63, 64, 65, 106, 112, 133, 143, 186, 189, 190, 191, 218, 231, 234, 240, 252, 253, 254, 281, 283, 291, 293, 295, 359, 361 Kunte, Abhi 151 Kurz, Constanze 185 Kurzweil, Ray 17, 92, 292, 293, 295 LL Lanier, Jaron 259 Lauschangriff 161 Learning and Research Center 287 Lee, Peter 207 Lehman Brothers 104 Leibniz 14 Leistungszentrum Digitale Vernetzung 253 Lernfähigkeit 62 Lesch, Harald 153, 290, 291 Leutheusser-Schnarrenberger, Sabine 233 Liberatus 61 like 23, 87, 167, 217, 263, 277 Lindinger, Christoph 199 Lindinger, Cjristoph 66 link 19 LinkedIn 183, 185, 224 Litecoin 47 Live Talk 18 Lkw 143 Lobo, Sascha 230, 273, 275 location intelligence 146 Lohr, Steve 33 Lorenzo, Giovanni di 230 Los Angeles 172 Luftqualität 172 Luo, Yin 111 MM MaaS 174 Machine Intelligence Research Institute 293 machine learning 54, 59, 112, 143, 158, 169, 258, 359 machine-to-machine 42, 174 Machlup, Fritz 36, 241 Macht 258, 259, 260, 262, 269, 274, 276 Mainzer, Klaus 51, 92, 240, 249, 255, 256, 257, 258, 273, 280 Maizière, Thomas de 270 Malaysia 118, 137 MapReduce 26, 345, 354, 357, 358 Markenerlebnis 163 Marketing 157, 258 Masala, Carlo 189, 270 maschinelle Intelligenz 190, 191 maschinelles Lernen 55, 254 Maskierung 222 McAfee, Andrew 55 McCarthy, John 16, 52 McDonald’s 180 McKinsey 34, 58, 254 McLuhan, Marshall 36, 38 McNealy, Scott 210 MEDBase200 198 Medtronic 198 Memphis 173 Menon, Pradeep 137 Mensch und Maschine 189, 192, 213, 293, 296, 361 Menschenpflichten, Deklaration der 283 Menschenrechte, Deklaration der 283 Merkel, Angela 220 Messenger 187 Messner, Philipp 28 Metadaten 25, 31, 124, 126, 129, 156, 218, 222, 235, 244, 273 Metcafe, Robert M. 36 Metro 168 Microfocus 27 Microsoft 19, 48, 58, 63, 64, 82, 114, 147, 158, 183, 185, 188, 193, 194, 207, 253, 254, 271, 286, 293, 349, 350, 366 middleware 351 Mielchen, Daniela 160 Millisekunden 109, 123, 178, 190 mind uploading 293 Mindsphere 41 MINI 157 Mobile Connect 49 Mobileye 154 Mobilitätsstation 174 Mobility-as-a-Service 174 Modalsplit 159 Mogenet, Emmanuelle 295, 296 Moglen, Eben 185 Moldoveanu, Daniel 114, 115, 116, 282 Monbiot, George 265 MongoDB 358 Monte-Carlo-Verfahren 60 Moore, Gordon E. 345 Moore’sches „Gesetz“ 149, 281 Moorstedt, Tobias 263 Moral 230, 257 More, Max 292 motifinvesting 177 Mozilla 275 MP 3 347 Multi-Cloud 348 multitasking 198 Mumbadala 140 Mumbadala Development Co. 118 München 173, 174, 175 Münchner Rückversicherung 147 Mundt, Andreas 23 Musk, Elon 360 Mytaxi 170 NN Nadella, Satya 64 Nagel, Wolfgang 32 Nanterme, Pierre 142 NarrowBand IoT 42 Nasdaq 47, 106 Nass, Clifford 85 –<dkfüBA<Aigd? <iA 337 Natural Language Processing 351 NavCog 159 NEC 254 negative Rückkopplung 94 Nelson, Peter 352 nervous system for humanity 246 Netflix 214, 236, 283, 354 Netzbetreiber 165, 166 Netzneutralität 232, 234 Netzwerk 36, 38, 39, 40, 44, 214, 227, 242 Netzwerk, soziales 22, 149 Neumann, John von 14, 15, 52 neuronales Netz 55, 58, 61 Newell, Allen 16 Newton, Isaac 95 Nimführ, Wolfgang 61 Nix, Alexander 215, 216 Nixdorf, Heinz 16 Noelle-Neumann, Elisabeth 265 normative Regeln 234 Notz, Konstantin von 271, 273 NSA 116, 209, 212, 270, 271, 272, 273, 274, 345 Nutch 353 OO Obama, Barack 33, 263, 264, 268, 272 Oculus 38 öffentliche Meinung 265, 268 öffentliche Sicherheit 172 öffentliche Vernunft 282 Office 19, 136 Olson, Mike 146 One half a manifesto 259 online 13 online-Einzelhandel 167 online-Käufe 167 open data 242, 243, 244, 248, 253 open government 242 open source 358 Open Whisper Systems 212 Oracle 58, 354 Orwell, George 38, 205 Otto Group 27, 166-168, 171 PP Page, Larry 19 Palihapitiya, Chamath 23 Pandolfi, Marc 111 Papier, Hans-Jürgen 273 Parker, Sean 23 Pasquale, Frank 235 Patent 80, 254 Patentpool 73, 82, 100, 102, 104, 105, 111, 113, 117, 119, 138, 185, 207 Patient, gläserner 200 Patientenakte, elektronische 198 Payback 27 Paypal 214 Peercoin 47 Peking 173 performance asset maint 164 personenbezogene Daten 220, 223, 229, 239 Petro 47 Phil 98, 99, 100, 113 Pilar, Jiri 221 Plattform 170, 171, 188" 200, 201, 235, 248, 249, 253 pmOne Analytics 27 Poker 60 Police Department Dubai 140 Pollert p Heiner Polly, Armour 224 PollyVote 186 Pols, Axel 350 Porat, Marc Uri 241 Porsche 64 positive Rückkopplung 95 Pötzsch, Sebastian 138 prädikative Analyse 61 präskriptive Analyse 61 predictive analysis 50 predictive analytics 56, 171, 174, 352 predictive maintenance 147, 155, 164 predictive policing 172, 173, 360 Preisstellung 168 prescriptive analysis 50 Priestley, Joseph 28 Prima Analytics 140 Prisma Analytics 26, 89, 116, 117, 118, 119, 120, 121, 122, 123, 124, 126, 127, 128, 132, 133, 134, 135, 136, 137, 138, 139, 140, 181, 183, 207, 248, 262, 360 Prisma Decision Point 138, 139, 140 privacy 33, 180, 206, 207, 213, 216, 229, 360 privacy by default 224, 232 privacy by design 49, 220, 230 Privatheit 195, 202, 204, 206, 209, 211, 213, 223, 225, 230, 239, 248, 280, 361 Privatsphäre 36, 39, 174, 199, 209, 210, 213, 227, 229, 231, 233, 275, 287 Produktion 155 Profalla. Ronald 271 profiling 23, 231, 289, 357 Prognose 133 Progressive 234 proof of concept 352 Pro-Opt 253 ProSiebenSat.1 27 Protokoll 40 Prozessautomatisierung 148 Prozessindustrie 164 pseudonyme Daten 222, 237 Putin, Wladimir 360 QQ QRM 135 q-search 96 Quaero-Projekt 236 Quakeboat 186 Qualcomm 254 Qualitätssicherung 156 Quanten 92, 93 Quantencomputer 93 Quantenmechanik 92, 96 Quantenzustand 92, 93 Quantum Relations 77, 80, 82, 89, 90, 94, 95, 96, 97, 100, 101, 114, 116, 139, 140, 182, 184, 201, 245, 246, 247, 256, 265, 268, 282 quantum relations machine 135 Quarz 346 qubit 92, 93 338 ×Cf»Cgi RR Raffinerie 164 Ramakrishnan, Vanki 296 ransomware 43 RapLeaf 210 raven space 100, 101 RavenPack 100, 101, 102, 103, 104, 106, 107, 108, 110, 111, 112, 113, 119 Raw-Datei 347 RDBMS 347 Reaktionsschnelligkeit 51 real time 110 Realität 90, 91, 94, 95 reality mining 344 real-time 131 Rechenleistung 34 Recorded Future 211 recurrent neural networks 359 Refinitiv 136, 137, 183, 185, 357 Regeln, normative 234 reinforcement learning 58, 60 REL 108 Relativitätstheorie 94 Renn, Ortwin 275 Reuters 76 RFID 41, 160 Rheinberger, Hans-Jorg 256 Ripple 47 Roboter„gesetze“ 15 Robotic Process Automation 143 Roche 194 Rogoff, Kenneth 46 Rometty, Gianni 144 Rosenberg, Jonathan 242 Rössler, Beate 229 Rothschild 104 RPA 143 Rückkopplung, negative 94 Rückkopplung, positive 95 Rundfunk 22 Ruß-Mohl, Stephan 286, 287 SS Safe-Harbour-Urteil 279 SAHRA 200 Samsung 254, 344 San Francisco 244 SAP 33, 234, 254 SAP Lumira 352 SAS 53, 62, 74 Saudi Aramco 43 Say, Jean-Baptiste 145 SCG 113, 114, 115, 117 Schach 60 Schadprogramm 269 Schäuble, Wolfgang 28 Schaurecker, Cornelia 152 Schicht 40, 57 Schindler, Gerhard 273 Schloer pHardy Schloer Consulting Group 113, 114, 116, 121, 123, 262 Schlör, Frank Otto 75, 138 Schlüsseldaten 163 Schlüsselzahlen 108, 109 Schmid, Josef 173 Schmidhuber, Jürgen 54 Schmidt, Eric 64, 197, 227, 241, 361 Schmidt, Helmut 282, 286 Schmidt, Peter 170 Schmölz, Joanna 223 Schmutzdaten 173 Schufa 219, 238 Schulz, Martin 230 Schweigespirale 265, 266, 268, 277 Searle, John R. 53 Searls, Doc 36, 228 security 33 security analytics 269 Sedol, Lee 60 Seerene 27 Selbstbestimmung, informationelle 218 Selbstentzifferung 29 Selbstqualifizierer 196 self-tracking 196 senseable city lab 172 Sensor 35, 163, 172, 344, 345 Sentimentsanalyse 108 Sequenz 80 Sesame Credit 287 Shakey 16 Shodan 43 Sicherheit, öffentliche 172 Sicherheitsfunktion 44 Siemens 74, 254 Signal 212, 216 SIM 108 Simon 81 Simon, Herbert 16, 60, 81 Sing apu r 17 2 Singularität 293 Singularity Institute 293 Singularity University 292, 293 Siri 188, 210 situation report 115 situation room 117, 118, 119, 122, 123 Skyhook Wireless 210 Skynet 270 Skype 271 Smart Analysis Health Research Access 200 smart citizen 171, 175 smart city 171, 172, 174, 175 Smart Data 164, 174 Smart Data Innovation Lab 253 smart factory 155 smart grid 61, 164 smart health 213 smart home 165, 213 Smartphone 17, 18, 19, 29, 34, 35, 38, 48, 63, 64, 153, 157, 167, 171, 172, 174, 180, 185, 207, 211, 215, 263, 276, 289, 291, 349, 350, 351, 356 Smile to pay 180 Snapchat 24 Snapshot 234 Snowden, Edward 116, 211, 270, 272, 274 solid state drive 349 Sony 254 Sopra Steria Consulting 54, 56 soziales Netzwerk 149, 169, 170, 210, 229, 263, 267, 268, 277, 287, 349, 353, 357 Sozialpsychologie 75 Spariosu, Mihai I. 90, 95, 247, 248 Spark 350, 358, 359 Speedfactory 148 Speicherfähigkeit 17 Speicherkosten 346, 355 Speichervermögen 345 –<dkfüBA<Aigd? <iA 339 Spencer, Sean 286 ‚ Spiel’feld 131, 132, 133 Spionage-Software 271 Splunk 349, 359 Spokeo 210 Spotify 214 Spracheingabe 18, 161 Spracherkennung 18, 59 Squeaky Dolphin 211 St. Jude Medical 198 Staatsbürgerkunde, digitale 275 Stadtökonomie 171 Stampfl, Nora 224 Standortdaten 158 Stanley Morgan 107 Stehr, Nico 256 Stepstone 212 Stiglitz, Joseph 46 Stimmerkennung 172 storage tiering 349 Storm 359 Straßenbeleuchtung 171, 173 Strava Heatmap 209 streaming 22, 62, 359 Strittmatter, Kai 284, 285 Stromzähler, intelligente 48, 148 strukturierte Daten 344, 347 Subpolitik 270, 275, 278, 279 Suchmaschine 88, 89, 275, 276 Sunspring 186 Superintelligenz 65 Swiftkey 186 SWOT-Analyse 128 System für soziale Vertrauenswürdigkeit 284 TT Taallinn, Jaan 296 Tableau 27 Tablet 19 targeting 30 Tay 63 Technical Analysts Award 110 Telematik 157 Telemediengesetz 221 Tencent 21, 236, 254, 283, 285, 360 TerraLoupe 147 Tesla 154, 362 Tesorflow 287 text mining 352 text to speech 161 Text, automatisierter 186 Texterstellung 186 The Buzzard 267 The Fly 111, 112 theory of mind 56 Theseus 238 Thiel, Peter 20, 292, 293 Thomson Reuters 26, 114, 116, 117, 119, 120, 121, 122, 126, 127, 128, 130, 135, 136, 138, 139, 179, 183, 185, 357 Threema 216 Tianhe-2 18 Tibco 58 Tischer 138 Tischer, Michael 138 Titan 18 Titelei 3 Tocqueville, Alexis Clérel Graf de 266 top down 86, 151, 155, 228, 346, 355 TOR 39 Tosca 82 Touraine, Alain 36 tracking 29, 357 TrackMeNot 224 Transaktionskosten 45, 49 Transaktionsregister 46 Transhumanismus 188, 292, 294 Transparenz 361 Transparenz-TÜV 239 Tresp, Volker 195 Trojaner 43 Trump, Donald 214, 263, 264, 268, 286 trusted cloud 225 TUIfly 27 Tumblr 28 Turing, Alan 15, 16, 161 Turkle, Sherry 22 tweet 24, 25, 31, 267, 346, 353 Twitnest 210 Twitter 21, 24, 25, 31, 106, 214, 216, 263, 264, 346 Tyler, John Tim 282 UU Uber 170 Überwachung 29, 172, 235, 284, 285, 286, 289, 357 ubiquitous computing 38 Ulbrich, Mathias 151 Union Arabischer Banken 137 UNIVAC 16, 345 Universität Barcelona 140 University of Modern Sciences 140 unstrukturierte Daten 344, 345 Urteilsfähigkeit 295 Urteilskraft 280 USC 47 utility settlement coin 47 VV validity 33 Vapiano 180 Varian, Hal 141 variety 33 Velaro 164 velocity 33, 227 Velten, Carlo 156 Venezuela 47 veracity 33, 227 Verbrechensprävention 173 Verkehrsfluss 172 Vernunft, öffentliche 282 Versandhandel 166 Verschaltungsmuster 57 Verschlüsselung 37 Versicherung 51, 148, 257 Versorgungssicherheit 15 Verteidigung 258 Vimeo 357 virtual agent 170 Visualisierung 130 voice commerce 169 volume 33, 227 vorbeugende Instandhaltung 147 Vorhersage 150 Vorwerk 27 Voxer 277 vulnerability 33 VW 162 VW Data Lab 152, 153, 157 340 ×Cf»Cgi WW Wagner, Dominik 138 Wahlkampf 258, 262, 263, 264, 268, 269, 280 Wahrscheinlichkeit 81, 82, 85, 87, 96, 132, 234, 256 Währung 180 Walia, Hardeep 177 WASM 27 watch list 211 Watson 61, 124, 161, 162, 357 Watson Complaint Analysis 148 Watson, Thomas J. 249 Watzlawick, Paul 277 Wayne, Ronald 19 wearable devices 169 Web 2.0 37 Web 3.0 40 WebCrawler 19 Weber, Mathias 54 Weber, Thomas 152 WeChat 187 WeChat Pay 180 Weeping Angel 212 Weickmann, Dirk 102 Weinberger, David 36 Weiser, Mark 52 Weiterverkauf 163 Weizenbaum, Joseph 17, 52 Well-being-Index 251 Welternährungsprogramm 44 Weltforum für Geschäftsethik 235 Weltmodell 135 Werner, Rolf 355 Wharton Research Data Services 111 WhatsApp 21, 28, 171, 183, 185, 212, 216, 239 whitebox 147 WHO 44 Wienands, Konrad 113 Wiesner, Jens 43 Wikileaks 212 Wikipedia 89, 139, 267 Wilbanks, John 262 Windkraftanlage 164 Windows 19, 136 Winterkorn, Martin 152 Wirtschaft 141, 145 Wirtschaft 4.0 145, 146, 151 Wirtschaftsleistunng 254 Wissenschaft 252, 258, 259, 267 Wissensgesellschaft 36 Wissensvorsprung 178 Wolfe Research 111 World Data Center 247 world wide web 37, 39, 44, 81 Wortzusammenhang 149 Wozniak, Steve 19 Wurzer, Alexander 346 Wylie, Christopher 215 Wynn, Steve 161 XX Xerox 169 Xing 224 XRP 47 Xuecun, Murong 285 YY Yahoo 20, 271, 357, 358 Yermack, David L. 47 Yongqing, Wang 285 yourTwapperkeeper 25 YouTube 22, 77, 210, 357 Yudkowsky, Eliezer 293 ZZ Zahlungsverkehr 180 Zeisel, Herbert 32, 254 Zeitbezug 79 Zeitstempel 130 Zentralprozessor 14 Zheng, Zhang 284, 285 Zhiqing, Shao 284 Ziercke, Jörg 43 Zoe 200, 201, 203, 204, 205, 207, 262, 267 Zuboff, Shosana 227 Zuckerberg, Mark 20, 21, 38, 210, 215, 216, 250, 251 Zuckerberg’s law 37 Zug 46 Zuse, Konrad 14, 15