eBooks

Die Bit-Revolution

Künstliche Intelligenz steuert uns alle in Wirtschaft, Politik und Gesellschaft

0128
2019
978-3-7398-0471-2
978-3-8676-4901-8
UVK Verlag 
Gernot Brauer

Wie tickt heute die Welt? Ist die Künstliche Intelligenz schon schlauer als wir? Entscheiden Maschinen intelligenter? Wie viele Menschen werden sie arbeitslos machen? Hebeln Computer Handel und Wettbewerb aus? Werden wir eine bessere Medizin mit unseren Daten bezahlen? Gibt es für Privatheit noch eine Chance? Und ist das ewige Leben kein bloßer Traum, sondern schon bald Realität? Diese Fragen beantwortet dieses Buch. Nach einer Übersicht über die alles ändernde Datenflut zeigt es an einer konkreten Software-Entwicklung, die Regierungen, Verbände und Firmen mit unvorstellbar genauen Datenanalysen und Prognosen versorgt, was Big Data und was Künstliche Intelligenz können, wie ihre Experten denken und handeln, welches Geschäftsmodell sie entwickeln und was das für uns bedeutet. Dieses Buch ist am Geschehen nah dran. Es zeigt, wie schnell die Künstliche Intelligenz unser aller Leben verändert. Es beurteilt ihre Chancen und Risiken und zeigt, was da auf uns zu kommt.

<?page no="1"?> Gernot Brauer DDiiee BBiitt--RReev voolluuttiioonn <?page no="2"?> Gernot Brauer ist ein erfahrener Kommunikationsmanager aus der Industrie und ein routinierter Journalist, der als Buchautor zwei Begabungen verknüpft: die Fähigkeit zu exakter Recherche auch sehr komplexer oder versteckter Sachverhalte und eine Leidenschaft für spannendes Erzählen ebenso wie kritisches Hinterfragen dessen, was er ans Tageslicht bringt. Was Gernot Brauer ermittelt, mag noch so kompliziert sein - er stellt es so dar, dass man es versteht, dass man es mit Gewinn und Vergnügen liest und dabei auch noch sonst kaum durchschaubare Zusammenhänge begreift, in denen wir leben und von denen wir abhängig sind. Er nimmt seine Leser mit in eine Reise in unser aller Zukunft. Für dieses Buch hatte Gernot Brauer exklusiven Zugang zu einem Computergenie. Auf der Basis ausgefeiltester Künstlicher Intelligenz hat dieser Mann ein Programm zur Entscheidung und Prognose auf den Markt gebracht, wie es nach seiner Überzeugung weder IBM noch Microsoft oder Google haben, weder Facebook noch sonst jemand. Auch Lesern, die von Datenverarbeitung nur so viel wie der Durchschnittsbürger verstehen, präsentiert Gernot Brauer diese unglaubliche Entwicklung so klar, als seien sie selbst dabei. Er breitet vor uns eine Welt aus, die unser Leben mitbestimmt - mit jedem Tag, der vergeht, ein Stück mehr. Was da abgeht, ist atemberaubend. Gernot Brauer hat bereits mehr als ein Dutzend Bücher über verschiedenste Themenfelder veröffentlicht. Mit seiner Kenntnis der Wirtschaft und der Gesellschaft schafft er es immer wieder, seine Leser nicht nur verlässlich zu informieren, sondern auch gut zu unterhalten. Denn schon die Tatsachen, die er anzubieten hat, sind spannend genug. <?page no="3"?> Gernot Brauer DDiie e BBi it t- -R Reev vool luut ti io on n Künstliche Intelligenz steuert uns alle in Wirtschaft, Politik und Gesellschaft UVK Verlag · München <?page no="4"?> Viele vertiefende, oft spannende Einzelheiten zu Kapiteln dieses Buches finden Sie auf der zum Buch gehörenden Webseite unter www.uvk.digital/ 9783867649018. Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über <http: / / dnb.ddb.de> abrufbar. ISBN 978-3-86764-901-8 (Print) ISBN 978-3-7398-0471-2 (EPUB) ISBN 978-3-7398-0470-5 (EPDF) Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. © UVK Verlag München 2019 - ein Unternehmen der Narr Francke Attempto Verlag GmbH & Co. KG Lektorat: ÌxBuxBx Åg[[gB: -gCCgB>, Forstinning, und Saskia Brauer> Berlin Einbandgestaltungß Susanne Fuellhaas, Konstanz Cover-Illustration: © iStockphoto à metamorworks Ð: >DBgEfD>D ’gd>g îß ÌxBuxBx Åg[[gB: -gCCgB> Druck und Bindung: Printed in Germany UVK Verlag Nymphenburger Strasse 48 “ 80335 München Tel. 089/ 452174-65 www.uvk.de Narr Francke Attempto Verlag GmbH & Co. KG Dischingerweg 5 “ 72070 Tübingen Tel. 07071/ 9797-0 www.narr.de <?page no="5"?> EEiinnlleeiittu unngg Dieses Buch handelt von einer der umwälzendsten Revolutionen seit Menschengedenken. Dieser gesellschaftliche Wandel vollzieht sich vor unseren Augen. Trotzdem erkennen viele Menschen noch nicht, dass es sich um eine Revolution handelt, die fast alle gewohnten Lebensverhältnisse umkrempeln wird, „a change analogous to the rise of conciousness in humans“ (Minelli 2017: xiii), so grundlegend wie die Entwicklung des menschlichen Bewusstseins. „Wir leben in einer Welt, in der man entweder ein Teil dieser Revolution ist oder von ihr überrollt wird“ (Schröder 2017: 14). Diese Umwälzung ist eine Folge der Digitalisierung. „Alles, was digitalisiert werden kann, wird digitalisiert. Autos, Flugzeuge und Kühlschränke sind künftig nur noch Blechhüllen, mit denen kaum Geld verdient wird. Die Gewinner sind - dank Netzwerkseffekt - vor allem die Vermittler“ (Keese 2014: 165). Längst nutzen wir Produkte und Dienste, die die Ablösung des mechanischen durch das elektronische Zeitalter wesentlich prägen. Aber wir realisieren erst schemenhaft, wie sehr dieser Wandel zur Künstlichen Intelligenz uns selbst ändern wird. Davon berichtet dieses Buch, von technischen und gesellschaftspolitischen Entwicklungen rund um uns und von Konsequenzen für das Menschsein überhaupt. Es zeigt in zwölf Kapiteln, was die Künstliche Intelligenz mit uns macht. Dazu nimmt dieses Buch Sie als Leser mit auf eine weite Reise. Sie beginnt in Kapitel 1 in der Welt der Big Data. Dieses Kapitel erörtert, wie schlau die Künstliche Intelligenz bereits ist und was wir von ihr noch zu erwarten haben. Aber dieses Buch berichtet nicht nur über Maschinen und deren unglaubliche Leistung. Es portraitiert auch die Personen hinter der Technik. Kapitel 2 führt uns zuerst mit Heiner und dann mit Hardy zusammen, Big Data Daddy genannt, einem Mann, der die Datenwelt komplett umkrempelt. Es erläutert eine von ihm patentierte Software, die Regierungen, Verbände und Firmen mit Datenanalysen und Prognosen bisher unvorstellbarer Präzision versorgt. Dann berichtet es von Phil, ebenfalls einer Multibegabung, und seiner Zusammenarbeit mit Hardy bei der Entwicklung der Software Quantum Relations und des digitalen Weltmodells, auf dem sie aufbaut. In Kapitel 3 lernen wir kennen, wie diese Software die Finanzwelt revolutionierte und warum sie ihr ihre Geschäftsgrundlage denoch ziemlich bald wieder entziehen könnte. In Kapitel 4 schließlich geht es um den jüngsten, größten Coup dieses Mannes, das Programm Prisma, das mit der Software Prisma Dicision Point geradezu allwissend agiert und sich derzeit weltweit verbreitet. So weit das erste Drittel des Buchs. Das zweite Drittel fragt in Schritt 5, was Big Data in der Wirtschaft bedeuten. Kapitel 6 erläutert, warum diese Welt aus Daten den Wettbewerb und in ihm den Handel aufzulösen imstande sind und was an ihre Stelle treten dürfte. In Kapitel 7 erörtern wir Konsequenzen für jeden von uns: Was geschieht, wenn Maschinen intelligenter werden als wir? Übernehmen Sie dann die Regie? Das Mensch-Maschine-System birgt enorme Chancen, aber auch veritable Gefahren. Das gilt auch im Gesundheitswesen. Das beleuchtet Kapitel 8. Das Gesundheitswesen ist ein gutes Beispiel für das Problem der Privatheit, mit dem das letzte Drittel des Buches beginnt. Je mehr Daten jemand über uns hat, desto gläserner sind wir für ihn. Wollen wir das und können wir es überhaupt verhindern oder zumindest wirksam begrenzen? Davon handelt Kapitel 9. Dort erörtern wir auch die Datenschutzethik. In Kapitel 10 geht es darum zu verstehen, wie global verfügbare Daten als eine neue, weltweite Aufklärung wirken und alles Entscheiden wissensbasi ert, vernunftgeleitet und kooperativ gestalten können. In Schritt 11 ziehen wir daraus Konsequenzen für die Politik. Und im abschließenden Schritt 12 stellen wir dar, was aus unserem Leben wohl wird, wenn wir es an <?page no="6"?> Maschinen übergeben können. Maschinen sterben nicht. Kommt dann das ewige Leben? Dieses Schlusskapitel zeigt Ihnen, worauf wir uns voraussichtlich einrichten können. Dieses Buch fußt auf einer Vielzahl von Fakten und belegt, woher sie stammen. Es berichtet darüber so, dass man sie möglichst einfach verstehen kann. Dazu verzichtet es wo immer möglich auf Fachsprachen und auf vermeidbare wissenschaftliche Umständlichkeit. Das sei hier an einem einzigen Beispiel erläutert. Es ist gekürzt, sonst wäre es noch komplizierter. Es beschreibt Transaktionen. Und nun kommt es: Diese Transaktionen „implizieren eine individualisierende Adressierbarkeit der an den Transaktionen beteiligten Entitäten, die deren zeitliche und häufig auch räumliche Verortbarkeit beinhaltet. Transaktionen rekurrieren somit auf ganze Medienensembles der Zeitmessung, der Adressierung und der Verortung, deren gemeinsame Nutzung Gegenstand der Anbahnung wie auch Implementationsbedingung von Transaktionen ist … Prüfprozesse betreffen die Gültigkeit der Übereinkünfte der Transaktionsprozesse durch die Transaktionsbeteiligten … Transaktionen rechnen also mit Verweigerung und attribuieren diese Möglichkeit den Transaktionsbeteiligten. Big Data … irritiert die skizzierten Modalitäten von Kommunikation und Transaktion und führt eine Verunschärfung des voluntaristischen Aspekts von Transaktionen herbei.“ Es sei erlaubt, den vermuteten Gehalt dieses Satzungetüms so herunterzubrechen: Transaktionen, also Übertragungen, setzen voraus, dass die daran Beteiligten wissen, wer die jeweils anderen Mitbeteiligten sind, wann und häufig auch wo man sie erreichen kann und dass man sie zu bestimmten Zeiten an bestimmten Orten auch wirklich erreicht … Dazu sind Übereinkünfte nötig. Die können die Beteiligten prüfen, aber auch verweigern. Bei Big Data ist eine solche Verweigerung allerdings nur eingeschränkt möglich. Auch computer nerds verständigen sich in einer mit unzähligen Abkürzungen durchsetzten Fachsprache, die sich dem Normalbürger oft nicht erschließt. Das beginnt schon mit dem Wort nerd selbst; es bezeichnet Personen, die an neuen Computertechnologien aktiv teilhaben, sei es als IT (Informations-Technologie)-Spezialisten oder als early adopters, also sehr frühe Nutzer. Wir vermeiden oder erklären in diesem Buch solche Fachausdrücke. Nur Begriffe wie Computer oder Internet, die schon Teil der deutschen Umgangssprache sind, werden auch so benutzt. Dieses Buch fußt einerseits auf Gesprächen in den Jahren 2017 und 2018 mit den Hauptakteuren, denen ich für diese Auskünfte sehr danke. Ihre Aussagen sind in wörtlicher oder indirekter Rede wiedergegeben oder nacherzählt. Alle erwähnten Personen, Firmen und Fachbegriffe sind im Anhang erläutert. Im Übrigen stützt sich dieser Text auf eine Vielzahl schriftlicher Quellen. Sie sind auf der zu diesem Buch gehörenden Webseite alphabetisch nach Autoren gelistet. Wo der Text daraus sinngemäß oder wörtlich zitiert (nur wörtliche Zitate stehen in Anführungszeichen), wird auf die Quelle in Klammern verwiesen (Name, Erscheinungsjahr: Seite). Wird aus einer Quelle mehrfach direkt nacheinander zitiert, wird ab dem zweiten Zitat nur auf sie verwiesen (ibid.: Seite). Wird aus einer schon genannten Seite nochmals zitiert, ist eine erneute Erwähnung derselben Seitenzahl natürlich entbehrlich; dann genügt ein ibid. (ebenda). Sie brauchen diese Verweise nicht zu beachten. Wenn Sie aber eine Quelle ausführlicher nachlesen möchten; zeigt Ihnen die Webseite zu diesem Buch, wo Sie fündig werden können. Die Webseite bringt übrigens noch weit mehr: Hintergründe und Zusammenhänge in der Welt der Big Data und der Künstlichen Intelligenz. In den Kapiteln wird auf solche Vertiefungen jeweils verwiesen. Sie können dort aber auch einfach ein wenig schmökern. Es lohnt sich. Und nun viel Interesse an Big Data und viele Einsichten in diese spannende Welt. Gernot Brauer ð ºdC[id<8Cg <?page no="7"?> EEiinn RRaatt vvo orraabb Wer online geht, tut das stets in Gesellschaft, auch wenn er es nicht bemerkt oder nicht will. Wenn Sie online gehen, sehen und hören Ihnen nämlich zahllose programmierte Maschinen zu. Mit jedem Klick auf eine Webseite, besonders intensiv mit jeder Anfrage an eine Suchmaschine oder an ein Preisvergleichsportal machen Sie ein Stück weit sichtbar, was Sie interessiert. Mit jeder Aktivität und jeder Meinungsäußerung in einem sozialen Netzwerk zeigen Sie nicht nur Ihren Freunden, sondern auch technischen Beobachtern, was für ein Typ Sie sind, was Sie tun und wie Sie drauf sind. Denn jeden Klick auf jede Webseite registrieren externe Computer sofort. Sie parken Cookies auf Ihrem Gerät; das sind kleine Dateien, die die Einstellungen Ihres Geräts und andere Informationen speichern. Die werden für weitere Kontakte mit Ihnen ausgelesen und kommerziell genutzt. Cookies zu speichern können Sie auf Ihrem Gerät zwar unterbinden, aber dann wird die aufgerufene Webseite vielleicht nicht gut funktionieren. Wann immer Sie ins Internet gehen, werden Sie also möglichst gründlich durchleuchtet. Dazu dienen Tracking-Technologien. Was diese über Sie in Erfahrung bringen, wird kommerziell ausgewertet und im Internet auch weiterverkauft. Ihr Surf-Verhalten steht deshalb auch anderen Betreibern zur Verfügung. So erfahren auch diese, was Sie interessiert und sprechen Sie mit zielgerichteter Werbung an. In vielen Webseiten sind Plugins sozialer Netzwerke wie Facebook und Twitter, YouTube und Google+ schon integriert. Sie registrieren bei jedem Seitenaufruf Ihre Daten und geben so genaue Auskunft über Ihre Aktivitäten. Dazu müssen Sie weder bei dem sozialen Netzwerk eingeloggt noch dort Mitglied sein. Bei einigen Webseiten müssen Sie dieses Symbol zwar erst anklicken. Sind Sie dort bereits angemeldet, erteilen Sie damit jedoch Ihre Zustimmung, Daten automatisch an den sozialen Netzbetreiber zu übermitteln. Sie können auch einfach ein Häkchen setzen - dann ist der ausgewählte button immer aktiv. Google Analytics und Wettbewerber (vgl. Joos 2018) registrieren außerdem Ihre Verweildauer im Netz, Ihre geographische Herkunft und einiges mehr - immer mit dem Ziel, der Werbung erfolgversprechende Pfade zu bahnen. So entstehen Wahrscheinlichkeiten darüber, welche Werbung wann und wo etwas bringt. Viele Webseiten arbeiten global mit einem Dutzend und mehr externer Analyse-Dienstleister zusammen. In ihren Datenschutzrubriken müssen Webseitenbetreiber die Auswertungsfirmen zwar nennen. Aber welcher Internetnutzer liest dieses Kleingedruckte sorgfältig? Der Internetpionier und Mitverfasser des Internet-kritischen Cluetrain-Manifesto von 1999, Doc Searls, sieht diese Entwicklung äußerst kritisch: „Werbung wurde furchtbar pervertiert, bis hin ins Unmoralische. Ein Geschäft würde mir niemals einen Sender auf die Schulter pflanzen, nachdem ich in ihm eingekauft habe. Im Web ist das Standard, und das ist einfach falsch. Weil so viel davon unbeobachtet abläuft, haben wir all diese gruseligen Verhaltensmuster“ (Kuhn 2018). Besonders heikel sind personenbezogene Daten, also die, anhand derer man Sie als Einzelperson identifizieren kann. Dazu gehören Name, E-Mail-Adresse und zum Beispiel Zahlungsinformationen. Zwar müssen persönliche Daten in vielen Fällen anonymisiert oder pseudonymisiert werden. Das lässt sich aber umgehen: Nicht wenige Offerten im Internet, etwa Gewinnspiele, haben hauptsächlich den Zweck, an freiwillig übermittelte personenbezog ene Daten zu kommen. Wer etwas gewinnen will, muss ja offenlegen, wer er ist. Haben Sie erst einmal irgendwo Ihren Namen und Ihre Adresse hinterlassen, werden solche persönlichen Daten sofort mit denen verknüpft, die im Netz sonst noch über Sie kursieren. Die wirken wie ein offenes Buch: Schon mit zehn Facebook-likes lässt sich eine Person besser einschätzen als das ein durchschnittlicher Arbeitskollege kann. 70 likes reichen aus, um die Menschenkenntnis <?page no="8"?> eines Freundes zu überbieten, 150 um die der Eltern zu übertreffen, und mit 300 likes kann eine Maschine das Verhalten einer Person genauer vorhersagen als deren Partner. Mit noch mehr likes kann sie sogar übertreffen, „was Menschen von sich selber zu wissen glauben“ (Krogerus 2016). Alsbald sind Sie also absolut gläsern. Selbst wenn Sie nicht im Internet surfen, sondern nur eine Kundenkarte vorlegen, greift dieses System. Wer aus dieser Datenwelt aussteigen will, müsste deshalb bereit sein, ein Einsiedlerdasein wie Robinson Crusoe zu führen (Morgenroth 2014: 226). Aber Sie benutzen das Internet ja gerade, um Kontakte aufbauen und pflegen zu können und um sich zu orientieren. Mit dem Schutz Ihrer Privatsphäre ist es in der Datenwelt folglich nicht weit her. Das werden Sie in Kapitel 9 genauer einzuschätzen lernen. Es gibt zwar Regeln, die den Datengebrauch limitieren; in der EU ist es in erster Linie eine Richtlinie, die seit dem Frühsommer 2018 europaweit gilt. Aber große Grauzonen verbleiben, zumal viele „Datenkraken“ keine europäischen Firmen sind, sondern amerikanische mit einem weit laxeren Rechtsrahmen. Es gibt Empfehlungen dafür, wie man die Ausforschung der eigenen Person via Internet begrenzen kann, etwa indem man nicht ständig online ist. Die meisten dieser Empfehlungen sind etwas weltfremd. Wer will es schon Robinson Crusoe gleich tun? Aber man kann handeln, etwa sich bei digitalcourage.de informieren, eigene Daten und Mails verschlüsseln und die Politik zum Handeln auffordern. Vor allem aber sollten Sie die Mechanismen kennen und zu nutzen oder zu umgehen lernen, denen Sie sich als Datenbesitzer aussetzen. Das ist ein Zweck dieses Buches. Der andere ist, Ihnen die faszinierende Welt der Künstlichen Intelligenz in ihrer ganzen Vielfalt nahezubringen. Sie birgt, wie es in diesem Buch zu Recht heißt, ein „unfassbar aufregendes, intellektuelles Abenteuer.“ Erobern Sie es sich. Hinweise zum Buch Dieses Buch und die Webseite zu diesem Buch gehören zusammen. Die Webseite enthält Hintergrundinformationen, Erläuterungen und Vertiefungen sowie das ausführliche Literaturverzeichnis. Alle im Buch verwendeten Quellen verweisen auf dieses Literaturverzeichnis. Hier noch einmal die Webseiten-Adresse: www.uvk.digital/ 9783867649018 ê ºdC —|< 4BA|y <?page no="9"?> IInnhhaalltt 0 Einleitung und ein Rat vorab Wie verbreitet Big Data sind, wie sie das wirtschaftliche Handeln verändern und was das für uns bedeutet. 1 Milliarden in Millisekunden. Ist die Künstliche Intelligenz schon schlauer als wir? 1.1 Die Entwicklung des Computers im Zeitraffer 13 1.2 Die großen Beweger - die Datenkraken 18 1.3 Der Weg zu Big Data 28 1.4 Internet und darknet 36 1.5 Das Internet der Dinge 41 1.6 Die Blockchain 44 1.7 Die Künstliche Intelligenz 50 2 Big Data Daddy . Was befähigt einen Mann, die Datenwelt komplett umzukrempeln? Ein Dreier-Team hat mit Quantum Relations den Weg zum Cloud Computing geebnet. Woher kamen diese drei Menschen, was führte sie zusammen, wie gingen sie vor? 2.1 Ein Filmproduzent entdeckt die Welt von Big Data 67 2.2 Hardy, der Universalist 74 3 Von Newton über Einstein zu RavenPack und zu Prisma. Wie tickt heute die Welt? Einstein zu verstehen war die Basis für quantim relations. RavenPack revolutionierte damit die Finanzwelt. Prisma ermöglicht nun blitzschnelle Entscheidungen mit höchster Treffsicherheit nicht nur auf der Basis von Zahlen, sondern auch der gesamten mentalen. Welt. Das gab es noch nie. 3.1 Algorithmen - die Alleskönner 83 3.2 Wissendes Subjekt und gewusstes Objekt 89 3.3 Von Quanten zu Quantum Relations 92 3.4 Phil, die Multibegabung 98 3.5 Der Weg zu RavenPack 100 3.6 Die Schloer Consulting Gro up wird geschaffen 113 3.7 Die Prisma Analytics GmbH entsteht 116 4 Goldstandard der News. Wie verbreitet sich dieses Know-How jetzt global? Einer der größten Datenkonzerne wird mit Prisma Analytics verbunden, so dass das System in Echtzeit jede menschliche Regung registrieren und verarbeiten kann. 4.1 Maschinenleistung und der menschliche Faktor 123 4.2 Wie Prisma Daten visualisiert 130 <?page no="10"?> 10 ·Cf|[< 5 Big Data in der Wirtschaft. Werden Arbeitnehmer entbehrlich? Big Data automatisieren die Arbeit in unvorstellbarem Maß, verdrängen Millionen Beschäftigte, schaffen auch neue Jobs, aber für höher Qualifizierte. Wer verliert, wer gewinnt? 5.1 Data Scientists 141 5.2 Jobkiller Datentechnik 142 5.3 Die Wirtschaft 4.0 145 5.4 Big Data in der Automobilindustrie 151 5.5 Big Data in der Prozesindustrie 163 5.6 Big Data im Handel 166 5.7 Die Smart City 171 6 Was Spekulanten einbüßen. Hebelt der Computer Handel und Wettbewerb aus? Spekulations- und Handelsgewinne beruhen auf Informationsvorsprung. Der verschwindet in digitalisierten Märkten. Daten werden zur neuen Währung der Welt. 6.1 Wenn Wissensvorsprung sich auflöst 177 6.2 Das Global Value Exchang e-System 179 6.3 Die Global Economic Unit 181 7 Wissen ist gut, denken ist besser. Entscheiden Maschinen intelligenter als wir? Niemand weiß so viel wie Computer. Sie lernen auch zu denken und zu entscheiden. Übernehmen sie bald auch uns? Was das Mensch-Maschine-System bedeutet. 7.1 Grenzen Mensch - Computer verschwimmen 185 7.2 Hardys Vision vom intelligenten Planeten 191 8 Der nackte Patient. Werden wir eine bessere Medizin mit unseren Daten bezahlen? Gesundheitsdienste wollen und werden alles über uns wissen. Wie viel Souveränität behalten wir noch über unsere intimsten Daten, die über unsere Gesundheit? 8.1 Die Maschine als Arzthelfer 193 8.2 Auch im Gesundheitswesen Big Data 196 8.3 Zo e - die Vision einer gesünderen Welt 200 8.4 Datenschutzprobleme 204 9 Gläsern sind wir schon jetzt. Gibt es für irgendeine Privatheit noch eine Chance? Was in der Datenwelt legal ist und was legitim: Persönlichkeitsschutz, Datengebrauch, Datenschutzrthik. 9.1 Was wird aus der Privatsphäre? 209 9.2 Wem gehören Daten? 213 9.3 Der Datenklau von Cambridge Aalytica 214 9.4 Das deutsche Datenschutzrecht 217 9.5 Die EU-Datenschutzgrundverordnung 221 9.6 Eckpunkte einer Datenstrategie in der Welt von Big Data 223 9.7 Privacy by Desi g 226 9.8 Die Digitalcharta 230 <?page no="11"?> ·Cf|[< 11 9.9 Was ethische Normen leisten können 234 9.10 Ethical Alligned Design 236 9.11 Ein Leitlinienentwurf von Bitkom 237 9.12 Cybersicherheit ist eine globale Aufgabe 239 10 Die neue A ufklärung. Wie w ird g lo ba l greifb ar es Wissen d as Le be n al le r v erä nd ern? Ist eine Welt vorstellbar, in der wir wissensbasiert, vernunftgeleitet und kooperativ das allgemeine Beste ermitteln und danach handeln? Experten erwarten genau das. 10.1 Die Welt der Open Data 241 10.2 Interkulturelle Zentren investigativen Wissens 247 10.3 Digital Humanities 249 10.4 Big Data in den Wissenschaften 252 10.5 Eine Zwischenbilanz 257 11 Politik durch die Bürger, nicht nur für sie. Kommt die kooperative Regierung? Noch ist ein datengesteuertes Regierungssystem auf Basis des Bürgerwillens eine Vision. Aber wir besitzen schon die Möglichkeit, es zu installieren. 11.1 Helbings Plan 261 11.2 Running for President 262 11.3 Wie und wozu der Staat Daten abgreift 270 11.4 Ohne Algorithmen läuft nichts mehr 274 11.5 Suchmaschinen steuern, wie wir denken 276 11.6 Aufklärung durch Fakten 286 12 Das ewige Leben. Kann der Mensch mit der digitalen Maschinenwelt zu einem ewig möglichen Leben verschmelzen? Forscher und Universitäten prognostizieren schon, wann es so weit sein wird. 12.1 Das zweite Ich 289 12.2 Humanismus und Transhumanismus 291 12.3 Noch sind viele Fragen offen, aber wir sind unterwegs 295 Anhang: Glossar der Fachbegriffe 299 Namensregister 307 Register der Firmen und Insti tutionen 321 Stichwortregister 331 Die Webseite enthält folgende Abschnitte: Der Umgang mit Daten (Datenspeicherung, Clouds, Datenauswertung, Besonderheiten der Auswertung von Big Data, Hadoop) Der Markt der Künstlichen Intelligenz Stichwortverzeichnis der Webseitenabschnitte Literatur 344 360 363 365 <?page no="13"?> 11 MMiilllliiaarrddeen n iinn MMiilllliisse ek kuunnddeen n Ist die Künstliche Intelligenz schon schlauer als wir? Was bei Big Data abgeht, ist schier unvorstellbar. Datenwolken beginnen jedes Handeln zu durchdringen und alle Entscheidungen zu konditionieren. Firmen wie Microsoft, Google und Facebook erzeugen cyber-physische Systeme. Dieses Kapitel erläutert die Datenwelt und verweist auf ihre großen Beweger und deren Technologien (Details auf der Webnseite). Es zeigt, wie verbreitet Big Data sind, wie sie als Künstliche Intellugenz das Handeln verändern und was das für uns bedeutet. 1.1 Die Entwicklung des Computers im Zeitraffer 13 1.2 Die großen Beweger - die Datenkraken 18 1.3 Der Weg zu Big Data 28 1.4 Internet und darknet 36 1.5 Das Internet der Dinge 41 1.6 Die Blockchain 44 1.7 Die Künstliche Intelligenz 50 1 1..11 DDiiee EEnnttwwiicckklluunngg ddees s CCoommppuutteer rss iimm ZZeei ittrraaffffeerr „Stell dir vor, es ist Revolution, und die Leute merken es kaum. Unterdessen ist der wahre Umsturz längst im Gange“, schreibt der Computerexperte Martin-Jung (2018a) und erläutert: er verläuft exponentiell. Menschen erfassen das nur schwer. Daher gibt Martin-Jung ein Beispiel: Wenn in ein Fußballstadion alle zwei Sekunden Wasser getropft würde, erst ein Tropfen, dann zwei, dann vier, dann acht und immer so weiter die doppelte Menge wie lange würde es dauern, bis die riesige Betonschüssel voll ist? Nicht einmal zehn Minuten (ibid.). Anfangs merkt man nicht, was da passiert. So ist oder war es zumindest auch mit der Welt der Computer. Es ist höchste Zeit, sich vorzubereiten (ibid.). Computer, das Internet und Daten allerorten gehören inzwischen zu unserem Leben wie Wasser und Brot. 2,8 Milliarden Menschen sind mittlerweile online; das ist ein Zuwachs von 280 Prozent in nur zehn Jahren (Noska 2017). Was sich derzeit vollzieht, revolutioniert unseren Alltag von Grund auf. „Wir verarbeiten Daten nicht nur schneller und besser als zuvor. Wir tun Dinge, die wir zuvor nie tun konnten“, sagt Jason Cornez, Chief Technology Officer der im Finanzmarkt tätigen Analysefirma RavenPack, und der Leiter des Bereichs Finance Product Management von MathWorks, Stuart Kozola, stimmt ihm ebenso zu wie Thani Sokka, der Technikchef des Datenhauses Dow Jones (RavenPack 2017b). Datenanalysen, die auf herkömmlichen Computersystemen noch vor Kurzem eineinhalb Monate dauerten, lassen sich in der cloud (was das ist, zeigen wir auf unserer Webseite) in Stunden erledigen. Die Auswertung aller Daten von Wetterstationen für eine Wettervorhersage, die vor einem Jahrzehnt noch 15 Minuten dauerte, ist jetzt in einer Sekunde erledigt. Eine nochmalige Beschleunigung um das 17.000-fache deutet sich an (näheres im Abschnitt über Quantencomputer). Entscheidungen sind also sofort möglich. Der Handel mit Aktien vollzieht sich bereits in 200 Millisekunden - wir kommen in Kapitel 3 darauf noch zu sprechen. <?page no="14"?> 14 1 Milliarden in Millisekunden Datenwolken umgeben uns seit wenigen Jahren so selbstverständlich, dass wir gut daran tun, uns zu erinnern, wie relativkurz die Geschichte der elektronischen, automatisierten Datenverarbeitung zurück reicht. Die Herkunft der elektronischen Datenverarbeitung. Die Idee, wir selbst seien so etwas wie biologische Automaten, eine Art natürlicher Computer, ist zwar schon recht alt. Im 17. Jahrhundert verstand der deutsche Philosoph und Mathematiker Leibniz die Welt als ein System aus Automaten, die er Monaden nannte - eine Weltsicht, die heute wieder aktuell ist (vgl. Mainzer/ Chua 2011). Leibniz betrachtete alles, was lebt, als natürliche Monaden, als solche biologischen Automaten, die wesentlich besser funktionieren als von Menschen gebaute Automaten seiner Zeit. Und in der Tat: Der menschliche Körper atmet, verdaut und regeneriert sich schlafend automatengleich, ohne dass das Bewusstsein eingreifen muss. Leibniz zeigte sich überzeugt, dass eines Tages Automaten nicht nur menschliche Arbeit übernehmen und die Menschen damit für kreative Tätigkeiten frei machen könnten, sondern dass diese Automaten auch Entscheidungen zu treffen vermöchten. Er sollte Recht behalten. Den ersten programmierbaren Automaten baute aber erst im im 19. Jahrhundert, im Zeitalter der Dampfmaschinen, der Brite Charles Babbage auf noch rein mechanischer Grundlage. Zur Steuerung benutzte er auswechselbare Lochkarten für damals schon teilautomatisch getaktete Webstühle. Elektromechanische Rechenmaschinen tauchten dann im ausgehenden 19. Jahrhundert auf. Erstmals verwendet wurden sie in den USA zur Volkszählung 1890 (Kurzweil 2012: 251). Trotz der Weite des Landes und der Einwandererströme war sie in sechs Wochen durchgeführt und nach zweieinhalb Jahren ausgewertet (Press 2013). Leibniz‘ Vision wurde erst zur Mitte den 20. Jahrhunderts umgesetzt, als zelluläre Automaten konstruiert werden konnten. In ihnen lassen sich Arbeitsschritte beliebig zerlegen und in diesen kleinsten Schrittchen dann wie in den Zellen eines Gehirns arbeitsteilig und miteinander kombiniert erledigen. Computer sind solche zellulären Automaten. Ihr Kern ist ein Zentralprozessor, in dem Zellen mit Hilfe elektrischen Stroms zugleich rechnen und speichern. Er kann auf den ersten Blick wenig, nämlich „nur“ die zwei unterschiedlichen elektrischen Spannungszustände an oder aus registrieren und verarbeiten. Das tut er aber erstens in maximal möglichem Tempo, nämlich mit Lichtgeschwindigkeit, zweitens auf kleinstem, mittlerweile molekular kleinem Raum und drittens parallel, das heißt: Seine Zellen erledigen eine Vielzahl von Registrierungs- und Verarbeitungs-, also Rechenaufgaben zur selben Zeit. Computer sind der sichtbarste Teil einer technischen Revolution, die die Welt in den letzten fünfzig Jahren zunehmend umgekrempelt hat und weiter verwandelt. Ihr Kern ist die Elektronisierung zunehmend aller technischen Vorgänge und damit ihre Digitalisierung. Sie führt geradewegs in die Welt von Big Data. Aus einer größeren Zahl kluger Köpfe, die sie vorangebracht haben, seien hier in der Reihenfolge ihrer Geburtstage drei genannt, die für die Digitalisierbarkeit der Welt besonders wichtig sind. Es sind erstens der ungarisch-amerikanische Mathematiker und Vater der Spieltheorie John von Neumann (1903-1957); er spielte in den Jahren des Zweiten Weltkriegs als Computerpionier im sogenannten Manhattan-Projekt zum Bau der ersten Atombombe eine tragende Rolle und präsentierte 1946 den ersten militärisch genutzten Computer ENIAC. Als zweiter ist der deutsche Erfinder Konrad Zuse (1910-1995) zu nennen; er beschäftigte sich schon seit 1935 mit programmierbaren Computern auf der Basis binärer Zeichen und präsentierte 1941 seinen ersten Computer, konnte ihn aber nicht mit Vakuumröhren ausstatten, weil das NS-Regime Computer nicht als kriegswichtig einschätzte <?page no="15"?> 1.1 Die Entwicklung des Computers im Zeitraffer 15 (Kurzweil 2012: 189). Der dritte Pionier ist der britische Logiker und Mathematiker Alan Mathison Turing (1912-1954), dessen Arbeit sogar kriegsentscheidend war, mittlerweile verfilmt wurde und uns gleich noch etwas genauer beschäftigt. 1936, ein Jahr nach Zuses Innovation, schreibt dieses englische Computergenie Alan M. Turing seinen Aufsatz „on computable numbers“. Im Jahr darauf erscheint sein Text auch gedruckt (Turing 1937). Darin entwickelt er das Konzept einer Turing machine. Es ist zunächst nur eine Idee. Aber sie definiert das Arbeitsprinzip aller späteren Computer, die als Universalmaschinen mehr oder weniger schnell und elegant jedes mathematische Problem lösen können, das sich mit Algorithmen bearbeiten lässt. Turings Geniestreich versetzt die Briten während des Zweiten Weltkriegs in die Lage, mit dem Rechnersystem Colossus im Forschungszentrum Bletchley Park bei London (Hinsley/ Stripp 2005) das Verschlüsselungssystem Enigma der deutschen Marine und mit ihm deren Funksprüche zu knacken. Das war der „erste große Erfolg der Informatik“ (brand eins 2016) und für den Sieg der Alliierten auf See der entscheidende Durchbruch. Nach den Worten des US-Oberbefehlshabers und späteren Präsidenten Eisenhower ist es sogar der „kriegsentscheidende“ Schlüssel gewesen, um den U-Boot-Krieg zu gewinnen (Ulbricht 2005). Nach dem Krieg arbeitet dieser „überragende Theoretiker der Berechenbarkeit“ (Mainzer 2014a) in Großbritannien am Projekt ACE (Automatic Computing Engine) und ab 1949 an der Universität Manchester an der software für den ersten zivilen Computer Manchester Mark 1 (ibid.). 1942 stellt der science fiction-Autor Isaac Asimov seine Roboter„gesetze“ vor. Sie bestehen aus drei einfachen und klaren Forderungen: Erstens: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen wissentlich Schaden zugefügt wird. Zweitens: Er muss menschlichen Befehlen gehorchen, es sei denn, der Befehl widerspricht Punkt 1. Und er muss drittens die Existenz der Menschen beschützen, solange das nicht mit Regel 1 oder 2 kollidiert. 1943 sagen Warren McCulloch und Walter Pitts erstmals künstliche Neuronen voraus (McCulloch/ Pitts 1943). Im selben Jahr baut der deutsche Erfinder Konrad Zuse seinen ersten Computer mit dem Namen Zuse 3 und legt 1945 die weltweit erste Version einer höheren Programmiersprache namens Plankalkül vor. Praktisch verwendet wird diese Sprache allerdings nicht. 1969 beschreibt er in seinem Buch „Rechnender Raum“ das Universum und seine physikalischen Zustände als einen gewaltigen zellulären Automaten. 1946 wird nach dem Konzept des Mathematikers John von Neumann der erste fast vollständig frei programmierbare Computer fertiggestellt, der amerikanische Electronic Numerator, Integrator and Computer (ENIAC). Nach seinen Prinzipien arbeiten seither alle Computer. Dieser erste ENIAC gehört damals dem Militär. Was ist da Grundlegendes passiert? „Ein Computer verlangt, dass alles aus dem kontinuierlichen Fluss unserer Alltagswirklichkeit in ein Raster von Zahlen umgewandelt wird, das als eine Darstellung der Wirklichkeit abgespeichert werden kann, die sich dann mit Hilfe von Algorithmen manipulieren lässt“ (Berry 2014: 48). Fairerweise ist zu sagen: Computer selbst verlangen gar nichts. Wir programmieren sie vielmehr auf bestimmte Leistungen. Computer und die sie verbindenden Netze galten anfan gs als bloße Hilfsmittel und die „Leistung der Maschine als Diener“, nicht als „ihr Beteiligter, der eine kritische Betrachtung ermöglicht“ (McCarty 2009). In den letzten zehn Jahren haben viele Menschen aber zu begreifen begonnen, dass aus dem Hilfsmittel Computer in hohem Tempo ein Mit- Arbeiter und zunehmend ein Vor-Arbeiter wird. Er kann nämlich vieles bereits schneller und besser als wir. Die Technik hat im Umgang mit Daten also neue Qualitäten erzeugt. Diese Leistung nennt man üblicherweise Künstliche Intelligenz. Schon im ausgehenden 20. Jahrhundert erwies sich, dass sich mit Computerhilfe die gesamte Welt neu organisieren lässt. Nicht zufällig kommen im Wortschatz von Computer- <?page no="16"?> 16 1 Milliarden in Millisekunden experten die Begriffe global, Welt und Planet signifikant häufig vor, etwa in der IBM- Initiative smarter planet, im Google-Motto „organize the world‘s information“ oder in Google- Papieren wie etwa „web search for a planet“ (Barroso et al. 2003). Auch in Überlegungen zum Computerprogramm quantum relations ist dieses Vokabular immer wieder zu finden. Quantum relations werden uns im Kapitel 3 dieses Buchs noch detailliert beschäftigen. Dass Google das Wort Information in seinem Motto verwendet, ist gewiss gut durchdacht. Denn mit „Information“ ist nicht nur gemeint, dass wir „im Zeitalter digitaler Informationsverarbeitung durch Computer leben, sondern dass wir Information überall entdecken können: So werden aus Nullen und Einsen die Datenströme sozialer Netzwerke und aus Marktplätzen ‚hochkomplexe Informationssysteme‘ - von der Quantenphysik bis zur Evolutionstheorie, vom algorithmischen und nachrichtentechnischen Begriff zur experimentellen Hirnforschung“ (Mainzer 2016b). 1950 überlegt Alan Turing, wie man feststellen kann, ob eine Maschine selbstständig unterscheiden und damit denken kann. Seine Antwort gibt er in einem Bild: Kommuniziert eine Testperson mit zwei anonymen Gesprächspartnern ohne Blickkontakt nur via Tastatur und Bildschirm und kann sie dabei nicht unterscheiden, wer von den beiden Antwortenden Mensch oder Maschine ist, dann hat die Maschine diesen Test bestanden. Heute löst dieser berühmte Test nur noch wenig Begeisterung aus. Wissenschaftler finden, er gehe am inzwischen erreichten Forschungsstand vorbei. Experten wie Francesca Rossi, KI-Forscherin an der Universität Padua, jetzt bei IBM, fordern daher neue Teststandards (Henssler 2018). 1951 nehmen die ENIAC-Pioniere (vgl. 1946) John Mauchly und John Presper Eckert ihren ersten wohnzimmergroßen und 13 Tonnen schweren zivilen Computer mit 5.200 Röhren und 18.000 Kristall-Dioden in Betrieb, den UNIVAC I. Er macht für das United States Census Bureau, also das statistische Amt, knapp zweitausend Rechenoperationen pro Sekunde. Die Trends zur US-Präsidentschaftswahl 1952 berechnet er verblüffend genau (brand eins 2016). Anfang 1952 erhält auch die US Air Force einen UNIVAC. Exemplar Nummer 5 geht im selben Jahr an den Fernsehsender CBS, um Ergebnisse der Präsidentschaftswahl vorherzusagen. Auch er rechnet korrekt. Marvin Minsky, ein Pionier der Künstlichen Intelligenz, baut im selben Jahr für seine Dissertation den Prototypen eines Neurocomputers. Und in Deutschland gründet der junge Physiker Heinz Nixdorf sein IT-Unternehmen. 1955 treffen sich am Dartmouth College im US-Bundesstaat New Hampshire Forscher, unter ihnen John McCarthy und der spätere „Vater der künstlichen Intelligenz“ Marvin Minsky, um mit Wissen über sogenannte neuronale Netze im Gehirn des Menschen ein Projekt für das Lernen und alle anderen Merkmale der Intelligenz aufzusetzen. Es soll so genau sein, dass danach eine Maschine gebaut werden kann, die diese Vorgänge simuliert. Sie soll, so hoffen die Forscher, so kreativ sein wie der homo sapiens, sich ständig selbst verbessern und mit Zufällen umgehen können. Auch wenn die Entwickung des homo sapiens Millionen Jahre dauerte: Die Wissenschaftler rechnen für sechs Forscher, einige Praktikanten und eine Sekretärin mit einer Projektzeit von nur drei Jahren. Die Realität sieht allerdings anders aus: An diesen Zielen wird bis heute gearbeitet. 1957, nicht lange nach der Dartmouth-Konferenz, legen der spätere Wirtschaftsnobelpreisträger Herbert Simonund der Informatiker Allen Newell ihr Konzept für einen general problem solver (GPS) vor. Diese Maschine soll Fragen aller Art mit künstlicher Intelligenz beantworten. Er kann aber nur zum Beweisen simpler Theoreme aus Logik und Geometrie, Wortpuzzles oder Schach angewandt werden. 1958 berichtet die New York Times von einem ‚lernenden Computer‘ der US-Navy. Er kann nach 50 Versuchen rechts von links unterscheiden. 1965 wird der erste Roboter entwickelt, der ansatzweise Muster erkennen kann: Forscher am Stanford Research Institute in Menlo Park, Kalifornien, bauen in diesem Jahr Shakey zu- <?page no="17"?> 1.1 Die Entwicklung des Computers im Zeitraffer 17 sammen (Eberl 2016: 43). Die Microsoft-Gründer Bill Gates und Paul Allen lassen sich von Shakey ebenso inspirieren wie Arthur C. Clarke, der 1968 zusammen mit dem Regisseur Stanley Kubrick im Kinofilm „2001 - Odyssee im Weltraum“ dreht, mit HAL 9000 als Prototyp einer gefährlichen Computerintelligenz. 1966 stellt der aus Berlin stammende, an der Entwicklung des Internetvorgängers Arpanet beteiligte Informatiker Joseph Weizenbaum am Massachusetts Institute of Technology (MIT) das Computerprogramm Eliza vor. Es simuliert einen intelligenten Dialog mit Menschen gerade so, wie sich Turing das vorgestellt hatte. Tester glauben, das Programm sei wirklich so schlau. Aber tippt man ein: „Ich bin tot“ ein, gibt Eliza lediglich zurück: „Und wie fühlt es sich an, tot zu sein? “ Weizenbaum ist damals davon überzeugt, dass man Maschinen nicht zum Denken bringen könne, wenn man versuche, die menschliche Denkweise maschinell nachzubilden. Vielmehr müsse man die Menschen stärker wie Maschinen behandeln, indem man ihnen einen Spiegel vorhält (Hankey 2017: 93). Künstliche Intelligenz, glaubt der deutschstämminge Professor damals, sei zwar möglich, aber extrem gefährlich. Niemals dürften Computer folglich selbst etwas entscheiden. Denn zu Urteilsvermögen und Emotionen seien sie nicht fähig (ibid). Sie können allerdings emotionale Äußerungen von Menschen erkennen und deuten. Werbestrategen nutzen diese maschinelle Leistung heute, um ihre Botschaften noch gezielter zu setzen. Die IT-Welt verdankt Joseph Weizenbaum später den ersten lauten Zwischenruf gegen einen mechanistischen Maschinenglauben im Zeitalter der Digitalisierung. Die Titel seiner Bücher sprechen für sich: 1977 „Die Macht der Computer und die Ohnmacht der Vernunft“ und 1993, in der aufkommenden Interneteuphorie „Wer erfindet die Computermythen? “ Trotz solcher Skepsis hält die stürmische Weiterentwicklung der Computertechnologie ungebremst an. Der amerikanische Experte Ray Kurzweil wagt im Jahr 2000 über Computer eine Prognose: Als „sinnliche und spirituelle Maschinen des 21. Jahrhunderts“ seien sie von unserer Kultur nicht mehr zu trennen (Kurzweil 2000: 208). Heute wird dazu von Cyborgs gesprochen. 1999 sagt Kurzweil voraus, 2009 würden Menschen ein Dutzend Computer am Körper tragen (ibid.: 295) - eine Vorhersage, die sich - wenn auch mit einem Jahrzehnt Verspätung - als tendenziell richtig erweist. Und für 2019 lautet seine Prognose, Computer würden bis dahin „weitgehend unsichtbar überall eingebettet“sein - in Wände, Tische, Stühle, Schreibtische, Kleider, in Schmuck und im Körper“ (ibid.: 314). Mit dem Internet der Dinge kommt derzeit genau dies auf uns zu. Nur sprechen wir statt von in den Dingen eingebetteten Computern von Sensoren. In der Tendenz hat Kurzweil richtig gelegen. Ein einzelner Transistor auf Mikrochips ist bereits deutlich kleiner als das kleinste Grippevirus (Eberl 2016: 49), und Sensoren in Allerwelts-Haushaltsgeräten werden so normal und so billig wie fließendes Wasser. Der wissenschaftliche Dienst des deutschen Bundestages spricht vom Internet der Dinge ganz treffend als vom ‚Allesnetz‘ (Borgmeier/ Grohmann 2017: 5). Weiter ist Kurzweil im Jahr vor der Jahrtausendwende davon überzeugt, dass damals 4000 Dollar teure Computer innerhalb von zwei Jahrzehnten ein Zehntel davon kosten, aber die Leistung des menschlichen Gehirns erreichen würden (ibid.: 315 f.). Dieser Preissturz gilt für Standard-PCs tatsächlich, für Hochleistungscomputer natürlich nicht. Den prognostizierten Zeitraum dieser Entwicklung sollten wir nicht wörtlich nehmen - aber in der Tendenz lag Kurzweil auch hier richtig. Der Vergleich mit der „Rechen“leistung des menschlichen Gehirns wird längst angestellt. Das beste Smartphone von heute ist mit rund hundert Milliarden Rechenoperationen pro Sekunde bereits fast so schnell wie es der beste Supercomputer Mitte der 1990er-Jahre war (Eberl 2016: 48). Für einen Blick voraus kann man diesen Vergleich getrost umdrehen: „Alles in allem werden wir in den nächsten 20 bis 25 Jahren - also bis 2035 oder 2040 - noch einmal eine Vertausendfachung der Rechenleistung, der Speicherfähigkeit und der Datenübertragungsrate von Mikrochips erleben. Auch <?page no="18"?> 18 1 Milliarden in Millisekunden eine Verzehntausendfachung bis 2050 ist ohne Weiteres drin. Das was ein heutiger Supercomputer kann, könnte also bis 2040 oder 2050 für weniger als 500 Euro in jedem Smartphone stecken“ (ibid.: 52).Zur Erläuterung: Die derzeit leistungsfähigsten Supercomputer der Welt, Titan am Oak Ridge National Laboratory in Tennessee, USA, und Tianhe-2 im chinesischen Guangzhou, haben Arbeitsspeicher zwischen 700 und 1400 Terabyte und erreichen mit 18 bis 34 Billiarden Rechenoperationen pro Sekunde die Größenordnung des menschlichens Gehirns. Allerdings benötigen sie zwischen acht und 18 Megawatt elektrischer Leistung. Das ist der Bedarf einer deutschen Stadt mit 20.000-Einwohnern. Dem Gehirn genügt zum Anhören eines halbstündigen Vortrags die Energiezufuhr eines Esslöffels Joghurt. Für eine eineinhalbstündige Präsentation verbraucht es die Energie einer Praline von gerade einmal fünf Gramm (ibid.: 146). Bis die Technik es mit der Effizienz von uns Menschen aufnehmen kann, ist der Weg also noch weit. Heute ist das beste Smartphone mit rund hundert Milliarden Rechenoperationen pro Sekunde wie erwähnt fast so schnell wie der beste Supercomputer Mitte der 1990er-Jahre (ibid.: 48). Dieses Tempo ist schon gigantisch. Eine für die Kommunikation grundlegende Fähigkeit geht Computern und damit auch Smartphones dagegen derzeit noch ab. Sie können noch nicht sprechen. Wir nehmen in Kauf, dass wir uns bisher in der Sprache ausdrücken müssen, die Computer verstehen: in Zeichen und Zahlen, genauer in binären Zeichen, in Bits. Das ändert sich aber: Algorithmen lernen die Vorlieben der Nutzer. Sie sollen „flüssige Unterhaltungen mit dem Computer möglich machen“ (Schulz 2017: 18) und können das in Grenzen bereits. In bestimmten Themenfeldern können Systeme zur Sprachanalyse die natürliche Sprache schon jetzt verstehen und interpretieren. Sie können Fragen im Dialog mit den Menschen beantworten und dabei ständig weiterlernen. Fujitsu setzt Simultanübersetzungs-Software ein, die sich selbstlernend weiterentwickelt. Sie wird beispielsweise in japanischen Krankenhäusern genutzt. Dort verbessert sie in bis zu 50 Sprachen den Dialog mit Patienten - freilich nur mit hochleistungsfähiger Hardware im Hintergrund (Fujitsu 2017: Media Day). 2017 stellte das Unternehmen sein Sprachsystem Live Talk vor. Es wurde für Menschen mit eingeschränktem Hörvermögen entwickelt sowie für jede Form von Kommunikation, die in anderen Sprachen funktionieren soll. Das gesprochene Wort wird dazu über eine Spracherkennung in schriftlichen Text umgewandelt, und der wird auf einem PC, Tablet oder Smartphone angezeigt (Schonschek 2017). Der chinesische Internetkonzern Baidu erreicht nach seinen Angaben bei der automatischen Spracherkennung bereits eine Trefferquote von 97 Prozent, bei der Gesichtserkennung sogar von 99,7 Prozent. Die Spracheingabe funktioniert dreimal schneller als als Eintippen von Text und erzeugt zumindest im Chinesischen zwei Drittel weniger Fehler (Der Spiegel 2017: 20). 1 1..22 DDi ie e ggrro oß ße en n BBe ewwe egge err -- ddi ie e DDaatteennkkrraakkeenn Das kybernetische Universum der Gegenwartheißt Cyberspace. Dieser Name geht auf den Schriftsteller William Gibson zurück; er hatte ihn sich im letzten Band seiner ‚Neuromancer‘-Trilogie 1982 ausgedacht, einer literarischen Weiterführung von Gedanken des Mathematiker Norbert Wiener (Kreye 2017). In diesem Cyberspace sind Microsoft, Apple und Google, die sozialen Netzwerke Facebook, Twitter und weitere wie YouTube, Instagram, Tumblr sowie Medienkonzerne die großen Beweger. Kritiker nennen sie wie schon erwähnt Datenkraken, weil sie via Internet milliardenfach Daten absaugen, aufbereiten und vermarkten. Ihre Namensliste ließe sich fortsetzen; ihre Rangfolge muss aber immer wieder neu justiert <?page no="19"?> 1.2 Die großen Beweger - die Datenkraken 19 werden. Hier eine Übersicht über die Konzerne, deren Namen jeder kennt, deren Herkunft und Macht aber keineswegs allgemein bekannt ist. Microsoft 1975 gründen Bill Gates und Paul Allen das Unternehmen Microsoft. Erste Erfolge bringt ein BASIC-Interpreter. 1981 kommt das im Auftrag von IBM entwickelte Betriebssystem MS-DOS auf den Markt, im Jahrzehnt darauf das grafische Betriebssystem Windows und das Software-Paket Office. Beide dominieren den PC-Weltmarkt. PCs, also personal computers, haben den Umgang mit Rechnern von der anonymen Ebene der Regierungen, ihrer Militärs und der großen Konzerne zuerst zum einzelnen Beschäftigten in socheen Firmen und dann zum einzelnen Bürger verlagert. Der Effekt: Microsoft ist heute mit weit über 100.000 Mitarbeitern der größte Software-Hersteller der Welt. Apple 1976 starten Steve Jobs, Steve Wozniak und Ronald Wayne anfangs als Garagenfirma den Elektronikkonzern Apple, den Jobs nach einer Unterbrechung ab 1997 bis zu seinem Tod 2011 leitet. Das Unternehmen entwickelt und vertreibt zunächst Betriebssysteme, Anwendungs-Software und Computer. Die grafischen Benutzeroberflächen auf Bildschirmen und die Computermaus gehen in den 1980er Jahren wesentlich auf Apple zurück. Mit dem iPod (2001), dem iPhone (2006) als erstem Smartphone und dem iPad (2010) als erstem Tablet erfindet Apple weitere Produktfelder. 2003 gestaltet mit dem ersten Download-Portal iTunes Store für Musik und Filme diesen Markt wesentlich mit. iTunes und der 2008 eröffnete App Store gehören zu den meistgenutzten Absatzwegen für digitale Güter. Das Unternehmen gehört inzwischen zu den größten der Welt. …“‡} überschreitet Apple als erste Firma die Marke von einer Billion US-Dollar Börsenwert. Damit setzt sich der iPhone-Konzern gegen Alphabet, Amazon und Microsoft durch (Brien 2018a). Google 1998 verfassen Larry Page und Sergey Brin ihre Facharbeit über the antonomy of a large-scale hypertextual web search engine (Brin/ Page 1998) und gründen im selben Jahr im kalifornischen Palo Alto ihre Firma Google. Das ist vier Jahre nach der ersten Volltext-Suchmaschine für das Internet namens WebCrawler, die anders als Google den Rang einer Webseite noch allein aus der Seite selbst abgelesen hatte. Page und Brin schalten im November dieses Jahres mit dem Slogan Search the web using Google! ihre erste deutlich komplexer arbeitende Suchmaschine mit einer anderen Suchsystematik frei: Bei Google bestimmen links wesentlich darüber mit, wie prominent eine Seite präsentiert wird. Schon im ersten Monat schießen die Zugriffe der Nutzer auf 50.000 hoch und verzehnfachen sich in nur vier Monaten auf eine halbe Million. 2015 liegen sie bei unvorstellbaren 2834 Milliarden (https: / / de.statista.com). Inzwischen bestimmt Google den page rank einer Webseite längst nicht mehr nur nach Art und Menge der links, sondern nutzt ca. zweihundert sogenannte Signale um zu entscheiden, wie weit oben in Suchergebnissen eine Seite angezeigt wird (Drösser 2016: 60). Welche Signale das sind, ist vertraulich. Das BetriebssystemMicrosoft Windows besteht aus etwa 50 Millionen Zeilen. Das Google- Suchprogramm ist vierzigmal so groß; es braucht rund zwei Milliarden Zeilen. Das ist so komplex, dass Google ein eigenes Programm namens Piper nutzt um sicherzustellen, dass alle 25.000 Google-Entwickler mit derselben Version diverser Algorithmen arbeiten - wir erörtern noch, was das ist - und dass es keine Inkonsitenzen gibt. Dort wirkt also „ein Algorithmus als oberster Hüter der Algorithmen“ (Drösser 2016: 230). Als „Gründungs-DNA“ bezeichnet Google die computerbasierte Künstliche Intelligenz (Google 2016a). Big Data <?page no="20"?> 20 1 Milliarden in Millisekunden spielen für das Unternehmen und seine Kunden schon seit Jahren eine tragende Rolle. So sagte Google schon 2009 aus Big Data-Analysen den Ausbruch einer Grippewelle in den USA richtig voraus, lag allerdings später daneben (Näheres im Kapitel Gesundheit). Der Anspruch von Google ist so einfach wie umfassend: „Grundlegend wollen wir die Informationen der Welt organisieren und für alle Menschen zugänglich machen“ (Google- Sprecher Robert Lehmann). Damit ist das Unternehmen schon recht weit: Zu den Datenbeständen, die man bei Google abrufen kann, gehören der book corpus mit bisher 3,5 Millionen englischsprachiger digitalisierter Bücher aus den letzten zweihundert Jahren, die Git- Hub Data mit 2.8 Millionen open source-, also öffentlich zugänglichen Quellen (GitHub ist ein Onlinedienst, der Software-Entwicklungsprojekte auf seinem Server bereitstellt), über 145 Millionen Einzeldaten und mehr als zwei Milliarden file paths über die Namen und Geburtstage aller US-Amerikaner seit 1879, die eine Sozialversicherung besaßen oder besitzen. Ferner hält Google Übersichten der US-Behörden über alle zwischen 1888 und 2013 in den USA aufgetretenen Krankheiten sowie über Verordnungen und Kosten für ärztliche Behandlungen und Rezepte bereit, enorme Mengen von Wetterdaten, alle Daten des Geo- Satelliten Landsat seit 1982 und des ESA-Satelliten Sentinel 2, weitere Rasterungen der Erdoberfläche. Schließlich kann man dort 2500 Genome von 25 Völkern rund um den Globus und große weitere Genom-Datenbanken ebenso abrufen wie Datenbestände zu allen Taxifahrten in New York City seit 2009 und alle registrierten Hacker-Angriffe. Aus Analysen der 170 Millionen New Yorker Taxifahrten ließ sich beispielsweise ablesen, wo sich kurz vor politischen Entscheidungen die Aktivitäten von Lobbyisten ballten und woher Besucher einschlägiger Nachtclubs kamen (BMBF/ Wi 2018: Federrath). Öffentlich zugängliche Daten stellt Google in seiner cloud kostenfrei bis zu einem Terabyte pro Monat bereit. Bezahlt werden muss die Aufbereitung und Auswertung je nach Zeitaufwand. Facebook 2004 gründet der heutige Milliardär Mark Zuckerberg seine Plattform Facebook als zunächst exklusives Netzwerk der Harvard University. Schritt für Schritt öffnet er sie für weitere Universitäten, expandiert ins Ausland, bis schließlich 2006 jedermann zugelassen wird, der älter als 13 Jahre ist (Stampfl 2013: 23). Das Unternehmen wächst stürmisch. Im Sommer 2006 will Yahoo Facebook für eine Milliarde Dollar übernehmen (Schulz 2018: 16). Aber der Firmengründer Mark Zuckerbeerg verkauft nicht. 2010 erklärt Facebook-Teilhaber Thiel: „Google organisiert die Informationen der Welt, Facebook aber organisiert die Menschen der Welt“ (ibid.). Das wird mit stetig steigenden Nutzerzahlen jedes Jahr ein Stück wahrer. Als das Unternehmen zwei Jahre später, am 18. Mai 2012, an die Börse geht und dabei 16 Milliarden Dollar einnimmt (ibid.), schreibt Zuckerberg in einem öffentlichen Brief, Facebook sei „gebaut, um eine soziale Mission zu erfüllen, die Welt offener zu und enger zu verbinden“. „Welches Unternehmen“, fragt später Der Spiegel, „beglückt bei seinem Börsengang mit einem politisch-ideologischen Leitfaden? “ (ibid.) und gibt selbst eine Antwort: „Die Mission dient nicht nur als Antrieb, sondern als Rechtfertigung: Alles ist erlaubt, wenn es die Welt besser macht“ (ibid.). Noch melden sich Kritiker nicht zu Wort, die später sagen werden, die permanente Kommunikationsdynamik dieses Netzwerks diene „zur Autohypnose einer Bevölkerung, die gutgelaunt zuschaut, wie die Grundrechte abgebaut werden“ (Emcke 2018). Noch bleibt auch eine Bemerkung Zuckerbergs weitgehend unbeachtet, die zeigt, wie kalt ihn das lässt: „Ein Freund fragt Zuckerberg, warum so viele Menschen freiwillig ihr Leben auf Facebook offenlegen würden. Seine Antwort: weil sie ‚dumb fucks‘ seien; Vollidioten“ (Schulz 2018: 15). Noch sagt Tim Cook, der Apple-Chef, nicht: „Ich habe keine eigenen Kinder, aber einen Neffen: Ich will nicht, dass er soziale Netzwerke nutzt“. Später wird er das sagen (ibid.: 13). <?page no="21"?> 1.2 Die großen Beweger - die Datenkraken 21 Zum Zeitpunkt des Börsengangs hat dieses soziale Netz 720 Millionen aktive Nutzer (Moorstedt 2013b: 90, vgl. Leistert 2011), Mitte 2015 leitet es mehr Leser auf die Websites von Medien als Google. Aber viele folgen solchen linkszu Medienhäusern gar nicht mehr, sondern lesen ihre Nachrichten nur noch direkt bei Facebook. „Der Konzern wird zur dominierenden Kraft der globalen Medienbranche - und weigert sich zugleich, Teil von ihr zu sein“ (Schulz 2018: 19); denn was Medien traditionell leisten, Nachrichten einzuordnen, zu bewerten und zu kommentieren, weist Facebook von sich - es sei lediglich eine Plattform, auf der andere ihre Information und Überzeugung anbieten könnten, nicht mehr. „Facebook hätte die power, die Menschheit subtil zu ändern“, urteilt der Spezialist für Künstliche IntelligenzRamin Assodolahi(BMBF/ Wi 2018: Assodolahi), aber versucht genau das nicht zu tun. „Jeder, der bis drei zählen konnte, wusste, dass Facebooks Geschäftsmodell nun einmal darin besteht, Daten zu sammeln und weiterzuverkaufen“, sagt auch der Sprecher des Deutschen Ethikrats Peter Dabrock (Anger 2018). Das Ansinnen, Facebook müsse sein Geschäftsmodell ändern, sei utopisch. „Das kann man natürlich fordern, aber es wäre das Ende von Facebook“, sagte Dabrock dem Handelsblatt. Denn dieses Modell finde in einer hochkompetitiven Globalwirtschaft statt. „Wettbewerber sitzen mit Alibaba und Tencent vor allem in China“ (ibid.). Auf einzelne Gefahren reagiert das Netzwerk taktisch klug, aber strategisch belanglos. Als beispielsweise ein Selbstmörder sein Selbstmordvideo ins Netz gestellt hat, lässt Facebook die persönlichen Daten aller Nutzer auf Anzeichen von Suizidgefahren durchforsten und gibt denen, die dabei auffallen, ungefragt Ratschäge. Reine Menschenfreundlichkeit ist das nicht; „Facebook schaltete diese Warnung aus wirtschaftlichen Erwägungen (BMBF/ Wi 2018: Dabrock). Dass clevere Internetnutzer die Facebook-Plattform manipulatorisch einsetzen könnten, blendet das Unternehmen lange aus, selbst noch, als Facebook von Russen missbraucht wird, die, als Amerikaner getarnt, Ende 2016 Hunderttausende Facebook-Nutzer in russisch kontrollierten Gruppen zusammentreiben, in denen sie mit fake news zugeschüttet werden, um sie für die Botschaften des damaligen Präsidentschaftsbewerbers Trump empfänglich zu machen. Ein US-Sonderermittler klärt das ein Jahr später auf. Er klagt Facebook nicht an, lässt aber keinen Zweifel daran, dass Facebook das zentrale Instrument für diese organisierte Wahlmanipulation durch ausländische Kräfte war. Im Herbst 2017 muss Zuckerbergs Unternehmen zugeben, dass 150 Millionen Amerikaner auf seiner Plattform Propaganda serviert bekamen, die russische Geldgeber bestellt und bezahlt hatten (Schulz 2018: 22). In den Augen des Spiegel-Redakteurs Rosenbach erscheinen Facebook und Co. deshalb „nicht mehr als Förderer der Demokratie, sondern als Werkzeuge destabilisierender Mächte - als zunehmend unheimliche Orte, wo sinistre Strippenzieher insgeheim Meinungen beeinflussen, Desinformation verbreiten, Zwietracht säen und demokratische Wahlen manipulieren“ (Rosenbach 2018). Heute loggen sich pro Tag 1,37 Milliarden Menschen bei Facebook ein, fast ein Fünftel der Weltbevölkerung (Busse/ Martin-Jung 2018). Insgesamt hat Facebook inzwischen weltweit über zwei Milliarden Nutzer (ibid). Die aufgekaufte Video- & Foto-Plattform Instagram, die seit 2010 existiert, und der 2009 gegründete Messenger-Dienst WhatsApp, ebenfalls von Facebook übernommen, haben ebenfalls Nutzerzahlen an der Milliardengrenze (Schulz 2017: 15). Millionen Nutzer finden es gut, sich via Facebook öffentlich zu präsentieren. Sie kommunizieren mit Freunden aus ihrem realen Leben ebenso wie mit Personen, die sie noch nie gesehen haben, und das so intensiv, dass allein die Anzahl der täglich bei Facebook hochgeladenen Fotos größer ist als die sämtlicher Kunstwerke in allen Museen der Welt (Manovich2014: 66). Bei Facebook, Twitter & Co. tummeln sich 2017 weltweit über zweieinhalb Milliarden Nutzer, ein Drittel der Erdbevölkerung (Bastien 2016). Das macht das Unternehmen zu einem der <?page no="22"?> 22 1 Milliarden in Millisekunden einflussreichten und auch reichsten der Welt. Jedes Jahr, heißt es, verdiene Facebook mit den Daten jedes Nutzers einbis zweitausend Euro (Behrens 2018a: 64). Seit Anfang 2018 kann man bei Facebook, das sich zu einer ernsthaften Konkurrenz für den Videokanal YouTube entwickelt hat, nicht nur Fotos und Videos ansehen und auch digital Rundfunk hören, sondern sogar eigene Rundfunksendungen verbreiten. Dazu hat die baden-württembergische Landesmedienanstalt dem Anbieter #imländle die Lizenz für ein regionales streaming erteilt. Solche live streams sind nämlich Rundfunk, wenn sie journalistisch-redaktionell gestaltet werden, sich an die Allgemeinheit richten und anhand eines Sendeplans in gewisser Regelmäßigkeit linear verbreitet werden. Bei dem, was die Bloggerin Petra Nann #imländle anbietet, ist das der Fall (Landwehr 2018). Facebook bleibt bis auf weiteres der Platzhirsch der sozialen Netzwerke. Facebook kann mit einer software, die vorerst nur bei Fotos von Sehenswürdigkeiten, bei Büchern, Kunstgegenständen, Lokalen, Wein und Logos eingesetzt wird, gepostete Bilder analysieren, das Abgebildete identifizieren und es durch Zusatzinformationen aus dem Netz ergänzen. So lassen sich auch Gesichter erkennen und identifizieren. „Im Nu wüsste man, wo der Gesprächspartner oder jeder beliebige Passant arbeitet, woher er kommt, wie alt er ist, wo er wohnt, welche Musik er gerne mag und noch vieles mehr“ (Stampfl 2013: 27). Zu Recht fragt Stampfl: Bedeutet das nicht das Ende der Anonymität im öffentlichen Raum? Inzwischen berichtete Der Spiegel: „Bei einer Hähnchenbraterei im ostchinesischen Hangzhou bestellen Gäste ihre frittierten Chicken Wings an einem Computerterminal. Bezahlt wird mittels 3D-Gesichtserkennung und Telefonnummer. Nur wenige Sekunden dauert diese Prozedur. Es geht darum, Fast Food noch schneller zu machen - und Daten zu sammeln. Der Werbespruch dazu lautet: ‚Zahlen Sie mit einem Lächeln‘“ (Der Spiegel 2017: 20). Diese automatische Gesichtserkennung ist in China vielfach schon Alltag: Gescannte Gesichter von Flugpassagieren ersetzen die Bordkarte. Bahnhöfe, Hotels, Schulen und Kindergärten nutzen sie als Einlasskontrolle (ibid.). Facebook-Nutzer erhöhen mit der Preisgabe privater Informationen die Chance, dass andere das auch tun; „eine positive Feedbackschleife, die immer mehr Zusammenhalt ermöglicht“ (Tamir/ Ward 2017: 115. vgl. Bowles/ Gintis 2002). Das zeigt, wie präsent Plattformen sein können, auch wenn sie wie Facebook gar keine eigenen Inhalte transportieren, sondern nur für fremden content Raum zur Verfügung stellen und in diesem Raum Menschen vernetzen. Innerhalb von nur sechs Jahren ist Facebook „von einem virtuellen Poesiealbum zum Betriebssystem der Welt geworden“ (Moorstedt 2013b: 93). Adamek konnte schon 2011 behaupten: „Wer dort nicht präsent ist, der existiert nicht“ (Adamek 2011: 16); er begründete dies mit einer „diffuse[n] Sehnsucht [der Nutzer] nach einem emanzipatorischen Aufbruch, vielleicht auch nach einem Gegenpol zu den herrschenden Verhältnissen“ (ibid.: 16). Beobachter wie die Gründerin und Direktorin der MIT Initiative on Technology and Self Sherry Turkle bewerten diese von Maschinen organisierte Kommunikation als „einen Ersatz des Menschlichen durch das ‚Maschinistische‘. Die „weniger vorhersagbaren, letztlich aber fordernderen und lohnenderen Beziehungen in den Bereichen Freundschaft, Liebe und Kollegialität“ (Pasquale 2017: 96) würden ersetzt durch roboterisierte Interaktion. Was weniger fordert, werde zunächst als befreiend erlebt. Es drohe aber den eigenen Einfallsreichtum und die eigene Kreativität zu schmälern, „also gerade jene Ressourcen, die die schöne neue Welt der Algorithmen erst ermöglicht haben“ (ibid.). Betrachtet man eine im November 2012 auf Facebook geschaltete Eigenwerbung, zeigt die Firma in einem Film unter anderem Stühle, die Menschen benutzen, die zusammenkommen: „Jeder kann auf einem Stuhl sitzen. Und ist der Stuhl groß genug, können sie sich zusammensetzen“ - das soll heißen: Wer bei Facebook mitmacht, ist Teil einer weltweiten Gemeinschaft. Doll nennt das „Unifizierungsphantasien“ (2014: 467); er versteht sie als glo- <?page no="23"?> 1.2 Die großen Beweger - die Datenkraken 23 bale Versuche, „dadurch Facebook - das ja in erster Linie ein Geschäftsmodell ist - zum wirkungsmächtigen politischen Werkzeug aufzuwerten“ (ibid). Nicht von ungefähr werde der, der den Facebook-Film sieht, mit dem Symbolbild des blauen Planeten und der Silhouette eines fiktiven Kontinents „an das Whole Earth Movement und den weltbürgerlichen Counterculture-Universalismus der 1960er Jahre erinnert“ (ibid., vgl. Turner 2006). „Vielleicht machen wir ja all’ diese Sachen“, heißt es in der Facebook-Eigenwerbung, „um uns daran zu erinnern, dass wir eben nicht alleine sind“ (ibid.: 468). Facebook wertet seine Kenntnisse über seine Nutzer intensiv aus. Dazu dienen like-buttons, Knöpfe, durch deren Antippen man bekunden kann, dass einem etwas gefällt oder missfällt. Aber auch wenn man sie gar nicht berührt: Sie dienen Facebook überall da, wo sie zu sehen sind, dennoch als Zähler dafür, dass von einem bestimmten Gerät aus eine bestimmte Internetseite abgerufen wurde (Busse/ Martin-Jung 2018). Anhand von Metadaten wie Ort und Datum, Geschlecht und Familienstand werden die geposteten Daten gewichtet. Das ist ein „echtes profiling, fast im kriminaltechnischen Sinn“, kritisierte Anfang 2018 der Präsident des Kartellamtes Andreas Mundt. Es gehe um Daten, die für viele wirklich individuell seien und nicht ohne Weiteres zusammengeführt werden dürften. Facebook missbrauche derzeit ganz klar seine Marktmacht (ibid.). Ein Beispiel: Schon 2012 stellte das Unternehmen fest, dass von 260 Millionen Nutzern, die 2008 mit anderen Facebook-Mitgliedern liiert waren, vier Jahre später noch 65 Prozent mit ihrem ersten Partner zusammen waren. Die anderen 85 Millionen bildeten ein dichtes Netz aus Partnern, Ex-Partnern und Ex-Ex-Partnern. „Da ergeben sich manchmal sehr interessante Verbindungen, die ‚Links of Love“, schrieb 2013 Der Spiegel (Höltgen 2014: 385). Mit Sentimentsanalysen kann das System positive und negative Äußerungen unterscheiden. Es diagnostiziert also auch die emotionale Verfassung der Teilnehmer (Bastien 2016). Facebook nutzt mit allen diesen Tricks eine Technologie, „die im Kern dafür konstruiert wurde, psychologische Abhängigkeiten zu schaffen“ (Kreye 2017a). Soziale Netzwerke „machen süchtig, und sie tun einem nicht gut“ (Mark Benioff, Chef von Salesforce, einer der wichtigsten Manager im Silicon Valley (cit. ibid.). Der Facebook-Mitgründer Sean Parker gestand erst 2017 ein, dass dessen Entwickler mit likes und anderen Symbolen „von Anfang an ganz bewusst die Verletzlichkeit der menschlichen Psyche ausgenutzt hätten, um mithilfe kleiner Glückshormon-Ausschüttungen durch das Anklicken und Empfangen solcher digitaler Streicheleinheiten Suchtmechanismenzu entwickeln“ (ibid.). Chamath Palihapitiya, bei Facebook früher für das Nutzerwachstum zuständig, räumte ein: „Sie werden programmiert“. Er fühle „ungeheure Schuld“, dass er geholfen habe, „das gesellschaftliche Gefüge auseinanderzureißen“, weil der Mechanismus der likes usw. den öffentlichen Diskurs verzerrt (ibid.). Mit der Allgegenwart von Facebook steigt die Zahl der Nutzer, die ihrer Ausforschung nicht tatenos zusehen wollen. In diesem Sinn tätig zu werden ist gar nicht so schwer. Jeder Facebook-Nutzer kann nämlich schon jetzt selbst begrenzen, was dieses Unternehmen über ihn ermitteln darf. So fragt Facebook bei jeder Anmeldung den Vor- und Nachnamen ab. Diese Auskunft darf Facebook jedoch nicht erzwingen, urteilte das Landgericht Berlin im Februar 2018. Gegen dieses Urteil hat Facebook Berufung eingelegt; bis zu einem engültigen Urteil kann das Unternehmen falsche Namen deshalb sperren (Strathmann 2018). Auch den Abruf von Standortdaten kann man verhindern, wenn man im eigenen Profil „Aktivitätenprotokoll anzeigen“ anwählt, dann auf „mehr“ klickt, „Standort-Verlauf“ aktiviert und dann „Standort-Verlauf löschen“ wählt. Auf Smartphones wählt man im Menü oben rechts die „Kontoeinstellungen“, dann den „Ort“ oder „Standort“ und deaktiviert den Ortungsdienst. In iPhones oder iPads wählt man in den Einstellungen „Privatsphäre“ und „Ortungsdienst“, deaktiviert ihn auch dort und startet die Facebook-App danach neu. <?page no="24"?> 24 1 Milliarden in Millisekunden Steuern kann man schließlich, auf welche Apps Facebook zugreifen kann. Im Dreieck oben rechts kann man für alle Dienste die Datentransfers unterbinden. Wer die Funktion komplett deaktiviert, kann sich allerdings nicht mehr mit seinem Facebook-Account anmelden und muss eventuell ein separates Konto anlegen. Unter „Von anderen Personen verwendete Apps“ kann man ferner einstellen, welche eigenen Daten Facebook-Freunde an andere Apps weitergeben dürfen. Unter „Werbeanzeigen“ und dann unter „Einstellungen für Werbeanzeigen“ kann man nicht nur personalisierte Anzeigen und die Weitergabe eigener Daten für Werbung anderswo verhindern, sondern auch, dass Facebook unter „Deine Interessen“ auf solche festgestellten und dort hinterlegten Interessen mit gezielter Werbung reagiert. Schließlich: Wer ganz aus Facebook aussteigen will, muss rechts oben ein Fragezeichen im Kreis anklicken. Dann erscheint ein Fenster, in dem man „Konto löschen“ eingeben kann. Bis alle geposteten Beiträge gelöscht sind, kann es allerdings drei Monate dauern (Strathmann 2018). Auch Plattformen wie Facebook kommen im Übrigen in die Jahre, und Nutzergewohnheiten ändern sich. In den USA ist bei jüngeren Menschen, wenn es um Messaging geht, nicht mehr Facebook, sondern Snapchat die Nummer eins (t3n 2018c). Und mit der Nutzerstruktur ändern sich auch die Nutzungsgewohnheiten: „Bis vor ein paar Jahren stand die Followerzahl im Vordergrund. Doch die sozialen Netzwerke reduzieren die organische Reichweite immer mehr, sodass die Followerzahl allein keine Aussagekraft mehr hat. Man muss also mit guten Inhalten das Engagement derjenigen, die man noch erreicht, entsprechend anregen. Wir schauen darauf“, erläutert zum Beispiel BMW Marketingmanager Dreher, „wie viele Leute sich mit unserem Content auseinandersetzen. Das sieht man schon innerhalb weniger Minuten und kann entsprechende Maßnahmen ableiten“ (ibid.). Aber Dreher erwartet, dass das nicht so bleibt: „Am Anfang war Facebook die Plattform für alle Altersgruppen, inzwischen ist es eher in einem mittleren bis höheren Altersbereich vertreten. Als erste Tendenz ging dann vor vier bis fünf Jahren Instagram von einer Plattform eher für Fotografen in den Mainstream über und sprach eine eher jüngere Zielgruppe an. Und Snapchat ist gerade für die ‚jüngste‘ Zielgruppe im Kommen (t3n 2018c). Twitter Den Microblog-Dienst Twitter gibt es erst seit 2006. Der erste tweet wurde am 21. Mai jenen Jahres gesendet. Politiker wie Donald Trump, Privatpersonen, Organisationen, Unternehmen und Massenmedien nutzen dieses soziale Netzwerk als Plattform zur Verbreitung von ursprünglich maximal 140 Zeichen kurzen Textnachrichten (tweets) im Internet. Jeder tweet kann hashtags (#), links (als URL) und Standorte enthalten. Sie werden followern angezeigt - das sind alle Personen, die tweets eines twitterers abonnieren, indem sie ihnen folgen. Über hashtags oder Verlinkungen/ retweets erreichen tweets auch ein breiteres Publikum. Auch die Nutzerzahlen auf Twitter sind gewaltig. Sie stiegen von 30 Millionen pro Monat Anfang 2010 auf 319 Millionen Ende 2016 (de.statistica.com). Das stärkste Wachstum gab es bis Ende 2014. Zu Jahresbeginn 2015 überstieg die Nutzerfrequenz bereits die Marke von 300 Millionen pro Monat. Über Twitter wird gestritten und polemisiert. Dieses Netzwerk, urteilt Schulz, „machte Trump erst möglich, und die Twitter-Mitarbeiter quält dieser Gedanke jeden Tag“ (Schulz 2017: 14). Das mag - wie Trump-tweets auch - stimmen oder nicht: Twitter ist unbestritten ein wesentliches Segment der öffentlichen Meinung. Aber seinen Massenansturm an Texten können Menschen allein gar nicht auslösen. Längst sprechen auch Maschinen Menschen an. Von dem 300 Millionen Twitter-Teilnehmern waren schon 2017 geschätzt rund 60 Millionen social bots (ZDF 2017a.). <?page no="25"?> 1.2 Die großen Beweger - die Datenkraken 25 Beispiele: An dem Tag, an dem die Terrororganisation Islamischer Staat die irakische Stadt Mossul eroberte, stellte sie 40.000 bot-Texte mit Siegespropaganda ins Netz (Leyen 2017: 5). Im letzten US-Präsidentenwahlkampf war die Fernsehdebatte zwischen Hillary Clinton und Donald Trump „gerade einmal drei Minuten alt, da waren zu den beiden Präsidentschaftskandidaten schon mehr als 30.000 tweets zu lesen. Die meisten stammten von Propagandabots“ (Welchering 2016: 14). Solche bots sind darauf programmiert, im Netz Themen aufzuspüren, die der Auftraggeber in der Öffentlichkeit verbreitet sehen will (ZDF 2017a). Sie wirken als Trendverstärker und sind für normale Nutzer von echten tweets nicht zu unterscheiden. In Trumps Wahlkampf kam jeder dritte tweet von einem solchen Automaten, bei Hillary Clinton war es jeder fünfte (ibid.). Bei den Fernsehdebatten befeuerten sich die bots gegenseitig. Diese Technik ist auch hierzulande verfügbar. Alle deutschen Parteien haben aber erklärt, auf sie verzichten zu wollen (ibid.). Die insgesamt enormen Nutzerzahlen machen Twitter zu einer nützlichen Quelle für Big Data-Auswertungen. Mit dem Twitter-Archivierungstool yourTwapperkeeper kann man alle tweets und die zugehörigen Metadaten erfassen und archivieren, die einen bestimmten Suchbegriff, einen Namen oder einen hashtag enthalten. Mit dem Twitter-API (ein solches Application Programming Interface bietet in standardisierten Formaten einen strukturierten Zugang zu Kommunikationsdaten) lassen sich sehr große Archive öffentlich verbreiteter tweets zu Themen oder Interessensbereichen aufbauen. Grundsätzlich liefert das API sehr lange Listen von tweets und die zugehörigen Metadaten. Sie können „extrahiert, kombiniert und visualisiert werden, um die Dynamik der social media-Kommunikation zu verstehen“ (Burgess/ Bruns 2014: 192). Derartige Analysen setzen allerdings eine umfangreiche Technik voraus: Um die tweets von 55 Millionen Nutzern auszuwerten, müssen 58 Server 1,7 Milliarden tweets analysieren (Cha et al. 2010). Die beste Auswertung kann allerdings ein Problem nicht beseitigen: Twitterersagen nicht immer, was sie wirklich denken oder fühlen, sondern agieren auchtaktisch: „Möglicherweise erhoffen sich manche Nutzer positive Konsequenzen wie finanziellen Reichtum oder Ruhm, möglicherweise verfassen andere deshalb so scharf formulierte tweets, die vorgeben, sich über das Verhalten eines Politikers zu echauffieren, weil sie hoffen, damit in den Nachrichten zitiert zu werden“ (Paßmann 2014: 264). Man muss also einkalkulieren, dass manche „‚erfolgreichen‘ twitterer deshalb so ‚erfolgreich‘ sind, weil sie die Erwartungen ihrer follower sehr genau antizipieren und so gleichsam eine Liste von Kriterien darüber haben, was mit ihrem account ‚geht‘ und was ‚nicht geht‘“ (ibid.: 273). Amazon Amazon ist ursprünglich ein Online-Händler, bei dem man über das Internet ziemlich alles kaufen kann. Das hat dem Unternehmen nicht nur große Erträge, sondern auch enorme Datenmengen über Kundenverhalten eingebracht. So ist der Umgang mit Daten ein eigenes Amazon-Kompetenzfeld geworden, auch auf dem Feld von Big Data. Bei deren Verarbeitung setzt Amazon auch auf cloud-Dienste, also auf elektronische Netzwerke, die drahtlos miteinander kommunizieren. Ein Vorreiter sind die Amazon Web Services (AWS). Dieser cloud-Dienst ist in vielen Teilen für Big Data optimiert. AWS bietet einen schnellen Zugriff auf IT-Ressourcen zur raschen Nutzung praktisch aller Big Data-Anwendungen in sogenannten Data Warehouses (vgl. Schnider/ Jordan 2016) vom Laden und Transformieren über ereignisgesteuertes Extrahieren und Clickstream-Analysen bis zur Betrugserkennung, zu Empfehlungsfunktionen und zur Internet-der-Dinge-Verarbeitung. Ganze Datenbanken lassen sich direkt in dieser cloud betreiben (Joos o.J.a: 3). Zu AWS muss man Daten aber selbst mitbringen. Eigene Datenbanken bietet Amazon dort nämlich nicht an - anders als Google, Facebook und Twitter auf der einen, die finanzmarktorientierten Firmen Thomson Reuters, Dow Jones und Bloomberg auf der anderen Seite. <?page no="26"?> 26 1 Milliarden in Millisekunden Die Amazon cloud und AWS sind zwei parallele Geschäftsfelder. Um in der Amazon cloud Big Data-Infrastrukturen aufzubauen, muss niemand AWS nutzen. Man kann auch Dienste von Drittherstellern buchen. Prominentes Beispiel dafür ist MapReduce(MapR), ein Unternehmen, das seine Hadoop-Distribution -Genaueres hierzu finden Sie auf der Webseite zu diesem Buch - auch in AWS zur Verfügung stellt, so dass der Dienst zusammen mit den anderen Big Data-Lösungen im AWS gemeinsam genutzt werden kann (Joos o.J.a: 9). Dow Jones Dow Jones& Company ist ein 1882 von den drei Journalisten Charles Dow, Edward Jones und Charles Bergstresser gegründetes US-amerikanisches Verlagshaus. Seit 2007 ist es eine Tochtergesellschaft der News Corporation in New York. Das Unternehmen bietet ca. 130.000 Indizes für die unterschiedlichsten Wirtschaftsbereiche an. In Europa ist Dow Jones vor allem durch den Aktienindex Dow Jones Industrial Average bekannt, der inzwischen mehrheitlich McGraw-Hill Financial gehört. Inzwischen öffnete Dow Jones sein in 130 Jahren aufgebautes Archiv für seine Kunden, Partner und deren Dienstleister. Analysten und Marktstrategen sollen dort geschäftsrelevante Informationen finden und mit Hilfe von data analytics und machine learning in ihre Arbeit integrieren können, und das auf dreierlei Art: erstens als snapshots, worunter Dow Jones Auszüge aus Archivmaterial bis zu Terabytes pro Lieferung versteht, zweitens als streams, wenn Kunden Daten verzögerungslos in Echtzeit benötigen, und drittens über application programming interfaces (APIs), mit denen Kunden im Datenbestand von Dow Jones Newswires und des Wall Street Journal sowie in Quellen öffentlicher und privater Organisationen suchen können. Zu den Kunden, die diese Quellen in eigenen Diensten verarbeiten, gehören IBM mit seinem Superrechner Watson, RavenPack - dieses Unternehmen beschäftigt uns in Kapitel 3 noch genauer -, Alexandria Investment Research & Technology, Equals3 und Linguamatics. Bloomberg Das 1981 gegründete Unternehmen Bloomberg versorgt mehr als 300.000 Abonnenten mit seinen Nachrichten und installierte binnen zehn Jahren bei mehr als zehntausend Abnehmern seinen Bloomberg Professional Service, der diese Kunden mit aufbereiteten und analysierten Daten versorgt, sowie den TV-Sender Bloomberg News (www.bloomberg.com/ company). Das Unternehmen Bloomberg lässt sich kaum in die Karten schauen und publiziert allenfalls länger zurückliegende bewältigte Aufgaben. Ein Beispiel: 2008 war das Unternehmen Datenlieferant einer Großbank. Als diese um Vorschläge für einen billigeren Umgang mit Marktdaten bat, antwortete Bloomberg damit, den Zugang zu Daten und die Vernetzung aller Fachstellen bei Datenzugriffen völlig neu aufzusetzen und ihre Darstellung neu zu organisieren (Bloomberg for Enterprise 2014), zunächst in einem Pilotprojekt, nach dessen erfolgreichem Test aber in gesamten Unternehmen. Alle Marktdaten flossen in einem einzigen desktop zusammen. Die Kosten sanken um 20 Prozent. Die Bank sparte vier Millionen Dollar im Jahr und wurde zugleich viel schneller (ibid.). Kontakte zur Prisma Analytics GmbH gibt es seit Langem. Ein Bloomberg-Experte kennt Prima genau genug um zu sagen: „Wenn unser Boss heute davon erfährt, wird morgen der Kontrakt unterschrieben.“ Aber Bloomberg ist Hauptwettbewerber des PrismaAnalytics- PartnersThomson Reuters (TR) bzw. inzwischen dessen Nachfolger Refinitiv, auch wenn TR stärker im equity market engagiert ist, also im Aktienhandel, und Bloomberg stärker im bond market, also im Bereich Anleihen. Ob die Zusammenarbeit von Prisma mit Thomson Reuters einen Kontrakt auch mit Bloomberg ermöglicht oder verhindert, muss sich noch zeigen. <?page no="27"?> 1.2 Die großen Beweger - die Datenkraken 27 Weitere Anwender Datenanalysen auf der Basis intensiver Rechenprozesse mit großen Datenmengen auf Computerclustern bietet außerdem eine schnell wachsende Zahl kleiner oder mittelgroßer Dienstleister; sie verwenden in der Regel märktgängige Programme wie das schon erwähnte Hadoop. Genannt seien die Firmen Seerene, eine Ausgründung des Potsdamer Hasso- Plattner-Instituts, die trotz ihrer englischen Namen deutschen Firmen Blue Yonder oder Celonis, die US-amerikanischen software-Spezialisten Tableau und pmOne Analytics, 2015 mit damals den Kunden Haereus, Henkel, Vorwerk u.a. (Bange 2015). Wir erwähnen diese Kunden hier, weil diese IT-Firmen im Wesentlichen mit Datenbeständen ihrer Kunden arbeiten, indem sie diese mit öffentlich zugänglichen, in der Regel internetbasierten Daten abgleichen. Von Blue Yonder lässt sich beispielsweise die Handelskette Kaufmarkt bei ihren Fleischabteilungen helfen: Das Programm ermittelt, wie das Wetter wird, wann Feiertage sind, kennt den Geschäftsverlauf der letzten 3 Jahre, steuert entsprechend der daraus errechneten vermutlichen Nachfrage den Fleischeinkauf und liegt damit so richtig, dass das Angebot und die wechselnde Nachfrage passgenau stimmen und Kaufmarkt auro deshalb gegenüber der früheren Einkaufspraxis einen zweistelligen Millionenbetrag im Jahr einspart (Martin-Jung). Aus der Zusammenarbeit von Auftraggebern und Dienstleistern ist inzwischen eine Vielzahl von Paarungen entstanden - wir erwähnen sie hier um zu zeigen, wie weit Big Data- Auswertungen inzwischen verbreitet sind: In ihnen tauchte die Unternehmensberatung Accenture ebenso auf wie die Deutsche Telekom, ]init[ ebenso wie IBM, die Deutsche Bahn wie die Berliner Charité, das National Center for Tumor Diseases ebenso wie der Flughafen Stuttgart, die Otto Group wie die Bezahl-Firma Payback, Kaiser’s Tengelmann (inzwischen an Edeka verkauft) ebenso wie die Stadtentwässerung Köln, der Fernsehkonzern ProSiebenSat.1 genauso wie der ebenfalls mittlerweile verkaufte Mobilfunkanbieter e-plus (Bitkom 2016). Wie sehr die großen Konzerne inzwischen auf Big Data setzen, zeigt schlaglichtartig die Kundenliste eines einzigen Data-Dienstleisters. Er wurde erst 2007 gegründet. Inzwischen zählen zu seinen Kunden die Fluggesellschaften TUIfly und Eurowings, die Deutsche Post und die Deutsche Bahn, das Stahl-Unternehmen Thyssen-Krupp sowie die Chemie-Riesen BASF, Bayer und Henkel. Der Markt ist sehr in Bewegung. Hier dazu nur drei weitere Meldungen aus den Jahren 2015 und 2016: Dell kaufte den Big Data-Protagonisten EMC, Cisco das deutsche Startup-Unternehmen ParStream und Microfocus Teile des Big-Data-Portfolios von Hewlett- Packard Enterprise (Bitkom 2017: Landrock). Dieser Trend zu Firmenverbünden hält an. Aber man muss nicht gleich Firmen kaufen, um bei den Branchengrößen Big Data- Applikationen zu erwerben. Man kann auch lediglich Aufträge erteilen. Ein Beispiel: Der Marketingchef eines Hotels möchte wissen, was potenzielle Kunden über sein Haus denken. Dazu kann er das IBM-System WASM f ragen. Im ersten Schritt definiert es Themen (topics) der Suche. Hier könnte er die Namen seines Hotels und die der Konkurrenz eingeben. Dann geht es um Suchbegriffe (terms) - etwa Kundenzufriedenheit, Service, Preis- Leistungs-Verhältnis, Komfort. Nicht verwandte Begriffe wie Paris Hilton kann er ausschließen. Dann erzeugt das System aus unstrukturierten Interneteinträgen (posts) von Hotelgästen ein strukturiertes Datenbild mit Informationen zu den terms einschließlich Metadaten wie Datum und Uhrzeit des Eintrags, Ort, Gerät und Betriebssystem des Nutzers und etlichen Hinweisen mehr (Bastien 2016). Und schon erfährt der Hotelmanager nicht nur, wie seine Gäste sein Hotel erleben, sondern auch detailliert, welche Gäste aus welchen Zimmern zu welchen Übernachtungspreisen wie zufrieden waren - ein für sein künftiges Marketing sehr bedeutsames Wissen. Zu nennen sind schließlich die riesigen chinesischen Onlineplattformen Baidu, Alibaba und Tencent. Sie versorgen 750 Millionen Internetnutzer und nutzen zugleich deren Daten; entsprechend große Datenmengen fallen da an und werden verwertet; denn Datenschutz spielt in China keine, in Europa aber eine entscheidende Rolle. Darum geht es im folgenden Kapitel. <?page no="28"?> 28 1 Milliarden in Millisekunden 1 1..33 DDeer r WWeeg g zzu u BBiigg DDaattaa Daten werden schon so lange zusammengetragen, dass wir dies oft gar nicht mehr realisieren. Telefonbücher des ausgehenden 20. Jahrhunderts waren in Großstädten vier Finger dicke Wälzer, gefüllt mit Daten. Jeder Meldezettel in einem Hotel oder für ein Amt enthält Daten. Rechnungen: Daten. Kontoauszüge: Daten. Jedes aktuelle Passfoto ist eine Sammlung biometrischer Daten und dient längst als Vorlage zu automatisierten Erkennungsmethoden. Der Künstler Philipp Messner von der Werkgruppe zero to be one hat aus solchen Passbild- Daten in einem 3D-Drucker Masken anfertigen lassen, die er bisweilen öffentlich trägt. Das Vorhalten der Maske, sagt er, gebe das Bild, das die Maschine vom Individuum erzeugt, an das System zurück (Scheutle/ Adler 2017: 26). Auch Fingerabdrücke gehören in dieses Feld. 2010 hat der Chaos Computer Club den Zeigefingerabdruck des damaligen deutschen Innenministers Wolfgang Schäuble unbemerkt von einem Wasserglas abgenommen und veröffentlicht. Mittlerweile kann ein solcher Abdruck leicht sogar aus einem Foto herausgelöst werden (ibid.: 16). Mit Computern hatten herkömmliche Datensammlungen zunächst nichts zu tun. Aber jeder weiß: Computer haben unseren Umgang mit Daten völlig verändert. Die Suche in Datenbeständen ist immer mehr eine Aufgabe für Automaten, nur noch peripher für Menschen, wie überhaupt Menschen im Umgang mit Daten und ihren Verarbeitungsprogrammen nur noch eine sehr begrenzte Rolle spielen. Dazu ist der Datenfluss längst viel zu groß. Das Internetportal Tumblr beispielsweise verzeichnete schon im Jahr 2012 pro Sekunde auf den eigenen Datenbanken 40.000 Zugriffe mit einer Million Schreibprozessen, benötigte zur Entwicklung der Systeme und zu deren Verwaltung aber gerade einmal 20 Ingenieure (Mathney 2012). Beim Kauf von WhatsApp durch Facebook wurde bekannt, dass 49 Ingenieure ausreichten, um die Daten von sogar fast eine halben Milliarde Nutzern zu verwalten (Engemann 2014: 375). Die eigentliche Arbeit machen Computer. Sie verarbeiten inzwischen jeden Tag 2,5 Milliarden Gigabyte an Daten (Google 2017: 30). 90 Prozent aller Computerdaten weltweit wurden in den letzten zwei Jahren geschaffen (ibid.: 32). Es sind zu 80 Prozent unstrukturierte Daten, sozusagen Kraut und Rüben žKgF …“‡}z ‚œ. Was sind eigentlich Daten? Das Wort data, der Plural des lateinischen Wortes datum, ist grammatikalisch das Partizip Perfekt des Verbs dare, das auf deutsch geben bedeutet. Ein datum ist also etwas Gegebenes, im Gegensatz zum factum, dem Partizip Perfekt des lateinischen Verbs facere (tun). Faktum ist folglich das, was getan oder erzeugt worden ist (Rosenberg 2014: 136), Daten dagegen setzen nicht voraus, dass jemand handelt. Data ist also ein rhetorischer Begriff für etwas, das vor einer Handlung bereits da ist (ibid.: 154). So wie wir dieses Wort verstehen, ist es zwar „ein Kunstwort des 20. Jahrhunderts, doch die Vorstellungen, die diesem Begriff zugrunde liegen, sind ebenso wie sein Gebrauch viel älter“ (ibid.: 133). Gesprochen hat man von Daten seit dem 18. Jahrhundert. Der englische Universalgelehrte Joseph Priestley nannte in seinen 1788 erschienenen Lectures on History and General Policy historische Fakten erstmals Daten (Priestley 1788: 104). Heute versteht man darunter in erster Linie Informationen in computerlesbarer Form, vor allem als Zahlen. Auch das geht auf das späte 18. Jahrhundert zurück (ibid.: 150). In der Maschinensprache von Computern drücken wir Buchstaben und Zahlen in Binärcodes aus, denn diese Codes sind die einzigen Signale, die eine elektrische Maschine unmittelbar „versteht“. Sie bedeuten „Strom aus“ oder „Strom an“, geschrieben mit den Zeichen 0 oder 1. Man nennt diese kleinsten Rechenbausteine Bits. Was in der Welt der Buchstaben und Zahlen mit einem einzigen Zeichen darstellbar ist (1, 2, 3…), benötigt in dieser binären <?page no="29"?> 1.3 Der Weg zu Big Data 29 Welt mehrere: Die binäre Zeichenfolge für 0 lautet 000, die für 1 lautet 001, für 2 lautet sie 010, für 3 dann 011, für 4 schließlich 100 und so fort. Um Wörter, Bilder, Sinneswahrnehmungen usw. zu speichern. zerlegt man sie so lange, bis sie sich in diesen einfachsten aller Zahlen ausdrücken lassen, in Kombinationen von 0 und 1. So wird ein Befund in Rechnern gespeichert und verarbeitet und wird Information nach Bedarf wieder zusammengesetzt - wie eine Möhre, die man in hauchdünne Scheiben schneidet, um sie besser analysieren zu können, die man aus den Scheiben aber auch wieder zur ursprünglichen Wurzel zusammensetzen kann, so „dass die Scheiben weiter zusammenkleben und aussehen wie die ganze Möhre“ (Rudder 2014: 15). Daten „sind überall. Immer. Milliarden von Sensoren liefern ständig Daten - ob von der Windkraftanlage, vom Mähdrescher, vom Geldautomaten oder vom Fitnessarmband. Menschen geben über social media viel mehr preis als je zuvor“ (SAS 2017a).Daten in Zahlenkolonnen sind nur der Anfang. „Denken Sie auch an Texte, das gesprochene Wort, Bilder, Videos“ (ibid.). Für eine systematische Analyse lagen letztere Daten lange ebenso brach wie Informationen, die eher Texten als Datenkolonnen ähneln, also weblogs, Informationen aus dem smart home, Aufzeichnungen aus dem call center und dergleichen. Im Zeitalter von Big Datawerden sie aber erschließbar und zunehmend auch wirklich erschlossen. Die Welt dreht sich weiter, die der Daten schneller und schneller. Man vergisst leicht, dass die ersten Online-Auftritte erst zwei Jahrzehnte zurück liegen. Die Popularität des Web stieg erst allmählich. Im Jahr 2006 stellte Apple das Smartphone vor. Es setzte sich weltweit doppelt so schnell durch wie das Internet. Kameras stecken nicht nur in Smartphones, sondern zeichnen auch auf sehr vielen Straßen und Plätzen und in fast jedem öffentlichen Verkehrsmittel Daten so konsequent auf, dass diese Überwachung des öffentlichen Raums inzwischen „permanent und ubiquitär“ ist (Ströppel in ibid.: 77). Die meisten von uns haben „nicht die leiseste Ahnung, welche persönlichen Informationen, von banal bis hochsensibel, im Umlauf sind“ (Morgenroth schon 2014: 127). Wahrscheinlich haben wir uns daran gewöhnt, „dass durch moderne Kommunikations-, Selbstkontroll- und Visualisierungstechnologien wie Google Earth, Jawbone oder diverse tracking tools der freiwillige und/ oder kommerzielle Anteil von Überwachung derart überhand genommen hat, dass der Anteil der staatlichen Kontrolle scheinbar immer weniger stark ins Gewicht fällt“ (ibid.). Einige Bobachter glauben sogar, dass sich „Überwachung mit Anerkennung verbindet“, weil „Überwachung als eine Form von Zugehörigkeit“ erlebt wird. Diese Beobachter fragen nicht, „ob die von der Snowden-Affäre ans Licht gezerrte staatliche Überwachung unumstritten ist (weil sie offensichtlich umstritten ist), sondern warum so viele Menschen Überwachung akzeptabel und sogar angenehm finden“ (Boellstorff 2014: 119). Eine Antwort auf diese Frage bieten sie freilich nicht. Datenspuren gleichen ein wenig Reifenspuren im Schnee, nur dass diese digitalen Spuren niemals wegtauen werden. Sind sie einmal gespeichert, bleiben sie das auch. Wer in einem sozialen Netzwerk eine Datenspur legt, macht sich nachverfolgbar. Reichert geht so weit zu sagen, posts als neue Formen von Individualität seien ein „Imperativ zur permanenten Selbstentzifferung auf der Grundlage bestimmter Auswahlmenüs, vorgegebener Datenfelder und eines Vokabulars, das es den Individuen erlauben soll, sich selbst in einer boomenden Bekenntniskultur zu verorten“ (Reichert 2014a: 447). Von dieser Ansicht ist es nicht mehr weit zu der, dass das Individuum in der Welt der sozialen Medien nur noch als „Figur seiner Brauchbarkeiten in den Blick kommt“ (ibid. 448). Es erzeuge ein „multiples Selbst“ (Deleuze 1993: 260), das zwischen Orten, Situationen, Teilsystemen und Gruppen oszilliere - ein Bezug auf eine „personale Identität oder ein Kernselbst“ sei dabei nicht mehr vorgesehen (ibid.). In Form des targetinghabe sich vielmehr „die computergestützte Rasterfahndung auf die Allgemeinheit ausgeweitet“ (ibid.). <?page no="30"?> 30 1 Milliarden in Millisekunden Konsequenzen hieraus beschäftigen uns noch später in diesem Buch. Vorab nur so viel: Peter Galison, Professor für Wissenschaftsgeschichte und Physik an der Harvard University, sieht in diesem Informationskapitalismus einen massiven Angriff auf unsere Selbstbestimmung. Unsere Freiheit werde auf eine Weise beschnitten, die in die Selbstzensur führt (Galison 2014). „Herzlich willkommen im Datengefängnis“ titelt deshalb Ehlers; es sei bereits „absolut unmöglich, aus diesem Datengefängnis auszubrechen“ (Ehlers 2016: 11). Auch nach Morgenroths drastischer Einschätzung gleicht die zunehmende Überwachung durch das Sammeln von Daten, wie er sagt, „einer lebenslangen Freiheitsstrafe“ (2014: 165). Daten werden aber nicht abgeschöpft, um Bürger zu knechten, sondern um mit ihnen Geld zu verdienen. Wirtschaftlich besonders interessant wird der Umgang mit Daten, wenn jemand erstens influencers identifizieren kann, also Personen, die starken Einfluss auf andere ausüben und, hat man sie erst einmal überzeugt, die anderen mitziehen (Stampfl 2013: 52), und wenn man zweitens sogenannte Alphadaten besitzt; das sind Daten, die niemand anderer hat. Eine solche Ausspionierung kann schon Kindern passieren, die mit Barbie-Puppen spielen. Hello Barbie ist mit Mikrofon, Lautsprecher und einer WLAN-Schnittstelle ausgerüstet. Spricht ein Kind mit einer solchen Puppe, wird das Gespräch aufgezeichnet, transkribiert und der abgeschriebene Text auf Wunsch per E-Mail den Eltern geschickt. „Big Barbie is watching you“ (Seele/ Zapf 2017: 4). Auch Erwachsene werden analysiert, ohne dass sie es wissen. Wenn Sie in einem Schaufenster ein Kleidungsstück betrachten, das da auf einer Schaufensterpuppe drapiert ist, kann es passieren, dass nicht nur Sie diese Puppe betrachten, sondern dass Sie zugleich auch betrachtet werden. Das „passiert“ nicht irgendwie, sondern wird strategisch geplant und technisch dadurch ermöglicht, dass im Auge der Puppe eine Kamera eingebaut ist. Sie registriert, unmerklich für den Passanten, wohin dieser blickt. Schon seit 2012 bietet Almax solche EyeSee Mannequins an (Morgenroth 2014: 56). Die Kameras in diesen Puppen dienen als eine Basis zur Optimierung der Schaufenstergestaltung und generell von Warendisplays. Nur der Besitzer der Puppen verfügt über ihre Informationen. Als Passant bemerken Sie gar nicht, dass und wie Sie da abgescannt werden. A propos Augen: Google kann Informationen aus dem Web nicht nur in eine Brille übertragen, sondern will sie auch in Kontaktlinsen einspeisen. Das hieße: Wir bewegen uns durch die Welt und hätten ständig Namen, Fakten und Nachrichten über unser Umfeld mit den Menschen darin vor Augen (Stampfl 2013: 28). Zugleich könnte Google sehen, was wir sehen - eine beunruhigende Perspektive. Glauben Sie bitte nicht, das könne Ihnen nur „draußen“ passieren, in der Welt von Kauf und Verkauf. Überwachung gehört auch bei Ihnen zuhause zunehmend zum Alltag. Google hat Prototypen einer Kontaktlinse hergestellt, die mit Hilfe eingebauter Sensoren sekündlich die Tränenflüssigkeit analysieren und den Blutzuckerwert bestimmen (ibid.: 149). Elektronisch aufgerüstete elektrische Zahnbürsten können alles, was sie im Mund des Nutzers feststellen, an den Hersteller übermitteln (und der kann diese Daten dann weiterverkaufen). In deutschen Wäldern sind schon 100.000 Kameras aufgestellt, die nicht nur das Wild beobachten, sondern alles, was sich zwischen den Bäumen bewegt, also auch Passanten (ibid.). Für ein heimliches Stelldichein suchen Sie sich besser einen anderen Platz- wenn es da noch keine Kameras gibt. Aber bedenken Sie: In polizeilichen Datenspeichern liegen in Deutschland ohnehin schon 5,2 Millionen Fotos von rund drei Millionen Personen (Okon 2017). Die Vielfalt der Datenbestände und ihr exponentiell wachsendes Volumen, ihre Unvergleichbarkeit nach Typ, Format und Qualität haben es illusorisch gemacht, dass Menschen da noch durchblicken, zumal Daten oft in unverbunden nebeneinander bestehen Silos stecken und dort vertikal (unter Oberbegriffen) und nicht horizontal (mit Bezug auf benachbarte Felder) sortiert sind. Nur Maschinen bewältigen diese Datenflut. Sobald es um große Datenmengen geht - bis 2025 erwartet man ein Datenvolumen von einer Billion <?page no="31"?> 1.3 Der Weg zu Big Data 31 Gigybytes, dem Zehhnfachen des Werts von 20116 (Gantz 2017) -, wird allgemein von Big Data gesprochen. Deren Beschaffung, Auswertung und Nutzung beschäftigt einen ganzen Industriezweig. Metadaten Einen Aussagewert bekommen Daten erst, wenn man weiß, was die Zahlen bedeuten. Dazu sind Metadaten nötig. Dieses Wort prägte der Informatiker Philip R. Bagley: „Mit jedem Datenelement lassen sich andere verbinden, die Daten ‚über‘ das Element darstellen. Wir bezeichnen solche Daten als ‚Metadaten‘ “ (1968: 91). Ein Beispiel: Bei einem Telefongespräch, dessen Inhalt die Daten sind, sind Metadaten die Angaben über die miteinander sprechenden Personen, genauer über deren Rufnummern, die Orte, an denen sie sich aufhalten, während sie sprechen, über die Gesprächszeit und so weiter. Bei Sensordaten, die in der Regel nur einen Zahlenwert enthalten, zeigen die Metadaten, was die ermittelten Werte bedeuten: etwa eine Tempoangabe, ein Längenmaß, eine Temperatur. Sie registrieren auch, wann und wo womit gemessen wurde. Bei Twittersind die Metadaten oft umfangreicher als die Mitteilungen selbst: Sie enthalten die numerische ID des tweet-Empfängers (die to_user_id für @replies), den Twitter-Namen des tweet-Absenders / (from_user), die numerische ID des tweets selbst (die id), die numerische ID des tweet-Absenders (from_ user_ id), die vom Absender benutzte Sprache, z.B. en, de, fr (iso_language_code), das vom Absender benutzte twitter tool , z.B. web, tweetdeck (source), die URL für das Profilbild des tweet-Absenders (profile_image_url), die geografischen Daten des Absenders (geo_type: Format, geo_coordinates_0 und geo_coordinates_1), die Sendezeit des tweets in direkt lesbarem Format (created_at) und die Sendezeit des tweets als Unix timestamp (time) (Burgess/ Bruns 2014: 192 f.). Bei der Betrachtung von Metadaten werden den Daten also Bedeutungen zugeordnet. Das bestimmt entscheidend deren Wert, denn „außerhalb des Ursprungskontexts verlieren große Datenmengen an Aussagekraft“ (boyd/ Crawford 2013: 205). Sie stammen immer aus spezifischen Zusammenhängen. Die werden in den Metadaten erkennbar. Umgekehrt gilt aber auch: Schüttelt und verknüpft man sie neu und „hat das Datenvolumen einen bestimmten Maßstab erreicht, wird es schwierig, den Kontext richtig zu interpretieren, vor allem wenn die Daten auf bestimmte Aspekte reduziert wurden, damit sie in ein Modell passen“ (ibid.). In einem dritten Schritt werden Daten schließlich zu Informationen, indem man sie mit anderen Daten vergleicht und verknüpft. Um bei einem der Beispiele zu bleiben: Die gemessene Temperatur ist höher als der Durchschnitt von x, bleibt aber um y unter dem kritischen Grenzwert z. Die eigentliche Information lautet dann beispielsweise: Achtung Abweichung, aber noch keine Gefahr. „Metadaten sind die Botschaft“, sagt Matt Blaze, Kryptografie-Professor an der Universität von Pennsylvania. Offizielle politische Entscheidungen, keineswegs immer offen zutage liegende wirtschaftliche Empfehlungen für und Entscheidungen von Unternehmen, aber auch „die impliziten, oft verborgenen Beziehungen der Bürger untereinander, der soziale Kontakt des Einzelnen und der von Gruppen - das alles bilden Metadaten ab“ (Morgenroth 2014: 162). Sie sind also wahre Entschlüssler. Das bewies eine US-Bioinformatikerin. Nur aus Metadaten konnte sie einen anonymen Spender menschlichen Erbguts ermitteln. Fündig wurde sie allein aus Angaben zu Ort und Alter der Person, aus Verwandtschaftsverhältnissen, demografischen Tabellen sowie aus einer Datenbank mit Erbinformationen zur Ahnenforschung (Mainzer 2017: 144). Metadaten dienen nicht nur zur Entschlüsselung harmloser Temperaturmessungen und nicht so harmloser Erbinformationen, sondern auch als eine neue Form biopolitischer <?page no="32"?> 32 1 Milliarden in Millisekunden Kontrolle (dataveillance). In anderen Worten: Sie lassen sich zur Überwachung von Menschenmengen und zur Vorhersage von Massenverhalten nutzen. Das tun heutzutage viele Regierungsstellen, die zum Beispiel politische Wahlen kartografieren, Stadträte, die Verkehrsflüsse messen lassen und Unternehmen, die Zulieferketten organisieren. Pasquinelli beschreibt das „Regime der Datenüberwachung als eine Gesellschaft der Metadaten“, in der es nicht mehr nötig ist, individuelles Verhalten zu kennen, weil es genügt, „kollektiven Trends zu folgen“ (2014: 329). Deleuze warnte bereits 1990 vor spezifischen Kontrolltechnologien auf der von in Datenbanken gespeicherten kollektiven Informationen. Eine Analyse der politischen Dimension der Metadatten, sagt Pasquinelli, sei noch immer erforderlich (2014: 329). Diese Einschätzung gilt nach wie vor. Und was sind Big Data? Der Begriff Big Data geht Boellstoff zufolge (2014: 107) auf die 1990er Jahre zurück. 2003 taucht er erstmals in einer akademischen Publikation auf (Lohr 2013). Im Wort Big Data steckt zweierlei: die wörtliche Bedeutung von Daten als Gegebenheiten (Paßmann 2014: 261) und ihre massenhafte Darstellung in numerischer Form. Es ist eine „Sammelbezeichnung für umfangreiche Datenbestände, die zumeist im Rahmen einer Zweitverwendung zusammengeführt, verfügbar gemacht und ausgewertet werden“ (Weichert 2013: 133). Auch boyd/ Crawford betrachten Big Data nach der „Fähigkeit, Daten zu analysieren, zu aggregieren und Querverbindungen herzustellen“ (2013: 188). Sie sehen in Big Data drei Faktoren wirksam; Technologie, Analyse und, so wörtlich, Mythologie in Gestalt des „weitverbreitete[n] Glaube[ns], dass große Datensätze uns Zugang zu einer höheren Form der Intelligenz und des Wissens verschaffen, die neue, bislang unmögliche Einsichten generieren, Einsichten, die eine Aura der Wahrheit, der Objektivität und der Genauigkeit umgibt“ (ibid.: 189). Big Data definiert man zunächst quantitativ: Eines ihrer Kennzeichen ist ihre schiere Menge. Grob überschlagen verdoppelt sich die global verfügbare Datenmenge jede Jahr (BMBF/ Wi 2018: Martin). Allerdings veraltet das aus ihnen generierte Wissen, zumindest IT-Wissen, auch binnen eines Jahres (ibid.). Weiter kennzeichnet Big Data, dass es „fast unmöglich“ ist, ihnen zu entkommen (Keller/ Neufeld 2017). „Datenkraken“ umgarnen die Menschen wie Sirenen, um ihnen Daten zu entlocken - Lanier sprach deshalb schon 2014 von „Sirenenservern“ (Lanier/ Mallett 2014: 19). Wer sich dagegen nicht wehrt, gehört in unserer „Post-Solo-Ära“ zur „Generation C“, zum „homo connectus“ (Keuper 2017). Wer „seine Daten nicht herausrückt, zahlt mehr als die anderen und gerät bald in Verdacht, etwas zu verbergen. Wer keine Daten preisgibt, lebt teurer und isoliert sich sozial“ (ibid.). Vor fünf Jahren waren Big-Data-Experten in Deutschland nach Ansicht des Fraunhofer- Institutschefs für Intelligente Analyse- und Informationssysteme Stefan Wrobel noch „Rufer in der Wüste“. Inzwischen haben gerade inhabergeführte Mittelständler die Chancen von Big Data begriffen und sind sehr stark eingestiegen. Die gesellschaftliche Debatte sei aber nicht weit genug mitgegangen. Es gebe mehr Schattierungen als der Öffentlichkeit bewusst sind (BMBF/ Wi 2018: Wrobel). Die deutsche Wirtschaft in ihrer Breite sei erst eingestiegen, ergänzt der Leiter des Dresdner Kompetenzzentrums für skalierbare Datendienste (ScaDS) Wolfgang Nagel, „als im Westen Google und im fernen Osten Alibaba die Big Data-Technologie einzusetzen begannen“ (BMBF/ Wi 2018: Nagel). Inzwischen ist der deutsche Mittelstand beiBig Data nach Einschätzung des Leiters Schlüsseltechnologien für Wachstum im Bundesforschungsministerium Herbert Zeisel allerdings „Weltspitze“ (BMBF/ Wi 2018: Zeisel). Wer sich mitBig Dataetwas genauer befasst, stößt bald auf die englischsprachige, auch in Deutschland viel zitierte 3V-Formel volume, variety und velocity aus (Ekbia u.a. 2015): Eine <?page no="33"?> 1.3 Der Weg zu Big Data 33 Grundbedingung für Big Data-Analysen sind also große Datenmengen (volume), ein breites Spektrum an Datentypen (variety) und deren Verarbeitung in Echtzeit (velocity, also Tempo). Diesen mit v beginnenden Begriffen kann man noch drei mit f beginnende an die Seite stellen: fast, flexible und focused (Dorschel 2015: 6). Zu den Kennzeichen von Big Data gehören ferner veracity, womit Regeln für die Datennutzung gemeint sind, und value, also der Wert, den die Datennutzung erbringt, und für den Leiter des Fraunhofer-Verbunds IUK- Technologie Dieter Fellner ferner validity (Wert), vulnerability (Gefährdungspotenzial) bzw. security (Sicherheit) und privacy, also der Schutz der Privatheit (BMBF/ Wi 2018: Fellner). Und noch ein Stichwort ist zu nennen: Daten sind nicht nur informationstechnisch zu betrachten, sondern auch „kulturell, technologisch und wissenschaftlich“ (boyd/ Crawford 2012: 663). Das haben wir in diesem Buch später zu leisten. Auf Fragen der Big Data- Sicherheit können wir dagegen nur verweisen (vgl. Schonschek 2018). Führen wir uns kurz die Datenmengen vor Augen: 1987 lag das Volumen der analog existierenden Daten bei 2,6 Milliarden Gigabyte, im Wesentlichen in Form von Texten und Tabellen, das der digital existierenden Daten erst bei 20 Millionen. In zwei Jahrzehnten, bis 2007, drehte sich dieses Verhältnis mehr als um: Die analog aufgezeichnete Datenmenge versiebenfachte sich auf 19 Milliarden Gigabyte, die Menge der digital gespeicherten Daten aber explodierte geradezu um das Dreizehntausendfache auf 267 Milliarden Gigabyte (Hilbert 2011). Die Planung von Unternehmensressourcen lässt sich noch in Megabytes beziffern. Das Management von Kundenbeziehungen benötigt schon Gigabytes. Das Web enthält Terabytes. Mobile Netze, Sensoren allerorten, HD-Videos, die Flut der Bilder und der posts hat Petabyte-Ausmaße (Mainzer 2017: 143). 2008 nutzteBarack Obamas Wahlkampfteam Big Data erstmals politisch-strategisch. Jede öffentliche Beachtung dieser Aktionen wurde aber möglichst vermieden, da sonst die Gefahr bestanden hätte, dass „Medien und Öffentlichkeit argwöhnisch auf Begriffe wie ‚data mining‘ oder ‚Big Data‘ reagieren würden“ (Moorstedt 2013: 37). 2009 veröffentlichteGoogleauf der Basis einer Big Data-Analyse die Grippeprognoseflu trends. Zur Popularisierung von Big Data reichte das noch nicht aus. 2010 widmete die britische Wochenzeitung The Economist den digitalen Datenfluten eine erste Sonderausgabe. 2011 beschrieb das Marktforschungsunternehmen GartnerBig Data schon als die größte ökonomische Herausforderung unserer Tage (Genovese/ Prentice 2011). Bis 2012 wurde der Begriff Big Data in der breiteren Öffentlichkeit aber „weder beworben noch benutzt oder bezweifelt“ (Geiselberger/ Moorstedt 2013: 13). Das zeigt das Programm Google Trends, das Zugriffe auf Begriffe im Internet nachweist. 2012 publizierte die New York Times für Big Data jedoch ein Signal: Steve Lohr konstatierte dort im August: „In diesem Jahr hat Big Data den Durchbruch geschafft - als Idee, als Wort und - ja, auch das - als Marketinginstrument. Big Data hat die Nische der Technologieexperten verlassen und den mainstream erreicht“ (Lohr 2012). 2013 schoss bei Google Trends die Big Data-Kurve in deren Suchmaschinenstatistik steil nach oben. In diesem Jahr kam der Suchbegriff Big Data bei Google bereits auf knapp 1,8 Milliarden hits. Das Interesse am Begriff cloud computing war im selben Jahr mit 148 Millionen hits erst ein Zehntel so groß (Brettning 2013). „Konzerne wie Intel, SAP, IBM oder Cisco versprechen mit Initiativen wie ‚Big Insight‘ und allen möglichen Begriffen, denen das Adjektiv „smart“ vorangestellt ist, die Lösung von Menschheitsproblemen wie Verkehrsstaus oder Energieknappheit“ (ibid.: 13 f.). 2014 prognostizierte die International Data Corporation, der digitale Datenbestand werde von 0,8 Zettabyte im Jahr 2009 auf 44 Zettabyte im Jahr 2020 anwachsen, auf das Fünfzigfache <?page no="34"?> 34 1 Milliarden in Millisekunden also (EMC/ IDC 2014) und der Datenverkehr bis 2021 auf 3,3 Zettabyte jährlich (Cisco Visual Networking Index (VNI, cit. Hensel 2017d). 2017 wuchs der Datenberg um etwa zweieinhalb Exabyte jeden Tag (! ). Das entspricht alle 24 Stunden der digitalen Aufzeichnung von 530 Millionen Songs, der Speicherkapazität von rund fünf Millionen Laptops, dem Literaturumfang von 250.000 Nationalbibliotheken von der Größe der nordamerikanischen Library of Congress oder von 90 Jahren HD-Videoaufzeichnungen - wie gesagt jeden Tag. Allein Google bewältigt 24 Petabytes pro Tag (Mainzer 2017: 144). Diese Daten werden von kommerziellen Unternehmen gesammelt, gespeichert und genutzt. So entsteht ein gigantisches Vermögen. Sie sind überschlägig rund 85 Milliarden Euro wert (Bitkom 2017: Arnold). Trotzdem werden Big Datalängst noch nicht so umfassend eingesetzt, wie man denken könnte: „Im Durchschnitt erheben und analysieren die Unternehmen nur gut ein Drittel (35 Prozent) der möglichen Daten, die beim digitalen Kontakt mit ihren Kunden über Webseiten, Online-Shops oder newsletter entstehen. Bei den Unternehmen mit 500 oder mehr Mitarbeitern beträgt der Anteil immerhin 51 Prozent. Bei jenen mit 100 bis 499 Mitarbeitern sind es dagegen nur 38 Prozent, bei 20 bis 99 Mitarbeitern sogar nur 33 Prozent“ (Schonschek 2018a). 2018 wurden in Deutschland voraussichtlich 6,4 Milliarden Euro mit Hardware, Software und Dienstleistungen für Big Data-Anwendungen umgesetzt, zehn Protent mehr als im Vorjahr (Hensel 2018b). Am stärksten wuchs der Bereich hardware mit 18 Prozent gegenüber 2017 auf 671 Millionen Euro. Den höchsten Umsatz macht aber weiterhin die Software mit 3,1 Milliarden Euro (plus neun Prozent). 2018 wollten die Dienste rund 2,6 Milliarden Euro umsetzen (ibid.). 2020 soll allein das Internet der Dinge - es beschäftigt uns später in diesem Buch noch genauer - auf 26 Milliarden Geräte anwachsen. Die Bereitschaft, sie zu nutzen, ist groß: 84 Prozent der Menschen wollen sich von intelligenten Haushaltsrobotern, smarten Autos oder Medizin-Elektronik helfen lassen (Schonschek o.J.: 8). 7,3 Milliarden PCs, Laptops und Smartphones sollen dann laufen (ibid.: 213). Und die Flut an Daten steigt jeden Tag weiter. 2025 soll der Fundus an Informationen nach IDC-Angaben auf rund 163 Millionen Zettabyte erreichen. Das Datenvolumenentspricht dem Speicherplatz von 40 Billionen DVDs, die aufeinander gestapelt über hundert Millionen Mal zum Mond und zurück reichen würden (IBM 2018: 3). In diesem Jahr 2025 soll das Internet der Dinge nach einer McKinsey-Studie aus dem Jahr 2016 einen wirtschaftlichen Mehrwert von bis zu 11,1 Billionen US-Dollar erreichen (Groß 2017). Dann, so schätzt man, wird jeder Mensch mit Internetzugang etwa 4.800 Mal am Tag mit vernetzten Geräten interagieren - das wäre ein solcher Kontakt alle 18 Sekunden (ibid.). Bis dahin erwarten Experten zugleich eine Verlagerung des Datenwachstums zu Unternehmen: Sie sollen bis 2025 rund 60 Prozent der globalen Datenmenge erzeugen (Schadhauser 2017). Die weltweite Datenmenge wächst nach Hochrechnungen bis 2025 auf 163 ZB - eine Zahl mit 21 Nullen und die zehnfache Datenmenge von 2016. Zwischen 2015 und 2025 soll jährliche Wachstumsrate aller Daten bei 30 Prozent liegen (IDC und Festplattenhersteller Seagate, cit. Buchberger 2017). Fast 20 Prozent davon sollen für unseren Alltag kritisch sein, knapp zehn Prozent hyperkritisch (Schadhauser 2017). Wie soll diese Flut zu bewältigen sein? Angeblich problemlos; denn die Rechenleistung ebenso wie die Speicher- und Kommunikationsfähigkeit von Microchips soll sich in den nächsten 20 bis 25 Jahren - ohne dass die Chancen quantenähnlich funktionierender Computer schon einberechnet wären - noch einmal vertausendfachen (Eberl 2016: 22), so dass die dann lebenden Menschen mit solchen gigantischen Datenfluten durchaus umgehen können. Versuchen wir uns Datenmengen bildhaft vorzustellen: Wenn jedes Sandkorn auf der Erde ein Byte an Information verkörpert und wir diese Summe mit dem Faktor 75 multi- <?page no="35"?> 1.3 Der Weg zu Big Data 35 plizieren, kommen wir auf 40 Millionen Zettabyte (ZB) Daten. Sie werden laut Expertenschätzungen 2020 weltweit zu verarbeiten sein - wie gesagt das Fünfundsiebzigfache der Sandkörner aller Wüsten der Erde von der nordafrikanischen Sahara über die westafrikanischen Namib und die südwestafrikanische Kalahari, die arabische Rub a-Chali zur zentralasiatischen Wüste Gobi und zu etlichen mehr. Wie kann das sein? Nun: Auf einem einzigen Transatlantikflug einer Boeing 777 fallen rund 30 Terabyte Daten an. Sie liefern Erkenntnisse, die das Produkt Flugzeug ebenso verbessern wie den Service der Airline und das Reiseerlebnis der Passagiere (Brettning 2013a). In einer einzigen Raffinerie können über 60.000 Sensoren arbeiten, in einer Papierherstellungsmaschine 50.000. Jeder Sensor sendet ohne Unterlass Daten. In der Papierherstellung senkt deren kluge Verarbeitung die Kosten pro Maschine und Jahr um bis zu fünf Millionen Euro (www.bigdata-insider.de 11.4.2017). In der Fertigung etwa der Autoindustrie werden Roboter außer mit Strom selbstverständlich auch mit Daten gefüttert. Und das fahrerlose Automobil kann nur deshalb verkehrstüchtig sein, weil optische und Radarsensoren fortlaufend seine Umgebung abtasten und aus diesem Datenkranz die Route, die Fahrtrichtung und das passende Tempo errechnen. Jetzt beginnt wie schon skizziert das Internet der (gewöhnlichen) Dinge sich zu verbreiten. Haushaltsgeräte ebenso wie die zahllosen Maschinen in Fabriken und Werkstätten in aller Welt bekommen dazu Internetanschlüsse und können dann Daten nicht nur empfangen, sondern auch senden. Der informelle Begriff für diesen Datenstrom aus Endgeräten heißt bei Experten firehose, Feuerwehrschlauch. Man muss sich nur hüten, diesen Strom bereits für die jeweils gepostete Gesamtheit der Daten zu halten. Alles was Nutzer als privat oder geschützt kennzeichnen, zählt da nämlich noch gar nicht mit (boyd/ Crawford 2013: 200). Und nur ein Bruchteil dieses Datenstroms ist als garden hose (Gartenschlauch) öffentlich zugänglich; wohl weniger als zehn Prozent (Meeder 2010). Der Umgang mit Big Data setzt voraus, dass der, der sie sammelt, auswertet und verknüpft, die dazu nötigen Mittel und Werkzeuge hat. Dabei geht es nicht nur um Know-How, sondern ganz schlicht um Kapazitäten und damit um Geld. Die Summen, die da bewegt werden, sind astronomisch hoch. Bitkom zufolge entfallen allein in Deutschland knapp 60 Prozent der von Smartphones induzierten Umsätze - das sind 20 Milliarden Euro - auf Daten- und Sprachdienste. Zehn Milliarden Euro nehmen die Smartphone-Hersteller ein, zwei Milliarden die Netzbetreiber und 1,5 Milliarden die Anbieter von Apps. „Wohl noch nie in der Wirtschaftsgeschichte ist in so kurzer Zeit rund um einen einzelnen Gerätetyp ein so großer Markt entstanden“, sagte Bitkom-Präsidiumsmitglied Markus Haas (t3n 2018e). Das aktuelle Big-Data-Ökosystem hat allerdings dazu eführt, „dass sich eine neue digitale Kluft auftut: die zwischen den Daten-Reichen und den Daten-Armen“ (boyd/ Crawford 2013: 212). Big Data-Auswertungen kommen vorwiegend von potenten datenreichen Akteuren, deren Analysen wirtschaftliche oder politische Interessen zugrunde liegen. Neutral arbeitende und vergleichsweise daten-arme Forscher haben es ungleich schwerer, solche Analysen zu erstellen. Aber es gibt solche Initiativen (vgl. etwa Hoeren 2016 über das von der Bundesregierung geförderte Großforschungsprojekt ABIDA, Assessing Big Data). Wenn Sie tiefer in die Datenwelt einsteigen und kennenlernen möchten, wie man Daten speichert, was clouds sind, wie man Daten auswertet, welche Besonderheiten bei der Auswertung von Big Data zu beachten sind und welche Techniken dazu benutzt werden - das Stichwort dazu heißt Hadoop-, dann rufen Sie jetzt bitte die Webseite zu diesem Buch auf: Ý ¢&à #ìeë ìWX ¢eX&ë‚ <?page no="36"?> 36 1 Milliarden in Millisekunden 1 1..44 IInntteerrnneett uunndd dda arrkknne ett Im Gutenberg-Zeitalter waren Bücher, Zeitungen und Zeitschriften die Basis für die Wissensspeicherung und den Informationstransport. Diese Ära ging seit den 1950er Jahren mit der aufkommenden Computertechnik und endgültig mit der Verbreitung des Internets im ausgehenden 20. Jahrhundert zuende. 1999 veröffentlichten Doc Searls und drei weitere Autoren die erste weltweit beachtete kritische Betrachtung des Internets in den 95 Thesen ihres Cluetrain Manifesto. Fast 16 Jahre später, Anfang 2015, brachte Doc Searls mit David Weinberger und in Abstimmung mit den beiden anderen Original-Autoren in 121 neuen Thesen eine Art Update heraus: „New Clues“ erinnerten an das offene Wesen des Internets und kritisierten dessen Kommerzialisierung und seine Entfremdung von der Ursprungsidee. Zugleich äußerte Searls sich zur Privatheit im Netz: „Das Netz ist keine Kathedrale, es steht höchstens das Baugerüst. Denken Sie an Privatsphäre, die war zunächst nicht mal Teil des Designs. Die ursprünglichen Internet-Protokolle wurden entwickelt, damit wir uns vernetzen. Es war ein bisschen wie im Garten Eden, wir sprangen nackt umher. In der physischen Welt haben wir 10.000 Jahre dafür gebraucht, so etwas wie Privatsphäre zu entwickeln und uns Kleidung anzuziehen. Im Netz sind wir nackt und Firmen nutzen das aus. Wir müssen das Äquivalent zu Bekleidung erst noch entwerfen“ (Kuhn 2018). Was war geschehen? Hier ein Zeitraffer: Anfang der 1960er Jahre entwirft der Medienphilosoph Marshall McLuhanbereits das Szenario einer elektronisch vernetzten Gesellschaft. Netzwerke ermöglichen exponentielles Wachstum. Das hat der Vater des EthernetRobert Melanction Metcafe schon 1946 gesehen. Wer auf traditionelle Weise statt hundert Adressen zweihundert anschreiben kann, rechnete er vor, kann seine Wirkung verdoppeln. Aufwand und Ertrag steigen dann linear. In der digitalen Welt rechnet man aber anders: Der Nutzen eines elektronischen Kommunikationssystems wächst im Quadrat seiner Teilnehmerzahl. Zwei Computer können zueinander nur eine Verbindung aufbauen, zehn aber bereits 10x10, also hundert, und hundert 100x100, also zehntausend. Signalwege hin und zurück sind dabei separat gerechnet. Sind Botschaften ohne feedback nur zu verbreiten, ist der Effekt „nur“ halb so groß. Aber der Schneeballeffekt bleibt: Netzwerke addieren Wirkungen nicht, sie potenzieren sie. Darin und in Verbreitungswegen wie etwa Facebook-likes oder retweets liegt der enorme Effekt. 1962 stellt der amerikanische Ökonom Fritz Machlup fest, dass schon fast 30 Prozent des USA-Bruttsozialprodukts aus Wirtschaftszweigen kamen, die Wissen produzieren oder Informationen verarbeiten. Erstmals benutzt er das Wort knowledge society, Wissensgesellschaft (Machlup 1962: 362). Alain Touraine (1969) und Daniel Bell (1973) nennen sie die Informationsgesellschaft (Schrape 2016: 13). 1969, nur sieben Jahre nach dem Arpanet, das als Vorläufer des heutigen Internets gilt, vermietet eine Versicherungsgruppe aus Ohio unter dem Namen Compu-Serv Network Rechenleistung auf Großrechnern an Unternehmen, die sich selbst noch keinen Computer leisten können. Daraus entsteht das Unternehmen Compuserve, das zusammen mit AOL (America online) die frühen Jahre des Internets wesentlich prägt. 1979 bietet das Unternehmen erstmals E-Mail-Dienste für PC-Nutzer an; 1980 folgt mit dem Echtzeit-chat eine weitere Neuerung, die ihrer Zeit weit voraus ist, und 1981 folgte ein Protokoll für den direkten Dateiaustausch. Um im damals noch langsamen Internet auch Grafiken übertragen zu können, entwickelt Compuserve 1987 ein eigenes Format für die Grafik-Komprimierung, das heute noch verwendete GIF. Anfang der 1990er Jahre wagt das Unternehmen den Sprung nach Europa, 1991 startet es in Deutschland. 1996 ist es der weltweit größte kommerzielle Online-Dienst. Für das zu spät gekommene Microsoft Network als Zugangs-Provider interessiert sich in <?page no="37"?> 1.4 Internet und darknet 37 Deutschland kaum jemand. In seinem geschlossenen Bereich bietet der Dienst Geschäftskunden auch Nachrichten, Börsenkurse und Analysen. 1998 verkauft Compuserve seinen Online-Dienst aber an den wichtigsten Konkurrenten AOL. Das freie Web, dass www (siehe unten: 1989), hängt diese Dienste immer mehr ab. Mitte 2008 kündigt man den rund 11.000 verbleibenden deutschen Nutzern, CompuServe Classic, in den USA gehostet, überlebt nochein Jahr (Kuch 2012). AOL-Web-Adressen gibt es bis heute. 1970er Jahre: Gegen Ende dieses Jahrzehnts sprechen Nora und Minc bereitsvon der Informatisierung der gesamten Gesellschaft (Nora/ Minc 1978). Dass sie immer weniger auf gesprochener und gedruckter, sondern immer stärker auf elektronisch gespeicherter und transportierter Information beruhen wird, deutet sich erst an. 1980er Jahre: In der ersten Hälfte dieses Jahrzehnts wird die elektronische Vernetzung in der Alltagswelt sichtbar und die Idee der Informationsgesellschaft beginnt den gesellschaftlichen Diskurs zu prägen (Schrape 2016: 14). 1989 bekommt diese Idee ungeheuren Schub, als Tim Berners-Lee mit dem world wide webein global gültiges Organisationsprinzip nicht nur zum Datentransport im Internetvorstellt, sondern auch zur Verknüpfung von Daten. Damals ist das Internet eine Plattform für Wissenschaftler. Seine Aufgabe sind Datentransits (Stampfl 2013: 19). Datensicherheit und Geheimhaltung sind noch kein Thema. Ab 1990 entsteht jedoch eine telematisch vernetzte Gesellschaft (Weiser 1991), die die Leistung von Computern so selbstverständlich und fortlaufend nutzt wie die Luft zum Atmen. Als das Web sich dann tatsächlich weltweit verbreitet, ist es für allgemeine Sicherheitsarchitekturen zu spät (Drösser 2016: 162 f.). Zwar gibt es Verschlüsselungen; die muss aber jeder Nutzer in Gang setzen und mit jedem Empfänger elektronischer Botschaften absprechen, damit der sie wieder entschlüsseln kann. Diesen Umstand scheuen viele Nutzer. Es könnte daher noch eine Weile dauern, bis unsere Zivilisation die Verschlüsselung jeder Kommunikation als selbstverständlich empfindet (ibid.: 163). 2017 ist das Web bereits das „Nervensystem der menschlichen Zivilisation“ (Mainzer 2017: 143, vgl. Krieger 2014). Es enthält heute mehr als eine Billion Dokumente und wird von mehr als 3,5 Milliarden Menschen genutzt (Jaekel 2017: 2). Noch hat es in der Publikumsgunst starke Konkurrenz. 2013 hatte der deutsche Fernsehkonsum mit täglich durchschnittlich drei Stunden und 43 Minuten den der Bildschirmbetrachtung noch um eine Stunde übertroffen. 2016 haben die Deutschen klassische Fernsehen und digitale Medien aber schon annähernd gleich intensiv genutzt, und 2017 übertraf der Bildschirmkonsum in Deutschland den TV-Konsum erstmals, wenn auch erst um sechs Minuten; 2018 sollte er bereits um eine Viertelstunde vorn liegen (Bitkom 2017: Zeplin). Das Netz wird das Fernsehen bald gründlich abhängen, schon weil es so unglaublich schnell funtioniert. Úm einen 800 Megabyte großen Spielfilm auf sein Smartphone zu laden, braucht man mit UMTS noch mehrere Minuten, Mit LTE geht das in einer Minute und mit dem künftigen 5G-Netz in einer Sekunde (Eberl 2016: 51). Die Struktur des Web hat sich im Vergleich zu seinen Anfangsjahren völlig verändert. Es bietet rund zehn Milliarden Seiten semantischer Information (ibid.: 148). Facebook, Google und andere global arbeitende Internetkonzerne öffnen einen ständig wachsenden Teil dieser Informationen einem möglichst großen Publikum (Stampfl 2013: 20), ziehen aber immer stärker ihre Nutzer vom allgemeinen www ab und halten sie auf ihren eigenen Seiten. Firmendaten, die nicht vertraulich sind, liegen massenhaft in der cloud und werden dort verarbeitet (Näheres dazu später). Die Menge der im Internet verbreiteten Informationen verdoppelt sich vor allem in den sozialen Netzwerken von Jahr zu Jahr, sagt eine Faustregel, genannt Zuckerberg’s law. Das Web 2.0 der sozialen Netzwerke haben die Web-Nutzer mitgeschaffen und gestaltet. Sie hinterlassen dort personenbezogene Daten. Dieses ‚Mitmach-Web’ funktioniert, weil sie <?page no="38"?> 38 1 Milliarden in Millisekunden solche persönlichen Daten herausgeben (Stampfl 2013: 20). Die Masse der Internetnutzer stört sich wenig daran, dass die Anbieter nur auf den ersten Blick kostenloser Plattformen sich ihre Dienste mit der Vermarktung dieser privaten Daten bezahlen lassen. Der Nutzer muss dieses Verfahren erlauben, um die jeweilige Plattform überhaupt betreten zu können. Im Web basieren soziale Beziehungen nicht auf wechselseitiger Erfahrung oder gemeinsam erlebter Geschichte, sondern auf Datenaustausch und dem Wunsch, auf dem neuesten Stand privater und sozialer, sportlicher und kultureller und erst in zweiter Linie politischer und wirtschaftlicher Themen zu sein: „Netzwerk-Sozialität“, erläutert Wittel, „besteht aus flüchtigen und vergänglichen, aber dennoch wiederholten sozialen Beziehungen; aus kurzlebigen, aber intensiven Begegnungen; sie entsteht auf projektbezogener Basis, durch die Bewegung von Ideen, durch die Einführung von immer nur vorübergehenden Standards und Protokollen“ (Wittel 2006: 163). Ein immer größerer Teil der Weltbevölkerung orientiert sich im Internet und organisiert mit seiner Hilfe das Leben. Inzwischen hängt „nahezu die gesamte Lebenswelt der Menschen von programmgesteuerten Infrastrukturen ab, die unsere Zivilisation wie ein komplexes Nervensystem durchziehen“ (Stampfl 2013: 89). Auch das US-Militär, das wie alle auf Kommandos gedrillten Organisationen lange eine Bastion der vertikalen Pyramidenstruktur war, hat darauf reagiert. Hierarchien, sagen die RAND-Forscher Arquilla und Ronfeldt, haben es schwer, Netzwerke zu besiegen. Denn sie lassen sich nur mit Netzwerken bekämpfen. Wer das Netzwerk zuerst und am besten beherrscht, verschafft sich entscheidende Vorteile (Arquilla/ Ronfeldt 2001: 15). Auch Militärs arbeiten deshalb zunehmend in einem Netz. Unseren Alltag durchdringen Netzwerke ohnehin immer stärker. Sie führen dazu, dass der Gebrauchswert einer Ware für den Käufer davon abhängt, wie viele andere sie nutzen (Wagner 2015: 67). Das organisieren Computer. Schon seit etwa der Jahrtausendwende ist vom ubiquitous computing die Rede (Mattern 2001), also von Computern allüberall. Smartphone-Besitzer, die ständig online sind, zeigen, wie das geht - auch wenn der Facebook-Gründer Mark Zuckerberg bereits das Ende der Smartphone-Ära ausgerufen hat: In einer Mischung aus künstlicher Intelligenz und augmented bzw. virtual reality (Schneider 2017), also mit teilweise oder komplett künstlicher Realität, will er eine neue Netzplattform schaffen und sein soziales Netzwerk Facebook darin zum Taktgeber des Alltags machen. Das ist eine Kampfansage an die Konkurrenz. Bislang hat er erreicht, dass viele Menschen weltweit sagen: Internet nein, aber Facebook ja. Google und Facebook& Co. organisieren das Internet zunehmend als ihre eigene Auslieferplattform. Es gibt einen Trend zur Verengung (BMBF/ Wi 2018: Schmölz). Bestimmt Zuckerberg das Ende der Smartphones mit, dann kann er zumindest mitkontrollieren, was danach kommt (ibid.). Sein Plan fußt im Wesentlichen auf drei Säulen: Erstens will er die ganze Welt mit dem Internet versorgen. Das soll internet.org leisten, eine Plattform unter dem Dach des Facebook-Konzerns. Zweitens will er die führende Plattform für augmented und virtual reality werden, also für Künstliche Intelligenz. Unter anderem dazu hat er das Unternehmen Oculusgekauft, das internetfähige Brillen herstellt. Und drittens geht es ganz generell um die Verbreitung Künstlicher Intelligenz. Auf ihrer Basis soll bald alle Kommunikation zwischen Maschinen und Menschen ablaufen (ibid.). Heute ist das Web eine weithin offene Welt. So offen wird es möglicherweise aber nicht bleiben. 2010 stellte Wu in Analysen älterer Massenmedien fest, dass auf kurze Perioden der Freiheit regelmäßig längere Phasen der Eingrenzung, der Kommerzialisierung und der Monopolisierung folgten. Er bestätigte damit McLuhan, der gewarnt hatte, die neue elektronische Interdependenz verwandele die Welt in ein globales Dorf (1962/ 1968: 47 f.), aber nicht als riesige Bibliothek, sondern als elektronisches Gehirn, das von außen steuerbar und vor allem überwachbar sein werde - und deshalb dringe der Orwellsche „Große Bruder in uns ein“ (ibid.). Wu erwartet, dass auch das Internet diesem Zyklus unterworfen sein wird. Da- <?page no="39"?> 1.4 Internet und darknet 39 für sieht auch Stampfl „gute Gründe. Heute steht fest: Die Offenheit des Internets ist nicht in Stein gemeißelt“ (Stampfl 2013: 2). Rechtliche Regeln greifen im world wide web bisher übrigens kaum. Deshalb hieße es besser word wild web, zumal sich in seinem darknet allerlei lichtscheues Gesindel annähernd straffrei herumtreibt. Dem darknet „haftet etwas Mystisches, Kriminelles und Bedrohliches an. Bereits das Präfix dark weckt ebensolche Assoziationen“ (Tsanetakis 2017). Weil in mehr als fünfzig Staaten Kritik an staatlicher Autorität und an Korruption, politische Opposition, aber auch Satire im Netz zensiert werden, dient das darknet bis zu vier Millionen Nutzern jedoch als Schutzraum (Tanriverdi 2018). Denn es gewährleistet Sicherheit und Privatsphäre. „Dissidenten in Syrien oder Ägypten sind auf Onlinekanäle angewiesen, über die sie sich unbewacht austauschen können“ (Schmid 2016: 27). Auch „Journalisten nutzen das darknet zur sicheren Kommunikation mit Informanten. Medien betreiben im darknet anonyme Briefkästen, wo jedermann ohne Angst vor Repressalien heikles Material deponieren kann. Selbst Facebook bietet dort seit fast zwei Jahren einen klandestinen [unbeobachteten] Zugang - Mitglieder aus Ländern, in denen Zensur herrscht, können sich unbemerkt von der Obrigkeit einwählen“ (ibid.). Darknet-Webseiten enden statt auf .com auf .onion. Das darknet ist nicht mit einem normalen browser zugänglich, sondern nur mit einer speziellen Software wie TOR (The Onion Router) oder I2P (Invisible Internet Project). TOR wird schon seit 2006 von einer gemeinnützigen Organisation betrieben. „Finanziert wird TOR größtenteils vom US-Verteidigungsministerium. Verwcnden kann es aber jeder - „nicht, weil die US-Behörde die Technik selbstlos verschenkt, sondern weil die Anonymität der Nutzer von deren Masse abhängt. Je mehr Menschen TOR verwenden, desto geringer ist die Gefahr für den Einzelnen (und für die US-Geheimdienste), doch enttarnt zu werden. Es gilt der Grundsatz: Alle sind der größte Niemand“ (Tanriverdi 2018). Darknet-Nutzer tauschen gesuchte Adressen der Webseiten zumeist über Foren aus (ibid.). Weltweit gibt es innerhalb des TOR-Netzwerks neun Rechner, die protokollieren, welche Nutzer ihre Bandbreite gerade für TOR zur Verfügung stellen (ibid.). Bevor der browserTOR eine Webseite lädt, verschlüsselt er seine Anfrage mehrfach. Dann steuert er sie blitzschnell über drei zufällig gewählte Server, drei aus rund sechstausend. Der erste entschlüsselt nur die Webadresse des realen Anfragers und der dritte nur die darknet-Adresse des Mailempfängers, so dass sich die Kommunikation im Netz so gut wie gar nicht zurückverfolgen lässt. Für Menschen, die sich vor Überwachung schützen müssen, gehört diese Technik zum Standard. Trotzdem spielt das darknet bei TOR-Benutzern spielt nur eine untergeordnete Rolle. Nur ein Bruchteil von ihnen sucht Webseiten auf, die im darknet liegen - gerade einmal fünf Prozent (Tanriverdi 2018). Neben verfolgten Minderheiten tummeln sich im darknet auch Kriminelle. Möglich machen das hidden internet services, also versteckte Dienste. Zwei britische Analysen stellten fest, etwa die Hälfte der darknet-Seiten habe nach UK- und US-Maßstäben legale Inhalte, die andere Hälfte verfolge nach freiheitlichen Maßstäben aber tatsächlich dunkle Ziele (Tsanetakis 2017). Nach Angaben des Nachrichtenmagazins Der Spiegel machen hidden services, hinter denen sich auch Waffen- und Drogendealer verstecken, jedoch nur „eine einstellige Prozentzahl“ (Schmid 2016) des darknet-Verkehrs aus. Wer dort heiße Ware einkauft, bezahlt sie übrigens fast immer mit Bitcoins (mehr hierzu später in diesem Buch) oder einer anderen Kryptowährung. Überweisungen mit diesem digitalen Geld haben nämlich den Vorzug, dass sie ebenfalls kaum rückverfolgbar sind. Zunehmend benutzen Kriminelle aber auch das offene Internet, weil sie trotz des höheren Risikos dort mehr Interessenten ansprechen können. Die server, über die solche Geschäfte laufen, sind meist in Ländern registriert, in denen mit polizeilicher Überwachung und <?page no="40"?> 40 1 Milliarden in Millisekunden Strafverfolgung wohl kaum zu rechnen ist, etwa auf den Kokosinseln oder im Südsee- Königreich Tonga (ibid.). Wie das offene Internet arbeitet, wird in Protokollen geregelt. Sie ermöglichen Beziehungen zwischen miteinander vernetzten, aber autonomen Einheiten, und sichern in Netzwerken die Organisation und Kontrolle. Das erste Protokoll für Computernetzwerke namens host software hat 1969 Steve Crocker geschrieben. Es ist robust, kontingent, interoperabel, flexibel und heterogen, einfacher gesagt: Es bringt alles unter, gleich in welcher ursprünglichen Definition oder Identität, aus welcher Quelle oder für welche Bestimmung Daten stammen. Drei Prinzipien wirken dabei zusammen: erstens das der Individuation - das Ganze ist zwar größer als die Summe seiner Teile, aber entscheidend sind die Teile -, zweitens das der Vielheit - Netzwerke sind aus zahlreichen Teilen konstruiert und auch so organisiert- und drittens das der Bewegung - sie ermöglicht die Sammlung die Verteilung, den Austausch oder die Auflösung von Daten. Ganz ähnlich funktionieren auch Städte, soziale Milieus, Volkswirtschaften oder Kulturen (zur digitalen Kultur vgl. Leeker 2016). Lassen wir dazu kurz einen Experten zu Wort kommen: „Das Netzwerk besteht aus intelligenten Endpunkt-Systemen, die selbstbestimmt sind und es ermöglichen, dass jedes Endpunktsystem mit jedem gewählten host kommunizieren kann. Statt ein Netzwerk zu sein, in dem Kommunikationen von einer zentralen Autorität gesteuert werden (wie dies in vielen privaten Netzwerken der Fall ist), ist das Internet als Sammlung autonomer hosts gedacht, die frei miteinander kommunizieren können (Hall 2000: 6, 407; vgl. auch Stevens 1994). Internetprotokolle findet man im Request for Comments (RFC). Bislang gibt es ein paar tausend RFC-Dokumente. Die Internet Engineering Task Force und verwandten Organisationen ermitteln, veröffentlichen und verwalten sie (Drösser 2016: 291). Das IP [Internetprotokoll] nutzt ein stark dezentralisiertes Modell, wobei „jeder Computer für jeden anderen Computer im globalen Internet ein gleichwertiger Teilnehmer ist“ (ibid.). Das Web funktioniert also komplett anders als zum Beispiel herkömmliche Unternehmen, in denen ein Chef oder ein Vorstand das Sagen haben und alle anderen mehr oder minder gehorchen. Und wie funktioniert das Internet praktisch? Das Weißbuch Requirements for internet hosts definiert Arbeitsebenen und nennt sie Schichten: die Applikationsschicht (z.B. Telnet, das Web), die Transportschicht (z.B. TCP), die eigentliche Internetschicht (z.B. IP) und die Link- oder Media-Access-Schicht (z.B. Ethernet). Die Applikationsschicht gleicht einem Anrufbeantworter; sie speichert innerhalb des Netzwerks den Dateninhalt, verwaltet also die Daten. Die Transportschicht sorgt dafür, dass die Daten im Netzwerk korrekt ihr Ziel erreichen. Falls Daten verloren gehen, sendet die Transportschicht die verlorenen Daten erneut. Die dritte Schicht ist die eigentliche Internetschicht. Sie steuert die tatsächliche Bewegung von Daten von einem Ort zu einem anderen, legt also fest, auf welchem Weg Daten transportiert werden. Die vierte Schicht schließlich, die Link- oder Medienzugriffsschicht, portioniert und verkapselt die Daten und schnürt leicht transportierbare Datenpakete. So kann ein Telefongespräch beispielsweise über normale Telefonwie über Glasfaserkabel laufen (ibid.: 297 f.). Zusammen ergeben diese Schichten ein raffiniertes System dezentralisierter Kontrolle (ibid.: 292). Inzwischen werden erste Weitentwicklungen des Internets sichtbar. Blockstack beispielsweise will ein neues dezentrales Internet aufbauen, in dem der Nutzer Herr über seine Daten bleibt. Dieses Netzwerk wird seit 2014 entwickelt. Es weist schon über 76.000 registrierte domains auf. Mehr als 13.400 Entwickler arbeiten an Blockstack-Applikationen (Lenz 2017). Fachleute nennen es das Web 3.0. Es wird ein kollaboratives Netz mit dezentralen Eigentumsstrukturen (Rosenbach 2018a). Das Besondere an Netzwerken gilt dann noch stärker: Intelligenz ist im Web nicht allein in einzelnen Computern vorhanden, sondern in der Web-Struktur selbst. Anfangs haben dort nur Menschen mit Menschen kommuniziert. Zunehmend tut das die Technik jetzt <?page no="41"?> 1.5 Das Internet der Dinge 41 autonom, kommunizieren also Objekte mit anderen Objekten - das Stichwort dazu heißt Internet der Dinge. In der Welt von Big Data weicht die Vorstellung, das Internet sei ein abgegrenzter Kommunikations- und Handlungsraum, den man betreten und benutzen kann oder auch nicht, der einer digitalen Gesellschaft, in der dieses Internet der Dinge(Internet of Things, IoT) alles durchdringt. Es wird so sehr ein Teil von uns, dass es uns umgibt wie die Luft, die wir atmen. Das wollen wir jetzt noch etwas genauer betrachten. 1 1..55 DDaass IInntteerrnneett ddeerr DDiinnggee Vor inzwischen einer Generation stand in einer US-amerikanischen Universität ein Coca- Cola-Automat ganz am Ende des Campus. Studenten wollten da nicht vergebens hin laufen, falls sein Vorrat erschöpft wäre. Also verbanden sie ihn mit dem Universitätsnetz um festzustellen, ob noch volle Flaschen vorhanden waren. Das könnte man die Geburtsstunde des Internets der Dinge nennen (Rother 2017). Es bezeichnet ein Netzwerk von Objekten mit eingebetteten Chips, so dass sie Betriebszustände steuern und mit ihrer Umgebung kommunizieren können (Gartner 2017). „Ursprünglich wurde der Begriff für die Vernetzung eindeutig identifizierbarer Objekte mit RFID-Technologie benutzt. RFID-Tags speichern die zu einem Objekt oder Behälter gehörenden Informationen. Inzwischen gilt das Internet der Dinge als dynamische, selbstkonfigurierende, globale Netzwerkinfrastruktur, die physische und virtuelle Dinge aller Art miteinander verbindet. Schon 2015 waren mehr Geräte miteinander vernetzt als es Menschen gibt (Schwarz 2015: 19). Ein Hersteller von Netzwerkstechnik rechnet schon mit 50 Milliarden vernetzter Objekte. Für diese Vernetzung sollen mehr als tausend relativ kleine ‚Nanosatelliten’ mit kleiner Sendeleistung ins All geschossen werden (Howard/ Bausum 2016: 12). Das Internet der Dinge gilt als Treiber der Digitalisierung. Das Auswerten von Maschinendaten, Sensorik und intelligenter Echtzeit-Verarbeitung riesiger Datenmengen in der cloud erzeugt neue Geschäftsmodelle. Standards und Protokolle identifizieren und vernetzen diese Dinge über intelligente Schnittstellen miteinander und binden sie in Informationsnetzwerke ein (van Kranenburg schon 2007, cit. Grohnau/ Forholz 2017). Mit dem Internet der Dinge entwickelt sich eine neue Gattung des Internets, das Chips in Geräten aller Art miteinander und mit Rechenzentralen verbindet (vgl. Sprenger 2015). Diese Geräte werden nicht nur Kühlschränke sein, über die man immer wieder einmal etwas in den Medien liest, sondern Hausgeräte aller Art von der Heizzentrale im Keller bis zur Zahnbürste im Badezimmer, vom Auto in der Garage bis zum Rasenmäher-Roboter im Garten und jenseits privater Grundstücksgrenzen die Ampel am Straßenrand, die Straßenbeleuchtung darüber und die unzähligen Geräte, mit denen in Fabriken Produkte entwickelt, hergestellt, verteilt, gewartet und schließlich recycelt werden. Selbst Hersteller simpler Wasserflaschen fangen an, diese zu vernetzen (Salat 2017). Jedes dieser Objekte erzeugt dann Daten. Sie werden erfasst, gespeichert, sortiert, analysiert, miteinander verknüpft und weitergegeben (Vogt 2017). Siemens hat für das Internet der Dinge bereits ein Betriebssystem namens „Mindsphere“ entwickelt (Kerkmann/ Höpner 2018). Und die International Data Corporation hat wie schon erwähnt ausgerechnet, dass bis 2025 jede Person jeden Tag durchschnittlich 4800 Mal mit vernetzten Geräten interagieren wird (Lobe 2018). Darauf richten sich die Industrie und die Wirtschaft im goßen Stil ein. Mehr als die Hälfte der deutschen Unternehmen planten für 2018 die Einführung von IoT-Plattformen und mehr als 70 Prozent mindestens ein neues IoT-Projekt. Am aktivsten sind Versicherungen und Banken (85 Prozent), gefolgt von Maschinen- und Anlagenbauern (78 Prozent) und <?page no="42"?> 42 1 Milliarden in Millisekunden öffentlichen Verwaltungen (73 Prozent). Bei der öffentlichen Hand dürfte es aber langsamer vorangehen: Nur 53 Prozent wollen oder können die dazu nötigen Finanzmittel bereitstellen. In den anderen Branchen ist zwar die Finanzierung weitgehend gesichert, aber auch dort gibt es Hürden: Mehr als ein Drittel der Teilnehmer (36 Prozent) räumt beim Internet of Things„Startschwierigkeiten“ ein (Quack 2018). Bis 2020 soll das Internet der Dinge trotzdem weltweit schon Milliarden von Geräten im Wert von 14,4 Billionen US-Dollar umfassen (Barrenechea 2018). Binnen zehn Jahren sollen rund fünf Milliarden Anwender über Hochgeschwindigkeitsnetzwerke verbunden sein. Neben Menschen gehen wie gerade gesehen auch Milliarden Maschinen ans Netz (ibid.). Telekommunikationsunternehmen bieten eigene, maßgeschneiderte Übertragungsnetze an, etwa das Telekom-NarrowBand für IoT-Lösungen. Sie beschränken sich auf die Machine-to-Machine-Kommunikation beschränken. „Müllcontainer, die ihren Füllstand an eine zentrale Plattform melden, damit die Stadt die Entleerungsroute danach planen kann, brauchen keine Sprachübertragung und nur sehr geringe Bandbreiten. Sie senden in größeren Abständen kleine Datenpakete, das muss wartungsarm und kostengünstig funktionieren. Nur dann können solche Lösungen im großen Stil ausgerollt werden. Diese Qualitäten erfüllt NarrowBand IoT“ (Tausend 2017). Was da zu erwarten ist, hat ein europäisches Telekom-Unternehmen bei Kunden ausprobiert, deren Geräte schon online sind. Es sind ihre internetfähigen Telefone und die dort angeschlossenen Geräte. Die Firma registrierte nicht nur, wann ihre Kunden beim Surfen im Internet ihr pauschales monatliches Datenvolumen ausgeschöpft hatten, sondern entwickelte auch ein Programm, mit dem sie es einfach aufstocken können. Infos dazu liefert es als SMS. Die Kunden goutieren diese Offerte. Sie hat dem Unternehmen Millionen an zusätzlichen Erträgen gebracht, und die Kundenzufriedenheit ist dabei sogar noch gestiegen (SAS 2016). Ein anderes Beispiel ist das autonome Fahren¸es beschäftigt uns in Kapitel 5 noch genauer. Die dazu nötige Intelligenz steckt nicht nur im einzelnen Fahrzeug, sondern in den Mobilitätsnetzen. Die Automobile sind in diesem System nur die Endgeräte. Ihre Information wird über ein globales Netz in einer cloud gesteuert. Dazu werden eine Unmenge von Daten produziert und verknüpft: fahrzeuginterne Daten wie zum Beispiel Fahrtempo, Reifendruck, und externe wie GPS- und Umweltdaten, Straßenzustands- und -benutzungsdaten. Bis zum Jahr 2020 ergibt das voraussichtlich Datenmassen im Petabyte-Bereich, also in der Größenordnung von 10 15 . Solche Datenmengen kann in Deutschland bisher erst der Supercomputer des Garchinger Forschungszentrums verarbeiten. USA-Rechner und einige in China sind bereits um das Zweibis Dreifache größer (Mainzer 2017a). Drei Bereiche machen das Internet der Dinge aus: erstens das der Entwickler und Hersteller (das Industrial IoT, auch IIoT geschrieben) mit Bestandsaufnahme-, Mess- und Testgeräten, Überwachungssystemen für Leitungssysteme, Fertigungsrobotern und anderen Arten vernetzter industrieller Steuerungssysteme, zweitens das der Wirtschaft und des Handels (das Commercial IoT) sowie drittens das der Verbraucher (das Consumer IoT) mit den Geräten, die uns am vertrautesten sind: mit Haus- und Haushaltsgeräten, Smartphones, Uhren, Unterhaltungssystemen und allem, was uns sonst noch persönlich umgibt. Ob Landwirtschaftsbetriebe oder Raffinerien, ob Fertigungsanlagen oder Logistikzentren, ob Gesundheitssysteme oder intelligente Städte mit ihren öffentlichen Einrichtungen, den Verkehrs- und Versorgungsnetzen und den privaten Haushalten - überall werden IoT- Geräte deren Verhalten und damit indirekt auch das unsere automatisch registrieren, koordinieren und auf uns wie auf Ereignisse von außen reagieren. Im Internet der Dinge wird kaum etwas noch auf Verdacht oder aufgrund bloßer Schätzung geschehen. Denn die Netzwerksarchitekturen zwischen Produzenten, Vermarktern und Verbrauchern werden die Produktions- und Verbrauchskreisläufe eng und zeitnah verzahnen. <?page no="43"?> 1.5 Das Internet der Dinge 43 Fertigungsanlagen lassen sich dann je nach Marktentwicklung ebenso in Echtzeit steuern wie der Verkehr je nach der Belastung seiner Infrastruktur und die Energieversorgung je nach dem momentanen Verbrauch. „Echtzeit“ muss übrigens nicht unbedingt „ohne Verzug“ bedeuten, sondern lediglich „in ausreichender Schnelligkeit für den jeweiligen IT-Benutzer“. Korrekter muss es also „rechtzeitig“ heißen (Mather 2017). Da entwickelt sich ein gigantischer Markt. Experten sagen voraus, dass es bis 2020 bereits viermal mehr mit dem Internet vernetzte Geräte als Menschen auf der Welt geben wird. In Nordamerika waren es schon 2017 durchschnittlich 13 Geräte pro Haushalt (ibid.). Im Jahr 2020 sollen dort im Bereich Internet der Dinge bereits 300 Milliarden US-Dollar umgesetzt werden. Mit seinen Auswirkungen auf die weltweite Wirtschaftsentwicklung soll dieses Netz dann 1,9 Billionen US-Dollar bewegen (ibid.). Das ist die Sonnenseite der Vernetzung aller denkbaren Alltagsgeräte untereinander und mit Unternehmen, die darauf ihr Geschäftsmodell aufbauen. Aber wie stets gibt es auch eine Schattenseite. Sie wird vorstellbar, wenn man bedenkt, dass in dieser enormen Vernetzung vieler Systeme schon die kleinste Manipulation verheerende Folgen auslösen kann. Beispiele verdeutlichen diese Gefahr: Laut cyber crime-Experte Jens Wiesner vom Bundesamt für Sicherheit in der Informationstechnik (BSI) und Ex-BKA-Chef Jörg Ziercke tauchte im Frühjahr 2017 erstmals eine kriminelle ransomware speziell für Industrieanlagen auf, und zwar mit ähnlichen Erpressungstrojanern wie WannaCry und Petya, die schon Daten von vielen Firmen, Krankenhäusern und Organisationen im Griff hatten. Ziercke zufolge besteht eine „asymmetrische Bedrohungslage, die sich deutlich zuspitzt, weil wir es mit hochentwickelten Werkzeugen professioneller Angreifer zu tun haben“ (Pfeiffer 2017). Diese Kriminellen bedienen sich scheinbar harmloser Alltagsgeräte, digitaler Wasserkocher etwa oder Kaffeemaschinen mit Chip. Wenn Sie als Verbraucher solche vernetzten Geräte bei sich anschließen, machen sie „Türen auf, von denen sie gar nicht wissen, dass sie existieren“, warnt Wiesner (ibid.). Wie groß das Sicherheitsproblem ist, zeigte eine Avast-Untersuchung 2017: Von fast drei Millionen IoT-Geräten waren über 175.500 Geräte unsicher. Auch 17 Prozent der Router, 13 Prozent der Webcams und fünf Prozent der Drucker waren für Hacker anfällig (Salat 2017). Um verletzliche IoT-Geräte zu ermitteln, benutzen Cyberkriminelle die darknet- Suchmaschine Shodan. Sie sammelt jeden Monat Informationen von mehr als 500 Millionen mit dem Internet verbundener Geräte und Dienste (ibid.). Mit botnets, die man sich im darknet ausleihen kann, können Hacker Tausende von Geräten auf einen Schlag infizieren. Denn viele Hersteller verwenden Standard-Login-Daten: sie scheuen sich aus Kostengründen, für jedes ihrer Geräte ein eigenes Kennwort zu definieren. Proof of concept-Attacken haben gezeigt, wie über ein einziges solches Gerät, etwa eine Glühbirne oder ein Verkehrssensor, ganze IoT-Netze infiziert werden können (ibid.). Was solche Trojaner anrichten können, kann dramatisch sein, etwa im Protokollrechner der Lademaschine für die Brennelemente des Kernkraftwerks Gundremmingen - dort wurdern solche Schadprogramme erst nach Jahren entdeckt (ibid.). In der Ukraine schaltete ein Blackenergy-Trojaner Umspannwerke ab und sorgte so dafür, dass mehr als 200.000 Menschen ohne Strom waren. In Russland schaffte es die Carbanak-Bande zwar nicht, ins Banknetz einzudringen, konnte aber Überwachungskameras hacken und den Bankern deshalb bei der Passwort-Eingabe zuschauen. Im Hafen von Antwerpen ließ ein Virus über Jahre Container zwar nicht physisch, aber im System verschwinden und machte sie damit für den Drogenschmuggel verwendbar. Im Firmennetzwerk der US-Supermarktkette Targetverschafften sich Kriminelle Zugriff auf zig Millionen Kreditkartendaten über den Wartungszugang der Klimaanlage. Und beim größten Ölproduzenten der Welt Saudi Aramco löschte ein Cyber-Angriff 35.000 Festplatten (ibid.). <?page no="44"?> 44 1 Milliarden in Millisekunden Wer in den Datenfluss von Gesundheits- und Sicherheitssystemen, von Verkehrs- oder Versorgungssystemen eindringen kann, kann, wie wir sehen, unermesslichen Schaden anrichten. Ganze Volkswirtschaften könnten erpressbar werden. Authentifizierungs- und Autorisierungsprotokolle, sichere Software und sogenannte Firmware, also geschützte Verbindungs- und Kommunikationsmöglichkeiten, werden daher noch weit wichtiger werden als sie es heute schon sind. Öffentliche wie private Schaltstellen im IoT-Netzwerk müssen miteinander verknüpfte Sicherheitssysteme entwickeln, um auffälliges Verhalten in Echtzeit erfassen, Bedrohungen sofort erkennen und Reaktionen möglichst automatisch steuern zu können. Dazu werden drei Sicherheitsfunktionen für IoT-Netzwerke erforderlich sein: 1. Das IoT-Netzwerk muss transparent sein. Denn nur dann es es möglich, Geräte ohne Zeitverzug daraufhin zu überprüfen, ob sie wirklich nur das können und tun, was sie tun sollen -das nennt man Authentifizierung. 2. Das IoT-Netzwerk benötigt richtliniengesteuerte, geschützte und überwachte Netzwerkszonen. Nur auf der Basis grundlegender Berechtigungen, die jedem IoT-Gerät ein spezifisches Risikoprofil zuweisen, ist die nötige Überwachung möglich. 3. Geräterichtlinien sind die Voraussetzung für eine Überwachung auch der Zugangsknoten (access points), der Datentransfers (Netzwerksdatenverkehr) und der Arbeit in der cloud. Ohne sie würde dieses Netz unkalkulierbar gefährlich (ibid.). 1 1..66 DDiiee BBlloocckkcchhaaiinn Etwa im Jahr 2017 begann eine Technologie von sich reden zu machen, die das Potenzial hat, nach dem world wide web und nach wikis, social media und open source zur nächsten großen Internet-Innovation zu werden, zum „nächsten unaufhaltsamen Evolutionsschritt für die Freiheit und Eigenständigkeit des Einzelnen“ (Lenz 2017). Es ist die Blockchain. „So, wie das Internet nicht mehr weggehen wird, wird auch die Blockchain bleiben“ (t3nguide 2018). Es ist eine Datentechnik, deren Höhenflug gerade erst startet, obwohl sie bereits zeigt, was sie kann. Das WHO-Welternährungsprogramm beispielsweise verteilt seine Hilfszahlungen global bereits via Blockchain und spart so allein in Jordanien bis zu 150.000 Dollar im Monat (Nienhaus 2018). Die Blockchain ist, wie schon ihr Name sagt, eine Kette (chain) von Blöcken (blocks), die in Summe eine Datenbank ergeben, die auf vielen Computern gleichzeitig abgelegt und bearbeitet wird. Alle Transaktionen, die in dieser Datenbank hinterlegt werden, sind für jeden Teilnehmer dieser Blockchain einsehbar. Denn die Computer, die an einer Blockchain teilnehmen, sind über das Internet vernetzt und bilden damit ein Blockchain-Netzwerk. Jeder neue Datenblock entsteht im dezentralen, automatisierten Konsens mit allen Beteiligten. Jeder Block erhält zur Verifizierung der hinterlegten Informationen die Prüfsumme des vorherigen Blocks und die der gesamten Kette (Müller-Dott 2018a) und wird an die Blockchain angehängt. Die Reihenfolge der Datensätze in der Blockchain liegt als Protokoll damit fest. Einzelne Teilnehmer können sie danach nicht mehr manipulieren. Die Blockchain registriert also alle Transaktionen „wie in einem Haushaltsbuch, aber nicht auf einem Großrechner, sondern parallel und kryptografisch geschützt auf zig Computern von Nutzern, die es gemeinsam führen. Ein Computer macht einen Eintrag; die anderen überprüfen ihn. Sind sie einverstanden, übernehmen sie die Daten automatisch in ihre Kopie des Haushaltsbuchs. Kein Mensch muss dafür einen Knopf drücken“ (Röder 2018). Jeder verwaltet seine Daten selbst und legt fest, wem er sie zugänglich macht und wem nicht. So entsteht ein System, in dem alle Computer alle Transaktionen dokumentieren und sich dabei gegenseitig kontrollieren. Keine zentrale Stelle, weder eine Bank noch ein Staat <?page no="45"?> 1.6 Die Blockchain 45 noch der Betreiber eines sozialen Netzwerks kann Daten manipulieren. Jeder einzelne Nutzer entscheidet, wer seine Daten sehen darf und wofür wie sie benutzt werden dürfen - etwa, in anonymisierter Form, für die medizinische Forschung (ibid.). Das macht die Blockchain nicht nur für den Handel mit Waren und Dienstleistungen interessant, nicht nur für Bezahlsysteme, sondern auch für das weltweite Gesundheitswesen, in dem es auf massenhafte Datenverfügbarkeit ebenso ankommt wie auf den strikten Schutz der Privatheit des einzelnen Beteiligten. Fälschungen würden sofort entdeckt, weil sie mit den Kopien auf den anderen Rechnern nicht übereinstimmen. Wollte jemand in einer Blockchain trotzdem einen Datensatz fälschen, müssten er diesen und alle nachfolgenden Blöcke nicht nur neu berechnen, sondern auch auf der Mehrzahl der angeschlossenen Rechner weltweit gespeichern können. Das würde so viel Zeit, Rechenleistung und Energie kosten, dass niemand das auch nur versucht. Blockchains sind daher vor Manipulation sicher. Blockchains benötigen deshalb auch keine externen Instanzen, die die Integrität eines Datensatzes bestätigen. Man kann deshalb sagen: Viele Zeugen ersetzen in der Blockchain den Notar (Röder 2018). „Die entscheidenden Eigenschaften der Blockchain-Technologie sind also: Sie speichert Informationen dauerhaft, nachvollziehbar und unveränderbar dezentral (Müller-Dott 2018a) - allerdings auch dann, wenn es sich (was vereinzelt vorkommt) um unerlaubte Inhalte wie etwa Kinderpornografie handelt (Gojdka 2018). Es müsste eine Prozedur geben, fordert deshalb das Forschungsinstitut für Kryptoökonomie an der Wirtschaftsuniversität Wien, solche Dinge auf richterliche Anweisung aus eine Blockchain herauszubrechen (ibid.). Blockchains wurden bekannt, weil man über sie einfach, verlässlich und anonym Zahlungen auslösen und verwalten kann. Blockchains tauschen nämlich nicht nur Daten aus, sondern auch Werte, und das ohne Intermediär. Das Ergebnis sind extrem niedrige Transaktionskosten. Kryptowährungen wie Bitcoin arbeiten so - wir kommen darauf gleich noch zurück. Das Londoner Innovation Lab der Deutschen Bank hat ausprobiert, wie man über eine Blockchain auch Firmenanleihen ausgeben kann. Es wäre sehr einfach. „Man bräuchte weniger Anwälte und Wirtschaftsprüfer, keine Clearing-Häuser und vielleicht auch keine Börsen mehr“ (ibid.). Der Höhenflug der Bitcoin Ende der 1990er Jahre setzte auf der Basis der Blockchain die Entwicklung kryptographischer Währungen, kurz Kryptowährungenein. Sie koppelten sich erstens von jeglicher zentralen Regulierung ab, nicht nur von der staatlichen, sondern auch von der der Banken, und sollten zweitens gegenüber Einzelinteressen immun sein. Wer Bitcoin erfunden hat, ist unbekannt; er versteckte sich hinter dem Tarnnamen Sastoshi Nakamoto und zog sich 2010 ganz zurück. Seine Digitalwährung sollte von Menschen nicht manipuliert werden können. Dazu beschränkte er die Bitcoin-Menge auf 21 Millionen. Mehr Bitcoinskönnen nicht auf den Markt gebracht werden. Dafür sorgt ein komplizierter Computercode, der bisher noch nicht geknackt werden konnte. Knapp 17 Millionen Bitcoins sind im Umlauf; neue entstehen, wenn alte den Besitzer wechseln (Gschwendtner/ Tanriverdi 2018). Elektronische Währungen müssen wie Münz- und Papiergeld so ausgestattet sein, dass man ein und dieselbe Summe nur einmal ausgeben kann. Ohne zentrale Buchungen bei Banken muss das System dies dezentral möglich machen. Dafür muss es Regeln geben. Bitcoin notiert Geldbeträge wie Telefonnummern in einem elektronisch geführten öffentlichen Buch, in einer Blockchain im Internet. Jeder Nutzer der Bitcoin-Software speichert eine Kopie auf seinem Computer. Wer Bitcoins kauft, verfügt über zwei Login-Adressen, eine geheime und eine öffentliche. Mit der ersten kann der Besitzer jederzeit bestätigen, dass ihm die Bitcoins gehören. Mit der <?page no="46"?> 46 1 Milliarden in Millisekunden anderen zahlt er oder kassiert er. Diese Adresse ist nicht mit seinem echten Namen verknüpft, es ist aber öglich, solche Zahlungen im Kassenbuch nachzuschlagen (Gschwendtner/ Tanriverdi 2018). Das macht es unmöglich, einen Bitcoin-Betrag zu fälschen oder doppelt auszugeben, denn in diesem öffentlichen Buch ist verzeichnet, wem welcher Betrag gehört - nicht aber, wer das tatsächlich ist. Der europäische Gesetzgeber unterwirft Bitcoin & Co. der Richtlinie über Währungsbörsen und Onlinedienste. Sie schreibt unter anderem vor, dass Akteure bei ihren Kunden deren Identität feststellen müssen. Anonymität darf also nicht sein. Bei einem öffentlich einsehbaren Transaktionsregister läge folglich der gesamte Zahlungsverkehr der Beteiligten offen (vgl. Tschorsch/ Scheuermann 2016). Das ist ein ungelöstes Problem (Hölzel 2017). Die Akzeptanz von Bitcoin als Zahlungsmittel ist bisher sehr begrenzt. 2016 ließ die Schweizer Stadt ZugBitcoins für Zahlungen bis zu 200 Franken zu (Thiele/ Zydra 2018), tauschte aber eingehende anonyme Bitcoin-Beträge nach Auskunft von Stadtpräsident Müller (Müller, D. 2018) sofort in Schweizer Franken um (ibid.), denn „die Schweiz interessiert es nicht, woher das Geld der Leute kommt“ (Anti-Geldwäsche-Experte Andres Frank, cit. ibid.). China hingegen will das Schürfen von Bitcoin verbieten und hat 2018 den Zugang zu allen Kryptobörsen gesperrt (t3nguide 2018). Das bestätigte ein Beamter der westchinesischen Provinz Xinjiang dem Wall Street Journal (Diesen 2018). Auch Südkorea will den Handel mit Kryptowährungen untersagen (ibid.). Nobelpreisträger Joseph Stiglitz findet das richtig; er bestreitet Bitcoin nämlich jeden Nutzen und plädierte schon früher für ein Verbot (t3n 2017b). Harvard-Ökonom Kenneth Rogoff dagegen findet nicht, dass man Kryptogeld verbieten sollte, aber man müsse es regulieren (cit. Hesse 2018: 71). Die Kunstwährung Bitcoin bewegt täglich umgerechnet mehrere Milliarden Dollar (Körber 2018). Man kann sie aber nicht verlässlich in echtes Geld umtauschen (Keese 2014: 273 f.). Es gibt einerseits also Probleme. Aber als Spekulationsobjekt hat diese Kryptowährung Konjunktur. Der Bitcoin-Kurs schwankt deshalb stark. 2014 ging eine Bitcoin-Tauschbörse noch in Konkurs. Anleger verloren ihr Geld. Danach boomte der Bitcoin-Kurs aber. Von August 2016 bis August 2017 hatte er sich von rund 500 auf 4577 Dollar fast verzehnfacht (coinmarketcap.com) und bis Dezember nochmals vervierfacht (LinkedIn 2017). Wer zu Beginn des Jahres 2013 für 256 Euro Bitcoins gekauft hatte, konnte sich schon im Herbst 2017 über einen Gewinn von über zwei Millionen Euro freuen (finance-check 2017), bis gegen Jahresende sogar über rund vier Millionen. Im Dezember 2017 sprangen die Bitcoin-Notierungen zwischen 11.600 Dollar und 16.600 Dollar hin und her. Als die Chicagoer Optionsbörse CBOE Bitcoin in den Terminkontrakthandel aufnahm, schoss der Kurs weiter nach oben - „so schnell, dass der Börsenbetreiber den Handel unterbrach. Dann pendelte sich der Bitcoin-Future um 18.000 US-Dollar ein“ (t3n 2017c). Vereinzelt erreichte er die Marke von 20.000 Dollar (Lenz 2017). Innerhalb weniger Tage brach er dann wieder ein; bis Februar 2018 ging er auf etwa 10.000 Dollar und dann weiter auf rund 8.000 zurück. Die „Wirtschaftsweise“ Isabel Schnabel fühlt sich „an die großen Blasen der Wirtschaftsgeschichte“ erinnert (t3n 2017c). Die Weltwirtschaft beunruhigt das derzeit aber nicht. Dennder Bitcoin-Umlauf entspricht in seinrm Marktwert „nur“ etwa einem Promille des Dollar-Umlaufs, einem „Tropfen im weltweiten Währungsozean (Gschwendtner/ Tanriverdi 2018). Bitcoin gilt trotzdem es als eine der größten Erfindungen der letzten Jahrzehnte: Diese Währungsplattform arbeitet wie erwähnt dezentral, ohne Reibungsverluste und braucht keine zentrale Aufsicht. „Diese Prinzipien haben das Web groß gemacht, und sie werden auch Bitcoin groß machen“, prognostizierte CasSelle schon 2014 (Keese 2014: 274). „Digitales Geld“, ist deshalb Hesse überzeugt, „wird kommen. Die Bank of England, die Notenbank von Schweden und andere Zentralbanken arbeiten bereits an solchen Konzepten“ (Hesse <?page no="47"?> 1.6 Die Blockchain 47 2018: 71). Experten warnen jedoch vor der Unberechenbarkeit der Digitalwährung. Auch Banken sind skeptisch. Aber einige Regierungen - zuerst Großbritannien, dann Russland, später auch die Türkei - überlegten, ob sie auf diesem Gebiet aktiv werden sollen, und eine, nämlich Venezuela, hat es bereits getan. Der venezolanische Päsident Maduro hat eine eigene Kryptowährung verfügt, um den Staatsbankrott abzuwenden (Maduro 2017). Offiziell hat das Land seine digitale Währung an den Ölpreis gekoppelt; daher der Name Petro. Den Investoren versprach der Staat einen Barrel Öl pro Petro. Die zusätzliche Währung Petro Gold soll ähnlich funktionieren, sie ist an einen Barren Gold gekoppelt. Dieser Trick scheint zu funktionieren: Am Ausgabetag der venezolanischen Kryptowähung Petro nahm die Regierung mit diesem Kunstgeld rund 735Millionen US-Dollar ein. Aber „die Währung schaut wie ein kompletter Betrug aus“, sagte der Finanzprofessor David L. Yermack. Zumindest habe die Regierung „widersprüchliche Angaben“ darüber gemacht, auf welcher Blockchain die Token liegen (Hegemann 2018). Zurück zu Bitcoin: Über die Funktionstüchtigkeit dieser Währung entscheidet die Rechenleistung und damit die finanzielle Ausstattung sogenannter Miner. Die darin steckende Gefahr führte zu Wettbewerbern wie etwa Litecoin, Peercoinund Ripplesowie Ethereum. Ethereum (Näheres: t3nguide 2018: 9.12) wird in einer science fiction das Element genannt, das dem Licht zu reisen erlaubt. Ether, von dem sich Ethereum ableitet, heißt deutsch Äther. Im Verständnis der indischen Sankhya-Philosophie durchdringt dieses Element den Weltraum, trägt Leben und Klang. In der Finanzwelt ist Ether die Kryptowähung von Ethereum. Beide waren 2017 unter den Krypto-Währungen ein Star der Spekulation. Am Jahresanfang kostete eine Einheit etwas über acht Euro, elfMonate später 390 - eine Rendite von 5.000 Prozent (finance-check 2018). Die Relationen verschieben sich aber. Anfang 2017 hatte Bitcoin unter den Kryptowährungen noch einen Marktanteil von 87 Prozent, ein Jahr später nur noch von 36 Prozent (Quartz, cit. LinkedIn 19.01.2018). Ripple, hinter Bitcoin und Ether die drittwertvollste Digitalwährung, ist keine direkte Kryptowährung und kann auch nicht von Nutzern geschürft werden, sondern eine Kombination aus Handelsplatz und Zahlungsnetzwerk. Ripple hat gut hundert Kunden aus dem Finanzsektor. Im Spätherbst 2017 hatte American Express angekündigt, für internationale Zahlungen das Ripple-Netzwerk zu nutzen. Der ehemalige Bundesverteidigungsminister Karl- Theodor zu Guttenberg berät Ripple übrigens seit Juli 2014. Das Open-Source-Protokoll der Gesellschaft Ripple Labs unterstützt als währungsneutrales Netzwerk beliebige Währungen wie Euro, Dollar oder Bitcoin. Ripple hat aber auch eine eigene digitale Währung, genannt XRP. Deren Hauptzweck ist es, Geld sicher von einem Ort zum anderen zu senden. Es setzt dazu auf ein System von Verbindlichkeiten und Vertrauen zwischen den Nutzern über Schuldscheine (IOU, I owe you), die in einem Register aufgezeichnet und in einem peerto-peer-Netzwerk gespeichert werden. Das Register wird alle paar Sekunden vom sogenannten Konsens-Algorithmus aktualisiert. (t3n 2018g). Anfang 2018 waren laut coinmarketcap knapp 39 Milliarden XRP im Umlauf. Die Marktkapitalisierung ist auf über 55 Milliarden Dollar angewachsen. Insgesamt gibt es weit mehr als tausend dieser Kryptowährungen sehr unterschiedlicher Vertrauenswürdigkeit. Sie boomen: Laut New York Times tauschten 2017 täglich rund 100.000 Menschen konventionelles Geld in Kryptowährungen um (Lenz 2017). Der Marktwert aller Kryptowährungen überstieg 500 Milliarden US-Dollar (ibid.). Im Vergleich zur Blase der Dotcom-Ära ist das aber „immer noch fast Kleingeld: Im März 2000 steckten allein im derNational Association of Securities Dealers Automated Quotations Nasdaq, der größten elektronischen Börse in den USA,6,7 Billionen Dollar - weit mehr als das Zehnfache“ (Lenz 2017). <?page no="48"?> 48 1 Milliarden in Millisekunden Banken entwickeln auf Blockchain-Basis übrigens auch eine eigene Kryptowährung, die utility settlement coin(USC). Zunächst soll sie auf der bankeninternen Blockchain nur zum Handel zwischen Banken genutzt werden. Später sollen auch normale Kunden USC besitzen können (Nienhaus 2018). Kryptowährungen sind bislang ein Nebenfinanzmarkt (Fujitsu 2017: Werner), angeblich aber „ein neues, unzerstörbares Finanzmarkt-, Handels- und Plattformsystem“, wie schon erläutert frei von „staatlich-territorialen Ansprüchen, Zentralbanken und Banken“ (Lenz 2017) und deshalb gut „für eine neue Ära der Finanz- und Geldgeschichte“ (ibid.). Auf dem Feld der Maschine-zu-Maschine-Bezahlvorgänge gelten sie als die nächste game changing technology der Digitalisierung (ibid.). Denn in der Globalisierung erscheint es logisch, dass Menschen ihr Geld und ihre Daten selbst besitzen und kontrollieren möchten. Das funktioniert statt über ein kostenpflichtiges Konto bei einer Bank in einer Blockchainüber eine kostenlose Funktion auf dem Smartphone. „Zahlreiche junge, digital affine Menschen verspüren den Wunsch, mit alten Mächten zu brechen - die Zeit für Disruptionen in der Finanzwirtschaft scheint reif“ (ibid.). Die Blockchain gilt Beobachtern deshalb als „die Speerspitze einer generellen Digitalisierung der Wirtschaft“, sagt Sebastian Steger, ein Experte für diese Technologie der Unternehmensberatung Roland Berger (tenguide 2018: 6). Ihre Benutzung sei allerdings ein Teamsport, und den sei man in einem Business-Umfeld nicht unbedingt gewöhnt“, setzt Oliver Gahr, Programmdirektor „Innovation, Blockchain und IoT“ im IBM-Forschungs- und Entwicklungszentrum in Böblingen hinzu (ibid.: 4). In automatisierte Abwicklungen mit einem hohen Grad an Transparenz würden sich Unternehmen nicht „einfach so reinstürzen“. 2017 hielten in einer Yougov-Studie „Potenzialanalyse Blockchain“ denn auch erst sieben Prozent der Fach- und Führungskräfte diese Technologie für marktreif und einsatzbereit (ibid: 4). 47 Prozent der deutschen Firmen prüfen aber den Einsatz von Blockchain- Technologien und 21 Prozent arbeiten bereits an Prototypen. Schon jetzt bieten Amazon, Microsoft und IBM ihren Kunden Produkte an, um eigene Blockchain-Ansätze zu realisieren. IBM arbeitet schon an über 400 Projekten weitweit (ibid.). 2017 wurden mit Blockchains gut 700 Millionen US-Dollar umgesetzt. Innerhalb der kommenden zehn Jahre sollen es nach Schätzungen von Wintergreen Research 60 Milliarden Dollar werden. Einsatzfelder der Blockchains Das Einsatzfeld für Blockchains ist breiter als der Finanzmarkt; nur wenige Beispiele: In der Logistik wie im Lebensmittelbereich lassen sich Warenflüsse vom Hersteller über den Einzelhändler bis zum Verbraucher stets hieb- und stichfest nachverfolgen; auch im Gesundheitswesen kann man die Lieferkette von Medikamenten Schritt für Schritt von der Produktion bis zur Auslieferung festhalten. Die Blockchain selbst bietet keine Netzwerkseffekte (BMBF/ Wi 2018: Schmidt), aber on top sind sie möglich (ibid.: Fiedler). Blockchains lassen sich auch für smarte Verträge verwenden (Behrens 2017: 84). Gäbe es passende Datenbanken in Blockchain-Technologie und eine passende Infrastruktur, ließen sich etwa Immobilienkäufe und -verkäufe deutlich vereinfachen. Teure Notarbeurkundungen und Grundbucheintragungen wären dann nämlich überflüssig (Körber 2018). Eine durchgreifend neue Struktur lässt sich im Energiebereich schaffen. Energie soll verbrauchsabhängig berechenbar werden: Wer Strom in Spitzenzeiten verbraucht und deshalb Stromanbieter veranlasst, Kapazität auch für diese Spitzen vorzuhalten, soll mehr bezahlen als der, der seine stromverbrauchenden Geräte in den Stunden laufen lässt, in den die Nachfrage deutlich niedriger ist. Dazu müssen Stromzähler den Verbrauch zeitabhängig erfassen und senden. Die derzeit 2.361 deutschen Unternehmen der Energiewirtschaft können das managen, wenn auch zu hohen Infrastrukturkosten. Millionen von Privatleuten, die Solarstrom erzeugen und ins Netz einspeisen, wären damit aber überfordert. Die <?page no="49"?> 1.6 Die Blockchain 49 Blockchain-Technologie jedoch ermöglicht „als dezentral verwaltetes Register zum Speichern, zur Auslesung und zum Verarbeiten von Transaktionen bei gleichzeitiger systemimmanenter Verifizierung - kurz: als ‚Vertrauensmaschine‘ - eine echte Marktintegration erneuerbarer Energien“ (Thon et al. 2018). Stromerzeuger jeder Größenordnung können ihr Erzeugungsportfolio so am Verbrauchsprofil des Stromkunden ausrichten. Besonders wirksam verspricht via Blockchain das Identitätsmanagement zu werden. Heute ist Identität im Prinzip staatlich verordnet - der Staat vergibt Personalausweis-, Steuer, und Sozialversicherungsnummern und gibt entsprechende Ausweise aus - oder sie wird von Firmen bestimmt, etwa von Facebook, desssen zwei Milliarden Nutzer eine Facebook- Identität haben und diese Identität auch zum Authentifizieren bei Drittanbietern verwenden. Per Blockchain kann jeder eine Identifikationsnummer aber selbst generieren. Sie gehört nur dieser Person. Da diese Daten in der Kontrolle der Nutzer liegen, ist das Prinzip privacy by design automatisch berücksichtigt. Mobile Connect beispielsweise ist ein solches digitales Identitätssystem. Es authentifiziert die Benutzer über ihr Gerät. Sie können auf eine Vielzahl von Anwendungen zugreifen und brauchen, um auf Online-Dienste zugreifen zu können, keine Benutzernamen und Passwörter mehr. Mobile Connect ist ein Standard, der auf OpenID Connect aufbaut (Lohkamp/ Voshmgir 2018). Weil Blockchains den Schutz persönlicher Daten vereinfachen, können sie auch im medizinischen Bereich Sicherheit und Vertrauenswürdigkeit bieten (BMBF/ Wi 2018: Zahn), zum Beispiel mit der Datenschutz- und Verschlüsselungstechnologie ISÆN, der Individual perSonal data Auditable addrEss Number. Mit ihr können Web-Nutzer jederzeit feststellen, wer über sie welche personenbezogenen Daten verarbeitet und eine Zustimmung zu deren Verarbeitung und Weitergabe jederzeit einschränken (Jähnichen et al. 2018). Ein letztes Beispiel für das Blockchain-Potenzial: Das car sharingwürde so einfach wie nie: Sobald jemand für ein bestimmtes Auto den festgelegten Betrag bezahlt, kann es sich entriegeln, der Blockchain melden, wie weit und wie lange es fährt, und dann die Abrechnung auslösen. Der car sharing-Anbieter würde durch eine automatisierte Technik ersetzt. Jeder könnte über die Blockchain sogar sein eigenes Auto anderen vermieten (Nienhaus 2018). Das soll sehr preisgünstig werden: In den USA soll bei einem Uber-Fahrzeug der Preis für eine gefahrene Meile nämlich von etwa zwei Dollar auf etwa 30 Cent sinken. In Kombination mit dem öffentlichen Nahverkehr soll der Preisverfall für eine permanente Verfügbarkeit von individueller oder gemeinsamer Mobilität in Städten und bald auch im Umland sorgen. Die Blockchain eignet sich dshalb „als Unterbau für den Betrieb einer autonom fahrenden Robo-Taxi-Flotte. Sie könnte sich mit der unbestechlichen und manipulationssicheren Technologie selbst managen und muss dabei ‚nur‘ kostendeckend arbeiten“ (Röder 2018). Ein Start-up namens IOTA (www.iota.org) hat daraus bereits 2015 Konsequenzen gezogen. In Form einer Stiftung (Die Stiftung 2018) hat es die gleichnamige Software entwickelt, die der Blockchain-Techologie ähnelt.Will ein IOTA-Knoten eine Transaktion speichern (lassen), muss er zunächst zwei andere Transaktionen validieren. Der Lohn für dieses Bestätigen ist das Speichern der eigenen Transaktion. Das funktioniert ohne eine Gebühr und zu sehr geringen Kosten, und das Validierungstempo nimmt bei zunehmenden Transaktionen etwa über Mini-Beträge nicht ab, sondern zu. Genau darum ging es der IOTA Foundation: ein Protokoll zu schaffen, das sich für das Internet der Dinge eignet. Denn noch sind nicht alle IoT-Geschäftsmodelle einfach umsetzbar (Heumüller 2018). Diese Software ermöglicht es beispielsweise, dass Autos ohne Eingriff des Fahrers selbsttätig Parktickets buchen und bezahlen, selbstverständlich mitutengenau, und dass sie ohne Zutun des Nutzers getanktes Benzin oder gespeicherten Strom bezahlen usw. Diese Software soll alle Maschinen-zu-Maschinen-Kommunikation vollautomatisch organisieren, und zwar auch dann, wenn es dabei nur um Cent-Beträge geht. Nennenswerte Transaktionskosten anderer Bezahlsysteme würden das bisher verhindern. IOTA, Anfang 2018 noch ein <?page no="50"?> 50 1 Milliarden in Millisekunden 40-Personen-Team, will das global organisieren und dazu schon bis Ende 2018 auf 200 Personen wachsen (Behrens 2018a: 63). Das Unternehmen und sein Anfang 2018 noch gar nicht marktreifes Produkt gerieten zu diesem Zeitpunkt dennoch schon ins Visier von Betrügern. Das bekamen Anfang 2018 zwei Münchner zu spüren, die mit IOTA spekuliert hatten. Ein vorgeblicher Passwort- Generator war in Wirklichkeit nämlich eine betrügerische Pishing-Seite. Am 19. Januar plünderten Betrüger IOTA-Konten. Der Schaden belief sich auf 4,4 Millionen US-Dollar (Bernstein 2018). Wie glitzernd die Zukunft solcher Anbieter trotzdem aussehen kann, zeigt jedoch ein Zahlenvergleich: Der Schadenbetrug grob gerechnet nur ein Promille des in kürzester Zeit entstandenen IOTA-Firmenwerts. 11..77 DDiiee KKüünnssttlliicchhe e IInntte el llliigge en nzz Schon die Ägypter träumten von Maschinen, die dem Menschen die Arbeit und das Denken erleichtern oder sogar abnehmen würden (Wartenberg 2017). Aber erst im Jahr 1900 schuf der französische Mathematiker Louis Bachelier dazu einen ersten konkreten Baustein, die statistischen Grundlagen der Finanztheorie auf der Basis angenommenen stets vernünftigen Verhaltens des homo oeconomicus, also eines Menschen, die alle Entscheidungen nach wirtschaftlicher Zweckmäßigkeit trifft (Bachelier 1900). Sie werden bis heute benutzt. Tatsächlich verhält sich der Mensch aber nicht nur nach rationalen Erwägungen, sondern agiert erstens mit unvollständigem Wissen und zweitens emotional und reaktiv, also aus Freude oder Angst und manchmal so, wie es andere ihm vormachen oder von ihm erwarten. Trotzdem hat Bachelier die Grundlagen für Verfahren gelegt, die sich als enorm wirksam erwiesen, auch für Zeiten der Künstlichen Intelligenz. Die Erwartungen an die Künstliche Intelligenz (KI) sind hoch: Acht von jeweils zehn Deutschen erwarten, dass sie die Verkehrssteuerung verbessern und so Staus reduzieren kann, sagt eine Bitkom-Studie (cit. Schonschek 2018b). Jeweils etwa zwei Drittel erwarten, dass sie die Verwaltung beschleunigt (68 Prozent), die Forschung fördert (67 Prozent) und Kundenanfragen zuverlässiger beantworten hilt (64 Prozent). Die Mehrheit geht davon aus, dass die Polizei mit KI Verbrechen schneller aufklären kann (54 Prozent) und dass Ärzte mit KI-Hilfe bessere Diagnosen stellen werden (57 Prozent). Eine Mehrheit (58 Prozent) zieht zumindest in bestimmten Situationen eine KI-Entscheidung sogar der eines Menschen vor; die anderen (40 Prozent) lehnen das aber ab (ibid.). Finanzdienstleister setzen in Deutschland nicht mehr in erster Linie auf das theoretisch stets rationale und insoweit durchaus intelligente Verhalten des homo oeconomicus, sondern auf Künstliche Intelligenz (KI). Diese analysiert Verhalten und zieht daraus Schlüsse, aber sie kann mehr als nur analysieren (einschließlich predictive analysis, das heißt vorausschauender und prescriptive, also Konsequenzen vorschreibender Analyse): sie löst nämlich auch maschinell selbstständiges Handeln aus und steuert dieses Handeln. Mehr als 80 Prozent des Risikokapitals, das im Bereich Informationstechnologie eingesetzt wird, fließen in Produkte, Anwendungen und Dienste der Künstlichen Intelligenz (KI). Mehr als zwei Drittel dieser Summen, allein 2016 rund 2,7 Milliarden Dollar für KI- Anwendungen sowie weitere knapp 800 Millionen für die Grundlagenforschung, wurden für Plattformen zur Entscheidungsfindung auf Basis langfristiger deep learning-Techniken eingesetzt. Nun sind auch biologische Organismen - besonders Menschen-intelligente Systeme. „Häufig finden Informatik und Ingenieurwissenschaften jedoch Lösungen, die sogar besser und effizienter sind als in der Natur“ (Mainzer 2016c). <?page no="51"?> 1.7 Die Künstliche Intelligenz 51 Dass die KI lange mehr oder weniger eine Theorie gewesen, vielfach eher ein abstraktes Schlagwort als eine konkrete Vorstellung geblieben ist - 83 Prozent von 1500 befragten US- Führungskräften konnten sich noch 2017 unter KI nichts vorstellen (Martin-Jung 2018) - und erst in jüngster Zeit rasant vorangekommen ist, hat einfach zu erkennende, aber keineswegs einfach zu erledigende Gründe. Ein KI-System muss auf Einflüsse und Aufträge von außen selbsttätig reagieren und sich dazu aktiv anpassen können. Dazu muss es selbst die Initiative ergreifen, selbst die Werkzeuge entwickeln, die seinem Zweck bestmöglich entsprechen, und sie selbst einsetzen. Es muss dazu alle Arten von Daten lesen, vergleichen, quantitativ und qualitativ bewerten und in Echtzeit im richtigen Kontext verarbeiten; denn nur so generiert es zusätzliches Wissen. Und was ermittelt, muss automatisch auch in anderen Kontexten verwendbar sein. Software is eating the world Wenn man das zuende denkt, erkennt man, wie prophetisch das Silicon Valley-Urgestein Marc Andreessen 2011 formulierte: „Software Is Eating the World“. Informationssysteme verlassen ihre bisher gut kontrollierbaren Wirkungsstätten in Büros, Fabrikhallen oder Rechenzentren, „ziehen hinaus in die ‚echte‘ Welt und assistieren bei der Suche nach einem Partner oder bei der Entscheidungsfindung im politischen Prozess“ (Gatzke/ Gruhn 2018). Jede zweite Bank oder Versicherung nutzt bereits eine KI-Anwendung, mit der sie ihre Kunden besser verstehen und passende Leistungen entwickeln und anbieten will. Dazu setzen diese Finanzinstitute Software-Roboter ein. Sie tun das allerdings nicht nur aus schierer Kundenfreundlichkeit, sondern auch, um Kosten zu sparen und um ihre Mitarbeiter von Routinearbeit zu befreien. Das ist auch nötig; denn manche Versicherungen bekommen pro Jahr 200 Millionen Dokumente zugesandt. Maschinen extrahieren die Inhalte, klassifizieren sie und erleichtern den Unternehmen fällige Entscheidungen. Versicherungen können durch diese Digitalisierung laut Boston Consulting Group bis zu 40 Prozent ihrer Kosten einsparen. „Dieses Potenzial kann aber nur heben und ausschöpfen, wer sein KI-System richtig anlernt, und zwar mit allen Informationen, die das Unternehmen zu seinen Kunden bisher gesammelt hat, und natürlich mit allen Fakten zu allen Produkten, die das Unternehmen anbietet (Hornik 2018). Jedes fünfte Institut sammelt außerdem bereits Erfahrungen mit digitalen Assistenten, sogenannten chatbots (Semlinger 2017a). Besonders weit sind sie zwar noch nicht. Sie „sollen den Handel revolutionieren, aber noch sind sie zu blöd“ (WiWo 2017, cit. Welcker 2017).Sie lernen jedoch jeden Tag hinzu und werden deshalb immer schlauer. Datenverarbeitungsprogramme rechnen mit wirtschaftlichen vernünftigem Verhalten und errechnen daraus Chancen und Risiken, aber sie tun es nicht wie zu Zeiten Bacheliers für eine konkrete Person, sondern ermitteln, was wahrscheinlich ist, wenn sich viele Akteure beteiligen. Das funktioniert gut; und Fachleute erstaunt das auch nicht. Denn „in der Theorie komplexer dynamischer Prozesse lassen sich globale Trends durch wenige statistische Verteilungsgrößen modellieren“ (Mainzer 2014a: 220). Globale Meinungstrends, sagt der Mathematiker und Big Data-Experte Mainzer, „entstehen einerseits durch kollektive Wechselwirkung ihrer Mitglieder (z.B. Kommunikation). Andererseits wirken globale Trends auf Gruppenmitglieder zurück, beeinflussen ihr Mikroverhalten und verstärken oder bremsen dadurch die globale Systemdynamik“ (ibid.: 220). Das zu untersuchen und die richtigen Schlüsse daraus zu ziehen wäre eine schier unlösbar komplexe Aufgabe, müsste man dazu die Gesamtheit der Daten und der beteiligten Personen im Auge behalten. Das ist jedoch gar nicht nötig. Bemerkenswert und typisch für Big Data ist nämlich, „dass es nicht auf die Korrektheit der Daten ankommt, sondern auf Reaktionsschnelligkeit. Solange alle Beteiligten auf dieselben Daten zurückgreifen, spielt die <?page no="52"?> 52 1 Milliarden in Millisekunden Qualität und Zuverlässigkeit der Information für die Gewinnchancen keine Rolle“ (Mainzer 2014a: 241). Reaktionsschnelligkeit ist ein Stichwort, das auf Fähigkeiten von Maschinen verweist, die mit Künstlicher Intelligenz in Lichtgeschwindigkeit arbeiten. Den Beginn dessen, was wir heute Künstliche Intelligenz nennen, liegt in den Jahren 1956 bis 1958. Den Begriff selbst benutzte der US-Wissenschaftler John McCarthy erstmals 1956 auf einer Konferenz am Dartmouth College in New Hampshire (Eberl 2016: 39). Damals begann der Mathematiker John von Neumann, einer der drei Väter des Computerzeitalters, mit einer Reihe von Vorträgen, die 1958 posthum unter dem Titel The Computer and the Brain erschienen. Es war der „erste seriöse Blick ins menschliche Gehirn aus dem Blickwinkel eines Mathematikers und Computerwissenschaftlers“ (Kurzweil 2012: 191). Gehirne und Computer, stellte von Neumann fest, funktionieren grundsätzlich ähnlich; heutige Computer ausschließlich digital, das Gehirn teilweise auch analog. In den 1,3 Kilogramm unserer Gehirnmasse befinden sich etwa 80 Milliarden Nervenzellen. Die Zahl der Verbindungen unter ihnen schwankt erheblich, je nach dem, welche Stelle des Gehirns man betrachtet. Durchschnittlich ist jede Nervenzelle weit mehr als tausendfach über sogenannte Synapsen mit anderen anderen Neuronen verknüpft. Das ergibt zwischen hundert Billionen und einer Billiarde Verknüpfungen. Ihre addierte Länge erreicht fast sechs Millionen Kilometer - hintereinander gelegt reichte das 150-mal um die Erde (Eberl 2016: 92). Gehirnzellen sind im Vergleich zu Computern extrem langsam. Aber weil ihre zig Milliarden Verbindungen alle gleichzeitig aktiv sein können, arbeiten sie in hohem Maß parallel und damit in Summe recht schnell. Trotzdem sind Computer bis zu zehn Millionen mal schneller als eine einzelne Gehirnzelle (ibid.: 195). Um es mit der Leistung des gesamten Gehirns aufnehmen zu können, muss ein Computer allerdings zwischen 10 14 und 10 16 Rechenschritte pro Sekunde (calculations per second, cps) ausführen können - eine Leistung, die Supercomputer erst 2012 erreicht hatten (ibid.: 197). Der Weg dahin dauerte fast fünfzig Jahre. Den Begriff der Künstlichen Intelligenz gibt es wie kurz erwähnt schon seit den 1950er- Jahren, doch damals gab es noch nicht genügend Computerleistung und ungenügende Algorithmen. Deshalb „fiel die Disziplin zwischenzeitlich in eine Art KI-Winterschlaf, aus dem sie erst seit kurzem wieder erwacht“ (Matzer 2018). In der Zeit dieses Winterschlafs 1966 hatte der deutsche Professor Joseph Weizenbaum am Massachussetts Institute of Technology wie schon skizziert ein System namens Eliza geschaffen, „eine Art computerbasierten Psychotherapeuten, der die Gefühle einer Person beobachten und auf diese reagieren sollte“ (Hankey/ Tuszinsky 2017: 92). Seither hat die Technik der Künstlichen Intelligenz enorme Fortschritte gemacht. Die einen sagen zuversichtlich: „Die Künstliche Intelligenz, lange verbannt in das Reich von science fiction, ist auf dem Weg, die dominierende Technologieplattform zu werden, für alles - ein Einschnitt mindestens so groß wie die Erfindung des Internets“ (Schulz 2017: 14). Andere sind skeptischer: „Zur wahren Konsolidierung aller Funktionalitäten für Künstliche Intelligenz unter dem einheitlichen Subterm „AI“ [artificial intelligence] oder „KI“ [Künstliche Intelligenz] ist es noch ein langer Weg“ (Schmidt 2017). AI und KI bedeuten dasselbe. Bisher gab es für Künstliche bzw. autonome Intelligenz nicht einmal eine konsensfähige Definition. 2017 hat Bitkom eine vorgeschlagen. Sie soll es erleichtern, für intelligente Automation Taxonomien festzulegen, also Antworten darauf, welche Stufen intelligenter Autonomie es gibt. Der Industrie sind solche Überlegungen ziemlich egal. Bei Google liefen 2012 rund 50 KI-basierte Projekte, 2015 schon 2.700. Die Nachfrage steigt schnell. Auf der Internationalen Konferenz für Robotik und Automatisierung im Sommer 2015 in Seattle rief die MIT-Professorin und Direktorin des dortigen Labors für Computerwissenschaften <?page no="53"?> 1.7 Die Künstliche Intelligenz 53 und Künstliche Intelligenz bereits das Zeitalter der persuasive robots aus, der allgegenwärtigen Roboter (Eberl 2016: 32). Sie bezog sich damit auf den Informatiker Mark Weiser, der schon 1990, als das Internet noch in den Kinderschuhen steckte, das persuasive computing vorhersagte. Rechenleistung, sagte er, werde überall unsichtbar in den Dingen stecken. Trotz dieses schon langen Entwicklungswegs, trotz des „immensen Hypes“ rund um sie steht die praktische Umsetzung der Künstlichen Intelligenz nach Ansicht der Business Intelligence-Fachfirma SAS noch ganz am Anfang. Engpassfaktoren sind einer SAS-Studie zufolge nicht die Technologie, sondern der Mangel an data science know-how sowie organisatorische Hindernisse und fehlende soziale Akzeptanz. Das bestätigt ein Blick auf die Wirtschaft: Im Jahr 2017 gab erst jede fünfte Firma an, mit ihren data science teams gut für den KI-Einsatz vorbereitet zu sein. 19 Prozent verfügten über derartige teams noch gar nicht (Hensel 2017c). SAS-CEO Jim Goodnight ist jedoch überzeugt: „Nur mit Analytik kann ein Unternehmen sicherstellen, dass ihm die derzeitigen wirtschaftlichen Umbrüche nutzen und nicht schaden“(Frisch 2017). Denn die Wirtschaft stützt sich auf drei Trends: auf Konnektivität, Automatisierung und eben Künstliche Intelligenz (ibid.). International ist die KI ein Profilierungsinstrument erster Ordnung. Die Vereinigten Arabischen Emirate haben seit 2017 einen eigenen Minister für KI (Kerkmann/ Höpner 2018). China hat erklärt, bis 2030 in Sachen KI Weltmarktführer zu werden und investiert bis dahin in die KI-Forschung 150 Milliarden Dollar, die EU bis 2020 nur rund zwei Milliarden (Marting-Jung 2018). Betrachten wir die KI ein bisschen genauer. Der amerikanische Philosoph John Rogers Searle unterscheidet zwischen schwacher und starker Künstlicher Intelligenz. Als schwache KI bezeichnet er etwas, das Menschen können, beispielsweise den Arm zu bewegen, das aber Maschinen ihm abnehmen, etwa mit der KI eines Industrieroboters, der einen von Menschen erteilten Auftrag erfüllt. Darüber entscheidet jedoch der Mensch. Selbst wenn der Roboter sich selbstständig lenkt, ist es ist immer noch der Mensch, der ihn für ihn denkt. Eine starke KI hingegen erleichtert menschliche Arbeit nicht nur, sondern ersetzt sie. Dann führt eine Maschine nicht nur etwas aus, sondern entscheidet auch wie ein Mensch, ob das nötig ist und wie es geschehen soll. So weit denkt sie also selbst, weiter aber noch nicht. Darauf hat Schön aufmerksam gemacht: Der Mensch löst Denkaufgaben zum Beispiel durch Abstraktion. Seine Denkprozesse werden zugleich hochgradig von Gefühlen und Intuition mitgeprägt. Und schließlich spielt das Unbewusste in unserer Psyche eine nicht zu unterschätzende Rolle. „All das wird von Algorithmen nicht abgebildet oder nachgeahmt. Maschinen gehen eigene, mit menschlichem Denken nur bedingt vergleichbaren Lösungswege“ (Schön 2016). Ein Beispiel: „Wenn Situation A, dann Reaktion B. Und wenn Voraussetzung C, dann Folgerung D. Das lässt sich einer Maschine durchaus beibringen. Aber was, wenn A und C gleichzeitig auftreten? Oder wenn ein Faktor X hinzukommt, der noch gar nicht bekannt und in der antrainierten Logik nicht definiert ist? Dann können Maschinen an Grenzen stoßen“ (Schmitz 2017). Wo Menschen alternativ - also abweichend - handeln würden, könnten rein KI-gesteuerte Anlagen mangels erkennbarer Entscheidungsmuster stillstehen (ibid.). Noch könnte es also nicht ganz so weit sein mit der Künstlichen Intelligenz auf dem Niveau der menschlichen. „Wenn es darum geht, riesige Datenmengen schnell auszuwerten, in Milliarden von Informationen binnen Sekunden eine einzige Abweichung zu identifizieren oder auch den zehntausendsten Prüfzyklus so exakt und fehlerfrei auszuführen wie den ersten, sind Maschinen den menschlichen Fähigkeiten hoch überlegen. Doch wo haben Dinge wie Intuition, Geschicklichkeit, situative Diplomatie oder Ähnliches ihren Platz? Geschäftlich sind sie oft entscheidend, doch als Datenquelle eindeutiger Informationsverarbeitung kaum darstellbar“ (ibid.). Schon der Weg zur KI scheidet deshalb die Geister: Für die einen richtet die KI „geistige Kollateralschäden an“ (brand eins 2016), andere können sie kaum erwarten. Umfragen im <?page no="54"?> 54 1 Milliarden in Millisekunden Jahr 2017 zeigten, dass die Wirtschaft mit Instrumenten der Künstlichen Intelligenz inzwischen fest rechnet: Die KI ist demnach in deutschen Unternehmen angekommen und verändert schon heute die Art, wie Organisationen agieren und Entscheidungen treffen. Sieben von jeweils zehn Managern erwarten außerdem, dass KI bis zum Jahr 2025 einen großen bis sehr großen Einfluss auf die Unternehmensstrategie haben wird. Das ermittelte eine Studie von Sopra Steria Consulting bei über 200 Geschäftsführern, Vorständen und Führungskräften aus Unternehmen mit mehr als 500 Mitarbeitern (Welcker 2017). Die Süddeutsche Zeitung hatte im Herbst 2017 einen Bericht zur KI noch mit einer bereits ein halbes Jahrhundert alten science fiction-Animation über die Romanfigur Perry Rhodan illustriert (SZ vom 9.11.2017: 11) - so als liege deren Welt noch in weiter Entfernung. Für Microsoft-Forschungsleiter Christopher Bishop aber steht die Künstliche Intelligenz unmittelbar vor der Tür; er nennt sie die „größte Transformation der Informatik seit der Erfindung des Computers“ (Schulz 2017a: 69 f.). Im Zentrum dieser Wissenschaft und Technologie, sagte er, sei etwas Fundamentales geschehen: „Software wird nicht mehr von Hand entwickelt, sondern entwickelt sich selbst, indem sie aus Daten lernt“ (ibid.). Die Zusammenarbeit von Ingenieuren und IT-Fachleuten mit Künstlicher Intelligenz macht nach Einschätzung des Schweizer Forschungsinstituts-Chefs IDSIA Jürgen Schmidhuber show and tell robotics möglich: Der Bediener zeigt dem Roboter, was er zu tun hat, und der macht es ihm nach (Kerkmann/ Höpner 2018). Er lernt wie überall, wo es um Künstliche Intelligenz geht, im Grunde wie ein Kind: „Je mehr Daten einem Meta-Algorithmus zur Verfügung stehen und je länger das Modell trainiert wurde, desto besser und genauer wird das Ergebnis“ (Ciorapciu 2017). Im Zusammenhang mit KI ist ist auch von cognitive computing und machine learning die Rede. Diese zwei Begriffe bezeichnen verwandte Aspekte moderner Computersysteme. Was cognitive computing genau heißen soll, ist noch nicht ganz klar. Es gilt als ein Anwendungsfeld der KI und wird oft mit machine learning in einem Atemzug genannt. Gemeint ist damit maschinelles Handeln aus einem in einer Maschine vorhandenen Wissen heraus. Cognitive computing bezieht sich auf das Wort Kognition. Dieser Begriff umfasst Erkennen, Verstehen und Wissen. Kognitive Systeme können Aussagen in natürlicher Sprache und in Fachbegriffen verstehen und bewerten (Matzer 2017: 3). Sie registrieren, was einer Situation zugrunde liegt und mit welcher Software sie zu bearbeiten ist. Die dafür geeignete Informatik-Disziplin heißt deep learning und ist eine Untermenge von machine learning (ibid.). Machine learning bedeutet, dass Maschinen Beispiele - auch solche, die nur aufgezeichnet sind - selbstständig daraufhin analysieren können, ob sie die Lösung einer Aufgabe erleichtern oder nicht. Sie können selbst ermitteln, welche Beispiele ihr Training und die Erfolgsquote ihres Handelns fördern (Welcker 2017). Machine learning ist deshalb die Fähigkeit technischer Apparaturen, aus der Erfolgsquote ihrer Tätigkeiten selbstständig Schlüsse zu ziehen, um diese Quote zu steigern. 2018 beschäftigte sich bereits die Hälfte der deutschen Unternehmen aktiv mit machine learning. 2016 waren es erst 28 Prozent gewesen. Mehr als jedes fünfte Unternehmen setzt machine learning im Unternehmen inzwischen produktiv ein. Fast die Hälfte der Entscheider erwartet, dass machine learning bis 2020 mehr als 20 Prozent der Wertschöpfung der neuen digitalen Produkte und Dienstleistungen ausmachen wird. Das sind bei den hundert umsatzstärksten Unternehmen in Deutschland dann über 60 Milliarden Euro im Jahr. Bis 2022 sollen machine learning und Künstliche Intelligenz ein Viertel der digitalen Wertschöpfung ausmachen. Dabei gibt es natürlich auch Herausforderungen. Deutsche Unternehmen kennen sie. Bei Datenschutzproblemen oder falsche Prognosen würde fast die Hälfte der befragten Entscheider ihre machine learning -Projekte dehalb stoppen (Crisp 2018). In all diesen Bereichen geht es nach den Worten des Bitkom-Bereichsleiters IT-Services Mathias Weber darum, „die menschliche Wahrnehmung, seine Intelligenz und sein Denken <?page no="55"?> 1.7 Die Künstliche Intelligenz 55 mit Hilfe von Computern und spezieller Software nachzubilden, zu unterstützen und zu erweitern.“ So verstehen auch Institute wie das Deutsche Forschungsinstitut für Künstliche Intelligenz (DFKI, mit 800 Mitarbeitern nach eigenen Angaben das weltweit größte Zentrum für KI-Forschung) und das entsprechende Max-Planck-Institut (MPI) das cognitive computing als Erweiterung und Unterstützung menschlicher Fähigkeiten. Sie sprechen von companions, die die Intelligenz des Menschen nicht ersetzen, sondern erweitern sollen (ibid.). Hoffnung und Enttäuschung liegen beim Urteil über Künstliche Intelligenz dicht beieinander. Die einen schwärmen von einer „sich selbst beflügelnden Computerintelligenz“, die anderen empfinden ein solches Urteil als „arg verfrüht. In Wahrheit ist die Branche in eine Sackgasse geraten. Denn allmählich wird klar: Wir bestaunen da lauter Mirakel beschränktester Fachidiotie“ (Dworschak 2018: 104). Computer können nicht verallgemeinern und sind blind für menschliche Zwecke (ibid. 2018a: 105). Analysieren sie etwas Sichtbares, hängt ihr Ergebnis davon ab, wie Formen und Farben über eine Fläche verteilt sind, wie Kontraste verlaufen, ob eher glatte Flächen vorherrschen oder detailreiche Strukturen. Das ist aber pure Statistik; was ein solches Bild sagen soll, ist der Maschine egal (ibid.: 105). Lernende Maschinen können - anders als Menschen - das Gelernte nämlich in kein größeres Ganzes einfügen. Ein neuronales Netz „kann zwar Muster erkennen, aber es weiß nichts über deren Bedeutung“ (Eberl 2016: 42). Maschinen haben „keine Ahnung von gesundem Menschenverstand“, sagt auch Adrew McAfee. Computer könnten Problemlösungen unterstützen und beschleunigen, aber keine initiieren und vorantreiben (cit. ibid.: 249). Menschliches Lernen „baut auf früheren Erkenntnissen auf, es verknüpft sie mit bereits Verstandenem. So wird die natürliche Intelligenz immer reicher“. Für die Künstliche führt dorthin kein Weg. Künstliche neuronale Netze aus miteinander verbundenen Neuronen können zwar Anwendungsprobleme aus der Statistik, der Technik oder der Wirtschaftswissenschaften computerbasiert lösen (Tutanch 2018); sie perfektionieren sich aber stets nur für eine einzige, eng umgrenzte Aufgabe. Für die nächste beginnen sie wieder von vorn, also bei null (Eberl 2016: 106). Neuronale Netze eignen sich also für Aufgaben, „bei denen nur geringes systematisches Lösungswissen vorliegt und eine große Menge von teils unpräzisen Eingabeinformationen zu einem konkreten Ergebnis verarbeitet werden müssen, beispielsweise die Sprach- oder die Bilderkennung“ (Tutanch 2018). Neuronale Netze können zudem Simulationen und Prognosen ableiten. Für komplexe Systeme können sie auch Zusammenhänge simulieren, erstellen oder prognostizieren, etwa in der Wettervorhersage, der medizinischen Diagnostik oder in Wirtschaftsprozessen. Aber maschinelles Lernen verläuft bisher eben nur in vorgegebenen Bahnen, entweder als überwachtes Lernen - dazu wird ein konkretes Ergebnis für die unterschiedlichen Eingabemöglichkeiten vorgegeben - oder als unbeaufsichtigtes - dann gibt es zwar kein vorab erwünschtes Ergebnis, eines aber bleibt gleich: „Der Lernvorgang basiert allein auf den Informationen der eingegebenen Muster“ (Tutanch 2018). Maschinen lernen erst, wenn sie nicht nur Sachverhalte erkennen, sondern auch Zusammenhänge, wenn sie also „intelligent, akkurat und umfassend Kontext aus den unterschiedlichsten Quellen verstehen und unmittelbar verarbeiten können. Das heißt, die Maschine wendet menschliche Verständnismuster an, um Big Data und unstrukturierte Informationen aus unterschiedlichsten Quellen zu interpretieren“ (Welcker 2017). Dieses Zusammenspiel funktioniert schon auf vielfältige Weise: mit Dokumenten, Nachrichten, Presseartikeln, Forschungsberichten, E-Mails, Formularen und sogar Bildern und Videos. Unternehmen verbessern durch dieses cognitive computing ihr Informations- und Wissensmanagement in Forschung, Produktion, Entwicklung und Marketing nicht nur. Sie krempeln es vielmehr grundlegend um. Schon sprechen Experten von einem KI-Hype (BMBF/ Wi 2018: Zeisel) - er habe sich aus einem Big Data-Hype weiterentwickelt (BMBF/ Wi 2018: Goerdeler). Nach Überzeu- <?page no="56"?> 56 1 Milliarden in Millisekunden gung des Branchenverbandes Bitkom wird die Künstliche Intelligenz die Weise revolutionieren, „in der Menschen arbeiten, lernen, kommunizieren, konsumieren und leben“ (Bitkom 2017b: 3). Schon in wenigen Jahren würden viele Produkte und Services, die die Stellung der deutschen Unternehmen in der Weltwirtschaft ausmachen, mit Maschinenintelligenz ausgestattet oder sogar von ihr geprägt. Um in diesem Rennen in der Spitzengruppe zu sein, verfüge Deutschland über günstige Voraussetzungen: über große, leistungsfähige Forschungseinrichtungen, zahlreiche global tätige Industrieunternehmen und hidden champions aus dem Mittelstand (ibid.). Trotzdem glauben die meisten deutschen Top 500-Manager nicht, dass die KI als big next thing wesentlich in Deutschland umgesetzt wird (BMBF/ Wi 2018: v. Busse). Tatsächlich führt Deutschland bei KI-Patenten nicht. Die meisten kommen aus China (BMBF/ Wi 2018: Goerdeler). Idealerweise, sagen Kognitionswissenschaftler, sollten die Roboter der Zukunft eine theory of mind anlegen können, eine Theorie darüber, wie wir denken, die Fähigkeit zu erspüren, was das jeweilige Gegenüber gerade denken und fühlen könnte - also eine begründete Annahme über Bewusstseinsvorgänge in anderen Personen. Das entspricht etwa dem, was man unter kognitiver und emotionaler Empathie versteht (Eberl 2016: 294). Diese Perspektive hat wie stets zwei Gesichter: ein Hoffnung anzeigendes, etwa wenn die KI Behinderten, Personen mit geringen Sprachkenntnissen oder mit eingeschränkter Mobilität eine möglichst gleichwertige Teilhabe an der Arbeitswelt und am gesellschaftlichen Leben eröffnet und ein Gefahr witterndes, etwa wenn Maschinen menschliche Arbeitsplätze wegfallen lassen. Vor allem für Routinetätigkeiten wird es auf den Arbeitsmärkten deutlich weniger Nachfrage geben - wir umreißen das noch. Aber, sagt Bitkom weiter, weder werde der Mensch komplett ersetzt noch sei ein automatisiertes Reich der Freiheit zu erwarten, in dem Arbeit nicht mehr nötig sein werde. Zu erwarten sei vielmehr, dass mit der intelligenten Automatisierungund mit dem Wegfall von Arbeit, die Maschinen erledigen, zahlreiche neue Berufe entstehen. Ausbildung, soziale Dienste, Umweltschutz, Unterhaltung, Freizeitgestaltung sowie Kunst und Kultur würden als menschliche Tätigkeiten sogar wichtiger werden. Gerade die kreative Arbeit werde gestärkt, denn sie liege außerhalb der ‚Reichweite‘ von Maschinen (ibid.: 4). Voraussetzung werde es allerdings sein, nicht nur die Künstliche Intelligenz weiter zu fördern, sondern auch die menschliche - etwa indem Schulen stärker menschliche Stärken wie Kreativität und Kommunikation, soziale Interaktion und Problemlösung trainieren statt im Wesentlichen nur Wissen zu vermitteln(ibid.: 6). Amerikanische und britische, deutsche und französische sowie australische und singapurianische Firmen unterschiedlichster Branchen setzten 2016 bereits zur knappen Hälfte cognitive computing ein und verwendeten auch bereits complex event processing-Technologien sowie intelligente Plattformen und Dienste für das Internet der Dinge, und jede dritte aus der verbleibenden zweiten Hälfte hatte das vor. In naher Zukunft wollten 55 Prozent KI für pfiffigere Kundenbindungen einsetzen, 52 Prozent ihre Prozesse weiter automatisieren und 50 Prozent Risiken besser managen (ap-Verlag 2016b). Die deutsche Industrie, besonders die Automobilindustrie und das verarbeitende Gewerbe, wollen durch den Einsatz Künstlicher Intelligenz mit robotic process automation, also intelligenten Automatisierungstechnologien und Sensorik, digitalen Assistenten, predictive analytics und affective computing die Produktion weiter beschleunigen. Mit affective computing erkennen und interpretieren Maschinen menschliche Gefühlsäußerungen und warnen zum Beispiel bei Müdigkeit vor Fehlbedienungen oder Unfällen (Semlinger 2017). Im Fahrzeugsektor und in der verarbeitenden Industrie setzt bereits die Mehrheit der Unternehmen bei der Automatisierung ihrer Fertigungsprozesse auf Künstliche Intelligenz. Das hat eine Anlyse von Sopra Steria Consulting im Vorfeld der Hannover Messe 2017 ermittelt (ibid.). Die Firmen versprechen sich davon schnellere Abläufe und damit Wettbewerbsvorteile. Als Jobkiller sehen die Entscheider in diesen Branchen diese Technologien <?page no="57"?> 1.7 Die Künstliche Intelligenz 57 derzeit noch nicht: 40 Prozent möchten vielmehr ihr Personal durch bots und digitale Assistenten unterstützen (ibid.). Bei den deutschen Logistikern sind laut Trend-Index 2017 der Messe transport logistic sogar 70 Prozent dafür, den Einsatz Künstlicher Intelligenz auf eigene Marktchancen zu prüfen. Allerdings sehen die Manager Risiken bei der Akzeptanz der KI sowohl bei Kunden als auch bei den Mitarbeitern. 64 Prozent der Fach- und Führungskräfte halten insbesondere selbstfahrende Autos für wichtig, um im Geschäft der Zukunft erfolgreich zu sein. Insgesamt halten deutsche Unternehmen die KI und und das maschinelle Lernen für wichtig; doch nur eine Minderheit setzt die Technologien bereits gezielt ein, da zwar häufig die notwendige IT-Infrastruktur vorhanden ist, das Know-how aber noch nicht ausreicht. Knapp ein Viertel der größeren deutschen Firmen nutzen KI- und ML-Lösungen, von den kleinen und mittelständischen Firmen sind es jedoch nur 15 Prozent (Tiedemann 2018). 61 Prozent der IT-Verantwortlichen schätzen die IT-Infrastruktur bereits als KI-tauglich ein. In den Chefebenen ist man vorsichtiger: Dieser Meinung sind nämlich nur 43 Prozent der Geschäftsführer und CIOs. Deutlichen Nachholbedarf gibt es in Bezug auf das Knowhow. Weniger als ein Viertel der Befragten sind der Meinung, dass das Wissen im Bereich Data Science, Algorithmen und Mathematik ausreicht, um KI-Verfahren richtig einsetzen zu können (ibid.). Über die Hälfte der Befragten sieht beim Einsatz von KI- und ML-Lösungen in Deutschland dringenden Diskussionsbedarf, befürchtet aber, dass ethische Aspekte die KI-Entwicklung einschränken könnte (ibid.). Nach dem Willen der Bundesregierung soll Deutschland bei der Zukunftstechnologie in den nächsten Jahren weltweit führend werden. 2018 beschloss das Bundeskabinett dazu Eckpunkte für eine nationale KI-Strategie. Zu ihnen zählt der bessere Zugang zu Gesundheits- und Verkehrsdaten sowie eine bessere Bezahlung von KI-Experten. „Wir müssen im Wettbewerb gerade mit den USA und China einen Zahn zulegen“, sagte Forschungsministerin Anja Karliczek (CDU) (Balser 2018). Die Regierung will dem Papier zufolge etwa die Daten der öffentlichen Hand und der Wissenschaft verstärkt für Anwendungen im Bereich künstliche Intelligenz öffnen. „Die Menge an nutzbaren, qualitativ hochwertigen Daten muss deutlich erhöht werden, ohne dabei Persönlichkeitsrechte, das Recht auf informationelle Selbstbestimmung oder andere Grundrechte zu verletzen“, heißt es in dem Papier (ibid.). Ob es angesichts der massiven chinesischen Investionen in dieses Zukunftsfeld genügt, „einen Zahn“ zuzulegen, mag man bezweifeln. Branchenbeobachter urteilen über diese Regieruntsinitiative denn auch skeptisch. Sie komme auch zu spät und dann auch noch zu zögerlich. Ein Beleg: Erst 2018 erklärte das Bundesverteidigungsministerium, es wolle mit Künstlicher Intelligenzgroße Datenmengen analysieren, um Krisen und Kriege vorherzusagen. Dafür will es maschinell analysierte Daten auch mit geheimen Informationen kombinieren. 80 Datenbanken mit Millionen Einzelinformationen nach das Ministerium für Software analysierbar. Aus der Kombination der Daten soll die KI Modelle möglicher Krisen kreieren und diese grafisch darstellen (Brühl 2018). Was es bis 2017 getan hat, sagte es nicht. Die Sonderform Deep Learning Eine Sonderform von machine learning ist deep learning. Es ist dem Gehirn abgeschaut. Beim Menschen aktiviert deep learning im Neokortex des Gehirns vier Schichten. Das weiß man seit den 1980er Jahren. In diesen Schichten werden Signale immer komplexer zusammengesetzt. Computer können jedoch in sehr viel mehr als nur vier Schichten arbeiten und daher auch hochkomplexe Datenmengen besonders schnell verarbeiten, etwa Bilder (Mainzer 2017a). Verschaltungsmuster, auch cluster genannt, repräsentieren dazu im Gehirn wie im Computer <?page no="58"?> 58 1 Milliarden in Millisekunden die realen Gegenstände. Sie und sogar die Prozesse, nach denen unser Gehirn funktioniert, kann man im Computer mittlerweile modellieren. Ein neuronales Netz ist eine Art künstliches Abstraktionsmodell des Gehirns. Es besteht aus Künstlichen sogenannten Eingangs- und Ausgangsneuronen sowie mehreren Schichten Zwischenneuronen. Die Eingangsneuronen lassen sich durch Lernen auf verschiedenen Wegen über die Zwischenneuronen mit den Ausgangsneuronen verknüpfen. Je mehr Neuronen und Schichten existieren, desto komplexere Sachverhalte lassen sich abbilden. Die Lernmethoden richten sich nach der Funktionsweise des menschlichen Gehirns und führen zu eigenen Entscheidungen oder Prognosen. Denn das System kann das Erlernte immer wieder mit neuen Inhalten verknüpfen und so hinzulernen. Maschinell erreicht man das, indem die Maschine aus vorhandenen Daten und Informationen Muster herausliest und klassifiziert. Diese Erkenntnisse lassen sich wiederum mit Daten korrelieren und in einem weiteren Kontext verknüpfen. Schließlich ist die Maschine fähig, auf Basis der Verknüpfungen Entscheidungen zu treffen. Dazu braucht man in der Regel Massen an Daten, normlerweise zu mindestens 5000 Vorgängen derselben Art, um zu einem Ergebnismodell zu kommen, und mindestens zehn Millionen Fälle, um Ergebnisse ausreichend zu schärfen (Goodfellow 2016). In drei Vierteln aller deep learning-Projekte, die McKinsey untersuchte, waren Millionen von Datensätzen erforderlich (McKinsey 2018a: 14). In einem Drittel der Fälle war es außerdem nötig, rei Viertel der Datensätze allmonatlich zu aktualisieren, ein Viertel sogar jede Woche (ibid.: 16). Grundsätzlich ist es aber auch möglich, dass ein Algorithmus aus nur wenigen realen Fällen lernt, im Extremfall sogar nur aus einem einzigen (Duan 2017). Drei deep learning-Methoden und -Techniken werden hauptsächlich angewandt: feed forward neural networks - in feed forward neural networks fließt Information nur in eine Richtung. Es gibt keine Rückkopplungsschleifen; diese Technik gibt es seit 1958; entwickelt hat sie damals Frank Rosenblatt (McKinsey 2018a: 4) - recurrent neural networks - sie sind dagegen noch ziemlich neu; im November 2016 teilten Forscher der Universität Oxford mit, dass ein solches System zu 95 Prozent genau Sprache von den Lippen ablesen konnte, wähend menschliche Testpersonen das nur mit 52 Pozent Genauigkeit schafften (ibid.) - und convolutional neural networks. Letzere arbeiten in Schichten, die dem Teil des Gehirns nachgebaut sind, mit dem Lebewesen Gesehenes verarbeiten (ibid.). Außerdem gibt es generative adversarial networks; sie kombinieren die Leistung zweier neuronaler Netze. „Durch kontinuierliches Hinterfragen der Entscheidungen erhalten die Informationsverknüpfungen bestimmte Gewichtungen. Bestätigen sich Entscheidungen, erhöht sich deren Gewichtung, werden sie revidiert, verringert sich die Gewichtung. Zwischen der Eingabeschicht und der Ausgabeschicht entstehen immer mehr Stufen an Zwischenschichten und Verknüpfungen. Über den Output entscheidet die Anzahl der Zwischenschichten und deren Verknüpfung“ (Litzel 2017c).Neuronale Netze, fassen Rashid/ Langenau zusammen, „sind zu den leistungsfähigsten und nützlichsten Methoden auf dem Gebiet der Künstlichen Intelligenz geworden. Heute ist GoogleDeepMind zu fantastischen Dingen fähig, beispielsweise von sich aus zu lernen“ (Rashid/ Langenau 2017: XII). Die Basis dazu nennt man reinforcement learning; das bedeutet, dass ene Maschine durch Versuch und (immer weniger) Irrtum lernt. DeepMind hat mit dieser Fähigkeit hochkomplizierte Spiele gewinnen; wir schildern das gleich noch genauer. Anzuwenden ist deep learningin solchen Netzenangeblich relativ simpel. „Die Handwerkzeuge kann sich jeder Informatikstudent aus dem Internet herunterladen“ (Schulz 2017: 18). Das ist vielleicht ein wenig zu locker gesehen. Denn - um ein Beispiel zu nennen - allein die data-science-Programmiersprache R verfügt über mehr als 10.000 Analysepakete einer weltweiten community aus Fachwissenschaftlern und Software-Entwicklern. Ihr Angebot wächst exponentiell - von der Röntgenbildanalyse bis zur Klassifikation von sound files. Auch Konzerne <?page no="59"?> 1.7 Die Künstliche Intelligenz 59 beteiligen sich: IBM, Microsoft, Oracle, Google, Tibco(Litzel 2017b). Das Nationale Bernstein Netzwerk für Computational Neuroscience in Berlin, eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF), untersucht, wie die Verschaltungsmuster mit kognitiven Zuständen verknüpft sind: mit der Wahrnehmung, mit dem Denken, mit Gefühl und Bewusstsein. Davon hängt Lernerfolg ab. Ein charakteristischer Unterschied trennt deep learning von machine learning: Beim maschinellen Lernen greift der Mensch in die maschinelle Analyse der Daten und den eigentlichen Entscheidungsprozess noch ein. Beim deep learning sorgt er lediglich dafür, dass die Informationen für das Lernen bereitstehen und die Prozesse dokumentiert werden. Die eigentliche Analyse und das Ableiten von Prognosen oder Entscheidungen überlässt er der Maschine. Er nimmt also keinen Einfluss auf die Ergebnisse des Lernprozesses. Deshalb lässt sich im Nachhinein auch nicht mehr komplett zurückverfolgen, welche Muster eine Maschine benutzt hat, um eine bestimmte Entscheidung zu treffen. Noch ist der Abstand von der Leistung des Gehirns zu der künstlicher neuronaler Netze groß, ja „noch meilenweit von den Fähigkeiten eines echten neuronalen Netzwerkes mit dem Namen ‚Gehirn‘ entfernt“ (Oettinger 2017: 8). Deep learning per Computer sei dem Lernen eines Zweijährigen in vielen Aspekten noch so unterlegen, dass das Begriff Lernen eigentlich in die Irre führe (ibid.). In anderen Aspekten haben Computer aber Fähigkeiten, die um Dimensionen besser sind als der Mensch. Deep learning ist, wie wir gesehen haben, überall dort gut geeignet, wo sich große Datenmengen nach Mustern und Modellen untersuchen lassen. Es wird daher für die Gesichts-, Objekt- oder Spracherkennung eingesetzt. Bei der Spracherkennung beispielsweise erweitern Systeme ihren Wortschatz selbstständig um neue Wörter oder Wortwendungen. So funktioniert auch das automatische Übersetzen gesprochener Texte, das autonome Fahren oder die Vorhersage von Kundenverhalten in einem CRM [customer relations management]-System (ibid.). Google Brain verarbeitet inzwischen Daten mit einer Million Neuronen und einiger Milliarden synaptischer Verbindungen - nicht ganz so viel wie im Gehirn, aber es hängt nur von der technischen Auslegung ab, diese Kapazität weiter zu steigern. Das Google-Übersetzerprogramm beherrscht mittlerweile über hundert Sprachen. 500 Millionen Menschen weltweit nutzen es bereits. Diese Software hat sich nach Google-Angaben allein 2016 weiter entwickelt als im gesamten vorausgegangenen Jahrzehnt (Google 2017: 17). Längst können Computer also sehr viel mehr als nur Buchstaben, Zahlen und Bildpunkte in Bits und Bytes zu zerlegen, diese zu speichern, wieder zu Wörtern, Sätzen und ganzen Texten, zu Zahlen und deren grafischer Umsetzung in Diagramme oder zu Bildern zusammenzusetzen und mit anderen gespeicherten oder gerade als stream eintreffenden Daten abzugleichen. Sie können mittlerweile alle fünf Sinne benutzen und sogar Signale zu verarbeiten, die wir Menschen gar nicht wahrnehmen können. Sehen und hören können Computer schon länger. Nun lernen sie nicht nur zu tasten und zu riechen, sondern auch Echos und ultraviolette Signale zu deuten und Magnetfelder auszuwerten. Das Wesentliche ist, dass sie in allen diesen Fällen eigene Schlussfolgerungen ziehen können. Bei uns Menschen nennt man das denken und intelligent zu handeln. Das können Computer in Grenzen nun auch. Eng mit dieser Entwicklung verknüpft sind sogenannte bots, die nach Expertenansicht noch gewaltig an Bedeutung gewinnen werden. Es sind Programme, die anstelle von Menschen agieren, bislang „eher einfache Avatare, die beispielsweise einem Anwender helfen, sich durch eine Produktpalette zu navigieren. Die semantische Verarbeitung und die Analyse ‚natürlichsprachlichen‘ Inputs können bots in wenigen Jahren so gescheit machen, „dass sie den Anspruch einer Turing-Maschine erfüllen“ (Bitkom 2017: Landrock; die legendäre Maschine des britischen Mathematikers Turing hatte wie schon erwähnt in den frühen 1940er Jahren den Geheimcode der deutschen Marine geknackt). Bots verarbeiten große Datensätze in Echtzeit. Sie basieren nicht grundsätzlich auf Künstlicher Intelligenz, auch <?page no="60"?> 60 1 Milliarden in Millisekunden wenn diese häufig im Hintergrund zum Einsatz kommt, erläutert Senior Data Scientist und Chatbot-Experte Marius Försch (Hensel 2018a). Als eine der größten Herausforderungen für chatbots sieht Försch die menschliche Sprache. Sie ist nicht immer eindeutig. Während menschliche Gesprächspartner Doppeldeutigkeiten aus dem Kontext ableiten können, fällt das Chatbots noch schwer. Umgangssprache, Dialekte, Ironie oder auch Rechtschreibfehler tragen dazu ebenfalls bei. Deep learning unterstützt die Technik aber beim Überwinden dieser Verständnisprobleme. Gute bots erkennen inzwischen auch ironisch gemeinte Angaben und interpretieren und beantworten sie trotzdem richtig. Drei Beispiele: Schach, Go, Poker Wie schnell die Künstliche Intelligenz aus eigenen Fehlern lernt, zeigen die folgenden drei Beispiele. Das erste war ein Schachturnier, bei dem der Supercomputer Deep Blue schon vor einem Jahrzehnt den damaligen Schachweltmeister Garri Kasparov besiegte. Einen solchen Sieg hatte der spätere Wirtschaftsnobelpreisträger Herbert Simon schon 1957 vorhergesagt. Es glaubte, das werde in zehn Jahre, soweit sein. Tatsächlich dauerte es aber 40 Jahre, bis bis der IBM-Rechner Deep Blue 2009 Kasparow unter Turnierbedingungen niederrang. Denn der Hochleistungscomputer konnte dank der enorm gestiegenen Rechenleistung pro Sekunde 200 Millionen Schachstellungen bewerten (Eberl 2016: 46). „Natürlich kann man Algorithmen entwickeln, die Schach spielen“, sagt dazu Drösser; „sie berechnen zu jedem Zeitpunkt den nächsten Zug - etwa, indem sie alle möglichen Züge bestimmen, jeden davon nach einem gewissen System bewerten und dann den mit der höchsten Bewertung auswählen (Drösser 2016: 26). Und auch Stampfl urteilte sehr gelassen: „Eine einzige Sache, nämlich Schach, konnte er wirklich gut, aber ansonsten rein gar nichts“ (Stampfl 2013: 12). Das gilt nicht nur im Schach: Viele AI-Applikationen können nur sehr spezifische Aufgaben lösen, das aber unglaublich schnell. Dabei erreichen oder übertreffen deren Algorithmen die Leistung des Menschen zum Teil erheblich (Bitkom 2017 Chakraborty). In definierten Aufgaben schneiden sie „bereits besser ab der Durchschnitt der Menschen“ (SZ, 30.12.2016: 72). Das zweite Beispiel lieferte ein Computer der zu Google gehörenden Firma DeepMind: Mit der Software AlphaZero ausgerüstet besiegte er 2016 einen der weltbesten Spieler im chinesischen Strategiespiel Go, Lee Sedol (SZ 30.12.2016: 72). Go ist mit 19x19 Feldern wesentlich komplexer als Schach. Die DeepMind-Entwickler brachten ihrem Computer aber eine Art Intuition bei: Sie kombinierten analytische Berechnungen mit dem sogenannten Monte- Carlo-Verfahren, das Zufallszüge ins Spiel bringen (Eberl 2016: 109). Ein Monte-Carlo-Algorithmus ermittelt aus zufälligen Zwischenergebnissen ein annähernd korrektes Ergebnis. Wiederholt man das oft genug, sinkt sukzessive die Fehlerwahrscheinlichkeit in der Regel unter einen vertretbaren Schwellenwert, den KPI ( Key Performance Indicator) - dann ist die Antwort wahrscheinlich richtig (Matzer 2018b). Das war der Durchbruch. Der Sieg basierte also nicht nur auf klassischen KI-Funktionen, sondern auch auf reinforcement learning, das heißt auf Lernen durch Belohnung. Algorithmen auf dieser Basis werden auch autonome Fahrzeuge auf der Straße oder Roboter in Fabrikhallen steuern (Barrenechea 2018). Beiden Spielen ist eines gemeinsam: Jeder Mitspieler kann den momentanen Zustand des Spiels und die vorhandenen Möglichkeiten offen erkennen. Denn die Spielfiguren stehen ja auf dem Spielfeld. „Die Mathematik, die darin steckt, ist höchst ausgeklügelt. Sie führt aber nur zum Erfolg, weil im Brettspiel Felder und Regeln fixiert sind. Hier geschieht, anders als im Leben, nichts Unvermutetes“ (Dworschak 2018: 105). Auch bei Go ist daher die Summe aller möglichen Schritte analysierbar und damit berechenbar, wenn ein Computer das schnell genug schafft, um dann den besten Spielschritt zu wählen. <?page no="61"?> 1.7 Die Künstliche Intelligenz 61 Anders beim Poker, dem dritten Beispiel. Dort sind die Karten verdeckt und die Spielzüge der Mitspieler daher nicht vorhersehbar. Das Spiel läuft also mit unvollständiger Information und die Spieler können, ja müssen bluffen - Stichwort pokerface. Intuition, Emotion und Gefühl spielen beim Poker eine wesentliche Rolle. Das hat bisher als eine uneinnehmbare menschliche Festung gegolten. So ist es jedoch nicht mehr. Der spektakulärste Sieg eines Systems Künstlicher Intelligenz gelang Anfang 2017 einem Computer der Carnegie Mellon-Universität Pittsburgh. Am 30. Januar 2017 schrieb eine AI Software dieser Universität namens Liberatus aus der School of Computer Science im Computer Science Department Geschichte: In einem zwanzigtägigen Poker- Marathon im Rivers-Kasino dieser nordamerikanischen Stadt besiegte sie die vier besten Poker-Profis mit einem Vorsprung von über 1,7 Millionen US-Dollar. Diese Software bekam nur die einfachen Kartenregeln einprogrammiert. Den entscheidenden Rest leisteten lernende Algorithmen selbst. Sie arbeiten ähnlich wie das neuronale Netz des Gehirns: Aus Fehlern ziehen sie eigene Schlüsse - das technische neuronale Netz allerdings in wesentlich kürzerer Zeit als das humane. Das System der Carnegie Mellon-Universität spielte nächtelang gegen sich selbst und absolvierte dabei Millionen von Spielen, mehr als für einen einzelnen Menschen im ganzen Leben möglich wären. Mit jedem Spiel lernte es hinzu, nur wesentlich schneller als menschliche Spieler, 17.500 Mal schneller als ein einzelner Laptop arbeiten kann (Spice 2017). Algorithmen analysierten jede Nacht die besten Spielzüge und entschieden selbst, wie sie ein Problem optimal zu lösen hatten. „Der Computer minimierte also nicht seine Schwächen, sondern optimierte seine Stärken“, erläuterte Sandholm (ibid.). So erwarb er einen Erfahrungsschatz, den kein Einzelner haben kann - allerdings zu enormen Kosten: In die Weiterentwicklung von alpha-go hat Google allein für hardware 28 Millionen Dollar investiert (BMBF/ Wi 2018: Hecker). Dieser Wettkampf „Brains vs. Artificial Intelligence: Upping the Ante“ bewies erstmals, dass Künstliche Intelligenz auch unter den Bedingungen unvollständiger Information mehr kann als die besten menschlichen Profis. Ein Meilenstein der Künstlichen Intelligenz ist diese Leistung vor allem deshalb, weil die meisten Entscheidungen im Geschäftsleben, im Gesundheitswesen, im Militärwesen und auf dem Gebiet der Datensicherheit wie im Poker ohne vollständige Information getroffen werden müssen. Der Computer konnte gewinnen, weil auch er gelernt hatte zu bluffen (Spice 2017, Mainzer 2017a). Dieses Know-How verbreitete sich in Windeseile. Denn nach dem gewonnenen Spiel begann die Universität, die ihn entwickelt hatte, die Strategie dieses Computers offenzulegen, erstmals vor der Association for the Advancement of Artificial Intelligence in San Francisco. KI-Entwicklungstendenzen Wolfgang Nimführ, Manager der IBM Analytics Group, sieht in der Evolution der Künstlichen Intelligenz vier Stufen. Die erste war der Blick in die Vergangenheit mit deskriptiven Analysen für Antworten auf die Frage „Was ist wann passiert? “ In den Stufen 2 und 3 geht es mit prädikativen und präskriptiven Analysen um die Zukunft, um die Frage also, was passieren wird, wenn man an bestimmten Stellschrauben dreht. Prädikative Analysen versetzen beispielsweise Betreiber intelligenter Stromnetze (smart grids) in die Lage vorauszusagen, wie sich der Strombedarf entwickeln wird, und können so die Erzeugung von Solar- und Windstrom mit dem Stromverbrauch in Einklang zu bringen. Präskriptive Analysen berücksichtigen nicht nur Informationen über vergangene und aktuelle Ereignisse und erkennen Regeln, sondern entwerfen auch Wenn-dann-Szenarien. Anders als prädiktive geben präskriptive Analysen den Anwendern also konkrete Empfehlungen, mit welchen Strategien und Methoden sie künftige Situationen mit der höchsten Erfolgschance handhaben sollten. <?page no="62"?> 62 1 Milliarden in Millisekunden Stufe 4 schließlich sind kognitive Analysen mit Künstlicher Intelligenz. Dazu kommt der IBM-Supercomputer Watson ins Spiel. Er „funktioniert ähnlich wie das menschliche Gehirn und kann unstrukturierte Daten - darunter Bilder, Dokumente, Sensoren, Webseiten und Blogs - verstehen, logische Zusammenhänge herstellen, interpretieren, beurteilen und Schlussfolgerungen für Entscheidungen ziehen. Ein solches kognitives System lernt, wie wir gesehen haben, selbstständig und verbessert sich kontinuierlich; es „wird zu einem persönlichen Berater, einem ‚Roboter-Kollegen‘ (robo advisor), mit dem Nutzer natürlich und intuitiv interagieren können“ (Nimführ 2016). Bereits etabliert sind analytics-driven business models, also datengetriebenene Geschäftsmodelle, zum Beispiel für Kfz-Versicherungstarife, deren Prämienhöhe vom tagtäglichen Fahrverhalten des Kunden abhängt, und social analytics, also die Erkundung und Auswertung von Daten aus sozialen Medien. Die Treffergenauigkeit von Big Data-Analysen und -prognosen aus sozialen Medien ist schon erstaunlich hoch. In den USA hat eine Internetplattform namens Fourthsquare die posts von Nutzern einer Lebensmittel- oder Restaurantkette danach ausgewertet, wie diese Gäste dort Geld ausgegeben und etwas empfohlen oder kritisch bewertet hatten. Noch bevor das Unternehmen Geschäftszahlen veröffentlichte, sagte Fourthsquare dem Unternehmen einen Umsatzeinbruch von 30 Prozent voraus. Der trat auch tatsächlich ein (Bitkom 2017: Arnold). Bei einer solchen Ausforschung privater Meinungsäußerungen kommen schnell ethische Aspekte ins Spiel. Sie haben uns in Kapitel 9 zu beschäftigen. Intelligente Künstliche Systeme können also Situationen erkennen, sie bewerten und auf sie sinnvoll reagieren. Sie verstehen Anfragen und reagieren verständig. Also sind sie in der Lage, auf Anfragen auch zu antworten. Sie können sich deshalb in Grenzen, nämlich im Rahmen des ihnen einprogrammierten Themenfeldes, mit Menschen unterhalten. Und, was fast noch wichtiger ist: Sie können den Erfolg oder Misserfolg ihrer Reaktion selbst einschätzen, um daraus Schlüsse zu ziehen und sich bei Misserfolg künftig anders zu verhalten. Das nennt man nicht nur bei uns Menschen Lernfähigkeit. Auch Maschinen haben zu lernen gelernt. „Diese maschinelle Lernfähigkeit ist der Nukleus Künstlicher Intelligenz. Von ihr hängt ab, wie gut Maschinen Aufgaben lösen. Sie bestimmt den Grad ihrer Selbstständigkeit, den Grad an Komplexität der Aufgabe, die Maschinen lösen können, und die Effizienz der Problemlösung“ (Mainzer 2017a). Der Leiter Bildverstehen bei Daimler-Benz, Uwe Franke, relativiert allerdings: Man spreche von lernenden Maschinen; das bessere Wort sei aber, sie zu trainieren mit einer definierten Zielstellung (cit. SZ 30.12.2016: 72). Vier Analysekategorien werden unterschieden: Standardisierte Analysen taugen für eher geringere Anforderungen an Zeit und Datenvielfalt. In-memory-Technologien eignen sich für sehr große Datenauswertungen. Hadoop-Lösungen helfen bei einer großen Vielfalt an Datenformaten. Complex event processing und streaming eignen sich, wenn Daten schon beim Entstehen zu erfassen und auszuwerten sind (Geißler 2018). Das Interesse an der KI-Entwicklung ist groß. Eine SAS-Befragung von Top-Führungskräften in rund hundert Firmen der Region EMEA (Europa, Mittlerer Osten, Afrika) ergab 2017 an Künstlicher Intelligenz großes Interesse, aber erst mäßige Fähigkeiten, es auch umzusetzen. Denn nur in jedem fünften Unternehmen standen KI-Experten zum Handeln bereit und nur in jedem vierten liefen KI-Prozesse schon gut. Ebenfalls jedes vierte suchte externe Unterstützung, aber erst jedes achte sagte, es sei bereit, auf dem Gebiet der Künstlichen Intelligenz und des maschinellen Lernens weitere Schritte zu gehen. Das überrascht; denn maschinelle Lernverfahren unterstützen Experten inzwischen auch bei der Modellbildung oder automatisieren sie sogar, etwa für das Internet der Dinge, wenn es darum geht, Kundenbedürfnisse in Echtzeit zu ermitteln und zu bedienen, den Kundennutzen zu analysieren und so das Produkt zu verbessern sowie um Geräte und Anlagen intelligent fernzusteuern sowie Geräte vorausschauend zu warten. Alle dazu nötigen Daten verarbeiten Computer ohne menschliches Zutun. Sie entscheiden, wie das Poker-Beispiel <?page no="63"?> 1.7 Die Künstliche Intelligenz 63 gezeigt hat, auch bei Unsicherheit. Algorithmenzerlegen dazu komplexe Probleme in einfachere Subprobleme und lösen sie durch Kooperation miteinander. Neue Eigenschaften oder Strukturen entwickelt ein solches System im Zusammenspiel seiner Elemente spontan und vernetzt unabhängige Programme „zu einer maschinellen Parallelwelt, die kein Programmierer je programmiert oder getestet hat und deren Dynamik wir weder kennen noch ohne Weiteres analysieren können“ (Hofstetter 2016: 16). Marketingexperten in ganz Europa äußerten sich 2016 dazu, wie sie die Rolle der Künstlichen Intelligenz in Bezug auf ihre eigene Branche einschätzen. Mehr als drei Viertel (78 Prozent) erwarten für ihre Arbeitsplätze keine Bedrohung (Ballüder 2017; dass das in vielen Branchen anders aussehen wird, erläutern wir später in diesem Buch). Sie erleben Künstliche Intelligenz vielmehr als Chance für technologisch fortschrittliche Kampagnen, die die Kunden im richtigen Moment erreichen und, was für sie am Wichtigsten ist, einen greifbaren return on investment erbringen soll. Sie erwarten daher auch, dass die Bereitschaft von Marken und Agenturen, diese Technologien einzusetzen, in den kommenden fünf Jahren noch erheblich zunehmen wird (ibid.). Branded Research ermittelte im Auftrag von Infosys bei rund tausend Führungskräften aus Wirtschaft und IT in sieben Ländern, dass die Künstliche Intelligenz der Experimentierphase inzwischen entwachsen ist: Rund 90 Prozent der Führungskräfte berichteten von messbaren Vorteilen für die Firma (Hensel 2018). Unternehmen mit einer klar definierten Strategie für KI, die ihre Belegschaft unterstützen und nicht ersetzen, würden an der Spitze der Konkurrenz stehen, andere zurückbleiben, erklärt Infosys-Präsident Mohit Joshi (ibid). Dieser Wandel hat wie stets ein Doppelgesicht: In 69 Prozent der von Infosys befragten Firmen fürchteten die Mitarbeiter, von KI-Technologien ersetzt zu werden. Zugleich glaubten 45 Prozent der Führungskräfte, die KI werde die Produktivität der Mitarbeiter verbessern und mehr Zeit für wichtige Aufgaben lassen. 70 Prozent erwarteten einen positiven Effekt auf die Belegschaft (ibid.). Heute steht die Menschheit am Tor in die kognitive Ära - „eine Zeitenwende“ (Nimführ 2016). Die Komplexität soziotechnischer Systeme ist „eine Herausforderung, an deren Anfängen wir erst stehen“ (Mainzer 2014a: 274). IDC-Marktforscher erwarteten 2017, in weniger als zwei Jahren, bis 2019, würden mehr als 50 Prozent aller neu entwickelten Appsmit kognitiven Fähigkeiten ausgestattet werden. Der IDC ging davon aus, dass schon 2018 die Hälfte aller Verbraucher regelmäßig mit kognitiven Services umgehen werde (Schonschek 2017). Schon jetzt können Konsumenten von KI-Systemen profitieren, etwa mit DailyDress, einer App, die „individuelle Outfit-Inspirationen“ passend zum eigenen Kleiderschrank anbietet (ibid.). Nach Überzeugung des früheren deutschen Verteidigungsministers und jetzigen in den USA im Bereich der Datenanwendungen arbeitenden Unternehmensberaters Karl-Theodor zu Guttenberg stehen wir bei der Künstlichen Intelligenz „förmlich vor Quantensprüngen - mit Auswirkungen, die viele gesellschaftliche Felder weitaus stärker transformieren werden als wir uns das vorstellen können“ (cit. Brettning / Dunker: 48). Der Gründer und Chef des amerikanischen Grafikchipherstellers Nvidia, Jen-Hsun Huang, sagt noch entschiedener: „Die Künstliche Intelligenz wird einen größeren Einfluss auf unser Leben haben als die Erfindung des Computers, des Internets oder des Mobiltelefons zusammen“ (Bitkom 2017: Metze). KI bringt viele Vorteile auch für schwächere Teile unserer Gesellschaft. Nur ein Beleg: Smartphones haben den Zugang zu Wissen und Informationen für alle Einkommensgruppen erleichtert (Kumar 2017). Aber sie kann auch massiv auf Abwege führen: 2016 startete Microsoft ein KI-Projekt der Kategorie „lernfähige Intelligenz“ in den sozialen Netzwerken. Je mehr man sich mit diesem Microsoft-Computer Tay unterhält, desto mehr lernt er - nur was? Einige Stunden nach dem Start twitterte Tay plötzlich „I just hate everybody“ - ich hasse sie alle. Es folgten Hass-Tweets gegen Feministinnen - sie sollten „sterben und in der Hölle <?page no="64"?> 64 1 Milliarden in Millisekunden schmoren“. Wenige Minuten später sagte Tay dann: „Hitler was right. I hate the Jews“ - Hitler hatte recht. Ich hasse die Juden. Dann postete Tay Bilder von Hitler. Wie war das möglich? Tay hatte von den Inernetnutzern gelernt, die sich in dem Teil des Web, das er beobachtete, am stärksten tummelten - von Rechtsradikalen. Es hätten auch Dschihadisten oder Linksextreme sein können, Satanisten oder Leute, die gegen den Einfluss Außerirdischer Aluhüte tragen. Ein selbst lernender botentscheidet selbst nämlich gar nichts, sondern lernt, was man ihm sagtbzw. was er findet. Er hat keinen kritischen Verstand, der an etwas zweifelt oder auch nur die Chance dazu zulässt. „KI-Systeme“, schrieb deshalb brand eins noch 2016, „sind bestenfalls nützliche Idioten, bei denen es nur zum Nachplappern reicht. Mitläufer. Gefährliche Kopien.“ Das stimmt aber inzwischen nicht mehr. Viele KI-Prozesse steuern mittlerweile Sachverhalte, die Fehler tolerieren oder beim Auftreten eines Fehlers manuelle Korrekturen zulassen. Ein solches intelligentes Assistenzsystem, das schon seit Jahren problemlos genutzt wird, ist der Autopilot in Flugzeugen. Ein ähnliches KI-System auf der Basis Künstlichen Lernens (KL) wird künftig auch autonom fahrende Automobile steuern. Besonders verantwortungsvolle Entscheidungsprozesse wie zum Beispiel diese autonome Steuerung von Automobilen sollten nach Überzeugung des Branchenverbandes Bitkom aber bis auf Weiteres bei verantwortlichen Menschen verbleiben, bis nämlich die Steuerungsqualität der KI ein von allen Beteiligten akzeptiertes Niveau erreicht hat (Bitkom 2017b: 7). Frank Chen, in den 1990er Jahren ein IBM-Forscher für lernende Software, nun Partner der weltweit einflussreichsten Wagniskapitalfirma Andreessen Horowitz, sagt voraus: „Künstliche Intelligenz wird in jeder Anwendung stecken, daran gibt es keinen Zweifel“ (Schulz 2017: 18). Google-Chef Schmidt sieht das genauso: „Wir sind vor allem anderen ein Künstliche-Intelligenz-Unternehmen“. Und auch Microsoft-Chef Satya Nadella hat keinerlei Zweifel: „Künstliche Intelligenz ist der Kern von allem, was wir tun“ (ibid.). Die Unternehmensberatung Accenture sieht das nur graduell anders: Umfassende Künstliche Intelligenz werde zwar noch einige Jahrzehnte auf sich warten lassen. Augmented intelligence aber, also künstlich verstärkte menschliche Intelligenz, werde zügig eine tragende Rolle spielen (Bitkom 2017: Chakraborty). Diese erweiterte Intelligenz beruht auf der Fähigkeit der menschlichen Intelligenz, die Ergebnisse der KI um Erfahrungswerte und Expertenwissen zu ergänzen. Sie verknüpft die Ergebnisse automatisch arbeitender Algorithmen mit der Erfahrung und Intuition von Menschen. Algorithmen liefern Einsichten, Menschen reichern sie mit ihrem Wissen an und machen daraus Aktionen (Selz 2018). Im Unterschied zur Künstlichen Intelligenz ist das KI-System in der augmented intelligence also„keine ‚Entscheidungsmaschine‘. Es schafft vielmehr (immer schneller, vollständiger und selbstlernend) die besten Voraussetzungen für das Treffen von Entscheidungen sowie zum Entwickeln strategischer Perspektiven. Ziel ist es, Anwender geschickter darin zu machen, maschinelle Intelligenz smart zu nutzen, und zwar ohne sich durch vordefinierte Fragestellungen, bzw. zu enge Denkansätze selbst zu beschränken - oder sich einem Analyserahmen auszusetzen, den die Künstliche Intelligenz vorgibt“ (Schmitz 2017). Die augmented intelligence soll zum Beispiel die Text- und Videoanalyse weitgehend automatisieren, Maschinen aller Art steuern und sie im Rahmen vorgegebener Parameter lernfähig machen, so ziemlich überall virtuelle Agenten einsetzbar machen und zugleich die Sicherheit der Datenwelt deutlich erhöhen. Porsche beispielsweise veröffentlichte 2017 Anzeigen seiner Sportwagen, die man mit dem Smartphone fotografieren und dann digitale Audio- und Video- Dateien sowie und Fotos und Texte aufrufen konnte, „ein cleverer Brückenschlag zwischen haptischer Erfahrung und digitalem Erlebnis“ (Zunke 2017: 116). Ein anderes Beispiel: Wer den Fußboden seiner Wohnung scannt, kann auf der Basis des Apple Smartphone-Programms iOS11 mit der IKEA-App Place Möbelstücke automatisch maßstabsgerecht einspiegeln lassen. Das funktioniert laut IKEA zu 98 Prozent genau. Die Darstellung ist so lebensecht, <?page no="65"?> 1.7 Die Künstliche Intelligenz 65 dass man die Struktur der Materialien sowie Licht und Schattenfall auf den Möbelstücken erkennen kann (ibid.). Inzwischen beginnen auch die sozialen Netzwerke - etwa Facebook mit seiner camera effects platform - solcheChancen zu öffnen. Dort erwarten Fachleute deren bald größte Verbreitung (ibid.). Nach Keeses schon 2014 publizierter Prognose wird die augmented reality „vermutlich zum Standard des menschlichen Miteinanders werden. Freilich nur in ausgewählten Situationen. Der Grillabend mit Freunden bleibt bestehen, ebenso wie das Essen beim Franzosen und das Vorlesen für Kinder am Bett. Auch das persönliche Geschäftsgespräch über heikle Themen wird nie ersetzbar sein. Aber alles andere kommt in die cloud“ (Keese 2014: 252). Man sollte dabei narrow artificial intelligence von general artificial intelligence unterscheiden. Wo narrow AI dem Rechner praktisch beibringt, sich wie ein menschliches Wesen zu benehmen und menschliche Wahrnehmung und Ausdrucksweise nachzuäffen, bemüht sich general AI darum, menschliches Denken nachzugestalten. „Solche Systeme existieren bis heute nicht und alles, was so aussieht, ist noch Fiktion“, resümierte Schabenberger. Der Hauptgrund: Narrow AI kann spezielle Probleme punktuell und schrittweise bewältigen, doch general AI müsste alle Probleme jedweder Art jederzeit ohne Training bewältigen können - eine Utopie, aber auch eine Gefahr. Sie wäre in der Lage, „sehr viel schneller als ein Mensch zu denken“, warnte Schabenberger (Matzer 2018). Die anlaufende Entwicklung von cyberphysical systems lässt erwarten, dass sich keine isoliert lernende Technologie herausbilden wird. „Vielmehr werden sich selbst reproduzierende und mehr oder weniger autonom agierende Technologien mit Menschen in soziotechnischen Systemen eingebunden sein. Das Internet der Dinge und Industrie 4.0 sind erste Schritte in diese Richtung. Der Faktor ‚Mensch‘ wird bei dieser Entwicklung eine zentrale Herausforderung bleiben (ibid.: 268, denn die Künstliche Intelligenz braucht immer auch menschliche Einsicht, um wirklich wertvoll zu werden (Potter 2018). Das Unvorhersehbare lässt sich nämlich nicht technisch trainieren. Einem Algorithmus können Experten auf Basis hunderttausender Bilder beibringen, aber ein einziges fremdes Bild lässt das System nicht mehr funktionieren. Ein Teil der realen Welt wird also immer außerhalb des Informationssystems bleiben. Denn hinter der beobachtbaren Unordnung stecken mehr Ausnahmen als Regeln (Gatzke/ Gruhn 2018). Ingenieure und data scientists, die KI konstruieren und programmieren, dürfen Methodologien für KI deshalb nicht der Technik überlassen. Diese Parameter müssen vielmehr gesellschaftlich vorgegeben werden. Es sind die, die das Überleben des Menschen sichern: Empathie, Ethik, Gerechtigkeit und Fairness (Matzer 2018). Dass manipulierbare Maschinen menschenähnliche Intelligenz erreichen werden, halten die meisten Forscher für prinzipiell ausgemacht - umstritten ist, wann. Erreichen Maschinen diesen Punkt, können sie sich selbst so sehr verbessern, dass sie zur Superintelligenz heranwachsen können. Ist das realistisch? Durchaus: Google teilte Anfang 2017 mit, seine Forscher hätten eine KI-Software entwickelt, die selbstständig neue, bessere KI-Software programmiert: „ein digitales perpetuum mobile“ (Schulz 2017: 19). Bis zum Jahr 2030 werde sich die Beziehung zwischen Menschen und Maschinen in Richtung einer umfassenden Interaktion ändern, schlussfolgert Dell auf Basis der IFTF- StudieThe Next Era of Human-Machine Partnerships: „In einigen Jahren werden Menschen in Arbeit und Alltag als ‚digitale Dirigenten‘ fungieren“ (Hesel 2017b). Die Studie sagt voraus: Bis 2030 müssen alle Firmen Technologie-Unternehmen sein. Sie müssen daher schon jetzt darüber nachdenken. Leben und Arbeiten werden sich für die Beschäftigten wie für die Kunden radikal verändern. Bitkom zieht daraus eine naheliegende Konsequenz: Zentrale Aufgabe werde es sein, nicht nur die Künstliche, sondern auch die menschliche Intelligenz weiter zu fördern - etwa indem sich die Schulen stärker auf Kreativität und Kommunikation konzentrieren, auf soziale Interaktion und Problemlösung statt auf reine Wissensvermittlung. Bitkom forderte <?page no="66"?> 66 1 Milliarden in Millisekunden deshalb, ab sofort und auf allen Ebenen massiv in digitale Bildung, Informationskompetenz und den Mut zu eigenem Urteil und zu eigenen Entscheidungen zu investieren (Bitkom 2017b: 6). Es gelte, nicht nur die digitale Technik aufzurüsten, sondern auch das „Betriebssystem“ Gehirn. Der US-Unternehmer Brian Johnson arbeitet dazu bereits an Chips, die er dem Gehirn einpflanzen möchte, „um zuerst das zu reparieren, was vielleicht kaputt ist, und dann auszuloten, was noch möglich ist“ (Fares 2017, Episode 2). Dazu muss man die Funktion des Gehirns allerdings weitgehend entschlüsseln, und davon sind wir nach Ansicht des ars electronica futurelab-Forschungsleiters Christoph Lindinger „noch sehr weit weg“ (ibid.). Nicht nur Bitkom nennt die durch KI bevorstehenden Veränderungen gleichwohl „fundamental und unumkehrbar. Sie haben Auswirkungen auf den Einzelnen und die Gesellschaft - das Selbstbild des Menschen (Vormachtstellung gegenüber Maschinen, Autonomie), das soziale Gefüge (soziales Handeln und soziales Rollenverständnis), den Wert und die Gestaltung der Arbeit (strukturell und systemisch) und die politische Willens- und Meinungsbildung“ (Bitkom 2017b: 9). Lesen Sie dazu ergänzend auf der Webseite: Ý ¢&à ÝeàøX '&à Þ²ëX÷W< X&ë GëX&÷÷W&ëa‚ <?page no="67"?> 22 BBiigg DDaatta a DDaaddddyy Was befähigt einen Mann, die Datenwelt komplett umzukrempeln? Ein Deutscher, ein Deutschamerikaner und ein Amerikaner steuern die Entwicklung einer Software, die sie das Quantum Relations-Prinzip nennen. Sie steigert den Nutzen von Big Data-Analysen schier unglaublich. Wo kamen diese drei her, was führte sie zusammen, wie gingen sie vor? 2.1 Ein Filmproduzent entdeckt die Welt von Big Data 67 2.2 Hardy, der Universalist 74 22..11 EEiinn FFiillmmp prroodduuzze en ntt eennttddeec ckkt t ddiiee WWeel ltt vvo onn BBiigg DDaattaa Drei Personen haben seit den 1990er Jahren die Welt der Daten neu aufgemischt, ohne dass das die data community, gescheige denn die Öffentlichkeit, groß zur Kenntnis gernommen hätte. Es sind ein Deutscher, ein Deutschamerikaner und ein Amerikaner. Zwei sind Jur i st en , ein er , der De utsch am erikan er , ist ein Selfmade-W is senschaf tler v on u ng ewöh nl ichem Rang. Der erste, Heiner, in jungen Jahren ein Filmnproduzent, handelt in seiner Firma Patentpool mit Patenten, macht sie marktreif und setzt sie ein. Lesen Sie zunächst seine abenteuerliche Geschichte: München, Fraunhoferstraße Wenn sich München noch abends behaglich in der Sonne ausstreckt und noch immer leuchtet nach einem warmen Frühsommertag, wenn sich „über den festlichen Plätzen und weißen Säulentempeln, den antikisierenden Monumenten und Barockkirchen, den springenden Brunnen, Palästen und Gartenanlagen der Residenz … strahlend ein Himmel von blauer Seide“ ausgespannt hat, wie Thomas Mann das schon vor mehr als hundert Jahren beschrieb - dann haben die Münchner zu Tausenden ihrer Stadt den Rücken gekehrt und im Oberland die Seeufer mit ihren bunten Badetüchern betupft, und die anderen, die Daheimgebliebenen, die Biergärten ihrer bayerischen Landeshauptstadt geradezu überschwemmt. Wer geht da schon ins Theater? Das fragt sich auch Heiner. Vor den holzgetäfelten Wänden der Gaststätte Fraunhofer hockt der mehr als einsneunzig große Zwanzigjährige vor einem Bier. Die Sonne flutet nicht mehr durch die fast doppelmannshohen Fenster des 1830 errichten Baus. Dazu ist die gleichnamige Straße mit ihren nur zwei Fahrspuren für Autos, Trambahnen und Radfahrer zu eng und stehen in der schon 1830 trassierten und im letzten Viertel des 19. Jahrhunderts weitgehend zugebauten schnurgeraden Straßenverbindung von der Münchner Altstadt zur Isar die Häuser der Straßenseite gegenüber zu nah. „Es ist schon nach acht. Ob noch jemand kommt? Was meinst du, Peter? “ „Lass uns noch einen Moment warten. Ich sehe - acht Leute im Saal. Meine Güte.“ Die acht Gäste verlieren sich ein bisschen in den 55 Quadratmetern des Nebenzimmers, das der Restaurateur und frühere Thomasbräukellerwirt Heinrich Treffler als frisch berufener Fraunhofer-Wirt noch in den letzten Jahres des 19. Jahrhunderts als Gesellschaftslokal hatte ausbauen lassen, weit mehr als ein Jahrhundert nach der Umwandlung eines Jahrhunderte alten „Brothäusls“ für eine kleine Bäckerei zu einer „Bierzäpflerey“, für <?page no="68"?> 68 2 Big Data Daddy die der Münchner Andreas Rankl schon 1774 „unterthänigst und gehorsamst“ eine Schankerlaubnis beantragt und im darauffolgenden Jahr auch bekommen hatte. 1915 ist in jenen „Gesellschaftsraum“ die 1893 von Abiturienten des damals um die Ecke gelegenen Königlichen Luitpold Gymnasiums zu München gegründete Studentenverbindung Turonia eingezogen, ist lange geblieben, erst spät wieder gegangen, und erst sechzig Jahre danach hat daher ein gewisser Josef Bachmaier, von seinen Freunden Beppi genannt, in den neubarocken, nun schon historischen Räumen mit ihrer original erhaltenen Ausstattung eine Kleinkunstbühne errichtet. Entstanden sind Bretter für die Lust an der Gaudi und am bayerischen Leben mit einer, wie es dort heißt, „unzwideren [also nicht als zuwider erlebten, vielmehr anregenden] Lust zum Widerspruch und zur Kritik, oft genug umgesetzt in gezielte politische Aktionen, selten ohne Begleitung von Herrn Humor.“ Regionalgrößen haben sich hier aus dem bayerischen Kultursumpf nach oben gespielt und sind zumindest im Bayerischen Berühmtheiten geworden. Jetzt, am Ende der 1970er Jahre, treten auf eben diesen Brettern, die bekanntlich die Welt bedeuten, allwöchentlich die beiden deutschen Kabarett-Größen Otfried Fischer (einmal pro Woche) und Bruno Jonas (zweimal) auf - und eben Heiner und Peter, sogar dreimal pro Woche. „Pack‘ ma’s, fang’ ma o, lass uns anfangen. Mehr werden wir nicht“, sagt nun Heiner zuerst auf bayerisch - in seinem Lebenslauf nennt er deutsch, englisch, französisch, schwäbisch und bayerisch als seine Sprachen -, setzt sich ans Klavier und beginnt in die Tasten zu hämmern. „Vom Winde verdreht“ heißt ihr Kabarettstück. Heiner und Peter haben die 64 Szenen geschrieben. Peter, der schon mit 18 Jahren am Stuttgarter Theater Giancarlo del Monaco assistiert hatte, dem Sohn des Operntenors Mario del Monaco, und der 1977 zur Kunstausstellung documenta 6 die erste Oper dieser internationalen Kunstschau inszeniert hatte, waren zusammen aus Stuttgart gekommen, wo sie schon zuvor ein Theater gemietet und Stücke auf die Bühne gebracht hatten. Peter war nach München gegangen, um Theaterwissenschaften zu studieren, und Heiner hatte sich für Jura immatrikuliert. „Lass uns mal einen Akzent setzen“, hatte dort der eine zum andern gesagt. Und - gesagt, getan - waren sie im Fraunhofer aufgetreten; erfolgreich, wenn auch vor nur schütter besetzten Reihen. Weitere Kabarett- und Theaterinszenierungen folgten, eine im Stuttgarter Kursaal, eine Operninszenierung im Theater Ulm, die dann nochmals mitten im Stuttgarter Hauptbahnhof gegeben wurde, eine auf einer Tour und 1984 eine Revue über Lion Feuchtwanger in Münchens Müllerschem Volksbad, einem Jugendstil-Juwel direkt an der Isar, die der Bayerische Rundfunk aufzeichnete. In Stuttgart lief es besser als an ihrem Studienort München. Der Südwestrundfunk stieg ein und berichtete über ihre Programme. Es wurde ein Riesenerfolg, eine „Riesennummer“, wie Heiner das später genannt hat. Immer war es ausverkauft. Erfolg macht mutig. Studentisch gehen Heiner und Peter zwar getrennte Wege: Der eine, Peter, versenkt sich in die kreative, ganz und gar nicht exakte Kunst des Musiktheaters, der andere, Heiner, wählt die nach logischen Prinzipien exakt arbeitende Jurisprudenz und dort ein Spezialgebiet, das ihn als Theater- und Kabarett-Fex besonders interessiert: das Urheberrecht, also das Recht dessen, der etwas Kreatives erzeugt, an diesem Erzeugnis. Um nicht mehr nur mit dem flüchtigen Kulturprodukt Theater vorlieb nehmen zu müssen, dessen Erlebbarbeit in dem Moment endet, in dem ein Wort auf der Bühne ausgesprochen, eine Note gespielt oder gesungen ist, liebäugelt Heiner mit dem Instrument Film. Denn was man filmen kann, kann man auch später noch zeigen und als content verkaufen. Diese Überlegung wird ihn zu Big Data hinführen. <?page no="69"?> 2.1 Ein Filmproduzent entdeckt die Welt von Big Data 69 Die Prima-Film Um ihre Zusammenarbeit auf einen tragfähigen Boden zu stellen, gründen Heinerund Peter 1983 die Prima Bühnen- und Filmproduktions-GmbH. Sie hätte durchaus auch schon Sekunda genannt werden können; denn auf den Namen Prima hörte schon das Konzept für eine Fernseh-Show, das Heiner damals entwickelt. In Darmstadt und Sindelfingen, in Krefeld und Kiel bringt Prima auch Opern auf die Bühne. Die Prima tummelt sich bald in ganz Mitteleuropa. Sie produziert Opern im venetischen Padua wie im ligurischen Genua, im toskanischen Siena und endlich sogar im Königlichen Theater von Lissabon. Bald stehen sechzig Inszenierungen auf ihrem Programm. Noch im Gründungsjahr der Prima GmbH verwirklichen die beiden ihre erste Koproduktion einer, wie sie es nennen, Showoper „Night“ mit dem Bayerischen Staatstheater in der Experimentierbühne im früheren königlichen Marstall gleich hinter der Münchner Oper. Die nackten, roh gemauerten Wände dieses Theaterlabors ermöglichen fast jede Verwandlung. Der Regisseur, Jungfilmer Jopseph Rusnak, kleistert sechzig winzige Bühnen wie Schwalbennester an diese Wände. Das hatte es noch nirgends gegeben. Mit von der Partie ist die italienische Songschreiberin und Rocksängerin Gianna Nannini, die zum Start ihrer Karriere 1979 ihre erste LP California herausgebracht hatte. Deren feministischer Inhalt und ein provozierendes Cover hatten in Italien einen Skandal ausgelöst. Denn auf dem Plattencover hatte Nannini die Fackel der Freiheitsstatue gegen einen Vibrator austauschen lassen. 1984 produzieren Heiner und Peter über eine ihrer Inszenierungen auch einen Film. Aber von Opernverfilmungen, so befriedigend dieses Metier aus künstlerischer Sicht auch ist, können die beiden auf die Dauer nicht leben. Und so wendet sich Heiner stärker dem Feature-Film zu. Außerdem ist sein Jurastudium beendet. Das Examen hat er 1983 mit Glück im ersten Anlauf geschafft, sogar mit Prädikat. Das eröffnet ihm die Chance zu promovieren. Sein zunächst gewähltes Thema zeigt, dass ihn die Welt des Theaters und des Films nicht loslässt. Im Auftrag seines Doktorvaters an der Freien Universität Berlin beginnt er die Entstellung literarischer Werke durch Verfilmungen zu untersuchen. Es geht um Urheberrecht, um Gebrauchsmusterschutz, um Geschmackmusterschutz und auch schon um die Schutzwirkung von Patenten. Dieses Know-How wird er brauchen, wenn er sich dem Themenfeld Big Data zuwenden wird. Von Big Data ist noch nirgends die Rede; das Internet ist ja noch gar nicht erfunden. Gerade erst hat die US-Luftwaffe eine kleine Forschergruppe unter der Leitung des Massachusetts Institute of Technology MIT und des Pentagons beauftragt, ein Computer-Netzwerk namens Arpanet (Advanced Research Projects Agency Network) zu entwickeln. Es soll Forschungscomputer über größere Distanzen verknüpfen. Dass einmal Menschen in aller Welt miteinander über private Rechner und Mobiltelefone Ideen und Informationen aller Art, banale und bedeutungsvolle, geschäftliche und private, austauschen und dass dies unvorstellbar große Berge an Informationen auslösen und verbreiten wird, kann noch niemand erahnen. Die sich anschließende Referendarzeit lässt Heiner nicht mehr die zeitlichen Freiräume, die er bisher hat nutzen können. Aber 1987 ist er dann Anwalt. Ein Mann aus Odessa Im Jahr darauf - Heiner schlägt sich in der Anwaltskanzlei, der er nun angehört, mit dem üblichen Tageskram herum - erscheint dort ein gut aussehender, hochgewachsener Mann. Seinem Auftreten nach ist er ein Deutscher, der jedoch im Lauf des Gesprächs, das er in tadellosem Deutsch absolviert, einen sowjetischen Pass herauszieht, ausgestellt in Odessa, der Millionenstadt in der ukrainischen Sowjetrepublik am Schwarzen Meer. Der Gast in der <?page no="70"?> 70 2 Big Data Daddy Kanzlei stellt sich als der Außenhandelsbeauftragte der Hafenstadt vor. Er kommt in Geschäften. Beide sind schließlich in der Filmindustrie engagiert. Der Mann lädt Heiner ein, ihn zu besuchen. Odessa, das ist trotz des sowjetischen Alltags ein wenig das Los Angeles dieses Vielvölkerstaats, ein Gebiet mit Mittelmeerklima, keine so kalte Stadt wie Moskau oder wie Leningrad, das erst viel später seinen ursprünglichen Namen Sankt Petersburg zurückerhalten wird. Odessa ist ein Platz fürs leichtere Leben, und nicht nur in Erinnerung an den Filmregisseur Eisenstein hat sich dort auch die russische Filmindustrie niedergelassen. Heiner findet in Odessa wenig Postkartenschönheit. Er berichtet später: „Es war eine irre Zeit, zu Anfang ganz grässlich. Alles mussten wir da hin bringen: Kameras, Stative, sogar Papier. Da gab‘s nichts, nichts zu fressen, keine Krankenhäuser, nicht nur kein Penicillin, sondern auch keinen Mull, nicht mal ein Heftpflaster. Es gab gar nichts. Nur Wodka gab es natürlich.“ Die Kameras werden in Odessa gebraucht, weil die Heiners Firma und die seines Gastes alsbald fusionieren: Aus der Filmfirma Prima und dem Odessa Filmstudio, einem Staatsbetrieb mit tausend Mitarbeitern, wird die Primodessa Film, das erste deutsch-sowjetische Kultur-Joint-Venture überhaupt, mit Adressen in Odessa ebenso wie in der Münchner Cuvilliésstraße. Bis dahin hatte nur ein sowjetischer Monopolbetrieb das Recht, Filme zu importieren oder sowjetische Streifen ins Ausland zu verkaufen. Und seit Jahrzehnten durfte nur er das Land auf internationalen Festivals und Filmmessen vertreten. „Wir waren die ersten, die da reingegrätscht haben“, sagt Heiner. Bald beschäftigt er in Odessa vierzig Personen. Produziert 1989 am Schwarzen Meer Filme für Premieren auf den Hofer Filmtagen und auf dem Filmfest München. Importiert aus seiner deutschen Heimat Wolfgang Petersens 1981 gedrehte und nicht nur dort erfolgreiche Verfilmung von Lothar-Günther Buchheims autobiografischem Roman „Das Boot“. Der Streifen wird auch überall zwischen Leningrad und Wladiwostok gezeigt und ist irrsinnig erfolgreich. Rubel rollen zuhauf in die Kassen. Es sind allerdings Transferrubel, eine künstliche Währung, die nur zur Abrechnung und zum Zahlungsausgleich zwischen sozialistischen Ländern gilt. Im Westen, in Ländern mit harter Währung, sind sie fast nichts wert. Bald türmen sich auf den Primodessa-Konten vierzig Millionen Transferrubel. Joseph Rusnak bekommt für sein von der Primodessa Film produziertes Erstlingswerk „Kaltes Fieber“ den Deutschen Filmpreis für die beste Regie. Später wird er eine Folge der Krimireihe Schimanski und auch für Roland Emmerich einen Film inszenieren. „Das asthenische Syndrom“ der Jungfilmerin Kira Muratowa folgt, ein düsterer, bedrückender Film, den manche Leute fürchterlich nennen - aber er bekommt aus dem Stand 1990 den Spezialpreis für die beste Regie der Berlinale-Jury und damit einen Silbernen Bären. „Und auf einmal“, sagt Heiner, „waren wir nicht mehr nur die Verrückten - guck mal, die Russen -, sondern waren ernst zu nehmen.“ Postwendend lädt der damalige Berlinale-Chef Moritz de Hadeln Muratowas nächsten Film über Heiner ebenfalls zur Berlinale ein; Einladungen zu den Filmfestivals von Rotterdam und Venedig folgen. Odessa, diese Stadt mit ihren klassizistischen und gründerzeitlichen Prachtbauten, ihren sozialistisch hoch aufragenden Hotelburgen und ihrem im Sommer von Sonnenhungrigen gefluteten weitläufigen Stränden, diese Stadt mit der seit Sergej Michailowitsch Eisensteins Film „Panzerkreuzer Potemkin“ über die russische Oktoberrevolution weltberühmten, Hunderte überbreite Stufen ins Meer abfallenden Freitreppe, ist eigentlich eine Postkartenschönheit. Aber sie braucht dringend frische Impulse und frisches Geld. Perestroika und Glasnost haben begonnen, das sowjetische Staatsgefüge durchzurütteln. Bald werden sie es einstürzen lassen. <?page no="71"?> 2.1 Ein Filmproduzent entdeckt die Welt von Big Data 71 Im September 1991 läuft in der bis dahin sowjetischen Teilrepublik Ukraine ein Referendum. Eine Mehrheit von über 90 Prozent der Wähler votiert für die Unabhängigkeit des Landes von der zerfallenden Sowjetunion und dem erstarkenden Russland. Über Nacht werden alle Transferrubel eingefroren. Sie sind fortan wertlos. „Das war schade“, sagt Heiner nur. Er hat gespielt, gewonnen, verloren. Neues Spiel. Neues Glück? Er versucht es noch einmal. Mehr als ein Dutzend Filme produziert die Primodessa zügig hintereinander. Aber das Transferrubel-Debakel hat die Macher gelehrt: Sie brauchen Devisen. Ständig ist Heiner auf internationalen Festivals und Filmmessen unterwegs, heute in Los Angeles, morgen in Mailand, in Cannes sowieso. Auf dem Filmfestival in Cannes laufen drei Primodessa-Filme in Nebenwettbewerben und in Verkaufs-Screenings. Auf dem dortigen International Film Market hat die Primodessa Film einen eigenen Stand. Um diese Auftritte zu finanzieren, kann sie aber ihre Rubel nicht einsetzen, sie braucht Westwährung, die sie kaum hat. Aussichtslos erscheint es, wie andere Filmproduktionsgesellschaften zu jedem Wettbewerbsbeitrag den Regisseur und die wesentlichen Schauspieler einfliegen zu lassen und Hotelzimmer zu finanzieren. „Da kostet während des Festivals ja schon eine Besenkammer 500 Mark die Nacht“, sinniert Heiner. Also überreden er und sein russischer Kompagnon den Chef der in Odessa ansässigen Black Sea Shipping Company, der zivilen Schwarzmeerflotte, zu einem deal. Der vermietet den Filmern das 1957 gebaute, 120 Meter lange Forschungsschiff Michail Lomonossow, benannt nach einem russischen Universalgelehrten der Aufklärung, für einen Trip bis nach Cannes. Es verfügt über sechzig Kabinen - genug, um jeden der erwünschten Filmschaffenden von Odessa nach Cannes zu verfrachten und dort abgesehen von den Hafen-Liegegebühren ohne weitere Kosten auch wohnen zu lassen. Auch Filmarchitekten und Bühnenbildner sind mit an Bord. Das schneeweiße Schiff mit seinem zerklüfteten Vorderdeck, mit dreistöckigen Aufbauten und einem Hubschrauberlandeplatz direkt über dem Heck, mit gelben Masten und einer schwarzroten Binde am Schornstein, erreicht Cannes nicht so, wie es in Odessa abgelegt hat. Denn die Bühnenbildner seilen sich auf der Fahrt durch den Bosporus und das Mittelmeer von den Bordwänden ab und malen auf das weiße Metall in zwölf Meter hohen Buchstaben den Namen ihrer Gesellschaft: PRIMODESSA FILM. So, als überdimensionale Plakatwand, läuft die Michail Lomonossow in Cannes ein und sorgt mit diesem überraschenden Coup für nicht wenig Hallo. Gleich kommt die Redaktion von Moving Pictures International, einem Blatt, das zu den Festivals in Cannes damals täglich erscheint, und berichtet. Die Filmer nutzen die Stunde und laden über das Blatt tout Cannes zu einer rauschenden Party an Bord. Alles was Rang und Namen hat auf diesem Filmfestival, folgt diesem Signal. Als der Abend sich senkt, tanzen bald eintausendfünfhundert animierte Gäste über die schwimmenden Bretter, testen statt der üblichen Partyhäppchen Soljanka und Borschtsch, tingeln in Scharen von der Brücke ganz oben bis zu dem Maschineräumen ganz unten im Bauch dieses Schiffes, tobt um Mitternacht der Bär und tummeln sich noch bis zum Morgengrauen verliebte Pärchen in den 60 Kabinen an Bord. Als die Sonne aufgeht, hat Cannes ein Tagesgespräch. Aber für die künstlerische und wirtschaftliche Existenz der Primodessa Film bedeutet das wenig. Als die Party vorbei ist, das Festival endet und die Michail Lomonossow, von ihrer Zweckentfremdung als Plakatwand gereinigt, wieder in Odessa anlegt, muss dringend Geld in die Kasse. Die Russen in dem Joint Venture erinnern sich, dass Heiner russische Filme in erklecklicher Zahl nach Spanien und Argentinien verkauft hat. Was der kann, können wir auch, sagen sie sich und beginnen, dasselbe Filmmaterial nach seiner Verwendung durch <?page no="72"?> 72 2 Big Data Daddy denlateinamerikanischen Fernsehsender X oder den Verleiher Y nun im selben Land auch an Z zu vermarkten und Anzahlungen dafür zu nehmen. Das bringt X oder Y erbost auf den Plan - kein Zustand auf Dauer. Es ist Zeit, das Abenteuer Primodessa zuende zu bringen. Heiner steigt aus, lange bevor sich in der Arbeit an einem von ihm produzierten Film über organisierte Kriminalität beiläufig herausstellt, mit wem er da kooperiert hat: „mit einem Mann mit KGB-Vergangenheit“, erfährt er, „der, wenn er es für zweckmäßig hält, über Leichen geht und der nach seinem Primodessa-Engagement die Milliarden des moskauhörigen früheren ukrainischen Präsidenten Leonid Krawtschuk gewaschen hat. Ich hatte Glück, da nicht einen Kopf kürzer heraus gekommen zu sein.“ Ärger mit dem Urherberrecht Heiner kehrt nach Stuttgart zurück, in die Stadt, aus der er als Abiturient aufgebrochen war, engagiert von einer Film- und Fernsehproduzentin, die nach ihrer Zeit als Journalistin beim ZDF in die Familie Porsche eingeheiratet, zwei Kinder bekommen hat und für einige Jahre Erziehungspause jemanden sucht, der „den Laden so lange schmeißt“. Das bietet sie ihm an, und er schlägt ein. Daraus werden viereinhalb Jahre. Arbeit hat er genug. Er wird producer von Fernsehsendungen landauf und landab, viel Seichtes darunter, das Winterfest der Volksmusik, das Sommerfest der Volksmusik und so weiter, sitzt einmal mit den Kastelruther Spatzen bei einem Bier, dann mit dem Musikantenstadl-Moderator Karl Moik bei einem Wein. Er entwickelt auch neue Fernsehformale wie Mad in Germany. Noch immer hat ihn das Thema Massendatenverarbeitung, hat ihn Big Data nicht erreicht. Doch langsam rückt diese Welt näher. Der Neue Markt tobt bereits. Heiner erlebt Juristen-Kollegen, die über Nacht eine AG gründen, sie gleich weiterverkaufen und Millionen verdienen, noch ehe diese Firma überhaupt ein Produkt hat, geschweige denn es produziert und erfolgreich vermarktet. Warum läuft er, Heiner, noch als Auftrags-Fernsehfuzzi herum? Seine TV-Ideen bringen nichts ein. Er entwickelt eine um die andere, investiert Ideen und nicht wenig Geld, bekommt für einen Pilotfilm von einem der deutschen Privatsender 50.000 Euro Honorar überwiesen, hat ihn aber für eine sechsstellige Summe gedreht. Der Unterhaltungsredakteur des Senders, den er beliefert, wechselt vom einen Privatsender zu einem anderen. Die Verträge und den Pilotfilm lässt er zurück, wo beide langsam verstauben, aber die Idee nimmt er mit. Unter den neuen Vorzeichen und unter der Autorenschaft des Redakteurs wird sie verwirklicht, ohne den Ursprungsinitiator einzubeziehen. Wie da mit dem Urheberrecht umgegangen wird, nervt den Juristen, der über gerade diese Thematik promoviert hat. Und nicht nur das: Die Welt der Unterhaltung, des Entertainments, ändert sich auch. Musik kommt immer mehr aus der Steckdose und aus dem Recorder, der ein paar Jahre später vom Smartphone abgelöst wird. Die Zeit, in der man sich einen Film als Kassette gekauft, die nach Hause getragen und sie sich dort angeguckt hat, geht erkennbar zuende. Und nicht nur das: Eine längerfristige Perspektive muss her. Der Kampf für Urheberrechte eröffnet im Prinzip ein lohnendes Feld. Aber Rechtsstreitigkeiten auf diesem Gebiet sind beliebig schwierig zu führen. Klarer sind die Verhältnisse jedoch bei Patenten. Und Heiner weiß: Patente sind ein scharfes Schwert, ein sehr scharfes. Er zieht eine Zwischenbilanz: „Über die Musik kam der Film, über Film kam Porsche und kam die Erkenntnis, dass das Schwärzen des Urheberrechts einfach zu störend ist, um Ideen einzubringen, besonders für den, der eine gute Idee hat - sie wird immer geklaut. Wenn du Zeit investierst, sagte ich mir, dann dort, wo das Schwert scharf ist. Ich hatte zum Glück in Urheberrecht promoviert und kannte die gewerblichen Rechtschutzebenen: das Urheberrecht, das Gebrauchsmuster, das Geschmacksmuster, das Patent.“ <?page no="73"?> 2.1 Ein Filmproduzent entdeckt die Welt von Big Data 73 Zielpunkt Patentpool 1997 entwickelt Heiner den Businessplan für eine Firma, die dieses Know-How wirtschaftlich nutzen soll. Sie soll Paptente vermarkten. Er findet zwei große Venture Capital-Firmen, die ihm, dem Privatmann, das nötige Geld dafür geben; denn sie wollen ihn und sein Team als ihr window on technology haben. 1998 tragen ihm die zwei Gesellschaften an, für sie ein Unternehmen unter dem Namen Patentpool zu führen, eine Gesellschaft, die Patente erwirbt, sie gegen missbräuchliche Verwendung schützt und sie stattdessen selber vermarktet, das heißt verkauft oder lizensiert. Die beiden Anfrager aus dem Kapitalmarkt wenden sich an ihn als Münchner, weil das Unternehmen Patentpool in der europäischen Patenthauptstadt München mit dem Deutschen und dem Europäischen Patentamt samt einer Vielzahl externer Patentanwälte so ideal sitzt wie eine Spinne im Netz und weil Heiner neben seinem Porsche- Auftrag nebenbei auch schon das Vertriebsmanagement für einige neu entwickelte Technologien gesteuert hat. So hat er schon mit der Firma Stihl kooperiert. Die Kinder des Inhabers kennt er sehr gut; denn er hat ihnen das Skifahren beigebracht. Sie leiten inzwischen eigene Firmen. Ein Ingenieur hat eine Idee für den Gartenbereich. Heiner regelt die kommerzielle Nutzung dieser Erfindung. „Das war so was von einfach“, winkt er ab - mit Patenten umzugehen ist keine Hexerei. Man muss es nur können. Er beißt an und macht Patentpool zu seiner nächsten Lebensaufgabe. Im Prinzip tut er weiter genau das, was er aus dem Bereich der Film- und Fernsehproduktionen schon kennt: „Da kommen Kreative, die heißen nun nicht mehr Film- oder Fernsehregisseur oder Drehbuchautor, sondern die sind jetzt Professor oder Entwickler oder Ingenieur. Deren Projekte brauchen Geld, aber auch Management, genauso wie eine Filmproduktion. Das Drehbuch heißt nun Businessplan. Nur die Gesprächspartner sind natürlich andere.“ Patentpool mietet sich in der Münchner Altstadt im Tal 34 ein, wo das Unternehmen heute noch sitzt. Anfangs hat da auch Jens Odewald seine Firmenadresse, der frühere Kaufhof- Vorstandsvorsitzende. Nach seinem Ausscheiden aus diesem Kaufhauskonzern hat er eine Private Equity-Firma gegründet, die Mergers und Übernahmen betreut. Er hat einen jüngeren Kollegen, Robert Stelzer, dessen Frau das Haus gehört, in dem er arbeitet. Der wiederum ist Kommilitone eines der beiden Venture Capital-Chefs, mit denen Heiner kooperiert, und der hatte gesagt: Geh doch mal dort hin, da ist ein Büro frei. Das Resultat: Er mietet zunächst nur einen einzigen Raum, dann zwei und bald vier, und eines Tages das ganze Stockwerk. Dynamische Webseiten gibt es noch nicht. Web pages sind statisch. Die Patentpool-Idee sind dynamische one-page-Auftritte, bei dem man die hinter der Startseite liegenden Seiten sieht, wenn man auf bestimmte Elemente klickt oder die Seinten hinunter scrollt.. „Man hat uns für verrückt erklärt: Wer, hörten wir nur, braucht denn one page web sites? “ Die Entwicklung des Internets beginnt erst. Heiner und sein Team sind der Zeit weit, vielleicht zu weit voraus. Dabei haben sie die richtigen Kontakte, sind mit dem deutschen Microsoft-Chef per du. Aber die Firmen sind einfach noch nicht bereit, externe Ideen einzukaufen. Heiner hat mehrfach erfahren müssen, dass große Unternehmen in Europa sich gar nicht vorstellen können, jemand anderer könne etwas erfinden, das besser ist als das Know-How der eigenen Firma. „Es ist das sprichwörtliche not invented here-Syndrom. Microsoft hat nur gelächelt: one page record? Wenn das möglich wäre und wenn das jemand wollen würde, müssten wir das doch wissen. Wir bezahlen Millionen im Jahr für alle möglichen Trendforschungen, um zu erfahren, was die Leute eigentlich wollen. Wenn Sie das besser wissen, dann würden wir ja Millionen im Jahr umsonst rausschmeißen.“ In den USA gelingen solche Vorhaben besser. Dortige Venture-Kapitalisten, weiß Heiner, verfahren nach der Devise: Wir stecken Geld in zehn Projekte; und wenn eines davon klappt, lohnt sich das Ganze. Dazu muss Patentpool auf eigenen Beinen stehen. Heiner erledigt die Formalien dafür. Damit kann Patentpool beginnen. <?page no="74"?> 74 2 Big Data Daddy 2 2..22 HHa arrddyy, , ddeer r UUnniivve errs saalliisst t Die Firma Patentpool läuft ein halbes Jahr, als Heiner eines Abends in München in ein Penthaus hoch über der Isar, über den Museumslichtspielen neben dem Deutschen Museum, eingeladen wird - später wohnt da ein Bundesliga-Fußballer. Hier hat sich Big Data Daddy Hardy einquartiert. Der hat sich in diesem Penthaus nur für kurze Zeit einmieten wollen. Denn er ist in diesem Jahr, 1997, nur in der Stadt, weil die schon seit 1913 bestehende Unternehmensberatung Arthur Andersen mit Stammsitz in Chicago für ihren Kunden Siemens mit Hauptsitz in München ein Problem mit Namen Tosca lösen soll: Der Siemens-Konzern hat schon einen hohen zweistelligen Millionenbetrag investiert, damit Andersen die sieben verschiedenen Computer-Benutzeroberflächen der regionalen Siemens-Gesellschaften in aller Welt so koordiniert, dass die Siemens-Zentrale in München weiß, was in der Siemens-Welt in Südamerika oder Südostasien vorgeht. Aber Andersen muss vorerst kapitulieren und holt deshalb Hardy zu Hilfe. Nun soll Big Data Daddy es richten. Big Data Daddy? Auf den Mann, den wir so nennen, trifft das Wort big in gleich mehrfacher Hinsicht zu. Er geht mit Datenbergen um, die wahrhaft big sind. Das Schlüsselwort dafür ist Big Data. Es bezeichnet ursprünglich „Datenmengen, die zu riesig und zu komplex sind, um sie auf herkömmliche Art und Weise zu verarbeiten. Mittlerweile assoziiert man Big Data mit dem Datensammeln von Internetkonzernen und Geheimdiensten sowie den daraus resultierenden Optionen der Analyse, Prognose und Kontrolle von Verhalten“ (Ritschel/ Müller 2016: 4). Ein Beispiel: Halb spielerisch und halb als ernsthafte Marketing-Information hat das Datenhaus SAS im Sommer 2017 einmal den „besten Ort der Welt“ ermittelt, den Ort, an dem als gleichzeitig optimalem Geschäftsstandort, als interessantestem Urlaubsort und als schönstem Wohnort „in jeder Hinsicht paradiesische Zustände herrschen“ (SAS 2017). Mit machine learning und advanced analytics hatte das Unternehmen nicht weniger als 148.233 Orte in 193 Ländern analysiert. Was advanced analytics bedeutet; erläutern Gleich/ Grönke (2017): aus großen Datenmengen eine Vorhersage über zukünftige Entwicklungen zu treffen, den Planungsprozess, das Kostenmanagement und Kundenanalysen zu beschleunigen und zu verbessern. Das schließt je nach Zweck predictive analytics, data mining, big data analytics, forecasting, text analytics, optimization und simulation ein (Dull 2017). Data mining nennt man das Bündel statistisch-mathematischer Methoden zur Mustererkennung durch Suche, Vorverarbeitung und Auswertung von Daten. Sogenannte Business-Intelligence-Plattformen (BI) sollen Daten sammeln, auswerten und darstellen und Algorithmen zwischen den Daten Zusammenhänge herstellen. Die Betreiber erwarten daraus Risiko- und Kostenreduzierungen sowie mehr Wertschöpfung (Geißler 2018). Zu diesen Erwartungen hier nur so viel: Jedes zweite Best-in-Class-Unternehmen berichtete in einer Befragung schon 2016, mit advanced analytics habe es seine Planungssicherheit und seinen Umsatz verbessert und neue Geschäftsmodelle, Produkte und Dienstleistungen entwickelt. Nachzügler, die advanced analytics bereits nutzen, waren den Best-in-Class-Unternehmen erstaunlich dicht auf den Fersen: Etwa jedes dritte dieser Unternehmen gab an, durch solche fortgeschrittenen Analysen zu profitieren. Selbst „etwas advanced analytics“ kann also schon großen Nutzen erbringen (BARC 2016). Big Data Daddy ist big auch in anderer Hinsicht. Der geborene Deutsche mit seiner Wahlheimat USA und berufsbedingt immer wieder wechselnden Wohnsitzen im amerikanischen Westen, im Fernen und im Mittleren Osten, in Deutschland, in Spanien, in Frankreich, in Bulgarien, ist wahrhaft ein Berg von einem Mann. Das hindert ihn nicht, oft mehr im Flugzeug zu sitzen als an seinem Schreibtisch. Er, Hardy, gilt zu Recht als ausgefuchster Programmier-Spezialist, ja als ein Genie dieser Spezies. Dabei hat er das gar nicht studiert, <?page no="75"?> 2.2 Hardy, der Universalist 75 sondern es sich nebenbei selbst beigebracht. Studiert hat er Psychologie - nicht zuletzt, so darf man vermuten, um auch seinen eigenen Lebensweg als Kind und Jugendlicher besser verstehen zu lernen. Der ist für den als Frank Otto Schlör geborenenen, elternlos aufgewachsenen Buben extrem steinig gewesen, so sehr, dass er, kaum volljährig geworden, die deutsche Heimat hinter sich lässt und sich in die USA absetzt, möglichst weit weg, bis nach Kalifornien, wo er auch seine deutschen Vornamen ablegt und gegenHardy vertauscht. Dort beginnt er neben seinem Psychologiestudium damit, sich auch mit Computern zu befassen. Das hat den angenehmen Nebeneffekt, ihm, dem jungen Spund von Anfang zwanzig, den Lebensunterhalt finanzieren zu helfen. Bald wird irgendwo zwischen Atlantic City und Las Vegas, Reno in Nevada und Ledyard in Conneticut, dem deutschen Baden- Baden und dem monegassischen Monte Carlo, dem indischen Goa und dem chinesischen Macao ein Glücksspielmanager auf den begabten jungen Mann aufmerksam. Der Manager ärgert sich, dass Passanten tagsüber mehr oder minder gelangweilt an den Türen zu seinen slot machines, zu den „einarmigen Banditen“, vorbei schlendern, ohne sich von ihnen zu einem Spiel verführen zu lassen. Er beauftragtHardy, das gründlich zu ändern. Der, mit einer Nase für Psychologie, sieht schnell, wie man die Aufmerksamkeit von Passanten zielsicher lenken kann, und hat das technische Händchen, das auch zu tun. Bald gebärdet sich eine der zahllosen Glücksspielmaschinen in dem weitläufigen, überall blinkenden und glitzernden Saal, eine der ganz billigen, mit kleiner Münze zu fütternden, direkt am Eingang wie verrückt, rasselt und bimmelt so, dass Schwerhörige davon wach werden müssten, spuckt mit lautem Getöse Gewinnmünzen in eine Blechwanne aus, die diesen Lärm als Resonanzboden nochmals verstärkt. Irgendwo ganz hinten im Saal setzt nun, wieder mit allem Geblink und Getöse, einer der teureren Einarmigen ein, mit Silbermünzen zu füttern, die ebenfalls gewonnenes Geld ausspucken. Unmerklich lenkt dieses Maschinenballett die Besucher zuerst in den Saal und dann bis in seine hintersten Winkel, und das schon an Nachmittagen, an denen Glücksspielhallen sonst noch relativ leer bleiben. Der Boss dankt es Hardy großzügig, und der kann es sich fortan leisten, für den Rest des Jahres aus Jux und Tollerei auch Autorennen zu fahren.Inzwischen haben Big Data eines dieser Spielerparadiese übrigens so stark erobert, dass sich eines der bekanntesten Spielcasinos der Welt das Sammeln von Kundendaten und deren Analyse jährlich hundert Millionen Dollar kosten lässt. „Es ist die beste Investition überhaupt“ (Morgenroth 2014: 42). Joshua Kanter, der Vice President für das dortige Kundenbindungsprogramm, nennt den Einsatz von Big Data sogar wichtiger als eine Glücksspiel-Lizenz (Rijmenam o.J.). Hardy setzt nach diesem Ausflug in die Welt des Glücksspiels sein Psychologiestudium fort. Mit diesem Wissen lernt er, feinfühlig Beziehungen zu Menschen aufzubauen und ihnen einen Spiegel ihrer selbst vorzuhalten, um aus einer solchen Beziehung heraus Verhalten selbst verstehen und anderen verständlich machen zu können. Die klinische Psychologie hingegen,gewinnt er den Eindruck, sei nicht weit entfernt von Astrologie und Alchemie. Was ihn mehr und mehr interessiert, sind die Beziehungen der Menschen zueinander. Er fungiert als jemand, der Patienten einen Vorhang öffnet. Da draußen, sagt er ihnen, scheint die Sonne, und hier im Raum ist es dunkel. Lass uns den Vorhang aufziehen und die Welt so betrachten, wie sie wirklich ist. Er entscheidet sich schließlich gegen die klinische Psychologie und für die Sozialpsychologie. Das ist etwas völlig anderes als die Analyse von Gemütszuständen einzelner Menschen. Bei ihr geht es um das Verhalten von Gruppen. Dazu steigt Hardy tief in die Forschung ein. Deren Einsichten liefern ihm das Werkzeug, den Finanzcrash vom Oktober 1987 zu prognostizieren - natürlich in einer Art Intuition. Aber was ist Intuition anderes als der Effekt, der sich einstellt, wenn man zahllose äußere Signale verarbeitet? Es ist Massendatenverarbeitung im eigenen Kopf, die Fähigkeit, Signale zu bemerken, zu verknüpfen und aus ihnen richtige Schlüsse zu ziehen. Im Oktober 1987 sagt Hardy zwei Wochen vor dem ersten Börsenkrach nach dem Zweiten Weltkrieg diesen black monday- <?page no="76"?> 76 2 Big Data Daddy richtig voraus. Der Aktienindex Dow Jones fällt an diesm einen Tag um mehr als 20 Prozent. Die Finanzwelt wankt. Er will das in der Tiefe verstehen, will mehr als nur statistisch ermitteln, wie Menschen Signale registrieren, kombinieren, bewerten und nutzen. Noch undeutlich sieht er, dass es da um enorm viele Signale geht und um noch mehr abzuleitende Qualitäten. Er beginnt zu erahnen, dass fundamentale Werkzeuge fehlen, um die Wirklichkeit richtig zu begreifen. Die Realität, sagt er sich, ist eine Schnittmenge des eigenen Vorstellungs- und Denkvermögens mit der physischen Welt. Man meint oft, schließt er daraus, die physische Welt bestehe ohnehin, unabhängig von uns. Das mag sein. Aber tatsächlich wissen wir von ihr nur, was unser Gehirn uns über sie mitteilt. Ist die Realität also das, was wir betrachten? Nein, sagt Hardy, für uns ist sie das, was unser Gehirn uns über sie abbildet. Und weil jedermanns Wahrnehmungs- und Vorstellungsvermögen unterschiedlich ausgebildet ist, ergeben sich für jeden Betrachter unterschiedliche Bilder der äußeren Welt. In jeder dieser Vorstellungswelten entsteht also von ihr ein spezifisches Bild. Die physische Welt ist für alle diese Bilder der Rahmen. Dass die Bilder in diesem Rahmen unterschiedlich aussehen können, ja müssen, ist offensichtlich. „Fragen Sie mal einen jüdischen Siedler im Palästinensergebiet, wie er die Welt sieht,“ erläutert Hardy seine Gedanken, „und dann einen Palästinenser, dessen Frau dringend zum Arzt muss, aber an einem jüdischen Checkpoint Stunden lang festgehalten wird und deshalb dort stirbt, bevor sie eine Klinik erreicht - fragen Sie diese beiden einmal, wie sie dieWelt sehen. Sie betrachten denselben Rahmen, aber sehen komplett gegensätzliche Bilder.“ Hardy macht eine Pause und sinnt einen Moment dem nach, was er da gerade gesagt hat. Jeder, der ihm zuhört, hat solche Bilder im Kopf, weiß er, und deshalb setzt er hinzu: „Und weil das so ist und weil wir die Welt trotzdem möglichst richtig verstehen wollen, werden die Informationstechnologien und ihre Möglichkeiten zur gleichzeitigen Verarbeitung unterschiedlicher Signale immer wichtiger.“ Sein Gegenüber schaut fragend. Er daraufhin: „Wenn sie einmal einen alten Film sehen und darin Finanzgeschäfte dargestellt sind, was sehen Sie dann? Riesige Tische mit Bergen an Telefonen darauf und drum herum Menschen, die über mindestens zwei Leitungen gleichzeitig telefonieren: Hallo Hongkong, was kostet Gold im Moment? Hallo New York, was kostet Gold derzeit bei euch? Hallo Honkong, wenn Sie zehn Cent nachlassen können, kommen wir ins Geschäft… Diese Telefonate rund um den Globus kosteten ein Vermögen, aber wer da an der Strippe hing, hatte die Welt auf Tastendruck zur Verfügung. Da waren clevere Kerle am Werk. Aber ausgerüstet waren sie nur mit einer dummen Telefonleitung.“ „Als in den 1980er Jahren der PC auf den Markt kam“, sagt Hardy weiter, „hörte das ziemlich plötzlich auf. Auf einmal konnte man einen Apparat vor sich hin stellen, der die unterschiedlichen Preise gleichzeitig sichtbar macht. Das war die Zeit, in der zum Beispiel die Nachrichtenagentur Reuters begann, sich außer um Politik auch um Währungen zu kümmern und mit ihnen zu handeln. Die zuvor unglaublichen Kosten für die Kommunikation fielen in sich zusammen. Die Daten standen in Echtzeit bereit, verzögerungsfrei. Es begann aber auch die Zeit, in der der Bankensektor lernte, mit diesen Daten zu spekulieren. Das war die Geburt der futures, der options und solcher Instrumente. Und wieder kam die Informationstechnologie entscheidend mit ins Spiel. In den 1990er Jahren wurde dieses Geschäft schnell sehr komplex, etwa durch Derivate und swaps und all diese für Laien schwer verständlichen Finanzkonstrukte. Schließlich liberalisierte der damalige US-Präsident Bill Clinton auf Druck des Finanzhauses Goldman Sachs die Finanzaufsicht. Das löste die Lawine aus, die dann in die Finanzkrise der 2000er Jahre mündete.“ Hardy war kein Mitspieler in diesem System. Er beobachtete es aber von außen. Angesprochen hierauf, muss er lächeln: „Ein einziges Mal habe ich mich damals an Finanzge- <?page no="77"?> 2.2 Hardy, der Universalist 77 schäften beteiligt, aber nur indirekt. Ich nahm kein Geld in die Hand, sondern gab jemandem Hinweise über eine von mir vermutete Richtung. Diese Vermutung war richtig. Das Geschäft, das daraus folgte, hat sich gelohnt - für ihn, nicht für mich. Aber eigentlich doch auch für mich: Ich begriff nämlich, dass diese Zusammenhänge wirklich interessant sind. Dass da Geld zu verdienen war, war mir gar nicht so wichtig. Was mich umtrieb, war die Chance zu verstehen, wie menschliches Verhalten von Grund auf entsteht. Dafür ist nichts grundlegender als menschliche Gier. Kann jemand mit einem Effekt von zehn zu eins einen Hebel betätigen, mit einem Effekt von zwanzig zu eins, von fünfzig zu eins, ja hundert zu eins und wird er dabei mit einem unglaublich kleinen Einsatz ganz außerordentlich reich, dann löst das zweifellos ganz extreme Gier aus. Genau da wollte ich ansetzen: herausfinden, wie das menschliche Denken und Fühlen mit der physischen Welt interagiert und wie alle diese äußeren Signale auf innere Bilder wirken. Ich fand dafür keine fertigen Werkzeuge. Also musste ich auf einem Stück Papier oder auf einem Computerbildschirm eine Methode niederschreiben, wie sich mentale und physische Realität gegenseitig bedingen.“ Das Quantum Relations Principle Hardy ist aber weder IT-Spezialist noch Mathematiker, nichts von alledem. Er muss sich alles aneignen. YouTube mit heute 800 Millionen Nutzern pro Monat (Mainzer 2017: 144), unter ihnen zahllose Studenten, die Vorlesungen von Professoren auf Video hören, ist noch gar nicht erfunden. Wer einem anderen zuhören will, muss ihn noch persönlich erleben. Hardy bucht Kurse, etwa an der Universität von Los Angeles bei einem IT-Professor, taucht tief in die Philosophie ein, besucht Vorlesungen, ohne dafür offiziell angemeldet zu sein, geht mit seinem Studentenausweis einfach hinein und findet Philosophie sehr aufregend. Er hört einen Professor, einen Inder oder einen Pakistani, der Wissenschaftsphilosophie unterrichtet. Hardy ist fasziniert; er findet das absolut spannend. „Seither habe ich mir zwei Fragen gestellt, erstens: Was ist eine Sache und wie stellt man sie fest? Und zweitens: Wie löst man Probleme? Dabei können total-out-of-the-box-Lösungen herauskommen, völlig unerwartete also. Immer geht es darum zu erkennen und zu verstehen, wie Dinge zusammenwirken, die Menschen unterschiedlich betrachten, die aber gleichzeitig geschehen, und zwar mit anderem vernetzt.“ In Newport Beach denkt er darüber nach, was das alles bedeutet und wie man das Gehörte so übersetzen kann, dass es umsetzbar wird. Philosophie ist für ihn dann sehr viel wert, wenn man sie anwenden kann. Was ihn interessiert, ist eine hands on-Möglichkeit für ein zunächst abstraktes Gedankengefüge, ist die Chance, das eigene Gehirn daran zu schärfen. Er versenkt sich in Schopenhauer, in Nietzsche, in Kant - mit der immer gleichen Frage, dem einen Ziel: Er will die Logik dieser Gedanken verstehen und einige dieser Kristalle anwendbar machen, sie in seinen Werkzeugkoffer stecken können. Hardys Vision zu diesem Zeitpunkt ist es, Philosophie, Mathematik und Physik so zu nutzen, dass sich deren Erkenntnisse in einer universellen Software zusammenfügen und wie ein Werkzeugkoffer benutzen lassen. Er nennt dies Quantum Relations, einen Werkzeugkasten für logisches Denken, ein Instrumentarium, um gedanklich Probleme zu lösen. Es heißt quantum, weil sich Sachverhalte mit Hilfe digitaler Techniken in kleinste Bausteine zerlegen lassen, in Quanten, und relations, weil es die Beziehungen solcher Quanten zueinander sind, die einen Sachverhalt einzigartig machen. Das hat zunächst mit IT, mit Informationstechnologie, gar nichts zu tun. Aber Hardy wird zunehmend klar, dass er IT brauchen wird, um verstehen, kommunizieren und interagieren zu können. Er muss IT ausreichend erlernen, um begreifen zu können, wie man solche Werkzeuge baut, wie solche elektronischen Architekturen aufgebaut sind und wie sie sich aufbauen lassen. Zu programmieren braucht er sie nicht. Dafür sind ziemlich leicht <?page no="78"?> 78 2 Big Data Daddy externe Experten zu finden. Aber er muss Leute ausfindig machen, die ihm helfen, diese Werkzeuge zu finden oder zu bauen und ihre Vorzüge richtig einzusetzen. Und dazu braucht er etwas anderes als herkömmliche Computersprachen wie Java oder dergleichen. Jahre früher war Hardy mit einem Nachrichtenhändler bekannt geworden, der über seinen Computerterminal periodisch neue Nachrichten und außerdem auch Finanzdaten verbreitete. Seine Kunden stellten in ihren Büros dazu Terminals auf, die data buffer genannt wurden, wörtlich übersetzt Datenpuffer; denn immer wenn neue Nachrichten hinzu kamen, fielen ältere dafür heraus. Und auch daran erinnert er sich: Ein Freund, der ihn Jahre zuvor auf die Sozialpsychologie aufmerksam gemacht hatte, legte ihm einmal einen Stapel Zeitungen aus den Jahren 1904 bis 1972 auf den Tisch und sagte dazu: „Ich habe diese Blätter gelesen und fand dabei etwas Bemerkenswertes über Sprache heraus. Schauen Sie sich dieses Material genau an. Was Sie über menschliches Verhalten und über Verhaltensmuster wissen müssen, werden Sie darin entdecken. Ich verreise jetzt. Wenn ich zurück bin, sollten wir uns treffen und darüber reden.“ „Der Mann reiste nach England“, berichtete Hardy später, „und ließ mich mit seinem Zeitungsstapel allein. Ich kämpfte mich durch jede einzelne Zeile; wollte wissen, was der Mann mir hatte sagen wollen. Was hatte er in den Zeitungsseiten gesehen, aber ich erst einmal nicht? Warum hatte er bis 1904 zurückgehen müssen? Warum hatte er aus jedem Zeitungsjahrgang immer nur wenige Tage ausgewählt; warum gerade diese Tage und nicht andere? “ In allen diesen Blättern war von Ereignissen die Rede, die einer Vielzahl von Menschen viel bedeutet hatten. Dazu gehörte der Tag des Kriegsausbruchs 1914. Da war von britischen Bürgern die Rede, die damals in ihre Kirchen geströmt waren, um Gott für die Chance dieses, wie sie sagten, großen Krieges zu danken. Alles war durchtränkt von Gefühlen. Andere Berichte handelten von der Weltwirtschaftskrise des Jahres 1929 und von den Katastrophenstimmungen, die damals die Menschen erfassten. Hardy hatte nichts von alldem zuvor gelesen. Aber er fand, es stecke etwas in diesen Berichten, das er unbedingt verstehen musste. Er erinnerte sich an den Typen mit dem data buffer. Alle Informationen, die der in seinem System gespeichert hatte, wurden da nacheinander abgespult, von oben nach unten. Manchmal stoppte das Menü für einen Moment, und dann rauschten wieder Zeilen mit großem Tempo über den Bildschirm. „Bei diesem Tempo kann ich das unmöglich lesen“, sagte sich Hardy, „ich muss einzelne Nachrichten speichern.“ Er bat einen seiner Studienkollegen aus einer Computer-Ecke um Hilfe: „Können Sie mir ein Programm schreiben, mit dem ich Teile aus dem buffer auf einer Festplatte abspeichern und später ansehen kann? “ „Kein Problem“, sagte der. „Gehen Sie unbesorgt nach Hause, ich schreibe es Ihnen derweil.“ So geschah es. Nun konnte Hardy auch in der im buffer aufgezeichneten Historie vor und zurück blättern. Er stieß auf zeitliche Abläufe, die sich zum Verständnis dessen, was geschehen war, als entscheidend wichtig erwiesen. Was war binnen einer Stunde passiert, und wie lange dauerte es bis zu Reaktionen? Hardy erkannte, dass Dinge vormittags in einem anderen Tempo passiert waren als nachmittags, dass es rush hours auch in den Nachrichten gab, einmal mit dichtem Inhalt, einmal mit dünnem. Er erzählte davon einem Freund, der Statistik studierte. Der nickte, als kenne er so etwas schon. Er sagte: Achte auf dieses und jenes. Er half ihm, hinter den Berichten Ablaufstrukturen zu finden. Um sie deuten zu können, musste Hardy noch mehr hinzulernen. In der Stanford University schlich er sich in Vorlesungen und Seminare hinein, wieder ohne angemeldet zu sein und auch ganz ohne Absicht, dort eine Prüfung zu machen oder einen akademischen Grad zu erwerben. Er wollte einfach nur sein Verständnismodell weiterentwickeln. Er verstand etwas von Psychologie und noch mehr von Sozialpsychologie. Und er wusste ungefähr, wie ein Computer funktioniert und wie man was aus ihm herausholen kann. Er konnte Fragen <?page no="79"?> 2.2 Hardy, der Universalist 79 der philosophischen Logik mit solchem Wissen verknüpfen. Auch lernte er biologische Fakten zu verstehen. Nicht, dass er sich zum Biologen ausbilden wollte - aber er lernte viel über das Verhalten biologischer Systeme. Und ziemlich schnell begriff er, was das mit menschlichem Verhalten zu tun hat: „Nehmen Sie einen Hefeteig und lassen Sie ihn aufgehen. Er wird, so lange er kann, über jede Schüssel hinaus quellen. Gierige Menschen tun genau das. Man kann geradezu Kurven von Tempoverläufen zeichnen, in denen so etwas passiert. Kurven menschlichen Verhaltens sehen ganz ähnlich aus.“ Hardys Wissensdurst ist unbegrenzt. Es stört ihn nicht, von einem Wissensfeld in ein benachbartes und weiter ins übernächste zu springen. Es hilft ihm, seinen Horizont stetig zu weiten. Immer schlüssiger wird dabei sein Blick auf die Menschen und desto leichter fällt es ihm, menschliches Verhalten zu verstehen und zu prognostizieren. In der Nacht macht es manchmal Klick in seinem Gehirn, und da ist sie, eine Selbstverständlichkeit, abgeleitet aus diesem querschnittlichen Denken. Nichts steht still Hardy lebt in seinem Apartment inmitten einer enormen Bibliothek von vielleicht achttausend Büchern aller möglichen Fachrichtungen und vergräbt sich hinein. Er hält es aus, viele Nächte nur drei Stunden zu schlafen, lebt Tag und Nacht in und mit diesen Büchern, reißt Seiten heraus, pinnt sie vor sich an die Wand und ist so in der Entschlüsselung von Realitäten gefangen, dass er für anderes keine Minute mehr erübrigt. Immer stärker durchwebt diese Suche für ihn die Vorstellung von Datenreihen und Zeitstrahlen, von immerwährender Veränderung. Nichts steht still. Nichts bleibt, wie es ist. Alles wirkt nicht nur auf sich selbst, sondern auch auf seine Umgebung. Alle statischen Berichte und Protokolle, jede Art linearer Schlussfolgerungen aus solchen grundsätzlich dynamischen Zuständen verfälschen sie automatisch. Denn immer frieren sie Bewegungen ein. Die meisten dieser Berichte sind ohnehin unbrauchbar, weil sie Ereignisse oder Aussagen über Ereignisse kombinieren, die einmal fünf Jahre zurückliegen, einmal drei Jahre, ein anderes Mal nur wenige Augenblicke. Eine solche zeitlose Realität, wird Hardy klar, hat es aber niemals gegeben. Wer so tut, als sei es doch so gewesen, der versucht zeitlich unvergleichbare Ereignisse miteinander zu verbinden, übersieht also ihren dynamischen Charakter, aber bemerkt das oft nicht einmal. Vielfältige Begründungszusammenhänge, schließt er daraus, haben immer zwei Richtungen; sie setzen eine wechselseitige Abhängigkeit von Ursache und Wirkung voraus. Das führt dazu, die Realität als ein Netz dynamischer Beziehungen zu verstehen, in dem Substanzen und Identitäten sich stetig wechselseitig verstärken und Subjekt und Objekt sich im steten Fluss von Ereignissen und Versuchen auflösen. Wie wir die Realität aufzeichnen, schlussfolgert Hardy, ist deshalb weithin Betrug, nämlich Selbstbetrug. Wenn etwas wichtig genug ist, um es aufzuschreiben, dann ist es auch wichtig genug, das jede Minute oder jede Stunde zu tun, jedenfalls in Bezug auf die Zeit, in der es geschieht oder geschah. Wer die Realität verstehen will, muss zeitbezogene Parameter mit einbeziehen. Er muss die zeitlichen Verlaufskurven erkennen und verstehen, in denen sich etwas ereignet, muss die eigene oder fremde Wahrnehmung in diesen Zeitbezug einordnen können. Das ist, was ihm allmählich klar wird. Wer für eine Frage eine Lösung anbieten will, muss die Megatrends im Hinterkopf haben und berücksichtigen, die sich über längere Zeitabläufe entwickeln. Lösungen, die wir heute finden, werden erst morgen wirksam. Dazu muss man sie sichtbar machen. Nur dann kann man sich vorstellen, welche Realität morgen sein wird. Wer ein Modell aus der Realität ableiten will, die er vorfindet, bleibt im Heute befangen; davon ist Hardy nun überzeugt. Auch <?page no="80"?> 80 2 Big Data Daddy Hochrechnungen jetziger Zustände reichen nicht aus, um valide Prognosen wagen zu können. Sie bilden, was sie zeigen wollen, verkürzt ab. Alles hängt aber mit allem zusammen. Hierauf fußt Quantum Relations. Darüber hat Hardy schon in den 1980er Jahren einiges aufgeschrieben und sich zugleich mit IT befasst, vor allem zur Analyse der menschlichen Sprache. Sie - das empfindet er immer stärker - konditioniert den Sozialverband Menschheit ungeachtet aller babylonischen Sprachverwirrung so stark wie sonst nichts. „Vor 200.000 Jahren“, sagt er mit einer weiten Handbewegung, so als könne er diese Zeitspanne mit einem Arm halbwegs umfassen, „haben Menschen es fertiggebracht, mit ein paar fadenscheinigen Speeren Mammuts zu töten. An Größe und Kraft waren ihnen die Tiere vielfach überlegen. Der eine oder andere Jäger ist dabei um Leben gekommen. Die anderen konnten sich erfolgreich verständigen. Sie sprachen, riefen sich etwas zu, verstanden und koordinierten ihre Signale. Was sie oder was Attila und seine Hunnen seinerzeit verabredeten, ist nichts wesentlich anderes als das, was Finanzanalysten heute tun, wenn sie Gruppen von Finanzfachleuten synchronisieren. Heute messen wir allerdings, was und wie wir kommunizieren. Wir vermessen die Sprache und sprachliche Ausdrücke, auch und gerade, wenn wir in oder vor Gruppen reden, wenn wir zum Beispiel Ansprachen halten. Um drei Stellschrauben geht es dabei: um das Was, das Wie und um Sequenzen.“ Es ist Hardys Fahrwasser, in dem er nun segelt, und so setzt er voraus, dass der, der mitsegeln will, versteht, was mit dem Wort Sequenz ausgedrückt ist: eine Abfolge, notwendigerweise eine zeitliche, ein Nacheinander, und zugleich ein Zusammenhang, eine Beziehung. „In Gruppen“, sagt Hardy denn auch, „agieren Menschen ganz anders als wenn sie allein oder nur zu zweit sind. Stellen Sie jemandem in einer Gruppe zwanzig Fragen und dann einem Einzelnen nochmals dieselben - die Antworten werden sich unterscheiden. Denn sie werden immer aus einer zeitlichen Situation im Bezug auf die jeweilige Gruppe gegeben.“ Hardy, der Sozialpsychologe, lässt keinen Zweifel: „Alles was zur Beschreibung der Realität taugt, hat nur Gewicht, wenn es durch die Linse des menschlichen Verhaltens betrachtet wird. Alles dreht sich darum, wie sich Menschen verhalten, auf welchem Weg sie unterwegs sind. Allerorten und jederzeit geht es um Beziehungen, um relations. Und diese Beziehungen verändern sich ständig, sowohl was ihre Prioritäten wie was ihre Energien betrifft. Das lässt sich zu Modellen verdichten, in die die jeweiligen physischen und emotionalen Lebensbedingungen gesamthaft einfließen. Diese Modelle nenne ich Quantum Relations.“ Noch Fragen? Hardys Blick fixiert niemanden. Wie um zu bekräftigen, dass seine Analyse keine Frage aufwirft, setzt er hinzu: „Da sind wir, und damit gehen wir um.“ Hardy hat seine Quantum Relations-Theorie für den Umgang mit Big Data weitgehend in München entwickelt. 1999 meldet er sie trotzdem in den USA zum Patent an. Denn das Europäische Patentamt - Hardy sieht es von seinem Penthaus direkt an der Isar, am anderen Ufer, ihm genau gegenüber, täglich vor sich - erteilt Patente nur auf Produkte, nicht auf Methoden. In den USA ist das anders. 1999 lässt er das quantum relations-Prinzip dort mit Erfolg als seine geistige Schöpfung registrieren und kann diese danach unbesorgt vor Begehrlichkeiten von Wettbewerbern weiterentwickeln. Seine Ideen und ihre Anwendungsmöglichkeiten bekommen durch die Erfindung des kommerziellen Internets in den frühen 1990er Jahren wesentlichen Schwung. Hardy beginnt an einer technisch überzeugenden, die Maßastäbe der computergenerierten Analyse von Sachverhalten und daraus abzuleitender Empfehlungen auf ein neues Nivau stellenden und wirtschaftlich tragfähigen Quantum Relations-Lösung zu arbeiten und erzeugt zum Beispiel mit seinem EU-Patent EP1126674B1 vom Dezember 1999 eine Reihe von Innovationen, die den Weg zum cloud computing eröffnen. <?page no="81"?> 2.2 Hardy, der Universalist 81 Das Prinzip Cloud Computing Hardy legt seinen Ideen für den Umgang mit solchen Informationen eine dezentrale, also auf viele Orte verteilte Speicher- und Verarbeitungsstruktur zugrunde - eine Struktur, die Fachleute Systemarchitektur nennen. Als Hardy diese Überlegungen anstellt, ist sie noch nicht einsetzbar, aber logisch schon abzuleiten. Heute gibt es sie; sie heißt cloud computing. 1998 ist das Internet davon noch sehr weit entfernt. Dieser weltweite Verbund von Rechnernetzwerken ist seinen Arpanet-Kinderschuhen erst seit wenigen Jahren entwachsen. Mit der Umstellung von Arpanet-Protokollen auf das internet protocol setzt sich der Name Internet ab Mitte der 1980er Jahre allmählich durch. Das 1984 entwickelte domain name system macht es möglich, Rechnern überall auf der Welt Namen, sogenannte Adressen, zu geben. 1989 hat Tim Berners-Lee am europäischen Kernforschungszentrum CERN die Grundlagen des world-wide web entwickelt. 1990 beschließt die US-amerikanische National Science Foundation, das Internet für kommerzielle Zwecke nutzbar zu machen. 1991 veröffentlicht Berners-Lee seine Entwicklung und macht sie unter dem Web-Kürzel www weltweit verfügbar. Rasanten Auftrieb erhält das Internet 1993, als der erste grafikfähige web browser zum kostenlosen download bereitsteht. Erst er verwandelt nackte Buchstaben und Zahlen in eine für jeden Internetnutzer optisch erfassbare, griffige Welt. Um Lösungen für morgen entwickeln zu können, müssen wir uns in dieses morgen versetzen. „Eine Technologie mag noch gar nicht erfunden sein - aber wenn es logisch ist anzunehmen, dass sie erfunden werden wird, dass es sie geben wird, wann auch immer, kann man mit ihr schon vorab rechnen“, sagt Hardy und erläutert: „1998 habe ich im ersten quantum relations-Entwurf als Datenquelle eine Technologie zugrunde gelegt, die heute jeder kennt: Smartphones. Es gab noch keine, aber es war logisch, dass sie kommen würden. Das erste Smartphone hat Apple-Chef Steve Jobs bekanntlich erst 2006 präsentiert, acht Jahre später.“ Es hat die Datenerzeugung und die Angebote an Diensten, die Apps genannt werden, seither „förmlich explodieren lassen“ (Bryner 2016). Ein Teil der Realität mag sich noch nicht materialisiert haben. Aber das heißt nicht, dass er nicht als Idee existiere - davon geht Hardy fest aus. Diese Realität ist da, nur verschiebt sich ihre Fassbarkeit in der Raumzeit. Sicher kann er sich dessen nicht sein. Es handelt sich um Möglichkeiten. Sie sind mehr oder minder wahrscheinlich. Aber das, sagt Hardy, lässt sich ermitteln. Später, 2010, erinnert er sich, wie ihm das Phänomen Wahrscheinlichkeit einleuchtete: „Alles auf dem Gebiet der Künstlichen Intelligenz begann in den 1950er Jahren bei Forschern, die das menschliche Denken als ein Gebäude aus Regeln begriffen, die man programmieren kann. Also schufen sie Systeme nach dem logischen Schluss: Wenn man weiß, dass Vögel fliegen können und wenn ein Adler ein Vogel ist, kann man daraus ableiten, dass Adler fliegen können. Als wir herausfanden, dass das System keine Vögel feststellen konnte, die nicht fliegen konnten, mussten wir das explizit mit eingeben. Spätere Systeme überwanden diese strikte Abhängigkeit von einprogrammierten Regeln und orientierten sich stärker an Wahrscheinlichkeiten. Ein System, das noch nie einen flugunfähigen Vogel registriert hat, verringert zum Beispiel die Wahrscheinlichkeit, dass Vögel fliegen können, auf 99 Prozent. Lernt es dann mehr über Strauße und Pinguine und über Vögel in Käfigen oder mit gebrochenen Schwingen, verringert es diese Wahrscheinlichkeit kontinuierlich. Das System erlernt solche Anpassungen mit der Zeit von allein, nicht viel anders als Menschen so etwas lernen“ (Schloer 2010). Wie gehen wir Menschen mit Wahrscheinlichkeiten um? Normalerweise entscheiden und handeln wir auf der Basis unvollständigen, eben wahrscheinlichen Wissens, und verknüpfen es mit Gefühlen, Emotionen und Reaktionen auf unsere Umwelt, beispielsweise in einem Herdenverhalten. Der US-Nobelpreisträger Herbert A. Simonnennt das bounded rationality, beschränkte Rationalität (Simon 1957) und folgert daraus, dass man die Suche nach Alternativen einstellt, wenn man eine vorläufig befriedigende Lösung sieht, obwohl <?page no="82"?> 82 2 Big Data Daddy noch bessere Möglichkeiten verborgen sein könnten (Mainzer 2016: 25). So glaubten Europäer lange Zeit, Schwäne seien grundsätzlich weiß. Im 17. Jahrhundert wurden in Australien jedoch ganz unvermutet schwarze Schwäne entdeckt. Algorithmen können der Aussage „Schwan“ Orte zuordnen. Einen „Schwan auf einem europäischen Dorfteich“ werden sie mit hoher Wahrscheinlichkeit als weiß klassifizieren, einen „Schwan an einer australischen Flussbiegung“ jedoch als schwarz. Einen Schwan in einem amerikanischen Zoo? Hmmm… Viele Bestätigungen steigern nicht die Wahrscheinlichkeit einer allgemeinen, bislang ausnahmslosen Annahme (ibid.: 26). Hardy ist nicht in München, um Wahrscheinlichkeiten zu errechnen. Gerufen von Andersen besieht er sich vielmehr die Siemens-Malaise, versteht das Problem, und weil er es richtig versteht, kann er es auch lösen. Der Name Tosca verschwindet für zwei Jahrzehnte aus den Annalen und taucht erst wieder auf, als die Firma Patentpool, die seine Entwicklungsarbeiten vorfinanziert, gegen Microsoft vorgeht, weil der Software-Gigant sich nach Überzeugung der Münchner einer ihnen gehörenden patentierten Software bedient, ohne dafür zu bezahlen. Patentpool will Debatten darüber vermeiden. Also benutzt das Unternehmen einen Tarnnamen, unter dem dieser Fall eine Weile lang läuft. Er soll leicht merkbar sein, bei Unbeteiligten Vertrauen erwecken und ist mittlerweile wieder frei: Es ist der Name Tosca. Hardy hat sich, als der Fall Tosca 1 gelöst ist, die Hälfte des Andersen-Honorars geschnappt und ist drauf und dran, wieder nach Hause zu fliegen, nach Los Angeles. Das ist der Moment, in dem er Heiner begegnet. Viel versteht Heiner noch nicht an diesem Abend, der eigentlich der Musik gewidmet sein soll, aber doch genug, um in der Idee quantum relations, die Hardy ihm da locker umreißt, eine Chance zu wittern. Der Abend wird lang. Heiner diskutiert die Idee darauf mit seinen venture capital-Partnern, seinen Investoren. Die schauen ihn fragend an, verstehen von dieser abstrakten Theorie über den Umgang mit Daten noch weniger als er, fragen nach einem ausgefeilten Businessplan und dergleichen. Damit kann Heiner nicht dienen und Hardy ebenso wenig, denn dem geht das Projekt ohnehin Tag und Nacht im Kopf herum, und das muss, sagt er, einstweilen genügen. Wird es das? Heiner spricht wieder mit seinen Finanzpartnern, stößt auf höfliches Schweigen, wenn nicht auf ein mehr oder weniger klar ausgesprochenes Nein. „So könnt ihr mit uns nicht umgehen“, gibt Heiner zurück. „Uns“ sagt er schon; in Gedanken sind er und Hardy schon ein winning team, auch wenn noch gar nichts verabredet ist. „Wenn ihr uns kein Geld dafür gebt, dann besorgen wir uns das eben wo anders und entwickeln Patentpool und quantum relations ohne euch weiter.“ Das war’s. Fortan ist das Tischtuch zerschnitten. Aber Heiner ist schon zu routiniert, als dass er dabei den kürzeren Zipfel erwischte. Es dauert nicht lange, bis er einen Schwung reicher Leute zu einer Präsentation in das Münchner Nobelhotel Mandarin Oriental einlädt. Fünfzig, sechzig Personen finden sich zwischen den Marmorpaneelen eines der dortigen Konferenzräume ein. Viele kennen sich schon. „Wir luden Sie ein“, sagt Heiner zu ihnen, „sich unsere Botschaft einmal anzuhören und dann zu entscheiden, ob Sie mitmachen wollen." Relativ schnell hat er die nötigen Millionen beisammen, um starten zu können. „Wir hatten Zeit genug, um uns von den Venture-Kapitalisten zu trennen. Die waren nicht einmal sauer; sie hatten einfach andere Interessen, wollten Geld verdienen. nicht zunächst investieren. Um den Exit hinzubekommen, haben wir ihnen zwar 35 Prozent Rendite per annum bezahlen müssen. Aber danach sind sie gestrauchelt. Am Neuen Markt sind damals viele Beteiligungen geplatzt.“ An dieser Stelle hätte der gemeinsame Weg von Heiner und Hardy zuende sein können. Denn der Kollaps des Neuen Marktes hätte sie mit hinwegfegen können. Dass es dazu nicht kam, hat einen einfachen Grund: Ihre gemeinsame Basis, die Quantum Relations-Idee, ist keine dot.com-Blase, keine Sumpfblüte des Neuen Marktes, sondern ein zukunftsfähiges onzept für Analysen und Handlungsempfehlungen auf der Grundlage von Big Data-Verarbeitungen. <?page no="83"?> 33 VVoonn NNeew wtto onn üübbeerr EEiinnsst te eiinn zu RavenPack und zu Prisma. Wie tickt heute die Welt? Einstein zu verstehen war die Basis für quantim relations. RavenPack revolutionierte damit die Finanzwelt. Prisma ermöglicht nun blitzschnelle Entscheidungen mit höchster Treffsicherheit nicht nur auf der Basis von Zahlen, sondern auch der gesamten mentalen Welt. Das gab es noch nie. 3.1 Algorithmen - die Alleskönner 83 3.2 Wissendes Subjekt und gewusstes Objekt 89 3.3 Von Quanten zu Quantum Relations 92 3.4 Phil, die Multibegabung 98 3.5 Der Weg zu RavenPack 100 3.6 Die Schloer Consulting Grou p wird geschaffen 113 3.7 Die Prisma Analytics GmbH entsteht 116 3 3..11 AAl lggoorriitth hmme en n -- ddiiee AAl lllees skkö önnnneer r Wir lassen denken Hardys berufliche Welt kreist um eine Computeranwendung, der Außenstehende nahezu magische Kräfte andichten. Sie kommt in den verschiedensten Ausprägungen vor: klein und genial oder riesig und imposant. Manchmal kommt sie leise daher, „von einem auf den ersten Blick nicht sichtbaren Geistesblitz belebt“, manchmal aber auch „bahnbrechend, revolutionär anders gedacht, methodisch überwältigend anspruchsvoll, auf den Schultern vonGiganten“, dann wieder „schlicht, derart wohlgefügt, dass man sich nicht vorstellen kann, jemals wieder anders zu denken. Es gibt Schulen und Stile, Geschmack und Kriterien. Es gibt epochale Meisterwerke und brauchbare Produkte fleißigen Epigonentums. Sie alle werden von Menschen geschaffen - von Menschen, die Kreativität, Bildung und unzählige Nächte auf ihre Vervollkommnung verwenden.“ (Stiller 2015: 9). Die Rede ist von Algorithmen. Algorithmen machen das Leben im digitalen Zeitalter bequem. Mit ihrer Hilfe ist fast jede Frage nur einen Mausklick von einer Antwort entfernt (Stampfl 2013: 8). Sie berechnen die Wirklichkeit (Seyfert 2017). Stiller nennt sie „Kunstwerke der Faulheit, konsequent und kunstfertig reduziert, um perfekt zu sein“ (ibid.). Sie entlasten uns Menschen von Arbeit, vor allem von stumpfsinniger, immer wiederkehrender, von schierer Fleißarbeit also. So wie Maschinen im Zeitalter der Mechanisierung und Motorisierung uns von Muskelarbeit befreit haben, tun Algorithmen es auf dem Gebiet der geistigen Arbeit. Sie registrieren bei entsprechender Programmierung komplexeste Veränderungen unseres Umfelds verzögerungslos und erleichtern es uns, diese zu priorisieren, ohne stetig selbst hinschauen zu müssen. Sie erlauben uns damit, auch einmal faul zu sein. Sie stecken in Computern und sind dort längst fleißiger und schneller als der Mensch es je sein könnte. Algorithmen lösen mathematische Aufgaben. Für jede mathematisch definierte mögliche Eingabe ermitteln sie die korrekte Lösung in Lichtgeschwindigkeit. Sie verknüpfen Daten so zu Informationen, dass sie zur Entscheidungsfindung beitragen, und generieren damit Mehrwert. Bei fehlerhafter Programmierung, bei unvollständigen oder fehlerhaften Daten können sie allerdings auch fehlerhafte Ergebnisse liefern (Bitkom 2017b: 7). So erteilte die <?page no="84"?> 84 3 Von Newton über Einstein Deutsche Bank im Sommer 2010 versehentlich Verkaufsaufträge über 150 Milliarden Euro. Schuld gewesen, hieß es, sei ein ‚Software-Fehler‘. Die Order ließ den japanischen Leitindex einbrechen (Stampfl 2013: 9). An der New Yorker Börse verloren etwa zur gleichen Zeit aus einem vergleichbaren Grund wegen eines einzigen fehlerhaft ausgelösten Verkaufsauftrags Aktien 17 Prozent (ibid.) - Ausnahmenvon sonst gut funktionierenden Regeln. Algorithmen entscheiden nicht, sie berechnen. Entscheidungen sind und bleiben vorerst unsere Angelegenheit. Aber Algorithmen ermöglichen es uns, mit Daten Dinge zu tun, die wir früher nicht konnten: „Wir können intelligenter suchen, Epidemien vorhersagen, große Mengen von Twitter-Daten durchforsten, um Hinweise auf neue Entwicklungen oder Trends zu bekommen, Nachrichten an persönliche Interessen anpassen und vieles mehr“, sagt Natali Helberger, eine Professorin für Informationsrecht am gleichnamigen Institut der Universität Amsterdam und schlussfolgert: „Diese Entwicklungen schaffen Chancen für viele spannende neue Dienste und Anwendungen“ (Grötker 2016). Algorihmen funktionieren gut, ohne dass ihre Funktionsweise völlig durchsichtig wäre. Der amerikanische KI-Experte Pedro Domingos sagt noch viel drastischer: „Sie sind völlig undurchsichtig. Selbst wir Experten verstehen nicht, wie sie genau funktionieren. Wir sollten deshalb keine Regeln aufstellen, die nur vollständig erklärbare Algorithmen erlauben. Es ist schwierig, die Komplexität der Wirklichkeit zu erfassen und die Dinge dabei einfach zu halten“ (Domingos 2018: 108). Algorithmen arbeiten weitgehend automatisch.Deep packet inspection beispielsweise untersucht Datenpakete, die durch das Internet wandern, auf bestimmte Merkmale, die auf den Inhalt der Daten deuten können. Auf diese Weise können zum Beispiel Viren oder Spam bereits im Netz erkannt werden. Der Internetverkehr wird durchleuchtet oder gesteuert, damit alle Daten besser und schneller ans Ziel gelangen. Menschen schauen allenfalls auf Statistiken um zu kontrollieren, wie erfolgreich ein Algorithmus im Großen und Ganzen gearbeitet hat (Grötker 2016a). Die Sprecherin der Fachgruppe Internet und Gesellschaft der Deutschen Gesellschaft für Informatik, Agata Królikowski, ergänzt: „Mustererkennung, Analyse von verborgenen Regelmäßigkeiten: das alles wird mit Big Data gemacht. Aber wir sind eigentlich immer noch dabei, mit Algorithmen zu experimentieren, die aus Big Data Smart Data machen können, um Geräte so miteinander kommunizieren zu lassen, dass sie den Alltag des Menschen wirklich verbessern. Hier sind vor allem Algorithmen des maschinellen Lernens im Einsatz. Ein zentrales Beispiel ist die Spracherkennung“ (ibid.). Sie steckt bereits in Mobiltelefonen. Algorithmen zwingen uns auch, darüber nachzudenken, in welcher Gesellschaft wir morgen leben wollen: „Wie weit wollen wir zulassen“, fragt Helberger weiter, „dass Algorithmen Entscheidungen treffen, die wichtig für unser Leben sein können“, etwa über unsere Kreditwürdigkeit, zu medizinischen Diagnosen, zur Entscheidung, auf welche Schulen unsere Kinder gehen sollen, die Risikoprofile dazu zu entwickeln, wer morgen mit einiger Wahrscheinlichkeit einen Betrug oder ein Verbrechen begeht? Wie viel sollen der Staat, die Polizei, die Medien und Werbeunternehmen über uns wissen? “ Muss alles gewusst werden, weil es nützlich sein kann, oder müssen wir neue Grenzen setzen? (ibid.). Wieder gilt: Es gibt keine einfache Antwort. Dazu sind die Aufgaben von Algorithmen zu unterschiedlich: Die Profilierung von Bürgern, die Fernsehen schauen oder die Zeitung lesen, erfordert andere rechtspolitische Wertungen als die von Besuchern eines Online- Versands. Algorithmen, die Kreditwürdigkeit feststellen, sind nach anderen Grundsätzen zu beurteilen als die, die prognostizieren, ob eine Maschine in der Fabrik vor einem technischen Problem steht und eine Reparatur nötig hat (ibid.). Helberger plädiert für „sektorspezifische Diskussionen“. Trotzdem stellen sich übergreifende Fragen nach den Voraussetzungen für Transparenz und Nachvollziehbarkeit des Umgangs mit Daten. <?page no="85"?> 3.1 Algorithmen - die Alleskönner 85 Algorithmen beschleunigen nicht nur Rechenvorgänge, sondern strukturieren zunehmend auch unser Denken. Schirrmacher hat das vor einigen Jahren gesehen, als er sich mit Forschungsergebnissen des Stanford-Forschers Clifford Nass beschäftigte (vgl. Ophir et al. 2009). „Das Denken wandert nach außen“ (Schirrmacher 2011: 73). Diese Erkenntnis beunruhigte ihn. Denn ein Algorithmus erledigt Aufgaben, die einen klaren Anfang und ein definiertes Ende haben, mit „uhrwerkhafter Präzision“ (Drösser 2016: 25). Jeder Arbeitsschritt ist dazu als Befehl eindeutig definiert, und meist folgt ein Befehl auf den anderen, außer wenn das Aufgabenschema parallele Wege ermöglicht (ibid.: 22). Unpräzise und ungeplante Schritte schließt ein solches Verfahren folglich aus - gerade solche also, die wir kreativ nennen. Dem widerspricht nur auf den ersten Blick eine Software, die Musik so wiedergibt, wie ein Pianist sie interpretiert, also gerade nicht so exakt wie eine Maschine. Wissenschaftler der Universität Wien haben dazu die interpretatorischen ‚Fingerabdrücke‘ berühmter Pianisten analysiert und gespeichert (ibid.: 27). Seither lässt sich jedes Klavierstück mit einem ‚menschlichen Faktor‘ in technischer Wiedergabe so variieren, als spiele es Maestro A, B oder C. Aber auch das ist nur Steuertechnik, keine kreative Gestaltung. „Algorithmisch zu denken“, sagt Stiller, heiße „darüber nachzudenken, wie man denkt. Ein Algorithmus ist ein Teil unseres Denkens, den wir so gut verstanden haben, dass wir ihn getrost auslagern können. Wir lassen denken. Dafür sind Computer gut“ (ibid.). Die Herrschaft der Algorithmen baue auf die Berechenbarkeit des Menschen und der Gesellschaft, folgert Stampfl (2013: 58). Algorithmen arbeiten mit dem, „was sie aus unserem gestrigen Verhalten oder dem eines Durchschnittsnutzers extrahieren können. Der erratische, sich weiterentwickelnde Mensch finde„in dieser Logik keinen Platz“ (ibid.). Denn Algorithmen begreifen die Welt nicht, sie berechnen sie bloß, allerdings mit erstaunlichen Folgen, wie wir im Abschnitt Künstliche Intelligenz gesehen haben. In einem solchen System muss der Mensch mit seiner Sprunghaftigkeit, seinem Abwechslungsreichtum, seiner Fehlerhaftigkeit, kurz: seinerUnberechenbarkeit immer zum Störfaktor werden (ibid.: 13). „Das Menschliche, Kultur, Moral und Individuum“, heißt es an gleicher Stelle, finde in der Megamaschine keinen Platz, weil es deren definitionsgemäßer Voraussetzung nicht genügt: „Menschen sind nicht quantifizierbar“. Das ist, wie eine genauere Betrachtung zeigt, aber nur halb richtig. Für den einzelnen Menschen ist sie korrekt; bei Menschen im Plural greifen aber stets Wahrscheinlichkeiten. Die lassen sich durchaus berechnen, und genau das geschieht auch. Wegen der kalten Präzision und der atemberaubenden Geschwindigkeit, mir der Algorithmen arbeiten, gelten sie manchen Menschen als gefährlich. Noch einmal Stiller: „Man nennt sie in einem Atemzug mit Gleichmacherei, Großkonzernen, Bespitzelung und Bedrohung. Erschreckender als die Vorwürfe der einen ist nur das Lob der anderen, als sei Algorithmik eine Alchimie unserer Zeit, die Wissen aus dem Nichts erschafft“ (Stiller 2015: 9). Was sind also Algorithmen tatsächlich? Es sind wie gesagt Programme, die mathematische Aufgaben lösen. Man kann sie aber - was oft auch geschieht - mit Aktuatoren verknüpfen, also mit Geräten, die digitale Entscheidungen in die physische Welt übertragen und je nach Algorithmussignalen Handeln auslösen, zum Beispiel in der Kfz-Branche beim Lenken, Beschleunigen oder Bremsen von Automobilen ohne menschlichen Fahrer je nach dem, was Sensoren über dessen Umfeld errechnen. Handelt dann ein Algorithmus? Genau betrachtet nein; gehandelt haben dessen Programmierer. Sie haben ihre Ideen, Erfahrungen und Wertvorstellungen in die Lösung eines Problems einprogrammiert und entschieden: Im Fall A soll Technik B nach Vorschrift C agieren. B kann durchaus eine Maschine sein; auch die Prämisse A hat ja eine Maschine ermittelt. Diese Handlungsanweisung kann millionenfach ausgeführt werden, in Millionen von Automobilen, um beim Beispiel zu bleiben, ohne dass jemand während der Fahrt auf- <?page no="86"?> 86 3 Von Newton über Einstein merksam sein und blitzartig Entscheidungen treffen muss, die trotz vielleicht stressiger Umstände nicht fehlerhaft ausfallen dürfen. Es sind „eingefrorene Handlungsanweisungen“, wie das eine Professorin für komplexe Netzwerke treffend genannt hat (Zweig 2016). Nicht selten verkürzt das aber die Relität.„Wir Informatiker“, erläutert die Sprecherin Internet und Gesellschaft der Deutschen Gesellschaft für Informatik Agata Królikowski, „modellieren die Realität, um sie im Computer abzubilden. Wir können nicht alle Parameter in den Computer packen - das wäre zu rechenintensiv. Deshalb müssen wir vereinfachte Annahmen treffen. Bei klassischen Algorithmen hat der Entwickler die Eckpunkte in der Hand: „die Daten, Testfälle und die Umgebung“ (Grötker 2016a). Wie sich eine neue Software in der Realität tatsächlich verhält, muss man testen. Verifikation nennt man das. Wenn Maschinen mit Menschen zusammenarbeiten und sie gefährden, geht es auch um Fragen von Haftung und Haftungsausschluss. Bei Algorithmen für maschinelles Lernen ist das ziemlich schwierig. Weder können wir die Umgebung vollständig abschätzen, in der ein Algorithmus eingesetzt wird, noch die Daten, mit denen er trainiert wird. Der Entwickler muss mit Wahrscheinlichkeiten rechnen. „In einem gewissen Grad ist das eine black box“ (ibid.). Dabei geht es auch um die Rolle der Analysten: „Welche Suchresultate sehen Menschen? Unterscheiden diese sich, und wenn ja, nach welchen Kriterien? Sind das persönliche Kriterien? “ Algorithmen zu kontrollieren und zwischen akzeptablen und inakzeptablen Arbeitsweisen zu unterscheiden, kann nach Helbergers Überzeugung nicht allein eine Aufgabe der Nutzer sein. Dazu sind die technischen und organisatorischen Prozesse zu kompliziert (Grötker 2016). Nötig sind deshalb gesetzliche Kontrollaufgaben für „Datenschutzbehörden, Medien- und Wettbewerbshüter und Verbraucherschutz-Institutionen“ (ibid.). Gesetze, ergänztO’Reilly (2013) dazu, „sollten Ziele bestimmen, Rechte, Ergebnisse, Verantwortliche und Grenzen. Was ist ihnen gemeinsam? 1. Ein tiefes Verständnis für die Notwendigkeit eines konkreten Ergebnisses, 2. Regeln, nach denen feststellbar ist, ob diese Ergebnisse erreicht werden, 3. Algorithmen, die neue Daten bewerten und 4. periodische tiefergehende Analysen darüber, ob diese Algorithmen korrekt sind und nach den Vorgaben arbeiten.“ Hinzu kommen noch neue Herausforderungen durch Künstliche Intelligenz. Sie verlangen nach Initiativen der Gesellschaft und des Gesetzgebers gleichermaßen. Top-down und bottom-up Das ist die eine Seite der Algorithmen-Entwicklung. Sie folgt dem top down-Prinzip: „Oben“ wird eine Frage gestellt, ein Problem definiert, ein Lösungsweg ausgewählt und für ihn eine technische Konfiguration zusammengestellt. Dann lässt man diese tun, wozu sie programmiert wird, etwa den Verkehrsfluss rund um ein Automobil, wenn nötig auch Wetterdaten und Staumeldungen ständig abzuscannen - insgesamt kontinuierlich Berge an Daten - und fortlaufend mit dem Fahrzustand so zu vergleichen, dass das eine sichere Fortbewegung relativ zur Fahrzeugumgebung gewährleistet. Top down wird auch verfahren, wenn man ein Medikament entwickelt, genau weiß, was es bewirken soll, und dann so lange Rezepturen erprobt, bis die richtige Zusammensetzung und Dosierung gefunden ist. Das andere Entwicklungsprinzip funktioniert bottom up: In meist großen und in der Regel unstrukturierten Datenbergen, in sprichwörtlichen Heuhaufen, sucht man nach Mustern, gewissermaßen nach den in den Haufen verborgenen Nadeln. Fachleute nennen das data mining. So stellte die US-Handelsfirma Target schon vor vielen Jahren fest, dass Schwangere oft Produkte kauften, die für andere Käufer uninteressant waren. Prompt ließ sich diese Ursache-Wirkung-Kette mit ziemlich hoher Treffergenauigkeit umdrehen: Wer diese Produkte kauft, ist mit großer Wahrscheinlichkeit 20 bis 40 Jahre alt, mit noch größerer weib- <?page no="87"?> 3.1 Algorithmen - die Alleskönner 87 lich und mit allergrößter Wahrscheinlichkeit schwanger. Ein zunächst ganz anonymer Kauf lässt so individuelle Rückschlüsse zu. Allerdings: Wer Produkte für Schwangere kauft, muss nicht selbst schwanger sein. Vielleicht hat ja der Ehemann, die Mutter oder eine Freundin diesen Einkauf erledigt. Das ist zwar nicht sehr wahrscheinlich, aber doch möglich. Aussagen aus Big Data sind deshalb immer Angaben über die Wahrscheinlichkeit, dass etwas so ist, wie es dargestellt oder erwartet wird. Rückschlüsse dieser Art erlaubt auch die Bilderkennung. Googles Fotoverwaltung Picasa, Apples iPhoto und viele andere Anwendungen verfügen über integrierte Gesichtserkennungen, die beliebig viele Personen auf einer großen Anzahl von Fotos automatisiert identifizieren und sortieren (Morgenroth 2014: 215). Vergleichbar arbeiten inzwischen sehr viel stärker verfeinerte Instrumente zum Beispiel bei Facebook: Aus nur wenigen likes, also Angaben, dass Facebook-Nutzern etwas, das sie gelesen oder gesehen haben, gefällt, ziehen sie sehr kennzeichnende Rückschlüsse auf den Charakter der Person, der da etwas gefällt. Denn die eingesetzten Algorithmen isolieren aus den likes die sogenannten big five-Charakterzüge Offenheit (Wie aufgeschlossen sind Sie gegenüber Neuem? ), Gewissenhaftigkeit (Wie perfektionistisch sind Sie? ), Extraversion (Wie gesellig sind Sie? ), Verträglichkeit (Wie rücksichtsvoll und kooperativ sind Sie? ) und Neurotizismus (Sind Sie leicht verletzlich? ). Anhand dieser Dimensionen kann man relativ genau sagen, mit was für einem Menschen man es zu tun hat, welche Bedürfnisse und Ängste er hat und wie er sich tendenziell verhalten wird (Krogerus 2016). Diese Tendenz zum immer stärker gläsernen Menschen wird uns später noch genauer beschäftigen. Seit Algorithmen so programmiert werden können, dass sie sich ihre Arbeitsergebnisse merken, Fehlschlüsse erkennen und künftig ausschließen können, sinkt die Wahrscheinlichkeit von Fehlschlüssen kontinuierlich und wird die jeweilige Prognose deshalb immer genauer. Algorithmen haben ein Potential, das auf den ersten Blick magisch erscheint. „Lernende Algorithmen“ sind Beispiele für Künstliche Intelligenz. Diese Bezeichnung führt jedoch in die Irre. Der Algorithmus selbst verändert sich nämlich nicht. Er entwickelt anhand der verarbeiteten Daten „nur“ eine sich immer stärker verfeinernde Entscheidungsstruktur. Wie Algorithmen erkennen: falsch positiv, falsch negativ Noch einmal zurück zu den sehr irdischen Bedingungen für diese phantastisch tüchtige Welt der Algorithmen: Algorithmen sind Instrumente zur Vermessung der Welt und zur Steuerung von Abläufen aufgrund gemessener, gespeicherter und verarbeiteter Daten. Sie ermöglichen rechnerbasierte Modelle der heutigen Welt. Weil diese elektronischen Helfer mathematisch arbeiten, benötigen sie wie gesagt eindeutige, exakte Eingaben; sonst können sie nichts leisten. Ein Navigationssystem funktioniert nur, wenn völlig klar ist, nach welchen Prioritäten es Routen auswählen soll: nach der kürzesten Stecke oder der schnellsten? der schönsten (aber was heißt das, mathematisch betrachtet)? der am ehesten staufreien (das lässt sich berechnen, aber nur für eine bestimmte Sekunde), der mautfreien? Solche Festlegungen werden Modellierungen genannt. Sie werden von Menschen gemacht, und die machen schon einmal Fehler. Selbst wenn ein Algorithmus dann richtig rechnet, muss das Ergebnis deshalb nicht automatisch richtig und sinnfällig sein, wenn der Programmierer zuvor etwas falsch gemacht hat. Auch die Analysetechnik selbst kann Fehler machen, etwa wenn sie etwas Rundes „falsch positiv“ als Teller erkennt, obwohl es sich gar nicht um Geschirr handelt. „Falsch negativ“ würde sie handeln, wenn sie tatsächlich existierende Teller nicht als solche erkennt. Meistens steigt die Anzahl der falsch positiven Entscheidungen, wenn die der falsch negativen möglichst klein bleiben soll, und umgekehrt. Beides zugleich zu optimieren - das geht kaum. <?page no="88"?> 88 3 Von Newton über Einstein Programmierer gehen diese Schwierigkeit in der Regel heuristisch an: Sie suchen mit ihren Maschinen eine optimale Lösung zu ermitteln ohne garantieren zu können, dass die gefundene tatsächlich die beste ist. Sie verfahren damit ganz so wie wir Menschen: Suchen wir auf einer Landkarte einen kürzesten Weg, scheint es ein bestimmter zu sein. Messen wir’s nach? Kaum. Meistens stimmt es. Weil bereits eine nahezu unübersehbare Fülle von Algorithmen einsetzbar ist, gibt es inzwischen Meta-Algorithmen, die nachgeordnete Algorithmen aussuchen und ihnen mitteilen, was sie zu tun haben. Ein internetbasiertes Unternehmen, das vor dem Problem steht, welche Inhalte es welchen Nutzern auf einer Webseite anzeigen soll oder welche Produktempfehlungen es geben soll, kann einen solchen Meta-Algorithmus aus Kontextinformationen heraus zum Beispiel entscheiden lassen, welche Algorithmen am Besten geeignet sind, jedem Kunden, der eine Webseite besucht, Angebote nach „zuletzt angesehenen Artikeln“ vorzusortieren oder nach solchen, die „oft zusammen gekauft“ werden. Wieder andere Algorithmen können mitteilen: „Kunden, die diesen Artikel angesehen haben, kauften auch …ähnliche Artikel“ etc. Ein Mega-Algorithmus entscheidet hierüber anhand seiner Erfahrung, aber auch danach, welcher Algorithmus oder welcher Mix an Algorithmen in der Vergangenheit den meisten Mehrwert erzielt hat. Algorithmen nehmen also Kunden bei solchen Fragen nach sie interessierenden Angeboten die Arbeit von Suchmaschinen ab, die sie sonst aktiv zur Arbeit schicken müssten. Tun sie das, setzt allerdings der Suchmaschinenbetreiber wieder Algorithmen ein, die feststellen, wonach der Anfrager schon früher gesucht hat - und schon nimmt die Technik ihm eine Reihe von Vorauswahl-Entscheidungen ab, ob er will oder nicht. Suchmaschinen haben in der unglaublichen Fülle des Web die Aufgabe, das an Daten zu finden, was aus irgendeinem Grund von Belang ist. Ihre Leistung ist auf den ersten Blick nicht schlecht. Sie durchkämmen mehrere hundert Milliarden gespeicherte Web-Inhalte. Aber die meisten nutzen nur statische Inhalte, also ein für allemal aufgeschriebene Aussagen, die wie Bücher Stück für Stück ohne inneren Zusammenhang nebeneinander im Regal stehen - „so als wäre das Web eine gigantische strukturlose Bibliothek und als gäbe es einen heftigen Wettbewerb zwischen Suchmaschinen darüber, welche von ihnen über die Bücher in dieser Bibliothek mehr weiß als die anderen“ (Schloer/ Spariosu 2017: 99). Wer heute ein Suchwort eingibt, bekommt - im buchstäblichen Sinn als Antwort - Textstellen oder Zahlen angezeigt. Denn dmkit arbeiten die Suchmaschinen. Üblicherweise werden nur Zahlen, Wörter und Sätze verarbeitet, in begrenztem Umfang auch Bilder. Nur selten wird eine generelle Klassifizierung einbezogen. Das liegt an den erheblichen Begrenzungen heutiger browser und deren maschineller Such- und Lieferkomponenten. Auf Lösungen in Echtzeit sind Suchmaschinen schlecht vorbereitet. Viele berücksichtigen zwar die Suchhistorie des Nutzers, zeigen also Ähnliches wie das an, das ihn früher schon einmal interessiert hat. Den übrigen persönlichen Referenzrahmen des Benutzers, etwa dasGeschlecht oder politische Interessen, kennen sie aber kaum. Können Algorithmen das besser? Nicht wirklich: Auch sie können das Geschlecht, die Religion oder die Intelligenz einer bestimmten Person nicht bestimmen, sondern geben nur, vereinfacht formuliert, einen Tipp ab, der mit gewisser Wahrscheinlichkeit richtig ist - oder eben falsch (Morgenroth 2014: 193). Morgenroth rechnet vor, was das heißt: Bei einer Geschlechtsbestimmung war die Treffsicherheit einer Facebook-Analyse mit 93 Prozent ziemlich hoch. Rechnet man diese Zahl aber auf 1,2 Milliarden Facebook-Nutzer um, dann irrten sich diese Algorithmen bei immerhin 84 Millionen Menschen - das sind mehr als Deutschland Einwohner hat (ibid.). Nehmen wir an, Sie seien politisch interessiert, besonders am Thema Nachhaltigkeit, und möchten wissen, welche ihrer örtlichen oder regionalen Kandidaten für den Bundestag <?page no="89"?> 3.2 Wissendes Subjekt und gewusstes Objekt 89 oder den Landtag dieses Thema ähnlich einschätzen wie Sie. Die Suchmaschine kann das feststellen. Aber eine angemessene Aussage setzt voraus, dass Sie sie direkt hiernach fragen. „In der klassischen business intelligence, basiert auf relationalen Datenbanken, müssen Fragen schon festgelegt werden, bevor Daten überhaupt gespeichert werden. Techniker nennen das schema on write - die Struktur und damit die Semantik der Daten werden in der Konfiguration der Datenbank definiert, welche dann die Daten speichert. Einfach gesagt heißt das: Da wird stets Gleiches zu Gleichem sortiert. Aus diesem Grund sind relationale Datenbanken nicht in der Lage, neue Datentypen zu akzeptieren, deren Schema noch nicht definiert ist. Sie versagen also gerade dann, wenn die Big Data-Dimension variety / Vielfalt relevant ist. Erkenntnisse aus einem „Entdeckungsprozess“ - einem interaktiven Lernen aus den Daten -, lassen sich so nur mühsam gewinnen (Bitkom 2014: 35). Denn die Maschine weiß abgesehen von der gespeicherten Suchhistorie zunächst nicht, wie das Profil des Suchers aussieht, kennt also Ihre Erwartungen nicht, wenn sie sich nicht zum Beispiel bei Facebook nach Ihnen erkundigt. Bei Facebook ist das nämlich anders; dort werden persönliche Profile ermittelt - mit gefährlichen Konsequenzen für die Privatheit der Nutzer. Es hilft derzeit auch wenig, wenn Sie der Suchmaschine ihre politischen Interessen erläutern möchten. Denn über die Sucheingabe hinaus gibt es mit dem System gar keinen Dialog und schon deshalb noch keine ausreichende Möglichkeit, Suchergebnisse anders als über die Suchhistorie auf die Interessen des Anfragers zuzuschneiden. Nächstes Problem: Suchen Sie doch einmal nach einer abstrakten Idee und nach einem Risiko-/ Chancen-Profil, wie es für ungezählte Entscheidungen nötig ist. Zu Ideen wird Ihre Suchmaschine Sie auf einen Wikipedia-Beitrag verweisen, aber Ideen, die die Wikipedia- Autoren nicht kannten oder nicht aufgeführt haben, gehen Ihnen verloren. Und den Abgleich von Chancen und Risiken müssen Sie nach wie vor selber vornehmen; dafür ist ihre Suchmaschine nicht gebaut. Ihre Suchmaschine listet Ihnen zwar Fundstellen in der Regel in einer absteigenden Zeitreihe auf, die jüngste zuerst. Aber aktive, intelligente Lösungen in Echtzeit kann sie nicht bieten. Sie arbeitet nämlich statisch. Suchergebnisse werden Ihnen nur in dem Moment geliefert, in dem Sie diese erfragen. Abonnieren können Sie sie nicht. Sie verfügt nicht wie viele Webseiten über eine Newsfeed-Funktion, mit der Sie Nachrichten über Neuigkeiten abonnieren können.Vielleicht liegen morgen wichtige neue Angaben vor. Aber eine Update- Funktion, also eine mehr oder weniger automatische Aktualisierungsfunktion,hat Ihre Suchmaschine eben nicht. Suchmaschinen wie die von Google helfen Ihnen also nicht, für Sie wichtige dynamische, sich stetig wandelnde Prozesse zu erkennen, zu analysieren und zu bearbeiten. Dafür gibt es andere Instrumente der künstlichen Intelligenz. Gerade das Quantum Relations-Programm ist hierauf spezialisiert. 33..22 WWiisssse ennddeess SSuubbjjeekktt uunndd ggeewwuusssstteess OObbjjeekktt Als Hardy begann, seine Software Quantum Relations zu Prisma Analytics weiterzuentwickeln, hatte er sein Ziel weit ausgesteckt: Er wollte ein „radikal innovatives“ (Schloer 2006: 180), allgemeines, interdisziplinär angelegtes Modell einer von Maschinen unterstützten Analyse schaffen und dazu Felder der Psychologie und der Soziologie ebenso einbeziehen wie Elemente der Physik sowie Ideen der westlichen und östlichen Philosophie. Wer sich ein solches Ziel setzt, geht davon aus, dass das, was die übliche, vereinfachende Wissenschaft als solide und objektive Fakten und Wirklichkeiten betrachtet, in Wirklichkeit selektive Beobachtungen und Lernvorgänge sind, die emotional und kulturell filtern. In ver- <?page no="90"?> 90 3 Von Newton über Einstein schiedenen Publikationen von einem ersten Aufsatz 1988 bis zu seinem jüngsten Buch (Schloer/ Spariosu 2017), dem wir hier zeitweilig folgen, erklärt Hardy denn auch: Unser Weltbild ist das Resultat eines in hohem Maß subjektiven Umgangs mit der Realität, gespiegelt im Gedächtnis, dem einzelner Menschen ebenso wie dem kollektiven Gedächtnis einer größeren Einheit, etwa einer Nation oder eines Kulturkreises. Hardy weiß sehr bald: Dazu gilt es nicht nur die Konsequenzen menschlicher Entscheidungen erkennen zu lernen, sondern auch die komplexen Wechselbeziehungen und versteckten Abhängigkeiten globaler Realitäten zu verstehen. Kurz gesagt geht es darum, das, was aus Beobachtungen der Realität an Daten entsteht, als ein in vielen Ebenen integriertes System zu begreifen - eine Einsicht, die sich schon seit den 1960er Jahren verbreitet. Im Frühjahr 2001 spricht er in Paris auf in einem Vortrag über Maschinen, die besser denken können als Menschen. Unter den Zuhörern ist Mihai I. Spariosu, ein Professor der Universität in Athens, Georgia. Der findet das so spannend, dass er sich Hardys Entwicklerteam anschließt und mithilft, dessen Ideen weiter auszuarbeiten und deren philosophische und praktische Konsequenzen zu entwickeln. Bis heute tauschen er und Hardy ihre Überlegungen aus, „daily, all the time“, wie Hardy sagt, so weit Spariosus leitende Position an der University of Georgia Zeit dazu lässt. Hardy rückt bald ein Stück weit ab von der klassischen westlichen Überzeugung, das wissende Subjekt und die gewussten Objekte existierten unabhängig voneinander. Er geht vielmehr davon aus, dass in unserem Universum nichts ohne Bezug auf etwas anderes existiert. Das, was wir als Realität erkennen, setzt sich nicht in erster Linie aus dauerhaft bestehenden Objekten und unterschiedlichsten sie wahrnehmenden Personen zusammen, sondern aus einem dynamischen Netzwerk von Wechselwirkungen zwischen Objekten und uns selbst. Und dieses Netzwerk bewegt und verändert sich kontinuierlich. Ein simples Beispiel hierfür, das Hardy selbst erwähnt (in Schloer 2006: 181): Fährt jemand in einem Auto exakt gleich schnell neben einem Zug her, dann scheint für ihn der Zug gar nicht zu fahren, denn er bewegt sich weder zu ihm hin noch von ihm weg. Es ist der Referenzrahmen, der diesen falschen Eindruck erzeugt. Nur weil die umgebende Landschaft sich nicht gleich schnell mit bewegt und weil auch Fahrtwinde, Fahrgeräusche etc. eine Rolle spielen, der Referenzrahmen also unvollständig ist, erlebt der Autofahrer den Zug trotzdem als fahrend. Wenn alles Teile eines Ganzen sind und wenn sie im physischen wie im geistigen Sinn grundsätzlich unter Bedingungen oder bei Gelegenheiten entstehen, dann können sie keinen unveränderlichen, dauerhaften Charakter haben. Daraus muss folgen: Die physische Realität innerhalb unseres Universums kann korrekt nur als Beziehung von miteinander verbundenen Objekten in sich selbst organisierenden Systemen beschrieben werden. Das berücksichtigt Hardy in seiner Quantum Relations-Entwicklung. Aus der Einsicht, dass unser Universum mit anderen Universen oder Bezugsrahmen vielfältig verknüpft ist, zieht er den Schluss, dass die Welt ein Beziehungsnetzwerk voneinander abhängiger, größerer und kleinerer Systeme ist, die sich, insofern sie miteinander interagieren, auch wechselseitig beeinflussen. Das gilt nicht nur für physische Systeme, also für Körper, sondern auch für mentale, intelligente Kräfte, die sich in Beobachtungen manifestieren, in Gedanken, Konzepten, Glaubenssätzen, Gefühlen, Eindrücken, Meinungen oder Erinnerungen einzelner oder vieler Menschen (Schloer/ Spariosu 2017: 24). Zum ersten Mal publiziert Hardy diese Gedanken zu Beginn unseres Jahrhunderts (Spariosu 2005). Was im ganz Großen gilt, im Universum, trifft auch für das Kleine zu, für das einzelne menschliche Bewusstsein. Individuelles Denken oder Bewusstsein lässt sich daher mit den gleichen Beziehungsprozessen beschreiben wie physische oder soziale Systeme: als wech- <?page no="91"?> 3.2 Wissendes Subjekt und gewusstes Objekt 91 selseitig abhängiges System in unterschiedlichen Begründungszusammenhängen, mit anderen ähnlichen Systemen verbunden, ganz so wie dies auch für alles gilt, was das Bewusstsein erkennt oder erfährt: Wir definieren die Welt über die Beziehungen, die wir kontinuierlich eingehen und nutzen. Aus dieser Einsicht folgen Ableitungen, die wir hier einfach, sehr umgangssprachlich, ja manchmal ein wenig flapsig formulieren, obwohl sie sehr grundsätzlich sind: Erstens: Kein Mensch ist allwissend, und was er nicht weiß, macht ihn nicht heiß. Jedes normale menschliche Bewusstsein erkennt und versteht die Realität nur unvollständig, weil nicht beobachtete Elemente der Realität kein Teil dessen werden, was der Beobachter als Erfahrung speichert. Zweitens: Kein Mensch betrachtet die Welt ohne eine Brille aus Erfahrung und Umfeld. Immer registriert er, was er wahrnimmt, vor dem Hintergrund der eigenen Erlebnisse und des Bezugsrahmens aus sittlichen Normen, gesellschaftlichen Werten und sozialen Bezügen, in einem frame of reference (FOR), einem Bezugsrahmen. Drittens: Da sich das Bewusstsein jedes Einzelnen vom dem seines Nachbarn unterscheidet, muss daraus folgen: Was wir physische Realität nennen, ist ein individuelles Abbild, das andere Individuen nicht in der exakt selben Weise erzeugen können. Jedes dieser Abbilder ist einzigartig. Einzigartig muss deshalb auch sein, was es wie miteinander verbindet. Denn es besteht ja aus unterschiedlichen Beziehungen und Wechselwirkungen zwischen unterschiedlichen Systemen im Rahmen anderer Systeme (ibid.: 24 f.). Viertens: Könnte man alles, was wir wahrnehmen, in einem Datenspeicher irgendwo speichern, ergäbe sich ein Bild von der Welt aus vielen Facetten, aber eben ein Bild, nicht die Welt selbst. Denn was Menschen nicht wahrnehmen und deshalb auch nicht wissen, kann sich auch nicht in diesem Speicher befinden. Was wir für die Wirklichkeit halten, ist daher notwendigerweise ein Ausschnitt der Realität, eben der wahrnehmbare (ibid.: 26). Wir werden noch sehen, was das für die Speicherung und Verarbeitung von Elementen des Bewusstseins, also für Daten bedeutet. Zuvor aber müssen wir den Spieß einmal umdrehen und fragen: Haben nur Menschen Bewusstsein? Sicher nicht; es existiert auch bei Tieren. Bei Pflanzen? Das weiß niemand genau, aber die neueste Forschung geht davon aus. Bei Maschinen? Zunehmend lautet die Antwort ja, in dem Maß nämlich, wie eine Kombination aus Sensorik, Lernfähigkeit und Memory-Leistung eine sich selbst analysierende und regulierende Technik ermöglicht. Bewusstsein kann also in Lebendes oder in Maschinelles eingebunden sein oder in eine Kombination vom beidem. In solchen Kombinationen wird das menschliche Bewusstsein durch Rechenleistungen von Maschinen verbessert, etwa durch Computer. Für Googleist das bereits eine Selbstverständlichkeit. Beim eigenen Personal unterscheidet dieser Konzern schon jetzt nicht mehr zwischen Maschine und Mensch bzw. zwischen, wie es dort heißt, Maschinenpark und Menschenpark. Dieses Unternehmen treibt eine Entwicklung voran, „die in allen Branchen unausweichlich scheint“ (Morgenroth 2014: 103). Setzt sich die maschinelle Entwicklung zu immer „intelligenterer“ Technik nämlich fort - was alle Experten erwarten -, ist es plausibel davon auszugehen, dass Maschinen mit ihrer enormen Fähigkeit zur Speicherung und Verarbeitung von Daten ein weit höheres Maß an Bewusstsein erlangen können als das, was normale Menschen aufgrund ihres Beobachtungs-, Schlussfolgerungs- und Interaktionsvermögens besitzen. Solche Maschinen können dann als quasi-selbstständige Informationsträger für die Menschen tätig werden (ibid.: 25). Was das bedeuten wird, beschäftigt uns in diesem Buch im Abschnitt über Künstliche Intelligenz. <?page no="92"?> 92 3 Von Newton über Einstein 3 3..33 VVo on n QQu ua anntteen n z zuu QQuua an nt tu umm R Reella at tiio on ns s Was sind eigentlich Quanten? Was wir bislang unscharf einfach Daten genannt haben, ist nun etwas genauer zu betrachten. Experten in der Welt von Big Data sprechen physikalisch korrekt lieber von Quanten. Das ist ein ursprünglich lateinisches Wort quantum; es heißt übersetzt ‚wie groß‘ oder ‚wie viel‘. In der heutigen Physik bezeichnet es Elementarteilchen, also nicht mehr weiter teilbare Teilchen. Sie bestehen aus Masse bzw. aus Energie. Denn jede Materie aus Elektronen und Protonen besitzt nicht nur eine Eigenschaft als Teilchen, sondern auch als energetische Welle. Von einem System zu einem anderen übertragen werden können Quanten nur als Energieeinheiten. Wir können das nicht sehen, weil Quanten viel zu klein sind, als dass man sie beobachten könnte. Aber sie sind überall: Jetzt, wo Sie diesen Text lesen, führen Lichtquanten (Photonen), die von der Buchseite in Ihr Auge gelangen, dazu, dass Sie diesen Text wahrnehmen können. Ja mehr noch, in Ihrem Gehirn laufen gerade jetzt Quantenprozesse ab, mit denen Sie diesen Text verstehen. „Quanten sind also etwas ‚ganz Normales‘ und Allgegenwärtiges“ (Sturm 2001). In der Alltagswelt beschäftigen uns Quanten als die kleinsten Bausteine von Materie und Energie wenig. In interstellar großen und ebenso in atomar kleinen Größenordnungen jedoch werden sie wichtig. Für Big Data-Analysen interessieren die atomaren. Zwar gibt esnoch keine Quantencomputer. Sie hätten nur das Ausmaß größerer Moleküle. 14 Nanometer kleine Transistoren, die in Computern arbeiten, rücken aber bereits „an eine Grenze, nach der die Gesetze der Quantenwelt herrschen“ (Mainzer 2014a: 125). In der Quantenwelt nennt man die kleinsten Datenbausteine nicht bits, sondern Quantenbits, kurz qubits. Ray Kurzweil, einer der besten Kenner der Datenwelt, beschreibt sie so: Wie bits können auch qubitsnur zwei Zustände haben: energielos oder energiegeladen; wir beschreiben das mit den Ziffern 0 oder 1. Das qubit basiert anders als das bit aber „auf der fundamentalen Uneindeutigkeit (Ambiguität), die für die Quantenmechanik kennzeichnend ist.“ Es ist einfach gesagt ein statistischer Zustand: die 50: 50-Wahrscheinlichkeit sowohl für den Zustand 0 wie für 1. „Die Position, der Impuls oder jeder andere Zustand eines Elementarteilchens bleiben so lange ‚uneindeutig‘, bis die Ambiguität durch einen Prozess aufgehoben wird, der das Teilchen veranlasst, sich zu ‚entscheiden‘, wo es ist, wo es war und welche Eigenschaften es hat“, also energielos oder -geladen zu sein (Kurzweil 2000: 177). Wie bits kann man auch qubits aneinanderreihen, um so zu bestimmten Datenaussagen zu kommen. Anders als bei bits, die wegen ihres klaren 0-oder-1-Zustands eindeutig erkennen lassen, was jeweils Sache ist, stellt bei qubits eine solche Reihe - so lange keine äußere Einwirkung eine ‚Entscheidung’ herbeiführt - wegen ihres 0-und-1-Zustands simultan alle möglichen Lösungen eines Problems dar. Nun müssen wir uns vom Mathematiker Klaus Mainzer noch erläutern lassen: Qubits sind in ambigem Zustand korreliert, also miteinander verschränkt, und zwar selbst dann, wenn sie räumlich voneinander entfernt sind. Quanten können sich deshalb überlagern. Ändert sich einQuantenzustand, verändert das den überlagerten gleich mit - überlagernde Quanten steuern die überlagerten quasi fern. Man könnte nun den qubits-Strang mit der zu lösenden Aufgabe so verknüpfen, dass diese qubits dekohärieren, das heißt: dass alle qubits von ihrem ambigen 0-und-1-Zustand zu einem 0-oder-1-Zustand wechseln, so dass sich eine Reihe von Nullen und Einsen bildet, die den Test besteht. Dass sich dieses Phänomen namens Dekohärenz zu diesem Zweck nutzen lässt, wurde bereits im ausgehenden 20. Jahrhundert bewiesen (Kurzweil 2000: 180). Ein Computer mit tausend qubits kann im Prinzip 2 1000 Lösungsalternativen speichern. Alle <?page no="93"?> 3.3 Von Quanten zu Quantum Relations 93 würden in diesem Verfahren mit Lichtgeschwindigkeit simultan getestet. Übrig bliebe die richtige Lösung (ibid.: 178). In einem Quantencomputer könnten „Teilaufgaben als Überlagerung von Zuständen zusammengefasst und gleichzeitig bearbeitet werden. Analog zu Parallelrechnern mit mehreren Prozessoren spricht man dann von Quantenparallelismus“ (Mainzer 2014a: 119). Das wird nochmals kleinere Computer nochmals wesentlich schneller und Aufgaben lösbar machen, mit denen die größten derzeitigen Supercomputer noch überfordert sind. Quantencomputer können theoretisch Rechenaufgaben lösen, deren Bearbeitung heute noch so lange dauern würde wie das Universum exisitiert. Ein solches Gerät mit nur 40 qubits soll eines Tages eine Billion möglicher Lösungen gleichzeitig können (ibid.). Ihre Leistung wird also gigantisch sein und unsere heutige Technik dinosaurierhaft aussehen lassen. Warum ist das alles noch Theorie? Aus zwei Gründen: Erstens dürfte einQuantencomputer die Größe von Atomen oder Molekülen nicht wesentlich überschreiten, weil sich Quanteneffekte nur in atomaren Größenordnungen nutzen lassen. Es ist jedoch sehr schwierig, einzelne Atome oder Moleküle zu messen, weil sie sich von Natur aus unter dem Einfluss von Wärme bewegen. Außerdem sind einzelne Atome generell zu instabil, um eine Maschine daraus zu bauen (ibid.). Und zweitens verhalten sich Quanten in ihrer ambigen Weise nur so lange, wie auf sie keine Außeneinflüsse wirken. Schon wenn man versucht, ihren Zustand oder eine Zustandsänderung zu messen, verlieren sie ihren ambigen 0-und-1- Zustand. Dann ist auch keine überlagernde Superposition möglich und damit kein solches Rechentempo. Es gibt aber Tricks: Einer besteht darin, Quanten in einer Flüssigkeit zu bearbeiten. Dort wirkt sich das zwangsläufig unstete Verhalten einzelner Moleküle auf das statistische Verhalten aller Moleküle in der Flüssigkeit nicht aus (ibid.). An einem anderen Trick arbeitet Fujitsu mit einem japanischen Forscherteam unter Hirotaka Tamura und einem kanadischen Unternehmen. Fujitsu übersetzt Gesetze der Quantenwelt in die heutige, etablierte Technologie, ohne dabei die Anwendungsprobleme von Quanten mit übernehmen zu müssen. Fujitsu-Technikvorstand Reger spricht von „Quantenglühen“, einer noch in Entwicklung begriffenen Herstellungstechnik etwa so wie man Stahl glühen, abschrecken und wieder glühen muss, um durch eine Veränderung der Molekülstruktur superscharfe Klingen schmieden zu können. Ähnlich wird man auch Molekülstrukturen in Computern so verändern können, dass sie quantenähnliche Überlagerungen ermöglichen. Um Umwelteinflüsse auszuschließen, wird der einzige bisher arbeitende Prototyp dazu von einem superstarken Magnetfeld abgeschirmt, verbraucht dazu endlos viel Energie und kostet Unsummen. Aber dieser Beschleuniger für kombinatorische Optimierungsaufgaben zeigt, wohin die technische Reise geht (Fujitsu 2017: Reger). Dieser Prototyp ist kein Quantencomputer, aber seine Technik ist von der Quantenmechanik inspiriert, arbeitet Aufgaben also nicht Schritt für Schritt ab, sondern durch Überlagerung seiner 1024 Bits in einem einzigen Augenblick - siebzehntausendmal schneller als Computer heute. Weiterzuentwickelnde Versionen sollen sogar hundertausendfach mehr Tempo erreichen. Und noch ein entscheidender Vorzug zeichnet diese Technologie aus: Quanteninspirierte Vorgänge lassen sich grundsätzlich nicht kopieren. Dazu müsste man einen Quantenzustand messen, und durch diesen Außeneinfluss verlöre er wie schon erwähnt den ambigen Zustand, der diese Leistung ermöglicht. Ein solches System lässt sich deshalb nicht ausspionieren. So lassen sich sichere Netzwerke bauen, eine sichere cloud, ja eine sichere digitale Welt - und das schon in sehr absehbarer Zukunft. Während „richtige“ Quantencomputer bisher nur durchdacht, aber noch nicht baubar sind und niemand Prognosen wagt, wann das so weit sein könnte, sind quanteninspirierte Rechner keine Utopie mehr. In vielleicht sieben bis zehn Jahren soll diese Technologie serienreif sein (ibid.). <?page no="94"?> 94 3 Von Newton über Einstein Was Quantum Relations wörtlich bedeutet Das, was wir Wahrheit oder Realität nennen, ist tatsächlich die Summe vieler verschiedener bewusster und unbewusster Perspektiven und Referenzrahmen zu einem jeweiligen Zeitpunkt. Objekte (das Beobachtete) und Subjekte (die Beobachter) sind deshalb nicht scharf voneinander zu trennen. Hardy und sein akademischer Sparringspartner Spariosu nennen die traditionelle wissenschaftliche Unterscheidung zwischen subjektivem und objektivem Wissen deshalb „ontologisch ungültig“ (soll heißen: sie existiert so nicht) und „epistomologisch unbrauchbar“ (sie führt zu nichts) (2017: 26). Daraus leiten beide ihre für den Umgang mit Daten entscheidende Konsequenz ab: „Das individuelle Bewusstsein reichert Beziehungen an (das ist alles, was es beobachten kann) und reagiert mit weiteren Beziehungen (das ist alles, was es tun kann)“ (ibid.: 28). Diese wesentliche Begrenzung des Bewusstseins erledigt in der Quantum Relations-Systematik, wie wir gesehen haben, alle von Beobachtungen unabhängige Objektivität, auch wissenschaftliche. „Die einzige Möglichkeit, die Dynamik und den output, also das Ergebnis individuellen Bewusstseins qualitativ und quantitativ zu messen, besteht darin, die Beziehungen zu messen, die es mit dem Bewusstsein anderer oder anderen Systemen aufbaut und pflegt“ (ibid.: 28). Quantum Relations verknüpfen auf kreative Weise Albert Einsteins Relativitätstheorie, die Quantenmechanik, die allgemeine Systemtheorie und die heutigen kognitiven und Sozialwissenschaften, um physische, geistige und soziale Phänomene gesamthaft zu analysieren. Ganz kurz zur Erläuterung: Albert Einstein hat für ein dynamisches Modell der Realität schon vor mehr als hundert Jahren in seiner Relativitätstheorie den Grundstein gelegt. Dass wir davon im Alltag so wenig bemerken, liegt an den kosmischen Größenordnungen, in denen ihre Effekte erst offensichtlich werden. Selbst bei einem Raumschiff sind sie noch marginal. Würde die Besatzung eines space shuttle, das mit 3000 Kilometern pro Stunde unterwegs ist, die Länge ihres Raumschiffs vermessen und die Bodenstation ebenfalls, müssten sich die Messergebnisse bei genauester Messtechnik unterscheiden, zwar nur um weniger als einen Millimeter, aber eben doch (Schloer 2006: 30, 182). Werner Heisenberghat in den 1920er Jahren außerdem erkannt, dass man einen Beobachter nicht von einem beobachteten System trennen und trotzdem präzise Messresultate des beobachteten Objekts erzielen kann. Will man Lernen maschinell möglich machen, muss man wie schon erwähnt Einsteins Relativitätstheorie, die Quantenmechanik und die die allgemeine Systemtheorie zu Hilfe nehmen. In ihrer abstrahierenden Vorstellungswelt geht es nicht um konkrete Beziehungen einzelner Individuen oder Gruppen, sondern um die Beziehungen und Wechselwirkungen von Teilchen zueinander. Bekanntlich hängen diese Wechselwirkungen davon ab, wie viel Masse einzelne Teilchen haben und wie viel Energie. Einstein hat schon vor gut hundert Jahren gezeigt, dass Masse und Energie zwei Aggregatzustände sind, die unter bestimmten Umständen ineinander übergehen können. Masse kann zu Energie werden. Das können wir betrachten, und zwar nicht erst, seit es Atombomben gibt, die ihre Masse in zerstörerische Energie umwandeln; auch Sonnenschein ist zu Energie gewordene Sonnenmasse. Einsteins Methodik macht es möglich, dynamische Modelle der Realität zu erzeugen, die vielfältigen Wechselbeziehungen zwischen Beobachtern und Beobachtungen zu messen und ziemlich brauchbare Schlussfolgerungen darüber abzuleiten, wie sie sich künftig verhalten und einander beeinflussen werden. Diese Quantum Relations-Theorie lässt sich, wie der US- Wissenschaftler Spariosu 2006 darlegte, nicht nur auf die unbelebte Welt anwenden, sondern auch auf uns Menschen mit unseren Erwartungen und Befürchtungen, Hoffnungen und Ängsten (Schloer/ Gagner 2006: 132). Quantum Relations berücksichtigen im komplexen Beziehungsgefüge einzelner Menschen mit ihren sozialen Gruppen (Familien, Freunde, Kollegen usw.) und ihrem Umfeld ein Wechselspiel negativer und positiver Rückkopplungen. Negative Rückkopplung soll bedeu- <?page no="95"?> 3.3 Von Quanten zu Quantum Relations 95 ten: Individuen nehmen ihr Umfeld so wahr, dass diese Wahrnehmung bestehende Auffassungen bestätigt. Das geschieht, wenn ein Individuum oder eine Gruppe auf ihr Umfeld das projiziert, was den eigenen Wahrnehmungen am Besten entspricht. Sie betrachten ihre Welt also durch die eigene Brille und sehen darin ihr Vor-Urteil bestätigt. Ist das so, dann braucht sich für den Wahrnehmenden nichts zu ändern. Die Beobachter können passiv bleiben, müssen nichts tun - daher negative Rückkopplung. Positive Rückkopplung wird nötig, wenn ein System und dessen Wahrnehmung sich nicht mehr decken - entweder, weil man durch die eigene Brille nicht mehr klar sieht oder weil das, was man sieht, sich verändert hat. Was man dann erkennt oder erfährt, entspricht nicht mehr dem Vor-Urteil, und die Betrachter, also Einzelne wie Gruppen, müssen ihr bisheriges Bild von der Welt ändern, müssen aktiv werden (ibid.: 79 f.). Positive Rückkopplung ist also eine Art zu lernen. Sie kann auch darin bestehen, kognitive oder soziale Krisen, also solche des Wissens oder der Beziehung zu anderen Menschen, als kreative Kräfte einzubeziehen (ibid.: 80). Nun bleiben Beziehungen zwischen Beobachter und beobachtetem Objekt niemals konstant. Deshalb ist stets nicht nur die bestimmte Masse eines Teilchens oder dessen Energie zu betrachten, sondern auch die Zeit, in der es beobachtet wurde oder wird. Dieser Parameter Zeit ist für Quantum Relations zentral. Am Wichtigsten aber ist, dass das, was auf diese Weise analysiert werden soll, keine physische Qualität zu haben braucht. Es kann sich statt um Personen und ihre Umfelder auch um mentale (gedachte), emotionale (gefühlte) oder soziale Konzepte handeln. Der allgemeine Begriff hierfür ist schon gefallen: Objekt. Das quantum relations-Programm analysiert für alle Objekte oder Objektbündel ihre Beziehungen zu anderen Objektbündeln (ibid.: 31). In Bezug auf Daten sprechen die Wissenschaftler hierbei von data fusion objects (DFOs), also von Objekten, in denen Daten sich miteinander verbinden. DFOs können als bloße statistische Größen existieren, deren ‚Verhalten‘ lediglich aus Summenbildung besteht, aber auch als Handlungen oder Verhalten. Sie existieren innerhalb vielfältiger frames of reference (FORs) und interagieren miteinander nach klar ermittelbaren Regeln. Das Ergebnis solcher Interaktionen kann also ablesbar und messbar sein. Diese Beobachtung, Messung und Analyse ist eine dynamische Rechenaufgabe, die traditionell im Kopf eines Menschen abläuft, die ein Computer aber mittlerweile effizienter erledigen kann (ibid.: 49). Quantum Relations fußen also nicht nur auf üblichen physikalischen Messgrößen, sondern auch auf dem beobachtenden Verhalten. Sie bewerten, wie sich bei kontinuierlich überwachten Beziehungen von Beobachter und beobachtetem Objekt interne und externe Wechselbeziehungen entwickeln und verschieben. Diese können linear oder nichtlinear sein, ganz im Sinn der philosophia perennis, wie Leibniz das nannte, und ähnlich wie in der vedisch geprägten Vorstellungswelt Indiens. Lineare Kausalität Newtonscher Prägung existiert nach dieser Vorstellung im kognitiven Prozess - dort ebenso wie im heutigen Westen - entweder beim Beobachter oder für das beobachtete Objekt. Westlich geprägte Forscher sind überzeugt, was wir wahrnehmen, sei die reale Welt, und wir könnten ihre Daten mit neutralem Sinn registrieren. Im Newtonschen Sinn ist das auch richtig. Nach Einsteins Erkenntnissen aber greift es zu kurz. Spariosu hat das folgendermaßen erklärt: „Wenn unterschiedliche Systeme den selben Sachverhalt unterschiedlich darstellen, dann kann man jede Beschreibung der Realität nur als abhängig vom jeweiligen System begreifen. Jede Beschreibung eines Systems hängt dann auch vom Beschreibenden in dem Moment ab, in dem er es beschreibt. Wenn das für die komplette physische Welt gilt, dann sollte das auch für jede Beschreibung menschlichen Verhaltens zutreffen. Deshalb können wir mentale Zustände (mind) mit denselben Beziehungen ausdrückenden Prozessen beschreiben wie physische (matter)“ (Schloer/ Gagner 2006: 133). <?page no="96"?> 96 3 Von Newton über Einstein Quantum Relations fußen ferner nicht nur auf der westlich geprägten Art und Weise zu denken und die Welt zu verstehen, sondern auch auf östlichen Denkschulen etwa des Buddhismus und des Daoismus. Der konfuzianische wie der chinesische Buddhismus dienen als Begründungshilfen und verstärkende Rückkopplungsschleifen. Die buddhistische Lehre bejaht beispielsweise durchaus die Existenz von Objekten und unsere Fähigkeit zu Projektionen, versteht beide aber als vielfach voneinander abhängig. Dieses buddhistische Verständnis von subjektiv wahrgenommener Realität, die in Wechselwirkungen eingebunden ist, entspricht der allgemeinen Systemtheorie wie den quantum relations. Die die quantum relations-Forscher haben es in ihr Prinzip integriert. Was q-search bedeutet Wer sich mit der Umsetzung von Quantum Relations in ein Computerprogramm genauer beschäftigt, stößt bald auf einen spannenden Vorzug dieser Vorgehensweise: eine interaktive Such- und Lieferfunktion, die die Wissenschaftler q-search genannt haben. Sie macht nach Hardys Überzeugung die bislang üblichen Google- und Yahoo/ Microsoft-Such- und Transaktionstechnologien eines Tages überflüssig; ja sie kann, sagen er und sein wissenschaftlicher Partner Spariosu, „das gesamte Feld der intelligenten, interaktiven Informationssteuerung in Echtzeit revolutionieren“ (ibid.: 14). Man stelle sich ein Universum vor, in dem wir einem Avatar, also einem nur in Computern existierenden Abbild von uns selbst, unsere Suchaufgabe übertragen, erklärt Hardy später: Dieser Avatar sei „in einem sehr realen Sinn eine Kopie unseres Selbst, weiß viel über unsere Bedürfnisse und unsere Gewohnheiten und kann dieses Wissen dazu nutzen, die Suche auf Ergebnisse einzugrenzen, die wir brauchbar finden würden“ (ibid.: 101). Q-search registriert zusätzlich zu einer Beobachtung auch vom Betrachter abhängige Bedingungen dieser Beobachtung, vor allem die Zeit. Die Ermittlungs- und Bewertungsmethode reicht deshalb weit über die Analyse von Texten und Zahlen hinaus. Anders als herkömmliche textbasierte Suchmaschinen kann q-search bewegte Objekte ebenso erkennen und speichern wie Töne oder einen Verhaltensverlauf, bezogen auf den jeweiligen Zeitpunkt, zu dem etwas geschah und beobachtet wurde. Diese Beobachtung lässt sich als maschinell verarbeitbarer Datensatz speichern, nicht nur als visuelles oder akustisches Signal. Das gibt browsern Such- und Auswahlchancen bisher unbekannter Menge und Qualität. Quantum Relations integriert also die ‚Welt des Benutzers‘ und dessen spezifisches Verständnis und Verhalten zum Ursprungszeitpunkt in die Beobachtung und vergleicht das mit seinem aktuellen Verständnis und Verhalten. Es stellt damit Unterschiede in der Bewertung von Beobachtungen fest. Weil das kontinuierlich geschieht, kommt das System nicht nur zu retrospektiven Beurteilungen, sondern kann sogar prospektiv die wahrscheinliche künftige Bewertung errechnen und damit das erwartbare Verhalten des Nutzers. Für diese Prognosetechnik rechnet man also mit Wahrscheinlichkeiten. Während es in der klassischen Mechanik immer nur ein einziges richtig ermitteltes Ergebnis geben kann, führt die Quantenmechanik stets zu einem Set von Ergebnissen, jedes mit einer und nur dieser einen Ergebniswahrscheinlichkeit. Daher gilt dort ganz fundamental: „Nur Wahrscheinlichkeiten sind kalkulierbar, nicht Ergebnisse“ (ibid.: 35). Quantum Relations sagt ein Set wahrscheinlicher Amplituden voraus und berechnet außerdem die ‚Dichte‘ dieser Wahrscheinlichkeiten. Diese kann man sich als Darstellung darüber vorstellen, wie wahrscheinlich ein einzelnes Messergebnis zu einem bestimmten Sachverhaltist (ibid.: 36). Ein Beispiel: Wahrscheinlich werde ich mich am späteren Weihnachtsabend in gewisser Entfernung von zuhause aufhalten. Dass ich in meinem Haus oder in dessen Nähe sein werde, ist zu 59 Prozent wahrscheinlich, dass ich mich im Haus eines Verwandten oder <?page no="97"?> 3.3 Von Quanten zu Quantum Relations 97 in dessen Nähe aufhalten werde, zu 39 Prozent, aber nur zu zwei Prozent, dass ich anderswo sein werde. Die Summe dieser Wahrscheinlichkeiten ergibt immer 100 Prozent, also 1. Systeme auf Quantum Relations-Basis liefern also zwar keine ‚endgültigen‘ Ergebnisse, wohl aber viele mehr oder minder wahrscheinliche. Damit werden sie zu sehr aussagekräftigen Prognoseinstrumenten. Und weil sie mehr Daten speichern und zueinander in Beziehung setzen als der einzelne Mensch wissen und erinnern kann, sind sie darin auch besser als der Einzelne. Sie ‚wissen‘ schon, was der Betroffene noch gar nicht realisiert. Diese Möglichkeit versetzt Quantum Relations-Auswerter in die Lage, Trends, also wahrscheinliche Bedingungen und Entwicklungen, Chancen und Risiken sehr frühzeitig zu erkennen, und zwar sowohl in Bezug auf den Einzelnen wie auf ein größeres System, etwa eine Gesellschaft. Anders als viele andere wissenschaftliche Methoden, die mit Vereinfachungen arbeiten, verarbeiten quantum relations von Anfang an die Vielfalt und Verschiedenheit der zugrundeliegenden Daten. Big Data sind in Quantum Relations-Projekten deshalb keine Last, sondern eine riesige Chance. Je mehr Daten genutzt werden können, desto besser lässt sich die Welt und alles Verhalten maschinell erfassen und desto besser sind die Ergebnisse, die die Maschine aus ihnen ableitet. Das ist ein einzigartiger, revolutionärer Vorzug von Quantum Relations- Systemen (ibid.: 76). Wenn Auswerter sie nutzen, integrieren sie breit gefächerte kognitive, also wissensbasierte Perspektiven, und zwar sowohl sprachliche wie philosophische, kulturelle wie geschlechtsabhängige und andere, je nach Betrachter. Hardy, der Quantum Relations-Experte, benutzt ihre Instrumente nicht nur, um Wechselwirkungen zwischen Objekten zu beobachten und maschinell auszuwerten, sondern auch um zu prognostizieren, was im Gehirn des Beobachters vor sich geht. Er entwickelt und nutzt dazu ein ungefähres Modell dessen, was im Kopf des Menschen geschieht. Der Mensch registriert und verarbeitet ja nicht nur physikalische, sondern auch psychische und soziale Signale, also Gedanken, Gefühle, Erinnerungen, Verhaltensmuster, Vorlieben und anderes. Er modelliert die Dynamiken, die die Wechselbeziehungen der sozialen oder psychischen Elemente zueinander steuern: Gedächtnisse interagieren mit anderen Gedächtnissen, mit Beobachtungen und Glaubenssätzen, mit Emotionen und Verhaltensmustern. Genau so agieren auch Programme in Datenspeichern. Quantum Relations-Methoden bilden solche Veränderungen in klar bestimmbarer Weise ab (ibid.: 52). Der Vorzug selbst lernender Technik Noch einen Punkt gilt es als ebenfalls ganz zentral zu beachten: Das bereits erwähnte data fusion objects (DFO)bzw. frames of reference (FOR)-Prinzip hat den technischen Vorzug, selbst lernen zu können. Es sucht automatisch nach der besten Methode und dem kürzesten Weg, um sein Ziel zu erreichen. Es geht nämlich davon aus, dass sich alle intelligenten Systeme auf höchste Effizienz ausrichten und dass höchste Effizienz zu einem Gleichgewicht aller natürlichen, frei fließenden Kräfte führt. Dazu müssen sie lernen können. In der quantum relations-Theorie bedeutet Lernen wie in jeder Systemtheorie nicht so sehr, sich mit den Eigenheiten und dem Muster eines bereits bestehenden Systems vertraut zu machen, sondern. eine grundlegende Neuordnung, bei der neue Elemente zutage treten, neue Wege zu gehen sind und unterschiedliche Rückkopplungen sichtbar werden. Die quantum relations- Technologie bildet diesen Prozess im Inneren einer intelligenten Maschine ab. Deshalb nennt Hardy Quantum Relations „ein Betriebssystem für allgemeine Intelligenz par excellence“ (ibid.: 74). Es unterstützt und verbessert eine kooperative, symbiotische Sicht auf unsere Welt. Alle lebenden und nicht lebenden Elemente des Systems Erde und seiner Subsysteme hängen demnach voneinander ab, und jede Perspektive für das allgemeine Gute ist darin als potenziell wertvoll zu betrachten und zu respektieren (ibid.: 87). <?page no="98"?> 98 3 Von Newton über Einstein Als Hardy diese Einsichten 2006 erstmals zusammenhängend veröffentlicht, spricht er noch von „ersten Schritten“ zur Realisierung (ibid.: 194). Aber sein sehr viel größeres Ziel hat er schon damals vor Augen: die komplexesten Aspekte menschlichen Verhaltens zu analysieren und daraus mit hinlänglicher Genauigkeit Voraussagen abzuleiten (ibid.). Damit verspricht Hardys Methode nicht nur Fähigkeiten zur Prognose, sondern auch zu Einsichten in ökologische und soziale Zusammenhänge, die kulturelle und politische Konsequenzen plausibel machen. Von ihnen handeln die letzten Kapitel dieses Buches. Der erste Schritt zu validen Prognosen betrifft jedoch noch nicht diese gesamtgesellschaftlichen Themen, sondern wirtschaftliche Teilaspekte. Zunächst entwickeln Hardy und sein Team ein Instrument, das bald zum Standardrepertoire der weltweit zusammenwachsenden Finanzmärkte gehört: eine Software zur millisekundenschnellen Bewertung von Unmassen anAktien. 33..44 PPhhiill" ddiiee MMuullttiibbeeggaabbuunngg Nun ist von Phil Gagner zu sprechen. Anders als Hardy, der geborene Deutsche und nur „gelernte“ USA-Bürger, ist Phil ein waschechter US-Amerikaner, ein ausgefuchster Anwalt und dazu ein Experte nicht nur im Rechtswesen, sondern auch in den Bereichen Computertechnik und neue Technologien bis hin zur Automatisierung durch Roboter, zum Design digitalerHardware und zur Entwicklung von Software, also den auf dieser Technik laufenden Programmen, zur Datenverarbeitung und zur Finanzwelt. Als Hardy ihm erstmals begegnet, und zwar in Deutschland, in München, hoch über der Isar, in seinem damaligen Penthaus, ist Phil Gagner am Massachusetts Institute of Technology bei Marvin Minsky beschäftigt, dem dortigen Gottvater der Künstlichen Intelligenz. Minsky hatte Phil als Wissenschaftler unter Vertrag genommen, als der gerade einmal 16 Jahre alt war. Im Handumdrehen hatte Phil mit seinem hohen Intelligenzquotienten seinen Bachelor in gerade einmal eineinhalb oder zwei Jahren gemacht, nicht in vier, und dann am MIT eine Blitzkarriere gestartet. Genau wie Hardy ist Phil jemand, der nicht nur in einer beruflichen Ecke zuhause sein kann. Er ist einer der Menschen, deren Antennen besonders weit ausgefahren sind. Hardy ruft im Herbst einen in Deutschland arbeitenden amerikanischen Landsmann mit Namen Brian an, um mit ihm über die Idee gemeinsamer Projekte zu sprechen. „Hier ist übrigens demnächst das Oktoberfest“, sagt er. „Wenn Sie Lust haben, kommen Sie doch herüber, Sie sind dann mein Gast.“ Brian ruft Phil an, und der sagt: „Oktoberfest? Moment mal. Oktoberfest? Ja, warum nicht? Das könnte ich einrichten.“ Brian holt Phil am Flughafen ab. Es ist ein Samstagvormittag. Er fährt ihn zu Hardys Penthaus mitten im Zentrum. „Das ist Phil“, sagt Brian. Der mustert Hardy und sagt dann nur: „Sie haben 15 Minuten. Wo soll ich sitzen? “ Hardy hasst diesen arroganten Typen da vor ihm. Aber sie setzen sich, und Hardy skizziert einige seiner Gedanken. Phil reagiert mit allerlei schicken mathematischen Formeln. „Warten Sie mal“, sagt Phil plötzlich. Hardys Konzept beginnt ihn zu interessieren. Das Oktoberfest eröffnet an diesem Samstag pünktlich um zwölf. Die Leute um die beiden herum packen zusammen. Taxis werden gerufen: Auf zum Oktoberfest. „Ja, fahrt schon mal los, wir kommen gleich nach.“ <?page no="99"?> 3.4 Phil, die Multibegabung 99 Ungefähr sieben Stunden später - es beginnt schon dunkel zu werden - kommen alle zurück, alle betrunken. Hardy und Phil sitzen noch immer im selben Raum und reden sich die Köpfe heiß. „Warum seid ihr bloß nicht gekommen? “ „Wir hatten zu tun.“ Sie reden weiter, die ganze Nacht hindurch. Am Morgen sitzen sie noch immer beisammen. Hardy schwimmt geradezu in einem Meer von Büchern um sich herum. Und Phil löchert ihn mit Fragen zum Gebrauch von Sprache. Beide ziehen ihr IT-Wissen heran, machen Ausflüge in die Welt der Physik. Phil reagiert bewundernswert schnell. Er blickt auf eine Sache, versteht sofort, kombiniert blitzartig und spuckt bumm bumm bumm ein Ergebnis aus. Ein absolut brillanter Kerl, muss Hardy insgeheim zugeben - aber auch eine Nervensäge erster Güte. Lässt mich keinen einzigen Stich machen. Ich versuche neue Sachverhalte in einer neuen Sprache zu fassen. Das lässt er nicht durchgehen: „Nein, so ist das nicht, dieses Wort gibt es gar nicht.“ Hardy holt ein Lexikon heraus, einen ganz dicken Webster, und sucht das Wort intensity, Intensität. „Das bedeutet gar nichts“, lässt Phil ihn wissen, „das ist alles Quatsch“. Hardy hält ihm das Lexikon unter die Nase: „Nun lesen Sie doch mal. Lesen Sie doch. Hier steht es schwarz auf weiß.“ Phil sagt nichts, nimmt das Buch, klappt es zu und legt es weg. „Ist mir völlig egal, was ein Lexikon sagt.“ Sie streiten sich weiter, schließlich von ein paar Mini-Flaschen spanischen Metaxa- Schnapses nur etwas besänftigt. Irgendwann mitten in der Nacht machen sie eine nur kurze Pause, bekommen ihren roten Faden aber schnell wieder zu fassen und setzten die Diskussion ungerührt fort, bis zum Nachmittag des folgenden Tages. Es ist gegen fünf Uhr, Sonntag. Werktags wäre jetzt Büroschluss. „Ok“, sagt Phil da. „Ich glaube, deine Idee ist komplett verrückt. Aber sie interessiert mich. Ich glaube, du hast da etwas.“ Mit diesen Worten gehen beide aufs Oktoberfest und trinken jeder eine Maß. Den nächsten Tag verschlafen sie dann komplett. Am übernächsten Morgen wachen sie auf, frühstücken und setzen sich danach nochmals zu einer sehr produktiven Aussprache zusammen. Phil überzeugt Hardy, seine Ideen nochmals neu durchdacht zu Papier zu bringen. Was Hardy nur flüchtig skizziert oder gar nur in Steno notiert hat, bekommt nun eine klare, vorzeigbare Form. „Jedes Wort“, hat Phil ihn ermahnt, „hat eine bestimmte Bedeutung. Die genau musst du treffen. Es muss einfach passen, und das musst du auch kontrollieren.“ Um es kurz zu machen: Phil entscheidet sich, nur in die USA zurück zu reisen, um sein sehr gut bezahltes Anwaltsdasein aufzugeben, kommt dann wieder nach Europa und arbeitet ab 2002 mit Hardy zusammen daran, die Idee Quantum Relations anwendbar zu machen. „Phil“, sagt Hardy, „ist, kurz gesagt, jemand, der mich wirklich versteht, aber mit nichts einverstanden ist, was ich sage und tue. Es ist wunderbar. Der Kerl ist wirklich scharf, und irgendwelche Gräben existieren für ihn überhaupt nicht.“ <?page no="100"?> 100 3 Von Newton über Einstein Mit Phil Gagners tiefer Kenntnis auf dem Gebiet der Künstlichen Intelligenz, die er sich in seinem MIT-Studium unter Marvin Minsky angeeignet hat, vermögen die beiden mit ihren Teams Anwendungen von Hardys Quantum Relations-Theorie auf Computercodes zu rechnerbasierten Modellen der heutigen Welt zu entwickeln. 33..55 DDeerr WWeegg zzuu RRaavve ennPPaacckk Der Finanzmarkt als erstes Anwendungsfeld Eine Software-Entwicklung kostet erst einmal Geld, und nicht wenig, besonders wenn sie sich so anspruchsvolle Ziele setzt, wie Hardy das tut. Also, sagt er sich, wäre es gut, wenn die einzusetzenden Summen möglichst bald wieder Geld verdienen. Nur dann, weiß auch Heiner, der für Geldbeschaffung zuständig ist, werden Investoren bereit sein, diese Entwicklung vorzufinanzieren. Das, so einigt man sich, kann besonders effizient dort gelingen, wo Geld nicht nur eine Investitionssumme ist, sondern zugleich die Ware, mit der man handelt. Es ist der Finanzmarkt. Hardy, Heiner und Phil nehmen sich also vor, die bisher noch abstrakte quantum relations- Methodik für diesen Markt der Aktien und Anleihen auf konkrete Füße zu stellen. Heiner stellt dazu 1999 seine Firma Patentpoolund deren Räume in der Münchner Altstadt zu Verfügung, und Hardy nutzt sie, sobald er seinen Siemens-Auftrag für Arthur Andersen erledigt hat und sein dafür gemietetes Penthaus hoch über der Isar wieder verlässt. Es liegt nahe, dass der eine in die Büroetage des anderen mit einzieht. Technisch ist das kein Problem. Vorderhand ist das Quantum Relations-Entwicklungsteam klein, und technisch braucht es anfangs nicht viel mehr als elektrischen Strom, Telefon- und Internetanschlüsse sowie ein paar leistungsfähige Computer. Patentpool hat eigentlich etwas andere Aufgaben, nämlich die Vermarktung von Patenten. Zwar ist auch die Anwendung des patentierten Quantum Relations-Prinzips eine Vermarktungsaufgabe, aber erst, wenn die Umsetzung der Theorie in ein marktfähiges Produkt komplett oder doch weitgehend vollzogen ist. Die RavenPack-Raben Die computertechnische Umsetzung von Quantum Relations nennt Hardy nicht cloud computing, weil es diesen Begriff in den frühen 2000er-Jahren noch gar nicht gibt, sondern findet dafür das bildhafte Wort raven space. Ravens, also Raben, sind in der nordischen Mythologie zwei besonders kluge Tiere namens Huginn und Muninn. Huginn steht für Geist und Muninn für Geld. Beide durchstreifen die Welt jeden Tag nach Informationen und unterrichten den Gott Odin über ihre Befunde. So erhält Odin überragendes Wissen über alles, was in der Welt vorgeht. Von space, also von Raum, ist die Rede, weil es um eine Vernetzung vieler verschiedener Computer geht. Hardy will ein über einen größeren Raum verteiltes computing system entwickeln, einen exakten Vorläufer von cloud computing. Dazu sucht er den one way path, den dazu einzig richtigen Weg, um mit dieser Mehrzahl von Rechnern vernetzt umzugehen. Und er sucht und einen Namen für eine zu gründende Firma, die das Quantum Relations-Prinzip im Finanzmarkt etablieren soll. Der Name, den Hardy sich dazu ausdenkt, lautet RavenPack. Er übersetzt die mythische Leistung der schlauen Raben Munnin und Huginn in die Fähigkeit, führenden Finanzhäusern die wichtigsten Informationsquellen des weltweiten Kapitalmarkts aufzubereiten. Das RavenPack-Logo zeigt abstrahiert ein Rabenpaar. Erste RavenPack-Aufgabe soll es sein, einen raven space zu erzeugen, also ein vernetztes Computersystem zur Marktanalyse, das blitzschnelles Reagieren ermöglicht. <?page no="101"?> 3.5 Der Weg zu RavenPack 101 Hardy erläutert: „Man kann sich einen solchen raven space als Quadrat vorstellen, in dessen vier Ecken jeweils technische Module stecken. Betrachten wir zuerst die linke untere. Dorthin stecken wir das Com-Modul, com wie commercial, also wirtschaftlich. Es wird auf die spezifischen Belange jedes Kunden konfiguriert. Da laden die Kunden eigene Datenpakete, aber auch Fragen hinein. Sind diese Daten sicher vor Hackern? Absolut, denn dort bleiben sie nicht, sondern werden gleich in die obere linke Ecke des gedachten Quadrats weitergeschickt, in das Interface- Modul, das streng abgeschirmte Schnittstellen-Modul, das Hackern keine Angriffsmöglichkeit bietet. Damit solche ungebetenen „Gäste“ dort gar nicht erst suchen, kann man, um Hacker abzulenken, an das Com-Modul ein paar harmlose Datensätze anhängen. Das Interface-Modul, sagt Hardy schon 1999, ist dazu da, die zugelieferten Basisinformationen um zahlreiche weitere Datenquellen anzureichern: um Faxinhalte, um damals noch in der Entwicklung steckende, aber irgendwann einsetzbare Smartphones und andere smart devices. Sie sind dann zu ergänzen um industrielle Datenbestände und um Daten aus Bevölkerungsanalysen, etwa aus Volkszählungen, aus Befragungen und dergleichen mehr. Die so wesentlich angereicherten Daten fließen nun in die rechte obere Ecke des gedachten Quadrats in das sogenannte business operating system (BOS), das eigentliche Rechenprogramm. Es greift auf die gelieferten Massendaten zurück und arbeitet dazu in drei Schichtungen. Die erste errechnet die für ein Projekt nötigen Finanzen, die zweite durchleuchtet die nötige Logistik und die dritte sucht die passenden Umsetzungswege. Bevor nun in der vierten Ecke des Quadrats der page composer angesteuert wird, der das Rechenergebnis Seite für Seite sichtbar macht, gleicht das BOS seine Daten noch mit gespeicherten permissions ab, also mit Zugriffs- und Bearbeitungsrechten bestimmter Personen und Institutionen. Danach speichert ein page composer sein Wissen ab und schreibt es in html files nieder, also in der gängigen computerlesbaren Sprache. Diese files hätte das System, wäre es zu diesem Zeitpunkt nicht nur ein Gedankengebäude, dann an die Eingangsstelle zurückzuleiten, an das Com-Modul, wo der Kunde es einsehen oder abholen könnte.“ Es dauert noch ein paar Jahre, bis aus dieser Vision Wirklichkeit wird. 1999 lässt Hardy seinen raven space patentieren. Im selben Jahr heben Heiner und er das Big Data-Unternehmen RavenPack aus der Taufe. Es wird wirtschaftliche, politische und soziale Daten mit Künstlicher Intelligenz auf der Basis von Quantum Relations für den Finanzmarkt analysieren und Empfehlungen anbieten. Es beschäftigt bald 40 EDV-Spezialisten an den Vorstufen des Quantum Relations-Programms, im Wesentlichen an der Umsetzung dessen, was in Hardys Patent zu lesen steht. Die Kosten dafür sind enorm: eine halbe Million DM im Monat.Aber es gibt auch schon eine Belohnung: 2001 überreicht NetInvestor Hardy für die Erfindung des raven space einen Preis für eine der damals 25 besten Zukunftstechnologien. Kurz nach der Jahrtausendwende macht ihm ein Markteinbruch jedoch vorläufig einen Strich durch ihre Rechnung. Die sogenannte dot.com-Blase platzt; für zahlreiche Start-ups des gerade begonnenen Internet-Zeitalters und einige ihrer Finanzierer ist es das Aus. Alles kommt sehr überraschend. Sogar Hardys Prognosespezialisten erwischt es kalt. Innerhalb von zwei bis drei Monaten muss RavenPackdie meisten seiner 40 Programmierer entlassen. Die Bremsspuren sind gewaltig. Die Gehälter von 500.000 Mark pro Monat muss das Management auf 40.000 herunterbrechen. „Wir sind da nicht stolz darauf, aber anders wäre es nicht gegangen“, sagt Heiner später und setzt hinzu: „40.000 Mark zu besorgen war schon schwierig genug in dieser Zeit, in der ja alles einbrach, jede Art von Aktie. Kein Mensch wollte mehr Aktien, niemand glaubte mehr an das Internet. Es gab dunkle Momente, in denen man schlaflos der Zukunft entgegen schaute. Aber Beharrlichkeit zahlt sich aus.“ 2001, nach dem Zerplatzen der dot.com-Blase, verlässt Hardy seinen Standort München und zieht mit den bei RavenPack verbliebenen Programmierern ins südspanische Marbella. Denn sein kalifornischer Lebensstil und der Münchner Matschwinter sind auf die Dauer nicht zu <?page no="102"?> 102 3 Von Newton über Einstein vereinbaren. Zu seinem Team gehören auch andere Amerikaner, die meistens ebenfalls aus dem sonnigen Westen der USA kommen. Auch die fühlen sich wohl im warmen Marbella. Und außerdem ist es dort billiger als im teuren München. Und schließlich, ganz entscheidend: Es gibt ausreichend internet connectivity, Marbella verfügt schon zur Jahrtausendwende über eine der stärksten Leitungen zur Übertragung von Daten. Das ist ein wichtiger Grund, dorthin zu gehen. Denn eine cloud, also eine Zusammenschaltung von Computernetzwerken nur über Funk, gibt es noch nicht. Hardy pendelt zunächst noch einmal im Monat zwischen RavenPack in Marbella und Patentpool in München. Auch für Heiner ist es nicht unangenehm, einmal im Monat den deutschen Winter zu unterbrechen und nach Marbella zu fliegen. „Das ist ja auch schön.“ Die RavenPack-Story 2002 - 2009 Ende 2002 gelingt es dem RavenPack-Team, ein eingeschränkt funktionsfähiges System fertigzustellen, um mögliche Investoren von den technischen Möglichkeiten der eigenen Software zu überzeugen. Es wird zunehmend realistisch, die Fähigkeiten von RavenPack für Analysen und Vorhersagen in der Entwicklung der Finanzmärkte nutzbar zu machen. Es erscheint den Entwicklern besonders attraktiv, aber selbstverständlich ist es nicht Denn noch gilt weithin die Überzeugung, Marktentwicklungen könnten gar nicht vorhergesagt werden, weil der aktuelle Preis jedes Wertpapiers, der price of now, bereits alle aus der Vergangenheit verfügbaren Informationen enthalte. Diese Ansicht hat lange viele Anhänger; Hunderte Studien stützen sich noch Jahre später auf diese efficient market hypothesis über den leistungsfähigen Markt (Michel 2010). 2006 wird RavenPack zeigen, dass diese Annahme falsch ist. Und 2009 wird das renommierte New Yorker Unternehmen Macquarie Research nach monatelanger Auswertung von RavenPack-Informationsströmen die Einschätzung von 2006 bestätigen: Mit der RavenPack software reiche der Informationsvorsprung aus, um mit automatisierten Handelsplattformen auf Marktveränderungen rechtzeitig reagieren und so Gewinne erwirtschaften zu können. Aber der Markt ist schwierig. Als die dot.com-Blase 2001 platzt; gerät der Neue Markt in Aufruhr; zahlreiche erst kurz zuvor gegründete und teilweise wie im Rausch gewachsene Firmen verschwinden. Erst 2003 kann RavenPack nach der Überwindung dieser Krise wieder aufstocken. Denn erst dann kommt Investorengeld allmählich zurück in den Markt. Armando Gonzalez stößt zu RavenPack, der spätere CEO. Firmenchef ist zu dieser Zeit Hardy. Er entwirft und entscheidet das Prinzipielle, bestimmt die große Linie, braucht aber jemanden an seiner Seite, der für das Feintuning zuständig ist. Also wird Gonzalez zunächst Hardys Assistent - ein schlauer Kopf, ein reiner Kaufmann, kein Programmierer. Aber auch er entwickelt sich zum gefragten Datenexperten mit Veröffentlichungen unter anderem im Wall Street Journal, in der Financial Times und bei CNBC. Damals ist nicht abzusehen, welches Unternehmen sich besser entwickeln wird, Patentpool oder RavenPack. Heiners Patentpool ist parallel noch in einem anderen Projekt namens Toximed engagiert. Das kostet viel Kraft. Heiner erinnert sich genau: „Grundlage waren tierische Gifte von Spinnen, Schlangen, Skorpionen und Echsen. Ein Forscher, Dirk Weickmann, hatte im Kampf gegen Krebs traurige Ergebnisse hinnehmen müssen und setzte auf neue Methoden, legte infiziertes Brustkrebsgewebe in eine Petrischale und fügte solche tierischen Gifte hinzu. Und tatsächlich: Nach 24 Stunden stellte das Gewebe sein Wachstum ein. Nach 72 Stunden sind gesunde Zellen nachgewachsen. Das gab’s in der Geschichte des Deutschen Krebsforschungszentrums noch nicht.“ Das ruft die Konkurrenz auf den Plan. Weickmanns Befunde werden der Pharmaindustrie gefährlich. Plötzlich durchsuchen Polizei-Hundertschaften mehrere Häuser, insgesamt sechs, sogar bei Heiners Mutter in Stuttgart, bei der er seit zwanzig Jahren noch einen <?page no="103"?> 3.5 Der Weg zu RavenPack 103 Zweitwohnsitz hat. Computer werden beschlagnahmt. Gründe nennt die Polizei nicht, aber Heiner glaubt sicher zu sein: „Beauftragt hat das eine Verleumdungsagentur im Auftrag der Pharmaindustrie. Wir hatten das Ergebnis der Studie natürlich unseren hundert oder zweihundert Investoren mitgeteilt. Das war schließlich eine Sensation. Daraufhin hat man uns die Zusammenarbeit aufgekündigt, weil wir publiziert hätten. In unserem Vertrag stand nämlich, dass wir das nicht veröffentlichen dürfen - was wir ja auch nicht getan haben, weil eine Information an zweihundert zahlende Investoren keine Publizierung ist.“ Hardy muss unterdessen seine Software in Marbella perfektionieren und braucht dazu zusätzliches Geld von Patentpool. Das Unternehmen schafft Investoren herbei. Zunehmend kommt Geld aber auch direkt aus dem Markt. RavenPack beginnt sich durch den Verkauf von Echtzeit-Informationen an automatisierte Handelsplattformen von Hedge Fonds und Banken zu finanzieren. In den folgenden Jahren kommen etwa hundert solche Großkunden zusammen. Ihre Abonnements der RavenPack Software sichern dem Unternehmen ein stabiles Geschäft. Aber woher sollen die Massen an Echtzeit-Informationen kommen, die RavenPack dazu benötigt? Als Software-Haus kann es sie unmöglich selbst generieren. Deshalb verabredet RavenPack, das 2007 noch ein Portfolio-Unternehmen der Patentpool-Gruppe ist, eine Zusammenarbeit mit einem US-amerikanischen Medien- und Finanzkonzern: Hardy schafft es, Dow Jones als Datenlieferanten zu gewinnen. Über deren Plattform vermarktet RavenPack seine Datenauswertungen unter dem Namen Dow Jones News Analytics. Den 180.000 Kunden der Dow Jones Newswire Services bietet RavenPack Lizenzen dieses System für automatisierte Handelsprozesse auf den globalen Finanzmärkten an. Banken und Hedge Fonds, Vermögensverwalter und Großinvestoren rund um die Welt greifen zu. RavenPack analysiert zu diesem Zeitpunkt rund 2500 Einzelnachrichten in der Minute in Echtzeit, also im Moment ihrer Veröffentlichung, greift aber auch auf das 20 Dow Jones- Jahrgänge umfassende Nachrichtenarchiv zu. Alle Aussagen übersetzt es auf der Basis von advanced computational linguistics - auf deutsch mit fortgeschrittener computergesteuerter Sprachanalyse - in auswertbare Zahlenformate. Die riesigen Textmengen lassen sich anhand frei konfigurierbarer Parameter als mathematisch-statistische Angaben in klar definierte Zusammenhänge stellen und grafisch darstellen. Grundlage ist Hardys Quantum Relations-Methodik, die dieser in den USA patentrechtlich hat schützen lassen und bereits mehrfach wissenschaftlich publiziert hat. Er erklärt den Nutzen seines Systems so: „Die Entwicklung der Wirtschaft wird von einer Vielzahl parallel eintreffender Informationen beeinflusst, ob es sich um eine wegweisende Rede eines Notenbank-Präsidenten handelt, um neu veröffentlichte Arbeitslosenzahlen, geänderte Leitzinsen, Aktienkurse, Rohstoffpreise oder politische Umwälzungen - um nur einige zu nennen. Unser System speichert und verarbeitet alle für eine Problemlösung relevanten Informationen in Echtzeit zum Zeitpunkt ihrer Bekanntgabe und ermöglicht so verlässliche Entscheidungsgrundlagen für automatisierte Handelsprozesse. Auch fokussierte Trendauswertungen oder spezielle Indizes lassen sich durch individuelle algorithmische Beschreibungen jederzeit implementieren“ (RavenPack 2007). Und Dennis Cahill, Senior Vice President der Dow Jones Enterprise Media Group, sekundiert damals: „Aus Kostengründen war die Speicherung und intelligente Verarbeitung sehr großer Datenmengen bisher ausschließlich sehr großen Finanzierern vorbehalten. Mit Dow Jones News Analytics präsentieren wir jetzt eine leistungsfähige Lösung zur automatisierten Bewertung von Handelsgeschäften, Hedge- und Investmentstrategien bei geringeren Inhouse-Entwicklungs-Ressourcen zu deutlich günstigeren Kosten“ (ibid.). Mit dieser Software empfiehlt RavenPack seinen Kunden also Geschäfte mit Aktien, ohne dass diese Kunden sich das dazu nötige Wissen selbst aneignen müssen. <?page no="104"?> 104 3 Von Newton über Einstein Für Heiner bestätigt die Partnerschaft von RavenPack mit Dow Jones die Patentpool-Geschäftsstrategie: „Seit fast zehn Jahren bringen wir innovative Technologien mit Hilfe privater Investoren zur Marktreife und unterstützen die Entwickler in den verschiedenen Stufen des Innovationsmanagements. Die Fertigstellung der RavenPack Software ist das Ergebnis von mehr als sieben Jahren Entwicklungsarbeit“ (RavenPack 2007). Das amerikanische Bankhaus Rothschild bewertet RavenPack zu diesem Zeitpunkt auf mehr als 90 Millionen Euro - ein Wert, „von dem unsere Investoren künftig in barer Münze profitieren werden“ (ibid.). Es gibt aber eine Kehrseite. Ein leitender Fondsmanager einer großen Vermögensverwaltung in London sagt damals voraus, die RavenPack-Initialzündung werde dazu führen, dass sich die gesamte Finanzindustrie grundlegend verändern und wieder auf ihr Kerngeschäft konzentrieren werde. Durch die zunehmende Automatisierung werde in fünf bis sieben Jahren nur noch jeder hundertste Arbeitsplatz in dieser Branche existieren, und der werde von einem Computerspezialisten ausgefüllt werden“ (Michel 2010). Noch vor Ablauf des ersten Jahrzehnts im neuen, dem 21. Jahrhundert, sagen Experten weiter voraus, werde der Einsatz von Supercomputern bei Entscheidungen für automatisierte Handelsprozesse bewirken, dass die gewohnte Finanzindustrie bald überhaupt nicht mehr existieren werde. Diese Entwicklung habe an der New Yorker Wall Street und an anderen großen Finanzplätzen der Welt schon begonnen und sei nicht mehr aufzuhalten. Angesichts der immensen Schäden, die den Volkswirtschaften durch Investment Banking und Spekulationsgeschäfte entstanden sind, sei das für die Menschheit eine sehr gute Nachricht (ibid.), heißt es 2007. Diesen Beitrag geleistet zu haben, erklärt Heiner zehn Jahre später, machten Hardy und ihn noch heute mächtig stolz. Der Lehman Brothers-Bankrott bremst RavenPack aus Am 15. September 2008 muss das Bankhaus Lehman Brothers, eine der größten Banken weltweit mit 2007 noch 28.600 Beschäftigten, wegen der Finanzkrise Insolvenz beantragen. Diese Krise hat viele Ursachen, nicht zuletzt diese: Die Märkte verlieren in die beliebten, immer komplexer konstruierten ‚Finanzprodukte‘ der Investmentbanken das Vertrauen, und weil niemand mehr ihren Wert beurteilen kann, taumeln auch deren Preise. So bricht der Markt zusammen. Der Wert der Ware ist nicht mehr zu bestimmen; sie wird letztlich wertlos (Fichtner 2017: 42). Nur mit unvorstellbaren Anstrengungen gelingt es westlichen Regierungen und Notenbanken, eine Kettenreaktion zu vermeiden. Für Patentpoolund RavenPack ist es ihre zweite Weltwirtschaftskrise. Denn ihre Hauptkunden sind Investmentbanker. Die gehen reihenweise bankrott. Mit ihnen ist auf Sicht kein Geschäftzu machen. Zwei Jahre lang versuchen Patentpool und RavenPack, mit ihrer Software und den durch dieses Programm laufenden Informationen erfolgreich Aktien zu handeln, haben auch gute Prognosen, aber machen keine Gewinne. Denn sie verfügen einfach über zu wenig Geld, um Aktien im großen Stil kaufen und verkaufen zu können. Zwei Millionen Kapital schießen sie an der Börse hin und her. Für jeden Kauf und jeden Verkauf fallen Gebühren an. Je kleiner das gehandelte Aktienpaket, desto relativ höher ist der Gebührenanteil. Hätten sie hundert Millionen in Aktien hin und her schieben können, hätte sich der Handel gelohnt, sagt Heiner rückblickend. So aber bleibt unter dem Strich nichts hängen. Aber Hardys Software, die Aktien bewertet und ihre Kursentwicklung abschätzt, ist gut. Alle finden, dass sie gut ist. Frisches Geld für ihren Einsatz ist deshalb der alles entscheidende Schritt. RavenPack braucht nicht 40.000 Euro wie zuletzt für die monatlichen Gehälter der eigenen Mannschaft, sondern vier Millionen. So viel kann Patentpool in Zeiten der Lehman-Krise nicht aufbringen. Daraufhin spricht RavenPack ohne Rückfrage bei der Muttergesellschaft Patentpool eine Firma für sogenannte Brückenfinanzierungen an, eine englisch-schwedische Bridge Group. Die zeigt sich an RavenPack interessiert, stellt für eine vier- <?page no="105"?> 3.5 Der Weg zu RavenPack 105 Millionen-Investition aber eine grundlegende Bedingung: Sie darf sich nur an einem Produkt beteiligen, das nach den gängigen Regeln des Kapitalmarkts aufgesetzt ist. RavenPack steht daraufhin vor zwei Alternativen. Entweder nehmen die Initiatoren 200.000 bis 300.000 Euro in die Hand und lassen externe Experten mit diesem Geld einen Hochglanz-Kapitalanlageprospekt erarbeiten. Käme der in Deutschland heraus, müsste ihn die Bundesanstalt für Finanzdienstleistungen auf seine rechtliche Eindeutigkeit prüfen und dann genehmigen. In Marbella ist dazu aber niemand greifbar. Oder die Initiatoren gründen in der Schweiz eine AG, die RavenPack Holding AG, mit dem Zweck, ein Zwitterprodukt aus handelbarer Aktie und nicht an einer Börse notiertem Wertpapier zu emittieren. Es bekommt zwar eine Wertpapier-Kennnummer und hält damit die geforderten Regeln des Kapitalmarktes ein, wird aber trotzdem nicht an der Börse gehandelt, so dass die Initiatoren der AG über das Gesellschaftskapital allein verfügen. Das ist die Lösung. Neues Geld hat das Sagen Im April 2009 trifft das Geld der Bridge Group ein. Nun ist RavenPack wieder ausreichend flüssig und kann mit dem frischen Kapital auch in New York ein Büro aufmachen. Ein weiteres in London kommt später hinzu. Eine Gesellschaft namens RavenPack International, die anfangs nur das RavenPack-Büro in New York führt und inzwischen ruht, wird zum rechtlichen Mantel der RavenPack sociedad limitada (SL). Diese SL, die einer deutschen GmbH ähnelt, anders als eine solche aber keine 25.000 Euro Haftungskapital aufbringen muss, wird in Marbella ins Leben gerufen. Sie setzt die Arbeit der bisherigen RavenPack- Gesellschaft nahtlos fort und arbeitet weiter auf der Basis der Technologien, die Hardy 1999 als Patent angemeldet und dort eingebracht hat. Mit der Finanzspritze der Bridge Group kommt das Unternehmen wieder auf Touren. Patentpool hat das Nachsehen. Der Anteil der Münchner am RavenPack-Kapital geht mit dem Einstieg der Bridge Group stark zurück. Zu Anfang haben ihnen 80 Prozent von Raven- Pack gehört. Fortan liegt er nur noch bei 25 Prozent. „Hätte ich damals ein bisschen mehr Energie gehabt“, urteilt Heiner viel später, „hätte ich sagen können: Gut, wir machen einen Gegenfinanzierungsvorschlag, so dass wir die Bridge Group nicht bräuchten. Den umzusetzen dauert dann halt etwas länger. Aber ich war auch ein bisschen müde nach so vielen Jahren in der Aufgabe, RavenPack zu finanzieren, häufig genug auf den letzten Drücker. Also war ich froh, dass die vier Bridge Group-Millionen kamen. Lieber halten wir 25 Prozent an einem Unternehmen, das wirklich wertvoll und Weltspitze ist, als 80 Prozent an einem, das nicht mithalten kann.“ Das neue Geld hat also das Sagen. Aber nicht nur die Kapitalmehrheit ändert sich mit dem Einstieg der Bridge Group (die heute nicht mehr besteht), sondern auch die Führungsstruktur. Patentpool kann mit nur noch 25 Prozent nicht mehr bestimmen. Prompt erklärt Hardys bisheriger Assistent Gonzalez: Dann bin ich künftig hier auch der Chef. Ihm ist ein unfriendly takeover gelungen. Hardy verliert bei RavenPack seinen Job. Auch Heiner hat dort nichts mehr zu entscheiden. Er gehört fortan nur noch zum Beirat der Firma. Das Unternehmen steht auch ohne Hardy sicher auf eigenen Füßen. Auf die Neustrukturierung von 2009 folgen einige Finanzierungsrunden mit Management-Beteiligungen und anderen Finanzierungsschritten, die alle dasselbe Ziel haben: neues, flüssiges Geld in die Kasse zu holen. Als Ergebnis sinkt der Patentpool-Anteil an RavenPack von 25 weiter auf nur noch gut zehn Prozent. Den Kunden ist das egal - Hauptsache: Die Analysequalität von RavenPack stimmt und sowohl bei ihnen wie auch bei RavenPack selbst kommt genügend Geld in die Kasse, um weitere Expansionen finanzieren zu können. <?page no="106"?> 106 3 Von Newton über Einstein Wie RavenPack arbeitet „Im Prinzip“, sagen die RavenPack-Leute, „arbeiten wir heute noch genau so wie zu Hardys Zeiten. Wir scannen die Welt nach Informationen, um damit unseren Kunden Vorteile zu verschaffen. Wir zeigen ihnen Wege zu für sie noch unerschlossenen Werten. Aber im Detail hat sich natürlich sehr viel weiterentwickelt. Unsere Kunden können Daten und Analysen abrufen, die nicht nur ein Jahr zurückliegen können, sondern auch fünf, ja sogar zehn Jahre zurück, und sie erhalten diese Ergebnisse so schnell wie auf der Basis neu eingehender Daten. Unsere Dienste laufen plattformübergreifend auf den Computerprogrammen Unix, Linux und OS/ X, und sie nutzen auch Internetquellen. Unser System verarbeitet Hunderte Nachrichten und social media posts in Millisekunden. Wir speichern diese Art von Big Data, analysieren sie, verknüpfen sie mit anderen Daten und senden unsere Resultate unverzüglich an unsere Kunden.“ Diese Beschreibung hat eine Kernvoraussetzung: Der Finanzmarkt hat zu den ersten Wirtschaftszweigen gehört, die sich mit Künstlicher Intelligenz automatisierten. Das hat sein Handeln unglaublich beschleunigt. Institutionelle Investoren, also Banken, Fonds und Konzerne, erläutert die BWL-Professorin am Centre for Financial Research Monika Gehde- Trapp schon 2015 „agieren heute fast ausschließlich durch Maschinen (Gehde-Trapp 2015). Sie haben die Erledigung von Aufträgen an den Börsen nicht nur schneller und billiger gemacht, sondern auch zu einem höheren Handelsvolumen geführt, zugleich aber auch häufiger zu Marktversagen. Die Professorin erinnert an den „chaotischen Börsengang von Facebook“ (ibid.). Die Rechner der Nasdaq, der elektronischen US-Börse, hatten die enorm vielen Kaufaufträge nicht zügig genug abwickeln können. Tausende von Aufträgen hingen stundenlang im System fest. Wegen fehlender Kaufbestätigungen schickten große Investoren ihre Aufträge immer wieder los. Die Maschinen konnten Auftragswiederholungen und echte neue Aufträge nicht unterscheiden. Sie registrierten nur endlos viele. Das hat die Kurse der Aktie zuerst nach oben schießen und dann, als klar wurde, dass es sich meist nur um Auftragswiederholungen handelte, in den Keller stürzen lassen - nicht nur ein riesiger Imageverlust, sondern auch ein finanzielles Fiasko für die Börse“ (ibid.). Die Computer, deren Algorithmen untereinander derartige Geschäfte abschließen, ohne dass Menschen eingreifen, heißen im Branchenjargon algotrader. Diese Hochfrequenz- Handelsmaschinen wickeln für jeden Kunden 100.000 Transaktionen ab - pro Sekunde (Eberl 2016: 272). Ohne Auftragswirrwar sorgen sie für zusätzliche Aufregung und Kursausschläge im Markt. „Wenn es gut läuft, sind sie aktiv, wenn es schlecht läuft, halten sie sich zurück. Und sie werten riesige Datenmengen sehr schnell aus. Daher interpretieren sie auch sehr kleine und kurzfristige Signale ohne echten Informationsgehalt als ein Zeichen, dass sie sich zurückhalten sollen“ (ibid.). Big Data-Analysen können hier dämpfend eingreifen, sagt die Professorin: „Wenn wir eine technologische Innovation beobachten und sehen können, wie algotrader reagieren, können wir Ursache und Effekt identifizieren“ (ibid.). Auch hier spielen nicht nur harte Fakten eine Rolle, sondern, wie wir schon früher gesehen haben, auch Stimmungen. „Seit einigen Jahren werden in der Finance-Forschung daher zunehmend Informationen wie Google-Suchintensitäten, Twitter oder Facebook genutzt, um die Investorenstimmung zu messen. Die Stimmung, die Investoren zum Beispiel in Google- Suchanfragen zeigen (wie oft wird z.B. der Begriff „Rezession“ gegoogelt), beeinflusst Haus- und Wertpapierpreise (ibid.). „Je schlechter die Stimmung, desto höher sind die Kapitalkosten“ (ibid.). Analysen zeigen, „dass Investoren bei Schönwetter oder klarem Winterwetter mehr Aktien handeln als an nebligen Tagen. Das Wetter beeinflusst unser Leben in vielen Bereichen, ohne dass uns dies bewusst ist“ (Nimführ 2016). Gut also, wenn Big Data-Analyen auch zu diesen soft facts Einblicke liefern. <?page no="107"?> 3.5 Der Weg zu RavenPack 107 Bald nutzen etwa 80 Prozent der Computer in global führenden Finanzinstituten wie Stanley Morgan oder Goldman Sachs, bei Dow Jones oder der Deutschen Bank die RavenPack- Technologie zur Steuerung von Anlageentscheidungen in Millisekunden. Trotz etlicher hundert Firmen, die für den Finanzsektor Daten aller Art aufbereiten und anbieten: Die RavenPack Software ist Standard geworden. Jedes analysierte Ereignis heißt im Jargon der RavenPack-Analysten ein event, ganz gleich, ob da jemand, über den irgendwo eine Nachricht ausgesprochen oder aufgeschrieben, gedruckt oder gesendet oder online gestellt wurde, gehandelt oder nur gesprochen oder beispielsweise in einem blog oder in einem Interview nur laut nachgedacht hat, ob es sich um eine klare Tatsache oder nur um eine Absichtserklärung handelt, nur um eine Vermutung oder gar nur um ein bloßes Gerücht. Jede Meldung und auch jede Einzelaussage innerhalb einer komplexeren Meldung ist so ein event. Da solcherlei Nachrichten pausenlos durch die Welt schwirren, ist ihre Zahl gigantisch - Big Data eben. Allein über Indien verarbeiten die RavenPack-Analysen rund eine Million solcher events. Wie viele müssen es erst aus den führenden Wirtschaftszentren sein, aus New York und London, Tokio und immer öfter auch China, selbst wenn man als limitierenden Faktor einberechnet, dass RavenPack nur Quellen in englischer Sprache verarbeiten kann? Auch Japan und China verbreiten pausenlos Meldungen in englischer Sprache. Um dieser event-Schwemme Herr werden zu können, muss das Unternehmen diese Nachrichtenflut bündeln. RavenPack sortiert sie zunächst nach siebentausend Variablen sogenannter granular events, womit voneinander unterscheidbare Ereignistypen gemeint sind, von einfachen Firmenentscheidungen über komplexere Entscheidungs-„Pakete“ etwa bei Firmenübernahmen bis hin etwa zu Naturkatastrophen. Aus diesen Quellen in einer Vielzahl von Formaten vom Dow-Jones-Nachrichtenstrom bis zu social media-Analysen leitet RavenPack Ereignisbewertungen für seine Abonnenten ab. Alles was wirtschaftlich wichtig sein könnte, von einer Schätzung der Wirtschaftsentwicklung über alle Arten unternehmerischer Entscheidungen bis zu ersten Gerüchten über Firmenfusionen, registriert, verarbeitet und verbreitet das Unternehmen elektronisch, also mit Lichtgeschwindigkeit. Aus etwa zwei Milliarden Dokumenten präsentiert es seinen Kunden extrahiertes Wissen in mehr als tausend verschiedenen Aufbereitungs- und Verdichtungsformen. Dieser Fächer reicht von Sortierungen nach den top 500 oder den top 100-Unternehmen in den USA oder in der EU über Listen der wichtigsten großen und seit Herbst 2012 auch der bedeutenden kleinen Unternehmen bis zu volkswirtschaftlichen und geopolitischen Nachrichtenanalysen mit Querschnittsbetrachtungen einzelner Länder, Märkte, Branchen oder Firmengruppen und bis zum Wirtschaftsrecht, zu Produktentwicklungen und Produktvergleichen, klinischen Testreihen, neuen Patenten und sogar bis zum Sport. Während die blitzschnellen Standardinformationen in der Regel von Computern verarbeitet werden - zu 80 Prozent werden sie von Maschinen analysiert, deren Aktionen im Börsenalltag schon auf der Basis kleiner, oft winzig kleiner Veränderungen automatische Kauf- und Verkaufsaufträge auslösen - richten sich makroökonomische Analysen an Experten, die längerfristige Anlagestrategien entwickeln. Für solche Informationen investieren RavenPack-Kunden viel Geld. Heiner schätzt die Kosten für ein Abonnement der RavenPack software durch Banken und Fonds pro Kreditinstitut auf hunderttausend Euro im Jahr. Nur aufbereitete Daten taugen auch zur Verwendung 80 Prozent der dazu benutzten Quellen sind unstrukturiert, passen also nicht automatisch in ein Verarbeitungsraster, sondern müssen erst passend gemacht werden, um nicht nur gelesen, sondern auch verglichen und bewertet werden zu können. Am Beginn der Datenanalyse steht immer das Kodieren der zu verwendenden Daten (nach Dateneinheit, Sorte, Währung, Firma u.ä.), dann die Feststellung, wofür und in welchem Maß diese Daten rele- <?page no="108"?> 108 3 Von Newton über Einstein vant sind. Dann übersetzt die Software events für den Finanzmarkt in unterschiedlichste Schlüsselzahlen, nummeriert also typische Ereignisse zigtausendfach durch und speichert für die Auswertung nur diese kennzeichnenden Zahlen. Was auch immer registriert wird - RavenPack verdichtet es zu Schlüsselzahlen. Das beginnt mit der Bewertung der Aktualität (Maßstab ist jeweils, dass es keine gleiche Info in den letzten Stunden/ Tagen/ Wochen/ Monaten/ im letzten Jahr gab). Diese Sorte Schlüsselzahlen heißt SIM-Daten. Das Kürzel steht fürEvent Similarity Days. SIM-Daten versetzen RavenPack in die Lage, bei jedem Ereignis sofort zu erkennen, ob es ein vergleichbares Ereignis in den zurückliegenden 365 Tages eines Jahres schon einmal gegeben hat oder ob das, was gerade geschieht, ohne Vorbild und Vergleich ist. Natürlich entscheidet diese SIM-Einstufung mit über die Bedeutung des Ereignisses für die Welt der Finanzen. Denn daraus ergibt sich seine Priorität. Eine Priorität ist der Neuigkeitswert des Ereignisses - je neuer, je einmaliger, desto mehr Wirkungskraft kann das Ereignis erzeugen. Hier setzt der SIM-Schlüssel an. SIM 30 bedeutet, dass es vor genau 30 Tagen ein vergleichbares Ereignis gab, SIM 0, dass zwei solche Ereignisse momentan zeitgleich ablaufen. Ein saloppes Beispiel: Erfährt RavenPack, der Chef einer börsennotierten Software-Firma im Silicon Valley sei in einer Lawine ums Leben gekommen, empfiehlt RavenPack, möglichst bevor dies irgend jemand anderer erfährt: Verkauf‘ die Aktien dieses Unternehmens, denn morgen stürzt ihr Wert höchstwahrscheinlich ab. Oder: Bucht zu einer bestimmten Jahreszeit eine Delegation chinesischer Landwirtschaftsexperten Flugtickets in den nordamerikanischen Mittleren Nordwesten, nach Minnesota zum Beispiel, wäre es plausibel, dass der Weizenpreis steigen wird, denn dann war’s ein Sommer, in dem China keine ausreichende Ernte hatte was Daten von dort leicht überprüfbar machen. Börsenprofis früherer Zeit kannten vielleicht fünfzig solcher Plausibilitäten. RavenPack kennt sie alle. Dies sind wie stets in der Massendatenverarbeitung keine eindeutigen Fall-zu-Fall-Schlussfolgerungen, sondern Ergebnisse von Wahrscheinlichkeitsberechnungen. Sie müssen daher nicht stimmen, aber mit berechenbarer Wahrscheinlichkeit ist es tatsächlich so. Eine zweite Sorte Schlüsselzahlen heißt Event Sentiment Score (ESS). Sie ergibt sich aus Bewertungen durch Finanz- und Wirtschaftsexperten und schließt zahlreiche Parameter in die Auswirkung auf Börsenwerte ein: das Land, dessen Mentalität, das Klima, und zwar das ökonomische ebenso wie das ökologische und weitere. ESS-Angaben sind daher nicht sofort zu bekommen, brauchen aber auch nicht für jeden event neu ermittelt zu werden. In den meisten Fällen genügt eine Verknüpfung mit bestehenden ESS-Daten. Auf diesen Zahlen fußt die sogenannte Sentimentsanalyse, also eine Bewertung der Bedeutung für die zugrunde liegende Frage. Das Sentiment wird weit heruntergebrochen; allein für den Ablauf von Firmenübernahmen gibt es von ersten Gerüchten bis zum Vollzug der Fusion oder zu ihrem endgültigen Scheitern 123 Einstufungsmöglichkeiten. Raven- Pack hat allein 3.317 Kategorien definiert, nach denen sich Wirtschaftsnachrichten auf diese Weise einordnen und zu Prognosen nutzen lassen. Weiter muss geklärt werden, um welche Art von Ereignis es geht. Das leistet das fact level tagging. Es definiert, ob es sich um eine Tatsache handelt, eine Meinung oder eine Prognose. Dann ist der Rang des Ereignisses zu klassifizieren. Dabei hilft den Analysten die Art, in der Journalisten berichten. Wird es schon im Titel der Meldung genannt, war es also eine Schlagzeile wert? Dann dürfte es auch börsenrelevant sein. Kommt es in einem Artikel wenigstens relativ bald vor und nicht erst unter „ferner liefen“? Dann hebt auch das die Bewertung. Sie fließt ein in den Event Relevance Score (REL) und dessen Skala von 0 bis 100. Ein Jahrzehnt lang, von 2007 bis Anfang 2017, hat RavenPack alle Informationen zur Empfehlung von Finanzmarktentscheidungen ausschließlich aus Nachrichtenüberschriften gezogen. Jegliche Differenzierung in einem typischen „ja, aber“-Text, die es nicht bis in die Überschrift schaffte, fiel unter den Tisch. Mittlerweile ermöglicht es diese Software, auch <?page no="109"?> 3.5 Der Weg zu RavenPack 109 längere Texte ohne Zeitverlust in Analysen einzubeziehen. Dabei zeigt sich, dass auf Schlagzeilen allein kein Verlass ist. Bei börsennotierten Firmen, stellte RavenPack fest, lässt sich die Bedeutung eines events zwar in rund der Hälfte aller Fälle schon aus der Schlagzeile der Nachricht entnehmen. Je bedeutender das Unternehmen ist, desto eher ist das so. Bei kleineren Firmen versteckt sich das Wissenswerte und Entscheidungsrelevante jedoch öfter irgendwo in der Tiefe eines Textes zu einem solchen Vorgang. Und es gibt auch chakteristische regionale Unterschiede: Zu US-Events, so zeigt die RavenPack-Erfahrung, sagt schon die Schlagzeile häufiger das Wesentliche als zu solchen aus der EU. Bei komplexen Texten, etwa bei Branchenberichten, fand RavenPack es bis 2016 in drei Vierteln aller Fälle nötig, in die Details eines Textes zu gehen. Mit ihrer 2017 weiterentwickelten Software sind es immer noch etwa zwei Drittel, was aber doch schnellere Ergebnisse zeitigt als bis 2016 möglich. Aus den Schlüsselzahlen für Einmaligkeit, Neuigkeitswert und Relevanz lässt sich nun abschätzen, wie wichtig die Börse ein Ereignis nehmen wird - ohne dass jemand dessen Inhalt im Detail geprüft hätte. „Die vorhergesagte Wirksamkeit unseres ESS-Signals und der REL beziehen sich positiv aufeinander“ erläutern die RavenPack-Leute, „und zwar so, dass eine höhere Bedeutung eines Ereignisses im Durchschnitt zu besseren finanziellen Ergebnissen führt.“ Eine Standard-Hypothese von RavenPack lautet also: Je höher der SIM- und der REL-Wert, desto ernster ist ein Ereignis zu nehmen und desto wertvoller ist dessen Analyse - erste Sahne, würden die RavenPack-Leute sagen, wenn sie deutsch sprächen, aber sie benutzen den englischen Börsenjargon, und dort heißt das alpha. Bei dem unglaublichen Tempo, in dem solche Bewertungen ablaufen müssen, in Millisekunden, sind die 24 Stunden eines Tages eine halbe Ewigkeit. RavenPack-Bewertungen gelten standardmäßig denn auch nur einen Tag - bis zum Börsenschluss des jeweiligen Tages. Bis zu einer halben Stunde vor diesem Glockenschlag werden sie aktualisiert. Kodierungen, also die Zuordnung von Schlüsselzahlen, erledigen RavenPack-Server in New Jersey und London, seit 2015 außerdem mit schnell wachsender Bedeutung web services in der Amazon cloud. Der entscheidende Vorzug der cloud ist nicht nur ihr geradezu unendlicher Speicherplatz, sondern vor allem das atemberaubende Tempo, mit dem Ergebnisse dort parallel registriert, verarbeitet und wieder ausgegeben werden. Verlangen Kunden, dass für herauszusuchende Daten einer Analyse bestimmte Filter benutzt werden, ist es eine Sache von Millisekunden, bis auch sie aktiv sind. Komplette Antworten mit Entscheidungsempfehlungen dauern nur Sekunden, in ungewöhnlich komplexen Sonderfällen allenfalls wenige Minuten. Allerdings sind Daten in der cloud anfällig für Missbrauch. Der cloud-Betreiber Amazon Web Services (AWS) weist deshalb ausdrücklich darauf hin, dass zwar er selbst für die Sicherheit des cloud-Systems verantwortlich ist, der cloud-Nutzer aber für die der dort eingestellten oder mit ihnen verbundenen Daten (AWS 2017). So bereitet RavenPack Antworten auf Die RavenPack-Software schält die im Finanzsektor für eine Entscheidungsempfehlung wichtigsten Informationen - normalerweise für oder gegen einen Wertpapierkauf oder -verkauf - in 70 Prozent aller Fälle in den schon genannten 200 Millisekunden heraus, und zwar dank der Parallelverarbeitung aller Datenschnipsel in der cloud ganz unabhängig davon, ob nur eine Schlagzeile auszuwerten ist oder ein mehrere hundert Seiten starker Forschungsbericht. RavenPack offeriert die gewonnene Expertise und die Handlungsempfehlung so schnell, dass Kunden nicht nur sofort reagieren könnten, sondern informiert gleichzeitig auch über die Zeitspanne, in der die Entscheidungsempfehlung gültig und damit sinnvoll anwendbar bleibt. In der Regel gilt eine finanzwirksame Entscheidungsempfehlung wie erwähnt für einen Tag. Dass nicht wenige Empfehlungen auch in einem Zwei-Tages-Zeitraum an- <?page no="110"?> 110 3 Von Newton über Einstein wendbar bleiben, haben RavenPack-Experten eher mit Überraschung quittiert. In der Praxis reagieren in den meisten Fällen keine Menschen mehr, sondern Maschinen, sogenannte Aktuatoren, die aufgrund der RavenPack-Analysen Kauf- oder Verkaufsaufträge auslösen. Die wichtigsten Auftraggeber bei Banken und Fonds, die RavenPack-Analysen bestellen, sind selbst Datenexperten. Sie wollen als Ergebnis wiederum Daten, schnell und schnörkellos. Diese Kundengruppe macht aber nur rund ein Zehntel des Marktes aus. Für rund ein weiteres Viertel, das sich mit Auswertungs-Zahlenkolonnen allein nicht begnügt, stellt RavenPack deshalb auch Web-APIs bereit, also Auswertungsprogramme, die diese Kunden in ihre eigenen Datenverarbeitungssysteme integrieren können. Das stellt jedoch ebenfalls nur eine Minderheit des Marktes zufrieden. Die Mehrheit der Auftraggeber will Ergebnisse visualisiert haben - das Wichtigste auf einen Blick. Und sie bekommt sie: als Grafik zum Beispiel, die wie ein verrutschtes Schachbrett aussieht. Die Felder sind unterschiedlich groß, je nach der relativen Bedeutung des einzelnen Akteurs auf diesem Schachbrett. Die eine Feldfarbe ist rot (also Hände weg, verkaufen), andere sind grün (also zugreifen, kaufen), wieder andere zeigen Zwischentöne. Basis solcher Grafiken sind kuratierte, das heißt ausgewählte und priorisierte Ergebnisse von RavenPack-Analysen und Bewertungen zu börsennotierten Firmen, die das Unternehmen in einem bestimmten, den jeweiligen Kunden interessierenden Marktsegment für beachtenswert hält. Kunden können ein Such- und Auswahlraster auch selbst vorgeben, dann erhalten sie als Ergebnis „nur“ den sich daraus ergebenden Vergleich und dessen Bewertung. Mit der jeweiligen Schlussempfehlung liefert RavenPack ihnen aber den Zugang zu allen benutzten Quellen, so dass jede Einzelne sie nachlesen und sich ein eigenes vertieftes Urteil bilden kann. Solche Analysen liefern zunächst nur ein Augenblicksbild. Da sich die Quellenlage aber fortlaufend ändert, verändert sich zeitgleich auch das dargestellte Ergebnis. Und mit ihm schreibt RavenPack auch die Auswertung fort, und zwar in real time, verzögerungslos, trotz teilweise enormer Datenmengen nicht nur von Megabytes, sondern bis in den zweistelligen Gigabyte-Bereich. Das goutieren etwa drei Viertel der Kunden. Das restliche Viertel ist mit Offerten zu gewinnen, in denen RavenPack eigene und fremde Daten von Google oder anderen großen Datenhäusern miteinander verknüpft. Solche Analysen liegen wie erwähnt in einer Zeitspanne vor, in der man gerade einmal - nur einmal - mit den Fingern schnipsen kann: in 200 Millisekunden. Ebenso schnell, in Millisekunden, wirken sich solche Informationen in Kursentwicklungen aus. Große Organisationen, zum Beispiel Banken mit ihrem verzweigten Kundenbestand, wollen nicht nur Signale aus dem Umfeld verstehen und nutzen, sondern auch die Datengebirge ihrer eigenen Organisation. Das können Milliarden Dokumente sein, zigtausende Buchungsbelege an einem einzigen Tag. Diese auf herkömmliche Weise zu analysieren wäre völlig unmöglich. Die EDV einer Bank ist nicht darauf eingerichtet, solche Inhaltsanalysen ruckzuck zu bewältigen. Die RavenPack Software ist jedoch genau dazu da. Für eine internal documents analysis kann man sie dazu mieten. Ein solcher Auftrag wird in rund einer Stunde vielfach paralleler cloud-Rechenzeit erledigt. Normalerweise arbeitet die software allerdings in der Amazon cloud. Deshalb lässt sich nicht ausschließen, dass jemand unbefugt mitliest. Die Abläufe lassen sich aber auch in eine Firmen-cloud einbauen. So lässt sich Vertraulichkeit sichern. Dieses Leistungspaket hat seit eingen Jahren viel Beifall gefunden. Im April 2012 hat RavenPack bei den Technical Analysts Awards den Preis für das best specialist research gewonnen, also für die beste Analyse auf einem speziellen Gebiet, im Fall RavenPack auf dem der Aktienbewertung. Im Jahr darauf wird es im schon genannten Wettbewerb als bester spezialisierter Datenanbieter bewertet, und wieder ein Jahr später landet es in derselben Kategorie auf Platz 2. Seither baut das Team in Marbella seine Software weiter aus. Mehrere Entwicklungsstufen folgen rasch hintereinander. Ab November 2013 können die RavenPack-Com- <?page no="111"?> 3.5 Der Weg zu RavenPack 111 puter täglich 22.000 Datenquellen auswerten. Im September 2014 geht bereits die vierte Version des RavenPack-Analyseprogramms an den Start. Es steigert den Analyseumfang gegenüber der Vorgängerversion um 70 Prozent. Aber diese Leistung ist teuer. Damit sie bezahlbar bleibt, muss das Marbella-Unternehmen sich möglichst konzentrierte Zugriffe auf Nachrichten beschaffen und vor allem mehr Kunden gewinnen, um die Kosten für die Ermittlung der Börsenrelevanz solcher Nachrichten auf mehr Schultern verteilen zu können. Die Antwort, die RavenPack auf diese Herausforderung wählt, ist sehr einfach: Nicht alles selber entwickeln, sondern Partner gewinnen und wenn möglich aufkaufen, die das entsprechende Know-How bereits haben. Also arbeitet das Unternehmen ab März 2015 mit einer Firma zur Verbreitung von Indikatoren für die Wertpapierbewertung namens Fact Setzusammen und ab Januar 2016 mit den Wharton Research Data Services zur Optimierung der Nachrichtenflut nicht zuletzt in Richtung soziale Netzwerke. Es geht Schlag auf Schlag weiter: Im Februar 2016 übernimmt RavenPack für sein USA-Geschäft Benzinga News, im Juli desselben Jahres Alliance News, um nach dem Brexit speziell für Großbritannien richtig aufgestellt zu sein, und ab Oktober dieses Jahres kooperiert es mit The Fly speziell im Hinblick auf das Big Data-Geschäft. Das rechnet sich. Denn die Kosten für grundsätzliche Analysen entstehen nur einmal, aber mit jedem zusätzlichen Abnehmer wachsen die Erträge. Die Analyse kommt also aus einer zentralen Hand und nur die Kundenberatung bleibt bei den übernommenen Firmen. Denn deren Kunden wollen weiter von ihren gewohnten Beratern betreut werden. Technologisch bleibt RavenPack weiterhin etwa so aufgestellt wie es das war, als Hardy es verließ. Natürlich aktualisiert das Marbella-Team seine Datenbanken, aber immer auf derselben bewährten Analyse-Methodik. Die Patente hat noch Hardy erzeugt. Seit der Trennung 2009 hat RavenPack nichts mehr patentiert. Von ihm, Hardy, seinem früheren Ziehvater, hat sich das Marbella-Team komplett emanzipiert. Präsident und CEO bleibt Armando Gonzalez. Ein Team von Spezialisten um Peter Hafez sowie zeitweise Marc Pandolfi, Kevin Crosbie, Jason S. Cornez und endlich Tania Calvo arbeitet ihm zu. Zweieinhalb Jahre nach der Modernisierung der RavenPack software vom Herbst 2014 folgt ein weiterer Finanzierungsschritt. Mit ihm steigt erstmals eine professionelle Finanzierungsgesellschaft bei RavenPack ein. Bis dahin ist deren Kapital ausschließlich von privaten Investoren gekommen. Dieser neue Finanzierungsprofi ist Draper Esprit, der erst 2006 in London gegründete westeuropäische Zweig des Global Draper Network mit Hauptsitz im Silicon Valley und Standorten rund um die Welt. Anfang 2017 wird das Investment von Draper bei RavenPack zunächst nur mit Handschlag besiegelt. Verträge sind noch nicht geschrieben und auch Geld ist noch keines geflossen. Doch bereits im beginnenden Frühjahr 2017 tritt ein Draper-Manager bei RavenPack öffentlich auf und erläutert, warum seine Firma in Marbella einsteigt: weil sie die Ansicht von RavenPack-Chef Gonzalez teilt, dass deren Big Data-Analysen zu den „anspruchsvollsten der Welt“ gehörten (RavenPack 2017a- 1). Für Investoren sind sie „eine vitale Informationsquelle“, so Yin Luo, der stellvertretende Chef der Wall Street-Firma Wolfe Research (cit. Cookson 2017). Bis zu diesem Zeitpunkt Anfang 2017 hat das RavenPack-Team die Zahl der für das Börsengeschehen analysierten Marktereignisse gegenüber 2014 vervierfacht und seine information ratio, also den Wert seiner Informationen für Börsenentscheidungen, nach eigener Einschätzung verdoppelt. Das vier Millionen-Investment von Draper Esprit versetzt RavenPack in die Lage, sein Team von bis dahin gut fünfzig Leuten aus zwanzig Nationen nach Bedarf zu verdoppeln (Coookson 2017). Es drückt im Gegenzug den Anteil der Münchner, also von Patentpool, am RavenPack-Kapital auf nur noch rund fünf Prozent. Rund 50 Prozent hält nun Draper Esprit, den großen Rest teilen sich Mitglieder des RavenPack-Managements. Wegen des <?page no="112"?> 112 3 Von Newton über Einstein rentablen Geschäfts liegt der Marktwert des Unternehmens fünfbis sechsmal so hoch - würde RavenPack an der Börse gehandelt, würde das den Aktienkurs bestimmen. Der Wertanteil des neuen Geldes von Draper liegt deshalb bei 25 Millionen, so dass RavenPack nun insgesamt fast 50 Millionen wert ist. Auch wenn das ohne Börsennotierung erst ein theoretischer Wert ist: Die Möglichkeit eines Börsengangs deutet sich an. Das weiter im spanischen Marbella sowie in London, New York und New Jersey arbeitende Unternehmen RavenPack erarbeitet zu diesem Zeitpunkt Finanzmarktanalysen und -empfehlungen für Aktienkäufe und -verkäufe für rund einhundert Kunden im Finanzsektor, für eine ebenso spezialisierte wie konkurrenzversessene Kundschaft. Zu ihr gehört seit mehr als acht Jahren einer der größten Hedge Fonds der Welt. Mehr als die Hälfte der zehn weltgrößten Fonds nutzen die RavenPack-Daten, außerdem mehr als vierzig Institutionen und eine Anzahl Universitäten. Um alle Kunden bedienen zu können, greift RavenPack schon seit 2007 nicht nur auf die Nachrichtenkapazität von Dow Jones zurück, also auf Dow Jones Newswires, Barron’s und das Wall Street Journal, sondern analysiert mittlerweile auch 19.000 andere Webseiten von Firmen, Verbänden und Institutionen sowie social media bis hin zu blogs. Für rückblickende Vergleiche stehen siebzehn Jahrgänge des Dow Jones Newswire-Archivs in Papierform und zehn Jahre digitalisierter Dow Jones-Informationen bereit. Verarbeitet werden auch Nachrichten von Benzinga, Alliance News, The Fly und Fact Set. Auf diese Weise hat RavenPack insgesamt Zugriff auf Daten über 43.000 börsennotierte Unternehmen und deren Entwicklung, ihre Produkte und Dienste. Das gilt auch für die Entwicklung aller führenden Währungen und Zinsentwicklungen bis zu Kryptowährungen wie Bitcoin und für Nachrichten aus nahezu allen Staaten und staatlichen Organisationen sowie für Aussagen über rund siebentausend Schlüsselpersonen aus Politik und Wirtschaft in aller Welt. Insgesamt stehen auf der RavenPack Analytics-Kontaktliste rund 194.000 Adressen (RavenPack 2017). In den gut zehn Jahren von Januar 2007 bis März 2017 hat RavenPack aus allen diesen Quellen insgesamt 62 Millionen Nachrichten registriert, bewertet und kommuniziert. Die Finanzbranche verändert sich weiter Machine learning und Künstliche Intelligenz verändern die Finanzbranche weiter. DerFinancial Stability Board (FSB), ein internationaler Zusammenschluss zur Überwachung dieser Branche, nennt das diese technischen Hilfen große Vereinfacher. Mit ihnen könnten Aufsichtsbehörden und Unternehmen zum Beispiel Betrug schneller erkennen und Banken sich besser gegen Kreditausfälle absichern. „So soll es möglich sein, in Fällen, in denen es bisher zu wenig Daten für eine gute Analyse gab, durch Hinzunahme anderer Informationen, zum Beispiel aus sozialen Netzwerken, die Kreditsicherheit zu bewerten“ (t3n 2017a). Allerdings ist dieses Know-How noch nicht allzu verbreitet. Das zeigt die Antwort der Bundesanstalt für Finanzdienstleistungsaufsicht (Bafin) auf eine Anfrage. Seit 2017 gibt es dort zwar ein Referat für „Finanztechnologische Innovationen“, das auch für marchine learning zuständig ist. Es beschäftige sich mit Kryptowährungen. Um machine learning wolle man sich „erst nach und nach“ kümmern (ibid.). Dazu muss das Referat, das zunächst nur aus Mathematikern, Ökonomen und Juristen bestand, erst um Programmierer und IT-Experten aufgestockt werden. Zugleich zeigt sich, dass Algorithmen den Finanzmarkt auch aushöhlen können. Wenn es nämlich eine Mehrzahl annähernd gleich gut informierter Marktteilnehmer gibt, wenn tendenziell alle am algorithmisch erzeugten Wissen teilhaben können, fällt der Startvorsprung in sich zusammen. „Es sieht so aus, als würden sich die Algorithmen selbst die Geschäftsgrundlage zunehmend entziehen. Mit ihren blitzschnellen Reaktionen sorgen sie dafür, dass die winzigen Margen, von denen sie profitieren, immer kleiner werden“ (Drösser 2016: 149). <?page no="113"?> 3.6 Die Schloer Consulting Group wird geschaffen 113 Vielleicht wird sich der eine oder andere Börsianer dann an ältere Erfahrungen seines Gewerbes erinnern. Wer sich keiner ausgefeilten, aber auch teuren Software wie der von Raven- Packbedient oder von ihr keinen ausreichenden Nutzen erwartet, aber trotzdem an diesem Markt teilhaben will, kann nämlich auch erfahrungsgestützte einfache Regeln anwenden. Eine solche Regel lautet: „Wenn die Kurslinie einer Aktie die durchschnittliche Kursentwicklung aller Aktien von unten nach oben durchschneidet: kaufen! Durchschneidet sie die Kurslinie aber von oben nach unten: verkaufen! “ (Drösser 2016: 145). Das ist freilich eine Börsenempfehlung, die nur die momentane Kurstendenz nutzt. Klingt sie zu einfach? Es ist nur eine Regel. Ausgefeilte Programme wie das beschriebene „sind nicht mehr nur auf die nackten Kurszahlen angewiesen, sondern … handeln zunehmend wie ein guter alter menschlicher Trader - mit Erfahrungswissen, Faustregeln und aufgrund von Nachrichten aus der ‚wirklichen‘ Wirtschaft, nur dass sie dies mit erheblich größerem Detailwissen und ohne jegliche Emotion tun“ (ibid.: 150), allerdings auch nur so, wie sie ein Mensch zuvor programmiert hat. 33..66 DDiiee SSc chhllooeerr CCoonnssuullttiinng g GGrroouupp wwi irrdd gge es sc chha afff fe en n In Marbella hat Phil 2008 seine Koffer gepackt und ist in die USA zurückgekehrt, um sich als Multitalent nicht auf bloße Finanzdienstleistungen eingrenzen zu lassen. Auch Hardy will nach seiner Trennung von RavenPack sehr viel mehr tun als nur das, was man dort erfolgreich vermarktet. Als erstes beschafft er sich dazu einen Haftungsmantel, also eine Gesellschaft nach Art einer GmbH, die Haftungsrisiken abdeckt. Da er zunächst noch in Spanien wohnt, gründet er dort die Schloer Consulting Group (SCG), wie RavenPack eine SL, eine sociedad limitada. In dieser Firma treibt Hardy die Programmierung seiner Software voran und berät er bald auch Einzelkunden in Anwendungsfragen. Sie beginnt alsbald mit eigenen Datenanalysen für einzelne Firmen und Institutionen, die Hardy als Kunden gewinnt. Diese Kunden kommen nicht aus der Finanzwelt, sondern vornehmlich aus multinationalen Unternehmen, NGOs und Regierungen. Die SCG erarbeitet also Analysen für politische und allgemeine marktwirtschaftliche Zwecke und verkauft ihr Know-How an Regierungen, private Organisationen und große Einzelunternehmen. Sie macht damit auch Umsatz. So weit sie trotzdem Geld braucht, um ihre ehrgeizige Progammentwicklung finanzieren zu können, schießt Patentpool es vor und besorgt es sich wieder von privaten Investoren, denen diese Aktivitäten einleuchten. In der Region Marbella behält Hardy zunächst noch eine private Kontaktadresse bei dem deutschen Arzt Dr. Konrad Wienands, der seine Praxis schon seit Jahrzehnten im spanischen Urlaubsort Estepona hat und in medizinischen Fragen zu Hardys Beraterkreis zählt. Dieses Quartier gibt er bald danach aber auf und zieht zunächst nach Villeneuve an der französisch-monegassischen Grenze. Denn in Rede steht eine auf langfristige Zukunftsfragen der Computertechnologie und der Künstlichen Intelligenz angelegte Kooperation mit der Universität Nizza. Diese Pläne zerschlagen sich aber. Also konzentriert Hardy sich auf sein Beratungsunternehmen, die SCG, und entwickelt in ihr computergenerierte Analysen unterschiedlichster Art. Von Zeit zu Zeit arbeitet er auch im slowenischen Ljubljana im dort 2008 geschaffenen Supercomputing Center LSC ADRIA, bei seiner Eröffnung eines der zehn stärksten Rechenzentren Europas und zum Eröffnungszeitpunkt eines der fünfzig stärksten der Welt. Es ist von Anfang an darauf ausgelegt, Milliarden von Daten parallel zu verarbeiten. <?page no="114"?> 114 3 Von Newton über Einstein In Ljubljana unterstützt Dr. Vladimir Kercan Hardys Team. Wie Hardy und Heiner ist auch er ein Quereinsteiger in die Welt von Big Data. Zur Analyse der Bewegung von Hydraulikmaschinen muss er Abläufe simulieren und benötigt dazu Supercomputer. Hardy nutzt die Ljubljana-Technik für andere, eigene Zwecke. Er lässt im großen Stil hier erproben, was die Quantum Relations-Software leisten soll. Dazu wird die Leistung der Anlage um weitere 2500 Prozessoren aufgestockt, so dass seither 25 Petabyte Daten in Echtzeit verarbeitbar sind. Immer wieder macht Hardy kurz in München Station, zunehmend häufiger auch in Bukarest in Rumänien, wo nicht nur gute Programmierer einfach und preisgünstig zu haben sind, sondern wo die SCG auch einen Kunden gewinnt, den rumänischen Chef des Inlandsgeheimdienstes in diesem ab 1990 demokratisch gewordenen Staat. Ihm liefert die SCG computerbasierte Ergebnisse der Meinungsforschung nach dem Motto: Wenn ihr Wahlen gewinnen wollt, solltet ihr Folgendes wissen und kommunizieren… Aber summa summarum verweilt Hardy kaum mehr als zwei Monate im Jahr an einem Ort. Denn meist ist er als Chef seiner Schloer Consulting Group bei deren Kunden rund um die Welt unterwegs. Sie kommen nicht aus dem Finanzmarkt, sondern aus der Wirtschaft und aus der Politik bis hin zu Regierungsstellen. Bald teilt Hardy mit, seine SCG bestehe „aus einem globalen Netzwerk besonders befähigter älterer und jüngerer Mitarbeiter aus fast jedem Managementfeld: Wirtschaft, Wissenschaft und Technologie“ und verfüge dazu, wie seine Webseite meldet, über ein Netzwerk freier „Experten auf den Feldern Recht, Finanzen, Wissenschaften, Energie, Ingenieurswesen, Medizin, computerbasierter Dienste einschließlich fortgeschrittener Künstlicher Intelligenz, der öffentlichen Verwaltung, der Diplomatie, der Sicherheit national wie global, der Erziehung und vieler anderer Disziplinen interdisziplinär und interkulturell“ - das klingt wie ein noch namenloses who is who einer der Top-Unternehmensberatungen der Welt. In den Wirtschaftszentren der Welt und bei den Regierungen großer Staaten rechnen sich Hardy und sein Team anfangs jedoch keine großen Chancen aus, für ihre Fähigkeiten und für ihre Software Interessenten zu finden. Dort hört man in erster Linie auf etablierte Akteure. „Wir haben bei Microsoft vor verschlossenen Türen gestanden“, erinnert sich Heiner. „Natürlich waren wir auch beim deutschen Software-Marktführer SAP. Wir waren mit unseren Software-Angeboten bei allen, die Rang und Namen haben. Hier in Deutschland will aber keiner davon viel hören. Also muss man dort hingehen, wo jemand uns zuhören will, zumal wir alles, was wir in ausreichend vielen Reports geschrieben haben, auch beweisen können. Dazu haben wir Dokumentationen gemacht. Finanziert wurden sie vorwiegend mit dem Geld von Kunden aus der Golfregion, aus Oman zum Beispiel, ein bisschen auch aus Rumänien, aber nicht aus zentralen Territorien wie Deutschland, England und USA.“ In kleineren Unternehmen und in regionalen Büros ist der Weg an die Entscheiderspitze kurz. Darauf setzen die SCG-Männer. Einer der Knoten in Hardys Netz ist Abu Dhabi, eines der sieben arabischen Emirate, die sich zu den Vereinigten Arabischen Emiraten (VAE) zusammengeschlossen und ihren Regierungssitz in dieser Wüstenstadt am Golf etabliert haben. Im Nachbaremirat Dubai, auf einer bei Nacht strahlend hell erleuchteten Wüstenautobahn nur eine Autostunde entfernt, arbeitet das für Middle East, Nordafrika und Europa zuständige Regionalbüro eines der größten Datenhäuser weltweit, Thomson Reuters. Als sich Heiner und Hardy die Chance bietet, über den rumänischen Unternehmer Daniel Moldoveanu in Abu Dhabi mit diesem internationalen Nachrichtenkonzern Kontakt aufzunehmen, greifen sie zu. Heiner erinnert sich: „Wir sie da hin gegangen, als genügend evidence vorlag. Aber wir haben nicht in der Deutschlandzentrale begonnen, sondern in Middle East, um genau zu sein: in deren Region Europe / Middle East / North Africa mit Sitz in Dubai. Das war ein klassisches top down-Marketing: Ich kenn‘ diesen Chef, und der wiederum kennt jenen Chef. Also lassen wir uns weiterempfehlen.“ <?page no="115"?> 3.6 Die Schloer Consulting Group wird geschaffen 115 Middle East Reports Über diese Verbindung bekommt Hardy Ende 2013 Zugriff auf Nachrichtenströme im Mittleren Osten. Auf deren Basis produziert seine SCG ab 2014 Middle East Situation Reports, fünfbis über sechshundert Seiten starke Wälzer im DIN A4-Format voll mit erst teilautomatisch erstellten Nachrichtenanalysen aus der Golfregion, mit einer Bewertung dieser Nachrichtenlagen in unterschiedlichsten Handlungsfeldern und mit Handlungsempfehlungen, die Hardy und sein Team aus den Analysen ableiten. Monat für Monat produziert Hardys Mannschaft ein solches Buch. Jedes ist auf eine aktuelle Nachrichtenlage bezogen, untersucht ein Segment der Wirtschaft, einmal das Geschäft mit Rohöl, einmal die Landwirtschaft, einmal den Handel usw. und leitet aus den Schlussfolgerungen Handlungsempfehlungen ab. Diese Ergebnisse, eine Mischung aus Situationsanalyse und Handlungsempfehlungen, stellt Hardys Consulting-Firma eine nach der anderen ihren Gesprächspartnern in Middle East-Regierungsstellen und Firmenleitungen vor. Nicht nur Top-Manager der Wirtschaft und der Politik, auch Nahostspezialisten des britischem Geheimdienstes MI6 lesen diese SCG-Auswertungen und Schlussfolgerungen und stellen fest: „So etwas Präzises und Aktuelles hatten sie noch nie in der Hand. Das kannten sie gar nicht“, wie Heiner das rückblickend wertet. „Natürlich haben die da Hunderte von Agenten vor Ort, aber keiner von denen brachte die Lage so präzis auf den Punkt wie diese Papiere - und wenn doch, dann vielleicht einmal alle vier Jahre, so dass die Inhalte bei ihrer Veröffentlichung nicht mehr aktuell sein konnten, nicht so taufrisch wie unsere im Rhythmus von nur vier Wochen.“ Monat für Monat werden die Analysen immer feinschliffiger. Denn die Auswertungsprogramme lernen selbst auch hinzu. Liegen sie einmal irgendwo nicht auf dem Punkt, registrieren sie das selbsttätig, suchen nach Ursachen für die Abweichungen, rechnen dies in künftige Analysen mit ein und justieren sich selbst und damit die Güte ihrer Aussagen vollautomatisch: „Die trial and error-Quote, also das Verhältnis von Versuch und Irrtum, kann stetig sinken und die forecasts werden immer präziser.“ Monate lang verfasst er mit seinem Team situation reports für zunächst einen einzigen Entscheider auf der obersten Beraterebene einer Regierung unter dem Staatschef verfasst. Es sind tief gegliederte Analysen, messerscharf auf den Punkt gebracht und schlussendlich auf einer einzigen obenauf liegenden, blau unterlegten Seite zu Schlussfolgerungen, Warnungen und Chancen verdichtet und mit Entscheidungsempfehlungen versehen. Der Auftraggeber lobt diese Fleißarbeit sehr, schlägt sie auf, betrachtet das Frontfoto, überfliegt das Inhaltsverzeichnis und liest die blue section, die eine obenauf liegende Seite auf blauem Papier. Über die sechshundertundx weiteren lächelt er nur. Nach einiger Zeit stellt er allerdings fest, dass die Managementempfehlungen der blue section, also die auf dieser einen Seite, exakt stimmen, weil genau das eintritt, was Hardy prognostiziert hat. Nun will er mehr - aber nicht mehr Quantität, sondern mehr von dieser Qualität. Viel von seiner knappen Zeit verbrauchen dürfen diese Entscheidungsempfehlungen nicht. Es dauert nicht lange, bis außer dem britischen Geheimdienst MI6 auch Hardys Datenlieferant Thomson Reutersauf dieses Material aufmerksam wird. Daniel Moldoveanu, der frühere rumänische Geheimdienstchef mit seinem unvergleichlichen Netzwerk, kennt auch bei Thomson Reuters Middle East die richtigen Leute und fragt dort eines Tages: „Wie wäre es denn, wenn wir auch eure Daten analysieren? “ Als Basis für ein längerfristig erfolgreiches Analysegeschäft taugen seine voluminösen middle east-Expertisen nur sehr beschränkt. Das begreift Hardy bald. Da kommt das Interesse von Thomson Reuters gerade recht. <?page no="116"?> 116 3 Von Newton über Einstein 3 3..77 DDiiee P Prriissmmaa AAnnaallyyttiiccss GGmmbbH H eennttsstteehhtt Die Chance, bei einer positiven Antwort am Thomson Reuters-Archiv partizipieren zu können, ist für Heiner und Hardy, Phil und Daniel der Auslöser, eine weitere Firma zu gründen, die - ähnlich wie zuvor RavenPack - Hardys weiter gewachsenes quantum relations Know- How nicht mehr nur in reports dokumentieren, sondern als Software marktreif entwickeln und in den Markt bringen soll. In Erinnerung an Hardys erstes Münchner Engagement bei Siemens namens Prisma wird diese Gesellschaft Prisma Analytics genannt. Dass der Name Prisma zu diesem Zeitpunkt schon belastet ist, spielt keine Rolle. Zwei Jahre zuvor, 2013, hatte der whistle blower Edward Snowden seine Tätigkeit bei der US-amerikanischen Sicherheitsagentur NSA quittiert und war nach Hongkong geflogen, um zwei Journalisten und einer Dokumentarfilmerin Hunderttausende geheimer NSA-Dokumente über weltweite und in tiefste Privatbereiche vordringende, Prism genannte Überwachungsprogramme der US-Regierung zu enthüllen (vgl. Gellman/ Gockel 2019) - frei nach Foucault, staatliche Macht müsse sich „mit einer ununterbrochenen, erschöpfenden, allgegenwärtigen Überwachung ausstatten“ und dazu überall „Tausende von Augen“ haben, „bewegliche und ständig wachsame Aufmerksamkeiten; ein weites, hierarchisiertes Netz“ (Foucault 2008: 920). Für die fast gleichnamige, aber völlig anders aufgestellte deutsche Prisma Analytics GmbH schreiben Heiner und Hardy einen business plan. Das dauert ein Vierteljahr. Dann, im Februar 2016, wird dieses Unternehmen nach deutschem Recht in München auf juristisch festen Boden gegründet. Als SCG CEO, also als Hauptgeschäftsführer seiner Schloer Consulting Group, zeichnet Hardy Anteile an dieser neuen Gesellschaft, in der er neben Heiner Miteigentümer und zweiter Geschäftsführer wird. Dritter im Bunde ist eine Genfer Firma namens Integrated Circels des rumänischen Unternehmers Daniel Moldoveanu. Ihre Arbeit nimmt diese Gesellschaft aber nicht in Deutschland auf - das ist von vornherein klar -, sondern in Rumänien, schon wegen des dort ganz anderen Gehaltsniveaus für Programmierer. Daniel bringt erstklassige Verbindungen zur Bukarester Universität in die GmbH ein. „Dass wir in unglaublicher Geschwindigkeit zu rumänischen Kosten und in so großer Zahl exzellente Programmierer einstellen konnten“, sagt Heiner dazu, „ist nur Daniel zu verdanken.“ Der kann über sein rumänisches und internationales intelligence-Netz auch zuverlässig abschätzen, was dort und was anderswo zu tun erlaubt ist und wem man, wenn man klug ist, besser nicht auf die Füße tritt. Seinen Münchner Geschäftspartner warnt er wenn nötig schon einmal: „Um das Land x machen wir derzeit besser einen größeren Bogen, sonst gibt es da Ärger.“ Heiner in München sagt dazu nur: „Wir fragen gar nicht: Wer hat das gesagt? Bekommen wir das schriftlich? “ Papier ist geduldig; einflussreiche Politiker und mögliche Geschäftspartner sind es nur selten. Wo in Bukarest die Arbeitsplätze für die Prisma Analytics GmbHhin kommen sollen, ist schnell entschieden: in Daniels Bürovilla im Zentrum der rumänischen Hauptstadt, eine stilvoll renovierte Jugendstil-Schönheit rumänischer Art. Unter dem Namen Integrated Circles war dort seine frühere verdeckte Beratungstätigkeit für die rumänische Regierung konzentriert. Inzwischen ist das Haus an verschiedenste andere Firmen vermietet. So wie die Mannschaft von Prisma Analytics sich findet und wächst, wird diesen Nutzern einer nach dem anderen gekündigt. Im Frühjahr 2016 stehen in dem Anwesen schon 50 Schreibtische der neuen GmbH dicht an dicht, im Sommer sind es bereits siebzig, und ein Jahr darauf, im Sommer 2017, muss das Unternehmen anderswo in Bukarest neuere, größere Räumlichkeiten beziehen. Eine Dependance arbeitet in Cluj, dem früheren Klausenburg in Siebenbürgen mit seiner lange Zeit deutschstämmigen Bevölkerung, die das Ceaucescu-Regime aber mit nicht endenden Repressionen weitgehend aus dem Land drängte. Die Universität Cluj ist für Programmierer eine gefragte Adresse, aus der sich das Unternehmen Prisma als personelle und intellektuelle Ressource bedient. <?page no="117"?> 3.7 Die Prisma Analytics GmbH entsteht 117 Die Idee Situation Room Auf zwei Schienen schickt sich die Prisma Analytics GmbH an, ihre Software nutzbar zu machen. Die eine wird bereits im November 2015 in einem Vorvertrag zwischen dem global agierenden Nachrichten- und Datenunternehmen Thomson Reuters und der noch gar nicht offiziell eingetragenen Prisma Analytics beschrieben, für die einstweilen Heiner und Hardy bzw. deren Firmen Patentpool und SCG als Partner fungieren. Dieser Vorvertrag macht den Weg frei, das weltweite Kundennetz von Thomson Reutersin die Nutzung der Prisma Analytics Software einzubinden. Als beide Seiten sich so zu gemeinsamem Handeln verabreden, nutzen schon 300.000 Firmen und Institutionen Thomson Reuters-Datenauswertungen mit einer von TR entwickelten und seit Jahren erfolgreich eingesetzten Auswertungs-Software Eikon. Eikon ist ein Statistik-Programm mit vielen nützlichen Eigenschaften, aber nicht dafür ausgelegt, für Fragestellungen in Echtzeit Handlungsempfehlungen zu liefern. Auf der Anwenderebene, so ist das Thomson Reuters-Management überzeugt, wird Eikon auch weiterhin gute Dienste leisten. Prisma Analytics kann aber mehr; dieses Programm soll zusätzliche Einsichten in weltweite Trends mit ihren Chancen und Risiken besonders für Entscheiderebenen sichtbar machen und damit längerfristige Handlungsperspektiven eröffnen. Ab Ende 2016, so heißt es im Herbst 2015 - wie sich zeigen wird, vorschnell -, werde der Thomson Reuters-Außendienst mit seinen rund fünftausend Kundenberatern das neue Programm kennenlernen, es seinen Eikon-Anwendern vorstellen und Abonnements dafür verkaufen. Das ist die eine Schiene, auf der Prisma Analytics sich im Markt durchsetzen soll. Die andere Schiene haben die Prisma-Manager zu Anfang gar nicht intensiv auf dem Schirm. Sie wissen aber, dass sie die Leistungsfähigkeit ihrer Software ihren potenten Kunden überzeugend demonstrieren müssen. Also beschließen sie, für diese Klientel in Bukarest den Prototypen einer Kombination von Datenlabor und show roomzu schaffen, einen situation room, wie sie ihn nennen. Schildere mir deine Situation, soll das heißen, und ich errechne dir in diesem Raum aus unseren Daten deine Chancen und Risiken. Stelle mir eine Frage, je grundsätzlicher, umso besser. In diesem Raum bekommst du eine Antwort, die du verstehen wirst, eine kurze und knappe, klare und handlungsleitende Antwort. Wenn du dann willst, rufen wir dir in diesem situation room alle Details auf, die diese Antwort erzeugten. Aber wir prunken nicht mit einem Wald aus Bildschirmen, ganz im Gegenteil: Wir bringen unser Ergebnis so auf den Punkt, dass zunächst ein einziger Satz oder eine einzige Visualisierung von Zahlengebirgen genügt, um dir die Richtung zu zeigen. Dieser prototypische situation room soll als Machbarkeitsbeweis entstehen und dann für Kunden dort nachgebaut werden, wo diese einen solchen hin haben wollen. Das beeindruckt große Kunden gerade in Middle East nicht wenig. Solche situation rooms sollten direkt bei ihnen installiert werden, erklären sie bald und umreißen auch gleich das gewünschte Umsetzungsprinzip: Der CEO eines global agierenden Konzerns sollte von seinem Büro nur durch eine einzige Tür in seinen direkt anschließenden situation room gehen können um sich rückzuversichern, ob und wie er angemessen entscheidet. Über eine solche Erwartung lasse sich reden, sagt das Prisma-Team und überschlägt, was das organisatorisch bedeutet. Planung und Aufbau, Einrichtung und Programmierung eines solchen Raums werden drei bis vier Monate dauern. Denn jeder dieser Räume wird eine kundengerechte Maßanfertigung sein. Daher kann nur einer nach dem anderen entstehen. Etwa drei situation rooms pro Jahr glaubt man aufbauen können. Betreiben sollen die Kunden ihre situation rooms selbst. Eventuelle Benutzungsprobleme könnten nach aller Voraussicht Eikon-Kundenberater lösen, sobald sie in das Prisma-Programm tief genug eingestiegen sind. Zusätzlich plant Prisma ein help center, ein Auskunftsbüro, bei dem Kunden bei Software- Problemen Unterstützung bekommen sollen, falls sie einmal nicht selbst weiterkommen. Top-Kunden, so erwartet man bei Prisma weiter, werden solche situation rooms zu eigenen Prognoseabteilungen ausbauen. „Das wird personalintensiv werden. Ein solcher Service <?page no="118"?> 118 3 Von Newton über Einstein muss sieben Tage pro Woche 24 Stunden am Tag dienstbereit sein. Das bedingt mindestens drei Schichten und eine zusätzliche Wochenend-Mannschaft. Falls die Nachrichtenlage es erforderlich macht, muss sie unverzüglich Alarm auslösen können. Einen solchen Apparat in den gewohnten Betriebsablauf eines Unternehmens oder einer Behörde einzuflechten, muss gelernt werden. Industriekunden“, sagt Heiner, „wissen das; ihnen ist klar, dass sie dafür Kapazität einsetzen müssen.“ Den ersten situation room soll eine von der Regierung der Vereinigten Arabischen Emirate 2002 in der Form eines Staatsfonds gegründete staatliche Aktiengesellschaft bekommen, die Mumbadala Development Company in der Hauptstadt Abu Dhabi. Mumbadala heißt auf deutsch Austausch und bedeutet sehr frei übersetzt auch Diversifizierung. Der Name ist Programm: Das Unternehmen soll die Wirtschaft der Emirate auf breitere Füße stellen, weg von begrenzten Öl- und Gas-Reserven. Es verfügt über die enorme Kapitalkraft von mehr als 63 Milliarden Dollar. Dass so viel Kapitalmacht über die bestmöglichen Früherkennungssignale in der ökonomischen Welt verfügen will, aber auch in ökologischen, sozialen und politischen Aktionsfeldern, liegt auf der Hand. Der zweite Interessent für einen eigenen situation room kommt aus der selben Region, aus dem Nachbaremirat, dem regionalen Wirtschaftszentrum Dubai. Dort sitzt, schon dem Namen nach global aufgestellt, die DP World, eine staatliche Investmentgruppe und einer der weltweit führenden Hafenbetreiber, ein wichtiger, aber kein einfacher Kunde. Der Chef des Unternehmens ist ein Chinese. Er hat über das Tagesgeschäft in allen 70 über den Globus verteilten Häfen seiner Organisation zu bestimmen. Grundlegende Entscheidungen kann er aber nicht ohne seine Kapitelgeber treffen, nicht also ohne die arabischen Scheichs, die die Emirate regieren. Besonders für sie gilt, auch wenn sie in Harvard studiert haben, dass sie Entscheidungen nicht gern auf der Basis abstrakter Daten treffen. Ein situation room mit Bildschirmen voller abstrahierender Verlaufskurven, Balkendiagramme und anderer Darstellungen wäre für den DP World CEO eine willkommene Hilfe. Aber seine Investoren, befürchtet das Prisma-Team, würden an einer so abstrakten Datenaufbereitung relativ bald das Interesse verlieren. Hardy hat nicht zuletzt solche VIP vor Augen, als er sich entschließt, in seinem Analyse- und Diagnose-System ohne solche theoretisierenden Darstellungen auszukommen. An ihre Stelle setzt er leicht erfassbare optische Signale. Zu den Großkunden, die Anfang 2016 auf der Liste der ernsthaften Prisma-Interessenten stehen, gehört auch die Regierung des südostasiatischen Staates Malaysia. Dieses Königreich ist einer der dynamischsten Staaten im ganzen südostasiatischen Raum. Ein Grund dafür: Vor zwei Jahrzehnten hat dort die Regierung entschieden, dass im Geschäftsleben die Hauptsprache nicht mehr malayisch, sondern englisch sein soll. Die Wirtschaft ist global sehr gut vernetzt. Wirtschaftsführer bekleiden zugleich hohe Staatsämter. Die Staatsführung machen vier Clans untereinander aus; die Königswürde wechselt alle paar Jahre reihum. Wer etwas erreichen will, braucht also nur mit wenigen Entscheidern zu sprechen. Da gibt’s nicht viel Raum für Debatten. Hardy kennt dieses Land gut; für einige Jahre hat er dort auch seine Wohnung genommen. Deshalb, aber auch über Daniels Netzwerk, kennen Heiner und er malaysische Regierungsvertreter, denen zugleich große Unternehmen gehören. Heiner berichtet im Frühjahr 2016: „Man trifft sich downtown, in einem 42-Loch-Golfclub mitten in der Hauptstadt Kuala Lumpur, in einem Riesen-Clubhaus auf einem riesigen Grundstück. Da sitzen diese Herren, die das Land und zugleich seine Wirtschaft regieren, und reden und feiern, und die Chauffeure warten draußen vor der Tür. Hardy und ich haben dort schon zweimal präsentiert. Zum Schluss gab’s einen Handschlag; und nun schau’n wir mal, wie es weitergeht - nächstes meeting innerhalb der nächsten zwei Monate.“ Es dauert aber nicht zwei Monate, sondern eineinhalb Jahre, bis Prisma Analytics und Malaysia zu konkreten Absprachen kommen. Malaysia hat landesweit rund tausend points of <?page no="119"?> 3.7 Die Prisma Analytics GmbH entsteht 119 information installiert. Das sind Zentren, in denen Experten für die jeweils regionale Entwicklung wesentlichen Fragen nachgehen: Hier geht es um Wettervoraussagen für die Landwirtschaft, dort um Marketingbedingungen für Rohkautschuk, hier um die optimale Palmölproduktion, dort um politische Verflechtungen und Rücksichtnahmen. Jeder dieser points of information soll für einsolches Themenfeld das Kompetenzzentrum sein, das auf Fragen nach der richtigen ökonomischen und ökologischen Politik bestmögliche Antworten ermittelt und bereithält. Für jedes dieser Kompetenzfelder soll die Prisma Analytics Software unterschiedliche Daten analysieren und Empfehlungen extrahieren. Die Beschaffung qualifizierter Daten hierfür kann eine Herausforderung sein; programmiertechnisch aber sieht Hardy kein Problem. Denn Prisma hat ohnehin unterschiedlichste Kunden zu bedienen, die völlig unterschiedliche Fragen stellen und trotzdem maßgeschneiderte Antworten erwarten. Was dazu an Daten eingelesen wird, entstammt in erster Linie dem enormen Fundus von Thomson Reuters, aber natürlich auch nationalen und regionalen Quellen der jeweiligen Länder. Was ausgelesen wird, richtet sich nach dem jeweiligen Nutzer und seinem konkreten Bedarf. Der fällt von Kunde zu Kunde unterschiedlich aus. Also muss das System auch unterschiedliche, individualisierte Informationenermitteln und bewerten. Drücken zwei Personen in diesem System den gleichen Knopf, liefert das System ein zwar strukturell, nicht aber inhaltlich gleiches Ergebnis. Denn die Prisma Analytics Software verarbeitet in der Branche oder für den Kunden A andere Daten als in Branche B, in der Region C andere als im Land D und erzeugt deshalb auch für jeden Anfrager andere Rückschlüsse. Weil jedes Aktionsfeld jedes einzelnen Kunden unterschiedliche Erfolgsvoraussetzungen hat und deshalb unterschiedliche Informationenbenötigt, errechnet die Software jeweils spezifische Ergebnisse und Werthaltigkeiten. Prisma Analytics individualisiert seine Analysen für jeden Abnehmer aus Daten, die auf den einzelnen Kunden zugeschnittenen sind. In den vorgesehenen situation rooms wird diese Individualisierung nur auf die Spitze getrieben: Die in einem solchen Raum arbeitende Software leitet nämlich aus dem Datenkranz und aus der genauen Kenntnis über die Präferenzen des Nutzers Fragen, die ein Kunde haben könnte, schon systematisch ab, bevor er sie überhaupt stellt. Das versetzt dieses System in die Lage, im Hintergrund wahrscheinliche Antwortparameter schon vorauseilend zu errechnen und deshalb konkret gestellte Fragen unverzüglich zu beantworten, fast in real time. Sobald die Prisma Analytics Software ausgeliefert wird, soll das Prisma Analytics-Team in Cluj, das bereits seit einiger Zeit in vollem Betrieb und bislang vornehmlich auf den Nahen Osten fokussiert ist, im globalen Maßstab makroökonomische und geopolitische Analysen in Echtzeit produzieren. Das Team in Bukarest dagegen soll mit Prisma Analytics Einzelfragen oder ganze Fragenpakete von Einzelkunden beantworten und ihnen maßgeschneiderte Empfehlungen geben. Mit beiden Offerten beginnt Prisma Analytics mit RavenPack zu konkurrieren. Das bewerten die Prisma-Akteure indessen gelassen. Zur Erinnerung: RavenPack, ursprünglich von Patentpool in München gegründet und von Heiner und Hardy gemanagt, dann nach Marbella gezogen, geht dort seit 2007 - spezalisiert auf den Finanzmarkt - eigene Wege. Patentpool ist am RavenPack-Kapital nur noch mit fünf Prozent beteiligt. Hardy hat für die ebenfalls von Patentpool gegründete Firma Prisma Analytics die gleichnamige neue Software entwickelt, die Analysen und Handlungsempfehlungen für alle Managementfelder anbietet, keineswegs nur für den Finanzmarkt. Bei Patentpool heißt es deshalb: „Der Markt ist groß genug; er verträgt locker zwei Top-Firmen. Uns“, sagt Heiner weiter mit einem Lächeln, „ist natürlich lieber, wenn wir, Prisma Anlytics, das Rennen machen, schau’n wir mal. Ein gesundes Konkurrenzverständnis hat uns jedenfalls nie geschadet, gerade in der Frühphase nicht.“ <?page no="120"?> 120 3 Von Newton über Einstein Empfehlungen auf Echtzeitbasis sind sehr gefragt Während das Prisma Analytics-Team in Bukarest und in Cluj diese Einschätzung zur Kenntnis nimmt und beginnt, sie umzusetzen, ist Hardy schon wieder auf Achse. Aus Südostasien berichtet er in die rumänische Hauptstadt: „In den letzten Wochen hatte ich zahlreiche Schlüsseltreffen mit früheren und aktuellen Beratern der ASEAN-Gruppe, NGOs und Regierungen aus dieser Region um zu lernen, welche Art von Analyse für sie von Nutzen sein könnte und um sie dazu zu bewegen, den Kauf von Lizenzen für die Geopolitik- Anwendung zu erwägen. Es war keine Überraschung für mich festzustellen, dass es nicht nur im Nahen Osten, sondern auch in Asien einen enormen Bedarf an der Belieferung mit content auf Echtzeitbasis gibt, der den CEOs wie auch den Exekutivabteilungen und Ministerien aller Regierungen hilft, die minütlichen Drehungen und Wendungen dieser komplexen Welt zu verstehen. Ich werde mit einem notebook voll von Anfragen nach Bukarest zurückkehren, mit allen Anforderungen, auf die wir Antworten anbieten müssen; Anforderungen, die wir allesamt erfüllen können, sogar sehr gut.“ Und weiter heißt es in Hardys Report: „Der Markt für den Inhalt geopolitischer und makroökonomischer Echtzeitanalysen ist sehr beachtlich und wird binnen Kürze das gesamte Potenzial von bisherigen Finanzanwendungen in den Schatten stellen, deren Markt wiederum schrumpft und in naher Zukunft gesättigt sein dürfte. Sogar Berater der Zentralbanken in der asiatischen Region, die sich historisch in der Regel eher auf reine Finanzdaten konzentrieren, haben mir gegenüber in der vergangenen Woche angedeutet, dass sie in Zukunft viel mehr benötigen werden als nur Zahlen. Sie brauchen Chancen-/ Risiko- Evaluierungen aus einer Vielzahl verschiedener Gesichtspunkte, die vor allem geopolitische Einflüsse und grundlegende Analysen von Megatrends und Makroökonomie einbeziehen.“ Bald darauf schreibt nicht Hardy, sondern ein Thomson Reuterscommodity specialist, also ein Experte für Nachrichten über bestimmte Warengruppen: „Anfang dieser Woche hatten wir das Vergnügen, das Prisma Analytics-Team auf zwei Treffen in Dubai und Abu Dhabi mit einigen der größten Unternehmen auf ihrem Gebiet in Middle East / North Africa bzw. sogar weltweit in Dubai begrüßen zu dürfen. Das feedback aus dem Publikum während dieser Treffen war gelinde gesagt hervorragend. Angefordert wurden sowohl Demos der App wie auch Machbarkeitsstudien für den situation room, und wir konnten wertvolles feedback über Reizpunkte und Herausforderungen zusammentragen. Hardy und wir alle werden in den nächsten Monaten nicht nur die Weiterentwicklung der EikonAppGlobal Dashboard of Risk and Opportunity verfolgen, sondern auch an dem Bukarester situation room arbeiten, um diesen als Machbarkeitsnachweis für alle künftigen Planungen nutzen zu können. Hardy und ich stimmten darin überein, dass es wichtig wäre, mindestens noch sechs ähnliche Treffen vor Jahresende im Mittleren Osten zu arrangieren.“ Der commodities specialist hat nicht nur in Hardy einen kenntnisreichen Adressanten, sondern auch in dessen Teamkollegen Muhamed Catic. Männer wie Catic können sehr genau einschätzen, wie viel „Musik“ in einer Nachricht wie der steckt, der Markt verlange weitere situation rooms nach Prisma Analytics-Manier. Hardy kennzeichnet die Aussichten seiner Firma mit den Worten: „In meinen Gesprächen mit potenziellen Kunden in der Welt der NGOs und Regierungen, aber auch mit Vorstandssprechern großer Unternehmen diskutierten wir oft die Auswirkungen neuer Technologien und ihre Bedeutung als primärer Einflussfaktor im wirtschaftlichen Wandel. In einer Welt, in der sich die Technologien Monat für Monat schneller und mit wesentlich mehr Einfluss auf die Welt entwickeln als es jemals zuvor geschehen ist, wird es zwingend erforderlich sein, den Zugang zu wissenschaftlichen und technischen Daten für das Prisma Analytics-Projekt dauerhaft sicherzustellen. Tatsächlich hat neben den CEOs und NGOs auch ein hochrangiger Vertreter einer Zentralbank hier in Asien mir gegenüber angedeutet, dass er äußerst großes Interesse an einer kontinuierlichen Analyse habe, die zwischen den aufstre- <?page no="121"?> 3.7 Die Prisma Analytics GmbH entsteht 121 benden Technologie-Trends (bis zu 20 Jahre in die Zukunft) und deren zu erwartenden Auswirkungen auf den wirtschaftlichen und geopolitischen Verschiebungen in der Zukunft Korrelationen zeigt. Technologien unterscheiden sich nicht allzu sehr von Zahlungsmitteln; sie sind sich ähnlicher als man auf den ersten Blick glaubt.“ Und in „abschließenden Bemerkungen“ fasst Hardy zusammen: „Meine fortwährende Marktforschung in den vergangenen Wochen hat deutlich mehrere wichtige Aspekte bestätigt: Die Methodik und der zunehmende Vollkommenheitsgrad, mit der die Finanzbranche ihre Händler mit Echtzeitdaten und Informationen unterstützt, macht diese Infos nicht nur zu einem sehr mächtigen Werkzeug für die Finanzmärkte. Die Mechanismen ihrer Erzeugung und ihres Einsatzes sind auch auf Märkte voll skalierbar, die derzeit noch nicht mit Informationen auf dieser minütlichen Basis bedient werden. Einige Regierungsvertreter (einer von ihnen ein derzeit aktiver Minister einer asiatischen Regierung) sagten mir diese Woche, dass in seinem Land die meisten Analysen und Informationen oft um Monate verzögert erscheinen, und schlimmer noch: die Informationen seien in der Regel noch im Stil des 19. Jahrhunderts gestaltet, auf die lange Bank geschoben und oft nur als Jahres- oder Quartalsberichte aufbereitet. Zu dem Zeitpunkt, an dem die enthaltenen Informationen bewertet werden sollen, waren diese fast immer völlig veraltet und standen außerhalb jeglichen Zusammenhangs. Die politischen Führungseliten seines Landes aber brauchen einen Informationsstrom im Stil der Finanzindustrie mit Analysen und Informationen in der gleichen Art und Weise, in der sie Finanzhändler benötigen, um An- und Verkaufsentscheidungen schnelltreffen zu können. Warum sollte das bei multinationalen Unternehmen oder Regierungen anders sein? “ Graduell ist es aber anders, und der Grund dafür ist einfach: Multinationale Unternehmen und Regierungen sind im Gegensatz zu Akteuren im Finanzmarkt keine Ein-Zweck- Organisationen. Sie folgen nicht nur einem einzigen Indikator, nämlich dem Aktienkursindex, sondern müssen eine enorme Breite paralleler Prämissen und Konsequenzen bedenken. Die Analysen, die sie benötigen, müssen viel breitere inputs verarbeiten können als nur die für Finanzmarktempfehlungen. Diese inputs muss ein Partner bereitstellen können, dessen Nachrichtenströme entsprechend breit sind. Dafür kommt nur in Frage, wer im weltweiten aktuellen Nachrichtengeschäft tätig ist. Um diesen Partner für die Schloer Consulting Group und das Team von Prisma Analytics geht es im folgenden Kapitel. 2016 schreibt der schon erwähnte commodity specialist aus Dubai an Hardy nach Bukarest: „Ich bin überzeugt, dass sich die Entwicklung der Projektinhalte des in die richtige Richtung bewegt, und ich werde mit Ihrem Team in Bukarest nächste Woche daran arbeiten, dieses Projekt genau zu dem zu machen, was wir in den vergangenen Monaten besprochen haben. Wir sind sehr gespannt, dessen inhaltliche Qualität in die Thomson Reuters-Auswertungssoftware Eikon eingebunden zu sehen, und das so schnell wie möglich. In einer strategischen Partnerschaft zwischen Thomson Reuters und der Schloer Consulting Group / Prisma Analyticswollen wir das zu erwartende Niveau und die Detailtiefe der Analytik einem völlig neuen Publikum nahebringen. Ich glaube fest daran, und damit stehe ich bei Thomson Reuters nicht allein, dass wir Bloomberg wie auch anderen Anbietern Marktanteile abnehmen und mit dieser Form von Analyseverfahren neue Marktsegmente (Regierungen, NGOs, Hochschulen etc.) aufbauen können. Wir werden unseren Teil tun: Unsere Account-Manager, Vertriebsspezialisten und Marktexperten werden dafür sorgen, dass jeder Eikon-Anwender und -Interessent diese Inhalte kennenlernt und die erforderliche Schulung erhält. Nach heutigem Stand gibt es circa 200.000 Eikon-Anwender und circa 320.000 Bloomberg-Abonnenten. Vom ersten Tag an werden wir mit etwa fünftausend Top-Vertriebsmitarbeitern regelmäßig per WebEx konferieren. Wir erwarten, dass Sie ein Kundendienst-Call center zur Verfügung stellen, um die Kunden bedienen zu können. Bitte machen Sie in Ihrer Planung keine Fehler.“ <?page no="122"?> 122 3 Von Newton über Einstein Der commodity specialist nennt Zahlen über Absatzchancen, die in Bukarest und in München aufhorchen lassen. Sie liegen weit über den vorsichtigen Prisma Analytics-Erwartungen. „Dies ist nur eine Schätzung“, teilt der commodity specialist mit, „die tatsächlichen Zahlen könnten bedeutend höher sein, geht man von dem frühen Interesse aus, das einige potenzielle Kunden an Ihrem Angebot haben. Einige werden nur eng definierte Analysen kaufen, andere wahrscheinlich weit über das reguläre Ausmaß hinaus auch große individuelle Lösungen bestellen.“ Der commodity specialist nennt damit ein Stichwort, dessen Tragweite er zu diesem Zeitpunkt kaum selbst abschätzen kann. Den Außendienst des Datenhauses Thomson Reuters zu munitionieren, ist ja eine Sache. Sie soll bis zum Herbst 2016 erledigt sein. Die „größeren individuellen Lösungen“ aber, von denen er spricht, haben Hardy und sein Team zwar im Fokus, jedoch noch nicht in ihrem Kalender. Es sind die situation rooms für Großkunden, von denen Hardys Team selbst bei Zurückstellung anderer Aufgaben nicht mehr drei im Jahr aufbauen könnte. Aber weniger Kraft für andere Aufgaben - das kommt gar nicht in Frage. So entsteht zunächst nur ein prototypischer situation room in Bukarest. Im Sommer 2017, als die Prisma Analytics GmbH dort in eine größere Büroetage umzieht,wird er aber wieder in Kisten gepackt und an den Prisma-Marketingstandort Barcelona gebracht, wo er mit neuer Software neu aufgebaut wird. „Der Ball ist in Ihrem Feld“, schließt der commodity specialist, „und es ist an Ihnen, daraus eine wesentliche Produktstrategie für beide zu machen, für Sie und Thomson Reuters. Wir haben alle Werkzeuge und die Infrastruktur, die den Erfolg für Ihr Produkt ermöglichen. Es ist nun an Ihnen, es zu implementieren und so zu unterstützen, wie wir es erwarten.“ Das weiß Hardy natürlich auch selbst. Thomson Reuters-Kunden steuern mit Eikon normalerweise ein klar umgrenztes Aktionsfeld. Haben sie Fragen zu stellen, dann wiederholen diese sich und lösen unterschiedliche Antworten nur dann aus, wenn sich Umfeldbedingungen und damit auch Chancen und Risiken des eigenen Handelns verändern und weiterentwickeln. „Für diese Zweckbestimmung ist die Thomson Reuters-Analyse-Software Eikon perfekt“, weiß Hardy - und ist doch überzeugt, dass er sie mit Prisma Analytics ausstechen wird. Einer seiner Kunden hat ihm gerade erst versichert, Echtzeitinformationen würden in Regierungskreisen binnen fünf Jahren zur gängigen Informationskultur gehören. „Wer immer als Erster diesem großen Markt die richtigen tools zur Verfügung stellt, wird diese Informationswelt beherrschen. All das bestätigt, dass wir mit unserer Strategie auf dem richtigen Weg sind. Natürlich wird es wie bei allen neuen Dingen anfangs Anpassungen und im Verlauf viele Optimierungen geben. Aber weil wir in vielen Bereichen die Ersten sind, habe ich keinen Zweifel, dass wir zu großen Gewinnern werden, wenn wir an diesen Strategien festhalten und sie weiter perfektionieren.“ Worauf Hardy anspielt, ist klar: auf quantum relations, sein Analyseprinzip, das als Instrument der Entscheidungsunterstützung unter dem Namen Prisma Analytics auf den Markt kommen wird. Top-Entscheider benötigen eine viel breitere, grundsätzlichere Unterstützung als Eikon sie liefern kann. Kunden, die für Konzerne oder Regierungen die Marschrichtung zu bestimmen haben, müssen grundlegende Richtungsentscheidungen treffen und erwarten dazu strategische Hilfen. <?page no="123"?> 44 GGoollddsstta annddaarrdd ddeer r NNe ew wss Wie verbreitet sich dieses Know-How jetzt global? Einer der weltweit größten Datenkonzerne wird mit Prisma Analytics verbunden, so dass das System nun in Echtzeit jede menschliche Regung registrieren und verarbeiten kann. 4.1 Maschinenleistung und der menschliche Faktor 123 4.2 Wie Prisma Daten visualisiert 130 44..11 MMaasscchhiinneennlleeiissttuunngg uunndd ddeerr mmeennsscchhlliicchhee FFaakkttoorr Wirtschaftsbosse und Politiker fragen im immer dichter werden Datendschungel nach Orientierung. Deshalb vergeht nach der Gründung der Prisma Analytics GmbH noch nicht einmal ein Jahr, bis das in Bukarest arbeitende Team vertraglich gesichert oder per Handschlag abgesprochen außer einer nationalen Regierung auch eine Nationalbank und eine globale Unternehmensberatung zu seinen ernsthaften Interessenten zählt. Alle Entscheider solchen Kalibers - Hardy schätzt ihre Zahl weltweit auf eine Größenordnung zwischen 50.000 und 200.000 Personen - benötigen drei Arten von Informationen: Hinweise auf sich eröffnende Chancen, Warnungen vor neuen Risiken sowie Prognosen künftiger Zustände und Entwicklungen. Diesen nur auf der Basis von Millionen Daten befriedigend zu bedienenden dreifachen Bedarf bedientPrisma Analytics. „Dafür stellen wir großen Kunden wie Regierungs- oder Firmenchefs maßgeschneiderte situation roomshin. Dort finden sie alle auf sie zugeschnittenen Chancen, Warnungen und Prognosen.“ Vor dieser Königsklasse der Trendanalysen liegt das alltäglichere Feld der allgemeinen Kundenberatung. Eine erste voll funktionsfähige und intern fehlergeprüfte Anwendungs-Infrastruktur der Prisma Analytics- Inhalte will Hardy den 5000 Eikon-Kundenbetreuern bis zum zweiten Quartal 2017 zur Verfügung stellen. Einen Monat vor Fristablauf lieferter eine erste Version. Finanzanalytik und geopolitische Analysen Diese Prisma Analytics Software hat mindestens zwei sehr unterschiedlichen Kundensegmenten zu dienen. „Irgendwann ab Sommer“, schreibt Hardy in einem internen Papier, „werden wir es mit zwei völlig unterschiedlichen Gruppen von Nutzern zu tun haben: mit der Finanzindustrie, die offenkundig das Hauptaugenmerk von Thomson Reuters ist, und mit Führungskräften globaler multinationaler Unternehmen, NGOs und Regierungen, die schon immer den Schwerpunkt der Schloer Consulting Group darstellten.“ Beide Gruppen stellen nicht nur unterschiedliche Fragen, sondern arbeiten auch komplett unterschiedlich. Die Finanzindustrie „tickt“, wie die Arbeit von RavenPack gezeigt hat, im Sekunden-, ja im Millisekundentakt mit einem Horizont von gerade mal einem Tag. Regierungen, Konzerne und NGOs agieren viel langsamer, aber auch viel langfristiger. Beide Gruppierungen fragen unterschiedliche Auskünfte nach. Prisma plant folglich den Start zweier paralleler Auswertungssysteme, eines Pakets Finanzanalytik und parallel dazu eines für geopolitische Analysen. „Beide Anwendungen teilen sich erhebliche Mengen an Inhalten und Visualisierungen“, erläutert. Hardy das im Sommer 2016. Allerdings ergeben sich aus Finanzanalysen in erster Linie numerische Darstellungen und Indizes. Sie fußen auf Finanzbzw. Wirtschaftsdaten und auf der linguistischen Analyse von Nachrichten. Geopolitische Analysen hingegen be- <?page no="124"?> 124 4 Goldstandard der News stehen nicht nur aus Zahlenkolonnen. Prisma reichert Zahlenreihen mit kommentierten Tickermeldungen an und erläutert so die Zahlen in einem geopolitischen und makroökonomischen Kontext. Zu dieser Form der Analyse gehört auch eine Nutzen-/ Risiko-Matrix. Sie erfordert die Darstellung komplexer Wechselbeziehungen zwischen prognostizierten Einflüssen und Trends.Beide Analyseformen, ist Hardy im Sommer 2016 überzeugt, nutzen dieselbe Methodik, aber stellen ihre Befunde unterschiedlich und mit sehr unterschiedlichem Zeithorizont dar und müssen nebeneinander existieren. Diese Überzeugung wird er binnen Jahresfrist jedoch komplett verwerfen, als die Weiterentwicklung der Prisma Analytics Software ihm eine Möglichkeit zeigt, beide Anwendungen aus einem Guss zu realisieren. Der „menschliche Faktor“ stört mehr als er hilft Das Prisma Analytics-Programm fußt auf Millionen data fusion objects (DFOs), also auf Daten mit ihren zugehörigen Metadaten. Jedes DFO hat bei Prisma seine eigene 18-stellige IPv6- (Internet-Protokoll Version 6)-Nummer, mit der sich Daten in Rechnernetzen paketweise übertragen lassen. Seit Februar 2016 lässt Prisma Analyticsjede IPv6-Nummer reservieren, die zu bekommen ist. Im Februar 2017 sind bereits Milliarden solcher Nummern für Prisma Analytics-DFOs vergeben, ein Jahr später viele tausend Milliarden. „Das ist wichtig“, erläutert Hardy, „da wir letztlich Billionen von Objekten in unserer Datenbank haben werden. Wir beschriften jedes einzelne Objekt (data fusion object) mit einem verallgemeinerten Satz von Metadaten, die wir einen ‘Pass‘ nennen, und betten jedes einzelne Objekt durch Zuordnung einer IPv6-Nummer in seine eindeutige abrufbare Biometrie ein“ (Schloer 2018). Prisma Analytics arbeitet dazu nicht mit eigener hardware, sondern ausschließlich in einer cloud. Das geschieht trotz immer wieder befürchteter Exklusivitätslücken bei der Nutzung fremder Computer nicht zuletzt deshalb, weil normale Festplatten zwar rund ein Jahrzehnt halten, weil beim Zusammenschalten Hunderttausender von Festplatten und bei gleicher Ausfallwahrscheinlichkeit statistisch betrachtet aber jede Stunde eine von ihnen „streikt“. Sie zu ersetzen würde Zeit brauchen Jede Form von Zeitverzögerung würde abgesehen vom Risiko des Datenverlusts aber das Prinzip real time unterlaufen. In der cloud, sagt Hardy, falle dieses Risiko weg - ein entscheidender Vorteil. Alle Informationen laufen in der cloud durch ein Wörterbuch, das unterschiedliche, aber sinngleiche Schreibweisen erkennt und Dopplungen vermeidet. Köln und Cologne, Aachen und Aix-la-Chapelle, Münchenund Munich sind ja keine jeweils unterschiedlichen Städte. Der Name des früheren lybischen Staatschefs Muhamar Al-Gaddhafi wurde in 20 führenden Medien auf 25 unterschiedliche Weisen geschrieben. Trotzdem muss eindeutig sein, um wen es jeweils geht. Zu diesem Abgleich kommt eine fremde Software zum Einsatz, das IBM- System Watson. Die Programmerung der Prisma-Analysen leistet das Team in Bukarest. Dabei kommt den Prisma-Programmierern ein Umstand entgegen: Anfangs hatten die Antworten, die ihr Programm zu erarbeiten hat, bis zu einem gewissen Grad noch auf dem gefußt, was Analysten, also Menschen, aus Fakten herausgelesen hatten, mithin auf deren Bewertung. Das hält Hardy aber für einen systematischen Mangel. Denn Analysten können von ihrem persönlichen Wertegerüst nicht einfach absehen. Hardys Konsequenz daraus klingt aufs erste Hinhören scharf: „Der Faktor Mensch ist der Tod klarer Faktenorientierung. Denn er bereichert unsere Entscheidungsfähigkeit nicht nur nicht, sondern steht ihr faktisch im Weg.“ Er hat das oft ausprobiert und ebenso oft in einer Art Spiel demonstriert, das als ‚stille Post“ allgemein bekannt ist. „Auf internationalen Konferenzen habe ich immer wieder einmal sechs Personen aus dem Publikum zu einem Experiment mit vorhersehbarem Ergebnis gebeten. Der ersten habe ich einen simplen, kurzen, rein faktischen Text zu lesen gegeben, etwa von folgender Art: ‚In einem Vorort von Philadelphia verlässt ein schwarzer Mann von etwa 50 Jahren an einem Werktag-Vormittag gegen zehn Uhr sein schon etwas baufälliges Haus. Er geht zu Fuß zur Post, um dort einen Brief aufzugeben…‘ <?page no="125"?> 4.1 Maschinenleistung und der menschliche Faktor 125 und so fort -fünf simple Sätze. Die erste Person fragte ich dann, ob sie den Text verstanden habe - ja, hieß es, er sei ja nicht schwer - ob sie ihn sich habe merken können - ja, natürlich, ganz klar - ob sie ihn wirklich gut in Erinnerung habe - gewiss doch, warum fragen Sie denn? “ Dann hatte Hardy den Text jemandem zur Verwahrung gegeben und die erste Person gebeten, seinen Inhalt der zweiten Person so genau wie möglich weiterzuerzählen, diese zweite Person danach der dritten und so fort bis zur sechsten. „Diese sechste Person bat ich schließlich, die Geschichte in der Konferenz öffentlich vorzutragen. Unmittelbar anschließend bat ich denjenigen, der den Ursprungstext verwahrt hatte, nun diesen zu verlesen. Beide Versionen hatten regelmäßig nicht das Geringste miteinander zu tun. Das Publikum reagierte stets heiter-verblüfft. Es waren schließlich keine Kinder, sondern intelligente Leute, die da mitgespielt hatten, Teilnehmer internationaler Konferenzen. Sie konnten die Geschichte kaum vergessen haben, denn sie hatten sie ja gerade erst gehört.“ Für Hardy war die Sache ganz klar: Niemand redet nur an einen anderen hin. Stets geschieht etwas Komplexeres: Jeder Sprecher hat eine Idee von seinem Gegenüber, was der ist, wie der „tickt“, was ihn interessiert usw. Das gilt wechselseitig und verändert das zu Sagende automatisch. Außerdem hatten die sechs Personen, die da ‚stille Post’ gespielt hatten, hatten von persönlichen Präferenzen nicht absehen können. Was ihnen wichtig erschienen war, hatten sie besser behalten und farbiger weitergegeben als das, was sie als nebensächlich einschätzten. Erinnerungslücken hatten sie aus ihrer eigenen Erfahrung aufgefüllt und so die originale Geschichte immer weiter verändert. Sie hatten also ausgewählt und gewertet, so wie auch Journalisten aus der Masse ihrer Quellen auswerten, verdichten und werten. Das Ergebnis einer solchen journalistischen Arbeit ist die ‚Tendenz‘ ihrer Publikation. Wer viele Zeitungen oder Webseiten parallel liest, kann dann vergleichen und so seine eigene Urteilsfähigkeit schärfen. „Entscheider“, erläutert Hardy aus seiner Erfahrung, „haben dafür aber keine Zeit. Sie müssen bisher notgedrungen mit unvollständiger Information vorliebnehmen, die irgend jemand irgendwie vorausgewählt hat. Natürlich bringen sie zusätzlich ihre eigene Sicht der Dinge ein, was Entscheidungsvoraussetzungen nochmals subjektiver und damit fehleranfälliger macht. In solchen Analysen ist der menschliche Part also grundsätzlich ein Störfaktor.“ „We want you to feel the machine“ Analysen und die Entscheidungen, die sie auslösen, werden nach Hardys Überzeugung deshalb umso besser, je stärker sie auf der Leistung emotionslos arbeitender Maschinen beruhen, die zugrunde liegende Daten analysieren, und nicht auf Menschen. „We want you to feel the machine, to get in touch with the machine.“ Der Nutzer soll die Leistung der Maschinen erspüren. Und die sollen jeden Tag Tausende solcher auf individuelle Nutzer zugeschnittener Analysen produzieren, natürlich rund um die Uhr, sommers wie winters, werktags wie feiertags und stets auf die Sekunde aktuell. Hardy mechanisiert also das Verständnis von Information. Niemand soll die Parameter, nach denen eine Information ausgewählt und gewichtet wird, nach seinen Zielen gewichten - andere Nutzer könnten schließlich andere Ziele verfolgen. Wer das täte, steckte tief in subjektivistischem Denken. Wer dagegen Maschinen aus Fakten Schlüsse ziehen lässt, tut das auf neutralem Terrain. Denn Algorithmen errechnen Wahrscheinlichkeiten für das, was und wie etwas geschieht. Das tun sie aber mit so hoher Eintrittwahrscheinlichkeit, dass sich Entscheidungen darauf gut aufbauen lassen. Wer den ‚menschlichen Faktor‘ aus seinen Analysen möglichst heraushalten will, darf deren Gewichtungen noch aus ein em weiteren Grund nicht fraglos akzeptieren. Diesen Faktor bringen im Wesentlichen Analysten ein, die im Westen arbeiten und wie selbstverständlich westliche Bewertungen zugrunde legen. Das kann einseitig sein. Also sammelt und <?page no="126"?> 126 4 Goldstandard der News bewertet Hardy ab 2016 systematisch auch arabische, afrikanische, indische, lateinamerikanische, russische, chinesische und südostasiatische Quellendaten. Thomson Reutersverfügt aus über zwei Jahrzehnten elektronischer Datenspeicherung (nicht gerechnet sein älteres schriftliches Archiv) zwar schon mehr als 22 Millionen Einzelnachrichten. In Hardys Speichern tragen diese aber alle die Metainformation western, denn sie wurden, wie er sagt „durch eine westliche Brille betrachtet“. In seinen eigenen Speichern liegen bald vier Millionen zusätzlicher Datensätze (in seiner Sprachedata fusion objects) aus anderen Weltregionen, mit denen er diese Einseitigkeit der Weltbetrachtung ansatzweise ausgleicht, zwar durchweg in englischer Sprache, aber zumindest von Akteuren anderer Weltregionen ausgewählt, formuliert und verbreitet, also stets durch deren Brille betrachtet. Kaum ein anderes Analysesystem ist so breit aufgestellt. Der Fokus auf Englisch lässt lateinamerikanische, zentralasiatische, innerafrikanische und andere Quellen dennoch unterrepräsentiert. Erst der systematische Einsatz von Übersetzungs-Software wird das ausgleichen können. Die Zugriffsmöglichkeit zu westlichen und nicht-westlichen Informationsquellen ermöglicht Prisma ein besonderes Augenmerk auf die Verbreitung zum Beispiel neuer Technologien. Innovative Lösungen mögen in ihrer großen Mehrzahl aus den USA oder aus der Alten Welt kommen; die Weltmeister im Adaptieren solcher Innovationen leben aber in Asien. Das hat unter anderem mit der demografischen Entwicklung zu tun. Europa hat ähnlich wie Japan alternde Gesellschaften; in den ASEAN-Staaten leben vorwiegend junge Menschen. In Deutschland ist die Aufbruchsstimmung der 1960er Jahre Geschichte, dort blüht sie auf - ein Grund dafür, die Demographie in alle Analysen mit einfließen zu lassen. Demografische Kennzeichnungen von Daten gehören zu den Metadaten, die die eigentlichen Informationen umgeben. Zusammmen ergeben sie das jeweiligedata fusion object (DFO). Metadaten sind quasi der Datenpass. Mit der IPv6-Nummer lassen Daten sich finden und anhand der Metadaten qualifizieren, jedes einzelne Objekt von der Quelle der Information über den Zeitpunkt der Aussage und ihren Charakter (Faktum, Vermutung, Erwartung, Befürchtung usw.), über den geografisch-kulturellen Hintergrund (western, eastern, far eastern, african usw.) und so fort bis zur Evidenz (was über die Wirksamkeit dieser Information bekannt ist) und zur Konsequenz (welche Wirksamkeit zu erwarten ist). Zu jedem DFO gehören durchschnittlich rund zwei Dutzend solcher mitprägender Randbedingungen und viele hundert Umfeldeinflüsse. Wegen der vielfältigen Wechselbeziehungen einer einzigen Randbedingung mit allen anderen ergibt das bis zu 200.000 Einflussgrößen. Der Kristall, durch den Prisma zu schauen hat, ist also wahrhaftig komplex. Nur Maschinen mit der Fähigkeit zur Parallelverarbeitung von Millionen Datensätzen zur selben Zeit können das leisten. Diese Entwicklung, die hier nur umtissen werden kann, ist mathematisch anspruchsvoll und technisch komplex. Als wäre das nicht schon eine ausreichende Herausforderung, kommen nun aber doch noch menschliche Temperamente mit ins Spiel. Szenen einer Firmenehe Während Hardys Prisma Analytics-Team diese Algorithmen entwickelt, hat seine Gesellschaft bei Thomson Reuters die Managementebene Middle East übersprungen. Die Gespräche über eine intensive Zusammenarbeit laufen mittlerweile in der Thomson Reuters-Zentrale in London. Auch ein Mitglied der Firmenleitung aus Nordamerika ist mit von der Partie. Aber die Verhandlungen ziehen sich hin. Denn der data scientist Hardy und die im Marketing geschulten Thomson Reuters-Nachrichtenhändler ‚ticken‘ nicht gleich. Berufshintergrund und Temperament lassen sie die gemeinsamen Ziele unterschiedlich bewerten. Nur langsam nähern die beiden Vorstellungswelten sich an. Darüber geht das Jahr 2016 zu Ende. Für Anfang 2017 verabredet man aber Nägel mit Köpfen. Im Februar 2017 fährt Thomson Reuters eine Testreihe zur Integration des Prisma Software- Pakets in die Systemwelt von Eikon. Auf der Prisma-Seite reagiert niemand nervös. Alle vor- <?page no="127"?> 4.1 Maschinenleistung und der menschliche Faktor 127 ausgelaufenen Tests sind völlig problemlos verlaufen. Endet auch dieser wie erwartet, soll die Thomson Reuters-Mannschaft im März mit einer Kombination von Eikon- und Prisma- Analysen in die Märkte ausschwärmen. Wie abgesprochen soll die Prisma Analytics Software ab dem zweiten Quartal 2017 weltweit eingesetzt werden können. Zu früh gefreut: Mit der Auslieferung an Thomson Reuters geht sie noch nicht in Betrieb. Die Computersysteme beider Unternehmen sind nun sind gewissermaßen verlobt, aber noch längst nicht verheiratet. Vielmehr beginnt nun eine mehrere Monate dauernde Phase, in der die zwei Systeme zueinander voll kompatibel gemacht werden müssen. Natürlich hat das Prisma-Team seine Software so entwickelt, dass sie sich geschmeidig an die von Thomson Reuters andocken lässt. Aber wie stets steckt der Teufel im Detail. Die Anpassung zieht sich hin. Sie dauert Monate. Vordergründig geht es um technische Fragen. Aber im Hintergrund spielt mit, dass da zwei Firmenkulturen zu verheiraten sind. Deshalb geht es nicht nur um Technologien, sondern auch um Temperamente. Was nun geschieht, hat Vorbilder in vielen Firmenfusionen, in denen alle Managementaspekte ausreichend klar abgesprochen zu sein scheinen und dann aber doch zwei Welten aufeinanderprallen, die unterschiedlicher nicht sein können. Prisma Analytics ist zu diesem Zeitpunkt, im Frühjahr 2017, ein Unternehmen von 60 bis 70 Personen in Bukarest und in Cluj. Die meisten von ihnen sind junge Programmierer, fast alle weiblich, weit überwiegend rumänische Jungakademiker, intelligent, ehrgeizig und fokussiert auf ein einziges Ziel: die Vision zu realisieren, die Hardy ihnen vorgegeben hat. Wenn nötig kennen sie keinen Büroschluss, nicht am Abend, nicht in der Nacht, nicht am Wochenende. Eingespielte Verbindungen gibt es außerdem zu der nicht zu Prisma gehörenden Mannschaft des Supercomputing Center LSC ADRIA im slowenischen Ljubljana. Und im katalanischen Barcelona wird ein kleines Team aus Marketingexperten in die Prisma Analytics GmbH integriert. Die Prisma-Leute leben die Überzeugung, dass es ein Instrument geben muss und geben wird, das Sachverhalte aller Art und beliebiger Komplexität glasklar analysiert und einfach auf den Punkt bringt. Es muss ein Computerprogramm sein. Denn selbst ein routiniertes Team könnte den Wust von Einflussgrößen, die zu berücksichtigen sind, nicht mehr durchschauen. Eine Software muss deshalb Entscheidungsempfehlungen ermitteln und im richtigen Moment anbieten - so klar, als liege eine andere Weichenstellung vernünftigerweise außerhalb jeder Diskussion. Das ist ein mathematisch eindeutig definiertes und mit mathematisch-wissenschaftlicher Präzision zu realisierendes Ziel. Thomson Reuters hingegen hat nicht nur viel mehr Mitarbeiter, sondern ist auch viel verzweigter und komplexer aufgestellt. Es ist nicht eine Kompanie von Kämpfern für ein einziges Ziel, sondern eine aus unterschiedlichsten Truppenteilen in unterschiedlichsten Uniformen mit unterschiedlichsten Führungsstrukturen durchsetzte Armee. Auch sie hat Ziele - welche, ist angesichts der molluskenartigen Struktur zumindest für den Außenstehenden aber nicht immer ersichtlich. Es sind jedenfalls Ziele im Plural. Manche Truppenteile verfolgen eigene Marschrouten. Vielleicht muss das in großen Organisationen so sein, damit sie nicht unbeweglich werden. Es führt allerdings zu zersplitterten Zuständigkeiten. Truppenteil A besitzt Munition, im Fall Thomson Reuters Informationen, mithin Daten. Über den Transport entscheidet Truppenteil B, über den Einsatz oder gar die Weitergabe an Außenstehende aber Truppenteil C. Bevor sich A nach Diskussion mit B die Zustimmung von C einholen kann, werden bei B aber Stühle gerückt - und der neue Befehlshabende weiß noch von nichts. Bis er auf dem Laufenden ist, vergeht natürlich Zeit, und in der hat sich der Generalstab entschieden, dass er C nicht mehr braucht. Also wird nicht die in Rede stehende Datenmunition verkauft, sondern erst einmal der Verkäufer C. Bis neue Vereinbarungen mit neu zuständigen Gesprächspartnern ausgehandelt sind, vergeht selbstverständlich wiederum Zeit. <?page no="128"?> 128 4 Goldstandard der News Nicht nur diese unterschiedlichen Strukturen erweisen sich als Bremsklötze für die vereinbarte Zusammenarbeit, sondern auch divergierende Temperamente. Hardy denkt, plant und handelt als data scientist. Sein credo ist die Mathematik. Die ist, was sie ist. Punktum. Thomson Reutershingegen ist market driven, orientiert sich an den Wechselfällen des Marktes, denkt und handelt in Marketing-Kategorien. Diese beiden Kulturen haben nur begrenztes Verständnis füreinander und, ärger, ihre Protagonisten nicht immer die Zeit und die Nerven, allzu tief in die Wenns und Abers der jeweils anderen Seite einzutauchen. Der eine denkt in IT-Kategorien, die anderen in Marketing-Prioritäten. Folglich reden sie immer wieder einmal aneinander vorbei. Aber die Gespräche gehen doch schlussendlich voran. Sie ermutigen Hardy, nicht die Analysemethodik, wohl aber die Darstellung der Ergebnisse nochmals auf den Prüfstand zu stellen. Denn aus den situation reports hat er gelernt: Was zählt, ist die blue section, die Zusammenfassung auf einen Blick. „Ein Top-Manager nimmt sich für ein Thema, über das er zu befinden hat, zwei bis sechs Minuten Zeit - die Zeit, die er für die Lektüre einer Seite Text und für vielleicht noch eine Rückfrage braucht“, lautet Hardys Erfahrung. Er kennt die Fragen, die Entscheider ihm üblicherweise stellen: „Welche Dynamik steckt in den Prozessen, die mein Geschäftsfeld betreffen? Wo kann ich beherzt zugreifen? Wo sollte ich besonders aufpassen? Was muss ich auf jeden Fall tun? Wenn ich entscheide: Wen muss ich beauftragen, dann was zu erledigen? Was darf ich auf keinen Fall zulassen? “ Und Hardy weiß auch, was dann meistens folgt, nämlich der Appell: „Halten Sie mich nicht lange mit Erklärungen auf. Kommen Sie klar auf den Punkt. Wenn ich mich für A entscheide, welche Konsequenzen hat das, wenn für B, welche dann? “ Akzeptiert der Manager dazu einen Rat, muss der genau auf dem Punkt sitzen. Lange Vorträge, komplizierte Darstellungen helfen da nicht. „Was soll ich tun? wird er fragen. Die Antwort muss kurz und klar sein, sollte nicht mehr als fünf Wörter umfassen, maximal zehn. Ein Satz also, nicht mehr. Aber der muss es in sich haben. Und dazu muss er auf einer unglaublichen Menge von Daten beruhen.“ Nach dieser Maxime strukturiert Hardy nun sein Analyse- und Prognosesystem: Ein einziger Satz erläutert die wichtigste Chance, ein zweiter die größte Gefahr. Ein Satz, wenn möglich gar nur ein Stichwort, umreißt die Handlungsempfehlung. Ein wenig funktioniert das wie die aus dem Marketing-Bereich bekannten SWOT-Analysen, zusammengesetzt aus S(trengths), W(eaknesses), O(pportunities) und T(hreats), also Stärken und Schwächen und daraus abgeleiteten Chancen und Risiken - nur mit dem entscheidenden Unterschied, dass Hardys Analysen auf der bisher unerreichten Leistung ausgefeilter Big Data-Analysen fußen. Alles Wesentliche auf einen Blick Im Frühsommer 2017 liegen Prisma Analytics-Bildschirmdarstellungen vor, die komplexeste Sachverhalte in sehr einfache Texttabellen verdichten. Sie bereiten die Inhalte nach dem Muster der blue sections früherer situation reports tabellarisch auf. Für jeden abgefragten Sachverhalt gibt es ein Textfeld mit einem kurzen, bündigen Satz über die wichtigste Chance und über die größte Gefahr, dazu grafisch aufbereitete Trends und Hintergrundinformationen für die Nutzer, die diese Details näher kennenlernen möchten. Mitte 2017 ist dieses Produkt auslieferfertig. Thomson Reuters-Vertriebsleute, die es zu Gesicht bekommen, sagen: Her damit - genau das wollen wir haben. Aber auch dieses Analyse-System verlässt die Prisma-Büros in Bukarest, Cluj und Barcelona gar nicht erst. Denn Hardy ist noch immer nicht zufrieden. Seine tabellarischen Darstellungen solcher Fakten, Konsequenzen und Handlungsempfehlungen bleiben deshalb trotz ihrer inhaltlichen Qualität noch unter Verschluss und können es auch noch bleiben. Denn noch haben sich Prisma-Programmierer und Thomson Reuters-Marketingleute über eine für die Zusammenarbeit wesentliche Detailfrage nicht einigen können. Sie betrifft die Thomson Reuters-Datensätze, die Prisma Analytics analysiert und bewertet. <?page no="129"?> 4.1 Maschinenleistung und der menschliche Faktor 129 Für die Spezialisten des Nachrichtendienstes Reuters sind Daten die einzig relevante Ware. Es sind schließlich die news, die sie vermarkten. Metadaten informieren „nur“ über die Bedingungen, unter denen die Daten entstanden. Sie sind für die news-Leute ein kurioser Ballast, den in ihrer Organisation bitteschön andere Unternehmenssparten verwalten sollen, wenn diese das denn für wesentlich halten. Prisma aber benötigt diese Metadaten mehr als alles andere, weil nur sie den Kontext erkennen lassen, der Daten umgibt: woher sie kommen, wie alt sie sind und so fort. Von den news people bei Thomson Reuters sind diese Metadaten nicht zu bekommen. Die Abteilungen, die sie verwalten, verweisen darauf, der Liefervertrag für Daten an Prisma sei mit dem Firmenbereich geschlossen worden, der die Nachrichtendaten besitzt, nicht mit ihnen. Man möge sich bitte an die anderen halten. Irgendwann platzt Hardy der Kragen: „Den Stoff, den ich von Ihnen haben möchte, muss ich nicht bei Ihnen besorgen. Ich kann ihn auch von Yahoo beziehen. Da kann ich ihn einfach herunterladen. Das kostet mich keinen Cent. Und wenn mir das nicht gefällt, gibt es noch zwanzig andere Lieferanten geeigneter Daten. Es ist nur die Frage der Datenaufbereitung, die mich veranlasst, in erster Linie nach Ihren Thomson Reuters-Daten zu fragen. Unsere Systeme sind inzwischen kompatibel; das macht bei der Datenaufbereitung alle Anpassungsschritte entbehrlich. Es ist nur diese Bequemlichkeit, die Sie anderen Datenlieferanten voraus haben.“ Den Gesprächspartner beeindruckt das nicht im Geringsten. Es dauert vier Monate, bis Hardy die makroökonomischen Daten mit ihren Metadaten erhält. Noch nach weiteren Monaten ist diese Metadaten-Bataille nicht ausgestanden. Das zeigt gerade einmal einen Monat vor dem verabredeten Prisma-Produktstart - dafür ist der 6. Oktober 2017 verabredet - ein Telefonat zwischen beiden Seiten. Hardys Ansprechpartner bei Thomson Reuters Middle East ist in der Leitung. Lange hört Hardy ihm zu, wortlos, reglos. Nur einmal sagt er: „Perfect“. Sonst sitzt er geraume Zeit schweigend da, verdächtig geduldig, verdächtig stumm. Wieder geht es um Metadaten. Er wartet lange. Dann verweist er auf den geplanten Prisma-Starttermin im Oktober. Es klingt ein bisschen wie eine Drohung, wenn er hinzufügt: Entweder Sie kommen mit Ihren Metadaten rüber oder ich löse das anders. Wenn ich von maschinenlesbaren Daten spreche, dann spreche ich automatisch von Metadaten. Einfache Nachrichten zu transportieren ist keine Kunst. Sie interessieren mich nicht einmal. Sie zu analysieren und zu bewerten ist nämlich ohne Metadaten nicht möglich. Textdaten ohne Metadaten machen für mich keinen Sinn. Das einzige, was Maschinen sinnvoll lesen und auswerten können, sind Metadaten. Ich wusste nicht einmal, dass Sie Daten ohne Metadaten überhaupt im Angebot haben. Sie sind ein Marketingmann. Für Sie machen Nachrichtendaten ohne Metadaten absolut Sinn. Ich aber bin ein wissenschaftlich arbeitender Analyst. Für mich machen Daten ohne Metadaten keinerlei Sinn.“ Sieht sein Gegenüber ein, was Hardy bewegt? Hardy wartet. Einmal sagt er kurz „ja“. Dann wartet er weiter. Er wartet lange. Von seiner Seite nun eisiges Schweigen. Doch dann bricht es aus ihm heraus: „Nein! Nein, nein, nein, nein. Zwei oder drei Tage darf das noch dauern, aber nicht Wochen.“ Wieder tritt eine Pause ein. Fast eine Minute lang sagt Hardy kein Wort. Dann nochmals: „Nein, nein, nein, nein, nein. Nein, nein, nein, nein, nein, nein. Nein, nein. Nichts davon. Das interessiert mich alles überhaupt nicht, und ich will es auch gar nicht hören. Das berührt meine Domäne nicht im Geringsten. Ich kümmere mich um die Technologie und um sonst gar nichts. Und ich spreche mit niemand anderem über etwas anderes als über Technologie.“ Wieder tritt eine Sprechpause ein. Noch einmal bekräftigt Hardy dann seine Domäne. „Was Sie im Oktober sehen werden, wird Sie umhauen, it will knock you out of the door, I promise you.“ Als gelernter, höflicher US-Amerikaner bekommt er am Schluss des Telefonats dann doch noch die Kurve. Denn auf das, was er nun hört, sagt er nur noch: „Brilliant, phantastic. Yes, absolutely.“ Er bekommt endgültig auch alle Metadaten, die er für seine Analysen und Bewertungen benötigt. <?page no="130"?> 130 4 Goldstandard der News 44..22 WWiiee PPrriissmmaa DDaatteen n vvi issuuaalliissiieerrtt Zwei wesentliche Weichen muss Hardy noch stellen, nachdem er im Sommer 2017 die Auslieferung seiner Software auf den Herbst desselben Jahres vertagt hat. Die eine steuert, wie die Person des jeweiligen Anfragers in die Analyse integriert wird, die andere die Art und Weise, wie ihm die Antworten dargestellt werden. Die erste Weiche führt dazu, dass die Analyse für den jeweiligen Kunden Maßanzüge erzeugt. Denn sie verarbeitet nicht nur data fusion objects (DFO) über Sachverhalte, sondern auch über den Auftraggeber. Auch jeder Anfrager ist ein DFO - das ist einer der Grundbausteine von Hardys System. So wie Umfeldbedingungen verflochten sind, so sind sie es auch mit der Person, für die die Analyse erstellt wird. Und so, wie sich Umfeldbedingungen mit der Zeit verändern, verändern sich auch das Weltbild, die Motivation und das Verhalten der jeweiligen an Analysen interessierten Person. Jede Aussage, die das System berücksichtigt, muss daher einen genauen Zeitstempel enthalten. Die Algorithmen, die die Analysen erstellen, rechnen das ein. Außerdem: Anfrager und System sitzen nicht wie zwei voneinander unabhängige Gesprächspartner gegenüber. Nie geht es um die nackte Realität, sondern immer um Vorstellungen darüber, was diese enthält. Diese ermittelt das Analysesystem, etwa aus der Art der Fragen, die jemand stellt, sowie aus der Art, in der er Antworten gewichtet und aus allen sonst erkennbaren Reaktionen. „Nach einer Woche, in der ein Anfrager unser System nutzt“, sagt Hardy, „weiß es genau, wer das ist, was er oder sie fühlt und erwartet, erhofft oder befürchtet.“ Daraus leitet das System ab, welche Antworten in welcher Auswahl und Aufbereitung dem Anfrager den stärksten Nutzen versprechen. Und die zeigt es an. Um dies an einem Beispiel sehr verkürzt deutlich zu machen: Fragt jemand das System nach Elektroautos, dann stellt es fest, wo der Anfrager herkommt. Identische Sachverhalte für Fortschritte beim Elektroantrieb führen für den US-Hersteller Tesla, dessen Elektroautos den Weltmarkt erobern, zu deutlich anderen Empfehlungen als für den russischen Autohersteller Lada oder den rumänischen Dacia, deren Kompetenz auf diesem Feld noch nicht ausgeprägt ist. Stromkonzerne bekommen zum selben Themenfeld wieder andere Antworten, denn wenn die Elektromobilität sich schnell verbreitet, bekommen sie zwar ebenso schnell immer mehr Kunden, aber auch schnell mehr Probleme mit der dann nötigen Netzkapazität. Ferner ist der Wandel zur Elektromobilität nicht nur eine technische Herausforderung, sondern mit schon jetzt aktiven Bürgerinitiativen gegen zusätzliche Überlandleitungen, die sie bundesweit als „Monstertrassen“ bekämpfen, auch ein Politikum ersten Ranges. Für die Öl- und Gasindustrie wiederum muss diese Nachricht alle roten Lampen aufleuchten lassen. Das System bereitet jedes Faktenbündel nutzerorientiert individuell auf. Die zweite Weiche, die Hardy in den Monaten vor der Markteinführung seiner Prisma Analytics Software noch stellt, betrifft die Visualisierung dessen, was das System ermittelt und empfiehlt. Wieder ist Hardys Ziel theoretisch ganz einfach: Anfrager sollen überhaupt keine Antworttexte mehr lesen müssen, sondern nur die Augen offen zu halten und lediglich eine sinnlich fassbare Anordnung von buttons und deren Handlungssignale richtig erfassen, sofern sie keine - stets mit abgebotene - Vertiefung wöählen. Begonnen hat Hardy eine solche Visualisierung schon ein Jahr zuvor. Wäre seine Software wie ursprünglich geplant 2016 in den Markt eingeführt worden, hätte er diese Idee zurückstellen müssen. Nun, da sich die Abstimmung mit Thomson Reuters noch hinzieht, kann sich sein Team hierauf konzentrieren. Bis zum Herbst 2017 entsteht ein völlig neues Visualisierungsprogramm. Hardy investiert ein Jahr Arbeit von mehr als fünfzig Programmierern in dieses Ziel. Bald deutet sich für die zuvor unerreichbar gewesene Vorhersage-Präzision ein <?page no="131"?> 4.2 Wie Prisma Daten visualisiert 131 genial einfaches Darstellungsprinzip an. Es fußt auf der Beobachtung seiner Kunden. Wie ‚ticken‘ Entscheider, fragt Hardy sich, was spricht sie an, was lässt sie kalt? Jahrelang hatte er unzählige Manager beobachtet und mit ihnen über ihre Arbeit gesprochen. Allmählich ergaben sich für ihn als Resultat eine Reihe von Folgerungen, die übrigens für Kerneuropa deutlich anders ausfielen als auf arabische und asiatische Länder, anders auch als in Bezug auf Afrika oder Lateinamerika. Diese Unterschiede in einem Satz gebündelt: In Europa kann man mit abstrahierenden Darstellungen punkten. Anderswo funktioniert das nicht gut. „Wir in der Alten Welt, speziell wir Deutsche“, sagt Hardy, „wurden von Philosophen erzogen: Kant und Hegel, Marx und Engels, Nietzsche und Schopenhauer, Weizsäcker und Wittgenstein - alles Deutsche. Sie haben uns abstraktes Denken gelehrt. Abstrahierende Darstellungen sind uns also nicht fremd. Wir verstehen sie relativ schnell. In anderen Weltregionen ist das ganz anders. Zumindest fühlen sich Entscheider dort mit allzu abstrakten Darstellungen nicht wohl. Sie wollen etwas zum Anfassen, eine handelbare Ware zum Beispiel. Dann tauen sie auf. Will man ihnen einen Trend deutlich machen, sollte man ihnen nicht mit abstrakten Kurvenverläufen kommen, sondern mit einer Darstellung wie auf einem Schachbrett mit seinen meist sehr realistisch geschnitzten dreidimensionalen Figuren. Die sind konkret. Eignen sich die Schachfiguren König und Dame, Springer und Turm zur Beweisführung eines Sachverhalts nicht, sagt sich Hardy, sollte man zumindest versuchen, Analogien zum Mühle-Spiel mit seinen kreisrunden Steinen zu nutzen. „In datengetriebenen Analysen und Präsentationen,“ setzt er hinzu, „tut man gut daran, das, was man zeigen will, auf Bildschirmen so real wie möglich zu visualisieren, etwa mit Schach- oder Mühle-Figuren, möglichst mit deutlichem digitalem Schattenwurf - so, als könne man jede dieser Spielfiguren anfassen und selbst weiterbewegen.“ Tatsächlich bewegen sich in Hardys Visualisierung von Sachverhalten und Entscheidungsempfehlungen diese ‚Spielsteine‘ auch. Sie erinnern an die kreisrunden Steine des Mühlespiels. Hardy nennt sie buttons. Auf seinem Darstellungsfeld erscheinen nur zwei. Jeder button hat eine Farbe und auf dem Feld einen Ort. Wenn man ein bisschen zuwartet, sieht man, wie sie ihre Position allmählich verändern. Denn Umfeldbedingungen für die analysierten Sachverhalte bestimmen diesen Ort, und da diese sich ändern, ‚wandern‘ die ‚Spielsteine‘ ohne Zutun eines Entscheiders langsam über das Präsentationsfeld. Die analysierende Technik arbeitet real-time: Jede signifikante Veränderung einer Einflussgröße zeigt sie unverzüglich in ihrer Konsequenz an. Die buttons zeigen also, ob der Zeitpunkt zu handeln immer näher rückt oder ob er bereits überschnitten ist und man nun schnell sein muss, wenn man überhaupt noch etwas wie erwünscht regeln will. Das Bildfeld zeigt neben den buttons lediglich einige wenige Schlagworte, die ihre Bedeutung erläutern. Das ‚ Spiel’feld dieser buttons hat wie das Mühlefeld regelmäßige Felder, ist aber nicht wie dieses quadratisch, sondern mit 20 waagerechten Feldern doppelt so breit wie mit zehn Feldern hoch. Das liegt daran, dass die waagerechten Felder in zwei in Zehnerschritten geteilte, sowohl negative wie positive Skalen von null bis hundert Prozent eingeteilt sind, von negativen -10 Prozent ganz links über -20, -30 Prozent und so weiter bis zu -100 Prozent in der Mitte, wo dieses Feld direkt an +100 Prozent angrenzt und dann weiter nach rechts in seinen Werten wieder zurückgeht über +90, +80 Prozent und so fort bis zu +10 Prozent ganz rechts. Diese waagerechten Werte kennzeichnen den Grad an Bestätigung (confirmation) und damit Relevanz einer Information. Je weiter rechts oder links außen das System eine Information anzeigt, desto weniger bestätigt und damit zuverlässig, hilfreich oder gefährlich ist sie also; je stärker sie ins Zentrum rückt, desto evidenter ist sie. Eine positive Bestätigung ist ein Zeichen für eine sich bietende Chance, die negative Seite signalisiert ein Risiko, eine Gefahr. Die senkrechte Achse, ebenfalls in Zehnerschritten von null bis 100 Prozent gegliedert, visualisiert die Konse- <?page no="132"?> 132 4 Goldstandard der News quenz einer Information. Auch auf ihr steigen die Werte von außen, also oben, nach innen, hier also - ungewohnt - nach unten. Diese Skala hat nur positive Werte. Negative Konsequenz zu ermitteln macht keinen Sinn; weniger als null Konsequenz kann es nicht geben. Wo das Risiko wartet Am unteren Feldrand vereinen sich genau in der Mitte alle drei 100-Prozent-Werte in einem einzigen Punkt. Ist das für eine Information die ideale Verortung? Mitnichten. An und in der Nähe der 100-Prozent-Grenzlinie kann höchster Nutzen in höchste Gefahr umschlagen. Das Risiko ist dort enorm. Mit abnehmendem Grad an Konsequenz sinkt auch das Risiko, so dass der Risikobereich in der bildlichen Darstellung auf diesem ‚Spiel’feld beidseits der Mittelachse ganz unten am breitesten ist und dann immer schmäler wird, bis er irgendwo auf der senkrechten Achse verschwindet. Die Maschinen, die aus der Vielzahl der zur Verfügung stehenden Daten eine Handlungsempfehlung ermitteln, errechnen und visualisieren auch, wie groß dieses Risikofeld ist. Der Bildschirm zeigt es in der Form eines gleichschenkligen, spitz nach oben zulaufenden Dreiecks an. Dass, erläutert Hardy, ist „eine no go area. Denn es ist einfach ein Fakt, dass eine Entwicklung, die auf ihren maximalen Effekt zu läuft, all of a sudden, ganz plötzlich und ohne jede Vorwarnung in ihr Gegenteil umschlagen kann“, erläutert Hardy. „Wer seinen button dort sieht, pokert auf maximalen Erfolg, aber riskiert zugleich ein absolutes Desaster.“ Keine Entscheidung sollte daher in diesem triangle fallen. Um das ‚Spiel’feld schnell begreifbar zu machen, sind alle Markierungen auf der rechten, positiven Seite grün und die auf der linken, negativen Seite rot unterlegt. Eine Information kann stabil negativ, also unerwünscht oder gefährlich sein, dann ist sie irgendwo auf der linken Feldhälfte als rote Markierung verortet, aber auch stabil positiv und damit erwünscht, dann zeigt sie sich rechts und ist grün. Ihre Position liegt wie erwähnt nicht dauerhaft fest, sondern wandert in dem Maß, wie die Entscheidungsbedingungen sich allmählich verändern. Bewegt sich der button als Zeichen einer Entscheidungsempfehlung auf der rechten ‚Spiel’feldseite in ausreichender Distanz zum Risiko-Dreieck in Richtung auf die Mitte hin, ohne der 100-Prozent-Linie und damit der Gefahr eines Umschlags ins Negative schon zu nahe zu sein, ist die richtige Zeit zu entscheiden. Wandert er allmählich nach oben, also an die Peripherie, geht der Grad an Konsequenz allmählich zurück. Wer eine Entscheidung nun noch hinauszögert, landet mit ihr bald in der Belanglosigkeit und muss sich überlegen, ob er sie nicht ganz aussetzen sollte. „Stabile Entscheidungschancen bestehen,“ sagt Hardy, „wenn der Bestätigungsgrad der analysierten Informationen bei 60 bis 70 Prozent und der Konsequenzgrad zwischen 70 und 80 Prozent liegt.“ Wie stets bei Algorithmen-Ergebnissen fußt auch diese Darstellung auf errechneten Wahrscheinlichkeiten. Tatsächlich in die Zukunft schauen kann natürlich auch dieses System nicht. Einer Entscheidung Wahrscheinlichkeiten zugrunde zu legen, ist aber eine bewährte Methode. Nun kann es natürlich sein, dass ein Anwender Teile des Faktenhintergrundes, den das System seinen Empfehlungen zugrunde gelegt hat, anzweifelt oder dass er über andere Fakten verfügt, denen er mehr vertraut. Auch dann aber ist das System für ihn eine entscheidende Hilfe. Denn er kann es beauftragen, seine Fakten mit zu berücksichtigen oder sogar an die Stelle der systemeigenen Fakten zu setzen. Auch dann wird das System mit seiner maschinellen Intelligenz diese Fakten analysieren und Verhaltensempfehlungen geben. Anwender, die über einen exklusiven Wissensvorsprung verfügen, können diesen also von Prisma Analytics exklusiv auswerten lassen, ohne dass ein Wettbewerber zusehen kann. Ein solcher Kunde kalibriert das Analysemodell mit seinem input einfach neu und <?page no="133"?> 4.2 Wie Prisma Daten visualisiert 133 erhält diese Eingaben auf dieselbe übersichtliche Weise bewertet. „How cool is that? “ fragt Hardy nicht ohne ein bisschen Stolz. Selbstverständlich kann der Benutzer das System auch anweisen, diejenigen selbstermittelten oder vom System bereitgestellten Fakten, die er für minder glaubwürdig hält, aus den Berechnungen heraus zu lassen. Das System wird auch das tun und ihm das korrigierte Ergebnis wiederum in Sekundenschnelle liefern. Umgekehrt kann der Kunde mit ein paar Mausklicks auch festlegen, dass ein oder einige Einflussfaktoren mehr Gewicht haben sollen als das System vorschlägt. Wieder wird es auch diese Vorgaben übernehmen und unverzüglich neu rechnen. Auf diese Weise kann das System jedem Nutzer zugleich verlässlich zeigen, ob die von ihm priorisierten Informationen wirklich so viel wichtiger sind als die, die es selbst speichert und nutzt. Mehr evidence, mehr Verlässlichkeit auf eine Analysemethode ist kaum vorstellbar. Mit nur wenigen Mausklicks lassen sich die Bedingungen justieren, unter denen Empfehlungen entstehen - in allen Fällen als visualisierte Darstellung, ohne lange Erklärungen, auf einen Blick erfassbar und deutbar, sinnfällig und rein datenbasiert, also oder jede persönliche Meinung. Das gilt für alle denkbaren Fragen aus der Finanzindustrie oder generell der Ökonomie, der Politik oder speziell der Ökologie, denn der riesige Datenspeicher aus zig Millionen data fusion objects steht für alle diese Fragen bereit. Frei von Verfärbungen durch menschliche Bewertungen zeigt das System über die wesentliche Konsequenz einer Entscheidung hinaus auch die wichtigsten weiteren auf, die die erste erzeugt, näher oder ferner liegende Folgen, gravierende wie beiläufige, nach Bedeutung geordnet. Mit Hochdruck arbeiten das Bukarester Prisma-Team und das in Cluj im Sommer 2017 an dieser Datenoberfläche. Deren im Hintergrund arbeitende Künstliche Intelligenzmuss „lesen, vergleichen, korrekt qualifizieren und quantifizieren können, in sachbezogene, kontextbezogene und dimensional skalierbare Bezugssysteme stellen, tiefgehend lernen und verarbeiten können, aus jeder Art von Daten - in Echtzeit -, um verwertbares Wissen zu extrahieren. Das KI-System muss in der Lage sein, dies aus jeder Datenquelle, jedem Typ, jedem Thema und jedem Umfang zu schaffen. Ihre extrahierten Wissensobjekte müssen automatisch zu wiederverwertbaren Ressourcen für andere globale oder lokale Anforderungen werden“ (Schloer 2018). Im Februar 2018 setzt er hinzu: „Das Geheimnis der Künstlichen Intelligenz ist weitgehend gelöst. Die Durchbrüche von Prisma Analytics in den letzten Monaten werden unserer Ansicht nach dazu beitragen, schrittweise transformative Veränderungen in unseren menschlichen und maschinellen Gesellschaften einzuleiten, wie wir sie noch nie zuvor gesehen oder uns vorgestellt haben“ (ibid.). Hardys ‚Spiel’feld funktioniert nun für alle Entscheidungsfelder, für die Nutzer nach Aussagen fragen könnten: in der Geopolitik und der Makroökonomik zur Bewertung politischer, wirtschaftlicher und sozialer Trends und deren Dynamik ebenso wie zur Bewertung ihrer Durchsetzungskraft und ihrer Konsequenzen. Es funktioniert in der Wirtschaft, wenn es darum geht, Entscheidungen so zu treffen, dass sie sich auszahlen. Es funktioniert ganz generell im sogenannten change management, also in der Steuerung von Veränderungsprozessen vor allem im Hinblick auf ihre Nachhaltigkeit, Es funktioniert beim Umgang mit Gesetzen und Vorschriften und ihren Wirkungen auf Politik, Gesellschaft und Wirtschaft von regional bis global, auf dem Feld neuer Technologien und deren absehbaren Auswirkungen, überhaupt bei der Bewertung globaler Veränderungen auch auf lokale Entscheidungen sowie nicht zuletzt bei globalen Risiken aller Art, den naturgegebenen ebenso wie den von Menschen gemachten. Immer gibt es einen optimalen decision point, einen Punkt, an den man entscheiden sollte. Das System rechnet ihn aus und zeigt ihn an. Wie kann das möglich sein, wenn Ereignisse von allerlei Wechselfällen, ja auch von Zufällen mitbestimmt sind? Taugen sie überhaupt als Basis für Prognosen? In der Tat nur <?page no="134"?> 134 4 Goldstandard der News bedingt. Die Motive hinter den Handlungen von Menschen, ihre Antriebe und Haltungen indessen sind weitaus stabiler. Wer sie kennt, kann daraus brauchbare Prognosen ableiten. Genau so funktioniert Prisma Analytics. Diese Software ist in der Lage, aus Myriaden von Einzelereignissen die sie steuernden Motive und Haltungen zu extrahieren - ganz gleich ob es sich um eine Stadt oder einen Landstrich, eine Firma, eine Partei oder ein anderes Suchwort handelt. Das System ermittelt beispielsweise das dort vorherrschende Maß an Hoffnung und Furcht eben so wie andere Handlungsmotive. Wer das System benutzt, kann außer einem Hauptsuchwort auch noch mehrere andere eingeben und dazu einen Zeitraum bestimmen, in dem das System die Wechselbeziehungen dieser Suchwörter zueinander für den bestimmten Zeitraum von vielleicht eineinhalb Jahren ermitteln und auswerten soll. Wäre das beispielsweise der Umgang einer deutschen Millionenstadt mit einer europaweit zu spürenden politischen Entwicklung, die sich in Frankreich bis Juni 2018 Front National nannte und seither Rassemblement National heißt, in Italien Lega Nord, in Deutschland AfD, wäre das für traditionell arbeitende Wissenschaftler eine Ermittlungs- und Darstellungsaufgabe von leicht einem Jahr. Prima Analytics liefert das Ergebnis sofort. Ermittelt das System für die Akteure in der als Beispiel genannten Millionenstadt zu 15 Prozent Hoffnung und zu fünf Prozent Furcht, sagt das allein noch wenig. Denn sind 15 Prozent viel oder wenig? Das zeigt sich erst im Vergleich mit ungezählten anderen Suchfeldern im Prima Analytics-Weltmodell zueinander. Auch das leistet diese Software. Aber ergeben sich 15 Prozent Hoffnung, weil viele Akteure mutig Zukunftsaufgaben angehen oder sind da Tagträumer unterwegs, die sich eine schönere Zukunft zwar vorstellen können, ohne aber etwas dafür zu tun? Das lässt sich aus dem Vergleich mit anderen Wertekategorien entnehmen. Prima Analytics extrahiert für jedes Suchwort die energy distribution und bewertet dazu außer Hoffnung und Furcht unter anderem auch Aktivität und Lösungsorientierung, zu beurteilen in der Paarung escalation versus resolve. Das ermittelt Prima Analytics - für jeden Tag des gewählten Zeitraum separat - und zeigt die Veränderungen im Zeitverlauf auf Wunsch ebenfalls an. Für jedes energy model, das Prisma Analytics errechnet, präsentiert das System auf Knopfdruck ferner die Datenquellen, aus denen die Antwort sich speist; zunächst deren Schlagzeile und einen Hinweis, für wen diese Quelle wichtig sein dürfte, dann die Kernaussage, die Konsequenzen aus dem Dargestellten, dazu die Beweise und die Visualisierung des Inhalts. Der Darstellung jedes decision points auf dem Rasterfeld sind vertiefende Zusatzinformationen unterlegt, die der Nutzer per Mausklick aufrufen kann: das sogenannte core statement, also die Hauptaussage zur Bewertung einer Situation, ein Hinweis auf die größte Chance, wenn der Nutzer wie empfohlen entscheidet, ein weiterer auf das größte verbleibende Risiko sowie eine Liste unmittelbarer Konsequenzen seiner Entscheidung (welche Stellen muss er veranlassen, was zu tun oder ggf. was zu unterlassen? ). Das ist auf den ersten Blick schon alles. Weitere Textinformationen parkt das System zwar in Fülle, bietet sie erst einmal nicht an, außer wenn der Nutzer sie ausdrücklich erwartet und aufruft. Einfachheit und Übersichtlichkeit sind also gewahrt - trotz der Unmasse von Einflussgrößen, die das System im Hintergrund verarbeitet und laufend weiter abgleicht, damit das präsentierte Ergebnis upto date bleibt. Prisma Analytics ermittelt als energy model also in erster Linie Begründungen für Verhalten und findet sie in den Wertegerüsten, die das behaviour of things bestimmen. So ergeben sich Antworten auf die drei Kernfragen: Was war, Was ist und Was wird sein? Daraus leiten sich Voraussagen einschließlich Hinweisen auf sich bietende Chancen und Warnungen vor Gefährdungen ab, kurzum Empfehlungen für richtiges Handeln. Wenn Prima Analytics erst einmal breit installiert sein wird, kann es Tausende solcher Analysen in der umrissenen Qualität jeden Tag - real-time, also verzögerungslos. <?page no="135"?> 4.2 Wie Prisma Daten visualisiert 135 Prisma Analytics beobachtet und berechnet die Welt. Die Nutzer sind Teil dieses Systems - also beobachtet Prisma Analytics auch sie. Nach spätestens einer Woche kennt Prisma Analytics seinen jeweiligen Nutzer genau. Dann kann das System ihm punktgenau sagen: Folgendes solltest du wissen, folgendes solltest du tun… Mit seinen buttons erweist sich das Prisma Analytics-System so genial einfach und als so universell einsetzbar, dass Hardy sein noch ein Jahr zuvor fest geplantes zweigleisiges System von Geopolitik- und Finanzmarkt-Analysen fallen lassen und alle Kraft auf diese Prisma Analytics-Kernfunktion stecken kann. Denn sie dient beiden Anwenderbereichen gleich gut, und das in einer Qualität, die die Stabilität einer Entscheidung und zugleich das Maß an Bestätigung und an Konsequenzen quantitativ sichtbar macht - undenkbar mit herkömmlichen Analysemethoden. Am 6. Oktober 2017, dem nach mancher Verzögerung als endgültig definierten Starttag für die Prisma Analytics Software in den Markt, steht diese tatsächlich mit allen Systembestandteilen in ihrer neuen Visualisierung einsatzreif zur Verfügung. Aber auch der Oktober vergeht und die Prisma Analytics Software ist noch immer nicht auf dem Markt - jedoch nicht wegen irgend welcher technischer Probleme, sondern ganz im Gegenteil wegen ihres technischen Durchbruchs, der unbedingt patentrechtlich geschützt werden muss, bevor jemand davon Einzelheiten erfährt. Heiner lässt den Entwurf der Patentschrift verfassen und reicht sie in München beim Deutschen Patent- und Markenamt ein. Und Hardy fasst die Lage zusammen: „Im September und Oktober 2017, zehn Monate nach dem ursprünglich geplanten Abschluss der Entwicklung einer quantum relations machine (QRM), ist es der Prisma Analytics GmbH gelungen, als weltweit erster eine intern PLATO genannte, vollständig generalisierte deep learning AI-Plattform fertigzustellen, die aus globalen, unvergleichbaren, gemischten Datenquellen das advanced deep neutral machine learning ermöglicht“, die also Maschinen ohne Zutun des Menschen (deshalb neutral) im globalen Maßstab selbst lernen lässt“ (Prisma Analytics 2017). Von Anfang an hatte diese Maschine erstens systemlogisch zu arbeiten, das heißt in jeder Funktion dieselbe Logik und Funktionalität anzuwenden, zweitens universal zu sein, das heißt Daten jedweder Herkunft und Charakteristik analysieren zu können, und drittens - besonders wichtig - Begründungszusammenhänge erkennen und verarbeiten zu können, im Fachjargon causalities genannt. Dieser Begriff verweist darauf, dass alles, was existiert und geschieht, miteinander vernetzt ist. Ein Effekt kann die Folge einer Aktion und wieder Anlass für eine neue Aktion sein. Wer zu einer solchen causality-Analyse eine Technologie anbieten und damit die ungeheure Vielfalt aller Datenbestände gesamthaft nutzen kann, erzeugt einen geradezu endlosen Strom tiefen und nutzbaren Wissens, und das nicht nur für ein lokales Problem oder eine spezifische Frage, sondern im globalen Maßstab für Probleme aller Art. Im Herbst 2017 steht fest, dass Hardys Quantum Relations-System das leistet. Sein größter Vorzug ist die Fähigkeit dieses System Künstlicher Intelligenz, dynamische, also in Bewegung befindliche Daten zu verknüpfen und daraus „eine elektronische Kopie der realen Welt“ zu erzeugen (Schloer 2018). Dieses Weltmodell liegt den Analysen zugrunde; auf ihm bauen die Anwendungen auf. Aus ihm extrahiert die Quantum Reations Machine Verhaltensmuster für Entscheidungssituationen aller Art. Im Spätherbst 2017 liegen Auswahlmenüs zu rund 50 Echtzeit-Analysen, Indizes und Visualisierungen vor, um Risiken, Trends, und kommerzielle Marktchancen zueinander in Beziehung setzen zu können. Im frühen Frühjahr 2018 kann es schon Antworten auf die tausend wichtigsten Probleme in Industrie, Finanzen, Handel, Geopolitik, sozialer Entwicklung, Wissenschaft und globaler Sicherheit geben. Alle diese Analysen sind aktiv, das heißt: so lange diese Berichte im System bleiben, wird ihr analytischer Inhalt fortlaufend aktualisiert. Dieses Produkt richtet sich hauptsächlich an Entscheidungsträger. Darauf haben Hardy und sein Team und Thomson Reuters hin- <?page no="136"?> 136 4 Goldstandard der News gearbeitet. „Wir sind nur noch Tage davon entfernt“, schreibt Hardy Ende Februar 2018, „auf der Thomson Reuters Eikon-Plattform den Schalter umzulegen. Ab diesem Punkt werden wir anfangen, unsere ersten Kunden in unser ‚Ökosystem‘ hereinzulassen“ (Schloer 2018). Der letzte Satz zeigt, dass Hardy seinen Startplan noch ein weiteres Mal hat umwerfen müssen. Dafür gibt es zwei Gründe. Der eine liegt sozusagen in der Natur der Sache, das heißt in der Komplexität von Hardys Programm. Es lässt sich immer noch weiter verfeinern. Der andere kommt für Prisma Analytics einigermaßen überraschend von außen. Ein neuer Mitspieler drängt nämlich auf das Spielfeld und schafft es, dort nach kurzer Zeit das Sagen zu haben. Es ist Blackstone, die größte Vermögensverwaltung der Welt. Dieses US-Unternehmen ist unfassbar reich. Es verwaltet Ende März 2018 mehrere Billionen Dollar und macht allein in einem einzigen, damals gerade zuende gegangenen Quartal, also von Januar bis März 2018, einen Nettogewinn von mehr als einer Milliarde Dollar. Blackstone ist damit weltweit für vermögende Anleger so attraktiv, dass dem Unternehmen in nur einem Quartal rund 60 Milliarden Dollar frisches Kapital zuflossen - im ersten Quartal 2018 waren es 56,9, im Vorjahresquartal 64,6 Milliarden Dollar -, die ertragreich angelegt werden sollen. Ein solcher Krösus kann sich finanziell fast alles erlauben, vor allem nach Marktsegmenten zu greifen, die dieses Vermögen noch zu mehren versprechen. Ein solches Segment ist die Verarbeitung von Billionen von Daten. Plötzlich bekommt das Thomson Reuters-Datengeschäft einen neuen Besitzer Um die Jahreswende 2017/ 18 herum verhandeln Blackstone und Thomson Reuters über das Datengeschäft des Medienkonzerns. Ende Januar 2018 teilen beide Firmen mit, was die Financial Times am 31.01.2018 in die Worte fasst: „Blackstone agreed its largest deal since the financial crisis by pulling together $17.3bn to take a controlling stake in the financial terminals and data business of Thomson Reuters, making the US money manager a direct competitor to Bloomberg“, den „fellow billionaire and former New York mayor Michael Bloomberg, who dominates Wall Street’s financial information industry.“ Thomson Reuters hatte 2016 nach Analysen des Beratungsunternehmens Burton-Taylor einen Marktanteil von 23.1 Prozent gegenüber Bloomberg mit 33.4 Prozent. Die Übernahme der Mehrheit am Thomson Reuters-Datengeschäft durch Blackstone ist nun ein Frontalangriff von Blackstone auf Bloomberg in einer Größenordnung, die Thomson Reuters aus eigener Kraft nicht zu Gebote gestanden hätte - von Prisma Analytics einstweilen gar nicht zu reden. Hardys Vereinbarungen mit Thomson Reuters werden in diesem deal - dem für Thomson Reuters größten in seiner Geschichte - einfach mit übernommen. Blackstone erwirbt mit der Rückendeckung der zwei weltweit größten institutionellen Investoren, dem Canada Pension Plan Investment Board und dem Singapore state fund GIC, am Thomson Reuters-Geschäftsfeld Finanz- und Risikomanagement für die genannten 17,3 Milliarden Dollar - doppelt so viel wie Thomson zehn Jahre zuvor für Reuters bezahlt hat - die Kapitalmehrheit von 55 Prozent und hat damit von Stund´an dort uneingeschränkt das Sagen. Die von Thomson Reuters gegründete Eikon-Plattform, in die Prisma Analytics eingebunden ist.wird ab sofort von Blackstone gemanagt. Blackstone tilgt den Namen Thomson Reuters aus diesem Geschäft; die übernommene Plattform firmiert ab dem 1.Oktober 2018 unter Refinitiv. Das Unternehmen ist auf dem Gebiet des Datenmanagements zweifellos ein Schwergewicht. Für etwa 400.000 Kunden in weltweit 40.000 Firmen hält es 8,5 Millionen wirtschaftliche Kenndaten von unterchiedlichsten Bruttosozialprodukten und Arbeitslosenquoten über die Preise von Aktien und Anleihen bis zur Größe von Handelsströmen bereit, alle mit dem jeweiliegen Zeitstempel, wenn gewünscht auch zurück bis ins Jahr 1950. <?page no="137"?> 4.2 Wie Prisma Daten visualisiert 137 Im Forex (Foreign Exchange)-Markt, der deutlich größer als der Aktienmarkt ist, steuern Refinitiv-Empfehlungen jeden Tag Umsäze von mehr als 400 Milliarden und im Aktienmarkt sogar von 500 Milliarden Dollar. Für diese Kunden liefert Refinitiv täglich 40 Milliarden Marktnachrichten, bis zu sieben Millionen pro Sekunde. Allein Eikon versendet jeden Tag mehr als elf Millionen Nachrichten an seine Kunden und greift dabei auf einen Datenbestand aus drei Millionen Firmen und 280.000 Fonds zurück. Im Web ist seither nachzulesen: „Eikon is a set of software products provided by Refinitiv for financial professionals to monitor and analyse financial information. It provides access to real time market data, news, fundamental data, analytics, trading and messaging tools. The main product runs on Windows and lets users compose customized views on multiple screens. It also extends Microsoft Office with data retrieval addins.“ Dass zu diesem set of softwares auch Hardys Programm Prisma Analytics gehört, wird nicht erwähnt; seineSoftware ist wohl noch nicht bekannt genug. Außerdem vermarktet Refinitiv eine eigene Analyseplattform unter dem Namen QA Direct in der cloud mithilfe von Microsoft Azure. Der Zugang zur cloud, sagt dazu der Refinitiv-Managing Director Investing & Advisory Pradeep Menon˜ sei mittlerweile ein „Geschäfts-Imperativ“; binnen vier Jahren würden rund 90 Prozent aller Firmen die cloud zur Analyse ihrer Marktdaten nutzen. „What used to take two to three weeks now happens in a few days“, setzt Menon hinzu und gibt damit ungewollt einen Hinweis darauf, dass Hardys Software Prisma Analytics dieser Konkurrenz weit überlegen ist - schließlich braucht sie für ihre Analysen nicht Tage, sondern liefert sie real time, also verzögerungslos. Zugleich kündigt Blackstone an, in dieses Geschäftsfeld weiter zu investieren, und zwar„in a number of areas, including content coverage, artificial intelligence and analytics across the Eikon and Elektron platforms for buy-side trading, wealth and banking clients“(Trade 2.10.18). Erste Konsequenzen folgen auf dem Fuß: Am 14. November des Jahres gibt Refinitiv eine Parterschaft mit der Union Arabischer Banken bekannt; davon verspricht sich das Unternehmen eine „unique networking platform for financial and non-financial associations, regulators, and supervisory agencies within MEA and across the globe“. In diesen turbulenten Markt hinein liefert Prisma Analytics seine interaktive Rechercheplattform mit umfassenden Such- und Indexprogrammierungs-Funktionen im Mai 2018 endgültig aus. Hat die Plattform neue Entscheidungsgrundlagen anzubieten, meldet sie sich bei ihren Nutzern automatisch. Die Funktionen sind frei bestimmbar und der Benutzer kann frei auswählen, welche Dateneinflüsse er wie gewichtet haben möchte. Das, sagt Hardy, „bietet derzeit so niemand anderer an“ (Schloer 2018). Die Nachfrage nach solchen Leistungen steigt. Lange sind Entscheidungsunterstützungen mit Künstlicher Intelligenz ein „winziger Nischenmarkt“ gewesen, „auf dem nur wenige spezialisierte Unternehmen maßgeschneiderte Angebote bereitstellten“ (ibid.). 2016 und 2017 hat sich das zu ändern begonnen. Programme, die das leisten, sollen in erster Linie die Produktivität anheben. Dafür werden jedes Jahr weltweit 1,2 Billionen Dollar investiert. Der KI-Markt für Entscheidungsunterstützungssysteme soll bis 2020 etwa zwei Billionen US-Dollar groß werden (ibid.). Daran wollen Prisma Analytics und Refinitiv partizipieren. Wenn Hardy von den Datenbeständen seines Marktpartners spricht, kommt dieser Mann, den nicht leicht etwas beeindruckt, manchmal fast ein wenig ins Schwärmen. Vom „Goldstandard der news“ spricht er dann, um deutlich zu machen, dass es eine breiter aufgestellte Datensammlung auf der Welt derzeit nicht gibt. Aber es sind Rohdaten. Ihren Wert entwickelt erst die Quantum Relations-Maschine von Prisma Analytics. Das wusste auch das Thomson Reuters-Management. Schließlich hatte es vergeblich versucht, Prisma zu kaufen. Aber das Unternehmen war nicht zu haben. Eine Kooperation indessen lag im wechselseitigen Interesse. Damit ist der Wettbewerb um den Ehrentitel „Goldstandard der news“ neu eröffnet. <?page no="138"?> 138 4 Goldstandard der News Es geht um Masse und Klasse. Nützlich sind beide. Wer den Titel künftig zugesprochen bekommt, muss der Markt entscheiden. Dieser turbulente Markt der Datenanalysen birgt Überraschungen - das hat der Blackstone deal deutlich gezeigt. Prisma Analytics war dort nicht Akteur, sondern nur eine fremdbestimmte Figur auf dem Spielfeld. Aber dies ist ja nicht das einzige Feld, auf dem Hardy und sein Team handeln. Die weiterhin gültige, von Refinitiv übernommene Vereinbarung mit Thomson Reuters gibt Hardy das Recht, alle dortigen Datenbestände auch für eigene Analysen zu nutzen. Das fruchtet nun. Im Sommer 2018 schließt Prisma Analytics ein Abkommen mit der eN- Coral Digital Solutions Sdn Bhd in der malaysischen Hauptstadt Kuala Lumpur. Dieses malaysische Staatsunternehmen liefert landesweit Beratungsdienste in den Bereichen Bildung, Gesundheit und Bankwesen sowie für Ministerien und Behörden. Lange hat Hardy diese Kontakte gepflegt, Vertrauen aufgebaut und seine Gesprächspartner schließlich von der Leistung seiner Software überzeugt. eN-Coral Digital Solutions will 3000 Prisma Analytics-Lizenzen erwerben und bezahlt dafür 34 Millionen Euro jedes Jahr. Bis zum Herbst 2019 sollen alle dreitausend Stationen betriebsbereit sein. Die Erwartungen auf malaysischer Seite sind hoch: Dr. Wan M. Hasni, einer der eN- Coral-Direktoren, will damit „die öffentliche Verwaltung in Malaysia zu einem globalen Marktführer hinsichtlich des Verstehens von Risiken und Chancen in Echtzeit“ machen. Für Hardy ist das nur ein Anfang. Beide Partner wollen in ganz Südostasien zusammenarbeiten. Um für solche Partnerschaften professionell aufgestellt zu sein, baut Prisma Analytics in München sein Management aus. CEO bleibt Heiner Pollert, der Jurist und Chef von Patentpool, treibende Kraft ist nach wie vor Hardy. Den holt bei der Gründung weiterer Gesellschaften übrigens seine deutsche Vergangenheit ein: Bei Handelsregistereintragungen finden die Urkundsbeamten in ihren Dokumenten keinen Hardy Schloer, wohl aber einen Frank Otto Schlör, offensichtlich dieselbe Person, den sie deshalb auch eintragen. Pollert und Schloer zur Seite steht der Finanzchef der Patentpool Group Michael Tischer; der Jurist verantwortet in München das cash management & accounting von Prisma Analytics. Aus dem Unternehmen Praetorius Capital stammt Sebastian Pötzsch, der COO der Prisma Analytics GmbH; seine beruflichen Erfahrungen fußen auf Tätigkeiten bei SAP, der Deutschen Bank und für Mittelständler. Der business plan-Exerte Chris Edwards hat eine bunte Vergangenheit, die von der Versicherungsbranche über die Papierindustrie bis zu Lebensmitteln, Unterhaltung und nicht zuletzt zur Software-Industrie reicht. Er kümmert sich bei Prisma Analytics um die Langfristentwicklung. „Building business from scratch is my passion“, sagt er dazu. Dominik Wagner schließlich gründete 2011 die Kreativagentur „Eichmeister“, die bereits Projekte für Infineon, die EU und namhafte Blockchain-Anwendungen betreut hat. Bei Prisma Analytics verantwortet er die Außendarstellung in Markenpflege, Design, Werbe- und Kommunikationsmittel. Dieses Management-Team arbeitet in München in den Räumen von Patentpool. Das etwa 80 Personen starke Prisma Analytics Programmierer-Team entwickelt seine Produkte nach wie vor in der rumänischen Hauptstadt Bukarest; eine Handvoll Computerexperten liefert Ergebnisse weiterhin auch von Cluj zu, dem früheren siebenbürgischen Klausenburg im bergigen rumänischen Norden. Marketing und Vertrieb hingegen sind inzwischen in der katalanischen Metropole Barcelona im spanischen Nordenfest verwurzelt. Zusammengehalten wird dieses Netz vom unermüdlich zwischen diesen Polen und den Standorten seiner Kunden hin und her jettenden Hardy, der Flugzeuge gut und gern sein eigentliches Zuhause nennen könnte. <?page no="139"?> 4.2 Wie Prisma Daten visualisiert 139 Prisma Analytics wird Start-up of the year 2018 Im November 2018 ist es endlich soweit: Die von manchen Anlaufschwierigkeiten begleitete Zusammenarbeit von Prisma Analytics und Thomson Reuters kommt in die Gänge, allerdings unter inzwischen geänderten Vorzeichen. Das Unternhmen Refinitiv, das nach dem Einstieg von Blackstone bei Thomson Reuters diesen Datenpool regiert, integriert Hardys Software unter dem griffigen Namen Prisma Decision Point® endgültig in das vormalig von ThomsonReuters gesteuert Eikon-System. Patentpool-Chef Heiner erläutert: „Bei Prisma Decision Point handelt es sich um eine interaktive Umgebung, auf eine zukunftsweisende Art die Echtzeit-Intelligenz und prädiktive Analysen für komplexe Entscheidungen liefert, etwa im Bereich Risikomanagement oder Krisenprävention. Sie speisen sich aus Daten aus den Feldern Geopolitik und Makroökonomie, aus sozialen Trends und aus Daten über Konflikte, globale Sicherheit und Risiken, über weltweite Gesetzesänderungen und disruptive Technologien.“ Dabei stützt sich das System nicht nur auf den Eikon-Datenpool, sondern auch auf die gesamten Wikipedia- Datenbank, auf die Wissensspeicher der 50 größten Radio- und Fernsehsender, darunter CNN, auf 5000 RSS Feeds - das sind Informationen, die eine Software aus dem Internet zu gewählten Suchbegriffen automatisch bereitstellt - sowie auf Übersetzungsprogramme in allen Sprachen, was eine individuelle und internationale Nutzung und Verständlichkeit gewährleistet. Aus der Verbindung von selbstlernenden Analyse-Algorithmen mit in Echtzeit gepflegten Daten, erklärt Heiner weiter, sei Prisma Decision Point® als eigene Applikation in die Eikon- Plattform von Thomson Reuters eingebettet. Diese habe sich bei deren Kunden als die global vertrauenswürdigste und vollständigste Plattform für Finanz- und Nachrichtenanalyse etabliert. Mit seiner Erfahrung in der Datenerhebung erreiche das Eikon-Programm 99 Prozent der weltweiten Marktkapitalisierung, gestützt durch seine in der Branche führenden Fundamentaldaten sowie 22.000 Unternehmen und deren Börsendaten aus 87 Ländern. Eikon bedient außerdem 1.300 globale institutionelle Kunden. Das Prisma-Datenmodell, das dort seither einfließt, basiert auf den geschützten Technologien Prisma Decision Point, Quantum Relations und Cplus8 - Cplus8 nennt Prisma Analytics seine Technik, Daten vollautomatisch so zu importieren und zu transformieren, dass im Ergebnis eine „Abstraktion der existierenden Welt entsteht, so wie diese sich stetig entwickelt, jedes Element, jede Person, jedes Konzept im Rahmen seiner vielfältigen Beziehungen zueinander“. C steht für causation, also Ursache, und die acht prime groups, die dazu addiert werden, sind purpose (Absicht), concepts (Konzepte), beliefs (Überzeugungen), groups (Gruppen), objects (Objekte), events (Ereignisse), geography (Örtlichkeit) sowie science and evidence (das was wissenschaftlich ermittelt wird oder und klar zutage liegt). Nach diesem Raster analysiert Prima Analytics jeden Text, jede mündliche Äußerung, jedes Bild, alles, was überhaupt kommuniziert wird, und fügt es in sein digitales Weltmodell ein - Billionen von Informationen, jede durch eine IPv6-Nummer eindeutig identifiziert und im Analysesystem beliebig nutzbar. Die Metadaten zu jeder Datenquelle geben außerdem Auskunft darüber, wer sie wann wie und wo in die Welt gesetzt hat. „Wenn wir unsere Technologie richtig positionieren“, kommentiert Hardy, „wird Cplus8 den Lauf der menschlichen Evolution verändern, da wir die Barrieren entfernt haben, die mit unstrukturierten Daten und der wertlosen Datenflut verbunden sind. Wir haben eine neue Schwelle in der Echtzeitanalyse durch Maschinen überschritten. Das ist wirklich ein Wendepunkt, nicht nur für uns, sondern für die gesamte Menschheit.“ Hardy hat bald darauf Grund, sich zu freuen: Am 31. Oktober 2018 erhält Prisma Analytics in Dubai den Fintec Global Award für das Start Up of the Year. Die Auszeichnung belohnt Firmen mit zukunftsweisenden Konzepten für die Finanzbranche, und der Award ehrt eine der ersten kausalen Datenbanken, die selber lernt, keine Einflüsse von Analysten zulässt <?page no="140"?> 140 4 Goldstandard der News und somit zu hundert Prozent faktenorientiert ist. Er würdigt Prisma Analytics als einen Vorreiter angewandter Künstlicher Intelligenz. Hinter dem Fintec Award steht eine Jury aus einem Dutzend besonders einflussreicher Finanzmanager. Was sie entscheiden und warum sie das tun, spricht sich schnell herum. In München spürt das Prisma Analytics-Magagement das sofort. Hardys Partner Heiner: „Der Fintec Award ist nicht nur eine große Ehre und Bestätigung jahrelanger Entwicklungsarbeiten, sondern auch ein Turbolader in Richtung kommerzieller Erfolg. Seither können wir uns vor interessierten Kundenanfragen kaum retten.“ Die Bewertung der Prisma Analytics GmbH bewegt sich dadurch massiv nach oben; die Neu-Bewertung wird deutlich über 200 Millionen Euro liegen. Ende 2018 startet Prisma Analytics mit einer globalen Online-Konferenz in den Markt Bis sich die Eikon-Organisation mit Quantum Relations intensiv befasst, vergeht auch das Jahr 2018. Erst kurz vor dem Jahresende, am 13. Dezember, präsentiert Hardy das Programm Prisma Decision Point in einer einstündigen, global verbreiteten Online-Konferenz, die sich in erster Linie an die Analysten im Eikon-Außendienst richtet. Flächenwirkung kann die Kombination von Eikon und Quantum Relations daher erst 2019 erzeugen. Hardy weiß, dass die Umstellung von konventionellen Analysen auf sein System ein Schritt ist, den seine Zuhörer zuerst verstehen, dann verdauen und in seinen Konsequenzen erst verarbeiten müssen. „Es ist wie der plötzliche Umstieg von der Pferdekutsche in ein heutiges Automobil. Statt Grünfutter braucht man auf einmal Benzin oder elektrischen Strom, statt Karrenwegen asphaltierte Straßen und Autobahnen, dazu Autohäuser, Tankstellen, einen Teiledienst usw. Das überblicken viele Menschen jedoch nicht von heute auf morgen.“ Zu den ersten Kunden, die Prisma Analytics nicht über den Eikon-Vertrieb geordert haben, sondern direkt bedient werden, gehören die in den Emiraten angesiedelten Unternehmen Mumbadala und DP World sowie die Regierung von Malaysia. Feste Vereinbarungen stehen Ende 2018 vor dem Abschluss. Ebenfalls gewonnen ist das Police Department des Stadtstaats Dubai, eine Behörde von 29.000 Personen. Hardys Team schneidet Prisma Decision Point mit spezifischen Visualisierungen auf die Belange dieser Abnehmer zu. Weiter konkretisiert hat sich für diese Organisationen 2018 auch die Idee der situations rooms und der mit ihnen verbundenen Datenzentren. Einen weiteren information room will - außer den gerade genannten Organisationen - auch der malaysische Ölkonzern Petronas haben. Für die Kunden der Prisma Analytics Software baut Hardys Unternehmen 2018 außerdem das schon länger geplante help center auf. Dieser Kundendienst versorgt von Barcelona aus weltweit Prisma Analytics-Nutzer, wenn sie Unterstützung brauchen. Ende 2018 folgt eine Zertifizierungsinstanz. Für beide Aufgaben arbeiten anfangs rund ein Dutzend Personen. „Aber wir werden bald tausend Leute und mehr beschäftigen“, sagt Hardy, „das steht außer Frage, sobald der Markt anspricht.“ Ebenfalls Ende 2018 kommt in der katalanischen Metropole eine Zusammenarbeit mit Universität Barcelona in Gang. Diese Hochschule soll die bisher nebeneinander bestehenden Eikon- und Prima Analytics-Verfahren so ineinander verschränken, dass die Kunden ein Instrument aus einem Guss ordern können. Zugleich erhält Hardy selbst am 3. Dezember 2018 eine Berufung als Professor für Information Science an der University of Modern Sciences der Herzegowina. Er hält dort keine Programmierkurse - das tun andere -, sondern unterrichtet die Informationsarchitektur von Quantum Relations, im Kern die Fächer Epistomologie, also Erkenntnistheorie, und Ontologie, also Grundstrukturen der Wirklichkeit und ihrer Benennung, kurz das Wesen von Information und die Fähigkeit, Wissenswertes von anderem unterscheiden zu lernen. <?page no="141"?> 55 BBiigg DDaattaa iinn ddeer r WWi irrttssc chhaafft t Werden Arbeitnehmer entbehrlich? Fast alle Branchen haben das Potenzial von Big Data erkannt und nutzen es: von der voll vernetzten Fabrik über das automatisch fahrende Auto bis zur sogenannten Smart City. Maschinen ersetzen immer öfter Routinearbeit, so dass ganze Berufszweige aussterben dürften, schaffen auch neue Jobs, aber für höher Qualifizierte. Wer verliert, wer gewinnt? 5.1 Data Scientists 141 5.2 Jobkiller Datentechnik 142 5.3 Die Wirtschaft 4.0 145 5.4 Big Data in der Automobilindustrie 151 5.5 Big Data in der Prozesindustrie 163 5.6 Big Data im Handel 166 5.7 Die Smart City 171 5 5..11 DDaattaa SScciieennttiissttss In diesem Kapitel geht es um Big Data in der Wirtschaft, ökonomisch betrachtet um business intelligence (BI), was im wörtlichen Sinn Aufklärung über geschäftliches Geschehen bedeutet (Litzel 2017b: 3). Es ist ein vorrangiges Anwendungsfeld, aber keineswegs das einzige. Von Big Data im Gesundheitswesen und in der Politik sprechen wir in späteren Kapiteln. Geradezu selbstverständlich sind Big Data auch ein Thema der Wissenschaft. Einzelheiten dazu finden Sie in Kapitel 10. Nur kurz erwähnen können wir hier, dass Big Data zunehmend auch weitere Felder durchdringen, beispielsweise den Sport (Schrenk 2013). So erklärt der frühere DFB-Fußballdirektor Hansi Flick: „Geometrie und Physik, Richtungen, Winkel und Geschwindigkeiten - alles das bilden Positionsdaten ab. Wenn wir dieses Potenzial nutzen, können wir insbesondere die Talentdiagnostik völlig neu definieren - ja vielleicht revolutionieren (Memmert/ Raabe 2017: VII). Und das ist erst der Anfang. Das Deutsche Forschungszentrum für Künstliche Intelligenz erwartet, dass zur Weltmeisterschaft 2050 eine Roboter-Fußballmannschaft den menschlichen Fußballweltmeister besiegen wird (Ustorf 2017). In der Wirtschaft geht es allgemein gesprochen um die digitale Transformation, genauer um einen „strukturierten und ganzheitlichen Transformationsprozess [für] den Wandel zu digitalen Unternehmen“ (Hölscher 2017: 13), also um eine interessengesteuerte Tätigkeit in vier Aktionsfeldern: engage your customers, empower your employees, optimize your operations, transform your products (Noska 2017). Das ist eine querschnittliche Aufgabe. Für die Experten, die derartige Dienste entwickeln und einsetzen, prägten die LinkedIn-Manager Patil und Hammerbacher die Bezeichnung data scientists. Schon 2012 nannte die Harvard Business Review deren Beruf „the sexiest job of the 21st century“ (Bitkom 2014: 164). Hal Varian, im Jahr 2009 Google-Chefvolkswirt, hatte in jenem Jahr das traditionell als langweilig angesehene Berufsfeld der Statistiker ganz ähnlich bewertet: „In den Zehner-Jahren wird ein job wirklich sexy sein: der des Statistikers“ (Geiselberger/ Moorstedt 2013: 17). Wenn das wahr werden soll, müsste es sich schon jetzt in den Schulen zeigen. Es gibt Länder, Südkorea etwa, in denen Kinder so selbstverständlich programmieren lernen wie <?page no="142"?> 142 5 Big Data in der Wirtschaft lesen und schreiben. In Deutschland erhalten erst 400.000 Schüler Unterricht in digitalem Gestalten. „Es sollten aber eine Million sein“ (BMBF/ Wi 2018: Goerdeler). Und „ein Einser-Abiturient sollte sich nicht mehr fast automatisch für ein Studium der Medizin ö.ä. entscheiden, sondern auch für eine Zukunft als data scientist (BMBF/ Wi 2018: Nagel). Data scientists arbeiten in der Wissenschaft ebenso wie im öffentlichen Dienst und vor allem in der Wirtschaft. Zunehmende data literacy, also der routinierte, souveräne Umgang mit Daten, heißt nicht, dass man data scientists künftig nicht mehr bräuchte. Sie müssen Datenquellen weiterhin erschließen und zusammenführen, sie bereinigen und so aussagefähige Analysen überhaupt erst möglich machen (Potter 2018). Einige haben es mittlerweile bis in Spitzenpositionen geschafft, bis in die Funktion CDO, also Chief Data Officer, in Aktiengesellschaften ein Vorstandsrang neben dem CEO, dem Central oder Chief Executive Officer, also dem Firmenchef. Immer mehr Firmen bestellen neben dem Firmenchef, dem Personal-, Finanz-, Technik- und Vertriebschef einen solchen Chief Data Officer. Der, sagt die Gartner-Analystin Debra Logan, „muss Leute, Prozesse und Technik über Funktions- und Data-Set-Grenzen hinweg managen“ (ibid.). Das ist zweifellsos eine Führungsaufgabe. Jeder dritte CDO berichtet laut ihrer Untersuchung denn auch direkt an den Firmenchef, jeder sechste an den Chief Information Officer und jeder neunte an einen anderen (Senior) Vice President, in deutschen AGs also an ein anderes Vorstandsmitglied. Nach Angabe der Unternehmensberatung Gartnergibt es weltweit mindestens 3.700 Personen in einer solchen Führungsposition (vgl. Quack 2017). CDOs müssen entscheiden, für welches betriebliche Problem knappe business analytics- Ressourcen eingesetzt werden. Welche dieser Ressourcen, also Daten, IT-Technik und Personal, führen am Besten zur Lösung? Mit welchen Algorithmen? Wie müssen Ergebnisse aufbereitet werden, damit sie zielgerichtet eingesetzbar sind? (Kieninger 2017). Das zu beantworten ist typisches Management-Know-How. Eine Konsequenz: Mehr als 80 Prozent der Firmen geben ihre Datenanalysen nicht aus der Hand, sondern sehen dies als vollständig intern zu managende Aufgabe an. Dieser Wandel zum datengesteuerten Handeln mischt die gesamte Wirtschaft neu auf. Er gibt start-ups schnelle Wachstumschancen, aber drängt zu beharrende Unternehmen auch aus dem Markt. Seit dem Jahr 2000 ist nach Angaben des Accenture-CEO Pierre Nanterme die Hälfte aller damals zu den Fortune 500 gehörenden Firmen vom Markt verschwunden (cit. Roche 2017: Armanet). Sie haben den digitalen Wandel nicht geschafft. 55..22 JJoob bkkiilllleer r DDaatte en ntte ecchhn niikk Die Firmen, die den digitalen Wandelmeistern, stehen sofort vor einem neuen Problem: Wohin mit den Arbeitnehmern, deren Jobs künftig Computer erledigen? Zur Würde des Menschen gehört, dass er sich durch Arbeit verwirklichen kann, und Personen, die befürchten, von Auswirkungen der Digitalisierung auf die Arbeitsplätze betroffen zu sein, reagieren empfindlich. Aus Angst, sich überflüssig zu machen, empfahlen zum Beispiel Angestellte in einem großen Buchladen ihren Kunden, sie sollten Bücher, die nicht vorrätig waren, bei Amazon bestellen anstatt über den neuen, firmeneigenen Online-Service - was dazu hätte führen können, die ganze Firma überflüssig zu machen (Martin-Jung). Bewahrungskräfte in Firmen wehren sich auch anderswo gegen die Konsequenzen der Datenwelt. Damit sie die Chancen dieses Wandels nicht dauerhaft blockieren, empfiehlt der Gründer und Chef des Münchner Unternehmens Etventure, Philipp Depiereux: „Gründen Sie eine Digital-Einheit außerhalb des Unternehmens“ (cit. ibid.). Kleine Digitaleinheiten könnten unabhängig vom Mahlstrom der Bürokratie, von compliance-Bedenken, juristischen Sorgen und ähnlichen Hindernissen arbeiten. Dieser letzte Satz ist einigermaßen kühn formuliert; <?page no="143"?> 5.2 Jobkiller Datentechnik 143 er darf so nicht unkommentiert stehen bleiben. Denn juristische Sorgen sind keine bloßen Hindernisse. Das Recht setzt einen Handlungsrahmen für alle. Trotzdem bleibt die Frage zu beantworten, welche Konsequenzen für den Arbeitsmarkt wir erwarten oder fürchten sollten. Hier einige Zahlen: In der amerikanischen Öl- und Gasindustrie sind seit 2014 geschätzt zwischen 50.000 und 80.000 Facharbeiterjobs verloren gegangen, obwohl die Geschäfte mit fossilen Energien wieder gut laufen. Viele Ölförderungsanlagen werden nämlich inzwischen von weit entfernten Steuerungszentralen voller Monitore gesteuert (Schulz 2017: 19). Diese Entwicklung verändert nicht nur die Ölindustrie: Im Mai 2016 meldete der wichtigste Zulieferer von Apple, Foxcom, er werde 60.000 Arbeitsplätze durch Roboter ersetzen (Andelfinger/ Hänisch 2017: 5). Goldman Sachs, eines der weltweit führenden Häuser im investment banking, im Wertpapierhandel und in der Vermögensverwaltung, hatte bis vor Kurzem noch sechshundert Aktienhändler, nun sind es noch zwei. Die Arbeit der anderen machen Algorithmen. In der britischen Finanzindustrie droht eine halbe Million Mitarbeiter durch Software ersetzt zu werden, schätzt die Beratungsfirma Deloitte (ibid.). Selbstfahrende Autos - das klingt gut. Aber was wird aus den Fahrern von Taxis, Lieferwagen und Lastzügen? Automatisierte Containertransportfahrzeuge fahren in Häfen (z.B. Hamburg) schon längst. Komatsu hat nun einen Lkw vorgestellt, der im Bergbau selbstständig Lasten transportieren soll (Crisp 2018: 12). Lastwagenfahrer ist heute noch einer der weltweit am weitesten verbreiteten Jobs, aber „vielleicht schon in fünf Jahren“, erwartet der frühere IBM-Forscher Frank Chen, „spätestens aber in fünfzehn Jahren wird es diesen Job nicht mehr geben“ (Schulz 2017: 18). Führende Manager der Lkw-Branche teilen diese Horrorvision allerdings nicht. Sie gehen nicht davon aus, dass der Fahrerplatz in Lastwagen in vorhersehbarer Zeit verwaist sein wird. Einerseits werde der Fahrer nämlich zur Überwachung der Automatik gebraucht; schließlich muss jemand die Verantwortung auch für selbstfahrende Brummis tragen. Und jemand muss auch eingreifen können, selbst in scheinbar banalen Fällen. Verliert ein Lkw beispielsweise einmal einen Spanngurt und liegt der dann quer über der Fahrbahn, interpretiert die Automatik ihn als eine Haltelinie, die nicht überfahren werden darf. Dann muss der Fahrer das System autorisieren, doch weiter zu fahren oder noch besser kurz aussteigen und den Gurt beiseite räumen. Vor allem aber: Das Lkw-Führerhaus wird in automatisch fahrenden Lastwagen nicht mehr in erster Linie als Arbeitsplatz zur Bedienung des Lenkrads benutzt. Der Fahrer wird vom Bediener der Fahrzeugtechnik zum Disponenten für die logistische Aktionskette, in der der Lkw-Transport nur ein Baustein ist. Fahrten wird er nicht nur durchführen, sondern auch planen und vernetzen. Er wird Ladung disponieren, das Auf- und Abladen steuern und als mobile Bürokraft zahlreiche weitere Aufgaben mit übernehmen, die heute noch ortsfest erledigt werden. Aus dem Fahrer wird so der Disponent, der zusammen mit seiner Ware unterwegs ist (Loidold 2017). Doch selbst falls es Lastwagenfahrern nicht existentiell an den Kragen geht: Die Wirtschaftswissenschaftler Frey und Osborne erwarten durch die Digitalisierung der Welt überall eine drastische Umformung der Gesellschaften und damit der Arbeitswelt. Machine Learning-Komponenten und Künstliche Intelligenz heben den Automatisierungsgrad. Noch Zukunftsmusik, aber schon vorstellbar ist, dass Robotic Process Automation (RPA) im Zusammenspiel mit KI das menschliche Denken nachbilden kann (Martens 2018). RPA ist eine Technologie zur Automatiscierung regelbasierter Geschäftsprozesse mit Software- Robotern. Während die KI den Bereich des Lernens und Denkens revolutioniert, wickelt RPA die jeweiligen Arbeitsschritte ab (ibid.). Deshalb rechnen schon knapp 80 Prozent der <?page no="144"?> 144 5 Big Data in der Wirtschaft Mitarbeiter von deutschen Großunternehmen damit, dass digitale Technologien ihre Arbeit in den nächsten fünf Jahren übernehmen werden, und rund die Hälfte der Befragten kennen das Thema RPA und seine Konsequenzen. Allerdings haben erst zwölf Prozent der Unternehmen ihre Geschäftsprozesse bereits mitSoftware-Robotern umgesetzt (ibid.). Treffen wird es auch Bürojobs. Bereits innerhalb der nächsten fünf Jahre könnten gut 40 Prozent der Geschäftsprozesse im sogenannten backoffice von robotischer Prozessautomatisierung (RPA) erledigt werden, sagt die Beratungsagentur A. T. Kearney voraus (Martin- Jung 2018a).Dabei fällt auf: 58 Prozent von gut 7000 Pesonen die eine Tochtergesellschaft der Boston Consulting Group befragt hat, glaubten, die KI werde ihren Job niemals ersetzen können, in Frankreich waren es sogar 69 und in Deutschland 67 Prozent, die beiden weltweit höchsten Werte. In China dagegen, wo die KI schon alltäglich zu werden beginnt, waren weniger als ein Drittel der Meinung, sie seien unersetzlich (ibid.). In nur zwei Jahrzehnten, sagen Frey und Osborne weiter, werde die KI allein in den USA jeden zweiten Job kosten (cit. Hagelüken 2016, vgl. Frey 2017). Das bestätigen auch Experten der Universität Oxford mit der Prognose, in den USA würden bis 2030 etwa 47 Prozent aller Arbeitsplätze der Automatisierung von Prozessen zum Opfer fallen, besonders in den Bereichen Finanzen, Verwaltung, Logistik, Spedition und Produktion. Noch drastischer soll es den bislang 18 Prozent der US-Beschäftigten mit körperlicher Arbeit oder für die Bedienung von Maschinen in Standardsituationen ergehen. 81 Prozent von ihnen sollen durch Maschinen ersetzt werden. In der Datenerhebung sind bislang 17 Prozent der Beschäftigten tätig. Zwei Drittel auch von ihnen sollen überflüssig werden. Die Datenverarbeitung gibt 16 Prozent der Beschäftigten ihr Einkommen - 69 Prozent von ihnen wohl nicht mehr lange (McKinsey, cit. ibid.). Insgesamt soll allein im Jahrzehnt von 2020 bis 2030 der Prozentsatz der Arbeitplätze mit niedriger digitaler Kompetenz von über 40 auf 30 Prozent schrumpfen, der Anteil der Hochqualifizierten zugleich allerdings auch von 40 auf 50 Prozent steigen (McKinsey 2018: 4). In den bevölkerungsreichsten Staaten geht die Zahl der Arbeitsplätze, die von Automatisierung bedroht sind, hoch in dreistellige Millionenziffern: In China sind es fast 400, in Indien mehr als 230 Millionen (ibid.). Hierzulande arbeiten 42 Prozent der Berufstätigen in Jobs mit hoher Automatisierungswahrscheinlichkeit, 18 Millionen Jobs sind gefährdet (Ustorf 2017). In Japan und in Russland sind es jeweils doppelt so viele, nämlich 35 Millionen, in Großbritannien und in Italien jeweils knapp zwölf, in Frankreich knapp zehn und in Spanien annähernd neun Millionen (McKinsey, ibid.: 15). Selbst Drittweltländer sind zunehmend betroffen. Ein Beispiel: Adidas lässt T-Shirts inzwischen per Roboter in den USA für 33 Cent das Stück nähen. Denn das ist sogar billiger als Handarbeit in Billiglohnländern (BMBF/ Wi 2018: Schmidt). Natürlich schafft die Digitalisierung auch neue Arbeitsplätz. Sie könnte die Konkurrenzsituation sogar grundlegend zugunsten alter Industrieländer verändern (Hagelüken 2018): Die Digitalisierung bringt auch Produktion nach Deutschland zurück, lautet das Fazit einer Studie der Hochschule Karlsruhe. Sie spricht von 500 Rückverlagerungen pro Jahr (ibid.) - allerdings nicht die früher verlagerten einfachen Fertigungs-Jobs, sondern in höher qualifizierte der digitalen Planung und Steuerung. Diese Aussicht auf neue Jobs macht Hoffnung: Boston Consulting hat aus einer Analyse von 40 Berufen in 23 Industrien den Schluss gezogen, bis 2025 könne die Digitalisierung eine Million neue Jobs erzeugen, während „nur“ 610.000 wegfallen - es bliebe ein positiver Saldo von 390.000 neuen Arbeitsplätzen (Eberl 2016: 245). Dort Berufstätige werden nach Ansicht des IBM-Vorstandsvorsitzenden Gianni Rometty „keinen weißen oder blauen Kragen mehr haben. Menschen werden die Dinge mithilfe der Technologie beschleunigen und mehr Zeit mit wichtigen Aufgaben verbringen“ (Kumar 2017). <?page no="145"?> 5.3 Die Wirtschaft 4.0 145 5 5..33 DDiiee WWiirrttsscchhaafftt 44. .00 Big Data sind in der Wirtschaft zusätzlich zu den klassischen Produktionsfaktoren Arbeit, Kapital und Boden, wie sie Adam Smith und nach ihm David Ricardo beschrieben haben, Teil des vierten Produktivitätsfaktors Information/ Kommunikation. Eine der wesentlichen Leistungen dieses Produktivitätsfaktors ist die Vernetzung. Vernetzt werden nicht nur Daten und Geräte, sondern ganze Geschäftsprozesse - Big Data ist deshalb kein reines Technologie-, sondern auch ein Strategiethema (Stange 2013). Andere Experten bezeichnen den vierten Produktivitätsfaktor auch anders, etwa wie schon 1854 Jean-Baptiste Say als unternehmerische Tätigkeit. Wieder andere verstehen Information als Form von Wissen und dieses wiederum als Teil des nach ihrer Ansicht vierten Produktivitätsfaktors Humankapital, was Leistungsfähigkeit des Menschen bedeutet. Noch andere Experten verstehen auch Energie als Produktivitätsfaktor eigener Art. Dies alles brauchen wir hier nicht weiter zu vertiefen; festzuhalten ist nur, dass Big Data bereits in den Rang eines grundlegenden Produktivfaktors aufgerückt sind. Das Schlagwort für die Bedeutung von Big Data in der Ökonomie heißt Wirtschaft 4.0, in der Industrie folglich Industrie 4.0. Sie und die Digitalisierung sind, je nach Branche, „die Megathemen unserer Zeit“ (Andelfinger/ Hanisch 2017: 1). Die Ziffer 4.0 ergibt sich, wenn man nach der traditionellen Phase der handwerklich geprägten Wirtschaft die Phasen der Industrialisierung durchnummeriert Dann heißt die Zeit der Dampfmaschinen Industrie 1.0, die Phase der Elektrifizierung Industrie 2.0 - ihr wesentliches Merkmal war die Massenproduktion an Fließbändern, die Henry Ford in den Schlachthäuseren Chicagos kennengelernt hatte; er übernahm sie in die Industriefertigung und produzierte auf ihnen jahrelang 80 Prozent aller US-Automobile in lediglich sechs Modellvarianten. Industrie 3.0 nennt man die Phase der Roboterisierung und Industrie 4.0 nun die datengetriebene Vernetzung der Produktion. Dieser Begriff entstammt der vom Bundesforschungsministerium (BMBF) gesteuerten der Hightech-Strategie. Es wurde auf der Hannover Messe 2013 in Umlauf gesetzt (ibid.: 8) und bezeichnet vollständig automatisierte Wertschöpfungsketten von Zulieferern bis zu Kunden sowie die ebenso automatisierte Kommunikation zwischen Menschen und Maschinen (ibid.; vgl. auch Lucks 2017, speziell in Bezug auf den Mittelstand vgl. Schulz 2017b.). Die Industrie 4.0 ermöglicht eine stärker als je kundenorientierte Fertigungslandschaft; denn Firmen können nun wissen, „wie ihre Produkte beim Kunden eingesetzt werden - aus B2B [business to business] wird B2B2C [business through business to customer]“(ibid.: 4). Zur Erläuterung: Bis zur Phase 3.0 war klar, was in einer Fabrik das Werkzeug war und was das Werkstück: Das Handwerkzeug und später die Maschine war das Werkzeug, der Rohstoff, das Halbzeug oder das entstehende Produkt war das Werkstück, das mit Hilfe des Werkzeugs entstand. In der digitalen Welt verlieren manche Produkte aber ihre materielle Substanz. In der Wirtschaft 4.0 lassen sich nämlich auch Datensätze als Produkte und damit als Teile von Wertschöpfungsketten betrachten. Wie Rohstoffe lassen sie sich in unterschiedlicher Weise verarbeiten, kombinieren und recyceln, um damit immer wieder neue Wertschöpfungen möglich zu machen. In dieser Phase 4.0 sind Daten anders als Rohstoffe also nicht nur Werkstück der Bearbeitung, sondern zugleich auch Werkzeug. Denn die Werkstücke kommunizieren nun in einem flexiblen Arbeitsprozess miteinander sowie mit Transporteinrichtungen und mit den beteiligten Menschen. Produkte können so individuell zur gewünschten Zeit nach Kundenwünschen hergestellt werden. In Firmen, die das systematisch umsetzen, verschmelzen Werkzeug, Werkstück und Markt zu einem System, das sich flexibel selbst organisiert und auf neue Anforderungen selbsttätig reagiert. Andere Unternehmen sind noch von einer „Hier-und-jetzt“-Mentalität <?page no="146"?> 146 5 Big Data in der Wirtschaft geprägt, berichtet Wippermann (2017). Das lasse bisweilen „wenig Platz für Überlegungen im Hinblick auf die Zukunft“. Bei Problemen entscheide oft der geringste Investition- oder Zeitaufwand. Ohne IT-Standards und ohne Kontrolle von IT-Spezialisten führe das nur zu Bastellösungen mit einer „Schatten-IT“ (ibid.). Die Bevölkerung sieht schon wegen der Konsequenzen für wegautomatisierte Arbeitsplätze in der Wirtschaft 4.0auch eine Gefahr: Nur 19 Prozent der Deutschen fanden in einer Umfrage des Allensbacher Institutes für Demoskopie vom April 2016 den Begriff Wirtschaft 4.0 sympathisch, und das Wort „Digitalisierung“ weckte nur bei 42 Prozent positive Gefühle (brand eins 2016). Und die Politik? „Als ich noch im politischen Hamsterrad gefangen war“, sagt der heute im amerikanischen data business tätige frühere deutsche Verteidigungsminister Karl-Theodor zu Guttenberg, „habe ich Dramatik und Geschwindigkeit der digitalen Revolution nicht erkannt“ (Brettning/ Dunker: 47). Seither sind die Ministerien in Berlin und Bonn aber wacher geworden. Die Bundesregierung fördert die intelligente digitale Vernetzung von Unternehmen und die autonome, regelbasierte Steuerung von Wertschöpfungsfunktionen anhand von Massendatenanalysen massiv (Sauter 2016: 3): in der Landwirtschaft, in der Automobilindustrie und generell für Verkehrssysteme, in der Telekommunikation, zur Energiewende, im Handel, in der medizinischen Forschung und Diagnostik, in der Bildung, im Finanzwesen und generell in der öffentlichen Verwaltung, zur Vorhersage von Krisensituationen und zur Verbesserung des Datenschutzes in Rechenzentren (Bitkom 2015: 2). Inzwischen ist die Politik auf diesen Gebieten sehr wach, denn „die Veränderungen, die mit der Smart Data-Nutzung einhergehen, haben im Grunde die Kraft einer Revolution, die sich nicht nur im eigenen Land abspielt“ (Markl in: BMWi 2016: 9). Firmen, die im BigData-Geschäft tätig sind, sind überzeugt, dass mit Daten morgen Dinge möglich werden, die heute noch unvorstellbar sind, so der Cloudera-Mitgründer Mike Olson (Schumacher 23017). Nach seiner Auskunft werden erst weniger als 50 Prozent der strukturierten Daten aktiv zur Entscheidungsfindung herangezogen, unstrukturierte Daten würden gar nur zu weniger als einem Prozent genutzt. Wegen der schnell wachsenden Zahl an IoT-Geräten und ihrer Datenströme werde die Herausforderung noch zunehmen. Olson zitierte eine IDC-Studie, der zufolge der Datenstrom im Internet der Dinge bis 2020 rund 30 Milliarden Geräte vernetzten soll (ibid.). ABB sprach bereits für das Jahr 2017 von 70 Millionen miteinander verknüpften Geräten, deren Daten in 70.000 dezentralen Systemen automatisch verarbeitet werden. Zehn Prozent davon sind end-to-end-Systeme, die in der cloud jeweils eine gesamte Prozesskette steuern. Nochmals Beispiele: Unterschiedlichste Wirtschaftsbereiche, bei Weitem nicht nur industrielle, nutzen in schnell wachsendem Maß GPS-Daten für operative, dispositive und optimierende location intelligence. Mit dieser sogenannten Geocodierung kann beispielsweise eine Stadtverwaltung bei Großveranstaltungen den Strom der Fußgänger lenken und überhaupt den Verkehr überwachen. Mobilfunkanbieter können ihre Kapazitäten nach der örtlichen Nutzerfrequenz steuern, Spediteure die Fahrzeiten ihrer Lieferfahrzeuge und Agrarbetriebe ihre Maschinen auf den Feldern anhand von deren Standortdaten optimieren. Für die Geocodierung gibt es inzwischen sehr leistungsfähige Software (Matzer 2017a). So verknüpft das deutsche Projekt GeoMultiSens satellitenbasierte Sensordaten des Deutschen Forschungszentrums für Geowissenschaften (GFZ) mit Petabyte großen Datenpaketen des Zuse Instituts Berlin (ZIB), mit Daten aus der Berliner Humboldt-Universität und solchen der Geoinformatics Group beim GFZ. Und so funktioniert Geocodierung in der Praxis: Mit Big Data gesteuerte Traktoren ackern und ernten automatisch und fahrerlos bis auf zwei Zentimeter genau, wenn das zu bearbeitende Land ebenso genau kartiert ist. Man hat überlegt, insektenkleine Mikrodrohnen mit Sensoren regelmäßig Flächen überfliegen und dabei Daten sammeln zu lassen. Die <?page no="147"?> 5.3 Die Wirtschaft 4.0 147 Physik setzt solchen Mikrodrohnen allerdings Grenzen. Ein Team um Ronald Fedkiw von der Stanford-Universität klebt stattdessen ein mit Sensoren, Energieversorgung, Controller und Sender nur 30 Milligramm wiegendes Mikrosystem lebenden Bienen auf den Rücken. Wohin sie fliegen, wird per Wlan regisitriert. Mit diesem Huckepack-Sender erregen Bienen im Korb bei ihren Artgenossen kein Missfallen. Ob er sie daran hindert, wie üblich Honig zu sammeln, weiß man noch nicht (Rüdiger 2018a). Ist ein Stück Land erst einmal ausreichend genau kartiert, weisen digitale Karten Maschinen im Frühjahr an, auf welchem Streifen Land sie wie viel Samen oder Dünger ausbringen sollen. Im Sommer und im Herbst ernten Landmaschinen dann bis zu rund 120 Tonnen Ackerprodukte pro Stunde. Die müssen zeitlich exakt von den Feldern abtransportiert werden. Mähdrescher registrieren automatisch, wann ihr Korntank annähernd voll ist und rufen dann ebenso automatisch über Mobilfunk ein Transportfahrzeug heran. Auch diese „kennen“ automatisiert das Gelände und den Mähdrescherstandort und suchen sich den besten Weg vollautomatisch. Sie achten auf die Zeit und die Schonung des Bodens. Die übernommene Getreidemenge melden sie einschließlich Qualitätsdaten schon vom Acker aus an den Betrieb. Das alles organisiert die Maschine-zu-Maschine-Kommunikation im Verbund mit GPS und Big Data, ohne dass irgendeine Person eingreifen muss (Bitkom 2017: Wocken). Das Programm steuert alle Abläufe so, dass es mit minimalem Aufwand das maximale Ergebnis erreicht.Mehrere Anbieter wie z.B. Claas, John Deere, Fendt, ATC und Case IH arbeiten an selbstfahrenden Traktoren (Crisp 2018: 12). Empfängt eine Landmaschine jedoch Wetterdaten mit Regenwarnungen, signalisiert sie dem Fahrer - so lange es ihn noch gibt -, statt mit minimalem Spritverbrauch nun wetterbedingt mit maximalem Tempo zu fahren (https: / / www.agrarheute.com/ news/ farming-40-getreideernte). Mit etwas Glück erntet der alles Getreide dann nämlich noch trocken. Ein weiteres Beispiel: Microsoft verarbeitet rund drei Petabyte Daten der Münchner Rückversicherung über Naturkatastrophen, die das Unternehmen seit 1974 gesammelt hat (Rüdiger 2018), und leitet daraus Prognosen über den nötigen Wetterschutz ab. Und noch ein Beispiel: Das Unternehmen TerraLoupe arbeitet mit Luftbilddaten, die heute in Genauigkeiten von bis drei Zentimetern pro Pixel erhältlich sind, und leitet daraus Anwendungen vor allem für das Segment „Haus“ ab (Rüdiger 2018). Ein letzter Hinweis: In speed boats, den Formel 1-Boliden unter den Rennbooten, liefert eine Vielzahl von Telemetriesystemen hundertmal pro Sekunde mehr als siebzig Messdaten des Rumpfes und der Maschinen als eine Grundlage für Rennanalysen und Materialoptimierungen (IBM o.V. 2015). Schnell gewachsen ist die Bedeutung von Big Data in der vorbeugenden Instandhaltung. Sie bedeutet traditionell, dass man Werkstücke und Werkstoffe nach einer durchschnittlichen Betriebszeit ersetzt, weil es billiger ist, auf eine mögliche Restlaufzeit zu verzichten als eine Störung zu riskieren. Ein typisches Beispiel für das traditionelle Verfahren war der Ölwechsel in Automobilen nach vorab festliegenden Kilometerleistungen ohne Ermittlung des tatsächlichen Verschleißes. Wird dieser aber stetig gemessen, kann man mit dem Austausch bis zum letzten Moment warten oder, wenn Messdaten früher Alarm schlagen, frühzeitig eine Störung vermeiden. Diese predictive maintenance soll Fehler und Störungen gar nicht erst aufkommen lassen. Stets geht es um die maximale Ausschöpfung der Anlageninvestition bei minimaler Störung des Produktionsablaufs (Bitkom 2017: Schinkel). Aus ökonomischen Gründen misst man nicht fortlaufend jedes Bauteil in all seinen physikalischen Eigenschaften in einem sogenannten whitebox-Modell. Denn in einer blackbox kann man aus wenigen beobachteten Messgrößen indirekt verlässliche Prognosen ableiten. Sensordaten signalisieren dabei eventuelle Schäden und Störungen, die analog unter Umständen noch gar nicht erkennbar sind. Die Datenanalyse stellt dann fest, was zu tun ist, noch bevor es zu Ausfällen kommt. So lassen sich ungeplante Reparaturen vermeiden und Anlagen vorausschauend steuern. <?page no="148"?> 148 5 Big Data in der Wirtschaft Die Effekte einer solchen Prozessautomatisierung können hoch sein. ABB durchforstete beispielsweise den Betrieb eines unrentabel gewordenen schwedischen Bergbaubetriebs, Boliden Garpenberg. Dieser ältesten Mine des Landes drohte die Schließung. Nach ABB- Vorschlag erhob die Mine kontinuierlich Daten und überwachte ihre Abläufe, verringerte so den Personal-, Material- und Energieaufwand erheblich und steigerte die Abbaumenge um 60 Prozent. Die Mine schreibt wieder schwarze Zahlen (Bitkom 2017: Weiss). Das Beratungsunternehmen Fujitsu beziffert solche Einsparpotenziale bei Fertigung und Logistik auf durchschnittlich 10 bis 30 Prozent der Kosten, in der Wartung sogar auf 30 bis 40, in der Qualität auf 10 bis 20 und bei Instandhaltungen auf 20 bis 30 Prozent (ibid.). So weit zur Anbieterseite. Nun zu den Verbrauchern. Wer seine Kunden genau genug kennt, kann sie individueller versorgen. Intelligente Stromzähler, die es in den USA und Kanada bereits zu Millionen gibt, schicken alle 15 Minuten Statusmeldungen von wenigen Kilobyte an den Energieanbieter. Das klingt nicht nach Massendaten. Aber je mehr Stromzähler das sind, umso mehr Datensätze sind viermal pro Stunde zu verarbeiten - in Summe Big Data (Matzer o.J.d: 9). Auch hierzu wieder ein Beispiel: Auf dem Stuttgarter Flughafen hat man 2015 rund zehntausend Sensoren in alle Stromverbrauchsgeräte gesetzt, in Messstellen und Zähler für Strom, Wärme und Kälte sowie in Lüftungssysteme zur Messung von Temperatur und Luftfeuchte. Alle Daten dieser Sensoren werden mit weiteren zusammengeführt, etwa zum Fluggastaufkommen oder zu Wetterprognosen. Mit diesen Daten lässt sich die Energieversorgung der Infrastrukturen zuverlässig, stabil und kostengünstig steuern (Matzer o.J.d: 7). Was Individualisierung auch in der Fertigung bedeuten kann, probiert beispielsweise das Unternehmen Adidas aus. In seiner Speedfactory testet es die Herstellung individueller Sportartikel in der Serienfertigung mit gerade einmal hundert Beschäftigen.Im Kern läuft sie nämlich computergesteuert. Die Sportschuhe kommen zum Teil aus dem 3D-Drucker. Der Kunde kann das Aussehen seines Schuhs mitbestimmen und bekommt genau das, was er will. Das schafft eine hohe Kundenbindung und die Erkennung von Trends wird einfacher (Rother 2017). Adidas versucht seine Daten auch überbetrieblich nutzbar zu machen: Aus 100.000 Joggingläufen ermittelte das Unternehmen das durchschnittliche Alter der Läufer, den Wochentag (in Paris joggt man sonntags doppelt so häufig wie werktags, in Berlin sind es sonntags nur +30 Prozent) und die Stunde (in Tokio am stärksten um sechs Uhr früh und neun Uhr abends, in Berlin gegen zehn Uhr vormittags und und zwischen fünf und sieben Uhr abends) und sucht nun Städte, die ihr Sportangebot verbessern wollen. Bei Nike erhalten Kunden beim Betreten des Geschäfts über das Mobiltelefon Informationen über Angebote, die zu ihren Vorlieben passen. Digitale Tische bieten Kunden auf Wunsch Detailinformationen zu den ausliegenden Produkten. Die Firma liefert Ware auf Wunsch auch nach Hause (ibid.). Die Versicherungsbranche hat es wegen der Vielzahl versicherter Risiken, unterschiedlichster Kunden und je nach den Umständen des einzelnen Falls mit einer Vielzahl von Dokumenten zu tun. Einige Versicherer nutzen zu deren Bearbeitung das IBM-System Watson Complaint Analysis, ein selbstlernendes System mit machine learning-Komponenten in einem Rechnerverbund von 90 Rechnern mit 19 Terabyte Arbeitsspeicher. Dieses Programm reagiert auf Zuschriften von Versicherten automatisch, erkennt in Kundenschreiben Unmutsäußerungen, analysiert sie und bereitet die Inhalte auf. Watson kann sogar Ironie erkennen. Schreibt ein Kunde etwa „Vielen Dank für die schnelle Schadensbearbeitung“, beschwert sich aber im nächsten Satz, erkennt Watson das Wort „schnell“ als Ironie und reagiert richtig (IBM o.V. 2015). Andere Versicherer waren zumindest bis vor Kurzem noch nicht so weit. 2014 hatten von 30 europäischen und nordamerikanischen Versicherern 90 Prozent noch gar keine Big Data-Strategie (BearingPoint 2014). <?page no="149"?> 5.3 Die Wirtschaft 4.0 149 Dabei liegen die Nutzenpotenziale auf der Hand (vgl. Wagner/ Makowski 2015). Versicherungen haben im Schriftverkehr kniffligen Aufgabe zu lösen: Sie müssen nach Möglichkeit feststellen, ob und wo in den Aussagen eines Dokuments etwas nicht stimmt. Das sollen Maschinen erkennen. Dazu ist als erstes ein knowledge graph nötig, also ein Archiv voller Begriffe, die in Zuschriften vorkommen, und dann eine grammatikalische und logische Analyse der Wortzusammenhänge. Beides zusammen ist die Basis, um einen Text maschinell verstehen zu können. In Dokumenten werden für gleiche Sachverhalte nämlich unterschiedliche Begriffe verwendet - das System muss trotzdem den gemeinsamen Nenner erkennen. Das funktioniert mittlerweile recht gut. Danach sollen die Schadensaufnahme, Bewertung und Regulierung gerecht, schnell und kostengünstig ablaufen. Maschinen erledigen inzwischen 60 bis 80 Prozent dieser Arbeit. Diese Standardisierung führt zu erheblicher Kostenersparnis (Bitkom 2017: Lackner). Ebenso wichtig wie alle diese technisch begründeten Big Data-Nutzungen sind die, die das Marketing nachfragt. Auch dazu ein Beispiel von vielen: Disney führte in seinen Erlebnisparks für seine Besucher Armbandtickets mit GPS-Empfänger und NFC-[near field communication]-Sender ein. So stellt Disney fest, wie sich die Besucher bewegen, wo sie verweilen oder wo Überfüllung droht. Das ermöglicht es, Besucher in Echtzeit besser zu steuern (Stricker 2014: 3). Sensoren alleorten, mobile Endgeräte im Besitz von Kunden, postings und tweets in sozialen Netzwerken - alles kann dabei helfen, nicht nur Fakten zu registrieren und zu verarbeiten, sondern auch Stimmungen aufzuschnappen, aktuelle Markttrends zu erkennen, Entwicklungen zu simulieren und konsolidierte Informationen in weitreichende und strategische Unternehmensentscheidungen einfließen zu lassen (Brettning 2013). Big Data-Auswertungen werden so zum nahezu überall einsetzbaren Instrument, um die Wirtschaft und die Gesellschaft zu organisieren. Wie aussagekräftig sind solche Momentaufnahmen für die Zukunft? Das können Sie selbst abschätzen, wenn Sie statistische Zahlen vergleichen. Der Branchenverband Bitkom ermittelt sie in Deutschland zusammen mit der KPMG jeweils zum Jahreswechsel bei Firmen in zwölf Branchen mit über einhundert Mitarbeitern quer durch die Wirtschaft. Befragt werden Geschäftsführer und Fachbereichsleiter nach Zielen und Herausforderungen von Datenanalysen, danach also, wie Firmen diese Datenanalysen nutzen und wie zufrieden sie mit den Erkenntnissen sind. Hier die Kernergebnisse: Unstrittig bestimmen Big Data die Produktivität zunehmend mit. Während Cole noch warnt, die deutsche Wirtschaft verschlafe gerade die digitale Zukunft; sie müsse sich „vor allem beeilen! Denn im Digitalzeitalter ticken die Uhren im Takt von Moore’s law, wonach sich die Leistungsfähigkeit digitaler Systeme ungefähr alle 18 Monate verdoppelt“ (Cole 2017: 13), geben vier von fünf deutschen Unternehmen an, wichtige Entscheidungen zunehmend auf der Basis von Datenanalysen zu treffen. Bei über zwei Dritteln der Befragten spielen solche Analysen in der Wertschöpfung eine immer größere Rolle (Martin-Jung 2016). Auf den ersten Blick geschieht viel. Alle Firmen arbeiten mit Firmendaten und analysieren sie IT-gestützt. Eine starke Dynamik gibt es bei systemisch genutzten Daten, das sind in erster Linie Standort- und Sensordaten z.B. aus der Produktion. Es folgen Kundendaten (86 Prozent) und öffentlich verfügbare Daten (70 Prozent). Schon 2015 gaben drei Viertel der befragten Unternehmen an, Entscheidungen zunehmend auf Erkenntnissen aus Datenanalysen zu treffen, 2016 bereits 80 Prozent. Am seltensten benutzt wurden wissenschaftliche Publikationen, regulatorische Daten und - Achtung - Daten aus sozialen Netzwerken. Erst jedes fünfte Unternehmen analysierte sie zu diesem Zeitpunkt. Das überrascht, da gerade hier neue Erkenntnisse locken. Bitkom vermutet als Ursache Unsicherheiten bei der rechtlichen Bewertung (ibid.). <?page no="150"?> 150 5 Big Data in der Wirtschaft An besseren Informationen zum Datenrecht besteht großer Bedarf. Viele Firmen nennen dieses Rechtsgebiet schwer durchschaubar. Jedes zweite Unternehmen glaubt, es gebe gar keines. Zwei Drittel der Unternehmen sind unsicher, ob sie alle Datenschutzregeln einhalten. 47 Prozent zweifeln am Datenschutz ganz generell (ibid.). Stark gestiegen ist aber die Ansicht, Datenanalysen verringerten unternehmerische Risiken. Das sagten 2016 erst 31 Prozent, aber 2017 schon 51 Prozent. Nach einer anderen Quelle halten fast alle deutschen Firmenchefs (96 Prozent) eine effektive data analytics-Strategie für wachstumsentscheidend. 80 Prozent glauben, dass ihr derzeit installiertes System Geschäftsergebnisse zuverlässig vorhersagt (Hensel 2017). Laut Cole arbeiten gerade Banken und Versicherungen intensiv an Risikominimierungen. Mit Big Data-Analysen können sie sie genauer voraussehen und damit verringern. Unterschiedlich fällt die Big Data-Wertschätzung bei der Geschwindigkeit aus, mit der Entscheidungen getroffen und Produkte eingeführt werden. Fast 50 Prozent der Firmen registrieren mehr Tempo, nur 17 Prozent mehr Verzögerung. 15 Prozent konnten durch Datenanalysen 2016 ihre Kosten nennenswert reduzieren. 2017 galt dies für 19 Prozent (Cole 2017). Schaut man genauer hin, dominierten in den Unternehmen zumindest 2016 aber noch einfache, deskriptive Datenanalysen wie z.B. Excel-Tabellen. Um Gründe für geschäftliche Erfolge oder Misserfolge zu finden, setzte jedes zweite Unternehmen sie ein. Cole warnt, da müsse sich noch viel verändern. Denn mit Digitalisierung, Vernetzung und Mobilität sind, um Cole zu zitieren, „die Folgen atemberaubend. Es entsteht sozusagen der perfekte Sturm, der alles hinwegfegt! “ (Cole 2017: 13). Europäische Firmen lagen gegenüber amerikanischen lange zurück. 2015 arbeiteten 28 Prozent der US-Unternehmen mit Big Data und jedes zweite hatte zumindest ein Pilotprojekt laufen. In Europa waren erst 18 Prozent der Firmen mit Big Data aktiv, Pilotprojekte gab es bei 39 Prozent (Bange 2015). 2017 stellten die „Data & Analytics Trends 2017“ von Teradata dann überraschend fest: Deutsche Unternehmen führen in drei von vier Feldern der Datennutzung weltweit: beim Einsatz von Datenanalysen (84 Prozent), in der digitalen Transformation (82 Prozent) sowie im data warehousing (82 Prozent). Nur beim Einsatz von IoT-[Internet der Dinge]-Technologien mussten sich deutsche Firmen hinter Australien (70 Prozent) und Indien (69 Prozent) mit einem dritten Platz begnügen (Hensel 2017). Erst eine Minderheit der Unternehmen nutzt laut Bitkom aber Auswertungstools, die auch Vorhersagen möglich machen. Die Bedeutung anspruchsvollerer Analysen nimmt jedoch deutlich zu. Knapp 40 Prozent der Firmen setzten solche ein, ebenso viele weitere planen das oder diskutieren zumindest darüber, unterschiedlich nach Branchen. In den Medien- und in der Automobilbranche lässt etwa jede dritte Firma solche Analysen machen, in der Logistik und bei Banken nur etwa jede zehnte. Das bestätigt auch eine Studie über die digitale performance europäischer Banken. Ihr zufolge liegt der Einsatz von Big Data- Analysen für personalisierte Marketing-Strategien bei Banken noch in weiter Ferne. Dabei sitzen Finanzinstitute mit ihren Kundenadressen und mit dem, was sie zum Beispiel aus Kreditverträgen über ihre Kunden wissen, „auf einem Berg von digitalem Gold“ (Fiore 2017). Da liegt großes Potenzial brach. Immerhin gibt es Bewegung: Die Zahl der Firmen, die Maßnahmen überlegen, ist in einigen Branchen schon größer als die der bereits aktiven. Sie erkennen also, dass sie mitziehen müssen (Bitkom 2017: Heitkamp/ Pols). Diese Bitkom-Einschätzung bestätigt Beobachtungen des Maschinenbau-Professors Holger Hütte: „Digitalisierungmeint eben viel mehr als Produkt- und Prozessinnovation“ (cit. Prussky 2017). Neue Werte und Angebote auf der Basis einer digitalen Erfassung des Zielgruppenverhaltens nennt er viel entscheidender als technische Innovationshebel. „Gerade kleine und mittlere Unternehmen“, urteilt jedoch auch Hütte, „tun sich da noch schwer“ (ibid.). <?page no="151"?> 5.4 Big Data in der Automobilindustrie 151 Schwer wiegen Langfristfolgen der Datenrevolution. Fast 60 Prozent der Firmen erwarten in ihrer Branche massive und weitere 28 Prozent moderate Umwälzungen, zusammen also 87 Prozent. Zugleich erklärten 2016 erst 44 Prozent, sie seien auf sie hinreichend vorbereitet (Kane 2016). Selbst wer weniger Befürchtungen hat, kann nicht übersehen, dass die datengetriebene Wirtschaft 4.0 massive Konsequenzen für den Arbeitsmarkt und damit für das von erfüllender Arbeit abhängende Selbstverständnis vieler Menschen bringt. Die Wirtschaft 3.0 hat im großen Stil ausführende menschliche Tätigkeiten durch Maschinenarbeit ersetzt. Die Wirtschaft 4.0 macht nun menschliche Arbeitskraft nicht nur für kontrollierende, sondern in stark wachsendem Maß auch für dispositive Aufgaben überflüssig. Technische Systeme lösen solche Aufgaben zunehmend schneller und stetiger, billiger und weitgehend ohne Ausfälle (Horvath 2016) und prägen damit eine Gesellschaft 4.0. Inzwischen ist - beginnend in Japan - schon von der Gesellschaft 5.0 die Rede, der Gesellschaft, die mit der globalen Vernetzung von allem und jedem in erster Linie über das Internet der Dinge zurecht kommen muss (BMBF/ Wi 2018: Martin). Trotz aller Trendsignale bleibt eines erstaunlich: Eine Big Data-Strategie hat nach wie vor nur eine Minderheit der Firmen, nämlich erst rund ein Drittel. Besonders kleinere und mittlere Unternehmen liegen zurück (Bitkom 2017: Heitkamp/ Pols). Die Medienbranche ist mit gut 50 Prozent vergleichsweise gut vertreten, Banken mit 40 Prozent. In der Automobilindustrie sind es erst ein Drittel der Firmen. Dort dominiert der top-down-Ansatz so stark, dass bottom-up-Verfahren noch nicht stark entwickelt sind. (ibid.). In einem stimmen Skeptiker und Befürworter der datengetriebenen Wirtschaft weitgehend überein: Zwei Drittel (67 Prozent) der Befragten erwarten, dass sich der Stellenwert von Big Data in ihrem Unternehmen in den kommenden drei Jahren weiter erhöhen wird. Schon 2015 lag dieser Wert mit 63 Prozent auf einem hohen Niveau. Big Data bleibt somit gerade in der Wirtschaft - und nicht nur dort, wie der nächste Abschnitt zeigen wird - ein wichtiger Zukunftstrend (Bitkom 2017: Heitkamp/ Pols). Angesichts der aufkommenden Künstlichen Intelligenz ist diese die Neuordnung der Arbeitswelt eine riesige Herausforderung. 55..44 BBiigg DDa attaa i inn dde err AAuut to om mo ob bi illi in nddu ussttrriie e Kaum eine Branche zeigt so schlagend wie die Automobilindustrie, dass die Wirtschaft ihre Strukturen grundlegend neu aufsetzen muss. SAP betrachtet diesen Industriezweig nach einer Reengineering-Welle der 2000er Jahre für mehr Qualität neuerlich als Vorreiter einer Transformation. Die Autofirmen nutzten „die neuen Möglichkeiten von Big Data und realtime computing, um ihr gesamtes Geschäftsmodell neu zu definieren“, urteilt SAP-Manager Faisst (Stricker 2014: 3). Kaum eine Branche muss dabei so grundlegend umlernen. Automobilingenieure sind es seit Generationen gewohnt, Metalle zu verarbeiten. Ihre Ingenieure müssen nun aber als data scientists agieren - frei nach dem Motto des früheren General Electric-Bosses Abhi Kunte: „If we don‘t start becoming and behaving like a true software company we don‘t have a future”(Crisp 2018: 12). Ein mindset change und entsprechende Qualifikationsmaßnahmen sind unumgänglich (Bitkom 2017: Blankenburg), und zwar auf allen Ebenen dieser Konzerne. Audi-Manager Mathias Ulbrich, bis Anfamg 2018 CIO des Unternehmens, bestätigt: „Wir betrachten Big Data über die komplette Wertschöpfungskette hinweg“ (Ulbrich 2013). Schon 2013 rechnete er pro Tag mit Datenvolumina im mehrstelligen Gigabyte-Bereich (ibid.), und das, obwohl es „die perfekte Feedbackschleife über den kompletten Produktlebenszyklus hinweg“ zu diesem Zeitpunkt noch gar nicht gab, nur „erste Leuchtturmprojekte“ (Fromme 2013). <?page no="152"?> 152 5 Big Data in der Wirtschaft Big Data prägen zunehmend die Fahrzeugentwicklung und den Fahrzeuggebrauch. Der damalige VW-Chef Martin Winterkorn nannte seine Autos schon 2014 „rollende Rechenzentren“ (cit. Keese 2014: 181). In der Produktion und Logistik melden Sensoren in vernetzten Maschinen deren Status und Störungen früher, die betriebswirtschaftliche Software reagiert darauf in Echtzeit (Stricker 2014: 3). Auch das Auto selbst kommuniziert und versteht. Big Data liefern zum Beispiel Informationen zum Fahrverhalten. Mit ihnen lässt sich das Auto an Gewohnheiten der Fahrer anpassen. Automarken differenzieren sich über Zusatzleistungen, nicht zuletzt durch Fahrerinformationssysteme. Auch dort kommen Big Data zum Einsatz. Ebenso ist das car sharing durch Big Data optimierbar. Diese Aufzählung ließe sich weiter verlängern. Statt das zu tun, umreißen wir nun in elf Schlaglichtern die Aktionsfelder, die die Datennutzung in der Autobranche grundlegend verändert. Fokus 1: Forschung und Entwicklung Die Zielrichtungen der heutigen Fahrzeugentwicklung sind nicht so neu, wie es auf den ersten Blick scheint. Schon im Mai 1968 gab es in Los Angeles unter dem Titel Command and Control of Vehicular Forces eine Tagung des Institute of Electrical and Electronics Engineers IEEE, auf der die Fahrzeugsteuerung, der Fahrer, die Ortung sowie Trends in der Steuerungstechnik im Zentrum standen. Man stehe, hieß es dazu, „am Beginn einer Ära, in der sich automatische Steuerung und Kontrolle bis in den Kleinwagenbereich“ durchsetzen würden. Automatisches Fahren werde ebenso kommen wie automatische Ortung. Die Kommunikation mit dem Fahrzeug werde akustisch wie elektronisch erfolgen (Lindholm 1969, cit. nach Buschauer 2014: 419). Was damals gefordert wurde, ist mittlerweile Realität. Die Vernetzung von Daten aus Internet-Autoforen und Autohäusern, Automobilmessen und Blogs ermöglicht es, Kundenverhalten vorherzusagen. Damit kann man Autodesigns früher und zuverlässiger auf ihre Kundenakzeptanz bewerten und so die Erfolgsquote neuer Modelle und die Innovationsrate im Unternehmen erhöhen (Scheiderer 2017). Ein Beispiel: In der Entwicklungsphase des Jaguar Land Rover SUV-Modells Evoque packten Designingenieure mit ihren Fahrzeugsimulationen schon 2013 Tag für Tag Plattenspeicher im Terabyte-Bereich mit Daten voll. Virtuelles prototyping und Big Data- Vergleiche prägten nicht nur das äußere Erscheinungsbild des Fahrzeugs, sondern auch die Arbeitsweise der Entwicklungsteams. Denn wie jedes neue Fahrzeug haben sie auch dieses in all seinen Eigenschaften zunächst digital beschrieben und erst dann konstruiert (Fromme 2013). So kann man die endgültige Konstruktion länger offenhalten und Veränderungen bei Technologien, im Markt und im Wettbewerb in kürzerem Abstand zur Produktpremiere noch einfließen lassen. Auch Daimler-Benz verlängert diese Phase vor dem so genannten design freeze. Nach dern Worten von Entwicklungsvorstand Thomas Weber lassen sich schon seit Jahren sechs Monate und mehr gewinnen, wenn mehr digital abgesichert wird. „Das macht uns schneller, effizienter und spart Geld“ (Fromme 2013). Vor fünf Jahren hat auch Volkswagen begonnen, das Thema Big Data professionell aufzugreifen. 2017 arbeiteten im Münchner VW Data Lab des Konzerns rund hundert Personen gemeinsam mit Tech-Startups aus Deutschland, aus dem Silicon Valley, aus Israel sowie mit Universitäten und anderen Partnern. Weltweit suchen sie Innovationen und versuchen dabei selbst wie ein Startup zu agieren, „schnell auszuprobieren, durch trial and error bzw. try fast and succeed fast. Gebe es einmal keinen success, dann gelte eben „lessons learned“, sagte 2017 die damalige Data Lab-Chefin Cornelia Schaurecker (Bitkom 2017). Dieses Wissen nutzt das Data Lab als open source für die zwölf Marken des VW-Konzerns, damit Erfahrungen konzernintern bekannt und breit verfügbar werden. Ein internationales Team ist da zu- <?page no="153"?> 5.4 Big Data in der Automobilindustrie 153 gange: „Wir sprechen über 20, ja 25 verschiedene Sprachen. Die data scientists kommen aus aller Welt“ (ibid.). Seit Oktober 2016 gehört zum Lab ein AI research team. Es soll fünf Jahre und mehr im Voraus abschätzen, was kommt. Das VW Data Lab ist in sämtliche Bereiche der automobilen Wertschöpfungskette eingebunden - von der Entwicklung über die Beschaffung und die Produktion sowie das Finanzwesen bis hin zur Qualitätssicherung, zum Marketing, zu after sales, zu den Händlern und den vernetzten Kunden. „Eine imaginäre Kriegskasse zeigt uns, welche Einsparpotentiale gemeinsam mit den Fachbereichen erarbeitet werden. Natürlich zahlt nicht jeder news case sofort in die Registrierkasse ein; manche sind sehr, sehr strategisch. Immer betrifft das drei Bereiche, den connected customer, das connected product und die digital enterprise“ (ibid.). Eine Beratungsfirma half, das Lab in seiner Kultur, Arbeits- und Denkweise wie ein Startup aufzubauen. Erste Ideen gab es im Frühjahr 2013. In Betrieb ging das Lab im November 2014. Zuvor gab es zwar schon Big Data-Projekte bei den einzelnen Marken. Synergien ergab das aber kaum. Seither hat Volkswagen alle data analytics-Kompetenzen für interne und externe data scientists, Robotik-Spezialisten und Experten verschiedenster Fachrichtungen von der Statistik und Mathematik über die Informatik bis zur Betriebswirtschaftslehre im Lab versammelt. Sie sollen IT-Lösungen für Big Data und das Internet der Dinge entwickeln. Mittlerweile hat das im Szeneviertel Schwabing (https: / / datalab-munich.com) tätige VW Data Labeinen ebenfalls firmeninternen Wettbewerber in Berlin bekommen (https: / / vw-dilab.com), ebenfalls im Szeneviertel der Hauptstadt, in Friedrichshain im früheren Osthafen. Das Berliner Team sucht den Schulterschluss mit den dortigen über tausend start-ups, „to build products beyond the scope of the traditional Volkswagen core business in order to create a new digital ecosystem for the group’s brands“ (ibid.). Was hat dazu ein Autobauer wie Volkswagen, das Google nicht hat? Fahrzeugdaten! Smartphone-Daten reichen für viele Anwendungen nicht aus, nicht beispielsweise für das künftige autonome Fahren. Außerdem arbeiten die data scientistsdes Autoherstellers beispielsweise an Apps, die frühzeitig erkennen, wo ein Parkplatz in der Stadt frei wird. Dazu kommen nicht nur Mitarbeiter von Technologieanbietern immer wieder temporär ins Lab. Auch Gäste aus externen start-ups oder aus der Wissenschaft schauen für ein paar Wochen vorbei. Wenn das lab eine Technik nicht hat, dann lädt es sich ein start-up ein und erarbeitet mit ihm Lösungswege gemeinsam oder fragt Wissenschaftler, etwa die des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS. Es kann in einem internetbasierten Automobilforum mit semantischer Textanalyse über 30 Millionen postings zu Fahrzeugen, Autoteilen und Herstellern durchforsten und auswerten. Daraus ergeben sich Themen und Stimmungsbilder für verschiedene Märkte. Verknüpft man sie mit Daten aus der Produktion, der Fahrzeugdiagnose sowie mit Kunden- und Werkstattberichten, sind die gewonnenen Einblicke für die Marktforschung ebenso nutzbar wie für die Produktentwicklung und das Qualitätsmanagement (Stange 2013). Die Richtung, in der diese Entwicklung läuft, haben Packer und Oswald zur These gebündelt, das Auto sei keine Maschine mehr, sondern eher ein device aus einer Vielzahl digitaler Steuerungen, ein Instrument digitaler Navigation für die medientechnisch transformierte Automobilität (2010: 319). Autos wandeln sich zu mobiler Medientechnik, einer screening technology, gesteuert durch networked control auf der Basis von bandwidth (ibid.: 335f.), zu deutsch in eine breitbandig vernetzte, von Bildschirmen gesteuerte Technik. Was wird diese Entwicklung bringen? Das Auto wird zum „Smartphone auf Rädern“ (Lesch, ZDF 2017). Sobald sprachgesteuerte Endgeräte serienreif sind, wird man Infos in Autos und ebenso in Smartphones gar nicht mehr eintippen müssen, sondern kann ihnen einfach sagen, worum es geht. Mixed reality-Anwendungen sollen Smartphones mittelfristig sogar ganz ersetzen (Noska 2017). Braunschweiger Wissenschaftler erprobten bereits vor <?page no="154"?> 154 5 Big Data in der Wirtschaft enigen Jahren den automatischen Kontakt entsprechend programmierter Autos etwa mit Ampeln, die ihnen zufunken, wie lange sie noch grün zeigen werden. Bislang ist kaum möglich, den kompletten Bewegungsprozess rund um ein Automobil, den wir Menschen in Sekundenbruchteilen registrieren - in Fahrsimulatoren wird das derzeit wissenschaftlich ermittelt -, ebenso schnell und sicher elektronisch abzubilden. Der Physiker Lesch erwartet aber, dass das so vernetzte Auto in fünf bis acht Jahren serienreif wird (ibid.). Dann soll nicht mehr passieren, was im Mai 2016 einenTesla-Fahrer das Leben kostete: Das Umfelderkennungssystem seines Autos hatte einen kreuzenden Sattelschlepper wegen des großen Freiraums zwischen dessen Radachsen und der hochbordigen Ladefläche als gefahrlos zu unterfahrende Schilderbrücke missinterpretiert. Das Auto war deshalb ungebremst weitergefahren und der Tesla-Fahrer dabei zu Tode gekommen. Noch könnte es sein, folgert Lesch, dass die Kooperation mit Big Data „aus uns Big Deppen machen“ könne (ibid.). Ab 2021 wollen Audi, BMW und Daimler-Benz diesen „digitalen Dämmerschlaf“ (ibid.) aber im Griff haben. Dazu arbeitet zum Beispiel das Münchner Automobilunternehmen BMW mit dem Chiphersteller Intel, mit dem von Intel übernommenen israelischen Unternehmen Mobileye (das elektronische Spurhalteassistenten, Abstandswarner und automatisch gesteuertes Fernlicht anbietet) und dem Experten für elektronische Landkarten HERE zusammen (Scheiderer 2017). Nach internationaler Übereinkunft muss die Technik des autonomen Fahrens fünf Entwicklungsschritte bewältigen. Schritt 1 ermöglicht dem Fahrer, den Fuß vom Gaspedal zu nehmen, wenn das Fahrzeug bei kontrolliertem Abstand zum vorausfahrenden automatisch seine Geschwindigkeit hält - das gibt es seit Jahren. Schritt zwei macht es möglich, die Hände vom Lenkrad zu nehmen, weil das Fahrzeug auch automatisch die Spur hält. Auch das ist Stand der Technik, aber noch nicht überall Serienstandard. Schritt 3 gilt als „Quantensprung“ (ibid.): Dazu muss das Auto ein digitales 360-Grad-Abbild seines Umfelds erzeugen und verarbeiten können. Auf Autobahnen soll der Fahrer den normalen Verkehr dann nicht mehr beobachten müssen ausgenommen Baustellen. Davor soll das Auto ihn warnen, damit er wieder selbst entscheidet, was getan werden muss. Erst in Schritt 4 bewegt sich das Fahrzeug auch in kniffligen Situationen vollautomatisch. „Unter diesen Umständen“, heißt es bei BMW, „könnte der Fahrer sogar am Steuer schlafen - generell muss er aber fahrtüchtig sein“ (ibid.). Stufe 5 schließlich macht aus dem Auto eine nachtwandlerisch sichere Technik. Es fährt autonom. „Einen Fahrer braucht es nicht mehr“ (ibid.). Wann das Alltag sein wird, mag noch niemand abschätzen. „Erste Pilotprojekte“, sagen die Münchner, „sind im Lauf den kommenden Jahrzehnts denkbar, wahrscheinlich in abgegrenzten Bereichen ausgewählter Innenstädte“ (ibid.). Fokus 2: Beschaffung Beschaffung ohne Big Data - das war gestern. Bereits simple Schritte in einer zeitgemäßen Datentechnik verbessern den operativen und strategischen Einkauf nachhaltig (Schmidt 2018). Im strategischen Einkauf geht es um langfristige Ziele, im operativen Teil um das Tagesgeschäft mit Bedarfsermittlungen, Lieferüberwachungen, der Pflege von Stammdaten um dem Einkauf von Sondermaterialien (ibid.). Big Data können helfen, Lieferanten automatisiert und in Echtzeit hinsichtlich Lieferzeiten, Qualität, Quantität, etc. zu bewerten. So konnten einige Unternehmen ihren Lager- und zugleich Lieferantenbestand um bis zu 50 Prozent reduzieren (ibid.). Ein Automobilunternehmen kauft nicht nur Rohstoffe und Zulieferteile ein, sondern lässt sich von seinen Lieferpartnern einbaufertige Komponenten maß- und zeitgenau auch entwickeln, beispielsweise komplette Armaturenbretter. Das funktioniert auf der Grundlage einer sehr engen Datenvernetzung. In die Karten dieses Spiels mit einer Unzahl von Variab- <?page no="155"?> 5.4 Big Data in der Automobilindustrie 155 len lässt sich kein Hersteller gern hineinblicken; das gehört zum betriebsinternen Know-How. Aber es ist klar, dass die Entwicklungsabteilungen eines Automobilproduzenten Daten im großen Stil an ihre Zulieferer senden müssen, damit diese präzise Vorgaben haben, ebenso wie diese umgekehrt ihre Daten an die Zentrale übermitteln, wo nicht nur alles passgenau zusammengesetzt, sondern in virtuellen crash-Versuchen auch auf seine Verkehrssicherheit getestet werden muss. Wie unglaublich komplex diese Steuerungsaufgaben sind, mag ein einziges Beispiel andeuten: BMW baut acht Fahrzeugreihen vom 1er bis zum 8er und dazu einige Modelle von MINIund von Rolls-Royce. VW fertigt für seine zwölf Marken etliche Dutzend verschiedene Modelle zur gleichen Zeit. Jedes braucht zwei Außenspiegel, einen rechts, einen links. Die können beheizt sein oder auch nicht, macht bereits pro Modell vier Varianten. Unterschiedliche Zulassungsvorschriften einzelner Länder für die Krümmung des Spiegels und damit den Blickwinkel des Fahrers nach hinten erhöhen die Variantenzahl auf einen ordentlichen zweistelligen Wert. Den multipliziere man nun mit den vielleicht zwanzig Karosseriefarben pro Modell, und man sieht, dass allein so ein relativ läppischer Außenspiegel in vielen hundert Varianten geordert, entworfen, abgestimmt, produziert und schließlich geliefert, gelagert und eingebaut werden muss. Wenn das Modell dann auch noch in verschiedenen Fabriken unterschiedlicher Kontinente hergestellt wird, kann das die Variantenvielfalt mit Rücksicht auf die jeweils nationale Industriepolitik mit ihren local content-Vorschriften über den vorgeschriebenen Mindestanteil von Zulieferteilen aus nationaler Produktion nochmals kräftig steigen lassen. Der nötige Datentransfer erreicht schnell erstaunliche Größenordnungen. Zulieferer entwickeln dabei durchaus Kreativität. Continental etwa, bekannt für Autoreifen, will Verkehrsinfrastrukturdaten für eine neue Qualität des Autofahrens nutzen. Ampelgrünphasen und das dafür optimale Fahrtempo könnten dem Fahrer angezeigt werden - grüne Welle auf elektronisch. Zugleich soll eine Echtzeit-Verkehrsflussanalyse die Ampelschaltungen optimieren (Stricker 2014: 3). Fokus 3: Produktion (digital enterprise) Autos herzustellen ist heute weitgehend eine Roboteraufgabe - schon aus Kostengründen. Bei einer Laufzeit von 35.000 Stunden kostet bei VW ein Roboter nach Auskunft seines früheren Personalvorstands Horst Neumann einschließlich seiner Betriebskosten 100.000 bis 200.000 Euro, das sind drei bis sechs Euro pro Stunde (cit. Eberl 2016: 236). Für diesen Stundenlohn würde kein menschlicher Arbeiter tätig. Diese automatisierte Fertigung läuft sensorgesteuert. Nahezu jeder Betriebszustand eines Geräts und jeder Arbeitsschritt, den er ausführt, wird von unzähligen Fühlern registriert, und immer werden dabei Daten erzeugt. Diese Automatisierung ist längst nicht mehr neu, aber ihre Komplexität steigt kontinuierlich. Allein zwischen 2013 und 2015 soll sich die Anzahl der industriell eingesetzten Sensoren verdreifacht haben (Fromme 2013). „Im Zuge der ‚vollvernetzten Produktion der Zukunft‘, der sogenannten smart factory, werden weitere Formen von predictive maintenance möglich sein“, sagt Audi-Fertigungsleiter Helmut König voraus. „So werden Komponenten wie Motoren, Getriebe und Kupplungen eigene Intelligenzen mitbringen und Eigendiagnosen erstellen.“ Die Mitarbeiter in Produktion und Instandhaltung bekämen damit neue Frühwarnsysteme und Präventionsmöglichkeiten (Matzer o.J.d: 6). Die Analyse des Zusammenspiels von Produkt-, Betriebsmittel-, Logistik-, Infrastruktur- und Prozessdaten gilt für die Analyse, Absicherung und Optimierung der Produktionsprozesse als Schlüssel. Allein im Produktionsumfeld der Fahrzeugelektronik bei Audischätzt man das Datenvolumen auf hundert Terabyte pro Jahr. Insbesondere sind Lösungen nötig, <?page no="156"?> 156 5 Big Data in der Wirtschaft mit denen man Anomalien und Schwachpunkte früh erkennt, um die Produktionsprozesse stabiler, effizienter, transparenter und beherrschbarer zu machen (Bitkom 2017: Lepp). Die Herstellung von täglich knapp zweitausend Audi-Automobilen verlangt binnen 24 Stunden 5,5 Millionen Prüfschritte. Bei 1,8 Millionen Fahrzeugen pro Jahr addiert sich das zu hundert Terabyte Daten. „Kriegsentscheidend“ ist es, dass die Produktion datenoptimiert läuft. Es geht um die richtigen Daten-Architekturen, Werkzeuge, Statistiken und Algorithmen, um Domänenwissen über Zusammenhänge, Interpretationen und Kenngrößen, um Methoden, nämlich Zieldefinitionen, Strategien und Vernetzungen und nicht zuletzt auch um die Menschen, die das alles planen, einrichten und steuern müssen, um ihre Kompetenzen, ihre Arbeitsprozesse, ihre Flexibilität und damit die Bereitschaft, Änderungen hinzunehmen wie auszulösen, um ihre generelle Akzeptanz, nicht mehr in erster Linie Metall zu verarbeiten, wie es die Automobilindustrie seit jeher gewohnt war, sondern eben Daten (ibid.). Zwei hauptsächliche Verfahren kommen dabei wie schon umrissen zum Tragen: das top down- und das bottom up-Verfahren. Im ersten geht es darum, Ziele festzulegen, etwa eine Optimierung des Produktionsablaufs, dann Handlungsfelder zu definieren, etwa anhand von Schwachstellen, dazu Big Data-Lösungen zu entwerfen, also Daten, Algorithmen und eine Infrastruktur auszuwählen, diese zu sammeln und aufzubereiten, besonders Produktionsablaufdaten zu zentralisieren und zu speichern, Daten zur Auswertung mit Metadaten zu verknüpfen und mit anderen Daten abzugleichen, daraus Informationen abzuleiten, also ihre Bedeutung zu verstehen, Zusammenhänge erkennbar zu machen, Konsequenzen vorherzusagen und dazu Befunde in erster Linie zu visualisieren und schließlich diese top down erarbeiteten Ergebnisse zu nutzen und nach ihnen zu handeln (ibid.). Das bottom up-Verfahren läuft umgekehrt. In einem Wust von Daten sucht man nach sinnvollen Nutzungsmöglichkeiten und neuen Ideen. Einer der großen deutschen Automobilhersteller nutzt in seiner Fabrik 30.000 sprudelnde Datenquellen von mehr als hundert technischen Anlagen, um die Güte des Produktionsprozesses vorherzusagen, Schwachstellen möglichst früh zu erkennen und abzustellen und so möglichst kein Rohmaterial und keine Maschinenzeit unproduktiv zu vergeuden (SAP 2016b). Ein Beispiel aus der Fertigung eines großen Automobilzulieferers: Er wollte Werkzeugbrüche beim Honen von Bauteilen möglichst vorhersagen, um sich auf sie einstellen können. Dazu ließ er mit einem Algorithmus Schwingungsdaten in einem 850 Milliarden Datensätze umfassenden Datenraum untersuchen und so bewerten, dass sich Werkzeugbrüche zuverlässig erkennen ließen und ein Vorhersagemodell entstand (Bitkom 2017: Bruns). Das Beratungsunternehmen Experton geht davon aus, dass sich die Material- und Produktionsflüsse weiter optimieren lassen, wenn nahezu alle Eingangsressourcen einzeln lokalisiert und gesteuert werden können: „Das feedback aus den Nachfragemärkten wandert fast in Echtzeit durch die Lieferanten- und Produktionskette und sorgt für eine optimale Steuerung der Fertigung sowie der verbrauchten Materialien und Energieträger“, urteilen die Analysten Carlo Velten und Steve Janata (Fromme 2013) - eine wahrhaft schöne neue Technikwelt. In der Automobilbranche ist das bottom up-Verfahren trotzdem weniger populär - dazu sind die top down-Strukturen zu dominant. Fokus 4: Qualitätssicherung Die Qualitätssicherung ist in vieler Hinsicht datengetrieben. Denn sie muss die Alltagstauglichkeit von Millionen Fahrzeugen sichern und analysieren. Aus diesem weiten Arbeitsfeld greifen wir hier nur ein Schlaglicht heraus: Kommt ein Kunde mit einer Beanstandung zu einem der Händler, gibt der Händler diese Daten in seinen Rechner ein. Jährlich kommen so einige Millionen Meldungen zusammen. Ein Programm erkennt nach automatischen Übersetzungen der Landessprachen, nach dem Abgleich von Begriffen und durch statisti- <?page no="157"?> 5.4 Big Data in der Automobilindustrie 157 sche Analysen, ob sich da im Markt ein Thema aufbaut, das einzugreifen erfordert. Erkennt das System Auffälligkeiten frühzeitig, kann der Autohersteller schneller reagieren. Programmgestützte Analysen verkürzen den Reaktionszeitraum von der Produktauslieferung bis zur Schwachstellenbehebung von früher mehreren Monaten auf jetzt wenige Wochen. Ein solches System hat zum Beispiel das VW Data Lab entwickelt und konzernweit eingeführt. Volkswagen investierte in diesen rollout mehrere Millionen Euro (Roewekamp 2015). Fokus 5: Marketing Marketing ist eines der wesentlichen Big Data-Einsatzgebiete: Analytisches Kunden-Clustering und mehr Kundenwissen aus Fahrdaten, Werkstattdaten und sozialen Netzwerken führen zu besseren Absatzprognosen, zu individuelleren Angeboten und damit zu einer genaueren Produktionsplanung (Stricker 2014: 3). Wieder muss hier ein prototyisches Beispiel für gekonntes Marketing auf Big Data-Basis genügen. Es ist der relaunch der Marke MINI. Dazu stellte das neu aufgebaute Marketing- Team dieser zuvor nur in einer Marktnische erfolgreichen britischen Marke eine Webseite mit weit gefächerten kulturellen Angeboten ins Netz, ohne dass zunächst erkennbar wurde, wer der Absender dieser Webseite war. Sie bot lifestyle-Offerten für junge, urban lebende Erwachsene mit gutem Einkommen, die es sich leisten konnten und wollten, solche Angebote zu nutzen. Wer an Gewinnspielen teilnehmen oder Freikarten erhalten wollte, musste persönliche Daten freigeben, um zum Beispiel an Eintrittskarten und andere Offerten zu kommen. Die Webseite war so attraktiv, dass sich mehrere Millionen Nutzer für sie nicht nur interessierten, sondern sich auch registrierten. So entstand ein nach den Angeboten und deren Nutzung perfekt vorsortiertes Paket möglicher Kundenadressen. Das Marketing-Team konnte es sich leisten, zunächst nur rund zehn Prozent dieses Adressaten-Reservoirs nach einiger Zeit nicht mehr nur über kulturelle und sportliche Veranstaltungen zu informieren, sondern auch über den Start einer neuen, nämlich der eigenen Fahrzeuggeneration. Die Macher konnten davon ausgehen, dass alle angeschriebenen Personen sich ein solches Fahrzeug leisten konnten und dass nicht wenige es auch kaufen würden, wenn es den lifestyle-Versprechen der Webseite entspräche. Der Rest ist bekannt: MINI ist zur eine Art Kultmarke geworden (Kleebinder 2009). Kundendaten tragen ganz generell dazu bei, die Nachfrage besser planen zu können und Lieferzeiten zu verringern. Auch die Ausstattung der Händlerfahrzeuge lässt sich so optimieren. Mit Daten aus dem Vertrieb und der Finanzierung, die in Echtzeit abgerufen werden, lässt sich auch die Preisstrategie für Fahrzeuge deutlich verfeinern (Stricker 2014: 3). Und sogar die Probefahrt ist mittlerweile grundsätzlich per Computer möglich. Dazu dienen sogenannte digital twins, virtuelle Abbilder eines Produkts, Prozesses oder Dienstes (Hensel 2017e). Vor einem Autokauf organisiert ein digitaler Zwilling eine virtuelle Probefahrt per virtual reality. Fokus 6: Conncected Car Ein durchschnittliches neues Audi-Fahrzeug hat 150 Steuergeräte an Bord. Es erzeugt 50 Megabyte Daten pro Fahrzeug. Natürlich war das früher nicht so. 2015 wurde jedoch ein Meilensteinjahr für das vernetzte Automobil. Seither müssen europaweit alle Neuwagen über eCallverfügen. Dieses Notrufsystem für Kraftfahrzeuge meldet per Mobilfunk und GPS einen Unfall automatisch an die Rufnummer 112. Das war der Durchbruch für Telematik im Automobil: 2013 waren erst 18 Prozent der Fahrzeuge mit Telematik-Systemen ausgerüstet, 2016 schon fast die Hälfte, und bis 2020 sollen alle diese Technik enthalten (Stricker 2014: 3). Dann werden in Europa voraussichtlich 90 Millionen vernetzte Autos verkauft. Sie melden sich nicht nur bei Notfällen. Diese Technik liefert dem Hersteller auch <?page no="158"?> 158 5 Big Data in der Wirtschaft regelmäßig Kundendaten über das Fahrverhalten sowie Fahrzeugdaten etwa zum Kraftstoffverbrauch und zum Verschleiß. Gleichzeitig versorgt die Telematik Autofahrer mit Informationen zum Beispiel zu Staus. Sie wirbt auch für eine benzinsparende Fahrweise oder für Dienstleistungen und Werkstätten. Verknüpfungen von Geo- und Handydaten haben in den letzten Jahren die Navigation im Verkehr revolutioniert. Geo-Daten, wie sie Google Maps liefert, verlieren schnell an Wert, wenn man sich nach ihnen richtet und dabei in einen Stau hineinfährt. Smartphones von Autobesitzern senden jedoch, wenn ihre Besitzer das erlauben, ihre Standortdaten regelmäßig an Google. Aus deren Häufung errechnet das Unternehmen, wie schnell diese Mobiltelefone und damit die Autos vorankommen, in denen sie liegen. Auf der Basis von Erfahrungswerten vergangener Jahre sagt das Programm daraufhin präzise voraus, um wie viele Minuten ein noch Kilometer entfernter Stau die Fahrt verzögern wird (Google 2017: 23). IBM hat Ende 2016 gemeinsame Forschungen mit BMW darüber angekündigt, wie cognitive computing das Fahrerlebnis stärker auf das Temperament des einzelnen Fahrers abstimmen kann und wie dazu intuitive Fahrerassistenzsysteme für Autos der Zukunft aussehen und arbeiten sollen (IBM Newsroom 2016). Mit solchen machine learning-Fähigkeiten erkennen und lernen die Autos, welche Präferenzen und Gewohnheiten ihre einzelnen Fahrer haben und unterstützen und beraten sie entsprechend. Das System speichert auch Bedienungsanleitungen mit der Folge, dass der Fahrer dem System auch während der Fahrt in natürlicher Sprache Fragen stellen kann, ohne dabei die Straße aus den Augen zu verlieren. Die neuen Dialogmöglichkeiten steigern mit individuellen Empfehlungen das Fahrerlebnis (ibid.). Das Auto von morgen tut also sehr viel selbst. Es konfiguriert sich, passt sich also automatisch an die persönlichen Präferenzen des Fahrers an - von der persönlichen Sitzeinstellung bis zu Lieblingszielen. Es überwacht sich selbst. Es vernetzt sich mit seiner Umgebung und mit anderen Fahrzeugen. Es lernt, Fahrer und Umwelt besser zu verstehen, und kann deshalb auch fundierte Vorschläge machen. Es fährt schon bald komplett autonom. Und es integriert sich in das Internet der Dinge und teilt unterschiedlichste Daten mit diesem System (IBM Newsroom 2016). Auch Microsoft arbeitet mit dem Automobilzulieferer Bertrandt daran, Fahrzeuge digital zu vernetzen. Die Datenanalyse soll Informationen etwa darüber erzeugen, ob sich irgendwo ein Stau bildet, ob Fahrbahnschäden vorhanden sind und so weiter. Diese Daten sollen an Städte oder Hersteller verkauft werden. „Dumm nur, dass bisher vollkommen ungeklärt ist, wem die Daten, die ein vom Anwender gekauftes und bezahltes Fahrzeug erzeugt, eigentlich gehören“ (Rüdiger 2018). Was sich da anbahnt, wenn Hunderttausende connected cars auf den Straßen fahren, wird ein regelrechter Daten-Tsunami. Dabei werden nach Auskunft der Experten Nolting (Volkswagen) und Neumann (Ultra Tendency) Daten hauptsächlich in drei Bereichen benötigt: erstens bei der Elektrifizierung z. B. zur dynamischen Reichweitenberechnung oder für Karten, zweitens für das autonome Fahren und drittens zur weiteren Optimierung der logistischen Wertschöpfungskette, z. B. um Staugefahren zu erkennen, bevor Staus entstehen (Schumacher 2017). Schon in der Testphase lag die Datenrate pro Fahrzeug bei 350 Megabyte pro Sekunde. Die nächste Fahrzeuggeneration, ausgestattet mit Kameras für das fahrerlose Fahren, wird pro Sekunde zwei Gigabyte Daten zu verarbeiten haben (Bitkom 2017: Pawlik). Um den Verkehr besser zu regeln, wird alsio serhr viel Technik gebraucht. Aber sie muss gasr nichtz einmal massenhaft einbgesetzt weerdern. „Um den Verkehrsfluss zu optimieren, sollten rund zehn Prozent autonome Fahrzeuge ausreichen“ (Rügiger 2018a). Das autonome Automobil dürfte das Land, in dem diese Fahrzeuge fahren, tiefgreifend verändern. Wer hinter dem Steuer abgesehen von dessen Betätigung nicht mehr zur Untätigkeit verdammt ist, kann ohne Zeitverlust seine Büroarbeit zu einem erheblichen Anteil <?page no="159"?> 5.4 Big Data in der Automobilindustrie 159 unterwegs erledigen. Seine Anwesenheit in einem Büro wäre nur noch nötig, wenn es um sozialen Kontakt und um Besprechungen geht, die von Angesicht zu Angesicht laufen sollen. Längere Pendlerwege sind dann kein Problem mehr. Man kann wohnen, wo das Land schön und die Grundstückspreise attraktiv sind. Einen Familienangehörigen zu einem Kurs in gehöriger Entfernung zu schicken, ist keine Last mehr; das Auto findet ja selbst seinen Weg - wenn das Angebot an Straßen dieser zusätzlichen Flexibilität auch entspricht. Der Vorzug, statt des Autos eine Bahn zu nehmen, in der man schon jetzt etwas anderes tun kann, fällt dann in sich zusammen, während die Notwendigkeit bleibt, sich nach deren Fahrplan zu richten. Der sogenannte Modalsplit zwischen privatem und öffentlichem Verkehr könnte sich zu Lasten des öffentlichen drastisch verändern - mit enormen Folgen für die Verkehrsinfrastruktur (Loidold 2017). Viele rechtliche Fragen sind dabei noch offen. So fragt z.B.Herwig, was eigentlich passiert, wenn ein manuell gesteuertes Auto mit einem automatischen Auto kollidiert und der Hersteller der Steuer-Software beweisen kann, dass sein Code keinen Fehler enthält - sind dann automatisch die Menschen schuld? (Herwig, cit. Keese 2014: 276). Und Keese ergänzt: „Sollte manuelles Fahren verboten werden, wenn sich herausstellt, dass automatische Autos sicherer sind? Brauchen Autos, die nachweislich fehlerfrei programmiert sind, noch eine Haftpflichtversicherung? Könnte der Besitzer eines solchen Autos auf dem Klageweg erreichen, dass er aus der Haftpflicht befreit wird, weil sein Wagen bauartbedingt keinen Schaden mehr anrichten kann? Wem gehören die Daten, die ein Auto auf seinem Weg erzeugt - dem Autobesitzer, der Navigationsplattform, dem Hersteller des Wagens oder allen zusammen? Auf alle diese Fragen stehen Antworten noch aus“ (ibid.). Schon gibt es auch Ableitungen für andere Verkehrsteilnehmer, auch für Menschen zu Fuß: Die AppNavCogsammelt über Smartphone-Sensoren Umgebungsdaten. Eine kognitive Technologie wertet sie aus und leitet daraus Informationen über die aktuelle Umgebung ab. Die erhält der Nutzer über die Sprachausgabe in seinen Kopfhörer (IBM o.V. 2015). Mit diesem Dienst können sich nicht nur Ortsfremde orientieren, sondern sogar Blinde. Fokus 7: Connected Customer Autohersteller betreiben mittlerweile tief gestaffelte Portale, in denen sie ihren Kunden während der Fahrt ein Optimum an Zustandsinformationen und Beifahrern ein Maximum an Unterhaltung bieten. Dabei stehen die Hersteller im Wettbewerb mit Internet- und Mobilfunkunternehmen. Nötig sind Kooperationen: Zusammen mit solchen Partnern und mit Dienstleistern erweitern die Autohersteller ihren Fahrerinformationsservice in mehrere mobilitätsrelevante Richtungen. Steigt der Fahrer aus, kann er den Dienst per Smartphone- App weiter nutzen. Die Services lotsen ihn auf Wunsch zur günstigsten Tankstelle, suchen während der Fahrt ein passendes Restaurant oder informieren ihn über geschäftliche Termine und über Schlagzeilen in den Medien (Stricker 2014: 3). Kommt ein Auto in einen Hagelschauer, der den Lack beschädigt und vielleicht sogar Dellen hinterlässt, sinkt der Wert seines Fahrzeugs und der Versicherung entstehen Kosten für Gutachter und Reparaturen. Versicherungen wollen nun eine mobile App anbieten, die Wetterdienste, Standort- und weitere Daten kombiniert. Droht am aktuellen Standort des Autos ein schwerer Hagelschauer, kann die Versicherung das dem Fahrer melden und ihn bitten, das Auto sicher unterzustellen. Das erspart beiden Seiten Aufwand und Kosten. Dazu muss das System alle Daten aus verschiedensten Quellen effektiv miteinander verknüpfen (Bryner 2016). Autos werden zum server von Millionen und Milliarden Informationen weltweit, die nicht nur den Fahrer und seine Mitfahrer informieren, sie unterhalten, sie mit dem Büro oder der Familie verbinden, die ganze Welt des Internets auch an Bord des Fahrzeugs verfügbar <?page no="160"?> 160 5 Big Data in der Wirtschaft halten, sondern zugleich auch viel über denjenigen aussagen, der da fährt (Morgenroth 2014: 76, vgl. auch SZ 11.01.2014: 23). Über den Daten-Input ins Fahrzeug regt sich kaum jemand auf; diesen Daten-Output dagegen kann man sehr kritisch betrachten: „Die Technologie verwandelt jedes Auto in einen fahrenden Spion“ (Morgenroth 2014: 77). „Würden Sie wollen, dass bekannt ist, wie oft Sie zum Arzt fahren? “ (ibid.: 78). Natürlich hat auch eine solche Technologie Nach- und Vorteile: Britische Autoversicherer bieten ihren Kunden schon seit einiger Zeit günstigere Tarife an, wenn sie in ihrem Auto eine Telematik- Box installieren, die den Versicherer mit Daten über das Fahrverhalten versorgt (ibid.: 79). Wenn Sie das für harmlos halten, sollten Sie folgende Geschichte sorgfältig bedenken: DriveNow heißt der BMW-Dienst für individuelle Stadtmobilität, zu gut deutsch für Mietwagen. Wenn dort jemand einen Wagen ordert, speichert das System die Handynummer des Fahrers sowie den Start und Endpunkt der Fahrt, aber nicht die Wegstrecke. Angaben zum Bewegungsprofil lassen sich aus diesen Daten also nicht unmittelbar ableiten. Das Unternehmen verfügt dennoch über Daten zum Fahrtverlauf. Nach Angaben von Netzpolitik.org zeichnet BMW diese Daten ohne Personenbezug auf. Erst die Identifikation des Fahrers über DriveNow und die Verknüpfung beider Datenstränge führt zu einem persönlichen Profil. Stefan Fritz, der Geschäftsführer von synaix, nennt dieses BMW-Verfahren „schlimmer als bei Google oder Facebook“. Denn bei Anbietern wie Facebookund Google entstehe zum einen mit der Dienstnutzung ein Vertragsverhältnis und zum anderen bezahle man mit seinen Daten für einen Nutzen, denn man in Anspruch nehme. Bei BMW kaufe man ein Produkt, der Hersteller wälze alle Risiken zur Instandhaltung, Nutzung, Auslastung und Wartung auf den Käufer ab und die Maschine spähe ihn in asymmetrischer Form aus, ohne dass er als Käufer am Nutzen in irgendeiner Form partizipieren könne (Fritz 2016). Diese Datenabschöpfung durch BMW wurde bekannt, weil ein DriveNow-Mieter einen Radfahrer überfahren hatte. Über die Firmendaten kam ihm ein Gericht auf die Spur. Die Verkehrsanwältin Daniela Mielchen hat lange vor diesem Ereignis vom „Auto als Zeugen der Anklage“ gesprochen (Morgenroth 2014: 81) und gefragt: „Wem gehören die Daten, die das Auto sammelt? Dem Autohersteller? Dem Staat? Oder doch dem Fahrer? Darf der Fahrer nach dem Unfall Daten zurückhalten, die ihn belasten könnten? “ Eine klare Antwort steht ebenfalls noch weitgehend aus. Bei Apple funktioniert die Kopplung von Käufer- und Nutzerdaten etwas anders: Im Preis von Apple Smartphones und Tablets ist die Nutzung einiger Services wie Mail, Fotosync oder von Technik zur Synchronisation von bookmarks über mehrere Apple-Geräte hinweg inklusive. Mit der Nutzung dieser Dienste entsteht aber ein separates Vertragsverhältnis. Fokus 8: Diagnose und Wartung „Im gesamten Jahr 2011 hatte BMW erst rund 20 Gigabyte Informationen für den Fahrbetrieb seiner Automobile zu verarbeiten, 2014 schon 30 Gigabyte technische Daten täglich", sagteAxel Deicke, der Geschäftsführer von Auto Service Engineering bei BMW (Stricker 2014). Verantwortlich sind dafür nicht nur Telematiksysteme, sondern eine Vielzahl an Computerchips und Elektrokomponenten im Automobil. Fast jedes Einzelteil ist ein kleiner Rechner für Daten zum Fahrzeugeinsatz, zum Verschleiß oder zu Fehlern. Was Fahrzeugentwickler und der Kundenservice auswerten, sind Big Data. Diese Daten fließen aus vielen Quellen, zum Beispiel aus den schon erwähnten RFID- Tags, die mit einem Impulsgeber am oder im überwachten Gerät und einem Lesegerät irgendwo anders Signale aus Leiterplatten rückverfolgbar machen. Diese Sender-Empfänger-Systeme identifizieren und lokalisieren Objekte automatisch und berührungslos mittels Radiowellen. Sie können so klein wie ein Reiskorn sein und lassen sich als stabile <?page no="161"?> 5.4 Big Data in der Automobilindustrie 161 Schaltungen aus Polymeren drucken. Schon 2011 wurden weltweit rund 30 Milliarden von ihnen hergestellt und verbaut, viele in Automobilen. Außerdem wurden für Autos über hundert Millionen GPS-Router verkauft. Die Datenflut dieser Geräte und der Telematiksysteme muss möglichst in Echtzeit verarbeitet werden, schon weil nur so Notfälle beherrschbar sind. Informationen in Form von Sprache, wie sie bei Notrufsystemen oder Kundengesprächen entstehen, sind da zu langsam. Der Watson-Rechner von IBM, der wohl leistungsstärkste der Welt, der in drei Sekunden 200 Millionen Seiten Dokumente durchsucht und analysiert, kann auch polystrukturierte Daten verarbeiten, wie sie im natürlichen Sprachgebrauch vorkommen. Dass IBM hier in der ersten Liga spielt, kann man erwarten: 2011 gewann das Computersystem in der US-Quizshow Jeopardy! haushoch gegen die bis dahin besten Teilnehmer. Das hat „mittlerweile ähnlich mythischen Charakter wie einst der Sieg von Deep Blue gegen Garri Kasparow“ (Schmidt 2017). IBM hat unter dem Markennamen Watson verschiedene Technologien zusammengeführt, die Unternehmen kognitiv steuern. Zu ihnen gehört die Analyse unstrukturierter Informationen wie beim Verstehen der Sprache - eine Aufgabe „mit besonders hoher Faszination“ (ibid.). Inzwischen versteht Watson sogar indirekte, nur aus dem Zusammenhang erschließbare, unscharfe Angaben und berechnet aus Hypothesen und Wahrscheinlichkeiten trotzdem Antworten, die er wieder als Sprache ausgibt. In japanischen Hotels gibt es schon seit 2015 Roboter-check-ins mit natürlichem Sprachdialog (Nimführ 2016). Das dortige Henn-na-Hotel - wörtlich übersetzt das 'seltsame Hotel' - steht in einem Freizeitpark bei Nagasaki. „An der Rezeption sitzt eine japanisch aussehende Roboter-Dame neben einem raptorenähnlichen Dinosaurier wie aus Jurassic Park, der zwar gruselig wirkt, aber Besucher ebenso höflich begrüßt wie die Androidin nebenan. Anstelle von Schlüsseln setzt das Hotel auf Gesichtserkennung Automatisch fahrende Wägelchen bringen die Koffer aufs Zimmer und kleine Sprechpuppen stehen für alle möglichen Dienstleistungen wie etwa den Weckdienst zur Verfügung. Nach Angaben des Hotelmanagers sollen diese innovativen Gimmicks nicht nur Gäste anlocken, sondern auch helfen, die Übernachtungskosten deutlich zu senken“ (Eberl 2016: 31). Sprachein- und ausgaben sind vorhersehbar „das nächste große Ding der Techwelt, vergleichbar mit der Einführung des Smartphones vor zehn Jahren (Rosenbach 2017: 63). Spracheingaben sind etwa dreimal schneller als Texteingaben und auch viel einfacher als das Eintippen der Daten von Hand. Man braucht nur eine Lautsprecherbox mit Mikrofonen. Was sie aufnehmen, schickt die Box in die cloud. Dort wird sie zu digitalem Text. Algorithmen leiten aus ihm Annahmen über den Kontext des Gesprochenen und die Absicht des Sprechers ab und erarbeiten dann eine Antwort, die als text to speech ausgegeben (ibid.: 64). Das ist erst der Anfang. Schon gibt es mehr als zehntausend Anwendungsprogramme, in Deutschland einige hundert: Nahverkehrsgesellschaften wie die Berliner BVG erläutern die schnellste Verbindung, Lieferdienste bringen Pizza, Medien fassen ihre Inhalte zusammen, Kinos berichten über ihr Programm und Sportvereine über die aktuelle Mannschaftsaufstellung und über Spiele (ibid.: 63). Das kommt an: In den USA dürften bereits über zehn Millionen hörende und sprechende Geräte verkauft worden sein. Der Las Vegas-Hotelier Steve Wynn ließ alle 4748 Zimmer seiner Hoteltürme in der Wüstenstadt mit ihnen ausrüsten. Kritische Stimmen hört man noch nicht häufig, aber es gibt sie: „Hochempfindliche Mikrofone in der eigenen Wohnung kann man durchaus auch als freiwillige Totalverwanzung sehen, als Einladung zum großen Lauschangriff (ibid.: 64). Der schon erwähnte geniale britische Logiker, Mathematiker und Kryptoanalytiker Alan Turing war überzeugt, Computer seien „vielleicht mit dem primären Ziel geschaffen worden, die menschliche Sprache zu entschlüsseln“ (Kittler 2008). Aber etwas auszusprechen allein bewirkt noch nichts. Kittler wies darauf hin, dass es „kein Wort in einer gewöhn- <?page no="162"?> 162 5 Big Data in der Wirtschaft lichen Sprache gibt, das tut, was es sagt“ (Kittler 1999). Keine Beschreibung einer Maschine setzt sie auch in Bewegung. „Tatsächlich ist die Ausführbarkeit des digitalen Codes nicht mit der Performativität der menschlichen Sprache zu verwechseln“, warnt deshalb Cramer (2008). Codes seien dazu da, „Bedeutung in Handlung zu übersetzen“, (Galloway 2004). Bisher fehlt jedoch eine mit einer maschinellen Ontologie übereinstimmende Definition solcher Codes (Pasquinelli 2014: 326). Zurück zu Watson: 2016 hat sich die Zahl der Entwickler, die mit Watson APIs arbeiten, mehr als verdreifacht. Watson arbeitet mit 50 verschiedenen kognitiven Technologien, um Bilder, Texte und andere Datenformate verarbeiten zu können. Seine Fähigkeiten werden laut IBM bereits in über 45 Ländern und 20 verschiedenen Branchen genutzt. Watson konnte bereits Krankheiten identifizieren, die Ärzte noch gar nicht erkannt hatten (Henssler 2018). Das System wertet Versuchsdaten aus und assistiert Werkstätten bei Diagnose- und Wartungsarbeiten. In den USA hat Watson schon vor einigen Jahren 210.000 frei formulierte, unstrukturierte Fehlerberichte der National Highway Traffic Safety Administration (NHTSA) analysiert. Relativ häufig kam dort das Wort Vorderradaufhängungen vor. Das System konnte den Fehler eingrenzen, Entwickler und Werkstätten konnten den Schwachpunkt beheben. Ende 2017, so schätzt IBM, werden eine Milliarde Menschen auf der Welt Kontakt mit Watson haben, zweihundert Millionen als Konsumenten, ebenso viele als Patienten (Schonschek 2017). Die Raffinesse dieser auf Massendatenverarbeitung beruhenden Technik hat weitreichende Folgen. Die kombinierte Auswertung zum Beispiel von Werkstatt- und Fahrzeugdaten ermöglicht bedarfsgerechtere Fahrzeugkonzepte, verbessert die Kundenbetreuung, die Werkstattauslastungen und führt letztendlich zu zufriedeneren Kunden. Ein fundiertes Verständnis der Fehlerhäufigkeiten und -quellen führt zu Alarmsystemen für Problemfelder, zu besseren Kulanzregelungen und bedarfsgerechteren after sales services. Problemfahrzeuge, sogenannte „Montagsautos“, lassen sich gezielt identifizieren und betreuen und Rückrufe nach ihrer Dringlichkeit staffeln, die sich aus dem Fahrprofil ableiten lässt (Stricker 2014: 3). Nutzungsprofile können auch auf überkomplizierte Technik oder Nachbesserungsbedarf hinweisen und die künftige Wartungsintensität abschätzen lassen. Das Auto- Leasing, das Flottenmanagement, das Vermieten und das car sharing lassen sich anhand der tatsächlichen Nutzung berechnen statt nur nach der Kilometerleistung (Stricker 2014: 3). Um Produktfehler zügiger orten zu können, gibt es schon seit einigen Jahren einen Abgleich der Millionen von Diagnosedaten, die in Vertragswerkstätten weltweit täglich anfallen. Sie sind bares Geld wert: Welche Werkstätten haben mit welchem Modell ähnliche Erfahrungen gemacht? Zu welcher Lösung sind sie gekommen? Mit diesen Informationen lassen sich die Ursachen eines Defekts schneller eingrenzen. Die betroffenen Kunden bekommen schneller Hilfe (Fromme 2013). Keine Vision mehr sind Fahrzeuge, die sich selbst diagnostizieren und bedarfsorientiert Werkstatttermine vereinbaren. Fokus 9: Teiledienst VW hat in Kassel auf einer Million Quadratmeter ein Zentralteilelager für 500.000 verschiedene Teile. Der Teilevorrat muss auch den 15-Jahres-Bedarf nach dem Produktionsende abdecken. Diesen Bedarf muss der Hersteller vorab abschätzen und entsprechend vorausproduzieren. Das geschieht bisher anhand von Erfahrung. Mit Big Data-Technologien wurden nun mehr als drei Millionen Teilebestellungen seit 1996 analysiert. Die Daten dazu waren dezentral abgelegt und ließen sich nicht einfach bündeln. Besonderes Augenmerk lag auf Teilen, deren 15-jährige Nachliefergarantie bereits abgelaufen war. Daraus leitete VW ab, was das für jüngere Teile bedeutet. Je nach der Häufigkeit, in der solche Teile geordert worden waren, stellten sich vier typische Verlaufskurven heraus. Daraus ließ sich ableiten, wie stark unterschiedlichste Teile zu bevorraten sind, deren Produktionszeit auslaufen soll. <?page no="163"?> 5.4 Big Data in der Automobilindustrie 163 Mit lernenden Programmen lassen sich Abweichungen von Soll und Ist nun immer besser angleichen. In 70 Prozent der Fälle sind diese Hochrechnungen mittlerweile so gut oder besser als die traditionellen händischen (Bitkom 2017: Compostela). Fokus 10: Kundenbindung Auch wenn sich Autos der verschiedenen Hersteller - schon wegen der rigiden Sicherheits- und Umweltvorschriften, nach denen alle konstruiert werden müssen - technisch ähnlicher werden, sollen sie sich für den Kunden klar unterscheiden, und das immer mehr. Dazu müssen die Hersteller über Kundenbetreuung und Services ein immer variantenreicheres Markenerlebnis anbieten können. Big Data-Analysen geben dazu wesentliche Anstöße. Weder muss ein Stichwort genügen: Die neuen digitalen Dienste machen neben dem Qualitätserlebnis im Fahrzeug, dem Fahrerlebnis und dem Kundendienst einen immer wesentlicheren Teil des Markenerlebnisses aus. Entsprechend müssen sie gestaltet sein: herausfordernd und sportlich oder edel und komfortabel oder einfach praktisch und wertorientiert - zugeschnitten auf die jeweiligen Markenwerte. Fokus 11: Weiterverkauf mobile.de ist mit über 1,4 Millionen Fahrzeugen und mehr als 40 Millionen Web-Besuchen täglich Deutschlands größter Fahrzeugmarkt. Das sind 5.000 bis 10.000 Kontakte pro Sekunde, in der Mehrzahl über Mobiltelefon. - eine Datenrate von etwa zehn Megaybyte pro Sekunde. Webseiten ähnlicher Größenordnung sind Spiegel online, BILD.de, wetter.com und Wikipedia. Die Nutzerfreundlichkeit dieser Autobörse und der schnelle Verkaufserfolg für die Anbieter sind deren Kundenversprechen. Mehrwert-Dienste müssen das stetig beweisen. Getreu dieser Strategie hat mobile.de gemeinsam mit inovex für die Beurteilung von Angebotspreisen („market prices“) und für individuelle Fahrzeugempfehlungen Systeme entwickelt. Ein Algorithmus berechnet aus den mehr als zehntausend Fahrzeugen, die Autobesitzer dort täglich neu anbieten, die attraktivsten Offerten. Diese liefern eine neutrale, datengetriebene Basis für Preisempfehlungen an die Käufer. Technische Grundlage dafür ist eine Big Data-Plattform für die Angebots- und web traffic-Daten. Der tatsächliche Preis schwankt in der Hälfte aller Fälle nur noch um rund zehn Prozent gegenüber dem Angebotspreis. Das Programm verarbeitet Datenströme fehlertolerant. Datenanalysen ebenso wie Ideen von Produktmanagern, von data scientists und von data engineers entwickelt das System selbstständig weiter (Bitkom 2017: Eckart). 2020 sollen weltweit mit Dienstleistungen rund um das vernetzte Auto hundert Milliarden Euro umgesetzt werden (Voss 2018). Bis 2025 will allein VW mit Diensten rund ums vernetzte Auto rund eine Milliarde Euro Umsatz pro Jahr machen (ibid.). Aber „die Apps der Autohersteller sind Datenschnüffler“, schrieb „Stiftung Warentest“ bei einem Test 2017. Der Datenschutz bleibe bei allen Herstellern mehr oder weniger auf der Strecke. Alle Apps sendeten mehr Daten als Automobilen je nach dem Zweck der Datenerhebung und einer vertraglichen Regelung oder Einwilligung entstehen, sofern diese Daten mit dem Fahrzeug oder dessen Kennzeichen verknüpft werden. Zu solchen Daten, die ein Hersteller erhebt und speichert, hat der Betroffene ein unentgeltliches Auskunftsrecht. Zudem muss die Borddokumentation der Autos über die wichtigsten Fragen zur Datenverarbeitung informieren (Voss 2018). 96 Prozent der deutschen Autofahrer würden die Kommunikation deshalb lieber ganz abschalten (ibid.). Dabei hatten sich die deutschen Datenschutzbehörden in Bund und Ländern und der Verband der Automobilindustrie 2016 auf den Umgang mit personenbezogenen Daten geeinigt. <?page no="164"?> 164 5 Big Data in der Wirtschaft 5 5..55 BBiigg DDa at taa iinn dde er r PPrrooz ze es sssiinnddu ussttr riie e Blicken wir auf einen anderen Industriezweig, die Prozessindustrie. Von ihr spricht man als Sammelbegriff beim Umgang mit hochsensiblen, teilweise umwelt- und gesundheitsgefährdenden Energien, Flüssigkeiten und Gasen. Industrielle Kerne dieser Branchen sind Raffinerien, Großanlagen der Chemieindustrie, aber auch Kernkraftwerke. In einer Raffinerie entstehen jährlich 300 Megabyte Messwerte und sogar 400 Megabyte sogenannter Alarmdaten im Fall von Regelabweichungen. Etwa 66.000 Sensoren sind dazu in jeder Raffinerie im Einsatz. Tausende von ihnen liefern Daten im Minutentakt, allerdings in unterschiedlicher Zuordnung; sie zeichnen Fließgeschwindigkeiten auf, Füllhöhen, die chemische Zusammensetzung von Flüssigkeiten und Gasen, deren Temperaturen, wechselnde Drücke, wechselnde Auslastungen der einzelnen Segmente in der gesamten Anlage und vieles mehr. Die Durchforstung dieses Datendschungels ergab, dass man den Betrieb mit „nur“ 104 Schlüsseldaten steuern konnte und dass das System für die überwachenden Experten nur 13 stetig verfügbar zu halten brauchte. Automatisch angezeigt wird lediglich das Signal mit der höchsten Abweichung von der Norm. Weitere wichtige Messwerte stehen auf Abruf bereit (Bitkom 2017: Weiss). Wenn keine Störung auftritt, laufen solche Anlagen weitgehend vollautomatisch. Tritt eine Störung ein oder droht sie auch nur, können die Folgen allerdings groß sein. Ungeplante Anlagenstopps sind noch das kleinere Übel. Ihnen folgen nicht selten zeit- und kostenintensive Wartungs- und Reinigungsarbeiten. Schon deshalb wollen die Anlagenbetreiber Zwischenfälle so selten wie möglich erleben. Umso weniger können sie riskieren, dass Kernbrennstoffe, Flüssigkeiten oder Gase in die Umwelt austreten. Manche dieser Anlagen wie etwa die von BASF in Ludwigshafen liegen in Städten, manche Kernkraftwerke wie etwa das im bayerischen Ohu in Blickentfernung zu einer Stadt wie in diesem Fall Landshut. Was Anlagenbetreiber tun, damit es gar nicht erst zu Störfällen kommt, ähnelt der Vorgehensweise der Automobilindustrie: Smart Data beziehungsweise die Analyse der sekündlich generierten Datenmengen machen es möglich, den Verschleiß einzelner Bauteile wie etwa den von Ventilen vorherzusagen. Die Anlagenbetreiber justieren dann die Taktung der Prozessanlagen, optimieren deren Laufzeiten und planen Wartungsstillstände frühzeitig ein. In Energienetzen erzeugt eine performance asset maintenance ein datenbasiertes und damit verlässlicheres Fundament. Das ist besonders bei Windkraftanlagen auf hoher See oder in Gasrohrnetzen wichtig EineWindturbine liefert pro Tag rund 200 Gigabyte an Daten (Eberl 2016: 223). Gelingt es, „auch nur ein Prozent mehr Leistung herauszukitzeln, entspricht das bereits einer zusätzlichen Turbine von fünf Megawatt Leistung und Millionen von Euro an Kosteneinsparungen“ (ibid.).Viele dieser Anlagen kann man nicht so einfach überwachen. Denn immer öfter stehen sie an klimatischen Extremstandorten, an denen es besonders häufig stürmt, nicht selten mitten im Wald oder mitten im Meer. Sie zu warten ist besonders schwierig. Ähnlich wie bei anderen technischen Prozessen mit rotierenden Teilen und verschleißenden Komponenten wollen Energieerzeuger aber auch dort wissen, ob, wo, wann und wie Komponenten mit gewisser Wahrscheinlichkeit ausfallen werden. Eine frühzeitige Fehlererkennung (predictive maintenance) sorgt mit Methoden der Korrelationsanalyse, also mit smart analytics, für geringere Stillstandszeiten und geringere Instandsetzungskosten. Windkraftanlagen haben deshalb Ferndiagnose- und Fernsteuermöglichkeiten, die eine Vielzahl Daten erheben. Unstimmigkeiten, die auf frühzeitige Schäden hinweisen, fallen so rechtzeitig auf. Siemens beobachtet in seinen Fernwartungszentren etwa 300.000 Maschinen und Anlagen unterschiedlichster Art und sichert deren Betriebsqualität. So erreicht der Velaro, die spanische ICE-Version, 99,9 Prozent Zuverlässigkeit. Bei mehr als 15 Minuten Verspätung erstattet der Zugbetreiber Renfe den vollen Fahrpreis. Bei 2300 Fahrten war das bisher nur einmal nötig (ibid.). <?page no="165"?> 5.5 Big Data in der Prozessindustrie 165 Das ist - zusammen mit anderen Aspekten - die Erzeugerseite. Zum Gesamtbild gehört aber auch die Versorgungssicherheit für die Verbraucher. In Deutschland ist Energie besonders sicher verfügbar; die Wahrscheinlichkeit von Netzausfällen ist die niedrigste in ganz Europa. Also haben die Energienetze in Deutschland bereits einen sehr hohen Qualitätsstandard. Versorgungsunterbrechungen liegen im Mittel deutlich unter zehn Minuten pro Jahr. Zur Aufzeichnung solcher Unterbrechungen dienen Verfügbarkeitsindizes mit englischen Namen wie System Average Interruption Duration Index (SAIDI), System Average Interruption Frequency Index (SAIFI) und Customer Average Interruption Duration Index (CAIDI). Mit exakt nach dem momentanen Energieverbrauch zu steuernden smart grids im Energiesektor wird auch dort die Störungsprognose noch wichtiger werden. Eine Energie-Studie des TÜV Rheinland analysierte 47 Anlagen mit gemeinsam genutzten Kommunikationsinfrastrukturen weltweit (Iglhaut 2017). Sie ergab, „dass Kooperationen zwischen Energie- und Telekommunikationssektor nur schleppend zustande kommen. Der Aufbau von Vertrauen und gegenseitigem Verständnis in beiden Branchen ist noch stark ausbaufähig“ (ibid.). Bedenkenträger prägen derzeit also das Bild; aber es zeigt auch, „dass ein Austausch und eine Zusammenarbeit beider Sektoren (Energie und Telekommunikation) wünschenswert und für die digitale Zukunft der EU dringend erforderlich sind“ (ibid.). Auch netzseitig steigt der Bedarf an Zustandsdaten aus dem Übertragungs- und besonders aus dem Verteilnetz. Die Energiewende belastet das zweite dieser Netze, weil es zusätzlich zu Strom aus Kraftwerken auch den aus Photovoltaikanlagen auf Hausdächern, ebenerdigen Solaranlagen und Windturbinen transportieren muss. Dazu sind qualitativ hochwertige Daten nicht nur hilfreich, sondern unbedingt nötig. Eine automatisierte, regelmäßige Speicherung dieser Indizes zusammen mit anderen Daten nützt den Netzbetreibern enorm. Sie verknüpfen zum Beispiel technische Netzdaten mit nichttechnischen Umgebungsdaten und errechnen daraus Verbrauchsmengen bei Kunden und den Anteil erneuerbarer Energien (Plattform 2015). Wenn wir schon von Kunden sprechen: Wie die Automobilindustrie muss natürlich auch die Prozessindustrie ihre Produkte verkaufen. Nun gleicht zwar heutzutage kein Automobil, das an einem beliebigen Tag vom Band eines Herstellers läuft, dem anderen. Jedes wird nach Kundenwunsch produziert und unterscheidet sich deshalb vom vorherigen und vom nächsten. In der Prozessindustrie ist die Orientierung an Kundenwünschen aber ein noch relativ junger Gedanke. Informationen zum momentanen Energieverbrauch sind noch nicht selbstverständlich und Energieeffizienzmaßnahmen noch keineswegs Standard. Energielieferenten wollen und müssen jedoch stärker auf Bedürfnisse ihrer Kunden eingehen und ihnen das passende Energieprodukt quasi maßgeschneidert anbieten. Stadtwerke müssen bei ihren Investitionen gezielt lokale Trends berücksichtigen: Wo nimmt die regenerative Energiereinspeisung zu? Wie schnell setzen sich in ihrem Umfeld Elektrofahrzeuge durch? Was bedeutet das smart home mit seiner Automationstechnik für dynamische Tarife im Energiesektor? Viele Stadtwerke haben dazu viele Daten, entnehmen ihnen bisher aber kaum solche Informationen. Also geht es darum, diese Daten mit vielen weiteren Quellen zu verknüpfen, um eine stabile Entscheidungsgrundlage zu schaffen (BMWi 2016: 29). Im Vertriebsebenso wie im Technikbereich können Stadtwerke und andere Energielieferanten dazu auf eine Vielzahl von Daten zurückgreifen, die entweder aus Rechnungen oder aus der Anlagenüberwachung stammen. Sie lassen sich organisatorisch auch für andere Zwecke verwenden, wenn ihre Qualität stimmt, zum Beispiel ihre Granularität - die Daten müssen sich einzelnen Nutzungen fein genug zuordnen lassen - aber nur, wenn keine wesentlichen datenschutzrechtlichen Einwände dagegen sprechen. Das ist jedoch oft der Fall. Netzbetreiber dürfen ihre Kundendaten über die üblichen Abrechnungszwecke hinaus nämlich nur mit Zustimmung der Kunden nutzen. Anders ist das nur bei anonymisierten <?page no="166"?> 166 5 Big Data in der Wirtschaft Daten. Grundsätzlich sollten Kunden bei der Verwendung ihrer Daten mitreden können. Dazu müssen sie für sich einen Mehrwert erkennen. Nur dann werden sie auch zustimmen, Daten zu mehr zu verwenden als nur zu Rechnungen. Energienetz-Steuerungsdaten unterliegen in einem hohen Schutz. Sie müssen so sicher sein, dass sie nicht von Angreifern manipuliert oder an Dritte weitergegeben werden können. Um das Risiko eines Angriffs auf Datenbestände möglichst klein zu halten, trennen die Betreiber die operativen Versorgungsnetzdaten (OT-Netz) vom IT-Netz. Verteilen sie Energie über nationale Grenzen hinweg, wird das kompliziert. Denn dann fällt eine Vielzahl von Daten aus dem nationalen Rahmen. Diese Daten müssen dann internationalen Normen entsprechen. Verteilnetzbetreiber müssen also auch Datenmanager sein. Big Data bieten auch in der Energiewirtschaft große Chancen, um Prozesse weiter zu verbessern (vgl. Doleski 2017). Doch die Risiken sind ebenfalls groß. Ein fehlerhaftes oder ein für den ausgewählten Prozess unpassendes Analyse-Tool oder fehlerhafte Modellannahmen führen zu einem falschen Modellansatz und ergeben unbrauchbare Informationen. Stimmen zwar die Daten, aber werden sie falsch interpretiert, ist das Ergebnis ebenfalls kontraproduktiv. Man sollte Datenrisiken deshalb zwar nicht überbewerten, aber man darf sich auch nicht unterschätzen. Und wissen muss man auch: Netzbetreibern ist es nur erlaubt, Daten diskriminierungsfrei zur Verfügung zu stellen, das heißt: Benutzt der eigene Vertrieb bestimmte Daten, muss der Netzbetreiber sie auch jedem anderen Vertrieb zu den gleichen finanziellen Bedingungen zugänglich machen. Daher lässt im Energiehandel in Deutschland mit Daten kein Geld verdienen (ibid.). 5 5..66 BBiigg DDa attaa i imm HHaannddeell Handel und Wandel gehören so eng zusammen wie die zwei Seiten einer Medaille: Wer etwas kaufen will, muss seit Jahrhunderten entweder in ein Geschäft gehen oder warten, bis ein „fliegender“ Händler ihm etwas bringt. Das begann sich zu ändern, als Aristide Boucicaut den Parisern den ersten Versandkatalog vorstellte. Das war 1856. Bald danach belieferte er ganz Frankreich. In den USA führte Aaron M. Ward 1872 den Versandhandel ein. Richard Warren Sears folgte ihm 1888 mit seinem Bestellkatalog. In Deutschland legte Ernst Mey 1886 einen ersten solchen Katalog auf. Zwei Jahre danach gründete August Stukenbrok in Einbeck einen Versandhandel nur für Fahrräder. Nach dem Ersten Weltkrieg wurde der Versandhandel populär, etliche Versandhäuser entstanden: 1925 die Firmen Baur in Burgkunstadt und 1926 Klingel sowie Wenz in Pforzheim, ein Jahr später Quelle in Fürth und nochmals zwei Jahre darauf Schöpflin in Lörrach und Bader in Pforzheim, 190 Grundig sowie 1932 N.Israelin Berlin. Nach dem Zweiten Weltkrieg begann eine zweite Gründungswelle mit dem Südwest Versand in Ulm 1948, dem Otto-Versand in Hamburg 1949, dem Neckermann-Versand in Frankfurt/ Main 1950 und dem Schwab-Versand in Hanau 1955. In den 1960er Jahren brachte es diese Branche aber nur auf rund fünf Prozent des Einzelhandelsumsatzes. Marktführend blieb neben einigen kleineren Otto. Dessen Versandhandel lief lange recht komfortabel. Otto-Kataloge lagen, wenn sie nicht sofort entsorgt wurden, in Wohnungen herum und wurden dort wieder und wieder gesehen. Das Sortiment war klar und die Preise blieben bis zur nächsten Katalogauflage konstant. Kundenbindung war kein Problem: Wer bestellte, tat das mit vollem Namen und voller Adresse. Aber das blieb nicht so. Das Internet verdrängte die Katalogversender vom Markt. Heute versammeln sich die Menschen nicht mehr um das „Lagerfeuer“ eines telefonbuchstarken Katalogs auf dem Wohnzimmertisch, ja nicht einmal mehr vor dem Fernseh- <?page no="167"?> 5.6 Big Data im Handel 167 gerät, und sie gehen auch weniger shoppen, denn suchen und kaufen online. Dazu erlebt die out of home-Werbung auf Plakatwänden und an Haltestellen gerade eine Renaissance. Denn im öffentlichen Raum können Menschen dieser Werbung kaum ausweichen. Im Übrigen aber müssen sie individuell angesprochen werden. Da jeder ein eigenes Kommunikationsgerät benutzt, meistens ein Smartphone, muss die Ansprache individualisiert sein. 2016 managten mobile digitale Assistenten in den USA online-Käufe für über zwei Milliarden Dollar. 2017 hing schon mehr as die Hälfte aller Investitionen in Produkte für Verbraucher davon ab, wie diese auf frühere Angebote reagiert hatten - künstliche Intelligenz wertete diese Angaben aus. 2018 sollen KI-Dienstleistungen über mobile Geräte die Größenordnung von 30 Milliarden Dollar erreichen. 2019 erwartet man im weltweiten content marketing für KI-Anwendungen bereits eine Größenordnung von 300 Milliarden Dollar. Und 2020 sollen wissensbasierte Systeme schon 60 Prozent aller Marktbewegungen erkennen, verstehen und empfehlen. Der online-Einzelhandel soll bis dahin allein in den USA ca. 500 Milliarden Dollar umsetzen und der Weltmarkt für das cognitive computing, für intelligente Maschinen (nicht eingerechnet ihre Anwendungen), dann schon allein mehr als 200 Milliarden Dollar groß sein (Bitkom 2017: Metze). Die Otto Group führt 123 Unternehmen, rund einhundert von ihnen online. Sie hat auf ihren diversen Onlineportalen 30 Millionen deutschsprachige unique users pro Tag. Das ist ein enormer Datenpool. In ihm geht es darum, die Nutzer zu verstehen und ihnen Angebote zu machen, die sie interessieren. E-Commerce und neue Werbekonzepte spielen dabei zusammen. Beide setzen auf Personalisierung. Zwar kauft nur eine relativ kleine Minderheit der Online-Interessenten tatsächlich auch. Aber das sind ausreichend viele. Trotzdem bleibt ein Problem: In den großformatigen Seiten von Katalogen haben die Menschen noch geblättert. Das Format von Laptops und Tablets bis hin zu Smartphones und bald zur smart watch ist aber immer kleiner geworden. Die Vielzahl der Produkte kann auf Smartphonesgar nicht mehr dargestellt werden. Und die Aufmerksamkeitsgrenze liegt auf Smartphones nur etwa bei acht Sekunden; Botschaften, die in dieser Frist nicht ankommen, gehen verloren. Wenn Google home sich durchsetzt, gibt es gar keine Bildschirme mehr, weil über Sprache kommuniziert wird. So könnte die Aufmerksamkeitsspanne noch geringer ausfallen. Im Branchenjargon heißt es: „Kunden in der attention economy zu erreichen, wird immer schwieriger. Erfolgreich ist nur, wer auf datenbasierte Kundenbeziehungen setzt“ (Bitkom 2017: Zeplin). Die Lösung heißt: Nicht der Kunde sucht nach Angeboten, die Angebote müssen vielmehr den individuellen Kunden suchen und finden (Stampfl 2013: 28). Deshalb muss der Handel über geeignete Kanäle einzelne Kundenzielgruppen direkt und in ihren communities passgenau erreichen. Dazu braucht er deren Daten. In Online-Shops hinterlassen Kunden schon viele Spuren. Firmen wie Otto möchten aber am liebsten alle geheimen Wünsche und Sehnsüchte ihrer Kunden kennen, um ihnen besonders passgenaue Angebote machen zu können. Facebooklikes geben Hinweise auf solche Vorlieben. Der frühere polnische Cambridge- Doktorand Michal Kosinski hat für die Nutzung von Big Data eine Software entwickelt, die mit zehn Facebook-likes eine Person bereits besser einschätzen kann als ein durchschnittlicher Arbeitskollege. 70 likes reichen aus, um die Menschenkenntnis eines Freundes zu überbieten, 150 um die der Eltern zu übertreffen, und mit 300 likes kann die Maschine das Verhalten einer Person genauer vorhersagen als deren Partner. Mit noch mehr likes lässt sich ausmanövrieren, „was Menschen von sich selber zu wissen glauben“ (Krogerus 2016). Facebook likes und ähnliche Daten mit den eigenen Kundendaten zu verknüpfen macht also Sinn. Die gesamte customer journey wird ja nachverfolgt und möglichst von überall werden Daten gesammelt und miteinander verknüpft: Basisdaten (Name, Alter, Geschlecht, Einkommensverhältnisse usw.), Standortdaten (Wohnort, Wohnumfeld). Acxicom ermittelt aus Besuchen der Webseiten von Immoscout, wo und wie jemand wohnt, was seine Miete kos- <?page no="168"?> 168 5 Big Data in der Wirtschaft tet oder künftig kosten darf usw. Aus ebay-Aktivitäten analysiert dieses Unternehmen das Kaufverhalten von Kunden, die finanzielle Potenz und die Kreditwürdigkeit (Morgenroth 2016) sowie persönliche Interessen, Vorlieben und Abneigungen. Solche Daten werden nicht nur genutzt, um Käufe auszulösen, sondern auch um herauszufinden, weshalb Kunden nicht kaufen, wo es in der customer journeyalso Brüche gibt oder auch wo fancy analytics andeuten, dass sich Potenziale für eine neue Kundenansprache finden lassen. Denn in etwa acht Sekunden muss die Botschaft „ankommen“, sonst klickt der Nutzer sich weiter. Massenhaft Daten nutzt die Otto Group auch, um Warenabnahme- und Absatzprognosen zu errechnen. Da die Vorlaufzeiten für Fertigungen in Übersee besonders groß sind und weil dort nicht ohne Weiteres einfach nachgeordert werden kann, ist solches Wissen besonders für große Handelsketten sehr wichtig. Nicht wenige kaufen deshalb Daten von den marktmächtigen Datenkraken Google und Facebook hinzu. Business analytics-Spezialisten entwickeln dazu Algorithmen, um externe Datenquellen automatisiert zu bereinigen und in ein einheitliches Format zu konvertieren. Diese Daten steuern nicht nur den Materialfluss, sondern auch die Preisstellung. Sie machen es möglich, Preise an die Kaufkraft und Spendierwilligkeit einzelner Kunden koppeln. 2012 bekam Googleein Patent für eine Technologie zugesprochen, mit deren Einsatz Online-Händler die Preise ihrer Waren in Echtzeit dynamisch gestalten können (Morgenroth 2014: 70). Inzwischen hat manches identische Produkt für Interessenten online unterschiedliche Preise. Ein Kunde, von dem das System weiß, dass er vermögend und kein Pfennigfuchser ist, zumindest aber, dass er in einer wohlhabenden Region oder in einem reicheren Stadtviertel wohnt, bezahlt für ein Produkt deshalb vielleicht mehr als der Geizhals oder der Geringverdiener aus einem sozial schwächeren Viertel. Beide werden nie erfahren, dass Sie für exakt denselben Artikel mehr oder weniger bezahlt haben als andere. „Die Rolle des Internets als ausgleichendes Medium wird dadurch torpediert“ (ibid.). Ziele von Online-Kampagnen können sehr vielfältig sein: Reichweite, branding, awareness, Markenbildung, Absatz. Da man dazu nie genug Daten haben kann - und seien sie, wenn sie in fremde Hände kommen sollen oder von solchen kommen, auch anonymisiert - ist die Otto Group offen für Datenkooperationen. Einen gemeinsamen deutschen Datenpool über bilaterale Partnerschaften oder über Datentreuhänder hält man in deren Zentrale in Hamburg für eine sinnvolle Sache. Je schneller er zustande kommt, desto besser. Dass die Otto Group im Datenmanagement aufs Tempo drückt, ist nicht erstaunlich, wenn man globale Wettbewerber betrachtet. Die chinesische B2B-Plattform Alibaba, mit 50.000 Mitarbeitern Chinas größtes IT-Firmengruppe, setzte 2017 an einem einzigen Verkaufstag im Herbst rund 25 Milliarden US-Dollar um. Zum Vergleich: An einem Julitag bekam Amazon „nur“ eine Milliarde Dollar in die Kassen - für Amazon der biggest day ever. Eines der Alibaba-Erfolgsrezepte ist der Einsatz künstlicher Intelligenz. Sensoren registrieren, was ein Kunde zur Anprobe mit in die Kabine nimmt. Ein deep learning-System bietet ihm auf einem Bildschirm dann individualisiert je nach Geschäft und Angebot passende Ergänzungen an. Das funktioniert, weil die KI Hunderte Millionen Kleidungsstücke ebenso kennt wie den Geschmack von Designern und Modefans (t3n 2017). Hier noch ein Blick auf einen anderen großen Handelskonzern. Die Metro-Gruppe hat 2016 konzernweit ihre Fähigkeiten und Fertigkeiten zu Datenanalysen erkundet. Die trotz ihres englischen Namens deutsche Unbelievable Machine Company hatte mit unverstelltem Blick von außen ein capability assessment framework zu entwickeln, einen Rahmen zur Bewertung solcher Potenziale. Statt starrer Reifegradmodelle, wie sie früher üblich waren, ergaben sich mehrdimensional messbare und damit in ihren Konsequenzen planbare Aussagen darüber, wie ausgereift der Umgang mit Daten inzwischen ist (Bitkom 2017: Bollnöfer). Je nachdem, wo sich ein Kunde in seiner customer journey gerade aufhält, bekommt er auf seine mutmaßlichen Wünsche immer feiner abgestimmte Angebote. Nicht alle Unterneh- <?page no="169"?> 5.6 Big Data im Handel 169 men verfügen über die dazu nötigen Technologien. Ihnen helfen marketing automation tools, die große Datenbestände automatisiert auswerten, aber natürlich nur nach den einprogrammierten Regeln arbeiten, auch wenn sich Marktbedingungen oder Käuferverhalten ändern. Werden die Regeln nicht angepasst, verlieren die tools ihre Wirkung (Sawant 2018). Passen sie und erzeugen On- und Offline-Werbung zur passenden Zeit beim passenden Kunden das von ihm erwartete Bild, rechnet sich alles (Sawant 2018). Individuelle und personalisierte Angebote sind daher für Marketer ein must have. Big Data analytics und machine learning sind die Technologien, die Interessenten entlang ihrer customer journey begleiten und effizient zu Käufern machen (ibid.). Selbstlernende Maschinen sammeln nicht nur Daten, sondern lernen auch aus dem Käuferverhalten. Sie beziehen externe Datenquellen mit ein: demografische Daten einer Region oder das Wohnumfeld oder das Wetter. Sie ziehen Schlüsse aus dem früheren Kaufverhalten des Einzelnen oder aus Kaufzyklen von Kundensegmenten. Und sie durchsuchen social media und blogs nach aus aus Kommentaren und likes erkennbaren Trends. Sie modifizieren nicht nur alte und erstellen neue Vertriebsregeln, sondern können Kundeninteressen auch in Echtzeit erzeugen, bevor diese ihre customer journey bewusst antreten. „So triggern selbstlernende Systeme Interessenten genau zu dem Zeitpunkt, wenn sie ihre customer journey beginnen und begleiten sie bis zum Kaufabschluss“ (ibid.). Ein machine learning-Algorithmus analysiert darüber hinaus die örtlichen Daten eines Kunden: „Bestellt er lieber etwas online am PC, benutzt er eine mobile App oder kauft er eher vor Ort im Laden ein? “ (ibid.). Die Ergebnisse vergleicht das System mit ähnlichen Kunden. Informiert sich ein Kunde im Ladengeschäft, kauft dann aber online, erkennt das System das und informatiert den Händler. Während ein Kunde surft, begleitet ein selbstlernendes System den Interessenten auf seiner customer journey. Dieser Prozess lässt sich auf ganze Kundensegmente anwenden. Man sieht es bei Amazon: „Kunden, die dieses Buch kauften, interessierten sich auch für …“ (Sawant 2018). Mit den richtigen Informationen sind die Unternehmen also in der Lage, für jeden personalisierte Angebote zu machen. Bald werden wir uns unter dem Stichwort voice commerce online mit Sprachbots über die Produkte unterhalten, für die wir uns interessieren. Das macht das Argument hinfällig, Beratung bekomme man nur im Laden, und das wird die Art und Weise verändern, in der wir einkaufen, weiter massiv verändern. „Mehr noch: Das gesamte Internet erfährt eine Transformation - von der bald altmodischen Texteingabe samt Maus und Tastatur hin zu einem von Videos und Sprache dominierten System. Bildschirme und Tastaturen werden irgendwann zu Raritäten zählen“ (Klar 2018). Insgesamt erzeugt diese Branche ein zwiespältiges Bild: Einerseits will sie ihren Datenpool möglichst anonym halten, damit kein Rückschluss auf einzelne Kunden möglich ist - schon gar nicht, wenn die Daten an Dritte zur Nutzung weitergegeben werden. Andererseits möchte sie jeden einzelnen Kunden möglichst bis ins Innerste kennen (welche Big Five- Charaktermerkmale kennzeichnen ihn, welche Hobbies und Vorlieben hat er? ), um ihm möglichst passgenaue Kaufangebote machen zu können (Bitkom 2017: Zeplin). In einem Report „The State of Customer Service“ hatte Xerox 2015 mehr als 6.000 USamerikanische, britische, deutsche, französische und holländische Verbraucher befragt und bestätigt gefunden, dass zwischen Anbieter und Verbraucher die Form der Interaktion immer wichtiger wird. Was heute dazu noch genügt, wird bald nicht mehr ausreichen. „Es ist klar, dass sich die Beziehung zwischen Konsumenten und Marken in den nächsten fünf Jahren radikal verändern wird“, sagt Tim Joyce, der Chief Innovation Officer von Xerox Customer Care. „Die Kunden haben einen hohen Anspruch an die Servicequalität. Und die Technologien sind so ausgereift, dass Unternehmen diese Bedürfnisse erfüllen können.“ Dabei überrascht, wie wenig hierzu in der Breite der Wirtschaft anscheinend die sozialen Netzwerke betragen können. Sie genießen zur Lösung konkreter Probleme nur sehr be- <?page no="170"?> 170 5 Big Data in der Wirtschaft grenztes Verbrauchervertrauen. Erst fünf Prozent aller Kundendialoge in Technologie, Telekommunikation und Medien laufen über diese Kanäle. Facebook und Twitter wollen aber Kundendienste stärker erschließen. Marken, die nicht über alle Kanäle hinweg gleichmäßig stark präsent sind, können mit Hilfe anspruchsvoller Datenanalysen erreichen, dass sie an den Orten vertreten und ansprechbar sind, die ihre Zielgruppen bevorzugen. Eine Umfrage lässt erkennen, dass sie dazu erfahrene Serviceanbieter brauchen. Die können Schnittstellen miteinander verbinden und die am besten geeigneten Kanäle bedienen. So wird jede einzelne Interaktion mit Kunden zum Teil eines kontinuierlich laufenden Dialogs (ap-verlag 2016a). Dabei betreuen immer öfter Maschinen Maschinen. Der virtual agent beispielsweise, ein Xerox-Programm, kann mit anderen Maschinen kommunizieren und Probleme lösen, bevor ein Kunde davon überhaupt etwas bemerkt. Auch wearable devices, also am Körper tragbare Sensoren, die sich mit anderen Systemen vernetzen, sollen immer mehr Bedeutung bekommen. Erst sechs bis sieben Prozent der Verbraucher nutzen solche tragbaren Technologien. Also besteht noch viel Potenzial. Einerseits wird die Kundenbetreuung also immer persönlicher. Andererseits zeigen die aktuellen Trends, dass dabei intelligenten Maschinen eine immer stärkere Rolle zukommt. Big Data-Anwendungen haben das Potenzial, ganze Arbeitsfelder durch Maschinenarbeit zu ersetzen. Auch der Kundendienst - in Call Centern, Webchats und sozialen Netzwerken - wird von vernetzten Geräten bis zur anspruchsvollen Analytik fortlaufend automatisiert. Fast die Hälfte aller Nutzer, 41,6 Prozent, ist zwar überzeugt, im Jahr 2025 gar kein call center mehr zu benötigen. Die anderen werden aber erleben, dass Routineanfragen dort nur noch automatisch beantwortet werden. Ausgebildete Mitarbeiter sollen sich stattdessen um die Kunden kümmern, die eine intensivere Betreuung benötigen. Call center-Mitarbeiter und nicht nur sie können so ihren eigentlichen Vorteil zur Geltung bringen, den menschlichen Faktor. Der Alltag jedoch wird dann von Maschinen organisiert - ein Wandel, der uns in den beiden anschließenden Abschnitten noch genauer beschäftigen muss. „Was gerade im Markt abgeht, ist überwältigend“, urteilt Mindbreeze-Gründer und -Chef Daniel Fallmann. „Geht ein Digitalisierungsprojekt in einem Unternehmen richtig ab, kurbelt es das Wachstum nicht bloß an. Es wirkt wie ein Brandbeschleuniger: schnell und intensiv. Das verschafft den Unternehmen einen Wettbewerbsvorteil, weil die digitalen Werkzeuge und Prozesse es ihnen erlauben, sich voll und ganz am Kunden zu orientieren“ (Martin-Jung 2016). Das Wort Brandbeschleuniger macht klar, wie gefährlich diese Entwicklung für diejenigen ist, die ins Feuer geraten. Das Institut für Handelsforschung erwartete schon in der ersten Hälfte der 2010er Jahre, dass bis 2020 rund ein Drittel aller Ladengeschäfte schließen muss, und das Beratungsunternehmen Mücke, Sturm & Co. rechnete vor, dass weitere 40 Prozent nur Überlebenschancen haben, wenn sie sich auf das online-Geschäft umstellen: „Der traditionelle Handelskäufer stirbt aus, und damit auch der traditionelle Handel. Er muss sich völlig neu erfinden oder wird verschwinden“ (cit. Keese 2014: 180). Der grundlegende Wandel, der sich in dieser online-Welt in den letzten fünf Jahren vollzogen hat, lässt sich in einem Wort bündeln: in dem Wort Plattform. Dabei ist nicht der computertechnische Begriffsinhalt dieses Worts gemeint, sondern seine strategische Bedeutung für Chancen im Markt. Plattformen sind das zentrale Geschäftsmodell der digitalen Ökonomie. Fünf der zehn wertvollsten Unternehmen arbeiten inzwischen auf Plattformen als Vermittler zwischen Anbieter und Nachfrager. 1998 war Microsoft das wertvollste Unternehmen der Welt. Jetzt sind es Apple, Alphabet, Facebook, Alibaba und Amazon. Nahezu alle großen wirtschaftlichen Erfolge der letzten Jahre fußen auf Plattformen; man braucht nur auf <?page no="171"?> 5.7 Die Smart City 171 Facebook und Whatsapp, Amazon und AWS" Google, Booking,Airbnb, Mytaxi oder Uberzu blicken. Weltweit gibt es inzwischen allein für industrielle Güter 450 Plattformen. 80 Prozent aller Werbung laufen bereits über die Plattformen von Facebook und Google (BMBF/ Wi 2018: Deininger).Der Grund: Sie sind zumindest zum Teil Plattformen. Der Umsatz von Amazon.de lag 2016 bei rund zehn Milliarden Euro, der der Amazon-Plattform mit angeschlossenen Händlern bei 22,6 Milliarden, der der Otto Group bei 3,2 Milliarden (BMBF/ Wi 2018: Schmidt). Die deutsche Industrie zögere bei Plattformen gefährlich, sagt ‚Wer liefert was? ‘-CEO Peter Schmidt (BMBF/ Wi 2018: Schmidt). Erst zehn Prozent aller deutschen Firmen mit mehr als 20 Mitarbeitern im Segment Handel sind auf Plattformen aktiv, in anderen Branchen erst zwei Prozent. 40 Prozent kennen digitale Plattformen noch gar nicht (ibid.). „Wir drohen bei Plattformen den Anschluss zu verlieren“, befürchteten im April 2018 in einer Umfrage 78 Prozent der Teilnehmer an den Big Data Days der Bundesminsisterien für Forschung und für Wirtschaft. Deutschland habe die Plattformökonomie bislang verschlafen, sagte dort rundheraus Fiedler (BMBF/ Wi 2018: Fiedler), und Deininger sekundierte: „Wer Plattformen jetzt nicht nutzt, wird zu spät dran sein (BMBF/ Wi 2018: Deininger). Welche unglaubliche Dynamik Plattformen entwickeln können, zeigt der chinesische Konzern Alibaba. Er entwickelte sich in drei Schritten: Zuerst entstanden Internet-Marktplätze, dann eine shared economy und endlich eine Info-Ökonomie aus vier Einzelhandels- und zwei Großhandels-Marktplätzen sowie 10.000 Läden und Anteilen an Warenhäusern, ergänzt durch cloud-Dienste, Online-Marketing und den Bezahldienst Alipay Finance (BMBF / Wi 2018: Schmidt). 55..77 DDiiee SSmmaarrtt CCiittyy Dass solche Entwicklungen die Struktur unserer Städte nicht unberührt lassen, liegt auf der Hand. Nicht nur Häuser, der Straßenverkehr und Verwaltungsabläufe werden digitalisiert; die smart city verlangt auch den smart citizen. Das haben wir nun zu betrachten. Die Wortbedeutung von smart hat sich völlig verschoben. Noch vor einer Generation war etwas, das als smart galt, nur irgendwie pfiffig. Der dresscode „smart casual“ (im Gegensatz zu formal: dunkler Anzug, langes Kleid, aber auch zum bloßen casual, bis hin zu T-shirt und shorts) lässt sich am Besten interpretieren als „sportlich mit Pfiff“. Seit es pfiffige Telefone gibt, eben Smartphones, bedeutet smart aber vor allem wie das Smartphone selbst: datengetrieben, vernetzt. Eine smart city zeichnet sie sich durch „smartes“ Verhalten aus. Was dort geschieht, soll der vernetzten Informationsgesellschaft dienen. Ein Beispiel: Straßenlaternen mit Sensoren passen die Lichtintensität im öffentlichen Raum an individuelle Veränderungen des Umfelds an. Die Sensoren erfassen Daten, die cloud kombiniert sie mit historischen und kontextabhängigen Daten (Jahreszeit, Ereignisse, Fahrplan für öffentliche Verkehrsmittel usw.) und steuert, wann die Lampen abhängig von den Bedingungen zu dimmen, aufzuhellen, einzuschalten oder auszuschalten sind. Das senkt die Energiekosten allein in der US-Stadt Schenectady (65.000 Einwohner) um über 370.000 Dollar pro Jahr (Shiklo 2018). „Die Digitalisierung wird die Stadtökonomie nachhaltig verändern“, schreibt wenig überraschend das Bundesinstitut für Bau-, Stadt- und Raumforschung. „Die absehbaren Entwicklungen erfordern es, dass Kommunen und privatwirtschaftliche Akteure der Stadtökonomie gemeinsam mit der Bürgerschaft und Wissenschaft aktiv werden“ (Bundesinstitut 2017c: 11). Experten, die das Institut befragt hat, sehen dabei vor allem die Städte selbst in der Pflicht: 83 Prozent der Befragten verlangen, dass kommunale Unternehmen bei der <?page no="172"?> 172 5 Big Data in der Wirtschaft Einführung smarter Technologien und Infrastrukturen eine führende Rolle übernehmen (2017b: 11). Dabei müssten sich die Kommunen um sieben zentrale Themenfelder und Trends kümmern: um Datenschutz und IT-Sicherheit, Transparenz und Datenhoheit, IT- und Datenkompetenz, Vernetzung von Datenbeständen, predictive analytics, Privatisierung im virtuellen Raum und Nutzung von Big Data (2017b: 10). Eine Fülle instruktiver Belege über den Wandel der Städte zu smart cities hat Neckermann zusammengetragen (Neckermann/ Smedley 2017). Wir müssen uns hier auf das Grundsätzliche beschränken. Die physische und die digitale Infrastruktur in Städten sollen sich so ergänzen, dass „einerseits die tagtägliche Leistungserbringung und andererseits Investitionsentscheidungen vollständig an Effizienzgesichtspunkten auszurichten“ sind (Stampfl 2017: 6 f.). Alles soll mess- und somit nachvollziehbar werden. Herzstück soll eine zentrale Kontroll- und Überwachungsinstanz sein, „die sämtliche ‚Lebensäußerungen‘ der Stadt „nicht nur misst, überwacht, bewertet, steuert“, sondern auch „unter Kontrolle hält und letztendlich Entscheidungen trifft“ (ibid.: 8). PersönlicherDatensender und -empfänger soll das Smartphone sein, die Schnittstelle des Bürgers zur Stadt, kommunale Daten kommen hinzu. Zwei Beispiele: Los Angeles, eine der verkehrsreichsten Städte der Welt, kontrolliert mit einer intelligenten Verkehrslösung den Verkehrsfluss. In den Straßenbelag integrierte Sensoren senden Daten zum Verkehrsfluss an eine zentrale Plattform. Sie analysiert die Daten und passt Ampelanlagen sekundenschnell der Verkehrslage an. Sie verwendet auch historische Daten, um vorherzusagen, wohin der Verkehr fließen kann - alles ohne menschliches Zutun (Shiklo 2018). Intelligente Parklösungen identifizieren, wann ein Fahrzeug die Parkfläche verlassen hat. Sensoren im Boden melden per Smartphone den Autofahrern in der Nähe, wo sie einen freien Parkplatz finden können (ibid.).So weit die positive Seite. Aber es gibt such eine negative.Gerät in Shanghai ein Autofahrer in die falsche Spur, erkennt das eine Kamera und zeigt den Verstoß ein paar hundert Meter weiter auf einem Monitor am Straßenrand an. Sekunden später landet der Strafzettel auf dem Smartphone des Fahrers. Per Knopfdruck kann er sofort bezahlen (Der Spiegel 2017: 20). Zur Kontrolle der Luftqualität können Städte ein Netzwerk von Sensoren entlang stark befahrener Straßen und auch in Fabriken einsetzen, um die Menge schädlicher Gase in der Luft zu überwachen. Die hochentwickelten Sensorenmessen Emissionen von Kohlenmonoxid (CO), Stickstoffoxiden (NOx) und Schwefeldioxid (SO2). Eine zentrale cloud-Plattform aggregiert, analysiert und visualisiert die Sensormesswerte (Shiklo 2018). Die ebenfalls chinesische Stadt Songdo gilt bereits als ein Musterbeispiel für Chancen und Risiken von Big Data in smart cities (Mehnert 2016). In dieser datentechnisch aufgerüsteten Stadt sind Stadtplanung, Verwaltung und Kommunikation mit Anwendungsfeldern wie Energieversorgung, Mobilität und Nachhaltigkeit eng vernetzt. Die smart city soll damit effizienter und zugleich nachhaltiger funktionieren (vgl. Siegemund 2013, Rötzer 2015). Besonders früh setzte das Senseable City Lab des Stadtstaates Singapur solche Technologien ein: „Wasser und Stromverbrauch, der Flugverkehr, die Bewegungen von Containern im Hafen, GPS-Daten von Taxis, Bussen und Privatautos, Wetter, Temperatur und natürlich die Telefondaten werden dort unaufhörlich miteinander verflochten. U-Bahn-Benutzer wissen dann nicht nur, wo baustellenbedingt die Züge langsamer fahren. Sie wissen auch, wie voll sie gerade sind und ob es sich lohnt, eine halbe Stunde auf leerere zu warten“ (Häntzschel 2013: 85). Wenn man Sensordaten mit den Daten aus sozialen Medien kombiniert und in Echtzeit analysiert, kann man Lösungen für öffentliche Sicherheit potenzielle Tatorte prognostizieren und Meldungen an die nächste Polizeistreife senden. So kann die Polizei potenzielle Straftäter schneller stoppen oder sie erfolgreich verfolgen (Shiklo 2018).Im Bereich öffentliche Sicherheit filtert eine IBM-Software Blue Crush aus Daten schon vor einem Polizeieinsatz Kriminalitätstrends heraus. So legen Daten Spuren zu kriminellen hot spots (Stampfl 2013: <?page no="173"?> 5.7 Die Smart City 173 54). Verbrechen lassen sich bekämpfen, bevor sie geschehen. In Memphis ging damit die Kriminalitätsrate um dreißig Prozent zurück (ibid..). Besonders gründlich überwachen die Chinesen ihre Bürger in ihrer Hauptstadt. „Im Oktober 2015 verkündeten die Behörden stolz, die Überwachung der Stadt Peking mit Kameras sei nun vollständig, es gebe auch Fortschritte bei der automatischen Gesichts- und Stimmerkennung“ (Strittmatter 2017: 13). Wie überall haben Big Data auch in smarten Städten also ein Doppelgesicht: Sie erleichtern die Orientierung und die Verwaltung der Stadt, aber auch die flächendeckende Überwachung. Das zeigt sich auch in Deutschland zum Beispiel an der Polizeiarbeit. Eine Software-basierte Verbrechensprävention(predictive policing) wertet Straftaten nach Mustern aus, um künftige Tatorte und -zeiten vorherzusagen. Mehrere deutsche Bundesländer testen solch ein Prognosesystem. Mit welcher IT-Infrastruktur die Polizei Massendaten rechtskonform auswerten darf, ist aber noch nicht ganz klar. Sie muss sich dazu mehr und mehr mit Big Data beschäftigen. Hochwertige Ergebnisse erbringt das nur, wenn die gesamte IT-Umgebung einer Stadt auf große Datenmengen ausgelegt ist. Nur dann lassen sich Petabyte an Daten aus unterschiedlichste Quellen und Strukturen intelligent analysieren und nach Zusammenhängen durchforsten (Moeller 2017).Ein Beispiel: Fußballspiele mit hooligans unter den Zuschauern gelten als Hochrisikospiele. „Für die Einsatzplanung können unter anderem Wetterdaten aufschlussreich sein. Wird es ein kalter oder ein warmer Tag? Wird mit steigender Temperatur mehr Alkohol konsumiert als an kalten Tagen? Steigt damit auch das Aggressivitätspotenzial unter den Fans? Welche Fangruppen könnten wo aufeinandertreffen? “ (ibid.). Vor echte Herausforderungen stellen Behörden Daten, die sie in Einsätzen sichergestellt haben. Wo früher Papierakten als Beweismittel durchgearbeitet wurden, sind es heute Festplatten, memory sticks oder Daten in der cloud. Kreative Verknüpfungsmöglichkeiten sind dank predictive policing fast in Echtzeit möglich.Man nennt solche Beweismittel Schmutzdaten und hält sie, um Infizierungen durch schädliche Software zu vermeiden, vom Polizeinetz getrennt. Pro Jahr und Bundesland fallen in Deutschland zwischen 500 Terabyte und zwei Petabyte solcher Schmutzdaten an. Sie müssen ebenso wie Behördendaten sicher aufbewahrt werden und verlässlich abrufbar sein (ibid.). Ein Teil unterliegt einer langfristigen bis unendlichen Archivierungspflicht. Dazu müssen IT-Verantwortliche Zugriffsrechte, Verschlüsselungstechnologien, Datenintegritäten und die Datensicherung beachten und trotzdem gewährleisten, dass man auf sie schnell zugreifen kann (ibid.). In einer bürgerfreundlichen Verwaltung sollen Dienstleistungen vom Ausweisantrag über die Steuererklärung bis zur Gesundheitsversorgung online nutzbar sein. In Friedrichshafen können Herzinsuffizienzpatienten ihre Vitaldaten schon seit 2007 per Internet an das Krankenhaus übermitteln. Dort laufen auch schon intelligente Stromzähler, die zu einem effizienteren Stromverbrauch führen sollten. Nach fünf Jahren ergab sich als Fazit allerdings: Obwohl die Bürger das Projekt gut kannten, hatten die meisten nur „eine diffuse Vorstellung“ vom Nutzen. Es war nicht gelungen, die Bürger „mit eigenen Ideen in das Projekt zu integrieren“ und es damit „langfristig zu verankern“ (Hladky 2017: 10). Datengesteuert funktionieren flexible car sharing-Modelle. Für Elektroautos werden Ladestationen installiert und Wegstrecken durch App-Daten optimiert. Das soll die Zahl der Privat-Pkw verringern und den öffentlichen Verkehr beschleunigen. In Wien soll der Anteil des motorisierten Verkehrs bis 2030 auf 15 Prozent sinken (ibid.). Smarte Parkautomaten geben nicht nur Parkscheine aus, sondern melden freie Parkplätze dem Navi im Auto und justieren auch die Parkgebühren je nach Verkehrsbelastung (O’Reilly 2013). Die Technik dazu soll in großem Stil in Masten der Straßenbeleuchtung installiert werden. Sie stehen überall, führen bereits Strom und gehören durchweg der jeweiligen Stadt. Allein in München sind es 85.000. In sie will die Stadt flächendeckend Sensorik einbauen. Dann werden sich Straßenlampen automatisch erhellen, wenn ein Auto oder eine Person sich nähern. Die <?page no="174"?> 174 5 Big Data in der Wirtschaft Masten registrieren auch Smartphone-Adressen, empfangen und senden Internet-Daten und managen so einen Datenstrom, der den Benutzern willkommen sein mag, der aber zugleich ihr Verhalten dokumentiert (Stampfl 2016: 211). München stattet in seinem neuen Stadtteil Freiham seit Juli 2017 erste Straßen mit solchen Lichtmasten aus. Genutzt werden sie dort nur für Daten ohne Personenbezug: Klima- und Umweltdaten über Schadstoffe (Stickoxide, Feinstaub) und Reizstoffe (Pollen, Ozon), Verkehrsmengendaten, Daten zum Parkraummanagement. Die Masten bekommen auch elektrische Ladestationen, Sicherheitseinrichtungen und liefern wetterabhängige Mobilitätsdienstleistungen (Glock 2017). Die Stadt setze dabei grundsätzlich auf Smart Data statt Big Data, erklärte Münchens 2. Bürgermeister Josef Schmid. Smart data sind Daten, „aus dem Sie einen praktischen Nutzen ziehen können“ (Wierse / Riedel 2017: VI). Smart Data sollen also „nicht nur aufzeigen, was in den Maschinen geschieht, sondern auch, warum es passiert, welche Vorhersagen man treffen kann und welche Handlungen daraus abgeleitet werden sollten“ (Eberl 2016: 223). Datenschutz und Datensicherheit, sagt der 2. Bürgermeister, hätten dabei immer höchste Priorität (Schmid 2017: 7). 2018 gingen in München auch die ersten drei von acht künftigen multimodalen Mobilitätsstationenin Betrieb. Sie verknüpfen das Kernangebot des Öffentlichen Verkehrs mit elektrischen Dreirädern und Ladesäulen für Elektroautos. In zwei Stationen werden auch Quartiersboxen für einen 24-Stunden-Liefer-, Einkaufs- und Tauschservice integriert. Lieferdienste erhalten in den Städten Lagerboxen als Umschlagplätze und Abholstationen. Denn auch der Lieferverkehr soll sinken, vor allem in den Hauptverkehrszeiten. Alle smart cities haben eines gemeinsam: Sie nutzen das Internet der Dinge (IoT) und machineto-machine-Kommunikation (M2M), um Menschen, Arbeitsplätze, Geräte, Apps und Dienste miteinander zu verbinden und die Stadt zu einem Ort zu machen, in dem man besser leben und arbeiten kann (Müller-Dott 2018). Das ist eine Gratwanderung zwischen mehr Service auf der einen und dem Recht der Bürger auf Privatsphäre auf der anderen Seite. München agiert da sensibel. Als hingegen San Jose in Kalifornien seine 39.000 Straßenlaternen digital aufrüsten wollte, stellten Anschlüsse für Videokameras und Mikrophone in den Augen der dortigen Bürger ein Risiko dar (ibid.). Smart cities sollten ihren Umgang mit Personendaten deshalb auf das beschränken, was unmittelbar für die jeweilige Aufgabe notwendig ist und nicht für andere Zwecke missbraucht werden kann. Ein Beispiel: Um Staus zu vermeiden, muss keine Kamera die Gesichter von Autofahrern aufnehmen; es reicht, die Wlan- und Bluetooth-fähigen Geräte zu zählen, die an dem ausgewählten Punkt vorbeikommen. Trotzdem: Das weltweite Marktvolumen für smart cities soll 2020 einen Wert von 1,6 Billionen US-Dollar erreichen (Frost & Sullivan, cit. Müller-Dott 2018). Diese Mobilitätsdienstleistungen in smart cities sollen zu einem System zusammenwachsen. Es wird Mobility-as-a- Service (MaaS) genannt und kombiniert alle Arten der Personenbeförderung wie bike und car sharing, Taxis und Busse sowie Züge für Nah- und Fernverkehr zu einer nahtlosen Transportlösung. Dienstleister garantieren diesen Service und sorgen dafür, dass dem Kunden stets der passende Transport zur Verfügung steht. Gebucht und bezahlt wird über eine zentrale Plattform, auf die man über das Smartphone zugreifen kann. Damit verschmelzen die klassischen Transportmittel für den Personenverkehr mit der sharing economyund mit Reisebüros zu einem durchgängigen Service (Javornik 2017). Für dieses intelligente Transportsystem müssen private und öffentliche Partner kooperieren. Hohe Datenmengen sind in Echtzeit zu verarbeiten. Big DataAnalytics, vor allem predictive analytics, spielen dabei eine zentrale Rolle. Nur so lassen sich die nötigen Informationen zur Disposition von Zügen oder für die Routenwahl von Automobilen ermitteln. Die Routenauswahl soll außer dem aktuellen Verkehrsaufkommen auch das Wetter berücksichtigen, den Berufsverkehr inklusive Ferienzeiten und Feiertagen, große Sport- oder Musikveranstaltungen, ungeplante Tagesbaustellen und plötzliche Straßenblockaden durch Unfälle. In <?page no="175"?> 5.7 Die Smart City 175 Finnland läuft ein solches MaaS-Pilotprojekt für den öffentlichen Nahverkehr, Taxis, eine Autovermietung und bike sharing seit 2016. Nach Schätzungen von Comtrade Digital Services lassen sich in solchen Systemen bis zu 80 Prozent aller Reisen vorhersagen und damit auch planen (ibid.). Über die Vorzüge der smart city sind sich viele Stadtplaner mit Datenexperten einig. Digitale Systeme werden Verkehrsnetze in Echtzeit ebenso steuern wie den Wasser- und Abwasserhaushalt und das Müllrecycling. Ortsfremde werden sich per Smartphone über Orte, Plätze und alles andere orientieren, was eine smart city zu bieten hat (Litzel2017a). Einheimische werden ihre Kontakte zur Stadtverwaltung im Wesentlichen online abwickeln. Das klingt recht bürgerfreundlich, hat aber auch eine Kehrseite. Einerseits können sich kleinere Städte den Aufwand für die Digitalisierung ihrer Funktionen vielleicht gar nicht leisten. Ihnen empfiehlt eine Expertise, auf einer Plattform mit offenen Daten ein gemeinsames städtisches Ökosystem zu bilden, so wie etwa das iberische Smart Cities-Netzwerk aus derzeit 111 Städten (Shiklo 2018). Andererseits: „Wer kein Smartphone besitzt, ist verloren“ (Haentzschel 2013: 87). Und lässt eine Regierung etwa aus politischen Gründen Netze abschalten, wie es in Kairo geschah, müssen Passanten wieder Straßenschilder lesen und Demonstranten wieder Flugblätter drucken. Es gibt Stimmen, die das aus Datenschutzgründen begrüßen. Greenfield hat (2013) schon ein ganzes Buch „Against the smart city“ geschrieben. Die smarte Technik überstrahlt auch, dass Städte erst durch ihre Bewohner urban werden. Dafür steht das Schlagwort der human smart city. Dieser Begriff umreißt einen Perspektivenwandel: statt auf die smart city zu setzen sollte man auf den smart citizen fokussieren (ibid.: 9). Städte würden nämlich erst dann smart, heißt es etwas gestelzt, wenn sie „in einem partizipativen Stadtmanagement das Humankapital ihrer Bürger ausschöpfen“ (Stampfl 2017a: 9 f.). Die ausgefeiltesten technologischen Konzepte, sagt auch das Münchner Forum, können allein nicht die Qualität schaffen, „die eine Stadt lebendig und lebenswert macht“ (Bäumler 2017: 17). Gerade das bürgerschaftliche Element präge aber die Individualität einer Stadt, schaffe Atmosphäre und Lebensqualität. Smart citizens sind Bürger, die digitale Strukturen für bürgerschaftliche Ziele einsetzen. Eine solche Bürger-Werkstatt muss online funktionieren. Open-Source-Projekte sollen als neue Formen der Selbstorganisation Interessen bündeln und den Austausch mit Gleichgesinnten fördern. Das Münchner Forum forderte die Politik auf, für die digitale Zukunftswerkstatt neue bürgerschaftliche Instrumente zu schaffen und smart citizens Schulungen anzubieten, mit denen sie „in der smart city bürgerschaftliche Positionen wahren können“ (ibid.). Das Bundesinstitut für Bau-, Stadt- und Raumforschung hält solche Forderungen nach Transparenz und Offenheit in der vernetzten Stadtgesellschaft für ganz zentral. Die Digitalisierung mache Transparenz zur Notwendigkeit. „Städtische Institutionen werden ihr Handeln stärker an gesellschaftliche Forderungen und Bedürfnisse anpassen müssen“ (Bundesinstitut 2017d: 10). Jeder Bürger ist aufgerufen, sich zu beteiligen, je nach Temperament und Möglichkeit analog, also von Angesicht zu Angesicht, oder digital, also über Internetplattformen. Diese elektronischen Plattformen stellen Kommunen bereit, in München etwa in Form des RIS, des Rathaus-Informations-System, aber auch Bürger aus eigener Initiative, so seit 2015 eine Münchner Internet-Plattform www.nachbarn.de, die es in den hundert größten deutschen Städten schon auf über 2.500 elektronisch vernetzte und aktive Nachbarschaften gebracht hat, allein in München und Umgebung auf rund 200 (Rickenberg 2017: 22). Das offizielle München nimmt die Forderung nach bürgerlicher Mitwirkung ernst. Die Bewohner des neuen Stadtteils Freiham konnten über die Erfassung und Nutzung von Daten mitentscheiden. Er gab Workshops über technische Möglichkeiten und wünschenswerte Anwendungen. Die Vorschläge reichten von Apps über das örtliche Wetter-, Verkehrsdaten und Pollenwarnungen bis zur Möglichkeit, verloren gegangene Tiere aufzuspüren und Menschen zu helfen, die sich verlaufen haben. Das war aber schnell wieder vom Tisch. <?page no="176"?> 176 5 Big Data in der Wirtschaft Denn personenbezogene Daten bleiben tabu. Darin ist man sich einig. Und noch in einem Punkt gibt es Konsens: Alle erfassten Daten sollen zum Wohl der Allgemeinheit genutzt werden, nicht aus wirtschaftlichem Interesse einzelner Marktakteure. Interessen von Händlern haben in diesem Netz nichts zu suchen (Hladky 2017: 11). Eine Idee zur Verwirklichung der smart city tarnt sich als Spiel und wirbt mit dem Konzept der gameful city. Ihre Erfinder wollen den smart citizen spielerisch dazu zu bewegen, sich mit seinem städtischen Umfeld und dem „Betriebssystem“ Stadt auseinanderzusetzen (ibid.: 10). Die Stadt bilde mit ihrer „digitalen Haut“ (Rabari/ Storper 2015) ohnehin sämtliche ökonomischen, politischen und sozialen Prozesse digital ab und schaffe so ein digitales Bild der Stadt. Spielprinzipien können dreierlei bewirken: erstens Partizipation und Selbstorganisation stärken, zweitens die Bürger mit crowd sourcing und data mining massenhaft Daten einsammeln lassen und sie drittens über gamification zu sozial erwünschtem Verhalten ermuntern (ibid.: 11). Noch hat man das nirgends ausprobiert. Es bleibt also spannend. Auch wenn es sich eigentlich von selbst versteht, soll noch kurz erwähnt werden, dass nicht nur cities smart funktionieren sollen, sondern auch kleinere Kommunen. In einem bayerischen Dorf, dem der Strukturwandel seinen Laden ebenso genommen hat wie seine Bankfiliale, bringt nun ein Transporter Güter aus der Region in Ortsteile ohne Geschäfte. Er liefert nicht nur Waren aus, sondern auch Geld nimmt Waren von Bauern auch an und fördert damit die Vorsorgung aus der Region. Dazu hat diese Gemeinde eine intelligente digitale Plattform geschaffen, die Erzeuger, Händler und Kunden miteinander vernetzt, Daten austauscht und die Touren des Lieferwagens plant (Fraunhofer SCS 2017). Dieser Service kommt sehr gut an. Und in Freyung, am Rand des Bayerischen Waldes, kann man über eine App ein Mittelding vo*n Rufbus und Ruftaxi ordern, das Bürger von zuhause abholt und nach Hause bringt, gerade wie das wollen. <?page no="177"?> 66 WWaass SSppeek kuullaanntte enn eei innbbüüßße enn Hebelt der Computer Handel und Wettbewerb aus? Spekulations- und Handelsgewinne beruhen auf Informationsvorsprung. Der soll in digitalisierten Märkten aber verschwinden. Daten profilieren sich als neue Währung der Welt. 6.1 Wenn Wissensvorsprung sich auflöst 177 6.2 Das Global Value Exchange-System 179 6.3 Die Global Economic Unit 181 6 6..11 WWeennnn WWiisssseennssvvoorrsspprruunngg ssiicchh aauuffllöösstt So geht - wenn man will - Finanzmanagement heute: Man verlässt sich auf eine Software des Inders Hardeep Walia und seiner US-Firma motifinvesting, entscheidet sich für das Motiv, das Finanzentscheidungen zugrunde liegen soll, an welche Trends also jemand glaubt, sagen wir an neuen, bezahlbaren Wohnraum im großen Stil, an den Durchbruch des Elektroautos und an eine dazu nötige neue Batterietechnologie, an globale Spielleidenschaften auch erwachsener Leute oder an weitweite Abmachungen über genfreies Saatgut, und lässt dann Walias Computer aus Big Data errechnen, welche Wertpapiere sich im jeweiligen Segment am Besten entwickeln. Das System schlägt ein passendes Portfolio vor. Wer will, kann es per Mausklick sofort akzeptieren oder nach Bedarf ändern. Dann kaufen Walias Computer diese Wertpapiere ebenfalls vollautomatisch bei einem Online-Broker und erledigen alles in Sekunden. Händisch hätte das früher Stunden, wenn nicht Tage gedauert. Der Schlüssel dazu ist die auf Big Data-Analysen basierende Bewertungstechnologie aller Anlagemöglichkeiten in kürzester Zeit. „Aber woraus besteht sie eigentlich solche herkömmlich analysierte Information? “ sinniert Hardy einmal mitten in seinem Tagesgeschäft. „Analysten markieren in Texten bestimmte Stichwörter oder Kernaussagen und verdichten diese zu einer Art Religion. Aber wahrhaft analysieren sie gar nichts. Was sie tun, ist pure Astrologie. Nehmen sie“, sagt er zu seinem Gegenüber, „die Börse als Beispiel. Da gilt der Glaube, der Aktienmarkt habe bestimmenden Einfluss auf die Wirtschaftsentwicklung. Das ist schiere Religion. Die Kurse können nochmals um sechstausend Punkte steigen - das ändert an meinem Leben rein gar nichts. Der Kurs allein trägt zum Bruttosozialprodukt nicht bei. Wir glauben, die Finanzindustrie fördere den Wohlstand. Aber so ist das nicht. Die Zahl ihrer Arbeitsplätze sinkt stetig. Stattdessen saugt sie alles verfügbare Geld aus dem Wirtschaftskreislauf und sammelt es, wo es nicht produktiv arbeiten kann. Eine Konsequenz: In den USA sind 60 Millionen Menschen auf Sozialküchen angewiesen. Also leben 60 Millionen in absoluter Armut - trotz eines pro Kopf der Bevölkerung enormen Bruttosozialprodukts und eines US-Aktienindex, der seit Jahren nur eine Richtung zu kennen schien: nach oben, trotz aller zwischenzeitlichen Knicke nach unten. Das zeigt, wie bedeutungslos solche Angaben sind. Es ist alles Religion, purer Glaube; Information, die für das Leben der Menschen zu nichts gut ist.“ Hardy erinnert sich: Eines Tages stellten er und sein Team in einem Index alle 15 Minuten einen charakteristischen Kurseinbruch fest. Sie hatten keine Ahnung, wo die Ursache lag. Also setzten sie auf dieses Rätsel eine Maschine an. Die fand heraus, dass die Fleischbörse in Kansas alle 15 Minuten die aktuellen Preise für Schlachtvieh publizierte. Allein das Wort Schlacht reichte aus, um negative Konnotationen auszulösen, die der Finanzmarkt <?page no="178"?> 178 6 Was Spekulanten einbüßen mit einem sofortigen Kursknick beantwortete. „Wir konnten kaum glauben, dass das die Ursache war“, sagt er. „Aber sie war es. Das zeigt, wie belanglos, ja absurd solche Ausschläge sein können.“ Hardys Eindruck vor allem vom Finanzmarkt ist mit höflichen Worten kaum zu umreißen: „Ob der Dollar gegenüber dem Euro oder einer anderen Währung gerade steigt oder fällt, ist für die meisten Menschen völlig ohne Belang, ausgenommen die, die gerade grenzüberschreitend etwas kaufen oder verkaufen. Trotzdem gehören Börsenkurse und Währungsparitäten zu den top news vieler Medienkanäle. Der Dow-Jones-Index wird uns präsentiert wie eine Heiligenfigur - falls ihm etwas zustößt: welches Desaster! Aber mal ehrlich: Was ändert das in unserem Leben, was schon gar, wenn man in längeren Zeiträumen denkt? Unsere Nachrichtenwelt ist voll solcher astrologischer ‚Fakten‘. Mein Gott, der Saturn steht am Himmel in ungünstiger Konstellation zum Planeten X. Am Besten bleibe ich die nächsten vierzehn Tage im Bett - ja kein Risiko eingehen…Das ist alles Quatsch.“ Was wir stattdessen brauchen, sind nach Hardys Überzeugung Informationen, die es Entscheidern erlauben, zum richtigen Zeitpunkt das zu entscheiden, was nötig ist, damit konstruktives Handeln zum Besten aller Menschen ausgelöst wird. Seine quantum relations machine hat genau diesen Zweck. Geld - daran erinnert Hardy gern einmal - wurde einst dazu geschaffen, um den Austausch von Waren zu erleichtern, weil man deren Wert dann müheloser gegeneinander verrechnen kann. Inzwischen ist Geld aber selbst eine Ware geworden. Es wird gehandelt wie Öl oder Kartoffeln. Wer mit Geld handelt, braucht erstklassige Informationen; je mehr er hat, vor allem je mehr er exklusiv davon hat, desto mehr Geld kann er verdienen. Systeme der Finanzmarktanalyse stellen diese Informationen bereit; und sie liefern sie jedem, der sie sich leisten kann. Aber die Börsen führen längst ein an Hektik kaum überbietbares Eigenleben. Die durchschnittliche Haltedauer unter Einsatz hoher maschineller Intelligenz vollelektronisch bewerteter, gekaufter und verkaufter Aktien ist auf neun Sekunden gesunken. Denn Algorithmen, die dazu eingesetzt werden, ermitteln Chancen und Risiken dieses Geschäfts in Millisekunden und lösen, wenn sie mit Aktoren verknüpft sind, Transaktion maschinell aus. Mindestens 80 Prozent aller Börsengeschäfte laufen inzwischen auf diese Weise, ohne dass ein Mensch eingreifen muss. Das funktioniert unter anderem deshalb so geschmeidig, weil die eingesetzte Technik wegen ihres ungeheuren Arbeitstempos Anlageentscheidungen treffen kann, noch ehe ein anderer dieselbe Chance oder dasselbe Risiko ausreichend klar erkannt hat. Die entscheidende Geschäftsgrundlage der Banken, Hedge Fonds und anderer Großinvestoren auf diesem Feld ist also ein Informationsvorsprung, den die Big Data-Analyse ermöglicht. Was da läuft, ist ein Nullsummen„spiel“: Wenn der Schnellere gewinnt, muss der andere, später informierte, verlieren. Was aber, wenn dieser Wissensvorsprung sich auflöst? Was geschieht, wenn auch dem möglichen Verlierer alles Wissen der Welt zur Verfügung steht, und zwar ebenso schnell wie dem potentiellen Gewinner, wenn es also nur noch darauf ankommt, die vorhandenen Informationen richtig zu interpretieren und zu nutzen? Dann, sagen Hardy und sein Team, fällt die Grundlage für Finanzmarktspekulationen in sich zusammen. Wo keine auf Wissensvorsprung fußenden Chancen mehr genutzt werden können, ist dem Poker um steigende oder fallende Kurse die Basis entzogen. Bis spätestens 2025 werde in der Finanzindustrie auf diese Art kein Geld mehr zu machen sein, sind Hardy und sein Team überzeugt, „und sie wird überflüssig werden. Warum? Weil alle heutigen Handelsinstrumente bis dahin wegen der totalen computerbedingten Durchsichtigkeit der Abläufe ihre spekulative Seite verloren haben werden. Und ohne Spekulation ist in der Finanzindustrie kein Profit zu machen“ (ibid.: 111). <?page no="179"?> 6.2 Das Global Value Exchange-Systems 179 Das schlägt auf die Erfolgreichen durch. Thomson Reuters kündigte 2017 an, um 20.000 Personen schrumpfen zu wollen. Das Unternehmen verkaufte zunächst die in Hardys Augen „most important division that they had“, nämlich ihren zwar kostenintensiven, aber kaum umsatzträchtigen Bereich science and technology, also Forschung und Entwicklung. Mit ihm wechselte jedes wissenschaftliche Dokument, das jemals irgendwo auf der Welt verfasst, gedruckt, gesendet und dort gespeichert worden ist und jeder Fachbeitrag in einem beliebigen Fachmagazin den Besitzer - rund um die Welt alles, was über wissenschaftliche Sachverhalte elektronisch abrufbar ist. Das gesamte Material ging an Google. Für den Kaufpreis erweiterte Thomson Reuters sein handelbares Datenvolumen. Wie weit solche Veränderungen mit der computergesteuerten Automatisierung fast aller Finanzmarkt-Transaktionen zu tun haben und wie weit sie wettbewerbsbedingt sind, lässt sich von außen kaum abschätzen. Es zeigt aber, wie stark diese Branche sich ändert. Empfehlungen im Bereich Vermögenswerte und zu Investitionen werden nach Hardys Überzeugung künftig nur noch eine einfache beratende Dienstleistung sein. Vielleicht werde die Finanzindustrie dann immer noch ihren gewohnten Namen tragen, aber sie werde sich auf einen nichtspekulativen Beratungsbereich im Feld der Aktien und Anleihen beschränken müssen. „Der Hauptgrund für den bevorstehenden Niedergang globaler Finanzierungen, wie wir sie kennen, ist die rapide Entwicklung der Informationstechnologie“ (ibid.). Steigen oder fallen würden Kurse natürlich weiterhin trotzdem, weil der reale Wert einer geschäftlichen Tätigkeit wachsen oder schrumpfen kann. Aber das wäre eine für alle sichtbare und beurteilungsfähige Entwicklung. Jeder könnte die zu dieser Beurteilung nötigen Daten aus einer der globalen Datenbanken entnehmen. Zusammen mit diesen Daten wären dort auch Bewertungsvorschläge hinterlegt. Man werde nur zuzugreifen brauchen. Geschäfte sozusagen in Hinterzimmern wären erledigt; alle Transaktionen könnten und würden ja auf einem offenen digitalen Marktplatz auf der Grundlage realer Werte erfolgen. Diese Idee hatte von Anfang an Fürsprecher. „Seit alle menschlichen Gemeinschaften in ein einziges Handelsnetz und ein Netzwerk globaler Informationen eingebunden sind“, schrieb in der Tradition Benedict Andersons zum Beispiel Anthony Appiah schon 2007, „haben wir einen Punkt erreicht, an dem wir alle uns realistisch vorstellen können, mit jedem einzelnen unter unseren sechs Milliarden Mitmenschen in Kontakt zu treten und ihm etwas zu schicken, das uns wertvoll erscheint: ein Radio, ein Antibiotikum, eine gute Idee“ (Appiah 2007: 10). „Wir“, sagen Hardy und sein Team in Erwartung dieser globalen Datenbanken, „prognostizieren ein solches System und nennen es Global Value Exchange (GVE). Alle Aktionen und Transaktionen werden dort aktuelle Produkte und Dienste betreffen, die auf allen Ebenen des Weltmarktes in ihrem wahren Wert ausgetauscht werden“ (Schloer/ Spariosu 2017: 15). Erstmals werde das GVE-System für potenziell alle Erzeuger und alle Verbraucher weltweit, gleich um welche Produkte und Dienste es geht, auf einem einzigen, transparenten, elektronischen Marktplatz eine standardisierte Transaktionstechnologie bereitstellen (ibid.). Und steht sie bereit, dann, so ist dieses Team so sehr überzeugt, dass es dies gar nicht eigens ausspricht, dann wird sie auch zum Nutzen aller eingesetzt werden. 6 6..22 DDaas s GGl lo ob ba all VVa al lu ue e EEx xcch ha an ng ge e--S Syys stteemmss Aller? Spekulationsgewinner sind nicht mit gemeint. Die wesentlichen GVE-Ziele sind vielmehr „erstens der entstehenden Weltwirtschaft eine faire Austauschplattform für Waren und Dienste zu ehrlichen Preisen zur Verfügung zu stellen, <?page no="180"?> 180 6 Was Spekulanten einbüßen zweitens durch die präzise Kalibrierung wirtschaftlicher Einheiten Stabilität zu erzeugen und unterschiedliche Währungen und anderes, was an unterschiedlichen Orten der Welt zu unterschiedlichen Bewertungsmaßstäben führt, entbehrlich zu machen, und drittens den hochspekulativen Zwischenhandel zu beseitigen, der vom Waren- und Geldverkehr zwischen Schuldner und Gläubiger unmäßig profitiert und sich generell am Wucher orientiert“ (ibid.: 15). Hier wird erstmals klar ausgesprochen, was diesem Buch ursprünglich seinen Untertitel hätte geben sollen: Daten als neue Währung der Welt. Schon 2013 hatte es geheißen: „Persönliche Befindlichkeiten, Vorlieben, Bedürfnisse und Verhalten - die richtigen Informationen zur richtigen Zeit sind die neue Währung in der Welt von Big Data“ (Brettning 2013). Hardy hält es für unausweichchlich, dass Daten, speziell wissensgeladene Daten, unsere künftige Währung werden. Und auch regierungsoffiziell heißt es: Daten wird wirtschaftlicher Wert zugebilligt. Sie haben schon deshalb die Funktion einer „neuen Währung“ und können als Substitut für ein anderes Entgelt dienen (BMWi 2016a: 32, 58). Die Perspektive hieß und heißt also schon seit einiger Zeit: In der Informationsgesellschaft ist Information nicht nur ein Hilfsmittel zum Umgang mit Währung, sondern selbst die Währung (Moore, cit. Keese 2014: 165). Das ist weniger revolutionär als es auf den ersten Blick scheinen mag. Im weitgehend bargeldlosen Zahlungsverkehr werden schon heute fast alle wesentlichen Transaktionen durch Überweisung erledigt. Schon seit der Einführung von Geldautomaten und deren Anbindung an Banken-Netzwerke in den späten 1960er Jahren konnte man elektronisch buchen. Bereits Ende der 1970er Jahre war die Digitalisierung der Banken-Buchhaltung vollzogen. In den frühen 1980er Jahren stellte David Chaum dann ein Konzept für digitales Bargeld vor (Chaum 1983) - Stichwort Geldkarte. Es blieb von Banken abhängig, die nach wie vor die Kontrolle über die Zahlungsabwicklung ausübten. Die Geldkarte ist wieder verschwunden - zu umständlich. Denn es geht cleverer. Auch Bargeld bracht man dazu nicht unbedingt. Apple-Chef Tim Cook glaubt nicht mehr an dessen dauerhafte Existenz: „Ich hoffe, dass ich die Abschaffung des Bargelds noch erlebe. Warum sollten wir dieses Zeug besitzen? “ (t3n 2018a). In China ist es fast so weit: Dort wird Bargeld seit 2018 weithin gar nicht mehr angenommen (BMBF/ Wi 2018: Wesselmann).Im August 2018 teilte die chinesische Zentralbank zwar noch mit, Läden, die Bargeld ablehnen, würden mit einer Geldbuße belegt. Aber schon 2017 benutzen fast 80 Prozent der Chinesen mobile Zahlsysteme - 2016 waren es erst 22 Prozent gewesen. Die mobilen Apps des 2004 als Bezahlmethode für den Onlinehandel gestarteten Dienstes Alipay haben 520 Millionen Nutzer, WeChat Pay, das aus einem Chat-Dienst entstanden ist, 900 Millionen. Erprobt wird bereits das Bezahlen per Fingerabdruck oder Gesichtserkennung. Alipay nutzt das schon. Bei „Smile to pay“ zum Beispiel reicht der Blick in eine Kamera, um einzukaufen oder etwas zu essen zu bestellen. Bei Hello Fresh öffnen hungrige Mitarbeiter den Automaten per Fingerabdruck, der Warenwert wird einfach von ihrem Konto abgebucht (Handelsblatt 2018). Einzelne Staaten erwägen, Bargeld völlig aus dem Verkehr zu ziehen. Dagegen sprechen vor allem noch Privacy-Gründe. Der Hamburger Datenschutzbeauftragte begündet das so: „Über Finanzdienstleistungen sind zahlreiche Informationen, nicht nur über Konsumgewohnheiten, sondern auch über die persönlichen Vermögensverhältnisse und die Kreditfähigkeit von Personen verbunden“ (ibid.). Wohin jemand einen Geldschein trägt, kann niemand ohne Weiteres nachvollziehen, wohin er Geld überweist oder per Smartphone versendet, aber durchaus. In Deutschand kommt dieser Wandel zum digitalen Geld trotzdem mit Macht: Seit 2018 (in den USA schon seit 2015) kann man mit Google Pay bezahlen. Der Marktstart von. Apple Pay steht bevor. Firmen wie McDonald’s warten darauf. Bei der Pizza- und Pasta-Kette Vapiano können Kunden schon länger mit einerApp bezahlen (ibid.). <?page no="181"?> 6.3 Die Global Economic Unit 181 66..33 DDi iee G Glloobbaall EEccoonnoommiic c UUnniitt Das Team, das Prisma Analytics entwickelt und das GVE-System skizziert hat, will digitale Bezahlmethoden ähnlich einer Blockchain, aber in einem eigenen System, zum globalen Standard weiterentwickeln. Als universtelle Messgröße für alle nicht-politischen Werte, also als Zahlungseinheit, spricht es sich für eine noch namenlose global economic unit (GEU) aus, im Prinzip eine Kombination von Euro und Blockchain. Diese GEU soll eine von allen nationalen und wie im Fall Euro supranationalen politischen Instanzen unabhängige Maßgröße sein, ähnlich wie die beschriebenen Kryptowährungen es bereits sind, nur ohne deren Schwächen, die sich in den letzten Jahren in wilden Spekulationsblasen zeigten. Im GVE-System soll diese GEU als elektronische Währung und als Zahlungsmittel dienen, ein bisschen so, wie heute sogenanntes Giralgeld zwischen Konten hin und her überwiesen wird, das ja auch nur noch aus Daten besteht, nicht aus Geldscheinen und schon gar nicht aus Gold. In der GVE-Vorstellung würden aber wie in einer Blockchain die Zwischenstufen unnötig, die solche Zahlungen bisher abwickeln, also Banken und Geld- Dienste Dritter wie zum Beispiel Kreditkartenfirmen. Es gäbe auch keine Schwankungen zwischen einzelnen Währungen mehr. Der Wertmaßstab GEUwäre als Produktivitätseinheit stabil (ibid. 132). Die Promotoren dieses globalen Wertausgleichssystems GVE sind schon seit Jahren überzeugt, dass unser heutiges Finanz-, Wirtschafts- und Handelssystem „seinen Nutzen und den guten Willen der meisten lokalen und globalen Marktteilnehmer überstrapaziert hat“ (ibid.: 112). Die derzeitigen globalen Bedingungen für Finanzierungen und Handelsströme auf dem Weltmarkt hätten klar gezeigt, wie unzulänglich das wirtschaftliche Handeln bisher funktioniert. Dieses zum Vorteil nur weniger Teilnehmer arbeitende System habe weltweit ein Umfeld revolutionären Charakters erzeugt und könne „bald neue Wellen von Gewalt und Anarchie auslösen, die die Zivilisation um Jahrzehnte zurückwerfen könnte, wenn es keine brauchbaren Modelle des Wandels gibt und diese nicht weltweit angewandt werden“ (ibid.). Der Niedergang der heutigen Finanzindustrie könne in der wirtschaftlichen Lage der Nationen aber einen neuen tragfähigen Sinn für Gerechtigkeit und Fairness erzeugen (ibid. 113). Eine Reform, die unfaire Geschäftspraktiken mit Vorteilen für gewisse Marktteilnehmer zum Schaden anderer beseitigt, sei überfällig (ibid.: 136). Im Ansatz ist dieses Reforminstrument, auf dem auch Kryptowährungen aufsetzen, als Blockchain inzwischen vorhanden. Eine Symbiose von Erzeugern und Verbrauchern In Hardys Prognose des künftigen Weltmarkts könnte eine Kryptowährung die entscheidende Rolle spielen. Das Prinzip, nach dem der weltweite Austausch von Waren und Werten ohne die Zwischenstufen von Banken und Händlern Markt künftig funktionierern soll, nennt er wie schon erwähnt Global Value Exchange (GVE). Die Idee zum GVE -System ist das Resultat eines langen Entwicklungsprozesses. Erarbeitet hat es sein interdisziplinäres Team in rund einem Jahrzehnt. Auf das Ergebnis ist dieses Team durchaus stolz; es eröffne, sagt es, „im weltweiten Kontakt eine neue Stufe in der menschlichen Entwicklung“ (ibid.). Produzenten und Verbraucher sollen in diesem System Waren und Dienste coevolutionär erzeugen und nutzen, gesteuert von Rückkopplungsschleifen in die natürlichen Ressourcen. Mehr noch: Dieses GVE-System soll nicht nur Transaktionen zwischen Produzenten und Abnehmern steuern, sondern auch alle anderen Interaktionen der Menschen. Was immer auf dem globalen Markt angesagt ist, soll dann symbiotisch geschehen, sich also am wechselseitigen Vorteil und damit am Gemeinwohl orientieren „und nicht mehr an Neid, Ausbeutung und Versklavung“ (ibid.). Die Promotoren des GVE-Systems erwarten das, <?page no="182"?> 182 6 Was Spekulanten einbüßen weil in einer auf fairem Wettbewerb und funktionierendem offenem Datenfluss fußenden Weltwirtschaft für vergleichbare Dienste in vergleichbarer Qualität weltweit stets vergleichbare Preise zu bezahlen wären. Als bloßer Marktplatz wäre dieses weltweite Handelssystem GVE gegenüber Marken, Herstellern, Versorgern und Kunden völlig neutral (ibid. 114). Funktionieren würde es ähnlich wie eine elektronische Börse, nur weit anspruchsvoller, denn auf ihm liefen Handelsvereinbarungen über Produkte und Dienste ähnlich wie in einer Blockchain über alle einzubindenden Branchen hinweg automatisch ab (ibid.: 115). Eine solche Entwicklung entspricht nach ihrer Überzeugung der global wachsenden Standardisierung wirtschaftlicher Werte und deren Produktivität. Erinnern wir uns daran, dass die Quantum Relations-Technologie nicht nur mit Daten darüber umgeht, was Sache ist, sondern auch analysiert, was Meinung ist, Wunsch, Hoffnung und Befürchtung. Das System kann also ermitteln, was ein Marktteilnehmer wahrscheinlich erwartet oder erhofft. Das soll in die Austauschprozesse systemgesteuert einfließen. Für manch einen Käufer oder Verbraucher, sagen die GVE-Promotoren, werde es daher gar nicht mehr nötig sein, explizit Kaufwünsche zu äußern. Denn das System verfüge über eine ausgefeilte Profilierungstechnik, um künftigen Wünsche von Marktteilnehmern zu erahnen, ihre Bedürfnisse vorauszusehen und von sich aus passende Angebote für Produkte und Dienste zu machen. Natürlich beschränkt sich das nicht auf physische Produkte. Die vom System ermittelten Wünsche können auch nach Informationen bestehen, auf Ausbildung hinzielen oder auf assistierende Unterstützung. Gemäß GVE-Modell werden alle diese Angebote, Produkte, Dienste und Informationen von derselben maschinellen Logik des Systems verarbeitet (ibid. 119). Kein Marktteilnehmer, sagen die GVE-Promotoren weiter, könne den Zugang zu und die Verbreitung von Informationen beschränken. Das GVE fördere, ja erzwinge vielmehr transparente, symmetrische Geschäftsbeziehungen zwischen Markt, Verkäufer und Käufer (ibid.: 123). Das GVE-System soll den Handel ersetzen In dieser Aufzählung fehlt eine Ebene, die heute das Marktgeschehen weithin bestimmt: der Handel. Alle heutigen Marktsysteme nützen diese Mittler in hohem Maß. Die Handelsebenen tragen jedoch zum Mehrwert nicht entscheidend bei, sondern schöpfen einen Teil davon ab. Sie riskieren nach Überzeugung der GVE-Planer am wenigsten, aber verdienen am meisten. Das soll nicht so bleiben. Die künftige Weltmarktordnung ersetzt nach ihrer Vorstellung Händler durch ein automatisches, weltweit agierendes technisches System, das den Herstellern von Produkten und Diensten und den Verbrauchern die Kontrolle über alle Transaktionsprozesse belässt. Das GVE-System ist selbst auch der Mittler: Käufer orientieren sich und ordern elektronisch direkt beim Erzeuger, und der liefert über Versanddienste direkt an die Verbraucher (ibid.: 125). Die GVE-Hauptziele Die Hauptziele eines GVE-Systrem haben Hardy und sein Team so zusammengefasst: erstens ein fairer Austausch von Waren und Diensten zu ihren realen Werten, zweitens die direkte Handelsplattform zwischen Erzeugern und Verbrauchern, die exorbitante Margen des Handels, hoch spekulative Geschäfte und generell den Wucher beseitigt sowie drittens ein für alle gleiches Zahlungssystem, das unterschiedliche Währungen oder Instrumente mit unterschiedlichem Wert an unterschiedlichen Orten ersetzt und durch die genaue Kalibrierung wirtschaftlicher Einheiten zu globaler Stabilität führt. <?page no="183"?> 6.3 Die Global Economic Unit 183 Das GVE-System, sagen seine Promotoren weiter, übernehme zwar einige Grundprinzipien der traditionellen Wirtschaft auf der Basis fairen und für alle Seiten Erfolg versprechenden Handels und ehrlich verdientem Ertrag. „Was jedoch anders ist: Erstmals werden diese fundamentalen Prinzipen zu Grundbausteinen und automatisch wirksamen Bestandteilen des Weltwirtschaftssystems auf der Basis eines wirklich freien Marktes, ohne Eingriffe von Regierungen oder anderen externen Stellen und undurchlässig für Betrug, Korruption und Missbrauch“ (ibid.: 136 f.). Vermutlich ohne diese Überlegungen im Detail zu kennen, gehen auch Ramge/ Mayer- Schönberger davon aus, „dass Märkten ein Neustart bevorsteht, der auf Datenreichtum basiert und unsere Wirtschaft ähnlich tiefgreifend verändern wird wie die industrielle Revolution (Ramge/ Mayer-Schönberger 2017: Kapitel 1). Prisma Analytics, ist Hardy überzeugt, wird auch hierfür das ideale Steuerungsinstrument werden. Märkte funktionieren nach causality. Die Entscheidung darüber, wer unter welchen wirtschaftlichen Randbedingungen welches Produkt bekommt, soll mit Prisma-Analytics- Unterstützung optimal funktionieren. „Ich kann mir kein anderes Steuerungsinstrument vorstellen, das das besser bewältigt als unseres. Das Global Value Unit (GVU)-Projekt nutzt auf einzigartige Weise diese bereits bestehende, unabhängige und patentrechtlich geschützte Künstliche Intelligenz mit ihren realen, verifizierbaren und quantifizierbaren Elementen vielfach einsetzbaren Wissens.“ Dieser Wissenspool, wie ihn Prisma Analytics einsetzen kann, sei eine Klasse für sich. Kein anderes Datenverarbeitungssystem, ist Hardy überzeugt, reiche da heran, nicht bei IBM, nicht bei Microsoft oder Google, nicht Facebook, nicht bei Thomson Reuters bzw. Refinitiv oder bei bei Bloomberg. Wissen ist das wertvollste Gut „Seit die Menschen sesshaft geworden sind und gelernt haben. Äcker zu bebauen und Vorrat zu halten, haben sie auch gelernt, Wissen zu bevorraten und zu vermehren. Und je mehr sie das vermochten, desto schneller wuchs die Erdbevölkerung. Das einzige, das dabei stets besonders wertvoll war und ist, ist unser Wissen. Was es wert ist, ließ sich lange nur erahnen. Heute ist der Wert von Wissen aber berechenbar. Die Zuordnung von IPv6- Nummern zu jedem Wissensbestandteil macht dies maschinell möglich. Welch andere, bessere Basis für eine globale Währung könnte es geben? “ „In der Renaissance“ erläutert Hardy, „ genoss der Lehrerberuf das höchste Ansehen unter allen Berufen. Heute ist es der Banker. Aber der Lehrer muss wieder den höchsten Rang bekommen. Wenn es das höchste Ziel in der Gesellschaft wird, nicht Geld anzuhäufen, sondern Wissen, verändert das deren Wertegerüst und Verhalten dramatisch.“ Dass Wissen heute etwas so unglaublich Wertvolles ist, sieht Hardy durch milliardenschwere Transaktionen bestätigt. Im Juni 2016 kaufte Microsoft für 26,2 Milliarden Dollar LinkedIn, obwohl der Wert von LinkedIn in den Büchern „nur“ mit 3,2 Milliarden verzeichnet war. Zuvor hatte Facebook 2014 für 19 Milliarden Dollar WhatsApp erworben, wenige Monate nachdem eine Gruppe von venture capital-Experten WhatsApp auf 1,5 Milliarden Dollar taxiert hatte. Diese Differenz von Buchwerten zu Kaufpreisen belegt, wie entscheidend die in den Büchern kaum sichtbare Ressource Wissen bei diesen Transaktionen bewertet wurde. Wissen ist auch die entscheidende Ressouce hinter Hardys Modell einer Kryptowährung, die einstweilen nur GVU heißt, global value unit. Dabei ist diese Verknüfung eigentlich kaum überraschend: Weil Wissen das Wichtigsten ist, das Menschen besitzen, sollte auch das entscheidende Austauschmittel der Menschen, also Geld, auf Wissen beruhen. Auf diese Verknüpfung stützt Hardy sein virtuelles Währungssystem. <?page no="184"?> 184 6 Was Spekulanten einbüßen Wie das geschehen soll? „Ein paar Hundert Einheiten Wissen“, rechnet Hardy vor, „ergäben eine Einheit solchen digitalen Geldes. Wer solches Geld besitzt, sollte die Hälfte davon in Firmen investieren, die ihrerseits Wissen produzieren. Die Hälfte dessen, was jemand auf diese Weise erwirtschaftet, soll ihm dann selbst gehören und seinen Wissensbestand vermehren - er kann es reinvestieren in Maschinen und Anlagen, in Forschung und Entwicklung oder in was immer zur Wissensvermehrung gebraucht wird. Die andere Hälfte soll den digitalen Geldumlauf vermehren und zugleich den Wert des digitalen Geldes erhöhen, das bereits in Umlauf ist. So entsteht Mehrwert in Form zusätzlichen Wissens. Und Wissen soll in dieser globalen Wirtschaft ja der Premiumfaktor sein, nicht schieres Geld.“ Dieses virtuelle Währungssystem setzt geprüftes Wissen mit Hilfe des globalen IPv6- Internetprotokolls und in Verbindung mit der Blockchain-Technologie so ein, dass eine voll funktionsfähige, handel- und konvertierbare Kryptowährung entsteht, die immun ist gegen Betrug, Diebstahl und Wertverlust, eben weil sie auf dem System der Blockchain und auf einem stetig wachsenden Bestand aktiven und werthaltigen Wissens besteht.Damit wird es, wie er sagt, „ohne die Risiken existieren, die die meisten anderen Kryptowährungen prägen“. Die rund 1500 heutigen Kryptowährungen mit einer Marktkapitalisierung von etwa 570 Milliarden Dollar zu Beginn des Jahres 2018 (ein Jahr zuvor waren es nur 18 Milliarden gewesen), von denen Bitcoin die bekannteste ist - ihr kometenhafter Aufstieg und Fall war 2017 nach dem ähnlich kometenhaften Aufstieg von Donald Trump zum US-Präsidenten die am zweihäufigsten transportierte Nachricht des Jahres -, sind nach Hardys Überzeugung ein eher zufälliger Nebeneffekt des bestehenden brüchigen Weltwährungssystems. Was eigentlich auf Sicherheit und Wertzuwachs angelegt sei, leide aber unter unkontrollierbaren Schuldenbergen, Wertmanipulationen und überhaupt unter politischer Fremdsteuerung. Es sei vorhersehbar am Ende; offen sei nur: wann und wie. Auch bei keiner der bestehenden Kryptowährungen sieht Hardy ein verlässliches Wertfundament, das sie gegen Wertverluste absichert. Die Alternative Global Value Unit GVU verspricht jedoch diese Sicherheit. Denn sie wird immer genau das wert sein, was Wissen wert ist, ohne dass jemand an dieser Relation drehen könnte. Das GVU vereint das Internet, die Blockchain, die im quantum relations-System arbeitende Künstliche Intelligenz und den Reichtum unserer Welt zu einem zukunftssicheren und wertstabilen System. Der unschlagbare Vorteil der GVU besteht aus Hardys Sicht in der Integration des Datenanalysesystems Cplus8 in dieses Systems Künstlicher Intelligenz, die jede Art aktueller Information vollautomatisch analysiert und integiert, ohne dass irgend jemand von außen eingreifen und Stellschrauben verdrehen kann. Die GVU ist nach Hardys Überzeugung deshalb als monetäres System komplett neutral, nachhaltig, sicher und transparent. Und: Sie steht nach seinen Worten in den Startlöchern. Die Konzepthase habe sie hinter sich. Die sogenannte Beta-Phase der Erprobung habe 2018 begonnen. Ein früherer Finanzminister eines der G20-Staaten, berichtet Hardy weiter, habe das GVE-Konzept in allen Einzelheiten studiert. Für ihn zeige es den einzigen bekannten Weg, die heutigen Weltwährungsprobleme zu lösen. „Wenn es eingeführt wird,“ sagt Hardy, „wird es die Welt grundlegend verändern“. Denn die vornehmste Aufgabe der Menschen werde danach nicht mehr darin bestehen, Geld zu vermehren, sondern Wissen. Wann kann das geschehen? Wenn es nach Hardy geht, schon sehr bald. Die Umsetzung werde nur einem Staat gelingen - je entwickelter er ist, desto eher. Zwar sagt er zu Recht: „Wer auch immer den Weg zu IPv6-Geld gehen wird - ich sitze da an der Pforte.“ Aber er sagt auch: „Wir sind bereit, Cplus8-Lizenzen an jeden zu vergeben, der in der Lage ist, Wissen zu aggregieren. Denn wo immer und so lange Wissen vermehrt wird, dient das der Menschheit.“ <?page no="185"?> 77 WWi isssse en n iisst t ggu utt, , ddeen nkkeen n iisstt bbees ss seer r Entscheiden Maschinen intelligenter als wir? Niemand weiß so viel wie Computer. Aber sie lernen auch zu denken und zu entscheiden. Übernehmen sie bald auch uns? Was das Mensch-Maschine-System wirklich bedeutet. 7.1 Grenzen Mensch - Computer verschwimmen 185 7.2 Hardys Vision vom intelligenten Planeten 191 7 7..11 GGrreennzze enn MMeennsscchh -- CCoommppuutteerr vveerrsscchhwwiimmmmeenn Behutsam greift ein Roboter ein Metallteil und reicht es einer Arbeiterin weiter. Er nimmt dabei auf jede ihrer Bewegungen Rücksicht und hält inne, bevor er sie auch nur berührt. Er bewegt sich mühelos und vorsichtig. Fehler macht er keine. Diesen APAS assistant hat Bosch konstruiert. Er soll typisch werden für den Industriearbeitsplatz der Zukunft. „Der Arbeitsalltag in der Fertigung wird sich in den kommenden Jahrzehnten grundlegend ändern. Mensch und Maschine werden enger zusammenarbeiten als je zuvor. Industrie 4.0 unterstützt Mitarbeiter und erleichtert ihnen die Arbeit“, sagt Bosch-Geschäftsführer Stefan Hartung. Der Bosch-APAS inspector erkennt mit Hilfe lernender Bildverarbeitung, ob die Materialoberfläche eines Fertigungsteils den Vorgaben entspricht. Der Mensch bringt der Maschine bei, welche Abweichung sie tolerieren darf und ab wann sie ein Teil aussortieren muss. Den Rest macht die Maschine dann selbst. Die Menschen vor Ort sind es zufrieden: Zwei Drittel der Beschäftigten sehen ihre Jobs durch die zunehmende digitale Vernetzung verbessert, hat das Beratungsunternehmen Accenture ermittelt, nur sechs Prozent befürchten das Gegenteil (Gerstl 2017). Sie haben auch kaum eine andere Wahl, denn die Kooperation von Mensch und Maschine setzt sich schnell durch. An einem Fließband stellt Bosch aus 2.000 verschiedenen, automatisch georderten Komponenten zum Beispiel 200 verschiedene Hydraulikmodule her. Ein Chip am Werkstück signalisiert, wie das fertige Produkt aussehen muss und welche Arbeitsschritte bis dahin zu erledigen sind. Die Arbeitspläne erscheinen automatisch als Foto oder Film auf Monitoren - individuell, je nach Ausbildungsgrad und in der Muttersprache des Mitarbeiters (ibid.). Bosch verspricht sich von solchen Industrie-4.0-Lösungen bis zum Jahr 2020 einen Zusatzumsatz von mehr als einer Milliarde Euro und Einsparungen von einer weiteren Milliarde Euro.Was in einer solchen Fertigung noch die Aufgabe von Menschen ist und was bereits die von Maschinen, steht nicht fest und lässt sich auch kaum vorhersagen. Wir beginnen uns daran zu gewöhnen, dass Maschinen tun, was früher unsereiner getan hat. Überrascht reagieren viele Menschen jedoch noch, wenn Maschinen auch geistige Tätigkeiten übernehmen. Dabei entwickelt sie sich mit Riesenschritten; wir haben das schon gesehen. Ein Schüssel ist das Smartphone, das uns dabei öfter als jede andere Maschine unterstützt. Esgalt schon 2010 als wichtiger als Radio, Fernsehen und das stationäre Web zusammen (Kuhn 2010). Inzwischen werden Smartphones als „ausgelagerte Gehirne“ bezeichnet (Constanze Kurz, Sprecherin des Chaos Computer Clubs, SZ 30.12.2016: 11). Eben Moglen, Rechtsprofessor an der Columbia University, nennt Smartphones sogarRoboter, für die wir, die stolzen Besitzer, nur noch die Hände und Füße seien (Morgenroth 2014: 58). <?page no="186"?> 186 7 Wissen ist gut, denken ist besser Was Computer heute schon können Baudrillard hatte angesichts von Computer, Fernsehen, Video und Kamera schon 1988 gefragt: „Bin ich nun Mensch oder bin ich Maschine? “ Er sah Menschen und Maschinen im einen „integrierten Schaltkreis“ verbunden. Denn Maschinen würden mit dem menschlichen Körper derart eng verbunden, dass ununterscheidbar werde, was „dabei die Qualität des Menschen oder der Maschine ausmacht“ (cit. Stampfl 2013: 13). Das war damals noch eine Vision. Inzwischen verschwimmen die Grenzen zwischen menschlicher und maschineller Arbeit tatsächlich. So werden zum Beispiel Zeitungsartikel längt nicht mehr nur von Journalisten geschrieben - wer sie liest, kann kaum mehr unterscheiden, was ein Mensch und was eine Maschine formuliert hat. Die Entwickler automatisierter Texterstellungs-Software kommen allerdings weniger aus dem Journalismus als aus dem Sektor Suchmaschinen- Optimierung, Marketing und von Dienstleistern für Produktkataloge. Deutschland ist mit fünf Anbietern stark vertreten: Retresco, Aexea, Texton, 2TXT und TextOmatic (Karcher 2016). Das Volumen solcher automatisierter Texte war schon 2013 sehr groß: ca. 300 Millionen Artikel (Ulanoff 2014, cit. Haim/ Graefe 2018: 146). Allein das Forschungsprojekt PollyVote hat laut Haim schon 17.500 „objektive“ Texte automatisch auf Englisch und auf Deutsch „ausgespuckt“. Weitere Sprachen lassen sich bei Text-Robotern in der Regel mit geringen Zusatzkosten einrichten (Karcher 2016). Roboter-generierte Texte werden nicht nur im Forschungs-Projekt PollyVote, sondern auch bei etablierten Medien eingesetzt, etwa bei AP Associated Press, der Los Angeles Times, der New York Times, bei ProPublica, im SID Sport-Informations-Dienst und in der Berliner Morgenpost. Nicht wenige Verlage erproben die neue Technik „still und heimlich“, um die Belegschaft nicht zu verschrecken (Karcher 2016). Hier drei Beispiele: In der Universität Karlsbad lasen Studenten je einen Sportbericht der Los Angeles Times und des Computers Boltbeat, ohne zu wissen, welcher Text woher kam. Sie bewerteten den Computertext als deutlich informativer und vertrauenswürdiger, wenn auch als langweiliger, und beide als gleichermaßen anschaulich, klar und präzise (Hestermann 2017: 63): Die Niederländer Hille van der Kaa und Emiel Krahmer ließen 232 Probanden, unter ihnen 64 Journalisten, 2014 ebenfalls zwei Texte vergleichen, einen computergenerierten Bericht über ein Fußballspiel und einen von einem Menschen verfassten Börsenreport. Beide wurden als gleichermaßen glaubwürdig beurteilt. Und an der Macromedia-Hochschule München verglichen tausend Probanden online menschengemachte und computergenerierte Texte. Die Computertexte schnitten bei der Bewertung der journalistischen Qualität besser ab und galten als glaubwürdiger, die der Journalisten als besser lesbar. Die Reihe dieser Beispiele lässt sich mit ähnlichen Computeraufgaben fortsetzen: Die Software Quakeboat der Los Angeles Times wandelt behördliche Erdbebenwarnungen in Echtzeit in Zeitungsmeldungen um. Das Programm Blossom der New York Times filtert aus den dort täglich rund dreihundert eingehenden Meldungen die heraus, die sich für soziale Medien eignen, vor allem für Facebook. Die Zeitung veröffentlichte schon ein Gedicht in klassischem Versmaß, das die Software Swiftkey aus Shakespeare-Sätzen verfasst hatte. Das Drehbuch zum Science-Fiction-Film Sunspring stammt ebenfalls aus einem Rechner. Er wertete Drehbücher früherer science-fiction-Filme aus und kombinierte deren Inhalte neu. Der Film erreichte bei einem Londoner Filmfestival einen Platz unter den top ten (alle ibid.). Noch fassen automatisierte Texte im Wesentlichen Daten nur zusammen. Eigenständige Diskussionen und komplexe Interpretationen einer Sachlage, sagt Karcher(2016), könne der Kollege Roboter noch kaum leisten. Aber „Künstliche Intelligenz ist wie ein Marathonlauf. Wir sind erst einige Meter gelaufen“ (Goblirsch 2018). Deshalb prognostizieren Haim und Graefe: „Während beim datengetriebenen Journalismus oder bei der automatisierten Bündelung von Inhalten Bestehendes genutzt, umstrukturiert und erneut präsentiert, Inhalte also kuratiert werden, schafft der automatisierte Journalismus gänzlich neue Produkte, <?page no="187"?> 7.1 Grenzen Mensch - Computer verschwimmen 187 indem er menschliche Sprache auf Basis strukturierter Rohdaten ohne menschliches Zutun generiert. Mit diesem Schritt geben Redakteure ein Stück journalistischer Deutungshoheit an Algorithmen bzw. die Entwickler von Algorithmen ab“ (Haim/ Graefe 2018: 142). Noch gilt: „Der Algorithmus erkennt von sich aus keine Probleme, er stellt auch keine Fragen oder kann reflektieren“ (Goblirsch 2018). Aber Mischformen, die stärker auf das Zusammenspiel von Algorithmen und Journalisten setzen, deuten sich bereits an (vgl. Schwizler 2016): Dabei wird zu Beginn der Recherche bereits „ein (datenorientierter und zahlenlastiger) Rohtext generiert, mit dem der Journalist dann weiterarbeitet“ (Haim/ Graefe 2018: 145). Die beiden Wissenschaftler stellen fest, „dass die Idee eines automatisierten Journalismus zunächst ambivalente, überwiegend aber dennoch optimistische Haltungen zutage bringt. Zwar werden ein Stellenabbau und eine noch stärkere Kommerzialisierung der Branche befürchtet. Automatisierung sollte aber zugleich imstande sein, mehr menschliche Ressourcen für höherwertige Aufgaben freizusetzen und damit auch die journalistische Qualität insgesamt zu erhöhen. Der Weg dafür ist geebnet, aber er ist - um im Bild zu bleiben - noch nicht befestigt“ (ibid.: 150). Und unerledigt ist auch „eine Reihe ethischer Fragen, beispielsweise ob Nutzer grundsätzlich Kenntnis davon ha-ben sollten, dass Inhalte (teilweise) automatisiert erstellt wurden“ (ibid.: 157). Offen sind ferner Fragen nach der Datenqualität und Funktionsweise der Algorithmen (Diakopoulos 2015). Die Ablösung des herkömmlichen Journalismus geht im Zeitalter der Digitalisierung derweil weiter. Die App Resi des deutschen Web-Pioniers Martin Hoffmann schickte als virtuelle Gesprächspartnerin längere Zeit täglich rund ein Dutzend Nachrichten an junge Leute von 15 bis 25 Jahren, die sich kaum mehr aus klassischen Nachrichtenseiten informieren (Peteranderl 2017: 57). Langfristig wirtschaftlich wurde das Projekt allerdings nicht; 2018 stellte sein Initiator diese stand alone-Lösung wieder ein (Weidmann 2018). Besser hält sich eine Lösung, die auf etablierte Distributionskanäle setzt. Die Zeitung Der Fränkische Tag verbreitet seit 2014 regionale Neuigkeiten per Messenger „und wurde vom Erfolg förmlich überrollt“ (ibid.). WhatsApp und der Facebook Messenger haben sich als Ausspielkanäle für journalistisch aufbereitete Lokalnachrichten dort seither bewährt, denn die Redaktion kann so „den user abholen, wo er sich die meiste Zeit des Tages aufhält“ (ibid.). In weit größerem Maßstab übertragen 70 Journalisten seit 2017 Artikel aus rund 3000 Medien in die Microsoft-Nachrichtenplattform MSN; von Berlin aus verbreitet MSN sie in acht Sprachen in zehn europäische Länder (Mrazek 2018). Das SRF, das Schweizer Radio und Fernsehen, hat den Chatbot Janino in Facebook gestellt, um Bürgern bei dort häufigen Volksabstimmungen zu helfen. Zwei virtuelle Figuren erläutern Themen, etwa die Einbürgerung junger Ausländer der dritten Generation, die Finanzierung von Nationalstraßen oder eine Unternehmenssteuerreform. Ein virtuelles Gesicht übernimmt die Pro-Position, das andere die Position der Gegner. Auch die Meinungen der Parteien zu denThemen lassen sich abfragen. Grafiken und Videos vertiefen die chats (ibid.: 59 f.), Dass kein Mensch Auskünfte gibt, sondern eine Maschine, wird bewusst an der Optik erkennbar. Chatbots sind kleine Programme Künstlicher Intelligenz, die als Kommunikationsroboter mit Hilfe von machine learning selbstständig lernen. In social media werden sie als social bots eingesetzt. Chatbots nutzen elektronisch gespeicherte Kundenprofile, die nicht nur auf deren Eingaben beruhen, sondern vor allem auf nicht sichtbaren Daten wie etwa Standort, IP- Adresse, Endgerätetyp (mobil, stationär), browser-Version und Betriebssystem. Bei Buchungen oder Online-Käufen steuert der Nutzer mit seinen Anfragen die Entscheidungsbäume im Algorithmus des bot, und der bot liefert Tipps (Matzer 2017: 11). Beim Einkauf beraten bots- Kunden also digital. Kein Mensch greift da ein. Beispiele: Im Facebook Messenger ebenso wie mit der AppWeChat können Nutzer, während sie mit Freunden chatten, per Klick zum <?page no="188"?> 188 7 Wissen ist gut, denken ist besser Beispiel einen Fahrer bestellen. Messenger-Bots helfen beim Pizza-Bestellen oder mixen personalisierte Musiklisten. Virtuelle Butler wie Siri von Apple, Home von Google, Cortana von Microsoft und Echo von Amazon werden zu Plattformen für Dienstleistungen aller Art. Bots einzurichten ist einfach: Dem Microsoft Azure Q&A-Maker genügen als Basis Fragen und Antworten. Aus der URL erkennt der Q&A-Maker die Struktur. Zu flexiblerer Kommunikation entwickelt er Eingangsfragen und alternative Fragemöglichkeiten. Dabei lernt er ständig hinzu (Bütikofer 2017). Es gibt schon Webseiten mit Bots für die Partnervermittlung oder zur Beschäftigung von Kindern. „Einige von ihnen warnen ganz explizit davor, Bots mit Menschen zu verwechseln - obwohl doch nur Maschinen am Werk sind (ibid.). Bis 2020 sollen bots in call centers 80 Prozent aller Anfragen beantworten (Oracle, cit. Bütikofer 2017). Mittelbis langfristig könnten botsheutige Apps sogar weitgehend ersetzen (ibid.). Nicht jeder findet diese Entwicklung gut Mehr als 50 Prozent von 1500 befragten Online-Käufern lehnen Kommunikation per Chatbot bisher ab. Vielen ist der Mensch-Maschine-Dialog zu unpersönlich und zu unausgereift (Fittkau & Maaß 2017). Bei der Kommunikation mit Webshop- und Webseitenbetreibern riefen gut 40 Prozent derer, die sich dorthin wandten, lieber call center an als sich auf einen chat einzulassen. Von denen, die online-Dialoge akzeptieren, ziehen es drei Viertel vor, eMails und Onlineformulare an „echte Ansprechpartner“ zu senden. Jeder fünfte will chatten - aber mit chatbots wollen nur vier Prozent kommunizieren. Die Kommunikation von Mensch und Maschine ist ihnen noch zu unpersönlich. Noch? Skeptiker unter den Datenexperten hoffen, dass die Skepsis nicht nur anhält, sondern sich weiter vertieft. Für Hofstetter erscheint am Horizont als Alternative zum homo sapiens nämlich bereits „der Posthumane, der Hybrid aus Mensch und Maschine, der cyborg, der den homo sapiens und seine Fähigkeiten weit überflügeln wird“ (Hofstetter 2016: 309). Hofstetter nennt den Transhumanismus, der damit einsetzen könnte und auf den wir später in diesem Buch noch genauer zurückkommen, eine „sehr reale Bedrohung“ (ibid.: 310). Um diese Gefahr nicht außer Kontrolle geraten zu lassen, hat Hofstetter zehn Forderungen: Erstens sollte man persönlichen Daten den Vorzug geben: „Wer auch in Zukunft Kreativität, Initiative, Würde - kurzum: die Freiheit des Menschen - garantieren will, muss umdenken. Er muss Grenzen ziehen. Dazu gehört die Anerkennung der Subjektivität persönlicher Daten“ (ibid.: 285). Zweitens solle man zivilen Widerstand leisten. Hofstetter fordert „eine Bewegung der Zivilgesellschaft, die dort Druck aufbaut, wo politische Eliten versagen oder unter dem Druck der Big Data-Lobby zusammenbrechen“ (ibid.: 90). Drittens geht es darum, Grundrechte für Datensubjekte zu schaffen. Das umfasst die jederzeitige Dateneinsicht ebenso wie eine Löschung von Daten auf Verlangen, eine gerechte Gegenleistung für die Nutzung persönlicher Daten durch andere und ein Diskriminierungsverbot für alle, die nicht wollen, dass bei ihnen oder über sie Daten überhaupt erhoben, verarbeitet oder genutzt werden (ibid.). Viertens sind nach Hofstetters Überzeugung intelligente Algorithmenabkommen nötig und fünftens ein Kampf gegen die Machtkonzentration der Big-Data-Anwender: „Monopolistische informationelle Strukturen müssen kartellrechtlich überprüft und zerschlagen werden“ (ibid.: 302). Sechstens fordert Hofstetter, die Besteuerung von Big-Data-Anwendungen zu revidieren (eine Maschinensteuer einzuführen traut sich nach Ansicht von Armin Grunwald vom Institut für Technikfolgenabschätzung zur Zeit aber niemand; BMBF/ Wi 2018: Grunwald), siebtens, den Staat im Umgang mit Big Data zu professionalisieren, achtens, die Finanzie- <?page no="189"?> 7.1 Grenzen Mensch - Computer verschwimmen 189 rung für Europas IT-Projekt sicherzustellen, neuntens zwischen Mensch und Maschine klare Grenzen zu ziehen und schließlich zehntens, Verhaltensregeln auch für intelligente Maschinen zu schaffen (ibid.: 285 ff.). Gemeint sind damit Verhaltensregeln „im ‚Leben‘ der Maschinen, an die sich alle zu halten haben und deren Nichtbeachtung zu einem wirtschaftlichen Nachteil für die Maschine führt, die die Konvention verletzt“ (ibid.: 314). Forderungskataloge wie dieser fußen auf dem Doppelgesicht der computertechnischen Zukunft: Einerseits werden Computer, wenn sie wie Menschen denken können, mit ihren gewaltigen Datensammlungen sowie darauf basierenden Folgerungen und Empfehlungen unsere Fähigkeiten und Kenntnisse erweitern. Das ist die Zukunftshoffnung. Andererseits lösen sie Zukunftsängste aus, nämlich die Befürchtung, dass sie uns das Heft aus der Hand nehmen und Maschinen programmieren, um uns zu ersetzen. Filmisch wurde dies in Streifen wie Morgan oder Ex Machina schon verarbeitet nach dem Motto: „Etwas unheimlich sind solche ‚allwissenden, denkenden Maschinen‘ und deren Fähigkeiten allemal“ (ap-verlag 2016). Boellstorff sieht solche Szenarien, in der die „Computertechnik die Gesellschaft gestaltet“, dennoch eines Tages Wirklichkeit werden (Boellstorff 2014: 106). Es gibt Experten, die hier entschieden widersprechen, etwa der Münchner Professor für interntionale Politik Carlo Masala. Dass man die Urteilsfähigkeit von Menschen durch Maschinen ersetzen könne, nennt er einen Mythos ohne jede Aussicht auf Realisierung. „Wir bauen nichts auf“, sagte er noch Ende 2018, „was auch nur langfristig Analysten ersetzt“ (Masala 2018). Mythos Nummer 2 ist nach seiner Überzeugung die Hofffnung, Maschinen könnten mit Prognosen jemals zu einhundert Prozent richtig liegen. In seiner Arbeit zur langfristigen Abschätzung politischer oder militäischer Krisen irgendwo auf der Welt hät eine Wahrscheinlichkeit von 85 Prozent dafür, dass eine Voraussage eintritt, für einen angemessenen, ja schon maximalen Wert. Denn keine Künstliche Intelligenz könne „die Cleverness von Akteuren voraussehen“ (ibid.). Mythos Numme 3 nennt er die häufige Annahme, Ursachen und Wirkungen seien linear miteinannder verknüpft. Kein typischer Analyst der politischen Verhältnisse in einem Land wie Ägypten habe jedoch Ursache-Wirkungs-Verkettungen im Blick, die es ihm ermöglichten, Unruhe in der Bevölkerung und Demonstrationen auf den Straßen Kairos mit dem Klima Australiens in Verbindung zu bringen. Beide seien aber verknüpft. Agypten bezieht nämlich 40 Prozent seines Weizens vom fünften Kontinent, den jedoch seit drei Jahren eine Dürre heimsucht. Folglich gibt es schlechtere Ernten, wird weniger Korn exportiert, wir das Getreide in Agypten deshalb knapp und steigen die Brotpreise bis auf ein Niveau, dass die Menschen dort auf die Straßen treibt. Die Künstliche Intelligenz, deren enorme Fähigkeiten der Bundeswehrhochschul-Professor sehr gut kennt, zum Beispiel auf dem Gebiet von Waffen, die sich selbst ihr Ziel suchen und bald selbst entscheiden können, ob sie töten oder nicht, könne den Menschen sehr weit entlasten, sagt Masala, aber ersetzen könne sie ihn nicht. Der data scientist Hardy, dessen Weg durch die Welt der Daten wir in diesem Buch nachzeichnen, beurteilt das differenzierter. Er ist überzeugt, dass die Mensch und Maschine- Symbiose eine neue Art globaler Intelligenz hervorbringen wird. Ob das die kreativkonstruktive oder die destruktive Seite des Menschen fördern werde, hänge aber von uns ab (Schloer/ Spariosu 2017: 211). Wenn wir davon ausgehen, „dass Maschinen heute nicht nur unserer physischen, sondern auch unserer geistigen Fähigkeiten erweitern und unsere heutigen individuellen und kollektiven Möglichkeiten bald übertreffen und damit in ihrem eigenen Sinn lebendig werden“, müssten wir das Zusammenwirken von Mensch und Maschine überdenken (ibid.: 209). Es gebe jedenfalls keinen Grund anzunehmen, „dass Maschinen etwas besser können, wenn man sie allein nach ihren eigenen Regeln tun lässt, nicht anders als es unserem Nachwuchs ergehen würde, ließen wir ihn allein“ (ibid.: 210). <?page no="190"?> 190 7 Wissen ist gut, denken ist besser Menschen haben Aggressionen, Computer nicht Hardys Zutrauen in gemeinsame Zukunft von Mensch und Maschine ist groß. Er traut Maschinen sogar mehr als Menschen und sagt ganz drastisch: „Keine Maschine, ganz gleich wie intelligent, wird jemals so unberechenbar und gefährlich handeln wie Menschen derzeit. Die Intelligenz von Computern in der neuen Ära der Mensch-Maschinen-Intelligenz wird weitaus sicherer, verantwortlicher und vorhersehbarer sein als wir, die Menschen, es in unserer Geschichte jemals gewesen sind. Sie können einen Hammer nehmen und ein notebook mitten zwischen 50 anderen Computern zerschlagen - das wird die anderen Geräte weder bekümmern noch werden sie Sie dafür attackieren“ (Schloer 2010). Hardy sieht das durch die Geschichte bewiesen: „Das Verhalten der Menschen in den letzten paar tausend Jahren spricht für sich selbst: Sie sind, was sie immer schon waren: todbringende Raubtiere, darauf aus zu töten, unermüdliche Sucher nach mehr Kraft und Besitz, und all das ohne Rücksicht auf das unendliche Leid, das sie damit sich und anderen bringen“ (ibid.). Die Menschen hätten zwar die Zivilisation und ziviles Verhalten entwickelt. „Aber das sind nur clevere Wege, um mit den alten Instinkten vom Jagen und Töten umgehen zu können.“ Als Beispiel aus unserer Zeit nennt er die Finanzmärkte: „Da läuft ein Nullsummenspiel, in dem der eine nur auf Kosten des anderen verdient, ohne Rücksicht auf Nachteile oder die immensen Kosten, die der Vorteil des einen für andere bringt. Da läuft etwas falsch. Helfen wird nur ein Weg zur Mensch-Maschinen-Intelligenz. Es geht um nicht weniger als eine Ko-Evolution, in der Menschen und Maschinen gemeinsam eine neue Mentalität und bessere Lebensbedingungen für uns alle erzeugen“ (ibid.). Hardy sprach, als er das sagte, nicht vor irgendwelchen Esoterikern mit Weltuntergangsphantasien, sondern vor nüchtern denkenden Ingenieuren auf einem internationalen IBM- Kongress. „Maschinen können sehr schnell arbeiten“, fuhr er fort. „Aber wir Menschen sind langsam darin, die Ergebnisse ihrer Leistung zu evaluieren.“ Auch dafür sei die Finanzindustrie ein gutes Beispiel. Eine einzige mittelgroße Bank wie die Commerzbank muss 20 Millionen Kunden versorgen und stündlich 30 Millionen Finanztransaktionen abwickeln (Bitkom 2018: Schnebel). Computer-Algorithmen entscheiden in den Banken immer öfter in Millisekunden. Da könne kein Mensch mithalten. Unsere gewohnten Prozesse und Strukturen seien auf Stabilität und Dauerhaftigkeit ausgelegt und damit weder anpassungsfähig noch schnell. Heute jedoch werde „alles im ‚Jetzt‘ erwartet, damit man sofort eingreifen kann“ (Bryner 2016). Technische Lösungen zeigen, wie kurz die Zeitspanne geworden ist, die man „jetzt“ nennt. Zwischen Nordamerika und Europa beschleunigen neue Glasfaser-Seekabel die Nachrichten von einer zur anderen Küste um wenigeMillisekunden „exklusiv für die schnellen Händler, die damit Tausendstelsekunden Zeit gewinnen. Eine kann einen Gewinn von vielen Dutzend, wenn nicht hundert Millionen Dollar pro Jahr bedeuten“ (Drösser 2016: 147, vgl. Eberl 2016: 272). Der Flaschenhals in diesem Tempowettbewerb, fügt Hardy hinzu, seien auf dem Finanzmarkt die menschlichen Analysten: Sie seien einfach zu langsam. Man brauche sie noch zur Bewertung. Wenn sich der Datenzufluss verändert, müsse sich nämlich auch die Bewertung anpassen. Das könnten Maschinen noch nicht, da sie von den einmal einprogrammierten Kriterien nicht abweichen. Was wir deshalb brauchen, sind nach seiner Überzeugung „intelligente Maschinen, wirkliche maschinelle Intelligenz“ (ibid.). Ihm ist klar, was er da fordert. Die Frage „Was nützt den Menschen? “ will er nicht im Sinn „größtmöglicher materieller Vorteile zu Lasten des menschlichen Wohlbefindens im Ganzen“ verstanden wissen. Die neue Künstliche Intelligenz, sagte er schon im Jahr 2010 seinen IBM-Zuhörern, solle und werde „den Menschen früher oder später ihre Freiheit zurückgeben, nicht alle Abläufe und Erträge auf der Erde erarbeiten zu müssen, sondern ein vernünftiges Maß an Engagement und Verwaltungsaufwand, aber auch Freude an diesen wundervollen Gaben“ zu haben (ibid.). <?page no="191"?> 7.2 Hardys Vision vom intelligenten Planeten 191 77..22 HHa arrddyys s VViissiioonn vvo omm iinntteel llliiggeen ntteen n PPllaanneet te en n Globale Intelligenz sei „die Fähigkeit zu verstehen, was die Menschheit weiterbringt und das Leben auf unserem Planeten bereichert“. Sie basiere auf dem allgemeinen Bewusstsein einer wechselseitigen Abhängigkeit aller örtlichen Geschehnisse in einem weltweiten Bezugsrahmen und den wachsenden individuellen Verantwortlichkeiten, die hieraus entstehen. Keine politische Macht könne dies allein bestimmen oder voraussagen. Globale Intelligenz, ist Hardy überzteugt, müsse deshalb einen kollektiven Lernprozess auslösen und könne nur entstehen „auf der Basis fortlaufenden kulturübergreifenden Zusammenwirkens, des offenen Gesprächs und friedvoller gemeinsamer Arbeit aller Menschen auf der Erde“ (Schloer 2010). Dass dies im Jahrhunderet zweier Weltkriege wie eine bloße fromme Hoffnung erscheinen mag,weiß er natürlich. Es ficht ihn nicht an - mehr noch: Er sieht zu dieser diese friedlichen Revolution keine Alternative. Im ausgehenden 20. Jahrhundert hatte Hardy erlebt, wie die Menschen die Gesellschaft des Jahres 2000 erwarteten, in der Computer alle planende und steuernde Arbeit tun und Roboter alles herstellen würden und in der die Menschen die Zeit und die Einsicht gewonnen hätten, dass man Meinungsunterschiede dialogisch, also friedlich lösen kann und auch muss. Aber „das Jahr 2000 kam und ging vorüber, und eine Gesellschaft dieser Art ist nicht in Sicht“ (ibid.). Hardy ist nicht einmal sicher, ob er sich eine solche Welt wünschen soll. Das aber will er: eine Welt, in der es gerechter und friedlicher zugeht als heute. Zu erreichen sein werde das nur mit mehr und stärker automatisierter Technik - da ist er sich sicher. Er zählt deren zehn Gebote auf: „(1) Wir müssen große Zentren globalen Wissens mit Supercomputern errichten, die alle weltweit offen verfügbaren Daten und ihre Inhalte fächer- und kulturübergreifend speichern und analysieren. (2) Alle diese weltweiten Wissenszentren müssen wir miteinander verknüpfen, so dass ein weltweit zugängliches Reservoir von Wissensspeichern entsteht. (3) Dazu müssen wir ein weltweit vernetztes System von Sensoren und Datensammel- Technologien entwickeln, das Daten jeden Tag bei Tag und Nacht in Echtzeit in den Speichern ablegt. (4) Wir brauchen die bestmögliche Künstliche Intelligenz, um diese Datenspeicher fortlaufend nach tiefsitzenden Mustern und Verständnisweisen, global verantwortbaren Chancen und weltweit drohenden Risiken zu durchsuchen. (5) Wir müssen Technologien entwickeln, mit denen jedermann diese Wissensbanken jederzeit anzapfen und ihre Inhalte kostenfrei nutzen kann, damit sich der Fortschritt der Menschheit unabhängig von Wirtschaftskräften entfalten kann. (6) Wir müssen Kommunikationstechniken in einem weltweiten Standardformat einführen und kontinuierlich Datenströme verbreiten einschließlich jeder Art von Risikowarnung und Änderungsbedarf, die die Menschheit kennen muss, um zu überleben. (7) Diese Lösungen müssen weltweit kostenlos und ohne politische oder dogmatische Einflüsse verfügbar werden. (8) Alle Dienstleistungen, die die Menschen erbringen, sei es der Welthandel, das Gesundheitswesen, die Bildung oder sogar das Regieren, benötigen einen globalen Maßstab mit lokalen Ableitungen. (9) Jede Art lokaler maschineller Intelligenz muss mit den automatisierten globalen Wissensnetzwerken komplett verknüpft werden können. <?page no="192"?> 192 7 Wissen ist gut, denken ist besser (10) Alle globale Information muss für alle Menschen offen zugänglich bleiben“ (ibid.). Die Umsetzung dieser zehn Gebote werde zur Basis für die „Heraufkunft des intelligenten Planeten“, erklärte Hardy seinen Zuhörern auf dem erwähnten IBM-Kongress. Er ließ keinen Zweifel daran, welche Grundlage er dazu für erforderlich hält: die Symbiose von Mensch und Maschine, den Einsatz umfassender Künstlicher Intelligenz (Schloer 2010). <?page no="193"?> 88 DDeerr nnaacckktte e PPa attiieen ntt Werden wir eine bessere Medizin mit unseren Daten bezahlen? Gesundheitsdienste wollen und werden alles über uns wissen. Wie viel Souveränität behalten wir noch über unsere intimsten Daten, über die Daten zu unserer Gesundheit? 8.1 Die Maschine als Arzthelfer 193 8.2 Auch im Gesundheitswesen Big Data 196 8.3 Zoe - die Vision einer gesünderen Welt 200 8.4 Datenschutzprobleme 204 88..11 DDiiee MMaasscchhiinnee aallss AArrzztthheellffeerr Kaum etwas ist so privat wie persönliche Gesundheitsdaten, sollte man meinen. Davon geht auch der Gesetzgeber aus und schützt solche Daten besonders. Aber im Zeitalter von Big Data ändert sich das. Was die Datentechnik ermöglicht, ist „die nächste Weltveränderungsidee im Silicon Valley, dass die Entschlüsselung der Biologie und das Verständnis von Krankheiten am Ende ein Datenproblem sei und deswegen zumindest teilweise von Software-Experten gelöst werden könne. Alles ist eine Rechenaufgabe, auch der Mensch“ (Schulz 2017a: 69). Derzeit besteht das Gesundheitswesen aus einem ambulanten und dem stationären Sektor. „Bald wird der digitale Sektor hinzukommen“, sagen Gesundheitsökonomen (Müller 2017a: 68). Bis 2025 soll der digitale Medizinbereich allein in Deutschland jährlich hundert Milliarden Euro umsetzen. Derzeit liegt das Gesundheitsbudget landesweit bei insgesamt rund 350 Milliarden Euro (ibid.). Auf diesem Feld liegt also „eine enorme Gelegenheit“ für neue Geschäftsfelder (Apple-Chef Tim Cook, cit. Schulz 2017a). Entsprechend massiv investieren nicht nur traditionelle Pharmakozerne wie Bayer in die medizinische Forschung, sondern gerade die großen „Datenkraken“. Bayer gab für die Forschung 2016 etwas mehr als fünf Milliarden US-Dollar aus, Facebookaber bereits fast sechs, Apple zehn, Microsoft gut zwölf, Alphabet/ Google fast 14 und Amazon mehr als 16 Milliarden (ibid.). Geschätzt gibt es bereits 300.000 Gesundheits-Apps, also Computerprogramme, die einen medizinischen Nutzen versprechen (Rebscher/ Kaufmann 2017; vier Jahre zuvor hatte Albrecht in der Medizinischen Hochschule Hannover erst von 100.000 gesprochen, cit. Viciano 2013). 2014 hatte Langkafel geurteilt: „Den medizinischen Autopiloten gibt es noch nicht - noch nicht? “ (Langkafel 2014: VII). Das Rad der Entwicklung dreht sich schnell, wesentlich schneller als in der Pharmaforschung. Dort lange dauert es nach aller Erfahrung zehn Jahre, bis ein Medikament nach allen klinischen Tests und allen Genehmigungsrunden eingesetzt werden kann (Roche 2017: Jaeger). Datenspezialisten sind so lange Zeiträume nicht gewohnt. Sie und Medizinforscher denken und arbeiten folglich in zwei Geschwindigkeiten: Die einen planen für Jahre, die anderen für Monate oder sogar nur für Wochen. Für Vorhaben beider Seiten eine gleiche „Wellenlänge“ zu erzeugen, ist keine leichte Aufgabe (ibid.). Denn die Projekte sind äußerst komplex. Einige Beispiele: Facebook entwickelt einen menschlichen Zellatlas, der alle Körperzellen kartografieren und so neue Medikamente ermöglichen soll. <?page no="194"?> 194 8 Der nackte Patient Google untersucht, wie Algorithmen auf Fotos Hautkrebs erkennen und wie Computerprogramme Depressionen überwinden und Herzinfarkte vorhersagen können. Amazon arbeitet unter dem Codenamen 1492 - das Datum für die Entdeckung der neuen Welt (ibid.: 70) - an virtuellen Arztbesuchen und an Patientendatenbanken in der cloud. Die Biological Computation Group in der britischen Universitätsstadt Cambridge erläutert das Vorgehen der Daten-Unternehmen in der Medizinforschung so: Auch biologische Vorgänge seien am Ende Informationsverarbeitungsprozesse. Wisse man, wie man Computer programmiert, könne man auch lernen, Zellen zu programmieren“ (ibid.: 71). Und verstehe man diese Funktion, könne man auch eine Programmiersprache entwickeln um einzugreifen. „Am Ende könnte ein molekularer DNA-Computer stehen, der Krebs in einer Zelle erkennt und ihr den Selbstmord befiehlt. Eine Art Doktor direkt in der Zelle, ‚spekulativ, aber sehr vielversprechend‘, sagt Chris Bishop, der Leiter des Labors in Cambridge“ (ibid.). Binnen zehn Jahren will Microsoft das Problem Krebs lösen und diese Krankheit zumindest so weit beherrschen, so dass sie nicht mehr tödlich verläuft. Dazu sammeln diese Unternehmen Daten in Mengen, die Menschen nicht mehr verarbeiten könnten. Die Microsoft-Datenbank enthält bereits 27 Millionen digital abgespeicherte medizinische Abhandlungen. Das schweizerische Pharmaunternehmen Roche verarbeitet sogar 18 Milliarden globale Daten im Jahr (Roche 2017: Jaeger). Wer kommt da noch mit? „Nur Maschinen“, gibt Hoifing Poon zu, der Leiter eines Forschungsprojekts für den Einsatz Künstlicher Intelligenz in der Präzisionsmedizin (Schulz 2017a: 70). Zwei Beispiele: Dass es drei Formen der Diabetes gibt, ließ sich nur maschinell aus Big Data ermitteln (BMBF/ Wi 2018: Assodolahi). Ein IBM KI-System hat kürzlich die DNA-Sequenzierung eines Gehirntumors korrekt und schneller interpretiert als ein ganzes Team menschlicher Experten (Schulz 2017a: 70). Die Maschine als Arzthelfer? Ja, urteilt Schulz: „Die Möglichkeiten scheinen endlos, zumindest in den Planspielen der Software-Ingenieure“ (ibid.). Der Abgleich von Millionen gleichgelagerten Daten überwinde nämlich traditonell eingeschränkte Perspektiven, und zwar sowohl die, die aufärztlicher Erfahrung beruhen, gleich ob individuell gesammelt oder als kollektives Wissen in Leitlinien hinterlegt, als auch die in die in klinischen Studien niedergelegten mit dort strukturell nicht erfassten - weil nicht untersuchten - Einflussfaktoren (Rebscher/ Kaufmann 2017: 16). In anderen Worten: Je mehr Daten, desto sicherer werden die Ergebnisse. Verführerisch hieran ist, dass Massendaten für sich zu sprechen scheinen, während oftmals unsichtbar bleibt, wie Big Data erzeugt und genutzt werden (Fenwick/ Edwards 2017). Der medizinische „Goldstandard“ bleibt zwar die doppelblinde klinische Studie. Massendaten könnten diesen „verzerrungsfreien Ansatz“ nicht gewährleisten. Sie machen aber Korrelationen und Muster sichtbar. „Damit kann die Big Data-Analytik helfen, die erkannten Häufungen und Muster ihrerseits guten Studiendesigns zuzuführen, um damit kausale Wirkungen zu untersuchen“ (ibid.: 19). Diese Analytik wirft Fragen mit weitreichender Relevanz für den Datenschutz auf. Es sind Fragen nach den wissenschaftlichen, aber auch ökonomischen Perspektiven dieser Entwicklung, nach der Zuverlässigkeit digitaler Lösungen, nach dem Vertrauen von Patienten in e-health-Dienstleistungen, nach dem künftigen Arzt-Patienten-Verhältnis und ganz generell nach gesellschaftlichen Folgen einer „Kultur der Selbstvermessung“ (Stiftung Datenschutz/ Bergh 2017). Eine schlankere medizinische Versorgung? In den USA fließen mehr als 20 Prozent der Staatsausgaben in das Gesundheitssystem (Schulz 2017a). Es verschwendet jedes Jahr zwischen 500 und 850 Milliarden Dollar wegen unnötiger Dienste, zu 22 Prozent aber auch wegen Betrugs an Versicherungen und wegen <?page no="195"?> 8.1 Die Maschine als Arzthelfer 195 anderer Betrügereien (Kelland 2010). In Europa übertrifft der durchschnittliche Kostenanstieg im Gesundheitswesen das Wirtschaftswachstum (BSP) und belastet den Steuerzahler daher überdurchschnittlich. Doppeluntersuchungen, Irrtümer und Betrügereien im Gesundheitswesen verschlingen jährlich 180 Milliarden Euro (ibid.). Weltweit belasten die Kosten des Gesundheitswesens laut WHO die Menschen so stark, dass sie jedes Jahr hundert Millionen Patienten in die Armut treiben (Schloer/ Spariosu 2017: 140). Dramatischer noch: Die Unkenntnis über Unverträglichkeiten von Medikamenten zueinander kann lebensbedrohlich sein. Ein Beispiel: Im Jahr 2001 starben in Deutschland mehr als fünftig Menschen, weil sie ein cholesterinsenkendes Mittel verordnet bekommen hatten, das sich mit anderen Medikamenten nicht vertrug. Der jeweils verschreibende Arzt hatte von den bereits eingenommenen anderen Medikamenten nichts gewusst. Weltweit belasten kritische Reaktionen auf Medikamente zwei Millionen Patienten. 100.000 von ihnen verlieren deswegen jährlich ihr Leben (Matzer 2017: 9). In den USA ist das die dritthäufigste Todesursache. Drei bis fünf Prozent der Todesfälle gehen mangels korrekter Infomation auf klinische Fehlbehandlungen zurück, sagt der Leiter des europäischen IBM-Forschungszentrums in Rüschlikon, Alessandro Curioni. Das kostet 136 Mrd. US-Dollar - mehr als die Behandlung von Diabetes und Herz-Kreislauf-Erkrankungen zusammen (ibid.: 10). Die kostentreibende Blockade gespeicherter Gesundheitsdaten aus Rücksichten auf die Privatheit von Patienten belastet auch die Forschung: „Anders als im europäischen Ausland sind Erkenntnisse aus der Versorgungsforschung in Deutschland bisher nur selten im direkten Behandlungsgespräch zwischen Patient und Arzt nutzbar“, beklagt der Siemens- Manager Professor Volker Tresp, Leiter des Smart-Data-Projekts KDI - Klinische Datenintelligenz (BMWi 2016: 33). Tresps Team will in mehreren Bereichen Vorteile erzielen. „Zum einen“, erklärt ein Mitglied, „in der Prävention: Jeder Arzt wird Ihnen sagen, dass eine gesunde Lebensweise entscheidend für die Vermeidung von Krankheiten ist. Appskönnen Menschen dabei unterstützen, auf eine gesunde Lebensweise zu achten, und vorwarnen, wenn es in die falsche Richtung läuft. Der Effekt ist gerade bei gesamtgesellschaftlicher Betrachtung nicht zu unterschätzen. Zum anderen sollen sich Vorteile aus dem screening ergeben. Durch Datenaufnahmen lassen sich zum Beispiel in der Mammographie Krankheitsbilder noch vor Auftreten der Symptome erkennen. Smart Data können die Gesundheit wiederherstellen helfen - und unterstützen die Nachsorge, um dafür zu sorgen, dass Krankheiten nicht wiederkehren (ibid.: 33). Die klinische Datenauswertung hat Tradition. Neu ist aber die schiere Menge an Daten. „Aufgrund molekularer Daten aus Genom-und Proteinanalysen und metabolischen Profilen“ erleben Tresp und sein Team „derzeit eine regelrechte Datenexplosion. Diese Datenmenge werde die behandelnden Ärzte und Pfleger mittelfristig überfordern (ibid.). Das werde die gesamte Gesundheitsbranche vor die Frage stellen, wie sie mit dieser Datenflut künftig umgehen wird. Zugleich wirkt sich der demografische Wandel aus: Die Menschen werden älter und leiden daher häufiger an Krankheiten. „Sinnvolle Datenauswertungen können helfen, die drohende Kostenexplosion zu kontrollieren“ (ibid.). Ein Beispiel ist die Rheumatherapie. Für sie setzen Ärzte fünfzig bis hundert verschiedene Medikamente ein. Oft probiert der behandelnde Arzt so lange, bis er das richtige gefunden hat. „Wenn dieser Vorgang durch die Auswertung großer fallbezogener Datenmengen beschleunigt werden kann“, sagt Tresp, „ist ein klarer Nutzen gegeben: Der Patient wird schneller gesund und die Behandlungskosten sinken“ (ibid.). Ähnlich ist die Situation nach Nierentransplantationen, bei der Medikamente zu finden und so zu dosieren sind, dass der Körper das neue Organ nicht abstößt. Auch daran forschen Tresp und sein Team. Nötig sind dazu einerseits Daten von vielen Patienten, um Zusammenhänge zu erkennen, und andererseits detailliertes Wissen über die einzelnen Patienten, um das richtige Medikament in der richtigen Dosierung verschreiben zu können (ibid.). <?page no="196"?> 196 8 Der nackte Patient Dieses Projekt soll Abrechnungs-, Behandlungssowie Studien- und Referenzdaten aus verschiedenen Quellen datenschutzgerecht kombinierbar und für die Versorgungsforschung zugänglich machen. Dazu sollen in Deutschland erhobene Daten in anonymisierter Form, also ohne die Namen einzelner Personen, genutzt werden, um den regionalen Versorgungsbedarf besser abschätzen und damit planen zu können. So will man Ursachen chronischer Erkrankungen und die Wirksamkeit von Therapien und Versorgungsmodellen besser verstehen. Eine erste Anwendung stellt Kennzahlen zur Entwicklung des regionalen Pflegebedarfs für alle Kommunen im Nordosten Deutschlands bereit. Ein Projekt in Zusammenarbeit mit einer Universität, einem Fraunhofer-Institut und einem Netzwerk niedergelassener Ärzte gilt der Früherkennung der Niereninsuffizienz (Dialyse) (ibid.). Das digitale Gesundheitswesen macht es möglich, vom Schwerpunkt Krankenversorgung zum Schwerpunkt Gesunderhaltung überzugehen. Denn es erzeugt die Mittel, um Erkrankungen zu erkennen, bevor sie ausbrechen, und um viele zu verhindern (Roche 2017: Suter-Crazzolara, vgl. auch Conrad 2016). „Das Krankenhaus der Zukunft“, folgern Rebscher/ Kaufmann daraus, werde „tendenziell eher weniger Patienten und weniger Betten haben. Durch die Nutzung digitaler Anwendungen und Möglichkeiten werden viele Menschen künftig keine stationären Patienten mehr sein“ (Rebscher/ Kaufmann 2017: 54). Der US-Krankenversicherer Humana nutzt schon seit mehreren Jahren seine Daten, um den Versicherten vorbeugende Gesundheitsmaßnahmen vorzuschlagen und um so an Kundengruppen verdienen zu können, die bei anderen Versicherern Verluste verursachen (Stricker 2014: 3). Andere Krankenkassen experimentieren mit Modellen, in denen Versicherte geringere Prämien bezahlen, wenn sie sich an bestimmten Programmen beteiligen und dadurch wahrscheinlich gesünder leben, was natürlich durch erhobene Daten überwacht wird. Viele Patienten willigen wegen des finanziellen Vorteils in diese Datentransfers ein, und die Kassen werten solche Daten selbstverständlich statistisch aus. „Ob Kalorien, Schritte, Blut- oder Stimmungswerte: Am Körper getragene mobile Geräte messen, überwachen und coachen alltägliches Verhalten und körperliche Leistungen. Die technisch vermittelte Erforschung, Steuerung und Optimierung des Selbst - das sogenannte self-tracking- etabliert nicht nur neue Verhältnisse von Körper, Technik und Wissen, sondern verwischt gleichermaßen die Grenze zwischen Selbst- und Fremdführung“ (Duttweiler 2016). Diese sogenannten Selbstqualifizierer versorgen unzählige Firmen freiwillig mit ihren intimen Daten und legen damit „eine elektronische, öffentliche Krankenakte über sich an“ (Morgenroth 2014: 151) - frei nach dem Motto: „Belohnung ist die billigste und einfachste Methode, sensible Daten anzuhäufen und die Grenze zum Privaten weiter verwischen zu lassen“ (ibid.: 153). 88..22 AAu ucchh iimm GGe es suunnddhhe ei itts swwees seen n BBi igg DDa attaa Private Organisationen sind da schon weit voraus. Sie fragen gar nicht erst einzelne Patienten, sondern gleich die Ärzte, die Apotheken, die Kliniken und sogar Fitness-Center. Das Unternehmen IMS Health verarbeitete schon 2013 über 100.000 Datenquellen, darunter nur begrenzt anonymisierte Patientendaten von rund 2500 Ärzten, von einem Viertel aller deutschen Apotheken und von 140.000 Fitness-Centern überall in Deutschland (Morgenroth 2014: 84). Da kommen Big Data zusammen. Das 1996 gegründete US-Unternehmen Acxicom Systems verfügt mit seiner mikrografischen Datensuite Mikrotyp über ein einzigartiges Spektrum an Markt- und Konsumentendaten. Die Deutschlandkarte dieses Unternehmens zeigt 1,46 Millionen Straßenabschnitte, in denen mindestens fünf Haushalte zusammengefasst sein müssen, weil der Datenschutz des Einzelnen das so verlangt (Junge 2013: 25). Anhand von Wohnort und Wohnform, Alter, Geschlecht sowie registriertem Such- und <?page no="197"?> 8.2 Auch im Gesundheitswesen Big Data 197 Kaufverhalten sortiert Acxicom die Bürger in 19 soziale Segmente (ibid.). Das ermöglicht nicht zuletzt durch Zusammenarbeit mit ebay „eine präzise Qualifizierung nahezu jeder postalischen Anschrift in Deutschland“ (Morgenroth 2014: 30). Acxicom wirbt auf seiner Webseite mit solchen Methoden: Sie gebe den Kunden die Möglichkeit, „eine Publikation erfolgreich zu managen, das Kundenerlebnis zu personalisieren und gewinnbringende Kundenbeziehungen zu schaffen“. Rudder nennt das „ein interessantes Paradoxon: Wenn irgendwo ‚personalisieren‘ steht, weiß man stets, dass es um etwas sehr Unpersönliches geht“ (Rudder 2016: 249). Speichern wir Daten schon unnötig häufig? Vielleicht nicht: „Wir haben nicht zu viele Daten, wir haben zu wenige“ (Mainzer 2017a). Aus der Krebsforschung weiß man, dass Tumore individuell mutieren, bei jedem Patienten verschieden. Für die Diagnose braucht man deshalb andauernd Justierungen. Das bedeutet enorme Datenerhebungen, um überhaupt zu einer brauchbaren Diagnose zu kommen (ibid.). Solche Datenauswertungen unterstützen je nach Verwendungszweck entweder die Pharmaindustrie oder auch die Ärztewelt bei der Diagnose und Therapie etwa von Krebserkrankungen, verbessern die Hilfe für Infarktbetroffene, erleichtern die Bereitstellung personalisierter Medikamente z. B. gegen Erbkrankheiten oder die Überwachung von Vitalparametern von Frühgeborenen, Senioren oder chronisch Kranken. Das klingt verführerisch: „Warum sollte ein medizinisches System nur die Diagnose verbessern? Warum nicht auch gleich den Operationsplan festlegen? “ (Gatzke/ Gruhn 2018). Außerdem machen diese Daten es möglich, die Ausbreitung von Krankheiten weltweit zu kartieren und damit Vorbeugungsmaßnahmen frühzeitiger einzuleiten. Über Präventionsstrategien (vgl. Schultz 2016) hinaus geht es auch um Arzneimittelwirkungen und um die sogenannte Nachmarktkontrolle, mit der Daten über Wirkungen von Medikamenten bei ganz unterschiedlichen Personen und Umweltbedingungen ermittelt und analysiert werden. Das beseitigt „Wissensasymmetrien zwischen Risikoproduzenten und Kontrollinstanzen“ (Broemel/ Trute 2016: 59); es macht einfacher gesagt alle Beteiligten gleich schlau. Der Datenschutz bleibt dabei nicht selten auf der Strecke. Ein Harvard-Team demonstrierte schon vor einigen Jahren, „dass Patienten allein durch ihren medizinischen Hintergrund sowie öffentlich verfügbare Informationen identifiziert werden können“ (Morgenroth 2014: 84): „Betreiben Sie Sport? Schwimmen Sie gerne und lesen Sie Ernährungsberater? Wie viele Fotos zeigen Sie mit Bier, Chips und Eiscreme? Oder mit einer Zigarette im Mund? Deuten Ihre geposteten Fotos oder likes darauf hin, dass sie wenig schlafen und viel feiern? Falls ja, würde Ihre Krankenversicherung oder Ihr Arbeitgeber das sicher nicht gerne sehen“ (ibid.: 87). Eric Schmidt, Executive Chairman der Alphabet Holding (vormals Google), hat am „gläsernen Nutzer“ keinen Zweifel gelassen: „Je mehr Informationen wir über dich haben - mit deiner Erlaubnis - um so mehr können wir unsere Suchergebnisse verbessern. Dazu brauchst du überhaupt nichts mehr zu tippen, denn wir wissen, wo du bist - mit deiner Erlaubnis. Wir wissen, wo du warst - mit deiner Erlaubnis. Wir können mehr oder minder erahnen, worüber du nachdenkst“ (Schrape 2016: 17). Sind wir also gläsern? Und wie! Weil niemand ohne Not gläsern sein will, sollen persönliche Daten nach allgemeiner Meinung vorsichtshalber erst einmal vertraulich sein. Dieses Prinzip unterlaufen wir aber tagtäglich nach dem längst widerlegten Motto: Andere können mit so ein paar Daten doch sowieso nichts anfangen. Abgesehen davon, dass das nicht stimmt: Sollten das die anderen entscheiden dürfen? Einen ersten Schritt zur allgemeinen Verdatung des Gesundheitswesens ist Deutschland zur Jahrtausendwende gegangen. Seither gibt es in der deutschen Krankenversorgung Gesundheitskarten im Kreditkartenformat. Die Bundesregierung hatte sie nach dem erwähnten Cholesterinblocker-Desaster beschlossen, musste aber erleben, dass dies mehr als fünf- <?page no="198"?> 198 8 Der nackte Patient zehn Jahre lang „kaum mehr als einen besseren Mitgliedsausweis“ hervorbrachte (AOK- Bundesvorstand Martin Litsch, cit. Rosenbach/ Schmergal 2017: 75). Viel Information enthalten diese Karten nämlich noch nicht. Die deutsche Bevölkerung akzeptiert diese elektronische Karte. In einer Forsa-Umfrage der Techniker-Krankenkasse beurteilten sie 40 Prozent sehr gut und weitere 48 Prozent gut (Rebscher/ Kaufmann 2017: 66). Aber wer den Arzt wechselt, wer in eine andere medizinische Praxis oder in eine Klinik überwiesen wird, muss in der Regel Briefe mitbringen, die der zuvor behandelnde Arzt dem Hausarzt ausgestellt und so dokumentiert hat, was er festgestellt und getan hat. Die Weitergabe solcher Daten setzt in vielen Fällen eine schriftliche Einwilligung des Betroffenen voraus; andernfalls bleiben sie da, wo sie sind, und der neue Mediziner muss von vorne beginnen. Erst jetzt soll die Karte tatsächlich mit Gesundheitsdaten aufgeladen werden. Ein Lesegerät, ein sogenannter Konnektor, soll sie auslesen und Daten über eine vom normalen Internet abgeschirmte verschlüsselte Verbindung auch weitersenden (ibid.). Welche Daten so gespeichert werden, ist noch nicht abschließend geklärt. Es gibt Warner, die sagen: „Eine elektronische Patientenakte darf nur Einträge aus ärztlicher Expertise enthalten und keine netzgestützten Vermutungen über unbewiesene Diagnosen oder ungeprüfte Therapien“ (ibid.: 41). Andere sehen das lockerer. Die Basisfunktionen dieser persönlichen Patienten-Akte (PEPA) sind kaum umstritten: „Steuerung der Zugriffsberechtigungen, Einsicht in und lokales Speichern professionell erzeugter Inhalte, Einstellen eigener Informationen, Übertragung der Aktenführung an einen Stellvertreter, Einsicht in Zugriffsprotokolle“ (ibid.: 55). Elektronische Krankenakten sollen nur Fakten enthalten. Trotzdem ist bisweilen Vorsicht geboten. Denn das schließt einen schlampigen Umgang mit Daten oder Datenmissbrauch nicht aus. Unter der Therapeut-Patient-Beziehung kann man nämlich auch verstehen, was „den Erwartungen sanktionierbarer Leistungen durch Klinikmitarbeiter und Patienten“ entspricht; zu gut deutsch: In den Akten steht dann, was die Beteiligten darin gern lesen würden, nicht unbedingt, was sie festgestellt haben. Es gibt eben „die ‚guten Gründe‘, um ‚schlechte‘ Klinikakten herzustellen“ (Garfinkel 2000: 111). Je ‚schlechter‘, das heißt je ungenauer Dokumente sind, desto leichter könnten sich Ärzte rechtfertigen, falls es zu einem Gerichtsprozess kommt (Paßmann 2014: 263). Nicht nur solche Machenschaften können die Vertraulichkeit von Gesundheitsdaten unterlaufen, sondern auch Pfusch. Ausgerechnet das viel gepriesene multitasking, berichten Professoren der Harvard Medical School, habe dazu geführt, „dass immer häufiger Textbausteine von einer Krankenakte in die nächste wandern: „Unter Zeitdruck übernehmen Ärzte und Krankenschwestern vollständige Krankengeschichten und die Beschreibung der akuten Krankheit von anderen Patienten mit gleichen Beschwerden und kopieren sie ohne Prüfung in eine neue Akte, noch ehe der Patient überhaupt in der Klinik erschienen ist“ (Schirrmacher 2011: 40 f.). Es gibt auch andere Missbrauchsgefahren: „Die Datenbanken von drei der größten Medizingerätehersteller der Welt Medtronic, St. Jude Medical und Boston Scientific wurden gehackt“ (Müller 2017a: 70), ob wegen technischer Industriespionage oder um an private Gesundheitsdaten zu kommen, ist unklar. Auch ob und wie viele private Daten dabei in falsche Hände gerieten, ist nicht bekannt. Kriminell wird es auch, wenn Firmen mit Gesundheitsdaten Geschäfte machen, wie sensibel diese Daten auch immer sein mögen. So hat das US-Unternehmen MEDBase200schon vor Jahren Listen verkauft, „deren schiere Existenz einem den Atem verschlägt“ (Morgenroth 2014: 94): über Aids-Kranke, Alkoholiker und Menschen mit Potenzstörungen. Alle Listen enthielten nach Angaben des Unternehmens tausend Namen zum Preis von 79 Dollar je Liste. „Das heißt, dass es weniger acht Cent kostete, um eine Person bloßzustellen“ (Hill 2013). <?page no="199"?> 8.2 Auch im Gesundheitswesen Big Data 199 Kommen Big Data-Gesundheitsauswertungen auch ohne Bloßstellungen privater Lebensumstände aus? Ja, und zwar auf zwei Wegen. Erstens können Menschen sich freiwillig Gesundheitschecks unterziehen, wie das bei Ärztebesuchen seit jeher üblich war und nun mit Sensoren am Körper rund um die Uhr möglich ist. Sie erkennen sich und „erscannen“ sich zugleich (Moorstedt 2013a). Und zweitens lassen sich gesundheitsrelevante Erkenntnisse auch aus Daten ableiten, die nicht auf direkten körperlichen Gesundheitsdaten beruhen. Ein Beispiel: Für Gesundheitsbehörden ist es wichtig, bevorstehende Epidemien möglichst früh erkennen. Auf traditionelle Weise lassen sich sich solche Krankheitswellen nur mit etwa zweiwöchiger Verzögerung feststellen. Eine auf auf Eingaben in Google Suchmaschinen basierende flu trends-Analyse lieferte Ergebnisse aber schon innerhalb eines Tags (Ginsberg et al. 2009: 1012). Unklar blieb dabei allerdings, ob Menschen Google erst nach einer ärztlichen Grippe-Diagnose und nach Verordnung eines Medikaments konsultuierten oder schon anhand von Symptomen als Eigendiagnose ohne Arztbesuch. Diese Aussagen geben Googles Big Data nicht her. Dass Google für seine Analyse grippebedingter Suchmaschineneingaben vorrangig medizinische Gründe hatte, ist übrigens kaum anzunehmen. Plausibler wäre, dass dies als „philanthrope Investition inszeniert werden“ sollte (ibid.: 341). Sie legitimiert nämlich ein Stück weitGoogles massive Archivierungs- und Auswertungsprogramme. Suchmaschinen-generierte Big Data-Analysen, urteilt Richterich, würden damit als intuitiv gerechtfertigte, geradezu notwendige Nutzung von Potentialen inszeniert (ibid.: 355). Beweisen lässt sich eine solche Motivation nicht, widerlegen aber bislang auch nicht. Der Erfolg ließ Google an diesem Projekt von 2008 trotz zwischenzeitlicher Rückschläge weiterarbeiten. Die Google flu trends sind mittlerweile für 29 Staaten verfügbar, so für Japan, Peru, Uruguay, Norwegen und für Deutschland. Hier wird die Suchmaschinenintensität nach dem Stichwort Grippe in den Bundesländern gemessen. Für die USA ist sie sogar für einzelne Städte verfügbar. Die Ergebnisse werden alle paar Tage aktualisiert (ibid.: 350). Suchmaschinen-Benutzer werden dabei nicht einzeln identifiziert. Anhand von Verhaltensdatenbanken können sie aber wiedererkannt und angesprochen werden. „Die systematische Archivierung gesundheitsbezogener Daten aller Personen, die sich mit gesundheitsrelevanten Anfragen einer Suchmaschine anvertrauen“, ist deswegen grundsätzlich kritisch zu beurteilen (ibid.: 339). Privatheit und Privatsphäre müssten „im Themenfeld von Big Data als Kategorien gänzlich neu verhandelt werden“ (ibid.: 361). Google sieht sich mit solchen Initiativen in guter Gesellschaft. Mit dem Global Alert and Response (GAR)-Projekt erarbeitet nämlich auch die Weltgesundheitsorganisation WHO ein transnationales Überwachungs- und Frühwarnsystem. Ihre Vision ist ein „integriertes und globales Erkennungs- und Reaktionssystem für Epidemien und andere Aufgaben der öffentlichen Gesundheitspflege auf der Basis starker nationaler Gesundheitssysteme und einem international wirksamen System für koordinierte Maßnahmen“ (www.who.int/ csr/ en/ ). „Das eigentlich Bahnbrechende dahinter“, sagt der ars electronica futurelab-Forschungsleiter Christoph Lindinger, „ist die Datenbasis. Im Idealfall wirst du schon gewarnt, bevor du krank wirst. Und sehr viele Krankheiten, die derzeit existieren, können ja, wenn sie früh genug entdeckt werden, sehr gut geheilt werden“ (cit. Fares 2017, Episode 4). Plattformen machen auch im Bereich Medizin Sinn; das ist noch bei Weitem nicht ausgereizt (BMBF/ Wi 2018: Zahn). Sie müssen zumindest im Bereich des Gesundheitswesens auf Vertrauen basieren. Dazu ist „ein gewisses regulierendes Eingreifen des Staates oder öffentlicher Einrichtungen erforderlich“ (ibid.). Auch juristische oder technische Geschäftsmodelle müssen Vertrauen abbilden. Denn Risiken werden stärker wahrgenommen als Chancen (ibid.). Als Beispiele seien SAHRA und InnOPlan genannt. <?page no="200"?> 200 8 Der nackte Patient Das Projekt „SAHRA - Smart Analysis Health Research Access“ ist eines von 13 Leuchtturmprojekten im Technologieprogramm „Smart Data - Innovationen aus Daten“ des Bundesministeriums für Wirtschaft und Energie (BMWi). SAHRA soll verschiedenartige versorgungsrelevante Datentöpfe analysierbar, Abrechnungsdaten, Behandlungsdaten sowie Studien- und Registerdaten rechtssicher kombinierbar und für die dazu ermächtigten Versorgungsforscher und Anwender zugänglich machen und sie in die Versorgungspraxis übertragen. Plattformnutzer können Daten bereitstellen, ohne sie auf ihr speichern zu müssen; sie behalten über freigegebene Daten so die Hoheit. (www.sahra-plattform.de) InnOPlan entwickelte in den Jahren 2015 bis 2017 Big Data-Technologien ausschließlich mit Daten, die nicht patientenbezogen sind, etwa mit Informationen zur Dauer einer Operation, um mit vernetzten Medizingeräten die Arbeitsabläufe im Operationssaal in Zukunft zu verbessern und mit standardisierten Kommunikationsprotokollen Prozesskosten in Krankenhäusern zu senken. Es geht also um Verbesserungen etwa bei Verwaltungsaufgaben von Krankenhäusern wie der Planung von Operationen und deren Koordination. Nur langfristig willInnOPlanauch patientenbezogene Daten hinzuziehen, aber, so Norbert Hansen, Manager des Unternehmens Karl Storz, erst, „wenn das Thema Datenschutz seitens der Gesetzgebung geklärt ist“ (BMWi 2016: 31), was ja mittlerweile geschah. Hansen und sein Team formulieren noch vorsichtig: „Dies hätte eine verbesserte medizinische Versorgung für den Patienten zur Folge, was auch die Krankenkassen entlasten würde und entsprechend auch die Krankenhäuser. Der Mehrwert liegt deshalb nicht nur auf administrativer, sondern in Zukunft auch auf medizinischer Ebene“ (ibid.). Dazu dient eine smart data-Plattform, die Daten von Medizingeräten und IT-Systemen erfasst. Das Projekt sollte zeigen, wie die Medizingeräte funktionieren müssen, um zu intelligenten Datenlieferanten zu werden. Die Entwicklung „vom gläsernen Bürger zum gläsernen Patienten“ (Jandt/ Hohmann 2015: 21) ist vorgezeichnet. Zwei Drittel aller Experten, die das Bundesinstitut für Bau-, Stadt- und Raumforschung 2016 befragte, gehen davon aus, dass es den „gläsernen Bürger“ geben wird. Das werde sich positiv auswirken, nämlich wirtschaftlich, zugleich aber auch negativ, weil es die soziale Diskriminierung verstärkt (Bundesinstitut 2017a: 11). Technischer Treiber für den „gläsernen Bürger“ ist das Smartphone als zentrale Schnittstelle (ibid.). Die Entwicklung zum „gläsernen Patienten“ muss in eine evidenzbasierte, also auf klaren Fakten beruhende Medizin (dazu Ladeur 2016a) ebenso eingepasst und „für die Regulierung im Gesundheitsbereich aufbereitet und stabilisiert werden“ (Broemel/ Trute 2016: 59). 8 8..33 ZZooee -- ddiiee VViissiioonn eei inneer r ggeessüünnddeerreen n WWeel ltt Hochklassige Experten sind also am Werk, um das sensible Thema Gesundheitsdaten datentechnisch in den Griff zu bekommen. Dazu gehört auch eine medizinische Plattform, die Hardys Team zumindest durchdacht hat. Er nennt sie Zoe und benutzt damit das griechische Wort ¤EÌ für Leben. Zoeumreißt die Vision einer gesünderen Welt. Sie soll bei abgesichertem Datenschutz für den einzelnen Patienten medizinisches Wissen aus der Behandlung von Millionen Menschen aus Tausenden von Forschungsinstituten und Laboren rund um die Welt speichern, verarbeiten und verfügbar halten (Schloer/ Spariosu 2017: 16) - je mehr Daten, desto besser. „Eine Antwort, die auf 500.000 Datensätzen beruht“, sagt Hardy, „ist einfach genauer, verlässlicher und damit besser als eine, die nur 5.000 Fälle verarbeiten konnte.“ Und je breiter die Datenquellen verteilt sind, desto nochmals besser können die Antworten sein. Das Zoe-Datensammeln und -analysieren beruht schon deshalb nicht nur auf der klassischen westlichen, sondern auch auf der alternativen und der fernöstlichen Medizin. <?page no="201"?> 8.3 Zoe - die Vision einer gesünderen Welt 201 Außerdem ist Zoe nicht in erster Linie auf kurative Medizin ausgerichtet, also auf Heilung von Krankheit, sondern auf Prävention, also auf Krankheitsvermeidung, anders gesagt auf Gesunderhaltung. Das bedeutet beispielsweise, Senioren-Wohnungen mit Sensoren auszustatten. Sie erfassen Daten über den körperlichen Zustand der Bewohner und leiten sie an eine Datenbank weiter. Eine Technologie wertet sie aus und leitet daraus Informationen über den Gesundheitszustand der Bewohner ab. Macht dieser es nötig, sucht eine Pflegekraft den Bewohner auf und sieht nach dem Rechten (IBM o.V. 2015). Aber bei Zoe geht es um sehr viel Grundsätzlicheres. Mit Software- und Hardware-Lösungen auf der Basis von Quantum Relations sollen Supercomputer das weltweite Gesundheitswesen defragmentieren, also in global nutzbaren Datenspeichern zusammenführen. Patienten, Schwestern, Ärzte, Kliniken, Apotheken, Forscher, Pharmafirmen, alternative Gesundheitsversorger und Versicherer sollen über Internet-Schnittstellen von überall in der Welt darauf zugreifen können, um private, öffentliche, informelle, klinische und wissenschaftliche Fragen beantwortet zu bekommen. Das Zoe-Team hat diese Ziele in fünf Punkten zusammengefasst: 1. Das System muss webbasiert arbeiten. Patienten, Mediziner, alternative Gesundheitsanbieter, Kliniken und Wissenschaftler müssen von PCs via Internet zugreifen können. 2. Alle Teilnehmer sollen online Entscheidungshilfen für die Diagnose und die Behandlung abrufen können. Dazu soll das System Informationen maßgeschneidert für jeden Patienten ebenso abliefern wie Daten und Aussagen über den Stand der Gesundheitspflege. 3. Alle Aussagen des Systems müssen auf klaren Fakten aufbauen. Behandlungen sind nach den Standards der Gesundheitspflege auszuwählen, nach empirischen Daten und medizinischer Literatur. Diese Abstützung auf belegte Fakten ist ständig zu aktualisieren. 4. Zoe soll die Datenspeicherung zentralisieren. Daten aus einzelnen Behandlungen sollen in die Gesamtheit einfließen, auch als Basis für neue Ableitungen und Entdeckungen. 5. Mit quantum relations-fähigen Computern kann man dann jede Behandlung anhand dynamischer, interaktiver Verlaufsdarstellungen nachverfolgen. Das System soll dazu die Kommunikation zwischen Patienten und Versorgern und zwischen öffentlichen oder privaten Versorgern organsieren (ibid.: 143) und absichern, dass Privates trotzdem privat bleibt. Zoe soll dann die gesamthaft effektivsten Behandlungsinformationen empfehlen (ibid.). Entscheiden soll danach der Patient. Das eine oder andere dieser Ziele mag etwas banal klingen; etwa, dass Patienten sich in einem solchen System untereinander austauschen können. Doch es ist alles andere als banal; es ist nötig. Jorge Armanet, Chef einer solchen Plattform namens Health Unlocked, berichtet: Zwei Drittel der Patienten, die dort einloggten, hatten sich noch nie mit jemandem austauschen können, der gesundheitlich so gestellt war wie sie oder er. Das galt sogar für drei Viertel aller Patienten, die zwei gesundheitliche Probleme gemeinsam hatten, und für alle mit einer seltenen Krankheit. Über drei Viertel der Patienten fühlten sich besser, weil sie so auf ihren Gesundheitszustand Einfluss nehmen konnten, auch wenn nur ein Viertel deshalb seltener zum Arzt ging. Mehr als die Hälfte der Patienten kam mit ihrem Arzt besser zurecht, und fast alle, nämlich 96 Prozent, würden diese Plattform weiterempfehlen (Roche 2017: Armanet). Zweimal zehn Erfolgsparameter Was das Zoe-System leisten soll, fasst Hardys Team in zehn Punkten zusammen: 1. Es soll über jeden Patienten Gesundheitsberichte aller Art in einer kompletten und für Berechtigte jederzeit zugänglichen elektronischen Gesundheitsakte vereinen. <?page no="202"?> 202 8 Der nackte Patient 2. Zugangsberechtigt sollen Patienten, Gesundheitsversorger, Wissenschaftler und Kliniken samt deren Verwaltungen und Versicherer sein. 3. Datenfluss und Datenspeicherung sollen sich nach dem Schutz der Privatheit und der Datensicherheit richten. 4. Der Patient und der Gesundheitsversorger - also der Arzt, der Apotheker, die Klinik - sollen über kontextaffine Schnittstellen kommunizieren, damit Daten auf möglichst einfache Weise in die elektronischen Akten einfließen. 5. Ein automatisches System der Patientenbeobachtung mit Alarmfunktionen soll integriert werden. Sollte es beim Patienten Probleme feststellen, die nicht unbehandelt bleiben dürfen, soll es zunächst den Patienten selbst und dann auch einen Versorger unterrichten. 6. Kontextsensible Instrumente sollen es einfacher machen, über Diagnosen und Behandlungen zu entscheiden. Auch auf diese Daten sollen Patienten und Gesundheitsversorger zugreifen können. 7. Neben medizinischen sollen auch soziodemografische Faktoren wie Stress, die örtliche Umgebung, die Familie, der Beruf und der Lebensstil mitgespeichert und ausgewertet werden, vor allem weil das die Möglichkeiten der präventiven Gesundheitspflege verbessert. 8. Die fallbezogene Forschung soll auf den Datenbestand in anonymisierter Form jederzeit zugreifen können. 9. Patienten und Gesundheitsversorger sollen fortlaufend über neue Befunde informiert werden; dazu soll es Daten über den Informationsbedarf des Einzelnen und statistische Abgleiche geben, damit faktenbasierte Information Echtzeit bereitsteht. 10. Die medizinische Literatur soll komplett integriert und durch Daten aus den Krankenakten der Patienten vervollständigt werden (ibid.: 146). In nochmals zehn Punkten hat das Team schließlich dargelegt, wie das System Patienten dazu bringen soll, sich selbst zu helfen, so lange das verantwortbar ist: 1. Sobald der Patient sich einloggt, soll er seinen persönlichen Bereich auswählen können. Dort kann er mit Gesundheitsversorgern und Versicherern kommunizieren, um Antworten auf seine Fragen zu bekommen. Für jedes neue Thema kann er dort einen eigenen Speicherplatz schaffen und diesen passend gliedern. Gespeicherte Ordner kann er als klinisch kennzeichnen; dann erlaubt er Ärzten, darin zu lesen. Kennzeichnet er sie als administrativ, erlaubt er auch den Dialog zwischen ihm und beispielsweise einer Versicherung. Auch Mails zwischen ihm und anderen werden gespeichert und sind auf Wunsch sichtbar. Ganze Mailkorrespondenzen ermöglichen es dem Patienten, Zusammenhänge nachzuvollziehen. 2. Der Patient soll Daten über frühere gesundheitliche Probleme, Behandlungen, Impfungen etc. in das System eingeben und dort nachlesen können, ebenso Informationen über seinen aktuellen Gesundheitsstand, seine Lebenssituation sowie Werte und Vorlieben. 3. Der Patient soll seine Krankenakte selbst organisieren können. Sie soll eine Kombination von Auskünften enthalten, die einerseits von ihm selbst stammen, andererseits aus Diagnosen und Behandlungen des Gesundheitsdienstes und von Diagnose-Labors. Er soll volle Kontrolle über die Datensicherheit haben und auch darüber, welcher Teil der Akte von wem eingesehen werden kann oder nicht. Er soll schließlich festlegen können, dass ein bestimmter Mediziner nur in bestimmte Teile seiner Krankenakte Einblick bekommt. 4. Jeder Patient mit einem Gesundheitsproblem soll in seiner Akte Symptome speichern können. Das System soll ihm dazu ein Minimum an Fragen stellen, auf die Antworten nötig sind, damit Spezialisten Beschwerden verstehen und einordnen können. Auf dieser Basis errechnet der Computer die Anfangsdiagnose in einer Sprache, die der Patient versteht. <?page no="203"?> 8.3 Zoe - die Vision einer gesünderen Welt 203 5. Der Patient kann sich vom System Auskünfte über Behandlungsvorschläge geben lassen, die auf dem Stand der Medizin sowie auf der Bewertung von Behandlungen anderer (dem Patienten namentlich nicht bekannter) Patienten mit ähnlichen Beschwerden fußen, sofern diese in Zoe gespeichert sein werden. 6. Das System soll klare und verlässliche Auskünfte auch über Alternativen zum Besuch eines Arztes anbieten. Dazu soll der Patient genaue Angaben über präventive und alternative Behandlungsmöglichkeiten erhalten, etwa holistische, pflanzliche, homöopathische und traditionelle aus der chinesischen Medizin etc. 7. Will der Patient einen Arzt oder einen anderen Gesundheitsdienst etwa für Akupunktur, Homöopathie, Naturheilverfahren, einen Chiropraktiker, einen ayurvedischen Heiler usw. kontaktieren, soll das Zoe-System ihm helfen, einen zu finden. Es soll die Namen und Adressen solcher Mediziner sowie deren Rufnummern nennen, Mailanschriften und Webseiten, die örtliche Nähe, die Spezialisierung, die Bewertung der Behandlungsqualität, die Krankenkassenzulassung etc. Der Patient soll dann auswählen können. 8. Der Patient soll Termine online buchen und auch den Terminkalender seines Arztes einsehen können, aber dort keine anderen Namen erkennen. 9. Die Wirksamkeit von Anwendungen oder Abwehrsignale des Körpers soll sich der Patient anzeigen lassen können. Mit seiner Erlaubnis sollen andere Patienten, Ärzte, oder Forscher anonymisierte Infos für klinische Versuche verwenden dürfen. 10. In der Präventivmedizin soll das System für jeden Anfrager je nach dessen persönlicher Herkunft, seinem Lebensstil und dem Gesundheitsverlauf in seiner Familie die Höhe des Gesundheitsrisikos beurteilen und mitteilen können. Zoe soll es pharmazeutischen Forschern ermöglichen, weltweit Patienten zu finden, die Symptome aufweisen, welche sie für klinische Versuche benötigen. Dazu soll das System Patienten, die einwilligen, mit Ärzten in Kontakt bringen. Das würde die Effizienz und die wissenschaftliche Bedeutung solcher klinischen Versuche nicht nur wesentlich steigern, sondern auch billiger machen. Da Zoe Unmengen medizinischer Daten verarbeiten soll, könnten Ergebnisse klinischer Versuche bald für nahezu jedermann zu ungleich geringeren Kosten als bisher zur Verfügung stehen. Man sollte sich klarmachen, was allein dieser Paradigmenwechsel in der medizinischen Versorgung wert sein dürfte (ibid.: 161). Zoe soll medizinisches Wissen aus allen globalen und fachlichen Quellen vereinen und verarbeiten, gerade auch Forschungsergebnisse. Es soll deshalb Schluss machen mit dem Problem, dass es zu Beginn des 21. Jahrhunderts noch durchschnittlich 17 Jahre dauerte, bis neue medizinische Erkenntnisse, die auf anonym gesammelten Daten basieren, in die Praxis einfließen - und selbst dann werden sie sehr bisher ungleich genutzt (ibid.: 160). Ein Modell in neun Pluspunkten 1. Zoe mindert die Gesundheitskosten, weil es das Gesundheitssystem effizienter macht,weil automatische Entscheidungshilfen den Zeitaufwand für Ärzte verringern, weil es die ärztliche Produktivität hebt, Fehler reduziert, die Vorsorge verbessert und die Kosten der Verwaltung und klinischer Erprobungen senkt. 2. Weil alle Behandlungen und Arzt-Patienten-Beziehungen aufgezeichnet werden und alle Beteiligten sie deshalb nachverfolgen können, haben Betrügereien keine Grundlage mehr. 3. Zoe wird die Qualität medizinischer Leistungen anheben, weil es medizinische Einsichten ebenso fördert und verbessert wie die Haftung für medizinische Standards und die Einbeziehung von Werten und Wünschen des Patienten. Auch Irrtümer werden erfasst; das System sendet Warnungen, wenn Fehler auftauchen, und ein lernendes System hilft, Fehler zu reduzieren. <?page no="204"?> 204 8 Der nackte Patient 4. Alle Patienten haben stets Zugriff zu Informationen bestmöglicher Qualität und können die Behandlung, die sie bekommen, mit allen gespeicherten Behandlungsstandards abgleichen. Freilich beseitigt dies nicht das Problem, dass im Internet auch unseriöse Gesundheitsempfehlungen kursieren. Ärzte wissen das nur zu gut, aber Patienten werden verunsichert (Bartens 2018). Vielleicht verschweigt deshalb jeder dritte Patient seinem Arzt, ob er sich im Internet orientiert hat (ibid.). 5. Zoe beseitigt Doppelarbeit. Wenn ein Patient ein Datenblatt ausfüllt, wird es automatisch gespeichert und stetig ausgewertet. Das ist besonders dann wichtig, wenn ein Patient die Klinik wechselt, die Station, den Arzt oder den Spezialisten. 6. Zoe soll die umfassende Kommunikationsplattform für medizinische Versorger, Praktiker, Kliniken, Forschungsinstitute und Patienten werden. Sie soll die Kommunikation zwischen allen organisieren, einschließlich der Übertragung von Röntgenbildern, Laborergebnissen, Akten usw., soll Beratungen und Zweitbeurteilungen vermitteln und nach Bedarf medizinische Teams zusammenstellen. 7. Zoe soll die Flut an weltweiten medizinischen Publikationen so verdichten, dass Auswertungen jeder Art möglich werden. Daten aus unzählbaren Terminen mit Patienten in aller Welt haben für die Menschheit insgesamt große Bedeutung. Der auf lange Sicht wichtigste Vorzug von Zoe soll darin bestehen, in dieses Reservoir hineingreifen zu können, um mit diesem vergleichenden Wissen den einzelnen Patienten besser helfen und die wissenschaftliche Forschung weiter voran bringen zu können. 8. Der Patient behält in Zoedie Kontrolle über die Privatheit seiner Krankendaten, weil er den Zugriff nur auf nur die Daten erlaubt, die er dafür für wesentlich hält. Jeder Patient kann zugleich alle öffentlich zugänglichen Aspekte des Gesundheitswesens verfolgen. Das fördert die Selbstverantwortung der Patienten besonders im Bereich der Vorsorge und respektiert persönliche Präferenzen und Wünsche. 9. Die Zoe-Programmatik basiert darauf, die unterschiedlichen Überzeugungen und Praktiken der Medizin miteinander zu verbinden und zu harmonisieren. Das System fördert eher die Integration als die Auseinandersetzung über Heilmethoden rund um die Welt. Es erleichtert die Zusammenarbeit zwischen westlichen und östlichen Gesundheitssystemen und fördert höchste Standards, wie das eine auf messbaren Erfolgen basierende Medizin auch verlangt (ibid.: 176 f.) „Als ich dieses Projekt Zoe niederschrieb“, sagt Hardy heute, „war es noch eine Vision, eine Theorie. Inzwischen beginnt es aber Praxis zu werden. Inzwischen haben viele Hospitäler damit begonnen, nach dieser Maxime zu handeln. Das ist die beste Verifizierung, die man sich vorstellen kann.“ 8 8..44 DDaatteennsscchhuuttzzpprroobblleemmee Medizinische Praktiker werden sich freuen, wenn ein System wie Zoe ihnen alle verfügbaren Daten über einen Patienten und die Chancen seiner Behandlung frei Haus liefert. Datenschützer werden jedoch die Hände über dem Kopf zusammenschlagen. Denn es widerspricht heute noch allen Vorsichtsmaßnahmen, die der Datenschutz gegen eine nahezu ungehemmte Verfügbarkeit über Daten aufrichtet. Diese Vorsichtsmaßnahmen sind erstens die Zweckbindung von Datenerhebungen; sie gilt im Gesundheitswesen besonders streng. Und zweitens gilt für Heilberufe und deren Einrichtungen die ärztliche Schweigepflicht, wenn der Patient sie hiervon nicht entbindet. Das unbefugte Offenbaren von Patientendaten ist in Deutschland nach § 203 StGB strafbar. <?page no="205"?> 8.4 Datenschutzprobleme 205 Wer im deutschen Gesundheitswesen rechtskonform arbeiten will, darf aber nicht nur ins Strafgesetzbuch blicken. Föderale Datenschutzordnungen gerade im Gesundheitswesen haben in Bund und Ländern eine Vielzahl weiterer Regelungen erzeugt. Grundsätzlich gilt wie stets, dass Bundesrecht Vorrang vor Landesrecht hat. Aber die Vorschriften summieren sich zu einem wahren Dickicht aus Sozialgesetzbuch (SGB V), Bundesdatenschutzgesetz (BDSG), Sonderregeln für bestimmte Patientendaten (GenDG, TPG, AMG und KFRG), der Schweigepflicht (§ 203 StGB) und dem Datenschutz im Krankenhaus mit abweichenden Regelungen für kirchliche Krankenhäuser sowie Vorschriften über die Freiwilligkeit jeder Behandlung, der Aufklärungspflicht über deren Bedingungen und mögliche Folgen, der Angemessenheit von Formulareinwilligungen, ihrer Widerruflichkeit mit Wirkung für die Zukunft, ausgenommen klinische Studien nach dem Arzneimittelgesetz, den allgemeinen Aufnahmebestimmungen, dem Vorhabensbezug bei Forschungsvorhaben, manchmal allerdings nur für die krankenhausinterne Forschung, der Einhaltung von Pflichten zur Benachrichtigung, der Pflicht zur Anonymisierung vor Smart Data-Verarbeitungen, dazu dem verhältnismäßigen Aufwand und alternativ der Pseudonymisierung, also dem Ersetzen von Namen durch andere, um auszuschließen oder zu erschweren, dass der betroffene Patient erkannt werden kann. Anonymisierung löst übrigens nicht das Problem der Diskriminierung, weil dieses nicht personengebunden ist, sondern ganze gesellschaftliche Segmente betreffen kann, etwa ‚die‘ Schwarzen, ‚die‘ Juden, ‚die‘ Frauen (Jaume-Palasí 2017). Das sogenannte blind recruiting kann Diskriminierung sogar noch verstärken (Belot 2017). All das durchschauen nur noch Experten. Datenschützer behaupten rundheraus: Ein Big Brother-System wie Zoe geht gar nicht. Unter der Überschrift Big Brother hatte George Orwell 1949 einen im Jahr zuvor fertiggestellten, 1984 spielenden Roman publiziert, in dem der fiktive Diktator des totalitären Staates Ozeanien seine Bürger bis zur Perfektion kontrolliert und unterdrückt. Orwell wusste genau, worüber er schrieb: Jahrelang wurde er selbst durch den britischen Geheimdienst überwacht. Der Titel enthält den Zahlendreher des Jahres 1948 zu 1984 als Anspielung auf eine zwar damals noch fern erscheinende, aber eng mit der damaligen Gegenwart verknüpfte Zukunft. 1984 ist vergangen und die Manipulationsmöglichkeit durch Daten sind fast unendlich gestiegen, nicht zuletzt bei Daten zum eigenen Körper. Muss Zoe deshalb ein monströser Traum bleiben, so effektiv und so effizient seine Umsetzung auch klingen mag? Nein, sagen seine Verfechter. Zoe sei einzigartig, weil dieses Programm medizinische Informationen nicht nur standardisiert speichern werde, sondern seine Daten auch mit ethischen Aspekten, religiösen Überzeugungen, dem gewählten Lebensstil, geografischen und Umweltbedingungen, der Erziehung und anderen Faktoren abgleichen werde, die die Gesundheit einer Person beeinflussen können - das sei medizinisch entscheidend. Rigoros durchzusetzende Standards hätten zu gewährleisten, dass der Patient seine Daten dennoch unter Kontrolle halten kann, so dass sie nur mit seiner Zustimmung benutzt werden können (ibid.: 167). Und mehr als das: Die Zoe-Erfinder kommen geradezu ins Schwärmen: „Mit Zoe kann der Patient alle Aspekte des Gesundheitswesens beobachten und sich so schnell in die Gesundheitsthematik einarbeiten.“ Dazu plant das System den „Zoe Lebenspartner“, einen elektronischen Avatar des Patienten in einem virtuellen Gesundheitssystem. Das betone die Verantwortung des Patienten besonders auf dem Gebiet der Gesunderhaltung, schreiben die Zoe-Planer weiter: Von Anfang an solle Zoe dem Patienten und seinen Gesundheitsversorgern nämlich nicht nur gewöhnliche Krankeninformationen liefern, sondern auch auf ihn persönlich zugeschnittene Wellnessinformationen. Das beginne bei so einfachen Dingen wie der täglichen Gewichtskontrolle mit gleichzeitigem Kalender für Rücksprache beim Arzt, solle weitergehen mit der Verschreibung von Medikamenten und umfasse für Patienten mit Erkrankungen, die häufig auftreten, zum Beispiel Diabetes, <?page no="206"?> 206 8 Der nackte Patient auch den Kontakt zu sozialen Netzwerken mit Unterstützer- und Selbsthilfegruppen. Die Grundidee heiße, den Gesundheitsdienst nicht zu zersplittern, sondern ihn möglichst gesamthaft zu organisieren und jeden Patienten zu ermutigen, das Zoe-System als Teil seines Alltags zu nutzen (ibid.: 178). Dreh- und Angelpunkt privacy Ein globales digitales Gesundheitssystem wie Zoe steht und fällt mit der Antwort auf die Frage, wie bei seiner erwünschten Offenheit für Ärzte und Kliniken zugleich die Vertraulichkeit persönlicher Daten zu gewährleisten ist. Die Zoe-Strategen lassen keinen Zweifel daran, dass ihnen diese Hürde bewusst ist und dass auch sie die privacy, also die Privatheitdieser Daten gewährleistet sehen wollen. Sie äußern sich aber bisher nicht dazu, wie das geschehen soll. Auf einem parallelen Feld, nämlich dem der Finanzen, ist die Digitalisierung wesentlich weiter fortgeschritten als im Gesundheitswesen. Dass Banken und Finanzämter online arbeiten, erscheint selbstverständlich. Es lohnt sich deshalb, einen Blick auf deren Datenschutzregeln zu werden; sie dürften grosso modo auch auf das Gesundheitswesen übertragbar sein. Kreditinstitute regeln den Zugang zu Kontodaten bekanntlich auf zwei Wegen, einem offline und einem online. Wer sein Konto online führt, braucht eine Konto-ID und eine sogenannte Persönliche Identifikations-Nummer, eine PIN. Beide kann er frei wählen. Die ID kann er sich ausdenken, muss er sich merken oder kann dazu eine existierende Zahlenreihe nutzen, etwa die Kontonummer. Die PIN kennt nur er selbst; sie ist nirgends sonst hinterlegt. Mit diesen beiden Schlüsseln kann er sein Konto öffnen und betrachten, aber noch keine Transaktionen ausführen, etwa eine Überweisung. Dazu benötigt er eine zusätzliche, nur wenige Minuten und nur einmal gültige Transaktionsnummer, eine TAN, die das System erst unmittelbar vor der Auftragsannahme generiert und ihm auf einem separaten Kanal übermittelt, etwa via SMS. Erst wenn er auch diese eingibt, nimmt das System seinen Auftrag überhaupt an. Für den offline-Zugang ist nur seine Kontonummer auf seiner Bankkarte gespeichert. Jeder Überweisungs- oder Geldautomat verlangt zusätzlich die PIN. Noch deutlich aufwendiger, aber auch sicherer funktioniert das Identifizierungssystem der Finanzverwaltung. Am Beginn steht eine online-Anfrage, auf die man zunächst an einen Bestätigungs-Link antworten muss. Dann muss man unter anderem einen Kurznamen vergeben. Hierauf antwortet das System auf zwei getrennten Wegen: mit einem Mail, das zu diesem Kurznamen eine 19-stellige Aktivierungs-ID mitteilt, und mit einem Brief, der dazu einen zwölfstelligen Aktivierungscode aus Buchstaben und Zahlen übermittelt. Zusätzlich sendet das System zum Kurznamen noch eine Authentifizierungsdatei, die sich im PC des Nutzes verankert und die man von dort auch nicht übertragen kann; vielmehr muss man, wenn man das Eingabesystem der Finanzverwaltung aufruft, ihm anzeigen, wo diese Datei gespeichert ist, damit es sich diese dort holt. Erst dann sowie nach der Eingabe des Kurznamens, der ID und des Codes erklärt das System sich bereit, Daten entgegenzunehmen. Die sinnvolle Adaption solcher Regeln auf zu speichernde Gesundheitsdaten etwa von Untersuchungsbefunden, Röntgenbildern und Arztbriefen bis zu Medikationen soll auch diese Daten gegen unberechtigte Zugriffe absichern können. Muss jemand irgendwo in der Welt, sei es auf einer Geschäftsreise oder im Urlaub, einen Arzt oder eine Klinik aufsuchen, könnte er dann statt seiner Bankkarte seine Gesundheitskarte als Schlüssel zu diesen Daten benutzen. Aber das ist noch ebenso zu erörtern wie die Frage, welche Zugriffsmöglichkeiten zusätzlich nötig sein werden,etwa für einen Arzt in einem Notfall, wenn ein Patient war die Karte eindtecken hat, aber vielleicht nicht ansprechbar ist. Effenso offen ist, in welcher Form die Wissenschaften, die Pharmaindustrie und die Versicherungsbranche Zugriff auf derartige, in allen diesen Fallen zu anonymisierenden Datenbestände bekommen sollen und was sie mit ihnen anfangen dürfen. <?page no="207"?> 8.4 Datenschutzprobleme 207 Wenn es im Gesundheitswesen ohne sensible personengebundene Daten unterschiedlichster Art nicht geht, sollen sie zumindest sicher verwahrt sein, sagt Microsoft und offeriert bereits eine Art Gesundheitsschließfach, healthvault genannt, um sie in der cloud verlässlich speichern zu können. Google und amazon haben ähnliche Projekte vorangetrieben (Schulz 2017a: 71). Die Konzerne beeilen sich nach Schulz‘ Angaben (ibid.) zu versichern, in puncto Datensicherheit aus früheren Fehlern gelernt zu haben. Für sensible Gesundheitsdaten gebe es keinen sichereren Ort als bei ihnen. Dort besitzen die Betroffenen ihre Daten selbst und entscheiden nach den Worten von Microsoft-Forschungschef Peter Lee auch selbst, wem sie „Zugang zu diesen Daten gewähren und wieder zurücknehmen“ (ibid.). Alle skizzierten Sicherheitsschlüssel beruhen auf der Funktionsweise des heutigen Internets. Werden Gesundheitskarten künftig via Blockchain gelesen, ergeben sich andere Absicherungsmöglichkeiten, die im Abschnitt über die Blockchain schon umrissen ist. Und wird Prisma Analyticseingesetzt, ergeben sich nochmals deutlich attraktivere Einsatzmöglichkeiten.Schon 2007 hatten Heiner und Hardy, die quantum relations-Protagonisten,beiPatentpool das Management privater Gesundheitsdaten erörtertet. Die Skepsis, ob Menschen massenhaft ihre Gesundheitsdaten für maschinelle Analysen zur Verfügung stellen würden, war da schon ein wichtiges Thema. „Wer lässt schon gern die Hosen herunter? “ hatte Heiner gefragt und hinzugesetzt. „Heute meint jeder, kaltschnäuzig oder nicht: Privacy, das ist doch Geschichte? Was ist privacy? Wo gibt es die noch? Die gibt es nicht mehr, außer wenn wir ein Geheimnis miteinander teilen. Das können wir schon privat halten. Aber wenn wir etwas am Telefon besprechen, wird man das wissen, von Facebook gar nicht zu reden.“ Nach Jahren der Erprobung und allmählichen Einführung von Gesundheitskartenist Hardyheute überzeugt: „Die einzige plausible Absicherung von privacy im Gesundheitssystem steckt künftig im Zoe-System. Dort kann der einzelne Patient jede ihn betreffende Information im System entschlüsseln und festlegen, wer was zu sehen oder zu lesen bekommt und wie lange. Lässt ein Patient beispielsweise bei einem Arzt einen checkup machen, eine Gesundheitskontrolle, kann er ihm sagen: ‚Für diesen checkup erlaube ich Ihnen den Zugriff auf meine Daten, damit Sie für Ihren Befund eine Vergleichsgrundlage haben, für 24 Stunden. Danach ist dieses Fenster wieder geschlossen‘.“ Hardy sieht eine Entwicklung vor sich, in der ein Patient mit seinem Smartphone in seiner Gesundheitsakte blättern und dann situativ entscheiden kann, welche Aktenblätter er wem zu lesen erlaubt. Die Struktur von Prisma Analytics lasse auch eine solche Anwendung zu. Ohne sichere firewalls gegen unberechtigte Zugriffe hätte das Zoe-System auch auf der Basis von Prisma Analytics kaum eine Chance. Gelingt es aber, diesen Knoten zu lösen, sind die Effekte vermutlich enorm: Jeder Betroffene kann dann seine Gesundheitsakte selbst lesen und lernen, sie zu verstehen. Ist das der Fall, besteht Aussicht, dass er gesundheitsbewusster lebt. Jeder Arzt kann die Krankheitsgeschichte seines Patienten auf Knopfdruck aufrufen. Das verhindert kostentreibende Doppeluntersuchungen und ähnliche vermeidbare Arbeit und beugt Fehldiagnosen vor. Schließlich bekäme die Wissenschaft Einblicke in den Gesundheitszustand der wie in ein offenes Buch. In der Forschung und Nutzung medizinischen Wissens könnte sie leichter Schwerpunkte setzen. Wenn die Aussichten auf ein solches System so prickelnd sind - warum steht es dann nicht schon zur Realisierung bereit? „Um Prisma Analytics in seiner jetzt ausgefeilten Form marktreif zu machen“, erläuterte Hardy kurz vor dem Marktstart, „haben wir alle Kapazität eingesetzt, über die wir verfügen.“ Mit geringem Zusatzaufwand lasse sich diePrisma Analytics-Grundstruktur aber so umprogrammieren, dass sie, statt einem Manager für eine firmenpolitische oder wirtschaftliche oder finanzielle Entscheidung den nach Zeit und Umfeld optimalen decision point anzuzeigen, einem Zeitgenossen seine körperliche performance signalisiert: wie diese sich entwickelt und verändert, wodurch, ob zum Besseren oder zum Schlechteren, wie schnell oder langsam, aufgrund welcher Einflussfaktoren und aufgrund <?page no="208"?> 208 8 Der nackte Patient welchen Verhaltens, so dass der Zeitgenosse erkennt, ob und wo Handlungsbedarf besteht, ob er nur seine Ess- und Bewegungsgewohnheiten ändern oder ob er einen Arzt aufsuchen sollte, und wenn ja, welchen. „Über solche Weiterungen“, setzt Hardy im Herbst 2017 hinzu, „habe ich aus Zeitgründen bisher nicht einmal nachdenken können. Klar ist aber, dass sie von der Systemarchitektur her möglich sind. Klar ist auch, dass sie sinnvoll sein werden. Also werden sie kommen. It’s just a matter of time.“ <?page no="209"?> 99 GGlläässeerrnn ssiinndd wwiirr sscchhoonn jjeettzztt Gibt es für irgendeine Privatheit noch eine Chance? In Deutschland wie in der EU bestimmt der Persönlichkeitsschutz den Umgang mit Daten. Sparsamkeit im Datengebrauch und der Schutz der Privatheit stehen als Rechtsgüter obenan. Auf Big Data passt dieser Rechtsrahmen aber nur schwer; neue Regeln sind nötig. Was rechtens ist, muss außerdem noch nicht richtig sein; denn ethische Fragen reichen über das gesetzlich Erlaubte weit hinaus. Eine Datenschutzethik entsteht allmählich. 9.1 Was wird aus der Privatsphäre? 209 9.2 Wem gehören Daten? 213 9.3 Der Datenklau von Cambridge Aalytica 214 9.4 Das deutsche Datenschutzrecht 217 9.5 Die EU-Datenschutzgrundverordnung 221 9.6 Eckpunkte einer Datenstrategie in der Welt von Big Data 223 9.7 Privacy by Desi g 226 9.8 Die Digitalcharta 230 9.9 Was ethische Normen leisten können 234 9.10 Ethical Alligned Design 236 9.11 Ein Leitlinienentwurf von Bitkom 237 9.12 Cybersicherheit ist eine globale Aufgabe 239 99..11 WWaass wwi irrdd aauus s dde er r PPrriivva atts spphhä ärree? ? Neu ist die Auseinandersetzung über die Privatsphäre nicht. Schon in der Gründerzeit des späten 19. Jahrhunderts änderte sich das Verhältnis von Privatheit und Öffentlichkeit nämlich radikal: 1876 wurde das Telefon erfunden, im Jahr darauf stellte Thomas A. Edison den Phonographen vor, 1888 wurde die Momentphotographie möglich und 1890 die Kinematographie. Das wurde gefeiert, aber als Möglichkeit zur „Überwachung, totalen Transparenz und des Verlusts der Kontrolle über alle privaten Äußerungen“ auch kritisiert. Zahlreiche Schlagzeilen verkündeten damals den „Niedergang“, die „Abschaffung“ oder das „Ende“ des Privaten, weil technische Innovationen die Übertragung, Speicherung und Reproduktion von Bildern und Tönen erlaubten. Und schon 1890 forderten die zwei US- Juristen Warren und Brandeis aus der Einsicht heraus „gossip … has become a trade“ - Geschwätz sei zur Handelsware geworden - erstmals ein Recht auf Privatheit, „the right to privacy“ (Scheutle/ Adler 2017: 83). Die Privatsphäre ist also schon lange gefährdet, nicht erst durch das Silicon Valley, das Internet, soziale Netzwerke oder Praktiken der NSA. Daten können außerdem auf wundersamste Weise auf Irrwege geraten, manchmal aus purer Gedankenlosigkeit. Das US-Unternehmen Strava Heatmap beispielsweise, das US-Militärs sportlich trainiert, publizierte für Soldaten im Netz Trimm-dich-Pfade, die naheliegenderweise über deren Militärbasen verliefen, und machte so Teile der geheimen militärischen Infrastruktur öffentlich (BMBF/ Wi 2018: Federrath). Das Pentagon war nicht amüsiert. Jenseits solcher Pannen verläuft das Datensammeln unvermindert auf gigantischen Niveau. Es hebelt nicht nur die Privatheit des Einzelnen aus, sondern wird damit auch zu einer „Gefahr für die Demokratie: Google weiß, was wir denken, AmazonsKindle Reader, was <?page no="210"?> 210 9 Gläsern sind wir schon jetzt wir lesen; YouTube und die Spielkonsole wissen, was wir sehen; Siri und Alexa lauschen unseren Gesprächen Apple und IBM vermessen unsere Gesundheit… Und unser Auto ist ein Datenkrake“ (Helbing 2018). Die Entwicklung geht rasant voran: „Die KI-Software Alexa, die im Amazon-Echo-System steckt, hatte 2014 noch 13 skills. „Heute sind es über 50.000“, berichtete Rohit Prasad, Vice President und Chefforscher Alexa AI (Rüdiger 2018a). In China kontrollieren Datennetze rigoros den Alltag der Bürger (wir kommen darauf noch zu sprechen) und die „Karma-Police“ des britischen Geheimdienstes „fungiert quasi als digitales jüngstes Gericht“ (ibid.). In einem solchen Umfeld wird Datenschutz zu einem Kernziel der Demokratie: die Privatsphäre der Menschen zu schützen. Die wahre Bedrohung für die Privatsphäre geht heute in der westlichen Welt weniger vom „großen Bruder“ staatlicher Institutionen aus, sondern von vielen „kleinen Brüdern“ in Form von Unternehmen: „Nicht der Bürger ist im Visier der Schnüffler, sondern der Konsument“ (Stampfl 2013: 61). Das hat handfeste wirtschaftliche Gründe: Persönliche Daten sind die „Währung des Internetzeitalters“ (ibid.: 42); „im Internet sind wir die Ware“ (Eberl 2016: 265). „You have zero privacy anyway. Get over it“, sagte Scott McNealy, CEO von Sun Microsystems, schon 1999 (ibid.: 66); „Du hast null Privatheit, finde dich damit ab“.Just zu dem Zeitpunkt, als auch der Facebook-Gründer Mark Zuckerberg ausrief „The age of privacy is over“ - die Ära der Privatheit ist vorbei - und hinzufügte, Privatheit sei keine ‚soziale Norm’ mehr (ibid.: 23), kaufte er übrigens für 30 Millionen Dollar vier Häuser rund um sein Privathaus auf, um so seine Privatsphäre zu schützen (Hankey/ Tuszynsky 2017: 94). Zuckerbergs Satz sollte nach Stampfls Ansicht aber ohnehin nicht als Zustandsbeschreibung aufgefasst werden, sondern eher als Handlungsmaxime: „Facebook zeichnet nicht nur gesellschaftlichen Wandel nach, sondern ist ganz wesentlich Motor desselben“ (2013: 23). Im Internet genügt es, beispielsweise bei der Software Spokeoeinen Namen einzugeben, und sofort erhält man „ein digitales Dossier über die betreffende Person, das die genaue Adresse anzeigt, das Alter, den Beziehungsstatus und den Beruf und das Auskunft erteilt über Hobbys, ob der Gesuchte Hausbesitzer ist und welchen geschätzten Wert das Eigenheim hat, wie groß es ist und wie lange er schon darin wohnt“ (ibid.: 46). Ähnliche Einblicke in das Privatleben offeriert das Programm RapLeaf.Twitnest zeigt das Netz von Twitterern und Followern sowie auf Mausklick ein Beziehungsprofil; Klout legt offen, womit sich ein Twitter- Mitglied auseinandersetzt; Heypic ermittelt via Twitter geografische Informationen auf der Basis von geotags in Fotos (ibid.: 45) und so weiter und so fort. „So werden unsere Daten zur Basis für die Berechnung unseres Lebens“ (Stampfl 2013: 14). Aber sie müssen nicht stimmen. Nach einer schon ein Jahrzehnt alten Einschätzung von Ellison, Heino und Gibbs (2006) sollten wir uns generell „davor hüten, Kommunikationen über soziale Netzwerke und digitale footprints als ‚authentisch‘ zu verstehen. Posts, tweets, hochgeladene Fotos, Kommentare und andere Arten von Online-Aktivitäten gewähren keineswegs immer einen Blick ins Innere ihrer Urheber - sie werden „oft sorgfältig kuratiert und systematisch verwaltet“ (Manovich 2014: 71), also in vielfacher Weise geschönt. Facebook filtert Nacktheit. Auch Bilder nackter Statuen erscheinen dort nicht. Das Programm kann nämlich den Unterschied von Fleisch und Stein nicht bewerten. Ein anderes Programm prüft das Alter von Personen und kommt manchmal zu noch krasseren Fehlurteilen - warum, ist undurchsichtig. Die Befunde werden dennoch zur Beurteilung von Personen benutzt. Ein wieder anderes Programm identifiziert aus nur vier einzelnen Zeit- / Ort-Angaben eines Mobiltelefons in 95 Prozent aller Fälle die jeweilige Person. Denn Bewegungsprofile sind in den allermeisten Fällen sehr eindeutig und charakteristisch (Morgenroth 2014: 61 f.). Ausgewertet werden sie massenhaft: Das Unternehmen Skyhook Wireless bearbeitet täglich 400 Millionen Anfragen, um anhand von Funkwellen die genaue Position mobiler Endgeräte zu ermitteln (ibid.: 62). <?page no="211"?> 9.1 Was wird aus der Privatsphäre? 211 Wenn man dies berücksichtigt, behält der whistle blowerEdward Snowden recht: „Ein heute geborenes Kind wird nicht mehr wissen, was Privatleben ist“ (cit. Morgenroth 2014: 61). Es wächst mit der Erfahrung auf, dass seine privaten Daten kommerziell gesammelt, ausgewertet und genutzt werden. Denn in der digitalen Wirtschaft sind Daten die neuen Rohstoffe und zugleich „zur Währung geworden“ (Stampfl 2013: 68). Sie sind reproduzierbar, auch wenn dies wie bei Geldscheinen verboten sein kann. Sie können urheberrechtlich geschützt sein; dann muss der Urheber ihrer Verwendung zustimmen. Und sie sollten Privatsache sein, wenn sie sich auf Personen beziehen. Was Daten anrichten können Privatheit und Selbstbestimmung, Autonomie und Meinungsfreiheit sind grundgesetzlich geschützt, aber mit rechtlichen Maßstäben allein nicht richtig zu fassen. Können Big Data- Anwender alles tun, was sich wirtschaftlich lohnt, sind sie schnell in Gefahr. Das sieht man jeden Tag: Finanzdienstleister bewerten die Zahlungsbereitschaft von Kunden anhand von deren Kreditkartennutzung - „wer bar zahlt, muss sich fragen lassen, ob er nicht etwas Alkoholisches eingekauft hat“ (Bitkom 2017: Grimm/ Keber). Barzahler gelten als riskantere Kunden. „Wer billiges Motoröl kauft, gehört ebenfalls zur Risikogruppe. Wer dagegen Filzgleiter benutzt, um das Parkett zu schonen, stellt ein kleineres Risiko dar“ (ibid.). Weicht ein US-Wähler zu stark von der Politik der beiden führenden Parteien ab, läuft er Gefahr, auf einer watch list zu landen (Pasquale 2017: 101). Protestiert er gegen den Einkaufsrummel vor Weihnachten, „kann ihn eine Gesichtserkennungs-Software für immer als Volksverhetzer brandmarken“ (ibid.: 101 f.) Nimmt er einmal nicht den üblichen Weg zu seiner Arbeit, kann die Firma Recorded Future ihn als jemand klassifizieren, der etwas zu verbergen haben könnte. Liest er die falschen Blogs, kann das für die Software Squeaky Dolphin des britischen Geheimdienstes auffällig sein (ibid.: 101). Für unbedenklich hält Pasquale dergleichen nur dann, „wenn man davon ausgeht, dass die Infrastruktur dahinter von einer wohlmeinenden Intelligenz getragen wird“ (ibid.). Für Mobiltelefone gibt es auf dem Markt Softwares, die den Benutzer von A bis Z ausspionieren: Gespräche werden mitgeschnitten, Tastatureingaben mitgelesen, Aufenthaltsorte gespeichert. Solche Softwares greifen auf sämtliche Smartphone-Daten inklusive aller Dateien zu, auf Fotos- E-Mails, Kurz- und chat-Nachrichten. „Die Programme sind so geschickt programmiert, dass sie sich verstecken und für den normalen Nutzer unsichtbar agieren“ (ibid.: 67). Werden auch Telefon-, SMS- und GPS-Daten von Freunden einbezogen, lässt sich anhand der Bewegungsdaten eines Mobiltelefons sogar recht gut prognostizieren, wo sich der Telefonbesitzer wahrscheinlich in Zukunft aufhalten wird (ibid.: 62 f.). Durch geschickte Kombination der Daten kann das Programm den Bereich, in dem er sich aufhält, auf knapp 30 Quadratmeter genau vorhersagen (ibid.: 63), also auf die Fläche eines größeren Wohnraums. Wir sollten daher „aufhören, diese Geräte Telefone zu nennen, und sie stattdessen als das bezeichnen, was sie in Wahrheit sind: Spione“ (ibid.: 63). Ein digitales Schattenbild jedes Einzelnen Aus Facebook-likes werden Persönlichkeitsprofile abgeleitet. Der gesamte Lebenslauf, wie wir ihn schreiben, wird so durch einen zweiten ergänzt, der ohne unser Wissen oder zumindest ohne unsere Kontrolle über uns geschrieben wird (ibid.: 99). Anhand von Datenspuren solcher Art rekonstruieren nicht nur Experten des US-Unternehmens Cataphora Sachverhalte und Entwicklungen bis ins kleinste Detail und erstellen Prognosen über zukünftiges Verhalten. Auch immer mehr Personalabteilungen arbeiten so. Sie lesen längst nicht mehr nur Lebensläufe. Wer sie „als Checkliste benutzt, um jemanden anhand seines Lebenskalenders zu beurteilen,“ zeige „Zeichen von Schlichtheit“, sagt Franz Kühmayer, Trendfor- <?page no="212"?> 212 9 Gläsern sind wir schon jetzt scher am Zukunftsinstitut (Waßermann 2018).Ein Lebenslauf verrate Fakten, spannender aber seien die Geschichten zwischen den Zeilen - inklusive der Lücken. Mit künstlicher Intelligenz könne man ein breiteres Spektrum zugänglicher Daten über einen Kandidaten ermitteln und auswerten. Stepstone und Google entwickeln bereits ein „automatisiertes DNA matching zwischen Kandidaten und Unternehmen“ (Schnell, cit. ibid.). Zahlen und Graphen entscheiden auf diese Art über das Schicksal von Menschen, „die nur noch Punkte und Linien sind. Der Mensch ist aber nicht schubladenkompatibel“ (Morgenroth 2014: 187). Oder doch? Der Mensch sei eben eine Maschine, deren Betriebssystem man nur richtig lesen müsse, um sie zu verstehen und zu steuern, ist Elizabeth Charnock überzeugt, die CEO von Cataphora (ibid.: 158). „Am Ende dieser Reduktion eines Menschen auf seine Daten und deren Analyse“, urteilt Morgenroth, „entsteht ein digitales Schattenbild jedes Einzelnen. Das zweite Ich. Solche Schattenbilder verraten Details über Personen, deren sie sich selbst nicht bewusst sind“ (ibid.: 157). Er verbucht solche Ausforschungsmethoden in der Kategorie „Hall of Shame“ (ibid.: 161 f.). Selbst falls das Verhalten von Cataphorarechtlich zulässig ist: Ist es auch moralisch in Ordnung? Das ist sehr fraglich. Ist dann das Urteil Hall of Shame gerechtfertigt? Das kann durchaus sein. Denn anhand von Facebook-likes werden die Nutzer nach Neigungen beurteilt, die aus Big Data stammen und nicht direkt aus dem realen Verhalten. Aber auch das unmittelbare Verhalten lässt sich bereits beobachten und aufzeichnen, und zwar in der privatesten Umgebung, in der eigenen Wohnung. Werden smarte Fernsehapparate mit Kamera und Mikrofonen ausgestattet, werden sie zu solchen Spionen im Haus. Saugt das Smart-TV Daten auf und sendet sie irgendwo hin, ist auch der Partner, die ganze Familie betroffen (ibid.: 208). Ist das nur eine Big Brother-Befürchtung? Nein; das Wort wenn in diesem Satz ist spätestens seit dem Frühjahr 2017 überholt. Wikileaks legte im März dieses Jahres achttausend Dokumente vor, die belegen sollen, dass die amerikanische Auslandsaufklärung mit einer speziellen Software Samsung-Fernsehgeräte des Modells F-8000 mit Kamera und Mikrofon in Wanzen verwandelt. Auch wenn das Gerät den Anschein erwecke, es sei ausgeschaltet, zeichne ein Programm namens Weeping Angel tatsächlich Gespräche auf und sende sie an einen CIA-Server (Planholdt 2017). Die CIAsammelt demnach Audiodateien sogar von verschlüsselten Anwendungen wie WhatsApp. Diese CIA-Praxis zeigt, dass keine digitale Konversation, kein Foto und kein Lebensabschnitt sicher geschützt werden kann. „Alles was wir schreiben oder elektronisch mit einem Telefon übertragen, kann in irgendeiner Form bloßgestellt werden“, bestätigt Robert Cattanach, ein früherer Anwalt im US- Justizministerium (ibid.). Das Unternehmen Open Whisper Systems, das als Krypto-Spezialist Verschlüsselungen von WhatsApp und Signal liefert, sieht seine Technik allerdings nicht von der CIA geknackt (chip.de 2017). Geknackt werde vielmehr die Software der Telefone. So ließen sich Informationen schon vor der Verschlüsselung oder nach ihrer Entschlüsselung abgreifen (ibid.). Zum Hacker-Arsenal der CIA gehören laut Wikileaks malware, Viren und Trojaner, um iPhones, Android-Geräte und Windows-Rechner auszuspionieren. Über die von Enthüller Edward Snowden aufgedeckten Informationen des US-Abhördienstes NSA gehe das weit hinaus, erklärte Wikileaks. Dieser Einsatz sogenannter Cyber-Waffen sei hochgradig gefährlich. Kämen sie in falsche Hände, könnten sie gegen Dritte eingesetzt werden. In der Weiterverbreitung liege ein extremes Risiko, sagte Wikileaks-Gründer Julian Assange (ibid.). Selbst wenn wir die kriminelle Seite der Datenausspähung einmal ausklammern, bleibt festzuhalten: Fast alles, was Firmen an Daten ermitteln, wird kommerziell ausgewertet. Jeder Nutzer wird beobachtet. Weil er das weiß, schränkt er sich vielleicht ein, schon um nicht aufzufallen, oder vermeidet es ganz, sich kritisch zu äußern. Diese dem Betroffenen vielleicht nicht bewusste Manipulation und soziale Kontrolle ist moralisch nicht in Ord- <?page no="213"?> 9.2 Wem gehören Daten? 213 nung. Sie untergräbt das fundamentale demokratische Recht auf freie Meinungsäußerung. Immer geht es dabei um die privacy, um die Privatsphäre, sei es im innersten Kreis der Intimsphäre, in der Familie oder im eigenen Haus, sei es in der Öffentlichkeit. „Es ist meine Entscheidung, ob ich in die Kirche gehe, welche Kleidung ich trage oder ob ich mit einem Freund ein Gespräch worüber in der Öffentlichkeit führe. Auch meine politische Einstellung, meine Meinung über andere oder Daten über meine Gesundheit und meine Formen des Zusammenlebens sind privat“ (ibid.). 99..22 WWeemm ggeehhöörreenn DDaatteenn? ? Daten ohne Zustimmung dessen weiterzugeben, über den sie etwas aussagen, ist nur in Grenzen erlaubt. Gesellschafts-, datenschutz- und marktrechtlichgeht es um den Schutz vor Ausspähung und Datenmissbrauch (Kalss/ Torggler 2017). Offenbar ist das Datenschutzrecht aber nicht „smart genug für die Zukunft“; Regelungsdefizite gibt es beispielsweise für das smart car, das smart home und für smart health sowie ganz generell für Big Data- Analysen (Roßnagel/ Geminn 2016: VII). Mit Big Data umzugehen ist gleichzeitig eine Riesenchance und eine Riesengefahr. Von vielen Chancen war schon die Rede. Die Gefahr lässt sich in ein Schlagwort fassen: Es ist das Risiko, durch Weggabe oder Wegnahme privater Daten nicht mehr selbstbestimmt handeln zu können. Verbraucherschützer sprechen von gefährdeter Datenautonomie und verletzter oder ganz verschwindender Privatheit, von „immer weniger Möglichkeiten der Daten- und Informationskontrolle“ (Hagendorff 2017): „Hacker, IT-Unternehmen, Geheimdienste, Datenbroker, Technikentwickler etc., aber auch das aufkommende Internet der Dinge, Big Data oder intransparente Algorithmen treiben den Kontrollverlust voran. Vormals voneinander separierte Informationskontexte - Intimes, Privates, Öffentliches, Institutionelles etc. - gehen allmählich ineinander über“ (ibid.). Wenn ein Handelsunternehmen Datensätze über einen Kunden verwendet, auch eingekaufte oder aus sozialen Netzen erhobene, setzt es hochgradig komplexe Suchalgorithmen ein. Unterläuft es damit die grundgesetzlich garantierte Privatheit? Man ist geneigt, diese Frage mit ja zu beantworten und dem Handelsunternehmen die rote Karte zu zeigen. Aber so einfach ist es nicht. Wem solche Daten gehören, vor allem Big Data, ist rechtlich nämlich umstritten (Hoeren 2014). Betrachten wir dazu kurz das Beispiel von Daten in einem Automobil. Es sind Fahrzeugdaten, etwa zum Betriebszustand des Motors; die braucht der Autohersteller oder sein Händler für die regelmäßige Wartung. Wahrscheinlich gehören sie dem Unternehmen, das die Technik dazu bereitstellt. Das Auto empfängt Daten über den besten Fahrweg. Die liefert ein Navigationsunternehmen. Sind diese Daten dessen Eigentum oder gehören sie vielleicht der Straßenbauverwaltung? Oder übereignet das Navi-Unternehmen diese Daten dem Unternehmen, das das Übertragungsnetz betreibt? Das ist unklar. Wer ist der Eigentümer von Daten über den Verkehrsfluss und damit über Daten, die auch andere Autos in der Nähe aussenden? Wem gehören die Daten über internetbasierte Informationen, die ein Mitfahrer im Auto herunterlädt? Die Liste dieser Fragen lässt sich verlängern. Die Antwort ist fast immer gleich: Das Eigentum an Daten ist nicht ausreichend geklärt (ibid.). Noch einigermaßen klar ist, dass Daten in einem Unternehmen, die von dessen Maschinen erzeugt werden, dem Unternehmen gehören, vor allem wenn dabei keine eigenschöpferische Leistung erbracht wird (ist die Maschine ein PC, ist das aber schon anders). Geht es um Daten aus Interaktionen von Mensch und Maschine, wird es komplizierter. Sitzt an einem Bildschirm ein Designer, erzeugt er personenabhängige Daten. Wem gehören sie? <?page no="214"?> 214 9 Gläsern sind wir schon jetzt Wahrscheinlich dem Arbeitgeber, der für diese Arbeit bezahlt. Benutzt aber jemand persönliche Daten während der Autofahrt, gehören diese dann der Person oder dem Unternehmen, das das Auto gebaut und ein Kundenportal zur Verfügung gestellt hat? Wieder fehlt eine klare Regelung. Die klarsten Regeln sind Gesetze. Abgesehen davon, dass die Mühlen des Gesetzes langsam mahlen und dass eine Selbstverpflichtung, eventuell durch Zertifizierung, schneller und effizienter funktioniert als eine Regulierung (BMBF/ Wi 2018: Weinhardt), bringt der Rückgriff auf ein Gesetz nur so lange etwas, wie es auch anwendbar ist. Datenübertragung ist eine weltumspannende Aufgabe, und ihre Akteure sitzen in aller Welt. Nationale Gesetze greifen da nur sehr eingeschränkt. Zu fordern, die Politik müsse „für die angemessenen Rahmenbedingungen sorgen“ (Bitkom 2015: 62) ist einfach. Welche Politik? Die jeweils nationale, die europäische, die der UN? Wir werden noch sehen, dass rechtsferne Räume bestehen, in denen sich Nachrichtendienste tummeln, die Daten kaum behindert abgreifen und analysieren. Und schließlich sind Daten ein begehrtes Gut auch für Akteure, die nach Recht und Gesetz gar nicht fragen. Je massenhafter Daten benutzt werden, desto anfälliger werden das Wirtschaftssystem und ganz generell unsere Gesellschaft für Störungen, und zwar nicht nur für fehlerbedingte, sondern auch für absichtsvoll herbeigeführte. Das zeigen Beispiele schnell. In den USA und in Teilen Europas und Japans haben Unbekannte im Herbst 2016 „mit massenhaften Anfragen einen großen Webdienstleister gestört“ (Der Spiegel 2016). Twitter und Netflix, Paypal, Spotify und Amazon waren für Millionen Menschen stundenlang nicht erreichbar. Solche Angriffe werden immer komplexer. Die Täter missbrauchen internetfähige Haushaltsgeräte: IP-fähige Kameras, Drucker, Router, Babytelefone oder TV-Festplattenanschlüsse. „Schwachstellen in der Software der Geräte machen es möglich, dass Angreifer ihre Rechenleistung kapern und daraus Netzwerke aus Millionen Geräten knüpfen, die sie zentral steuern - sogenannte botnets. Die Besitzer der Geräte merken davon meist nichts“ (ibid.). Wer Zugriff auf Big Data-Anwendungen hat und sie entschlossen genug nutzt, kann Wahrnehmungen, Vorlieben und Abneigungen ganzer gesellschaftlicher Bereiche manipulieren und damit ihr Verhalten steuern. Zur Identifizierung von Nutzern werden zunehmend biometrische Daten verwendet, etwa der Fingerabdruck oder die Farbe der Iris. Das soll unberechtigte Zugriffe ausschließen. Beide sind für jede Person einzigartig und gelten deshalb als besonders sicher. Falls allerdings „Ihr Passwort gestohlen wird, können Sie ein neues anlegen. Was aber tun Sie, wenn Ihr Fingerabdruck gestohlen wird? “ (Morgenroth 2014: 60). Auch auf diese Frage gibt es noch keine befriedigende Antwort. Wer sich in verdeckten Bereichen des Internets auskennt, im schon erwähnten darknet, findet dort ein „Amazon für Hacker“ (Morgenroth 2016). Die Gefahr, dass solche tools in falsche Hände geraten, ist real. Im negativsten Fall sehen Skeptiker geradezu eine Apokalypse heraufziehen, sollten sich elektronische Systeme nicht auch abschalten lassen. Der in Oxford arbeitende Philosoph Nick Bostrom fürchtet in einer solchen Krise gar eine existenzielle Katastrophe für die Menschheit (Bostrom 2009). 9 9..33 DDe er r DDaatte ennkklla auu vvo onn CCaammbbrri iddgge e AAaallyyttiiccaa Längst hat der gezinkte Umgang mit Daten auch die große Politik erreicht. Hinter dem Onlinewahlkampf Donald Trumps und vermutlich auch hinter der Brexit-Kampagne steckte „ein und dieselbe Big Data-Firma: Cambridge Analytica“. Diese Tochtergeselllschaft der britischen Strategic Communications Laboratories mit Niederlassungen in den USA, England, Brasilien und Malaysia (Huffpost 2018) hat im Auftrag von Firmen und Politikern Daten <?page no="215"?> 9.3 Der Datenklau von Cambridge Aalytica 215 analysiert: „um das Verhalten von Zielgruppen zu verändern“ (ibid.). Nach Angaben ihresCEOAlexander Nix war das Unternehmen in mehr als hundert weltweite Wahlkampagnen involviert. 2016 zeigte Nix sich „begeistert, dass unser revolutionärer Ansatz der datengetriebenen Kommunikation einen derart grundlegenden Beitrag zum Sieg für Donald Trump“ leistete (Nix 2018). Dafür soll das Unternehmen, das teilweise dem ultrakonservativen US-Milliardär Robert Mercer gehört und dessen Vizechef zeitweilig der umstrittene Trump-Berater Steve Bannon war, sechs Millionen Dollar kassiert haben (Huffpost 2018) - sechs von 16 Millionen Dollar, die die Firma von Kandidaten und Komitees der US- Republikaner insgesamt kassierte (ibid.). Zu dieser schmutzigen Seite von Trumps US-Wahlkampf gehörten E-Mails von Hillary Clinton, die nach westlichen Geheimdienstanalysen russische Hacker gestohlen hatten. Cambridge Analytica-Chef Nix hatte sie nach Auskunft des whistle blowers und früheren Firmenmitarbeiters Christopher Wylie zumindest angeboten. Sie trugen dazu bei, dass Trump die Präsidentschaftswahl 2016 gewann (ibid.). Nix griff aus politischem Kalkül auch bei anderer heißer Datenware zu. Über seine Methoden schwieg er. Sie waren offenbar nicht alle legal. Recherchen investigativer Journalisten legen nahe, „dass die Firma für politische Kunden mit dubiosesten Methoden Schmutzkampagnen fährt und sich in großem Stil illegal Daten beschafft hat“ (ibid.). Laut New York Times verfügte Cambidge Analytica ohne Zustimmung von Facebook oder von deren Nutzern über persönliche Daten von mehr als 50 Millionen Facebook-Mitgliedern. Türöffner waren 270.000 Teilnehmer an einer Umfrage „This is your digital life”, die man sich über eine Facebook-App herunterladen konnte. Die Software dazu hatte Aleksandr Kogan, geschrieben, ein in der UdSSR geborener Psychologiestudent. Die Universität Cambridge versprach den Nutzern einen Persönlichkeitstest. Wer teilnehmen wollte, erklärte sich einverstanden, dass seine Antworten und seine privaten Daten an Kogans Firma GSR gingen. Zugleich bekam Kogan Zugang zu Profil- Grunddaten von deren Freunden. Denn nach Informationen der New York Times sowie der britischen Blätter Observer und Guardian gestattete jeder, der die Umfrage ausfüllte, automatisch den Zugriff auf solche Daten von durchschnittlich 160 weiteren Nutzern (ibid.). Dieser Zugriff wurde erst später abgeschaltet (Seemann 2018). Die Facebook-Daten blieben nicht bei Kogan, sondern wurden an Cambridge Analytica weiterverkauft. Denn „besteht die Möglichkeit, eine Tat zu begehen, ist ein Erfolg dabei wahrscheinlich und sind Sanktionen gering, dann geschieht sie über kurz oder lang auch“ (BMBF/ Wi 2018: Lukas). Kriminell war entweder, dass die App vorgab, nur wissenschaftliche Zwecke zu verfolgen (Seemann 2018) oder dass Kogan die Daten zweckentfemdete, um an ihnen ebenso zu verdienen wie Cambridge Analytica. Er versuchte, das später mit den Worten herunterzuspielen, die Wirksamkeit der Cambridge Analytica-Methode sei übertrieben worden (ibid.), und Angestellte der Trump-Kampagne erklärten, das Cambridge Analytica-Material sei bei ihnen praktisch nicht zum Einsatz gekommen (ibid.). Facebook bekam 2015 Wind von der Sache, forderte Kogan und Cambridge Analytica auf, die Daten zu löschen, unternahmen aber sonst nichts (Schulz 2018: 19). Facebook ist aber nach Überzeugung der schleswig-holsteinischen Datenschutzbeauftragten Marit Hansen „auch für Unterlassenes verantwortlich“ (BMBF/ Wi 2018: Hansen). Dass die Facebook-Daten überhaupt den Weg zu Kogan gefunden hatten, entsprach der damaligen Facebook-Politik. Dieses Unternehmen plante damals ein App Store-Geschäftsmodell nach dem Vorbild von Apple und Google. Es sollte Entwickler anlocken, die via Facebook soziale Apps anbieten und Gegenzug der Facebook-Vermarktungsplattform 30 Prozent vom Umsatz abgeben sollten. Der rasante Anstieg des Smartphones kippte das aber. Gewinn macht Facebook fast nur noch durch Werbung. Eine offene Schnittstelle, über die auch andere verdienen, würde da eher stören. „Deswegen hat Mark Zuckerberg auch kein <?page no="216"?> 216 9 Gläsern sind wir schon jetzt Problem damit, besseren Datenschutz zu versprechen und API-Zugriffe weiter einzuschränken“ (ibid.). Als 2015 öffentlich wurde, dass Kogandie Facebook-Daten „not in line with Facebook’s terms of service“ (https: / / cambridgeanalytica.org) weitergegeben hatte,verlangte Facebook zwar die Löschung (Seemann 2018). Das hat Cambridge Analytica nach eigenen Angaben angeblich auch getan. „Die Berichte des whistle blowers Christopher Wylie legen aber nun nahe, dass sie noch existieren“ (ibid.), eineinhalb Jahre nach dem Trump-Wahlkampf. Das alles nährt die Befürchtung, dass global operierende Firmen wie Cambidge Analytica und Facebook „massiven Einfluss auf das Wählerverhalten weltweit nehmen und so demokratische Prozesse ihrer Legitimität berauben können“ (Huffpost 2018.). Darüber konnte keiner der Beteiligten zur Tagesordnung übergehen. Am 20. März 2018 wurde Nix von seinem Posten beurlaubt. Die Verbraucherschutzbehörde ermittelte. Der Sicherheitschef des Unternehmens verließ seinen Posten (Schulz 2018: 13). Wütende Forderungen britischer und US-amerikanischer Stellen nach rückhaltloser Aufklärung begannen sich hochzuschaukeln. Der Facebook-Aktienkurs brach um 20 Prozent ein (onvista 2018); in nur zwei Tagen verlor das Unternehmen60 Milliarden Dollar an Wert (Schulz 2018: 13). Investoren drohten mit Klagen. Eine Kampagne Delete Facebook forderte Nutzer auf, ihr Facebook-Konto zu löschen, damit nicht auch ihre Daten irgendwann bei Cambridge Analytica landen (Schäfer 2018), und ein Branchendienst sekundierte: „dann aber bitte zu Diaspora und Co. wechseln, direkt Whatsapp und Instagram mitlöschen“ - beide gehören Facebook - „und auf Signal oder Threema setzen! Übrigens: Auch Twitter ist keine Lösung! “ (Weck 2018). Am 24. März war die „Facebook-Falle“ dem Nachrichtenmagazin Der Spiegel eine Titelgeschichte (Schulz 2018) und die „Diktatur der Daten“ der Süddeutschen Zeitung am 1. April die Hauptschlagzeile auf ihrer Titelseite wert (Schoepp 2018). In der ersten Aprilwoche - Facebook war mittlerweile in London und in Washington D.C. vor Parlamentsausschüsse zitiert worden - teilte das Unternehmen mit, nicht nur 50 Millionen Nutzer seien betroffen, sondern geschätzt 87 Millionen (Kang/ Frenkel 2018). Für das US-Parlament zitiert, demonstrierte Zuckerberg zwar „Demut und Aufklärungsbereitschaft, wenn es opportun erschien, und Ahnungslosigkeit und Begriffsstutzigkeit, wenn es nötig erschien“ (Emcke 2018), hatte nach Überzeugung des Münchner browser-Anbieters cliqz aber „vor der Weltöffentlichkeit dreist gelogen“, weil er sehr genau wisse, „dass Facebook uns alle überwacht, unabhängig davon, ob wir Mitglied bei Facebook sind oder nicht“ (cliqz 2018). Sogar eine Facebook-Zerschlagung wurde gefordert. Aber dafür gibt es keine Handhabe, „denn es ist unklar, wo ggf. Kunden geschädigt werden (BMBF/ Wi 2018: Schmidt). Dass aber „ Menschen in großer Zahl die Datengesellschaft boykottieren, ist heute so realistisch wie die Erwartung, dass sie das Essen einstellen, um gegen die Lebensmittelindustrie zu protestieren“ (Schoepp 2018). Der Facebook chief executive Mark Zuckerberg reagierte mit der Ankündigung, sein Unternehmen werde allen Nutzern die privacy-Rechte einräumen, die die EU in ihrer Datenschutzgrundverordnung verlangt (ibid.), nach Einschätzung des Deutschen Ethikrats-Chefs Peter Dabrock ein Zeichen dafür, „dass die EU-Position greift (BMBF/ Wi 2018: Dabrock). Dabrock riet von weiteren politischen Eingriffe aber ab: In der Öffentlichkeit werde der Eindruck vermittelt, ein Bundesamt für Algorithmenaufsicht könne bei Facebook eine Korrektur verlangen. Aber „das sollte die Politik nicht tun“ (Anger 2018). Wirtschaftliche Konsequenzen griffen ohnehin weit rigoroser: Die Cambridge Analytica-Kundschaft mied das Unternehmen nach der Offenlegung des Skandals so komplett, dass es rund einen Monat später Insolvenz anmelden musste. Der Datenskandal um Cambridge Analytica, urteilte Der Spiegel, „ist kein Einzelfall, sondern strukturell bedingt. Konsequenz eines Geschäftsmodells, das allein auf das Sammeln und Auswerten von Daten ausgerichtet ist, das auf seine Nutzer im Zweifel wenig Rück- <?page no="217"?> 9.4 Das deutsche Datenschutzrecht 217 sicht nimmt. Ein Modell, das nun grundsätzlich in Frage steht“ (Schulz 2018: 14). Es gibt Kritiker; die deshalb verlangen, „den Zugang zu Daten so offen wie nur irgend möglich zu gestalten“ (Martin-Jung 2018). „Statt mehr Datenschutz durchzusetzen“, sagt auch Seemann, „sollte die Politik dafür sorgen, dass sich die Plattformen wieder öffnen. Erst wenn wir verstehen, was da vor sich geht, können wir Lösungen für die unvorhergesehenen Effekte der neuen digitalen Öffentlichkeiten finden. Weil die Debatte falsch geführt wird, passiert jetzt erstmal das genaue Gegenteil (Seemann 2018). An die Politik richtet sich auch die Forderung, Europa solle „dem Digital-Kapitalismus amerikanischer Prägung seine eigene Kultur einer digitalen Marktwirtschaft europäischer Prägung“ entgegenstellen (ibid.). Löchrige Datensouveränität Aber wenn es um Datengebrauch und -missbrauch geht, brauchen wir gar nicht die weltweite Arena der großen Politik zu bemühen. Löchrige Datensouveränität zeigt sich schon in Bezug auf den einzelnen Bürger. Programme zur Auswertung persönlicher Äußerungen im Netz, von likes beispielsweise, lassen ja Rückschlüsse auf den Charakter und die Intelligenz von Personen ebenso zu wie auf ihre Gemütsverfassung und andere sehr private Lebensumstände. Wer Computerspiele online benutzt, gibt durch sein spielerisches Verhalten über seine Psyche mehr preis als aus Bewerbungsunterlagen ablesbar ist. Wer Webseiten besucht, die das Facebook-Logo tragen, den registriert Facebook selbst dann, wenn er dessen button gar nicht anklickt (Morgenroth 2014). Dabei ist Facebook nur der bekannteste von etlichen Anbietern, denen man besser nicht arglos vertraut. Die Stiftung Warentest hat vor einigen Jahren zwei Drittel aller Apps bei der Datensicherheit kritisch bewertet (ibid.). Eine Untersuchung von 19 europäischen Datenschutzorganisationen hatte sogar 90 Prozent moniert (Haufe 2013). Wer das Datensammeln kritisch bewertet, muss auch Google analysieren. Das hat der irische Webentwickler Dylan Curran getan. Google ermittelt über seine Nutzer Daten zu Standorten, Profilen, Browserverläufen, zur Suchhistorie, zu genutzten Geräten oder zu Gmail, zu Ort, Geschlecht, Alter, Hobbys, Beruf, Interessen, Beziehungsstatus, wahrscheinlichem Gewicht sowie über Google Maps auch zu ihrem Tagesablauf (Brien 2018). Zu Curran speicherte Google in seinem drive-Ordner auch Dokumente, die er gelöscht hatte, auch die Kombination, mit der er seine E-Mails verschlüsselte. Was da zusammenkommt, ist gigantisch. Über eine takeout-Funktion kann man das Ergebnis herunterladen. Bei Curran waren es insgesamt 5,5 Gigabyte, umgerechnet drei Millionen Word-Dokumente. Seine Facebook-Datei war rund 600 Megabyte groß (ibid.). 9 9..44 DDaass ddeeuuttsscchhee DDaatteennsscchhuuttzzrreecchhtt Wie schützt man solche Datenberge vor Missbrauch? Das soll das Datenschutzrecht regeln. 1970 schuf das Bundesland Hessen als erstes deutsches Land ein Datenschutzgesetz. 1978 folgte das Bundesdatenschutzgesetz. Es übertrug die EU-Direktive 95/ 46/ EC in deutsches Recht. 16 Datenschutzagenturen der Bundesländer und eine auf Bundesebene sollen in Deutschland den Datenschutz und den Schutz der Bürger vor Datenmissbrauch gewährleisten. Verbraucherschutzorganisationen können Verletzer vor Gericht bringen. Sie klagen häufig gegen unklare Auskünfte und bekommen oft Recht, besonders wenn Geschäftsbedingungen nur allgemeine Floskeln enthalten. Spätestens dann berichten auch die Medien. Strafen für Verletzungen können 300.000 Euro betragen. Das Datenschutzgesetz zählt Datenschutzgrundprinzipien allerdings nirgends explizit auf, verankert sie jedoch in den meisten Rechtsnormen. Zu ihnen gehört das Recht auf informationelle Selbstbestim- <?page no="218"?> 218 9 Gläsern sind wir schon jetzt mung, das das Bundesverfassungsgerecht in seinen 1983 ergangenen Urteil zur Volkszählung präzisiert hat. Das Volkszählungsurteil 1983, eine Dekade vor der Entstehung des Internets, urteilte das Bundesverfassungsgericht über die Volkszählung. Das höchste deutsche Gericht prägte dabei das Grundrecht auf informationelle Selbstbestimmung. Es leitete dieses Grundrecht aus dem allgemeinen Persönlichkeitsrecht (vgl. Bull 2015) des Art. 2 Abs. 1 GG in Verbindung mit Art. 1 Abs. 1 des Grundgesetzes über die Menschenwürde ab. Es schützt den Einzelnen gegen unbegrenzte Erhebung, Speicherung, Verwendung und Weitergabe seiner persönlichen Daten. Das Grundrecht befugt den Einzelnen, „grundsätzlich selbst über die Preisgabe und Verwendung seiner persönlichen Daten zu bestimmen“ (BVerfGE 65,1: 1). Grundrechte sind zunächst Abwehrrechte gegen den Staat, entfalten mittelbare Drittwirkung aber auch gegenüber Personen. Gerade die Unbegrenztheit der elektronischen Datenverarbeitung, sagte das Gericht, erfordere diesen Schutz des Einzelnen und verpflichte den Staat, Rahmenbedingungen festzulegen (vgl. Schaar in ibid.: 12). Dem Gericht war klar, dass dieses Grundrecht kein Selbstläufer ist. „Wer damit rechnet“, schrieb es, „dass etwa die Teilnahme an einer Versammlung oder einer Bürgerinitiative behördlich registriert wird und ihm dadurch Risiken entstehen können, wird möglicherweise auf die Ausübung seiner entsprechenden Grundrechte (Art. 8, 9 GG) verzichten“ (BVerfGE 65, 43). Was zu persönlichen Datem gehört Das deutsche Datenschutzrecht bezieht sich in erster Linie auf Daten von Personen und betrifft Informationen über private oder materielle individuelle Lebensumstände. Die Nutzung solcher Daten setzt die Zustimmung des Betroffenen voraus. Daten, die für einen bestimmten Zweck erhoben wurden, dürfen nicht ohne Weiteres für andere Zwecke weiterbenutzt werden. Schon bei der Erhebung ist daher zu prüfen, ob es überhaupt nötig ist, alle in Frage kommenden personenbezogenen Daten zu speichern, und wenn ja, für wie lange Zeit. Das gilt speziell für Metadaten. Sie sind für Informationsabfragen im Internet, zur Steuerung von Geräten, zur Positionsbestimmung usw. erforderlich. Der Datenschutz erstreckt sich auch auf sie. Das Bundesverfassungsgericht hat in der Grundsatzentscheidung festgestellt, dass es bei automatischer Datenverarbeitung kein „belangloses Datum“ gibt (BVerfG 1983, Rn. 152, Broemel/ Trute 2016: 5). Deshalb „ist letztlich jedes personenbezogene Datum geschützt“ (ibid.: 51). Werden Metadaten massenhaft gespeichert, ergeben sie nämlich Persönlichkeitsprofile. In vielen Fällen lassen sich Daten deshalb ausreichend schützen, wenn man die Metadaten absondert oder löscht (Schaar in: Fachgruppen 2016: 14). IP [Internet-Protokoll]-Adressen gelten in Deutschland als persönliche Daten. Deren Nutzung muss der Besitzer zustimmen. Das würde in der Praxis Web-Analysen blockieren. Nutzt man jedoch nur einen Teil der IP-Adresse, spart man Namen, Anschriften und Geburtsdaten aus, ist die Anonymität gewahrt. Dann können sie für Analysen auch ohne Einwilligung von Betroffenen eingesetzt werden. Zulässig ist es in Deutschland, persönliche Daten zu erheben, damit Verträge erfüllt werden können. Anders als in den USA, wo man statt der „Engführung der deutschen datenschutzrechtlichen Perspektive“ (Broemel/ Trute 2016: 50) unkompliziert an das Internet der Dinge (Trute 2016) und an Künstliche Intelligenz anschließen will, sind Datenanalysen, also der Einsatz von Algorithmen, in Deutschland nur nach vorheriger ausreichender Information und Einwilligung der Betroffenen erlaubt (BMWi 2016a: 34). Das gilt auch für <?page no="219"?> 9.4 Das deutsche Datenschutzrecht 219 Big Data-Analysen, etwa im Kampf gegen Betrug. So müssen beispielsweise Banken und andere Organisatoren von Zahlungen feststellen, wer bezahlt und wer empfängt, damit es nur autorisierte Transaktionen gibt. Beim Besuch von Webseiten muss der Nutzer zustimmen, bevor der Inhaber einer besuchten Seite seine Daten speichern und auswerten darf. Der Seitenbetreiber muss dem Nutzer zumindest im Kleingedruckten mitteilen, welche Daten er erhebt und wozu. Solche Einwilligungen gelten unter Fachleuten aber als schiere Fiktion. Denn sie werden meist pauschal verlangt und müssen erteilt werden, wenn ein Nutzer eine entsprechende Webseite überhaupt ansehen will. Probleme der Einwilligung zu Datentransfers In vielen Fällen ist eine Leistung ohne die Einwilligung der Datenbesitzer gar nicht erhältlich, zum Beispiel gibt es „kein Bankkonto, keine Kreditkarte und kein Handyvertrag ohne Schufa-Auskunft“ (ibid.: 56). Nach der EU-Datenschutzgrundverordnung kann das rechtswidrig sein. Dirses Regelwerk legt im Erwägungsgrund 71 zu Artikel 22 nämlich fest, dass niemand auf eine Weise bewertet werden darf, „die ausschließlich auf einer automatisierten Verarbeitung beruht und die rechtliche Wirkung für die betroffene Person entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt, wie die automatische Ablehnung eines Online- Kreditantrags oder Online-Einstellungsverfahren ohne jegliches menschliche Eingreifen.“ Dazu zählen das profiling, aber auch die Arbeit der Schufa. Zulässig ist das nur zur Aufdeckung von Betrug und Steuerhinterziehung und für die Betriebssicherheit eines Dienstes oder wenn die betroffene Person ausdrücklich zugestimmt hat“ (EU-Datenschutz9grundverordnung 22, 71). Damit die Schufa sich an solche Vorgaben hält, sieht ihr eine Internet-community auf die Finger: „Du bekommst keinen Kredit, keinen Handy-Vertrag, und auch bei der Bewerbung um die schöne Wohnung ziehst Du dauernd den Kürzeren. Woran das liegt? An der Schufa natürlich! Wirklich? Benachteiligt die Schufa eine Gruppe von Menschen gegenüber einer anderen? Verstärkt sie Ungerechtigkeiten? Das wollen wir herausfinden. Und dazu brauchen wir Dein Geld (wenig) - und Deine Daten (möglichst viele)! “ (www.openschufa.de). Die 50.000 Euro Kapital, die diese community dazu nach eigenen Angaben benötigt, stellten ihr rund 800 Fans und über 1800 Unterstützer bis zum Frühjahr 2018 fast komplett zur Verfügung. Mitte April 2018 waren 43.368 € in der Kasse. Werden Daten mit Einwilligung erhoben, muss die policy des Anwenders diese Einwilligung widerspiegeln: Sie darf nicht von Einwilligungen abhängen, die für diese Leistung gar nicht nötig sind, und darf nur die Nutzungen erlauben, in die der Betroffene wirksam eingewilligt hat (Huber, ibid.: 49). Wirksam ist das Gegenteil von stillschweigend. Mit passender Technik lässt sich das überprüfen, etwa mit watermarking, einem digitalen Äquivalent zum Wasserzeichen. Mit ihm lassen sich Daten kennzeichnen. So lässt sich nachvollziehen, wer Daten wie verwendet (ibid.). Werden digitalisierte Daten massenweise gesammelt, ohne dass deren mögliche Verwendungen national oder international feststünden, erkennt man den „fiktionalen Charakter“ (Cate 2015; Cate/ Mayer-Schönberger 2013) solcher Einwilligungen besonders leicht. „Je distanter“, je nebulöser die Verwendungszusammenhänge, „desto mehr besteht die Gefahr, dass die Einwilligung ihre Funktion nicht mehr sinnvoll erfüllen kann - unabhängig davon, ob sie von einer Mehrheit von Nutzern überhaupt als bedeutsam angesehen wird“ (Broemel/ Trute 2016: 54). Das Wort Privatheit wird dann zur Leerformel (Hagendorf 2017). Die „Vernetzungskultur“, also die Weiterverwendung einmal erhobener Daten für unterschiedlichste, anfangs gar nicht bestimmbare Zwecke, steht daher zu Recht in der Kritik (vgl. Lovink 2012, 2017). <?page no="220"?> 220 9 Gläsern sind wir schon jetzt Die Einwilligung hat also ein Doppelgesicht. Einerseits kann sie bedeuten, gegen die Durchleuchtung des eigenen Verhaltens durch Algorithmen bestmöglich hinhaltenden Widerstand zu leisten, also nur einzuwilligen, wenn es gar nicht anders geht. Andererseits kannman darunter den Entschluss oder die Notwendigkeit verstehen, sein Leben nach der Welt der Zahlen auszurichten; Fachleute sprechen dann von self tracking als Optimierungsstrategie (vgl. Duttweiler 2016). Die Praxis geht über die Einwilligung von Betroffenen regelmäßig hinweg, sogar wenn der Staat oder staatsnahe Dienstleister Daten erheben. Ein Beispiel: Im Energiehandel sammelt eine bei9m Bundeskartellamt angesiedelte Markttransparenzstelle laufend und engmaschig Daten von Stromproduzenten, Händlern, Netzbetreibern und anderen am Elektrizitätshandel beteiligten Stellen. Der Energiehandel gilt nämlich als besonders manipulationsanfällig (Monopolkommission 2013: Tz. 131 ff., 2011: Tz. 155 und 450 ff.). Das Kartellamt will deshalb Missbräuche und Gesetzesverstöße frühzeitig erkennen können. Datenvermeidung - ein stumpfers Schwert Erledigen sich Einwillgungsprobleme zumindest teilweise, wenn man es vermeidet, Daten überhaupt zu erzeugen, für die sich Datenauswerter interessieren? In Zeiten von Big Data kann Datenvermeidung keine Leitlinie mehr sein (BMWi 2016a: 56). Denn Daten sind der wichtigste Grundstoff der digitalen Ökonomie. Die Grundsätze von Zweckbindung und Datensparsamkeit sind deshalb mit anderen Rechten und Interessen abzuwägen (ibid.: 34.). Ziel soll eine effektive, individuelle „Datensouveränität“ sein. Sie soll den Dateninhaber vor Missbrauch schützen, aber gleichwohl Daten massenhaft verwertbar machen. Diese Datensouveränität bedeutet, dass der Eigentümer von Daten über deren persönlichen Gehalt und die wirtschaftliche Verwertbarkeit tatsächlich entscheiden kann (Weber in: Fachgruppen 2016: 41). Wie beim Urheberrecht muss der Einzelne dazu ein höchstpersönliches Recht an seinen Daten besitzen. Er kann Daten zwar dauerhaft oder widerruflich Dritten überlassen, hat aber stets den Anspruch auf Information über deren Speicherung und darauf, sie löschen zu lassen (Artikel 20 und 21 DSGVO, Weber in ibid.). Auch dafür, was Datenverwender mit den Datenbergen anfangen dürfen, sie die sammeln oder erwerben, hat der Gesetzgeber Schranken errichtet. Datennutzung „konkret festlegen“ Bei der Nutzung von Daten unterscheidet das Bundesdatenschutzgesetz die öffentliche, also behördliche und wissenschaftliche, von nichtöffentlicher Datenverarbeitung. Bei letzterer verlangt es in § 28, Zwecke der Datennutzung „konkret festzulegen“. Personenbezogene Daten dürfen verwendet werden, soweit sie nötig sind, um ein Vertragsverhältnisses zu begründen, durchführen oder zu beendigen. Das gilt als „berechtigtes Interesse“ des Verwenders. Er muss das ausreichend konkretisieren. Was berechtigt jeweils bedeutet, legt das Gesetz nämlich nicht fest; das liegt in seiner „Zwecksetzungskompetenz“. Der Nutzungszweck, sagen juristische Kommentatoren, müsse konkret feststehen und dürfe nicht nur in einem vagen allgemeinen Interesse bestehen, das erst zu einem späteren Zeitpunkt eingelöst werden könnte (Schaar, ibid.: 10). Bei allgemein zugänglichen Daten ist die Verwendungsfreiheit größer, etwa im Katastrophenschutz. Berechtigte Interessen des Verwenders sind zwar auch dort gegen schutzwürdige Belange der Betroffenen abzuwiegen. Wenn der Schutz der Betroffenen nicht eindeutig überwiegt, darf die verantwortliche Stelle Daten aber nach Meinung mehrerer Kommentatoren frei verwenden; eine nur zweckungebundene Verwendungserlaubnis nimmt nur einer von ihnen an (Raabe, ibid.: 19). <?page no="221"?> 9.5 Die EU-Datenschutzgrundverordnung 221 Eine Richtschnur zulässiger Verwendung liefert das Telemediengesetz mit der Einteilung in Bestands- und Nutzungsdaten: Bestandsdaten, sagt es, sind nötig, damit Dienste-Anbieter und -Nutzer ein Vertragsverhältnis begründen, inhaltlich ausgestalten oder ändern können. Nutzungsdaten hingegen dienen dazu, Telemedien zu nutzen und abrechnen zu können (Raabe/ Wagner in: Fachgruppen 2016: 20). Der im Jahr 2001 in das Bundesdatenschutzgesetz eingefügte § 3a verpflichtet die für die Datenverarbeitung verantwortlichen Stellen bei der Auswahl und Nutzung von Daten zu „Datenvermeidung und Datensparsamkeit“ und besonders dazu, Daten zu anonymisieren oder zu pseudonymisieren, „soweit dies nach dem Verwendungszweck möglich ist und keinen unverhältnismäßigen Aufwand erfordert“. Dieses Gebot der Datensparsamkeit ist bei Big Data-Konzepten aber kaum einzuhalten. Das weiß die Öffentliche Hand auch. Das Bundesministerium für Wirtschaft und Energie warnte 2015 in „Leitplanken Digitaler Souveränität“ davor, datenbasierte digitale Geschäftsmodelle durch ein unzeitgemäßes Datensparsamkeitsdiktat zu verhindern. Datensparsamkeit und Zweckbindung, heißt es, müssten „überprüft und durch Prinzipien der Datenvielfalt und des Datenreichtums ergänzt und ersetzt werden“ (BMWi 2015: 5). Wie Bürger in dieser Vielfalt von Gesetzen und Bedingungen - die sich auch noch schnell ändern - freiwillig, bewusst und informiert über ihre Daten bestimmen können, ist schwer zu regeln - und dauert. Ein Beispiel: Die Hochschule Hof brauchte für ihr mehr als zweihundert Seiten starkes Datenschutzkonzept volle zwei Jahre (BMBF/ Wi 2018: Weber). Ansätze für übergreifende Bestimmungen enthält die EU-Datenschutzgrundverordnung, die uns anschließend beschäftigt. Die schon in Deutschland schwierige Lage, multipliziert mit den Be- und Empfindlichkeiten der mehr als zwei Dutzend EU-Mitgliedsländer, vermittelt eine Ahnung davon, was zu diesem Thema lange in Brüssel angesagt war: Dickicht und Ungewissheit. Trotzdem hat die EU 2009 eine Europäische Grundrechtecharta verabschiedet und in deren Artikel 8 Grundsätze des deutschen Datenschutzrechts übernommen. Sie verlangt dort die Aufklärung des Nutzers über die Verarbeitung seiner Daten in verständlicher, leicht zugänglicher Form und in klarer und einfacher Sprache oder mit standardisierten Bildsymbolen; jedenfalls so, dass der Nutzer sie klar wahrnehmen, gut verstehen und eindeutig nachvollziehen kann. 9 9..55 DDiiee EEUU--DDaatteen nsscchhuuttzzg grruunnddvve er roorrddnnuunngg Als der Ruf nach einer europaweiten Ordnung des Datengebrauchs durchdringend wurde, machte sich die EU-Kommission an den Entwurf einer EU-Datenschutzgrundverordnung. Dabei hatte die EU nach den Worten ihres Leiters Data Policy & InnovationJiri Pilar klare Ziele: den free flow of data, den access to data, das data sharing, ferner portability, interoperability, standards, liability und experiementation (BMBF/ Wi 2018: Pilar). Sie verfolgte dazu eine open data policy, festgelegt bereits in der Direktive 2003/ 98, zehn Jahre darauf aktualisiert in 2013/ 37 (ibid.). Das EU-Parlament, der Rat und die Kommission einigten sich am 15. Dezember 2015 auf den Inhalt. Seit Mai 2016 liegt der Text vor; seit 25. Mai 2018, zwei Jahre darauf, wurde er nicht nur in allen Mitgliedsstaaten nationales Recht, sondern giltseither auch für Unternehmen außerhalb der EU, die wie etwa Facebook und GoogleEU-Bürgern Angebote machen. Die Mitgliedsstaaten dürfen von der Verordnung nicht abweichen, aber über Öffnungsklauseln einige Datenschutzaspekte national regeln. Am 27.4.2017 ratifizierte der deutsche Bundestag die Grundverordnung als DSAnpUG-EU. Vieles in ihr entspricht bisherigem deutschem Recht. Die EU-Festlegungen zur Zweckbindung und gegen Datenminimierung sind mit ihm nahezu wortgleich. Was dem festge- <?page no="222"?> 222 9 Gläsern sind wir schon jetzt legten Zweck nicht entspricht, darf auch nicht verarbeitet werden (Artikel 5 Absatz 1b). Zusätzlich muss ein sogenannter Erlaubnistatbestand vorliegen (Artikel 6 ff.), also ein Grund dafür, warum etwas erlaubt sein soll. Auch der Grundsatz der Datensparsamkeit gilt weiterhin; also dürfen nur die für einen konkreten Zweck erforderlichen Daten verarbeitet werden (Artikel 5 Absatz 1c). Pseudonyme Daten gelten als personenbezogene Daten (Erw.gr. 23), sind aber verwendbar, wenn die Zusatzinformationen, die die ursprünglichen Personen ermittelbar machen, getrennt verwahrt werden (Erw.gr. 23c). Das gilt nicht für genetische, biometrische und Gesundheitsdaten. Sie dürfen nur verwendet werden, wenn eine ausdrückliche Einwilligung für bestimmte Zwecke besteht. Ohne Einwilligung ist das zum Schutz lebenswichtiger Interessen nur möglich, wenn ein Betroffener nicht einwilligen kann. Für Forschung und Statistik dürfen Daten genutzt werden, wenn es in umsetzenden Rechtsvorschriften angemessene Garantien zum Datenschutz gibt. Mitgliedsstaaten können in Bezug auf die Verarbeitung dieser Daten weitere Bedingungen und Beschränkungen beibehalten oder einführen. Es reicht nicht aus, personenbezogene Daten „nur“ sicher und verlässlich zu speichern. Sie müssen auch gefunden und gemäß den Rechten der Betroffenen bearbeitet werden können. Dazu sind Metadaten da; denn aus ihnen werden die für die Verarbeitung erlaubten Zwecke ersichtlich, etwa wo die Daten erhoben wurden, ob Betroffene deren Benutzung eingeschränkt oder ihr sogar widersprochen haben. Bei Versicherungen beispielsweise kann das Recht auf Vergessenwerden mit der Aufbewahrungspflicht kollidieren. „Verlangt ein Betroffener, dass seine Daten gelöscht werden, muss direkt ersichtlich sein, ob eine Aufbewahrungspflicht besteht und wann sie endet. Das sind alles unstrukturierte Informationen, die nur mit professionellem Datenmanagement effizient verwaltet werden können“ (Schröder 2017: 15 f.). Eine Möglichkeit ist die Maskierung personenbezogener Daten. Auf diese Weise kann man Testdaten erzeugen, die in nichtproduktiven Systemen gesetzeskonform verwendet werden können, ohne die Ursprungsdaten der Gefahr einer unbeabsichtigten Offenlegung auszusetzen oder wenn der direkte Personenbezug dafür nicht zulässig ist (Schonschek 2017c: 10). Und wenn der Datenschutz doch verletzt wird? 2018 lief in der EU eine Analyse „whether to define principles to determine who is liable in cases of damages caused by the use of data“ (BMBF/ Wi 2018: Pilar). Das ist geradezu übervorsichtig formuliert. Bis zu klaren Sanktionen wird es also noch dauern. So viel ist aber klar: „Any transfer of personal data outside the EU is subject to the same level of protection as inside“ (ibid.). Noch ungeklärt ist auch der Schutz vor Algorithmen. Zur Regulierung von diskriminierenden algorithmischen Entscheidungen arbeitete die Gesellschaft für Informatik 2018 an einem Gutachten für einen Sachverständigenrat des Bundesministeriums der Justiz und für Verbraucherschutz (BMJV). Dazu hat sie eine Domain mit weiterführenden Informationen eingerichtet: https: / / adm.gi.de (frithjof.nagel@gi.de). Der geltende deutsche Datenschutz wird viel kritisiert, von der einen Seite wegen zu lascher, von der anderen wegen zu strenger Vorschriften. Eine Bürgerumfrage der Fraunhofer-Gesellschaft zu Big Data ergab 2015 grundsätzliche Datenschutzskepsis, aber Zustimmung bei konkretem Nutzen. Geht es nach der deutschen Bundeskanzlerin Angela Merkel, darf der Datenschutz Big Data nicht verhindern (Nationaler IT-Gipfel 2015). Ihr damaliger Stellvertreterin der großen Koalition Sigmar Gabriel, seinerzeit Bundesminister für Wirtschaft und Energie und 2017 Bundesaußenminister, forderte Datensouveränität statt Datenschutz (ibid.). Merkels damaliges Kabinettsmitglied Alexander Dobrindt, in der großen Koalition bis 2017 Bundesverkehrsminister und zugleich Minister für digitale Infrastruktur, verlangte Datenreichtum statt Datensparsamkeit (ibid.). <?page no="223"?> 9.6 Eckpunkte einer Datenstrategie in der Big Data-Welt 223 Jeannette Hofmann vom Weizenbaum-Institut für die vernetzte Gesellschaft stimmt zu: „Datensparsamkeit ist überholt. Autos haben Datenschnittstellen schon per Gesetz. Datenflüsse sind keine Frage der individuellen Verantwortung mehr. Sie sind so selbstverständlich wie das Fließen elektrischen Stroms“ (BMBF/ Wi 2018: Hofmann). Was die zitierten wohlklingenden Äußerungen deutscher Politiker konkret bedeuten sollen, weiß aber niemand genau Sie zeigen jedoch: Politisch sind wesentliche Rechtsgrundlagen des Datenschutzes offenbar überholt. Nur 20 Prozent der Bürger haben zumindest eine Ahnung, welche Daten über sie überhaupt gesammelt werden. Aufklärung wird das nach Ansicht der Leiterin des Deutschen Instituts für Vertrauen und Scherheit im Internet Joanna Schmölz nicht ändern. Der Einzelne könne das nämlich gar nicht verstehen. Nötig seien deshalb „ein politischer Rahmen, wirtschaftliche Verantwortung und ein gesamtgesellschaftlicher Dialog mit dem Ziel von Bildung als kritischer Aneignung der Welt“ (BMBF/ Wi 2018: Schmölz). Das geht nicht von beute auf morgen. „Datenkraken“ füllen ein Rechtsvakuum derweil weiterhin mit eigenen Regeln. Das erzeugt ein besorgniserregendes Demokratiedefizit: „Nicht nur, dass der cyberspace mehr und mehr zu einem Territorium wird, in dem nationale und supranationale Gesetze nicht gelten. Es gibt auch keine Gewaltenteilung. Facebook, Google& Co. stellen die Regeln auf, kontrollieren ihren Vollzug und organisieren das Beschwerdewesen. Sie sind Legislative, Exekutive und Judikative in einem“ (Keese 2014: 272). Gesetze würden so gut wie möglich unterlaufen, kommentiert Keese, und da, wo es gar nicht anders geht, würden Fluchtpunkte angesteuert wie zum Beispiel über server auf Schiffen in internationalen Gewässern oder mit Internet-Verbindungen über Satelliten und Drohnen. Es passe in dieses Bild, dass Google 180 Kommunikations-Satelliten ins All schicken wolle: „Mit dieser Infrastruktur macht sich der Konzern unabhängig von anderen und entzieht sich staatlicher Kontrolle. Das Weltall und die hohe See sind weitgehend rechtsfreie Räume. Firmen können dort größtenteils tun und lassen, was sie wollen“ (ibid.: 273). 9 9..66 EEcckkppuunnkkttee eei inneerr DDaatteen nssttrraatteeg giiee iinn ddeer r BBi igg DDa at taa--WWe el ltt „Die alten Datenschutzprogramme passen mit Big Data nicht mehr zusammen“, sagt rundheraus der Vorsitzende des Deutschen Ethikrats Peter Dabrock (BMBF/ Wi 2018: Dabrock) und fügt hinzu: „Die Grundidee hinter dem Datenschutz ist die Datensouveränität. Sie ist nicht input-orientiert (welche Restriktionen? ), sondern output-orientiert, damit der Einzelne Privatheit gestalten kann (ibid.). Die Verarbeitung von Big Data stellt an den Datenschutz also besondere Anforderungen. Ein Branchendienst hat sie Ende 2017 so zusammengefasst: „Es muss klar erkennbar sein, welche Daten ohne eine ausdrückliche Einwilligung der Betroffenen auf Basis eines Gesetzes verarbeitet werden dürfen. Bei Bedarf sollen Nutzer sämtliche Informationen über die Verarbeitung personenbezogener Daten einsehen können. Die Datenverarbeitung darf nur im notwendigen Umfang auf personenbezogene Daten zugreifen. Ist kein Personenbezug erforderlich, sollen die Daten anonymisiert werden. Die Betroffenen brauchen technische Möglichkeiten, um den Zugriff auf einzelne Datenkategorien selektiv zu gewähren oder zu entziehen, soweit keine rechtliche Bestimmung entgegensteht. <?page no="224"?> 224 9 Gläsern sind wir schon jetzt In den Anwendungen, die die Daten liefern, müssen nach dem Grundsatz privacy by default datenschutzfreundliche Voreinstellungen etabliert werden. Betroffene sollen personenbezogene Daten einfach löschen können. Der unbefugte Zugriff auf die Speichereinheiten oder die Manipulation der gespeicherten Daten müssen ausgeschlossen werden“ (Big Data Insider 2017: 5). So weit dieser Forderungkatalog. Schon wird weiter gefordert, dass der Datenschutz eine ähnliche Bedeutung bekommen solle wie die Regulierungsbehörden in der Finanzindustrie (Ehlers 2016: 11). Benennen wir also an den Handlungsbedarf. Die früher in Österreich unterrichtende Dozentin Nora Stampfl, die inzwischen in Berlin ein Büro für Zukunftsfragen führt, hat dazu schon 2013 Eckpunkte publiziert: Erstens: „Der Begriff ‚Datenschutz‘ erscheint anachronistisch und irreführend - im Mittelpunkt (muss) immer mehr der Schutz der Personen stehen“ (Stampfl 2013: 68). „Nicht Daten müssen geschützt werden, sondern Menschen und ihre Identitäten“ (ibid.: 72). Privatheit muss „als ständig neues Aushandeln von Grenzen verstanden werden“ (ibid.: 77). Zweitens: Personen-/ Datenschutz und personale Identität sind die zwei Seiten ein und derselben Medaille: der Souveräntät über das eigene Ich. Das setzt voraus, dass der Einzelne sein Bild (oder mehrere Bilder) nach eigenem Ermessen erzeugen und steuern kann. „ Viel einfacher als nach Identität und Individualität zu suchen ist es heute aber, sie zu konstruieren (ibid.: 25). Das geschieht massenhaft in den sozialen Diensten. Anerkennung werde heute gemessen in Google-Treffern, der Anzahl von Lesern eines Blogs, der von ‚Freunden’ auf Facebook und an Kontakten auf professionellen Networking-Plattformen wie Xing oder LinkedIn (ibid.). Diese Informationsinfrastruktur könnten wir als „dicht gewebtes Datennetz über unser Leben [legen], das uns situationsgerecht unterstützt, Informationen exakt dann bereithält, wenn wir sie benötigen, aber gleichzeitig auch Auskunft gibt über die kleinsten Details unseres Lebenswandels“ (ibid.: 26). Situationsgerechte Unterstützung muss aber auch die Möglichkeit bieten, Auskünfte per Mausklick zu sperren, beispielsweise mit einem Programm namens AdNauseam. Es klickt beim Besuch von Webseiten automatisch auf sämtliche Banner, die beim Surfen eingeblendet werden. Das macht das Profil persönlicher Vorlieben eines Nutzers völlig unbrauchbar. Ähnlich wirkt eine App namens TrackMeNot. Sie stellt beim Surfen laufend sinnlose Anfragen an Google und verwässert damit ebenfalls das persönliche Profil (Drösser 2016: 17 nach Brunton/ Nissenbaum 2015). Der Begriff surfen übrigens stammt von der Mediävistin Jean Armour Polly aus der New Yorker Industriestadt Syracuse. Sie benutzte ihn erstmals 1992. Bis dahin grub, wühlte oder navigierte man noch im Internet - „allesamt mühsame Verfahren. Der kalifornische Jugend- und Freizeitglamour des Surfens traf die Euphorie der Aufbruchsstimmung zu den neuen Ufern des Internets schon sehr viel besser“ (Kreye 2017). Und nun weiter mit den Eckpunkten einer zeitgemäßen Datenschutzstrategie, von denen wir zwei schon genannt haben: Drittens: Möglichkeiten wie die gerade beschriebenen, die das Absaugen persönlicher Profile unterlaufen, sind für das Grundrecht auf freie Meinungsäußerung oder -nichtäußerung elementar. „Wenn der Sender nicht mehr entscheiden darf, welche Information er preisgibt, der Empfänger aber gefiltert wahrnehmen darf, dann ist das Recht auf Meinung vom Sender hin zum Empfänger verschoben“. Meinungsfreiheit bedeutet aber, „Kontrolle zu behalten darüber, was publik wird und was nicht“ (ibid.: 69 f.) und ob und wie das, was (ohnehin) publik wird, auf den Einzelnen bezogen werden kann oder nicht. Jeder muss deshalb seine Individualität verschleiern können und damit die „Kontrolle über die eigene Identität behalten“. Es ist Kontrolle als ein „selbstbestimmtes Identitätsmanagement“ (ibid.: 70). <?page no="225"?> 9.6 Eckpunkte einer Datenstrategie in der Big Data-Welt 225 Viertens: Der Gegensatz von Privatheit und Öffentlichkeit hat seine Bedeutung verloren; die Wahrheit liegt heute dazwischen (ibid.: 75). Deshalb müssen wir „Privatheit völlig neu denken“ (ibid.: 76). Sie bedeutet nicht mehr, Daten geheim zu halten, denn der Einzelne kann nicht bestimmen, ob Daten herausgegeben werden oder nicht. „Die Entscheidung der Zukunft wird nicht mehr sein ‚preisgeben oder nicht preisgeben‘, sondern ‚wem preisgeben‘ “ und wie? (ibid.). Geht die einzelne Privatinformation in Datenfluten unter, erledigt sich der Datenschutz wie von allein (ibid.: 71). Die Datenschutzdebatte, folgert Stampfl, würde sich auflösen - und zwischen den Zeilen lässt sie erkennen, dass sie das für zielführend hält: Dafür verbindliche Regeln zu schaffen und durchzusetzen, werde „immer mehr als gesamtgesellschaftliche Bildungsaufgabe verstanden werden müssen“ (ibid.: 69). Fünftens: Ein Paradigmenwechsel erscheint nötig: „Bislang bestand Einverständnis darüber, dass persönliche Informationen privat bleiben sollten, solange der Betreffende sich nicht dafür entschied, sie freizugeben. Immer mehr gilt heute das Gegenteil: Information sollte öffentlich zugänglich sein, wenn es keinen guten Grund dafür gibt, sie privat zu belassen“ (ibid.: 21). Dazu bedarf es freilich klarer Regeln. Und diese Aufgabe ist immer stärker international zu lösen. Sechstens: Solche Regeln müssen vorrangig datensammelnde private Firmen in die Pflicht nehmen und erst dann die (demokratischen) Staaten. Siebtens müssen die Schutzregeln einsichtiger und durchsichtiger werden, denn der Einzelne kann immer schwerer beurteilen, ob und wie weit sein Verhalten datenschutzrechtlich in Ordnung ist. Und achtens muss es plausible Zuständig- und Verantwortlichkeiten geben, damit der Einzelne erkennen kann, wer wofür tätig werden muss und wer die Verantwortung trägt (ibid.: 68). Es geht nicht darum, Räume zu schaffen, in die die Außenwelt nicht eindringt, sondern Verantwortlichkeiten und Zurechnungen aufzuzeigen, wann immer Daten erhoben werden (ibid.: 77). Vorsicht Kartellrecht Außer datenrechtlichen Fragen sind beim Umgang mit Big Data übrigens auch kartellrechtliche zu beachten, etwa die, ob auch Wettbewerber Daten einfach beschaffen können, welche Bedeutung die Menge und Breite von Daten und Datensätzen im Markt hat und ob die „Datenkraken“ ihre Marktmacht durch den Aufkauf von start-ups beliebig ausbauen dürfen, sodass sie sich diese potenziellen Rivalen schon einverleiben, bevor die sich überhaupt entfalten können. Zu solchen kartellrechtlichen Fragen hat sich das Bundeskartellamt im Herbst 2017 ausführlich geäußert (vgl. Bundeskartellamt 2017). Schließlich sollte man Datenschutz nicht nur als eine unvermeidliche Last betrachten, sondern auch als eine lohnende Aufgabe. Datenschutz, sagt der Leiter des Deutschen Ethikrats Peter Dabrock, „ist Vertrauenserhalt und damit ein Wettbewerbsvorteil“ (BMBF/ Wi 2018: Dabrock). Insgesamt geht es also darum, Normen und Abläufe zu schaffen, die in die digitale Welt passen. Dazu müsse es datenschutzkonform arbeitende trusted clouds zertifizierter Anbieter geben, fordert das Bundeswirtschaftsministerium (BMBF/ Wi 2018: Goerdeler), und die rechtliche Prüfung technischer Prozesse müsse mindestens teilautomatisch erfolgen, sonst könnten kleinere Unternehmen nicht mithalten (ibid.: Weber). Werden solche Regelungen die informationelle Ausforschung, Manipulation oder Diskriminierung verhindern? Können Bürger digitalen Technologien deshalb vertrauen? Bislang wohl nicht, denn nach Angaben des Norton Cybercrime Report 2011 haben knapp mehr als die Hälfte der Befragten bei Datenabfragen schon bewusst falsche Angaben gemacht (ibid.: 22). <?page no="226"?> 226 9 Gläsern sind wir schon jetzt 9 9..77 PPr riivvaaccyy bbyy DDeessiiggnn Privacy by design bedeutet, den Schutz der Privatheit von Anfang an in Lösungen hineinzukonstruieren. Scanner in Sicherheitsschleusen von Flughäfen sind dafür ein Beispiel. Sie respektieren die privacy, weil sie Körper mit KI-Prinzipien der Mustererkennung lediglich als Symbol anzeigen, ohne Betroffene nackt erscheinen zu lassen. Die Hersteller haben sich dazu sogar von einer Ethikerin beraten lassen. Ihrer Empfehlung folgend tragen die Geräte die Aufschrift „Benutzung freiwillig“. Tatsächlich weigert sich aber niemand (BMBF/ Wi 2018: Lukas). „Privacy by Design“ prägt auch die EU-Datenschutzgrundverordnung. Sie beruht, wie wir schon gezeigt haben, auf den verfassungsrechtlich begründeten Prinzipien der Erforderlichkeit und der Zweckbindung. Beide ergeben nur zusammen Sinn, denn ohne Zweck lässt sich eine Erforderlichkeit nicht beurteilen. Eine Speicherung ohne vorgegebenen Zweck wäre eine Vorratsspeicherung, die nur unter besonderen Voraussetzungen erlaubt ist, etwa für statistische oder wissenschaftliche Zwecke (Schaar in: Fachgruppen 2016: 11). Für die wissenschaftliche Arbeit lassen sich zum Zeitpunkt der Erhebung personenbezogener Daten die späteren Zwecke oft aber gar nicht angeben. Betroffene sollten deshalb bestimmten wissenschaftlichen Forschungen entweder generell oder nur für bestimme Forschungsbereiche zustimmen können, wenn diese Forschung nach anerkannten ethischen Standards abläuft. Für Forschungsvorhaben gilt also eine weichere Zweckbestimmung, eventuell aber nur gestuft, also nur für einzelne Bereiche. Damit wird der in Deutschland schon praktizierte broad consent als zulässige Form der Einwilligung übergreifend geregelt (Gläß/ Drepper in ibid.: 23 ff.). Das heißt im Detail: Erstens: Die Verarbeitung personenbezogener Daten für Forschungszwecke hat gemäß Forschungszweck mit Datensätzen zu erfolgen, die zuvor anonymisiert wurden. Erlaubt dies der Forschungszweck nicht, sind die Daten soweit möglich zu pseudonymisieren. Zweitens: Die Verarbeitung von Personendaten für Forschungszwecke ist nur zulässig, wenn sie in einem System oder Netzwerk erfolgt, das die Forscher beherrschen und das gewährleistet, dass die Verfügbarkeit, Integrität, Vertraulichkeit, Transparenz, Intervenierbarkeit und Nichtverkettbarkeit der Daten festgelegt sind und beachtet werden. Drittens: Zulässig ist eine Verarbeitung erst nach einer auf ausreichender Information fußenden expliziten, freiwilligen, widerrufbaren Einwilligung der Betroffenen. Viertens: Ohne Einwilligung kann eine Verarbeitung für Forschungszwecke zulässig sein, wenn das öffentliche Interesse erheblich überwiegt und wenn der Zweck der Forschung anders nicht oder nur unverhältnismäßig schwer erreichbar ist. Fünftens: Forschungsverantwortliche dürfen personenbezogene Daten nur veröffentlichen, wenn die betroffene Person eingewilligt hat oder dies für Forschungsergebnisse über Personen der Zeitgeschichte unerlässlich ist. Die Rechte Betroffener müssen auch dann so weit wie möglich gewährleistet werden. Sechstens: Genehmigungspflichtig sind Projekte, bei denen hochsensitive Daten verarbeitet werden, etwa für Gensequenzierungen oder für Datenübermittlungen jenseits definierter Zwecke. Zeitlich nicht eng begrenzte Studien bzw. Forschungsdatenbanken müssen immer vorab genehmigt werden. Für internationale Studien, Forschungsnetzwerke, Krankheitsregister, Biomaterialdatenbanken und ähnliches kann das Bund-Länder-Forschungsgremium zusätzliche Standards festlegen (ibid.: 33). Gestaltungsspielraum besteht bei der Transparenz von Profilen (wie klar lassen sich Daten einzelnen Personen zuordnen? ), bei der Benutzerkontrolle (wenn jemand in algorith- <?page no="227"?> 9.7 Privacy by Design 227 menbasierten Geschäftsmodellen mit der Benutzung personenbezogener Daten Geld verdient, sollen die Betroffenen am Mehrwert teilhaben - Broemel/ Trute 2016: 62) und bei zivilrechtlichen Ansprüchen aus der Datenübertragbarkeit oder Rücktrittsoptionen. Außerdem gibt es Ansprüche auf Berichtigungen und Widerspruch sowie auf Rechenschaftspflichten (European Data Protection Supervisor 2015: 10ff.). Schürfrechte am Leben Alle diese Regelungen greifen aber nicht, wenn Dateneigentümer aus welchen Gründen immer freiwillig auf ihre Durchsetzung verzichten. Sollte man meinen, so leichtsinnig seien Menschen nur selten? Man sollte es nicht. Googlebzw. Alphabet-Chef Schmidtbaut auf diese Verzichtsbereitschaft, auf die Einräumung von „Schürfrechten am Leben“, so die Harvard-Professorin Shosana Zuboff (cit. Keese 2014: 224): „In einem neuen Gesellschaftsvertrag“, sagte Schmidt nämlich, würden die Nutzer freiwillig Dinge hergeben, „die ihnen in der physischen Welt wichtig sind: Privatsphäre, Sicherheit, persönliche Daten, um damit in den Genuss der Vorteile zu kommen, die ihnen das Netzwerk in der virtuellen Welt bietet“ (cit. Keese 2014: 224). Der Alltag in den sozialen Medien gibt ihm vollständig recht. Andere Personen gehen noch weiter: „Seit 2006 veröffentliche ich auf meiner Webseite jede Vorlesung und Rede, die ich halten werde, und jeden Flug, den ich buche, bis hin zur Nummer meines Sitzplatzes. Ich tue dies aus der Überzeugung heraus, dass der reale, greifbare Mehrwert, den wir aus der Mitteilung von Daten über uns ziehen, die Risiken überwiegt“ (Weigand/ Santos 2017: Einleitung). Nach zwei Jahrzehnten Arbeit für Datenfirmen zeigt Weigand sich überzeugt, „dass die Prinzipien der Transparenz und selbstbestimmten Handlungsfähigkeit am vielversprechendsten sind, um uns vor dem Missbrauch sozialer Daten zu schützen“ (ibid.). Ob das für den alltäglichen Umgang von Laien mit Daten in einer Umgebung ausreicht, in der Profis diese Daten abgreifen, ist aber fraglich. Weigand hält dazu sechs Rechtsgarantien für nötig. Zwei dieser Rechte, das auf Datenzugang und das zur Inspektion von Datenfirmen, sollen dem Zweck dienen, die Transparenz zu erhöhen. Die übrigen vier Rechte zielen darauf, dem Dateneigentümer mehr Handlungsfähigkeit zu verschaffen, und zwar durch das Recht, Daten zu ergänzen, das Recht, sie zu verwischen, das Recht, mit Daten zu experimentieren und das Recht, sie zu portieren, also zu anderen Firmen mitzunehmen“ (ibid.). Verbraucher und Unternehmen benötigen zumindest Empfehlungen und Leitfäden, wie Datenschutzvorgaben am Besten umzusetzen sind. Dafür eignet sich nach Ansicht des Branchenverbandes Bitkom die „regulierte Ko-Regulierung": Anwender leiten aus best practices Verhaltensregeln ab, die die EU-Kommission oder Aufsichtsbehörden als rechtskonform anerkennen und ggf. für allgemeingültig erklären. Solche Prozesse sind in der Grundverordnung angelegt. Organisationen, die die Verwaltung und Überwachung solcher Regelungen übernehmen können, gibt es bereits (Bitkom 2017b: 10). Datenschutz in den Zeiten von Big Data Big Data sind auf der EU-Rechtsebene ein Problem eigener Art. In der EU-Datenschutzgrundverordnung spielt der Begriff noch gar keine Rolle. Big Data sind weder unzulässig noch ohne Weiteres zulässig. Das rechtliche Gebot der Datensparsamkeit widerspricht allerdings grundsätzlich dem volume, also der Datenmenge, die Big Data zugrunde liegt. Bei *Big Data geht es außerdem um mehr als nur um volume, velocity und variety, nämlich auch um veracity, also um Richtigkeit und Vertrauenswürdigkeit. <?page no="228"?> 228 9 Gläsern sind wir schon jetzt Man kann Daten nach der Art ihrer Erhebung in vier Kategorien einteilen: Erstens können einzelne Personen sie bewusst, also freiwillig zur Verfügung stellen; zweitens können diese Personen beobachtet und diese Beobachtungen von anderen als Daten aufgezeichnet werden; drittens lassen sich neue Daten, die auch eine einzelne Person betreffen können, aus anderen ableiten oder schließlich viertens: es handelt sich um Daten, die ermitteln, wie wahrscheinlich etwas ist; sie werden zu Vorhersagen von Verhalten benutzt. Bezieht man diese Kategorien auf den Datengebrauch und den Datenschutz, zeigen sich charakteristische Ungereimtheiten: Der Datengebrauch löst sich bei Big Data zunehmend von der einzelnen Person und damit von den Rechten, die diese Person an ihren Daten hat. Das verringert immer mehr die Kontrolle des Einzelnen über die Erhebung und Nutzung der Daten. Und was ebenso kennzeichnend ist: Das Datenschutzrecht fußt vor allem auf den oben genannten Kategorien eins (freiwillige Hergabe von Daten) und zwei (Daten aus der Beobachtung von Verhalten. Big Data-Auswertungen basieren aber meist auf den Kategorien drei (aus anderen Daten abgeleitete neue Daten) und vier (Wahrscheinlichkeitsdaten) (Broemel/ Trute 2016: 52). Das passt nicht zusammen. Darin steckt in den Zeiten von Big Data die eigentliche Datenschutzproblematik. In Big Data-Anwendungen rechnen Algorithmen in erfahrungsbasierten, vorgegebenen Zusammenhängen. Dies ist ein typischer, wenn auch nicht immer industrietypischer Anwendungsfall einer top down-Strategie: Ziel und Weg liegen fest, und die nötigen Daten bringt man dann schon zusammen. Anders ist es, wenn man folgende Beobachtung zugrunde legt: „Wenn Mobiltelefonierer durchweg online sind und das Gerät regelmäßig nutzen, reichen schon die Daten von drei Monaten aus, um aus den gespeicherten Standortdaten nicht nur rückblickend ein Bewegungsprofil des Menschen abzuleiten, der das Handy benutzt, sondern auch vorherzusagen, wann sich die Person in Zukunft wo aufhalten wird“ (Stampfl 2013: 51). Das ist ein typisches bottom up-Auswertungsergebnis. Immer häufiger funktionieren Big Data-Auswertungen bottom up. Algorithmen und überhaupt maschinell lernende Artefakte (MLA) können zwei unterschiedlichen Lernstrategien folgen: zielorientiertem (top down-) und ergebnisoffenem (bottm up-)Lernen. Übrigens können MLA auch falsch lernen, etwa wenn ein MLA einen Aufkleber auf einem Lastwagenheck als Verkehrsschild missinterpretiert oder wenn ein Schattenwurf oder Spiegelungen des Sonnenlichts auf einer Pkw-Karosserie als wesentliche Fahrzeugteile betrachtet werden, so dass das System nachts nicht funktioniert, weil es beim Training doch immer hell war (Wadephul 2016: 42). Lernen sie aber korrekt, dann arbeiten sie zielorientiert nach einem relativ autonomen Autoadaptionsprozess, bei dem Probleme mit einer Vorstrukturierung gelöst werden sollen, top down also (ibid.: 39). Ergebnisoffene, auch „neugierig“ genannte MLA arbeiten hingegen sie erwähnt bottom up; sie können in Lernschritten auch ihre Programmstruktur und sogar die Möglichkeiten zur Adaption dieser Programmstruktur ändern (Harrach 2014: 14). Anspruchsvollere Algorithmen generieren deshalb qualitativ neues Wissen über bislang unbekannte Zusammenhänge (Broemel/ Trute 2016: 55). Diese algorithmenbasierte Erzeugung von Hypothesen verspricht auf vielen Feldern so viel, dass auch Disziplinen, die ohne Big Data-Analysen mit traditioneller Methodik nach wie vor gut arbeiten können, es sich kaum leisten können, Big Data zu ignorieren (ibid.: 59). Ein Beispiel für eine solche Analyse von Daten, über die bislang kaum einschlägiges Vorwissen besteht, ist die DNA-Sequenzierung (ibid.). Dabei geht es um die Essenz des Menschseins, aber nicht um einzelne Menschen. Personenbezogene Daten spielen daher kaum eine Rolle. Der Internetexperte Doc Searls, Mitverfasser des Cluetrain Manifesto, hat scharf kritisiert, dass die „Datenkraken“ mit unserer Privatheit im Netz nach Belieben umgehen: „Wenn <?page no="229"?> 9.7 Privacy by Design 229 wir Google und Facebook wie eine Infrastruktur behandeln würden, wie Straßen oder Kraftwerke, würden Beamte sie immer wieder inspizieren, damit nichts falsch läuft. So aber weiß niemand, was dort passiert, die Datenzentren sind absolut blickdicht“ (Kuhn 2015). Es gibt deshalb Forderungen, auch Betreiber sozialer Netzwerke gesetzlich dazu zu zwingen, ihre Leistungen zumindest in einer Variante ohne personenbezogene Daten anzubieten (Schweitzer u.a. 2016: 22). Verpflichtungen dieser Art gibt es nicht, und eine nur freiwillige Option, so zu verfahren, würde das Datenschutzgrundproblem dieser Netzanbieter auch nicht erledigen (Broemel/ Trute 2016: 56). Es bleibt vorerst ungelöst. Erledigt ist dagegen der Datenschutz bei Big Data für statistische Zwecke. Das Bundesverfassungsgericht hat sie von der Zweckbindung personenbezogener Daten ausgenommen (BVerfG 1983: Rn. 160). Dort spielt das Kernproblem, das Big Data datenschutzrechtlich haben, keine Rolle: die ungewisse Verwendung. Der Wert von Big Data liegt ja gerade darin, dass sie zu noch unbekannten Zwecken genutzt werden können und sollen. Diese können also gar nicht „vorab bekannt sein oder sein müssen“ (Broemel/ Trute 2016: 52). Der herkömmliche Datenschutz bleibt auf der Ebene personenbezogener Daten stehen, die als Datengrundlage in Big Data-Anwendungen aber oft gar nicht nötig sind. Personendaten, so haben wir gesehen, sollen sparsam und nur dann erhoben werden, wenn es erforderlich ist, und sie sollen zweckgebunden verwendet werden. Die Big Data-Technologie nutzt aber, wie wir ebenfalls gesehen haben, möglichst große Datenmengen aus heterogenen Datenbanken für zum Teil noch unbekannte Zwecke (ibid.: 53). Solche vor allem aus dem Internet für ein geringes oder ohne Entgelt bezogenen Daten machen es möglich, Verhalten in großem Stil zu beobachten und algorithmenbasiert aufzubereiten. Big Data-Anwendungen machen also, wie sich zeigt, Regulierungsgrenzen sichtbar: Wer vorrangig auf die Kontrolle personenbezogener Daten und eine vorab definierte Verwendung setzt, kann Big Data nicht richtig greifen. Daten, die jemand freiwillig für vorab (ex ante) definierte Zwecke zur Verfügung stellt oder abgeleitete Daten sind eben von anderer Qualität und Sensibilität und deshalb anders zu bewerten als nur statistisch erschlossene. Das hat Konsequenzen für ihren Einsatzwert. Die „ex ante-Steuerung eignet sich allenfalls für bekannte Wege logischer Ableitung“, etwa für die Automatisierung und Überwachung von Standardabläufen, nicht aber „für den eigentlichen Bereich algorithmenbasierter Wissensgenerierung“, also für die Ermittlung von Innovationen (ibid.: 60). Zukunftsfähige Regeln für die Wissenserzeugung und -verwendung im Big Data-Maßstab müssen sich bei der Bewertung der Daten dezidiert vom Indiviualbezug lösen, der das übliche Datenschutzkonzept prägt (Broemel/ Trute 2016: 61, vgl.Ladeur 2015, 2016a). Das geschieht auch. Für Firmen machen algorithmenbasierte Aktivitäten der Wissensgenerierung „oftmals den attraktivsten Teil der Wertschöpfung aus“ (ibid: 55). Datenschutzfolgenabschätzung „Wir leben in dem falschen Glauben, wir hätten so etwas wie Privatsphäre“, sagen Mitnik/ Vamosi (2017: Vorwort). Selbst wenn wir diesem Satz nicht pauschal zustimmen: Was würden wir aufgeben, wenn wir auf privacy verzichteten? Mit Sicherheit viel; denn diese privacy „gibt die innere Ruhe, einmal ganz man selbst zu sein“ (ibid.). Wir brauchen Rückzugsräume. Eine kreative und pluralistische Gesellschaft funktioniert nur, wo es Privatbereiche gibt, geschützte Räume, in denen man selbst bestimmt, „ob, wann und wem man etwas sagt und mit wem man sich austauscht“ (ibid.). Privatheit, bestätigt die Philosophin Beate Rössler, heiße Kontrolle darüber zu haben, wer was über mich weiß. Das schließe die Kontrolle darüber ein, welche Personen Zugang oder Zutritt zu meinem Privatleben haben (Rössler 2001). <?page no="230"?> 230 9 Gläsern sind wir schon jetzt Solche Überlegungen haben nicht allein mit dem juristischen Verständnis von Privatheit zu tun, sondern viel auch mit ihrem ethischen. Ethik ist eine philosophische Wissenschaft der Moral und des sittlichen Handelns. Sie ermittelt und bewertet die in einer Gesellschaft geltenden Maßstäbe und Überzeugungen. Für die Antwort auf die Frage, warum in einem Gemeinwesen bestimmte Werte und Normen gelten sollen, verlangt sie gute Gründe. Eine Ethik entwickelt also konsensfähige Kriterien, die den Menschen eine Handlungsorientierung ermöglichen. Um es zu betonen: Sie sagt nicht, was rechtens, sondern was richtig ist. Sie beantwortet die Frage: Was soll ich tun? Man kann sie als Theorie und Richtschnur richtigen Handelns beschreiben. Sie kann und soll eine wertebezogene Haltung erzeugen und fördern. Das gilt in unserer alltäglichen analogen Welt ebenso wie in der digitalen Datenwelt. Datenschutzfolgenabschätzung ist deshalb ohne ein ethisches Fundament kaum vorstellbar. Nach Artikel 35 der Datenschutzgrundverordnung muss diese Abschätzung dokumentieren, ob der Datengebrauch für Betroffene Risiken erzeugt - nicht nur rechtlich fassbare, sondern auch moralische. Die Datenschutzfolgenabschätzung ist also eine Schnittstelle von Ethik und Recht. Sie prägt auch die corporate social responsibility von Organisationen. Eine in deutsches Recht umgesetzte europäische Richtlinie definiert dazu Berichterstattungspflichten über gesellschaftsverträgliche Geschäftsmodelle von Unternehmen. Auch dort spielt privacy eine große Rolle. Eine zentrale Rolle hat die Datenschutzfolgenabschätzung in der EU-Charta digitaler Grundrechte. Diese Charta haben 27 Initiatoren 2016 entworfen, um für die digitale Ethik eine Diskussionsgrundlage zu schaffen. Sie schlägt Regelungen zum Umgang mit Big Data vor, auch zu bot-Techniken, also zu Kommunikationsautomaten, zu Künstlicher Intelligenz, zu Netzneutralität und zu vielen weiteren digitalen Themen. Sie ist kein Gesetzentwurf und hat auch nicht dessen üblichen Weg durch politische und staatliche Gremien hinter sich. Sie wurde nicht einmal von EU-Politikern vorgestellt, die sie im EU-Parlament zur Abstimmung stellen müssten, sondern vom Chefredakteur der Wochenzeitung Die Zeit Giovanni di Lorenzo, vom Netzexperten Sascha Lobo, vom damaligen Präsidenten des EU-Parlaments, späteren SPD-Kanzlerkandidaten und kurzzeitigen SPD-Vorsitzenden Martin Schulz und anderen unter Federführung der ZEIT-Stiftung. Die Stiftung veröffentlichte die Charta am 30. November 2016 in vier Spachern: auf deutsch, englisch, französisch und spanisch im Netz und als ganzseitige Anzeige in einigen Zeitungen. Die damit angestoßene öffentliche Diskussion im Netz soll den Text noch „reifen“ lassen, wie der Computerexperte und Kritiker des computer big businessSascha Lobo es ausdrückte. Artikel sollen ergänzt, verändert oder auch gelöscht werden können. Um diese Diskussion zusätzlich asnzuregen, haben wir diese Digitalcharta im Worlaut auch in dieses Buch aufgenommen; nur wenige untergeordnete Absätze sind im Folgenden zu einem zusammengezogen. 9 9..88 DDiiee DDiiggiittaallcchhaarrttaa Die Digitalcharta sagt nach einer Präambel: 1: Die WuRrde des Menschen ist auch im digitalen Zeitalter unantastbar. Diese muss Ziel und Zweck aller technischen Entwicklung sein und begrenzt deren Einsatz. Neue GefaRhrdungen der MenschenwuRrde ergeben sich im digitalen Zeitalter insbesondere durch Big Data, kuRnstliche Intelligenz, Vorhersage und Steuerung menschlichen Verhaltens, MassenuRberwachung, Einsatz von Algorithmen, Robotik und Mensch-Maschine-Verschmelzung <?page no="231"?> 9.8 Die Digitalcharta 231 sowie Machtkonzentration bei privaten Unternehmen. Die Rechte aus dieser Charta gelten gegenüber staatlichen Stellen und Privaten. 2, 3: Jeder hat ein Recht auf freie Information und Kommunikation. Dieses Recht ist konstitutiv für die freie Gesellschaft. Es beinhaltet das Recht auf Nichtwissen. Jeder Mensch hat in der digitalen SphaRre das Recht auf eine gleichberechtigte Teilhabe. Es gilt das in der Europäischen Grundrechte-Charta formulierte Diskriminierungs-Verbot. Die Verwendung von automatisierten Verfahren darf nicht dazu führen, dass Menschen vom Zugang zu Gütern, Dienstleistungen oder von der Teilhabe am gesellschaftlichen Leben ausgeschlossen werden. Dies gilt besonders im Bereich Gesundheit, beim Schutz vor elementaren Lebensrisiken, dem Recht auf Arbeit, dem Recht auf Wohnen, dem Recht auf Bewegungsfreiheit und bei der Justiz und der Polizei. 4: Im digitalen Zeitalter werden innere und äußere Sicherheit auf neue Weise bedroht. Bei der Ausübung der Schutzverantwortung des Staates sind enge rechtsstaatliche Grenzen zu beachten. Sicherheitsbehörden duRrfen nicht auf durch Private erhobene Daten zugreifen. Ausnahmen sind nur auf gesetzlicher Grundlage zum Schutz besonders wichtiger Rechtsgüter zulaRssig. Eine anlasslose Massenüberwachung findet nicht statt. Waffensysteme dürfen nicht vollautomatisiert eingesetzt werden. 5: Jeder hat das Recht, in der digitalen Welt seine Meinung frei zu äußern. Eine Zensur findet nicht statt. Digitale Hetze, Mobbing sowie AktivitaRten, die geeignet sind, den Ruf oder die Unversehrtheit einer Person ernsthaft zu gefährden, sind zu verhindern. Ein pluraler oRffentlicher Diskursraum ist sicherzustellen. Staatliche Stellen und die Betreiber von Informations- und Kommunikationsdiensten sind verpflichtet, fuRr die Einhaltung von Absatz 1, 2 und 3 zu sorgen. 6, 7: Profiling durch staatliche Stellen oder Private ist nur auf gesetzlicher Grundlage zulässig. Jeder hat das Recht, nicht Objekt von automatisierten Entscheidungen von erheblicher Bedeutung fuRr die LebensfuRhrung zu sein. Sofern automatisierte Verfahren zu Beeinträchtigungen fuRhren, besteht Anspruch auf Offenlegung, URberprüfung und Entscheidung durch einen Menschen. Die Kriterien automatisierter Entscheidungen sind offenzulegen. Insbesondere bei der Verarbeitung von Massendaten sind Anonymisierung und Transparenz sicherzustellen. 8: Ethisch-normative Entscheidungen koRnnen nur von Menschen getroffen werden. Der Einsatz und die Entwicklung von Künstlicher Intelligenz in grundrechtsrelevanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden. FuRr die Handlungen selbstlernender Maschinen und die daraus resultierenden Folgen muss immer eine natürliche oder juristische Person verantwortlich sein. Bei Infrastrukturen, die fuRr das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisenvorsorge gewährleistet sein. 9: Die Informationen staatlicher Stellen muRssen öffentlich zugänglich sein. Das Transparenzgebot gilt auch gegenüber Privaten, sofern diese über Informationen verfügen, die für die Freiheitsverwirklichung Betroffener von entscheidender Bedeutung sind. 10, 11: Jeder hat das Recht, in seiner Wohnung frei und unbeobachtet zu leben. Jeder hat das Recht auf den Schutz seiner Daten und die Achtung seiner Privatsphäre. Jeder hat das Recht, uRber seine Daten selbst zu bestimmen. Personenbezogene Daten dürfen nur nach Treu und Glauben und für festgelegte Zwecke erhoben und verarbeitet werden, wenn dies für das jeweilige Nutzungsverhältnis erforderlich ist und eine vorherige Einwilligung erfolgt ist oder auf gesetzlicher Grundlage. Die Einwilligung muss ausdruRcklich und informiert erfolgen. <?page no="232"?> 232 9 Gläsern sind wir schon jetzt Nutzungsverhältnisse müssen fair und transparent gestaltet werden. Die Einhaltung dieser Rechte wird von einer unabhängigen Stelle überwacht. Anbieter von Diensten oder Produkten dürfen nur solche Daten erheben und verarbeiten, welche für den Zweck der Benutzung erforderlich sind. Die Grundsätze von privacy by design und privacy by default sind einzuhalten.“ Ein Einschub: Unter privacy by design versteht man folgende Grundsätze: „Proaktiv, nicht reaktiv; als Vorbeugung und nicht als Abhilfe. Datenschutz als Standardeinstellung. Der Datenschutz ist in das Design eingebettet. Volle Funktionalität - eine Positivsumme, keine Nullsumme. Durchgängige Sicherheit - Schutz während des gesamten Lebenszyklus. Sichtbarkeit und Transparenz - für Offenheit sorgen. Die Wahrung der Privatsphäre der Nutzer - für eine nutzerzentrierte Gestaltung sorgen“ (digitalcourage o.J.a). Die Grundsätze von privacy by default sind die folgenden: „Datenschutzfreundliche Grundeinstellungen müssen zum Standard werden. Dafür braucht es einen Dialog mit Akteuren aus Politik, Wirtschaft und Zivilgesellschaft, der hierfür verbindliche Regeln generiert. Einfache Sprache und Bedienbarkeit von Datenschutzerklärungen und -menüs. Genaue und verständliche Aufklärung über die Verwendung von Daten. Dem Dschungel an permissions, denen man beim Installieren einer App zustimmen muss, muss Einhalt geboten werden. Daten dürfen nicht aus purer Laune erfasst werden“ (digitalcourage o.J.b). So weit dieser Einschub, und nun zurück zur Digitalcharta: „12, 13: Die Unversehrtheit, Vertraulichkeit und Integrität informationstechnischer Systeme ist sicherzustellen. Jeder hat ein Recht auf Verschlüsselung seiner Daten. Jeder hat ein Recht auf Sicherheit von informationstechnischen Systemen und der durch sie verarbeiteten Daten. Dabei ist höchstmoRglicher Schutz zu gewährleisten. Identitätsdiebstahl und IdentitaRtsfälschung sind zu bekämpfen. 14, 15: Das Recht, an Wahlen und Abstimmungen teilzunehmen, darf nicht an den Zugang zu digitalen Medien gebunden werden. Jeder Mensch hat das Recht auf freien, gleichen und anonymen Zugang zu Kommunikationsdiensten, ohne dafür auf grundlegende Rechte verzichten zu müssen. Das Internet ist Bestandteil der Grundversorgung. Jeder hat das Recht auf eine nicht-personalisierte Nutzung digitaler Angebote. 16, 17: Netzneutralität ist zu gewaRhrleisten. Dies gilt auch fuRr Dienste, die den Zugang zur digitalen SphaRre vermitteln. In der digitalen Welt sind Pluralität und kulturelle Vielfalt zu gewährleisten. Offene Standards sind zu fördern. Marktmissbräuchliches Verhalten ist wirksam zu verhindern. 18, 19: Jeder hat das Recht auf digitalen Neuanfang. Das findet seine Grenzen in den berechtigten Informationsinteressen der Öffentlichkeit. Kinder, Heranwachsende, benachteiligte und besonders schutzbeduRrftige Personen genießen in der digitalen Welt speziellen Schutz. Ihre Teilhabe an der digitalen Welt ist zu fördern. 20-22: Jeder hat ein Recht auf Bildung, die ein selbstbestimmtes Leben in der digitalen Welt ermöglicht. Digitalisierung ist eine elementare Bildungsherausforderung. Sie besitzt einen zentralen Stellenwert in den Lehrplänen öffentlicher Bildungseinrichtungen. Arbeit <?page no="233"?> 9.8 Die Digitalcharta 233 bleibt eine Grundlage des Lebensunterhalts und der Selbstverwirklichung. Im digitalen Zeitalter ist effektiver Arbeitsschutz zu gewährleisten. Der digitale Strukturwandel ist nach sozialen GrundsaRtzen zu gestalten. Rechteinhabern steht ein fairer Anteil an den Erträgen zu, die aus der digitalen Nutzung ihrer Immaterialgüter erwirtschaftet werden. Diese Rechte müssen in Ausgleich gebracht werden mit nicht-kommerziellen Nutzungsinteressen. 23: Die Auslegung der in dieser Charta enthaltenen Rechte obliegt in letzter Instanz dem Europäischen Gerichtshof. Ausübung und Einschränkung der Rechte und Grundsätze dieser Charta erfolgen entsprechend Art. 52 EGC. Rechte und Pflichten aus dieser Charta gelten für alle Unternehmen, die auf dem Gebiet der EU tätig sind. Die Festlegung eines Gerichtsstands außerhalb der EU ist unzulässig“ (https: / / digitalcharta.eu/ ). Die Charta der Bürgerrechte für eine nachhaltige Wissensgesellschaft Dieser Digitalchartaentwurf ist nicht der erste Versuch zu einem normativen Rückgrat der digitalen Welt. Schon im Jahr 2003 entwarf eine Expertengruppeals Diskussionsgrundlage für den damaligen UN-Weltkongress zur Informationsgesellschaft. eine „Charta der Bürgerrechtefür eine nachhaltige Wissensgesellschaft“. Aber sie interessierte nicht groß. „Damals waren viele ja noch nicht im Netz angekommen“ (Beckedahl 2016). Der Entwurf der damaligen Charta wurde kontrovers aufgenommen, zumindest in Deutschland. Die ehemalige Bundesjustizministerin Sabine Leutheusser-Schnarrenberger unterstützte diese Initiative: „Ich freue mich“, sagte sie auf einer Tagung der Akademie für politische Bildung in Tutzing am Starnberger See, „dass es diesen Anstoß auf europäischer Ebene gibt. Wir brauchen eine öffentliche Debatte über diese Themen“ (Schröder 2016). „Wenn wir keinen Rahmen schaffen, innerhalb dessen sich die Digitalisierung entfalten soll“, hatte sie schon im August 2016 in einem Tutzinger Sommergespräch erklärt, „dann kann das die Privatsphäre, die Persönlichkeitsrechte und auch die Freiheit des Menschen gefährden.“ Markus Beckedahl, der schon an der Charta von 2003 mitgearbeitet hatte, stimmte zu: „Es ist eine weitere Diskussionsgrundlage über die Gestaltung einer zukunftsfähigen Netzpolitik. Nicht mehr und nicht weniger. Und das ist gut so“ (Beckedahl 2016). Kritiker hingegen sagen, die Charta sei „der Stoßrichtung nach nicht falsch, aber im Zweifel so wolkig formuliert wie ein Gummiparagraph“ (Hanfeld 2016). Und: Es gebe „vieles zu bemängeln“ (Mirau 2016). Der zuletzt zitierte Kritiker setzt dann aber doch hinzu: „Am Ende steht fest: Den Aufruhr war es wert“ (ibid.). Das Wort Aufruhr wohl eine gelinde Schönförberei. Der Entwurf interessierte, aber bewegte schließlich nichts und veränderte vor allem nichts. Deshalb bleibt zu fragen: Wie kann eine Datenethik Allgemeingut werden? Theoretisch ist das recht einfach möglich. Ein Beispiel aus Einem anderen Wirtschaftsgebiet: Schon lange ehe es ein Handelsgesetzbuch gab, galt das Prinzip des „ehrbaren Kaufmanns“. Die Wirtschaft, wünscht sich der Vorsitzende des Deutschen Ethtikrats Peter Dabrock, sollte in Anlehnung hieran klare Aussagen darüber machen, was einen ehrbaren Datenkaufmann kennzeichnet (BMBF/ Wi 2018: Lukas). Zu dessen Aufgaben werde der Datenschutz ganz selbstverständlich gehören. Bis Übereinkünfte solcher Art ausgearbeitet sind und allgemeine Geltung erringen, empfiehlt der Ethikrat eine Art Zwischenlösung. Dabrock plädiert für Datentreuhänder. „Diesen Organisationen könnte der Einzelne gegen eine Gebühr das tracking der Verwendung der eigenen Daten durch Dritte übertragen.“ Bei Problemen könne der Treuhänder eingreifen. „Das wäre niederschwellig, effektiv, geschähe in Echtzeit und diesseits von langwierigen Klagewegen“, erklärte Dabrock (Anger 2018). <?page no="234"?> 234 9 Gläsern sind wir schon jetzt 9 9..99 WWaass eet th hi isscch he e NNo or rmme en n lleeiis stteenn kkö önnnne enn „Eine Big Data-Ethik ist in erster Linie eine Sozialethik. Ihre Ziele sind der Schutz, die Stärkung und die Befähigung des Einzelnen, seiner informationellen Freiheitsgestaltung und seiner Datensouveränität. Das fordert nicht nur den Einzelnen, Vorsicht walten zu lassen, sondern verlangt einen multidimensionalen, multiakteursbezogenen Governance- Ansatz“ (BMBF/ Wi 2018: Dabrock). Das sehen allmählich auch Firmen ein und warten nicht auf den Staat. Der Software- Konzern SAP hat eigene Leitlinien für Künstliche Intelligenz (KI) entwickelt und dazu einen externen Beirat aus vier Professoren und einem Wissenschaftler für den ethischen Umgang mit KI berufen, unter ihnen den eben zitierten Professor für Systematische Theologie an der Universität Erlangen-Nürnberg und Vorsitzenden des Deutschen Ethikrats Peter Dabrock. Der Beirat soll noch um weitere Mitglieder wachsen (Hensel 2018c). Auf einen Blick zeigen Beispiele, dass normative Regelnnötig sind, entweder durch verpflichtende Vereinbarung der Akteure oder unter Einbeziehung des Staates: Soll im Straßenverkehr in Zukunft ein Algorithmus entscheiden, ob bei einem Unfall das Leben eines Fußgängers höher bewertet wird als das eines Autofahrers? Sollen Versicherungen Prämien am Lebensstil eines Versicherten ausrichten dürfen? Der US-Versicherer Progressive nutzt bereits ein Telematikgerät namens Snapshot, das das Einhalten von Tempobegenzungen überwacht und sich positiv die Autoversicherungsprämie auswirken kann (Stricker 2014: 3). Ethische Festlegungen müssen noch einen Punkt berücksichtigen: Menschen entwickeln Gedanken deduktiv, Algorithmen aber iterativ (Jaume-Palasi 2017). Sie errechnen nur Wahrscheinlichkeiten. Gründe und Folgen einer wahrscheinlichen Entwicklung betreffen sie nicht. Ein algotrader beachtet keine menschlichen und gesellschaftlichen Konsequenzen einer wirtschaftlichen Entscheidung, die mit seinen Operationen einhergehen, auch wenn Menschen aufgrund algorithmischer Entscheidungen möglicherweise zu Tode kommen (Sorgner/ Lüpke 2017: 43). Müssen wir das hinnehmen? Antworten werden zu Recht eingefordert, ebenso wie ganz generell zur informationellen Selbstbestimmung, zum Umgang mit Künstlicher Intelligenz und zur Sicherheit unserer Daten sowie zur Netzneutralität. Sie werden rechtliche und ethische Aspekte haben müssen. Solche Regeln, an die sich alle zu halten haben, sind schon deshalb nötig, weil Gesetze nicht immer greifen: Ein Datensatz, den man sich aus dem Netz herunterladen kann, ist gemeinfrei (in the public domain), auch falls er ursprünglich illegal beschafft wurde, „so dass seine Nutzung keiner Genehmigung durch eine Ethikkommission bedarf“, urteilt Kalev Leetaru vom George Washington University Center for Cyber & Homeland Security (Spielkamp 2016). Leetarus Fazit: „Es existiert kein eindeutiger Prozess, der es ermöglicht, die ethischen Rechtfertigungen für ein bestimmtes Forschungsprojekt zu prüfen“ (ibid.). Und die Antwort einer Sprecherin auf die Frage zum ethischem Umgang mit Daten bei SAPmacht deutlich, dass von allein wenig geschieht: „Was wir machen, ist, aus der Umgebung einfach Datenpotenziale in die Kommerzialisierung zu heben“ (Bitkom 2017 Arnold). Ethische Normen können abstrakte, rechtlich nur schwer fassbare Begriffe wie etwa Unrecht konkretisieren. Sie geben außerdem der Rechtspolitik Impulse, weil sie schon bestehen, bevor Recht entsteht. Ein Beispiel: Juristisch gibt es noch kein Dateneigentum. Rechtsnormen, die Dateneigentum etwa im Internet der Dinge oder für elektronisch vernetzte Automobile festlegen, sind erst noch zu beschließen. Aber dürfen diese Daten überhaupt jemandem ausschließlich gehören? Widerspricht das nicht der informationellen Selbstbestimmung? Das muss geklärt werden. Die Debatte über eine Digitalcharta muss also weitergehen. <?page no="235"?> 9.9 Was ethische Normen leisten können 235 Weitergehen muss auch die Debatte darüber, ob wir uns von der schönen neuen Welt der Daten unverhältnismäßig abhängig machen, etwa von Algorithmen. Algorithmustransparenz ist deshalb eine neue Anforderung. Die Gesellschaft wird sie von ihren Entwicklern und Anwendern fordern (Gatzke/ Gruhn 2018). Wenn Benehmen „Moral im Kleinen“ ist, dann bedeutet die hohe Zuwendung an technische Systeme wie etwa soziale Netzwerke nach Pasquales Überzeugung „eine Verschiebung unserer ethischen Orientierung weg von den uns umgebenden Menschen hin zu einer intensiven Verbindung mit einem Cyber-Netzwerk“ (2017: 97). Der Effekt sei ein so zerbrechlicher neuer Narzissmus, dass er ständig diese technische Unterstützung brauche (ibid.). Die dazu benutzten Systeme könnten so viel einfordern wie sie geben und uns deshalb in einem Hamsterrad gefangen halten (ibid.). Noch kritischer urteiltdie Rechtswissenschaftlerin Anita Allen.Die Professorin an der Pennsylvania University sieht in dem „Verlangen, aufgezeichnete Daten weiterzugeben, die Gefahr, dass „jedes vernetzte Gerät zum Spitzel“ wird (cit. ibid.: 100). Wie real diese Gefahr ist, haben wir schon gesehen. Bereits 2012 zeichneten die britischen Government Communications Headquarters jeden Tag über 50 Milliarden Metadaten auf, heute dürften es über hundert Milliarden sein (Eberl 2016: 268 f.) In China waren 2016 bereits 176 Millionen Überwachungskameras in Betrieb, bis zum Jahr 2020 sollen es mehr als 600 Millionen sein (Strittmatter 2018). Um das bewusster zu machen, hat der chinesiche Künstler Xu Bing aus 11.000 Stunden Aufzeichnungen dieser Kameras bereits den ersten 81 Minuten langen Spielfilm montiert, für den keine einzige der knapp 600 Szenen gespielt oder gedreht werden musste. AlleVideos, die in diesem Film ‚Die Augen der Libelle‘ verarbeitet sind, stammen aus chinesischen Überwachungs- und Livestream-Kameras (ibid.). Julie Cohen (2012) geht noch weiter: Überwachungsapparate würden auch eingerichtet, „um bestimmte Arten von Menschen zu erschaffen“. Die meisten Bürger nähmen das mehr oder minder achselzuckend als „eine Art Kriegsneurose“ hin, als Resignation vor ständiger Überwachung (ibid.: 101). Wem das zu apokalyptisch klingt, der sei an folgende Meldung erinnert: „Teenager können nicht aufhören, Facebook zu benutzen, auch wenn sie es hassen“ (Bosker 2014). Offenbar gibt es also Wege, um Handlungen auch gegen den Willen der Handelnden zu konditionieren (Yoffe 2009, Levine 2013). „Die Plattformen“, erklärt der Juraprofessor an der amerikanischen Universität Maryland Frank Pasquale, „prägen uns kontinuierlich auf der Basis ausgefeilter psychologischer Profile“ (2017: 103). Was zu tun ist, ist negativ formuliert relativ klar: „Datensparsamkeit ist nicht nur wirklichkeitsfern, sondern auch innovationshemmend“ (Lobe 2018). Was aber bedeutet das positiv formuliert? Es könnte zumindest bedeuten, „dass wir in einem Moment, wo das Internet der Dinge allmählich auch den menschlichen Körper ans Netz nimmt…, so etwas wie einen ökologischen Umgang mit Daten brauchen, der a priori überlegt, ob Daten überhaupt emittiert werden müssen“ (ibid.). Vielleicht, heißt es dort weiter, „sollte man den Datenkapitalismus wie den Emissionsrechtehandel organisieren, wo jeder Emittent nur eine bestimmte Datenmenge freisetzen darf“ (ibid.). Was gegen die bislang unbremsbare Datenflut zu tun ist, erörterten Mitte 2017 auch Experten im Deutschen Patent- und Markenamt München in einer Konferenz über die Gestaltung einer humanen vierten industriellen Revolution. Die Tagung nannte sich anspruchsvoll Weltforum für Geschäftsethik (Rüdiger 2017). Es ging um die Arbeit der Global Initiative for Ethical Considerations in the Design of Autonomous Systems IEEE an ethischen Standards. „Wir wünschen uns“, sagte die stellvertretende IEEE-Vorsitzende Kay-Firth Butterfield dort, „dass deren Einhaltung genauso selbstverständlich wird wie die anderer Standards“. Auch das Max-Planck-Institut für Innovation und Wettbewerb arbeitet an diesen Fragen. Seine Vorschläge sind aber noch einigermaßen abstrakt. <?page no="236"?> 236 9 Gläsern sind wir schon jetzt 9 9..1100 EEtthhiiccaall AAlllliiggnneedd DDeessiiggnn Konkreter läuft der Standardisierungsprozess „Ethical Alligned Design“. Hier eine Übersicht: Standard P7000 (model profess for addressing ethical concerns during system design) soll ethische Erwägungen von Anfang an in Systemdesigns einfließen lassen. Standard P7001 konkretisiert die Transparenz autonomer Systeme. Er hat besondere Bedeutung für das autonome Fahren. P7002 (data privacy process) beschäftigt sich mit software, die persönliche Daten sammelt und auswertet. P7003 (algorithmic bias considerations) will verhindern, dass sich in angeblich neutralen Algorithmen Vorurteile von Programmierern wiederfinden. P7004 (standard for child and student data governance) entwickelt Richtlinien für den Datenschutz in Bildungseinrichtungen. P7005 (standard for transparent employer data governance) leistet dies für Mitarbeiterdaten. Mit P7006 (standard for personal data artificial intelligence agent) soll der Einzelne die Verwendung seiner Daten so steuern, dass er dabei sein digitales Profil noch kontrollieren kann. P7007 entwickelt Standards für ethisch betriebene Roboter und Automatisierungssysteme, P7008 solche für autonome und halbautonome Systeme. P7009 will erreichen, dass Roboter und andere intelligente autonome Systeme ethische Standards selbsttätig beachten, und P7010 soll festlegen, wo autonome intelligente Systeme erprobt werden (ibid.). Einzelheiten enthält das jährlich aktualisierte Handbuch „Ethically Alligned Design“ der IEEE im Internet. Aber verlieren wir uns nicht in Details, sondern halten wir die essentials im Blick. Es geht um drei Fragenkomplexe (vgl. Bitkom 2018: Schnebel/ Szabo): Erstens: Wer hat etwas zu sagen, wer schafft an? Bestimmen letztlich die großen Konzerne FANG (Facebook, Amazon, Netflix und Google) und BAT (ihre chinesischen counterparts Baidu, Alibaba und Tencent)? Das könnte so sein; schließlich ist das EU-Konkurrenzprodukt zur Google-Suchmaschine mit dem Namen Theseus trotz 300 Millionen Steuergeldern grandios gescheitert. Es war 2006 aus einem deutsch-französischen Quaero-Projekt hervorgegangen. Quaero galt dem damaligen französischen Staatspräsidenten Jacques Chirac als europäische Google-Konkurrenz. Die Bundesregierung erklärte aber im März 2007, sie habe „keine neue Suchmaschine zum Ziel“ (BMBF/ Wi 2018: Tettenborn). Zweitens: Welches Menschenbild steht hinter dieser Entwicklung, ein elitäres oder ein egalitäres? Öffnet die Digitalisierung die Schere zwischen arm und reich weiter oder hilft sie, diese wieder zu schließen? Fördert, ja verlangt sie die sogenannte Selbstoptimierung, die man auch Selbstausbeutung nennen kann, oder erleichtert sie eine Selbstbestimmung ohne äußeren Druck? Und soll der weitere Weg in die Digitalisierung reguliert werden oder dem freien Spiel der Kräfte gehorchen? Und schließlich drittens: Was bedeutet die fortschreitende Digitalisierung für die Zukunft der Arbeit? Welche Berufe verschwinden und welche werden diese Revolution überstehen? Was bedeutet sie für das HWelche positiven Visionen, kurz gefragt, eröffnet die Technologie? Wir wissen es noch nicht und müssen uns trotzdem darauf einstellen. Und welche rote Linie wollen wir nicht überschritten wissen? Auch wo sie verläuft, wissen wir noch nicht. In dieser unsicheren Situation können Leitlinien helfen. Es gibt solche schon. Im folgenden Abschnitt können Sie sie studieren: <?page no="237"?> 9.11 Ein Leitlinienentwurf zur Datenethik von Bitkom 237 99..111 1 EEi inn LLe ei ittl li inniieenneennttw wu urrff zzuur r DDa atteenneetth hi ik k vvo on n BBi it tk ko om m Im Leitlinien-Entwurf zur Datenethik, den Bitkom zum Umgang mit Big Data schon 2015 publiziert hat, heißt es: „Nutzen von Big Data-Anwendungen: Sie sollen Verbrauchern, Kunden oder der Allgemeinheit sichtbaren Nutzen bringen. Transparenz von Big Data-Anwendungen: Transparenz verlangt, dass Datensubjekte (Betroffene) erkennen können, welche persönlichen Daten wie genutzt werden. Priorität für anonyme oder pseudonyme Daten: Solche Daten sollten genutzt werden, wenn damit ein gleich gutes Ergebnis wie aus personalisierten Daten erzielbar ist. Einige Anwendungen verlangen allerdings letztere Daten. Interessenausgleich schaffen: Personengebundene Daten sollen genutzt werden können, wenn die legitimen Interessen des Auswertenden die des Betroffen übertreffen. Unter dieser Voraussetzung können Daten auch für andere als die ursprünglichen Zwecke verwendet werden. Liegt diese Voraussetzung nicht vor, muss der Betroffene zustimmen. Transparentgebot: Wo Daten mit Zustimmung der Betroffenen verarbeitet werden, sollte das transparent geschehen, damit die Betroffenen erfahren, was mit ihren Daten passiert. Betroffene am Nutzen beteiligen: Big Data-Anwender sollten die Betroffenen an den Erträgen beteiligen, die sie aus der Verwendung von deren Daten erzielen. Datenaufsicht sichern: Organisationen, die Big Data verarbeiten, sollen eine strikte Datenaufsicht schaffen, die sicherstellt, dass Daten rechtlich einwandfrei, verantwortlich und nicht über Gebühr ausgewertet werden und dass die Rechte und Interessen der Betroffen gewahrt bleiben. Hummler/ Schöneberger (2017) fordern dazu sinnvolle Lösungen, mit denen die Kontrolleure anhand eines umfassenden persönlichen Datenschutzes kontrolliert werden können“. Daten gegen Missbrauch schützen: Organisationen, die Big Data verarbeiten, sollen das ihnen technisch und organisatorisch Mögliche tun, um den unberechtigten Zugang zu persönlichen Daten zu verhindern. Kein Einsatz für unethische oder unmoralische Zwecke: Organisationendürfen Daten für solcheZwecke weder sammeln noch verarbeiten. Das gilt auch, wenn dies Betroffene verletzen könnte. Interessenausgleiche schaffen: Die Weiterverarbeitung von Daten durch Dritte ist zulässig, wenn die Betroffenen zustimmen. Das kann auch als Interessenausgleich erfolgen und setzt voraus, dass der ursprüngliche Datenverwerter ermittelt, ob die Weiterverwendung durch Dritte zusammen mit anderen Daten Risiken birgt. Betroffene müssen darüber informiert werden. Datenautonomie fördern: Organisationen, die Big Data verarbeiten, müssen Betroffene ausreichend informieren, damit diese als Datensubjekte über die Verwendung autonom entscheiden können“ (Bitkom 2016: 27-31). Wozu Leilinien gut sein sollen Wozu sollen solche Leitlinien gut sein? Die öffentliche Hand setzt vorausschauende Datenanalysen ein, um beispielsweise zu entscheiden, ob da, wo es Unruhen gab oder wo Autos gestohlen wurden, die Polizei verstärkt patrouillieren sollte. Doch was geschieht tatsächlich, wenn die Statistik dann eine höhere Aufklärungsquote zeigt? Wird mehr ermittelt, weil stärker überwacht wird, ohne dass die Deliktzahl höher wäre als anderswo? Wird solchen Gegenden ein Stigma verpasst, gelten sie fortan als ärmer gleich unsicherer? Das <?page no="238"?> 238 9 Gläsern sind wir schon jetzt könnte zu einer Ghettoisierung beitragen. Leitlinien sollen solche ethisch begründeten Fragen beantworten helfen. Im privaten Bereich gibt es ähnliche kritische Felder, etwa Schufa-Bewertungen. Sie lösen sehr weitreichende Entscheidungen etwa über Kreditvergaben, Mietverträge etc. aus. Nur sehr wenig ist darüber bekannt, nach welchen Kriterien solche Beurteilungen zustande kommen. Als Gesellschaft wollen wir aber erkennen und haben wir auch das Recht zu erfahren, welche Steuerungsmechanismen da greifen (Bitkom 2017: Böken et al.). Wieder geht es um Gewichtungen ethischer Art. Car sharing-Anbieter möchten wissen, wann Kunden in einem Quartier ein Auto benutzen wollen. Um zu gewährleisten, dass das gewünschte Modell bei einer Anfrage binnen 30 Minuten verfügbar ist, brauchen sie private Daten über das bisherige Nutzerverhalten im gesamten Quartier. Möchte der Fahrer, dass er bei Fahrtantritt je nach Baustellen, Staus und Wetter Routenempfehlungen bekommt, müssen Algorithmen diese Massendaten mit seinen privaten Daten verknüpfen. Wie legitim das ist, ist eine weitere ethische Frage, bei deren Antwort Leitlinien helfen können. Wer Algorithmen einsetzt, sollte dem, dessen Daten da verarbeitet werden, erläutern, was sie leisten sollen. Das sollte uns die Entscheidung darüber erleichtern, ob wir wollen, dass sie das leisten, wie lange Daten dazu gespeichert werden und ob es möglich sein soll, diese Daten eines Tages automatisch auch für andere Zwecke durchsuchen zu lassen. Was hinter einer Bildschirmoberfläche grundsätzlich geschieht, wenn man Daten eingibt, und was man heraus bekommt, kann man bei Google anhand der Geschäftsbedingungen erfahren. Wie Google auswählt, weiß man aber nicht. Gibt man zum Beispiel Jude ein, kann es passieren, dass Google eine Reihe abfälliger Bemerkungen über „die“ Juden ausgibt, auf Nachfrage mit der Begründung, diese Aussagen würden am häufigsten angeklickt. Wird da gesellschaftliche Wirklichkeit abgebildet oder verfestigt die Google-Suchmaschine Vorurteile? Sollte Google dies oder etwas anderes anzeigen? Muss Google sich als privates Unternehmen der Gesellschaft gegenüber rechtfertigen? Können wir erwarten oder verlangen, dass sich das Unternehmen nach gesellschaftlichen Vorstellungen richtet? Grundsätzlich filtert Google ohne jeden Einblick in seine Prioritäten massiv - aber was wird berücksichtigt? Nur ein Stichwort: Werden Urheberrechtsverstöße mit gewichtet und solche Quellen nachrangiger oder gar nicht angezeigt? Niemand erfährt es. Alle diese Fragen berühren ethische Normen. Gesetzliche Antworten würden nicht greifen. Denn Datenschutzrecht ist nationales Recht. Auch die EU-Grundverordnung greift in den Mitgliedsstaaten nur, weil sie in jeweils nationales Recht überführt ist. Grenzen für Google & Co. müssten aber weltweit gelten. Das hat nicht einmal die UNO geschafft, zumal die USA stärkere Restriktionen ablehnen. Außerdem stimmen die Nutzer der Plattformen, auf denen Daten gesammelt werden, der Sammlung im Kleingedruckten automatisch zu, fast immer ohne sich dabei Gedanken zu machen. Folglich gibt es gegen das Datensammeln wenig Beschwerden. Wo niemand klagt, kann niemand richten. Daher stimmt schon. „Mit Big Data wurde das Recht auf informationelle Selbstbestimmung zur Illusion (Seele/ Zapf 2017: 169). In der Öffentlichkeit ist die Frage aufgekommen, ob es für solche Überprüfungen einen Algorithmen-TÜV geben solle. Der TÜV ist ein Unternehmen, das auf gesetzlicher Grundlage die Funktion von Maschinen beurteilt und damit deren Gebrauch reguliert. Das hat sich bewährt. Ist es auf die digitale Welt übertragbar? Experten sind skeptisch. Denn riesige Mengen an Algorithmen sind gesellschaftlich nicht relevant, da sie zum Beispiel nur interne Produktionsprozesse bewerten. Sie steuern über nachgeschaltete Aktoren in der Fertigung die Effizienz, verbessern das Qualitätsmanagement oder verringern Maschinenausfälle, regulieren Abweichungen und helfen Kostenrisiken zu vermeiden oder Kosten einzusparen. Statt eines Algorithmen-TÜV sprechen sich die Experten schon wegen dieses und ähnli- <?page no="239"?> 9.12 Cybersicherheit ist eine globale Aufgabe 239 cher für einen TÜV irrelanter Einsatzfelder eher für einen Transparenz-TÜV aus. Er müsste nach anerkannten Regeln arbeiten, die es aber noch gar nicht gibt. Für die informationelle Selbstbestimmung wird ein Schutzprogramm gefordert, „in dem die Konzepte und Instrumente des Datenschutzes den spezifischen Risiken der Technikanwendungen angepasst sind“ (Roßnagel/ Geminn 2016: XIX). Die EU-Datenschutzgrundverordnung reicht dazu nicht aus. Sie lässt den Mitgliedsstaaten aber viele Spielräume, „die Risiken smarter Informationstechnik im Alltag selbst zu regulieren“ (ibid.). Wie weit ist die Gesellschaft also mit der Absicht gekommen, den Umgang mit Big Data wegen deren offensichtlicher Bedeutung einerseits zu fördern, andererseits aber zu regulieren, damit möglichst nichts überbordet? Sie ist, wie wir sehen, an der Arbeit, aber noch nicht weit. Rückwärtsgewandte Empfehlungen wie „künftig häufiger mit Bargeld bezahlen oder WhatsApp ausschalten“ (Schneier 2015 unter dem vollmundigen Titel „Data und Goliath - Die Schlacht um die Kontrolle unserer Welt“) sind keine Lösung. In unserer hochdigitalisierten, vernetzten Gesellschaft ist ein solches Verständnis von Privatheit obsolet: Technische Strukturen „be- und vermessen, beurteilen und speichern unser Tun, machen durch mustererkennende Algorithmen sogar zukünftiges Handeln prognostizierbar“ (Seele/ Zapf 2017: 4). Rundumüberwachung „ist und bleibt eine Realität“ (ibid.: 165). 99..112 2 CCyybbeer rssiicchheer rhheeiitt iisstt eei innee gglloobbaallee AAuuffg gaabbee Auch wenn eine Schlacht um die Kontrolle der Welt nicht bevorsteht: Aggressive Cyberangriffe sind eine Realität. 2017 drangen russische Hacker von allen zuständigen Überwachern zunächst unbemerkt in das gesicherte deutsche Regierungsnetz ein, bis im Dezember ein ausländischer Geheimdienst Alarm schlug (Mascolo et al. 2018). Acht global agierende Konzerne und die Münchner Sicherheitskonzerenz haben es nicht nur deshalb für nötig gehalten, am Rande dieser Konferenz des Jahres 2018 in ganzseitigen Zeitungsanzeigen einen Zehn- Punkte-Forderungskatalog für mehr digitale Sicherheit zu publizieren (SZ 17.02.2018: 26, www.charter-of-trust.com). Sie verlangen darin, die Verantwortung für Cybersicherheit auf höchster Regierungsebene in eigenen Ministerien und in Unternehmensleitungen durch Chief Information Security Officers zu verankern. Konkret fordert diese charter of trust: Unternehmen und wenn nötig Regierungen müssten für die digitale Lieferkette risikobasierte Regeln mit verbindlichen Anforderungen aufstellen, Cybersicherheit allen Aktivitäten schon als Werkseinstellung zugrunde legen, vernetzte Geräte mit sicheren Identitäten ausrüsten, sie über einen update-Mechanismus dauerhaft absichern und für die Nutzer während einer angemessenen Nutzungsdauer in Sachen Datensicherheit ansprechbar sein. Staat und Wirtschaft müssten Cybersicherheits-Partnerschaften vertraglich vereinbaren, diese zu einem festen Bestandteil der Ausbildung machen, kritische Infrastrukturen und IoT-Lösungen zertifizieren, ein Netzwerk für industrielle Cybersicherheit aufbauen, diese global so verbindlich machen wie das Welthandels- oder wie Freihandelsabkommen und alle diese Initiativen gemeinsam „unverzüglich umsetzen“. Zu Wahrung der Datensicherheit über Grenzen hinweg hält Bitkom es für nötig, dass Datenverarbeiter beim Start jedes Projekts dessen Verträglichkeit analysieren. Es sei einfacher, ein Vorhaben vom Start weg gesetzeskonform auszulegen als es später anzupassen. Weiter fordert Bitkom, dass der Verbraucher den Überblick darüber behält, welche Daten seine Geräte übermitteln, um selbstbestimmt handeln zu können, und dass er erfährt, wo welche personenbezogenen Daten liegen. Nur dann habe er die Chance, sie auch löschen zu lassen. Das Recht auf Vergessenwerden gehe an der technischen Realität nämlich vorbei. <?page no="240"?> 240 9 Gläsern sind wir schon jetzt Schließlich, sagt Bitkom, dürfe die Nutzung von Big Data „nicht die Chancengleichheit von Menschen beschneiden“ (ibid.: 63). Und ganz generell: Die Verantwortung für schwierige Entscheidungen dürfe nicht der Künstlichen Intelligenz zugeschoben werden, denn das könne sie nicht leisten. „Entscheidungen bleiben eine menschliche Domäne“ (Bitkom 2017b: 11). Der Technik-Philosoph Klaus Mainzer geht noch weiter. Über die grundgesetzlich garantierte Würde des Menschen hinaus verlangt er eine Festlegung auf die „digitale Würde des Menschen“ (Mainzer 2016, vgl. dazu auch Pietsch 2017). <?page no="241"?> 1100 DDiiee nneeuuee AAu uffk klläärruunngg Wie wird global greifbares Wissen das Leben aller verändern? Wenn jeder aus Datenspeichern fast alles entnehmen und damit wissen kann - wie aufgeklärt kann und wird er dann handeln? Ist eine Welt vorstellbar, in der wir wissensbasiert, vernunftgeleitet und kooperativ das allgemeine Beste ermitteln und ihr Handeln danach ausrichten? Experten erwarten genau das. 10.1 Die Welt der Open Data 241 10.2 Interkulturelle Zentren investigativen Wissens 247 10.3 Digital Humanities 249 10.4 Big Data in den Wissenschaften 252 10.5 Eine Zwischenbilanz 257 1 100..11 DDiiee WWeelltt ddeerr OOppeenn DDaattaa Die Informationsgesellschaft - ein Wort, das es nur im Singular geben kann; denn das weltumspannende Informationsnetz macht alle Menschen, die in dessen Maschen leben und arbeiten, zu Angehörigen einer globalen Gesellschaft - diese Informationsgesellschaft also hat jetzt ein knappes halbes Jahrhundert Entwicklung hinter sich. Vor vierzig Jahren umriss der in die USA ausgewanderte Israeli Marc Uri Porat auf der Basis von Vorarbeiten Fritz Machlups (Machlup 1962) erstmals die Grundzüge einer globalen Informationsökonomie (Porat 1978). Beide stimmten in einer Grundbeobachtung überein: Herkömmlich sind Gesellschaften und wirtschaftliche Strukturen hierarchisch organisiert: Einer oder wenige befehlen und viele müssen gehorchen. Einer oder wenige schaffen an und viele schaffen. Die Informationswirtschaft hingegen ist nicht vertikal ausgerichtet, sondern horizontal. Sie existiert, ja dominiert bereits geraume Zeit. Schon in den 1970er Jahren, ermittelte Porat, beschäftigte sich fast die Hälfte aller arbeitenden Amerikaner mit irgend einer Art von Information und verdiente bereits mehr als die Hälfte der gesamten national verfügbaren Lohnsumme. Porat forderte daher von jedem US-Ministerium, es solle sich um Informationstechnologie kümmern. „Der Vorschlag verhallte ungehört, in Deutschland erst recht. Nach wie vor versteht die Politik wenig von Digitalisierung. Das hat die Informationstechnologie nicht davon abgehalten, sich weiter auszubreiten“ (Keese 2014: 181). Inzwischen stellt sich heraus, dass der, der die größten Datenmengen beherrscht, dabei die Nase so weit vorn hat, dann er alle anderen auf die Seite drängen kann und womöglich auch will. Wer schneller und genauer als andere weiß, was Menschen bewegt, sich für oder gegen etwas zu entscheiden, kann ihnen die am Besten maßgeschneiderten Angebote machen, wird damit am stärksten beachtet und kann seinen Vorsprung stets weiter ausbauen. Er wird immer uneinholbarer. So entsteht eine Verfügungsmacht über Daten, die niemand mehr besiegen kann, und der Wettbewerb endet. Googlebzw. Alphabet-Chef Eric Schmidt sah diese Macht schon vor Jahren erreicht: „Eines Tages stellten wir in einer internen Diskussion fest, dass wir den Aktienmarkt voraussagen konnten. Das wäre aber illegal. Deswegen haben wir damit aufgehört“ (cit. Keese 2014: 189). Google hat wie erwähnt angekündigt, ein globales System von Satelliten zu starten, um Daten im Weltraum zu parken und zu verarbeiten. Irgendwelche Gesetze - außer denen von Google - gelten dort nicht. Das Unternehmen könnte dann noch entschiedener tun, was es will. <?page no="242"?> 242 10 Die neue Aufklärung Netzwerke garantieren exponentielles Wachstum geradezu; das haben wir im Abschnitt über Netzwerke schon gesehen. Google-Manager Jonathan Rosenberg hat diese Entwicklung einmal so kommentiert: „Mehr Nutzer bringen mehr Informationen und mehr Informationen mehr Nutzer, mehr Werbung mehr Nutzer und mehr Nutzer mehr Werbung. Es ist einfach wunderbar“ (cit. ibid.: 208). Wozu das führt, stellte die EU-Kommission 2013 in einem öffentlichen Memorandum fest: „Google besitzt seit mehreren Jahren in den meisten europäischen Ländern Marktanteile von weit über 90 Prozent“ (ibid.). Ohne Gegensteuerung sind die Konsequenzen für eine freie Gesellschaft mit freien Märkten einigermaßen dramatisch. Kesse hat sie 2014 so formuliert: „Wo der Netzwerkeffekt wirbt, stirbt über kurz oder lang der Wettbewerb, und der Monopolist kann tun und lassen, was er will. Er fährt Monopolrenditen ein. Seine Kundschaft nimmt trotzdem nicht reißaus, weil sie mangels Wettbewerb keine Alternativen mehr hat. Das Internet enttäuscht die Hoffnungen all derer, die sich vom Digitalzeitalter Vielfalt erträumt haben. Zwar gibt es diese Vielfalt. Aber sie findet in Nischen statt“ (ibid.: 203). Die Masse des Geschäfts gerät gerade unter Big Data-Bedingungen in die Hände von Monopolen. Es gibt Big Data in Hülle und Fülle. Google hat sie, Facebook hat sie, Bertelsmann hat sie partiell und andere haben sie auch, jeder für sich. Allenfalls gegen Rechnung sind sie auch für Dritte erhältlich. Daher gilt zugleich auch: Zugänglich sind Big Data keineswegs in Hülle und Fülle. Eine open data-Ökonomie, ein open government (vgl. Kirschner2016), gar eine open data- Kultur, gibt es aber erst als eine lose Sammlung von Bausteinen noch ohne Bauplan. Open data gelten als bisher einzig erkennbares probates Mittel, um diese Entwicklung zu bremsen. Daher müssen wir open data nun genauer betrachten. Open data sind Daten, die jedermann „nutzen, nachnutzen und weiterverbreiten“ kann. So definiert sie beispielsweise das irische Open Data Handbook. Die Plattform data.gov hat dazu Erwartungen ins Netz gestellt; wir zitieren kurz: Open dataseien eine Prämisse für gesellschaftlichen Mehrwert. Sie machten öffentliche Einrichtungen transparenter und einschätzbarer. Diese arbeiteteten so effektiver und effizienter. Zugleich steige die Bürgerbeteiligung. Auch wirtschaftlich seien open data wichtig zur Förderung von Innovation und Kundenorientierung und damit für ein smartes Wachstum (data.gov o.J.). Wie Open Data entstanden Community memory-Projekte, die frühesten bekannten Beispiele für open data in einer community built database (vgl. Pardede 2011), entwickelten sich Anfang der 1970er Jahre aus der Antikriegsbewegung (Levy, 1984: 150 ff.) in den Hacker-Szenen der US-amerikanischen Universitäten um San Francisco und in daraus sukzessive entstandenen öffentlichen und gemeinnützigen Computerprojekten (Höltgen 2014: 386). Einige Ex- Studenten gründeten damals in Kalifornien ein öffentliches Rechenzentrum namens Resource One Inc. (ibid.: 387). Community Memory war der Start für den Einsatz zuvor fast nur wissenschaftlich genutzter Computer in sozialen Netzwerken, „ja, der Ausgangspunkt für den Einzug dieser Technologie in die Öffentlichkeit und danach in die Privatsphären überhaupt“ (ibid.: 401 f.). In den späten 1970er Jahren tauchen Bulletin Board-Systeme auf, die man per Telefon über Akustikkoppler anwählen konnte. Ab Mitte der 1990er Jahre lösten soziale Netzwerke auf der Basis von Internet-Protokollen diese kleinen telefonabhängigen Netze ab (ibid.). Zwischen 2005 und 2010 begann eine ganze Reihe von Staaten, Daten ihrer öffentlichen Verwaltungen jedermann zugänglich zu machen. Sie verfochten dieIdee einer offenen Verwaltung, die die Bürger beteiligt. Eine wesentliche Grundlage dafür sind open government data, also „für alle zugängliche Daten der öffentlichen Verwaltung. Wirtschaft und Öffentlichkeit können diese frei nutzen, verändern und weiterverwenden“ (Kirschner 2016).Die Initiatoren hielten ein open government in einer modernen Verwaltung für unverzichtbar, da es <?page no="243"?> 10.1 Die Welt der Open Data 243 Hierarchien abbaue und die Eigenverantwortung und Autonomie der Bürgerinnen und Bürger stärke - „letztlich zur Stärkung der Demokratie“ (ibid.). Seither hat diese open data-Politik zahlreiche Anhänger gefunden (Harper 2017). US- Beispiele sind außer data.gov auch HealthData.gov und oreilly.com. Bei den dort gespeicherten Daten handelt es sich um Statistiken ohne Transaktionsdaten, also ohne Pfade des Online- Verhaltens von Nutzern, und auch nicht um social media-Daten (Manovich 2014: 79). Eine weitere open data-Plattform ist cordaid.org. Diese Organisation publiziert, sofern kein Grund das ausschließt, seit Anfang 2013 alle ihre Projektinfos quartalsweise nach den Regeln der International Aid Transparency Initiative (IATI) (Besseling o.J.). Sie wirbt dafür, dass auch andere ihre Daten offen ins Netz stellen, damit jeder sehen könne, „wer was tut, wo, mit welchen Ressourcen und Ergebnissen und mit welchen Partnern in welchen Regionen“ (ibid.). Nicht wenige Menschen sind überzeugt, solche Bespiele müssten geradezu zwingend Schule machen. Die Open Data-Ökonomie, sagen sie, erschaffe sich selbst. In Zeiten allgemein steigender Offenheit werde es eine Abstimmung mit den Füßen geben: „Sind Datenbestände nicht offen und können diese mit Hilfe einer community erzeugt werden, so werden sie entstehen. Oft ist hierbei die Qualität sogar besser als bei anderen potenziell möglichen Datenquellen. Was wir aktiv schaffen können, sind die für eine Open-Data-Ökonomie notwendigen Rahmenbedingungen. Wir selbst müssen gestalten und dürfen nicht nur geschehen lassen“ (Schwarzer in: Fachgruppe 2016: 8). Plattformen, auf denen die öffentliche Hand Daten zur Verfügung stellt, sagt Schwarzer weiter, sollten nachvollziehbare Eigenschaften haben und untereinander verknüpft sein (ibid.). Zimmer (2010) bietet einen Überblick über Probleme von Wissenschaftlern bei der Erhebung öffentlich zugänglicher Daten für die Forschung (Mahrt/ Scharkow 2014: 228). Natürlich bestünden beim Datentransfer gewisse Risiken, sagt Schwarzer, aber überwiegen nicht dennoch die Chancen? Er fordert eine angstfreie, vernünftige Abschätzung. Die Potenziale für Arbeitsplätze und derEffekt auf das Bruttoinlandsprodukt in der sich wandelnden Gesellschaft übertreffen nach seiner Ansicht die Probleme (ibid.). Im letzten Kapitel dieses Buches werden wir aber sehen, dass man Arbeitsplatzeffekte mit guten Argumenten auch anders einschätzen kann. Das Open data-Potenzial Open data haben ein enormes volkswirtschaftliches Potenzial. Ihr Nutzen wird in vielen Ländern diskutiert. O’Reilly (2013) hält open data für einen Schlüssel zu einer effektiven Datenwelt; dazu müsse der Staat entweder eigene Daten öffentlich machen oder oder dies vom privaten Sektor verlangen. Eine Reihe von Staaten hat das inzwischen getan. Die USA haben behördliche Daten 2009 freigegeben, 2010 folgten die Briten. „Die vorderen Plätze belegen vor allen reiche, gut verwaltete Länder. In der EU stellt deren open dataportal für34 Länder in 78 Katalogen 812.000 datasets und dazu Metadaten in 24 Sprachen zut Verfügung (BMBF/ Wi 2018: Pilar). Nationen wie Indien oder Kolumbien stellen heute schon mehr Daten in mehr Qualität bereit als Deutschland, das nur auf Platz 26 landete - und damit hinter Rumänien, Tschechien und Moldawien“ (Google 2017). Am Besten läuft die open data-Politik laut Index der Open Data Knowledge Foundation in Taiwan. Auch kleine oder wenig industrialisierte Länder strengen sich an. In Indonesien befasste sich ein regional agenda-setting workshop 2015 mit open data. Die dorte erarbeitete Liste von Zieldefinitionen ist ermüdend lang, die Aufzählung der Umsetzungserwartungen ist es noch stärker - das Dokument zeigt aber, dass auch ein Dritte-Welt-Land den Nutzen öffentlich zugänglicher Daten erkannt hat (Open Data Lab Jakarta 2015). Bei der Suche nach weiteren open data-Akteuren hilft https: / / opendata.arcgis.com. <?page no="244"?> 244 10 Die neue Aufklärung Wie sehr frei zugängliche Daten volkswirtschaftliche Potenziale eröffnen, zeigen Beispiele; hier nur eines: San Francisco sparte seit 2012 mehr als eine Million Dollar allein dadurch ein, dass nicht mehr so viele Anrufer nach Verkehrsdaten fragten - sie stehen nämlich im Netz (Google 2017: 11). Für Deutschland hat die Konrad-Adenauer-Stiftung das open data-Potenzial ermitteln lassen. Es hängt stark davon ab, wie weit sich Politik und Wirtschaft für open data engagieren. Die Stiftung verweist auf den „Nationalen Aktionsplan der Bundesregierung zur Umsetzung der Open-Data-Charta der G8“ und auf die Ziele einer open government-Partnerschaft. Vorsichtig geschätzt liegt der Mehrwert bei mindestens zwölf Milliarden Euro pro Jahr. Wenn Datenbesitzer ihre Daten der Öffentlichkeit frei zur Verfügung stellen, rechnet die optimistische Schätzung sogar mit über dreißig Milliarden Euro. Dazu müsste Deutschland sich das Ziel setzen, eine der führenden open data-Nationen zu werden (ibid.: 10). Noch gehen aber erst wenige deutsche Städte voran. Als Pionier gilt Bonn. Als erste deutsche Kommune hat diese Stadt gemeinsam mit Bürgern, Institutionen und der Verwaltung eine open data-Leitlinie geschaffen (ibid.: 12). Eine allgemeine Datenfreigabe wäre ein Ziel mit vielen Unbekannten: Offen wären nicht nur die Daten, sondern auch, wer sie nutzt; offen wäre, wie und für welchen Zweck. Offen wäre, ob Datenlieferant und Datennutzer eine längerfristige Beziehung aufbauen würden, und deshalb wäre offen, ob der Datennutzer nicht nur seinen eigenen Vorteil sucht. Datenbesitzer, ist daraus zu folgern, würden unter diesen Prämissen wohl kaum Daten liefern (ibid.: 13). Experten nennen drei weitere noch ungelöste Probleme: „Erstens: Große Teile der Daten stehen nicht in guter Qualität bereit oder sind schlicht irrelevant. Zweitens: Viele Akteure kennen sich nicht gut genug aus. … Drittes Problem: Datensicherheit: Wie gibt man große Menschen an Daten frei, ohne dabei den Datenschutz zu verletzen? “ (ibid.). Um diese Hürden zu überwinden, müssen nach Überzeugung der erwähnten Fachgruppe „Wirtschaftliche Potenziale und gesellschaftliche Akzeptanz“ der Smart Data-Begleitforschung Chancen und Risiken besonders von firmennahen open data klargestellt werden und müssen best practice-Beispiele für die Nutzung sichtbar und Plattformen geschaffen werden, die das inhaltliche Potenzial besonders von Firmendaten beispielhaft aufzeigen. Für eine open corporate data-Strategie muss es Weiterbildungsangebote geben. Analyseplattformen für Big Data müssen finanziell gefördert werden, zumindest in der Anschubphase. Nützlich wären auch Kooperationen, für die anonymisierte, ggf. historische Daten bereitstehen müssten. Eine Klassifizierung von Lizenzen müsste ebenso entwickelt werden wie Beteiligungsregelungen für Erträge Dritter aus der Nutzung solcher Daten. Schließlich müsste sich die Reputation von open data-Nutzern feststellen und bewerten lassen; denn von ihr wird abhängen, wer welche Daten nutzen darf. Ein erster Schritt könnten geschlossene Open Data-Plattformen sein (Fachgruppe 2016: 13 f.). Unterstellen wir einmal, dass sich das alles vereinbaren und einrichten lässt. Dann müssten als Nächstes die offen zugänglichen Daten selbst qualifiziert werden. Ihre Entstehung muss ja nachvollziehbar sein. Informationen zum Sensor, mit dem die Daten erzeugt wurden, würden erkennen lassen, wie genau sie sind. Auch die zugehörigen Metadaten müssten sich beurteilen lassen. Der Datengebrauch könnte dann zum Beispiel für bestimmte Zwecke lizensiert werden. Diese Konzessionen würden auch Metadaten enthalten. Dazu müssten diese ihre timeliness offenbaren, also ihre Aktualität, die Häufigkeit ihrer Aktualisierung und den Zeitraum, für den sie gültig und damit nutzbar bleiben (Hermsen in ibid.: 18). Da liegt noch viel unerledigte Arbeit. Die Datenqualität beurteilen können und auch tatsächlich beurteilen müssten die Nutzer dann selbst. Traditionelle Türhüter von Wissen im Staat, an den Universitäten und im Markt kann man nämlich ignorieren oder umgehen: „Es scheint nicht mehr den Professor zu geben, der einem sagt, was man nachschlagen soll und welche ‚drei Argumente dafür‘ <?page no="245"?> 10.1 Die Welt der Open Data 245 und welche dagegen sprechen“ (Berry 2014: 53). Die Technik öffnet den Zugang zu Datenbanken menschlichen Wissens von überall her. Das alles wird nur auf der Basis soliden Vertrauens und zugleich rigider Überprüfbarkeit funktionieren. Das hat die Unternehmensberatung Deloitte in ihrer Studie „Datenland Deutschland“ bestätigt: „71 Prozent der Studienteilnehmer achten besonders darauf, welche persönlichen Daten sie im Internet zur Verfügung stellen. Über 50 Prozent übermitteln Daten nur an Organisationen, denen sie vertrauen. 73 Prozent wünschen sich Schutz vor dem Weiterverkauf ihrer Daten. 60 Prozent fordern Transparenz in Bezug auf Inhalt und Zweck der Datenweitergabe“ (Baron in: Fachgruppe 2016: 20). Zugleich sagen aber auch 70 Prozent der befragten Unternehmen, Datenanalysen hätten hinsichtlich Prognosen den höchsten Stellenwert. Künftig, heißt es in der Analyse der Fachgruppe, werden wir die Bereitstellung von Daten als Teil der öffentlichen Daseinsvorsorge betrachten müssen. „So wie Städte und Kommunen für ihre Bürgerinnen und Bürger ein Verkehrs- oder Energienetz unterhalten, sollten sie auch eine verlässliche und offene Dateninfrastruktur aufbauen. Das erfordert Investitionen, wird sich aber vielfach auszahlen. Denn Daten sind eine nahezu unerschöpfliche Ressource, deren Wert steigt, wenn man sie teilt“ (Zimmer in ibid.: 24). Die offene Datengesellschaft im globalen Maßstab Hier trifft sich die Analyse deutscher Smart Data-Forscher mit der Vision von Hardy, dem quantum relations-Erfinder und Motor der beiden Datenanalyse-Firmen, die dieses Buch vorgestellt hat, RavenPackund danach Prisma Analytics. Er überträgt das Modell der offenen Datengesellschaft in den globalen Maßstab. „Was wir als globale Intelligenz bezeichnen, ist das Vermögen, das zu verstehen, richtig auf das zu reagieren und für das zu arbeiten, was allen Menschen und allen anderen Lebewesen auf der Erde hilft. Ein solches verantwortliches Verständnis und Handeln setzt fortlaufende interkulturelle Forschung, Dialoge, Erörterungen und Zusammenarbeit voraus, in anderen Worten: es ist interaktiv, und keine einzelne Nation oder supranationale Instanz oder Autorität kann ihr Ergebnis vorherbestimmen“ (Schloer/ Spariosu 2017: 10). Die globale Lage begreift Hardy als Chance, die Menschheit weiter zu entwickeln. Weil etliche Veränderungen parallel laufen, erzeugen sie nach seiner Überzeugung einen Veränderungsdruck, der das Handeln der Menschen radikal umformen wird. „In den letzten drei Jahrzehnten haben wir in der Entwicklung neuer, umweltfreundlicher Technologien enorme Fortschritte gemacht und Möglichkeiten entwickelt, mit traditionellem Wissen zeitgerecht umzugehen. Biologie, Physik, Chemie und Medizin führten diesen Prozess Schulter an Schulter mit Kommunikationstechnologien. Wir haben alle Werkzeuge in der Hand, um unseren Planeten zu einer nachhaltigen globalen Gemeinschaft zu machen“ (ibid.: 9 f.). Welche Werkzeuge da gemeint sind, ist klar: in erster Linie sind es Big Data. Hardy sieht in ihrer Nutzung mehr Chancen als Risiken und möchte diese Chancen nutzen: „Wir müssen unseren Planeten als vielschichtiges, integriertes System begreifen. Die Weltgemeinschaft muss beginnen, darin ganz wie ein Superorganismus harmonisch zu leben, muss ständig hinzulernen und beweglich genug sein, um auf grundlegende Herausforderungen flexibel reagieren zu können. Dann wird es der Menschheit gut gehen“ (Schloer 2017: 10). Was Hardy, Heiner und ihr Team dazu offerieren, hört sich kühn an: „die Schaffung eines weltweiten Netzwerks interkultureller Zentren investigativen Wissens, der zugehörigen Technologie und menschlichen Entwicklung.“ Im englischen Originaltext, in dem diese Zentren intercultural centers of investigative knowledge heißen, hat Hardy sie ICIK abgekürzt. Dieses ICIK-Netzwerk soll unseren Planeten auf der Basis umfassenden, frei zugänglichen <?page no="246"?> 246 10 Die neue Aufklärung aus globalen Datenbanken in Richtung auf eine friedliche Mentalität der Menschen neu ausrichten helfen. Das ist die Vision einer neuen Aufklärung, diesmal global. Dieses Wort ist hier - nota bene - im kulturgeschichtlichen Sinn gemeint, im Sinn von Descartes, Leibniz und Newton und ausdrücklich nicht im Sinne geheimdienstlicher Aufklärung mit ihren undurchsichtigen Mitteln. Erreicht werden soll diese globale Aufklärung auf der Basis innovativer und effektiver Lernziele und Strategien, die es den Menschen ermöglichen, Herausforderungen zu meistern und die Chancen der Globalisierung voll zu nutzen (ibid.: 16). Diese Vision geht deutlich weiter als die eines society’s nervous system - was man frei als gesellschaftliches Seismometer übersetzen kann -, darüber hatte das Institute of Electrical and Electronics Engineers IEEE im Januar 2012 geschrieben. Auf der Basis mobiler digitaler Medien, hieß es dort, solle es ein globales Steuerungs- und Kontrollsystem mit integriertem, selbstregulierendem feedback-System geben und mit sensing und control elements already in place ausgestattet werden, also mit bereits existierender Mess- und Überwachungstechnik. In diesem nervous system for humanity, dem Seismometer für Humanität, sollen mobile Geräte zu Augen und Ohren eines gigantic, intelligent, reactive organism und eines control framework politischer und sozialer Effektivität, Sicherheit, Stabilität und Nachhaltigkeit werden (Pentland 2012, cit. Doll 2014: 405). Das sind bisher nur große Worte. Aber man sieht: Hardy ist mit seiner Vision nicht allein. In ein ähnliches Horn hatte schon 1997 Jon Katz gestoßen, als er von der digital nationsprach. Deren Bürger sollten connected sein, also stets online. Alle Bürger, a new social class, sollten auf demselben Stand der Technik stehen (Katz 1997a; vgl. 1997b). Das damals aufkommende Internet sollte es allen ermöglichen, sich als Teil eines universellen Sozialkörpers zu fühlen, „als Teil eines Ganzen, als Partikulare eines Universellen“ (Brodocz 1998: 86). Es war eine friedliche, friedliebende Vision, die da entstand. Sie hätte auch von Hardy sein können. Denn auch er erinnert daran, dass schon alte Sagen Könige und Häuptlinge aufgefordert hätten, von kriegerischer Mentalität und dem Wettbewerb als Kämpfer zu einer achtsamen, friedlichen und innovativen Koexistenz miteinander und mit allem Leben auf der Erde zu kommen. Das quantum relations-Prinzip unterstütze das, nur impliziere es ein ethisches System zweiter Ordnung. In Systemen erster Ordnung suche man nur den Einklang mit seiner unmittelbaren Bezugsgruppe, der Familie, dem Stamm, der Nation, der Religion oder was immer. Eine Ethik zweiter Ordnung indessen beruhe auf der goldenen Regel: Behandle alle Menschen und alles, was sonst noch lebt, so wie du selbst behandelt werden möchtest. Das sei die plausibelste Art, in einem weltweiten Bezugsrahmen existieren zu können (ibid.: 13). Dies ist mehr als nur die Vision einer neuen Aufklärung, es ist ein Programm, wenn auch noch ein völlig abstraktes, dessen Realisierungschancen sich noch nicht absehen lassen. Das ICIK-Netzwerk, das Hardy vorschwebt, soll ethisch und sozial verantwortlich handelnde Führungskräfte der Wirtschaft, der Kultur und der Gesellschaft sowie Unternehmer für ein globales Zeitalter ausbilden. Außerdem soll ds ICIK-Netzwerk die interkulturelle Forschung, entsprechendes Lernen und Kommunikation fördern, und dies lokal, regional und global. Dazu sollen diese Zentren neues Wissen transdisziplinär und transkulturell ermitteln, verbreiten und einsetzen, dabei die neuesten wissenschaftlichen, humanen und künstlerischen Ergebnisse einbeziehen und dieses Wissen zur Lösung sozialer und wirtschaftlicher Probleme einsetzen. Das soll Innovationen erzeugen. Und schließlich sollen die Zentren Arbeitsergebnisse regionaler ICIK-Gemeinschaften weltweit so übertragen, dass dieses Wissen wirtschaftliche, soziale und kulturelle Werte erzeugt (ibid.: 16 f.). <?page no="247"?> 10.2 Interkulturelle Zentren investigativen Wissens 247 1100. .22 IInntteerrkkuullttuurreel lllee ZZeen nttr reen n iinnvve es sttiiggaatti ivve en n WWiisssseen nss Das ICIK-Netzwerk (Interculturasl Centers of Investigative Knowledge) soll aus zwei Arten von Einrichtungen bestehen, aus Global Learning and Research Centers (GLRC), zu deutsch Zentren für weltweites Forschen und Lernen, sowie aus Integrated Data Centers (IDC), also integrierten Datenbanken. Sie könnten ein Vorbild in den World Data Centers haben, die im Internationalen Geophysischen Jahr 1957-58 geschaffen wurden und für weltweite Datennetzwerke und die Organisation großer Datenbanken bisher richtungweisend sind. Um aus den Datenbanken das Optimum an Informationen ziehen und verarbeiten zu können, sollen beide Arten von Einrichtungen die Quantum Relations-Programmatik nutzen. Hardy nennt es im Übrigen „absolut entscheidend“, dass diese Zentren politisch und finanziell unabhängig arbeiten, also weder von einer einzelnen Regierung noch von irgendeinem Multi gesteuert werden. Sie sollen mit öffentlichen und privaten Organisationen zusammenarbeiten, ohne dass es auf deren ideologische oder politische Einstellungen ankommen darf, solange sie den Zielen und Schwerpunkten des ICIK-Netzwerks nicht widersprechen (ibid.: 17). Kernaufgabe des ICIK-Netzwerks soll es sein, die Menschheit in Richtung auf friedliches Verhalten weiterzuentwickeln und als Konsequenz im Konsens lebende gesunde und wohlhabende Gemeinschaften aufzubauen. Auch das klingt abstrakt, wird aber fassbar, wenn man die konkreten Absichten des Teams näher betrachtet: So will es in diesen Zentren in einem intercultural knowledge production and management (IKPM) program Führungskräfte für das globalisierte Zeitalter ausbilden. Das soll in vier Aufgabenschwerpunkten geschehen: Sprachtraining, Training intellektueller Mobilität und Flexibilität, Einübung in kulturübergreifende Sensibilität und in der Verknüpfung von akademischem mit Praktikerwissen. Ein solches Programm kann sich kaum jemand allein ausdenken. Hardy hat es denn auch mit US-Professor Mihai Spariosu und weiteren Partnern entwickelt. In seiner Analyse des Wandels und der künftigen Aufgaben von Universitäten hatte Spariosu als Hardys Mitstreiter schon 2004 umrissen, wie solche Zentren zu arbeiten hätten: als „lokal-globale Einrichtungen, in denen verschiedene lokale Werte- und Glaubenssysteme sich aneinander spiegeln und miteinander kommunizieren können“. Das schließe Konflikte nicht aus. Die Bereitschaft zum friedlich-freundschaftlichen Dialog über solche Konflikte führe auf der Basis eines allgemein-humanen Ethos aber zu einem „lokal-globalen Wertesystem, dem Menschen aller Kulturkreise auf der Welt zustimmen können“ (Spariosu 2004: 208 f.). Zwei Jahre später verwies er dazu bereits auf Quantum Relations. Diese Technologie werde den Weg zu einer neuen Generation sich selbst erschaffender und organisierender Programme bahnen (2006: 96). Ein solcher interkultureller Humanismus, schrieb er dann 2012, solle nicht rigide in den Rahmen einer akademischen Disziplin gepresst werden, sondern sich in einem offenen, niederschwelligen Wissensraum entwickeln, zwischen anderen Disziplinen, damit dort neue Formen des Wissens entstehen (Spariosu 2012: 25). Exakt auf diesem interdisziplinären Ansatz beruhen die inzwischen arbeitenden quantum relations-Anwendungen. Im Jahr 2017 auf die Realisierungschancen dieser Vision angesprochen, nennt Hardy die Realisierung dieser Vision weitaus näher als man annehmen mag. Wegen des überhitzten Finanzmarkts sei ein neuerlicher „schwarzen Freitag“, eine veritable Krise wahrscheinlich. Zugleich hat eine gegenläufige Entwicklung vor Augen: „Während wir ökonomisch auf einen Systemcrash zulaufen, bewegen wir uns gleichzeitig in Richtung auf etwas sehr viel Erfreulicheres: auf die zweite große Renaissance in der Geschichte der Menschheit.“ „Alle Aufruhr, die wir derzeit weltweit erleben“, ist Hardy überzeugt, „führt zu einer Einsicht, die schon seit einiger Zeit ziemlich offen zutage liegt: dass die Art, wie wir mit unse- <?page no="248"?> 248 10 Die neue Aufklärung rer Erde umgehen, dauerhaft nicht funktioniert. Die einen schließen daraus, man müsse damit aufhören, die Umwelt zu vergiften. Andere verlangen einen neuartigen Umgang mit den Ressourcen. Wieder andere fragen, wie man Technologien so einsetzen kann, dass sie die Lebensqualität für alle verbessern. Nochmals andere wollen Geld als Zahlungsmittel abschaffen oder zumindest dessen Besitz anders verteilen. Es gibt zahllose Konzepte. Denn was wir heute haben, ist nicht das, was wir wollen. Die Überzeugung wächst, dass ein grundlegender Wandel ansteht. Das erinnert mich an die Zeit, in der der Zweite Weltkrieg zuende ging. Auch er markierte nicht das Ende der Welt, sondern den Start in die zumindest in Europa seit Jahrhunderten längste Zeit des Friedens.“ Hardy erinnert an sein Prisma Analytics-Modell: Wenn etwas an der Grenzlinie von rot zu grün oder von grün zu rot angekommen ist, wenn also eine Entwicklung so weit kumuliert ist, dass es in der bisher eingeschlagenen Richtung kein „weiter so“ gibt, schlägt sie in ihr Gegenteil um. Beide Zustände bestehen unmittelbar Seite an Seite, sind oder werden instabil und kippen dann um. Wiederholt haben Menschen Hardy in den letzen Jahren gefragt, ob er daran mitwirken könne, als eine Art Schulen des Wandels zu schaffen, centers of teaching. Ein Prinz in den Aarabischen Emiraten bat ihn, vor Führungskräften eine Rede zu halten, die den Veränderungsprozess fördern sollte. Er willigte ein. Später nahm der Prinz ihn mit den Worten beiseite: „Noch Wochen lang ging die Diskussion an den Arbeitsplätzen meiner Leute über das weiter, was Sie ihnen gesagt haben. Als Konsequenz will er nun ein knowledge center in den Emiraten errichten, in der Regierungshauptstadt Abu Dhabi. Ein learning center ist auch für den Club of Amsterdam so gut wie beschlossen. Prof.Spariosu hat ähnliche Pläne. „Wo man hinschaut“, sagt Hardy, „sieht man Leute, die Zentren einrichten wollen, in denen Menschen erfahren, wie man verantwortliches Handeln erlernt. All das sind typische Zeichen einer Renaissance.“ Selbst das Wüten des IS oder die Politik „dieses Typs da in Nord-Korea“ wertet er als untrügliche Anzeichen für einen grundlegenden Wandel, für eine Renaissance. „Die Leute verstehen, dass sie offener und verantwortlicher mit unserer Welt umgehen müssen, dass sie lernen müssen, wie man das macht.“ Plattform und Wissensspeicher für das Wissenstransfer-Programm soll ein Integrated Data Center (IDC) werden, also eine integrierte und mit anderen vernetzte Datenbank. Sie soll öffentlichen und privaten Organisationen und allen Ländern offenstehen, in denen es das ICIK-Netzwerk gibt, ebenso wie einzelnen Personen. Diese Datenbank soll historisches und aktuelles Wissen verfügbar halten. Wirtschaftliche Transaktionen soll sie wie alle anderen Dienste für jeden öffentlichen oder privaten Teilnehmer bestmöglich unterstützen. Dazu soll das IDC im einem allgemein zugänglichen Big Data-Standard arbeiten, über eine dazu passende allgemein nutzbare Infrastruktur für Analyse und Statistik und ein ebenfalls allgemein zugängliches standardisiertes System für Dienste und Transaktionen in der cloudverfügen. Hardy sieht es bereits in Ansätzen kommen; denn immer öfter werden aus streng abgeschirmten Datenspeichern open data, und immer öfter können alle Interssenten an diesen Beständen partizipieren. Ein derart offenes System, in dem alle Daten frei zugänglich sind, schließt Privatheit dennoch nicht aus. Denn zwar sind dort alle Daten gespeichert, aber das System kann ihre Benutzung für die Persionen reservieren, die auf der Basis einer strikten, vieldimensionalen Erlaubnis auf sie zugreifen dürfen (ibid.: 202). Interkulturelles Forschen, Lernen Kommunizieren soll ermitteltes Wissen so anwenden, dass man damit praktische soziale und wirtschaftliche Probleme im Zusammenwirken der akademischen und der nichtakademischen Welt lösen kann. Dazu sollen die einzelnen Zentren unabhängige und selbstorganisierte Einheiten sein, aber untereinander kooperieren (ibid.: 183 f.). Ihre Schwerpunkte sollen kurz zusammengefasst die interkulturelle Forschung sein, die Bildung, die Beratung, das Training und der Austausch von Wissen (ibid.: 184). <?page no="249"?> 10.3 Digital Humanities 249 Plattform dieses Austauschs soll von Anfang an eine interaktive Webseite sein, auf der über Länder, Kulturen und Zivilisationen hinweg darüber diskutiert werden soll, was globale Intelligenz ist, welches Wissen und Verhalten sie erzeugt und vermehrt und was dieses Wissen mit vereinten Kräften hervorbringen und verbreiten kann. „Diese Webseite dient dem Weltfrieden, dem Lernen und dem Verständnis der Kulturen sowie der Zusammenarbeit der Menschen in aller Welt“ (ibid.: 196). Große Worte. Wie realistisch sind sie? Berry (2014: 56) ist überzeugt, Computer könnten uns zwar „zu einer stärkeren Denkkraft verhelfen“, zu weiter reichenden Fantasien. Sie ermöglichten es uns vielleicht, an politische Vorstellungen von Gleichheit und Umverteilung anzuknüpfen. Im Alltag bestehe unsere digitale Kommunikation aber zu einem erheblichen Teil aus individualisierenden Blogs, Kommentaren, Twitter feeds etc. Er zweifelt daran, dass diese Art der Kommunikation „etwas wahrhaft Gemeinschaftliches ermöglichen [kann] - eine Art superkritisches Denken, das Ideen, Denkweisen, Theorien und neue Praktiken generiert“ (ibid.: 54). Auch Doll verweist auf den „Widerspruch zwischen der Beschreibung einer holistisch anmutenden Kollektivvorstellung und einem eher auf radikalen individuellen Ausdruck oder [auf] Selbstbespiegelung zielenden Gebrauch der sozialen Medien“ (2014: 472). Die digitale Alltagswelt bietet für Hardys Visionen mithin keinen allzu fruchtbaren Boden. Der Mathematiker, Physiker und Philosoph Klaus Mainzer ist davon überzeugt, dass wir diesen Humus aber unbedingt brauchen: „Wer über keine Wertorientierung verfügt, wird in der Big Data-Welt der schnellen Algorithmen untergehen“ (Mainzer 2017: 150). 1100. .33 DDi ig giit taall HHu umma anni ittiie es s Wozu maschinengestützte globale Intelligenz noch dienen soll, beschäftigt eine ganze Reihe nachdenklicher Köpfe der digital humanities, worunter alle geisteswissenschaftlichen Tätigkeiten „an der Schnittstelle zwischen der Informatik und den Kultur- und Geisteswissenschaften“ zu verstehen sind (Reichert 2014: 12, vgl. Schneider 2017, Lauer 2013, Schreibmann 2004). Sie beschäftigen sich mit Computertechniken verschiedenster Art bis hin zur Bildverarbeitung, Datenvisualisierung und Netzwerkanalyse, um interaktiv elektronische Literatur zu erschließen oder Online-Literaturdatenbanken aufzubauen (Frabetti 2014: 85). Als Pionier der digital humanities gilt der italienische Jesuitenpater Roberto Busa(1913- 2011). Er hatte seit 1949 gemeinsam mit Thomas J. Watson, dem Gründer von IBM, den korpuslinguistischen Index Thomisticus entwickelt (Busa 2000). Heute wollen Wissenschaftler der digital humanities wissen, wie man sich in der digital verankerten Wissenslandschaft „mit den Geisteswissenschaften auf eine andere, neue Weise befassen“ kann. Allerdings ist man sich „durchaus nicht einig, was dies konkret bedeuten“ könnte (Frabetti 2014: 85). Lauer (2013) fasst unter dem Begriff digital humanities nicht nur „textwissenschaftliche Fächer, sondern auch Disziplinen wie die Geschichte oder die Archäologie, die Musik- und die Kunstwissenschaften“ zusammen (2013: 99). Lunenfeld (et al. 2012) sieht in ihnen „eine methodische Ergänzung der Geisteswissenschaften um im weitesten Sinne rechnende Verfahren, für die der Computer und das Internet nützlich sind“ (Lauer 2013: 101). Nur halb ausgesprochen klingt hier mit, dass solches Nachdenken lange Zeit erst dann als seriös galt, wenn geisteswissenschaftliche Messlatten angelegt wurden. Da schwingt eine sehr alte Missachtung mit: „Schon bei ihrem Ursprung und bis heute hat die Philosophie die Technik als Gegenstand des Denkens verdrängt. Die Technik ist das Ungedachte“ (Stiegler 2009a: 7). Diese Abwertung der Technik sei von Aristoteles ausgelöst worden, und zwar durch seine Definition des „technischen Wesens“ als eines, das keinen Selbstzweck habe und nur als Werkzeug von jemandem für seine Zwecke benutzt werde (Aristoteles, <?page no="250"?> 250 10 Die neue Aufklärung Nikomachische Ethik 6, 3-4). Mit anderen Worten: „Das Ausklammern der Technik aus der Philosophie beruht auf dem Begriff der Instrumentalität: Technisches Wissen wird als instrumentell interpretiert und damit als Nicht-Philosophie“ (Frabetti 2014: 88). Noch heute scheint das durch, wenn Berry glaubt, der Begriff digital humanities signalisiere, „dass das Gebiet vom geringwertigen Status einer Hilfsdienstleistung zu einem genuin intellektuellen Unternehmen aufgestiegen“ sei (Berry 2014: 48). Datentechnische Literaturanalysen gab es schon vor dem Computer, etwa am Ende des 19. Jahrhunderts bei Lutoslawski sowie im 20. Jahrhundert z.B. im französischen Strukturalismus und in der quantitativen Linguistik (Näheres zur Historie der digital humanities bei Lauer 2013). Das erste deutsche Periodicum dieses Fachs erscheint als Jahrbuch für Computerphilologie seit 1999. 2004 setzte die massenhafte Digitalisierung von Büchern ein. Gedruckt wurden bislang weltweit etwa 130 Millionen; bis 2013 hatte Google bereits 20 Millionen digitalisiert (Lauer 2013: 108), zunächst alle sieben Millionen Bände der Universitätsbibliothek Michigan, große Teile der Bibliotheken in Harvard und Stanford, der New York Public Library und der Bodleian Library in Oxford. 2006 folgten die Nationalbibliothek Katalonien und die Bibliothek der Universidad Complutense Madrid. 2007 kam die Bayerische Staatsbibliothek hinzu, aus der mittlerweile mehr als zwei Millionen rechtefreie Bände (Staatsbibliotheken 2018: 93) und bis Ende 2018 7,6 Millionen Zeitungsseiten (ibid.: 52) digitalisiert und damit weltweit verfügbar sind; die Bibliotheken in Regensburg, Passau und Augsburg folgten ebenso (ibid.) wie 2008 die Stadtbibliothek Lyon und 2010 die Österreichische Nationalbibliothek mit rund 120 Millionen Buchseiten. Das sind nur Beispiele; die Digitalisierung hält an. „Mehr Philologie war nie. Das hat die digital humanities nachhaltig geprägt“ (Lauer 2013: 109). Google hat den digitalen Geisteswissenschaften eine neue Basis gegeben. Der Aufbau einer solchen digitalen Weltbibliothek macht Wissen mühelos global verfügbar. Zwar ist die „Wissenschaft in Millionen Teile zerbrochen“ (Asimov 1951: 28). Doch da wir jetzt „eine riesige Zusammenfassung allen Wissens vorbereiten, wird es nie verloren gehen“ (ibid.). Genau das geschieht, wenn die digitalen Speicher nicht eines Tages versagen oder dauerhaft der Strom ausfällt. Zwei Bedingungen müssen allerdings zusammenkommen, die außerhalb digitaler Bibliotheken noch keineswegs allgemein gelten. Erstens müssen Daten relativ frei zugänglich sein. Das ist keineswegs überall der Fall, „weil die Daten-Kleinstaaterei die Kultur mit Zollschranken belegt. Die sich abzeichnende Feudalstruktur der digitalen Gesellschaft und die Mentalität der digital humanities sind insofern nicht kompatibel“ (Lauer 2013: 114). Zweitens sind, um Wissen nutzen zu können, Kontextinformationen und Methoden nötig, mit denen es auffindbar und vergleichbar wird. „Je mehr Daten, desto mehr Theorie, Wissen und Methodenkritik sind notwendig“ (ibid.: 112). Dazu dienen das Ressource Description Framework (vgl. https: / / de.wikipedia.org/ wiki/ Resource_Description_Framework) und das Europäische Datenmodell der Europeana-Bibliothek (vgl. Dröge et al o.J.). Von so hohen kulturellen Zielen will nicht jeder etwas wissen oder unterstellt zumindest, dass es letztlich doch Geschäftsinteressen sind, die die Akteure bewegen. Die aber weisen das von sich. Facebook-Gründer Mark Zuckerberg beispielsweise hat Anfang 2017 ein 5740 Wörter langes mission statement für seinen Konzern verfasst. Darin heißt es: „Das Wichtigste, was wir in diesen Zeiten bei Facebook tun können, ist, die Infrastruktur zu entwickeln, die den Menschen die Macht gibt, eine globale Gemeinschaft zu bauen, die für uns alle funktioniert“ (Schulz 2017: 15). Der Spiegel fand das „seltsam: Konzernmanager entwerfen die Prinzipien, nach denen unsere Gesellschaft funktionieren soll“ (ibid.). <?page no="251"?> 10.3 Digital Humanities 251 Gemessen an Zuckerbergs hehrem Ziel ist die analytische Facebook-Praxis eher banal. Ein Beispiel: 2012 hat das Facebook Data Teamauf der Bssis von Daten von über einer Milliarde Nutzerprofilen - das sind mehr als zehn Prozent der Weltbevölkerung - und sechs Milliarden Songs des Online-Musikdienstes Spotify „Beziehungsstatus“ und „Musikgeschmack“ verglichen (https: / / www.facebook.com/ data, cit. Reichert 2014a: 437). Wozu soll das gut sein? „Wir Forscher im backend bei Facebook“, teilte das data team mit, „wissen, welche Musik eine Milliarde Facebook-Nutzer/ innen am liebsten hören, wenn sie sich verlieben oder trennen“ (ibid.: 437 f.) - nun ja. Tatsächlich zeigen empirische Studien, dass im Internet entstandene Ehen etwas stabiler sind. Im couples satifsaction index über die Zufriedenheit von Paaren, die sich im Internet gefunden haben, ergaben sie einen geringfügig höheren Wert als in der traditionellen Paarfindung (Cacioppo 2013). Aber fördert diese Information die globale Gemeinschaft, von der Zuckerberg sprach? Werfen wir dazu einen Blick auf die Glücksforschung, die sich vermehrt auf die sozialen Netzwerke stützt. Sie hat zwei historische Wurzeln (vgl. Frey und Stutzer 2002: 402). Aristoteles sah das Ziel allen menschlichen Tuns darin, Glückseligkeit zu erlangen. Frei nach dem Sprichwort, jeder sei seines Glückes Schmied, hat Jeremy Bentham daraus in der Aufklärung abgeleitet, am glücklichsten seien die Menschen, wenn die Regierenden unsichtbar blieben und die Regierten in Ruhe ließen. Denn innerer Frieden werde nicht durch die Macht eines Souveräns gesichert, sondern von jedem einzelnen im Inneren der Gesellschaft (Reichert 2014a: 442). Der Bürger solle sich selbst regieren. Benthams Regierungsprinzip heißt folglich self-government, also Selbstbestimmung. Deren großes Ziel sieht Bentham im vielfachen Glück der vielen Einzelnen (ibid.). Überträgt man diese Überlegungen in die Sprache der Gegenwart, stehen im Zentrum die individuellen Rechte, während der Staat sich darauf zu beschränken hat, für ein freies Agieren seiner Mitglieder die passenden Bedingungen zu gewährleisten (vgl. Foucault 2006: 81-111). Wie glücklich Menschen sind, hat traditionell der Well-being-Index (2008) aus Gallup-Umfragen ermittelt. Seine Befunde galten im Hinblick auf das nationaleWohlbefinden der USA als richtungweisend (Reichert 2014a: 440). Heute forciert Facebook eine Big Data-Prognostik, genannt happiness research. Ihre Methode zur prognostischen Verhaltensanalyse ist das profiling (vgl. Klaasen 2007: 35). Dazu klassifiziert man die Nutzer zuerst nach demografischen, geografischen und sozioökonomischen Faktoren, also nach Alter, Geschlecht, Lebensabschnitt, sozialer Schicht oder Klasse, Bildungsgrad, Einkommen und Wohnort. Als Ergebnis entstehen statistische Kollektive. Das profiling in sozialen Netzwerken erschließt dann sogenannte keywords, also Schlüsselwörter, und zeichnet sie auf. Sie basieren auf posts, also auf Daten, die Nutzer selbst ins Netz gestellt und damit sie ihre Interessen, Aktivitäten und Vorlieben signalisiert haben. Nun sucht man nach Ähnlichkeiten und Übereinstimmungen. Eine formt sich zum Beispiel, wenn ein Kollektiv bestimmte Musikvorlieben, Kinofilme oder Reiseziele teilt (ibid.: 446). Der Soziologe Adam Kramer arbeitete von 2008 bis 2009 bei Facebook, errechnete gemeinsam mit Mitarbeitern des Facebook data teams die Häufigkeit positiver und negativer Wörter in posts und verglich sie mit Aussagen zur Lebenszufriedenheit der Nutzer und mit Ereignissen, die die Medien bewegten (Kramer 2010: 287). Die Analyse lief auf Angaben zu den Begriffspaaren Glück/ Unglück und Zufriedenheit/ Unzufriedenheit hinaus. Die ermittelte Stimmungslage gilt als Indikator einer kollektiven Mentalität (Reichert 2014a: 443 f). Aus dem Gallup-basierten Well-being-Index ist auf diese Weise der Facebook-basierte Gross National Happiness Index (GNH) geworden, ein Wert über das sogenannte Bruttonationalglück einer Gesellschaft. Diese Analysetechnik wird auch von anderen Firmen benutzt; www.wefeelfine.org beispielsweise durchforstet alle paar Minuten das Internet nach Sätzen, die „I feel“ oder „I am feeling“ enthalten (Stampfl 2013: 55 f.) und stellt dann fest, was die Personen Erfreuliches oder Unverfreuliches fühlen. <?page no="252"?> 252 10 Die neue Aufklärung Methodisch ist das heikel. Bei statistischen Stichproben, wie sie Gallup einsetzt, wird sorgfältig abgesichert, dass sie für die Allgemeinheit repräsentativ sind. Facebook setzt Repräsentativität schon schon wegen der schieren Menge seiner Nutzer aber einfach voraus. Daten in Facebook spiegeln angeblich die soziale Welt wider, doch es gibt erhebliche Lücken. Denn von Bereichen der Gesellschaft, die Facebook wenig oder gar nicht nutzen, können nur geringe oder gar keine Signale kommen. Also ist bei jeder Big Data-Auswertung zu fragen, welche Menschen da nicht berücksichtigt oder deutlich unterrepräsentiert sind. Welche Orte, Altersgruppen oder Lebensweisen sind weniger sichtbar, wenn man im Schatten von Big Data lebt? (Boellstorff 2014: 119). Diese Frage wird zu selten gestellt und noch seltener klar genug beantwortet. Doch selbst wenn dieser Fehler nur graduell, nicht existentiell sein sollte: Als Ergebnis zeigt sich ein deutliches Missverhältnis von großen Absichtserklärungen über die Verbesserung der Welt und der kleinen Münze der skizzierten Ergebnisse. Die Bereitschaft der Big Data-Verantwortlichen zu globalem Handeln ist anzuerkennen. Aber ob dieses Verständnis von Big Data für das Glück der Menschen wesentlich ist, muss sich erst erweisen. 1 100. .44 BBiigg DDa at taa iinn dde en n WWi isssse en nssc chhaaf ftte enn Big Data und deren Verarbeitung mit Künstlicher Intelligenz sind selbstverständlich ein Thema der Wissenschaft. So hat, um ein Beispiel zu nennen, am Fachbereich Wirtschaft und Recht der Frankfurt University of Applied Sciences im Frühsommer 2017 das Institut für Data Driven Business (D2B) seine Arbeit aufgenommen. Gemeinsam mit Unternehmen erforscht und erprobt es in seinem Data Driven Business Lab Pilotprojekte auf den Feldern Finanzen, Luftfahrt, Soziale Medien, Recht und Web 4.0 und wendet sie an (Semlinger 2017b). Dabei stellt sich eine Frage, die die Wissenschaft so zuvor noch nie beantworten musste: Machen Big Data sie womöglich entbehrlich? Braucht man gar keine wissenschaftliche Theorie, wenn das Durchsuchen von Daten bereits ausreichend Antworten liefert? Machen wit uns dazu zuerst mit den deutschen Einrichtungen der wissenschaftlichen Erforschung von Big Data vertraut. Ihr Zentrum ist der Fraunhofer-Verbund IUK-Technologie. Er besteht seit 2001, beschäftigt in 20 Mitgliedsinstituten rund 4300 Mitarbeiter und verfügt dazu über ein Jahresbudget von ca. 275 Millionen Euro. Damit ist es der größte europäische Anbieter angewandter Forschung in Informations- und Kommunikationstechnologien. Die Fraunhofer-Gesellschaft erarbeitet neben seinen Forschungsprojekten ein Schulungsprogramm mit Zertifizierung zum data scientist (BMBF/ Wi 2018: Fellner). Das seit 2016 in Dortmund bestehende Industrial Data Space Association arbeitet eng mit dem gleichnamigen Fraunhofer-Forschungsprojekt zusammen, um eine Infrastruktur für die gemeinsame Nutzung von Daten zu entwickeln. Auch die Gesellschaft für Informatik hat eine eigene task force Data Science geschaffen (BMBF/ Wi 2018: Federrath). Diese Gesellschaft erstellte 2018 für Sachverständigenrat für Verbraucherfragen (SVRV), ein Beratungsgremium des Bundesministeriums der Justiz und für Verbraucherschutz (BMJV), ein Gutachten zu Regulierungsmöglichkeiten von diskriminierenden algorithmischen Entscheidungen und diskutierte dies öffentlich auf einer eigenen domain (https: / / adm.gi.de). Da Big Dataein wichtiges Thema der Politik sind, lässt das Bundesministerium für Bildung und Forschung ihre Bedeutung in drei Konpetenzzentren durchleuchten. Es sind das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das nach Umsatz und Forschungspersonal größte KI-Institut der Welt, mit seinem Smart Data Innovation Lab <?page no="253"?> 10.4 Big Data in den Wissenschaften 253 (SDIL), das Berlin Big Data Center (BBDC) und das Competence Center for Scalable Services (ScaDS) in Dresden und Leipzig. Mit dem Technologieprogramm „Smart Data - Innovationen aus Daten“ förderte das BMWi von 2014 bis 2018 außerdem insgesamt 13 Leuchtturmprojekte, die den Markt der Big-Data-Technologien für die deutsche Wirtschaft erschließen sollen. Das Programm war etwa 55 Millionen Euro schwer. Es sollteauf der Basis von Apache Flink entstand es als open data-Plattformzwischen dem öffentlich zugänglichen Internet und den internen Informationswelten großer Unternehmen Brücken schlagen. Das Programm enthält unstrukturierte und strukturierte Unternehmensdaten aus der betrieblichen Planung, der Fertigung und dem Vertrieb ebenso wie Daten aus knowledge communities, also Forschungszentren, aber auch aus Medien, aus der öffentlichen Verwaltung und aus anderen Quellen. Eine Textanalytik-Plattform kann auch news, tweets und RSS feeds auswerten; und ein sogenanntes inmemory text mining kombiniert maschinelles und explizites externes Wissen. Ein besonders interdisziplinär angelegtes Förderprojekt des Forschungsministeriums ist auch ABIDA (Assessing Big Data). Dieses Gemeinschaftsprojekt der Universitäten Münster und Hannover mit dem Karlsruher Insitut für Technologie lotet bei der Erzeugung, Verknüpfung und Auswertung großer Datenmengen gesellschaftliche Chancen und Risiken aus und entwirft Handlungsoptionen für Politik, Forschung und Entwicklung. Soziologen, Philosophen, Ökonomen, Rechts- und Politikwissenschaftler arbeiten dort Hand in Hand an elf Vertiefungsstudien, um mit Methoden der Technikfolgenabschätzung die Auswirkungen von Big Data auf die Gesellschaft im Spannungsfeld von Innovationspotenzialen auf der einen und gesellschaftlichen Werten auf der anderen Seite beurtilen zu können. Die Vertiefungsstudien laufen zu den Themenfeldern Arbeit, Bildung, Demokratie, Finanzen, Gesundheit, Handel, Heim, Freizeit, Mittelstand, Onlinemedien und soziale Netzwerke, Verkehr und Wissenschaft. Ein weiteres Forschungs- und Entwicklungsprojekt im Rahmen des Technologieprogramms „Smart Data - Innovationen aus Daten“ des Bundeswirtschaftsministeriums war Pro-Opt. Es sollte Unternehmen in dezentralen kooperativen Strukturen (smart ecosystems) die effektive und intelligente Analyse großer Datenmengen ermöglichen. Experimentierfeld war die Automobilindustrie. Das Projekt lief bis Ende 2017 (www.pro-opt.org).Noch aktiv ist dagegen das Projekt Industrial Data Space. Es moderiert die Entwicklung internationaler Standards zwischen Wirtschaft und Wissenschaft, fördert zertifizierbare Software-Lösungen und unterstützt dazu kleine und mittlere Unternehmen (www.industrialdataspace.org). Das Leistungszentrum Digitale Vernetzung schließlich erforscht Querschnittstechnologien für die Industrie, die Mobilität, die Gesundheit und den Energiesektor. Dazu bündeln vier Fraunhofer-Institute ihre Kompetenzen und kooperieren mit Firmen und öffentlichen Einrichtungen. Es geht um Datenanalysen aus unterschiedlichsten Quellen in einem „Netz von Netzen“, um Datenqualität und -sicherheit, um Datensouveränität und um deren Verwahrung, so dass man trotzdem zugreifen kann: Allein letzteres ist eine Mammutaufgabe: Jährlich erscheinen 1,5 Millionen wissenschaftliche Fachartikel, aber laut National Science Foundation werden pro Person nur 280 gelesen; BMBF/ Wi 2018: Assodolahi). Lässt sich die immense Datenmenge mit maschineller Hilfe auf das Wesentliche reduzieren? Und bleiben cloud-Strukturen dabei noch sinnvoll? (www.digitale-vernetzung.org). Darauf muss die Wissenschaft noch Antworten geben. Eines ist klar: Wer KI will, muss zunächst viel Geld in die Hand nehmen: Google, Facebook, Microsoft und IBM investierten allein im Jahr 2015 im Bereich der Künstlichen Intelligenz mehr als 10 Milliarden Dollar in Forschung und Entwicklung (Crisp 2018). 2018 sollten schon fast 20 Milliarden US-Dollar in Anwendungen der Künstlichen Intelligenz fließen. 2021 rechnen Analysten weltweit mit weit über 50 Milliarden US-Dollar KI-Investitionen. <?page no="254"?> 254 10 Die neue Aufklärung Bis dahin sollen die KI und zugehörige Dienste ca. 40 Prozent aller Initiativen zur digitalen Transformation und 45 Prozent der kommerziellen Anwendungen stützen (IBM 2018: 5). Die USA investieren also massiv. Als Nummer eins auf dem Gebiet der Big Data-und KI- Forschung gilt nach Domingos Einschätzung Google „mit seiner riesigen Anzahl von Experten und Abteilungen, die sich in Projekten wie DeepMind und Goole Brain ausschließlich Künstlicher Intelligenz und maschinellem Lernen widmen.“ Auf Platz zwei steht nach Domingos Microsoft, dahinter folgen Facebook und Amazon (Domingos 2018: 106). Massiv investieren müssen dieUSA auch, denn ihr Hauptwettbewerber; der globale Aufsteiger China - noch vor zehn Jahren erst mit einem Pozent des Welthandels; jetzt mit mehr als 40 Prozent (McKinsey 2018 b) - tut dies ebenfalls. In China sind der Onlinehändler Alibaba und der Internetriese Tencent die Aktivten - vor allem aber die Suchmaschine Baidu, die masiv mit Künstlicher Intelligenz arbeitet (ibid.). Chinas Nachbar Südkorea setzte 2017 sogar ein Komitee des Präsidenten für die dortige „vierte industrielle Revolution“ ein, um die KI- Forschung und -Entwicklung zu fördern, und stattete sie bis 2022 mit zwei Milliarden Dollar aus (McKinsey 2018: 7). Die EU weiß das alles natürlich und versucht mitzuhalten. Allein bis 2020 will sie 24 Milliarden Euro in die KI investieren (Aoife White 2018). Deutschland förderte von 2014 bis 2018 das Projekt „Smart Data - Innovationen aus Daten“ mit etwa 55 Millionen Euro. Frankreich will die Zahl seiner KI-Studenten und -Forscher verdoppeln und die KI-Forschung sowie Start-ups mit 1,5 Milliarden Euro fördern (Dillet 2018). Auch Großbritannien setzt für die KI erhebliche Summen ein (HM Government 2018).Bis 2022 wollen Deutschland und Frankreich zusätzlich zu bestehenden Einrichtungen ein öffentliches Forschungszentrum für Künstliche Intelligenz aufbauen. Das haben auf deutscher Seite die Unionsparteien und die SPD in ihrem Koalitionsvertrag festgelegt. Beide Staaten galten in Sachen KI bisher allerdings eher als Zögerer. International bleibt nach den Worten des KI-Experten Pedro Domingosganz Europa „hinter seinen Möglichkeiten zurück“ (Domingos 2018: 106), obwohl dieser Kontinent hervorragende KI- Experten habe, „nicht so viele wie die USA, doch die Qualität ihrer Forschung ist derzeit noch besser als die ihrer chinesischen Kollegen“ (ibid.: 108). Doch die europäische Erfahrung fußt nun einmal auf Orwells Schreckensvision „1984“ und speziell die deutsche auf der Albtraumpraxis der Stasi, die amerikanische hingegen auf der positiv besetzten Vision vom Raumschiff Enterprise. Europäisch dürfe deshalb nicht heißen: „richtig, aber zu langsam“, sagt der im Bundesforschungsministerium für Schlüsseltechnologien zuständige Herbert Zeisel (BMBF/ Wi 2018: Zeisel). Was diese Einsicht politisch erbringt, wird sich bald zeigen. Lässt sich die Wirksamkeit der KI-Investitionen schon abschätzen? Näherungsweise durchaus. Das zeigt die Zahl KI-bezogener Patente. IBM (USA) hält mehr als tausend, die US-Firmen Microsoft ca. 500, Qualcomm ca. 500, Google ca. 200 und US-Universitäten weitere ca. 250. Im Wettbewerb der Nationen rangieren China und Japan auf Platz 2 annähernd gleichauf, chinesische Universitäten mit ca. 750 KI-affinen Patenten und Japan mit ähnlich vielen, dort aber aufgeteilt auf Konzerne NEC mit ca. 250, Sony mit ca. 200, Fujitsu mit ca. 150, Samsung mit ca. 120 und auf japanische Universitäten mit etwa hundert. Das einzige weitere Unternehmen, das mehr als hundert KI-Patente hält, ist Siemens mit ca. 200. Zu den elf Firmen, die unter KI-hundert Patente besitzen, gehört als einziges weiteres deutsches Unternehmen SAP (Boßmeyer 2018). Abschätzen lässt sich auch, was das an barer Münze einbringen wird. Nach McKinsey- Hochrechnungrn wird die Künstliche Intelligenz die globale Wirtschaftsleistung bis 2030 um etwa 16 Prozent wachsen lassen; das wären rund 16 Billionen - 16.000 Milliarden - Dollar (McKinsey 2018: 13), allerdings um den Preis von knapp der Hälfte, nämlich rund <?page no="255"?> 10.4 Big Data in den Wissenschaften 255 sieben Billionen Dollar Kosten (ibid.: 21) für verloren gehende Arbeitsplätze, die fehlende Kaufkraft der von Arbeitslosigkeit Betroffenen, die Umstellung von Techniken allerorten usw. Die Ertragskurve soll erst nach Jahren der Investition langsam steigen, dann aber zunehmend schneller; McKinsey erwartet, dass sie im Jahr 2030 dreimal so schnell klettern wird als in den kommenden fünf Jahren (ibid.: 22). Machen Massendaten viele wissenschaftliche Schritte entbehrlich? Nicht wenige Wissenschaftler betrachten trotz dieser großen Anstrengungen Theorien über Big Data mit großer Skepsis oder setzen hinter ihre Schlussfolgerungen zumindest große Fragezeichen. Das hat nicht zuletzt der britische Journalist und Unternehmer Chris Anderson vor fast zehn Jahren ausgelöst, als er im Internet-Magazin Wired im Hinblick auf Big Data schrieb, theoretische Überlegungen und wissenschaftliche Methoden seien im Zeitalter der Massendatenauswertung überflüssig geworden: „Wir leben in einer Welt, in der riesige Datenmengen und angewandte Mathematik alle anderen Hilfsmittel ersetzen, die man sonst noch so anwenden konnte. Ob in der Linguistik oder in der Soziologie: Raus mit all den Theorien menschlichen Verhaltens. Vergessen Sie Taxonomien, die Ontologie und die Psychologie. Wer weiß schon, warum Menschen sich so verhalten, wie sie sich gerade verhalten? Der springende Punkt ist, dass sie sich so verhalten und dass wir ihr Verhalten mit einer nie gekannten Genauigkeit nachverfolgen und messen können. Hat man erst einmal genug Daten, sprechen die Zahlen für sich selbst“ (Anderson 2013: 126). Andere pflichten ihm bei: Die Forschung könnte fast ausschließlich durch die Daten selbst getrieben werden (Mahrt/ Scharkow 2014: 224). „Wir können die Daten untersuchen, ohne auf Hypothesen darüber angewiesen zu sein, was sich darin möglicherweise verbirgt. Wir füllen die Zahlen einfach in die größten Serverfarmen, die die Welt je gesehen hat, und warten darauf, dass die Algorithmen dort Muster aufspüren, wenn die Wissenschaft nicht weiterkommt“ (Anderson 2013: 128). Wenn Daten von Computern und Algorithmen automatisch analysiert werden können und wenn Einrichtungen wie das 2008 gegründete NEH Office of Digital Humanities Geisteswissenschaftler bei der Arbeit mit großen Datensätzen sogar systematisch mit Fördergeldern unterstützt (Manovich 2014: 65), „wozu müssen Forscher/ -innen dann noch Hypothesen formulieren und prüfen? “ (Ritschel/ Müller 2016: 5). Digitale Datenanalysen sind auch ohne Hypothesen und andere theoretische Überlegungen möglich. Streng genommen brauchtman auch „keine Forscher/ -innen mehr, denn den Sachverstand, der bei den verschiedenen Auswahlentscheidungen im Forschungsprozess gefragt ist, sollen auch Maschinen bzw. Algorithmen entwickeln können“ (ibid.). „Tatsächlich wird hier ein Trend sichtbar“, urteilt der Wissenschaftsphilosoph Mainzer, „der bereits die Dynamik menschlicher Zivilisation maßgeblich bestimmt und auch die Wissenschaften erfasst hat: Was wäre, wenn in Zukunft tatsächlich neue Erkenntnis und die Lösung unserer Probleme nur von der schieren Steigerung von Datenmengen, Sensoren und Rechen-Power abhängen? Ist die Suche nach Erklärungen, Ursachen und kausalen Zusammenhängen, Gesetzen und Theorien angesichts der steigenden Komplexität der Probleme nicht völlig überholt? Können wir uns angesichts des Tempos zivilisatorischer Entwicklung und der Notwendigkeit zu schnellen Entscheidungen solche zeitraubende Grundlagenforschung noch leisten? Sollten wir die ‚Warum‘-Frage vergessen und uns auf das ‚Was‘ der Daten beschränken? “ (ibid.: 23). Um Problemlösungen zu finden, werde man mit gewaltigen Rechenleistungen experimentieren. Theorien, Beweise und Erklärungen könnten als überflüssig erscheinen, da sie zu aufwendig seien und bestenfalls nachträglich nur das bestätigen, was man sowieso schon gesehen und beobachtet hat (ibid.: 24). <?page no="256"?> 256 10 Die neue Aufklärung Nach dem Motto ‚Irgendwas werden wir schon finden‘ einfach in Daten herumzustochern, bringeohnehin nichts, meintder Zukunftsforscher Helbing(cit. Hagner/ Helbing 2013: 241). Daran habe er nie geglaubt, vielmehrseier überzeugt, „dass die Kombination von Daten und Modellen das beste Ergebnis liefert, also die Stärken von beidem kombiniert“ (ibid.). Auch boyd und Crawford teilen Andersons Überzeugung nicht, man könne auf Theorien verzichten: „Sprechen die Zahlen wirklich für sich selbst? Wir sind der Ansicht, dass sie das nicht tun“ (2013: 194). Beide verweisen auf Berrys Einsicht, dass Big Data zwar „destabilisierende Mengen an Wissen und Informationen“ erzeugen, denen aber „die ordnende Kraft der Philosophie fehlt“ (2011: 12). Sie erinnern an Bollier: „Als große Masse von Rohinformationen sind Datenmengen nie selbsterklärend“ (2010: 13). Big Data-Interpreten neigten nämlich dazu, „Muster wahrzunehmen, wo gar keine existieren“ (ibid.: 198). Das habe damit zu tun, „dass enorm große Datenmengen Zusammenhänge nahelegen“ (ibid.). boyd und Crawford übernehmen damit Einsichten, die schon David Hume (1711-1777) hatte: Korrelationen, also Assoziationen von Ereignissen, prägen sich den Menschen als Muster ein und dienen ihnen als Orientierung für ihr Verhalten, „weil sie sich in der Vergangenheit bewährt haben“ (Mainzer 2014a: 243). Mainzer nennt diesen Umgang mit Big Data daher „eine Fortsetzung der schnellen instinktiven und intuitiven Reaktion mit hightech tools. Hume“, fügt er hinzu, „würde auch Big Data als mit Superrechnern hochgerechnete Gewohnheiten bezeichnen“ (ibid.: 244, vgl. auch Rödder 2017). Auch fast alles, was wir bisher über Quantum Relations erörtert haben, widerspricht Andersons Annahme. Schließlich haben hochkarätige theoriegeleitete Wissenschaftler diese Theorie entwickelt - und anfangs war das ja eine Theorie, noch keine Praxis. Einiges spricht aber auch für Anderson, etwa der mit Big Data mögliche besonders deutliche Einblick in Kategorien und Marktnischen, die sich mit Stichprobenanalysen nicht gut ausleuchten lassen (Mayer-Schönberger/ Cukier 2013: 20 f.). Zwar ist die einzelne Big Data- Datenmessung unscharf, aber der Mittelwert ist aussagekräftig (ibid.: 21) und die Wahrscheinlichkeit sehr hoch, dass eine auf Bisherigem fußende Hochrechnung zutreffende Aussagen über Künftiges liefert. Mit Big Data generierte Bilder sind anders als gewöhnliche Stichproben gewissermaßen hochauflösend, so dass man in den „Daten-Tsunami“ (Müller- Jung 2013) „tiefer hineinzoomen kann“ (Ritschel/ Müller 2016: 6). Wieder gibt es ein Gegenargument: Dieser Tsunami könnte die Wissenschaft „überrollen und kollabieren lassen. Big Data wäre dieser Lesart zufolge weniger ein neuer vielversprechender Zugang zur Welt als vielmehr ein Beitrag zur Verbreitung des Messie-Syndroms in den Wissenschaften: Daten würden um ihrer selbst willen gehortet, ohne dass man bereits eine Fragestellung hat oder etwas ‚auf die Spur kommen möchte‘, wie der Wissenschaftsforscher Hans-Jorg Rheinberger kritisiert (ibid.: 5).Wenn die wissenschaftliche Analyse mit den stetig wachsenden Datenbergen nicht mehr Schritt halten kann, seien die sich abzeichnenden Gefahren Unordnung und digitaler Kollaps. Ebenso ernst muss man den weiteren Einwand nehmen: Wahrscheinlichkeitenberuhen stets auf dem Verhalten sehr vieler analysierter Verhaltensauslöser, Kreativität und Innovation bestehen aber gerade darin, dass einzelne Kreative das Unwahrscheinliche für möglich und lösungsmächtig halten. Die Wissensgesellschaft baut darauf, dass Wissen originelle Lösungen hervorbringt, keine Kopien, also das Unwahrscheinliche, nicht das Wahrscheinliche. Das darf man bei der Bewertung von Big-Data-Analysen nicht übersehen. Unsere zunehmend intelligente Umgebung hat die Kraft, unsere Freiheit zur Wahl des Unwahrscheinlichen zu stärken, aber gleichzeitig schlummert in ihr auch das Potenzial, sie und damit unsere Autonomie zu beschneiden und das zu tun, was aus Wahrscheinlickeitsgründen plausibel erscheint (vgl. Stampfl 2013: 99). Wissen, unterstreicht auchNico Stehr, einer <?page no="257"?> 10.5 Eine Zwischenbilanz 257 der Vordenker der Wissensgesellschaft, bedeute vor allem eines: „etwas in Gang zu setzen“, Neues zu schaffen (brand eins 2016). Big Data, mit denen man im Prinzip aus vorhandenen Daten plausibles Verhalten hochrechnet, fördern das Herdendenken. „Am Ende“, befürchtet Mainzer (2014a: 240), könnten „Originalität und Kreativität auf der Strecke bleiben“. Man muss diese Befürchtung nicht teilen. Aber man sollte sie kennen. Denn nur dann kann man die ihr zugrunde liegendeBequemlichkeitshaltung aktiv bekämpfen. 1 100. .55 EEiinnee ZZwwiisscchheennbbiillaannzz Ziehen wir an dieser Stelle eine kurze Zwischenbilanz: Big Datalassen manche Anwender glauben, große Datensätze führten unmittelbar zu mehr Objektivität, zu einer höheren Form der Wahrheit (boyd/ Crawford 2013: 188 f.). Kritisch eingestellte Wissenschaftler halten das für grundlegend falsch. Sie kritisieren beispielsweise eine „Datafizierung des Sozialen“ (Houben/ Prietl 2018). Aus Sicht der geisteswissenschaftlichen Soziologie, wie sie Adorno der empirisch-positivistischen Soziologie entgegengestellt hat, ist ein Algorithmus „nicht Liebesobjekt, sondern Feindbild, weil er das Gesellschaftliche auf Mathematik reduziert und abweichende, alternative Positionierungen blockiert“ (Simanowski 2015: 85). Greenfield sieht unser Weltbild „konditioniert von Information, die uns aufgrund von Interessen übermittelt wird, die aber diese Interessen nicht offenlegt“ (Greenfield 2017, cit. Schloemann 2017: 9). Und obwohl das so sei, setzt er fort, sei das globale Netzwerk doch „grundlegend für unsere Alltagspraxis“ (ibid.), uns von unentwegt tätigen „Aufmerksamkeitshändlern“ geradezu aufgezwungen (Wu 2016).Noch drastischer urteilt Hofstetter: „Bei aller guten Absicht: Wenn AI [artificial intelligence] und ihre digitalen Geschwister unmittelbar handlungsleitend wirken, bedrohen sie alles, was Europa lieb und teuer ist: die Selbstbestimmung, die Demokratie, die rechtsstaatliche Gewaltenteilung. AI kann die öffentliche Moral beeinflussen und größere soziale Kontrolle herbeiführen, ganz im Sinne desSilicon Valley, das die menschlichen Lebensbedingungen auf paternalistischem Weg zu verbessern sucht. Da ist sie, die neue imperialistische digitale Elite, die ökonomisch denkt und politisch handelt, ohne dazu ermächtigt zu sein“ (Hofstetter 2016: 457). Woher kommt diese Skepsis? Eine Antwort lautet: Selbstlernende Algorithmen, die aus festgestellten Korrelationen schlussfolgern, müssten in ihren Schritten für die Wissenschaft transparent und von Nutzererwartungen unabhängig sein, wenn sie sinnvoll in sie eingebunden werden sollen (Ritschel/ Müller 2016: 7). Daran fehle es jedoch. Manovich ist zwar überzeugt, dass sich mit Big Data auch interessante Fragen nach gesellschaftlichen Zuständen und Veränderungen klären lassen (2014: 77), sagt aber zugleich: Viel öfter gehe es darum, Antworten auf die Frage, was Menschen zukünftig wollen, „effektiv zu kapitalisieren“ (ibid.). Hankey und Tuszynsky, die zwei Gründer des 2003 entstandenen NGO Tactical Technology Collective, warnen noch vor einer anderen Konsequenz: „Das System zeigt uns als Reflexion lediglich das, was wir in das System einspeisen“ (2017: 95). Deshalb erweitere die Technologie unseren Horizont nicht, sondern beginne damit, ihn zu beschränken und vorherzubestimmen. „Die losen Fragmente, die unseren zukünftigen Weg pflastern, zeigen uns lediglich ein Abbild der Welt, in der wir bereits leben“ (ibid.). Fast nur in einem ist sich die Wissenschaft einig: Big Data durchdringen die Gesellschaft in aller Tiefe. Das Wort wird, wie Schrape aufgezählt hat (2016: 17), als Chiffre für verschiedenartige Trends benutzt; daran wollen wir noch einmal kurz erinnern: Versicherungen erproben individuell anpassbare Preismodelle auf der Basis digitaler Selbstvermessung, die eine gerechtere Beitragsberechnung versprechen, aber auch die Gefahr einer Entsolidarisierung mit sich bringen. In der Verbrechensbekämpfungsollen - ähnlich, wie sich das Philip <?page no="258"?> 258 10 Die neue Aufklärung K. Dick (1956) vorgestellt hat - Delikte und Ausschreitungen auf der Basis gesammelter Bewegungsdaten vorhergesagt werden. Im Verteidigungsbereich gilt die automatisierte Auswertung von Massendaten als gängiges „Handwerkszeug für moderne militärische Aufklärung und Lageanalyse“ (Hofstetter 2014: 13). In Wahlkämpfen beschäftigen Parteien Datenanalysten, um personengenaue Wählerprofile zu erstellen. Im Big Data-Marketing ermittelt man Konsumentenerfahrungen, um Kunden ein ganz auf sie zugeschnittenes Einkaufserlebnis zu bieten. In der Medizin benutzt man Massendaten nicht mehr nur für das Gesundheitsmanagement, sondern ebenso für die Früherkennung von Epidemien. Wachsende Datenmengen etwa in den digital humanities machen auch neue Erhebungs- und Auswertungsmethoden möglich (vgl. Reichert 2014b; Richter 2015). Kurzum: „Big Data ist die Chiffre für die Informatisierung der Gesellschaft 4.0“ (Schrape 2016: 18). Relativ einig sind sich viele Wissenschaftler darin, dass die Welt von Big Data riesig, unübersichtlich und voller Fallstricke ist. Broemel/ Trute zitieren zum Beweis (2016: 50) nicht untypische Titel datenschutzrechtlicher Fachbeiträge: „(Verlorene) Selbstbestimmung im Datenmeer“ (Rosnagel/ Nebel 2015), „Das Ende der Anonymität“ (Boehme-Nesler 2016 sowie mit Fragezeichen Sarunski 2016) oder „Zwischen Big Data und Big Brother“(Schaar 2013). Die große Mehrzahl der Wissenschaftler würde den Satz unterschreiben: „Egal wie groß der Datenberg, er ist praxis- und interpretationsgebunden“ (Böschen et al. 2016: 66). In der Hochenergiephysik, in den Lebenswissenschaften und in der Wirtschaft geht es, wie wir gesehen haben, um unüberschaubar viele Daten, in denen Muster nur noch durch machine learning mit passenden Lernalgorithmen zu ermitteln sind. Erklärungen und Prognosen setzen in diesen komplexen Systemen mit nichtlinearer Dynamik anspruchsvolle Algorithmen und bei großen Datenmassen Hochleistungsdatenbanken, vorauslaufende Computersimulationen und ein sorgfältiges Qualitätsmanagement voraus (Mainzer 2016: 33). Algorithmen ermitteln aber lediglich, welche Korrelationen diese Daten aufweisen, nicht die dahinter liegenden Gründe. Das ist nicht ungefährlich; denn „je größer die verfügbare Datenbasis ist, desto größer wird auch die Wahrscheinlichkeit, sich zufällig ähnelnde Datenreihen zu finden und daraus Zusammenhänge abzuleiten, die realiter gar nicht vorhanden sind“ (Schrape 2016: 18). Daher gilt: „Nur wer die Theorie kennt, kann allgemein gültige Theoreme über die Leistungsfähigkeit und Grenzen dieser Algorithmen beweisen. Erst solche Metatheoreme garantieren Verlässlichkeit und Korrektheit“ (Mainzer 2016: 33). Die Welt der Software und schnellen Rechner, erläutert Mainzer weiter, fußt auf logischmathematischem Denken, dass tief in philosophischen Traditionen verwurzelt ist. Wer dieses Gedankengeflecht nicht durchschaue, sei blind für die Leistungsmöglichkeiten von Big Data, aber auch für Grenzen der Anwendung in unserer Alltags- und Berufswelt (ibid.: 34). Also ist Anderson, den wir am Beginn dieses Abschnitts zu Wort kommen ließen, doch zu kurz gesprungen. Big Data-Analysen zeigen in der Regel nur auf, was Nutzer tun, aber nicht, warum sie es tun (Mahrt/ Scharkow 2014: 224). Mainzer hält Andersons Urteil über Theorien deshalb rundheraus für „äußerst töricht und äußerst gefährlich“ und erläutert das an zwei Beispielen: „Medizinisch handeln kann nur, wer die kausalen Ursachen z.B. von Tumoren erkennen kann. Auch die Wahrscheinlichkeit von kriegerischen Konflikten bringt nichts, so lange deren kausale Ursachen nicht klar sind“ (Mainzer 2017a). Wissenschaftler machen noch auf eine weitere Konsequenz aufmerksam: Big Data-Anwendungen, deren Algorithmen innovatives Wissen generieren, machen „aus Fragen der Daten Fragen des Wissens und dann Fragen der Macht“ (Broemel/ Trute 2016: 56, vgl. Reichert 2014, 2015). Der Einsatz von Computern ist nach Überzeugung von Distelmeyer (2017) „grundsätzlich mit Regulierungsansprüchen und Fragen der Verfügung verbunden - mit dem Wunsch nach und der Angst vor Kontrolle. Was sind das für Formen des Verfügens? In welchem Verhältnis stehen Erscheinungsformen und Bedingungen des Computers? Wie <?page no="259"?> 10.5 Eine Zwischenbilanz 259 vermitteln interfaces - Schnittstellen zwischen Hardware, Software, Mensch und Ding - unsere Beziehung zum Computer als Medium und Machtmaschine? “ Auf Fragen der Macht hat in aller Klarheit schon der virtual reality-Pionier und Internet- Technologe der ersten Stunde Jaron Lanier verwiesen. In seinem Manifest von 2000 [One half a manifesto] hat Lanier die sechs wichtigsten Glaubensgrundsätze der Cyber-Ideologen beschrieben: Erstens: Kybernetisch ausgewertete Muster von Informationen seien der beste Weg, die Wirklichkeit zu verstehen. Zweitens: Menschen seien nicht viel mehr als kybernetische Muster. Drittens: Subjektive Erfahrung existiere entweder nicht oder sie spiele keine Rolle, weil sie an der Peripherie stattfinde. Viertens: Was Darwin für die Biologie beschrieben hat, liefere die beste Erklärung für jedwede Kreativität und Kultur. Fünftens: Qualität und Qualität aller Informationssysteme stiegen exponentiell. Sechstens: Biologie und Physik verschmölzen und machten Software zu einer Leit- und Lebenswissenschaft, die alle Lebensbereiche beeinflusst und steuert. Auf der Basis solcher Leitsätze, urteilt Keese, sei es „kein Wunder, dass Google, Facebook& Co. uns bedenkenlos ausforschen. Es ist sogar logisch“ (Keese 2014: 269). „Cyber-Totalitaristen“, wie Lanier sie nennt, berauschten sich an der Technik und ihren Möglichkeiten. Lanier wirft ihnen vor, sie verzichteten geradezu leichtfertig auf den nötigen wissenschaftlichen Skeptizismus und verstünden nicht, wo endet, was sie so begeistert betreiben: „Es besteht die reale Gefahr, dass sich evolutionäre Psychologie, künstliche Intelligenz und Verherrlichung von exponentiellem Wachstum zu etwas ganz Großem auswachsen. Denn es geht darum, die Software zu schreiben, die unsere Gesellschaft und unser Leben steuert. Falls das geschieht, wird sich die Ideologie der intellektuellen Cyber-Totalitaristen zu einer Macht ausbreiten, unter der Millionen von Menschen zu leiden haben werden“ (Lanier 2014, cit. Keese 2014: 268). Big Data liefern Korrelationen und eignen sich mit data mining und Datenvisualisierung zwar gut zum induktiven, also von einzelnen Beobachtungen ausgehenden Entdecken neuer Zusammenhänge und zur Bildung von Hypothesen. Ohne deduktive, also mit Theorien gegründete Erklärungen sozialer Wirkmechanismen, wenden Mayerl/ Zweig aber ein, „bleibt das Verständnis von gesellschaftlichen Vorgängen eine blackbox“. Die Warum-Frage habe die Wissenschaften aber schon immer angetrieben (2016: 80). In der blackbox ist es gefährlich. Denn ein Einzelner kann eine algorithmische Prognose normalerweise weder verstehen noch gar widerlegen: Bei der Wissensgenerierung „kommt der Einzelne gegen die algorithmenbasierte Zuschreibung von Eigenschaften nicht an“ (ibid.: 57). Er kann auch kaum erkennen, „inwiefern ein bestimmtes Merkmal in Kombination mit anderen Merkmalen Schlüsse auf die Bonität, Gesundheitsrisiken oder Produktpräferenzen zulässt (O’Neil/ Schutt 2013: 274). Das durchblicken selbst datenverarbeitende Unternehmen kaum“. Denn, wie gesagt: Algorithmen „machen nur Korrelationen sichtbar, keine Kausalitäten“ (Broemel/ Trute 2016: 57). Wer sie regulieren will, kann sich deshalb nicht damit begnügen, die Verarbeitung personenbezogener Daten zu steuern. Er muss eine Wissensordnung erzeugen. Die Preisgabe bestimmter personenbezogener Daten ist darin nur ein Baustein, „zwar nicht verzichtbar, aber noch nicht die Lösung“ (ibid.: 58). Das führt zurück zu Fragen der Macht. Broemel/ Trute halten den datenrechtlichen Personenschutz nicht für geeignet, Machtfragen zu beantworten, „also etwa die Konzentration von Macht und ihr Missbrauchspotential“ oder die Aufgabe, „Instrumente zur Offenhaltung gesellschaftlicher Koordination“ einzusetzen (ibid.) oder das Recht auf Datentransfers zu sichern, also zum Wechsel einer Plattform oder eines Vertragspartners. Die beiden Wissenschaftler sprechen von Problemen bei der Zuordnung von Daten, die in sozialer Interaktion entstehen, also dann, wenn Menschen miteinander kommunizieren (2016: 62). Sie fordern, dass der, der sich mit Algorithmen befasst, stets „die jeweiligen wissenschaftli- <?page no="260"?> 260 10 Die neue Aufklärung chen Kontexte“ zugrunde legen müsse (2016: 59, für die Medizin vgl. Wegscheider/ Koch- Gromus 2015) und dass er dazu Theorie und Praxis verbindet. Die Frage nach Konsequenzen aus Big Data-Analysen für die Verteilung von Macht in der Gesellschaft und für deren Gebrauch und ihre Kontrolle ist also gestellt, aber noch längst nicht beantwortet. Die Breite der gesellschaftlichen und politischen Diskussion hat sie noch gar nicht erreicht. Sie dürfte die Big Data-Diskussion folglich noch lange begleiten. <?page no="261"?> 1111 PPoolliittiikk dduurrcchh ddiiee BBüürrggeerr Nicht nur für sie. Kommt die kooperative Regierung? Noch ist Datenbesitz ein Herrschaftsinstrument. Das zeigen Geheimdienste wie die NSA und der BND. Aber schon kursiert die Vision eines vollständig datengesteuerten Regierungssystems auf Basis des Bürgerwillens. Ob das nur ein Traum ist oder ob Big Data dahin führen wird, weiß noch niemand, und es gibt auch berechtigte Skepsis. Aber ein wesentlicher Hinderungsgrund für die Verwirklichung ist schon beseitigt: Wir haben die technischen Möglichkeiten dazu. 11.1 Helbings Plan 261 11.2 Running for Presiden t 262 11.3 Wie und wozu der Staat Daten abgreift 270 11.4 Ohne Algorithmen läuft nichts mehr 274 11.5 Suchmaschinen steuern, wie wir denken 276 11.6 Aufklärung durch Fakten 286 1111. .11 HHe el lbbi innggss PPllaann Im Januar 2013 vergab die EU-Kommission ihren mit einer Milliarde Euro dotierten Preis für die Future and Emerging Technologies Flagship Initiative unter anderem an ein Projekt, in dem das menschliche Gehirn am Computer nachgebaut werden sollte. Diese Entscheidung kam überraschend, denn auf Platz 1 von sechs Plätzen der Vorschlagsliste für diesen Preis hatte das Projekt des ETH-Physikers Dirk Helbing für ein Computersystem gestanden, das die Welt so durchsichtig wie eine Glaskugel machen sollte. Herzstück dieser „Glaskugel“ sollte ein living earth simulator werden, der ganze Systeme modellieren sollte: Volkswirtschaften, Regierungen, Gesellschaften, Technologien, Kulturen. Helbing wollte damit Big Data- Projekte wie zum Beispiel Palantir, Recorded Future oder Sentinent World weit in den Schatten stellen, die die Zukunft mit riesigen Mengen persönlicher Daten vorherzusagen versuchen. Helbings Plan fußte auf seinen Analysen zur Verkehrssteuerung auf stark befahrenen Autobahnen, auf denen es dennoch nicht zu Staus kommen soll, und von Pilgermassen in Mekka, wo seine Analysen Milliarden teure Investitionen auslösten, damit sich während der alljährlichen Hadsch dort Menschenmassen nicht gegenseitig tottreten. Nun haben Autofahrer auf einer Richtungsfahrbahn und Pilger auf der Hadsch gerichtete Ziele. Für Volkswirtschaften, Regierungen und Gesellschaften gilt das jedoch nicht gleichermaßen. Das auf Wahrscheinlichkeiten beruhende Prinzip der Big Data-Analysen soll dieses Problem dennoch lösen, etwa wie eine Wettervorhersage: Wenn wir „beispielsweise über ein ganzes Jahr hinweg an jedem Punkt der Erdoberfläche die Temperatur und die Luftfeuchtigkeit messen, wären wir“ nach den Worten des Institutsdirektors for quantitative social science in Harvard, Gary King, „vermutlich in der Lage, relativ genaue Wettervorhersagen zu treffen, und zwar ohne irgendwelche Kenntnisse in Strömungslehre oder über die solare Radiostrahlung“ (Weinberger 2013: 225). Helbing vertraut für sein Weltmodell auf „spontane Selbstorganisationsphänomene auf der Basis der Interaktionen im System“ (Helbing in Hagner/ Helbing 2013: 270). Dazu gebe es gar keine Alternative; denn „aus meiner Sicht werden wir auf jeden Fall in der Zeit der Partizipation als nächstem Stadium der Demokratie ankommen, aber nicht mehr so sehr aus <?page no="262"?> 262 11 Politik durch die Bürger philosophischen oder politischen Gründen, sondern aufgrund der Kräfte, die in komplexen Systemen automatisch entstehen (ibid.: 262). John Wilbanks, der stellvertretende Forschungschef von creative commons, setzt bei seiner Vorstellung einer digitalen Glaskugel ähnlich wie Helbing (der dieses Glaskugel-Bild übrigens als auf seine Ideen nicht recht passend ablehnt) auf das Internet als „eine mächtige und kreative Maschine, die niemanden ausschließt“ (ibid.: 233). Im Web und dessen „chaotischem Wettstreit der Ideen“ sieht Wilbanks die „vollständigere Repräsentation der Welt“ (ibid.: 237). Helbing und Wilbanks erweisen sich bei genauem Hinsehen als Geistesverwandte von Hardy, dessen Arbeit sich wie ein roter Faden durch dieses Buch zieht. Seine Vision eines globalen Gesundheitssystems Zoe, seine Überlegungen zum global value exchange system als Basis der Weltwirtschaft, sein ICIK-Netzwerk aus intercultural centers of investigative knowledgesind aus dem gleichen Geist geboren wie Helbings und Wilbanks Ideen: Die digitale Welt, in der Reichert zufolge das social web zur wichtigsten Datenquelle für Regierungs- und Kontrollwissen geworden ist (Reichert 2014: 10), ermöglicht es, ja erfordert es buchstäblich, die Gesellschaft auf der Basis von Big big big Data partizipativ neu zu organisieren. Buhr nennt diese neuen Verflechtungen „Konstitutionsmomente von Macht und Staatlichkeit“ oder „digitale Gouvernementalität“ (Buhr 2017: 5). Er trifft sich gedanklich mit Manuel Castells, einem Vordenker des Computerzeitalters. Der hatte 2003 seine Vision der datengetriebenen Gesellschaft so zusammengefasst: „Alle Ausdrucksformen aus allen Zeiten und von allen Orten werden in demselben Hypertext vermischt, beständig neu angeordnet und zu beliebiger Zeit an beliebigem Ort kommuniziert, je nach den Interessen der Sender und den Stimmungen der Empfänger. Diese Virtualität ist unsere Realität, weil wir im Bezugsrahmen dieser zeitlosen, ortlosen Symbolsysteme die Kategorien konstruieren und die Bilder aufrufen, die Verhalten bestimmen, Politik anregen, Träume nähren und Alpträume auslösen. Das ist die neue Gesellschaftsstruktur“ (Castells 2003: 401). Wir wollen nun in gebotener Kürze betrachten, ob und wie weit solche Visionen in der politischen Praxis durchscheinen, wie viel von ihnen sich bisher als praktikabel erweist. 1 111. .22 RRuunnn niinng g ffoorr PPrre essiidde ennt t Wahlentscheidungen beruhen zu achtzig Prozent auf Psychologie, also auf emotionalen und oft genug irrationalen Motiven, und nur zu zwanzig Prozent auf harten Fakten. Deshalb wählen Menschen Politiker, die ihnen gefallen und nicht unbedingt Parteien, die ihnen das bessere Angebot machen. Sie entscheiden aus dem Bauch heraus, manchmal sogar anders als ihr Bewusstsein es ihnen empfiehlt, und rationalisieren das erst nachträglich. Weil das so ist, ergeben emotionale und rationale Signale in Wahlkämpfen eine Gemengelage, die Leidenschaft und Verwirrung gleichzeitig erzeugen. Harte Fakten und rationale Überlegungen ziehen im Wettbewerb mit weichen, emotionalen Empfindungen bei den meisten Wählern den Kürzeren. Viele Politiker, die zur Wahl stehen, wissen das und kitzeln Emotionen bewusst, um kontroverse Themen so über rationale Hürden zu hieven. Mit dieserAnalyse wandte sich rund ein Jahr vor den letzten US-amerikanischen Präsidentschaftswahlen ein Global Analysis and Vision Centre aus Bukarest an das Wahlkampfteam der damaligen US-Außenministerin und Präsidentschaftsbewerberin Hillary Clinton. Der Briefkopf des Centre zeigte dessen Logo von zwei weiteren flankiert, von denen der Schloer Consulting Group und von Prisma Analytics. Alle drei Logos sagten Hillary Clinton nichts, wohl aber einem ihrer Wahlkampfberater. Er kannte den Verfasser, Hardy, den Deutschamerikaner. Der schrieb aus Bukarest, weil er dort gerade seine Firma Prisma Analytcs auf- <?page no="263"?> 11.2 Running for President 263 baute, und weil er wusste, wie man solche weichen, emotionalen Empfindungen feststellen, analysieren und politisch oder wirtschaftlich auswerten kann. Und er wusste, wie stark Big Data die politische Landschaft verändern. Der erste Politiker, der diese Möglichkeiten konsequent nutzte, war Barack Obama, bei der Kampagne zu seiner Wiederwahl 2012 noch deutlich stärker als bei seiner Erstwahl 2008. Sein Wahlkampfteam schuf eine Megadatenbank mit Angaben aus Meinungsumfragen, von Spendensammlern, von Kundendaten, aus sozialen Netzwerken und mobilen Anwendungen (Scherer 2012). Obama-Berater Larry Grisolano zufolge kannte dieses Team buchstäblich jeden unentschiedenen Wähler in den gesamten USA, seine Adresse, sein Geschlecht, seine ethnische Zugehörigkeit, sein Einkommen (Rutenberg 2013) usw. - insgesamt mehr als 80 Faktoren. Tobias Moorstedt, der diesem Team einige Zeit angehörte, berichtete über dieses Computerprogramm: „Ich gebe die Postleitzahl und die Nummer des Wahlbezirks ein, um den sich mein Team derzeit kümmert. Nach wenigen Sekunden taucht eine lange Liste von Bürgern auf, die sich für die Obama-Kampagne interessieren. Neben soziodemografischen Daten erfährt man auch, ob und wie oft der betreffende Bürger in den vergangenen Jahren gewählt hat, ob er sich für eine Partei registriert oder für einen Kandidaten gespendet hat. Der Computer weiß, wie oft er bereits von der Kampagne kontaktiert wurde, wie er reagiert hat und welchen ‚support score‘ er derzeit aufweist. Das Programm ist wirklich sehr praktisch. Mit einigen Mausklicks kann man eine genau definierte Zielgruppe zusammenstellen“ (Moorstedt 2013: 41). Früher, so Moorstedt, „sprach man von ‚Flächenbombardements‘ (mit TV-Spots und Flugblättern), heute von ‚chirurgischen Schlägen‘ mit individuellen Botschaften“ (ibid.: 42). Barack Obamas Kampagne stützte sich auf Big Data-Analysen. Sie halfen, die stets begrenzten, aber insgesamt doch enorm hohen crowdfunding-Gelder - etwa eine Milliarde US- Dollar (Scherer 2012) - möglichst zielgenau einzusetzen (Moorstedt 2013). Mit einer Smartphone-App konnten Obama-Fans Nachrichten Facebook-Freunde schicken, die ein Computer ausgewählte. Jeder fünfte Adressat reagierte. „Mit solchen Traumquoten kann die traditionelle Wahlwerbung nicht aufwarten“ (Drösser 2016: 135). Die Analysen waren ein systematischer Bruch mit früheren Wahlkampfmethoden. Bis zu Obama hatte man aus genau analysierten Bevölkerungsstichproben auf die Wählerschaft im Ganzen geschlossen. Sein Team hingegen sammelte so lange Informationen über alle Bürger, „bis sich ein konkretes Bild jedes Einzelnen ergab“ (Issenberg 2012). Und es erfuhr mehr als das: Obamas Wahlkampfteam wusste nicht nur, „wer du bist“, sondern auch, „wie es dich zu dem Menschen machen kann, den es haben will“ (ibid.). Ein Beispiel: Wahlkampfhelfer erklärten einzelnen Bürgern, ihre Nachbarn würden nach der Wahl erfahren, ob sie ihre Stimme abgegeben hätten. Das habe die Wahlbeteiligung massiv erhöht (Issenburg 2012a). Für seinen Amtsnachfolger Donald Trump stellte die Datenfirma Cambridge Analytica ihr gesammeltes Wissen über 230 Millionen erwachsene Amerikaner zur Verfügung und ermöglichte so ebenfalls eine nicht immer legale Ansprache potentieller Wähler vor allem in sozialen Netzwerken (Müller v. Blumencron 2016, Nix 2018), nicht zuletzt über Twitter mit seinen 400 Millionen tweets jeden Tag (Mainzer 2017: 144). „Brauchen wir am Ende noch den Bundestagsabgeordneten, wenn wir unsere Interessen online zum Ausdruck bringen können? “ fragt Mainzer (ibid.: 146) und fügt hinzu: „Der amerikanische Präsident macht es mit seinem Twitterverhalten vor.“ Im US-Wahlkampf 2016 gen erierten Chatbots, also Maschinen, die ohne jedes menschliche Zutun mit Internetnutzern kommunizieren, automatisch bis zu einem Drittel der Facebook likes und retweets für einen Kandidaten. 400.000 bots sollen allein 3,8 Millionen tweets verbreitet haben, 20 Prozent der gesamten Wahlkampfmeldungen (Bessi/ Ferrara 2016). <?page no="264"?> 264 11 Politik durch die Bürger Insgesamt sollen in Twitter bereits fast die Hälfte aller tweets von bots stammen (Zafar et al. 2017). Sie verzerren nicht nur den Eindruck der öffentlichen Meinung massiv, sondern auch ihre Entstehung, dann nämlich, wenn ein wahlberechtigter Bürger sich im Wesentlichen über Facebook oder Twitter informiert. Er lebt dann in der berüchtigten Filterblase, die vorrangig seine eigenen Interessen spiegelt. Die öffentlichen tweets überdecken, dass die Masse der politischen Big Data-Anwendungen von der Öffentlichkeit unbemerkt läuft. Der kanadische Soziologe Philip Howard hat deshalb schon 2006 gefordert, Hypermedienkampagnen von staatlichen Stellen regulieren zu lassen. Die Wahlkampfzentralen, sagt er, sollten die Bürger darüber informieren müssen, mit welchen Technologien sie arbeiten. Sonst werde es immer schwieriger, die demokratische Legitimität einer Wahl korrekt einzuschätzen (Howard 2006: 199). Hardys unwillkommene Prognose Schon bald nach der Wiederwahl Barack Obamas zum US-amerikanischen Präsidenten hatte Hardy eine Prognose über den Ausgang der damals noch fast vier Jahre entfernten nächsten Präsidentenwahl aufgestellt und darüber berichtet. Bis zu den Präsidentschaftswahlen des Jahres 2016, sagte er 2012, werde sich die US-Gesellschaft in zwei Lager gespalten haben. Der Wahlkampf werde tumultartige Züge aufweisen. Die Wähler würden extreme Unlust ausstrahlen. Gewählt werden würde ein zu emotionalen Ausbrüchen neigender und massiven Ärger verursachender Präsidentschaftsbewerber, der nirgendwo den status quo einhalten werde, nicht in den USA, nicht in Europa und nicht weltweit. Zusammenarbeit werde von Separatismus abgelöst werden - mit Rückwirkungen auf den Zusammenhalt der USA selbst, der EU und anderer Bündnisse in der Welt. Vom superreichen US-Unternehmer Donald Trump war als politische Figur noch nirgends die Rede. So weit bekannt hatte Trump damals, 2012, noch nicht einmal selbst erwogen, im Jahr 2016 als Präsidentschaftskandidat ins Rennen zu gehen. Bei einem Empfang der Korrespondenten im Weißen Haus im April 2011 hatte Präsident Barack Obama ihn auf die Schippe genommen: „Er verspottete Trumps protzigen Dekor-Geschmack, machte sich darüber lustig, dass Trump falschen Gerüchten aufgesessen war, er, Obama, sei in Kenya geboren, und zog über Trumps Fernsehserie ‚The Celebrity Apprentice‘ her“ (Haberman/ Burns 2016). Trump hatte fortan an seinem Image gefeilt, besonders bei den US- Republikanern - mit welcher Absicht, blieb zunächst im Dunkeln. Erst fast fünf Jahre später, im Januar 2016, roch der Republikaner Newt Gingrich den Braten: „Trump löcherte Gingrich mit Fragen, welche Erfahrungen er mit einer Präsidentschaftskandidatur habe, wie man eine solche Kampagne aufsetzen, wie man sie führen müsse und was sie wohl koste“ (ibid.). Gingrich, in dessen Augen Donald Trump „publicity wollte, mit Obamas Geburtsort herumspielte und das Rampenlicht suchte“, überdachte an diesem Abend seine Meinung und kam zu dem Schluss: „Es war das erste Mal, dass ich dachte, er könnte es tatsächlich versuchen“ (ibid.). Hardy hatte diese Entwicklung nur in Umrissen aus dem Ausland verfolgt, aus Europa. „Die Leute haben meine Prognose seinerzeit alle als Quatsch abgetan. Selbst einer meiner engsten Arbeitskollegen ermahnte mich zu größerer Vorsicht.“ Niemand außer ihm selbst nahm diese Voraussagen ernst. Aber was tatsächlich passierte, gab ihm dann recht, allen abweichenden Meinungsumfragen zum Trotz. „Wenn wir jemandes Verhalten analysieren“, schrieb Hardy kurz nach Donald Trumps Wahlerfolg, „können wir ganz gut vorhersagen, wie jemand sich in einer Gruppe oder auf Twitter oder Facebook verhält. Deshalb war es auch gar nicht so schwer, Jahre im Voraus das Ergebnis der US-Präsidentschaftswahlen vorherzusehen. Aber die Leute glauben einfach gern, morgen gehe es so weiter wie heute. Das ist natürlich sehr einfach. Das Gegenteil anzuneh- <?page no="265"?> 11.2 Running for President 265 men, dass es nämlich morgen drastisch anders sein werde als bisher, ist nicht populär. Nein, nein, sagen sie, das kann doch nicht sein. Sie dürfen so etwas nicht einmal aussprechen. Dabei braucht man nur auf das Veränderungspotenzial solcher dynamischen Prozesse zu schauen, um zu wissen, was angesagt ist.“ Der britische Journalist George Monbiot hatte wie Hardy in seiner Einschätzung richtig gelegen: Ja, Trump sei ein „flacher, verlogener, lümmelhafter und hoch gefährlicher Mann. Aber gerade das zeigt: Er ist kein Außenseiter, sondern widerspiegelt perfekt seine Kaste, die Kaste, die die Weltwirtschaft und unsere Länder regiert. Wenn man alle Vorwände weglässt, ist er unser System“ (Monbiot 2016a). Überraschung? Nicht wirklich - man hatte nur genau genug hinschauen müssen. Das hatte Hardy getan. Er hatte ein Instrument entwickelt und benutzt, um gesellschaftliche Zustände und Entwicklungen genauer als andere analysieren zu können. Er nannte es das quantum relations-Prinzip. Es hat uns in diesem Buch schon beschäftigt. Ohne den Begriff Schweigespirale zu kennen, hatte Hardy eine Beobachtung bestätigt, die die Gründerin des deutschen Instituts für Demoskopie Elisabeth Noelle-Neumann in ihrem gleichnamigen Buch mit dem Untertitel „Öffentliche Meinung - unsere soziale Haut“ schon eine Generation früher geprägt hatte. Eine solche Haut ist in Deutschland vielleicht wichtiger als in anderen Ländern. Die Bundesrepublik ist im Gegensatz zu einigen Nachbarn kein Zentralstaat. Das Land wird nicht so sehr durch die Hauptstadt und ihr Meinungsklima zusammengehalten als vielmehr durch eine über die Bundesländer verteilte Medienkette. Deren Sender und Verlagshäuser publizieren die Meinungen, die in der Öffentlichkeit dann viele Menschen vertreten. Diese öffentliche Meinung ist „gegründet auf das unbewusste Bestreben von in einem Verband lebenden Menschen, zu einem gemeinsamen Urteil zu gelangen, zu einer Übereinstimmung, wie sie erforderlich ist, um handeln und wenn notwendig entscheiden zu können“ (Noelle-Neumann 1982: III). Sie besteht nicht allein aus Volkes Stimme. Zumindest vor dem Siegeszug der sozialen Medien fußte sie nach der Ansicht des früheren deutschen Regierungssprechers Bergsdorf in erster Linie auf der „politischen Kommunikation der Eliten, der von Medien vermittelten und von ihnen geführten Kommunikation“ und erst dann auf dem „Gespräch der Bürger über öffentliche Angelegenheiten“ (Bergsdorf 1991). Bergsdorf hatte die private Kommunikation über Alltägliches aller Art bei Facebook & Co. als Teil der öffentlichen Meinungsbildung noch nicht mit im Blick. Anders Noelle-Neumann: Öffentlichkeit, schrieb sie, sei nicht vorrangig eine Sache der „Berufenen, der zur Kritik Befähigten, der politisch fungierenden Öffentlichkeit. Alle sind beteiligt“ (Noelle- Neumann 1982: 93). Weil Menschen zu ihrem psychischen Wohlbefinden aber Rückhalt in der Meinung anderer suchen und weil sie, wenn sie sich allein fühlen, tendenziell unglücklicher sind, wollen sie sich „nicht isolieren, beobachten pausenlos ihre Umwelt, können aufs Feinste registrieren, was zu- und was abnimmt“ (ibid.: XIII) und sind gestärkt, wenn sie sehen, dass ihre Meinung geteilt wird. Wer aber „sieht, dass seine Haltung an Boden verliert, verfällt in Schweigen“ (ibid.). Indem die einen laut und öffentlich reden oder publizieren, wirken sie stärker als sie wirklich sind, und die anderen bleiben im Dunklen. Die Schweigespirale beschreibt also eine Rückkopplung, einen sich selbst verstärkenden Prozess, in dessen Verlauf die von den Medien vertretenen Positionen in der Gesellschaft an Boden gewinnen (Schulz, 1992: 287). Die anderen, die nicht die Mehrheitsmeinung vertreten, halten dann lieber den Mund. Diese Schweigespirale ist die bekannteste Variante eines Koorientierungsmodells von Kommunikationswirkungen (ibid.).Sie beschreibt einen Trend zur Konformität: Gleichlautende Meinungen werden mit sozialem Zuspruch belohnt, dagegen wird der Verstoß gegen das übereinstimmende Urteil anderer mit sozialer Isolierung bestraft (Noelle-Neumann 1989: 14 ff.). Die Massenmedien verstärken diesen Prozess, die sozialen noch stärker. In- <?page no="266"?> 266 11 Politik durch die Bürger zwischen halten wir es für normal, uns in jeder Minute im Web zu inszenieren. So glauben wir einen Rest Kontrolle über uns zu behalten, auch wenn man „die Selbstvermarktung im Internet in Wahrheit eine Selbstversklavung“ (Morgenroth 2014: 123) nennen kann. Das Prinzip der Schweigespirale hat ein Beobachter schon vor mehr als 150 Jahren richtig erkannt, Alexis Clérel Graf de Tocqueville. „Leute, die noch am alten Glauben festhielten, fürchteten die einzigen zu sein, die ihm treu blieben, und da sie die Absonderung mehr als den Irrtum fürchteten, gesellten sie sich zu der Menge, ohne wie diese zu denken“, schrieb er (1857: 182). „Was nur noch die Ansicht eines Teils der Nation war, schien auf eine solche Weise die Meinung aller zu sein und dünkte eben deshalb diejenigen unwiderstehlich, die ihr diesen trügerischen Anschein gaben“ (ibid.). Tocqueville sagte das über die Vereinigten Staaten. In den USA sitzen die meinungsleitenden Medien vor allem in den Küstenstaaten, von New York bis Hollywood. Zu Beginn des 21. Jahrhunderts war das Obama-Land. Es prägte landesweit die öffentliche Wahrnehmung. Die sogenannte schweigende Mehrheit im Landesinneren kam dagegen lange nicht an - bis Trump kam. Filterblasen und Echokammern Inzwischen ist der Begriff Schweigespirale aus der Mode gekommen, ohne dass der Zustand, den er beschreibt, an Belang eingebüßt hätte. Heute ist unter geänderten Vorzeichen von Filterblasen die Rede (Pariser 2011, Borgesius 2016). Deren Erzeuger sind Google, Facebook& Co. Der Begriff beschreibt, dass uns diese Dienste nur Teile des Gesamtgeschehens präsentieren, und zwar nur die, die unserem Such- und Posting-Verhalten, unseren Vorlieben, unserem Weltbild entsprechen. Anderes blenden sie aus. Am Zeitungskiosk liegen auch all die Tageszeitungen offen aus, die wir nicht lesen, weil sie unser Weltbild nicht spiegeln. Wer eine solche Meinungsvielfalt dort oder im Internet geringschätzt, wer die Arbeit von Nachrichtenprofis verschmäht, ihnen gar fake news vorwirft, nimmt in Kauf, „dass der Einfluss von Zwischeninstanzen, die auf das Allgemeininteresse gerichtet sind, zurückgeht (Stampfl 2013: 84). Er gibt sich zufrieden mit dem, was seine Ansichten bestätigt. Das Web macht das sehr leicht. Google verrät nicht, was deren Suchmaschine Anfragern vorenthält (Stampfl 2013: 82). Was zunächst nach Nutzerfreundlichkeit klingt, erzeugt eine folgenreiche Beschränkung des Sichtfelds (ibid.). „Immer sollte ein Filter gewährleisten, ihn auf Wunsch auch ausschalten zu können“, fordert Stampfl (ibid.: 83). Das ist bei Google aber ebenso unmöglich wie ein Einblick in die rund 200 Auswahlprinzipien, die sich angeblich am vorangegangenen Suchverhalten des Nutzers orientieren - bei dieser Zahl an Parametern ist das nicht ganz glaubhaft. Bei Facebookist der Filterblaseneffekt angeblich nicht groß; die Filterwirkung bleibt unter zehn Prozent (Bashky et al. 2015). Facebook sorgt trotzdem ebenfalls dafür, die Welt in Follower und andere zu spalten. Gerade dieses soziale Netzwerk schafft riesige Echokammern (Sunstein 2009). Sie untergraben die Meinungsvielfalt und liefern den Nährboden für fake news irgendwelcher Nutzer, deren posts um den halben Planeten rasen (Schulz 2017: 13, vgl. Quattrociocchi 2016). Das ist mehr als ein Schönheitsfehler; denn Facebook ist für viele Menschen das wichtigste Fenster zur Welt. Für fast die Hälfte der Amerikaner ist Facebook die wesentliche Nachrichtenquelle (ibid.: 15). Echokammern sorgen dafür, dass Gleichgesinnte im Web unter sich bleiben. Sie tun das um so hartnäckiger, je stärker abweichende Information sie gewissermaßen anfeinden: „After interacting with debunking posts, user retain, or even increase, their engagement with the conspiracy echo chamber“ (Zollo 2015). Facebook likesfördern das ebenso wie People you may know- Empfehlungen - letztere „nearly doubled the number of edges added daily“ (Malik/ Pfeffer 2016). Wenn aber jeder nur Zugang zu dem Ausschnitt der Wirklichkeit erhält, der ihm gefällt, ist <?page no="267"?> 11.2 Running for President 267 ein gemeinsames Verständnis übergreifender und abweichender Sachverhalte kaum noch möglich (Stampfl 2013: 83). Es wird auch gar nicht mehr erwartet. Denn social networking- Apps wie Highlight, Glancee und Sonar finden genügend Personen mit der ‚gleichen Sprache‘ wie die Nutzer und zeigen sie ihnen. Sobald sich solche Personen mit gemeinsamen Hobbys, Berufen, besuchten Schulen oder Universitäten in der Nähe aufhalten, schlagen diese Apps an (ibid.: 81). Die Technik hinter diesen Echoeffekten sind Algorithmen, die unserem Verhalten und unseren Präferenzen entsprechend Angebote auf uns zuschneiden. Nicht nur wir Nutzer selbst sind betroffen, auch Marken und Medien. Filterblasen machen für ganze Zielgruppen abweichende Ansichten irrelevant oder nicht einmal sichtbar und führen dazu, dass Nutzer sozialer Medien diese Segmente gar nicht wahrnehmen. Je mehr Nutzer Inhalte teilen, desto mehr ähnliche Inhalte bekommen sie angezeigt. So entsteht „eine Welt ohne Widersprüche, in der die eigene Meinung immer wieder bestätigt und amplifiziert wird“ und daher „als einzig richtige erscheint“. Es ist eine „algorithmisch kuratierte Wirklichkeit“ mit „Einfluss auf die poltische Meinungsbildung“ (Schulz 2017: 15 f.). Das Internet wurde als Informationsplattform für alles und jeden entwickelt. Es ist gleichgewichtig und demokratisch organisiert. Mit Wikipedia übertrifft es jede frühere Enzyklopädie heute weit. Zugleich bietet es „hochqualifizierte Foren noch für die exotischsten Probleme“. Aber seine Auffächerung birgt zugleich ein Problem: Irgend eine verbindende ‚Allgemeinbildung‘ fördert es nicht. „Wie aber sollen Menschen gedeihlich zusammenleben, wenn dem einen existenziell wichtig erscheint, wovon der andere noch nie etwas gehört hat? “ (Fichter 2017: 42). Selbst wer etwas hört und es sogar weiterverbreitet, liest es oft nicht einmal genau. Eine Untersuchung belegt „that sharing content and acually reading it are poorly correlated“ (Gabielkov 2016). Im Tempo eines Wimpernschlags fällt der Internetnutzer trotzdem ein Urteil. In der Regel bestätigt es die eigenen Maßstäbe. In dieser „Verfügbarkeitsheuristik“ erscheint das häufiger und gilt das als wichtiger, woran man sich schnell erinnert. Es ist kaum jemals etwas Komplexes und selten etwas Abstraktes, aber häufig etwas Emotionales. Es regt an und regt auf. Ein Beleg: Negativ gestimmte Facebook-Einträge erhalten mehr Kommentare als positive (Stiglitz/ Dang-Xuan 2013). Auch negative, emotional aufgeladene tweets werden stärker verbreitet als positive oder gelassen-neutrale (ibid.). Je negativer Nutzerbeiträge werden, desto öfter neigen diese Menschen Verschwörergruppen zu (Vicario 2016). Gefördert wird in anderen Worten eine „uncritical acceptance of suggestions and exaggeration ofthe likelihood ef extreme and improbable events“ (Kahnemann 2012). Stimmungen schaukeln sich hoch. Im Ergebnis werden „Probleme vertieft, Vorurteile verstärkt und Neigungen bestätigt“ (2017: 95). Das macht blind gegenüber Erfahrungen, Sichtweisen und Stimmen anderer Personen. „Im Endeffekt“, urteilt Stampfl, „begeben wir uns dadurch in eine intellektuelle Isolation und berauben uns der Möglichkeiten wahrer demokratischer Auseinandersetzung“ (2013: 85). Denn nur wer Hintergründe gut genug kennt, kann aus der Filterblase ausreißen und sich einen ganzheitlichen Blick auf die Dinge bewahren (ibid.: 82). Wissenschaftler haben nachgewiesen, wie stark die sozialen Netzwerke das Beharren in gewohnten Bahnen fördern. Testweise lieferten sie 700.000 Facebook-Nutzern mehr pessimistisches Material als diese gewöhnlich empfangen. Prompt wurden diese unzufriedener (Pasquale 2017: 103). Auch Medienleute fallen auf solche Denk- und Verhaltensmuster bisweilen herein: „Es stellt ihnen kein besonders gutes Zeugnis aus, wenn sie komplette Strömungen nicht registrieren und daher in ihrer Auseinandersetzung nicht abbilden“ (Schloer / Spariosu 2017: 40). Der kritische Nutzer kann dieser Falle ein Stück weit entgehen, etwa mit Programmen wie The Buzzard - im Juni 2017 an den Start gegangen, bedient es bisher erst eine Nische (Martens 2017: 11) - oder mit dem plug-in Escape your Bubble, einem Zusatzprogramm für <?page no="268"?> 268 11 Politik durch die Bürger den Internetbrowser Chrome. Es ersetzt im newsfeed Artikel durch Beiträge der jeweils gegenteiligen Haltung. Das hat aber einen Haken: Die sozialen Netzwerke müssten selbst in die Nachrichtenauswahl eingreifen. Das setzt eine Bewertung der Inhalte voraus. Dies aber vermeiden diese Web-Plattformen sorgsam. „Das Interesse von sozialen Netzwerken liegt primär darin, Verweildauer und Nutzerfrequenz zu erhöhen. Und allen Beschwerden über den gefilterte feeds zum Trotz: Filterblasen und Echokammern führen dazu, „dass Nutzer mehr interagieren und sich wohler fühlen“ (ibid.: 42). Appelle an Gefühle Als Hardy im Jahr 2012 die nordamerikanische öffentliche Meinung durchleuchtete, war er weder auf veröffentlichte Meinungen noch auf Web-Zusatzdienste angewiesen, die die Schweigespirale beziehungsweise die Filterblase durchstechen. Mit seinem quantum relations- Prinzip drang er zur tatsächlichen Meinung auch der schweigenden Mehrheit im Landesinneren durch - wie, haben wir im Kapitel „Von Newton z