eBooks

Wie verändern Daten Unternehmen?

Strategie und Organisation für eine datengetriebene Welt

0828
2023
978-3-7398-8224-6
978-3-7398-3224-1
UVK Verlag 
Markus Thomas Münter
10.24053/9783739882246

Die Chancen aus Big Data und künstlicher Intelligenz erkennen und jetzt die Digitalisierung vorantreiben! Das globale Datenvolumen wächst Tag für Tag und künstliche Intelligenz optimiert Entscheidungen. Daten und Algorithmen können die Wettbewerbsfähigkeit von Unternehmen erhöhen und neue Geschäftsmodelle hervorbringen - aber nur, wenn Menschen, Organisationen und Prozesse mitwachsen. Rund 20 Expert:innen zeigen Strategien und Organisationsmodelle für Unternehmen in einer datengetriebenen Welt auf. Auf Chancen und Risiken gehen sie praxisnah ein. Ein Glossar erklärt Fachbegriffe. Ein Buch für alle in Praxis und Wissenschaft, die Daten und künstliche Intelligenz als Wettbewerbsvorteile besser verstehen wollen, sowie für Studierende der Wirtschaftswissenschaften und -informatik. Mit Beiträgen von Expert:innen der Unternehmen Consorsbank/BNP Paribas, Schweizerische Post, PricewaterhouseCoopers Luxembourg, Eindhoven University of Technology, HDBW München, Hochschule Flensburg, s2 data&algorithms, August-Wilhelm Scheer Institut, ValueWorks.ai, elaboratum, htw saar, HSBC Group, Horváth&Partners, avantum consult und 1&1 Telecommunication.

<?page no="0"?> mit Best- Practice- Beispielen Markus Thomas Münter (Hrsg.) Wie verändern Daten Unternehmen? Strategie und Organisation für eine datengetriebene Welt <?page no="1"?> Wie verändern Daten Unternehmen? <?page no="2"?> Markus Thomas Münter war 15 Jahre Unternehmens‐ berater und im Management von Finanzdienstleistern tä‐ tig. Seit 2014 ist er Professor für Volkswirtschaftslehre, insbesondere Mikroökonomie, an der htw saar. <?page no="3"?> Markus Thomas Münter (Hrsg.) Wie verändern Daten Unternehmen? Strategie und Organisation für eine datengetriebene Welt mit Beiträgen von Shari Alt, Andreas Braun, Wolfgang Decker, Sven Deglow, Wolfgang Faisst, Markus Gildenhard, Torben Hügens, Patricia Kahr, Sonja Christa Köberlein, Kim Kordel, Stefan Kremsner, Annina Neumann, Jörg Neumann, Nataša Pavlović-Höck, Jürgen Rahmel, Victoria Schorr, Joachim Stalph, Rainer Volland, Lisa Weinzierl, Dirk Werth UVK Verlag · München <?page no="4"?> DOI: https: / / www.doi.org/ 10.24053/ 9783739882246 © UVK Verlag 2023 ‒ ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Ver‐ vielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Alle Informationen in diesem Buch wurden mit großer Sorgfalt erstellt. Fehler können dennoch nicht völlig ausgeschlossen werden. Weder Verlag noch Autor: in‐ nen oder Herausgeber: innen übernehmen deshalb eine Gewährleistung für die Korrektheit des Inhaltes und haften nicht für fehlerhafte Angaben und deren Folgen. Diese Publikation enthält gegebenenfalls Links zu externen Inhalten Dritter, auf die weder Verlag noch Autor: innen oder Herausgeber: innen Einfluss haben. Für die Inhalte der verlinkten Seiten sind stets die jeweiligen Anbieter oder Betreibenden der Seiten verantwortlich. Internet: www.narr.de eMail: info@narr.de CPI books GmbH, Leck ISBN 978-3-7398-3224-1 (Print) ISBN 978-3-7398-8224-6 (ePDF) ISBN 978-3-7398-0620-4 (ePub) Umschlagabbildung: © Happy_vector ∙ iStockphoto Herausgeberbild: © privat Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. www.fsc.org MIX Papier aus verantwortungsvollen Quellen FSC ® C083411 ® <?page no="5"?> 13 1 15 1.1 16 1.2 26 1.3 37 1.4 45 1.5 47 2 53 2.1 54 2.2 58 2.3 61 2.4 66 2.5 67 3 69 3.1 70 3.2 71 3.3 74 Inhalt Datengetriebene Unternehmen - Transformation von Organisationen, Menschen und Entscheidungen . . . . . . . . . . . . . . . . Big Data, Digitalisierung, Strategie und Organisation - wie ticken datengetriebene Unternehmen? | von Markus Thomas Münter . . Wachstums- und Wettbewerbsmuster datengetriebener Unternehmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Big Data, Entscheidungen in Unternehmen und Wettbewerbsvorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Herausforderungen und mögliche Strategien datengetriebener Unternehmen . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datenkultur als Katalysator für eine datengetriebene Organisation am Beispiel der Telekommunikationsbranche | von Nataša Pavlović-Höck und Sonja Christa Köberlein . . . . . . . . . . . Reifegradmodell datengetriebener Organisationen . . . . . . . Wie wird aus einem regionalen Telekommunikationsanbieter ein datengetriebenes Unternehmen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datenkultur gestalten - Hebel und Erfolgsfaktoren . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Künstliche Intelligenz als Entscheidungsunterstützer - Potenziale und Risiken in Unternehmen | von Annina Neumann . . . . . . . . . . Der Begriff „künstliche Intelligenz“ im Zusammenhang mit Entscheidungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . KI inneffektiv eingesetzt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . KI effektiv eingesetzt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . <?page no="6"?> 3.4 76 3.5 80 3.6 82 4 83 4.1 84 4.2 89 4.3 95 4.4 96 103 5 105 5.1 106 5.2 110 5.3 113 5.4 115 5.5 117 5.6 118 6 119 6.1 119 6.2 121 6.3 125 KI effektiv einsetzen: Warum ist das so schwer? . . . . . . . . . Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . TEA(I)MWORK schafft Vertrauen: Mensch-Maschine- Kollaboration als Erfolgsfaktor für eine datengetriebene Zukunft | von Patricia Kahr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der Deckel zum Topf: Menschliche Talente und künstliche Kompetenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . In AI I trust: Wie wir es schaffen, dass Menschen künstlicher Intelligenz vertrauen . . . . . . . . . . . . . . . . . . . . . . KI vertrauen und langfristig profitieren - ein Ausblick . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Customer Experience und Innovation - neue Geschäftsmodelle mit Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vom Fax zum Smartphone Banking - Wie intelligente Datennutzung das Kundenerlebnis verbessert | von Sven Deglow und Jörg Neumann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wie Daten das Kampagnenmanagement der Consorsbank verändert haben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wie die Consorsbank unstrukturierte Daten für sich nutzt Datengerechte Organisation . . . . . . . . . . . . . . . . . . . . . . . . . . Datenmonetarisierung - mehr als nur Datenverkauf . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Auf die Beziehung von Kunde und Daten kommt es an - aus E-Commerce wird R-Commerce | von Rainer Volland und Joachim Stalph . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aus datengetriebenem wird kundengetriebenes Marketing Datenknappheit und Kundenzentrierung - Das Ende der Kundenansprache, wie wir sie kennen . . . . . . . . . . . . . . . . . Die Antwort auf Datenknappheit und Kundenzentrierung-- Eine neue Business-Philosophie entsteht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Inhalt <?page no="7"?> 6.4 127 6.5 132 6.6 135 6.7 136 7 139 7.1 139 7.2 140 7.3 141 7.4 144 7.5 147 7.6 148 7.7 152 7.8 156 7.9 158 7.10 160 8 163 8.1 163 8.2 168 8.3 172 8.4 177 179 Fünf Leitprinzipien im R-Commerce . . . . . . . . . . . . . . . . . . . Voraussetzungen: Was brauchen Unternehmen in R-Commerce? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Best Practice und Methoden für datengetriebenes Business Development | von Kim Kordel und Lisa Weinzierl . . . . . . . . . . . . Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was ist datengetriebenes Business Development? . . . . . . . Methodische Ansätze für ein datengetriebenes Business Development . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Methodischer Ablauf von datengetriebenem Business Development . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vorteile und Herausforderungen der Methodik . . . . . . . . . . Relevante Fähigkeiten für datengetriebenes Business Development . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Organisation und Unternehmenskultur für datengetriebenes Business Development . . . . . . . . . . . . . . . Erfolgsfaktoren aus der Praxis für den Aufbau von datengetriebenem Business Development . . . . . . . . . . . . . . Fazit und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was bringen Daten - und wie können sie die Wertschöpfung in der Telekommunikationsindustrie beeinflussen? | von Markus Gildenhard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wie Daten die Wertschöpfungskette von 1&1 beeinflussen Das Datenprodukt besteht aus den Bausteinen: Data, Decision & Delivery . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vom Datenprojekt zum Datenprodukt . . . . . . . . . . . . . . . . . Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . KI und Daten - Technologie zwischen Legacy-Systemen und Metaverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inhalt 7 <?page no="8"?> 9 181 9.1 182 9.2 184 9.3 187 9.4 188 9.5 190 9.6 192 10 193 10.1 194 10.2 202 10.3 207 10.4 209 10.5 210 11 211 11.1 211 11.2 212 11.3 215 11.4 218 11.5 221 11.6 225 11.7 226 227 Künstliche Intelligenz und die Datenexplosion - wie behalten Unternehmen die Kontrolle? | von Andreas Braun . . . . . . . . . . . . Rasantes Wachstum von Daten . . . . . . . . . . . . . . . . . . . . . . . Daten für KI - sinnvolle Datensammlung und Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . KI für Daten - Methoden zur Kontrolle der Informationsflut Die KI-Grundverordnung und ihr Einfluss auf Anwender von KI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der verantwortungsvolle und profitable Einsatz von KI . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien | von Jürgen Rahmel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Was versprechen uns die neuen digitale Ökonomien - und werden sie das Versprechen halten? . . . . . . . . . . . . . . . . . . . Welche Stufen der Integration von Unternehmen ins Web 3.0 gibt es? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . In welchen Schritten können Unternehmen sich an diese neue Ökonomie herantasten? . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wo sich Daten, Tradition und Agilität verbünden - die wundersame Welt der multimodalen IT | von Wolfgang Decker . Bimodale IT-Architektur als Lösung? . . . . . . . . . . . . . . . . . . Markt- und Veränderungsdruck . . . . . . . . . . . . . . . . . . . . . . . Imperative der Digitalisierung . . . . . . . . . . . . . . . . . . . . . . . Eine digitale Innovationsfabrik . . . . . . . . . . . . . . . . . . . . . . . Auswirkungen auf die Organisation . . . . . . . . . . . . . . . . . . . Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Case Studies - Mittelstand, Energie, Private Equity und Logistik . 8 Inhalt <?page no="9"?> 12 229 12.1 229 12.2 233 12.3 236 12.4 239 12.5 240 13 243 13.1 243 13.2 245 13.3 247 13.4 253 13.5 256 13.6 257 14 259 14.1 261 14.2 267 14.3 276 15 279 15.1 279 Business Analytics im Mittelstand - Herausforderungen und Chancen durch die vermehrte Nutzung von Daten in kleinen und mittleren Unternehmen | von Torben Hügens . . . . . . . . . . . . . . . . Aktueller Stand des Einsatzes von Business Analytics im Mittelstand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wie und wo wird Business Analytics im Mittelstand eingesetzt? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wie unterscheiden sich Data-Savvyvs. Data-Driven-Unternehmen? . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Energiedaten als Rohstoff für eine nachhaltige Zukunft. Warum die gerichtete Nutzung von energetischen und prozessualen Bestands- und Verlaufsdaten zunehmend zum kritischen wirtschaftlichen Erfolgsfaktor für alle Branchen wird | von Dirk Werth, Victoria Schorr und Shari Alt . . . . . . . . . . . . . . . . . . . . . . . . Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datenerfassung - Anforderungen und Herausforderungen Energie-, Ressourcen- und Prozessdaten - Was und wie können wir aus ihnen lernen? . . . . . . . . . . . . . . . . . . . . . . . . Daten als Treiber für Energiemanagement und Berichtspflichten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity - wie Daten zu Wettbewerbsvorteilen für Investoren werden | von Wolfgang Faisst und Markus Thomas Münter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Herausforderungen der Private-Equity-Unternehmen und mögliche datengetriebene Lösungsansätze . . . . . . . . . . . . . Ansätze zur Wertsteigerung und Portfoliooptimierung . . . Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . Datengetriebene Logistikplanung mit KI | von Stefan Kremsner . Herausforderungen datengeriebener Logistik . . . . . . . . . . . Inhalt 9 <?page no="10"?> 15.2 284 15.3 287 15.4 291 293 303 Advanced Analytics - Datenanalyse in der Logistik . . . . . Wie der große Datenfluss Probleme heutiger Unternehmen entgegenwirkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Beitragsautor: innen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Inhalt <?page no="11"?> Vorwort Schön, dass Sie gerade genau diesen Satz in genau diesem Buch lesen. Wer weiß davon? Sie, ich, wer noch? Wie viele und welche Daten haben Sie bereits hinterlassen, bei der Suche oder dem Finden dieses Buches, beim Kauf und der Bezahlung, der Ausleihe oder dem Download einzelner Kapitel? Wie viele und welche Daten haben Sie heute schon persönlich verursacht, wo haben Sie digitale Fußspuren hinterlassen? Wie viele Daten haben Ihre Hardware (Smartphone, Laptop, E-Scooter, Auto, Smartwatch, Kaffeema‐ schine, Kreditkarten etc.) oder die von Ihnen genutzte Software (WhatsApp, E-Mail, digitale Kalender, Online-Banking, Supermarktscanner etc.) heute schon geschaffen? Wer wird diese Daten (Ihre ‚Small Data‘) in Echtzeit oder danach erhalten - wer wird diese Daten künftig in Entscheidungen berücksichtigen, wie werden Unternehmen ihre Organisation und Strategie aufgrund Ihrer Daten anpassen? Wann und wo fließen Ihre ‚Small Data‘ mit anderen Daten zu ‚Big Data‘ zusammen? Wann kommen diese Daten wieder bei Ihnen oder bei anderen Kunden an - in Form von personalisierten Empfehlungen, Echtzeitnavigation, sentimentgetriggertem Social Media Feeds, Anpassungen Ihrer Versicherungsprämie oder Jobangeboten in der Stadt Ihres neuen Lebenspartners? In einem Artikel des Harvard Business Review im Oktober 2012 haben Andrew McAfee und Erik Brynjolfsson Big Data als die nächste Manage‐ ment Revolution bezeichnet. Zehn Jahre später haben allerdings erst 11 % der Unternehmen in Deutschland wirklich Big Data eingesetzt (Bitkom Research 2022). Ist die Revolution ausgeblieben - oder kommt sie jetzt dann irgendwann? Tatsächlich befinden sich viele Unternehmen gerade in einer digitalen Transformation, hin zum Einsatz digitaler Technologien und Infrastruktur, aber insbesondere in der Entwicklung von Strategie und Organisation die helfen, Daten und Algorithmen besser zu nutzen. Oft ist hier das Ziel, Entscheidungen zu verbessern und von ihren HiPPOs zu entkoppeln: „Beware of the HiPPO in the room. When a HiPPO (highest paid person’s opinion) is in play, your organization is most likely not relying on data to inform decisionmaking. In fact, I believe the HiPPO effect is one of the biggest barriers to more evidence-based and data-driven decision-making. With the quantity and quality <?page no="12"?> of data available today, it is just poor business for organizations to ignore data in favor of making decisions solely based on what the HiPPO wants done.“ (Marr 2017). Das globale Datenvolumen wächst Tag für Tag. Das bietet Unternehmen zahlreiche Chancen, sofern sie dieser Komplexität gewachsen sind. Daten können die Effizienz von Unternehmen erhöhen und neue Geschäftsmodelle hervorbringen - aber nur, wenn Mitarbeiter, Organisation und Prozesse mitwachsen. Wie kann ein Unternehmen zu einem datengetriebenen Unter‐ nehmen werden? Muss ein Unternehmen zu einem datengetriebenen Un‐ ternehmen werden, um in einer datengetriebenen Welt erfolgreich zu sein? Davon handeln die Beiträge in diesem Buch. Wir analysieren Möglichkeiten und Herausforderungen aus strategischer und organisatorischer Perspek‐ tive und zeigen Best-Practice-Beispiele unterschiedlicher Industrien. Wir sind dabei hoffentlich weder zu optimistisch oder enthusiastisch betreffs der Möglichkeiten, noch zu pessimistisch aufgrund aktueller Herausforde‐ rungen - das Ziel ist, tatsächliche Anwendungen und deren Erfolgshebel zu beschreiben, aber auch heute vorhandene Umsetzungshürden zu benennen. Mein Dank gilt allen, die sich spontan und mit großer Energie mit in dieses Projekt gestürzt haben - es war eine Freude, mit Euch allen über den Winter 2022/ 2023 zu arbeiten. Die Idee zu diesem Buch habe ich von meiner Frau Cecile - vielen Dank - aber meinen ersten wirklich tieferen Einblick zum Thema Big Data vor elf Jahren verdanke ich Jutta Euchenhofer, auch hierfür vielen Dank. Saarbrücken und Karlsruhe, im Sommer 2023 Markus Thomas Münter 12 Vorwort <?page no="13"?> Datengetriebene Unternehmen - Transformation von Organisationen, Menschen und Entscheidungen <?page no="15"?> 1 Big Data, Digitalisierung, Strategie und Organisation - wie ticken datengetriebene Unternehmen? | von Markus Thomas Münter - Datengetriebene Geschäftsmodelle - eine unendliche Wachstumsgeschichte? Der Mobilitätsdienstleister Uber wird meist verkürzt dargestellt als all das, was er nicht hat: Keine eigenen Autos, keine festangestellten Fahrer, oft keine Taxilizenz. Was Uber aber insbesondere hat: Ein enormes Umsatzwachstum - global von 0,4 Mrd. USD im Jahr 2014 auf 31,8 Mrd. USD im Jahr 2022 - mit einer durchschnittlichen jährlichen Wachstumsrate von fast 73 % (investor.ube r.com/ financials). Im Jahr 2023 ist Uber aber längst kein reiner Taxidienstleister mehr. Das Unternehmen bietet mittlerweile neben taxiähnlichem Ride-Hailing und Mobilitätsdienstleistungen durch Uber Eats auch Essenslieferungen und mit Uber Freight allgemeine Lieferantendienstleistungen an. Der wesentliche Wettbewerbsvorteil und ein großer Teil der Wertschöp‐ fung hinter allen Geschäftsmodellen von Uber: Daten und die kluge Analyse der Daten (Wamba et al. 2017 und Teece 2018). Der Kundennutzen steigt, weil Kunden durch Daten besser über Fahrtkosten, Fahrtzeiten sowie Ankunftszeit und Qualität des Fahrers informiert sind. Für Uber entstehen durch Konnektivität von Endgeräten, Fahrzeugen und Fahrern mehr und bessere Daten und damit zahlreiche Möglichkeiten für Serviceverbesserun‐ gen, Lösungen für erhöhtes Sicherheitsempfinden, dynamische Preissetzung und neue Geschäftsmodelle. Insbesondere sinken durch die genutzten Daten die Transaktionskosten, so dass Uber trotz besserer Leistungen in der Regel niedrigere Preise als etablierte Taxidienstleister bieten kann. Zudem bindet Uber vielfältige externe Daten - Wetter, Verspätungen des öffent‐ lichen Nahverkehrs, Staudaten oder unerwartete Ereignisse - in Echtzeit in die dynamische Preisbildung ein (Uber Surge Pricing). Die meisten dieser Wettbewerbsvorteile sind für klassische Taxidienstleister nicht imitierbar. Jedes einzelne traditionelle Taxiunternehmen hat zu wenige eigene Daten, um diese gezielt zu nutzen, externe Daten werden oft nicht erhoben. Zudem widerspricht die Logik der Datennutzung den vormaligen Wettbe‐ werbsparametern: Gebietsmonopole, Ortskundeprüfung, geringe Lohnkos‐ <?page no="16"?> ten, Preisintransparenz und Informationsasymmetrie zwischen ortsfremden Fahrgästen und Taxifahrern - datengetriebene Geschäftsmodelle kön‐ nen disruptive Veränderungen in Industrien hervorrufen und etablierte Unternehmen verdrängen. In diesem Kapitel wird ein Überblick über Big Data, Chancen und Heraus‐ forderungen datengetriebener Unternehmen geschaffen. In → Abschnitt 1.1 werden Wachstums- und Wettbewerbsmuster datengetriebener Unterneh‐ men beschrieben, in → Abschnitt 1.2 wird der Einfluss von Big Data auf Entscheidungen gezeigt. → Abschnitt 1.3 grenzt Wettbewerbsvorteile ab, bevor abschließend in Abschnitt → 1.4 typische Herausforderungen und mögliche Strategien auf dem Weg zu einem datengetriebenen Unternehmen skizziert werden. 1.1 Wachstums- und Wettbewerbsmuster datengetriebener Unternehmen Viele der Unternehmen, die in den 2000er-Jahren die stärksten Anstiege der Kapitalmarktbewertungen verzeichnet haben und mittlerweile oft große Marktanteile in ihren jeweiligen Industrien besitzen - Google, Airbnb, Netflix, Alibaba, Meta, Visa oder Amazon - haben zumindest eine Gemein‐ samkeit: Sie sind datengetriebene Unternehmen. Diese Unternehmen haben umfangreich neue Technologien zur Datengewinnung und -analyse etabliert, sie setzen Daten zentral in ihren Geschäftsmodellen ein und sie nutzen Algorithmen zur Entscheidungsvorbereitung und -unterstützung. - Auf dem Weg zum datengetriebenen Unternehmen Natürlich ist der Zweck oder das Ziel eines Unternehmens nicht, datenge‐ trieben zu sein. Auch wird sich nicht jedes Unternehmen in ein Plattform- Unternehmen wandeln - das Unternehmensziel ist Überlebensfähigkeit durch hinreichende Erfüllung ökonomischer Ziele. Aber eine wesentliche strategische Option ist, Daten und die Nutzung von Daten als Wettbe‐ werbsvorteil einzusetzen. Mittlerweile sind umfangreich Technologien und Infrastruktur verfügbar, um Daten besser und insbesondere strategisch zu nutzen - aber das Herumspielen mit ChatGPT, die Beschaffung von Cloud-Ressourcen, Business-Intelligence-Software und der Aufbau eines Data Lakes ermöglicht alleine keine dauerhaften Wettbewerbsvorteile. 16 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="17"?> Für viele Unternehmen, deren Strategie und deren Organisation, geht da‐ mit eine riesige Herausforderung einher: Um wettbewerbsfähig zu bleiben, müssen Unternehmen zumindest prüfen, ob datengetrieben aufgestellt und digital transformiert die Überlebensfähigkeit erhöht wird - unab‐ hängig von der damit verbundenen Implementierung einer neuen Strategie und einer neuen Organisation. Aber wie macht man das? Natürlich gibt es kein allgemeingültiges Re‐ zept, keinen einfachen Fahrplan und schon gar keine Business-Intelligence- Software oder Hardware, die ein Unternehmen von heute auf morgen zu einem datengetriebenen Unternehmen macht. Auch gibt es bisher keine einheitliche Definition, was ein datengetriebenes Unternehmen ist. Eine mögliche Beschreibung ist in → Abbildung 1 dargestellt: Eine Organisation, die wesentliche Entscheidungen und Aktivitäten auf Daten und Daten‐ analyse stützt und dafür notwendige Strukturen, Entscheidungsmodelle, Fähigkeiten und Rollen sowie Technologien etabliert (Brynjolfsson und McAfee 2014, Loebbecke und Picot 2015, Gupta und George 2016, Wamba et al. 2017, Müller et al. 2018, Pflaum und Klötzer 2019 und Mikalef et al. 2020). Oftmals werden darunter im engeren Sinne die Kombination mehrerer Elemente aus datengetriebenem Geschäftsmodell, Anwendung von Data Science/ Data Analytics und künstlicher Intelligenz sowie Umsetzung von datengetriebenen Innovationen verstanden (Hupperz et al. 2021). Entscheidungen Geschäftsmodell Innovationen Datenanalyse Entscheidungsmodelle Strukturen und Technologie Rollen und Fähigkeiten Organisation Daten datengetriebenes Unternehmen Abbildung 1: Datengetriebenes Unternehmen. Abbildung 1: Datengetriebenes Unternehmen 1.1 Wachstums- und Wettbewerbsmuster datengetriebener Unternehmen 17 <?page no="18"?> Ob damit - wie einige Unternehmensberatungen und Teile der Forschung gerade zu suggerieren scheinen - eine ‚Data-Driven-Everything‘-Aus‐ richtung der Unternehmen einhergeht, kann zumindest bezweifelt werden. Natürlich kann ‚datengetrieben‘ vor nahezu jede Organisationseinheit oder Initiative eines Unternehmens geschrieben werden - aber ‚datengetrieben‘ ist ein Querschnittsthema und erfordert eine umfassende (auch digitale) Transformation der Organisation (Warner und Wäger 2019 sowie Ellström et al. 2021). Allerdings lassen sich zumindest folgende Muster einer daten‐ getriebenen Organisation identifizieren: • In alle wesentlichen Entscheidungen, Transaktionen und Prozesse sind Daten eingebettet und werden nahezu in Echtzeit verarbeitet. Datenmanagement, Datenkonsistenz und Datensicherheit werden zu Wettbewerbsvorteilen in einem integrierten und unternehmensüber‐ greifenden Datenökosystem. Automatisierung wird auf datengetriebene (teil-)autonome Entscheidungen und Systeme ausgedehnt - das gilt natürlich in der Fertigung oder Produktion, aber auch im Rahmen von Marketing-Automation bei der Planung, Ausspielung und dem Control‐ ling von mehrkanaligen Marketingmaßnahmen. Damit werden Daten und Wissen in der Organisation zum Wettbewerbsvorteil, aber dieses Wissen entsteht teilweise durch maschinelles Lernen aus großen Datensätzen und konkurriert mit Bauchgefühl und Erfahrungswissen von Managern. • Datengetriebene Wettbewerbsvorteile werden in der vierten industrie‐ llen Revolution auf Konnektivität ausgeweitet, d. h. die Fähigkeit, sich selbstorganisiert und spontan mit neuen Elementen oder anderen Systemen zu kombinieren oder zu verbinden. Wesentlicher Treiber sind hier Datenformate, -kompatibilität und -standards, die Skalierung ermöglichen und Organisationen leistungsfähiger werden lassen. Die Unternehmensgrenzen gerade auch beim Austausch von Daten werden durchlässiger oder lösen sich auf. Sichtbar wird dies heute beispielsweise in Form von offengelegten IT-Architekturen, Blockchain-Technologie oder offenen APIs - und die gemeinsame Da‐ tennutzung und der Zugang zu Datenmärkten werden zu einem Wett‐ bewerbsvorteil. Zudem ist die notwendige Rechenleistung leistungsfä‐ higer KI-Systeme derart groß, dass KI-Unterstützung im Wesentlichen in der Cloud und damit außerhalb des Unternehmens stattfinden wird. 18 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="19"?> • In der Folge wird die Koordination über Unternehmen hinweg durch spontane Beziehungen von Mitarbeitern unterschiedlicher Un‐ ternehmen, Kunden und Dienstleistern noch stärker projekthaft stattfinden. Datenverfügbarkeit und -qualität werden hier das Binde‐ glied darstellen und die Effektivität und Effizienz der Koordination bestimmen. Daneben wird die Vielfalt der Mensch-Mensch, Mensch- Maschine und Maschine-Maschine-Beziehungen anwachsen - mit entsprechenden Herausforderungen für Datensicherheit und -Gover‐ nance, Kommunikation, Entscheidungen und Verantwortlichkeiten. Die für ein Unternehmen relevanten Daten entstehen dabei konventionell natürlich ‚im eigenen Unternehmen‘, aber künftig insbesondere in weit größerer Zahl außerhalb der eigenen Organisation durch Konnektivität: Hierunter zählen die in Deutschland häufig verkürzt mit der vierten indust‐ riellen Revolution gleichgesetzte Industrie 4.0 (oder Internet of Things), d. h. die autonome Kommunikation und Vernetzung von Geräten, Anwendungen oder Prozessen - insbesondere aber die Daten, die von Kunden direkt oder indirekt verursacht werden und genutzt werden können. Zweites großes Element ist die Blockchain-Technologie, die über verkettete dezentrale Buchführungsprozesse unternehmensübergreifend Datenströme auslöst. Drittens spielt die Einbindung nahezu beliebiger Daten exter‐ ner Quellen eine zunehmende Rolle: Daten aus dem makroökonomischen und technologischen Umfeld, aber auch Wetterdaten, politische oder sozio‐ demographische Entwicklungen und Daten aus Forschung, Nachrichten und Social Media. Die Beschaffung derartiger unternehmensexterner Daten kann insbeson‐ dere durch die Nutzung von externen Datenmärkten wie bspw. AWS Data Exchange, Microsoft Azure Marketplace, DataStreamX, Open Data Market oder Ocean Protocol erfolgen. Unternehmen erhalten damit im Wesentlichen Zugriff auf vier mögliche Wettbewerbsvorteile: • Datenzugang: Unternehmen können fehlende Daten ergänzen oder ihre eigenen Daten erweitern. Dies ermöglicht umfangreichere und vielfältigere Daten zu nutzen, um die Qualität der Datennutzung zu erhöhen und bessere Vorhersagen zu ermöglichen. • Datenmonetarisierung: Unternehmen können umgekehrt eigene Da‐ ten auf Datenmärkten verkaufen und daraus Erlöse generieren. Dies ist besonders relevant für Unternehmen, die große Mengen an internen 1.1 Wachstums- und Wettbewerbsmuster datengetriebener Unternehmen 19 <?page no="20"?> Daten generieren und erkennen, dass diese Daten für Dritte wertvoll sein können. • Partnerschaften und Zusammenarbeit: Datenmärkte ermöglichen es Unternehmen, Partnerschaften und Kooperationen mit anderen Or‐ ganisationen einzugehen. Durch den Austausch von Daten können Unternehmen gemeinsame Ziele erreichen, Synergien nutzen und von‐ einander lernen - insbesondere in Perspektive auf datengetriebene Innovationen. • Datenanalyse und Modellentwicklung: Durch den Zugriff auf ver‐ schiedene Datensätze auf dem Datenmarkt können Unternehmen fort‐ schrittliche Analysemethoden und KI-Algorithmen entwickeln und verbessern. Ein breiterer Zugang zu Daten ermöglicht es Unternehmen, genauere Modelle und Vorhersagen zu erstellen - um dann wiederum statt den Daten ggfs. Algorithmen und Analysemethoden in den Daten‐ märkten anzubieten. Die Herausforderung - egal ob Chance oder Risiko - ist damit, dass durch Daten- und Algorithmenstrategien bestehende Rollen und Aufgaben neu definiert und sortiert werden. Zudem werden die Unternehmensgrenzen po‐ röser und sowohl Prozesse als Organisation fluid. Wenn die hier beschriebe‐ nen Entwicklungslinien der Digitalisierung deutlicher hervortreten und sich ggf. wechselseitig verstärken, müssen sich also Grenzen, Organisation und Struktur von Unternehmen anpassen. Unternehmen sind damit gefordert, diese Entwicklungslinien insbesondere durch Unternehmensentwicklungs- und Innovationsinitiativen in Wettbewerbsvorteile zu übersetzen, um ihre Überlebensfähigkeit abzusichern oder weiterzuentwickeln - dies erfordert insbesondere neue dynamische Fähigkeiten zur digitalen Transforma‐ tion (Wamba et al. 2017, Warner und Wäger 2019, Ellström et al. 2021 sowie Bughin et al. 2019). Zur digitalen Transformation als fundamentalem Veränderungsprozess zur Nutzung digitaler Technologien und strategischen Neuausrichtung einer Organisation existiert aktuell allerdings noch eine Vielzahl an Stoßrichtungen (Gong und Rubiere 2021), im Übrigen ist der Startpunkt für alle Unternehmen natürlich unterschiedlich. Damit geht einher, dass kein allgemeingültiger Fahrplan zum Aufbau einer datengetrie‐ benen Organisation existiert. Zudem zeigen Studien, dass viele Unternehmen zwar auf dem Weg zu datengetriebenen Organisationen sind, aber oft weit davon entfernt, daraus höhere Erlöse oder Gewinne zu erzielen (Brynjolfsson und McElheran 2019 20 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="21"?> sowie Hagen und Hess 2020). Dean (2021) beschreibt an US-amerikanischen Unternehmen, dass in den Jahren 2019 bis 2021 die Intensität einiger Unter‐ nehmen hin zu einer datengetriebenen Organisation abgenommen hat, trotz oder wegen der Coronapandemie. Erfolgsfaktor scheint aber zu sein, dass ein datengetriebenes Unternehmen Produkte und Dienstleistungen für die Kunden in den Vordergrund stellt - statt wie oft suggeriert primär in Tech‐ nologie investiert und zahlreiche Datenanalysten einstellen. Ebenso ist die Logik eines datengetriebenen Unternehmens immer durch das Geschäfts‐ modell und mögliche Gewinne definiert, nicht durch Datenbanken oder Algorithmen. Dagegen ist das größte und schwierigste Hindernis oft die Unternehmenskultur und die fehlende Veränderungsbereitschaft in der Organisation (siehe auch → Kapitel 2 von Nataša Pavlović-Höck und Sonja Christa Köberlein). - Wachstumstreiber und verschwimmende Industriegrenzen Das Wachstum datengetriebener Unternehmen hat in den letzten zwei Jahrzehnten seit etwa 2005 oft eine Dynamik gezeigt, die davor unbekannt war. Ein Treiber für die teils exponentiellen Wachstumsraten ist, dass diese Unternehmen keine physischen Produkte, sondern digitale Produkte oder Dienstleistungen anbieten. Damit ist das Unternehmenswachstum weitgehend von einem sonst notwendigen Anstieg des Kapitaleinsatzes und der Mitarbeiterzahl entkoppelt: Airbnb muss nicht Grundstücke finden, Hotels bauen, Betten beschaffen und Servicepersonal einstellen, sondern lediglich digitale Infrastruktur zum Angebot von Räumen oder Wohnungen und für den Buchungs-, Bezahl- und Bewertungsprozess bereitstellen. Der wesentliche Wettbewerbsvorteil datengetriebener Unterneh‐ men ist, dass sie Daten strategisch einsetzen, um neue Geschäftsmodelle aufzubauen - z. B. um Netzwerkeffekte in digitalen Geschäftsmodellen zu ermöglichen. Netzwerkeffekte entstehen, wenn Kunden direkt oder indirekt einen höheren Nutzen haben, weil auch andere Kunden dasselbe Produkt oder dieselbe Dienstleistung nutzen. In vielen Geschäftsmodellen geben Kunden oder Nutzer freiwillig und kostenlos ihre Daten her, um Social Media wie TikTok oder Instagram zu nutzen, kostenlos Musik bei Spotify zu hören oder Videos bei YouTube zu sehen, ein Uber Ride zu bestellen, Betriebssysteme wie Android oder iOS zu verwenden oder Apps auf Smartphones zu nutzen. Diese oft durch Daten ermöglichte Netzwer‐ keffekte führen - wenn sie strategisch angewendet werden - zu schnell 1.1 Wachstums- und Wettbewerbsmuster datengetriebener Unternehmen 21 <?page no="22"?> skalierenden Geschäftsmodellen mit enormen Wachstumsraten, die als mehrseitige Plattformen oder digitale Ökosysteme oftmals dominante Marktpositionen besetzen. Die Geschäftsmodelle sind häufig digital - und der Erfolg der Unter‐ nehmen liegt oft datengetrieben in kostenbasierten Wettbewerbsvor‐ teilen. Wann immer digitale Daten gegenüber physischen Daten oder Produkten kostengünstiger genutzt werden können, entsteht ein Wettbe‐ werbsvorteil. Daten sind in den Geschäftsmodellen meist der Dreh- und Angelpunkt für die Realisierung von Economies of Scale und Economies of Scope: Je mehr und je unterschiedlicher die Daten sind, desto größer ist oft der Vorteil für die Unternehmen. Zudem sind die Grenzkosten der Daten und der Datenverarbeitung oft nahe Null, so dass weiteres Wachstum nahezu kostenlos möglich ist (Hirt und Wilmott 2014, Brynjolfsson und McAfee 2016 und Münter 2022). Daten sind dabei die unterste Stufe der oft verwendeten Informations‐ pyramide: Unstrukturierte oder nicht klassifizierte Daten werden durch Analyse und Aufbereitung zu Informationen, durch ein Verstehen der Informationen entsteht Wissen, welches dann zu Entscheidungen oder Handlungen führen kann. Aus ökonomischer Perspektive sind Daten damit Grundlage für intangible Fähigkeiten in Form von Wissen. In der Folge kann mit besserem Wissen bei gleichem Kapital- oder Arbeitseinsatz mehr pro‐ duziert werden, oder die Produktivität und Effizienz erhöht werden. Zudem entstehen aus der Zusammenführung unterschiedlicher Daten Synergien, und die Daten selbst verbrauchen sich bei Nutzung nicht, sind also skalierbar ähnlich einem Patent (Haskel and Westlake 2018). Die genannten digitalen Geschäftsmodelle erlauben insbesondere, dass Daten unterschiedlicher Unternehmensbereiche kombiniert werden kön‐ nen, um wechselseitig die Wettbewerbsfähigkeit von Produkten und Dienst‐ leistungen zu verbessern. So ist der Erfolg von Alphabet maßgeblich geprägt durch die wechselseitige Nutzung kundenspezifischer und individueller Daten aus den Suchanfragen bei Google, den Videos und Kommentaren bei YouTube, der Nutzung des Betriebssystems Android, den Lokationsda‐ ten in Maps, Bewertungen in Google Shopping und vielen anderen Apps und Diensten. Dies gilt sowohl nach innen in der Verbesserung der Entscheidungen von Alphabet zu Produktportfolio oder Kostenstruktur, aber genauso nach außen, beispielsweise durch die Möglichkeit, sehr präzise für Dritte personalisierte Werbung auszuspielen, bessere Vorschläge für das ‚Next Best Offer‘ im Onlineshopping zu machen oder schlicht die 22 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="23"?> richtige Musik- oder Video-Playlist ablaufen zu lassen. Aber genauso konnte Google mit dem Dienst Flu Trends durch Suchanfragen früher (wenn auch nicht immer perfekt) als Ärzte oder Pharmahersteller die Entstehung und Dynamik von Grippewellen erkennen - und nach der Akquisition von Fitbit kennt Google auch den Blutdruck und die Herzfrequenz einzelner Nutzer in Echtzeit. Die Analyse und ein Verständnis der Daten verbessern also die eigenen Produkte, helfen die eigene Effizienz zu steigern, und schaffen neue Erlösquellen und Geschäftsmodelle (Newell et al. 2020, Münter 2021, Teece und Linden 2017 sowie Duch-Brown et al. 2017). Zudem dringen datengetriebene Unternehmen immer stärker über Industriegrenzen hinweg und in andere Unternehmen ein und lösen durch ihre Ökosysteme traditionelle Wettbewerbssituationen auf. So hat im Februar 2023 Mercedes-Benz eine Partnerschaft mit Google ankündigt. Ziel ist, gemeinsam das Betriebssystem für Automobile weiterzuentwickeln und insbesondere mit Google-Daten zu füttern. Die Angst der Automobilherstel‐ ler, Google könnte selbst Autos herstellen, scheint also für den Moment unbegründet: Google dringt stattdessen datengetrieben in die Hersteller ein und partizipiert an den Profit-Pools der Automobilindustrie. Ein völlig an‐ deres Beispiel ist die Social-Media- und Karriereplattform LinkedIn - durch unmittelbare Kontaktmöglichkeit zwischen Unternehmen, derzeitigen und potenziellen Mitarbeitern sowie Headhuntern verändert sich die Logik des Arbeitsmarktes. In der Folge ändern sich Bewerbungsprozesse, die Rolle der Personalabteilung und damit das gesamte Ökosystem für Arbeitgeber und Arbeitnehmer - zudem werden traditionelle Stellenanzeigen und Jobportale immer weiter zurückgedrängt. In ähnlicher Weise wird projekthaftes, zeit‐ lich begrenztes Zusammenarbeiten über Plattformen wie Upwork und Fiverr oder als Mechanical Turk bei Amazon immer einfacher. - Wettbewerbspolitische Implikationen datengetriebener Geschäftsmodelle und Unternehmen Diese Entwicklungen haben natürlich nicht nur positive Effekte auf den Wettbewerb und nicht nur Vorteile für alle Marktteilnehmer. So können schnell wachsende digitale Geschäftsmodelle die sowohl bestehenden Kun‐ denbeziehungen wie auch die vorhandene Technologiebasis angreifen, disruptive Veränderungen in Märkten hervorrufen und etablierte Unter‐ nehmen verdrängen. Werden aber Unternehmen durch Innovationen oder Economies of Scale auf Basis der Daten immer verdrängt? Die Antwort 1.1 Wachstums- und Wettbewerbsmuster datengetriebener Unternehmen 23 <?page no="24"?> hängt vom Geschäftsmodell und der Anpassungsfähigkeit jedes einzelnen Unternehmens ab. Einerseits entstehen Größenvorteile aus Daten, ande‐ rerseits entstehen viele Chancen für innovative Markteintritte von Start-ups mit neuen Geschäftsmodellen. Kleine und mittlere Unternehmen können daher durch datengetriebene Innovationen entweder eigene neue Geschäftsmodelle etablieren oder aber Unternehmensgrenzen anpassen und sich in neu entstehende Ökosysteme einbinden. In den letzten Jahren haben Unternehmen, Wissenschaft, aber gerade auch politische Institutionen und Wettbewerbsbehörden versucht, die Aus‐ wirkungen von Daten insbesondere in digitalen Märkten und auf Wettbe‐ werb generell besser zu verstehen (Stucke und Grunes 2016, Lambrecht und Tucker 2017, Haucap 2018, Pino 2022 sowie de Reuver et al. 2022). Dabei zeichnen sich zumindest drei grundlegende Muster ab: • Wenn Unternehmen individuell Daten ohne strategische Interaktionen und damit unabhängig voneinander sammeln oder nutzen, wirkt sich stärkere Datennutzung meist wettbewerbsfördernd aus - neue Angebote entstehen, die Kunden profitieren von Innovationen und Preise sind niedrig. Allerdings entstehen genau hier oft Anreize für übermäßige Datensammlung oder Datennutzung, die zu möglichen Verletzungen von Datenschutz führen und damit zum Nachteil der Kunden sind oder sogar gegen bestehende Gesetze verstossen. • Unternehmen, die Daten aus Transaktionen und Interaktionen mit den Kunden gewinnen, diese aber strategisch über Netzwerkeffekte nutz‐ bar machen und monetarisieren, können rasch marktbeherrschende Stellungen einnehmen und damit den Wettbewerb beschränken. In der Folge können dominante Marktstellungen Innovationen reduzieren, zu Beschränkungen von Qualität führen oder Lock-in-Effekte auslösen - Kunden sind über ihre Daten an bestimmte Technologien oder Öko‐ systeme gebunden. • Schließlich können Unternehmen als Datenintermediäre oder über Plattformen Daten einsetzen, um den Wettbewerb in nachgelagerten Wertschöpfungsstufen oder anderen Industrien abzuschwächen und so Marktmacht zur Durchsetzung höherer Preise oder Beeinflussung anderer strategischer Parameter einzusetzen - bis hin zur Einfluss‐ nahme auf Wahlergebnisse oder in der manipulativen Beeinflussung von gesellschaftlicher und individueller Wahrnehmung durch Berichterstattung und Social Media. 24 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="25"?> - Confidential - Abbildung 2: Wachstumstreiber datengetriebener Geschäftsmodelle. Skalierbarkeit durch economies of scale and scope intangible Fähigkeiten in Form von Wissen Grenzkosten nahe Null Komplementarität und Substituierbarkeit Marktrisiken ökonomische Treiber für Datennutzung Marktchancen übermäßige Datensammlung marktbeherrschende Stellungen Beeinflussung von gesellschaftlicher und individueller Wahrnehmung Innovationen und Markteintritte Effizienz-/ Kostenvorteile Aufbau neuer Geschäftsmodelle und mehrseitiger Märkte Abbildung 2: Wachstumstreiber datengetriebener Geschäftsmodelle Alle drei Entwicklungen bedeuten Handlungsbedarf auf wettbewerbs- oder wirtschaftspolitischer Ebene. Überlagert werden alle drei Themen von der Frage, ob Kunden oder Unternehmen bewusst und freiwillig ihre Daten preisgeben, oder ob dies unbewusst und/ oder unfreiwillig passiert. Aufgrund der oft zu beobachtenden Marktkonzentration in datengetriebe‐ nen Geschäftsmodellen und dem möglichen Missbrauch von Marktmacht haben sich in den letzten Jahren Gesetzgeber und Wettbewerbsbehörden verstärkt der Schaffung eines wettbewerbsfördernden Ordnungsrahmens - beispielsweise der Datenschutzgrundverordnung DSGVO, des Digital Market Acts DMA und des Digital Service Acts DSA in der Europäischen Union - gewidmet. Ziel ist hier, einen sicheren digitalen Raum zu schaffen, in dem die Grundrechte aller Nutzer digitaler Dienste geschützt und gleiche Wett‐ bewerbsbedingungen zur Förderung von Innovation, Wachstum und Wettbewerbsfähigkeit erreicht werden. Zudem strebt die EU-Kommission durch den Data Act DA an, dass gerade kleinen und mittleren Unternehmen Zugang zu anonymisierten Daten großer Plattformen ermöglicht wird. Hiermit würden sowohl datengetriebene Innovationen, das Training un‐ ternehmensspezifischer Algorithmen als auch unternehmensübergreifende Zusammenarbeit unterstützt werden - und damit die Wettbewerbsfähigkeit der Unternehmen. Im Sommer 2023 hat die EU-Kommission erste Vorschläge für den Ar‐ tificial Intelligence Act AIA diskutiert, der eine Risikoklassifikation (inak‐ 1.1 Wachstums- und Wettbewerbsmuster datengetriebener Unternehmen 25 <?page no="26"?> zeptables Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko) von KI-Lösungen vorschreiben wird. Der Vorschlag der EU-Kommission fällt zeitlich zusammen mit Warnungen führender KI-Unternehmen und Entwicklern zu Gefahren, die von künstlicher Intelligenz ausgehen können. Die Regulierung zielt auf alle Anwendungen, die Inhalte, Vorhersagen oder Empfehlungen zur Entscheidungsunterstützung von Nutzern beeinflussen. Anwendungen und Systeme, die ein inakzeptables Risiko darstellen, wie z. B. staatlich betriebene soziale Bewertungssysteme, werden generell ver‐ boten. Anwendungen mit hohem Risiko, wie z. B. automatisierte Tools zum Scannen von Bewerbungen, die eine Rangfolge von Bewerbern ermöglichen, werden genehmigungspflichtig. In Anbetracht der Dynamik der Digitalisierung und Datennutzung ist aber zu erwarten, dass in den kommenden Jahren wiederholt Anpassungen vorgenommen werden müssen, um Wettbewerb in digitalen Märkten auf‐ rechtzuerhalten und zu fördern. 1.2 Big Data, Entscheidungen in Unternehmen und Wettbewerbsvorteile Wie viele Daten existieren gerade? Die Schätzungen für das Jahr 2020 liegt bei etwa 40 Zetabyte (siehe → Kapitel 9 von Andreas Braun), für das Jahr 2025 bei 175 Zetabyte (IDC 2022) - ob die Zahlen stimmen, weiß niemand. Aber es besteht Konsens: Die Zahl wird größer und sie wird ex‐ ponentiell wachsen. Bis vor kurzem, in den 1970er-Jahren, waren Daten im Wesentlichen menschlichen Ursprungs (oft geschriebene Worte) oder haben Transaktionen beschrieben (Bilanzkennzahlen, Fußballergebnisse, Verträge etc.) und wurden meist analog auf Papier gespeichert. Mittlerweile entstehen Daten auch durch Datification. Jede Kommunikation, Transaktion oder Interaktion schafft Daten (für zahlreiche Beispiele siehe Mayer-Schönberger und Cukier 2013 sowie Newell und Marabelli 2015): Sensoren (an Maschinen, autonomen Fahrzeugen, Kameras, Smart Devices etc.) oder Algorithmen in digitalen Systemen (in Social Media Feeds, auf Shoppingplattformen etc.) sowie durch Machine-to-Machine-Kommunikation. Unabhängig davon sind die Daten jetzt weit überwiegend digital gespeichert, auf Festplatten und in Clouds, und können so schneller genutzt, übertragen oder transformiert werden. 26 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="27"?> Zudem sind natürlich viele Menschen bereit, mit Daten für die kosten‐ lose Nutzung von digitalen Dienstleistungen oder die Mitgliedschaft in Social-Media-Plattformen zu bezahlen - und damit wieder Daten durch das Herumdrücken und Wischen auf Smart Devices zu schaffen. Schätzungen von Cisco (2022) gehen davon aus, dass aktuell pro Tag beispielsweise 28 Petabyte aus Wearables, 4,5 Petabyte durch Google-Suchanfragen und etwa 2 Petabyte durch Uploads bei Instagram entstehen - in Summe etwa 460 Exabyte jeden Tag in 2022. Waren im Mittelalter die Daten noch in meist von Mönchen geführten Bibliotheken und Archiven nahezu umfassend zusammengefasst, so ist es mittlerweile unmöglich, alle Daten an einem Ort oder in einer Datenbank oder in einer Cloud zu speichern. Was bedeutet das? Bis vor kurzer Zeit konnte ein Unternehmen noch alle entscheidungsrelevanten Daten ‚im eigenen Haus‘ haben und abspeichern, in Ruhe und ausführlich analysieren und ggf. Monate oder Jahre später nochmals auf diese Daten zurückgreifen - künftig geht das nicht mehr. Unternehmen werden kleine Teile der Daten selbst erzeugen, besitzen und speichern. Der weit größere Teil wird in einem exponentiell anwachsenden Datenstrom nur im Moment der Entscheidung greifbar und/ oder relevant sein, danach aber weder vollständig dokumentiert noch im eigenen Zugriff abgespeichert sein. Die Kombinationen von schnell anwachsenden Daten - oft sehr vielen und vielfältigen und unstrukturierten und unscharfen Daten im Rah‐ men von Big Data - und die zunehmende Verfügbarkeit von Methoden aus den Bereichen Data Analytics und künstlicher Intelligenz (KI) wird die Zu‐ sammenarbeit von Menschen, von Organisationen und Unternehmen, und das Zusammenspiel mit Maschinen und Technologien verändern (Mayer- Schönberger und Cukier 2013). Wenn diese neuen Möglichkeiten richtig eingesetzt werden, können sie Kundenzufriedenheit und Kundenerlebnisse verbessern, Effizienz steigern und Kosten senken, und neue Erlösquellen und neue Geschäftsmodelle hervorbringen. - Datengetriebene Unternehmen oder KI-getriebene Unternehmen? In einigen Studien wird das datengetriebene Unternehmen als Zwischen‐ stufe auf der Entwicklung zum KI-getriebenen Unternehmen beschrieben. Betrachtet man bei aller Unschärfe der Messung die Adaption von Big Data und KI in deutschen Unternehmen, stehen wir noch am Anfang: 2021 nutzen 11 % der Unternehmen in Deutschland gezielt Big Data, nur 9 % setzen 1.2 Big Data, Entscheidungen in Unternehmen und Wettbewerbsvorteile 27 <?page no="28"?> künstliche Intelligenz ein - die Zuwächse fallen mit einem bzw. zwei Pro‐ zentpunkten seit 2020 vor dem Hintergrund der umfangreichen öffentlichen Diskussion zu beiden Themen eher gering aus (Bitkom Research 2021 und 2022). Allerdings gibt es eine mögliche, wenn auch nicht zwingende, Logik in der Reihenfolge des Einsatzes im Unternehmen: Künstliche Intelligenz ohne Daten ist wenig sinnvoll, verstärkte Datennutzung auch ohne weitentwickelte Data Analytics oder gar künstliche Intelligenz aber sehr wohl. Der erste Schritt ist damit häufig der Aufbau von Fähigkeiten rund um Daten und die Entwicklung einer Datenbasis, der zweite Schritt ist dann die Analyse der Daten mit ggf. zunächst einfachen Methoden, nach‐ folgend dann mit anspruchsvolleren KI-Methoden. Zudem sind mittlerweile leistungsfähige KI-Algorithmen für Deep Learning, Machine Learning oder Datenverarbeitung verfügbar (beispielsweise TensorFlow, Hadoop, Theano oder Spark) - der unternehmensspezifische Einsatz scheitert aber oft an der Datenbasis oder -verfügbarkeit. Insbesondere kleine und mittlere Unternehmen haben hier einen Wett‐ bewerbsnachteil: Im eigenen Umfeld sind oft nicht hinreichende Trai‐ ningsdaten für die Algorithmen vorhanden, die Nutzung von unterneh‐ mensexternen Trainingsdaten ist die Ausnahme. In der Folge entsteht ein Wettbewerbsvorteil für große Unternehmen und diejenigen Unternehmen, die früh anfangen, mit Daten zu lernen. Allerdings lässt sich die beschriebene Logik auch umkehren: Durch zahlreiche generative KI- Tools - zumindest in 2023 mit dem Hype rund um Dall-E, ChatGPT oder GitHub Copilot - können auch kleine und mittelständische Unternehmen ohne eigene Daten KI nutzen, natürlich auf Basis der Daten Dritter und damit in den meisten Fällen mit eingeschränktem unternehmensspezifischem Nutzen. - Was ist Big Data? Was aber genau ist Big Data und wo liegen die möglichen Wettbewerbsvor‐ teile? Unter Big Data werden große und komplexe Datensätze aus sehr unterschiedlichen Quellen innerhalb und außerhalb des Unternehmens, die schwach- oder unstrukturiert sind und schnell oder sogar exponentiell anwachsen, verstanden. Big Data wird in einer ersten Annäherung oft durch die vier (manchmal auch fünf oder sechs) großen Vs beschrieben (siehe auch Mayer-Schönberger und Cukier 2013 sowie Newell et al. 2020): 28 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="29"?> • Volume (Umfang) beschreibt die riesigen Datenmengen, mit denen Unternehmen täglich umgehen müssen. Diese Daten entstehen teilweise im eigenen Unternehmen, aber zu weit größerem Teil außerhalb des Unternehmens. So liefern vernetzte Produktionsanlagen, Smart Devices oder Social-Media-Plattformen einen nahezu unendlichen Datenstrom. Zudem sind nahezu beliebige Daten im Markt verfügbar - alle digitalen Plattformen und Tech-Dienstleister, die Produkte und Lösungen kosten‐ los anbieten, erzielen wesentliche Erlöse aus der Weitergabe von Daten. • Velocity (Geschwindigkeit) beschreibt, dass Daten mit großer Dynamik entstehen - aber auch oft in Echtzeit verarbeitet werden müssen. Dies gilt einerseits natürlich für erwartete Daten aus unternehmensinternen Prozessen, aber insbesondere für unerwartete Daten aus der Interaktion mit Kunden. Die Erwartung der Kunden ist hier, dass unmittelbar reagiert wird und schnell eine Transaktion abgeschlossen wird. Die Geschwindigkeit der Datenentstehung und deren Nutzung in Echtzeit bedeutet dabei, dass viele Daten als unsicher klassifiziert werden müssen - zwar sind Plausibilitätschecks oftmals möglich, aber viele Daten wei‐ sen nicht die Präzision oder Nachvollziehbarkeit auf, die bei ‚langsamen‘ Daten gegeben ist. • Variety (Vielfalt) bezieht sich auf die Verschiedenartigkeit einschließ‐ lich strukturierter, halbstrukturierter und unstrukturierter Daten, die Unternehmen verarbeiten und verstehen müssen. Unstrukturiertheit bedeutet hier, dass die Daten in verschiedenen Formaten - beispiels‐ weise Bilder, Sprache, Gerüche, Signale, Bewegungen oder Social Media Sentiments - vorliegen, vielleicht aber auch gar nicht klassifiziert oder zuordenbar sind. Damit geht einher, dass die Analyse-Tools auch mit sehr unterschiedlichen Datenstrukturen und -formaten umgehen müssen. • Veracity (Unsicherheit, Qualität und Verlässlichkeit der Daten) be‐ schreibt, dass Daten sich in Genauigkeit, Vertrauenswürdigkeit der Quelle oder Zuverlässigkeit der Daten unterscheiden. Zwar sind gut in‐ formierte Unternehmen per se weniger anfällig für Fake News oder Fake Data als schwach informierte Privatpersonen. Aber aufgrund der Vielfalt und des Umfangs vorhandener Daten müssen neue Analysemethoden insbesondere für unscharfe Daten entwickelt werden, insbesondere um wahre von unwahren Daten zu trennen. 1.2 Big Data, Entscheidungen in Unternehmen und Wettbewerbsvorteile 29 <?page no="30"?> - Confidential - Small Data Big Data Volume Velocity Variety Veracity Volume Velocity Variety Veracity … im Wesentlichen unternehmensinterne Daten … wachsender Anteil unternehmensexterner Daten Abbildung 3: Small Data versus Big Data. Abbildung 3: Small Data und Big Data Wo entstehen aber jetzt die Wettbewerbsvorteile? Big Data hilft, die Small Data (die Daten eines einzelnen Kunden oder eines bestimmten Vorfalls) besser zu kategorisieren und einzuschätzen und dann daraus Schlussfolge‐ rungen abzuleiten. Es werden individuelle Daten mit Mustern in Big Data zusammengeführt, um Vorhersagen zu entwickeln, die dann Entscheidungen unterstützen - und damit den Daten einen Wert geben, manchmal als das fünfte V mit Value bezeichnet. Damit ist allerdings nicht zwingend Kausalität verbunden: Big Data lässt Muster sichtbar werden, die bei stabilen Umweltbedingungen eine wahrscheinliche Entwicklung aufzeigen. So weiß Amazon nicht wirklich, was wir kaufen wollen, aber eine gute Vermutung reicht für den (experimentellen) Vorschlag eines ‚Next Best Offer‘ - und wenn wir kaufen, dann steigt der Erlös, wenn wir nicht kaufen, verbessern wir den Algorithmus. Wie Mayer-Schönberger und Cukier (2013) formuliert haben: Mehr Daten ist oft besser als bessere Daten. Andererseits gibt es Fälle, in denen Entscheidungen auf Basis von Small Data den Entscheidungen mit Big Data überlegen sind: Dies kann einmal der Fall sein, wenn die hohe Qualität und Exaktheit von Small Data durch Big Data verzerrt oder unsichtbar wird oder Strukturbrüche im Zeitablauf vorliegen - oder wenn durch Filterblaseneffekte oder Pfadabhängigkeiten die Entscheidungen nicht mehr individuell getroffen werden (Faraway und Augustin 2018 sowie Gigerenzer 2022). Big Data und blinde Korrelationen können hier dann völlig sinnlose Muster aufzeigen, die in der Regel zu schlechten oder falschen Entscheidungen führen. 30 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="31"?> Big Data, künstliche Intelligenz und Entscheidungen Entscheidungen werden in vielen Unternehmen natürlich heute schon auf Basis vorhandener Daten getroffen - aber, wie in → Abbildung 4 dargestellt, (1) oft werden Daten erst erhoben, wenn eine Entscheidung getroffen wer‐ den muss, (2) der überwiegende Teil der dann genutzten Daten ist unterneh‐ mensintern oder unternehmensspezifisch und (3) das als Erfahrungswissen getarnte Bauchgefühl von begrenzt rationalen Entscheidern dominiert die Entscheidungen. Big Data verändert alle drei Dimensionen: (1) Daten liegen vor und triggern Entscheidungen, (2) der überwiegende Teil der Daten ist unternehmensextern und nicht unternehmensspezifisch und (3) das Erfahrungswissen wird sukzessiv abgelöst durch Datenanalyse. Big Data können in Teilen mit üblichen Methoden analysiert werden. Zum Einsatz kommen alle Formen der Datenanalyse von einfachen Regres‐ sionen bis zu komplexerem Data Mining. Aber tatsächlich entstehen gerade aufgrund der Datenunschärfen auch neue Methoden: Big Data Analytics erstreckt sich darüber hinaus auf Methoden künstlicher Intelligenz. Künst‐ liche Intelligenz umfasst statistische und mathematische Algorith‐ men als Analyseverfahren (wie beispielsweise Machine Learning oder Deep Learning - für einen knappen Einblick in die Mathematik finden sich bei Buxmann und Schmidt 2019, Shah 2020 oder Ertel 2021 gute Einstiege), die selbständig aus Big Data lernen, mögliche Erklärungen entwickeln und Entscheidungsunterstützung bieten - oder ohne weiteren Eingriff eines Menschen eine Entscheidung treffen. Abbildung 4: Datengetriebene Entscheidungen. Modell 1 Modell 2 Formulierung von Entscheidungsbedarf situative Datensammlung Datenanalyse beeinflusst durch Entscheidungsbedarf Entscheidung entscheidungsunabhängige Datensammlung strategie-/ geschäftsmodellgetriebene Datenanalyse datengetriebene Entscheidungsoptionen Entscheidung C-Level Anfrage bereichs-/ unternehmensintern Silodenken getriebene Abstimmung unternehmensweit datengetriebene Abstimmung bereichs- und unternehmensübergreifend Abbildung 4: Datengetriebene Entscheidungen Im Kern stehen bei der Anwendung von datengetriebener künstlicher Intel‐ ligenz die Prozesse Mustererkennung (‚classification‘) und Vorhersage 1.2 Big Data, Entscheidungen in Unternehmen und Wettbewerbsvorteile 31 <?page no="32"?> (‚prediction‘), um auf Basis kausaler Erklärungen aus den Daten zunächst Entscheidungsoptionen und schließlich Entscheidungen abzuleiten (Pearl und Mackenzie 2018 sowie Spiegelhalter 2019). Der erste Schritt der Mus‐ tererkennung in der Form von überwachtem oder tiefem Lernen zielt auf die Einordnung einer Entscheidungssituation. Der zweite Schritt der Vorhersage nutzt den vermuteten kausalen Zusammenhang, um aus den Daten die künftige Entwicklung abzuleiten - und auf Basis dieser ‚wahr‐ scheinlichsten‘ Entwicklung dann einen Vorschlag für eine Entscheidung zu machen (weiterführend Brynjolfsson et al. 2017, Loebbecke und Picot 2015, Mihet und Philippon 2019, Currie et al. 2020 sowie Acemoglu und Restrepo 2018). Ob die Entwicklung unternehmerischer Entscheidungen ähnlich wie bei autonomem Fahren verlaufen wird - entlang einer fünfstufigen Klassifika‐ tion von assistiertem Entscheiden über geprüftes/ überwachtes Entscheiden bis hin zu letztlich vollständig autonomem Entscheiden - ist aktuell nicht abzusehen, aber unwahrscheinlich. Dagegen spricht einerseits die Kom‐ plexität gerade strategischer unternehmerischer Entscheidungen in nicht klar definierten Rahmenbedingungen (hier ist künstliche Intelli‐ genz zumindest aktuell oft überfordert), andererseits aber insbesondere der Gestaltungswille von Menschen. Dagegen kann aber datengetriebene Entscheidungsunterstützung helfen, menschliche Entscheidungen auf Basis begrenzter Rationalität zumindest mit einer ‚anderen Entscheidungsoption‘ zu konfrontieren - und vielleicht zu besseren Entscheidungen beizutragen (Camerer 2019 und weiterführend → Kapitel 4 von Patricia Kahr). Künstliche Intelligenz und Big Data werden also zum interaktiven Co- Piloten und entwickeln so Entscheidungsoptionen und Entscheidungsvor‐ schläge. Dieser künstliche Co-Pilot wird die Entscheidungen eines Men‐ schen zunächst beobachten, dann begleiten und schließlich Vorschläge für Entscheidungen unterbreiten. Bei repetitiven und risikolosen Entschei‐ dungen wird dann der Mensch immer häufiger die Entscheidung an die Maschine delegieren - und so vielleicht bessere Entscheidungen treffen. Brynjolfsson und McElheran (2016) untersuchen genau diese Frage: Wenn datengetriebene Entscheidungen bessere Entscheidungen sind, warum nut‐ zen dann nicht alle Unternehmen diesen Wettbewerbsvorteil? Tatsächlich zeigt sich, dass mehr und bessere Daten bessere Entscheidungen ermöglichen - aber nur für Unternehmen, deren Organisation, IT und Qualifikation der Mitarbeiter darauf ausgerichtet sind (weiterführend auch Wamba et al. 2017 und Müller et al. 2018). Zudem gilt dieser Zusammenhang 32 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="33"?> insbesondere für große Unternehmen, die dann aber deutliche Produktivi‐ tätssteigerungen realisieren können. In einer anderen Studie zeigen Bryn‐ jolfsson et al. (2011), dass datengetriebene Entscheidungen in Unternehmen auch zu signifikantem Anstieg der Profitabilität und des Unternehmenswer‐ tes führen. Eine Studie von McKinsey (Chui et al. 2023) prognostiziert gerade durch Nutzung generativer künstlicher Intelligenz erhebliche gesamtwirtschaft‐ liche Wachstumspotenziale. Bis 2040 scheint ein zusätzliches jährliches Wachstum der Arbeitsproduktivität von 0,1 % bis 0,6 % möglich, abhän‐ gig davon, wie schnell sich die Technologie durchsetzt und wie schnell notwendige Investitionen und Qualifikation der Mitarbeiter umgesetzt werden können. Kombiniert man generative KI mit anderen verfügbaren Technologien, könnte das Produktivitätswachstum sogar um 0,2 % bis 3,3 % jährlich anwachsen. Etwa 75 % dieses Produktivitätswachstums adressiert entsprechend der Studie von McKinsey vier Bereiche: Kundenmanagement, Marketing und Vertrieb, Softwareentwicklung sowie Forschung und Ent‐ wicklung. - Entscheidungen werden durch den Einsatz von Daten und künstlicher Intelligenz verbessert Vorschläge bei Netflix, Amazon oder Spotify, die Routenplanung im Navi‐ gationssystem oder die Identifikation von Spam-E-Mails kommen ohne menschliche Interaktion aus, aber auch viele unternehmerische Entschei‐ dungen der Produktionsplanung, Zuordnung von Mitarbeitern zu Service- Lines im Callcenter oder das Entdecken von Bilanzfehlern. Oft sind diese datengetriebenen und damit situativen Entscheidungen nicht per‐ fekt - aber sie sind meist besser als langfristig getroffene, aber einmalige Entscheidungen. Entsprechend ist die Entscheidungsunterstützung oft eher ein dynamisches Experiment mit Trial-and-Error: Aber ein Experiment, aus dem der Algorithmus lernen kann. Allerdings werden wirkliche strategische Entscheidungen zumindest aktuell noch nicht ersetzt. Zahlreiche Studien zeichnen aber die Entwick‐ lungslinie vor - insbesondere das Zusammenspiel gut ausgebildeter und erfahrener Mitarbeiter mit Daten und Algorithmen, oft als Human-inthe-Loop bezeichnet, ermöglicht überlegene Lösungen: Dies gilt für Ärzte in der Diagnostik, für Bankmitarbeiter bei der Kreditvergabe, und auch die Unternehmensberatung Bain hat angekündigt, die Klienten künftig 1.2 Big Data, Entscheidungen in Unternehmen und Wettbewerbsvorteile 33 <?page no="34"?> durch die KI-Lösung ChatGPT unterstützen zu lassen (bain.com/ vector-digi‐ tal/ partnerships-alliance-ecosystem/ openai-alliance). Die Rolle der künstli‐ chen Intelligenz im Zusammenspiel mit Daten ist dabei Mustererkennung, Prognose sowie Entwicklung von Entscheidungsoptionen - der Mensch bringt dann gesunden Menschenverstand in Form von Urteilsvermögen, Erfahrung, Kreativität, sozialer Intelligenz, Empathie und Emotionen ein. Schließlich wird aber durch diese Arbeitsteilung in Form eines Supervised Learning der Algorithmus verbessert: Er lernt aus der Auswahl, Bestätigung oder Korrektur durch den menschlichen Entscheider. Die größte Herausforderung bei Big Data lässt sich damit nicht einfach fassen: Ist es der Umgang mit schierer Datenmenge, sind es daten‐ schutzrechtliche Rahmenbedingungen, ist es die Fähigkeit mit unscharfen und unstrukturierten Daten umzugehen, ist es das Zusammenspiel von ‚Mensch und Maschine‘ - oder ist es schlicht die Verfügbarkeit von geeigne‐ ten Mitarbeitern und die Frage, wie die neue optimale Organisationsstruktur aussehen muss? - Wettbewerbsvorteile datengetriebener Unternehmen Was sind die typischen Annahmen oder Versprechen, aber mittlerweile auch Erfolgsgeschichten, wie und warum Unternehmen durch Big Data und eine stärkere Fokussierung auf Datenverwendung und -analyse Wettbewerbs‐ vorteile aufbauen können? In Studien finden sich vier robuste Befunde und Erfolgshebel (Brynjolfsson et al. 2011, Brynjolfsson und McElheran 2016, Pino 2022, Goldfarb und Tucker 2019, Buxmann und Schmidt 2019, Hagen und Hess 2020, Machado und DeLallo 2022 und Desai et al. 2022): • Verbesserte Entscheidungsfindung: Big Data liefert Unternehmen grundlegend über die große Menge an entscheidungsunterstützenden Informationen die Möglichkeit, schneller oder besser Entscheidungen zu treffen. Der Datenumfang erlaubt zunächst, die Entscheidungssitua‐ tion umfassender einzuschätzen. Daneben werden Pfadabhängigkeiten bisheriger Entscheidungen abgelöst. Es werden also nicht nur Daten herangezogen, welche die bisherigen Entscheidungen reflektieren (bei‐ spielsweise den Erfolg oder Misserfolg einer Marketingmaßnahme), sondern insbesondere Daten, die unabhängig von den bisherigen Ent‐ scheidungen sind. Dies kann insbesondere helfen, Entscheidungen auf Basis von begrenzt rationalem Verhalten oder Bauchgefühl von Entscheidern komplementär durch Nudging zu unterstützen; ebenso 34 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="35"?> können Abstimmungsprozesse in Organisationen stärker faktenbasiert werden. • Gesteigerte Effizienz: Daten und insbesondere digitale Daten verursa‐ chen geringere Kosten als ein gleichartiges physisches Produkt oder eine physische Dienstleistung. Aber Big Data hilft auch, Abläufe zu rationali‐ sieren und Prozesse zu automatisieren (oder ihnen selbst eine autonome Steuerung zu überlassen), um Effizienz zu erhöhen, Kosten zu senken oder Produktivität zu erhöhen. So ist die Suchmaschine Google aktuell schlicht allen Wettbewerbern wie Bing oder Yahoo überlegen, weil durch die Menge und Vielfalt an Daten deutlich geringere Durchschnittskosten je Suchanfrage entstehen. Produzierende Unternehmen setzen häufig auf Process Mining oder Robotic Process Automation, jeweils mit dem Ziel, in repetitiven Tätigkeiten oder Prozessen Muster zu erkennen, Steuerung und Ablauf der Prozesse zu verbessern, Fehler zu reduzieren und ggf. Prozessketten zu verkürzen oder zu stabilisieren. • Personalisierung, Individualisierung und verbesserte Customer Experience: Die Nutzung von Big Data unterstützt personalisierte Mar‐ ketingkampagnen, die zu mehr Kundenbindung und höherem Umsatz führen können (siehe auch → Kapitel 5 von Sven Deglow und Jörg Neumann sowie → Kapitel 6 von Rainer Volland und Joachim Stalph). Durch die tiefe und umfassende Analyse von Kundendaten können Un‐ ternehmen die Bedürfnisse und Vorlieben ihrer Kunden besser verstehen und Produkte und Dienstleistungen optimieren, entwickeln oder anbie‐ ten, die ihren Anforderungen entsprechen (next best offer). In gleicher Weise ermöglicht Big Data personalisierte Preissetzung und algorith‐ mengetriebene Preisdiskriminierung - hier wird aus dem Suchverhalten der Kunden, verwendeten Endgeräten, kundenspezifischen Daten und Kaufhistorie, den Likes und Dislikes aus Social-Media-Accounts eine kundenindividuelle Preissetzung mit deutlichen Gewinnsteigerungen möglich. • Aufbau neuer Geschäftsmodelle: Big Data kann zur Schaffung neuer Geschäftsmodelle und Einnahmequellen führen, die - siehe oben am Beispiel Uber - ohne Daten nicht funktionieren oder nicht existieren. Insbesondere können auf Basis von gesteigerter Effizienz und besserem Verständnis der Kundenwünsche Free- oder Freemium-Modelle (gene‐ rell kostenlose Lösungen oder kostenlose Basisprodukte) etabliert wer‐ den, die schnell Marktanteile gewinnen und nachfolgend in bepreiste oder Abo-Modelle überführt werden können. So ist zumindest ein 1.2 Big Data, Entscheidungen in Unternehmen und Wettbewerbsvorteile 35 <?page no="36"?> Teil des Erfolgs der Streaming-Anbieter ebenfalls auf datengetriebene Angebote und Personalisierung in Form von Vorschlägen oder Playlists zurückzuführen. Darüber hinaus kann jede Form der Datenanalyse oder der -bereitstellung an Dritte für zusätzliche Erlöse genutzt werden. Ins‐ besondere scheint aber, dass die Monetarisierung einer Datenstrategie genau dann gut funktioniert, wenn die Daten intern und extern als Produkt verstanden werden (weiterführend → Kapitel 13 von Dirk Werth, Victoria Schorr und Shari Alt). Ein Beispiel hierfür können digitale Zwillinge sein, die eine unmittelbare Kostenreduktion oder Erlössteigerung ermöglichen (siehe auch → Kapitel 10 von Jürgen Rahmel zu Metaverse). Ebenso können Daten als komplementäres Produkt die Leistungsfähigkeit anderer Produkte verbessern oder die Zahlungsbereitschaft oder Bindung der Kunden erhöhen. Wie sieht das heute konkret aus? Im Gesundheitswesen kann Big Data zur Verbesserung der Patientenbetreuung und -behandlung eingesetzt wer‐ den, indem übergreifende Patientendaten analysiert werden, um bessere Diagnostik und effektivere Behandlungspläne zu entwickeln. Retailer können Big Data nutzen, um die Bestandsverwaltung und die Effizienz der Lieferkette zu verbessern, sowie das Kundenerlebnis durch datengesteuertes Marketing und Empfehlungssysteme auf Basis von Microtargeting zu per‐ sonalisieren. Daten und Algorithmen werden genutzt zur automatisierten Preisbestimmung für Personal Pricing oder Dynamic Pricing, genauso wie für die Ausspielung von Marketingmaßnahmen durch Marketing-Automa‐ tion-Lösungen. Industrieunternehmen nutzen für die Zuordnung von Ressourcen und Kapazitäten in dezentralen Produktionsprozessen sowohl interne Daten, Daten der Zulieferer als auch frei verfügbare Daten aus der Unternehmensumwelt. Finanzdienstleister nutzen Big Data, um Fraud aufzudecken, das Risikomanagement zu verbessern und sich durch den Einsatz von prädiktiven Analysen und maschinellen Lernalgorithmen einen Wettbewerbsvorteil insbesondere in der Kreditvergabe und -management zu verschaffen. Onlineshops nutzen Big Data aus der Customer Journey für dynamische und (pseudo-)personalisierte Produktplatzierungen, um zielgruppengenau und wettbewerbsabhängig die Kaufwahrscheinlichkeit zu erhöhen. Versicherungen nutzen die Vielfalt der verfügbaren Daten, um Risiken besser zu klassifizieren - sei es durch Telematik in Fahrzeu‐ gen oder Smart Devices auf das Fahrverhalten zurückzuschließen, durch Smart Watches oder Fitnessarmbänder den Bewegungsradius und die Lauf‐ 36 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="37"?> geschwindigkeit zu erfassen oder durch Location-based-Data die Dauer des Aufenthaltes der Versicherten in der Boulderhalle zu erfassen. Überlagert werden diese vier oftmals verzahnten Hebel gerade im B2C- Umfeld von der Schwarmintelligenz (Martinez und Walton 2014): Die Ent‐ scheidungen vieler Unternehmen werden heute schon in Echtzeit durch das Verhalten der Kunden mitbeeinflusst - durch Verweildauern auf Websites, Likes oder Dislikes in Social Media, Bewertungen und Reviews von Produkten oder Erklärvideos auf YouTube. Datengetriebene Unternehmen delegieren also gewissermaßen Entscheidungen an Kunden und steigern so intern die Entscheidungseffizienz. 1.3 Herausforderungen und mögliche Strategien datengetriebener Unternehmen Aber natürlich sind diese Erfolgsgeschichten nur eine Seite der Medaille: Viele Unternehmen stehen vor der komplexen Herausforderung, die eigene Organisation und damit insbesondere die Mitarbeiter so aufzustellen, dass die Chancen und Möglichkeiten von Big Data und künstlicher Intelligenz auch genutzt werden können. Dies erfordert Investitionen in neue Tech‐ nologie, aber die unmittelbaren ökonomischen Effekte in den Business Cases der Unternehmen sind oft schwer zu greifen. Tatsächlich finden sich komplementäre Innovationen im Bereich der IT und Kommunikations‐ technologie in bestehenden Geschäftsmodellen oft nur deutlich verzögert in Produktivitätsfortschritt oder Effizienzsteigerung wieder. Diese Beobach‐ tung wird als ICT Productivity Paradox bezeichnet (Brynjolfsson und Hitt 2000, Syverson 2011 und Acemoglu et al. 2014) und gilt offenbar auch für Big Data und künstliche Intelligenz weiter (Bughin et al. 2017, Tambe 2014 sowie Bryjolfsson et al. 2019). Die Ursachen sind langfristige und aufwendige Adaptionsprozesse etablierter Unternehmen bei neuen Technologien und der komplementäre Charakter dieser technologischen Entwicklungen. Zahlreiche Unternehmen sehen die größten Herausforderungen auf dem Weg zu einer datengetriebenen Organisation aber nicht in der Technologie oder den notwendigen Investitionen, sondern beim Menschen: Unterneh‐ menskultur, etablierte Prozesse und auch Veränderungsresistenz und Angst von Mitarbeitern erschweren und verhindern die Umsetzung von neuen Geschäftsmodellen, Effizienzsteigerung oder schlicht den offenen Umgang mit Daten oder den Aufbau von Datenkompetenz. So zeigt die 1.3 Herausforderungen und mögliche Strategien datengetriebener Unternehmen 37 <?page no="38"?> jährliche Umfrage von Bean (2021): 92 % der C-Level Manager sehen die größeren Herausforderungen in den Bereichen Mensch, Kultur und Organisation, nur 8 % im Bereich Technologie. Zudem stellt die Suche nach geeigneten Mitarbeitern die Unternehmen vor große Herausforderungen. Einerseits sind die Fähigkeitsprofile nicht klar beschrieben und dynamisch, andererseits ist die Zahl der geeigneten Menschen am Arbeitsmarkt limi‐ tiert. In der Folge gibt es gerade rund um Big Data und künstliche Intelligenz einen tatsächlichen Kampf um Talente (Samek et al. 2021). Was sind aktuell die größten Herausforderungen der Unternehmen bei der Umsetzung von Datenstrategien und dazu passender Organisation und Entscheidungen? Aus zahlreichen Projekten und Studien ergeben sich folgende zentrale Baustellen, die in unterschiedlicher Intensität die Umsetzung oder den Erfolg der Transformation zu einem datengetriebenen Unternehmen behindern (Carillo et al. 2019, Bean 2021, Edquist et al. 2022, Ellström et al. 2021, Bartneck et al. 2021, Davenport und Bean 2023 sowie → Kapitel 3 von Annina Neumann und → Kapitel 4 von Patricia Kahr): • Unternehmenskultur, Rollenverständnis und Entscheidungen in der Organisation: In vielen Projekten und Organisationen leben Datenanalysten und Management heute in Parallelwelten. Die einen analysieren mit teils enormem Aufwand und Fähigkeiten die Daten sowie Modelle und liefern Erkenntnisse und Entscheidungsunterstüt‐ zung, die anderen entscheiden unabhängig davon. Die Ursache liegt in einer unzureichend integrierten Organisations- und Entscheidungs‐ struktur, zudem werden die Analysen oft nicht in geeigneter Weise visualisiert - Big Data lässt sich schlecht über Excel in ein PowerPoint- Schaubild zwängen. Zumindest in einer Übergangsphase scheint zu dem häufig das Verständnis für Geschäftsmodelle und Entscheidun‐ gen bei Datenanalysten schwach entwickelt - es geht oft nur um ausgefeilte Datenmodelle und ‚Insights‘, statt um ‚Actions‘ und rele‐ vante Handlungsempfehlungen - bei Entscheidern fehlt Kenntnis der Datenmodelle und der genutzten Daten. Beide Rollen müssen also viel stärker verzahnt werden und einen wechselseitigen Lernprozess starten, zudem muss sich ein unternehmensspezifisches Organisati‐ onsmodell und Unternehmenskultur entwickeln, die den Wert von datengetriebenen Entscheidungen nutzt. • Intransparenz der Daten, Verzerrung von Algorithmen und feh‐ lende Erklärbarkeit von Entscheidungen: Eine der größten Heraus‐ 38 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="39"?> forderungen bei künstlicher Intelligenz sind potenzielle Verzerrungen der Algorithmen (‚Biases‘) sowie die unklare Logik oder Gewichtung der genutzten Daten. Da verfügbare Daten aus der Vergangenheit oft als Trainingsdaten herangezogen werden, werden Muster der Vergan‐ genheit in die Zukunft fortgeschrieben - kritisch insbesondere bei allen Formen von Diskriminierung und Ungleichbehandlung, aber auch in der (unbeabsichtigten) Verstärkung der Effekte durch Algorithmen. Zahlreiche Unternehmen sehen nach einer Projektphase dann von der Implementierung ab, da Entscheidungen unvollständig erklärbar sind - selbst bei bereits implementierten Lösungen wird oft auf Basis von Bauchgefühl ‚gegen die Daten‘ entschieden. • Datenschutz, Datensicherheit und ethische Überlegungen: Die Sammlung und Nutzung großer Mengen personenbezogener Daten wirft oft erhebliche Bedenken hinsichtlich des Datenschutzes auf. Zu‐ dem besteht ein signifikantes Risiko von Datenschutzverletzungen, Reputationsschäden und Cyberangriffen. Die öffentliche und politische Diskussion zu Regulierung und ethischen Erwägungen im Zusammen‐ hang mit der Nutzung von Daten und KI, insbesondere Verzerrungen in Algorithmen betreffend, überträgt sich dabei oft in die unterneh‐ mensinterne Entscheidungsfindung. Daraus entstehen neue Fragen der Verantwortung und Haftung bei unternehmerischen Entscheidungen. • Reorganisation und Verdrängung von Arbeitsplätzen: Der ver‐ stärkte Einsatz von Daten, digitaler Automatisierung und KI führt immer wieder zu Ängsten vor Arbeitsplatzverlust oder Wegfall von Tätigkeiten. Zudem kann die Umsetzung einer Datenstrategie eine grundlegende Reorganisation des Unternehmens erfordern. Zwar ist volkswirtschaftlich mittelfristig davon auszugehen, dass durch daten‐ getriebene Geschäftsmodelle und verstärkte (komplementäre) Nutzung von Digitalisierung mehr Beschäftigung und höher qualifizierte Tätig‐ keiten entstehen, aber unternehmensspezifisch mag kurzfristig das Gegenteil richtig sein. Bereits jetzt denken Unternehmen über Stellenre‐ duktionen und Substitution durch Digitalisierung nach, genauso werden einzelne Unternehmen insgesamt durch digitale Transformation in ihrer Existenz bedroht (Brynjolfsson und Mitchell 2017, Yang 2022 sowie Dabrowska et al. 2022). Tatsächlich wird sich die Entwicklung womöglich an Tätigkeiten orientieren - neue Tätigkeiten entstehen, andere fallen weg oder werden durch neue Technologien und entspre‐ chende Kapitalakkumulation ersetzt. Daraus folgt dann ein Anstieg der 1.3 Herausforderungen und mögliche Strategien datengetriebener Unternehmen 39 <?page no="40"?> Produktivität, der wiederum höher qualifizierte und besser bezahlte Rollen ermöglicht (Acemoglu und Restrepo 2019). Damit wird aber jedes Unternehmen wettbewerbsgetrieben eine Transformation durchlaufen, die zu mehr Digitalisierung und Daten führt - entsprechend werden das Zusammenspiel von Fähigkeiten der Mitarbeiter und Technologie neu aufgestellt. • Technologische und organisatorische Herausforderungen so‐ wie Mitarbeiterqualifikation: Die Entwicklung und die Implemen‐ tierung von Daten-/ KI-Systemen sind oftmals komplex und techno‐ logisch anspruchsvoll, und Unternehmen verfügen möglicherweise nicht über die erforderlichen Fähigkeiten und Ressourcen, um diese Technologien effektiv einzusetzen. Zudem entsteht während der Transformation regelmäßig ein außerordentlicher Qualifizierungssowie Rekrutierungsbedarf. Beides ist aber gerade in der Übergangs‐ phase unvollständig spezifiziert und führt aufgrund von Risikoaver‐ sion und Unsicherheit zu langsamen und kleinen Schritten. Unterneh‐ men stecken hier regelmäßig nach einer ersten oft euphorischen Phase in organisatorischer Trägheit fest. • Spannungsfeld zwischen privater Datennutzung und Verhalten in der Organisation: Die Nutzung neuer Kommunikationstechnolo‐ gien oder Apps ermöglicht auch schnelleren Kundenkontakt oder ein‐ fachere Kommunikation. Allerdings überträgt sich privates Verhalten teilweise in geschäftliche Prozesse und Strukturen. So haben jüngst Un‐ ternehmen die WhatsApp-Kommunikation intern und mit Kunden un‐ tersagt (Mussler 2022), ebenso die generelle Nutzung bestimmter Apps auf geschäftlich genutzten Endgeräten (Spiegel Netzwelt 2023). Auch hier werden Organisationen lernen müssen, wie mit verschwimmenden Rollen der Zusammenarbeit und unschärfer werdenden Unternehmens‐ grenzen Daten- und Kundenschutz einerseits, aber auch Innovationen und Customer Experience andererseits realisiert werden können. Die Herausforderungen für die Unternehmen sind dabei natürlich durch Geschäftsmodelle und Industriezugehörigkeit geprägt, aber ganz wesent‐ lich durch die Unternehmensgröße mitbestimmt. Kleine und mittlere Un‐ ternehmen verfügen in der Regel nicht über die gleichen Ressourcen und vergleichbare Fähigkeiten und Qualifikation wie größere Unternehmen. Aber sie können Big Data insbesondere nutzen, um größenbedingte Wettbewerbsnachteile auszugleichen: Beispielsweise können cloudba‐ 40 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="41"?> sierte Datenanalyse-Tools und Algorithmen implementiert werden und Trainingsdaten zugekauft werden. Im Gegensatz dazu haben große Un‐ ternehmen zwar oft hinreichende Ressourcen und auch technologisches Wissen, aber möglicherweise Probleme mit der Integration großer Daten‐ mengen aus verschiedenen Quellen und Abstimmungs- und Koordinati‐ onsproblemen aufgrund der Größe und Komplexität der Unternehmens‐ organisation. - Strategie und Organisation für ein datengetriebenes Unternehmen Die Strategie eines datengetriebenen Unternehmens muss die Besonder‐ heiten von Daten gezielt in die Fähigkeiten eines Unternehmens überführen. Das Besondere an Daten ist, dass sie durch Nutzung nicht ver‐ braucht werden, innerhalb einer Organisation allen gehören (können), dass Komplexität der Daten Innovation hervorbringen kann und die Verwendung und Interpretation von Daten erklärt und verstanden werden müssen. Übergeordnet heißt das für Unternehmen, dass der Zugriff auf Daten wichtiger wird als das Eigentum an Daten: Es gibt also keine Daten mehr, die nur die Marketingabteilung hat und nutzt, sondern Daten werden unternehmensübergreifend Treiber für Entscheidungen - für viele Unter‐ nehmen und deren Organisation und Entscheidungsprozesse kommt das zumindest einem Paradigmenwechsel gleich. Insbesondere werden Daten künftig nicht mehr auf (mehrmalige) Nachfrage hin von einer Abteilung für eine andere Abteilung aufbereitet und bereitgestellt, sondern rollenbasierte Zugriffsrechte machen eine gemeinsame Nutzung unternehmensweiter Daten zu einem Wettbewerbsvorteil. Um eine übergreifende und integrative Daten- und damit auch Algorith‐ menstrategie zu entwickeln und erfolgreich zu implementieren, müssen Unternehmen ihre Organisation und die Prozesse in vielen Dimensionen verändern oder erneuern (Anderson 2015, Bartneck et al. 2021, Gigerenzer 2022, Gupta und George 2016, Hagen und Hess 2020 und Mikalef et al. 2020): • Konsistenz von Unternehmensstrategie, Digital- und Datenstra‐ tegie herstellen: Im ersten Schritt müssen Unternehmen klar die Ziele der Datenstrategie im Kontext der Unternehmensstrategie und des Geschäftsmodells festlegen, den Business Case der Datenstrategie, insbesondere aber auch die Regeln für den Umgang mit Daten. In Deutschland haben etwa 75 % der Unternehmen bereits eine Digita‐ lisierungsstrategie (Bitkom 2022). Die Herausforderung ist hier, den 1.3 Herausforderungen und mögliche Strategien datengetriebener Unternehmen 41 <?page no="42"?> Aktionsradius, ethische Grundsätze und die wesentlichen Hebel der Datenstrategie zu bestimmen: Beginnt man mit einzelnen Produkten oder Kundengruppen, sollen wesentlich Erlössteigerungen oder Kun‐ denbindung oder Kostensenkung erzielt werden? In der Regel zeigt sich, dass dann ein spielerischer und experimenteller Ansatz (Digital Data Sandboxes), idealerweise abteilungsübergreifend, am erfolgreichsten ist und den besten Startpunkt bietet. Unternehmen können in Nischen oder mit Neukunden neue Lösungen ausprobieren, und dann auch innerhalb der Organisation positive Sichtbarkeit und Veränderungsbereitschaft erzielen. Daneben scheint vielversprechend, Daten als Produkte und damit als (direkte oder indirekte) Erlös- oder Effizienztreiber zu identi‐ fizieren, zu verstehen und in der Unternehmenssteuerung zu verankern (siehe auch → Kapitel 7 von Kim Kordel und Lisa Weinzierl sowie → Kapitel 8 von Markus Gildenhard). • Unternehmenskultur, Organisation und Prozesse müssen Digita‐ lisierung unterstützen: Konsistent mit der Datenstrategie müssen Hierarchien, Entscheidungsbefugnisse und Rollenmodelle bestimmt werden - natürlich inklusive des Selbstverständnisses des Managements und dessen Entscheidungsprozesse. In vielen Organisationen gilt aller‐ dings, dass Daten eines Bereichs oder einer Abteilung ‚heilig‘ sind, man darf sie außerhalb weder sehen, geschweige denn verwenden. Entspre‐ chend den organisatorischen Silos existieren Datensilos. Unternehmen müssen funktionsübergreifende Teams bilden, die Wissen und Fähigkei‐ ten aus verschiedenen Unternehmensbereichen wie IT, Marketing und Produktentwicklung zusammenbringen, um die Daten- und Algorith‐ menstrategie umzusetzen, um nicht weiter in Datensilos oder Bereichs‐ denken gefangen zu sein. Im selben Atemzug müssen Unternehmen interne Prozesse überprüfen und verbessern, um sicherzustellen, dass sie mit der Daten- und Algorithmenstrategie übereinstimmen und die Implementierung neuer Technologien wirksam unterstützen können. Zudem muss das Management lernen, dass entscheidungsrelevante Daten nicht nur im Vorstand sichtbar werden und zusammenlaufen, sondern emergent in der Organisation hervortreten. Die Daten müssen proaktiv dort verfügbar sein, wo Entscheidungen getroffen werden. • Effektivität und Effizienz von Datenverwaltung, Daten-Gover‐ nance und Systemlandschaft aufbauen: Datengetriebene Unterneh‐ men sind nicht Technologie-getriebene Hard- und Software-Architek‐ turen. Aber um die Konsistenz der Daten aus unterschiedlichen internen 42 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="43"?> und externen Quellen zu gewährleisten, müssen die Unternehmen ihre Datenverwaltungssysteme homogenisieren oder zentralisieren und die Prozesse der Datenerfassung und -speicherung standardisieren. Unternehmen müssen ebenfalls eine Daten-Governance einrichten und das Risikomanagement weiterentwickeln, die Regeln und Verfahren für die Sammlung, die Nutzung und Zugriffsrechte sowie den Schutz von Daten unternehmensübergreifend etablieren. Schließlich müssen Unternehmen in neue Technologien und Infrastruktur investieren, um ihre Daten- und Algorithmenstrategie wirklich leben zu können, z. B. in Datenanalyseplattformen, Dashboards zur Visualisierung und Tools für maschinelles Lernen. Zudem ist eine Adaption von Daten- und Tech‐ nologiestandards oder der Beitritt zu Datenallianzen notwendig, um unternehmensübergreifend die Zusammenarbeit mit Daten zu skalieren (siehe auch → Kapitel 11 von Wolfgang Decker sowie → Kapitel 14 von Wolfgang Faisst und Markus Thomas Münter). • Qualifikation der Mitarbeiter sowie Aufklärung über Daten und Algorithmen aller Stakeholder verankern: Alle Mitarbeiter müssen die Bedeutung und Möglichkeiten von Daten und Algorithmen verste‐ hen. Um Veränderungsresistenz abzubauen, muss Wissensweitergabe und Dateninterpretation geübt und gelebt werden. Zentrale Bedeutung kommt hier erklärbarer künstlicher Intelligenz (Explainable AI) sowie Transparenz über verwendete Daten und Datenmodelle zu - ohne dieses gemeinsame Verständnis wird unternehmensintern sowohl die Implementierung erschwert als auch die Nutzung verkompliziert. Neben Schulungs- und Ausbildungsprogrammen für bestehende Mitarbeiter müssen neue Rollen im Data Science- und Algorithmenumfeld adäquat besetzt werden. In gleicher Weise müssen verständliche und vertrauens‐ bildende Informationen an Kunden weitergegeben werden, die signifi‐ kant über die rechtlich vorgeschriebenen Formate hinausgehen. Unter‐ nehmen müssen über alle datenbezogenen Themen eine kontinuierliche Kommunikation mit den Kunden entwickeln - die Notwendigkeit ergibt sich nicht nur aus datenschutzrechtlichen Gründen, sondern insbeson‐ dere aus einer aktuell großen Unkenntnis und ggf. Misstrauen gegen‐ über datengetriebenen Unternehmen. Schließlich müssen entsprechend alle externen Stakeholder proaktiv und vertrauensbildend informiert werden, seien es Datenschützer, Verbraucherschutz, Gewerkschaften oder potenzielle neue Mitarbeiter. 1.3 Herausforderungen und mögliche Strategien datengetriebener Unternehmen 43 <?page no="44"?> Die Entwicklung funktions- und unternehmensübergreifender Datenstra‐ tegien erfordert ein wirkliches Zusammenarbeiten der Bereiche und Abteilungen, Transparenz und die Bereitschaft zu kontinuierlichen Verbesserungen - mithin also dynamische Fähigkeiten der Organisation zu Change und Innovation. Insbesondere ist die Etablierung eines datenge‐ triebenen Unternehmens aber kein primäres IT-Projekt, sondern erfordert ein Neudenken der Kundenbeziehung, des Geschäftsmodells und einen neuen Zuschnitt der Unternehmensgrenzen. Auch empirisch zeigt sich in ersten Untersuchungen, dass Unternehmen insbesondere neue Fähigkei‐ ten, eine Beidhändigkeit oder Ambidexterität bei der explorativen und exploitativen Suche nach Einsatzmöglichkeiten von Big Data und KI-Methoden und eine Bereitschaft zu Experimenten benötigen, um mögliche Chancen zu ergreifen (Rialti et al. 2020 und die dort angeführten Studien). Erkenntnisse, die sich aus Big-Data-Analysen ergeben, müssen aber zielgerichtet und offen in der Organisation weitergegeben und nutzbar gemacht werden. Unternehmen müssen also insbesondere Silodenken und Hierarchien verändern. Unternehmen, denen es gelingt Big-Data-Fähigkei‐ ten und Analysen rasch in ihrer Organisation zu etablieren, werden in der Lage sein, Kunden und Wettbewerbsumfeld besser zu verstehen und entstehende Chancen frühzeitiger und präziser zu identifizieren. Ist eine Verankerung der Datenstrategie auf Managementebene not‐ wendig? Aus einer Studie von NewVantage Partners (2023) in 2022 mit 116 Unternehmen der Fortune 1000 in den USA ergibt sich zumindest für große Unternehmen ein eindeutiges Bild: Viele Unternehmen passen ihre Organisation an und schaffen auf Vorstandsebene Rollen, die sich auf Daten und Datenanalyse konzentrieren. So haben mittlerweile 83 % der Unternehmen einen Chief Data Officer (CDO) oder einen Chief Data and Analytics Officer (CDAO) etabliert. In den meisten Unternehmen werden hier Datenanalyse und künstliche Intelligenz als Querschnittsfunk‐ tion verstanden. Für 92 % der befragten Unternehmen wird durch diese Fokussierung eine Steigerung des Unternehmenswertes erreicht, 98 % erwarten, dass der Beitrag aus Datenanalyse und künstlicher Intelligenz weiter ansteigt, 88 % planen eine Steigerung der Investitionen im Bereich Daten und Analytik (siehe auch Davenport und Bean 2023). Für kleine und mittelständische Unternehmen sind dedizierte Datenrollen dagegen meist ineffizient. Hier muss Datenkompetenz horizontal etabliert werden, so dass knappe Datenressourcen unternehmensübergreifend genutzt werden können (siehe auch → Kapitel 12 von Torben Hügens). 44 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="45"?> Natürlich gibt es für keine dieser Dimensionen - Strategie, Organisation, IT, Mitarbeiter - eine einfache oder eine allgemeingültige Antwort. Viel‐ mehr wird die Umsetzung immer unternehmensspezifischer und durch das (künftige) Geschäftsmodell beeinflusst oder sogar bestimmt sein. Am Ende wird für viele Unternehmen eine Transformation der Organisationsstruk‐ tur, neue Stellen- und Rollenbeschreibungen und natürlich völlig neue Entscheidungswege stehen - einhergehend mit einer neuen Unterneh‐ menskultur und Vertrauenskultur. 1.4 Zusammenfassung Unternehmen werden sukzessiv versuchen, die oben beschriebenen Ent‐ wicklungslinien der Digitalisierung durch strategische Initiativen in Wettbe‐ werbsvorteile übersetzen, um ihre Überlebensfähigkeit in einer daten‐ getriebenen Welt abzusichern oder weiterzuentwickeln. Dies erfordert insbesondere neue dynamische Fähigkeiten zur digitalen Transformation - also dem Erkennen von Chancen, dem spielerischen Ausprobieren und dem Erneuern der Fähigkeiten der Mitarbeiter (Warner und Wäger 2019 sowie Bughin et al. 2019). Unternehmensseitig wird die stärkere Nutzung von Daten in der Regel zu einer Skalierung des Geschäftsmodells auf Basis von Netzwerkeffekten führen, für die Kunden entsteht durch Konvergenz von Lösungen und Personalisierung von Produkten und Dienstleistun‐ gen eine nahtlose Integration in Lebenssituationen und Nachfragemuster. Gerade Big Data bedingt dabei eine Öffnung der Unternehmensgrenzen. Das kollaborative Zusammenspiel in Ökosystemen und das Verschwimmen der Unternehmensgrenzen erfordert neue Organisationsstrukturen, neue Rollenmodelle (gerade im Zusammenspiel von Menschen und Daten) und einen neuen Umgang mit Unsicherheit und unscharfen Daten. In datengetriebenen Unternehmen werden drei Dimensionen im Entscheidungsprozess verändert: (1) Daten liegen per se und proaktiv vor und triggern Entscheidungen, (2) der überwiegende Teil der Daten ist unternehmensextern und nicht unternehmensspezifisch und (3) das Erfah‐ rungswissen wird sukzessive abgelöst durch Datenanalyse. In der Folge werden sich vor allem die Entscheidungsprozesse und die Transparenz über Entscheidungen in Organisationen verändern. Einerseits werden Entschei‐ dungen erheblich stärker auf Daten beruhen, andererseits wird dadurch die enorme Unsicherheit unternehmerischer Entscheidungen deutlicher 1.4 Zusammenfassung 45 <?page no="46"?> hervortreten. Dies wird in Organisationen natürlich transparent sein - und damit wiederum insbesondere für das Management eine neue Ebene der Erklärung und Kommunikation von Entscheidungen mit sich bringen, gerade wenn ‚gegen die Daten‘ entschieden wird (siehe auch → Kapitel 4 von Patricia Kahr). In einer datenlosen Welt kann das Management eines Unternehmens mit Intuition, Bauchgefühl und anekdotischem Erfah‐ rungswissen jede Entscheidung formen und verzerren - in einer datenge‐ triebenen Welt wird das nicht mehr gehen. Die Kombination von Daten, Algorithmen und menschlicher Entscheidungskompetenz wird in der Regel bessere Lösungen erbringen (McAfee und Brynjolfsson 2012). Zudem zeigt sich in empirischen Untersuchungen, dass die Fähigkeit mit Big Data und der Analyse der Daten umzugehen den Erfolg der Unternehmen positiv beeinflusst (Wamba et al. 2017 und Bajari et al. 2019). Zusammengenommen entsteht für die Unternehmen Handlungsnotwen‐ digkeit bei (1) digitaler Transformation (also der Umwandlung des bestehenden Geschäftsmodells, der Produkte und Prozesse und auch die Adaption neuer Technologien) sowie bei (2) datengetriebenen Innovati‐ onen betreffend neue Produkte, Prozesse und Geschäftsmodelle und (3) der Übersetzung in Strategie, Organisation und Entscheidungsmodelle. Alle drei Handlungsfelder sind eng verwoben, da einerseits Innovationen anderer Unternehmen die digitale Transformation antreiben, gleichzeitig aber gerade eigene Innovationen Wettbewerbsvorteile schaffen, welche den notwendigen Umfang digitaler Transformation im Bestandsgeschäft reduzieren helfen - und schließlich nur ein strategisch und organisato‐ risch richtig aufgestelltes Unternehmen damit Wettbewerbsvorteile erzielen kann. Natürlich werden nicht alle hier beschriebenen Effekte unmittelbar und für jedes Unternehmen sofort wirksam werden. Zunächst werden die Un‐ ternehmen intern ihre Datenkompetenz und Organisation neu aufstellen, dann zunehmend extern mit Kunden und Partnern die Dateninteraktion stärken. Parallel dazu werden neue Technologien etabliert und genutzt werden. Vieles wird Experimenten - wie oft bei innovativen neuen Möglich‐ keiten - gleichen, aber Unternehmen, die jetzt nicht mit dem Ausprobieren beginnen, werden sicher keine Wettbewerbsvorteile im Daten- und Algo‐ rithmenumfeld aufbauen. 46 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="47"?> 1.5 Literatur Acemoglu, D. und Restrepo, P., Artificial intelligence, automation, and work, in: Agrawal, A., Gans J. und Goldfarb, A. (Hrsg.), The economics of artificial intelligence, Chicago and London 2019, 197-236. Acemoglu, D. und Restrepo, P., The race between man and machine: implications of technology for growth, factor shares, and employment, American Economic Review, 2018, 108, 6, 1488-1542. Acemoglu, D., Dorn, D., Hanson, G. und Price, B., Return of the Solow paradox? IT, productivity, and employment in US manufacturing, American Economic Review, 2014, 104, 5, 394-399. Anderson, C.,-Creating a data-driven organization: Practical advice from the tren‐ ches, Sebastopol 2015. Bajari, P., Chernozhukov, V., Hortaçsu, A. und Suzuki, J., The impact of big data on firm performance: An empirical investigation, AEA Papers and Proceedings, 2019, 109, 33-37. Bartneck, C., Lütge, C., Wagner, A. und Welsh, S., An introduction to ethics in robotics and AI, New York 2021. Bean, R., Fail fast, learn faster, Hoboken 2021. Brynjolfsson, E. und Hitt, L.M., Beyond computation: information technology, organizational transformation and business performance, Journal of Economic Perspectives, 2000, 14, 4, 23-48. Brynjolfsson, E. und McAfee, A., The second machine age: Work, progress, and prosperity in a time of brilliant technologies, New York 2014. Brynjolfsson, E. und McElheran, K., Data in action: data-driven decision making and predictive analytics in US manufacturing, Rotman School of Management Working Paper, 2019, 3422397. Brynjolfsson, E. und McElheran, K., The rapid adoption of data-driven decisionmaking, American Economic Review, 2016, 106, 5, 133-139. Brynjolfsson, E. und Mitchell, T., What can machine learning do? Workforce implications, Science, 2017, 358 (6370), 1530-1534. Brynjolfsson, E., Hitt, L.M. und Kim, H.H., Strength in numbers: how does datadriven decision-making affect firm performance? , MIT Working Paper, 2011, SSRN 1819486. Brynjolfsson, E., Rock, D. und Syverson, C., Artificial intelligence and the modern productivity paradox, in: Agrawal, A., Gans J. und Goldfarb, A. (Hrsg.), The economics of artificial intelligence, Chicago and London 2019, 23-57. 1.5 Literatur 47 <?page no="48"?> Bughin, J., Hazan, E., Ramaswamy, S., Chui, M., Allas, T., Dahlström, M., Henke, N. und Trench, M., Artificial Intelligence: the next digital frontier, McKinsey Global Institute 2017. Buxmann, P. und Schmidt, H., Ökonomische Effekte künstlicher Intelligenz, in: Buxmann, P. und Schmidt, H. (Hrsg.), Künstliche Intelligenz, Berlin 2019, 21-37. Camerer, C.F., Artificial intelligence and behavioural economics, in: Agrawal, A., Gans J. und Goldfarb, A. (Hrsg.), The economics of artificial intelligence, Chicago and London 2019, 587-608. Carillo, K.D.A., Galy, N., Guthrie, C. und Vanhems, A., How to turn managers into data-driven decision makers: Measuring attitudes towards business analytics, Business Process Management Journal, 2019, 25(3), 553-578. Chui, M., Hazan, E., Roberts, R., Singla, A., Smaje, K., Sukharevsky, A., Yee, L. und Zemmel, R., The economic potential of generative AI, McKinsey Global Institute 2023. Cisco, Annual internet report, San Jose 2022. Currie, J., Kleven, H. und Zwiers, E., Technology and big data are changing economics: mining text to track methods, WP 26715, National Bureau of Economic Research, Cambridge 2020. Dabrowska, J., Almpanopoulou, A., Brem, A., Chesbrough, H., Cucino, V., Di Minin, A., Giones, F., Hakala, H., Marullo, C., Mortara, L., Mention, A.L., Nørskov, S., Nylund, P. A., Oddo, C.M., Radziwon, A., und Ritala, P., Digital transformation, for better or worse: a critical multi‐level research agenda, R&D Management, 2022, 52(5), 930-954. DalleMule, L. und Davenport, T.H., What is your data strategy? , Harvard Business Review, May-June 2017. Davenport, T.H. und Bean, R., Action and inaction on data, analytics and AI, MIT Sloan Management Review, January 2023. de Reuver, M., Ofe, H., Agahari, W., Abbas, A.E. und Zuiderwijk, A., The openness of data platforms: a research agenda, Proceedings of the 1st International Workshop on Data Economy, 2022, 34-41. Desai, V., Fountaine, T. und Rowshankish, K., A better way to put your data to work, Harvard Business Review, July-August 2022. Duch-Brown, N., Martens, B. und Mueller-Langer, F., The economics of ownership, access and trade in digital data, Digital Economy Working Paper 2017-01; JRC Technical Reports. Edquist, A., Grennan, L., Griffiths, S. und Rowshankish, K., Data ethics: what it means at what it takes, McKinsey, September 2022. 48 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="49"?> Ellström, D., Holtström, J., Berg, E. und Josefsson, C., Dynamic capabilities for digital transformation, Journal of Strategy and Management, 2021, 15(2), 272-286. Ertel, W. Grundkurs Künstliche Intelligenz: Eine praxisorientierte Einführung, 5. Auflage, Berlin 2021. Faraway, J.J. und Augustin, N.H., When small data beats big data, Statistics & Probability Letters, 2018, 136, 142-145. Gigerenzer, G., Klick, Gütersloh 2022. Goldfarb, A. und Tucker, C., Digital economics, Journal of Economic Literature, 2019, 57(1), 3-43. Gong, C. und Ribiere, V., Developing a unified definition of digital transformation, Technovation, 2021, 102, 102217. Gupta, M. und George, J. F., Toward the development of a big data analytics capability,-Information & Management, 2016,-53(8), 1049-1064. Hagen, J.A. und Hess, T., Linking big data and business: design parameters of datadriven organizations, AMCIS Americas Conference on Information Systems 2020. Haskel, J. und Westlake, S., Capitalism without capital, Princeton/ Oxford 2018. Haucap, J., Big Data aus wettbewerbs- und ordnungspolitischer Perspektive, DICE Ordnungspolitische Perspektiven, 2018, No. 96. Hirt, M. und Willmott, P., Strategic principles for competing in the digital age, McKinsey Quarterly, May 2014, 1-13. Hupperz, M.J., Gür, I., Möller, F. und Otto, B., What is a data-driven organization? , AMCIS Americas Conference on Information Systems 2021. IDC, The digitization of the world from edge to core, Framingham 2022. Lambrecht, A. und Tucker, C., Can big data protect a firm from competition, Competition Policy International Antitrust Chronicle, January 2017, 1-8. Loebbecke, C. und Picot, A., Reflections on societal and business model transforma‐ tion arising from digitization and big data analytics: a research agenda, Journal of Strategic Information Systems, 2015, 24, 3, 149-157. Machado, O. und DeLallo, D., How Lego plays with data, McKinsey, December 2022. Marr, B., Data-driven decision making: beware of the HIPPO effect! Forbes, 26. Oktober 2017. Martinez, M.G. und Walton, B., The wisdom of crowds: the potential of online communities as a tool for data analysis, Technovation, 2014, 34(4), 203-214. Mayer-Schönberger, V. und Cukier, K., Big Data: a revolution that will transform how we live, work, and think, Boston 2013. McAfee, A. und Brynjolfsson, E., Big data: the management revolution, Harvard Business Review October 2012. 1.5 Literatur 49 <?page no="50"?> Mihet, R. und Philippon, T., Disruptive innovation in business and finance in the digital world, International Finance Review, 2019, 20, 29-43. Mikalef, P., Krogstie, J., Pappas, I. O. und Pavlou, P., Exploring the relationship between big data analytics capability and competitive performance: The media‐ ting roles of dynamic and operational capabilities,-Information & Management, 2020,-57(2), 103-169. Müller, O., Fay, M. und vom Brocke, J., The effect of big data and analytics on firm performance: an econometric analysis considering industry characteristics, Journal of Management Information Systems, 2018, 35, 2, 488-509. Münter, M.T., Disruption und Innovationstransfer in der vierten industriellen Revolution - wie kann der Mittelstand die zweite Welle der Digitalisierung überleben? , in: Pfannstiel, M.A., Dautovic, A. (Hrsg.), Transferinnovationen und Innovationstransfer zwischen Wissenschaft und Wirtschaft, Wiesbaden 2023, 491-522. Münter, M.T., Disruption and dynamics of competitive advantage - A short survey on empirical patterns of entrepreneurial innovation and firm dynamics in the light of technological regimes, in: Ratten, V. (Hrsg.), Entrepreneurial connectivity - Network, innovation and strategy perspectives, Singapore 2021, 23-42. Münter, M.T., Microeconomics, competition and strategic behaviour, Tübingen 2022. Mussler, H., Banken müssen hohe Strafen wegen Whatsapp-Nutzung zahlen, FAZ, 28. September 2022. Newell, S. und Marabelli, M., Strategic opportunities (and challenges) of algorithmic decision-making: A call for action on the long-term societal effects of ‘datificati‐ on’, Journal of Strategic Information Systems, 2015, 24(1), 3-14. Newell, S., Morton, J., Marabelli, M. und Galliers, R., Managing digital innovation: a knowledge perspective, London 2020. NewVantage Partners, Data analytics and leadership - Annual executive survey, Boston 2023. Pearl, J. und Mackenzie, D., The book of why - the new science of cause and effect, New York 2018. Pflaum, A. und Klötzer, C., Von der Pipeline zur Plattform - strategische Implika‐ tionen für das Unternehmen, in: Becker, W., Eierle, B., Fliaster, A., Ivens, B., Leischnig, A, Pflaum, A. und Sucky, E. (Hrsg.), Geschäftsmodelle in der digitalen Welt, Wiesbaden 2019, 57-74. Pino, F., The microeconomics of data-a survey,-Journal of Industrial and Business Economics, 2022,-49(3), 635-665. 50 1 Big Data, Digitalisierung, Strategie und Organisation <?page no="51"?> Rialti, R., Marzi, G., Caputo, A. und Mayah, K.A., Achieving strategic flexibility in the era of big data: The importance of knowledge management and ambidexterity, Management Decision, 2020. Samek, L., Squicciarini M. und Cammeraat, E., The human capital behind AI: jobs and skills demand from online job postings, OECD Directorate for Science, Technology and Innovation, Paris 2021. Shah, C., A hands-on introduction to data science, Cambridge 2020. Spiegel Netzwelt, EU-Kommission verbannt TikTok von Diensthandys, 23. Februar 2023. Spiegelhalter, D., The art of statistics - learning from data, London 2019. Stucke, M.E. und Grunes, A.P., Big data and competition policy, Oxford 2016. Syverson, C., What determines productivity? , Journal of Economic Literature, 2011, 49, 2, 326-365. Tambe, P., Big data investment, skills, and firm value, Management Science, 2014, 60, 6, 1452-1469. Teece, D.J. und Linden, G., Business models, value capture, and the digital enterprise, Journal of organization design, 2017, 6, 1-14. Teece, D.J., Business models and dynamic capabilities, Long range planning, 2018, 51(1), 40-49. Wamba, S.F., Gunasekaran, A., Akter, S., Ren, S.J.F., Dubey, R. und Childe, S.J., Big data analytics and firm performance: effects of dynamic capabilities, Journal of Business Research, 2017, 70, 356-365. Warner, K.S.R. und Wäger, M., Building dynamic capabilities for digital transforma‐ tion: an ongoing process of strategic renewal, Long Range Planning, 2019, 52(3), 326-349. Yang, C.H., How artificial intelligence technology affects productivity and employ‐ ment: firm-level evidence from Taiwan, Research Policy, 2022, 51(6), 104536. 1.5 Literatur 51 <?page no="53"?> 2 Datenkultur als Katalysator für eine datengetriebene Organisation am Beispiel der Telekommunikationsbranche | von Nataša Pavlović-Höck und Sonja Christa Köberlein - Strategie oder Organisation als größere Herausforderung für Datenkultur? In einer Welt, die dynamischer, unsicherer und vielschichtiger ist als je zuvor, ist eine Entwicklung zu einer datengetriebenen Organisation zur zwingenden Notwendigkeit geworden. Für Unternehmen ist es unausweich‐ lich geworden, die steigenden Datenmengen effektiv zu nutzen. Diese Fähigkeiten haben sich zu einem Wettbewerbsfaktor entwickelt, den man im besten Fall zum Vorteil für sein eigenes Unternehmen nutzt, um Wert‐ schöpfungsprozesse zu optimieren, Kosten zu senken, neue Produkte und Dienstleistungen anzubieten oder neue Geschäftsmodelle zu entwickeln. Daher beschäftigen sich Unternehmen über alle Branchen hinweg damit, wie sie die notwendigen Voraussetzungen schaffen können, um im digitalen Zeitalter erfolgreich sein zu können. Laut einer aktuellen Studie zu CxO- Prioritäten im Jahr 2022 hat die Digitalisierung heute für 2/ 3 der Unterneh‐ men oberste Priorität, um ein stetiges mittel- und langfristiges Wachstum zu gewährleisten (Horváth 2022). Die Entwicklung zu einer datengetriebenen Organisation scheint daher nicht mehr nur ein mögliches Szenario zu sein, sondern eine zwingende Notwendigkeit. Doch obwohl die meisten CxOs die Macht der Daten erkannt haben, ist es für die meisten Unternehmen nach wie vor eine Herausforderung, daraus einen Wert zu schöpfen (Bean 2021). Der Weg zu einer datengetriebenen Organisation ist komplex und erfor‐ dert häufig ambivalente Fähigkeiten. Einerseits müssen die Unternehmen in der Lage sein, sich an Umweltveränderungen und unerwartete Situationen anzupassen, um Marktchancen zu erkennen und zu nutzen. Andererseits müssen sie die aktuellen Fähigkeiten und Abläufe nutzen, um die Stabilität zu sichern ( Jöhnk et al. 2020 sowie Nadkarni and Prügl 2021). Um ein datengesteuertes Unternehmen zu werden, muss eine digitale Strategie umgesetzt werden, die strategische Antworten sowie strukturelle und kul‐ turelle Veränderungen umfasst. Dabei ist Datenkultur mindestens genauso <?page no="54"?> relevant, wenn nicht sogar noch wichtiger. Denn ohne Berücksichtigung des Mindsets der Mitarbeitenden und der Prozesse begleitet durch Change- Management wird die beste Strategie nur schwer umgesetzt werden kön‐ nen, gemäß dem Grundsatz „Culture eats Strategy for breakfast“. Zudem müssen organisatorische Rahmenbedingungen geschaffen werden, welche die Prozesse und die Entscheidungsfindung durch Daten steuern. Durch die Erhöhung der Entscheidungsqualität auf Basis aktueller Daten und der daraus gewonnen Erkenntnisse kann die Performance eines Unternehmens besser gesteuert und langfristig gesteigert werden. Doch die unerlässliche Grundlage für eine datengetriebene Organisation ist eine Datenarchitek‐ tur, welche die Dateninfrastruktur stellt und die Verarbeitung größerer Datenmengen und Analysemöglichkeiten ermöglicht. Darüber hinaus sind Dateneigentum und -verwaltung oft unklar, es gibt keinen garantierten Zugang zu relevanten oder qualitativ hochwertigen Daten, es fehlt an den erforderlichen Fähigkeiten. Im Folgenden wird ein umfassendes Reifegradmodell vorgestellt, anhand dessen ein ganzheitlicher Blick auf datengetriebene Organisationen - oder solchen, die es werden wollen - gewonnen wird. Anhand eines Praxis‐ beispiels aus der Telekommunikationsbranche (TK-Branche) werden Herausforderungen und mögliche Vorgehensweisen skizziert, bevor das Thema Datenkultur als zentrales Thema vertieft wird. 2.1 Reifegradmodell datengetriebener Organisationen Ein datengetriebenes Unternehmen zu sein bedeutet, dass zum einen Ent‐ scheidungen auf Basis von Erkenntnissen aus Daten getroffen werden, als auch, dass Daten gezielt genutzt werden, um neue Services, Produkte und neue Geschäftsfelder zu erschließen. Ziel ist es, bessere und fundiertere Entscheidungen zu treffen, um dadurch die Wettbewerbsfähigkeit des Un‐ ternehmens zu steigern (Rashedi et al. 2022). Beispielsweise erkennt ein TK- Unternehmen auf Basis der Nutzungsdaten seiner Kunden, welches weitere Produkt oder Service relevant sein könnte, und bietet dies individuellen Kunden an. Die ganzheitliche Nutzung von Daten und Datenorientierung eines Unternehmens bestimmt maßgeblich den Reifegrad einer datengetrie‐ benen Organisation. Das Reifegradmodell schafft Transparenz darüber, wie datenorientiert ein Unternehmen ist. In Projekten wird das Reifegrad‐ modell häufig zu Projektbeginn verwendet, um anhand von Best Practices 54 2 Datenkultur als Katalysator für eine datengetriebene Organisation <?page no="55"?> Lücken und Handlungsfelder zu identifizieren, um anschließend ein Zielbild entwickeln zu können. - Fünf Bausteine als Säulen für den Reifegrad einer datengetriebenen Organisation Das Reifegradmodell umfasst dabei fünf Dimensionen: Datenstrategie, datengetriebenes Target Operation Model (TOM), datenorientiertes Perfor‐ mance-Management, Datenarchitektur sowie -Governance und Datenkul‐ tur. Mit der Datenstrategie beantwortet ein Unternehmen, warum Daten gesammelt werden, was das Unternehmen mit den gesammelten Daten erreichen will und wie die Daten in die Entscheidungsfindung einbezogen werden. Angesichts der zunehmenden Datenmenge brauchen Unternehmen zunächst ein Zielbild und dann eine Strategie, um der Organisation eine Orientierung zu geben, wie sie ihre Ziele erreichen kann. Eine Datenstrate‐ gie könnte darin bestehen, dass ein Unternehmen Daten nutzen möchte, um ein besseres Verständnis der Kunden zu erlangen, um interne Prozesse zu optimieren und die Effizienz zu steigern, oder um seinen Kunden individuelle Empfehlungen und Services anbieten zu können, oder auch um die Erkenntnisse aus den Daten Dritten als Service anzubieten und so das eigene Geschäftsmodell zu erweitern. Bei Unternehmen, welche von Grund auf ein datenbasiertes Geschäftsmodell haben (z. B. Streaming- Dienste) ist die Datenstrategie von Anfang an ein integraler Bestandteil der Unternehmensstrategie. Bei „klassischen“ Geschäftsmodellen gilt es diese zunächst zu entwickeln und in die übergreifende Unternehmensstrategie einzubetten. Das datengetriebene Target Operating Model oder Betriebsmodell setzt die Strategievorgaben in eine optimierte Organisation um, um die Stra‐ tegie effizienter und effektiver umzusetzen und zu verwirklichen. Hierfür müssen Strategie und operative Prozesse zusammengeführt werden, identi‐ fiziert werden, welche Skills und Rollen notwendig sind und wie sich das auf den Ressourcenbedarf auswirkt. Das datengetriebene Betriebsmodell muss Datensammlung, -verarbeitung und -analyse über Organisationseinheiten hinweg ermöglichen, nicht nur technologisch, sondern auch prozessual und seitens der Governance. Klare Richtlinien legen fest, welche Prozesse und Entscheidungsprozesse automatisiert erfolgen und welche nach wie vor von Menschen auf Basis von Daten durchgeführt werden. Ebenso müssen geeignete Strukturmodelle definiert und integriert werden, um den 2.1 Reifegradmodell datengetriebener Organisationen 55 <?page no="56"?> richtigen Grad an Zentralisierung und organisatorischer Konsolidierung von datenorientierten Aufgaben zu gewährleisten und eine wettbewerbs‐ fähige Struktur zu definieren. „Digital Native“-Unternehmen sind eher in der Lage, die Operationalisierung von Daten zu integrieren, da ihre Geschäftsmodelle auf Daten basieren. Diese Unternehmen, wie z. B. Google oder Netflix, haben festgelegte Rollen hinsichtlich der Datenaktivitäten, die mit den Geschäftsaktivitäten verbunden sind. Daten werden End-to-End gedacht, d. h. der Datenstrom von der Datenerzeugung bis zur Datennutzung einschließlich der Speicherung und endgültigen Löschung der Daten wird operationalisiert. Das datengetriebene Performance-Management umfasst neben der Nutzung von Daten in der Steuerung die Anwendung fortschrittlicher Analysemethoden und Automatisierungsmöglichkeiten zur Verbesserung der Unternehmensleistung. Große Optimierungsmöglichkeiten durch da‐ tenbasierte Steuerung lassen sich häufig im Vertrieb finden. Als Haupt‐ verantwortlicher für Absatz und Umsatzgenerierung und als Bindeglied zwischen Unternehmen und Kunden ist es für den Vertrieb unerlässlich zu verstehen, welche Hebel zur Absatzsteuerung und -steigerung genutzt werden können. Dabei gehören neben der Definition von Ziel-KPIs zur Messung des Erfolgs die Nutzung einer einheitlichen Datenquelle und die Sammlung aller relevanten Daten wie z. B. Kundeninformationen und operative Vertriebsdaten. Durch die automatisierte Verarbeitung von Daten und Erstellung von automatisierten Sales Funnel Forecasts werden bessere und schnellere Entscheidungsgrundlagen geschaffen. Große Datenmengen können durch den Einsatz von Machine Learning problemlos verarbeitet werden und der Einsatz von Predictive Analytics unterstützt bei der sehr schnellen Erstellung von Szenarien, um Maßnahmen abzuleiten. Durch den Einsatz solcher modernen Methoden und Tools dauern solche Analysen nicht mehr tage- oder wochenlang, sondern erfolgen zum Teil sekunden‐ schnell. Diese Zeitersparnis ermöglicht die Fokussierung auf die Umsetzung von Verbesserungsmaßnahmen und kann damit auch zu einer Performance- Steigerung und Wettbewerbsvorteilen führen. Datenarchitektur und -Governance ist ein wesentlicher Bestandteil bei der Umsetzung der Datenstrategie. Um die Vorteile von automatisierter Datenverarbeitung, fortgeschrittener Analyseverfahren, künstlicher Intelli‐ genz und maschinellem Lernen nutzen zu können, müssen traditionelle Business-Intelligence-Strukturen modernen Datenarchitekturen weichen. Denn diese ermöglichen einen Umgang mit unstrukturierten Daten, großen 56 2 Datenkultur als Katalysator für eine datengetriebene Organisation <?page no="57"?> und wachsenden Datenmengen und passen sich verändernden Rahmenbe‐ dingungen an, wie z. B. neue Datenanforderungen. Damit ein Unternehmen unternehmensweit effektiv mit Daten arbeiten kann, müssen klare Rollen, Prozesse und Zugriffe definiert werden. Dies erfolgt in der Regel über eine Data Governance, diese regelt Entscheidungsrechte und Verantwort‐ lichkeiten für Verwaltung und Pflege von Daten. Neben der Definition von Rollen und Verantwortlichkeiten werden klare Prozesse festgelegt für die Handhabung aller Aspekte des Datenlebenszyklus. Dazu gehören alle Aspekte rund um das Hinzufügen, die Nutzung und die Anonymisierung von Daten wie Transparenz, Verfügbarkeit, Qualität und Sicherheit (Data Governance Institute 2023). Zudem muss die Datensicherheit sichergestellt werden. Dies umfasst beispielsweise Zugriffsrechte, Richtlinien und Verfah‐ ren zum Schutz der Daten vor unbefugtem Zugriff oder Missbrauch sowie die Einhaltung der einschlägigen Gesetze und Vorschriften zum Daten‐ schutz. Je mehr das Geschäftsmodell und die Steuerung eines Unternehmens auf Daten basieren, desto wichtiger ist eine solide Data Governance. Datenkultur bezieht sich auf alle Aspekte der Unternehmenskultur, welche den „richtigen Umgang“ mit Daten im Sinne der Datenvision und Datenstrategie sowie die nachhaltige Mehrwertgewinnung aus Datennut‐ zung fördern. Von ihr hängt es ab, ob die zuvor dargelegten Aspekte letztendlich in der Organisation verinnerlicht und gelebt werden. Daten‐ kultur umfasst nicht nur Werte, Einstellungen, Glaubenssätze, sondern manifestiert sich letztendlich in Verhaltensweisen, welche dann als Kultur wahrgenommen werden. Wie denken Mitarbeitende aller Hierarchieebenen über Daten selbst und wie gehen sie mit ihnen um? Sehen sie Daten als Informationsschatz für das Unternehmen? Tragen sie daher zu einer guten Datenqualität bei, wo auch immer sie können? Werden Daten - wo immer sinnvoll - als Grundlage für Entscheidungen, für neue Geschäftsmodelle und komfortablere Kundenerlebnisse genutzt? Insbesondere Netflix hat sich hier als Datenpionier im Bereich der Streaming-Dienste durch die konsequente Ausrichtung auf datenbasierte Entscheidungen und Geschäftsmodelle einen Namen gemacht (Netflix Research 2020). Erst wenn diese Aspekte in die DNA des Unternehmens übergehen, können Unternehmen wirklich daten‐ getrieben sein. An dieser Stelle sei erwähnt, dass der Begriff Data Literacy - wenn auch eng verwandt - nicht mit dem Begriff der Datenkultur gleichzusetzen ist, sondern sich auf die Fähigkeit im Umgang mit Daten konzentriert (Morrow 2021). Auch wenn Kompetenzen und Befähigung 2.1 Reifegradmodell datengetriebener Organisationen 57 <?page no="58"?> ein wichtiger Hebel sind, um die Datenkultur zu verbessern, greifen Data- Literacy-Programme zu kurz, um die Datenkultur zu verändern. Grundsätzlich zeigen sich fünf verschiedene Ausprägungsmöglichkeiten im Rahmen des Reifegradmodells, diese reichen von „Novice“ bis hin zu „Champion“. Die Reifegrade gelten für jede Dimension des Reifegradmodells einzeln, daher können Organisationen in den einzelnen Dimensionen unter‐ schiedliche Reifegrade aufweisen, wie im nachfolgenden Beispiel aufgezeigt wird. 2.2 Wie wird aus einem regionalen Telekommunikationsanbieter ein datengetriebenes Unternehmen? Im Folgenden wird eine praxisnahe Fallstudie aus der TK-Branche vorge‐ stellt. Auf Basis von Kundenprojekten werden Einblicke in typische He‐ rausforderungen und mögliche Lösungsansätze aufgezeigt. Dabei soll XTel repräsentativ für ein regionales TK-Unternehmen in Deutschland betrachtet werden, welches im B2C- und im B2B-Markt tätig ist und sowohl Festnetzals auch Mobilfunkprodukte anbietet. Ambitionierte Digitalisierungsziele und damit einhergehende Breit‐ bandausbauziele der Bundesregierung sowie die zunehmende Digitalisie‐ rung erhöhen den Druck auf TK-Anbieter. Auf der Kundenseite haben sich Erwartungen und Voraussetzungen für Konnektivität im privaten, aber noch mehr im Arbeits-/ Geschäftskontext verändert. Home-Office, Videotelefonie, Nutzung von privaten und geschäftlichen Applikationen aus der Cloud sowie digitale Geschäftsprozesse erfordern u. a. höheren Datendurchsatz, sichere Verbindungen, mehr Verfügbarkeit und damit erhöhte Anforderun‐ gen an die TK-Dienstleister. Zudem entsteht ein erhöhter Wettbewerbsdruck durch überregionale Glasfaserangebote und Angebote von OTT-Anbietern, sowohl im B2Bals auch im B2C-Markt. Das Wissen über aktuelle Markt- und Wettbewerbsentwicklungen, kundensegmentspezifische Affinitäten und Bedürfnisse sowie eine optimierte Aussteuerung aller Vertriebs- und Marketingaktivitäten werden zu kritischen Erfolgsfaktoren und erfordern eine solide Datengrundlage sowie Prozesse und technologische Lösungen, um Daten effektiv einzusetzen. 58 2 Datenkultur als Katalysator für eine datengetriebene Organisation <?page no="59"?> Ambitionsniveaus durch einen kontinuierlichen Prozess der Veränderung erreichen Die sich verändernden Markt- und Rahmenbedingungen hat XTel erkannt und das Thema Digitalisierung und datenorientiertes Arbeiten zur CEO- Agenda gemacht. Hierfür wurde für XTel ein Transformationsfahrplan entwickelt mit dem Ziel, eine datengetriebene Organisation zu werden. In einem ersten Schritt wurde der Status quo der XTel im Hinblick auf alle Dimensionen des Reifegradmodells erhoben, daraufhin wurde der Sollzustand in Form von Ambitionsniveaus pro Dimension definiert, wel‐ che in drei Jahren erreicht werden sollten. Je Dimension wurden dafür Workshops mit unterschiedlichen Teilnehmerkreisen durchgeführt. Diese umfassten die Führungskräfte der XTel, ausgewählte Fachexperten, Mitar‐ beitende, Kunden und externe Impulse in Form von Benchmarks. Zur Erreichung der Ambitionsniveaus wurde ein unternehmensweites Trans‐ formationsprogramm aufgesetzt, welches ein jährliches Budget erhält und entsprechende zugewiesene Ressourcen. Beides wird jährlich im Rahmen der Unternehmensplanung neu bewertet und festgelegt. Zudem bedient sich das Programm agiler Methoden, sodass notwendige Maßnahmen auf den einzelnen Dimensionen kontinuierlich entwickelt, bewertet und umgesetzt werden. Es obliegt dem Transformationsprogramm, die Priorisierung der Maßnahmen durchzuführen. Ein Überblick aller Dimensionen von Status quo und Ambitionsniveau der XTel sind auf Basis des Reifegradmodells in →-Abbildung 5 dargestellt. 2.2 Regionaler Kommunikationsanbieter wird datengetriebenes Unternehmen 59 <?page no="60"?> - Confidential - Abb. 5: Reifgrad-Darstellung für XTel - Bewertung des Status Quo sowie des Ambitionsniveaus Novice Explorer Adopters Leaders Champions Datenstrategie datengetriebenes TOM datengetriebenes Performance Management Datenarchitektur & Governance Datenkultur Status quo Ambitionsniveau Dimension Reifegrad Abbildung 5: Reifgrad-Darstellung für XTel - Bewertung des Status quo sowie des Ambiti‐ onsniveaus Im Nachfolgenden werden einzelne Maßnahmen als Beispiele herausgegrif‐ fen, welche im ersten Jahr bei XTel angegangen wurden. Eine Datenstrategie existierte bei XTel bereits in einzelnen Bereichen oder Projekten, doch mit der Ambition „Leader“ sollte zukünftig die Daten‐ strategie in Verbindung zu den Unternehmenszielen und der Unternehmens‐ strategie stehen und durch Daten gestützt werden. Hierfür sollten zunächst einzelne vielversprechende Use Cases umgesetzt werden. Der Fokus wurde zunächst auf die Bereiche Marketing und Vertrieb gelegt, da hier das größte Potenzial für die positive Wirkung auf den Geschäftserfolg identifiziert wurde und bereits teilweise mit Daten gearbeitet wurde. Auch auf der Dimension datengetriebenes TOM möchte sich XTel in Richtung „Leader“ entwickeln und damit sein Geschäftsmodell zukünftig zu einem Großteil auf Daten basieren lassen. In einem ersten Schritt wurde hierfür organisatorisch ein zentrales Datenteam aufgebaut, das als Serviceeinheit für Marketing und Vertrieb verstanden wurde. Zusammen wurden relevante Use Cases, wie z. B. intelligente Scoring-Modelle, um potenzialträchtigen Kunden relevante Angebote machen zu können, und At‐ tributionsmodelle entwickelt, um die Multi-Kanal-Steuerung zu optimieren. Neben den vielfältigen Analysen des Datenteams war es erfolgskritisch, die Analyseergebnisse zu visualisieren, hierdurch wurden das Verständnis und 60 2 Datenkultur als Katalysator für eine datengetriebene Organisation <?page no="61"?> die Akzeptanz erhöht. Im Bereich datengetriebene Performance-Steue‐ rung hat XTel sich die höchste Ambition („Champion“) gesetzt. Hintergrund war, dass durch eine integrierte Datenbereitstellung und Steuerung in Echt‐ zeit ein hohes Potenzial für Effizienzsteigerungen und Kosteneinsparungen gesehen wurden. Im Status quo fand beispielsweise Performance-Steuerung im Vertrieb häufig noch auf Basis von Vertriebsdaten in Excel statt und viele Vertriebsaktivitäten basierten noch auf subjektiven Einschätzungen und Erfahrungswerten. Daher sollten hier schnelle Analysen und Reports genutzt werden, um die Performance in den einzelnen Vertriebsregionen zu steigern und durch automatisierte Vertriebskanal-Forecasts gezielt und zeitnah Aktivitäten aussteuern zu können. Das Datenteam wurde zudem mit der Weiterentwicklung der Datengrundlage beauftragt, mit dem Ziel, eine moderne Datenarchitektur aufzubauen. Damit ging auch einher, die bisherige Data Governance weiterzuentwickeln und auf weitere Or‐ ganisationseinheiten v. a. Marketing und Vertrieb auszuweiten. In einem ersten Schritt wurde hierfür der Aufbau eines Datenkatalogs gestartet und zunächst auf ausgewählte Daten aus Vertrieb, Marketing und Technik fokussiert, um hier die Qualität und die Geschwindigkeit der Datennutzung zu erhöhen. Das dringlichste Handlungsfeld auf Basis der Reifegradanalyse wurde bei der Datenkultur identifiziert, da hier die Lücke zwischen Status quo („Novice“) und Ambitionsniveau („Leader“) am größten war. Datenge‐ triebenes Denken und Verhalten ist weder auf Führungsebene noch auf Mitarbeitenden-Ebene etabliert. Damit wurde deutlich, dass das Potenzial aus datengetriebenem Arbeiten nur ausgeschöpft werden kann, wenn die Denkweise und Kultur der Organisation darauf abgestimmt sind. Aus diesem Grund wurde ein flankierendes Change-Programm „Think Data - Think Xtel“ integriert, welches XTel durch konzentrierte Interventionen auf dem Weg zu einem Leader in Datenkultur begleiten soll. Im folgenden Kapitel wird daher dem Thema Datenkultur besondere Aufmerksamkeit geschenkt und Einblicke in mögliche Vorgehensweisen zur erfolgreichen Umsetzung gegeben. 2.3 Datenkultur gestalten - Hebel und Erfolgsfaktoren Der Kulturbegriff, egal ob Datenkultur oder Unternehmenskultur, hat für viele Menschen etwas Abstraktes oder gar Mystisches. Um Kultur zu 2.3 Datenkultur gestalten - Hebel und Erfolgsfaktoren 61 <?page no="62"?> verändern, gilt es sie greifbar zu machen. Zu diesem Zwecke werden ausgewählte Aspekte skizziert, an denen sich Datenkultur typischerweise manifestiert und die daher eine Schlüsselrolle für die Veränderung der Datenkultur einnehmen. Ein Ansatz wird vorgestellt, wie die Veränderung der Datenkultur, unter Berücksichtigung dieser Aspekte, ein Ansatz zur Veränderung eben dieser Aspekte wird. - Wie lässt sich Datenkultur greifbar machen? Wie weiter oben erläutert, beziehen wir den Begriff der Datenkultur kon‐ kret auf solche Verhaltensweisen, Einstellungen und Praktiken zum Umgang mit Daten, welche eine Organisation unterstützen, die Mehrwerte aus Daten zu generieren. Dazu gehören Aspekte wie Datenzugang, Datennutzung, Datenqualität und Datenverantwortung, um nur einige zu nennen. Das Entscheidende dabei ist, dass hier diese Begriffe aus Sicht der Datenkultur zu betrachten sind und diese vor allem auf das tatsächlich gelebte Verhalten und zentrale Einstellungen abzielen, weniger auf das Vorhandensein von Konzepten und Definitionen sowie deren Reifegrad. Wie genau dieser Unterschied zu verstehen ist und welche typischen Herausforderungen sich für die jeweiligen Unterdimensionen ergeben, soll am Beispiel der Datenverantwortung und der Datendemokratisierung erläutert werden und am Beispiel von XTel verdeutlicht werden. Am Beispiel Datenverantwortung bedeutet dies, dass es bei Datenkultur weniger darum geht, dass ein sogenannter Data Owner in einem System hinterlegt und damit formal benannt ist, sondern dass Daten Owner ihre Rolle verstehen und diese im Sinne der Datenstrategie ausüben oder dass andere Mitarbeitende die Rolle verstehen und wissen, wann der Data Owner zu konsultieren ist. Analog gilt dies für weitere Datenrollen wie Data Stewards. Bei XTel war die Rolle der Data Owner nicht ausreichend detailliert beschrieben und nicht von anderen Rollen abgegrenzt. Weder Stakeholdern noch Data Ownern selbst waren mit der Rolle ihre Verant‐ wortlichkeiten und Kompetenzen bekannt oder verstanden. Zwar war in einem IT-System ein Systemverantwortlicher pro Datenquelle hinterlegt, teilweise um einen Business Owner ergänzt. Letzteres Feld war oft leer oder erhielt bis zu 20 Personen, die schon längst nicht mehr aktuell waren oder bereits oft ihre Position gewechselt hatten. In der Praxis bedeutete dies für Analytics Use Cases als auch für andere Projekte, welche im Rahmen ihrer Vorhaben Freigaben der Data Owner benötigen, dass durch die notwendigen 62 2 Datenkultur als Katalysator für eine datengetriebene Organisation <?page no="63"?> Abstimmungsschleifen ein erheblicher Mehraufwand sowie Verzögerungen von mehreren Wochen bis Monaten entstehen. Eskalationswege über einen Chief Data Owner waren nicht etabliert, sodass Konflikte - sowohl bzgl. Zuständigkeit als auch Freigabebeschluss - über die vorhandene Gremien‐ strukturen entschieden werden mussten, was äußerst langwierig war. Unter Datenzugang fassen wir alle Aspekte des Teilens und Zugäng‐ lichmachens von Daten als Informationsquellen zusammen. Hier klaffen Definition und Realität sehr häufig auseinander, was kurz am Beispiel von Xtel erläutert werden soll. Hier hatte der CEO einige Monate vor Start des Programms einen Grundsatzbeschluss gefasst, dass alle Daten von Xtel von allen Mitarbeitenden genutzt werden können und sollen, um Mehrwert für Xtel zu generieren. Obwohl dieser Beschluss klar kommuniziert wurde, hatte er zu Beginn des Programms noch keine Wirkung entfaltet. Da nicht klar definiert wurde, wie sich die Datenverantwortung beim Teilen von Daten zwischen Datengeber und Datenempfänger verhält, blieb die Unsicherheit vorhanden. So wurden Datenfreigaben und -zugriffe nach wie vor mit pauschalen Verweisen auf Daten-Compliance verwehrt, auch wenn diese sachlich unbegründet waren (weil z. B. nur anonymisierte Daten verwendet werden sollten). Es war eine grundsätzliche Angst da, die Daten lieber nicht zu teilen, weil die Empfänger sonst falsche Schlüsse daraus ziehen könnten. Diese Beispiele lassen sich für die oben genannten Aspekte von Daten‐ kultur fortsetzen - sie alle eint die Diskrepanz zwischen offiziell definierten Rollen, Prozessen und Standards im Soll und der gelebten Kultur. - Welche Stellhebel verändern die Datenkultur? Wie gelingt es nun, den Umgang der Mitarbeitenden mit Daten zu verändern und die Kluft zwischen „erwünschtem Umgang“ zu „aktuellem Umgang“ zu schließen? Zum einen gilt es, die Mentalität, d. h. die Einstellung gegenüber Daten, Digitalisierung und künstlicher Intelligenz, zu adressieren und den Gedanken zu initiieren - im Sinne „Daten liefern Informationen für Xtel, aus denen wir als Mitarbeitende Mehrwert generieren können“. Zum anderen gilt es, die zuvor beschriebenen Aspekte, an denen sich Datenkultur manifestiert, anzupacken, da diese die Kultur und Mentalität beeinflussen. Dieses „Anpacken“ kann nur dann nachhaltig wirken, wenn ein klares Verständnis vorhanden ist, woran die „Kluft“ liegt. Bewährt hat sich hier der eingängige Ansatz der klassischen vier Change-Hebel: Mentalität, Vorbilder, Kompetenzen sowie Strukturen & Prozesse (Bosluk, Köberlein and Wolf, 2.3 Datenkultur gestalten - Hebel und Erfolgsfaktoren 63 <?page no="64"?> 2022). Für jeden Aspekt von Datenkultur gilt es herauszuarbeiten, welche Change-Hebel die höchste „Hebelwirkung“ haben, wenn man sie bearbeitet. Lag es an der fehlenden Mentalität und dem fehlenden Verständnis für die Relevanz ihres eigenen Beitrags für eine gelebte Datenstrategie? Liegt es daran, dass es zu wenige Vorbilder gibt, sei es auf Führungsebene oder durch Leuchtturm-Projekte? Liegt es an fehlenden Kompetenzen? Hier gilt es nicht nur an Data-Literacy- und Data-Analytics-Kompetenzen zu denken, sondern auch an die Qualifizierung ihrer eigenen Rolle und Verantwortlichkeiten beispielsweise als Datenverantwortliche oder Data Stewards. Oder könnten ungeeignete Strukturen und Prozesse eine Kultur‐ veränderung verhindern, da beispielsweise komplexe Prozesse den Blick auf den Mehrwert von Daten versperrt? Zurück z. B. bei XTel: Hier waren bei den Aspekten Datenverantwortung und Datenzugang alle vier Change-Hebel schwach ausgeprägt. Den Füh‐ rungskräften fehlte die notwendige Motivation, sich mit der Rolle auseinan‐ derzusetzen und die Mentalität war von klassischem Silo- und Besitzdenken und Kontrollverlustängsten geprägt. Es fehlte an Vorbildern innerhalb des Managements, die die Botschaft vermitteln, dass die Rolle des Data Owners einen wertvollen Beitrag beim Heben der Datenpotenziale spielt. Gleichzei‐ tig fungierten die Data Owner nicht als Vorbilder für Mitarbeitende. Ein Chief Data Officer war nicht etabliert. Gleichzeitig fühlten sich die meisten Data Owner nicht kompetent genug, relevante Entscheidungen zu treffen, und Beratungsexpertise auf der Compliance-Seite war nicht ausreichend im Unternehmen vorhanden. Durch die nicht augenscheinliche Zuordnung der Data Owner zu Daten-Assets sowie des manuellen Freigabeprozesses fehlte ein effizienter Prozess, was den Widerstand und die Demotivation bzgl. der Rolle erhöhte. In Bezug auf den Datenzugang waren alle Hebel schwach ausgeprägt mit einer Ausnahme: Die Ansage des CEOs strahlte eine starke Vorbildfunktion aus. Aufgrund unklarer Prozesse, Rollen und fehlender Wertschätzung der Data Owner konnte der Vorbilder-Hebel seine Wirkung nicht entfalten. Dies zeigt, wie wichtig es ist, eine komplette Analyse zu fahren, um eine sinnvolle Change-Journey unter Berücksichtigung aller Hebel zu designen. 64 2 Datenkultur als Katalysator für eine datengetriebene Organisation <?page no="65"?> - Confidential - Abb. 6: Auszug Change-Hebel-Analyse und Change-Maßnahmen am Beispiel von XTel Kommunikationskampagne, Mindset Sessions für gehobenes Management, Reverse Mentoring für TOP Management Data Compliance Training, Data Literacy Programm, Data Stewards-Training, Data Ethics for Data Scientists Digital Community Austausch, Multiplikatoren-Netzwerk Learning Nuggets Datenkatalog, Operationalisierung Datenrollen, Datenfreigabeprozess Qualifizierung & Kompetenzen Strukturen & Prozesse …… Datenethik Datenzugang gering gering Mentalität & Motivation Vorbilder & Führung gering mittel Maßnahmenauszug … Change-Hebel-Analyse Think Data - Think XTel Abbildung 6: Auszug Change-Hebel-Analyse und Change-Maßnahmen am Beispiel von XTel Auf Basis der Ergebnisse der Change-Hebel-Analyse wurden für unter Berücksichtigung aller Datenkultur-Aspekte ein auf XTel zugeschnittenes Change-Programm „Think Data - Think XTel“ aufgesetzt (→ Abbildung 6). Dabei gilt es immer, sich bewusst zu machen, dass diese nie linear verlaufen und immer systemisch zu betrachten sind. Daher gilt es neben passgenauen Aktivitäten auch eine Strategie zu haben, wie man die Wirkung dieser Aktivitäten über den Programmzeitlauf bewertet und wichtige Hinweise zum Nachjustieren liefert. Da dies ein zentraler Erfolgsfaktor für die Transformation bei XTel war, wird im nächsten Abschnitt skizziert, wie XTel vorging und dabei sogar „zwei Fliegen mit einer Klappe“ schlagen konnte. - Wie wurde die datenbasierte Change-Steuerung zum Erfolgsfaktor für XTel? Zum Abschluss dieses Kapitels soll noch ein Baustein des Change-Pro‐ gramms erläutert werden, der maßgeblich zum Erfolg beigetragen hat, nämlich eine datenbasierte Change-Steuerung. XTel hat sich hier für einen progressiven Ansatz entschieden, der Kulturveränderung nicht nur messbar, sondern auch erlebbar gemacht hat. Dazu wurden geeignete KPIs zur Er‐ fassung verschiedener Datenkulturaspekte ausgewählt. Zwar wurden auch 2.3 Datenkultur gestalten - Hebel und Erfolgsfaktoren 65 <?page no="66"?> KPIs berücksichtigt, welche sich auf Change-Aktivitäten selbst bezogen, z. B. „100 % der Belegschaft hat an Training X teilgenommen und den Abschlusstest bestanden“. Das Hauptaugenmerk lag aber auf Kennzahlen zur Erfassung der veränderten Kultur selbst, wie z. B. Dauer von Antrag bis Zugriff auf Daten, Anzahl Zugriffe unterschiedlicher User-IDs pro Bereich auf den Datenkatalog, um die Bekanntheit und Nutzung des neu eingeführten Datenkatalogs zu messen. Als weitere Quelle zur Messung der Datenkultur wurden alle Führungs‐ kräfte verpflichtend und die Mitarbeitenden freiwillig über einen standar‐ disierten Web-Fragebogen zu ihrer Wahrnehmung halbjährlich befragt. Die Ergebnisse wurden im Dashboard transparent im Intranet veröffentlicht. Sowohl die KPIs als auch die Befragungsergebnisse konnten so zur Fort‐ schrittsmessung der Datenkultur herangezogen werden. Nachdem vom CEO die klare Erwartung geäußert wurde, sich pro Jahr eine Reifegradstufe höher zu entwickeln, hat sich dank des Dashboards ein „freundlicher Wettbewerb“ zwischen den Bereichen etabliert. Dies war das erste unterneh‐ mensweit zugängliche Dashboard dieser Art, dies wurde durch verschiedene Learning Nuggets begleitet, z. B. wie Grafiken richtig zu interpretieren sind oder wie man mit dem Dashboard interagiert. Dies hat zur sprunghaften Zunahme von weiteren Dashboards im Unternehmen und der Akzeptanz für das Arbeiten mit Daten geführt. Für ein erfolgreiches Kulturprogramm gilt es, die Führungskräfte und Mitarbeitende partizipieren zu lassen und gleichzeitig durch eng aufeinander abgestimmte Aktionen (wie Change- Dashboard, Learning Nuggets, weitergehende Data-Literacy-Programme) eine ganzheitliche Change-Reise pro Stakeholder Gruppe zu gestalten, die auf die Bedürfnisse maßgeschneidert ist und gleichzeitig die Organisation nicht überfordert. 2.4 Zusammenfassung Die sich verändernden Markt- und Rahmenbedingungen in der TK-Branche erhöhen den Handlungsbedarf vor allem bei regionalen TK-Anbietern, sich schnell zu einer datengetriebenen Organisation zu entwickeln, um lang‐ fristig wettbewerbsfähig sein zu können. Wie kann diese Transformation nachhaltig gelingen? Indem man alle Dimensionen des Reifegradmodells im Blick hat, ein klares Verständnis, welches Ambitionsniveau für das Unter‐ 66 2 Datenkultur als Katalysator für eine datengetriebene Organisation <?page no="67"?> nehmen sowie die Unternehmensstrategie unabdingbar ist und konzentriert an den entscheidenden Dimensionen Maßnahmen ergreift. Dabei fungiert Datenkultur als der Katalysator zur Erreichung der Da‐ tenstrategie und der Transformation des Unternehmens. Beides kann nur erfolgreich verlaufen, wenn innerhalb der Organisation ein Bewusstsein für die Mehrwerte und die Wichtigkeit von datengetriebener Arbeit vorliegt. Die Transformation zu einem datengetriebenen Unternehmen gilt es als Change-Prozess zu etablieren, sodass am Ende das Unternehmen zusammen mit der Datenkultur „frühstückt“ und nicht von dieser verspeist wird. 2.5 Literatur Bean, R., Why is it so hard to become a data-driven company, 2021, hbr. org/ 2021/ 02/ why-is-it-so-hard-to-become-a-data-driven-company (Accessed: 1 March 2023). Bosluk, S., Köberlein, S. and Wolf, E., Erfolgsfaktor Change Management bei Projekten zur Neugestaltung von Planung und Forecast, Freiburg 2022. businesswire, NewVantage Partners Releases 2021 Big Data and AI Executive Survey: A Progress Report in the State of Corporate Data Initiatives, 2021, www.b usinesswire.com/ news/ home/ 20210104005022/ en/ NewVantage-Partners-Release s-2021-Big-Data-and-AI-Executive-Survey. Data Governance Institute, Governance and Decision-Making, 2023, Available at: https: / / datagovernance.com/ governance-and-decision-making/ (Accessed: 21 February 2023). Horváth (Hrsg.): Horváth Study „CxO Priorities 2022 - Managing overlapping crisis“, 2022, www.horvath-partners.com/ en/ media-center/ studies/ cxo-priorities -2022-managing-overlapping-crises. Jöhnk, J., Oesterle, S., Ollig, P. und Riedel, L.-N., The Complexity of Digital Trans‐ formation: Conceptualizing Multiple Concurrent Initiatives. 2020. Morrow, J., Be Data Literate: The Data Literacy Skills Everyone Needs to Succeed, London 2021. Nadkarni, S. und Prügl, R., Digital transformation: a review, synthesis and opportu‐ nities for future research, 2021, (71), Wiesbaden. Netflix Research, Analytics: Driving insights from data, 2020, research.netf‐ lix.com/ research-area/ analytics (Accessed: 9 March 2023). Rashedi, J., Greiner, R., Geuer, M. und Borlik, T., Das datengetriebene Unternehmen: Erfolgreiche Implementierung einer data-driven Organization, Wiesbaden 2022. 2.5 Literatur 67 <?page no="69"?> 3 Künstliche Intelligenz als Entscheidungsunterstützer - Potenziale und Risiken in Unternehmen | von Annina Neumann Bei der Beantwortung der Frage, wie Daten die Unternehmenswelt verän‐ dern, spielt künstliche Intelligenz (KI) eine zentrale Rolle. Schätzungen des weltweiten durch KI erzeugten Geschäftswertes bewegen sich bereits seit Jahren im Billionen-Bereich, Tendenz steigend (PwC 2017). Seit 2017 hat sich der Anteil der KI nutzenden Unternehmen laut McKinsey weltweit mehr als verdoppelt, auf 50 % in 2022 (McKinsey 2022) - wenngleich die Zahlen unterschiedlicher Studien deutlich auseinanderliegen. Die Einsatzgebiete von KI sind vielfältig, beliebte Anwendungsfälle kommen aus Bereichen wie Kun‐ denserviceoptimierung, Prozessautomatisierung oder Produktentwicklung. Jedoch haben die vergangenen Jahre auch gezeigt, dass durch KI erreichte Profitabilitätssteigerungen oftmals gering sind und sich auch durch hohe Investitionen nicht mehr steigern lassen. McKinsey stellt sogar ein Plateau der KI-Adoption seit ca. 2019 fest. Lediglich eine feste Spitzengruppe (ca. 8 %) baut ihre profitable Nutzung von KI beständig aus, während der Rest der Unternehmen an unvorhergesehenen Hürden zu scheitern scheint (McKinsey 2022). Und obwohl laut einer Gartner-Umfrage in 2022 80 % der Führungskräfte überzeugt waren, dass Automatisierung in jedem Entscheidungsprozess genutzt werden kann, schaffen es gerade einmal die Hälfte der KI-Projekte vom Pilotprojekt zur Produktivsetzung (Gartner 2022). Eine zentrale Herausforderung bleibt weiterhin die Verknüpfung zwischen implementierten KI-Algorithmen und messbarem Mehrwert für das Unternehmen oder die Geschäftsentwicklung. Warum also ist der Einsatz von KI für viele Unternehmen nicht so erfolgreich und lukrativ wie erwartet? Und was können wir aus der Situation lernen, um es in Zukunft besser zu machen? Dieses Kapitel beleuchtet einen zentralen Faktor, ohne den KI-Investitionen oft teuer, aber wirkungslos bleiben: Die gezielte Integration von KI in Entscheidungsprozesse. Was sich zunächst banal anhört, ist eine der häufigsten Hürden, die ich in meiner beruflichen Praxis erlebt habe. Und auch in Deloittes „State of AI in the Enterprise Report“ wird die Integration von KI in Unternehmensabläufe als zentrale Schwierigkeit von 46-% der 2.620 befragten Unternehmen benannt <?page no="70"?> (Deloitte 2022). Ohne eine wirkungsvolle Integration in die Unternehmens‐ abläufe können jedoch selbst technisch erfolgreiche KI-Umsetzungen wenig spürbare Auswirkungen auf zentrale Unternehmenskennzahlen, wie Um‐ satz, Kosten oder Kundenzufriedenheit, haben. Daher ist es so entscheidend für Unternehmen, diesen Schritt erfolgreich umzusetzen. Im Folgenden wird beleuchtet, was die Integration zwischen Mensch und Maschine im Unternehmensgefüge so schwer macht und welches Umdenken sowohl vom Management als auch von technischer Seite Abhilfe schaffen kann. Es werden ein erfolgloses und ein erfolgreiches Szenario gegenübergestellt, um die relevanten Abläufe plakativ darzustellen. 3.1 Der Begriff „künstliche Intelligenz“ im Zusammenhang mit Entscheidungen Die Definitionen des Begriffs „künstliche Intelligenz“ variieren. Im Kern die‐ ses Kapitels steht das Verständnis, dass eine künstliche Intelligenz mensch‐ liche Fähigkeiten oder Verhaltensweisen imitiert. Diese Verhaltensweisen beschränken sich nicht auf beobachtbare Handlungen, sondern basieren auf Denkprozessen wie Entscheiden, Lernen, oder Planen. Ohne an dieser Stelle tief auf die mathematischen Konzepte von KI einzugehen, sei nur eines kurz erklärt: Die meisten KI-Verfahren nutzen Methoden des maschinellen Lern‐ ens. Hierbei wird ein Algorithmus zunächst auf bestimmte Entscheidungen hin trainiert. Beim Trainieren findet der Algorithmus eigenständig Verbin‐ dungen zwischen Inputdaten (Gegebenheiten) und Ergebnisvarianten. Die KI kann somit in späteren Situationen abschätzen, welche Ergebnisvariante unter gegebenen Inputdaten wie wahrscheinlich ist bzw. welche Handlun‐ gen erwünschte oder unerwünschte Ergebnisse erzeugen. Essenziell ist dabei, dass der Algorithmus immer nur Abschätzungen macht, also die Handlung wählt, die anhand der gegebenen Inputdaten auf‐ grund verschiedener Berechnungen die lohnenswerteste oder wahrschein‐ lichste ist. Bei dieser Abschätzung verlässt er sich auf die Daten anhand derer trainiert wurde. Dies können z. B. historische Datenmengen sein, aber auch synthetisch erzeugte Daten oder Daten aus einer simulierten Umgebung. Die Berechnungen, welche der Auswahl der Handlungen zugrunde liegen, sind komplex und nicht anhand einfacher Regelwerke nachzuvollziehen, können aber über explizit formulierte Nebenbedingungen beeinflusst werden. Ins‐ gesamt entsteht dabei der Eindruck, dass die zu einem gewissen Grad KI 70 3 Künstliche Intelligenz als Entscheidungsunterstützer <?page no="71"?> autonom handelt und, innerhalb der gesteckten Rahmenbedingungen, selbst entscheidet. Wenn die KI dann mit ihren Entscheidungen richtig liegt oder treffsicher gewünschte Ergebnisse erzeugt, erscheint diese Entscheidung intelligent. Nicht immer unterliegen solch einer intelligenten Entscheidung einer Maschine Verfahren des hier beschriebenen maschinellen Lernens. Oft‐ mals werden auch Verfahren aus verwandten mathematischen Gebieten eingesetzt, wie Optimierung, Kombinatorik oder Numerik. Eine strenge Abgrenzung von KI gegenüber Verfahren aus angrenzenden Bereichen, wie Predictive Analytics oder Data Science, ist für dieses Kapitel von untergeord‐ neter Bedeutung. Hier wird der KI-Begriff bewusst weiträumig verwendet - für alle Systeme (meist Computerprogramme oder Algorithmen), welche menschliches Handeln und die zugrundeliegenden Denkprozesse imitieren sollen, um Probleme zu lösen. Denn genau hier liegt häufig die Motivation für den Einsatz von KI-Systemen im wirtschaftlichen Bereich. Als Beispiel nehmen wir eine KI, welche im Supply-Chain-Management zur Verbesserung von Lieferketten beitragen soll. Diese KI soll beispiels‐ weise entscheiden, welche Produkte wann nachbestellt werden müssen, über welche Carrier und Strecken diese Beschafft werden und in welchem Lagerhaus sie bis zum Verkauf gelagert werden. Die Entscheidungen sollen so getroffen werden, dass über die gesamte Produktpalette Kosten optimiert werden, Lieferzeiten möglichst gering bleiben, von Kunden bestellte Ware hochverfügbar ist und bei Bedarf weitere Besonderheiten berücksichtigt werden (z. B. Kühlung verderblicher Waren). Bei solch einer komplexen Situation scheint es gewinnbringend KI-Systeme entscheiden zu lassen, welche komplizierte Berechnungen über große Datenmengen schneller und treffsicherer durchführen können als Menschen. Wie also kann es sein, dass eine derart intelligente Maschine zwar programmiert werden kann, oft aber daran scheitert, nicht gewinnbringend im Unternehmen eingesetzt zu werden? Um das zu erläutern, vergleichen wir im Folgenden zwei Situationen. 3.2 KI inneffektiv eingesetzt In unserem ersten Szenario ist die KI so programmiert, dass sie anhand von Daten und Prognosen optimale Entscheidungen berechnet, diese aber nicht explizit in den Entscheidungsprozess eingebunden sind. Das bedeutet 3.2 KI inneffektiv eingesetzt 71 <?page no="72"?> beispielsweise, dass ein optimaler Zeitpunkt für eine Kampagne berechnet wird, inklusive der Produkte und Rabatte, die in dieser Kampagne angeboten werden sollen. Dieser Vorschlag wird nun von der KI über eine Datei oder ein Dashboard angeboten. Die vorgeschlagene Kampagne kann also vom Experten in das Kampagnenplanungssystem übernommen werden, hat aber keine automatischen Konsequenzen für die Kampagnenplanung. Die eigentliche Planung wird weiterhin manuell durch einen Experten ausgeführt. Dieser Experte bezieht möglicherweise den KI-Vorschlag bei der Kampagnenplanung mit ein, führt aber letztlich die gleichen Arbeitsschritte aus wie ohne die KI. Nehmen wir mal an, der Vorschlag der KI bezieht Artikel mit ein, welche einen zu hohen Lagerbestand aufweisen, da sie in der Vergangenheit nicht gemäß den Erwartungen verkauft wurden. Der Kampagnenexperte hat jedoch keinen Einblick in diese Daten und plant die Kampagne mit einer anderen Zusammenstellung an Produkten und Rabatten. Er schaut sich den Vorschlag der KI möglicherweise an, verwirft ihn aber schnell, wenn dieser nicht gewinnbringend erscheint. Die Kampagne wird also nicht ent‐ sprechend der KI ausgelöst - in unserem Beispiel gehen die überschüssigen Artikel nicht reduziert in den Verkauf und werden auch nicht zusätzlich beworben. Obwohl eine Prognose vorhergesagt hat, dass die Lagerbestände somit nicht rechtzeitig abverkauft werden, bleiben die entsprechenden Artikel liegen und erzeugen Kosten statt Umsatz. Dieses Szenario hört sich für Sie möglicherweise konstruiert an, um die Stärken von KI gegenüber menschlichen Experten zu betonen. Das ist nicht so. Es ist schlichtweg ein Szenario, welchem man in der Praxis oft begegnet, nachdem eine KI oder ein analytisches Entscheidungssystem implementiert wurde. Und es entsteht nicht aufgrund von mangelndem Expertenwissen, sondern wegen mangelnder Integration von KI in den Entscheidungsprozess. Auch diese mangelnde Integration passiert nicht bewusst, sondern wird durch falsche Erwartungen nicht berücksichtigt oder in ihrer Bedeutung unterschätzt. - Fehlende Integration durch unrealistische Erwartungen an datengetriebene Entscheidungen Oft wird z. B. erwartet, dass die KI-Vorhersage die Expertenentscheidung maßgeblich beeinflusst - durch ihre schiere Existenz. Es wird dann über‐ sehen, dass eine wirksame Integration von KI auch die Adaption des Arbeitsprozesses einbezieht. Nur durch die Existenz zusätzlicher Daten‐ 72 3 Künstliche Intelligenz als Entscheidungsunterstützer <?page no="73"?> punkte ändert sich eben nicht unbedingt der Entscheidungsprozess an sich. Insbesondere dann nicht, wenn Nutzer nicht einfach nachvollziehen können, welche Quelldaten genau verwendet wurden und ob diese Quellen hochwertig, adäquat und vertrauenswürdig sind. Und wenn der Datenpunkt dann noch, wie in diesem Beispiel, aus einer Blackbox kommt, deren Einschätzungen wenig nachvollziehbar sind, passiert in der Realität oft Folgendes: Trifft der KI-Vorschlag mit der Experteneinschätzung überein, wird er umgesetzt. Wenn nicht, wird er überschrieben oder ignoriert und die Expertenmeinung umgesetzt. Also wird im Grunde genommen genauso entschieden wie ohne die KI. Die menschliche Expertise darf aber hierbei nicht falsch eingeordnet werden. Es kann absolut vernünftig und im Sinne des Unternehmens sein, die Experten entscheiden zu lassen. Außerdem ist es absolut nachvollzieh‐ bar, dass Experten nach ihrem Expertenwissen entscheiden, wenn sie die Verantwortung und auch die Konsequenzen für diese Entscheidung tragen. Jedoch kann man sich im Grunde die Investition in KI auch sparen, wenn ohnehin genauso entschieden wird wie vorher. Ob das im Einzelfall gut oder schlecht ist, sei dahingestellt. Nur ist es dann nicht verwunderlich, dass sich auch in den Unternehmenskennzahlen kein durchschlagender Effekt ergibt. - Fehlende Integration durch unrealistische Erwartungen an die Korrektheit von KI Ein zweites Argument, welches an dieser Stelle häufig genannt wird, ist, dass man die KI nur dann explizit in den Entscheidungsvorgang einbeziehen könne, wenn sie nahezu immer richtig entscheidet. Auch das ist im Grunde ein Symptom aus mangelnder Integration in den Entscheidungsprozess. Wenn Experten keine Möglichkeiten haben die KI-Entscheidung nachzu‐ vollziehen, zu beeinflussen oder aktiv zu hinterfragen, ist das oft ein Show- Stopper. Denn es wird ja trotzdem von den Menschen erwartet, die KI- Entscheidungen als Verantwortliche zu vertreten und die Konsequenzen zu tragen. Auch hier ist es nicht verwunderlich, dass nach einer Sicherheit verlangt wird: Man übernimmt nur die Verantwortung, wenn die KI quasi immer richtig entscheidet. In der Praxis stellt sich jedoch heraus, dass heutzutage im Grunde noch alle KI-Systeme schwerwiegende Fehler in geschäftskritischen Szenarien machen können. Denken wir uns also beispielsweise, die KI trifft die Entscheidung, alle grünen Kleider im Sortiment 100-fach nachzubestellen, 3.2 KI inneffektiv eingesetzt 73 <?page no="74"?> weil ein bestimmtes grünes Kleid letzten Monat nach einer Stunde ausver‐ kauft war, nachdem eine Celebrity es zu einer Veranstaltung getragen hat. Die KI selbst ist nicht in der Lage, jegliche Konsequenzen dieser Entscheidung, abzusehen. Und wenn KI an verschiedenen Stellen der Lie‐ ferkette eingesetzt wird, verstärken sich Umfang und Konsequenzen von Fehlentscheidungen möglicherweise. Die fehlende Integration der KI in den Entscheidungsprozess nimmt den menschlichen Experten damit die Möglichkeit, das Risiko der Fehlentscheidungen aktiv zu managen. Somit werden KI-Entscheidungen verständlicherweise ignoriert, um möglichen Schaden vom Unternehmen und den Kunden abzuwenden. 3.3 KI effektiv eingesetzt In unserem Alternativszenario wird die gleiche KI anders ins Entschei‐ dungsgefüge integriert. Hier ist nun die KI maßgeblich ausführende oder entscheidende Instanz, wird allerdings durch den Menschen überwacht, gemanagt und gelenkt. Dadurch ändert sich das Entscheidungsgefüge, denn nun werden primär die Empfehlungen der KI umgesetzt. In unserem Szenario bedeutet das, dass die KI beispielsweise jede Woche überprüft, wel‐ che Lagebestände vorhanden sind und Preiselastizitäten abschätzt. Wenn sinnvoll, reduziert die KI Preise bestimmter Artikel durch Rabattaktionen, damit diese keine Ladenhüter werden. Der Mensch hingegen ist in der Lage, die KI-Entscheidungen zu verstehen, und er kann die Risiken managen, sodass die KI-Entscheidungen sich als strategisch vorteilhaft und ethisch vertretbar erweisen. Wie könnte das durch gezielte Integration in den Entscheidungsprozess erreicht werden? - Wert generieren durch explizite KI-Integration Um KI wirkungsvoll in den Prozess zu integrieren, kann z. B. ein Modul integriert werden, welches es jederzeit ermöglicht, Transparenz über eine Entscheidung zu bekommen. Wenn Experten bei einer weitreichenden Entscheidung mit einer KI in den Diskurs gehen können, steigt meiner Er‐ fahrung nach die Wahrscheinlichkeit, die Expertenentscheidung tatsächlich zu verändern. Denn wenn transparent ist, warum die KI sich für einen bestimmten Vorschlag entscheiden würde, entstehen möglicherweise neue Informationen. Ein Kampagnenmanager ist sich z. B. gar nicht darüber 74 3 Künstliche Intelligenz als Entscheidungsunterstützer <?page no="75"?> bewusst, dass bestimmte Artikel schlechter liefen als erwartet und bereits jetzt alarmierend hohe Lagerbestände vorliegen. Eine KI mit einer intuitiven Schnittstelle kann den Experten auf diesen Sachverhalt hinweisen und der Experte kann einschätzen, wann es sich lohnt, einen KI-Vorschlag zu überschreiben. Auf den ersten Blick unterscheiden sich beide Szenarien nur unwesent‐ lich. Im ersten Szenario stand der KI-Vorschlag dem Experten ebenfalls zur Verfügung - und dieser könnte eigenständig, z. B. über eine Analytics- Umgebung, tiefer in die Daten einsteigen. In der Praxis habe ich diesen Vorschlag jedoch nur von Daten- und Analytics-Experten gehört, nicht von den Fachexperten selbst. Es mag für Datenexperten schwer zu verstehen sein, aber nicht jeder Mensch ist Statistiker im Herzen und liebt Zahlen, Daten und komplexe Grafiken. Um KI wirkungsvoll in der Breite zu integ‐ rieren, muss sie auch in der Lage sein, Fachexperten in ihrer Rolle zu unter‐ stützen, sodass diese ihre Kernkompetenzen weiterhin einbringen können. Informationen zur Herkunft der verwendeten Datenquellen müssen auch für die Fachexperten einfach und transparent zugänglich sein, ohne dass sie sich erst mühsam in die Datenhaltung einarbeiten müssen. Auch sollte der Fachexperte direkt Feedback an die KI zurückgeben können, sodass sich diese im Laufe der Zeit spürbar verbessert. - Risiken managen durch explizite KI-Integration Der zweite Punkt, in welchem sich die KI in diesem Alternativszenario unterscheidet, ist der, dass das Risiko von Fehlentscheidungen explizit gemanagt werden kann. Der KI zu den Preisvorschlägen könnte beispiels‐ weise eine Komponente hinzugefügt werden, welche die Auswirkungen einer Kampagne vor ihrer Umsetzung simuliert. Beim Überschreiten gewis‐ ser Grenzen (z. B. hohe Lieferkosten, massive Umsatzeinbußen selbst bei geringer Wahrscheinlichkeit) müssen betroffene Fälle erst durch einen Ex‐ perten freigegeben werden. Auch können die KI-Entscheidungen auf einen gewissen Teil des Sortiments eingeschränkt werden oder die Entscheidung wird nur ausgeführt, wenn die Vorhersagen innerhalb eines bestimmten Konfidenzintervalls liegen. Ansonsten wird weiterhin manuell entschieden. Ein wichtiger Aspekt bei diesem Szenario ist es also, dass die KI nicht vollkommen frei entscheidet und auch nicht rein so, wie sie anhand der Trai‐ ningsdaten gelernt hat. Der Fachexperte ist ein unerlässlicher Akteur, der das Risiko aktiv managt und Entscheidungen, wenn notwendig, hinterfragt 3.3 KI effektiv eingesetzt 75 <?page no="76"?> oder korrigiert. Um dies zu tun, wird die KI mit verschiedenen Rahmenbe‐ dingungen und Schnittstellen versehen, wird also aktiv und bewusst in die Entscheidungsprozesse integriert. Die KI in diesem Szenario macht also auch keine perfekten Vorschläge, sie ist aber auch keine Blackbox. Die menschlichen Entscheider haben Möglichkeiten nachzuvollziehen, wann und warum entschieden wird. Sie können also einschätzen, wann sie der Maschine vertrauen können und wann es notwendig ist, dass ein Mensch eingreift. Diese Situation schafft zumindest die Voraussetzungen, dass der Einsatz von KI Wirkung zeigt und nicht, wie im ersten Szenario, letztlich vollkommen wirkungslos bleibt. Dieser Vergleich der zwei Szenarien soll verdeutlichen, dass eine KI, wel‐ che aktiv und bewusst in die Arbeits- und Entscheidungsprozesse integriert wird, einen höheren Wertbeitrag leisten kann als eine KI, die nur neben‐ herläuft. Es wird jedoch auch deutlich, dass eben diese Integration einen gewissen Aufwand bedeutet. Dieser Aufwand geht vor allem über das reine Trainieren und Implementieren eines intelligenten Algorithmus hinaus, was im derzeitigen Hype um KI oft untergeht. Wenn erst einmal bestimmte Rahmenbedingungen und Schnittstellen geschaffen werden, um sich über‐ haupt zuzutrauen eine KI einzusetzen, kostet das Aufwand. Auch können die KI-Entscheidungen reale Auswirkungen auf Zielvorgaben haben, was nicht einfach ignoriert werden kann. Um sicherzustellen, dass die KI in der täglichen Arbeit mehr Nutzen als Schaden anrichtet, müssen also bewusste Veränderungen bezüglich des Gesamtprozesses vorgenommen werden. Im Folgenden werden Aspekte beleuchtet, die Unternehmen beachten sollten, wenn sie KI wirkungsvoll ins Unternehmen integrieren wollen. 3.4 KI effektiv einsetzen: Warum ist das so schwer? Es gibt mehrere Gründe, warum wirkungsvolle KI-Integration in der Praxis noch oft scheitert. Hier möchte ich die wesentlichen Punkte aufgreifen, die mir in den letzten 10 Jahren zwischen wirkungsvollen und wirkungslosen KI-Investitionen aufgefallen sind. - Stand der Technik wird falsch eingeschätzt Der Hype um die Begrifflichkeit „künstliche Intelligenz“ hat falsche Erwar‐ tungen bezüglich der Leistungsfähigkeit dieser Systeme geweckt. KI-Algo‐ 76 3 Künstliche Intelligenz als Entscheidungsunterstützer <?page no="77"?> rithmen heutzutage sind zwar in gewissen Hinsicht intelligent, allerdings ist die Intelligenz nicht dort, wo man sie als Laie vermutet. Künstliche Intelligenzen haben z. B. (noch) keinen „gesunden Menschenverstand“, sie verstehen also grundlegende Prinzipien nicht. Dies ist selbst bei state-ofthe-art KI-Systemen zu beobachten, wie dem Chatbot ChatGPT von OpenAI. Der leistungsfähige Chatbot beeindruckt mit der Fähigkeit, intelligent klin‐ gende Texte zu formulieren. OpenAI selbst warnt jedoch Nutzer, dass auch plausibel klingende ChatGPT-Antworten manchmal inkorrekter „Nonsens“ sind und dass sich diese Limitierung auch nicht einfach beheben lässt (open ai.com/ blog/ chagpt/ ). Nun ist ChatGPT ein Beispiel generativer KI, was ein etwas anderer Bereich ist als KI-Modelle, die Entscheidungen unterstützen. Nichtsdestotrotz gelten Stand heute ähnliche Limitierungen für alle Arten von KI-Systemen. Das Verständnis dieser Limitierungen ist ein wesentlicher Grundbaustein für den effektiven Einsatz von KI. - Weiterbildung in KI zur Chefsache machen Der effektive Einsatz von KI kann durch Weiterbildungsmaßnahmen maß‐ geblich unterstützt werden. Diese Trainings erfordern keinen tiefen Einstieg in Mathematik und das Ziel ist es auch nicht, dass jeder Mitarbeiter in der Lage sein wird, eigene KI-Systeme zu bauen. Ziel ist es, ein grundlegendes, pragmatisches Verständnis für die Funktionsweise von KI zu entwickeln und damit auch ein Verständnis für die Limitierungen und Risiken. Diese Maß‐ nahmen beziehen explizit die Manager und Führungskräfte in Unternehmen mit ein. Entscheider, denen grundlegendes Verständnis für KI fehlt, werden nicht in der Lage sein, den Einsatz von KI sinnvoll zu steuern. Dazu müssen auch die Entscheider verstehen, was es braucht, um KI wirkungsvoll, ethisch vertretbar und geschäftsrelevant einzusetzen. - Lücke zwischen technischen und Business-Rollen und fehlendes Change-Management Die oben genannte Weiterbildung von Mitarbeiter: innen, inklusive Manage‐ ment, ist nicht allein ausreichend für eine erfolgreiche Implementierung und Nutzung von KI. Eine Weiterbildung schafft zwar eine Grundlage, jedoch legt diese nicht fest, wie der Einsatz von KI bestimmte Prozesse tatsächlich verändert. Festzustellen, wie Prozesse verändert werden müssen und welche Auswirkungen das auf Rollen und Verantwortlichkeiten hat, kann gut mit explizitem Change-Management begleitet werden. 3.4 KI effektiv einsetzen: Warum ist das so schwer? 77 <?page no="78"?> Wie in den beiden Szenarien dargelegt, geht das erfolgreiche Alterna‐ tivszenario über die reine technische Implementierung des KI-Systems hinaus. Die KI-Integration in den Entscheidungsprozess führt somit auch zu einer Veränderung der betroffenen Rollen. Fachexperten werden zusätzlich zum Manager eines KI-Systems, was natürlich Auswirkungen auf deren tägliche Aufgaben hat. Noch wichtiger ist, dass eine KI-Integration auch die Zielvorgaben einer Rolle verschieben kann, da z. B. eine höhere Umsatzer‐ wartung mit dem Einsatz des neuen Systems einhergeht. Diesen Prozess sich selbst zu überlassen oder zu erwarten, dass er sich durch die technische Einführung der KI von selbst erledigt, führt zu wenig messbarem Erfolg. Schlimmstenfalls führt es sogar zu Frustration oder verstärkt Ängste. Ein weiterer Grund, warum dieser Schritt enorm wichtig ist, ist, dass über Change-Management die wirkliche Tiefe der durch KI verursachten Verän‐ derung zum Vorschein kommt. Es kann sein, dass die Veränderung nicht nur den Prozess betrifft, sondern die Einführung von KI-Systemen explizit mit der strategischen Ausrichtung des Unternehmens integriert werden muss. Verschieben sich dadurch z.-B. Kernkompetenzen, strategische Wett‐ bewerbsvorteile oder Teile der Wertschöpfungskette, ist das Thema noch größer als die in diesem Kapitel angesprochene Prozessintegration. - Rollenverständnis inklusive Ziele hinterfragen und anpassen Durch Change-Management können bestehende Rollen und Ziele ehrlich hinterfragt und gegebenenfalls angepasst werden. Der effektive Einsatz von KI erfordert in den meisten Fällen dedizierte Rollen, die KI-Algorithmen in Entscheidungsprozesse integrieren und die Folgen für die Unternehmens‐ führung abschätzen können. Wie bereits vorher erwähnt, geht es hierbei eher darum Fachexperten zu befähigen als ihre Kernkompetenzen zu ver‐ schieben. Data Scientisten als Schnittstelle zwischen KI und Fachabteilungen einzufügen, sollte, wenn überhaupt, nur ein temporärer Zwischenschritt sein. Data Scientisten verantworten nicht die Geschäftsentscheidungen des Unternehmens. Sie sind wichtig, um bestimmte Komponenten des KI- Systems zu erstellen, aber sollten nicht permanent als Schnittstelle benötigt werden, um das KI-System täglich zu gebrauchen. Mehr Geschäftswert entsteht, wenn der Fachexperte bzw. Entscheider das KI-System direkt als Werkzeug nutzen kann. Kein Fachexperte wird auf Dauer glücklich damit sein, auf einen Data Scientist angewiesen zu sein, um Anfragen an die KI hin-und herzuübersetzen. 78 3 Künstliche Intelligenz als Entscheidungsunterstützer <?page no="79"?> Stärkere Fokussierung auf Transparenz und Nachvollziehbarkeit statt auf immer komplexere Modelle mit immer „korrekteren“ Vorhersagen Der wohl wichtigste technische Unterscheidungsfaktor zwischen den bei‐ den obigen Szenarien ist für mich, dass bei der wirkungsvollen KI-In‐ tegration der Fokus der technischen Implementierung auf Transparenz, Interaktion und Integration liegt. Das ist ein wesentlicher Unterschied zu einer Implementierung, die sich auf die Genauigkeit der zugrundeliegenden mathematischen Modelle beschränkt. Bisher ist jedoch genau das oftmals der Schwerpunkt bei der Entwicklung von KI-Anwendungen. Zusätzliche Komponenten oder Schnittstellen zu entwickeln kann aufwendig und somit teuer sein, denn diese müssen Transparenz in hochkomplexe mathematische Modelle bringen. Meine Erfahrung der vergangenen Jahre hat jedoch gezeigt, dass solche immer komplexer werdenden Blackboxen ein unternehmerisches Risiko darstellen und auch ethisch immer mehr zum Problem werden. Es gibt diverse Beispiele, wo KI-Systeme nicht mehr eingesetzt wurden, weil sie ein unerwünschtes Bias gezeigt haben und dadurch beispielsweise bestimmte Bevölkerungsgruppen mit ihren Entscheidungen benachteiligt haben. Der Einsatz solcher Systeme ist eben nicht nur aus ethischer Sicht zweifelhaft, sondern birgt auch ein ganz erhebliches unternehmerisches Risiko. For‐ schung und Entwicklung sollten hier ihrerseits einen stärkeren Fokus auf Transparenz und Integrierbarkeit mit Unternehmensprozessen legen. - Transparenz zu schaffen, kostet zwar, aber nur eine vertrauenswürdige KI bringt Mehrwert Der Aspekt von vertrauenswürdiger KI hat bisher maßgeblich unter ethi‐ schen Gesichtspunkten Beachtung gefunden. Diese treten jedoch häufig erst zutage, wenn ein bereits erstelltes KI-System in die Anwendung geht. Um wirklich transparente Systeme zu schaffen, sollte von Anfang an der Schwerpunkt bei der Entwicklung darauf liegen. Häufig orientieren sich KI- Experten bei der Programmierung von KI-Systemen maßgeblich daran, wie gut die resultierende KI die Wirklichkeit über die gelernten Daten wider‐ spiegelt. Wie „exakt“ sie vorhersagen kann. Und wenn ein noch komplexeres Modell notwendig ist, um eine noch exaktere Aussage zu erhalten, wird das Modell eben komplexer - zulasten der Transparenz. Das zahlt sich jedoch bei Einsatzgebieten nicht aus, wo KI in menschliche Entscheidungsprozesse eingebunden werden soll. Hier kann eine Investition in eine intuitive 3.4 KI effektiv einsetzen: Warum ist das so schwer? 79 <?page no="80"?> Schnittstelle zum menschlichen Experten eine viel lohnendere Investition sein. 3.5 Zusammenfassung und Ausblick In diesem Kapitel wurden Hindernisse bei der Integration von KI in Un‐ ternehmensabläufe beleuchtet und verdeutlicht, wie das zu vergeudeten Investitionen und wirkungsloser KI führen kann. Die besprochenen Aspekte beziehen sich sowohl auf die technologische Seite (z. B. fehlende Schnitt‐ stellen und Transparenz) also auch auf die nicht-technologische (z. B. fehlende Trainings für Business- und Management). KI-Integration wurde bewusst plakativ anhand eines vereinfachten Beispiels im Bereich Supply Chain dargestellt. Auch wenn Entscheidungsprozesse und die eingesetzte KI oftmals viel komplexer sind, sollte KI ein stückweit „entzaubert“ werden, um die alltäglichen und praktischen Integrationsprobleme zum Vorschein zu bringen. Denn nach wie vor wird erfolgreiche KI-Integration oftmals behindert durch falsche Erwartungen und eine Fokussierung auf Technik statt auf den geschäftlichen Mehrwert. Das Weglassen jeglicher mathematischer KI-Details diente zur Betrachtung der Menschen und Prozesse um die KI herum. Hier wurde deutlich, dass es bei KI-Integration um mehr geht als darum, ein technisches Tool einzuführen. Es erfordert Anpassungen an Arbeitsprozesse, Zielvorgaben und Rollen, welche oft nicht auf den ersten Blick ersichtlich sind. Dies soll jedoch keinesfalls entmutigen, sondern eher dazu ermutigen, sich KI auch in Entscheidungsprozessen zunutze zu machen. Denn die eigenen Prozesse, die eigene Wertschöpfungskette sowie die eigenen Ziele und Rollen gehören zu den ureigenen Merkmalen eines Unternehmens. Diese zu verändern und neuen (technologischen) Gegebenheiten anzupassen ist eine Kernaufgabe des Managements eines Unternehmens. Es ist sicherlich nicht einfach, sich solchen Veränderungen zu stellen, selbst wenn sie die eignen Kerngebiete betreffen. Aber es sollte doch für viele eine gute Nachricht sein, dass der erfolgreiche Einsatz von KI maßgeblich davon abhängt, wie gut man seine eigenen Unternehmens‐ abläufe, Ziele und Rollen gestalten bzw. verändern kann. Statt davon, wie gut man eine neue Hightech-Methode beherrscht, die möglicherweise sehr weit entfernt von den eigenen Kernkompetenzen liegt. 80 3 Künstliche Intelligenz als Entscheidungsunterstützer <?page no="81"?> Sicherlich wurden in diesem Kapitel auch bestehende technologische Hürden von KI adressiert, die aktuell eine Integration selbst für Digital Na‐ tive Businesses herausfordernd machen. Neue gesetzliche Bestimmungen, wie der EU AI Act, haben jedoch das Potenzial, die Entwicklung von KI diesbezüglich zu beeinflussen. Denn die angesprochenen Knackpunkte, wie Transparenz, Risikomanagement oder Kontrollierbarkeit, werden zukünftig deutlich mehr über Gesetzgebungen eingefordert werden. Das sollte auch dazu führen, dass Entwickler von KI-Systemen mehr Aufwand für Trans‐ parenz und Kontrollierbarkeit aufbringen. Das wiederum erleichtert die Integration und steigert somit den geschäftlichen Mehrwert der Systeme. Denn: Für ein KI-System, welchem man nicht vertrauen kann, welches man nicht versteht und nicht kontrollieren kann, wird ohnehin kaum ein Mensch Verantwortung übernehmen wollen. Dadurch lässt es sich auch nur schwer in Unternehmensprozesse integrieren und kann somit nur begrenzt gewinnbringend eingesetzt werden. Systeme, die Transparent sind, klar an ethischen Standards und Unternehmenswerten ausgerichtet sind, haben eine deutlich höhere Chance effektiv in Entscheidungsabläufe integriert zu werden und somit auf Dauer Mehrwert zu generieren. Die betrachteten Aspekte bringen KI-Systeme mit Unternehmensprozes‐ sen und Unternehmensmanagement zusammen. Diese Sichtweise hat zwar in jüngster Zeit an Bedeutung gewonnen, der größere Teil von KI-Publikati‐ onen fokussiert sich jedoch noch immer auf technische, mathematische und algorithmische Aspekte. Eine ähnliche Sichtweise findet man bisher nur in Publikationen zum Thema KI-Management oder beispielsweise in Literatur, welche die Wirksamkeit von KI in Automation vs. Augmentation diskutiert (siehe z. B. Raisch, S. & Krakowski, S. (2021)). Insgesamt fehlen jedoch noch verbreitete und anerkannte Frameworks, anhand derer Unternehmen konkrete Handlungsempfehlungen ableiten können. Solche Frameworks könnten Vorgehen bereitstellen, um den Nutzen von KI systematisch auf die Unternehmensstrategie zu mappen, Richtlinien für die Integration von KI in Prozesse liefern oder Risikoabschätzungen für operative KI-Systeme ver‐ einfachen. Das Wirksamwerden des EU AI Act wird den Bedarf an solchen Frameworks voraussichtlich noch verstärken. Für deren Entwicklung wird es aber auch vonnöten sein, das Thema KI interdisziplinärer zwischen In‐ formatik, Wirtschaftswissenschaften und Soziologie aufzustellen. In diesem Kapitel sollten die Schnittstellen dieser unterschiedlichen Disziplinen nur veranschaulicht werden. Eine umfassendere wissenschaftliche Betrachtung ist sicherlich vonnöten, um den angebrachten Punkten mehr Gewicht zu 3.5 Zusammenfassung und Ausblick 81 <?page no="82"?> verleihen. Dies wird, hoffentlich, in der Zukunft Thema weiterer Publikati‐ onen und Forschungsarbeiten werden. 3.6 Literatur PwC 2017, Sizing the price report, https: / / www.pwc.com/ gx/ en/ issues/ analytics/ as sets/ pwc-ai-analysis-sizing-the-prize-report.pdf. McKinsey 2022, The state of AI in 2022 - and a half decade in review, December 6, 2022, https: / / www.mckinsey.com/ capabilities/ quantumblack/ our-insights/ the-st ate-of-ai-in-2022-and-a-half-decade-in-review. Gartner 2022, Gartner Survey Reveals 80 % of Executives Think Automation Can Be Applied to Any Business Decision, Gartner Press Release ORLANDO, Fla., Au‐ gust 22, 2022, https: / / www.gartner.com/ en/ newsroom/ press-releases/ 2022-08-22 -gartner-survey-reveals-80-percent-of-executives-think-automation-can-be-app lied-to-any-business-decision. (Abrufdatum: 15. März 2023) Deloitte 2022, Fueling the AI transformation: Four key actions powering widespread value from AI, right now. Deloitte’s State of AI in the Enterprise, 5th Edition report, October 2022 https: / / www2.deloitte.com/ content/ dam/ Deloitte/ us/ Docu ments/ deloitte-analytics/ us-ai-institute-state-of-ai-fifth-edition.pdf. https: / / openai.com/ blog/ chatgpt/ . (Abrufdatum: 15. März 2023) Raisch, S., Krakowski, S., Artificial intelligence and management: The automation - augmentation paradox. Academy of Management Review, 2021, 46, 192−210. 82 3 Künstliche Intelligenz als Entscheidungsunterstützer <?page no="83"?> 4 TEA(I)MWORK schafft Vertrauen: Mensch- Maschine-Kollaboration als Erfolgsfaktor für eine datengetriebene Zukunft | von Patricia Kahr - Das Zeitalter der Möglichkeiten - und Ängste Widersprüchliche Empfindungen im Kontext technischer Innovationen gibt es nicht erst seit ChatGPT. Mit dem exponentiellen Anstieg von (techni‐ schen) Innovationen geht eine Spanne zwischen anfänglichem Hype (und Hoffnung) und fatalistischen Zukunftsszenarien einher. Feststeht: Intelli‐ gente (algorithmenbasierte) Systeme sind gekommen, um zu bleiben. Und das ist gut so. Denn wir vergessen oft, dass diese weit mehr können, als professionelle Aufsätze zu schreiben - sie sind in der Lage, datenbasierte Aufgaben in vielen Bereichen besser zu lösen als ihre menschlichen Kol‐ leg: innen. Unsere Zukunft basiert auf Daten, aber nur ein Viertel (26,5 %) der Unternehmen gab im Jahr 2022 an, einen datengesteuerten Ansatz in ihrer Organisation implementiert zu haben (New Vantage, 2022), drei Viertel verpassen damit sowohl finanzielles als auch qualitatives Wachstum. Dabei katalysiert Daten- und Technikkompetenz nicht nur das eigene Unterneh‐ men, sondern ist auch gleichzeitig die Chance, eine Welt zu verbessern, die jeden Tag komplexer wird und in der es in vielen Bereichen große Herausforderungen gibt. KI in aktuelle Unternehmens- und Organisations‐ prozesse einzubinden, könnte uns beispielsweise helfen, effizientere und nachhaltigere Entscheidungen zu treffen. KI kann aber auch der ‚doppelte Boden‘ für fairere Entscheidungen sein, z. B. wenn sie menschlicher Vorein‐ genommenheit entgegenwirkt und damit zu gerechteren Entscheidungen beiträgt. Das Wissen um die positiven Möglichkeiten von smarten KI-Tools ist das eine. Die Realisierung einer harmonischen Mensch-Maschine-Zusammen‐ arbeit das andere. Letzteres scheitert vor allem an der Tatsache, dass die Arbeit mit Daten oft einen Teufelskreis in Gang tritt, den Unternehmen gerne umgehen wollen: Datenbasierte Entscheidungsfindung erhöht die Komplexität auf mehreren Ebenen, was wiederum spezifisches (Datenver‐ arbeitungs-)Wissen erfordert. Mit Komplexität steigt das Unbehagen (und das wahrgenommene Risiko), vor allem weil es Unternehmen an Expert: in‐ <?page no="84"?> nen mangelt. Entsprechend sinkt die Bereitschaft, sich von KI-Systemen unterstützen zu lassen - denn KI zu vertrauen, fühlt sich für viele immer noch nach blindem Vertrauen an - und damit nach Kontrollverlust. Die Konsequenz: KI-Systeme werden nur wenig oder gar nicht genutzt und Unternehmensentscheidungen werden nicht optimal getroffen. Offensichtlich fehlt es an generellem und spezifischem Wissen, was KI kann (und was nicht), um ihr genügend vertrauen zu können. Wie löst man diese Herausforderung? Welche Möglichkeiten gibt es, Expert: innen mit intelligenten Systemen vertraut zu machen? Zunächst einmal müssen wir verstehen, dass Entwicklung von Spitzentechnologie nicht beim Design der Hardware enden darf, sondern die menschliche Perspektive im gesamten Entwicklungsprozess mehr berücksichtigt werden muss - eine Perspektive, die bisher noch nicht genug verstanden und umgesetzt wird. Dafür müssen die Mechanismen hinter den Mensch-KI-Interaktionen zunächst grundle‐ gend verstanden werden, damit menschenzentrierte Lösungen entwickelt werden können, die den Menschen die beste Arbeitsbeziehung mit intelli‐ genten Systemen ermöglichen. Dieses Kapitel soll einen Einblick in die Grundlagen der Interaktionen zwischen Menschen und intelligenten Technikanwendungen aus einer ver‐ haltenspsychologischen Perspektive geben. Zu Beginn werden beide Per‐ spektiven, Mensch und (KI-)Maschine, genauer beleuchtet. Es wird erklärt, warum Vertrauensbildung gegenüber KI aktuell noch eine Herausforderung darstellt - wie man aber mit den richtigen Mitteln erfolgreich sein kann. Das Kapitel schließt mit einem Ausblick, welche Schritte Unternehmen auf ihrer Reise in die Zukunft der Mensch-KI-Kollaboration berücksichtigen sollten. 4.1 Der Deckel zum Topf: Menschliche Talente und künstliche Kompetenzen „I don’t think AI is going to take anyone’s job. I think people using AI may take people’s jobs.“ ( Josh Jaffe, Ingenio) Josh Jaffe bringt auf den Punkt, was smarte Technik ausmacht: Sie ersetzt den Menschen nicht, sondern katalysiert menschliche Fähigkeiten. Entspre‐ chend vielversprechend sind Kollaborationen von Mensch und KI, denn sie bringen das Beste aus zwei Welten zusammen. Was theoretisch einfach klingt, ist praktisch noch immer eine große Herausforderung. Woran das 84 4 TEA(I)MWORK schafft Vertrauen: Mensch-Maschine-Kollaboration als Erfolgsfaktor <?page no="85"?> liegt, soll in den folgenden Abschnitten erklärt werden. Dafür wird zunächst die nicht-menschliche Komponente beleuchtet: Die Geschichte der künst‐ lichen Intelligenz beginnt in den 1950er-Jahren mit der bahnbrechenden Arbeit von Alan Turing, der als Pionier eine der ersten algorithmusbasierten Maschinen entwickelte, und alles, was danach kam, maßgeblich beeinflusste (IBM, 2022). Es war die Zeit, in der sich die Forschung mit der Frage be‐ schäftigte, ob Maschinen in der Lage sind, eigenständig zu denken (Turings Maschine wurde im sogenannten Turing Test entsprechend auf die Fähigkeit, menschenähnlich zu handeln, geprüft). - Einsatzmöglichkeiten und Versprechen von KI Mit dem exponentiellen Wachstum der letzten Jahre, ergeben sich immer diversere Einsatzmöglichkeiten für KI - und entsprechend groß ist auch das wissenschaftliche Interesse an der Entwicklung von KI, insbesondere im Bereich Mensch-Maschine-Interaktion. Von anfänglich (schwachen) Systemen mit deterministischen Fähigkei‐ ten, wie z. B. einfachen Algorithmen zur E-Mail-Spam-Filterung oder Google Maps, gibt es mittlerweile auch eine Vielzahl an (starken) KI-Systemen, die auf Basis von neuronalen Netzwerken und entsprechenden Lernfä‐ higkeiten komplexere Aufgaben erledigen können. Ein Beispiel dafür ist der DeepMinds-Algorithmus AlphaGo, der 2016 gegen den damaligen Go- Weltmeister Lee Sedol gewann. Und auch wenn Expert: innen wie Glover (2022) behaupten, dass aktuelle KI-Systeme noch lange nicht so „stark“ sind wie angenommen (bzw. befürchtet) - mit der Beobachtung von fähigeren Algorithmen sinkt die Kontrolle und steigt die Ungewissheit aufseiten der Anwender: innen. Man spricht in diesem Fällen von sogenannten Blackbox- Modellen, die nur eine begrenzte Einsicht geben, wie sie ihre Entscheidun‐ gen berechnen. Der Mangel an Transparenz ist nach wie vor das Haupthin‐ dernis für Nutzer: innen und Entscheidungsträger: innen, die entsprechend vielmehr die Risiken als die Chancen wahrnehmen. Die Skepsis wird durch anthropomorphes (teils wahrgenommen als übermenschliches) KI- Verhalten oder KI-Optik potenziell verstärkt: Der Uncanny-Valley-Effekt (Mori et al., 2012) tritt sowohl bei der Interaktion von nicht-physischen (embedded, z. B. Chatbots) als auch physischen (embodied, z. B. Robotern) KI-Agenten auf. Darüber hinaus beeinflusst KI nicht nur unsere Wahrneh‐ mung, sie hat Einfluss auf unser Leben, sowohl direkt als auch indirekt: Direkte Konsequenzen durch die Zusammenarbeit mit KI-Systemen, z. B. 4.1 Der Deckel zum Topf: Menschliche Talente und künstliche Kompetenzen 85 <?page no="86"?> im Bereich medizinische Diagnostik oder Scoring-Kalkulationen im Finan‐ zierungsbereich, können durchaus schwerwiegende Folgen haben, wenn Berechnungen suboptimal oder sogar falsch sind. Indirekte Konsequenzen entstehen mit der langfristigen Implementierung von KI-Systemen: Durch mehr Automatisierung in vielen Bereichen werden Prozesse und Teams neu strukturiert, es entstehen neue bzw. ändern sich bestehende Jobprofile und Angestellte mit mangelnden Kenntnissen halten den technischen Optimie‐ rungsprozessen eventuell nicht stand. Es versteht sich von selbst, dass wir die Entwicklung von KI-Technologien und ihre möglichen Folgen kontrollieren müssen, je mehr sie Teil unserer Gesellschaft werden. Wir müssen Diskussionen über die Regulierung und Rechenschaftspflicht von KI-Systemen führen, ähnlich wie der Vorschlag der AI Bill of Rights des Büros für Wissenschafts- und Technologiepolitik des Weißen Hauses im Oktober 2022 (Haven & Burrell, 2023). KI auszuschließen oder zu verbieten, wird keine realistische Option sein. Auch, weil nicht KI selbst, sondern häufig problematische Daten das Problem sind. Die Not‐ wendigkeit, die Kontrolle über Daten und den richtigen Umgang mit ihnen zu etablieren, ist daher eine der größten Herausforderungen für die Zukunft. Die Lösung liegt in jedem Fall nicht im Ignorieren der Möglichkeiten, sondern im Schaffen von Konzepten dafür, wie KI eine wertvolle Ergänzung zu den menschlichen Fähigkeiten sein kann. Denn KI trägt schon heute zu einer besseren Zukunft bei: • Nachhaltigkeit: KI-Systeme werden zur Energieoptimierung für ver‐ schiedene Infrastrukturen eingesetzt. Beispielsweise analysieren sie Energienutzungsmuster und erstellen entsprechende Entscheidungsst‐ rategien. Ein anderes Beispiel aus dem Bereich der Smart Maintenance zeigt, dass Ressourcen gespart werden, indem Reparaturen oder Instand‐ haltungen besser berechnet werden (Arvanitopoulos et al., 2019; Liu et al., 2021; Schindler & Becker, 2019; Wang et al., 2021). • Bildung: KI-Modelle tragen dazu bei, das Erarbeiten von Lerninhalten für Schüler: innen auf Grundlage individueller Bedürfnisse zu perso‐ nalisieren, was zu besseren Ergebnissen, aber auch zu gesteigerter Motivation führt. Lehrer: innen können ebenfalls vom Einsatz von KI- Systemen profitieren: Durch zusätzliche Analysen ist ein besser Einblick in die Leistungen von einzelnen Schüler: innen möglich, was beispiels‐ weise dabei helfen kann, Fehlleistungen zu erkennen und frühzeitig zu intervenieren (Kvanovic et al, 2019; Campbell et al., 2019). 86 4 TEA(I)MWORK schafft Vertrauen: Mensch-Maschine-Kollaboration als Erfolgsfaktor <?page no="87"?> • Medizin: KI-Systeme ermöglichen bessere Entscheidungen im medizin‐ ischen Bereich, indem sie vor allem in der (bildgebenden) Diagnostik als unterstützendes System eingesetzt werden (Roumans et al., 2022). Da‐ rüber hinaus erleichtern sie die Patientenorganisation - beispielsweise werden Behandlungsempfehlungen auf Basis genauerer Analysen von Patient: innendaten optimiert (Esteva et al., 2019; Zheng et al, 2021). • Human Resources: Der Einsatz von KI kann bei der Suche nach Talenten helfen, dass Voreingenommenheit aufgrund von individuel‐ len Merkmalen reduziert wird. Ebenfalls werden weitere Recruiting- Prozesse, wie die Auswahl von Kandidat: innen oder die Analyse von Lebensläufen, erleichtert (Van Hoye et al., 2019). Im Retention-Kontext kann der Einsatz von KI potenzielle Unzufriedenheiten oder Misstände frühzeitig erkennen und Mitarbeitende so von einer ‚überraschenden‘ Kündigung abhalten (Vidal et al., 2019). - Einflussfaktoren auf KI Die genannten Beispiele zeigen, wie Unternehmen und Organisationen da‐ tenbasierte Entscheidungen mithilfe von KI-Systemen optimieren können. Aber was ist mit komplexeren Aufgaben jenseits von Big Data? Menschen sind kreative Problemlöser, sie sind gemacht für nicht-lineare Aufgaben. Ihre Intuition für Situationen und Möglichkeiten macht sie zu innovati‐ ven Denker: innen jenseits von Mustern und algorithmischen Vorhersagen. ChatGPT mag einen grammatikalisch korrekten Essay erstellen, interessan‐ ter wird dieser aber durch die menschliche Note. Für viele Entscheidungen ist der menschliche Prozessor, unser Gehirn, besser als jeder technische. Menschliches Denken zeichnet sich insbesondere aufgrund des schnellen System-1-Denkens (beispielsweise: das Abrufen von mentalen Strategien) aus (vgl. Evans, 2003; Sunstein, 2016), dem Abrufen von Erlerntem, dem Erkennen und Kombinieren von spezifischen Hinweisen auf kontextspezi‐ fische Szenarien. Oft verlaufen diese Prozesse unbewusst und sind Fluch und Segen zugleich: Menschen sind sich ihrer kognitiven Abkürzungen bzw. einer gewissen Voreingenommenheit nicht immer bewusst. Deshalb sind sie in der Realität auch oft weit davon entfernt, ökonomisch einwandfreie Entscheidungen zu treffen: • Kognitive Verzerrungen und Heuristiken: So flexibel Menschen sind, Informationen schnell zu begreifen, birgt dieses Talent gleichzeitig das Risiko der kognitiven Voreingenommenheit, wenn sie mit (datenba‐ 4.1 Der Deckel zum Topf: Menschliche Talente und künstliche Kompetenzen 87 <?page no="88"?> sierten) Informationen umgehen. Unbewusst neigen sie dazu, Informa‐ tionen eher zuzustimmen, die auf ihren bestehenden Überzeugungen beruhen (confirmation bias) oder Entscheidungen auf verfügbare, aber nicht schlüssige oder falsch gewichtete Informationen zu stützen (avai‐ lability bias), was zu suboptimalen Entscheidungen führt (Nickerson, 1998; Tversky & Kahnemann, 1973). Ohne es bewusst zu steuern, neigen sie auch dazu, neueren Informationen mehr Gewicht zuzuschreiben, beispielsweise indem sie sich an kürzliche Interaktionen/ Informationen erinnern und den größeren Zusammenhang dabei ausblenden (ancho‐ ring bias). Außerdem nehmen sie negative Konsequenzen (z. B. monetäre Verluste) oft als (langfristig) folgenreicher wahr als positive (loss aver‐ sion) (Tversky & Kahnemann, 1991). Im Gegensatz dazu nehmen KI- Systeme, vor allem im Hinblick auf Entscheidungen im Zeitverlauf, eine objektive Rolle ein und sind hervorragend in der Lage, Muster zu erkennen, die Menschen aufgrund von individuellen Wahrnehmungen übersehen könnten (Esteva et al., 2017; Bonaccorsi und Daraio, 2019). • Kulturelle und soziale Einflussfaktoren: Individuen werden in ähnlicher Weise von sozialen und kulturellen Konstrukten beeinflusst. Beispielsweise lassen Studien erkennen, dass Menschen Gleichgesinnte bevorzugen (ingroup bias), entsprechend werden Ungleichgesinnte be‐ nachteiligt oder ausgeschlossen (Stereotypisierung & Diskriminierung) (Castano et al., 2002; Taijfel, 2010). Ähnlich wie bei der Präventation von negativen Auswirkungen basierend auf heuristischen Prozessen, könnte der Einsatz von KI-Systemen Diskriminierung und Stereotypisierung verhindern, indem man Individuen auf systematische Fehlentscheidun‐ gen aufmerksam macht. Vorraussetzung für sozial-faire Entscheidungen mit KI-Unterstützung ist in erster Linie, dass die Daten und die Entschei‐ dungsalgorithmen, auf Basis derer Entscheidungen berechnet werden, nicht ebenfalls verzerrt sind. • Affekt und Emotionen: Während die ersten beiden Bereiche langfris‐ tiges Verhalten beschreiben, können Emotionen und affektive Zustände das Verhalten einer Person je nach Situation unterschiedlich beeinflus‐ sen. Oft kann das menschliche Erkennen von subtilen Untertönen in speziellen Situationen von großem Vorteil sein, gleichzeitig ist Empathie und Intuition nicht immer hilfreich, wenn es um Konsistenz geht, denn Entscheidungen können je nach emotionalem Zustand unterschiedlich ausfallen: Jemand in einem heißen (emotional-getriggerten) Zustand entscheidet anders als in einem kalten (Loewenstein, 2005). Unterschied‐ 88 4 TEA(I)MWORK schafft Vertrauen: Mensch-Maschine-Kollaboration als Erfolgsfaktor <?page no="89"?> liche emotionale Faktoren (z. B. Stress) beeinflussen Entscheidungen maßgeblich, ohne dass sich die Entscheider: innen immer darüber im Klaren sind. Im Gegensatz dazu erfolgen KI-Entscheidungen ohne Einfluss von weichen Faktoren und können entsprechend für mehr Konsistenz sorgen (Lai et al., 2019). Die erläuterten Beispiele sollen deutlich machen, dass der zukünftige An‐ spruch nicht etwa Mensch oder KI, sondern Mensch und KI gelten sollte. Wir werden Lösungen entwickeln müssen, um Menschen von den Vorteilen der Zusammenarbeit mit KI-Tools zu überzeugen. Ein Weg kann es sein, menschliche Unzulänglichkeiten direkt aufzuzeigen. Ein weiterer, ‚sanfte‐ rer‘ Ansatz ist es, sie davon zu überzeugen, dass durch KI Entscheidungen erleichtert und verbessert werden (Lai et al., 2019). 4.2 In AI I trust: Wie wir es schaffen, dass Menschen künstlicher Intelligenz vertrauen Aus der Sozialpsychologie wissen wir, was gut funktionierende Mensch- Mensch-Partnerschaften ausmacht. Und viele dieser Erkenntnisse können direkt auf Mensch-Maschine-Szenarien übertragen werden. Zum einen ist bekannt, dass Individuen nicht-menschlichen Objekten menschliche Eigen‐ schaften zuschreiben. Beispielsweise beschreiben sie technische Systeme mit Personalpronomen und platzieren sie damit in einen emotionalen Kon‐ text. So empfinden sie ebenso Frustration oder Zufriedenheit im Umgang mit Computern. Die Social Exchange Theory geht davon aus, dass Menschen mit einem Computer ähnlich wie mit einer Person interagieren: In beiden Fällen antizipiert man Erwartungen vom Gegenüber (Emerson, 1987). Ähnlich verhält es sich mit der Social Identity Theory, die postuliert, dass Menschen auf Grundlage von Ähnlichkeiten oder Zugehörigkeiten eine Verbindung zu technischen Systemen schaffen, analog zu Personen (Fullwood & Doherty- Sneddon, 2006; Reeves & Nass, 1996; Bickmore & Picard, 2005). Basierend auf der Annahme, dass Mensch-Mensch- und Mensch-Computer-Beziehungen ähnliche Strukturen aufweisen, lässt sich schlussfolgern, dass sie auf den gleichen kognitiven und verhaltensbezogenen Prozessen aufbauen. Zu Be‐ ginn einer Beziehung entwickeln Individuen ein Verständnis füreinander, man beobachtet und lernt aus dem Verhalten und der Einstellungen des Gegenübers, was im Zeitverlauf - zumindest im optimalen Fall - zu einer 4.2 In AI I trust: Wie wir es schaffen, dass Menschen künstlicher Intelligenz vertrauen 89 <?page no="90"?> mehr oder weniger stabilen Beziehung führt. Vertrauen ist im Beziehungs‐ prozess entscheidendes Kernelement. Im Allgemeinen wird Vertrauen wie folgt definiert (übersetzt auf dem Englischen): „Vertrauen ist ein psychologischer Zustand, der die Absicht umfasst, auf der Grundlage positiver Erwartungen in Bezug auf die Absichten oder das Verhalten eines anderen eine Verletzlichkeit zu akzeptieren.“ (Mayer et al., 1995) Vertrauen bedeutet, dass man handelt, obwohl man sich in einer unsiche‐ ren Situation befindet: Man verhält sich einer Person wohlwollend und gleichzeitig wissentlich vulnerabel gegenüber, in der Hoffnung, dass dies nicht missbraucht wird (Vertrauensvorschuss). Die Definition von Vertrauen im Kontext von KI-Systemen ergänzt weitere Details (übersetzt aus dem Englischen): „Vertrauen in KI bezieht sich auf die Bereitschaft (…), sich auf die Leistung von KI- Systemen zu verlassen und ihnen zu vertrauen. Es ist ein multidimensionales Konstrukt, das kognitive, affektive und Verhaltenskomponenten umfasst, ein‐ schließlich Überzeugungen, Gefühle und Handlungen gegenüber KI-Systemen.“ (Lee und See, 2004) - Vertrauen und KI Während der Interaktion mit einem technischen System entsteht ein men‐ tales Bild oder Modell. Es kann als Denkkonzept beschrieben werden, eine bestimmte Interaktion oder bestimmte Informationsverarbeitungen zu begreifen. Dieses Konzept wird im Laufe der Zeit kontinuierlich angepasst. Je mehr man interagiert, desto mehr erkennt man, ob ein Gegenüber zuverlässig genug agiert, ob man ihm vertrauen kann. Man lernt durch kon‐ tinuierliches Beobachten (Vertrauen = Überzeugung), inwieweit man dem Gegenüber Vertrauen schenken kann (Vertrauen = Verhalten). Vertrauen ist in der KI-Forschung ein gut etablierter und breitgefasster Forschungs‐ bereich, weil es das zentrale Konzept für erfolgreiche Mensch-Maschine- Interaktionen ist. Vertrauen hat viele Einflussfaktoren - eine Möglichkeit, diese zu strukturieren, zeigt die → Abbildung 7: Vertrauen basiert auf (1) dem System und seinen Eigenschaften, (2) der Nutzer: innen, die mit dem System interagieren, (3) der Art und Weise, wie beide Seiten miteinan‐ 90 4 TEA(I)MWORK schafft Vertrauen: Mensch-Maschine-Kollaboration als Erfolgsfaktor <?page no="91"?> der interagieren, (4) kontextuellen (externen) Faktoren des spezifischen Entscheidungsszenarios. - Confidential - Abbildung 7: Einflussfaktoren auf Vertrauen in Mensch-Maschine-Interaktionen (mit Beispielen) Vertrauen in KI ist beeinflusst durch … SYSTEM SKILLS (1) KI-Typ, Leistung (Accuracy, Reliability), Transparenz, Feedback-Features (XAI) USER ATTRIBUTE (2) persönl. Merkmale, Verhalten, Affekt / Emotion, Expertise (Technik, Aufgabe) INTERAKTIONS- MÖGLICHKEITEN (3) Team-Setup (Human-in-the-loop), Onevs. Two-way-Feedback, Lern(un)fähige KI ENTSCHEIDUNGS- KONTEXT (4) situative Faktoren (Risiko, Stress), Familiarität mit Aufgabe, KI-Information Abbildung 7: Einflussfaktoren auf Vertrauen in Mensch-Maschine-Interaktionen (mit Bei‐ spielen) Im Folgenden sollen einige Beispiele aus allen vier Bereichen näher beschrie‐ ben werden. • Vertrauen + Systemfähigkeiten (1): Untersuchungen zeigen, dass Vertrauen in KI vom System(verhalten) beeinflusst wird. Menschen vertrauen KI-Modellen weniger, wenn sie nicht wissen, wie diese eine Entscheidung berechnen. Da Menschen immer noch die Verantwortung einer Entscheidung tragen, verhindert der Mangel an Kontrolle und Einsicht auch bei gut funktionierenden KI-Modellen einen Vertrauens‐ aufbau. User: innen-Vertrauen ist höher, wenn mehr Einblick in die 4.2 In AI I trust: Wie wir es schaffen, dass Menschen künstlicher Intelligenz vertrauen 91 <?page no="92"?> Funktionsweise eines Systems ermöglicht wird, z. B. in Form von Output-Erklärungen (Explainable Artificial Intelligence = XAI) (Kahr et al., 2023; Nourani et al., 2019, Shin 2021) oder dem Ausweisen von Be‐ rechnungszuversicht (model confidence) oder Berechnungsgenauigkeit (model accuracy) (Helldin et al, 2013). Darüber hinaus zeigte sich, dass die Verwendung von spezifischem Feedback (z. B. Systeme, die sich nach einer Falschberechnung entschuldigen) das Vertrauen der Nutzer: innen erhöhen kann (Dzindolet et al., 2003, Esterwood & Robert, 2021). Eine weitere Studie zeigt, dass das Vertrauen in offene Lernmodelle am höch‐ sten ist, wenn Nutzer und KI-System ihre Handlungen rechtfertigen müssen (Conati et al., 2018). • Vertrauen + User: innen-Eigenschaften (2): Oft ist es nicht nur das System, welches das Vertrauen beeinflusst, sondern auch die Person, die mit ihm interagiert. Vertrauen hängt von persönlichen Einstellungen oder individuellem Verhalten ab. Z. B. gibt es Erkenntnisse darüber, dass die generelle Vertrauensfähigkeit einer Person (Cai et al., 2022; Faulhaber et al., 2021), Charaktereigenschaften (Sharan et al., 2020) oder demografische Attribute (z. B. Alter) (Kahr et al., 2023) das Vertrauen in KI beeinflusst. Es ist außerdem bekannt, dass Vertrauen in KI-Systeme vom Grad der Qualifikation der nutzenden Person abhängt: Während sich Laien häufig (zu sehr) auf die Ergebnisse von Modellen verlassen (over-reliance), vertrauen Expert: innen zu wenig (under-reliance) auf KI-Ratschläge und überschätzen oft die eigenen Fähigkeiten (Lewan‐ dowsky et al., 2000; Logg et al., 2019). Beide Ausprägungen zeigen, wie wichtig es für eine spezifische Aufgabe ist, dass Vertrauen in KI im richtigen Maß kalibriert ist. Eine Möglichkeit, dies zu realisieren, ist, die Art und Weise, wie KI-Berechnungen präsentiert werden, auf den Einzelnen zu personalisieren (Lee et al., 2015). Allerdings birgt dies auch das Risiko, dass Personen KI-Output nur dann vertrauen, wenn es das eigene Bild des Ergebnisses bestätigt (confirmation bias). • Vertrauen + Interaktionsmöglichkeiten (3): Mensch-KI-Interaktio‐ nen können in ihrem Format variieren - von vollständig automatisierten bis hin zu leicht unterstützten Entscheidungen. Wie bei der Zusammen‐ arbeit zwischen zwei Nutzer: innen ist auch bei der Zusammenarbeit zwischen Mensch und KI eine gesunde Dynamik förderlich. Informati‐ onen darüber, wie (und von wem) eine KI entwickelt wurde, kann das Vertrauen in ein System und damit die Zusammenarbeit mit diesem fördern (Ashoori und Weisz, 2019). User: innen-Vertrauen steigt ebenso, 92 4 TEA(I)MWORK schafft Vertrauen: Mensch-Maschine-Kollaboration als Erfolgsfaktor <?page no="93"?> wenn bekannt ist, dass Systeme lernfähig sind, sich also über die Zeit verbessern können (Berger et al., 2021). Ebenso steigt das Vertrauen in KI-Systeme, wenn User: innen aktiv in den Ergebnisprozess involviert werden (Dietvorst et al., 2018). Darüber hinaus führen sogenannte Human-in-the-loop-Ansätze, bei denen Mensch und Maschine als gleich‐ berechtigte(re) Akteure für eine Entscheidung gelten und Fähigkeiten im besten Fall komplementär genutzt werden, zu besseren Ergebnissen. Die komplementäre Art der Zusammenarbeit mit KI wird qualitativ am besten bewertet, wie Studien von Amershi et al. (2014) und Ma et al. (2023) unterstreichen. • Vertrauen + Entscheidungskontext (4): KI-Modelle werden in ver‐ schiedenen Kontexten eingesetzt, von denen einige keine oder nur ge‐ ringe Konsequenzen haben, während sie in Entscheidungssituationen mit hohem Risiko schwerwiegende Folgen haben können. Außerdem gibt es Anwendungsbereiche, in denen Anwender: innen (zunächst) un‐ erfahren im Umgang mit KI-Systemen sind und/ oder ungenügende tech‐ nische Grundqualifiaktionen haben. Studien zeigen, dass Personen mit zunehmender Komplexität menschlichen Expert: innen mehr vertrauen als KI-Modellen (Xu et al., 2020). Bei einigen Aufgabenstellungen mag es gerechtfertigt sein, dem Rat des Kollegen oder der Kollegin zu ver‐ trauen - bei datenbasierten Aufgaben oder im Fall, dass kein Austausch mit Kolleg: innen möglich ist, könnte diese Bevorzugung eine optimale Entscheidung verhindern. Neben den beschriebenen Faktoren gibt es weitere kontextspezifische Aspekte, sie alle müssen individuell erörtert und berücksichtigt werden, damit geeigneten Designlösungen gefunden werden können, um produktives KI-Vertrauen zu gewährleisten. In Zukunft wird der Großteil von Unternehmensentscheidungen auf Big Data beruhen. Daher reicht es nicht aus, die Forschung über Mensch- KI-Interaktionen auf einmalige Interaktionen zu stützen, sondern auch immer langfristige Szenarien zu berücksichtigen. Wir müssen wissen, wie sich Vertrauen auf Grundlage der zuvor diskutierten Einflussfaktoren entwickelt. Zeit als zusätzliche Komponente erhöht die Komplexität von Mensch-Maschine-Kollaborationen: Vertrauen ist ein dynamischer Prozess, basierend auf (vorherigen) Erfahrungen, Überzeugungen und persönlichen Einstellungen (→ Abbildung 7). Vertrauensbildung ist dabei abhängig von spezifischen Interaktionen: Positive Leistungsbeweise verfestigen Ver‐ trauen, das womöglich sogar noch anwächst im Laufe der Zeit, während 4.2 In AI I trust: Wie wir es schaffen, dass Menschen künstlicher Intelligenz vertrauen 93 <?page no="94"?> Fehler zu abrupten Vertrauensbrüchen führen - manche so einschneidend, dass Vertrauen auch nicht wieder zurückgewonnen werden kann. Auch hier kann Vertrauen je nach (kognitivem oder emotionalem) Zustand der Nutzer: innen unterschiedlich ausfallen. - Vertrauensbildung und KI Forschung mit zeitlichem Kontext ist aktuell noch begrenzt, aber man nimmt bereits jetzt an, dass sich Vertrauen in bestimmten Phasen entwickelt. Analog zu Mensch-Mensch-Beziehungen ist anfängliches Vertrauen in KI zunächst unbeständig. Mit jeder Interaktion ergibt sich ein bessers ‚Bild‘ bzw. formt sich das mentale Modell. Je länger eine Beziehung andauert, desto besser festigt sich Vertrauen und ist im Gegensatz zur Kennenlernen-Phase beständig (inertia of trust) (Yu et al., 2017). Insgesamt schlägt die Forschung das folgende Vertrauens-Phasenmodell vor: Nutzer: innen lernen, inwieweit einem System vertraut werden kann - das kann bedeuten, erst zögerlich und skeptisch auf KI-Verhalten zu reagieren (1). Nutzer: innen sind weiterhin (kognitiv) aktiv involviert und lernen immer besser, ihr Vertrauen situativ anzupassen (2). Aktives Engagement und entsprechende Kalibrierungen auf Basis von KI- Involvement werden immer feiner je länger Personen mit einem System interagieren (3). Entsprechend fallen KI-Fehler zu Beginn einer Interaktion stärker ins Gewicht (Nutzer: innen setzen sich aktiv mit KI-Verhalten ausei‐ nander), mit der Folge, dass verlorenes Vertrauen oft nicht wieder komplett hergestellt werden kann. Spätere Ausfälle werden dagegen eher verziehen - das aktive Involvement nimmt mit zunehmener Kontrolle (oder dem Gefühl von Kontrolle) ab (Chacon et al. 2022, Chiou et al. 2021, Yang et al. 2021). Es ist wichtig, realistisch über KI-Performance und entsprechende KI- Ausfälle zu sprechen, denn auch die technisch fortschrittlichsten KI-Systeme sind keine Garantie für konstant perfekte Ergebnisse. KI-Support mag in vielen Fällen zu optimaleren Entscheidungen verhelfen, blindes KI-Vertrauen kann Ergebnisse jedoch gleichermaßen verschlechtern. Aber auch die Tatsa‐ che, dass KI scheitern kann, sollten wir nicht als Grund sehen, ihr großes Kompetenzprofil ungenutzt zu lassen. Die größte Herausforderung besteht aktuell darin, dass hochgradig leistungsfähigen, korrekten Modellen zu wenig Vertrauen entgegengebracht wird. Die Konsequenzen reichen von finanziel‐ len Verlusten bis hin zu Menschenleben. Studien zeigen, dass Menschen immer noch zu häufig eine bessere KI-Entscheidung zugunsten ihrer eige‐ nen (schlechteren) ablehnen (Erlei et al. 2022). Forschung und Industrie 94 4 TEA(I)MWORK schafft Vertrauen: Mensch-Maschine-Kollaboration als Erfolgsfaktor <?page no="95"?> müssen gemeinsam an Lösungen arbeiten, um Ego, fehlende Kompetenz oder Unsicherheiten in Schach zu halten und ein gutes Zusammenarbeiten zu ermöglichen. 4.3 KI vertrauen und langfristig profitieren - ein Ausblick Dieses Kapitel sollte eine wichtige Perspektive zur globalen KI-Diskussion ergänzen: Dass der Umgang mit Daten nicht nur eine Frage der Technik, sondern vor allem eine Frage des Vertrauens von Menschen gegenüber KI ist. Die gezeigten Forschungserkenntnisse machen deutlich, dass es großes Potenzial für zukünftige Kollaborationen zwischen Menschen und KI gibt. Dennoch ist klar, dass noch viel zu tun ist, damit Mensch-Maschine-Kollabora‐ tionen, vor allem aus langfristiger Sicht, erfolgreich sein können. Es gibt noch diverse Bereiche, in denen Forschung fehlt oder konsolidiert werden muss, gleichzeitig müssen wir dafür sorgen, dass vielversprechende Ansätze so schnell wie möglich in die Praxis umsetzt werden. Für Expert: innen in Technik und Design gilt, substanzielles Wissen aus der kognitiven und Sozialpsycho‐ logie sowie Erkenntnisse aus der Verhaltensökonomie anzuwenden, um erfolgreiche KI-Systeme zu entwickeln, die in erster Linie den menschlichen (Vertrauens-)Bedürfnissen im Entscheidungsprozess entsprechen. Für Unternehmen gilt jetzt, zu begreifen, welche Bedeutung KI für ihren individuellen Geschäftserfolg hat. Das bedeutet, die kontinuierlichen Tech- Entwicklungen zunächst ernst zu nehmen und anschließend zu analysie‐ ren, inwieweit intelligente Technologie im jeweiligen Geschäftsmodell am besten eingesetzt werden kann. Ein weiterer Schritt ist eine angemessene Implementierung von KI-Systemen: Denn KI-Systeme zu haben, heißt nicht automatisch, dass sie genutzt werden. Expert: innen, die mit KI arbeiten sollen, müssen in den Implementierungsprozess aktiv einbezogen werden, damit sie sich auf KI-Assistenzsysteme einlassen, um am Ende bessere (KIunterstützte) Entscheidungen treffen zu können. Letzteres bedeutet, dass Mitarbeitende für die Zusammenarbeit mit KI grundlegend geschult werden müssen, um potenzielle Ängste oder Aversionen abzubauen. Im besten Fall werden KI-Tools genutzt, die die Möglichkeiten geben, dass menschliche Expertise für das Training von KI-Tools genutzt werden können (KI-Opti‐ mierung durch Human-in-the-loop-Ansätze). Auf globaler Ebene müssen wir mehr dafür tun, dass Mensch-Maschine- Interaktionen besser (und mehr) akzeptiert werden und wir Wege finden, 4.3 KI vertrauen und langfristig profitieren - ein Ausblick 95 <?page no="96"?> vom Denken ins Tun zu kommen. Gleichzeitig müssen wir Leitlinien und Spielregeln erarbeiten, die die kulturellen, gesellschaftlichen und ethi‐ schen Auswirkungen von KI berücksichtigen. Es steht außer Frage, dass es übergreifende Verbindlichkeiten für Anwender: innen und Begünstigte geben muss - beispielsweise müssen wir Lösungen finden, wie Veränderun‐ gen oder Wegfallen von Arbeitsplätzen kompensiert und die Integration von Menschen mit fehlenden Technikkenntnissen realisiert werden kann. Ebenso müssen wir uns mit der Frage der Verantwortlichkeit für die verschiedenen Szenarien der Zusammenarbeit zwischen Mensch und KI (au‐ tomatisierte vs. erweiterte Entscheidungsfindung) auseinandersetzen und klare Antworten geben. Schließlich braucht es Anstrengungen, die sich mit der großen Frage befasst, wie mit Daten verantwortungsvoll umgegangen wird - wie problematische Daten erkannt und aus KI-Trainingsdatensätzen und damit aus der Entscheidungsfindung ausgeschlossen werden können, um voreingenommene Entscheidungen zu vermeiden. Technik wird uns in absehbarer Zeit weiterhin auf Trab halten. Durch Big Data sind die Schritte der vierten industriellen Revolution aber größer und wir sehen schneller, welche Unternehmen vorbereitet sind und welche nicht. Fest steht: Die nächsten Jahre werden herausfordernd. Gleichzeitig sollten wir uns auf die Vorteile des technischen Fortschritts konzentrieren und sehen, welche Chancen sich ergeben, wenn wir Daten und Technik mit unseren menschlichen Talenten matchen. Kollaboration ist dabei das wesentliche Instrument - und gutes Teamwork zwischen Mensch und KI wird möglicherweise die bisher stärkste Kraft in der Geschichte sein und bestimmen, in welcher Art von Zukunft wir leben werden. KI zu vertrauen kann dazu beitragen, die Dinge zum Besseren zu wenden, vor allem wenn wir helfen, sie zu verbessern und ihr erlauben, unsere menschlichen Defizite und Unzulänglichkeiten zu überwinden. 4.4 Literatur Amershi, S., Cakmak, M., Knox, W.B. und Kulesza, T., Power to the people: The role of humans in interactive machine learning. AI Magazine, 2014, 35(4), 105-120. Arvanitopoulos, T., Karydis, A. und Giannakopoulos, G., A Review of AI Applicati‐ ons in Building Energy Systems. Energies, 2019, 12(12), 2366. https: / / doi.org/ 10.3 390/ en12122366 96 4 TEA(I)MWORK schafft Vertrauen: Mensch-Maschine-Kollaboration als Erfolgsfaktor <?page no="97"?> Ashoori, M. und Weisz, J.D., In AI we trust? Factors that influence trustworthiness of AI-infused decision-making processes, 2019, arXiv preprint arXiv: 1912.02675. Berger, B., Adam, M., Rühr, A. und Benlian, A., Watch Me Improve — Algorithm Aversion and Demonstrating the Ability to Learn. Business and Information Systems Engineering, 2021, 63(1), 55-68. https: / / doi.org/ 10.1007/ s12599-020-006 78-5. Bickmore, T.W. und Picard, R.W., Establishing and maintaining long-term humancomputer relationships. ACM Transactions on Computer-Human Interaction (TOCHI), 2005, 12(2), 293-327. Bonaccorsi, A. und Daraio, C., Artificial intelligence, machine learning and big data in the innovation process. Economics of Innovation and New Technology, 2019, 28(4), 343-354. Cai, W., Jin, Y. und Chen, L., Impacts of Personal Characteristics on User Trust in Conversational Recommender Systems, in: Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems (CHI '22). Association for Computing Machinery, 2022, New York, NY, USA, Article 489, 1-14. https: / / doi.o rg/ 10.1145/ 3491102.3517471 Campbell, J.P. und DeBlois, P.B., Artificial Intelligence and Academic Advising: Opportunities and Challenges. Journal of College Student Retention: Research, Theory & Practice, 2019, 21(3), 375-383. Castano, E., Yzerbyt, V., Paladino, M.P. und Sacchi, S., I belong, therefore, I exist: Ingroup identification, ingroup entitativity, and ingroup bias. Personality and Social Psychology Bulletin, 2002, 28(2), 135-143. Chacon, A., Kausel, E.E. und Reyes, T., A longitudinal approach for understanding algorithm use. Journal of Behavioral Decision Making, 2022, 1-15. https: / / doi.or g/ 10.1002/ bdm.2275 Chiou, M., McCabe, F., Grigoriou, M. und Stolkin, R., Trust, shared understanding and locus of control in mixed-initiative robotic systems. 2021 30th IEEE Interna‐ tional Conference on Robot and Human Interactive Communication, RO-MAN 2021, 2021, 684-691. https: / / doi.org/ 10.1109/ RO-MAN50785.2021.9515476. Conati, C., Porayska-Pomsta, K. und Mavrikis, M., AI in Education needs interpre‐ table machine learning: Lessons from Open Learner Modelling, 2018, arXiv preprint arXiv: 1807.00154. Dietvorst, B.J., Simmons, J.P. und Massey, C., Overcoming algorithm aversion: People will use imperfect algorithms if they can (even slightly) modify them, Management Science, 2018, 64(3), 1155-1170. https: / / doi.org/ 10.1287/ mnsc.2016.2643. 4.4 Literatur 97 <?page no="98"?> Dzindolet, M.T., Pierce, L.G., Beck, H.P. und Dawe, L.A., The perceived utility of human and automated aids in a visual detection task. Human Factors, 2002, 44(1), 79-94. https: / / doi.org/ 10.1518/ 0018720024494856. Emerson, R.M., Social exchange theory, London 1987. Erlei, A., Das, R., Meub, L., Anand, A. und Gadiraju, U., For what it’s worth: humans overwrite their economic self-interest to avoid bargaining with ai systems. In: Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems, 2022, 1-18. Esteva, A., Robicquet, A., Ramsundar, B., Kuleshov, V., DePristo, M., Chou, K. und Dean, J., A guide to deep learning in healthcare, Nature Medicine, 2019, 25(1), 24-29. Esterwood, C. und Robert, L.P. (2021, August 12). Do You Still Trust Me? Human- Robot Trust Repair Strategies. Proceedings of 30th IEEE International Conference on Robot and Human Interactive Communication (RO-MAN 2021). Evans, J.S.B., In two minds: dual-process accounts of reasoning. Trends in cognitive sciences, 2003, 7(10), 454-459. Faulhaber, A.K., Ni, I. und Schmidt, L., The Effect of Explanations on Trust in an Assistance System for Public Transport Users and the Role of the Propensity to Trust. In: Schneegass, S., Pfleging, B. und Kern, D. (Hrsg.), Mensch und Computer 2021 - Tagungsband. New York: ACM 2021, 325-332, DOI: 10.1145/ 3473856.3473886. Fullwood, C., und Doherty-Sneddon, G., The effect of stimulus agency on users’ social behaviour towards screens. Interacting with Computers, 2006, 18(1), 18-33. Glover, E., Strong AI vs Weak AI: What’s the difference? Built In., 2022, Retrieved from https: / / builtin.com/ artificial-intelligence/ strong-ai-weak-ai on March 28, 2023. Haven, J. und Burrell, J., AI harms are already there. Medium | Data & Society, 2023, Retrieved from https: / / points.datasociety.net/ ai-harms-are-already-here-239f01d b5f54 on March 28, 2023. Helldin, T., Falkman, G., Riveiro, M. und Davidsson, S., Presenting system uncer‐ tainty in automotive UIs for supporting trust calibration in autonomous driving. Proceedings of the 5th International Conference on Automotive User Interfaces and Interactive Vehicular Applications, AutomotiveUI, 2013, 210-217. https: / / do i.org/ 10.1145/ 2516540.2516554. IBM, What is Artificial Intelligence (AI)? IBM Topics, 2023, Retrieved from https: / / www.ibm.com/ topics/ artificial-intelligence on March 29, 2023. Kahr, P.K., Rooks, G., Willemsen, M.C. und Snijders, C.C.P., It Seems Smart, but It Acts Stupid: Development of Trust in AI Advice in a Repeated Legal Decision- Making Task. Proceedings of the 28th International Conference on Intelligent 98 4 TEA(I)MWORK schafft Vertrauen: Mensch-Maschine-Kollaboration als Erfolgsfaktor <?page no="99"?> User Interfaces (IUI '23). Association for Computing Machinery, New York 2023, NY, USA, 528-539. https: / / doi.org/ 10.1145/ 3581641.3584058. Kovanovic, V., Joksimovic, S., Gasevic, D. und Hatala, M., Personalized Learning: A Review of the Educational Technology Research and Development Community. Journal of Educational Technology & Society, 2019, 22(1), 154-170. Lai, Y.H. und Lin, C.H., The role of artificial intelligence in management: Opportu‐ nities and challenges. Journal of Business Research, 2019, 98, 365-380. Lee, J.D. und See, K.A., Trust in automation: Designing for appropriate reliance. Human Factors, 2004, 46(1), 50-80. Lee, M. K., Kusbit, D., Metsky, E. und Dabbish, L., Working with machines: The im‐ pact of algorithmic and data-driven management on human workers. Conference on Human Factors in Computing Systems - Proceedings, 2015, April, 1603-1612. https: / / doi.org/ 10.1145/ 2702123.2702548. Lewandowsky, S., Mundy, M. und Tan, G.P.A., The dynamics of trust: Comparing humans to automation. Journal of Experimental Psychology: Applied, 2000, 6(2), 104-123. https: / / doi.org/ 10.1037/ 1076-898X.6.2.104. Logg, J.M., Minson, J.A. und Moore, D. A., Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 2019, 151, 90-103. https: / / doi.org/ 10.1016/ j.obhdp.2018.12.005. Liu, S., Fu, H., Zhang, Q., Wang, X. und Cui, Q., Artificial intelligence for energyefficient buildings: A review. Renewable and Sustainable Energy Reviews, 2021, 136, 110424. https: / / doi.org/ 10.1016/ j.rser.2020.110424. Loewenstein, G., Hot-cold empathy gaps and medical decision making,-Health Psy‐ chology, 2005, 24(4, Suppl), 49-56.-https: / / doi.org/ 10.1037/ 0278-6133.24.4.S49. Ma, S., Lei, Y., Wang, X., Zheng, C., Shi, C., Yin, M. und Ma, X., Who Should I Trust: AI or Myself ? Leveraging Human and AI Correctness Likelihood to Promote Appropriate Trust in AI-Assisted Decision-Making, 2023, arXiv preprint arXiv: 2301.05809. Mayer, R.C., Davis, J.H. und Schoorman, F.D., An Integrative Model of Organizational Trust. Academy of Management Review, 1995, 20(3), 709-734. Mori, M., MacDorman, K. F. und Kageki, N., The Uncanny Valley. IEEE Robotics & Automation Magazine, 2012, 19, 2, 98-100, https: / / doi.org/ 10.1109/ MRA.2012.21 92811 New Vantage, Data and AI Executive Survey, 2022, Retrieved from https: / / www.b usinesswire.com/ news/ home/ 20220103005036/ en/ NewVantage-Partners-Release s-2022-Data-And-AI-Executive-Survey on March 28, 2023. Nickerson, R.S., Confirmation bias: A ubiquitous phenomenon in many guises. Review of general psychology, 1998, 2(2), 175-220. 4.4 Literatur 99 <?page no="100"?> Nourani, M., Kabir, S., Mohseni, S. und Ragan, E.D., The Effects of Meaningful and Meaningless Explanations on Trust and Perceived System Accuracy in Intelligent Systems, 2019, www.aaai.org. Reeves, B. und Nass, C., The media equation: How people treat computers, television, and new media like real people and places, Cambridge University Press 1996. Roumans, R., van der Zander, Q. E. W., Scheeve, T., Kusters, K., Dehghani, N., Schreuder, R-M., Masclee, A.A.M., Snijders, C.C.P., de With, P.H.N., van der Sommen, F. und Schoon, E.J., Trust in artificial intelligence: do confidence scores increase the appropriate trust of a medical doctor in computer-aided diagnosis systems? , 2022, Abstract from Digestive Disease Days, Netherlands. Schindler, J. und Becker, J., Predictive Maintenance for Industry 4.0 — A Review, Procedia CIRP, 2019, 84, 669-674. https: / / doi.org/ 10.1016/ j.procir.2019.03.184 Sharan, N. N. und Romano, D.M., The effects of personality and locus of control on trust in humans versus artificial intelligence, Heliyon, 2020, 6(8), e04572. Shin, D., The effects of explainability and causability on perception, trust, and acceptance: Implications for explainable AI. International Journal of Human Computer Studies, 2021, 146. https: / / doi.org/ 10.1016/ j.ijhcs.2020.102551. Sunstein, C.R., People prefer system-2 nudges (kind of). Duke LJ, 2016, 66, 121. Tajfel, H., Social stereotypes and social groups, New York 2010. Tversky, A. und Kahneman, D., Availability: A heuristic for judging frequency and probability. Cognitive psychology, 1973, 5(2), 207-232. Tversky, A. und Kahneman, D., Judgment under uncertainty: Heuristics and biases, Science, 1974, 185(4157), 1124-1131. Tversky, A. und Kahneman, D., Loss aversion in riskless choice: A referencedependent model, Quarterly journal of economics, 1991, 106(4), 1039-1061. Van Hoye, G. und Lievens, F., Recruitment Technology: The Role of Artificial Intelligence and Machine Learning, Annual Review of Organizational Psychology and Organizational Behavior, 2019, 6(1), 459-481. Vidal, M. E. und Cordeiro, R., Artificial Intelligence in Human Resources Manage‐ ment: Challenges and Opportunities, In: Handbook of Research on Human Resources Strategies for the New Millennial Workforce, 2019, 33-48, IGI Global. Wang, Y., Jiang, P., Song, Y., Wang, X. und Zhu, B., A review of predictive maintenance methods for rotating machinery based on artificial intelligence, Measurement, 2021, 174, 109316. https: / / doi.org/ 10.1016/ j.measurement.2021.109316 Yang, X. J., Schemanske, C. und Searle, C., Toward quantifying trust dynamics: How people adjust their trust after moment-to-moment interaction with automation, 2021, http: / / arxiv.org/ abs/ 2107.07374. 100 4 TEA(I)MWORK schafft Vertrauen: Mensch-Maschine-Kollaboration als Erfolgsfaktor <?page no="101"?> Yu, K., Conway, D., Berkovsky, S., Zhou, J., Taib, R. und Chen, F., User trust dynamics: An investigation driven by differences in system performance, International Conference on Intelligent User Interfaces, 2017, Proceedings IUI, 307-317. https: / / doi.org/ 10.1145/ 3025171.3025219. Zheng, L., Lee, H. J., Kwon, Y. H. und Park, S.J., Clinical decision support system based on machine learning algorithms: A systematic review, Healthcare Informatics Research, 2021, 27(1), 3-17. 4.4 Literatur 101 <?page no="103"?> Customer Experience und Innovation - neue Geschäftsmodelle mit Daten <?page no="105"?> 5 Vom Fax zum Smartphone Banking - Wie intelligente Datennutzung das Kundenerlebnis verbessert | von Sven Deglow und Jörg Neumann - Die Consorsbank: Pionierin im Direktbrokerage in Deutschland Das Jahr 1994 markiert eine Zeitenwende im deutschen Bankgeschäft. Erstmals traten nach US-Vorbild Broker in den deutschen Markt ein, die den Handel mit Wertpapieren direkt, also unabhängig von der Filiale oder einem Bankberater ermöglichten. Die ersten beiden Player am Markt waren die Münchner Direkt Anlage Bank (DAB) und Consors aus Nürnberg. Heute finden sich die beiden Pioniere unter einem Dach: Nachdem BNP Paribas bereits 2002 Consors übernommen hatte, wurde 2015 die DAB akquiriert. Während das Direktgeschäft mit Privatkunden unter der Marke Consorsbank gebündelt ist, widmet sich DAB BNP Paribas dem Geschäft mit Finanzinter‐ mediären, allen voran mit unabhängigen Vermögensverwaltern. Von Anfang an hatten sich die Direktbroker Innovation auf die Fahnen geschrieben. Dabei waren die technischen Mittel aus heutiger Sicht beschei‐ den. Direktkauf von Wertpapieren hieß zu Beginn, Orders per Telefon oder per FAX aufzugeben. Außerdem gab es Experimente mit WAP - kurz für „Wireless Application Protocol“, einem Ansatz, Webseiten für Handys mit kleinem Display zu optimieren - und Bildschirmtext (btx). Im heutigen Sinn online gingen die Broker 1996, als erstmals Wertpapierkäufe und -verkäufe übers Internet möglich wurden. Seitdem ist viel passiert: Aktuell nimmt der Anteil der mobil über die Smartphone App der Consorsbank aufgegebenen Orders rasant zu. Rund ein Drittel der Trades werden mittlerweile bei der Consorsbank mobil initiiert und bei den jüngeren Zielgruppen ist der Anteil deutlich höher. Die Anwendungen sind viel einfacher und nutzerfreundli‐ cher geworden. Bank- und Wertpapiergeschäfte können jederzeit bequem von unterwegs erledigt werden. Wie bei den Orderwegen hat sich die Consorsbank auch beim Umgang mit Daten in den letzten Jahrzehnten deutlich weiterentwickelt. Daten haben beispielsweise das Kampagnenmanagement revolutioniert und tragen heute entscheidend dazu bei, dass fundiertere Unternehmensentscheidungen ge‐ troffen werden können. <?page no="106"?> Die intelligente Nutzung von Daten entfaltet vor allem dann ihre Wir‐ kung, wenn dabei der Kundenutzen im Fokus steht: Mithilfe von Daten kann die Bank das Kundenerlebnis sukzessive verbessern, ihre Beziehungen zu den Kunden stärken und gerade dadurch auch wirtschaftlich erfolgreicher sein. 5.1 Wie Daten das Kampagnenmanagement der Consorsbank verändert haben Die Art und Weise, wie die Consorsbank Marketingkampagnen plant, steuert, ausspielt und analysiert, hat sich grundsätzlich verändert - und damit auch die Art und Weise, wie sie Kunden anspricht. Das hängt damit zusammen, dass mithilfe von umfassenden intelligenten Datenanalysen die Produktprä‐ ferenzen der Kunden viel leichter und zielgenauer ermittelt werden können. Wie war es früher, in den Gründungsjahren der Bank? Die Marketingver‐ antwortlichen überlegten sich auf Basis bestimmter Zielvorgaben, welche Zielgruppen sie mit welchen Produkten und Marketingbotschaften angehen wollten. Die Definition der Zielgruppe erfolgte dabei meist aus dem eigenen Expertenwissen und vielfach auch „aus dem Bauch heraus“. Der klassische Kanal, um die Zielgruppen zu erreichen, waren Direktmailings. Da diese zuerst konzipiert und dann gedruckt werden mussten, bedurfte es langer Vorlaufzeiten. Ein weiterer Kanal waren Kundenmagazine, in denen eben‐ falls „mit der Gießkanne“ Anlageideen vorgestellt wurden, die das Interesse möglichst vieler Anleger wecken sollten. Die Zusammenstellung der Verteiler für die Direktmailings mit den Adressen der Zielgruppe wurde bei der IT beauftragt. Grundlage war eine Kombination von bestimmten Kundenmerkmalen wie Alter, Geschlecht, Umsatz oder die letzte Aktivität. Da die IT dafür konkrete Datenabfragen programmieren mussten, wurde auf komplexere Regelwerke verzichtet. Das Ergebnis waren wenige, sehr große Zielgruppen, die keine individuellen Präferenzen berücksichtigten. Auf Kontrollgruppen, um später den Effekt der Maßnahmen durch A/ B Tests messen zu können, wurde aus Komplexitätsgründen fast immer verzichtet. Die Erfolgskontrolle der Maßnahmen bestand in der Regel lediglich darin, rein quantitativ die Zahl der Kunden zu ermitteln, die auf das entsprechende Angebot reagiert hatten. Auch diejenigen, die ganz ohne Marketingmaßnahme von sich aus das Angebot in Anspruch genommen 106 5 Vom Fax zum Smartphone Banking <?page no="107"?> hatten, wurden mitgezählt, was eine weitere Unschärfe in die Messergeb‐ nisse brachte. - Selbstlernende Scoring-Engines zur Entwicklung von Next Best Offers Mit den heutigen Prozessen hat dies kaum noch etwas zu tun. Die Steinzeit der Kampagnenplanung liegt schon einige Zeit zurück. Das Vorgehen „aus dem Bauch heraus“ wurde zunächst durch vereinzelte Affinitätsmo‐ delle ergänzt. Heute verfügen Marketingverantwortliche dagegen über eine selbstlernende Scoring-Engine. Diese stellt aufgrund analytischer Modelle für jeden einzelnen Kunden Affinitätsscores zur Verfügung. Ergänzt werden diese Scores um weitere kundenspezifische Merkmale aus den Bereichen Soziodemographie, Verhalten und Profitabilität. Über ein stetig weiterent‐ wickeltes Dashboard haben die Marketing- und Sales-Abteilungen interak‐ tiven Zugriff auf die Datentabellen - die sogenannte Customer Affinity Matrix (Cama). Die Kennzahlen verraten die Abschlusswahrscheinlichkeit für alle Pro‐ dukte und Services der Bank. Die dahinterliegenden Modelle werden täglich auf Basis neuer Produkt- und Serviceabschlüsse automatisch evaluiert und bei Bedarf auf automatisierte Weise neu trainiert. Somit spiegeln diese Modelle permanent die aktuelle Kundenstruktur, Marktsituation und Be‐ dürfnislage der Kunden wider. Die Marketingexperten sind dadurch nicht mehr Auftraggeber ohne jegliche Data-Skills. Sie haben Planungs-Tools zur Verfügung, mit deren Hilfe sie analytisch gestützt erkennen können, wie viele Kunden Potenzial für bestimmte Produkte und Services haben und was die „Next Best Offer“ für jeden einzelnen Kunden ist. - Datengetriebenes Kampagnenmanagement Im Kampagnenmanagement-System hinterlegen die Marketing- und Sales- Verantwortlichen die konkreten Zielgruppendefinitionen über ein grafi‐ sches User-Frontend. Dabei können auch verschiedene Aspekte wie Aus‐ schlussgruppen, Consent, Abhängigkeiten zu anderen Marketingaktionen, Kontrollgruppenbildung für A/ B-Tests oder Kanalpräferenzen von Kunden berücksichtigt werden. Auf diese Weise können die Mitarbeitenden aus dem Marketing in Eigen‐ regie auch komplexe, aufeinander aufbauende Maßnahmenketten anlegen. Auch dazu stehen ihnen von den Datenspezialisten bereitgestellte Self- Service-Lösungen zur Verfügung. Einmal im System angelegt, laufen diese 5.1 Wie Daten das Kampagnenmanagement der Consorsbank verändert haben 107 <?page no="108"?> Maßnahmenketten voll automatisiert und initiieren bestimmte Kommuni‐ kationen. Auslöser für solche Botschaften an die Kunden sind bestimmte vordefinierte „Trigger“. So kann beispielsweise ein bestimmtes Kundenver‐ halten zu einer Push-Mitteilung führen. Dabei kann sich der Inhalt der Produkt- und Servicekommunikation auf Basis der oben beschriebenen kun‐ denindividuellen Scores je nach Person aus unterschiedlichen Bestandteilen zusammensetzen. Statt wie früher wenige sehr große Zielgruppen werden nun sehr viele kleine Kundengruppen ihren Bedürfnissen entsprechend passgenau bedient. Somit haben die Kampagnenverantwortlichen auf einen Blick konkrete Erkenntnisse zu den Cross- und Upselling-Potenzialen in der aktuellen Kundenstruktur. Marketingaktionen sind dann nicht mehr isolierte One- Shot-Maßnahmen. Es gibt nicht mehr unvermittelte Kundenanschreiben unter dem Motto: „Jetzt machen wir mal eine Osteraktion.“ Stattdessen erhalten die Kunden individuelle Angebote, weil die Bank weiß, dass sie Bedarf und Potenzial für ein bestimmtes Produkt haben. Der Mix der Kommunikationsmaßnahmen erfolgt in der Regel über digitale Kanäle - von der E-Mail über die Website bis hin zu Push-Notifications. Deshalb entfallen auch lange Vorlaufzeiten für die Produktion von Print-Erzeugnissen. - Exponentielles Wachstum kleiner Kampagnen Wie sich das „Setup“ der Kundenkommunikation in den letzten Jahren verändert hat, wird auch aus → Abbildung 8 ersichtlich. Jeder Punkt steht für eine Kampagne. Je höher ein Punkt angeordnet ist, an desto mehr Empfänger wendete sich die Maßnahme. Sofort fällt auf, wie sehr sich insbesondere die Kampagnen mit kleineren Zielgruppen - auch mit Empfängerzahlen im kleinen dreistelligen Bereich - im Laufe der Jahre exponentiell vermehrt haben. Aber auch die großen Aussendungen mit mehreren Hunderttausend Empfängern, z. B. die regelmäßigen Newsletter, sind mehr geworden. Diese sind nach dem Baukastenprinzip auf die Bedürfnisse einzelner Kundengrup‐ pen zugeschnitten und unterscheiden sich je nach Gruppe. In Zukunft werden zunehmend Push Notifications über das Smartphone als weiterer Interaktionskanal mit den Kunden Anwendung finden. 108 5 Vom Fax zum Smartphone Banking <?page no="109"?> - Confidential - Anzahl der adressierten Kunden Abbildung 8: Kampagne der Consorsbank Abbildung 8: Kampagnen bei der Consorsbank 2008-2022 Die Differenzierung gilt auch für die monatlichen Angebots-Newsletter. Gab es davon ursprünglich nur eine Version, die alle Abonnenten ohne Variation erhielten, arbeitete die Bank zwischenzeitlich mit drei bis vier segmentspe‐ zifischen Newsletter-Versionen. Mittlerweile erhalten die Kunden einen mittels datenanalytischer Erkenntnisse spezifisch für sie zusammengestell‐ ten Newsletter auf Basis ihrer Affinitäten und Präferenzen. Dafür werden die Top-5-Produkte und Services jedes einzelnen Kunden bestimmt, zu denen er die höchste Affinität hat. Je nachdem, ob es sich um Cross- oder Upselling-Angebote handelt, wird noch ermittelt, ob der Kunde die entsprechenden Produkte und Services bereits nutzt oder nicht. Auf Basis dieser kundenspezifischen Top-5 wird dann automatisiert der kundenspezifische Newsletter aus den im Angebotskatalog vorliegenden Inhalten zusammengestellt. So gibt es heute jeden Monat über 10.000 Newsletter-Varianten. - Marketing-Controlling über Dashboards Im Zuge der Zielgruppenselektion im Kampagnenmanagementsystem las‐ sen sich direkt im Regelwerk repräsentative Kontrollgruppen beispiels‐ weise für A/ B-Tests erstellen und damit die Wirkung einzelner Kampag‐ 5.1 Wie Daten das Kampagnenmanagement der Consorsbank verändert haben 109 <?page no="110"?> nen nachvollziehen. Über vordefinierte Reports und Dashboards können sich Marketingverantwortliche im Self-Service jederzeit einen Überblick über verschiedene Performance-Kennzahlen ihrer Maßnahmen schaffen. So gewinnen sie frühzeitig Kenntnis über die Wirksamkeit ihrer Aktionen und können unmittelbar gegensteuern, wenn die Maßnahme nicht wie erwünscht funktioniert. Ohne Fähigkeiten und Kenntnisse im Kontext der Nutzung von datenge‐ stützten Tools und Anwendungen kann heute kein Marketingexperte mehr bestehen. Wurde in der Vergangenheit der Erfolg daran gemessen, dass Mailings in einer Auflage von mehreren Tausend an Kunden versendet wurden, ist heute relevant, wie stark die Kommunikationsmaßnahmen die Cross- und Upselling-Quoten in der Kundenbasis erhöhen konnten. Es geht also nicht mehr nur um den Produktverkauf um jeden Preis, sondern um serviceorientierte Angebote im Sinne der Kunden. Wenn die Produkte den Bedürfnissen der Zielgruppe entsprechen, nehmen sie die Vorschläge viel besser wahr und kommen leichter zum Abschluss. Davon profitieren sowohl Bank als auch Kunde langfristig - eine klassische Win- Win-Situation. Wie man am Beispiel Kampagnenmanagement erkennt, hat sich der Reifegrad der Nutzung von Daten in den letzten Jahren deutlich erhöht. Daten gab es in der Vergangenheit auch schon zur Genüge. Aber wie diese Daten im Unternehmen zur Verfügung gestellt werden, wie sie analysiert und für alle nutzbar gemacht werden können, hat sich deutlich verändert. Ein wesentlicher Fortschritt besteht darin, dass mittlerweile auch unstruk‐ turierte Daten viel besser genutzt werden können. 5.2 Wie die Consorsbank unstrukturierte Daten für sich nutzt Dank moderner IT-Infrastrukturen, höherer Rechenleistung und neuer Ver‐ fahren ist es heute möglich, weitreichende Daten für Auswertungszwecke zur Verfügung zu stellen. Dazu zählt unter anderem der riesige Schatz an unstrukturierten Daten. Auch Text- und Sprachdaten sowie digitale Daten stehen mittlerweile als Quelle für Analysen zur Verfügung. Damit können ganz neue Use Cases unterstützt werden. Zwar steht die Bank in diesem Bereich noch ganz am Anfang, doch die Pilotierung von ersten 110 5 Vom Fax zum Smartphone Banking <?page no="111"?> Anwendungsfällen zeigt, welches enormes Potenzial in solchen Daten steckt. - Sprachdaten analysieren Die Data Scientists aus dem Team Business Analytics & Information der Consorsbank haben mithilfe von „Machine Learning“ einen Prototyp für eine Speech-to-Text-(S2T)-Komponente entwickelt. Diese ist in der Lage, Sprachdateien automatisch in Text umzuwandeln und zu analysieren. Die Funktion ist vielen durch die Nutzung von Sprachassistenten wie Alexa oder Siri bekannt. Das Besondere dabei: Das Modell ist speziell auf den Wortschatz angepasst, der in der Bank verwendet wird. Außerdem müssen die Gesprächsdaten nicht das Haus verlassen, was datenschutzrechtliche Vorteile mit sich bringt. Im Kundenservice besteht schon seit mehreren Jahren großes Interesse, diese Technologie einzusetzen. Z. B. führen Mitarbeiter im Bereich Processand Quality-Management aus regulatorischen Gründen stichprobenartige Überprüfungen von Gesprächen im telefonischen Kundenservice durch. Das gleiche gilt für regulatorisch relevante Fragestellungen in Beratungsgesprä‐ chen, wenn es beispielsweise um Anlageschwerpunkte oder Risikoklassen geht. Durch den Einsatz von Spracherkennung konnten diese Prozesse deut‐ lich beschleunigt werden: Die Mitarbeiter werden direkt und automatisch zur gesuchten Stelle im Telefongespräch führt. Das spart nicht nur Zeit, sondern steigert auch die Qualität der Prüfungen. Abbildung 9: Zeitersparnis durch Einsatz einer Speech-to-Text Zeitersparnis: 60-80 % traditionelle Prüfung Prüfung mit Speech-to-Text-System Dauer der Prüfung Dauer der Prüfung des Kundenaufrufs Abbildung 9: Zeitersparnis durch Einsatz einer Speech-to-Text-Komponente 5.2 Wie die Consorsbank unstrukturierte Daten für sich nutzt 111 <?page no="112"?> Auf Basis solcher neuen Datenquellen, aber auch mittels analytischer Modelle, lassen sich neue Datenattribute generieren, die so bisher noch nicht zur Verfügung standen. Das können beispielsweise auch aus unstruk‐ turierten Daten generierte Verhaltensdaten auf Einzelkundenbasis sein, beispielsweise wie häufig Kunden den telefonischen Kontakt mit der Bank suchen oder mit welchen Geldanlagethemen oder Produkten sie sich gerade beschäftigen. Diese Features lassen sich dann in Segmentierungen nutzen. Aktuell wird in der Consorsbank überlegt, wie dieses neu gewonnene Know-how in Sachen Spracherkennung auch für andere Anwendungsfälle innerhalb der BNP Paribas Gruppe zum Einsatz kommen kann. - Kundenfeedback verstehen Eine andere Klasse von unstrukturierten Daten ist das Kundenfeedback, das für die Weiterentwicklung der Consorsbank eine besondere Rolle spielt. Über solche Feedbacks werden neue Daten generiert, die wertvolle Einblicke und Erkenntnisse zur Verbesserung von Produkten und Services liefern. So ermittelt die Consorsbank regelmäßig, ob und in welchem Maße die Kunden die Bank weiterempfehlen - sowohl bezogen auf das gesamte Kundenerlebnis als auch in Bezug auf einzelne Produkte und Services, beispielsweise Sparpläne, die Handelsoberfläche oder den telefonischen Kundendialog. Dies geschieht mithilfe des „Net Promoter Score (NPS)“, bei dem die Kunden ihre Weiterempfehlungsbereitschaft für die Bank auf einer Skala von 0 bis 10 angeben und optional ihre Gründe dafür nennen können. Darüber hinaus laufen bei der Consorsbank ständig Rückmeldungen ein, viele davon schriftlich per E-Mail oder in der Online-Community der Bank, in der sich Kunden gegenseitig unterstützen, Fragen an die Bank stellen oder auch Wünsche und Verbesserungsvorschläge äußern. Aber auch mündlich per Telefon im Gespräch mit dem Kundenservice gibt es eine Fülle von Feedback. Im Rahmen sogenannter „Hot Reactive Loop Calls“ fragt die Bank zudem in persönlichen Telefongesprächen aktiv nach, um noch genauer zu erfahren, wo es konkreten Verbesserungsbedarf gibt. Bereits seit 2014 sammelt die Consorsbank über ein eigenes NPS-Tool systematisch die Ideen der Kunden. Diese Feedbacks der Kunden werden über statistische Modelle automatisch kategorisiert. Die dahinterliegenden, für das Training der Modelle wichtigen Schlagwort-Libraries werden durch die internen Datenspezialisten laufend an die spezifische Terminologie der Produkte und den Service der Consorsbank angepasst. Text-Mining- 112 5 Vom Fax zum Smartphone Banking <?page no="113"?> Modelle werden entsprechend neu trainiert und auf dem aktuellen Stand gehalten. Seit 2018 fließen die Kundenideen auch ins „Customer Issues Board“ ein, einer in das Intranet eingebundenen strukturierten Projektliste, auf die alle Kolleginnen und Kollegen der Consorsbank Zugriff haben. Dort wird auch sichtbar, welche der Ideen besonders häufig von den Kunden vorgebracht werden. Aufgrund dieser Daten priorisiert mehrmals im Jahr ein NPS- Board, das aus Mitgliedern des Managements und den Verantwortlichen der Produktbereiche besteht, die Verbesserungsvorschläge und entscheidet, welche der Ideen mit Nachdruck vorangetrieben werden. So helfen Daten dem Unternehmen dabei, ständig die Wünsche der Kunden im Blick zu haben, sich permanent in deren Sinne zu transformieren und damit am Markt relevant und erfolgreich zu bleiben. 5.3 Datengerechte Organisation Damit Daten im Unternehmen ihre volle Kraft entfalten können, muss die Organisation darauf ausgerichtet sein, diese bestmöglich erheben und analysieren zu können. Bei der Consorsbank ist die gesamte Wertschöp‐ fungskette von Datenbereitstellung, Reporting, Analysen und Governance im Team Business Analytics & Information gebündelt. Es sorgt dafür, dass alle Entscheidungsträger bei der Consorsbank relevante Informationen und Erkenntnisse erhalten. Das unterstützt fundiertere Entscheidungen im Unternehmen und stärkt die Marktposition der Consorsbank. Über Reports, Dashboards oder die eben schon beschriebenen Kampag‐ nenmanagement-Tools stehen relevante Informationen zur passenden Zeit am richtigen Ort zur Verfügung. Die Geschäftsbereiche werden mit Ana‐ lysen unterstützt, beispielsweise um das Produktangebot stärker an den Bedürfnissen der Kunden auszurichten, künftige Entwicklungen beispiels‐ weise am Brokerage-Markt zu antizipieren oder Daten für Bereiche wie Anti-Fraud, Compliance oder IT bereitzustellen. - Neue Rollen in datengetriebenen Organisationen Innerhalb des Teams haben sich in den letzten Jahren unterschiedliche Rollen herauskristallisiert. So gibt es beispielsweise Business-Data-Analy‐ sten und Business-Intelligence-Experten, die sowohl fachliche als auch 5.3 Datengerechte Organisation 113 <?page no="114"?> analytische Expertise brauchen und außerdem über Datenbankkenntnisse verfügen müssen. Data Scientists beschäftigen sich mit komplexeren Ana‐ lysen und Künstlicher Intelligenz. Sie nutzen Methoden, Prozesse, Algorith‐ men und Systeme zur Extraktion von Erkenntnissen, Mustern und Schlüssen aus strukturierten und unstrukturierten Daten. Ganz neu ist die Rolle eines Data Experience Designers. Sie vereint die Aspekte von Data Analytics und User Experience, um noch bessere anwenderfreundliche Datenservices zu schaffen. Im Bereich Data Engineering wird in enger Kooperation mit der IT die Dateninfrastruktur betreut. Solch eine Differenzierung der Rollen stellt sicher, dass angesichts zunehmender Komplexität der Datenwelt alle Aspekte Berücksichtigung finden. Dem Team stehen eine Reihe von leistungsfähigen Analyse-Tools ver‐ schiedener Hersteller zur Verfügung, die in der Lage sind, auch unstruk‐ turierte Daten und große Datenmengen in Echtzeit zu verarbeiten. Des Weiteren ist bei Business Information & Analytics auch die Marktforschung angesiedelt. Über regelmäßige Kundenbefragungen werden hier weitere wertvolle Erkenntnisse generiert, die den im Unternehmen vorhandenen Wissensschatz über den Kunden erweitern. - Datenkultur als Erfolgsfaktor Genauso wichtig wie die Teams, die sich dezidiert mit Daten beschäftigen, ist ein generelles „Data Mindset“ im Unternehmen. Die Fachbereiche haben über Self-Service-Angebote immer mehr Möglichkeiten, für sie relevante Daten zu erheben und zu verarbeiten. Auf diese Weise hat sich dieses Bewusstsein in der Consorsbank in den letzten Jahren sukzessive etabliert. Waren um die Jahrtausendwende wenige Daten- und Auswertungsexperten im Unternehmen, gibt es heute ganze Teams von Mitarbeitenden, die über hohe Expertise in Datenmanagement, Analytics, Reporting aber auch in Ma‐ chine-Learning-Methoden verfügen. Auch hat sich in den Fachabteilungen das Daten-Know-how verbessert. Business-Manager arbeiten selbständig mit Reporting-Tools und Simulationswerkzeugen. Damit können sie eigen‐ ständig relevante Informationen aus Daten generieren. Das hat unter anderem zur Folge, dass die Anforderung an Auswertungen und Analysen unternehmensweit wesentlich anspruchsvoller geworden sind als in früheren Jahren. Damals erschöpften sich die Fragen in rein quantitativen Analysen, beispielsweise wie viele Kunden im letzten Monat gewonnen wurden. Heute geht es vielmehr darum, welche Art von Kunden 114 5 Vom Fax zum Smartphone Banking <?page no="115"?> hinzugekommen sind. Und wie sich die neuen Kunden hinsichtlich Struktur, Aktivität und Verhalten von Neukunden aus Vergleichsmonaten unterschei‐ den. Das ist eine ganz neue Qualität an Wissen, welches das Unternehmen erfolgreicher macht. Um einen Gesamtblick über alle Themen rund um Daten sicherzustellen, arbeitet das Team Business Analytics & Information in einem Bereich mit den Kolleginnen und Kollegen, die den Datenschutz verantworten. Die Datenteams nehmen am Transformationsprozess der Bank teil, die sich zunehmend in eine Organisation mit agilen Arbeitsweisen umwandelt. 5.4 Datenmonetarisierung - mehr als nur Datenverkauf Daten werden die Consorsbank in Zukunft weiter verändern. Sie lassen die Bank noch effizienter und effektiver werden. Gleichzeitig wird es immer neue datengetriebene Services geben, die Kunden begeistern, überraschen und erfolgreicher machen. Ein weiterer Aspekt ist die Monetarisierung von Daten. Schon seit Jahren wird in vielen Unternehmen und Branchen darüber diskutiert, wie intern generierte Daten auch den finanziellen Unternehmenserfolg beflügeln können. Im Fokus steht dabei meistens ein Verkauf von Daten und daraus gewonnenen Erkenntnissen an Dritte. Vorstellbar sind verschiedene Vorgehensweisen: Unternehmen könnten das Data Sharing mit Dritten selbstständig managen oder die Erkenntnisse auch über einen Datenbroker veräußern. Sie könnten Rohdaten oder detailliert aufbereitete Insights und Analysen veräußern. In einem weiteren Schritt könnte Dritten gegen Gebühr eine eigene Analyseplattform zur Verfügung gestellt werden, um diese mit Datenanalysen in Echtzeit zu versorgen. Dabei ist sicherzustellen, dass nur aggregierte, anonymisierte Daten weitergegeben werden. Datenschutz- und geschäftsrelevante Informationen sind tabu. Alles muss gesetzlichen und regulatorischen Anforderungen ent‐ sprechend ablaufen, sodass Kunden, Mitarbeiter und Partner keine Nachteile aus dem Verkauf von Daten haben und für keinen der beteiligten Stakeholder ein Schaden entsteht. Deshalb gibt es hohe Hürden bei der Umsetzung solcher Datenerhebungen sowie bei der Speicherung und dem Verkauf von Daten. Das ist der Grund dafür, dass die Consorsbank in diesem Bereich noch zurückhaltend agiert. 5.4 Datenmonetarisierung - mehr als nur Datenverkauf 115 <?page no="116"?> Datenutzung für Studien und Peer Groups Aber es gibt heute schon andere Möglichkeiten, Daten extern für die Bank nutzbar zu machen. Schon seit vielen Jahren macht die Consorsbank gute Erfahrungen mit Studien und Datenauswertungen, die auch extern über Medien veröffentlicht werden. Legen Frauen besser an als Männer? Wie unterscheiden sich Ost- und Westdeutsche bei der Geldanlage? Oder wie entwickelt sich die Nutzung der Services über mobile Endgeräte? Solche anonymisierten Datenauswertungen sind Teil der Pressearbeit und steigern die Bekanntheit der Consorsbank. Erkenntnisse aus Daten können Anleger auch bei ihren Anlageentschei‐ dungen unterstützen und sie erfolgreicher machen. Welche Produkte sind beispielsweise in der Peer Group besonders beliebt? Solche Daten stellt die Consorsbank ihren Kunden bereits heute kostenlos zur Verfügung und gibt ihnen damit Orientierung. Das ist aber erst der Anfang: Vorstellbar ist es auch, weitere Erkenntnisse aus dem Datenschatz der Consorsbank Kunden gegen Bezahlung über Subscription-Modelle zugänglich zu machen, bei‐ spielsweise Kursprognosen oder Handelsmuster. Auch das ist ein Ansatz, um mit Daten extern - über die eigenen Kunden - Geld zu verdienen. Hinzu kommt ein positiver Effekt, da die Kunden durch solche Daten motiviert werden, die Chancen des Wertpapierhandels noch stärker für sich zu nutzen. - Datennutzung in der Produktentwicklung Meist kommt bei der Diskussion um eine Datenmonetarisierung die Nut‐ zung von Daten für unternehmensinterne Zwecke zu kurz. Mithilfe von Daten können Erkenntnisse gewonnen werden, die das Unternehmen pro‐ fitabler machen, indem beispielsweise Vertriebspotenziale besser erkannt werden. Einige Beispiele: Die Erkenntnis, dass der Trader auch eine hohe Affinität zu Sparplänen haben, führte dazu, dass die Consorsbank dieser Zielgruppe entsprechende Produkte gezielt anbietet. Eine weitere Erkenntnis ist, dass Kunden verstärkt dazu neigen, ihr Konto zu kündigen, wenn sie produktun‐ abhängige Kommunikationen seitens der Bank erhalten. Deshalb vermeidet die Consorsbank mittlerweile solche Kommunikationsinhalte so weit wie möglich. Oder schließlich: Informationen darüber, wann sich Kunden in ihr Depot einloggen und wann sie sich überwiegend mit den privaten Finanzen beschäftigen, geben Hinweise darauf, zu welchem Zeitpunkt sie am besten mit welchen Botschaften ansprechbar sind. 116 5 Vom Fax zum Smartphone Banking <?page no="117"?> Ein Beispiel dafür, wie aus Datenanalysen ein erfolgreiches Produkt entstand, ist das „Young Trader Zero“ Depot der Consorsbank. Durch die Auswertung von Daten wurde deutlich, dass junge Kunden besonders preisbewusst agieren und insbesondere gerne Aktien handeln. Dadurch ist vor zwei Jahren das neue Produkt „Young Trader Zero“ entstanden. Das Depot ermöglicht 18bis 25-Jährigen, zwei Jahre lang kostenlos zu traden. Auf diese Weise ist es der Consorsbank gelungen, verstärkt jüngere Zielgruppen an sich zu binden. Dank der neuen Methoden, wie Daten heute gespeichert, analysiert und verfügbar gemacht werden, steht zu erwarten, dass die Nutzung der Daten zukünftig durch die Daten selber getrieben wird. In ihnen stecken viel mehr Impulse, als Manager heute erahnen können. Es treten Zusammenhänge und Muster zu Tage, die auf den ersten Blick für den Menschen nicht ersichtlich sind und die völlig neue Ideen und Ansätze für innovative Produkte und Services bieten. Zudem werden nicht nur Trendabweichungen oder Anomalien identifi‐ ziert. So beschreibt die bei der Consorsbank entwickelte Insight Engine auch, was zu möglichen Abweichungen geführt hat. Das heißt, es werden gleich Hintergründe mitgeliefert. Das führt im Ergebnis zu effizienteren Prozessen, schneller Entscheidungsfindung, einer verbesserten Time-to- Market und zu einem Wissensvorsprung gegenüber Wettbewerbern, was auch positive wirtschaftliche Auswirkungen hat. 5.5 Zusammenfassung Daten verändern die Welt und werden auch zunehmend das Business revolutionieren, nicht nur in der Finanzbranche. Erfolgreich werden vor allem diejenigen Unternehmen sein, die ihre Daten dafür nutzen, das Kundenerlebnis zu verbessern und echte Mehrwerte für ihre Kunden zu schaffen. Bei kaum einem anderen Thema gab es in den vergangenen Jahren Fort‐ schritte in solch einer hohen Geschwindigkeit. Diese rasante Entwicklung stellt die Unternehmen in allen Bereichen vor große Herausforderungen - nicht nur hinsichtlich des Datenschutzes, sondern insbesondere in Bezug auf Applikationen und Skills. Auf der einen Seite müssen sie ihre Daten- und Analyseinfrastruktur technisch und methodisch ständig auf dem neuesten Stand halten, auf der anderen Seite werden gerade in Banken datenbezogene 5.5 Zusammenfassung 117 <?page no="118"?> Skills immer relevanter, was Personalplanung und Recruiting vor schwierige Aufgaben stellt. Bei allen Herausforderungen und Ungewissheiten überwie‐ gen jedoch die Vorteile und Chancen einer intensiveren Datennutzung. Denn das Wissen, das sich aus Daten generieren lässt, kann für Unterneh‐ men den entscheidenden Wettbewerbsvorteil bringen. Wenn die entsprechende Infrastruktur und ein kompetentes Team vor‐ handen sind, können die Verantwortlichen der Fachbereiche und die Ge‐ schäftsleitung jederzeit auf fundierte Erkenntnisse aus dem Datenschatz der Bank zugreifen. Neben Fachexpertise, langjähriger Erfahrung und oft auch „dem richtigen Bauchgefühl“ machen solche datenbasierten Insights den entscheidenden Unterschied für den langfristigen Unternehmenserfolg. 5.6 Literatur Deglow, S., Die Consorsbank lässt Daten sprechen. Wettbewerbsvorteile durch ganzheitliche, intelligente Datenanalyse, Der Bank Blog, 2020. Deglow, S., Wie die Consorsbank Kunden-Feedback nutzt. Das Ohr am Kunden - Bedürfnisse erkennen und smart umsetzen, Der Bank Blog, 2022. Dold, T., Hoffmann, B. und Neumann, J., Marketingkampagnen effizient managen: Methoden und Systeme - Effizienz durch IT Unterstützung - Integration in das operative CRM, Wiesbaden 2004. 118 5 Vom Fax zum Smartphone Banking <?page no="119"?> 6 Auf die Beziehung von Kunde und Daten kommt es an - aus E-Commerce wird R-Commerce | von Rainer Volland und Joachim Stalph „Wie können wir die Beziehung zwischen Kund: innen und Unternehmen nachhaltig optimieren? “ Diese Frage stellen wir uns bei elaboratum im Kontext der Digitalberatung seit 2010. Im Zentrum all unserer Überlegungen steht der Mensch. Konsument: in‐ nen sind Menschen, ihr Verhalten lässt sich mit verhaltensökonomischem Know-how verstehen, ihre Journey mit datengetriebener Customer Intel‐ ligence optimal begleiten. Mit diesem Wissen, wohin sich Endkunden bewegen werden, können wir Unternehmen beim Aufbau nachhaltiger Geschäftsmodelle und zukunftssicherer Plattformen unterstützen. Wir sind überzeugt, dass die Zukunft der digitalen Wertschöpfung in langfristigen Kundenbeziehungen liegt, die kontinuierliche Mehrwerte und Sicherheit bieten - sowohl für Kund: innen als auch für Unternehmen. Somit fokussie‐ ren wir Vertrauen in Kundenbeziehungen, um diese nachhaltig zu etablieren. 6.1 Aus datengetriebenem wird kundengetriebenes Marketing In diesem Buch spielt das Thema der datengetriebenen Customer Intelli‐ gence eine zentrale Rolle - jedoch kommt diese nicht ohne Bewusstsein für Behavioral Economics und Vertrauensmechanismen aus. Gute Kun‐ denerfahrung braucht die richtigen Daten. Wann, auf welchem Kanal, mit welchem Produkt oder Leistung trete ich mit dem Kunden in Kontakt? Mit diesen Fragen beschäftigen sich eine Reihe von Berater: innen bei elaboratum unter dem Stichwort kundengetriebenes Marketing (KGM). Während datengetriebenes Marketing ein bekanntes Schlagwort ist, fokussieren wir auch hier in der Begrifflichkeit den Kunden, denn Daten sind aus unserer Sicht zwar die unerlässliche Basis zum Aufbau einer Customer Intelligence, Taktgeber für alle Aktivitäten im Marketing sind jedoch die Kund: innen. Wie sich Zugriff auf Daten, ihre Beschaffenheit und Qualität durch rechtliche Vorgaben, technische Möglichkeiten und menschliche Bedürfnisse ändern, <?page no="120"?> wie sich hieraus Chancen für Kund: innen wie für Unternehmen ergeben, was es mit Relationship Commerce (R-Commerce) als neuer Ära des digitalen Handels auf sich hat und welche Schritte Unternehmen auf dem Weg zu erfolgreichem R-Commerce gehen müssen, erfahren Sie in diesem Beitrag. Zum Hintergrund: Seit Ankündigung und Einführung der DSGVO im Jahr 2018 wurde klar: Das datengetriebene Marketing in seiner bisherigen Form wird keine Zukunft mehr haben - der heilige Gral des Trackings über Third Party Cookies, um alles über die User einer Website zu erfahren, steht vor dem Aus. Viele Anbieter von Browsern haben bereits reagiert und die Verwendung von Cookies durch Drittunternehmen unterbunden, die Ölquellen der Digitalbranche hören auf zu sprudeln. Ohne Third Party Cookies ist für viele Unternehmen eine präzise User-Ansprache nicht mehr möglich, dem digitalen Marketing stellt sich die Existenzfrage und digitales Verkaufen, wie wir es bisher kannten, kann nicht mehr funktionieren. Doch kommt diese Veränderung keineswegs aus dem Nichts. Sie ist die logische Weiterentwicklung und nächste Evolutionsstufe einer langen Kette von zunehmend kundengerichteten Business-Philosophien. Was heißt das? In Zukunft werden nur Unternehmen erfolgreich ver‐ markten, die die Evolution von datengetriebenem zu kundengetriebe‐ nem Marketing schaffen und verstanden haben, dass nicht mehr Märkte Kund: innen, sondern Kund: innen Märkte prägen. Für den digitalen Handel bedeutet das: Aus E-Commerce, typischerweise gekennzeichnet durch das Hauptziel des Abverkaufs, wird R-Commerce. R-Commerce steht für Rela‐ tionship-Commerce und bezeichnet eine neue Ära des digitalen Handels. Hier stehen Menschen und ihre Bedürfnisse im Mittelpunkt. Was zunächst verdächtig nach der altbekannten Kundenzentrierung klingt, entpuppt sich bei genauerer Betrachtung als eine grundlegende Veränderung fast aller kundengerichteter Business-Prozesse. Welche neue Rolle nehmen Daten, Dreh- und Angelpunkt in diesem Buch, nun genau in diesem Zusammenhang ein? Wir sind überzeugt, durch die strengeren gesetzlichen Rahmenbedingungen, neue technologische Ent‐ wicklungen und vor allem aber auch ein verändertes Kundenverhalten am Beginn einer neuen Marketing- und Vertriebsphilosophie zu stehen. Und diese ist von der Rückgewinnung der Datenhoheit durch die werbetreiben‐ den Unternehmen selbst, der Echtzeitverfügbarkeit von Informationen, ska‐ lierbaren Technologien und stringenter Ausrichtung aller Kontaktpunkte an realen Kundenbedürfnissen gekennzeichnet. Datengetrieben im Sinne des 120 6 Auf die Beziehung von Kunde und Daten kommt es an <?page no="121"?> R-Commerce bedeutet, Daten methodisch und systematisch für den Aufbau von Kundenintelligenz zu nutzen, die wiederum für die personalisierte An‐ sprache über alle Kanäle und Touchpoints hinweg angewendet wird. Solch eine Veränderung ist tiefgreifend; ihre Implementierung ein intensiver und langfristiger Prozess für eine Organisation. Und somit ist es schlussendlich die neue Art von Daten mit ihrer neuen Qualität, die eine Win-Win-Situation für Unternehmen und Kund: innen hervorrufen kann, für deren Gewinnung jedoch einschneidende Veränderungen in Unternehmen, ihren Strukturen und Kulturen erforderlich sind. 6.2 Datenknappheit und Kundenzentrierung - Das Ende der Kundenansprache, wie wir sie kennen Zugriff auf Kundendaten in Hülle und Fülle, von diesem Schatz müssen sich Werbetreibende und Digital-Unternehmen künftig verabschieden. Wenn auch Google Chrome 2024 Third Party Cookies abschaltet, dann verbleibt kaum noch Datenmaterial, das für Advertising und Marketing aktiviert und herangezogen werden kann. Werben mit Trackingdaten wird ähnlich präzise wie Plakatwerbung an der Litfaßsäule. Doch ist dies keine rein juristisch-technische Herausforderung. Auch das veränderte Kun‐ denverhalten spielt eine große Rolle und erfordert entsprechend eine Veränderung der Perspektive, mit der auf Kund: innen geblickt wird. Abbildung 10 6.2 Datenknappheit und Kundenzentrierung 121 <?page no="122"?> Heute werden diese als die Bausteine von Umsatzzahlen gesehen und mehr oder minder regelmäßig mit Kampagnen konfrontiert, die anhand ihrer Conversion-Rate bewertet werden. In Zukunft wird ein beziehungsorien‐ tierter Blick notwendig: Der uneingeschränkte Respekt von Nutzerdaten, das Verständnis von realen Bedürfnissen, das Denken in Kundennutzendi‐ mensionen und eine Langfristigkeit der Beziehung sind zentrale Merkmale. - Veränderte rechtliche Rahmenbedingungen: Die DSGVO schafft neue Grundlagen für datenbasiertes Marketing Die gesetzgebenden Institutionen haben einen anspruchsvollen Rahmen für das datengetriebene Marketing geschaffen, dem die Browser-Anbieter radikal mit der Unterbindung von Third Party Cookies entsprechen. Die DSGVO hat somit wie ein Paukenschlag auf das digitale Marketing gewirkt, das Angebot an Daten, die für die Ansprache von Usern zur Verfügung stehen, wird immer mehr reduziert. Altbekanntes datengetriebenes Marketing (inklusive Programmatischem Einkauf und Retargeting) wird es künftig so nicht mehr geben. Erschwerte Analysemöglichkeiten sorgen entsprechend für sinkende Reichweite, Con‐ version-Rate und Umsatz. Marketer müssen nun neue Strategien entwi‐ ckeln, um nicht in das vielzitierte „Gießkannen-Prinzip“ zurückzufallen. Jetzt kommt es darauf an, eigene Datenbestände zu sammeln, zu pflegen und in aktivierbaren Reservoiren zu verwalten. Je größer der eigene Datenkosmos, umso besser, zudem rücken First-Party-Daten in den Mittelpunkt. Die wichtigste Änderung und Neuerung, die uns als Nutzer: innen seither mehrmals täglich begegnet: Der Consent Layer, der uns ermächtigt, selbst zu entscheiden und zu konfigurieren, in welchem Umfang wir getrackt werden und wie ein Unternehmen mit den Daten arbeiten darf. Consent ist zum Topthema auf der Tagesordnung geworden und der Grundstein für erfolgreichen Commerce - für einen Relationship Commerce versteht sich Zustimmung geradezu als selbstverständlich. Ohne Consent keine eigenen First-Party-Daten und ohne eigene First-Party-Daten keine Nut‐ zer: innenprofile. Ohne Consent bleiben Daten wertlos, mit Consent dürfen Unternehmen sie weiterhin für Marketingzwecke nutzen. User, die keinen Consent gegeben haben, bleiben für werbetreibende Unternehmen anonym. Wer datenschutzkonform auftreten, Informationen speichern und/ oder darauf Zugriff haben möchte, benötigt hierfür nun also die Einwilligung 122 6 Auf die Beziehung von Kunde und Daten kommt es an <?page no="123"?> des Nutzers. Damit wird notwendig, aktiv Consent- und Login-Management zu betreiben: Kunden möchten wissen, welche Daten das Unternehmen braucht, um passende Angebote zu entwickeln - und dann selbst entschei‐ den, ob sie diese Daten freigeben. Das Ziel des Consent-Managements: den Nutzer: innen durch die darüber gewonnenen Daten Mehrwerte wie passende Angebote zu liefern und ihnen nicht mit überflüssigen Informatio‐ nen auf die Nerven zu fallen. Und das geht nur auf der Grundlage von Daten, für deren Verwendung die Zustimmung eingeholt wird. Unternehmen, die Daten sammeln und vernünftig auswerten, handeln somit im Sinne ihrer Kund: innen. Die Voraussetzung für das Datensammeln lautet ganz klar: Transparenz und Fairness im Umgang mit den erhobenen bzw. gespeicher‐ ten Daten. Mit der DSGVO fiel somit ganz offiziell der Startschuss für einen neuen Umgang mit Daten. Unternehmen müssen nun kundenzentrierter denken und sich transparenter im Umgang mit Daten aufzustellen. Hier zeigt sich der Paradigmenwechsel, den wir betonen wollen: Unternehmen müssen ihren Kund: innen glaubwürdige Argumente an die Hand geben, warum diese ihre privaten Daten teilen sollten. Das übergeordnete Ziel lautet also, Beziehungen zu den Usern aufzubauen. Grundvoraussetzungen hierfür sind Einwilligungen für First Party Cookies (Cookie Consent) und das Anlegen eines Kundenkontos. - Veränderte technologische Rahmenbedingungen: Das Ende der 3rd Party Cookies Mit Einführung der DSGVO haben Technologieanbieter quasi ein Wettren‐ nen um den sichersten Browser gestartet. Dass Browseranbieter Third Party Cookies nicht mehr unterstützen und in den Default-Einstellungen blockieren, verstärkt die Entwicklung der Datenknappheit auf technischer Ebene. Auch wenn Chrome noch Third-Party-Daten sammelt (Tempkin 2021), ist der Zenit der Cookie-Ära überschritten. Sobald auch dieser Browser kein klassisches Tracking mehr erlaubt, was dann? Im Rückblick betrachtet war die Nutzung von Cookies eine süße Verheißung für viele werbetreibende Un‐ ternehmen. Denn so konnten sich auf die Arbeit von Agenturen verlassen, die für sie das Marketing gesteuert haben. Dabei haben es die Unternehmen versäumt, eigenes Wissen über das Verhalten ihrer User und eigene Fähig‐ keiten im Umgang mit den Daten aufzubauen. Eine große Menge an Daten 6.2 Datenknappheit und Kundenzentrierung 123 <?page no="124"?> wurde erhoben - die Umwandlung in Wissen blieb jedoch aus. Daten, die somit nicht aktivierbar sind, sind auch nicht für die Zielgruppenansprache nutzbar. Mit dem Richtungswechsel im datenbasierten Marketing von Third zu First-Party-Daten geht auch eine Veränderung in den technischen Grund‐ voraussetzungen einher. Datenstrukturen zur Umsetzung kundengetriebe‐ ner Useransprachen wurden bisher zumeist opportunistisch und nicht abgestimmt aufgesetzt, Tool-Landschaften zeigten sich fragmentiert. Heute stellen Customer Data Platforms (CDPs) den Dreh- und Angelpunkt der Systemarchitektur dar. Ihr Vorteil: Um sie herum kann ein umfassen‐ des Kundenverständnis aufgebaut werden. Eine CDP ist ein Aggregator, der die Datenbestände eines Unternehmens aus unterschiedlichen Quellen zusammenführt, bereinigt, normalisiert und unifiziert. So lassen sich ein‐ deutige Nutzerprofile zuweisen, man spricht vom Identity Resolution Management. Das Ziel: Datenschutzkonforme Identitäten zu erzeugen, die ein 360-Grad-Kundenverständnis ermöglichen. - Das veränderte Kundenverhalten Das Aus der Cookies von Drittanbietern bedeutet mitnichten das Ende des digitalen Marketings - im Gegenteil: Eine neue Datenstrategie ist eine echte Chance. Daten-Streaming in Echtzeit und ein verbessertes Customer Experience-Management ermöglichen es, Kund: innen und ihre Bedürfnisse wirklich ins Zentrum unternehmerischer Überlegungen zu stellen, Digital First-Prozesse anzupassen und letztlich starke Kundenbeziehungen aufzu‐ bauen. Seien wir ehrlich: Die Reise hätte sich ohnehin in diese Richtung entwi‐ ckelt - genau genommen sind DSGVO und Cookiecalypse nur Reaktion auf die gewandelten Anforderungen der Kund: innen. Das Kundenverhalten hat sich massiv verändert. Auch wenn dies schon seit Jahren erkennbar war, drehten sich alle Bemühungen im E-Commerce weiter um KPIs wie Conversion-Rates und Quartals-Absatzzahlen. Die Kund: innen selbst verlor man dabei schnell aus dem Blick, während diese sich jedoch zusehends von den Märkten emanzipierten. Kund: innen heute sind genauestens informiert, folgen keinem Standard, sondern vollkommen individuellen Customer Journeys und reagieren situativ auf einen der vielen Reize, die sie permanent erreichen. Echte Trigger von Kaufabsich‐ ten sind kaum noch erkennbar, Medienbrüche senken die Geradlinigkeit 124 6 Auf die Beziehung von Kunde und Daten kommt es an <?page no="125"?> von Kaufentscheidungen, Marken- oder Anbietertreue. Für Unternehmen bedeutet dies: Wer in der von Reizüberflutung, Ablenkung, Lautstärke und Entscheidungen überlasteten Digital-Welt erfolgreich sein will, muss eine echte Fokussierung auf reale Bedürfnisse bestehender oder potenzieller Kund: innen leisten. Nicht Produkt oder Vertrieb, sondern die Beziehung zu den Kund: innen muss strategischer Fokus sein. Emanzipierte Nutzer: innen sind sich auch des Werts ihrer Daten bewusst, die sie nicht länger freizügig oder kostenlos teilen. Doch sind die Erwartun‐ gen der Nutzer: innen hinsichtlich passgenauer Werbung so anspruchsvoll wie eh und je - in vielen Fällen wachsen sie sogar. Mit irrelevanten Informationen wollen sie in Zeiten der ständigen Reizüberflutung nicht ständig belästigt werden: Im Gegenteil: Sie erwarten eine perfekte, bedürf‐ nisorientierte User Experience, die auch mal überrascht. Und hier beißt sich eben die Katze in den Schwanz: User erwarten eine tolle Experience, geben dafür nötige Daten jedoch nicht preis. Ohne einen neuen effektiven (und idealerweise effizienten) Weg, mit den Kund: innen in den Dialog zu treten, steuern Unternehmen durch die rechtlichen Regelungen und das de-facto-Ende der Third Party Cookies auf eine Zeit der eklatanten Datenknappheit zu. Der Drahtseilakt zwischen Datenknappheit und gestie‐ genen Ansprüchen an massgeschneidete Infotainment-Werbung ist die Herausforderung für Marketer dieser Epoche, aktivierbare Daten werden sonst zur Mangelware. Aktivierbare Daten zu gewinnen, setzt heute First Party Cookies sowie User-Consent und -Login voraus. Consent und Login sind durch Vertrauen der Nutzer: innen in den Anbieter bedingt, somit ist Vertrauen eine entscheidende Größe im Beziehungsaufbau. R-Commerce beschreibt den Weg zum gelungenen und nachhaltigen Beziehungsaufbau. Dabei handelt es sich nicht um ein neues Tool, das eingeführt werden muss, keine Mitarbeiterschulung und kein Kampagnen‐ briefing. Es ist eine strukturelle strategische Neubewertung der Kundenper‐ spektive, die auf allen Ebenen Veränderung erfordert. 6.3 Die Antwort auf Datenknappheit und Kundenzentrierung-- Eine neue Business-Philosophie entsteht Wir haben gesehen, dass Unternehmen eine neue Perspektive auf Kund: in‐ nen einnehmen müssen - als mündige Partner: innen in Beziehungen. Der Geschäftserfolg wird in Zukunft davon abhängen, wie gut und erfolgreich 6.3 Die Antwort auf Datenknappheit und Kundenzentrierung 125 <?page no="126"?> Unternehmen neue Kund: innen gewinnen und v. a. bestehende Kund: innen halten können. Es geht um eine andere Ansprache der Kund: innen auf einer neuen, kontinuierlichen Basis. Es muss eine langfristige Beziehung zwischen Kund: innen und Unternehmen geschaffen werden, die auf Vertrauen basiert. Diese Haltung, Vertrauen als wertschöpfend zu sehen und den Kund: innen auf Augenhöhe zu begegnen, gilt es als Unternehmen zu entwickeln. Es geht darum, den User tatsächlich in den Mittelpunkt zu stellen - auf allen Ebenen und bei allen Handlungen. - R-Commerce als Transformation der Kundenbeziehung Unternehmen haben zuletzt den User und die Kund: innen aus den Augen verloren. In Zeiten der Datenknappheit stehen sie somit mit leeren Händen dar, denn ohne Beziehung zu den Kund: innen werden diese kaum ihre Daten preisgeben. R-Commerce steht für Relationship Commerce - und das bedeutet, ei‐ nen komplett anderen Verkaufsansatz als im absatzgesteuerten E-Commerce zu fahren. Relevante Fragen sind hierbei z. B. auf der höheren Ebene, welche Werte Kund: innen haben, und was ihnen wichtig ist. Im Detail gilt es sich zu überlegen: Was beschäftigt die Kund: innen in dem Moment, in dem sie auf den Sales-Kanälen eines Unternehmens vorbeikommen? Wer sich diesen Fragen widmet, widmet sich dem Aufbau nachhaltiger Kundenbeziehungen, die in Zeiten von First Party Data immer wichtiger werden. Betrachten wir es so: Die Kund: innen zu verstehen heißt, ihnen das zu verkaufen, was sie wirklich brauchen. Hier und jetzt - und das aber immer wieder in unterschiedlichen Momenten. Wer immer wieder meinen Bedürfnissen entspricht, dem bleibe ich treu. Wir sind fest überzeugt, dass Kund: innen wegen passgenauer Angebote wiederkommen werden und weitere Daten hinterlassen. Die User lassen sich damit immer mehr auf das Unternehmen ein. Auf diesem Fundament will R-Commerce aufsetzen - Unternehmen müssen dafür ihren R-Commerce-Kosmos schaffen. In puncto Kundenbeziehungen läutet R-Commerce eine neue Ära ein. Wie sie auf Kund: innen und Daten schauen, müssen Unternehmen von vorne bis hinten ändern. Tatsächlich die Kund: innen in den Mittelpunkt aller Unternehmensaktivitäten zu stellen, erfüllt sich nämlich natürlich nicht in einem Vakuum. Viele schon bestehende Faktoren spielen mit ein. Wir haben fünf Leitprinzipien identifiziert, deren Umsetzung ausschlaggebend ist, um als R-Commerce-Unternehmen erfolgreich in die Zukunft zu starten. 126 6 Auf die Beziehung von Kunde und Daten kommt es an <?page no="127"?> 6.4 Fünf Leitprinzipien im R-Commerce Mit den folgenden fünf Leitprinzipien legen Unternehmen die Grundlage, damit sie in die neue Ära der Kundenbeziehung eintauchen und diese gestalten können. - Privacy first Es reicht nicht, dass Unternehmen ihre Website und Social-Media-Kanäle streng DSGVO-konform betreiben, sie müssen auch den tieferen Sinn da‐ hinter leben. Wir erinnern uns: Die DSGVO ist eigentlich nur eine Reaktion auf das, was User: innen durch ihr Verhalten ohnehin schon gefordert haben: Ad-Blocker-Installation, Löschen von Cookies - sie haben schon lange demonstriert, dass sie der ausufernden Datennutzung nicht zustimmen. Wer nun tatsächlich Privacy first lebt, kann das Misstrauen der User: innen wieder abbauen. Dies geschieht dadurch, dass die persönlichen Daten der User respektiert werden und ihnen erklärt wird, warum Unternehmen dennoch Daten einholen möchten - und sich dafür die Zustimmung holen. Höchste Priorität für Unternehmen: Verdeutlichen Sie den Usern, dass Sie die Daten, die Sie erheben, zum Wohle der Kund: innen nutzen - für eine effiziente Kommunikation, die Interessen und Bedürfnisse der Kund: innen trifft. Jetzt geht es darum, auf Basis von Privacy first wieder Vertrauen aufzubauen. Denn Vertrauen sieht anders aus als das, was die Zahlen aus dem „Consumer Privacy Survey“ (Integral Ad Science 2020) offenbaren: Ganzen 91 % der Deutschen ist ihre Privatsphäre überaus wichtig, wenn sie im Netz unterwegs sind. 83 % der User wissen, dass Unternehmen auf Websites Daten zu Werbezwecken sammeln, und 66 % sind der Meinung, dass zu viele Daten über sie gesammelt werden. Mehr als die Hälfte (58 %) der User sieht sich selbst verantwortlich, die Daten vor fremdem Zugriff zu schützen, dafür ergreifen sie Maßnahmen wie die Löschung von Cookies (56 %) und des Browserverlaufs (45 %), Ad Blocker (42 %) sowie den Inkognito-Modus (36 %). Kund: innen misstrauen werbetreibenden Unter‐ nehmen. Unternehmen müssen daher das schlechte Gefühl, das User: innen beim Umgang mit ihren Daten haben, auflösen, indem sie transparent offenlegen, welchen Wert Daten für sie, aber zugleich auch für den User haben. Hier braucht es Fingerspitzengefühl, denn User haben jetzt die Macht, zu kontrollieren und zu entscheiden, wie sie ihre Daten verwendet sehen 6.4 Fünf Leitprinzipien im R-Commerce 127 <?page no="128"?> wollen. Je nach Verbrauchersegment variiert die Bereitschaft zur Preisgabe und die Einschätzung zur Vertraulichkeit von Daten stark, Werbetreibende müssen entsprechend individuelle Vorlieben und Situationen der User in einem segmentspezifischen Ansatz zur Datenerfassung berücksichtigen. Grundsätzlich kann man nicht sagen, dass User nicht willens seien, ihre Daten mit Unternehmen zu teilen - wenn ein Vertrauensverhältnis besteht. Laut BCG (Rodenhausen et al. 2022) wollen rund 65 % der Konsument: innen personalisiert angesprochen werden. Doch nur, wenn Unternehmen um Erlaubnis für die Datennutzung bitten und mit diesen Daten den Nerv bzw. das momentane Interesse der User treffen, schafft dies das nötige Vertrauen. Sich Vertrauen zu verdienen, dazu trägt Privacy first - wenn auch von oben verordnet - als erstes Leitprinzip des R-Commerce in außerordentlichem Maße bei. Dennoch braucht es dazu noch mehr, Unternehmen müssen sich engagiert gegenüber ihren Kund: innen präsentieren. Die Gestaltung der User-Bezie‐ hung erfährt eine Revolution, in der „kundenzentriert“ kein Buzzword mehr bleiben soll. - Kundenzentriert In Zukunft werden die Entscheidungen der Kund: innen maßgeblich über den Erfolg von Unternehmen entscheiden. Und das bedeutet, dass Unter‐ nehmen verstehen müssen, wie ihre Kund: innen als Menschen (intuitiv) Entscheidungen treffen. „Kundenzentrierung“ im R-Commerce hat entsprechend eine Kernaufgabe: Beziehungsaufbau - als datenzentrierte Strategie mit allerhöchster Business-Relevanz. Wie im Privaten gilt: Eine Beziehung ist nicht von jetzt auf gleich aufgebaut, Sie müssen Ihr Gegenüber, hier den oder die User: in zunächst kennenlernen, die Bedürfnisse verstehen, um ihn oder sie dann entspre‐ chend der aktuellen Stimmung ansprechen zu können. Ultimatives Ziel: Sie etablieren eine Marke, der User vertrauen und der gegenüber sie sich öffnen. Mit der Kundenzentrierung treten neue Kenngrößen auf den Plan: Neben den klassischen KPIs werden CPIs (Customer Perfomance Indicators) immer wichtiger, die aufzeigen, was für die Kund: innen relevant ist. Metri‐ ken über die Customer Experience und Performance einzelner Kund: innen und Zielgruppen ergänzen das bestehende KPI-Framework, neben reinen Webtrackingdaten werden Reports, Dashboards und in Echtzeit aggregier‐ 128 6 Auf die Beziehung von Kunde und Daten kommt es an <?page no="129"?> tes Wissen aus mehreren Datenquellen relevant, insbesondere Analytics (Bewegungsdaten) und CRM-Daten. Erfolgsfaktor für Unternehmen ist künftig, dass Kund: innen wiederkeh‐ ren und zu Fürsprechern des Unternehmens werden, die auch im privaten Umfeld für weiteres Interesse und somit weiteren Umsatz sorgen. Für die Unternehmensstrategie bedeutet das: Retention wird wichtiger als Conver‐ sion, der Customer Lifetime Value wird zum entscheidenden CPI. Der aktuelle Status quo ist leider oft ein anderer: Zwar stellen sich Abtei‐ lungen entlang der Customer Journey auf, doch teilen sie diese in separate Silos ein, nicht selten mit konkurrierenden Zielen wie „Neukundengewin‐ nung“ vs. „Up- und Cross-Selling“, die jeweils ihre Marketingaktivitäten nicht untereinander synchronisieren und somit kein wirkliches Interesse haben, das Beste für den Kunden herauszuholen. Übergreifende Unterneh‐ mensziele werden ebenso vernachlässigt wie die Kundeninteressen: Rückt der ehemalige Neukunde in den Bestand, erfährt er plötzlich eine völlig andere Art von Betreuung - und somit kein konsistentes Erlebnis. Allerdings ist die Frage nach „dem Kundenerlebnis“ auch ein Geist, dem viele Unternehmen hinterherjagen - zu groß ist der Wunsch, eine Universalformel gestalten zu können, um Erlebnisse zu gestalten, die für alle Kund: innen funktionieren. Dabei sind Menschen verschieden und haben dementsprechend unterschiedliche Bedürfnisse - mit einem One-size-fitsall-Ansatz ist Kundenzentrierung nicht vereinbar, für wahrhaft gelebten R-Commerce müssen Unternehmen zudem noch weiteren Leitprinzipien folgen. - Datenbasiert Mit Blick auf die Kundenbeziehung lässt sich die Kundenzentrierung im R- Commerce konzeptionell nicht mehr trennen von datenbasiertem Handeln. Das bedeutet, dass über Daten ein möglichst genaues Nutzer: innenprofil erstellt wird, das als Grundlage für eine zielgerichtete Kommunikation und Ansprache dient. Im Sinne des R-Commerce hätte ein datenbasiertes Unternehmen entsprechend genaue Kenntnis der Kundensegmente, an die es seine Produkte vermarkten will. Es würde die Customer Journey aller Segmente im Detail kennen. In der Realität erfüllt bisher kaum ein Unternehmen diesen Anspruch, zu groß der Kampf mit Silodenken und Datenchaos - Daten werden nicht vereinheitlicht und normalisiert. Dabei versetzt erst die Datenexpertise Unternehmen in die Lage, Kund: innen 6.4 Fünf Leitprinzipien im R-Commerce 129 <?page no="130"?> ernsthaft in den Mittelpunkt all ihrer Strategien zu stellen. Datenbasiert werden Bedürfnisse identifiziert und passende Lösungen entwickelt. Zwar haben fast nahezu alle Unternehmen die Wichtigkeit von Daten heute verstanden und sind diese auch meist verfügbar, werden jedoch nicht richtig genutzt - genau in der richtigen Nutzung liegt jedoch der entscheidende Moment, ob das Potenzial der Datenintelligenz vollständig ausgeschöpft wird. Im Sinne des R-Commerce nutzen datenzentrierte Organisationen Daten methodisch und systematisch für den Aufbau von Kundenintelligenz, die wiederum für die personalisierte Ansprache über alle Touchpoints hinweg angewendet wird. Tatsächlich datengetriebene Unternehmen sehen Daten als strategisches Asset. Diese Unternehmen stellen sicher, dass Mitarbeiter: innen in die Lage versetzt werden, mit Daten zu arbeiten und datenbasiert Entscheidungen zu treffen. Datengetrieben bedeutet, in Daten einzutauchen, Zusammenhänge zu verstehen und tiefes Wissen und Intelligenz aus den Daten zu ziehen. Data-first-Unternehmen zeichnen sich aus durch: • eine Data Governance, die schnelle Entscheidungen hinsichtlich der Ressourcennutzung und Änderung von Daten ermöglicht, • demokratisierte Daten im gesamten Unternehmen, • hohe Datenkompetenz, • automatisierte Prozesse für die Datenprozessierung und Bereitstellung und • ein klares KPI-Framework entlang der Customer Journeys. - Moment-getrieben Im R-Commerce gibt es keine vorgefertigten Customer-Journeys (mehr), diese sind dynamisch und touchpoint-spezifisch angelegt. Heute gilt: „Die Wege der Kund: innen sind unergründlich“ - und damit schwerer prognos‐ tizierbar. Die Leitprinzipien 1-3 (Privacy first, Kundenzentrierung, daten‐ basiertes Handeln) stützen dieses Prinzip. Um eine überzeugende User Experience zu bieten, sollten die richtigen Infos im richtigen Moment ausgeliefert werden - in Abhängigkeit der Interessen des Users an einem bestimmten Tag, zu einer bestimmten Stunde. Hilfestellung leisten eine Kombination aus verhaltensbasiertem Marketing und Echtzeitdatenanalyse. Voraussetzung ist wieder eine ausreichende Datenlage. Das zentrale Ele‐ ment ist der Moment, seiner Natur nach flüchtig. Doch mithilfe von Daten 130 6 Auf die Beziehung von Kunde und Daten kommt es an <?page no="131"?> zahlreicher User lassen sich die Rahmenbedingungen für die „Moments“ definieren, denn Momente existieren im Kontext umfassenderer Customer Journeys. Sie verlangen also ein Micro-Targeting, um die richtigen User anzusprechen und fordern von Marken, dass sie jederzeit und an jedem Kontaktpunkt bereit sein müssen, dem User hyperrelevante Inhalte bereit‐ zustellen - abhängig vom Kontext, in dem sich der User befindet. Marken brauchen die Technologie, um den Kundenkontext zu verstehen und Ent‐ scheidungen darüber zu treffen, wie sie sich im Moment engagieren sollen. Dazu müssen Unternehmen diese Daten sammeln und sich bei jedem Schritt der Customer Journey mit ihren Usern verbinden. Voraussetzung dafür wiederum ist, dass Unternehmen die Daten zunächst einmal intelligent analysieren und dann in Interaktionen umwandeln. Die Kunst, die Motivationen, Vorlieben und Verhaltensweisen der Kund: innen besser zu kennen, indem ihre Daten entschlüsselt und diese Erkenntnisse für ein besseres Marketing genutzt werden, wird als Moment Driven Marketing bezeichnet. Das Ziel von Moment Driven Marketing ist es, das Kundenerlebnis an bestimmten Hotspots zu personalisieren und zu verbessern. Es geht darum, die richtigen Momente zu identifizieren, in denen eine Marke mit den Kund: innen erfolgversprechend interagieren kann, in denen ein Kunde sehr empfänglich für ein personalisiertes Erlebnis ist. Es geht darum, Bedürfnisse in Echtzeit zu erkennen, im Idealfall zu antizipieren und (fast) in Echtzeit darauf zu reagieren. Hierfür bedarf es einer gewissen Agilität in Technologie und Organisation und einer Test&Learn-Kultur um Relevanz, Häufigkeit und Qualität des Dialogs ständig zu testen und zu optimieren. - Nachhaltig In Zeiten steigender Marketingkosten sind nachhaltige Kundenbezie‐ hungen ein Effizienzgarant - und daher aus unserer Sicht ein weiteres Leitprinzip im R-Commerce. Doch was bedeutet Nachhaltigkeit in Bezug auf Kund: innen? Per Definition ist Nachhaltigkeit ein Handlungsprinzip zur Ressourcen-Nutzung, bei dem die Bewahrung der natürlichen Regenerati‐ onsfähigkeit der beteiligten Systeme gewährleistet werden soll - bezogen auf Kunden könnte man sagen: Unternehmen sollen die Kund: innenbedürf‐ nisse befriedigen, ohne den Kund: innen auf die Nerven zu fallen. Statt Werbung von Produkten auszuspielen, die die Kund: innen bereits gekauft haben, sollten Unternehmen es schaffen, bedeutsame Momente zu schaffen. 6.4 Fünf Leitprinzipien im R-Commerce 131 <?page no="132"?> Eine Marke hat Zukunftspotenzial, wenn sie es schafft, sich in die Kund: innen hineinzuversetzen und herauszufinden, was die individuellen Präferenzen der Kund: innen sind, was sie in der Vergangenheit bestellt haben und wo sie gerade stehen und was sie in diesem Moment benötigen. Aktuelle Studien zeigen: Personalisierung ist der Schlüssel zum Vertrauen der Kund: innen. Accenture (2018) hat herausgefunden, dass mehr als 75 % der Konsument: innen Händler bevorzugen, die ihren Namen und Bestell‐ verlauf kennen und auf dieser Basis personalisierte Botschaften senden. 52 % kehren eher Marken den Rücken, die nicht personalisiert kommunizieren. Wer hier richtig agiert und passende Maßnahmen ergreift, wird mit nach‐ haltigen Kundenbeziehungen und wirtschaftlichem Erfolg belohnt. Bildlich gesprochen kann man R-Commerce als ein Superfood für Unter‐ nehmen mit vor-ökonomischen, wie z. B. Datenschutz, Wissensaufbau und Innovation, und ökonomischen Vorteilen, hier wäre Langlebigkeit in der Bestandskundenbeziehung zu nennen, verstehen. Die Leitprinzipien gehen dabei Hand in Hand: Wenn sich alle Bemühungen um die Kund: innen drehen sollen, geht das nur mithilfe von Daten, die vertrauensvoll behandelt und zum Aufbau eines besseren, moment-getriebenen Marketings genutzt werden. Daraus resultieren nachhaltige Kundenbeziehungen, von denen Unternehmen und Kund: innen profitieren. 6.5 Voraussetzungen: Was brauchen Unternehmen in R-Commerce? Nachdem deutlich geworden ist, welche Vorteile R-Commerce auf welchen Ebenen bringt, können sich Unternehmen natürlich die Frage stellen, wie gut sie bereits gerüstet sind. Sollten Sie bei der Analyse Ihrer Daten einen starken Überhang bei den Third im Vergleich zu den First-Party-Daten haben, so steht Ihrer Effektivität und dem Kundenerlebnis ein großer Einbruch bevor. Sie benötigen eine R-Commerce-Strategie, für deren Erfolg Sie sich in den folgenden vier Aspekten aufstellen sollten: - Skalierbare Technologien Wenn Sie wachsen wollen, so muss dieses Wachstum durch die Technologie unterstützt werden, d. h., zur Skalierung Ihrer Organisation gehört auch die Skalierung eines Tech Stacks. Um Daten zu verknüpfen und im 132 6 Auf die Beziehung von Kunde und Daten kommt es an <?page no="133"?> Sinne der Kundenzentriertheit zusammenzuführen, müssen Ihre Systeme untereinander durchlässig und nicht in Silos abgekapselt sein. Gefordert sind eine zentrale Datenhaltung und eine Datenhoheit für intelligente Datenmodellierung. Gerade letztere wird im Hinblick auf Künstliche Intelli‐ genz und Machine Learning immer wichtiger. Wir empfehlen, dieses Wissen unbedingt ins Haus zu holen und aufzubauen. Denn die Auswertung von Daten macht in Zukunft den Unterschied, der Aufbau von Kundenintelligenz ist entscheidend für den Aufbau von Wettbewerbsvorteilen. Eine tolle neue Entwicklung für die Architekturlandschaft im R-Com‐ merce: Microservices. Dies sind im Wesentlichen kleine Bündel verschie‐ dener Anwendungen unter einer Architektur. Jeder Microservice hat seinen eigenen Zweck und seine eigene Verantwortung. Der große Vorteil für R- Commerce-Anwendungen liegt darin, dass Microservices flexibel gestaltet werden können, aber miteinander zu kommunizieren im Stande sind. Damit ist Kundenzentriertheit leicht umsetzbar - Silodenken wird vermieden. - Echtzeitdaten Skalierbar allein reicht nicht aus, im moment-driven R-Commerce muss das Tech Stack auch echtzeitfähig hinsichtlich Datenverfügbarkeit, Profilbil‐ dung und Datenaktivierung sein. Das Ziel muss sein, dass eine echtzeitfähige Systemlandschaft „on entry“ eines Users bestimmte Modelle rechnen kann und damit alle Nutzer: innen nach Kaufwahrscheinlichkeit, Absprungrate etc. einordnen kann, um in Echtzeit passenden Content auf der Webseite zu präsentieren. Es geht also darum, dass das Tech Stack in der Lage ist, die Ansprache des Users moment-driven zu personalisieren. Nur wenn dies gelingt, kann auch von echter Kundenzentrierung die Rede sein. R-Commerce fokussiert Echtzeitdaten, dies bringt unweigerlich eine neue Governance mit sich. Offenheit und Transparenz sind entscheidend. In ei‐ nem Unternehmen arbeiten viele Menschen in unterschiedlichen Abteilun‐ gen und Teams mit verschiedenen Fähigkeiten und Erfahrungen zusammen. Ihr gemeinsames Ziel jedoch: die übergeordneten Ziele aus der Gesamtun‐ ternehmensstrategie umzusetzen. Hierzu braucht es eine Demokratisierung der Daten, d. h., Daten müssen allen Mitarbeitenden gleichermaßen zur Verfügung stehen. Wissen ist kein Geheimwissen, sondern für alle da. Gleiches Datenverständnis für alle - nur so können alle Mitarbeitenden schlussendlich wirklich kundenzentriert handeln. 6.5 Voraussetzungen: Was brauchen Unternehmen in R-Commerce? 133 <?page no="134"?> Agile Organisation Wichtig ist, dass alle Teams im Unternehmen Hand in Hand zusammen‐ arbeiten, um ein nahtloses, einheitliches Erlebnis für die Kund: innen zu schaffen. Die Customer Experience basiert auf einer wertschätzenden und ganzheitlichen Beziehung zu den Kund: innen. So kann im R-Commerce auch der Erfolg gemessen werden: Was die Kund: innen von einer Marke halten, wirkt sich unmittelbar auf Kundenbeziehung und -bindung, Customer Enga‐ gement, Kundenertragswert und Markentreue aus. Customer Performance Indicators (CPIs) messen entlang der Customer Journey somit, ob sich die Kund: innen wie geplant verhalten. CPIs bedeuten aber nicht, dass klassische KPIs wie Umsatz etc. ausgedient haben. Vielmehr ergänzen sich beide Metriken, um einerseits Umsatz und Wachstum zu verfolgen, andererseits aber auch um zu sehen, wie sehr Kundenzentriertheit bereits umgesetzt wird. Die hohe Kunst besteht darin, beim Aufbau eines Frameworks aus CPIs und KPIs ein Gleichgewicht zwischen Effizienz und Effektivität zu schaffen. Keine Customer Journey ist gleich. Ziel ist es, eine Infrastruktur aus Tools, Fähigkeiten und Inhalten aufzubauen, um Kund: innen und potenziellen Käufer: innen das beste Erleb‐ nis zu bieten. Dies erhöht wiederum ihre Rentabilität. Dabei versteht es sich von selbst, wie wichtig es ist, bei mit den Kund: innen ehrlich, ethisch und offen zu sein. Eine überzeugende Customer Experience ist nur dann möglich, wenn das Unternehmen genau weiß, wer die Kund: innen sind und was sie brau‐ chen - und diese Bedürfnisse bei jedem Schritt der Customer Journey in den Mittelpunkt rücken. User erleben ihre Beziehung zu einem Unternehmen nicht als eine Reihe kleinerer Interaktionen mit verschiedenen Abteilungen, sondern als einen fortlaufenden Kontakt, der in Erinnerung behält - positiv wie negativ. Organisatorisch muss sich ein Unternehmen daher entlang des Full Funnels aufstellen. Es darf keine Silobetrachtung des Funnels geben, wo der Service nicht weiß, was das Marketing versprochen hat, und Sales die aktuellen Werbekampagnen nicht kennt. Zusammenarbeit entlang der Funnelphasen und der unterschiedlichen Teams muss systematisch und institutionell gefordert und gefördert werden. Die Themen Daten und Kund: in müssen im Organigramm prominent durch explizite Rollen im Management verankert werden. Um all das umzusetzen, bedarf es einer zentralen Datenarchitektur. 134 6 Auf die Beziehung von Kunde und Daten kommt es an <?page no="135"?> Kultur und Mindset R-Commerce funktioniert nur mit Teams, die entlang der Customer Jour‐ ney organisiert sind, so lösen Unternehmen ihre Silos auf. Zentral ist, an jedem Touchpoint der Customer Journey die Nutzerbedürfnisse zu verstehen, idealerweise sogar schon zu antizipieren und auf jeden Fall personalisiert darauf zu reagieren. Dies kann nur gelingen, wenn Organisa‐ tionen den Mitarbeitenden ermöglichen, ihre Datenkompetenz zu erhöhen und mit Self-Service-Analyse-Tools zu arbeiten. Mit diesen Tools können die Anwender: innen Zugriff auf die relevanten Datenquellen erhalten ohne vertieftes IT-/ Entwickler-Know-how. Datensteuerung für jedermann im Unternehmen! Oft gehen CEOs Daten nur aus geschäftsstrategischer Sicht an. Aber es ist unmöglich, eine erfolgreiche Strategie umzusetzen, wenn die Unternehmenskultur nicht bereits die Idee der Datensteuerung verin‐ nerlicht hat und atmet. Nur wenn traditionelle Silos aufgebrochen werden, wird der freie Fluss von Daten gefördert. Gehortetes Herrschaftswissen, das dem Unternehmen schadet, wenn Mitarbeitende mit diesem Wissen das Unternehmen verlassen, wird so verhindert. Um diese Kultur zu fördern, müssen Unternehmen groß denken, aber klein anfangen. Oberstes Ziel ist, das Vertrauen zu Daten herzustellen, die Daten in allen Abteilungen verfügbar zu machen und den Kund: innen dabei stets im Fokus zu haben. 6.6 Zusammenfassung Seien wir ehrlich: Für die meisten Unternehmen wird die Entwicklung einer R-Commerce-Strategie notwendig sein, um datengetriebene Wettbewerbs‐ vorteile aufzubauen. Doch kann diese nicht im luftleeren Raum entstehen. Wesentliche Einflussfaktoren auf diese Strategie sind das Kundenverhalten plus rechtliche und technologische Veränderungen - und diese Aspekte sind gerade massiv in Bewegung! Ein R-Commerce-Unternehmen kennt also die äußeren Einflussfaktoren und passt sich dynamisch daran an. Dabei sind drei miteinander verzahnte Säulen Träger einer erfolgreichen Strategie: 1. stringente Data-First-Philosophie: Alle Aktivitäten werden daten‐ basiert abgeleitet, Messbarkeit und Datengewinnung sind Kernanforde‐ rungen jeder Aktivität. 6.6 Zusammenfassung 135 <?page no="136"?> 2. skalierbares Tech-Stack: IT-Systeme sind die Enabler der datenba‐ sierten Kundenzentrierung. Ein zeitgemäßes Tech-Stack ist vorhanden, wenn Daten im großen Umfang und in Echtzeit erfasst, aus verschiede‐ nen Systemen zusammengeführt, aufbereitet, verarbeitet und aktiviert werden können. 3. befähigte Organisation: Alle Teams haben ein daten- und kunden‐ bedürfniszentriertes Mindset und sind in der Lage, effektiv relevante Erkenntnisse aus Daten zu extrahieren. - Confidential - Abb. 11 R-Commerce-Unternehmen emanzipiertes Kundenverhalten rechtliche Rahmenbedingungen technologische Veränderungen echte Kundenzentrierung maximale Relevanz vertrauensvolle Beziehungen Abbildung 11 6.7 Literatur Accenture. 3. May 2018: Widening Gap Between Consumer Expectations and Reality in Personalization Signals Warning for Brands, Accenture Interactive Research Finds. Link: https: / / newsroom.accenture.com/ news/ widening-gap-between-cons umer-expectations-and-reality-in-personalization-signals-warning-for-brands-a ccenture-interactive-research-finds.htm. Integral Ad Science. 4. Juni 2020. IAS Studie: Data Privacy & Contextual Advertising. Link: https: / / integralads.com/ de/ insider/ wie-bereitwillig-stellen-deutsche-ihre-d aten-zu-verfuegung. 136 6 Auf die Beziehung von Kunde und Daten kommt es an <?page no="137"?> Rodenhausen, Derek. 21. Januar 2022. Consumers Want Privacy. Marketers Can Deliver. Link: https: / / www.bcg.com/ publications/ 2022/ consumers-want-data-pri vacy-and-marketers-can-deliver. Stalph, J., Spreer, P. und Haratsis, D., R-Commerce. Wie die digitalen Champions von morgen mit neuen Datenstrategien echte Kundenbeziehungen aufbauen, Wiesbaden 2023 (in press). Tempkin, David. 3. März 2021. Charting a course towards a more privacy-first web. Link: https: / / blog.google/ products/ ads-commerce/ a-more-privacy-first-web. 6.7 Literatur 137 <?page no="139"?> 7 Best Practice und Methoden für datengetriebenes Business Development | von Kim Kordel und Lisa Weinzierl 7.1 Einleitung Dass Daten angeblich das neue Öl sind, darüber sind sich Wirtschaft und Wissenschaft schon seit einigen Jahren einig (Hirsch, 2014). Doch nun prägt ein neuer Begriff die Unternehmenspraxis: Die „datengetriebene Organisation“ wird als Zielbild vieler Unternehmen angestrebt (Rashedi, 2022). Doch was verbirgt sich hinter diesem Begriff und warum wird er immer relevanter? Die Welt, in der sich Organisationen heute bewegen, wird zunehmend volatiler, unsicherer, komplexer und mehrdeutiger - kurz: Wir bewegen uns in einer sogenannten VUCA-Welt. Dieser Begriff, der ursprünglich aus dem Kontext des amerikanischen Militärs stammt und die unsicheren Bedingungen in neuen Kriegsgebieten beschreibt (Whiteman, 1998), ist aus der heutigen Organisationsentwicklung nicht mehr wegzudenken. In einem VUCA-Umfeld, das von schnellem Wandel und Unsicherheit geprägt ist, wird es immer schwieriger, Entscheidungen zu treffen (Bennett et al., 2014). Wer kann heute schon sagen, ob nicht in wenigen Wochen eine neue Pandemie ausbricht oder ein Wettbewerber mit einem neuen, disruptiven Angebot auf den Markt kommt? Dies erfordert eine neue Art und Weise, wie Menschen in Organisationen arbeiten und Entscheidungen treffen. Denn eine realistische Planung der Geschäftsentwicklung für die nächsten zehn oder gar 20 Jahre ist nicht mehr möglich. Ob für die Entwicklung neuer Geschäftsmodelle oder für die strategische Ausrichtung: Unternehmen benötigen Daten, die ihnen den Weg durch das Unbekannte weisen (Isaacs, 2013; Lemke et al., 2021). Trotz der immer größer werdenden Menge an Daten, die Unternehmen zur Verfügung stehen, stellt die tatsächliche Integration von Daten in die Unternehmensentwicklung in der Praxis Unternehmen immer noch vor Herausforderungen. <?page no="140"?> In diesem Kapitel wird beschrieben, wie Unternehmen im datengetriebe‐ nen Business Development erfolgreich agieren können. Es werden Begriff‐ lichkeiten des datengetriebenen Business Development eingeordnet und methodische Ansätze und Erfolgsfaktoren aus der Praxis beleuchtet. Es werden Aspekte der Organisation und Kultur betrachtet und abschließend Erfolgsfaktoren aus der Praxis vermittelt, die beim Aufbau eines datenge‐ triebenen Business Development zu Wettbewerbsvorteilen führen können. 7.2 Was ist datengetriebenes Business Development? Um zu verstehen, wie datengetriebenes Business Development funktionie‐ ren kann, wird zunächst der Begriff „datengetriebenes Business Develop‐ ment“ eingeordnet und die Elemente und Charakteristika des Begriffs beleuchtet. In der Literatur existieren derzeit verschiedene Definitionen des Begriffs, für dieses Kapitel wird jedoch die folgende Definition zugrunde gelegt: „Datengetriebene Organisationen nutzen Daten als eines ihrer wertvollsten Vermögensgegenstände im Unternehmen, um auf der Grundlage von Analysen und deren Bewertungen Entscheidungen zu treffen, die langfristig neue Werte für das Unternehmen schaffen und damit einen immensen Einfluss auf das Geschäftsmodell sowie die Produkte und Dienstleistungen des Unternehmens ausüben.“ (Lemke et al. 2021, S.-35) Hierbei unterscheiden sich datengetriebene Organisationen insbesondere betreffend der Bedeutung von Daten, in den Organisationsstrukturen und der Daten- und Unternehmenskultur. Wo in regulären Unternehmen Da‐ ten als Nebenprodukt gesehen werden, wird ihnen in datengetriebenen Unternehmen eine strategische Bedeutung zugeschrieben. Die Organisati‐ onsstrukturen ermöglichen eine systematische und integrierte Arbeit mit Daten und es herrscht die Kultur vor, dass Daten standardmässig für Entscheidungen herangezogen werden. (Körppen et al., 2021). In einer datengetriebenen Organisation wird auch das Business Deve‐ lopment auf Daten aufgebaut. In der Literatur wurden bislang zunächst die Begrifflichkeiten datengetriebene Organisationen und datengetriebene Geschäftsmodelle (DDBM bzw. „data driven business models“, Hartmann et al., 2016) definiert, nicht aber ein datengetriebenes Business Development. Aggregiert aus den unterschiedlichen Definitionen wird in diesem Kapitel 140 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="141"?> das datengetriebene Business Development verstanden als sämtliche auf Erkenntnissen aus Daten basierenden Aktivitäten und Prozesse, die zu einem wirtschaftlichen und nachhaltigen Wachstum eines Unternehmens beitragen sollen (Lemke et al. 2021 und Gartner 2023). Diese beinhaltet sowohl die Geschäftsfeldentwicklung und Ausrichtung des Unternehmens auf dem Markt als auch die Entwicklung und Umsetzung neuer Produkte und Geschäftsmodelle. 7.3 Methodische Ansätze für ein datengetriebenes Business Development So wie sich ganze Unternehmen in der VUCA-Welt neu ausrichten müssen, gilt dies auch für die Personen und Teams, die für die Entwicklung neuer Ge‐ schäfte oder die Weiterentwicklung des Unternehmens verantwortlich sind. Im Bereich Business Development gibt es bereits verschiedene Methoden, die einen systematischen Einsatz von Tools sowie die Einhaltung konkre‐ ter Vorgehensweisen empfehlen, um das Risiko von Neuentwicklungen systematisch zu reduzieren. Methoden wie die des Strategyzers (Business Model Canvas) bieten Unternehmen Orientierung bei der Identifikation und Umsetzung von Geschäftspotenzialen. Da Daten in diesen Methoden bisher keine explizite Rolle spielen, müssen sie für eine datengetriebene Geschäftsentwicklung um diese neue Dimension ergänzt werden (Kühne und Böhmann, 2018). Darüber hinaus entstehen neue Rollen am Markt, wie z. B. die des „Analytics Translators“, die in ihrer beratenden und befähigenden Rolle für datenbasierte Anwendungsfälle ebenfalls auf neue Methodiken zurückgreifen müssen (Henke et al., 2018). Dieser Abschnitt gibt einen kurzen Überblick über bestehende Methoden und stellt einen Ansatz zur datengetriebenen Geschäftsentwicklung aus der Praxis vor. - Überblick über Methoden zu Business Development und deren Limitationen im Datenkontext Für die Entwicklung von Neugeschäft oder der Analyse von bestehenden Geschäftsmodellen existieren eine Vielzahl gängiger Methoden, die in der Praxis häufig Verwendung finden. In diesem Abschnitt werden drei dieser Methoden kurz beschrieben, um den Einsatz im datengetriebenen Business Development einzuordnen. 7.3 Methodische Ansätze für ein datengetriebenes Business Development 141 <?page no="142"?> Business Model Canvas Das vermutlich bekannteste Werkzeug zur Analyse und Entwicklung von Geschäftsmodellen als auch zum Management von einem Geschäftsportfolio ist der Business Model Canvas von Alexander Osterwalder (Osterwalder 2011). Der Canvas (die „Leinwand“ zur Gestaltung, oft als Poster genutzt) besteht aus neun Dimensionen, die die Elemente eines Geschäftsmodells beschreiben: Partner, Aktivitäten, Ressourcen, Werteversprechen, Kunden‐ beziehungen, Kanäle, Kundensegmente, Kostenstruktur und die Einnahme‐ quellen. Die Analyse aller Elemente dient dazu, das Business Development ganzheitlich zu betrachten. Jedoch wird der Einsatz von Daten in der Praxis meist nicht explizit erwähnt, obwohl dort zentrale Aktivitäten beispiels‐ weise zur Datenerhebung oder -analyse eine zentrale Rolle spielen sollten. Hier existieren in der Literatur bereits Vorschläge zur Erweiterung des Ansatzes (Kühne und Böhmann, 2018). Schlüsselpartner Kostenstruktur Schlüsselaktivitäten Wertangebote Einnahmequellen Schlüsselressourcen Kundenbeziehungen Kanäle Kundenbeziehungen Abb. 12: Business Model Canvas Abbildung 12: Business Model Canvas (www.businessmodelgeneration.com) IoT Business Model Builder Der IoT Business Model Builder, eine Sammlung von Methodik zur Ent‐ wicklung von IoT-(Internet of Things)-Geschäftsmodellen von Bosch, dem Industrial Internet Consortium und der Universität St. Gallen, gibt Metho‐ dikvorschläge von der Ideengenerierung über die Verfeinerung bis zur Implementierung von Neugeschäft (Bilgeri et al. 2015). In dieser Sammlung werden bereits Charakteristika, die in der Entwicklung von Neugeschäft im Internet der Dinge eine Rolle spielen, berücksichtigt, jedoch bislang mit reinem Fokus auf IoT-Spezifika. Die Sammlung der Methodik ist bislang eher im IoT-Umfeld bekannt und wird bisher nicht im grösseren Maße für datengetriebenes Business Development genutzt. 142 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="143"?> - Confidential - Ideenfindung Vorbereitung Initiierung Validierung und Evaluierung IoT Strategie IoT Assets und Fähigkeiten IoT spezifische Ideenfindungsmethoden Methoden zum Aufbau von Organisationen klassische Ideenfindungsmethoden IoT spezifische Business Model Methoden klassische Business Model Methoden Abb. 13: IoT Business Model Builder (Bilgeri et al. 2015) IoT Business Model Builder Abbildung 13: IoT Business Model Builder (Bilgeri et al. 2015) Design Thinking, Lean Start-up und agile Entwicklung Um digitale Innovationen zu treiben, haben Blosch et al. von Gartner im Jahr 2016 die Ansätze „Design Thinking“, „Lean Start-up“ und die agile Ent‐ wicklung zu einem Herangehensmodell für die Realisierung von digitalen Lösungen kombiniert. Es beschreibt ebenfalls die Herangehensweise über die Identifikation des Kundenproblems über den iterativen Ansatz bis hin zu einer agilen Entwick‐ lung, beispielsweis nach SCRUM. Diese werden ebenfalls im Rahmen der Analytics Translator Ausbildung genutzt, in der die Design Thinking Phase „Ideation“, die Lean-Start-up-Phase „Experimentation“ und die Agile Phase „Operationalization“ genannt wird. 7.3 Methodische Ansätze für ein datengetriebenes Business Development 143 <?page no="144"?> - Confidential - Empathize Define Ideate Try experiments Pivot or go? Learn Iterate Sprint planning Product backlog Sprint execution Sprint review Shipable increment Design Thinking Lean Startup Agile Business problem Business solution Abb. 14: Design Thinking Abbildung 14: Design Thinking, Lean Start-up und Agile (Blosch et al. 2016) Die drei in der Praxis häufig genutzten Methoden dienen als Basis für die folgenden Ausführungen eines Ansatzes zur Entwicklung von datengetrie‐ benem Geschäft. 7.4 Methodischer Ablauf von datengetriebenem Business Development In diesem Abschnitt wird ein methodischer Ablauf eines idealtypischen datenbasierten Geschäftsentwicklungsprozesses beschrieben, wie er in der Praxis genutzt wird. Die drei zuvor beschriebenen Ansätze werden hier zu einem Ablaufmodell kombiniert, die von der Problemidentifikation zur Umsetzung die Bedeutung von Daten explizit ausweist. Die vorgestellte Herangehensweise zielt auf zwei zu integrierende Themen ab: 1) die Nut‐ zung von Daten für die Identifikation der richtigen Idee oder der richtigen Richtung und 2) die Nutzung von Daten in der Produkt- oder Lösungsent‐ wicklung, also auch bei der Entwicklung von Datenprodukten. - Ideenfindung Bei der Identifikation neuer Ideen steht im Vordergrund eine Idee zu finden, die wirtschaftlich ist, vom Nutzer akzeptiert ist und technisch machbar ist. In den drei Dimensionen werden in der Praxis häufig Annahmen getroffen, die durch den gezielten Einsatz von Daten validiert werden können. Für 144 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="145"?> die Reduktion des Risikos einer mangelhaften Wirtschaftlichkeit können beispielsweise Recherchen angestellt werden und öffentlich einsehbare Stu‐ dien geprüft werden, die Daten für die Bewertung des Vorhabens liefern. Die Befragung von Nutzern und Kunden ist ebenfalls ein Instrument, um Daten für die Validierung zu erhalten. Auch die gezielte Analyse von unter‐ nehmensinternen Daten unterstützen bei der Einschätzung der Opportunität und entsprechenden Marktentwicklungen. Um zu verhindern, dass Nutzer die Lösung nicht annehmen und so eine Adaption verhindern, helfen die Durchführung von User Tests mithilfe von Prototypen und die systematische Befragung von Nutzern und Kunden per User Research. Insbesondere bei technisch orientierten Entwicklungen wird das in der Praxis oftmals spät oder nie durchgeführt und führt zu einem großen Risiko. Auch die technische Machbarkeit kann man sehr früh mithilfe von Daten validieren. Die Durchführung von Experimenten und ersten explorativen Datenanalysen geben früh Auskunft darüber, ob das Vorhaben überhaupt realisierbar ist. Die Nutzung von Canvassen wird durch datenorientierte Methodik ergänzt. So werden beispielsweise in Ideenfindungsworkshops, wenn es sich um AI-Ideen handelt, explizit die Ängste und Vorurteile potenzieller Nutzer methodisch erfasst oder die Ideenfindung explizit auf Basis von vorhandenen Datenquellen angeregt. Die Arbeit mit Daten wird als Kernak‐ tivität im Business Model Canvas ausgewiesen, Kosten und wiederkehrende Aufwände entsprechend berücksichtigt. Es wird explizit mitgedacht, ob interne, externe oder selbstgenerierte Daten den Wert des Vorhabens noch verbessern könnten. - Iterativer Aufbau eines MVP (Minimum Viable Product) Wenn man sich für eine Idee entschieden hat, gilt es, diese weiter aus‐ zubauen. In der Praxis ergeben sich hierbei oft die Risiken, dass viele unterschiedliche Wertversprechen in ein Vorhaben einfließen sollen und die Lösung einen entsprechend großen Umfang erhält, der mit vielen Erwartun‐ gen der Anspruchsgruppen gepaart ist. Insbesondere bei der Entwicklung von datenbasierten Ideen können so schnell hohe Kosten verursacht werden. Empfohlen ist die Entwicklung eines MVP (Ries 2009), also eines Produkts mit reduziertem Umfang, das auf das Notwendigste an Funktionalitäten beschränkt ist, um einen Mehrwert für den Kunden zu liefern. Die Definition der entsprechenden Funktionalitäten kann, wie im Rahmen der Ideenfin‐ 7.4 Methodischer Ablauf von datengetriebenem Business Development 145 <?page no="146"?> dung, iterativ durch ein regelmässiges Testen identifiziert werden. Der iterative Vorgang dient dazu, Daten zu sammeln, die für die Entscheidung für einen wertvollen Umfang des Produkts für den Kunden herangezogen wer‐ den können. Insbesondere bei Produkten, die AI oder Machine-Learning- Komponenten beinhalten und daher Modelle trainiert werden müssen (was einen entsprechenden Aufwand bedeutet), empfiehlt es sich, datenbasiert vorzugehen, um den Aufwand zu reduzieren und den Mehrwert für den Kunden oder Nutzer zu erhöhen. Für IoT-Geschäftsmodelle, die meist noch eine Investition in entsprechende Hardware bedeuten, gibt dies ebenfalls. Daher ist im Vorfeld zu empfehlen, in einem „Proof of Value“ mit kleinstem Aufwand den Mehrwert der Idee aufzuzeigen und zu testen, ob das ange‐ nommene Problem mit der Idee adressiert werden kann. Bei datengetriebenem Business Development spielen oft Partnerschaften und die eigene Positionierung im Ökosystem eine wichtige Rolle. Dabei sollte ebenfalls die Wertschöpfung im Ökosystem zwischen den Partnern berücksichtigt werden und bereits beachtet werden, welche Daten zu wel‐ chem Zweck für die Realisierung eines Werteversprechens ausgetauscht werden. (Brandt und Kordel, 2019) - Operationalisierung Da sich in einer VUCA-Welt auch die Anforderungen vom Markt und Kunden stetig ändern können als auch der technologische Fortschritt in hoher Geschwindigkeit voranschreitet, wird in einer datengetriebenen Or‐ ganisation auch in der Operationalisierung agil vorgegangen. Analog zu Methoden wie SCRUM (Schwaber et al. 2011) wird in Sprints gearbeitet und die Entwicklung von neuen Funktionalitäten entsprechend priorisiert. Auch gilt es, einen DevOps-Ansatz zu implementieren, der für Datenprojekte geeignet ist und das Datenmanagement als auch die Nutzung der Daten gleichermassen optimiert. In einer datengetriebenen Organisation erweitert man dementsprechend den DevOps-Ansatz in einen DataOps-Ansatz (Mu‐ nappy, 2020). Für datengetriebene Entwicklung von Neugeschäft und Geschäftsmodel‐ len gelten also die gleichen zugrundeliegenden Prinzipien wie bei Business Development in einer VUCA-Welt. Das Vorgehen muss kundenorientiert und iterativ sein, um sich als Organisation in die richtige Richtung zu bewegen. In einer datengetriebenen Organisation wird jedoch die Rolle der Daten auch im Business Development als zentrales Element mitbetrachtet 146 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="147"?> und findet sich in angepassten Formaten und Best Practices wieder. So wird ein systematischer und gezielter Einsatz von Daten möglich, der den Mehrwert für alle Anspruchsgruppen maximiert und das Risiko der Konsequenzen nicht validierter Entscheidungen reduziert. Die → Abbildung 15 zeigt die drei beschriebenen Phasen in einem Framework für datengetriebenes Business Development in Anlehnung an die vorgestellten Methoden aus der Praxis. - Confidential - Abb. 15: Framework für datengetriebenes Business Development Ideenfindung Iterativer Aufbau eines MVP Operationalisierung Validierung und Evaluierung Digitalisierungsstrategie Daten Assets und Fähigkeiten Desk Research Ideation Tools Analyse von Daten Design Thinking Lean Startup Agile Methodik DevOps/ DataOps/ MLOps User Research User Testing Datenstrategie Unternehmensstrategie Ökosystem Mapping Daten als Schlüsselaktivität und -ressource Proof of Value Abbildung 15: Framework für datengetriebenes Business Development (Eigene Darstel‐ lung in Anlehnung an Bilgeri et al. 2015 und Blosch et al. 2016) 7.5 Vorteile und Herausforderungen der Methodik Die Nutzung von Methodik im datengetriebenen Business Development bietet zahlreiche Vorteile, die zum erfolgreicheren Aufbau neuer Geschäfts‐ modelle beitragen. Der Einsatz von Methodik erfordert zwar am Anfang einen höheren Ressourcenaufwand, reduziert jedoch das Risiko, Lösungen zu entwickeln, die auf keine Nutzerakzeptanz treffen, nicht wirtschaftlich sind oder technisch nicht realisierbar. Ein weiterer Vorteil von Methodik ist, dass sie erlernt und weitergegeben werden kann. Ein einheitliches Vorgehen in der Organisation kann so gewährleistet werden, was zu einer höheren Effizienz führt und der Akzeptanz, dass die Entwicklung von datenbasiertem 7.5 Vorteile und Herausforderungen der Methodik 147 <?page no="148"?> Geschäftsmodellen nicht rein auf Basis von technologischen Möglichkeiten geschieht. Kunden- und Nutzersicht sowie ein iteratives Vorgehen als zentraler Teil der Methodik sind wichtige Aspekte, die es Unternehmen ermöglichen, sich in einer VUCA-Welt zu orientieren. Durch eine Kunden- und Nutzersicht können Unternehmen sicherstellen, dass ihre Produkte und Dienstleistun‐ gen auf die Bedürfnisse ihrer Kunden abgestimmt sind. Iteratives Vorgehen ermöglicht es Unternehmen, schnell auf Veränderungen zu reagieren und ihre Produkte und Dienstleistungen kontinuierlich zu verbessern. Zusätzlich ist es wichtig zu betonen, dass die Methodik an die individu‐ ellen Gegebenheiten einer Organisation angepasst werden kann. Unterneh‐ men können die Methodik entsprechen anpassen, um ihre spezifischen Bedürfnisse und Ziele zu erfüllen. Allerdings gibt es auch Herausforderun‐ gen bei der Nutzung der Methodik. Oftmals haben die Projekte einen technischen Ursprung und es fehlt das Verständnis für den Mehraufwand, der durch die Methodik entsteht. Die Kultur in Unternehmen ist oft noch nicht bereit für das iterative und agile Vorgehen mit einer Lern- und Fehlerkultur, da Annahmen noch immer Teil des Alltags sind. Oftmals fehlen auch die notwendigen Fähigkeiten, um das beschriebene methodische Vorgehen durchzuführen. Trotz dieser Herausforderungen ist die Nutzung von Methodik im daten‐ getriebenen Business Development von großer Bedeutung. Unternehmen, die die Vorteile der Methodik nutzen und sich den Herausforderungen stellen, sind besser aufgestellt, um in einer sich ständig verändernden Geschäftswelt erfolgreich zu sein. Eine Investition in eine systematische Vorgehensweise kann sich langfristig auszahlen und ein wichtiger Wett‐ bewerbsvorteil sein. Es benötigt jedoch auch den Aufbau notwendiger Fähigkeiten - diese werden im folgenden Abschnitt beschrieben. 7.6 Relevante Fähigkeiten für datengetriebenes Business Development Um erfolgreich im datengetriebenen Business Development zu sein, benöti‐ gen Unternehmen die richtigen Fähigkeiten um technische, wirtschaftliche und methodische Aspekte zu beherrschen. In diesem Abschnitt wird näher beschrieben, welche Fähigkeiten relevant sind. 148 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="149"?> Relevante technologische Fähigkeiten in der Organisation Im datengetriebenen Business Development sind technologische Fähigkei‐ ten von großer Bedeutung, die in der Organisation und bei den Mitarbeiten‐ den verankert sein müssen. Eine effektive Datenverwaltung ist unerlässlich, um Daten effizient zu nutzen. Hierbei kann das Konzept des Data Mesh hel‐ fen, bei dem Daten in eigenständigen Domänen verwaltet werden und somit eine klare Verantwortung für Datenqualität und -management herrscht (vgl. Machado et al, 2022). Die Implementierung eines harmonisierten Datentech‐ nologiestacks stellt eine Basis dar und als strategische Ausrichtung der Datenarchitektur kann er dabei unterstützen, Daten effizient zu speichern, zu verwalten und zur Verfügung stellen (vgl. Marz & Warren, 2015). Auch die Wahl der relevanten Technologien und Tools zum angemes‐ senen Zeitpunkt der unterschiedlichen Lifecycles ist entscheidend. Eine ausgereifte Data Governance in den Organisationen ermöglicht es, daten‐ getriebene Anwendungsfälle spezifisch und gezielt umzusetzen, ohne die Einhaltung von Datenschutz und Compliance zu vernachlässigen. Zudem ist eine zentrale Analytics-Plattform als Werkzeug elementar wichtig, um Analysetätigkeiten und Projekte durchzuführen und deren Ergebnisse zu visualisieren und zu kommunizieren. Partnerschaften mit Cloud-Providern wie AWS, Azure oder Google sind bei großen Datensätzen und der notwendigen effizienten Ressourcenalloka‐ tionen von Rechenleistungen ebenfalls von Vorteil. Wichtig sind demnach folgende Fähigkeiten und Erfahrungswerte bei den Mitarbeitenden: Daten‐ analyse und -modellierung, Programmierkenntnisse, Kenntnisse von Da‐ tenbank- und Datenmanagementsystemen, Data Engineering sowie Cloud Computing (vgl. Provost & Fawcett, 2013). Ein grundlegendes Verständnis von Datenanalyse und -modellierung ist unerlässlich, um Daten zu verstehen, Muster und Trends zu erkennen und Vorhersagen zu treffen. Dazu gehören Fähigkeiten wie die Anwendung von Statistik, Machine Learning und Data Mining, um Datensätze zu ana‐ lysieren und Modelle zu erstellen. Um Datenanalysen durchzuführen und Datenmodelle zu erstellen, sind Programmierkenntnisse erforderlich. Es gibt verschiedene Programmiersprachen, die in diesem Bereich verwendet werden können, wie Python, R oder SQL. Kenntnisse in anderen Tools wie Excel und Tableau können ergänzend nützlich sein, um Daten zu analysieren und zu visualisieren. Um Daten effektiv zu speichern, zu organisieren und abzurufen, benötigt man Kenntnisse in Datenbanken und Datenmanage‐ 7.6 Relevante Fähigkeiten für datengetriebenes Business Development 149 <?page no="150"?> mentsystemen. Hierzu gehören Kenntnisse in relationalen Datenbanken, NoSQL-Datenbanken und Datenverarbeitungs-Tools wie Hadoop. Damit die einzelnen Skillsets effizient zusammenwirken können, benötigt es ebenfalls ein kritisches Investment in Datenarchitektur-Know-how und Konzepte. Ein grundlegendes Verständnis von Data Engineering ist ebenfalls wich‐ tig, um Daten effektiv zu sammeln, zu bereinigen und zu transformieren, damit sie für Datenanalyse- und Modellierungszwecke verwendet werden können. Hierzu gehören Kenntnisse in Datenintegration, Datenbereinigung, Datenstrukturierung und -speicherung. Cloud-Computing-Plattformen bie‐ ten skalierbare und flexible Möglichkeiten zur Speicherung, Verarbeitung und Analyse von Daten. Kenntnisse in Cloud-Computing-Plattformen wie Amazon Web Services (AWS), Microsoft Azure oder Google-Cloud-Plattform sind daher ebenfalls relevant. In Ergänzung zu den technischen Fähigkeiten, müssen jedoch auch geschäftsorientierte und methodische Fähigkeiten in der Organisation ver‐ ankert werden, um erfolgreich datengetriebenes Geschäft zu entwickeln. - Relevante geschäftsorientierte und methodische Fähigkeiten in der Organisation Zu den relevanten geschäftsorientierten und methodischen Fähigkeiten, die eine Organisation benötigt, gehören typische Fähigkeiten des Business Development, der Geschäftsmodellentwicklung sowie Methoden aus der User Experience (UX). Außerdem müssen Unternehmen einen sicheren so‐ wie ethischen Umgang im Datenumfeld etablieren. Unternehmen benötigen daher beispielsweise auch auf der Fachseite die Fähigkeit, Daten zu nutzen, um Geschäftsprozesse zu analysieren und so wertvolle Einblicke zu erhalten. Durch die Analyse von Daten können sie fundierte Entscheidungen treffen und ihre Geschäftsstrategien verbessern. Das Thema Daten muss von der Informatik in die Geschäfts- und Funktionsbereiche von Organisationen getragen, verstanden und vorangetrieben werden. Um erfolgreich zu sein, müssen Unternehmen in der Lage sein, potenzielle Märkte und Geschäftsideen mithilfe von Daten zu identifizieren. Es benötigt die grundlegende Fähigkeit, aus Daten Erkenntnisse zu gewinnen, um Trends und Bedürfnisse auf dem Markt zu erkennen und darauf reagieren zu können. Unternehmen sollten außerdem in der Lage sein, Produkte und Dienstleistungen zu gestalten, die auf die Bedürfnisse und Wünsche ihrer Kunden zugeschnitten sind. Durch nutzerzentriertes Design und User 150 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="151"?> Experience (UX) können Unternehmen sicherstellen, dass ihre Produkte und Dienstleistungen eine optimale Benutzererfahrung bieten und somit wettbewerbsfähiger sind. Um auf den Marktbedarf und -trends zu reagieren, sollten Unternehmen Geschäftsmodelle schnell entwickeln und anpassen können. Die Anwen‐ dung von Geschäftsmodellentwicklungsmethoden wie die Lean Start-up-Me‐ thode ermöglicht es Unternehmen, schnell und kosteneffektiv zu testen und ihr Geschäftsmodell zu optimieren. Schnell auf Veränderungen im Markt zu reagieren, erfordert zudem, dass Unternehmen agil arbeiten. Die Anwendung von SCRUM und anderen agilen Methoden ermöglicht es Unternehmen, ihre Prozesse zu optimieren und schneller und effektiver zu arbeiten. Auch ethisches Handeln und verantwortungsbewusster Umgang mit Da‐ ten sind für Unternehmen von großer Bedeutung. Sie sollten sicherstellen, dass ihre Aktivitäten im Einklang mit den geltenden Gesetzen und ethischen Grundsätzen stehen und dass sie sich der Auswirkungen ihrer Handlungen bewusst sind. Unternehmen müssen zuletzt auch sicherstellen, dass sie die Daten ihrer Kunden und Partner schützen und sicher aufbewahren. Sie sollten sicherstellen, dass sie den geltenden Datenschutzbestimmungen entsprechen und dass sie angemessene Sicherheitsvorkehrungen treffen, um Datenverlust und -missbrauch zu verhindern. - Best Practices im Zusammenspiel von technologischen und geschäftsorientierten Fähigkeiten In der Praxis hat sich gezeigt, dass ein erfolgreiches Zusammenspiel von technologischen, geschäftsorientierten und methodischen Fähigkeiten im datenbasierten Business Development eine zentrale Rolle spielt. Hierfür gibt es Themen, die in einer Organisation beachtet werden müssen - insbe‐ sondere Rollendefinition und Verantwortlichkeiten. Unternehmen müssen zunächst Rollen wie Data Warehousing Specialists, Datenbank Engineers, Data Engineers im Cloud-Kontext, Data Architects, Data Modeler, Data Scientist, Data Analyst, Analytics Translators, Data Product Manager, Ma‐ chine Learning Engineers, Business Intelligence Engineers, UX Specialists und Software Engineers verstehen und in die bestehende Organisation einpassen. Jede Rolle muss ein klares Profil besitzen, zudem müssen klare Verantwortlichkeiten festgelegt werden. 7.6 Relevante Fähigkeiten für datengetriebenes Business Development 151 <?page no="152"?> Neben den technologischen Fähigkeiten ist auch die Geschäftsorientie‐ rung von großer Bedeutung. Die technischen Rollen müssen die Geschäfts‐ ziele des Unternehmens verstehen und die Geschäftsstrategie in ihre Arbeit einbeziehen. Gleichzeitig müssen geschäftsorientierte Rollen ein Verständnis für technische Aspekte haben, um den Einsatz von Daten und Analysemethoden im Unternehmen effektiv zu gestalten. Ein weiterer wichtiger Faktor ist das Operating Model. Es muss klar sein, wie genau die Wertschöpfung passiert und wer welche Aufgaben übernimmt. Eine klare Definition des Operating Models ermöglicht es, dass die Zusammenarbeit zwischen den verschiedenen Rollen effizient und reibungslos verläuft. Neben den relevanten Fähigkeiten und dem wichtigen Zusammenspiel zwischen den unterschiedlichen Arten spielt auch die Organisation und Kultur eine zentrale Rolle, um erfolgreich als datengetriebenes Unterneh‐ men agieren zu können. 7.7 Organisation und Unternehmenskultur für datengetriebenes Business Development Datengetriebenes Business Development benötigt eine geeignete Organi‐ sation und Kultur, um den Nutzen von Daten vollständig auszuschöpfen (Radeshi, 2022). In diesem Zusammenhang spielt die Organisation eine entscheidende Rolle, um eine effektive Nutzung von Daten zu ermöglichen, die Unternehmenskultur hat einen maßgeblichen Einfluss auf die Akzeptanz und den Umgang mit Daten im Unternehmen. Daher ist die Betrachtung von Organisation und Kulturthemen für eine datengetriebene Organisation von entscheidender Bedeutung, um den Erfolg und die Effektivität der datenbasierten Geschäftstätigkeit zu gewährleisten. - Veränderungen in der Organisation und der Unternehmenskultur, die datengetriebene Ansätze erfordern Organisation Historisch gewachsene IT-Abteilungen haben häufig die Herausforderung, als Partner auf Augenhöhe für die internen Geschäfts- und Funktionsberei‐ che wahrgenommen zu werden. Klassische Methodiken wie „Requirements Engineering“ helfen in dieser grundlegenden Kommunikation. Wenn nun 152 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="153"?> aber die Transition voranschreitet und nach der Digitalisierung die Verar‐ beitung von Daten und Generierung von Insights in die Strategie spielt, gibt es weitere organisatorische Entwicklungsstadien, die erreicht werden müssen. Im ersten Zug ist es wichtig, dass Fachbereiche und IT auch organisato‐ risch zusammenarbeiten müssen. Eine Organisationsform kann die „embed‐ ded IT“ sein. Kostenstellen für Vorhaben werden intern weiterverrechnet und so finanziell und strategisch gesteuert. Grundlegend ist es wichtig Agilität im Mindset verankert zu haben. Hierzu gehören: • Flache Hierarchien und Entscheidungen werden dort getroffen, wo die Kompetenzen liegen. Es werden MVPs gestartet, Annahmen und Hypothesen werden kontinuierlich überprüft und neu validiert. • Dev (Entwicklung) und Ops (Operation) erfolgen in langfristig und produktorientierten Teams, welche sich für den gesamten Software- Lifecycle verantwortlich fühlen. In der Zusammenarbeit mit Geschäfts- und Funktionsbereichen ist es strategisch und taktisch essenziell, dass es einen gemeinsamen Backlog über die Vorhaben in der Organisation gibt. Priorisierungsfaktoren sind im Datenkontext die Machbarkeit und der positive Einfluss. Gemeinsam werden die knappen Ressourcen mit dem Effizienzvorhaben im Konsens- Verfahren gemeinsam (IT und Fachbereiche) priorisiert und verteilt. Ein definiertes Operating Model beschreibt dann abstrakt das technolo‐ gische und organisatorische Verhalten von einem Vorhaben bis zum Service Level Agreement (SLA). Vor allem ist dieser Baustein essenziell wichtig, bei komplexen Unternehmensstrukturen und z. B. zentrale und dezentrale Datenteams, welche ausschließlich durch geteilte Verantwortlichkeiten und somit das Operating Model verknüpft sind. Daten- und Unternehmenskultur Neben agilen Mindsets gilt es ebenfalls die Datenkultur über Data Literacy Initiativen weiterzuentwickeln. Eine datengesteuerte Kultur fördert die Verwendung von Daten bei Entscheidungen und gibt den Mitarbeiter: innen das Vertrauen, fundierte Entscheidungen zu treffen. Ebenso gilt es Manage‐ ment-Entscheidungen anstatt auf des bewährten „Bauchgefühls“ um die Dimension von Daten zu ergänzen. 7.7 Organisation und Unternehmenskultur für datengetriebenes Business Development 153 <?page no="154"?> Eine Organisation sollte sicherstellen, dass ihre Mitarbeiter: innen über die notwendigen Fähigkeiten und Kenntnisse verfügen, um Daten zu sammeln, analysieren und interpretieren. Entscheidend ist das Bewusstsein, dass die Mitarbeitenden in ihrer Gesamtheit sowohl Datenproduzenten als auch Datenkonsumenten über Software sind, und somit eine entscheidende Rolle im Lifecycle darstellen. Datenqualität sicherzustellen ist die Gesamtverant‐ wortung jedes Mitarbeitenden: Hohe Datenqualität ist unerlässlich für fundierte Entscheidungen. Eine Organisation sollte sicherstellen, dass ihre Daten von hoher Qualität sind, bevor sie für Entscheidungen verwendet werden. Diese Ziele können erreicht werden, wenn die folgenden sechs Hand‐ lungsfelder eng verzahnt sind: • Dateninfrastruktur aufbauen: Eine Organisation benötigt eine leis‐ tungsfähige und zentrale Dateninfrastruktur, um Daten sammeln, spei‐ chern, verwalten und analysieren zu können. Diese Dateninfrastruktur gewährleistet auch die Datensicherheit. Eine Organisation muss sicher‐ stellen, dass ihre Daten sicher und vor unbefugtem Zugriff geschützt sind. • Datenaustausch fördern: Eine Organisation sollte den Austausch von Daten zwischen verschiedenen Abteilungen und Teams fördern, um ein besseres Verständnis der Geschäftsprozesse zu ermöglichen. • Datenstrategie entwickeln: Eine Datenstrategie gibt der Organisation eine klare Richtung für die Verwendung von Daten und die Umsetzung von datengetriebenen Geschäftsprozessen. Beispielsweise ist die Data Ownership organisationsweit geregelt und wird mit Prinzipien durch die Unternehmensführung gestützt. • Mitarbeiter: innen einbinden: Mitarbeiter: innen sollten aktiv in die Ent‐ wicklung und Umsetzung von datengetriebenen Geschäftsprozessen einbezogen werden. • Schnelle Entscheidungsfindung fördern: Eine Organisation sollte schnelle Entscheidungen fördern, um schnell auf Veränderungen in der Geschäftsentwicklung reagieren zu können. • Feedback und Lernprozesse implementieren: Eine Organisation sollte Feedbackmechanismen und Lernprozesse implementieren, um die kon‐ tinuierliche Verbesserung des datengetriebenen Business Development zu ermöglichen. „Fail fast“ ist erwünscht und wird anerkannt. 154 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="155"?> Best Practices zur Schaffung einer datengetriebenen Kultur Eine datengetriebene Kultur in Unternehmen erfordert Methoden, um sicher‐ zustellen, dass die Daten in den Entscheidungsprozess integriert werden und zur Verbesserung der Geschäftsergebnisse beitragen. Eine der wichtigsten Best Practices besteht darin, die Sichtbarkeit der Datenkompetenzen zu erhöhen und sicherzustellen, dass alle relevanten Interessengruppen darauf zugreifen können. Eine klare und effektive Kommunikation über die Bedeu‐ tung und den Nutzen von Daten ist ebenfalls entscheidend, um die Akzeptanz und den Einsatz von Daten innerhalb der Organisation zu fördern. Die Bereitstellung von Schulungsangeboten zur Verbesserung der Da‐ tenkompetenz ist ein kritischer Punkt, der jedoch auch berücksichtigen muss, dass Mitarbeiter: innen bereits mit Arbeitsbelastungen und knappen Zeitplänen konfrontiert sind. Daher müssen Schulungen so konzipiert sein, dass sie in kurzen und prägnanten Formaten angeboten werden und auf die Bedürfnisse der jeweiligen Mitarbeiter: innengruppen abgestimmt sind. Das Lernen mithilfe von konkreten Use Cases und schneller Umsetzung, bei dem das Gelernte unmittelbar in der Praxis angewendet wird, kann dazu beitragen, die Relevanz und Anwendbarkeit von Daten in der täglichen Arbeit zu demonstrieren. Eine weitere wichtige Best Practice ist das Konzept „Fail Fast“. Hierbei geht es darum, schnell zu experimentieren, um schnell auch aus Fehlern zu lernen und die Organisation zu verbessern. Diese Herangehensweise ermutigt Mitarbeiter: innen, kreativ zu sein und neue Ideen auszuprobieren, ohne Angst vor Fehlern oder Misserfolgen zu haben. Ein solches Klima kann dazu beitragen, die Innovationskraft im Unternehmen zu stärken und die Umsetzung von datengetriebenen Entscheidungen zu beschleunigen. Führungskräfte sind hierin besonders gefordert, denn implizit bedeutet dies auch die Notwendigkeit einer neuen Definition von „Erfolgen“. - Herausforderungen bei der Umsetzung einer datengetriebenen Unternehmenskultur Die Etablierung einer datengetriebenen Kultur in Unternehmen kann jedoch auch auf eine Reihe von Herausforderungen stoßen. Eine strikt hierarchische Kultur mit gewachsenen Altersstrukturen in Führungsebe‐ nen können dazu führen, dass die Einführung von Datenanalysen und -prozessen erschwert wird. Die derzeitige Generation an Führungskräften und Managementstrukturen können möglicherweise weniger offen für den 7.7 Organisation und Unternehmenskultur für datengetriebenes Business Development 155 <?page no="156"?> Einsatz neuer Technologien und datengetriebener Entscheidungsfindung sein, was den Prozess der Einführung von datenbasierten Entscheidungen erschweren kann. Darüber hinaus können die Ängste von Mitarbeitenden vor Konsequenzen bei Fehlern im Kontext von Innovationsvorhaben die Einführung von datengetriebenen Entscheidungsprozessen stark beschrän‐ ken. Es kann dazu führen, dass Mitarbeitende zurückhaltend sind, wenn es darum geht, von bestehenden Prozessen und Strukturen abzuweichen und neue Vorhaben und Wege voranzutreiben. Ein weiteres Hindernis kann die generelle Angst vor einem Arbeitsplatz‐ verlust sein, die bei der erfolgreichen Umsetzung von Digitalisierungspro‐ jekten auftreten kann. Diese Angst kann dazu führen, dass Mitarbeiter: innen widerwillig sind, ihre Arbeitsweise und ihre Fähigkeiten im Bereich der Datenanalyse und -verarbeitung zu verbessern und die Chancen in der Gestaltung mithilfe von neuen Technologien und Tools wahrzunehmen. Zudem kann die steigende Komplexität von Datenprojekten zu erhöhten Anforderungen an Mitarbeitende führen bei wachsendem Fachkräfteman‐ gel. Die Anforderung an Resilienz der Mitarbeitenden im Bereich der Da‐ tenanalyse und -verarbeitung nehmen zu, da die Projekte immer komplexer werden und mehr Wissen und Erfahrung erfordern. Darüber hinaus die Geschwindigkeit von Neuentwicklungen der Technologien am Markt. Dies kann zu Überforderung führen und die Mitarbeiter: innen dazu veranlassen, sich gestresst zu fühlen, was sich negativ auf die Produktivität und Motiva‐ tion auswirken kann (Meyer, 2021). Es ist wichtig, dass Unternehmen diese Herausforderungen bei der Um‐ setzung einer datengetriebenen Kultur erkennen und aktiv Maßnahmen ergreifen, um sie zu überwinden. Dazu können Schulungen, Trainings und Workshops zur Förderung von Datenkompetenz, offene Kommunikation und der Schutz von Mitarbeitenden vor negativen Konsequenzen bei Fehlern und Innovationen sowie ein ausgewogenes Arbeitsumfeld beitragen. 7.8 Erfolgsfaktoren aus der Praxis für den Aufbau von datengetriebenem Business Development Neben einer methodischen Herangehensweise zur sowie der Berücksichti‐ gung von organisatorischen und kulturellen Aspekten existieren weitere Faktoren, die sich positiv auf die Entwicklung von datengetriebenen Ge‐ schäftsmodellen auswirken. Hier handelt es sich insbesondere um eine 156 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="157"?> geeignete Organisationsstruktur, die Annäherung von Geschäftsorientie‐ rung und Technologie und die treibende Rolle von Führungskräften, es benötigt jedoch übergeordnet eine auf die Unternehmensziele ausgerichtete Datenstrategie. - Organisationsstruktur Die IT ist in vielen Unternehmen der Digitalisierungsmotor und wird als strategischer Partner wahrgenommen. Die Datenkompetenzen liegen sowohl zentral in IT-Abteilungen als auch (häufig mit geringerer Maturi‐ tät) dezentral direkt bei den Fachbereichen. Das zentrale Team fokussiert meist auf das Enabling und komplexe Operationalierungsvorhaben. Eine „embedded IT“, die in den Fachbereichen verankert ist, schafft zunächst den Business-Fokus, und die Aufteilung von Analytics-Kompetenzen und „Ad‐ vanced Analytics“ schafft Klarheit in der Trennung des Fokus. Zusammen‐ arbeitsmodelle in DataOps-Teams sowie Community of Practices z. B. „Data Science & Analytics“ Communities schaffen die Governance für den Knowhow-Transfer und den kontinuierlichen Austausch und Wissenstransfer. Das zentrale Datenteam besteht aus häufig aus wesentlichen Fachfunk‐ tionen wie beispielsweise aus den Bereichen Digital Ethics, IoT, AI, Data Intelligence, Data Strategy Execution und drei Kompetenzzentren: Business Intelligence, Data Engineering und Data Science. Die Verantwortlichkeit muss end2end geregelt sein, um der DevOps Logik zu entsprechen. Im Grundsatz gilt die Agilität gemäß Scrum. - Annäherung von Geschäftsorientierung und Technologie Die Arbeit mit Daten wird in der Praxis meist aus der IT-Abteilung von Unternehmen getrieben, wo ein großes Augenmerk auf technologische As‐ pekte wie die Datenverfügbarkeit, Qualität und genutzte Software geworfen wird. Um erfolgreich datengetriebenes Geschäft zu entwickeln, muss in Unternehmen jedoch die Brücke zwischen den Fachbereichen und der IT gemeistert werden. Denn insbesondere Personen, die die strategischen und operativen Herausforderungen des Unternehmens kennen, müssen wissen, wie sie Daten gezielt zur Erreichung von Zielen einsetzen können. Hierbei ist es einerseits wichtig, Personen mit technischem Hintergrund methodisches sowie geschäftsorientiertes Wissen zu vermitteln, damit sie in der Lage sind, ihr technologisches Wissen gezielt zur Lösung von Geschäftsproblemen einzusetzen. Andererseits müssen aber auch Mitarbeiter: innen aus Fachbe‐ 7.8 Erfolgsfaktoren aus der Praxis 157 <?page no="158"?> reichen die technologischen Möglichkeiten kennen, um bestehende Prozesse und Geschäftsmodelle aktiv hinterfragen und neu denken zu können. Es empfiehlt sich, zielgruppengerechte Befähigungsprogramme in beide Richtungen anzubieten, um so das gegenseitige Verständnis zu fördern als auch die Schaffung einer gemeinsamen Kultur, die den Einzug von einem Einsatz von Daten in den Alltag schafft. - Rolle von Führungskräften Die aktive Rolle von Führungskräften ist für den Aufbau von datengetrie‐ benem Geschäft essenziell. Führungskräfte müssen daher in der Lage sein, die Potenziale zu erkennen, die datenbasiertes Geschäft ermöglicht. Sie spielen aber auch eine relevante Rolle beim Vorleben einer Datenkultur, die datenbasierte Entscheidungen fördert. So sollten Führungskräfte beispiels‐ weise proaktiv ihre Mitarbeitenden nach Daten und Datennutzung fragen, wenn diese eine Entscheidung einfordern und auch in die Befähigung der eigenen Mitarbeitenden zum Aufbau neuer Fähigkeiten investieren. Auch das Fördern vom Teilen von Daten und Erkenntnissen sollte ein Teil der Rolle von Führungskräften in einem datengetriebenen Unternehmen sein. - Datenstrategie Als Grundlage für die Schaffung einer datengetriebenen Organisation muss jedes Unternehmen eine Datenstrategie definieren, die unternehmensweit in die Umsetzung gegeben wird. Wichtig hierbei ist die Mischung aus standardisierten Prinzipien und Gestaltungsfreiheit für die spezifischen Anforderungen für die Fachbereiche. Bei der Umsetzung der Datenstrategie ist es wichtig, dass die Unter‐ stützung des Managements (top-down) sowie auch das Engagement der Mitarbeitenden (bottom-up) zusammenspielt. Die Datenstrategie muss auf die Digitalisierungsstrategie sowie die Unternehmensstrategie einzahlen und darf keinen Selbstzweck haben. 7.9 Fazit und Ausblick Datengetriebenes Business Development gewinnt zunehmend an Bedeu‐ tung für Unternehmen, die ihre Geschäftsprozesse und -modelle optimieren und ihr Wachstumspotenzial ausschöpfen möchten. In diesem Artikel wur‐ 158 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="159"?> den verschiedene methodische Ansätze für eine datengetriebene Entwick‐ lung neuer Geschäftsmodelle vorgestellt und analysiert sowie relevante Fähigkeiten und Erfolgsfaktoren aus der Praxis beleuchtet. Ein systemati‐ scher und methodischer Ansatz ist dabei von entscheidender Bedeutung, um Daten gezielt zu nutzen und Erkenntnisse in konkrete Maßnahmen und Ideen im Business Development umzusetzen. Es wurde herausgestellt, dass bestehende Business-Development-Metho‐ den bislang nicht explizit die Charakteristika von datengetriebenem Ge‐ schäft berücksichtigen - hier wurde eine Herangehensweise aus der Praxis vorgestellt. Die Herangehensweise integriert den Ansatz bestehender Ge‐ schäftsentwicklungsmethoden und ergänzt sie um die konkrete Betrachtung von Datenthemen. So wird die Ideenfindungsphase von Daten zur Validie‐ rung gestützt sowie datenbasierte Möglichkeiten von Anfang methodisch mit betrachtet. Auch in der Ausarbeitung eines ersten Umfangs des Vorha‐ bens (MVP) als auch bei der Operationalisierung muss die bestehende Praxis um konkrete Überlegungen und Aktivitäten zu Daten erweitert werden, sodass datenbasiertes Business Development erfolgreich sein kann. Um diese Methodik erfolgreich anwenden zu können, benötigen Unter‐ nehmen technologische, geschäftsorientierte und methodische Fähigkeiten. Es ist dabei wichtig, das Zusammenspiel dieser Fähigkeiten zu unterstützen, um effektivere Ergebnisse zu erzielen. Die Schaffung einer datengetriebenen Kultur erfordert Veränderungen in der Organisation und der Unternehmens‐ kultur. Eine erfolgreiche Umsetzung kann jedoch zu einer verbesserten Entscheidungsfindung und einem besseren Verständnis von Kundenbedürf‐ nissen führen. Erfolgsfaktoren aus der Praxis wie die passende Organisati‐ onsstruktur, die Annäherung von Geschäftsorientierung und Technologie, die Rolle von Führungskräften und eine gut durchdachte Datenstrategie sind unerlässlich, um eine datengetriebene Geschäftsentwicklung zu etablieren. Insgesamt zeigt dieses Kapitel, dass datengetriebenes Business Develop‐ ment ein wichtiger Faktor für den Erfolg eines Unternehmens sein kann - aber ein systematischer und methodischer Ansatz sowie relevante Fähig‐ keiten und eine datengetriebene Kultur und Organisation notwendig sind, um dieses Ziel zu erreichen. Unternehmen sollten sich proaktiv mit diesen Herausforderungen auseinandersetzen, um ihre Wettbewerbsfähigkeit und ihr Wachstumspotenzial zu erhöhen. In der Praxis befinden sich viele Unternehmen auf dem Weg zu einer datengetriebenen Organisation noch sehr weit am Anfang. Die Zusammenstellung der Praxistipps aus diesem Kapitel können Unternehmen als Orientierung dienen, datengetriebenes 7.9 Fazit und Ausblick 159 <?page no="160"?> Business Development in der eigenen Organisation zu beschleunigen und erfolgreicher zu gestalten. 7.10 Literatur Bennett, N., Lemoine. J., What VUCA really means for you,-Harvard business review-92.1/ 2, 2014. Bilgeri, D. et al., The IoT business model builder. A White Paper of the Bosch IoT Lab in collaboration with Bosch Software Innovations GmbH, 2015. Blosch, M., Osmond, N., Norton, D., Enterprise Architects Combine Design Thin‐ king, Lean Startup and Agile to Drive Digital Innovation, 2016. Brandt, V., Kordel, K, Wertschöpfungsnetzwerke im Internet der Dinge. Digitale Geschäftsmodelle - Band 1: Geschäftsmodell-Innovationen, digitale Transforma‐ tion, digitale Plattformen, Internet der Dinge und Industrie 4.0, 2019, 139-153. Brynjolfsson, E., McElheran, K., The Rapid Adoption of Data-Driven Decision-Ma‐ king. American Economic Review 106, no. 5, May 2016, 133-139, 2016 American Economic Association. Fry, H., Hello World: How to be Human in the Age of the Machine. Random House, 2018. Gartner 2023, https: / / www.gartner.com/ en/ sales/ glossary/ business-development, Zugegriffen am 18.03.2023. Hartmann, P.M. et al., Capturing value from big data-a taxonomy of data-driven business models used by start-up firms, International Journal of Operations & Production Management. 36.10, 2016, 1382-1406. Henke, N., Levine, J., McInerney, P., Analytics translator: The new must-have role. Harvard Business Review, 2018. Hirsch, D.D., The glass house effect: Big Data, the new oil, and the power of analogy, Me. L. Rev.-66, 2013, 373. Isaacs, M.L., Data-driven decision making: The engine of accountability. Professional School Counseling 6.4, 2003, 288-295. Körppen, T., Ullrich, A., Bertheau, C. Durchblick statt Bauchgefühl - Transformation zur Data-Driven Organization.-Wirtsch Inform Manag-13, 2021, 452-459. Kühne, B., Böhmann, T., Requirements for representing data-driven business mo‐ dels-towards extending the business model canvas, 2018. Lemke, C., Monett, D., Mikoleit, M., Digitale Ethik in datengetriebenen Organisati‐ onen und deren Anwendung am Beispiel von KI-Ethik. Data Science anwenden: Einführung, Anwendungen und Projekte, 2021, 33-52. 160 7 Best Practice und Methoden für datengetriebenes Business Development <?page no="161"?> Machado, I.A., Costa, C., Santos, M.Y., Data mesh: concepts and principles of a paradigm shift in data architectures, Procedia Computer Science-196, 2022, 263- 271. Mateo, F.W., Redchuk, A., The Emergence of New Business and Operating Models under the Industrial Digital Paradigm. Industrial Internet of Things, Platforms, and Artificial Intelligence. Machine Learning, Journal of Mechanics Engineering and Automation ( JMEA), 11.2, 2021, 54-60. Meyer, K., Stress-und Selbstmanagement als Schlüsselkompetenzen für eine nach‐ haltige Balance in der VUCA-Welt. Multimodales Stressmanagement: Rüstzeug für nachhaltige Stabilität und Balance in der VUCA-Welt, 2021, 37-44. Munappy, A.R. et al., From ad-hoc data analytics to dataops.“-Proceedings of the International Conference on Software and System Processes. 2020. Osterwalder, A. et al. „Business Model Generation: A handbook for visionaries, game changers and challengers,-African journal of business management-5.7, 2011, 22-30. Provost, F., Fawcett, T., Data Science for Business: What you need to know about data mining and data-analytic thinking. O’Reilly Media, Inc., 2013. Rashedi, J., Merkmale der datengetriebenen Organisation.-Das datengetriebene Unternehmen: Erfolgreiche Implementierung einer data-driven Organization. Wiesbaden, 2022, 17-32. Ries, E., Minimum viable product: a guide. Startup lessons learned-3, 2009, 1. Schwaber, K., Sutherland, J., The scrum guide. Scrum Alliance-21.1, 2011, 1-38. Warren, J., Marz, N., Big Data: Principles and best practices of scalable realtime data systems, Simon and Schuster, 2015. Whiteman, W.E., Training and Educating Army Officers for the 21st Century: Implications for the United States Military Academy, Army War Coll Carlisle Barracks PA, 1998. 7.10 Literatur 161 <?page no="163"?> 8 Was bringen Daten - und wie können sie die Wertschöpfung in der Telekommunikationsindustrie beeinflussen? | von Markus Gildenhard Daten beeinflussen die gesamte Wertschöpfungskette jedes Unternehmens. Aus diesem Grund lässt sich jede Wertschöpfungskette eines Unternehmens durch Daten beschreiben, die während der Wertschöpfung verarbeitet wer‐ den. Unternehmerische Entscheidungen werden bewusst oder unbewusst auf der Grundlage von Daten und Informationen getroffen und erzeugen wieder neue Daten und Informationen. Somit bilden die gespeicherten Informationen eines Unternehmens - also die Daten, gleichsam ein Modell der zugrundeliegenden unternehmerischen Entscheidungen. Unternehmen, denen es gelingt, mithilfe ihrer Daten zu zielgerichteteren und eventuell automatisierten Entscheidungen zu gelangen, werden einen Wettbewerbs‐ vorteil gegenüber den Mitbewerbern haben, denen dies schwerer fällt. 8.1 Wie Daten die Wertschöpfungskette von 1&1 beeinflussen Die Telekommunikationsindustrie lässt sich entlang der Wertschöpfungs‐ kette in Mobile Network Operators (MNO)/ Internet Service Providers (SP) und Virtual Network Operators (MVNO)/ Wholesales Service Providers (WSP) unterteilen. Die Geschäftsmodelle unterscheiden sich grundlegend. Ein Netzbetreiber stellt seinen Kunden Netzkapazitäten zur Verfügung und ermöglicht die Nutzung des Netzwerkes. Das Wachstum eines Netzwerk‐ betreibers ist also im Prinzip eine komplexe Arbitrage aus Investitionskosten für den Aufbau und Betrieb eines Netzwerkes und den Erlösen, die man von den Kunden des Netzwerkes erhält. Bei einem MVNO oder WSP existiert eine etwas weniger komplexe Arbitrage aus Tarifen oder Netzwerkkapazi‐ täten, die man von einem Netzbetreiber einkauft und dann gewinnbringend an seine Endkunden weiterverkauft. 1&1 begann als WSP und MVNO und wurde durch die Vermarktung von Endkundentarifen erfolgreich. 1&1 ist es gelungen zu einem der größten <?page no="164"?> Telekommunikationsunternehmen in Deutschland aufzusteigen. Nach der erfolgreichen Teilnahme an der 5G-Frequenzauktion baut 1&1 als vierter deutscher Netzbetreiber nun ein eigenes 5G-Mobilfunknetz auf, basierend auf der innovativen Open-RAN-Technologie. Durch das Abonnement-getriebene Geschäftsmodell profitiert 1&1 von der Möglichkeit, in den eigenen Kundenbestand hineinzuvermarkten. Das Wachstum wird also auch durch dauerhafte Kundenbeziehungen getrieben. Dabei ist eine gute Kundenerfahrung wichtig, um Neukunden zu gewinnen und um neue Produkte in den Bestand zu vermarkten. Bei allen Aspekten dieses Geschäftsmodells, vom Leistungseinkauf, über die Entwicklung neuer Produkte, bis zum Entdecken von Potenzialen im eigenen Kundenbestand sind Daten ein integraler Bestandteil der Wert‐ schöpfung. Da die Kundenbindung so wichtig für das Geschäftsmodell ist, baut 1&1 sehr stark darauf, die Kundenerfahrung anhand von operativen sowie Umfragedaten zu verstehen und zu verbessern. Ein zufriedener Kunde ist ein treuer Kunde, er kauft mehr Produkte und trägt durch Empfehlungen zur Neukundengewinnung bei.- Operative Daten ermöglichen zwar das Messen, Wiegen und Zählen von Geschäftsprozessen, ermöglichen aber nicht zu bewerten, wie der Geschäftsprozess aus Kundensicht wahrgenommen wird. Deshalb ist es ein besonderes Anliegen von 1&1, die Qualität der angebotenen Services stets durch Kundenfeedbacks zu überwachen und zu verbessern.- Eine besondere Herausforderung in der Analyse von Kundenfeedbacks ist die Projektion der vielschichtigen Kundenerfahrung auf die Unternehmens‐ strukturen und Prozesse. Bei 1&1 haben wir innovative Methoden entwi‐ ckelt, um dieser Herausforderung zu begegnen und die Kundenerfahrungen durch klug gestaltete Datenprodukte zu verbessern. Bei der Entwicklung solcher und anderer Datenprodukte kommen wir immer wieder schnell an die Grenzen von im Markt verfügbaren Lösungen und setzen deshalb stark auf Eigenentwicklungen. Die große Komplexität von Datenprodukten kann schnell das Aus für solcherlei Innovationen bedeuten.- Im Folgenden stelle ich dar, unter welchen Umständen diese Komplexität entsteht und wie wir ihr durch strukturierte Datenprodukt-Konzeption be‐ gegnen können. Anschließend betrachten wir Beispiele aus dem Umfeld der Customer Experience innerhalb der 1&1, bei denen eine saubere Konzeption zum Erfolg geführt hat. 164 8 Was bringen Daten <?page no="165"?> Warum scheitern Datenprodukte? Wieso sind Datenprojekte so komplex? Die meisten KI- und Datenprodukte scheitern daran, dass Daten zwar vorhanden sind, aber die zugrundeliegenden Geschäftsprozesse nicht voll‐ ständig abbilden oder wichtige Entscheidungsketten nicht sauber berück‐ sichtigen. Das oben erwähnte Modell der Wertschöpfungskette ist also fehlerhaft. Werden operative Daten erhoben, beispielsweise zur Mobilfunk-Netzqua‐ lität, sind diese Daten dann wirklich geeignet, um den Kundenservice zu informieren und auszusteuern? - Wie wirkt sich der buchhalterische Abschlusszeitpunkt eines Tarifwech‐ sels auf die Kundenerfahrung während des Streamings eines sportlichen Großereignisses auf dem Mobilfunkgerät aus? Diese und ähnliche Fragen fordern uns täglich bei 1&1, unsere Datenprodukte zu entwickeln und zu verbessern, um die Kundenerfahrungen und Unternehmenssicht übereinan‐ derlegen zu können. Data Eine vernünftige Datenbewirtschaftung ist deshalb so komplex (und teuer), weil alle Geschäftsprozesse, evtl. auch aus verschiedenen Leistungssyste‐ men stammend, auf der Analyseebene nachgebildet, abstrahiert und verein‐ facht werden müssen. Kurz gesagt, das (Geschäfts-)Modell des Unterneh‐ mens wird in Daten nachgebaut. Häufig verständigt man sich in der Organisation dabei auf Key Per‐ formance Indicators (KPIs), also Messpunkte, die wichtig sind, um die Geschäftssteuerung zu ermöglichen. Ist eine gute KPI bestimmt, so die Theorie, wird Performance messbar und kann gesteigert werden. In der Analyse von Kundenfeedbacks gibt es zwei weit verbreitete KPIs: Die Kundenzufriedenheit und die Weiterempfehlungsrate (Net Promotor Score). In der Realität sind beide KPIs von verschiedensten Faktoren abhängig, nicht nur von der beeinflussbaren oder messbaren Produkt- und Servicequalität, sondern auch von dem individuellen Kundenkontakt oder äußeren Einflussfaktoren wie dem Verhalten von Mitbewerbern. So wird beispielsweise die Zufriedenheit mit der Netzqualität nicht nur von Bandbreite und Empfang beeinflusst, sondern auch von der Hardware des Kunden. Diese entzieht sich allerdings der Messbarkeit durch den Service Provider. Es lässt sich leicht erkennen, dass eine solche KPI weiterer 8.1 Wie Daten die Wertschöpfungskette von 1&1 beeinflussen 165 <?page no="166"?> Erklärung bedarf und nur selten direkt zur Geschäftssteuerung verwendet werden kann. Weitere Komplexität in Daten ergibt sich durch den Grad an Stochastizität des zugrundeliegenden Prozesses. Es gibt Prozesse, die sich deterministisch abbilden und sogar vorhersagen lassen. Diese Prozesse sind dann häufig technischer Natur, z. B. Kapazitäten von IT-Systemen. Dann wiederum gibt es Prozesse, die sich nur durch Wahrscheinlichkeiten beschreiben lassen. Zu diesen Prozessen zählen die meisten Prozesse, die durch menschliche Entscheidungen beeinflusst werden. Beispielsweise Kaufwahrscheinlichkei‐ ten oder die benötigten Service-Callcenter-Kapazitäten an einem sonnigen Samstagnachmittag. Wir stellen also fest, dass die Vollständigkeit und die Strukturierung von Daten ein Erfolgsfaktor für ein erfolgreiches Datenprodukt sind. Dieser Erfolgsfaktor ist noch weitestgehend eingängig. Genauer und präziser Input wird zu gutem Output führen. In der Praxis wird aber häufig übersehen, dass ein Datenprodukt nicht nur aus Daten besteht. Decision Datenprodukte sollen durch Daten Entscheidungen verbessern. In der Ge‐ staltung von Datenprodukten ist der zweite Schritt - und der erste, der häufig übersehen wird - die Entscheidungsfindung. Die Analyse von Daten umfasst also weit mehr ihre Erfassung. Erkenntnisse können nicht ohne Know-how der Datengrundlage abgeleitet werden und KI-Produkte können nicht ohne Zielsetzung Geschäftsprozesse automatisieren. Eine Kundenzufriedenheit von 75 % sagt zunächst nichts darüber aus, ob die Kunden nun noch zufriedener sein könnten, oder ob das schon der Spitzenwert ist, den man erreichen kann. Im Prinzip muss man sicherstellen, dass die Daten zu der Entscheidung passen, die getroffen werden soll. Aus rohen Daten lassen sich keine Ent‐ scheidungen ableiten oder automatisieren. Analyseprodukte benötigen eine überprüfbare Hypothese und KI-Produkte benötigen ein Optimierungsziel. Datenprodukte scheitern meistens daran, dass die Entscheidungsebene nicht berücksichtigt wird und es bei rein deskriptiven Betrachtungen der Daten bleibt.- Dabei ist die Entscheidung nicht unbedingt ein technischer Schritt in‐ nerhalb eines Prozesses, es kann auch sein, dass das Datenprodukt die Entscheidungen innerhalb eines Unternehmens nur unterstützt. Weitere 166 8 Was bringen Daten <?page no="167"?> Faktoren wie die Unternehmensziele und deren Priorisierung sind entschei‐ dend, um mithilfe von guten Daten auch gute Entscheidungen zu treffen.- Delivery Sind die relevanten Entscheidungen gefunden, fehlt noch ein entscheidender Schritt für ein gutes Datenprodukt. Dieser Schritt wird in einer Welt voller schillernder KI-Use-Cases mit großen Versprechungen in 90 % der Projekte, die einem in der Praxis begegnen, komplett übersehen. Wie wird die Entscheidung überhaupt ausgeliefert? Nehmen wir an, wir hätten ein Datenprodukt entwickelt, bei dem wir für einen Kunden sehr gute Kaufempfehlungen generieren. Wie gelangen diese Empfehlungen eigentlich zu ihm oder ihr? Können wir dem Kunden auf unserer Website die Empfehlungen anzeigen? Haben wir überhaupt ein geeignetes System, um die entsprechenden Werbemittel auszusteuern? Können Callcenter-Agenten dem Kunden bei Bedarf ein entsprechendes Produkt empfehlen? Wie reagieren die Callcenter-Agenten, wenn man ihnen diese Information zur Verfügung stellt? Wurde der Datenschutz berücksichtigt etc.? In der Auslieferung entscheidet sich, ob mein Datenprodukt ein Konzept auf einer schönen Präsentationsfolie bleibt oder tatsächlich in der Realität für das Unternehmen und den Kunden einen Mehrwert schafft. Ein hypo‐ thetisches Beispiel: Ein guter Data Scientist hat innerhalb von drei Tagen ein akzeptables Modell gebaut, mit dem sich vorhersagen lässt, welche techni‐ schen Probleme zu besonders häufigen Service-Anfragen führen. Daraufhin ist der Plan, die Service-Anfragen von Kund: innen mit solchen Problemen von besonders erfahrenen Service Mitarbeiter: innen beantworten zu lassen. Ein solches Projekt wird nicht an der Vorhersage scheitern, auch nicht unbedingt daran, ob es nun die richtige Maßnahme ist, solche Anfragen von erfahrenen Mitarbeiter: innen beantworten zu lassen. Höchstwahrscheinlich wird ein solches Projekt in Organisationen erfolgreich sein, die es schaffen, die Entscheidung zuverlässig auszuliefern - also ob es möglich ist, das vom Data Scientist entwickelte Modell innerhalb des Service Routings auszurollen. Der Aufwand für die Operationalisierung eines Modells ist häufig wesentlich größer als die Entwicklung des Modells. Es geht sogar so weit, dass man sich fragen sollte, ob es überhaupt Sinn ergibt, einen Prozess mithilfe von Machine Learning zu optimieren, bevor man ihn so 8.1 Wie Daten die Wertschöpfungskette von 1&1 beeinflussen 167 <?page no="168"?> weit automatisiert hat, dass man die Entscheidungen der Maschine effizient einbinden kann. 8.2 Das Datenprodukt besteht aus den Bausteinen: Data, Decision & Delivery Die Bausteine aus „Data, Decision & Delivery“ trennen eine lose Idee vom fertigen und produktiven Datenprodukt. Dabei ist es egal, ob es sich um ein einfaches Reporting-Tool oder eine KI-Anwendung handelt, die in Echtzeit Entscheidungen ausspielt. Sind nicht alle Aspekte abgedeckt, wird man nicht zu einem Datenprodukt gelangen. Deshalb ist es sinnvoll, zu Beginn einer jeden Produktkonzeption jeden der Bausteine zu berücksichtigen.- - Die Kohärenz der Data, Decision & Delivery Pipeline Häufig lassen sich auch die vorhandenen IT-Systeme anhand der Bausteine segmentieren: - • Data - Datenbanken, Systeme zur Datensammlung • Decision - Systeme der Informationsverarbeitung und Abbildung von Regelwerken z.-B. Ad- Server • Delivery - User- oder Kunden-Front-Ends, z. B. Websites, aber auch Telefonanlagen etc. In der Projektkonzeption empfiehlt es sich, die jeweilige Systemarchitektur des Datenproduktes zu skizzieren und die Stakeholder an allen wichtigen Schnittstellen frühzeitig einzubinden. Die Architektur des Datenproduktes sollte stets auch die Schnittstelle zwischen Mensch und Maschine beinhal‐ ten, da der bzw. die User: in oder Kund: in letztendlich über den Erfolg des Produktes entscheidet. Die beste Vorhersage schafft keinen Mehrwert, wenn sie nicht verwendet wird. Das beste Recommender System ist nur so gut wie das Produkt, das empfohlen wird.- - Reifegrad Die jeweilige Implementierung des Datenproduktes ist auch durch den Reifegrad der IT-Systemlandschaft und Prozesse geprägt. Jeder Prozess kann nur so zuverlässig und schnell sein wie sein langsamstes oder instabilstes Glied.- 168 8 Was bringen Daten <?page no="169"?> Es kann also passieren, dass die Reifegrade der einzelnen Bausteine weit auseinanderliegen, so dass das volle Potenzial eines Datenproduktes nicht ausgeschöpft werden kann. Was hilft es, wenn Entscheidungen in Echtzeit angezeigt werden können, die für die Entscheidung relevanten Daten, allerdings nicht aktuell genug sind? - Wenn die Reifegrade der Produktbausteine nicht zusammenpassen, ent‐ stehen Komplexitäten, die Innovationen verhindern und zum Scheitern von Projekten führen. Deshalb ist es unerlässlich, für jedes Datenprojekt den Zustand der Infrastruktur zu dokumentieren und in der Konzeption zu berücksichtigen. Zusammenfassend ist es für eine Datenplattform wichtig, dass: 1. Daten historisiert, strukturiert, aktuell sind, 2. die Daten schnell in Entscheidungssystemen zur Verfügung stehen, 3. die relevanten Daten für die Entscheidungen zur Verfügung stehen, 4. Entscheidungen inhaltlich und zeitlich gültig sind, 5. es bekannt ist, welche Auswirkungen Datenänderungen auf die Ent‐ scheidungen haben, 6. es erlaubt ist, die Daten zu dem Zweck der Entscheidung zu verarbeiten, 7. alle Entscheidungen, die für einen Output wirken, auch berücksichtigt werden, 8. die Medien und Kanäle, die die Entscheidungen ausliefern, diese auch verarbeiten können. - Strategische Entwicklung der Data, Decision & Delivery Plattform Für die strategische Entwicklung einer IT-Architektur ist es sinnvoll, die Datenproduktbausteine möglichst zugänglich und verfügbar zu machen. Closed Data Loop In der Entwicklung der Datenplattform ist vor allem die Abwägung zwi‐ schen dem Grad der Strukturierung und Geschwindigkeit der Verfügbarkeit entscheidend. Daten müssen strukturiert werden, bevor sie nützlich werden, aber jede Strukturierung von Daten ist ein Schritt der Informationsverar‐ beitung und kann langwierig sein. Dieses Ziel verträgt sich häufig nicht mit einem immerwährenden Bedarf an Geschwindigkeit in der Entscheidungs‐ findung. 8.2 Das Datenprodukt besteht aus den Bausteinen: Data, Decision & Delivery 169 <?page no="170"?> Eine Abwägung sollte also sein: Wie aufwändig müssen Daten struktu‐ riert werden, bis sie einen Mehrwert liefern können und wie schnell stehen sie dann für die Entscheidung zur Verfügung? Bei dieser Abwägung kann es hilfreich sein, gute Heuristiken zu finden, um schnell zu einer Entschei‐ dungsfindung zu gelangen. In der Realität stehen oft nicht alle relevanten Daten zur Verfügung - das müssen sie aber auch nicht, solange der Erfolg einer Entscheidung messbar ist. Langfristig ist es also erstrebenswert, einen geschlossenen Datenkreislauf aufzubauen, mit dem die Entscheidungsebene messbar wird. Somit kann auch auf Genauigkeit in der Entscheidungsgrund‐ lage verzichtet werden und Entscheidungen schnell korrigiert werden. Ein gutes Beispiel dafür sind Systeme, die ein Testing ermöglichen. Bei Experimenten mit verschiedenen Entscheidungsvarianten (A/ B Testing) wird die Analyse von Entscheidungen extrem vereinfacht und ermöglicht die Messung von kausalen Zusammenhängen im Vergleich zu einfachen Korrelationen. Es muss also weniger Energie in die Datenanalyse vor einer Entscheidung gesteckt werden, wenn der Erfolg perfekt messbar und leichter interpretierbar ist. In der Realität ist es oft wesentlich komplexer, zwei Varianten einer Entscheidung auszuspielen, als nur eine Variante. Die Analysekomplexität wird also in Ausspielung-Komplexität umgewandelt.- Decision Layer Im schnelllebigen Projektgeschäft ist es häufig einfacher, Entscheidungen für einen Kontext hart in IT-Systemen zu programmieren. Entscheidungen sollten aber per se einzig und allein den unternehmerischen Zielen unter‐ worfen und nicht aufwändig implementiert sein. Es gibt eine Vielzahl an Anbietern von Plattformen, die aus dieser Notwendigkeit ein Geschäfts‐ konzept entwickelt haben. Sie bieten eine Abstraktion der Daten auf die Entscheidungsebene an und ermöglichen die einfache Konfiguration von Entscheidungen ohne Programmieraufwand. Solche Anbieter werben häufig damit, Daten aus verschiedenen Quellen zu integrieren und an eine Vielzahl von Kanälen übergeben zu können. Für eine strategische Entwicklung der Unternehmensplattform wird der Schritt zu konfigurierbaren Entscheidungssystemen, die Skalierbarkeit von Datenprodukten enorm erleichtern. Allerdings wird häufig unterschätzt, dass auch Plattformen, die keine formale Programmiersprache benötigen, dennoch komplexe Logiken implementieren und im praktischen Einsatz aufwändig zu bedienen sind. 170 8 Was bringen Daten <?page no="171"?> Human Centred Delivery Selbstverständlich benötigt die Auslieferung von Daten und Entscheidungen Systeme, die diese Entscheidungen empfangen können. Dabei sprechen viele IT-Systeme über mehr oder weniger standardisierte Schnittstellen miteinander. Das betrifft vor allem Front-End-Systeme. Allerdings umfasst die Auslieferung von Datenprodukten nicht nur technische Aspekte. Jedes Datenprodukt automatisiert einen Prozess oder liefert neue Informationen an eine Schnittstelle. Wenn diese Schnittstelle menschlich ist, ist es unabdingbar, die Verände‐ rung für Mitarbeiter: innen, User: innen und Kund: innen bei jeder Neuent‐ wicklung eines Datenproduktes zu berücksichtigen. Letztendlich geht es darum, ob das Datenprodukt verstanden wird. Das kann im engeren Sinne die Darstellung von Daten oder Entscheidungen betreffen (z. B. Darstellung von Produktempfehlungen). Im weitesten Sinne verändern erfolgreiche Datenprodukt auch Unternehmen an sich. Dies kann sogar so weit gehen, dass sich das Geschäftsmodell verändert. Dabei ist entscheidend, ob die Mitarbeiter: innen und Kund: innen mit dieser Veränderung mitgehen. Oder führt die Innovation zu ungewollten Nebeneffekten, die den Erfolg des Datenproduktes schmälern? In der strategischen Entwicklung einer Data Decision & Delivery Platt‐ form können die menschlichen Schnittstellen nicht unberücksichtigt blei‐ ben. Die Risiken und Nebenwirkungen können durch gezieltes Skalieren abgefangen werden. Mögliche Lösungen sind „Friendly-User“ Tests oder der kontrollierte Rollout innerhalb eines Test-Setups mit schnellen Feed‐ backschleifen. Unabhängig davon, ob die Datenprodukte zugekauft oder entwickelt werden, sollten Unternehmen die Kenntnisse und Fähigkeiten aufbauen, solche Datenprodukte erfolgreich zu betreiben. Zusammenfassend ist bei der Strategischen Entwicklung einer Plattform wichtig, dass: 1. Alle Bausteine von Datenprodukten in der Plattform Berücksichtigung finden, 2. Entscheidungs-Performance als Feedback zurück in das Datenprodukt fließen kann, 3. unternehmerische Entscheidungen leicht konfigurierbar sind, 4. die Organisation reif genug ist, um mit den Veränderungen umzugehen. 8.2 Das Datenprodukt besteht aus den Bausteinen: Data, Decision & Delivery 171 <?page no="172"?> 8.3 Vom Datenprojekt zum Datenprodukt Jedes Datenprodukt fängt einmal als Datenprojekt an. Datenprojekte sind ähnlich anderen IT-Projekten. Die meisten IT-Produkte verarbeiten spezifi‐ sche Daten nach deterministischen Regeln. Solange die Regelwerke wenige Dimensionen verarbeiten, greifen die klassischen Erfolgsfaktoren von IT- Projekten: Präzise Definitionen, abgestimmte Schnittstellen usw. Aus einem IT-Projekt wird dann ein Datenprojekt, wenn mehrere sich beeinflussende Funktionen ineinandergreifen. Auch einfache Funktionen mit mehreren Dimensionen können zu chao‐ tischen Dynamiken führen und somit scheinbar stochastisches Verhalten annehmen (allgemein bekannt als Schmetterlingseffekt). Wenn also in IT- Produkten Daten aus interagierenden deterministischen Regelwerken (z. B. aus Vermarktungsregeln) oder Entscheidungen von unvollständig beobach‐ teten Einheiten (z. B. Kundenverhalten) verarbeitet werden, dann wird aus einem IT-Produkt ein Datenprodukt und somit aus einem IT-Projekt ein Datenprojekt. Datenprojekte entziehen sich dann einer optimalen Lösung oder in anderen Worten, die Planung von Datenprojekten ist sehr zeitinten‐ siv und teuer. Hinzu kommt, dass sich Datenprodukte aufgrund ihres komplexen Inputs einer vollen Testbarkeit entziehen. So sind Daten mit vielen Ausprägungen schwer vor ihrer Erhebung zu simulieren. Die Strukturen von Daten, die noch nicht erhoben werden, können im Vorhinein nur mit großem Aufwand ermittelt und konzipiert werden. Der Projektmanager steht also vor der Wahl, viele Ressourcen in die Konzeption und Abstimmung zu investieren oder das Datenprojekt mit Unsicherheiten zu starten.- In der Praxis stellt sich heraus, dass Datenprojekte meist dann gut funk‐ tionieren, wenn sie in schnellen und iterativen Zyklen entwickelt werden. Dies reduziert die Kosten der Konzeption und erlaubt es, Abstimmungen zu vereinfachen. Voraussetzung für ein iteratives Vorgehen ist eine klare Vision und ein entscheidungsbefähigter Product Owner. Der wichtigste Erfolgsfak‐ tor von iterativen Projekten hat allerdings wieder mit der Data, Decision & Delivery Struktur zu tun: Ein Minimalprodukt, das die gesamte Strecke von Daten bis zur Auslieferung abdeckt, sorgt dafür, dass man sich innerhalb eines iterativen Projektes nicht verläuft. Jedes Entwicklungsinkrement ist ein volles Datenprodukt, das bereits verwendbar ist. Werden die Bausteine stattdessen in getrennten Projekten entwickelt, lässt sich die Abstimmung zwischen den Gewerken nicht im laufenden Projekt testen. Dann können 172 8 Was bringen Daten <?page no="173"?> kleinste Unstimmigkeiten an den Schnittstellen schnell zum Scheitern des Gesamtprojektes beitragen. - Der Datenprojekt Business Case Unternehmerischer Erfolg lässt sich leicht am Gewinn eines Unternehmens bemessen. Bei Datenprojekten ist die Erfolgsmessung nicht immer leicht. Die meisten Datenprojekte sind Optimierungsprojekte. Dabei liegt der Business Case in der Optimierung von getroffenen Entscheidungen und der Investition, die mit den einzelnen Entscheidungen einhergeht. Dies klingt trivial, ist aber nicht immer ganz intuitiv zu erfassen. Die Wirkung von Entscheidungen kann meist als eine Funktion der Anzahl an Kunden, die diese Entscheidung betrifft, ausgedrückt werden. Dann hat sie einen Einfluss auf den Umsatz, den man pro Kunde erzielt. Wie lassen sich also Datenprojekte richtig priorisieren, wenn zu Beginn eines Datenprojektes noch nicht klar ist, ob die Daten überhaupt zu besseren Entscheidungen führen? Hier sind Heuristiken oder ein Risiko minimier‐ ender Test-Setup gefragt. Die meisten Datenprodukte werden aus dem Stand die Entscheidungen nicht revolutionieren. Deshalb ist immer von den bereits im Prozess getroffenen Entscheidungen auszugehen, deren Wert zu bemessen und dann X % auf diesen Wert zu addieren. Erfahrungsgemäß sollte dabei im niedrigen zweistelligen Bereich geschätzt werden. Ein Beispiel ist der Kundenabgang. Wenn 5 % der Kunden kündigen und mit einer Maßnahme nur noch 4 % der Kunden, dann kann ich durch bessere Daten die Maßnahme vielleicht auf 3,6 % verbessern. Eine bessere Datengrundlage bedeutet nicht, dass ich eine neue Maßnahme erfinde, sondern eher, dass ich die bestehende Maßnahme verbessere. Zusammenfassend ist beim Management eines Datenprojektes wichtig, dass: 1. der Business Case immer von einer realen Entscheidung aus gedacht wird, 2. das Projekt die Bausteine Data, Decision & Delivery integriert und nicht getrennt bearbeitet, 3. schnelle Testzyklen über Minimalprodukte den Fortschritt messbar machen, und 4. die Kapazitäten vorgehalten werden, schnell fachliches Feedback einzu‐ holen. 8.3 Vom Datenprojekt zum Datenprodukt 173 <?page no="174"?> Textanalyse bei 1&1 Bei 1&1 existieren eine Vielzahl an Datenprodukten, vom einfachen Repor‐ ting bis hin zu ausgefeilten Anwendungen von künstlicher Intelligenz. Im Folgenden beschreibe ich anhand der Entwicklung eines Textanalyse-Tools zur strukturierten Analyse von Kundenfeedbacks den von uns etablierten Entwicklungsprozess. Strukturierte Kundenfeedbacks haben einen großen Mehrwert für die Verbesserung von Unternehmensprozessen. Wie eingangs beschrieben, steigert eine gute Kundenerfahrung die Kundenbindung und die Neukun‐ dengewinnung. Bei 1&1 steht die Kundenerfahrung im Mittelpunkt unseres Handelns. Besondere Aufmerksamkeit widmen wir deshalb der Analyse und des Verständnisses von Kundenfeedbacks. Dies kann strukturiertes Feedback in Form von Umfrageformularen sein oder solches, das uns die Kunden in unstrukturierten Freitexten zukommen lassen.- Der größte Vorteil von unstrukturierten Kundenmeinungen ist, dass sie den Kunden ermöglichen, ausgiebig ihre Zufriedenheitstreiber zu erläutern. Texte, die von Kunden erhoben werden, sind eine Goldgrube an Lob, Kritik und Meinung zu unseren Produkten und Services. Sie bieten aber auch die Herausforderung, dass wir mehr Texte erhalten, als wir in adäquater Geschwindigkeit und Genauigkeit durch Mitarbeiter auswerten lassen kön‐ nen. Grob lassen sich die Freitexte in allgemeine Äußerungen zur Kundenzuf‐ riedenheit und Äußerungen zu konkreten Anliegen unterteilen. Für die Entscheider: innen sind je nach Kontext mal die allgemeinen Wünsche und mal die expliziten Erlebnisse unserer Geschäftsprozesse relevant. Aufgrund der Komplexität des Inputs ist es eine wesentliche Herausfor‐ derung, die für den jeweiligen Kontext relevanten Texte zu identifizieren und in einem Entscheidungsprozess zur Verfügung zu stellen. Was Kun‐ denmeinungen angeht, sind Entscheidungsprozesse eher unternehmerische Entscheidungen als technische und automatisierbare Entscheidungen. Han‐ delt es sich um Äußerungen zu Fehlern in Prozessen, kann es sein, dass der richtige Ansprechpartner für die Fehlerbehebung erst gefunden werden muss. So liegt ein Augenmerk in der Textanalyse bei 1&1 darauf, allgemeines Feedback von speziellem Feedback zu trennen und schnell den jeweiligen Entscheidern zur Verfügung zu stellen. 174 8 Was bringen Daten <?page no="175"?> Im Zuge eines Projektes zur automatisierten Textanalyse sind daraus drei Kernanforderungen identifiziert: 1. Texte müssen Geschäftsprozessen über Themenkategorien zugeordnet werden. 2. Neue unerwartete Themen müssen erkannt werden. 3. Die Entwicklung von bekannten Themen muss im Zeitverlauf beobach‐ tet werden. 4. Die Ergebnisse müssen einfach und effizient präsentiert werden, ohne an inhaltlicher Tiefe zu verlieren. - Make or Buy Zu Beginn des Projektes stellte sich die Frage, ob wir auf bestehende Textanalyse-Tools zurückgreifen, oder auf eine Eigenproduktion setzen. Da Kunden häufig persönliche Informationen in Freitexten preisgeben, war es von besonderer Bedeutung, dass wir mit einer Eigenproduktion maximalen Datenschutz gewährleisten können. Die meisten Textanalyse-Tools auf dem Markt sortieren Freitexte in vor‐ definierte Kategorien. Dies reicht von einer Zusammenfassung der Themen bis hin zum Sentiment (Stimmungsanalyse). Eine reine Kategorisierung erfüllte jedoch unsere Anforderung nicht, dass unbekannte Themen schnell erkannt werden sollen. Um neue Themen zu erkennen, müssen klassische Kategorisierungen durch Menschen gewartet werden. Solche Modelle sind also wartungsintensiv und die Kategorien generalisieren schlecht auf unter‐ schiedliche Textquellen. Haupttreiber für eine Eigenproduktion war allerdings die Tatsache, dass die Ergebnisse in bestehende Entscheidungsprozesse zurückfließen sollten. Es war also effizienter, bestehende Reporting-Wege zu nutzen, als ein neues Tooling zu implementieren. Somit gab der Delivery-Aspekt den Ausschlag. - Lernen und verbessern Die erste Anforderung, die wir in einem MVP umsetzten, war, neue Themen effizient zu erkennen. Eine Kategorisierung von Texten ist ein schwieriges Problem mit schwankender Ergebnisqualität. Deshalb entschlossen wir uns als MVP, eine sogenannte Trending-Keyword-Analyse zu implementieren. Trending-Keywords sind Begriffe, welche häufiger genannt werden als 8.3 Vom Datenprojekt zum Datenprodukt 175 <?page no="176"?> erwartet. Dazu wurden die Worte in allen Freitexten gezählt und bestimmt, ob sie häufiger vorkommen als aus der Historie zu erwarten. Als Auslieferungsmedium verwendeten wir eine einfache Excel-Tabelle, die Worthäufigkeiten über die Zeit als Pivot-Tabelle anzeigen kann. Die re‐ sultierenden Trends konnten innerhalb kürzester Zeit den Entscheidungst‐ rägern zeigen, was in ihrem Prozess gerade passiert.- Somit bestand unser MVP aus: • Data - Worte aus Umfragetexten • Decision - Welche Begriffe liegen im Trend und sollten Entschei‐ dungsträgern bekannt sein? • Delivery - Report via Excel von Entscheidungsträgern abrufbar. - Warum entschieden wir uns hier nicht für ein KI-gestütztes Tool? - Durch künstliche Intelligenz ist zwar eine feinere Kategorisierung von Tex‐ ten möglich, aber es ist nur schwer eine künstliche Intelligenz zu trainieren, die auf verschiedenen Arten von Texten gleich gut funktioniert. Unser MVP funktioniert mit jedem Text und bedarf keines Trainings und keiner Kategorisierungslogik. Es ist letztendlich ein rein statistisches Verfahren. Die Herausforderung eines solchen MVPs war es aber, die Nützlichkeit zu messen. Wir hatten keine KPI, die uns sagte, wie gut oder wie schlecht wir den Entscheidern helfen können, bessere Entscheidungen zu treffen. Zu diesem Zweck analysierten wir, ob wir tatsächlich früh subtile Probleme in unseren Geschäftsprozessen entdecken können. Die Ergebnisse waren erstaunlich. Durch eine relativ einfache statistische Metrik ist es möglich, die Anliegen der Kund: innen so früh zu erkennen, dass wir wesentlich früher unerwünschte Effekte in Prozessen entdecken können. Der Erfolg jedoch stellte sich nur schleppend ein. Interviews mit den Nutzer: innen des Reports ergaben, dass ihnen eine einfache Auflistung der häufig genannten Begriffe, ohne eine Verknüpfung zu den Freitexten, nicht hilft, Entscheidungen zu beeinflussen. Unsere Lösung basierte allerdings auf der Suche nach Worthäufigkeiten, ohne auszuweisen, aus welchen Freitexten sie stammen. Die Feststellung eines Trends ohne die Analysemög‐ lichkeit, warum etwas im Trend liegt, hatte also zunächst keinen Mehrwert. 176 8 Was bringen Daten <?page no="177"?> 8.4 Zusammenfassung und Ausblick An diesem Punkt sind wir an die Grenzen unserer Excel-Lösung gestoßen. Da unser MVP aber einen relevanten Nutzen zeigte, entschlossen wir uns, in ein besseres Front-End zu investieren - im Prinzip wieder eine Investition in den Delivery-Aspekt unseres Produktes. Durch umfangreiche Filtermög‐ lichkeiten gewann die Lösung an Nutzen, weil die Entscheider: innen schnell und effizient Freitexte analysieren konnten.- Erfahrungsgemäß wird der Delivery-Teil von Datenprodukten komplett unterschätzt. Wir hätten auch ein Jahr in eine KI gestützte Kategorisierung von Texten stecken können, doch eine einfache statistische Lösung mit einem guten Front End reichte aus, um 80 % der Nützlichkeit herzustellen. Die anschließende Arbeit an einer besseren Kategorisierung von Texten verursachte ungleich mehr Aufwand und stellte nur noch die restlichen 20 % des Analyse- und Entscheidungsbedarfs sicher. Ein Datenprodukt ist erst nützlich, wenn es ausgeliefert wird und Ent‐ scheidungen beeinflusst. - Die Zukunft von Kundenfeedback und Textanalyse Aktuelle Entwicklungen der Large Language Models zeigen, welcher uner‐ wartete Nutzen durch KI möglich ist. Im Bereich der Marktforschung sind über die bei uns angewendeten Messmethoden weitere Szenarien denkbar, so könnten nicht nur Kundenfeedbacks in die Geschäftsprozesse gespielt werden, auch die Erhebung von Kundenfeedbacks wird in Zukunft durch Anwendungen künstlicher Intelligenz transformiert werden. Anstatt Kun‐ den Freitexte anzubieten, wäre es möglich, mithilfe von Chatbots Rückfra‐ gen zu dem Feedback zu stellen und so die Feedbackqualität zu verbessern. Gegebenfalls wird es so möglich, die gesammelten Daten kundenindividuell in den passenden Geschäftsprozess zu liefern, um die Daten über ihre Verarbeitung direkt in eine gute Kundenerfahrung zu verwandeln. 8.4 Zusammenfassung und Ausblick 177 <?page no="179"?> KI und Daten - Technologie zwischen Legacy-Systemen und Metaverse <?page no="181"?> 9 Künstliche Intelligenz und die Datenexplosion - wie behalten Unternehmen die Kontrolle? | von Andreas Braun Künstliche Intelligenz ist seit einigen Jahren wieder in aller Munde. Vor fast einem Jahrzehnt etablierte sich der Begriff des Deep Learning, einer neuen Klasse von Algorithmen des maschinellen Lernens. Diese waren innerhalb weniger Jahre in der Lage, die Leistungen klassischer Algorithmen, aber auch menschlicher Experten, in vielen Anwendungsbereichen zu übertreffen. Das Jahr 2023 könnte als das Jahr in die (IT-)Geschichte eingehen, in dem die künstliche Intelligenz kreativ wurde. Viele Leser werden bereits Anwendungen wie Dall-E (https: / / openai.com/ dall-e-2/ ), ChatGPT (https: / / openai.com/ blog/ chatgpt/ ) oder auch Midjourney (https: / / midjourney.com / ) getestet haben, die aus einfachen Texteingaben Bilder und ganze Texte generieren, also quasi kreativ werden. Eine potenziell völlig neue Klasse von Anwendungen, die nicht nur in der Kreativwirtschaft für Aufsehen sorgt, sondern auch in der Industrie auf Interesse stößt. Es deutet sich an, dass nun auch potenziell hochwertige Wissensarbeit durch Algorithmen vereinfacht wird - oder sogar ersetzt werden kann. Die modernsten Anwendungen in der künstlichen Intelligenz bedürfen mindestens zweier Hauptzutaten. Die erste ist eine sehr hohe Rechenleistung. Das Training der komplexesten Modelle kann ganze Rechenzentren für mehrere Tage beschäftigen und wäre bis vor wenigen Jahren für die meisten Unterneh‐ men noch undenkbar gewesen. Auch dank zunehmend verfügbarer Cloud- Technologien ist diese Hürde bereits deutlich niedriger geworden. Die zweite Zutat sind Daten, und zwar eine massive Anzahl davon. Das Training der komplexesten Textmodelle wurde mit einem Datensatz von etwa 400 Mrd. Wörtern durchgeführt (Brown 2020). Auch wenn die Quellen hier etwas ungenau sind: Vermutlich entspricht dies in etwa der Anzahl der geschriebenen Wörter aller Deutschen in einem Jahr oder auch einem großen Teil der öffentlich zugänglichen Daten im Internet. Kurz, die Anzahl der verwendeten Daten ist gigantisch groß. Viele datengetriebene Unternehmen haben beide Zutaten. Dank der Cloud und immer leistungsstärkeren Systemen ist der Zugriff auf hinreichend Rechenleistung mittlerweile recht günstig. Auch wächst die Zahl der Daten, die <?page no="182"?> in einem typischen Unternehmen anfallen, rasant: Ein Effekt der Digitalisierung, aber auch der zunehmenden Komplexität von Unternehmensprozessen. Doch wie genau nutzt man diese Datenmenge am besten? Was sind die relevanten Anwendungen für KI in meinem Unternehmen? Wie genau be‐ halte ich die Kontrolle über Daten und KI-Modelle? An welchen zukünftigen Anforderungen und Verordnungen muss ich mich orientieren? In diesem Kapitel möchte ich versuchen, einige dieser Fragen zu beant‐ worten, beziehungsweise dem Leser dabei helfen, die richtigen Fragen zu stellen. Diese sollte man nicht nur an die IT- und Forschungsabteilungen richten, sondern insbesondere an die verschiedenen Fachabteilungen, wel‐ che im Endeffekt profitieren sollen. Hierzu lohnt es sich zunächst, einen kurzen Blick auf den Begriff der Datenexplosion zu werfen. 9.1 Rasantes Wachstum von Daten Streng genommen arbeitet der Mensch seit Anbeginn der Kultur mit Daten. Einige der ältesten schriftlichen Dokumente der Menschheit beschäftigen sich bereits mit dem Zählen von Gütern oder mit Verträgen zwischen verschiedenen Parteien (Sack 1981). Mit Keilschrift und Tontafeln begann der Siegeszug der Schrift und der schriftlichen Übermittlung von Tradition und Geschichte über den ganzen Globus. Im Grunde war dies bereits eine massive Datenexplosion gegenüber der vorhistorischen Zeit, mit limitierter Malerei und Ikonographie. Abb. 16: Europäische Buchproduktion 1400-1800 (Buringh et al. 2009). Globale Datenspeicherung (Reinsel et al. 2018) 0 200 400 600 800 1000 1200 15tes 16tes 17tes 18tes Anzahl der Kopien in Millionen Jahrhundert 0 50 100 150 200 2010 2015 2020 2025 Zettabytes Jahr europäische Buchproduktion 1400-1800 globale Datenspeicherung Abbildung 16: Europäische Buchproduktion 1400-1800 (Buringh et al. 2009). Globale Datenspeicherung (Reinsel et al. 2018) 182 9 Künstliche Intelligenz und die Datenexplosion <?page no="183"?> Als ein zweiter, einschneidender Moment in der Geschichte der Datenex‐ plosion kann die Erfindung der (ökonomisch relevanten) maschinellen Buchpresse genannt werden. Auch wenn ähnliche Technologien in den asiatischen Hochkulturen bereits hunderte Jahre früher bekannt waren (Park 2014), so gelangen Johannes Gutenberg um 1450 eine Reihe von Innovationen, die eine rasche Verbreitung von Druckpressen in Europa ermöglichte. Ein frühes, aber nach wie vor relevantes Beispiel für den Unterschied zwischen Prototyp und Produkt. Die Anzahl der in Europa verfügbaren Bücher wuchs von knapp 30.000 im 15. Jahrhundert auf eine Milliarde Ende des 18.-Jahrhunderts (Buringh et al. 2009). Eine massive Steigerung, jedoch eine Winzigkeit im Vergleich zu der Datenexplosion der letzten Jahrzehnte. Ein einfacher Vergleich - alles bis zum Ende des 18. Jahrhunderts verfassten Texte, wären nicht ansatzweise vergleichbar mit der Zahl der Trainingsdaten, welche für die modernsten KI-Modelle genutzt wurden. Es waren zwar mehr geschriebene Worte vor‐ handen, jedoch waren viele davon, dank der Gutenbergschen Druckpresse, eine Kopie. Wir befinden uns derzeit in der sogenannten Zettabyte-Ära. Ein Zettabyte ist eine Billion Gigabytes, oder mathematisch ausgedrückt 1x10^21 Bytes, eine schier unvorstellbare Zahl. Je nach Schätzung entspricht dies etwa der 500-fachen Zahl aller Sandkörner auf der Erde. Die Zahl der gespeicherten Daten hat vermutlich 2012 diese Marke überschritten und sollte etwa um 2020 bei 40 Zettabyte gelegen haben (Yu 2014). Die Menge der Daten, die jedes Jahr über das Internet übertragen werden, liegt noch einmal deutlich darüber. Was sind die Gründe für dieses rapide Wachstum? Ein erster Grund ist die zunehmende Digitalisierung der Wirtschaft. Industriemaschinen sind mit zahlreichen digitalen Sensoren ausgestattet und an ein Netzwerk der Fabrik angebunden. Jeder Sensor sammelt zahlreiche Daten, die mehr oder weniger lange gespeichert werden. Der Gesamtprozess, an den die Maschine angebunden ist, beispielsweise auf Basis eines modernen Maschi‐ nenmanagement-Systems, generiert weitere Daten. Dies ist ein massiver Unterschied zu Fabriken vor einigen Jahrzehnten. Hier waren bereits Sen‐ soren verbaut, jedoch wurden diese durch Arbeiter abgelesen und auf Papier eingetragen. Diese zunehmende Automatisierung kann einen immensen Produktivitätsgewinn für das Unternehmen bedeuten. Ein zweiter Faktor ist die zunehmende Verlagerung von physischen Daten ins Digitale. Eine CD-ROM enthielt etwa 700 Megabyte an Daten und wurde, je nach Qualität des Materials, beliebig oft abgespielt. Die 9.1 Rasantes Wachstum von Daten 183 <?page no="184"?> zunehmende Nutzung von Streaming sorgt dafür, dass diese Daten vielfach übertragen werden - jedes Anhören erzeugt einen erneuten Zwang zur Datenübertragung. Man kann und sollte hier nun einwenden, dass nicht jeder Streaming- Vorgang Daten erzeugt, die für eine KI von Vorteil sind. Viele, ja ein Großteil der erzeugten und versandten Daten sind, nun ja, nutzlos. Dieser viel beschworene Unterschied zwischen Daten und Information ist heute relevanter denn je. Eine übermäßige Datenspeicherung und Datenverarbei‐ tung kann insbesondere im Fall von KI leicht von einem Vorteil zu einem Hindernis werden. Es lohnt sich genauer zu betrachten, wie eine sinnvolle Datensammlung aussehen kann. 9.2 Daten für KI - sinnvolle Datensammlung und Anwendungen Was sind sinnvolle Daten für ein Unternehmen? Dies ist eine Frage mit der sich insbesondere CTOs und CIOs auseinandersetzen sollten. Um dem auf den Grund zu gehen, hier zunächst ein paar Beispiele in für sinnlose Geschäftsdaten: • Daten, die nicht auf die Zielgruppe ausgerichtet sind: Wenn ein Unter‐ nehmen beispielsweise Daten zu Kunden sammelt, die nicht zu ihrer Zielgruppe gehören, können diese Daten möglicherweise nicht genutzt werden, um effektive Marketingstrategien oder Produktentwicklungen zu planen. • Daten, die nicht in Zusammenhang mit der Kernkompetenz des Unter‐ nehmens stehen: Stehen die Daten nicht in Zusammenhang mit dem Kerngeschäft, können diese Daten nicht dazu beitragen, ihre Wettbe‐ werbsfähigkeit zu verbessern oder ihre Produkte oder Dienstleistungen zu verbessern. • Daten, die bereits in anderen Quellen verfügbar sind: Sammelt man Daten, die bereits von öffentlichen Quellen oder anderen Unternehmen verfügbar sind, kann dies Zeit und Ressourcen verschwenden und möglicherweise nicht zu neuen oder nützlichen Erkenntnissen führen. Betrachtet man diese Liste, ergeben sich bereits Hinweise wie man denn nun sinnvolle Daten definieren könnte. Dieser Prozess ist zwingend für jedes Unternehmen individuell und sollte Teil einer übergreifenden Datenstra‐ 184 9 Künstliche Intelligenz und die Datenexplosion <?page no="185"?> tegie sein, bei welcher die Wahl der Datenquellen sowie deren Qualität und Integrität relevante Bestandteile darstellen. Neben der Relevanz ist auch der Datenschutz ein elementarer Bestandteil der sinnvollen Datensammlung. Eine erstaunlich große Zahl von Unter‐ nehmen kommt in Konflikt mit der DSGVO. Im Jahr 2022 wurden über 1,6 Mrd. Euro an Strafzahlungen getätigt, und das nicht nur durch große amerikanische IT-Unternehmen (dlapiper.com 2023). Was bedeutet dies nun für eine sinnvolle Datensammlung? Als eine kleine Maßgabe für die Sammlung sinnvoller Daten können die drei folgenden Regeln dienen: 1. Sammeln Sie nur die Daten, die Sie wirklich benötigen: Identifizieren Sie die Daten, die für Ihre Geschäftsziele und -strategien relevant sind. Vermeiden Sie es, Daten zu sammeln, die keine Auswirkungen auf Ihre Entscheidungen haben oder die Ressourcen Ihres Unternehmens verschwenden. 2. Stellen Sie sicher, dass die gesammelten Daten korrekt und aktuell sind: Überprüfen Sie regelmäßig die Qualität und Relevanz Ihrer Daten. Vermeiden Sie es, veraltete oder ungenaue Daten zu verwenden, da dies zu falschen Schlussfolgerungen und Entscheidungen führen kann. 3. Schützen Sie Ihre Daten: Achten sie auf die Privatsphäre der gesam‐ melten Daten. Implementieren Sie Sicherheitsmaßnahmen, um den Zugriff auf die Daten auf autorisierte Personen zu beschränken und sicherzustellen, dass sie den Datenschutzbestimmungen entsprechen. Bedenkt man die Umsetzung dieser Regeln, bedingt dies auch einen Pa‐ radigmenwechsel auf der technischen Seite. Von den Datenseen (Data Lake) der Jahrtausendwende geht der Trend in Richtung Datenlager (Data Warehouse). Was steht hinter diesen Begriffen? Ein Data Lake ist ein zentraler Datenspeicher, der es Unternehmen und Organisationen ermöglicht, eine große Zahl strukturierter und unstruktu‐ rierter Daten zu sammeln und zu verarbeiten. Anders als traditionelle Datenbanken wird hier das ursprüngliche Datenformat beibehalten und es dem Anwender überlassen, welche Daten er beziehen, analysieren und weiterverarbeiten möchte. Das Data Warehouse ist eine Weiterentwicklung dieses Konzepts für Ge‐ schäftsdaten, das insbesondere eine höhere Kontrolle über die gespeicherten Daten ermöglicht, diese mit einer Struktur versieht und insbesondere für Analyse und Berichterstellung geeignet ist. 9.2 Daten für KI - sinnvolle Datensammlung und Anwendungen 185 <?page no="186"?> Betrachtet man den Anwendungsfall der KI, so gilt nach wie vor der Grundsatz, dass mehr Daten besser sind als weniger Daten. Bestimmte KI- Modelle benötigen eine sehr große Datenmenge und funktionieren nicht oder sehr schlecht, wenn nur wenige Daten vorhanden sind. Aber sind es diese Modelle, welche Ihrem Unternehmen einen wirtschaftlichen Vorteil bieten würden? Ob ein Data Lake oder ein Data Warehouse besser für die Unternehmens- KI geeignet ist, hängt von den spezifischen Anforderungen und Zielen des Unternehmens ab. Beide Datenmanagement-Systeme haben unterschiedli‐ che Stärken und Schwächen, die bei der Entscheidung berücksichtigt werden sollten. Ein Data Lake ist gut für KI-Projekte geeignet, da es eine flexiblere und skalierbarere Option für die Speicherung und Analyse großer Mengen von Rohdaten darstellt. Neue Datenquellen können einfacher integriert werden, ohne dass eine vorherige Umwandlung erforderlich ist. So können Vorbereitungszeit und Effizienz von KI-Projekten verbessert werden. Ein Data Warehouse hingegen bietet eine strukturierte Datenarchitektur und kann für KI-Abwendungen, die spezifische Antworten erzeugen sollen, von Vorteil sein. Daten werden in einer konsistenten und bereinigten Form gespeichert und die Effizienz bei der Analyse von strukturierten Daten erhöht. In vielen Fällen kann es für Unternehmen gar von Vorteil sein, beide Ansätze zu kombinieren. Um dies zu erläutern, einige konkrete Beispiele: • Verarbeitung von Sensordaten in der Lebensmittelbranche. Hier kön‐ nen Sensordaten für die Überwachung von Betriebsabläufen und der Vermeidung von Ausfallzeiten von entscheidender Bedeutung sein. Ein Data Lake ist hier von Vorteil, da er diese großen Mengen an Rohdaten speichern kann. Durch die Verwendung von KI-Technologien können Unternehmen auch automatisch Alarme oder Warnungen generieren, um potenzielle Probleme zu identifizieren und schnell darauf zu reagie‐ ren. • Analyse von Kundendaten in der Versicherungsbranche. Hier ist es wichtig, Kundenbedürfnisse und -verhalten zu verstehen, um personal‐ isierte Angebote und Dienstleistungen zu entwickeln und den Kunden‐ service zu verbessern. Ein Data Lake kann hier von Vorteil sein, da verschiedene Quellen, wie z. B. Transaktionsdaten, Kundendaten, Web‐ seiten-Interaktionsdaten und Social-Media-Daten, kombiniert werden 186 9 Künstliche Intelligenz und die Datenexplosion <?page no="187"?> können. Durch die Analyse dieser Daten können Unternehmen Kunden‐ muster und Trends identifizieren sowie personalisierte Angebote und Dienstleistungen entwickeln. • ESG-Berichterstellung für Unternehmen. Ein Data Warehouse kann Un‐ ternehmen bei der Erstellung von diesen Berichten unterstützen, indem es strukturierte Daten wie Energie- und Verbrauchsdaten, Emissions- und Finanzdaten aus verschiedenen Quellen speichert und aufbereitet. Unternehmen können diese Daten nutzen, um den Fortschritt bei der Umsetzung von Nachhaltigkeitszielen zu überwachen und fundierte Entscheidungen zur Verbesserung der Nachhaltigkeitsstrategien zu tref‐ fen. 9.3 KI für Daten - Methoden zur Kontrolle der Informationsflut Die besten Datenhaltungssysteme und die ausgereifteste Datenstrategie sind jedoch noch keine Garantie dafür, dass die Daten auch optimal für unternehmerische Entscheidungen genutzt werden. Die wachsende Zahl datengenerierender Prozesse, regulatorische Vorgaben, die zusätzliche Da‐ tenerhebungen erfordern, aber auch komplexere Fragestellungen, die Unter‐ nehmen beantworten müssen, erzeugen immer mehr Daten. Dabei stößt der Mensch an seine kognitiven Grenzen. Es ist schlicht nicht möglich, hunderte von Dokumenten, Tweets, Blogeinträgen oder Videos zu verarbeiten, die für sein aktuelles Projekt relevante Inhalte enthalten. Hier ergibt sich ein weiterer zentraler Anwendungsfall für KI. Wie kann KI dazu beitragen, die Informationsflut zu bewältigen? Wie können Unternehmen es Ihren Mitarbeitern ermöglichen, dank KI effizienter und produktiver zu werden? Und auf der anderen Seite, wie kann eine KI vom Wissen und Erfahrungsschatz meiner Mitarbeiter profitieren? In der KI-Entwicklung sprechen wir von Human-in-the-loop Syste‐ men, also KI-Systemen, welche den Menschen in den Prozess des Trainie‐ rens des Systems einbinden, aber auch die Aktionen und Reaktionen des Nutzers während der Anwendung als weitere Trainingsdaten sammeln, um die Leistung des KI-Systems zu verbessern. Seit November 2022 beweist ChatGPT eindrucksvoll die Leistungsfä‐ higkeit dieses Prinzips. Durch „Daumen hoch“ von Testanwendern und Einbindung von Expertenwissen aus verschiedenen Domänen wie z. B. 9.3 KI für Daten - Methoden zur Kontrolle der Informationsflut 187 <?page no="188"?> Programmierung, wurde innerhalb weniger Monate aus einem komplexen neuronalen Netzwerk ein Chatbot, der Anwender auf der ganzen Welt fasziniert. Innerhalb von nur zwei Monaten wurden über 100 Mio. Nutzer gewonnen - ein neuer Rekordwert. Selbst TikTok hat hierfür neun Monate benötigt (reuters.com 2023). Das Potenzial solcher Anwendungen ist enorm. Es ist absehbar, dass von 2023 bis 2025 viele Anwendungen entstehen, die es auch Unternehmen ermöglichen werden, solche Funktionen basierend auf Geschäftsdaten und internen Wissensdatenbanken zu erstellen. Aber auch ohne diese internen Anwendungen können Unternehmen bereits profitieren. Eine Vielzahl von Arbeitnehmern verbringt einen großen Teil des Tages mit Wissensarbeit, der Recherche von Fakten aus öffentlichen Quellen, der Aufbereitung von Daten in Berichten oder der Analyse von Berichten aus verschiedensten Bereichen. Hier können schon heute enorme Produktivitätssteigerungen erreicht werden. Tech-Unternehmen beginnen bereits damit, in ihren Ein‐ stellungsverfahren zu berücksichtigen, ob zukünftige Programmierer solche KI-Tools effektiv beherrschen. Wird es für Analysten, Journalisten, Berater oder Führungskräfte in Zukunft ähnlich? Wir stehen noch am Anfang dieser Revolution und es ist eine spannende Frage, wohin die Reise in den nächsten Jahren gehen wird. Unternehmen sollten jedoch diese Entwicklungen in ihrer Strategie berücksichtigen - die Wettbewerber tun es bestimmt. Aber die technische und menschliche Seite ist nur ein Teil der Strategie. In jedem Fall muss auch an die regulatorischen Maßgaben gedacht werden. Die relevanteste für den europäischen Markt kommt von der Europäischen Kommission. 9.4 Die KI-Grundverordnung und ihr Einfluss auf Anwender von KI Bereits 2018 veröffentlichte die Europäische Kommission eine KI-Strategie für die EU. Diese hat die Ziele, die Investitionen in KI-Forschung und -Ent‐ wicklung zu erhöhen, die Gesellschaft auf die erwartbaren sozioökonomi‐ schen Veränderungen vorzubereiten sowie einen angemessenen ethischen und rechtlichen Rahmen für KI zu definieren. Diese Strategie wurde im April 2021 nochmal durch einen Ansatz für menschenzentrierte KI verfeinert. In diesem Rahmen wird seit 2020 an der KI-Grundverordnung gearbei‐ tet, welche im Laufe von 2023 in ein entsprechendes Gesetz münden soll. 188 9 Künstliche Intelligenz und die Datenexplosion <?page no="189"?> Grundgedanke ist hierbei ein risikobasierter Ansatz zur Klassifizierung und Regulierung von KI-Anwendungen. Hierbei sind vier Kategorien zu unterscheiden: 1. Unbedenklich oder minimales Risiko: KI-Systeme, die als unbe‐ denklich oder minimal riskant eingestuft werden, unterliegen nur sehr begrenzten Regulierungsanforderungen. Dies sind beispielsweise Spam- Filter für E-Mails oder auch KI-Agenten in Videospielen. 2. Beschränktes Risiko: KI-Systeme, die als beschränktes Risiko einge‐ stuft werden, unterliegen spezifischen Regulierungsanforderungen in Bezug auf Transparenz und Informationspflicht. Dies trifft z. B. auf Chatbots zu - hier muss sichergestellt sein, dass es für Anwender transparent ist, dass mit einer KI kommuniziert wird. 3. Hohes Risiko: KI-Systeme, die als hohes Risiko eingestuft werden, unterliegen den strengsten Regulierungsanforderungen, einschließlich der Zertifizierung durch eine unabhängige Stelle und der Erfüllung von spezifischen Zulassungs-, Informations- und Überwachungspflichten, um sicherzustellen, dass keine unerwünschten Auswirkungen auftreten. Insbesondere Systeme in kritischen Infrastrukturen und Systeme, die bei einer Einstufung/ Kategorisierung von Personen betroffen sind, zählen hierzu. 4. Nicht-akzeptables Risiko: KI-Systeme, die als nicht-akzeptabel ris‐ kant eingestuft werden, sind grundsätzlich nicht in der EU zugelassen. Als Beispiel hierfür dienen autonome Waffensysteme, in denen KI eine Entscheidung über Leben und Tod von Menschen trifft. Während die meisten KI-Anwendungen, mit denen wir heutzutage inter‐ agieren, zwischen unbedenklich und beschränktem Risiko liegen, gibt es dennoch einige Beispiele für Anwendungen mit hohem Risiko, die von einer größeren Zahl von Unternehmen genutzt werden könnte. Sollten in der Personalverwaltung KI-Tools eingesetzt werden, können diese recht schnell in den Hochrisikobereich fallen. Nutzt ein Unternehmen eine automatisierte Selektion von Lebensläufen im Bewerbungsprozess, so trifft ein KI-Algo‐ rithmus eine Entscheidung über die berufliche Zukunft eines Bewerbers oder einer Bewerberin. Dies stellt aus Sicht der EU ein hohes Risiko für Grundrechte dar. KI-Anwendungen in kritischen Infrastrukturen sind auch häufig mit einem hohen Risiko behaftet. Werden KI-gesteuerte Roboter in der Fertigung genutzt, fahren autonome Transportsysteme in Fabrikhallen, oder findet 9.4 Die KI-Grundverordnung und ihr Einfluss auf Anwender von KI 189 <?page no="190"?> eine KI-gestützte Analyse von IoT-Sensoren in der Energieversorgung statt, können Menschenleben beeinflusst werden oder sein. Daher betrachtet man dies nach aktuellem Stand auch als Hochrisiko-KI. Dies bedeutet nicht, dass Unternehmen solche Anwendungen vermeiden sollten. Es muss nur eine besondere Sorgfalt getroffen werden, welche ins‐ besondere die Hersteller der KI-Systeme betrifft, welche diese zertifizieren müssen, aber auch die kaufenden und nutzenden Unternehmen, welche einige Anforderungen wie adäquates Risikomanagement und menschliche Überwachung sicherstellen müssen. Welche Anwendungen nun ein hohes Risiko darstellen und welche nicht, ist eine der zentralen Diskussionen zwischen Gesetzgebern und Industrie‐ verbänden. Unternehmen sollten die Entwicklungen zur KI-Grundverordnung im Blick behalten. Diejenigen, die bereits heute einen guten Überblick über Da‐ tenmanagement, genutzte KI-Anwendungen und Risikomanagement haben, besitzen hier einen klaren Wettbewerbsvorteil. 9.5 Der verantwortungsvolle und profitable Einsatz von KI In der Vergangenheit wurde in der öffentlichen Wahrnehmung von KI gerne das Äquivalent der Jahreszeiten genutzt. Von KI-Frühlingen in den 1970ern und 2010ern zu KI-Wintern in den 1990ern. Wo befinden wir uns heute? Anfang 2022 hätte man auf diese Frage vielleicht noch mit einem KI-Herbst geantwortet. Deep Learning war sehr interessant, aber eine signifikante Auswirkung auf die Wirtschaftsleistung hatte es nicht. Betrachtet man die zunehmende Datenexplosion und das gesteigerte öffentliche Interesse, so könnte man von einem erneuten Hype ausgehen. Befrage ich hierzu die moderne Version der Glaskugel, also einen aktuel‐ len KI-Chatbot, so bekomme ich die folgende Antwort: „Bis 2025 ist mit erheblichen Fortschritten bei den KI-Technologien zu rechnen, darunter Verbesserungen bei der Verarbeitung natürlicher Sprache, beim maschinellen Lernen, in der Robotik und Automatisierung, bei autono‐ men Fahrzeugen und im Gesundheitswesen. Diese Fortschritte werden sich transformativ auf Branchen auswirken und zu effizienteren und effektiveren Lösungen für viele der drängendsten Herausforderungen der Welt führen.“ Der gleiche Chatbot versichert mir aber auch, dass er keine genauen Vorhersagen für die Zukunft treffen kann … zumindest noch nicht. 190 9 Künstliche Intelligenz und die Datenexplosion <?page no="191"?> Klar ist, dass KI eine immer größere Rolle in alltäglichen Unternehmens‐ prozessen spielen wird. Unternehmen, die bereits darauf vorbereitet sind, haben einen klaren Vorteil. Doch gilt dies nur für die größten und innova‐ tivsten Unternehmen? Die Antwort ist ein klares nein. Selbst Unternehmen, die sich als wenig reif in ihrem Datenmanagement einordnen, können davon profitieren. Entwickeln Sie keine eigenen Lösun‐ gen, sondern profitieren Sie von externen Tools, wie KI-Assistenten. Qualität und Produktivität in Buchhaltung, Personalwesen, oder Marketing können so bereits heute deutlich gesteigert werden. Sollten Sie bereits über eine angemessene Datenbasis und gutes Datenma‐ nagement verfügen, ist es an der Zeit, eine wohldefinierte Einbindung von KI in Ihren Datenprozesse zu erarbeiten. Konfigurieren Sie KI-Hilfsmittel so, dass sie optimal Qualität und Informationsgehalt verbessern. Stellen Sie einer breiten Basis von Mitarbeitern verarbeitete Daten zur Verfügung, um diese mehr und mehr in der Informationsfindung und Entscheidungsproz‐ essen zu unterstützen. Es ist auch die richtige Zeit, entsprechende Trainings und Fortbildungen anzubieten. Ist Ihr Unternehmen bereits auf der Höhe der (Daten-)Entwicklungen, so überdenken Sie Ihre KI-Strategie und trainieren nicht nur Prognose- KI-Modelle oder Klassifizierungssysteme. Nutzen Sie Ihre Datenbasis, um leistungsfähige, generative KI-Systeme so zu erweitern, dass Sie unterneh‐ mensspezifische Daten optimal nutzen und externe Datenquellen bei Bedarf hinzuziehen. Nicht zuletzt der verantwortungsvolle Umgang mit KI (Res‐ ponsible AI) kann hier ein wichtiges Merkmal der Differenzierung sein. Je komplexer die KI-Systeme, desto höher die Ansprüche von Kunden und Mitarbeitern in Bezug auf deren Vertrauenswürdigkeit. Unternehmen, die Responsible AI ernst nehmen, könnten optimal von der KI-Welle profitieren. In jedem Falle gilt, haben Sie keine Angst vor KI. Wir befinden uns nicht in einem Zeitalter, in dem autonome KI-Systeme die Menschheit bedrohen, aber in einem mit steigender Bedeutung für KI. Wir sollten die potenzielle Wirkung nicht unterschätzen. Unsere Welt wird zunehmend komplexer. Die Datenflut nimmt zu, die Komplexität unserer Analysen steigt, aber die kognitiven Fähigkeiten unseres Gehirns bleibt im Grunde gleich. Dies betrifft jeden Mitarbeiter, aber genauso die Führungsmannschaft in Unter‐ nehmen. KI macht unsere Welt komplexer, aber auch interessanter. Wird sie richtig eingesetzt, kann sie uns dabei helfen, sicher durch diese Komplexität zu navigieren und unsere Wirtschaft zukunftsfähiger zu gestalten. 9.5 Der verantwortungsvolle und profitable Einsatz von KI 191 <?page no="192"?> 9.6 Literatur Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G. und Askell, A., Language models are few-shot learners, Advances in neural information processing systems, 2020, 33, 1877-1901. Buringh, E. und van Zanden, J.L., Charting the „Rise of the West“: Manuscripts and Printed Books in Europe, A Long-Term Perspective from the Sixth through Eighteenth Centuries, Journal of Economic History, 2009, 69 (2), 409-445. https: / / www.dlapiper.com/ en-au/ insights/ publications/ 2023/ 01/ dla-piper-gdpr-fine s-and-data-breach-survey-january-2023. Park, H.O., The history of pre-Gutenberg woodblock and movable type printing in Korea, International Journal of Humanities and Social Science, 2014, 4(9), 1. Reinsel, D., Gantz, J. und Rydning, J., Data age 2025: the digitization of the world from edge to core, Seagate 2018. Sack, R.H., The temple scribe in Chaldean Uruk, Visible Language, 2018, 15 (4), 409-418. Xu, Z.W., Cloud-sea computing systems: towards thousand-fold improvement in performance per watt for the coming zettabyte era, Journal of Computer Science and Technology, 2014, 29(2), 177-181. 192 9 Künstliche Intelligenz und die Datenexplosion <?page no="193"?> 10 Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien | von Jürgen Rahmel Was ist Web 3.0? Was sind die neuen Ökonomien, die mit großen Verspre‐ chungen im Metaverse entstehen sollen? Und wie können Unternehmen sich orientieren, sich vorbereiten und zukünftige Chancen und Risiken zuverlässig erkennen? Dieses Kapitel möchte einen Beitrag leisten, die aktuellen Begriffe und Themen zu erläutern, sowie belastbare Wege in diesem Umfeld aufzuzeigen. Es soll die Spreu (= überbordende Ausblicke, Schätzungen und Versprechun‐ gen) vom Weizen (= die echte Chance einer Nutzer-bestimmten neuartigen digitalen Ökonomie) getrennt werden und mehr Einsicht in diese noch recht neuen Möglichkeiten und das neuartige Wirtschaftswachstums gegeben werden. Aktuelle Investitionen in das Metaverse und Web-3.0-Bereich sind bereits enorm, VC-Kapital und direktes Investment der beteiligten Unternehmen liegt bereits jetzt im mehrstelligen Milliardenbereich. Beraterschätzungen für das Jahr 2030 nennen Summen von 5 Billionen US-Dollar (McKinsey, 2022). Wie belastbar und zutreffend solche Schätzungen sind, wird die Zeit zeigen. Wichtig ist, dass gedanklich unterschieden wird zwischen den Investitionen in die Metaverse-Infrastruktur, Technologie, Nutzer-Identifi‐ kationsmechanismen, Integration in bestehende Systeme von Internehmen, User-Interfaces (Headset, Hand-Griffe, etc) auf der einen Seite und den im Web 3.0 und Metaverse neu entstehenden virtuellen/ digitalen Gütern auf der anderen Seite. Der erste Teil ist mit den Mitteln der ‚traditionellen‘ Finanzwirtschaft abbildbar, es gibt bereits einige Metaverse-Funds, die in Unternehmen investieren, die wahrscheinlich von diesem Technologie-Push profitieren werden (Reuters 2022; ETFDB 2022). Der zweite Teil - das Ökosystem, das innerhalb von Web 3.0 und Metaverse entsteht, das aus vollständig digitalen Werten und digitalem Konsum besteht - ist ebenso schwer einzuschätzen, da wir aktuell nicht wissen, wie aufgeschlossen die Bevölkerung diesem ‚digitalen Leben‘ gegenübersteht. <?page no="194"?> Das Metaverse Der Begriff Metaverse entstammt dem Buch Snow Crash von Neal Ste‐ phenson. Heute wird unter Metaverse eine virtuelle Welt verstanden die persistent ist, also nicht von der Anwesenheit einzelner Nutzer abhängt, sondern stetig entlang einer Zeitachse existiert. Nutzer können sich mithilfe eines digitalen Zwillings, eines Avatars, in dieser digitalen Welt bewegen. Es gibt verschiedene Varianten dieser Metaverse-Umsetzung. Manche sind darauf fokussiert, den Nutzern Services in Form virtueller Begegnungen, Erlebnisse, Spiele oder auch professioneller Konferenzen zu ermöglichen. Andere Metaverse-Anbieter haben ihre virtuelle Welt zunächst in digitale Grundstücke aufgeteilt, die man erwerben muss, wenn man darauf virtuelle Angebote erstellen möchte und eine virtuelle Geschäftstätigkeit anstrebt. 10.1 Was versprechen uns die neuen digitale Ökonomien - und werden sie das Versprechen halten? Um Web 3.0 zu verstehen, blicken wir kurz zurück auf die früheren Phasen. Wer das Internet nutzt, ist - wissentlich oder unwissentlich - mit den Prinzipien des Web 1.0 und Web 2.0 vertraut. Web 1.0, die erste Phase des Internets nach seiner Entstehung und während seiner Verbreitung, war geprägt von einer einseitigen Informa‐ tionsökonomie. Diejenigen, die ihr Wissen teilen wollten, konnten dies nun in einer digitalen Form tun, die schneller und flexibler war als die bislang vorherrschenden papierhaften Publikationen. Darüber hinaus war das Geschriebene global erreichbar, anders als Radio und Fernsehen zuvor, sowie zudem noch persistent, daher asynchron verfügbar, wann immer jemand danach suchte. Die große digitale Enzyklopädie entstand. Dies eröffnete neue Optionen für professionelle Publikation (Onlinezeitung, digitale Nachschlagewerke), digitale Index- und Suchmaschinen, aber auch für jeden einzelnen, der an dieser Informationsökonomie teilnehmen wollte. Wir haben die Risiken und Nebenwirkungen kennengelernt, so z. B. die Frage nach Authentizität und Wahrheit von Informationen (jeder kann im Internet publizieren, die Kontrolle und der Faktencheck werden oftmals von 194 10 Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien <?page no="195"?> keinem Editor oder keiner Redaktion übernommen, sondern sind dem Leser überlassen oder der landesspezifischen Zensur des Internets). Web 2.0 bezeichnet die Phase des Internets, in der große und kleine Unternehmen das Internet als Handelsplatz entdeckten und Kunden für ihre Produkte und Dienstleistungen gewinnen konnten. Der breiten Bevöl‐ kerung sind hierzu eBay (für Auktionen) oder Amazon (für Verkauf von zunächst Büchern, später praktisch allen Gütern des täglichen Bedarfs) bekannt, sowie z. B. Onlineapotheken (für Gesundheitsprodukte und ggf. regulierte/ limitierte Medizinprodukte) oder das Onlineangebot von Banken und Brokern (was kam eigentlich zuerst: Online-Brokerage oder dot.com- Hype? ). Im Verlauf dieser Web 2.0 Phase ergab sich für die ‚Datenriesen‘ und Tech-Konzerne die Möglichkeit, Konsumenten besser und besser im Internetverhalten zu beobachten und auch zu beeinflussen. Zusätzlich zu den Produkten, die Konsumenten online erwerben wollten, wurden Nutzer selbst zum Produkt. Deren Verhalten, die Interessen und Vorlieben sowie der Drang, sich anderen mitzuteilen, wird in ein Nutzer- und Verhaltensprofil verarbeitet - aber oft nicht mit Benefit für den Nutzer selbst, sondern für andere, die mit diesen Daten und dem daraus abgeleiteten Wissen über Konsumenten und Interessenten noch mehr von ihrem Angebot vor unseren ‚digitalen‘ Augen platzieren konnten. Im Rückblick erkennen wir, dass wir Nutzer zwar das Gefühl hatten, dass wir Vorteile aus dem Internet ziehen (durch einfachen Zugriff auf Angebote aus aller Welt), aber letztlich wurden wir selbst zur Ware, unser Verhalten ausspioniert und unser Konsumenten‐ tum manifestiert. Darüber hinaus bestand und besteht immer die Gefahr, dass diese zentralen Anbieter im Web 2.0 zum Ziel von Hackern werden und sich viel Vertrauensverlust aufstaute, wenn die Zugangs- und teilweise auch Bankdaten der Nutzer nicht ausreichend gesichert waren. - Warum wird das Web 3.0 ganz anders sein? Web 3.0 startet nun mit dem Versprechen, an dieser zentrierten Ökonomie der Plattformen zumindest teilweise etwas zu ändern. Web 3.0 beinhaltet das Konzept, dass wir als Nutzer des Internets dort Inhalte generieren können, die uns selbst gehören, für die wir dementsprechend auch anfallende Erlöse durch Nutzung oder Verkauf selbst für uns verbuchen können. Web 3.0 verspricht eine verteilte, dezentrale Nutzung und Bewirtschaftung des Internets, weg von der Macht der großen (und kleinen) Tech-Konzerne, die im Web 2.0 allein die Inhalte und Handelsplattformen bereitstellen und 10.1 Was versprechen uns die neuen digitale Ökonomien 195 <?page no="196"?> Erlöse einfahren. Möglich wird diese Dezentralisierung z. B. durch das Konstrukt der non-fungible Tokens (NFTs), einer digitalen Besitzform, die dem physischen Besitz eines registrierten Gutes nachempfunden ist und es jedem Nutzer ermöglicht, eindeutig definierte (‚non-fungible‘) digitale Werte (‚Tokens‘) zu besitzen. Ebenfalls notwendig ist das Konzept einer digitalen Buchführung, also der Funktionalität einer Blockchain, die diese Besitztümer öffentlich und dezentral, d. h. ohne Kontrolle einer einzelnen Instanz, verwaltet. Der interessierte Leser sei für weiterführende Details zu Web 1.0/ 2.0/ 3.0 auf die einführenden Seiten in (GoldmanSachs 2021) verwiesen. Im Folgenden eine knappe Einführung der Ideen zu digitalen Werten und deren Realisierung durch NFTs. NFTs bestehen aus im Wesentlichen zwei miteinander verknüpften digitalen Konzepten: • Eine digitale Identität, die jedem Nutzer ein digitales Wallet zuordnet, mit zwei wichtigen Komponenten: (i) eine digitale Adresse, die für jeden lesbar eine exakte Bezeichnung des Wallets darstellt, sowie (ii) ein privater Schlüssel, der vom Nutzer geheim gehalten werden muss und der den Zugang zu den digitalen Werten ermöglicht, die der unter (i) benannten Adresse zugeschrieben sind. • Ein digitaler Wert, der eindeutig definiert ist, z. B. durch eine Seriennum‐ mer und der einen bestimmten ‚Nutzinhalt‘ hat. Das kann ein digitales Bild oder Video sein, oder aber ein bestimmter Anteil an einem größeren Gesamtwert - z. B. vergleichbar zu einer numerierten Aktie oder einem numerierten Geldschein, die ja individuell Wert haben und Teil der Gesamtmenge der Aktien eines Unternehmens oder der umlaufenden Menge an Bargeld. Ein NFT verknüpft nun den eindeutig definierten digitalen Wert mit der digi‐ talen Adresse des Wallets, zu dem dieser Wert als Besitz zugeordnet ist. Diese Verknüpfung ist in einer Blockchain fälschungssicher und unauslöschbar als Datensatz gespeichert. Der digitale Wert selbst wird aufgrund der Dateigröße selbst nicht in der Blockchain gespeichert, sondern anderweitig gespeichert. Ein NFTs dient daher also nicht der Speicherung der digitalen Werte an sich, sondern einzig der Besitzzuordnung. NFTs werden durch Smart Contracts erzeugt und verwaltet, die gar nicht so besonders smart sind, aber smart gemacht und sehr strikt über den Zugang zu einem NFT sowie dessen Eigenschaften und Transfer wachen. 196 10 Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien <?page no="197"?> - Confidential - Abb. 17: Erzeugung und Speicherung von NFTs digitale Kunst Attribute Künstler: Juergen Rahmel Speicherort: www.xyz.com/ gesicht.jpg Entstehung: 2023-02-05, 16: 30 Uhr Werkname: Das Gesicht Lfd nr. : #12 Details: Form: rund Ausdruck: lachen Farbe: grau …. gespeichert als Datensatz in der Blockchain, zugeordnet zur digitalen Adresse des Erzeugers gespeichert unter: www.xyz.com/ gesicht.jpg Abbildung 17: Erzeugung und Speicherung von NFTs Ein NFT sowie das Besitzverhältnis kann von jedem Nutzer der Blockchain eingesehen, aber eben nicht verändert werden. Allein der Besitzer, d. h. derjenige, der den Zugriff auf den unter a) (ii) genannten privaten Schlüssel hat, kann das NFT an einen neuen Besitzer durch Aufruf der ‚Transfer‘-Funk‐ tion des zugehörigen SmartContracts weiter transferieren. Im Gegenzug wird der (alte) Besitzer des NFTs eine Zahlung in der Krypto-Währung der genutzten Blockchain erwarten, die auf die gleiche Weise Besitzer registriert und Transfers anstoßen lässt. An dieser Stelle soll auf die zahlrei‐ chen Herausforderungen einer Blockchain-Infrastruktur, die einen solchen Transfer Zug um Zug erlaubt, nicht eingegangen werden. Wichtig ist die Kernaussage, dass es keine zentrale Instanz (kein Unternehmen, keine Bank, keine anderweitige ‚Autorität‘) gibt, die diesen Transfer durchführen kann. Es muss der private, geheime Schlüssel des Nutzers verwendet werden, die Kontrolle über Werte und Ausführung von Transaktionen liegt in Händen des Nutzers. Zwei weitere Aktivitäten sind nun hilfreich und wichtig. Zum Ersten ist da die universelle Auskunft, die die Blockchain über alle Transaktionen gibt. Man kann also nicht nur feststellen, wer der aktuelle Besitzer eines NFTs ist, sondern auch, wer der Vorbesitzer war, und der davor, und davor, usw. Damit kann die Besitzerkette bis zum Beginn nachvollzogen werden und dadurch z. B. die Authentizität eines NFTs geprüft werden. Der erste Besitzer eines NFTs sollte der rechtmäßige ‚Erzeuger‘ sein. 10.1 Was versprechen uns die neuen digitale Ökonomien 197 <?page no="198"?> Beispiel Die amerikanische Basketball-Liga NBA bietet Kurzvideos der besten Spielzüge als NFTs für Fans zum Kauf und Besitz an. Ein ‚Original-NBA- NFT‘ muss als Erstbesitzer die Wallet-Adresse der NBA-Organisation ausweisen. Diese Adresse wird die NBA veröffentlichen, um ebensolche Authentizitätsprüfungen zu ermöglichen. Zum Zweiten ist es möglich, durch entsprechende Programmierung des Smart Contracts eines NFTs bei seiner Erstellung, einen Prozentsatz vom Verkaufspreis festzulegen, der bei jedem Weiterverkauf an den Erzeuger bezahlt wird. Um im Beispiel zu bleiben: Die NBA erhält bei jedem Verkauf eines NFTs von Sammler zu Sammler automatisch einen festen Anteil am Verkaufspreis - unabhängig von der Plattform, über die dieser Verkauf abgewickelt wird. Das NFT und sein Smart Contract regeln das gemäß der ursprünglichen Programmierung, die das NFT erzeugt hat. Obwohl hier im Beispiel mit der NBA eine große Organisation benannt wurde, kann jeder Nutzer im Web 3.0 dieses Prinzip der Erzeugung eines NFTs, Programmierung eines Smart Contracts und damit die ‚Automatisie‐ rung‘ einer zukünftigen Umsatzbeteiligung an Verkäufen anwenden. Das ist die versprochene Dezentralisierung des Internets durch die Prinzipien des Web 3.0. Es werden nicht nur zentrale, große Unternehmen sein, die käufliche Inhalte im Web 3.0 anbieten. Jeder Internetnutzer, der Werte digital als Besitz anbieten möchte, kann dies mit den Mitteln des Web 3.0 nun selbst tun und allein davon profitieren. Eine Form der Ökonomie, die damit aufgebaut werden kann, ist gerade in der Entstehung: Das Metaverse. Es gibt aktuell viele Formen und Definitio‐ nen. Es ist hilfreich, hier einen abstrakteren Blickwinkel einzunehmen und sich das Metaverse als einen virtuellen Raum vorzustellen, in dem Nutzer mit einer digitalen Repräsentation ihrer selbst (einem sogenannten Avatar) teilnehmen können und mit den (virtuell-)räumlichen Gegebenheiten sowie anderen Nutzern interagieren können - nicht unähnlich zu manchem Videospiel, in dem der Spieler durch Räume läuft und durch Interaktion mit anderen Spielern oder Gegenständen verschiedene Aufgaben lösen muss. Für unterschiedliche Anwendungsbereiche entstehen nun verschiedene Realisierungen des Metaverse-Gedankens: 198 10 Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien <?page no="199"?> • Größere öffentliche Veranstaltungen wie z. B. Ausstellungen, Werbever‐ anstaltungen. Wenn es keine Zugangsbeschränkung gibt oder geben soll, dann kann praktisch jeder Internetnutzer an einer solchen Veran‐ staltung teilnehmen - was durchaus technische Herausforderungen in sich birgt. • Virtuelle Meetings: für kleine Meetings mit wenigen Personen, z. B. Besprechungen, Konsultationen, Beratung. Hier kommt es mehr auf die Interaktion an und darauf, dass die Teilnehmenden an der Besprechung identifiziert sind. • Veranstaltungen mit Zugangsbeschränkung wie z. B. Musik/ Sportver‐ anstaltungen oder Unternehmensversammlungen, wo entweder ein Ticket gekauft werden muss oder der Nutzer nachweisen muss, ein Angestellter des betreffenden Unternehmens zu sein. Und viele mehr … Für viele dieser Spezialisierungen wird es dedizierte Angebote geben, die dann auch nur für eine bestimmte Zeit (das Meeting, die Veranstaltung) existieren. Der große Gedanke bzgl. des Metaverse ist allerdings, dieses zu einer virtuellen ‚Parallelwelt‘ aufzubauen, die persistent ist, also stetig existiert. Wir können dann nicht wie in einem Spiel den Pauseknopf drücken und später weitermachen. Das Metaverse existiert auch, wenn ein einzelner Nutzer gerade nicht teilnimmt, es hat seine eigene Zeitachse und ist ‚immer da‘. In einem solchen Metaverse können die obigen Ideen wie Meetings und Veranstaltungen ebenso organisiert werden wie in der Realität. Es wird virtuelle Meetingräume geben, die man für sein Meeting anmieten kann. Es wird virtuelle Stadien geben, in denen es Sportveranstaltungen und Konzerte geben wird. Das Metaverse bietet somit eine Möglichkeit, das, was wir aus der realen Welt kennen, in die virtuelle Welt zu übertragen. Das trifft zu auf Meetings und Veranstaltungen, aber auch auf z. B. die Gestaltung des persönlichen digitalen Avatars und die damit verbundenen Waren und (Luxus-)Güter. Manchem Nutzer wird es gefallen, seinen digitalen Avatar in besonderer Weise zu gestalten. Während es einfache Varianten kostenlos gibt, so wird es aber auch die Möglichkeit geben, sich digital in teures Markenoutfit zu kleiden und Luxusgüter wie Handtaschen, Uhren und Schmuck zu erwerben. Es wird Nutzer geben, die auch digital perfekt aussehen wollen und ihre wirtschaftliche Situation hervorheben möchten. Der digitale Handel mit solchen Luxusgütern existiert bereits, und es gibt Beispiele, wo die digitale Version einer bestimmten Handtasche sogar teurer gehandelt wird als das reale Original (Hypebeast 2021). Viele Unternehmen 10.1 Was versprechen uns die neuen digitale Ökonomien 199 <?page no="200"?> versuchen bereits, ihre Produkte auch in digitaler Form im Metaverse zu vertreiben, als digitale Werte, die durch NFTs repräsentiert werden. Dieser rein digitale Handel bietet nun durch relativ niedrige Eintrittsbarrieren auch anderen kreativen Nutzern die Chance, an diesem Handel teilzunehmen und (digitalen) Profit zu erzielen. Die großvolumigen Schätzungen vieler Beratungshäuser bezüglich der Werte, die im Metaverse umgesetzt werden, sind zunächst mit Vorsicht zu betrachten. Ist der Käufermarkt für solche digitalen Produkte wirklich so groß? Welcher zusätzlichen Maßnahmen bedarf es, digitale Produkte für Kunden interessant zu machen? Leichter als im realen Leben können in der virtuellen Welt weitere Produkte und Dienstleistungen an den Besitz von digitalen Werten geknüpfte werden. Wer ein digitales Ticket für ein Konzert besitzt, darf auch bei Vorpremieren oder anderen Veranstaltungen der Künstler dabei sein. Wer eine bestimmte digitale Handtasche besitzt, darf auch bei der Modenschau der entsprechende Hersteller ganz vorne sitzen - sei es im echten oder im virtuellen Leben. Wir sehen, welche dieser ‚Incentives‘ für welche Produkte und Kundengruppen funktionieren. Eine Grundlage des angestrebten digitalen Profits ist die Verfügbarkeit - und Werthaltigkeit - des digitalen Geldes, das im Gegenzug für ein Produkt im Web 3.0 bezahlt wird. In vielen Fällen ist das aktuell Ether, die Krypto- Währung der Ethereum Blockchain, oder Alternativen wie MATIC für die Polygon-Chain und andere. Um dieses digitale Geld zu nutzen, kann man es entweder für andere digitale Güter verwenden, oder es muss über eine Krypto-Börse in reales Geld, eine sogenannte Fiat-Währung wie Euro oder US-Dollar, getauscht werden. Die große Volatilität der Krypto-Währungen gegenüber den Fiat-Währungen birgt die Gefahren von unbeabsichtigtem und unkontrollierbaren Wertverlust des digitalen Geldes gegenüber der Fiat- Währung (mit der die Internetnutzer ihr Essen kaufen und ihre Steuern zahlen). - Wird es Web 3.0 und das Metaverse auch nach dem Krypto-Crash noch geben? 2022 haben die Krypto-Währungen nach einem länger andauernden Anstieg recht plötzlich eine starke Abwertung erfahren. Viele Krypto-Währungen haben 50-70 % ihres Wertes (ausgedrückt in Fiat-Währung wie Euro oder USD) verloren. Für Krypto-Enthusiasten, die schon lange dabei sind und große Wertanstiege erfahren haben, ist das in deren optimistischer 200 10 Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien <?page no="201"?> Zukunftsprognose nur eine temporäre Delle in der Bewertung. Wer nur einen kleinen Betrag als Spekulationsobjekt investiert hat, kann relativ ruhig abwarten, ob und wann sich die Bewertungen wieder erholen. Wer jedoch - in Hoffnung auf ewig steigende Werte - seine gesamten Ersparnisse in Krypto-Währungen angelegt hat oder wer seine Geschäftstätigkeit auf digitale Plattformen mit Krypto-Währungen aufbaut, der ist auf einen werthaltigen Rücktransfer aus Kryptoin Fiat-Währung angewiesen. Internationale Geschäftstätigkeit steht immer unter einem Währungsri‐ siko, wenn Erlöse in einer Währung zur weiteren Verwendung (Investitio‐ nen, Löhne, Steuern) in eine andere Währung getauscht werden müssen. Erlöse in Krypto-Währung bergen die zusätzliche Gefahr, dass eine Krypto- Währung an sich nicht werthaltig ist. Krypto-Währungen sind nicht an die Wirtschaftskraft eines Landes gebunden, werden nicht von Zentralbanken gesteuert und sind wie oben beschrieben nicht zur Zahlung von Steuern zugelassen. Der Blick auf die Volatilität und das damit verbundene Risiko ist damit zwingend erforderlich. Eine Lösungsmöglichkeit in Zukunft ergibt sich aus der Entwicklung sogenannter Central Bank Digital Currencies (CBDCs), die die digitale Version einer Fiat-Währung darstellen, von der nationalen Zentralbank ausgegeben werden und die dann auch als legales Zahlungsmittel (‚legal tender‘) im jeweiligen Land zugelassen sind. Eine CBDC verbindet damit die Vorteile eines digitalen, blockchain-fähigen Zahlungsmittels mit der Gültigkeit und Stabilität der Fiat-Währung. Viele Länder sind bereits weit vorgeschritten in der Entwicklung und Erprobung ihrer nationalen CBDC. Metaverse-Handel in einer CBDC könnte das Krypto-Risiko des digitalen Wirtschaftens minimieren. Auch ohne CBDC kann man der Ökonomie eines Metaverse gewisse Eigenschaften einer nationalen Ökonomie zuschreiben. Wer digitales Geld im Metaverse verdient, wird viele Möglichkeiten haben, es dort auch wieder auszugeben. Man kann das Metaverse somit durchaus als eigenen Wirtschaftskreislauf verstehen. Inwieweit die Analogie zur Wirtschaft eines realen Staates reicht, wird die Zukunft zeigen. Es ist schwer vorstellbar, das existierende Regierungen, Aufsichtsbehörden und Zentralbanken einer rein digitalen Ökonomie auf Basis unkontrollierter Krypto-Währungen einen autarken Status zuschreiben werden. Eine Einbettung einer CBDC als Handelswährung im Metaverse würde solche Fragen vereinfachen und wirtschaftlichen Erfolg im Metaverse auch in die reale Welt übertragbar machen. Die Fragen der Abbildung nationaler Regeln und Gesetze (die 10.1 Was versprechen uns die neuen digitale Ökonomien 201 <?page no="202"?> international nicht immer frei von Gegensätzen und Widersprüchen sind) in ein globales Metaverse sind damit aber noch lange nicht beantwortet. 10.2 Welche Stufen der Integration von Unternehmen ins Web 3.0 gibt es? Wie wir gesehen haben, bieten digitale Werte und deren Nutzung im Web 3.0 und im Metaverse die Möglichkeit existierende physische Werte und Interaktionen durch digitale Analogien (nicht: Digitale Twins) in die virtuelle Welt zu übertragen. Wie in der realen Welt auch sollten wir kurz Dienstleistungsgeber von Dienstleistungsnehmern unterscheiden. Es gibt Unternehmen, die darauf spezialisiert sind, digitale Werte im Auf‐ trag anderer zu erzeugen, zu verwalten, zu vertreiben oder auch ein komplet‐ tes Metaverse als digitale Umgebung anzubieten. Dies sind Dienstleistungen, die ein Unternehmen in Anspruch nehmen kann, so wie Unternehmen sich von einem Cloud-Anbieter mit Rechenleistung und Speicherplatz versorgen lassen, um dies nicht mehr selbst im eigenen Rechenzentrum vorzuhalten. Diese Dienstleistungsgeber sind wichtig, weil sie eine Infrastruktur anbie‐ ten, die es anderen Unternehmen ermöglichen ihre eigenen Produkte und Services ins Web 3.0 und Metaverse zu bringen. Diese Dienstleister sollen aber hier nicht im Fokus stehen. Wir wollen hier vielmehr solche Unternehmen betrachten, die Web 3.0 und das Metaverse nutzen wollen, die Ihre Kunden dorthin begleiten und dort bedienen wollen. Hierbei sehen wir aktuell folgende Entwicklungs- und Integrationsstufen: • Metaverse und virtuelle Welten als Werbe-Instrument: in dieser geringsten Stufe der Integration bieten ein Unternehmen seinen (po‐ tenziellen) Kunden ein virtuelles Erlebnis an, ohne daraus direkt einen Erlös zu erzielen. Das Unternehmen bietet z. B. im Metaverse einen virtuellen Raum, eine Ausstellung, ein Spiel an, an dem praktisch jeder Besucher teilnehmen kann. Als Teil einer Werbekampagne wird ein Link zu diesem Virtuellen Erlebnis geteilt und der End-Nutzer - aktueller oder potenzieller Kunde - kann dieses Virtuelle Erlebnis erfahren, sieht Firmenlogo und andere Werbeträger und hat somit ein aktives Erlebnis mit Werbe-Charakter. In solchen Fällen melden sich die Nutzer direkt auf der Metaverse-Plattform an, es findet aber keine Überleitung von 202 10 Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien <?page no="203"?> Nutzerdaten vom Metaverse-Betreiber zurück zum Unternehmen statt. Der Nutzer wird gewissermaßen auf eine Einbahnstraße in Richtung des entwickelten Werbeerlebnisses geschickt. • Metaverse oder NFT-Plattformen als unterstützender Vertriebs‐ kanalfür existierende Produkte und Dienstleistungen: Liegt der Fokus weniger auf dem reinen Erlebnisfaktor, sondern mehr auf dem existierenden Produktangebot und Konversion in direkten Umsatz, dann muss es eine Möglichkeit geben, aus der Metaverse-Plattform heraus zurück in das (Internet-)Angebot des Unternehmens zu kommen. Idealerweise gibt es dann eine Rückführung des (potenziellen) Kunden auf das existierende Internet-Angebot des Unternehmens sowie eine Überleitung der potenziell interessanten Produkte, die der Nutzer im Metaverse gesehen hat. Sollte die Web-3.0-/ Metaverse-Plattform eine eindeutige Identifikation des Nutzers unterstützen, kann auch die Iden‐ tität des Kunden mit übergeben werden. Je seltener der Kunde Produkt‐ auswahl und Identitätsnachweis wiederholen muss, umso reibungsloser wird er den Kaufprozess empfinden. • Web 3.0 als Transaktionsplattform für digitale Produkte: die Ziel‐ vorstellung für das Web 3.0 und das Metaverse ist es, digitale Werte dort zu erschaffen und auch dort zu vermarkten. Die Metaverse-Betreiber haben den Anfang gemacht, den von Ihnen zur Verfügung gestellten virtuellen Raum in kleine Grundstücksparzellen aufgeteilt und diese Grundstücke zum Verkauf angeboten. Wer in der Zukunft in so einem Metaverse seine Produkte anbieten will, muss das auf virtuellem Grund und Boden tun - entweder den eigenen oder eben angemieteten Flächen. Virtuelle Konzerte oder Sportveranstaltungen können nur gegen Entgelt besuchbar gemacht werden, sodass für ein virtuelles Ereignis mit digi‐ taler Währung (Krypto-Währung oder CBDC) ein digitales Ticket (NFT) gekauft werden muss, um Zugang zu erhalten. Wie oben beschrieben können Nutzer ihren Avatar mit digitalen (Luxus)gütern ausstatten, um auch im Metaverse den wohlhabenden oder trendigen Eindruck zu machen den sie in der realen Welt durch solche realen Güter erzeugen wollen. Damit entsteht hier im Metaverse eine parallele Ökonomie, die sich digitaler Zutaten bedient und rein digital konsumiert werden kann. Schätzungen des Wertes solcher Metaverse und NFT-Plattformen erreichen leicht die Billionen-US-Dollar-Marke (siehe oben). Ob dies am Ende die richtige Größenordnung ist, ob wir alle wirklich so viel Zeit und Geld in das 10.2 Welche Stufen der Integration von Unternehmen ins Web 3.0 gibt es? 203 <?page no="204"?> Web 3.0 stecken (hart verdientes ‚echtes‘ Geld, das in digitale Währung ge‐ tauscht werden muss oder eben bereits digital verdientes Geld das innerhalb des Metaverse-Ökosystems verbleibt) wird nur die Zukunft zeigen können. Aber das Potenzial dazu existiert, die Anfänge werden gerade gemacht und es gibt hier erstmals die Möglichkeit, digitale Kreativität und digitale Werte mehr im wirtschaftlichen Sinne als im aktuell immer noch vorherrschenden spekulativen Sinne zu nutzen. Das schließt dann auch Angebote aus Wissen‐ schaft und Lehre mit ein, Tourismus, Gesundheitsangebote, Soziale Medien und Finanzen - um nur einige der Nutzungsmöglichkeiten zu nennen. - Wie lassen sich Web-3.0-Datenmodelle monetarisieren? Der vorige Abschnitt zeigte einen Teil des Weges auf, den Unternehmen ins Metaverse und in die Web-3.0-Ökonomie gehen können. Ziel eines Unternehmens, das Metaverse-Erlebnisse für seine (potenzielle) Kundschaft anbietet, ist natürlich neben den zuvor genannten Zielen verschiedener Integrationstiefen auch, mehr über die Besucher zu erfahren. Mehr noch als im realen Leben werden wir in unserer digitalen Metaverse-Umgebung als Nutzer Spuren hinterlassen. Der Metaverse-Betreiber weiß genau, wo sich unser digitaler Avatar aufhält, in welche Richtung er blickt, mit welchen anderen Nutzer worüber kommuniziert wird und so fort. Unsere digitalen Besuche in virtuellen Welten werden mehr als gläsern sein. Daraus ergeben sich nun weitere Möglichkeiten, aus Nutzerverhalten tiefere Schlüsse zu ziehen. Einzelne Nutzerdaten sowie Aggregationen und Korrelationen über viele Nutzer hinweg werden neuartige Informationsmo‐ delle erlauben, z.-B. durch • Datenbereinigung, (Vor-)Verarbeitung und Anreicherung mit anderen, externen Quellen • Datenvisualisierung von Nutzerwegen im Metaverse, erfolgreichen und weniger erfolgreichen Werbemaßnahmen • Sentiment-Analysen der Nutzerkommunikation • Trendanalyse und sofortige Erzeugung neuer digitaler Produkte und Services • prädiktive Analytik und Auswertung von Daten mithilfe von maschine‐ llem Lernen • neue Services bzgl Daten-Governance und Datenschutz • neue Marktplätze für Nutzerdaten 204 10 Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien <?page no="205"?> Insbesondere der letzte Punkt - Marktplätze für Nutzerdaten - könnte sich in eine Richtung entwickeln, in der die Nutzer selbst Besitz von den von ihnen erzeugten Datenspuren ergreifen und - wenn gewünscht - diese dann auch aktiv gegen eine Gegenleistung eintauschen. Beispiel ein Nutzer nimmt regelmäßig an einem Metaverse Sportevent teil, bei dem alle Teilnehmer auf ihren Fitness-Rädern ein Heim-Trainingspro‐ gramm absolvieren. Frequenz des Trainings, erreichte Kilometerzahl, Herzfrequenz und andere Gesundheitsdaten können vom Nutzer erfasst und gespeichert werden. Falls seine Krankenversicherung einen Prä‐ mienbonus für gesunde Lebensweise anbietet, wird dem Nutzer die kontrollierte Weitergabe seiner Daten gegen Reduktion der Versiche‐ rungsprämie als Mehrwert erscheinen. Wir wollen den Gedanken des Marktplatzes für Daten etwas genauer untersuchen - gerade weil sich hier neuartige Möglichkeiten der Beteiligung der Nutzer an der Monetarisierung ergeben. Unternehmen die Erlebnisse, Vertriebskanäle und Transaktionen im Metaverse anbieten können ihre Attraktivität erhöhen, indem sie Nutzern die Möglichkeit geben, an einem solchen Datenmarktplatz beteiligt zu sein, statt nur betroffen. Zum Aufbau eines solchen Datenmarktplatzes seien hier ein paar Grundgedanken for‐ muliert: • Zielgruppe: Basierend auf den erwünschten Interaktionen der Nutzer wird erkennbar, welche Datentypen - individuell und aggregiert - ermittelbar sein werden. Daraus lässt sich ableiten, welche Zielgruppe (andere Nutzer, andere Unternehmen, andere Zweige im eigenen Unter‐ nehmen) aus solchen Daten Nutzen ziehen könnten. Damit kann die Zielgruppe des Marktplatzes eingegrenzt werden. • Erlösmodell: Damit klar ist, welcher Benefit für wen zu Buche steht, muss ein Erlösmodell definiert werden. Die intendierte Zielgruppe als Abnehmer bestimmt Art, Umfang und auch Werthaltigkeit der Informa‐ tion, die angeboten wird. Jeder besser die Daten für Erlössteigerung der Abnehmer genutzt werden können, umso mehr sind diese Kunden des Marktplatzes bereit dafür zu zahlen. Ein Teil des Datenangebots wird aus individuellen Nutzerdaten bestehen: Nutzung der Plattform, 10.2 Welche Stufen der Integration von Unternehmen ins Web 3.0 gibt es? 205 <?page no="206"?> Verweildauer, besuchte virtuelle Räume. Für Sammlung und Verkauf solcher Informationen könnte die Zustimmung der Nutzer erforderlich werden. Bei einer angemessenen Beteiligung der Nutzer sind diese oftmals zur Zustimmung bereit (siehe auch unten: Tokenisierung). Hier wird der angestrebte Nutzen für alle Beteiligten definiert und der nächste Schritt vorbereitet. • Datensammlung und -verarbeitung: Web 3.0 und Metaverse werden eine umfassende Vielfalt an Daten über die Nutzer bereitstellen können, je nach Anwendungszweck. Das kann statische Nutzerdaten beinhalten (Typische Lokation, demographische Daten, sozial/ ökonomische Daten) aber auch dynamische Daten (Finanztransaktionen, biometrische Sen‐ sordaten, Interaktion mit sozialen Medien und Inhalten des Metaverse). Diese Daten müssen aufbereitet und ggf. bereinigt werden. Ebenso kann es Sinn machen, diese direkt ermittelten Daten, um extern zugekaufte Informationen zu ergänzen. Hierdurch wird der Datenbestand herge‐ stellt und im Hinblick auf die Nutzbarkeit optimiert. • Tokenisierung der Daten: Die Daten müssen nun in verkaufbare Blöcke zusammengefasst werden, damit diese Blöcke als wohldefinierte Einheit in eine Transaktion gegeben werden können. Gemäß dem Gedanken des Web 3.0 werden hier also Digitale Werte erzeugt, die eindeutig beschrieben sind (z. B.: „Nutzerverhalten im Metaverse aller Kunden im demographischen Segment zwischen 21 und 49 Jahren“), einem eindeutigen Datenpaket zugeordnet sind (z. B. „Datenpaket #0x1234…“) und als Produkt auf dem Marktplatz angeboten werden können. Während potenzielle Kunden dieses Datenblocks (z. B. Unter‐ nehmen, die in diesem Metaverse Produkte anbieten und wissen wollen wie viele Nutzer aus welchem Demographiesektor, wo im Metaverse unterwegs waren) nur diesen Datenblock als „Ganzes“ sehen, kann im Hintergrund ein Verteilerschlüssel aufgebaut werden der jedem Nutzer, dessen individuelle Daten in diesen Datenblock einfließen, einen kleinen Teil des Erlöses zuschlüsselt. Die Zustimmung des Nutzers zur Verwendung seiner Daten wird dann abhängig sein von seiner Zufriedenheit mit der Gegenleistung in Form des Erlösanteils. Somit wird die wirtschaftliche Beteiligung der Nutzer and der Verwendung ihrer Daten hergestellt. • Gestaltung des Marktplatzes: Eine solche Datenplattform kann ge‐ treu den Ideen des Web 3.0 als Börse für digitale Werte aufgesetzt werden. Die tokenisierten Daten können durch NFTs auf einer Block‐ 206 10 Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien <?page no="207"?> chain repräsentiert sein und die Bezahlung erfolgt digital, direkt auf der Plattform, Zug um Zug gegen eine digitale Währung. Passend program‐ mierte Smart Contracts wachen über die Ausführung der Zahlung von Erlösanteilen and die eigentlichen Besitzer der Daten - die Metaverse- Nutzer. Die Frontend Gestaltung des Marktplatzes als Website, dezent‐ rale Applikation oder sogar Teil des Metaverse-Angebots selbst kann auf die beabsichtigte Kundengruppe zugeschnitten werden. Wichtig sind Funktionen für Suche, Filterung und Visualisierung, um Kunden die Auswahl zu erleichtern. • Vertrieb des Marktplatzes: Der Marktplatz muss den potenziellen Kunden bekannt sein, um zu funktionieren. Es wird aber auch von Vorteil sein, Feedback einzuholen und das Datenangebot an Kunden‐ wünsche oder sich verändernde Umstände anzupassen. Der Vertrieb des Marktplatzes kann daher Werbemaßnahmen beinhalten, aber auch strategische Partnerschaften oder die Bildung von Nutzer-Foren, in denen Erfahrungsaustausch stattfindet. 10.3 In welchen Schritten können Unternehmen sich an diese neue Ökonomie herantasten? Bevor wir auf das „Wie? “ eingehen, soll zunächst die Frage betrachtet werden, ob es für ein bestimmtes Unternehmen jetzt überhaupt Sinn macht, in dieser noch frühen Phase der Entwicklung, sich bereits aktiv mit dem Metaverse und Web 3.0 auseinanderzusetzen. Eine erste Fragestellung kommt daher - hoffentlich nicht ganz überra‐ schend - aus der strategischen Ecke: Der Web-3.0-Gedanke mit dezentralem Besitz und dezentraler Governance und das Metaverse als virtuelle Welt, in der Nutzer mithilfe eines Avatars manövrieren und kommunizieren können - wie passt das in die Unternehmensstrategie für Innovation und Wachstum, welche Kundengruppe würde sich hierfür gewinnen und begeistern lassen? Die besten Zukunftsprognosen für Umsatzentwicklung im Metaverse haben Umfelder wie e-commerce, Lernen und Lehre, Sport und Spiele sowie Live-Entertainment. Unternehmen, deren Zielgruppe sich für diese Themen interessiert, sind gut beraten, sich auf den Weg ins Metaverse zu begeben, um hier nicht den Anschluss zu verlieren. Die Entwicklung im Metaverse wird noch Jahre dauern, dennoch ist es gut und richtig jetzt zu beginnen. Auch die unternehmensinterne Entwicklung einer Metaverse-Strategie, der 10.3 In welchen Schritten können Unternehmen sich an diese neue Ökonomie herantasten? 207 <?page no="208"?> oben beschriebenen Datenmodelle und Marktplattformen wird nicht von heute auf morgen zu bewältigen sein. Je nach Industriezugehörigkeit eines Unternehmens sind hier ggf. völlig ‚fachfremde‘ Themen und Technologien gefragt, d. h. auch der Aufbau von Skills und Personal für den Metaverse- Zugang, die Entwicklung der 3-dimensionalen Welten im Metaverse, das Design und die Erzeugung der digitalen Werte (z. B. NFTs) wird Zeit (und Geld) in Anspruch nehmen. Wenn entschieden wurde, dass der Eintritt in digitale Werte und virtuelle Welten Teil einer zukunftsträchtigen Strategie sein soll, dann geht es darum, die Vorgehensweise festzulegen. Wir haben zuvor gesehen, dass es im Wesentlichen drei Stufen der Integration des Metaverse gibt: • Metaverse und virtuelle Welten als Werbeinstrument • Metaverse oder NFT-Plattformen als unterstützender Vertriebskanal • Metaverse und Web 3.0 als Transaktionsplattform für digitale Produkte Diese Integrationsstufen unterscheiden sich durch die Menge an Daten, die zwischen einem Unternehmen und der Metaverse-Plattform ausgetauscht wird. Wird das Metaverse zunächst nur als Werbeinstrument genutzt, dann ist die benötigte Integration am geringsten. Ein Unternehmen wird virtuelle Räume erstellen (lassen), die spielerisch oder edukativ an die Produkte des Unternehmens heranführen. Da die Kunden in dieser einfachsten Variante lediglich durch Verweise in die virtuelle Welt geleitet werden, die ja von einem der Dienstleister betrieben wird, ist die Kundenwirkung ähnlich einer Werbekampagne anzusehen. Identifikation mit einer Marke wird gestärkt, die ‚Modernität‘ und Reputation des Unternehmens hervorgehoben, so dass der Kunde bei späteren Kaufentscheidungen ein positiv besetztes Bild von Unternehmen und Produkt hat. Gefahr ist natürlich, dass diese Wirkung verpufft, bevor es zu Umsätzen kommt. Dann bietet sich die tiefere Integration des Metaverse als Vertriebskanal an, indem die Nutzer bei Interesse in der virtuellen Umgebung zusätzlich direkt auf Rückverweise zu Vertriebs-Webseiten das Unternehmens geleitet werden. Idealerweise werden Produktdaten und Verhaltensdaten der Nutzer hierbei mit an das Unternehmen zurückgegeben, so dass eine zielgerichtete Kundenansprache mit Produktbezug die Konversionswahrscheinlichkeit er‐ höht. In dieser Integrationsstufe ist umsetzbar, dem Nutzer NFTs als digitale Repräsentation gekaufter realer Ware zuzuteilen oder solche NFTs z. B. als Belohnung (bei Überschreiten von Umsatzstufen) oder Zertifikate (für 208 10 Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien <?page no="209"?> Erfolge in Spielen oder einem Wissensquiz) auszugeben. Eine Identifikation des Nutzers sowie der eigentliche Umsatz finden auf den üblichen Internet- Seiten des Unternehmens statt. In der engsten Integration wird Web 3.0 und Metaverse direkt als Platt‐ form genutzt, um dem Kunden digitale Produkte anzudienen. Dies können digitale Kurse, digitale Kunst, Tickets für Live-Übertragungen von Konzer‐ ten oder Sportveranstaltungen sein und vieles mehr. In dieser Stufe wird der Umsatz direkt digital im Web 3.0 mithilfe der digitalen Währung erzielt. Ne‐ ben der Überleitung von allgemeinen Kunden- und Produktdaten zwischen Unternehmen und Metaverse ist hierzu auch die eindeutige Identifikation des Kunden notwendig sowie die Anbindung von Finanztransaktionen, Bestellinformationen für Erfüllung und Rechnungsstellung. Je nach Industrie kann die tiefere Integration nicht nur technisch an‐ spruchsvoll, sondern auch regulatorisch herausfordernd sein. Regulierte Unternehmen aus der Finanz-, Versicherungs- oder auch Medizinbranche werden hier höhere Anforderungen an die Identifikation des Kunden, die Fälschungssicherheit und Vertraulichkeit der Daten sowie die Ausführung und Dokumentation der Finanztransaktionen haben und die Erfüllung dieser Anforderungen den Aufsichtsbehörden nachweisen müssen. Doch auch diese Regulatorik für Web 3.0 und Metaverse-Umgebungen ist nicht ‚fertig‘, auch sie wird sich über die Jahre entwickeln, so wie die Anwen‐ dungsbereiche selbst. Solche Regularien haben aktuell auch meist sehr nationalen Charakter (oder regional, wenn wir die EU-Regularien, z. B. zum Datenschutz, betrachten). Das Web 3.0 und Metaverse sind aber ‚per Definition‘ nicht an Landesgrenzen gebunden. Sich hier auf internationaler Ebene zu einigen und ein allgemeingültiges Regelwerk festzulegen, wäre für die dezentrale Idee der Virtuellen Ökonomien ein großer Gewinn. 10.4 Zusammenfassung und Ausblick Wir haben in diesem Kapitel Möglichkeiten der nutzbringenden Anwen‐ dung von Web 3.0 und Metaverse im Unternehmenskontext beleuchtet. Wichtig ist, dass sich Unternehmen zumindest mit einer kleinen Innovati‐ onseinheit das Wissen beschaffen, wie diese neuen Technologien funktio‐ nieren und wofür sie gut angewendet werden können. Damit kann entschie‐ den werden, wie die Einbettung der digitalen Ökonomie in den strategischen Plan des Unternehmens passt. Für die Umsetzung und Integration gibt es 10.4 Zusammenfassung und Ausblick 209 <?page no="210"?> verschiedene Ansätze, die sich in der Integration von Technik und Daten zwischen Unternehmenswelt und digitaler/ virtueller Welt unterscheiden. Ein Patentrezept für die Eroberung des Metaverses gibt es nicht. Nur passives Abwarten und Zuschauen allein wird allerdings sicher nicht zum Erfolg führen. 10.5 Literatur ETFBD 2022: „Fidelity Launches New Metaverse Fund and Virtual Space“, URL: h ttps: / / etfdb.com/ crypto-channel/ fidelity-launches-new-metaverse-fund-and-virt ual-space/ , accessed Feb 2023. GoldmanSachs 2021: „Framing the Future of Web 3.0“, Goldman Sachs Equity Research, December 2021 Hypebeast 2021: „A Virtual Gucci Bag Sold For More Money on Roblox Than The Actual Bag“, URL: https: / / hypebeast.com/ 2021/ 5/ virtual-gucci-bag-roblox-resale , accessed Feb 2023. Reuters 2022: „HSBC launches metaverse portfolio for wealthy Asian clients“, URL: https: / / www.reuters.com/ technology/ hsbc-launches-metaverse-portfoliowealthy-asian-clients-2022-04-06/ , accessed Feb 2023. McKinsey 2022: Value creation in the metaverse: The real business of the virtual world, McKinsey Report, June 2022 210 10 Mit Daten ins Web 3.0 - NFTs, Metaverse und neue Ökonomien <?page no="211"?> 11 Wo sich Daten, Tradition und Agilität verbünden - die wundersame Welt der multimodalen IT | von Wolfgang Decker Die Informationstechnologie erlebt derzeit einen epochalen Umbruch, der von rasanten Veränderungen geprägt ist. Unternehmen stehen vor der Herausforderung, sich zügig auf die fortschreitende Digitalisierung ein‐ zustellen und gleichzeitig die wachsenden Ansprüche ihrer Kunden zu erfüllen. Dabei spielen Daten als strategisches Unternehmensvermögen und als Antrieb für Innovation und Kundenzufriedenheit eine zentrale Rolle. Für den Erfolg müssen Unternehmen ihre Architekturen transformieren und sicherstellen, dass sie agil auf Veränderungen reagieren können. Bereits frühzeitig haben Wissenschaftler wie Ray Kurzweil auf die expo‐ nentielle Entwicklung der Technologien hingewiesen und die Notwendig‐ keit betont, IT-Systeme zu entwickeln, die diese Entwicklungen unterstüt‐ zen (Kurzweil, R. (2005). The Singularity is near: When Humans Transcend Biology). Konzepte wie die exponentielle IT unterscheiden sich stark von heutigen klassischen IT-Architekturen, die oft auf monolithischen Systemen basieren. Während Legacy-IT-Systeme oft unflexibel sind und Veränderun‐ gen erschweren, ist es das Ziel der exponentiellen IT, sich flexibel und schnell an die ständig wachsenden Anforderungen des Marktes anzupassen. 11.1 Bimodale IT-Architektur als Lösung? Eine wichtige Rolle bei der Transformation spielt die bimodale IT-Archi‐ tektur, die Unternehmen befähigt, ihre Systeme schnell und effektiv an veränderte Geschäftsanforderungen anzupassen. Mit einer bimodalen IT- Architektur können Unternehmen kontinuierlich Innovationen vorantrei‐ ben, auf Veränderungen reagieren und gleichzeitig stabile und kontrollierte Prozesse für den laufenden Geschäftsbetrieb sicherstellen. Die Einführung einer solchen Architektur und die damit verbundenen agilen Arbeitsweisen stellen jedoch auch Herausforderungen an die Organisation und die Zusam‐ menarbeitsmodelle. Es ist daher entscheidend, dass Unternehmen diese <?page no="212"?> Herausforderungen verstehen und bereit sind, Veränderungen proaktiv anzugehen. In diesem Beitrag untersuchen wir die aktuellen IT-Herausforderungen, die Vorteile und Auswirkungen einer bimodalen IT-Architektur und agiler Arbeitsweisen und beschreiben die notwendigen Schritte zur Umsetzung dieser Konzepte. Es ist von größter Bedeutung, dass Unternehmen diese Herausforderungen verstehen und bereit sind, Veränderungen proaktiv anzugehen, um erfolgreich in der digitalen Transformation zu sein. 11.2 Markt- und Veränderungsdruck Im heutigen Wettbewerbsumfeld genügt es nicht mehr, einfach zu wachsen, um als erfolgreiches Unternehmen zu gelten. Vielmehr müssen Unterneh‐ men ihre Geschäftsprozesse digitalisieren, um wettbewerbsfähig zu sein. Sie müssen in der Lage sein, ihre Daten effizient zu nutzen, in der Plattformöko‐ nomie zu operieren, hochgradig personalisierte Kundensysteme anzubieten und differenzierte, markenbasierte Erfahrungen zu schaffen. Gleichzeitig müssen sie die Komplexität in ihren eigenen IT-Organisationen steuern und reduzieren. Neue Geschäftsmodelle und Erwartungen an digital und datengetriebene Customer Experience bedeuten oft sehr konkrete Anforderungen an die IT-Architektur. Dabei sind Daten oft das Herzstück der neuen digitalen Geschäftsmodelle und ein wertvolles Gut für jedes Unternehmen. Sie ermög‐ lichen es Unternehmen, ein besseres Verständnis ihrer Kunden zu gewinnen und personalisierte Dienstleistungen anzubieten, die auf individuellen Vor‐ lieben und Verhaltensmustern basieren. Diese personalisierten Angebote haben das Potenzial, Kundenbeziehungen zu vertiefen und die Zufriedenheit der Kunden zu erhöhen - und natürlich die Effizienz im Unternehmen zu erhöhen. Außerdem ist es wichtig, dass Unternehmen in der Lage sind, Daten sicher und verantwortungsvoll zu verwalten. Dies beinhaltet die Überwa‐ chung und Kontrolle des Datenflusses, die Vermeidung von Datenlecks und die Einhaltung geltender Datenschutzgesetze. Eine robuste und zuverlässige Architektur für den Umgang mit Daten ist daher unerlässlich für den Erfolg digitaler Geschäftsmodelle. Um wettbewerbsfähig zu bleiben, müssen Unternehmen ihre Geschäfts‐ praktiken und die zugrundeliegenden Architekturen weiterentwickeln. Dies ist jedoch alles andere als trivial. Die meisten Unternehmen sind in ihren tra‐ 212 11 Wo sich Daten, Tradition und Agilität verbünden <?page no="213"?> dierten Ansätzen auf inflexible, traditionelle Architekturkonzepte verankert und haben große Schwierigkeiten, sich an die neuen Realitäten anzupassen. Sie investieren zwar in die Digitalisierung, sehen aber oft keine konkreten Ergebnisse. Der Übergang zu einem digitalen Geschäftsmodell erfordert einen radikal anderen Ansatz für unternehmensweite Prozesse und Struk‐ turen und ist viel mehr als nur die Implementierung neuer Technologien. Bevor wir uns mit den Auswirkungen und möglichen Lösungsszenarien befassen, betrachten wir zunächst die Treiber des zugrundeliegenden Ver‐ änderungsdrucks. - Revolution oder Evolution? Wie neue Technologien die Geschäftswelt verändern Die rasant fortschreitende Technologie hat das Potenzial, die Art und Weise, wie Unternehmen arbeiten, grundlegend zu verändern. Cloud Com‐ puting ermöglicht es Unternehmen beispielsweise, ihre Geschäftsmodelle zu skalieren, während die allgegenwärtige Konnektivität auf Seiten der Konsumenten („always online“) die Verfügbarkeit geräteübergreifender Dienste jederzeit und überall ermöglicht. Fortgeschrittene Analytik-Verfah‐ ren bieten Unternehmen neue Einblicke und Entscheidungshilfen, während künstliche Intelligenz und maschinelles Lernen helfen, Geschäftsprozesse zu automatisieren und zu verbessern. Diese Technologien verändern auch die Art und Weise, wie Unternehmen mit ihren Kunden interagieren. Durch personalisierte Dienste, die auf indi‐ viduellen Vorlieben und Verhaltensmustern basieren, bieten Unternehmen einen einzigartigen Mehrwert. Das bedeutet auch, dass die Kundenbezie‐ hungen und -erfahrungen neu definiert werden. Unternehmen, die in der Lage sind, diese Technologien effektiv zu nutzen und zu integrieren, werden in der Lage sein, ihren Wettbewerbsvorteil zu steigern und erfolgreicher zu sein. - Wie hätten Sie’s denn gerne? - Die Auswirkungen der „Consumerization“ auf Unternehmen Die datengetriebenen Innovationen haben auch einen erheblichen Einfluss auf das Verbraucherverhalten und die veränderten Kundenerwartungen. Schließlich erwarten Kunden heute im geschäftlichen Kontext ein ähnli‐ ches Erlebnis wie bei ihren privaten Onlineaktivitäten. Diese „Consumeri‐ zation“, also die Übertragung der privaten Konsumgewohnheiten auf die 11.2 Markt- und Veränderungsdruck 213 <?page no="214"?> persönlichen Bankgeschäfte oder gar auf die Geschäftswelt, verändert das Verhältnis von Angebot und Nachfrage. Unternehmen müssen auf diese Veränderungen reagieren, um ihre Kunden zufriedenzustellen und sich Wettbewerbsvorteile zu sichern. Dazu gehört, dass Unternehmen ihre Geschäftsmodelle überprüfen und möglicherweise neugestalten müssen. Sie müssen die Grenzen der Lieferket‐ ten verschieben, um zusätzliche Umsatzströme vor und nach dem Verkauf zu erschließen und sicherzustellen, dass sie ihre Kunden auch in Zukunft erfolgreich bedienen können. Eine schnelle und agile Reaktion auf diese sich verändernden Kundenerwartungen wird für Unternehmen zunehmend wichtig. Der Fokus muss auf der Schaffung eines einzigartigen Kundener‐ lebnisses liegen, das häufig durch innovative Technologien überhaupt erst ermöglicht wird. Unternehmen, die in der Lage sind, diese Veränderungen proaktiv anzugehen, werden in der Lage sein, ihre Wettbewerbsposition zu stärken und erfolgreich zu sein. - Schlank, agil, digital: Wie bleiben etablierte Unternehmen wettbewerbsfähig? Technologische Innovationen und veränderte Kundenerwartungen haben dazu geführt, dass neue Marktteilnehmer mit schlanken und Legacy-freien Betriebskonzepten in den Markt eintreten. Diese Unternehmen arbeiten oft effektiver und kosteneffizienter als etablierte Unternehmen, was zusätz‐ lichen Kostendruck auf die klassischen Unternehmen ausübt. Um wettbe‐ werbsfähig zu bleiben, müssen sie ihre Produkte und Dienstleistungen neu überdenken und anpassen. Diese Anpassungen erfordern jedoch häufig wiederum Änderungen der Systemlandschaft. IT-Verantwortliche stehen dann unter dem Druck, ein geändertes und höheres Serviceniveau zu bieten und gleichzeitig die Kosten zu senken. Dies erfordert eine Neugestaltung von Prozessen und die Erneuerung veralteter Infrastrukturen, aber auch Maßnahmen zur Rationalisierung des Personals. Jedoch werden diese Maßnahmen womöglich nur begrenzt erfolgreich sein, wenn sie ohne einen fokussierten Plan für die digitale Transformation durchgeführt werden. Ein solcher Plan muss eine klare Vision für die Zu‐ kunft des Unternehmens und eine Strategie zur Umsetzung enthalten. Eine umfassende Überprüfung aller Aspekte des Unternehmens, einschließlich Geschäftsprozessen, Technologien und Kundenerwartungen, ist unerläss‐ lich, um sicherzustellen, dass das Unternehmen auf die Herausforderungen 214 11 Wo sich Daten, Tradition und Agilität verbünden <?page no="215"?> der digitalen Welt vorbereitet ist. Nur so kann eine erfolgreiche digitale Transformation sichergestellt werden. Diese Treiber des Wandels zeigen deutlich, dass Unternehmen sich anpassen müssen, um im digitalen Zeitalter erfolgreich zu bleiben und mit ihren IT-Systemen und Geschäftsmodellen schnell auf Veränderungen reagieren zu können. Natürlich birgt der Wandel und die daraus resultie‐ rende Dynamik neben allen Chancen auch Risiken, insbesondere durch neue Wettbewerber und Geschäftsmodelle. 11.3 Imperative der Digitalisierung Wie bereits erläutert, zwingen die schnelle Entwicklung der Technologie und die Veränderung von Kundenbedürfnissen und -erwartungen Unter‐ nehmen dazu, ihre Bestandsprozesse zu optimieren, ihre Kundeninteraktion zu digitalisieren und neue Geschäftsmodelle zu entwickeln, um sich in ständig verändernden Märkten zu behaupten. Diese Anforderungen führen zu drei zentralen Imperativen der Digitalisierung: • zu einer besseren Kundenansprache und einer kundenorientierten In‐ teraktion, • zu optimierten Betriebsabläufen mit konsistenten Masterdaten und einem mediensowie systemübergreifenden Datenfluss sowie der • Entwicklung neuer Geschäftsmodelle auf Basis der optimierten Be‐ triebsabläufe und der kundenorientierten Ansprache. In den folgenden Abschnitten werden diese Imperative näher beleuchtet und ihre Relevanz für Unternehmen wird erläutert. 11.3 Imperative der Digitalisierung 215 <?page no="216"?> - Confidential - Abbildung 18: Basis für Geschäftsmodell-Innovationen: Prozess-, System- und Kundenverbesserungen. Prozess- und Systemverbesserungen Kundenorientierung Maßnahmen zur Verbesserung der Kundenansprache Maßnahmen zur Optimierung der Prozess- und Systemlandschaft Maßnahmen zur Geschäftsmodel- Pflege (Bestand) neue und kundenfokussierte Geschäftsmodelle auf Basis hocheffizienter Prozesse, Abläufe und Systeme Maßnahmen zur Optimierung der Prozess- und Systemlandschaft Maßnahmen zur Verbesserung der Kundenansprache Maßnahmen zur Geschäftsmodelpflege Abbildung 18: Basis für Geschäftsmodell-Innovationen: Prozess-, System- und Kundenver‐ besserungen. - Optimieren der Betriebsabläufe - Voraussetzung für die digitale Transformation? Die Optimierung der internen Prozesse und Abläufe auf Basis einer opti‐ mierten Systemlandschaft ist ein wesentlicher Schritt für jedes Unterneh‐ men auf dem Weg zur digitalen Transformation. Stringente, durchgängige Prozesse sind die Grundlage für alle weiteren Maßnahmen und ein uner‐ lässlicher Erfolgsfaktor. Unser erster Imperativ der Digitalisierung ist daher die Optimierung der Unternehmensabläufe und birgt zahlreiche Herausfor‐ derungen. Ein Hauptproblem besteht in der Vielzahl von Altsystemen, die oft über viele Jahre gewachsen sind und sich nur schwer integrieren lassen. Systeme, die durch Fusionen und Übernahmen erworben wurden, sind oft redundant und funktional identisch, aber mit disparaten, nicht integrierten und häufig auch nicht integrierbaren Stammdaten. Die Integration von Cloud- und Mobiltechnologien sowie die Schaffung kontaktkanalübergreifender Daten‐ quellen stellen weitere Herausforderungen dar. Nichtsdestotrotz bietet die Optimierung zahlreiche Möglichkeiten zur Verbesserung der Effizienz, Ressourceneinsparungen und Fehlervermei‐ dung. Eine bessere Integration der Systeme kann auch die Qualität der Daten 216 11 Wo sich Daten, Tradition und Agilität verbünden <?page no="217"?> verbessern, was zu einer besseren Entscheidungsunterstützung führt. Es gibt jedoch auch Risiken, wie die mögliche Überlastung der IT-Organisation und die Notwendigkeit, Schulungs- und Change-Management-Prozesse zu implementieren, um sicherzustellen, dass alle Mitarbeiter die neuen Prozesse verstehen und nutzen können. - Kundeninteraktionen in der digitalen Welt - Herausforderung, Segen oder beides? Die Optimierung des Kundenzugangs und der Kundeninteraktionen ist der zweite Imperativ der Digitalisierung. Hierbei sehen sich Unternehmen sowohl mit Herausforderungen als auch Chancen konfrontiert. Einerseits müssen sie sicherstellen, dass sie eine umfassende und konsistente Sicht auf ihre Kunden haben, um personalisierte und relevante Interaktionen zu ermöglichen. Andererseits müssen sie Interaktionen über verschiedene Kanäle und Kontaktpunkte orchestrieren, um sicherzustellen, dass sich der Kunde jederzeit an der richtigen Stelle im Prozess befindet und die Interaktionen nahtlos verlaufen. Die Digitalisierung des Kundenzugangs und der Kundeninteraktionen ermöglicht es Unternehmen, Daten zu sammeln und zu analysieren, um bessere Erkenntnisse über das Verhalten und die Bedürfnisse ihrer Kunden zu gewinnen. Durch den Einsatz von Technologien wie maschinellem Lernen und künstlicher Intelligenz können zudem neue Möglichkeiten für personalisierte Interaktionen geschaffen werden. Jedoch birgt die Nutzung von Kundendaten auch Risiken im Hinblick auf Datenschutz und Datensi‐ cherheit, welche Unternehmen sorgfältig abwägen müssen. - Business-Transformation: Neues Geschäft oder nur teurer Spaß? Der dritte Imperativ im Rahmen der digitalen Transformation von Unter‐ nehmen besteht darin, auf der Grundlage optimierter Unternehmenspro‐ zesse und kundenorientierter Ansätze neue Geschäftsmodelle zu entwickeln und bestehende zu transformieren. Digitale Technologien sind hierbei von zentraler Bedeutung, um sich an die veränderten Bedürfnisse der Kunden anzupassen und neue Produkte und Dienstleistungen zu entwickeln. Neue Markteintritte, veränderte Wettbewerbslandschaften und der schnelle tech‐ nologische Wandel können hierbei jedoch zu einer Herausforderung wer‐ den. Gleichzeitig bieten sich jedoch auch Chancen, Wachstum zu generieren 11.3 Imperative der Digitalisierung 217 <?page no="218"?> und sich Wettbewerbsvorteile zu verschaffen, indem neue, datengetriebene Geschäftsmodelle entwickelt werden. Allerdings erfordern die Transformation und Entwicklung neuer Ge‐ schäftsmodelle oft erhebliche Investitionen, die in der Regel aus dem bestehenden Geschäft generiert werden müssen. Daher ist es wichtig, ein besonnenes Vorgehen zu wählen, um die Mitarbeiter des alten Geschäftsmo‐ dells nicht zu überfordern oder zu demotivieren. Unternehmen sollten daher sorgfältig abwägen, wie viel sie in die digitale Transformation investieren können, wie schnell sie ihre neuen Geschäftsbereiche aufbauen wollen und wie sie erfahrene Mitarbeiter motivieren und bei der Stange halten können, um den Betrieb des Bestandsgeschäftes zu gewährleisten und gleichzeitig ein neues Geschäftsmodell aufzubauen. Eine kluge Finanzierungsstrategie und eine umsichtige Führung sind somit entscheidend für den Erfolg der Transformation. 11.4 Eine digitale Innovationsfabrik Die digitale Transformation ist einer der Kernaspekte aktuellen unterneh‐ merischen Handelns. Es geht darum, bestehende Geschäftsmodelle an die Anforderungen einer sich schnell verändernden digitalen Welt anzupas‐ sen. Dies beinhaltet die Optimierung von Prozessen, Infrastrukturen und Personalressourcen, um den Herausforderungen der ständig steigenden Kundenerwartungen und technologischen Innovationen gerecht zu wer‐ den. Eine erfolgreiche digitale Transformation erfordert eine klare Vision, starke Führung und die Bereitschaft, sich auf Veränderungen einzulassen. Unternehmen, die diesen Weg gehen, werden in der Lage sein, ihre Wett‐ bewerbsfähigkeit zu erhöhen und ihre Zukunftserfolge zu sichern. Es ist offenkundig, dass dies auch eine Neuausrichtung der IT-Architektur und -Betriebskonzepte erfordert. - Bimodale Architektur: das Beste aus zwei Welten? Wenn Unternehmen umfangreiche Legacy-Systeme betreiben oder aus an‐ deren Gründen eine Big-bang-Transformation hin zu einer exponentiellen Architektur nicht in Betracht ziehen, kann die Implementierung einer „digitalen Innovationsfabrik“ auf Basis eines bimodalen Architekturkon‐ zepts ein sinnvolles Zielbild darstellen. Dabei teilen Unternehmen ihre IT- 218 11 Wo sich Daten, Tradition und Agilität verbünden <?page no="219"?> Systeme in zwei parallele Modi auf, um schnell und flexibel auf sich schnell ändernde Geschäftsanforderungen reagieren zu können. Dieses bimodale Architektur-Konzept wurde erstmals von McKinsey vorgestellt und von Gartner Research weiterentwickelt (Gartner Research (2014). Bimodal IT: How to Be Digitally Agile Without Making a Mess. McKinsey (2014). A twospeed IT architecture for the digital enterprise.). In einer bimodalen Architektur hat jeder Mode seinen eigenen Schwer‐ punkt und setzt unterschiedliche Prioritäten in Bezug auf Geschwindigkeit, Flexibilität und Stabilität. Eine traditionelle Großbank kann sich das Konzept der bimodalen Architektur zunutze machen, indem sie ihre Geschäftsanfor‐ derungen auf die beiden parallelen Modi aufteilt. - Confidential - Abbildung 19: Schwerpunkte in einer bimodalen Architektur Systems of Innovation Systems of Differentiation Systems of Record Mode 1 Mode 2 Systems of Innovation sind auf schnelle und flexible Entwicklung ausgelegt und zielen auf schnelle Einführung von neuen Ideen und Technologien ab. Systems of Record sind notwendig für die Aufrechterhaltung von Kernfunktionalitäten und die Gewährleistung von Stabilität und Kontinuität. Systems of Differentiation sind auf die Unterstützung von differenzierenden Geschäftsanforderungen ausgelegt. Abbildung 19: Schwerpunkte in einer bimodalen Architektur, nach Mendix (Hadley, Ed. What does bimodal IT mean? ) Im Folgenden werden die wesentlichen Gestaltungsprinzipien an typischen Herausforderungen der IT bei Finanzdienstleistern beschrieben. Mode 1, die Mainframe-basierte Kernbanklösung, ist die Grundlage, auf der viele Großbanken ihr Geschäft aufgebaut haben. Diese Lösungen sind über Jahrzehnte organisch gewachsen, haben durch Fusionen und Übernahmen teilweise Redundanzen und Inkonsistenzen erworben und wurden nicht zuletzt durch regulatorische Rahmenbedingungen wie lange gesetzliche Aufbewahrungsfristen in ihrer Entwicklung und Innovation massiv ein‐ geschränkt. Und schlussendlich ist die Komplexität einer vollständigen 11.4 Eine digitale Innovationsfabrik 219 <?page no="220"?> Kernbankenmigration eine Herausforderung, der sich viele Banken nur ungern stellen. Mode 2 in unserem bimodalen Architektur-Konzept steht für die digitale Innovationsfabrik und kombiniert die Vorteile einer schnellen und flexiblen Entwicklung mit einer stabilen und sicheren IT-Infrastruktur. Mit einer integrierten Plattform für Mode 2 können Unternehmen eine Vielzahl neuer digitaler Technologien und Geschäftsanwendungen schneller entwickeln und einführen. Die Plattform unterstützt dabei die Integration von Daten und Prozessen, um die Integrität und Überwachbarkeit von Geschäftsabläu‐ fen zu gewährleisten. In diesem Kontext werden wir uns später noch öfter auf die Großbank beziehen. - Bimodale Architekturen - Königsweg oder nur ein weiteres Buzzword? In unserem Beispiel ist Mode 2 als eine cloudbasierte zweiseitige Plattform konzipiert, die den Anforderungen unserer Großbank an eine flexible und schnelle Entwicklung von Anwendungen gerecht wird. Die zweiseitige Plattform ist eine Weiterentwicklung des traditionellen Geschäftsmodells eines Marktplatzes und bietet eine breite Palette von Anwendungen und Komponenten sowohl für Nutzer als auch für Anbieter. Im Kontext unse‐ rer Großbank ermöglicht die Plattform ein kuratiertes und orchestriertes Anwendungsportfolio sowie die Integration innovativer Komponenten und Finanzprodukte. Abbildung 20: Bimodale Erweiterung einer klassischen Kernbankenlösung am Beispiel einer Blockchain basierten Innovationsfabrik Kernbankensystem - „on-premise" Kontaktkanäle Bankdienstleistungen Multi-Channel Architecture datenbasierte Geschäftsregeln, Arbeitsabläufe und Entscheidungslogiken Infrastructure, Security and Governance Verarbeiten und Speichern vorwiegend interner Datenquellen Erweiterung mit einer Innovations-Werkbank, Nutzung von APIs zur flexiblen Integration von Partner-Komponenten Bank, Partner & Community Angebote Entkopplung Application Layer API Blockchain Integration Layer 3 rd Party Plattform-Erweiterungen und tokenisierte Finanzprodukte Enterprisegrade SmartWallet Mutlple-Token Standards (CBDC, ERC20) Integration in Digital Asset Klassen Konforme Kapitalzuführung kosteneffiziente, skalierbare Plattform as a Service mit den Säulen Abbildung 20: Bimodale Erweiterung einer klassischen Kernbankenlösung am Beispiel einer Blockchain basierten Innovationsfabrik 220 11 Wo sich Daten, Tradition und Agilität verbünden <?page no="221"?> Eine derartiges Architektur-Konzept bietet zahlreiche Vorteile für unsere Großbank, insbesondere für die Zusammenarbeit der Fachbereiche mit der IT-Abteilung. Schnelle und flexible Reaktionen auf sich rasch ändernde Geschäftsanforderungen können durch schlüsselfertige, containerisierte Lösungen bei gleichzeitig begrenzten Vorlaufkosten deutlich verkürzt wer‐ den. Die Plattform kann der Bank auch dabei helfen, das Risiko ihrer Technologieinvestitionen in neue, digitale Technologien zu verringern und sich stärker auf ihr Kerngeschäft zu fokussieren. Durch die Nutzung der Plattform kann das Risiko der Obsoleszenz minimiert werden, und es kann verhindert werden, dass auf die falschen Technologien gesetzt wird. Schließlich wächst die Plattform mit zunehmendem Reifegrad der digitalen Fähigkeiten des Unternehmens und kann somit die jeweilige Lücke bei den jeweils erforderlichen technischen und fachlichen Fähigkeiten schließen, wie es beispielsweise bei Blockchain-Technologien und digitalen Anlagek‐ lassen in unserem Bankbeispiel der Fall ist. Die Herausforderungen für Großbanken bei der digitalen Transformation sollten nicht als mangelnde Fähigkeiten interpretiert werden. Sie sind vielmehr ein Indikator für die Komplexität des Geschäftsumfelds im Umgang mit sich ständig entwickelnden Anforderungen an eine regulatorisch stark kontrollierte und deswegen teilweise sehr starre Systemumgebung. Eine bimodale Architektur, einschließlich einer zweiseitigen Plattform, ist daher ein entscheidender Schritt für Großbanken auf dem Weg zur erfolgreichen digitalen Transformation. 11.5 Auswirkungen auf die Organisation Im kommenden Abschnitt betrachten wir die Auswirkungen der Einfüh‐ rung einer zweiseitigen Plattform auf die Organisation unserer Großbank innerhalb einer bimodalen IT-Architektur. Wir untersuchen, wie IT- und Fachbereiche enger zusammenarbeiten müssen, um die Vorteile dieser Architektur zu nutzen. Dabei werfen wir einen Blick auf die Veränderungen, die die Bank benötigt, um ihre Position im Ökosystem zu stärken und welche Rollen und Aufgaben bei ihr verbleiben können. Für die IT-Organisation bedeutet die Einführung einer bimodalen Ar‐ chitektur eine grundlegende Veränderung. Die IT muss sich von einer reinen Support- und Servicefunktion hin zu einer aktiven Rolle bei der Gestaltung der digitalen Transformation entwickeln. Darüber hinaus muss 11.5 Auswirkungen auf die Organisation 221 <?page no="222"?> sie in der Lage sein, das bestehende Kernbankensystem stabil zu betreiben und gleichzeitig die digitale Innovationsfabrik aufzubauen und zu führen. - Wie sieht das neue Selbstverständnis der IT aus? Es ist wichtig, die Erwartungen von IT und Geschäftsbereichen an die Einführung eines bimodalen Architekturkonzeptes zu verstehen. Hierbei spielen Aspekte wie Agilität, Flexibilität und die Fähigkeit, schnell auf sich ändernde Anforderungen reagieren zu können, eine wesentliche Rolle. Al‐ lerdings ist Agilität allein kein Allheilmittel, um die aus einer traditionellen Architektur entstandenen starren Organisationsformen aufzubrechen. Es handelt sich vielmehr um eine komplexe Aufgabe, die eine enge Zusammen‐ arbeit zwischen der IT und den Geschäftsbereichen erfordert. Die Transformation führt zu einer neuen Organisation, die flacher, agiler und flexibler ist und schnell auf aktuelle Bedürfnisse und Veränderungen reagieren kann. Dies erfordert Veränderungen in Bereichen wie Organisa‐ tion und Governance, agile Methoden und DevOps, Sourcing, Technologie, Mitarbeiter und Talente. Um erfolgreich zu sein, ist es wichtig, ein Verständ‐ nis für die Erwartungen an das neue IT-Betriebskonzept zu entwickeln und den Umfang der Transformation zu erkennen. Ein neues IT-Betriebskonzept sollte folgende strukturelle Merkmale be‐ inhalten, um die Geschäftsstrategie zu maximieren und den Mehrwert von IT innerhalb der Geschäftswertströme zu erhöhen: 222 11 Wo sich Daten, Tradition und Agilität verbünden <?page no="223"?> Reifestufe Merkmale 1 - traditionell • IT arbeitet isoliert von den Geschäftsbereichen • Starre Arbeitsweisen • Keine oder nur geringe Anwendung agiler Methoden und DevOps, meist aus Eigeninitiative der Mitarbeiter • Fokus auf Technologie statt auf Mitarbeiter • Klassische Sourcing-Modelle • Technologie-Modus im Vordergrund 2 - transformierend • Partnerschaftliche Zusammenarbeit zwischen IT und Geschäftsbereichen • Erste Einführung agiler Methoden und DevOps • Beginnender Fokus auf Mitarbeiter, Talente und Perso‐ nalentwicklung • Erste Nutzung strategischer Sourcing-Modelle • Technologie-Modus im Fokus, aber auch erster Einsatz des Innovations-Modus 3 - agil • Enge und partnerschaftliche Zusammenarbeit zwischen IT und Geschäftsbereichen • Integrierte Denk- und Arbeitsweisen zwischen IT und Geschäftsbereichen • Agiler Methodeneinsatz und DevOps sind Standard • Starker Fokus auf Mitarbeiter, Talente und Personal- Entwicklung • Ausbau neuer Sourcing-Modelle und Kooperation mit Partnern/ Communities • Technologie-Modus und Innovations-Modus werden ge‐ zielt eingesetzt 4 - innovativ • Volle Integration von IT und Geschäftsbereichen • Starke Fokussierung auf Mitarbeiter, Talente und Perso‐ nal-Entwicklung als Schlüssel zum Erfolg • Koordinator eines kuratierten Innovationsportfolios mit Partnern/ Communities • Gleichberechtigte Nutzung von Technologie-Modus und Innovations-Modus • Fortschrittliche und innovative Technologien und Ge‐ schäftsmodelle werden aktiv entwickelt Tabelle 1: Merkmale eines neuen Selbstverständnisses der (IT-)Organisation Eine enge und partnerschaftliche Zusammenarbeit zwischen IT und Ge‐ schäftsbereichen ist Grundlage für das neue Selbstverständnis der IT-Organi‐ sation. In dieser Beziehung muss sich die IT-Organisation als aktiver Partner im Unternehmen positionieren, welcher die Bedürfnisse der Geschäftsberei‐ che versteht und sie bei der Umsetzung ihrer digitalen Initiativen unterstützt. Diese Form der Zusammenarbeit erfordert ein tiefes Verständnis der Ge‐ 11.5 Auswirkungen auf die Organisation 223 <?page no="224"?> schäftsanforderungen und der Fähigkeit, das richtige IT-Angebot bereitzustel‐ len, um die Geschäftsziele zu unterstützen. Nur durch diese Zusammenarbeit kann die IT-Organisation ihre Rolle als Enabler und Business-Partner für die digitale Transformation des Unternehmens wahrnehmen. Bei der Veränderung der etablierten Denk- und Arbeitsweisen geht es darum, von einer traditionellen, hierarchischen Denkweise weg zu einer agilen, flexiblen Herangehensweise zu wechseln, die sich auf die Bedürfnisse des Geschäfts ausrichtet und schnell auf sich ändernde Anforderungen reagieren kann. Dies erfordert eine Offenheit für neue Ideen und eine Bereitschaft, bestehende Prozesse und Arbeitsweisen zu hinterfragen und zu verändern. Die kontinuierliche Schulung und Weiterentwicklung der Mit‐ arbeiter spielen dabei eine wichtige Rolle, um die notwendigen Fähigkeiten und Kompetenzen zu fördern. Die Einführung agiler Methoden und DevOps ist ein weiterer wichtiger Aspekt. Agile Methoden bieten einen Rahmen für schnelle und flexible Reaktionen auf sich verändernde Anforderungen und DevOps ermöglicht eine engere Zusammenarbeit von Entwicklung und Betrieb, was zu verkürz‐ ten Markteinführungszyklen führt. Diese Ansätze erfordern eine Kultur des ständigen Lernens und Anpassens sowie die Bereitschaft, traditionelle Prozesse und Strukturen zu hinterfragen und zu ändern. In Kombination ermöglichen sie eine schnellere und effizientere Umsetzung von Geschäfts‐ ideen und die Erschließung neuer Geschäftsmöglichkeiten. - Und die Mitarbeitenden? Der Übergang von traditioneller zu bimodaler Architektur bedingt auch eine Verschiebung des Managementfokus in Bezug auf den Ausbau und die Pflege von Fähigkeiten und Kompetenzen der Mitarbeiter in IT und Geschäftsbereichen. Es ist wichtig zu beachten, dass neben dem Fokus auf Innovation auch motivierte und verantwortungsbewusste Mitarbeiter benötigt werden, die das Bestandsgeschäft auf der klassischen Kernban‐ kenlösung sicher und zuverlässig betreiben können und wollen. Es ist eine besondere Herausforderung alle Mitarbeiter, einschließlich jener mit einem eher traditionelleren Hintergrund, zu motivieren und zu fördern. Eine entsprechende Personalentwicklungsstrategie ist eine entscheidende Komponente bei der Entwicklung der Organisation zu einer agilen und leistungsstarken Einheit. 224 11 Wo sich Daten, Tradition und Agilität verbünden <?page no="225"?> Die Einführung neuer Sourcing-Modelle, die eine enge Zusammenarbeit mit Partnern und Entwickler-Communities ermöglichen, ist ein weiterer wichtiger Aspekt bei der Gestaltung der Transformation. Hier gilt es, eine neue Rolle der Bank gegenüber ihren Partnern und gegenüber Dritten sorgfältig zu definieren, um eine effektive und effiziente Zusammenarbeit zu ermöglichen. Es ist von entscheidender Bedeutung, dass das Innovations‐ portfolio auf der agilen Seite, d. h. die Anwendungen und Werteversprechen, die entweder in Eigenregie, von Partnern oder von sonstigen Dritten auf einer offenen Plattform bereitgestellt werden, kuratiert und orchestriert werden, um eine maximale Wirkung zu erzielen und sicherzustellen, dass die Bank ihrer Rolle als aktiver Partner bei der Gestaltung der digitalen Transformation gerecht wird. Es ist wichtig, dass dieser Ansatz strikt auf die Unternehmensstrategie abgestimmt ist, um die Geschäftsziele zu unterstützen und einen Mehrwert zu schaffen. Die Technologie, Pflege und Co-Existenz beider Modi (traditionell und agil) spielt eine entscheidende Rolle bei der Gestaltung des neuen Selbstvers‐ tändnisses der IT-Organisation. Die Systeme beider Modi müssen effizient und sicher betrieben werden, und gleichzeitig müssen Investitionen in den Erhalt bestehender und die Entwicklung neuer Technologien und Fähigkeiten synchronisiert werden. Hierbei müssen sowohl die technischen Betriebsaspekte als auch Integrations- und Sicherheitsanforderungen be‐ rücksichtigt werden. Dies setzt eine umfassende Technologie-Strategie voraus, die die Bedürfnisse beider Modi berücksichtigt und die Integration neuer Technologien in das traditionelle Umgebung sicherstellt. Eine kon‐ tinuierliche Überwachung und Anpassung der Technologie-Infrastruktur ist entscheidend, für die reibungslose Integration, den sicheren Betrieb und die Co-Existenz beider Modi. Darüber hinaus müssen grundlegende Stammdaten zwischen den lose gekoppelten Bereichen ausgetauscht wer‐ den, um Redundanzen und Inkonsistenzen zu vermeiden. Eine erfolgreiche Umsetzung dieser Aspekte ermöglicht es, eine flexible und agile Organisa‐ tion zu schaffen, die in der Lage ist, schnell auf Veränderungen und neue Anforderungen zu reagieren. 11.6 Zusammenfassung und Ausblick Abschließend lässt sich festhalten, dass die Einführung einer bimodalen IT-Architektur mit einer zweiseitigen Plattform für Unternehmen von 11.6 Zusammenfassung und Ausblick 225 <?page no="226"?> großer Bedeutung sein kann, um sich schneller und flexibler auf sich stetig ändernde Geschäftsanforderungen einzustellen. Dies erfordert jedoch eine grundlegende Transformation der IT-Organisation, die eine aktive Rolle bei der Gestaltung der digitalen Transformation übernehmen muss. Eine enge Zusammenarbeit zwischen IT und Geschäftsbereichen sowie agile Methoden und DevOps sind dabei unverzichtbar für den Erfolg. Eine Personalentwicklungsstrategie, die zukunftsnotwendige Fähigkeiten und Kompetenzen bei allen Mitarbeitern fördert, unterstützt die Transformation zusätzlich. Wartung und Koexistenz beider Ansätze sind ebenfalls wichtige Faktoren, um erfolgreich zu sein. Um dies zu erreichen, bedarf es eines tiefen Verständnisses für die Bedürfnisse der Geschäftsbereiche und einer Technologiestrategie, die den Anforderungen beider Modi gerecht wird. 11.7 Literatur Bossert, O., Ip, C. und Laartz, J. (2014). A two-speed IT architecture for the digital enterprise. McKinsey. Retrieved March 13, 2023, from https: / / www.mc kinsey.com/ capabilities/ mckinsey-digital/ our-insights/ a-two-speed-it-architectu re-for-the-digital-enterprise Kurzweil, R. (2005). The Singularity is near: When Humans Transcend Biology. New York: Viking. ISBN: 978-0-670-03384-3 Hadley, E. (n.d.). What does bimodal IT mean? Mendix. Retrieved March 13, 2023, from https: / / www.mendix.com/ what-does-bimodal-it-mean/ Mesaglio, M. undMingay, S. (2014). Bimodal IT: How to Be Digitally Agile Without Making a Mess. Gartner Research. Retrieved March 13, 2023, from https: / / www. gartner.com/ en/ documents/ 2798217 226 11 Wo sich Daten, Tradition und Agilität verbünden <?page no="227"?> Case Studies - Mittelstand, Energie, Private Equity und Logistik <?page no="229"?> 12 Business Analytics im Mittelstand - Herausforderungen und Chancen durch die vermehrte Nutzung von Daten in kleinen und mittleren Unternehmen | von Torben Hügens Unternehmen aller Größen stellen fest, dass viele Daten intern vorhanden sind, diese aber nicht genügend oder unzureichend genutzt sowie verarbeitet werden. Jedoch sind, gerade um schnelle und wichtige Entscheidungen auf Basis von datengestützten Analysen treffen zu können, adäquate und korrekte Daten absolut notwendig. Daher ist es besonders mit Blick auf den Mittelstand geradezu existenziell, um im harten internationalen Wett‐ bewerb, aber auch im europäischen Binnenmarkt bestehen zu können, dass dem Einsatz von Business Analytics eine besondere Bedeutung zugedacht wird. Auch oder gerade, weil die Digitalisierung hier, wenn auch gefühlt noch viel zu langsam, voranschreitet. Nachfolgend wird einleitend kurz auf die zentralen Begriffe zu diesem Thema eingegangen, bevor die Bedeutung und Chancen von Business Ana‐ lytics sowie der Einsatz von Daten für die Transformation von Unternehmen näher beleuchtet werden. 12.1 Aktueller Stand des Einsatzes von Business Analytics im Mittelstand In Deutschland bezieht sich der Begriff Mittelstand auf kleine und mit‐ telständische Unternehmen (KMU), die auch gerne als Rückgrat der deut‐ schen Wirtschaft bezeichnet werden. Der Mittelstand wird in der Regel als Wirtschaftssektor definiert, der sich aus Unternehmen mit weniger als 500 Mitarbeitern und einem Jahresumsatz von weniger als 50 Mio. Euro zusammensetzt (vgl. Klodt, 2018). Nachfolgend wird der Begriff etwas weiter gefasst, da sich auch Unternehmen bis 250 Mio. Euro Jahresumsatz häufig noch als Mittelstand sehen. Teilweise bleibt dieses Selbstverständnis auch noch bei den sog. Hidden Champions bestehen, die bis zu 1 Mrd. Euro oder mehr Jahresumsatz machen, aber aus mittelständischen Strukturen gewachsen sind. <?page no="230"?> Der Mittelstand in Deutschland ist geprägt durch seine strukturelle Vielfalt und seine hohe Innovationskraft - wenngleich gerade im Bereich der Digitalisierung in den letzten Jahren deutlicher Aufholbedarf sichtbar wird (vgl. Münter 2023 und EFI 2023). Er besteht aus vielen verschiedenen Branchen und Unternehmensgrößen, von Einzelunternehmern bis hin zu mittelständischen Konzernen. Zudem ist er auch bekannt für seine starke Verankerung in der Region und die enge Zusammenarbeit mit den lokalen Gemeinden, wie insbesondere im süddeutschen Raum mit Clustern von Ma‐ schinenbauunternehmen oder Automobilzulieferern. Ferner trägt er maß‐ geblich zum Wirtschaftswachstum und der Schaffung von Arbeitsplätzen bei und ist somit ein nicht unerheblicher Motor für die deutsche Gesamt‐ wirtschaft. Vermutlich resultiert genau aus dieser regionalen Verwurzelung die Anpassungsfähigkeit, die Flexibilität und die hohe Innovationskraft, die den deutschen Mittelstand national wie international so erfolgreich machen, so dass dieser maßgeblich zum Wirtschaftswachstum, der Schaffung von Arbeitsplätzen, dem sozialen Frieden und damit dem Wohlstand hierzulande beiträgt. - Was ist Business Analytics? Der Prozess der Analyse von Unternehmensdaten, um hieraus Informatio‐ nen zu gewinnen, wird als Business Analytics bezeichnet (vgl. Ereth, Kemper 2016, S. 458). Diese gewonnen Informationen können bei der Entscheidungsfindung und Prozessoptimierung helfen. Business Analytics umfasst hierbei die Verwendung von Methoden und Tools zur Sammlung, Analyse und Visualisierung von Daten aus verschiedenen Quellen, wie z. B. Kunden-, Finanz- und Produktionsdaten. Schlussendliches Ziel des Einsatzes von Business Analytics ist die Erhöhung der Wettbewerbsfähigkeit von Un‐ ternehmen und somit die Sicherstellung eines langfristigen wirtschaftlichen Erfolgs. Damit Business Analytics diese Aufgaben übernehmen kann, umfasst es verschiedene Methoden und Techniken, wie z. B. Data Mining, statistische Methoden, Machine Learning und Data Visualization. Die Auswahl, der jeweils für ein Unternehmen passenden Methoden und Techniken, hängt dabei von den spezifischen Bedürfnissen und Zielen des Unternehmens ab, welches Business Analytics einsetzt. Allgemeingültige Aussagen sind schwierig und führen meist nicht zu einem optimalen Einsatz von Business Analytics. 230 12 Business Analytics im Mittelstand - Herausforderungen und Chancen <?page no="231"?> Die Ergebnisse der angewendeten Methoden und Techniken auf Daten werden dann beispielsweise in Form von Berichten, Grafiken oder Dash‐ boards dargestellt, um sie für Entscheidungsträger in Unternehmen auf‐ zubereiten. Auf Basis dieser Erkenntnisse können Unternehmen die zuvor genannten Ziele erreichen, neue Märkte erschließen oder auch innovative Produkte entwickeln. - Warum gewinnt Business Analytics im Mittelstand an Bedeutung? Nachdem einleitend die Begriffe Mittelstand und Business Analytics präzi‐ siert wurden, soll nachfolgend darauf eingegangen werden, warum Business Analytics eine Bedeutung für den Mittelstand besitzt. Zunehmend erkennen mittelständische Unternehmen, dass sie von der Analyse von Daten profitieren können und setzen Business Analytics ein, um fundierte Entscheidungen zu treffen, da oft nicht genügend Ressourcen vorhanden sind, um z. B. umfangreiche Marktforschungen eigenständig durchzuführen. Durch die Nutzung von Business Analytics können trotz‐ dem wichtige Erkenntnisse über u. a. Kunden, Märkte und Geschäftspro‐ zesse gewonnen werden, auf Basis von Daten, die häufig in Unternehmen bereits vorliegen. Ein weiterer Faktor für den zunehmenden Einsatz von Business Analytics im Mittelstand ist die zunehmende Digitalisierung. Dadurch steigt die Bedeutung von Business Analytics, da durch die Digitalisierung immer mehr Daten generiert werden, die für Unternehmen jeglicher Größenordnung von hohem Nutzen sein können. Zudem werden im Rahmen der Geschäfts‐ prozesse immer mehr Informationen und damit Daten benötigt, um die richtigen Entscheidungen in Hinblick auf die Unternehmenszielerreichung treffen zu können. Business Analytics bietet die Möglichkeit, diese Daten zu sammeln, zu analysieren und zu nutzen, um Erkenntnisse zu gewinnen. Diese Feststellungen aus der Praxis konnten auch auf Basis einer empiri‐ schen Studie zu den Gründen für einen intensiveren Einsatz von Business Analytics im Mittelstand bestätigt werden (vgl. Alparslan, Hügens, 2023): Auf Basis der Rückmeldung der Praktiker aus den befragten Unternehmen des Mittelstands wird die Digitalisierung als Haupttreiber gesehen. Zudem wird angegeben, dass eine Veränderung im Kundenverhalten und erhöhte Preise weitere Treiber für den Einsatz von Business Analytics sind. Auch die Hersteller von Business-Analytics-Lösungen tragen zu einer weiteren Verbreitung bei. Eine zunehmende Verfügbarkeit von einfach 12.1 Aktueller Stand des Einsatzes von Business Analytics im Mittelstand 231 <?page no="232"?> bedienbaren Analyse-Tools durch die Bereitstellung in der Cloud ermöglicht im Mittelstand den Einsatz von Business Analytics in der Breite. Immer mehr Unternehmen können sich die Nutzung von Business Analytics leisten und profitieren von den Vorteilen, die die Analyse von Daten bietet. Das bisherige Paradigma, dass eine Investition in die Analyse von Unterneh‐ mensdaten teuer und komplex ist, verliert an Bedeutung, da zunehmend auch Return on Investment Betrachtungen möglich sind und somit Investi‐ tionen leichter begründet werden können. - Ziele von Business Analytics im Mittelstand Doch bevor Unternehmen in Business Analytics investieren, sollten sie sich zunächst Gedanken darüber machen, welche Ziele sie mit der Analyse von Unternehmensdaten erreichen wollen. Die Verbesserung der Geschäfts‐ prozesse steht neben der Reduzierung der Kosten, der Erhöhung der Kun‐ denbindung und der Verbesserung von Produkten und Services als Ziele im Vordergrund. Hinzu kommt die Optimierung des Finanzmanagements, welches stark an Bedeutung zugenommen hat. Neben den Zielen sollten Unternehmen insbesondere überlegen, welche Daten tatsächlich zur Erreichung der Ziele benötigt werden, da immer mit begrenzten Ressourcen, z. B. Personal, gearbeitet werden muss. Die Bereitstellung von ausreichenden Ressourcen, wie qualifiziertem Personal und finanziellen Mitteln, ist aber für den Erfolg von Business-Analytics- Initiativen entscheidend. Nach der Festlegung von Zielen und der Ermittlung der zur Verfügung stehenden Ressourcen und technischen Möglichkeiten, kann das passende Business-Analytics-Tool ausgewählt werden. Dieser Prozess der Tool-Aus‐ wahl wird von vielen Unternehmen als Hauptfaktor für den Erfolg einer Business Analytics Initiative angesehen. Auf Basis der Erfahrungen aus der Praxis ist ein Business-Analytics-Tool aber nur von untergeordneter Bedeutung. Wichtiger ist, dass das Thema Business Analytics und noch besser das Thema Daten ganzheitlich betrachtet wird. Im Rahmen der Er‐ stellung einer Business-Analytics-Strategie, die neben der Technologie auch auf die konkreten Unternehmensanforderungen, die Ressourcen und die Prozesse eingeht, kann das Thema Business Analytics umfassend betrachtet werden. Die Tool-Auswahl ist dann nur ein logischer, letzter Schritt, um die Vorarbeiten aus der Business-Analytics-Strategie IT-technisch umsetzen zu können. 232 12 Business Analytics im Mittelstand - Herausforderungen und Chancen <?page no="233"?> 12.2 Wie und wo wird Business Analytics im Mittelstand eingesetzt? Nachdem die Bedeutung von Business Analytics im Mittelstand aufgezeigt wurde, soll nachfolgend ein Überblick über mögliche Einsatzzwecke gege‐ ben werden, um eine Prüfung zu ermöglichen, ob Business Analytics für ein Unternehmen von Bedeutung ist und Wettbewerbsvorteile begründen kann. Ein Anspruch auf Vollständigkeit der Einsatzmöglichkeiten ist nicht gegeben, es sollen lediglich größere Themenblöcke und Ansatzpunkte für eine individuelle, intensivere Analyse genannt werden. Von großer Bedeutung für die Nutzung von Business Analytics im Mittelstand ist die Analyse von Kundendaten. Durch die Sammlung und Analyse von Informationen über Kundenverhalten, Kaufgewohnheiten und Präferenzen ihrer Kunden können Unternehmen ihre Marketingstrategien optimieren und ihre Kunden besser verstehen. Ebenfalls von großem Nutzen ist für mittelständische Unternehmen die Analyse von Finanzdaten. Durch die Analyse von Finanzkennzahlen wie Umsätzen, Margen und Kosten können Unternehmen ihre Finanzlage besser verstehen und effektivere Entscheidungen treffen. Ebenso hilft die beschleunigte Bereitstellung von Unternehmensergebnissen dabei auch in Zeiten von großer wirtschaftlicher Unsicherheit und vielen externen Einflussfaktoren den Unternehmenserfolg sicherzustellen und sich auch in Zukunft erfolgreich am Markt positionieren zu können. Die folgende Auflistung fasst einige weitere Beispiele für Einsatzmög‐ lichkeiten von Business Analytics im Mittelstand zusammen: • Marketing: Business Analytics kann im Marketing eingesetzt werden, um beispielsweise die Wirksamkeit von Marketingkampagnen zu mes‐ sen und zu optimieren. • Prozessoptimierung: Durch die Analyse von Prozessdaten können Unternehmen Schwachstellen in ihren Geschäftsprozessen identifizie‐ ren und entsprechende Maßnahmen ergreifen, um die Effizienz und Effektivität zu verbessern. • Verkaufsdaten: Die Analyse von Verkaufsdaten kann dabei helfen Absatzmärkte zu identifizieren und die Verkaufsstrategie dementspre‐ chend anzupassen. • Personalmanagement: Durch die Analyse von Leistungsdaten lassen sich beispielsweise Schulungsbedarfe erkennen und Führungskräfte 12.2 Wie und wo wird Business Analytics im Mittelstand eingesetzt? 233 <?page no="234"?> können besser unterstützt werden. Auch die Analyse von Mitarbeiter‐ befragungen kann dazu beitragen, die Zufriedenheit und Motivation der Belegschaft zu verbessern. Zu berücksichtigen bei der Analyse von Mitarbeiterdaten ist aber immer, dass diese Daten besonders sensibel zu handhaben sind und ggf. Betriebsräte bei der Definition der Anwen‐ dungsfälle der Nutzung von Mitarbeiterdaten zu hören sind. - Welche Herausforderungen gibt es beim Einsatz von Business Analytics? Sind die Einsatzzwecke für Business Analytics im Unternehmen identifiziert, so kann die Business-Analytics-Initiative gestartet werden. Zu beachten ist, dass neben den typischen Herausforderungen eines Projekts (Budget, Zeit und Qualität) auch weitere Herausforderungen auf Unternehmen bei der Einführung von Business Analytics hinzukommen können. Hierzu gehören sowohl techno‐ logische, finanzielle als auch organisatorische Herausforderungen. Eine der größten technologischen Herausforderungen beim Einsatz von Business Analytics im Mittelstand ist die Integration von Analyse-Tools in die bestehenden Unternehmenssysteme. Häufig sind in der Praxis noch veraltete Systeme im Einsatz, die wenig flexibel sind, wodurch die Integration neuer Analyse-Tools schwierig sein kann. Getrieben durch die ERP-Hersteller und den starken Druck in Richtung Cloud-Nutzung, ist aber ein zunehmender Modernisierungsprozess auch im Mittelstand zu sehen. Zudem kann es schwierig sein, die richtigen Analyse-Tools für das Unternehmen zu finden, da der Markt für Business-Analytics-Tools sehr groß und unübersichtlich ist. Unternehmen führen daher teilweise sehr umfangreiche Analysen und Ausschreibungen durch, um das optimale Tool zu finden. Da die Tools in Bezug auf die zur Verfügung stehenden Funktionalitäten in letzter Zeit sehr vergleichbar geworden sind, ist es aber zumeist vorteilhaft einen Hersteller auszuwählen, der sich nahtlos in die vorhandenen Systeme integrieren kann. Eine weitere Herausforderung ist oft die finanzielle Seite. Häufig fehlt im Mittelstand das nötige Budget, um in Analyse-Tools und Business-Analytics- Initiativen und in die Qualifikation der Mitarbeiter zu investieren. Diese Hürde sinkt durch den breiten Einsatz von Cloud-Lösungen aber deutlich. Organisatorische Herausforderungen treten auf, wenn ein Unternehmen nicht genügend Mitarbeiter hat, die sich um die Analyse von Daten küm‐ mern können. Zudem kann es schwierig sein, die Mitarbeiter für den Einsatz von Business Analytics zu begeistern, da die Nutzung oft als zusätzliche Arbeitslast betrachtet wird. 234 12 Business Analytics im Mittelstand - Herausforderungen und Chancen <?page no="235"?> Neben den zuvor genannten Herausforderungen konnten auf Basis, der zuvor bereits beschriebenen empirischen Studie im Mittelstand auch weitere Herausforderungen identifiziert werden (vgl. Alparslan, Hügens, 2023): Hierbei sticht hervor, dass bestätigt wird, das es vorwiegend an qualifizierten Mitarbeitern fehlt und geeignete Mitarbeiter nicht über das richtige Knowhow verfügen. Zudem werden die Kosten als weiterhin hoch eingeschätzt. Von ebenfalls hoher Bedeutung ist, dass eine mangelnde Datenqualität als kritisch angesehen wird. Gerade eine fehlende Qualität in den zur Verfügung stehenden Daten wird, auf Basis von Erfahrungen aus der Praxis, immer mehr zu einem Hemmschuh für den breiteren Einsatz von Business Analytics im Mittelstand. Es fehlt nicht an der Menge der zur Verfügung stehenden Daten, aber die Qualität in den Quellsystemen ist teilweise nicht gegeben. Um die Datenqualität zu verbessern ist es häufig notwendig Anpassungen in diesen Quellsystemen vorzunehmen oder die Prozesse zur Anlage von Daten zu verbessern, um langfristige Abhilfe schaffen zu können. Macht man dies nicht, steigt der Aufwand für jegliche Business-Analytics-Initiativen massiv an. Auf Basis der Erfahrungen aus der Praxis fallen schon jetzt typischerweise 80 % des Aufwands (Zeit, Kosten, Ressourceneinsatz) in Business-Analytics- Projekten bei der Bereitstellung und Aufbereitung der notwendigen Daten an. Nur ca. 20 % des Aufwands fallen für die Visualisierung der Daten an. Diese Verteilung bei den Aufwänden führt bei Business-Analytics-Projekten immer wieder zum Rechtfertigungsdruck, warum ein Projekt lange Zeit „nichts zeigen“ kann. Erst zum Ende eines Projekts können die entspre‐ chend aufbereiteten Daten dargestellt werden, wobei zumeist die Aussage getroffen wird, dass das doch nicht so aufwändig sein kann. Es zeigt sich aber immer wieder, dass oft immense Aufwände zur Harmonisierung von Daten notwendig sind. Demzufolge sollten sie in Ihren Business-Analytics- Initiativen ein Augenmerk auf die Datenqualität legen. - Welche Chancen ergeben sich durch die Nutzung von Daten im Mittelstand? Die Herausforderungen des Einsatzes von Business Analytics wirken für viele Unternehmen eher abschreckend, aber durch die verstärkte Nutzung von Daten bieten sich viele zusätzliche Chancen, die Unternehmen heben sollten: • Geschäftsleistung verbessern: Durch die Analyse von Daten können Unternehmen Schwachstellen in ihren Prozessen identifizieren und 12.2 Wie und wo wird Business Analytics im Mittelstand eingesetzt? 235 <?page no="236"?> optimieren. Sie können auch neue Geschäftsmöglichkeiten erschließen, indem sie Märkte und Kundenbedürfnisse besser verstehen. • Zeit und Ressourcen sparen: Statt manuell Daten zu sammeln und auszuwerten, können mittelständische Unternehmen mit Business-Ana‐ lytics-Tools automatisiert Reports erstellen und auf einen Blick wichtige Kennzahlen (z. B. EBIT, Umsatz, Krankheitsquote) abrufen. Das spart Zeit und ermöglicht es, sich auf andere Aufgaben zu konzentrieren. • Entscheidungen treffen: Business Analytics liefert Entscheidungsträ‐ gern wichtige Informationen, die sie für ihre Entscheidungen benötigen. Werden die zuvor genannten Chancen aktiv ergriffen, so begibt sich ein Unternehmen auf den Weg zu einem datengetriebenen Unternehmen, wel‐ ches nachfolgend kurz beschrieben wird. 12.3 Wie unterscheiden sich Data-Savvyvs. Data-Driven-Unternehmen? Die Evolution zu datengetriebenen Unternehmen ist in vielen Branchen in vollem Gang und nutzt die zuvor beschriebenen Möglichkeiten von Business Analytics, um Unternehmen zu transformieren. Hierbei sind je nach Entwicklungsgrad verschiedenen Stufen eines datengetriebenen Un‐ ternehmens zu unterscheiden. Die → Abbildung 21 bietet eine Möglichkeit zur Einordnung von Unternehmen je nach Nutzungsgrad von Daten: Abb. 21: Evolution von datengetriebenen Unternehmen (vgl. Penn, 2023) Dataresistant Dataaware Dataguided Datasavvy Datadriven Unternehmen wehrt sich aktiv gegen Daten Daten werden Schritt für Schritt produktiv genutzt Unternehmen ist neugierig auf Daten Daten werden in den meisten Prozessschritten genutzt Unternehmen agiert datengetrieben Data Stage Analysis Stage Insight Stage Strategic Stage Abbildung 21: Evolution von datengetriebenen Unternehmen 236 12 Business Analytics im Mittelstand - Herausforderungen und Chancen <?page no="237"?> Data-Aware sind Unternehmen, die sich der Bedeutung von Daten im Unternehmen bewusst sind und die Möglichkeiten der Datenanalyse erken‐ nen. Sie verstehen, dass die Analyse von Daten wichtig ist, um fundierte Entscheidungen zu treffen und die Geschäftsprozesse zu optimieren. Data- Aware-Unternehmen setzen auf Business-Analytics-Tools und -Methoden. Demgegenüber stehen auf einer höheren Evolutionsstufe Data- Savvy-Unternehmen, die die Datenanalyse nicht nur als wichtigen Be‐ standteil ihrer Geschäftstätigkeit betrachten, sondern sie aktiv nutzen, um ihre Wettbewerbsfähigkeit zu erhöhen. Sie verstehen die Bedeutung von Daten für ihr Unternehmen und setzen sie systematisch ein, um fundierte Entscheidungen zu treffen und die Geschäftsprozesse zu optimieren. Data- Savvy-Unternehmen sind in der Regel führend in ihrer Branche und nutzen die Datenanalyse als Wettbewerbsvorteil. Der Schritt vom Data-Awarezum Data-Savvy-Unternehmen lässt sich durch inkrementelle Weiterentwicklungen des Unternehmens und der Nut‐ zung von Daten im Unternehmen erreichen. Der Sprung vom Data-Savvy- Unternehmen zum Data-Driven-Unternehmen (Data-Driven-Business) ist aber nicht ohne weiteres möglich, da sich das Geschäftsmodell des Unternehmens grundlegend ändert (→-Abbildung 22). DATA-DRIVEN Strategic Stage DATA-SAVVY Insight Stage Abb. 22: Daten nutzen oder Daten als Geschäftsmodell  herkömmliches Geschäftsmodell mit Waren/ Dienstleistungen mit Fokus auf Datenanalyse  Kundendaten werden intensiv analysiert, um Erkenntnisse zu erlangen, die wiederum zu einem effizienteren und kundenzentrierten Marketing führen  interne Daten werden untersucht, um Kernprozesse anzupassen und so eine effizientere Produktion zu erlangen [z. B. BMW, REWE]  basiert auf der Monetarisierung von Informationen  Einnahmequelle ist die Plattform, auf der der Informationsaustausch zwischen Anbietern und Kunden gegen eine Gebühr stattfindet  Unternehmen agiert als intermediärer Vermittler  Fokus auf End-to-End- Kundenprozess, d.h. Kunde wird über den gesamten Geschäftsprozess begleitet und analysiert [z. B. Uber, Airbnb] vs. Abbildung 22: Daten nutzen oder Daten als Geschäftsmodell 12.3 Wie unterscheiden sich Data-Savvyvs. Data-Driven-Unternehmen? 237 <?page no="238"?> Ist ein Data-Driven-Business erstrebenswert? Derzeit stellen sich viele mittelständische Unternehmen die Frage, ob ein Data-Driven-Business erstrebenswert ist. Ein Data-Driven-Business ist ein Unternehmen, das die Analyse von Daten in den Kern seiner Geschäfts‐ tätigkeit integriert hat und auf Basis von Fakten und Daten fundierte Entscheidungen trifft, wobei das Geschäftsmodell auf der Nutzung von Daten basiert. Ein Data-Driven-Business ist daher zumeist ein Dienstleistungsunterneh‐ men, welches sich auf die Monetarisierung von Daten und somit Infor‐ mationen spezialisiert hat. Beispiele für solche Unternehmen sind Uber, Airbnb oder Booking.com aber auch Flixbus. Diese Unternehmen stellen eine Plattform zur Verfügung, über die Transaktionen abgewickelt werden, sie produzieren aber z. B. nicht selbst ein Produkt. Das Ziel der Unternehmen ist Daten über z. B. Kunden oder Partner zu nutzen, um hierauf basierend weitere Dienstleistungen diesen Kunden und Partnern anbieten zu können. Als Leistung werden somit Daten „verkauft“. Um sich als Unternehmen auf den Weg zu einem Data-Driven-Business aber auch ganz generell auf den Evolutionsstufen eines datengetriebenen Unternehmens weiterzuentwickeln sind u.-a. notwendig: • Datenstrategie entwickeln: Der erste Schritt auf dem Weg zu einem Data-Driven-Business ist die Entwicklung einer Datenstrategie. Unter‐ nehmen sollten sich überlegen, welche Daten für sie wichtig sind und wie sie diese sammeln und analysieren möchten. • Analyse-Tools und -Methoden auswählen: Unternehmen müssen ent‐ scheiden, welche Analyse-Tools und -Methoden sie einsetzen möchten, um ihre Daten zu analysieren, wie z. B. Data Mining, Machine Learning und Data Visualization. • Datenkultur etablieren: Eine wichtige Voraussetzung für ein Data-Dri‐ ven-Business ist die Etablierung einer Datenkultur im Unternehmen. Alle Mitarbeiter müssen die Bedeutung von Daten verstehen und ent‐ sprechend handeln. • Daten in Entscheidungsprozesse integrieren: Unternehmen müssen lernen, wie sie Daten in ihre Entscheidungsprozesse integrieren können, um fundierte Entscheidungen auf Basis von Daten und Fakten treffen zu können. 238 12 Business Analytics im Mittelstand - Herausforderungen und Chancen <?page no="239"?> Um die Herausforderungen in diesem Prozess meistern zu können, sind verschiedene Handlungsfelder zu betrachten (→ Abbildung 23). Neben dem Geschäftsmodell welches die Vision, Mission und Strategie des mittelstän‐ dischen Unternehmens umfasst, sind auch die Prozess- und Systemebene zu betrachten. Eine Data Governance legt die Prozesse und Methoden fest, wie u. a. Daten angelegt, geändert oder auch gelöscht werden. Die Datenarchitektur legt auf der Systemebene die Abbildung der verschiedenen Tools und Werkzeuge fest, um Daten zu halten, bearbeiten und analysieren zu können. Data Management & Data Operations umfasst wiederum auf der Prozessebene die Steuerung der aktiven Nutzung der Daten im Unternehmen. - Confidential - Abb. 23: Handlungsfelder auf dem Weg zum Data driven Business Strategie Prozess System Data Architecture Business Model Vision, Mission & Strategie Data Governance Data Management & Data Operations Abbildung 23: Handlungsfelder auf dem Weg zum Data-Driven-Business 12.4 Zusammenfassung und Ausblick Business Analytics ist auch im Mittelstand angekommen und erfährt eine immer breitere Nutzung. Ohne den Einsatz von Business Analytics ist auf Dauer die Wettbewerbsfähigkeit von Unternehmen eingeschränkt, da Un‐ ternehmen, die Business Analytics in Ihren Geschäftsprozessen einsetzen, Vorteile durch die Nutzung von Daten erhalten. Problematisch für den Einsatz solcher Analyse-Tools ist zumeist nicht, ob genügend Daten für Analysen zur Verfügung stehen, sondern eher, dass die Unternehmen durch die schiere Menge an vorhandenen Daten überfordert sind. Nur durch einen Business Case getriebenen Ansatz ist sichergestellt, dass die Daten vorliegen, die auch für die Analyse benötigt werden. 12.4 Zusammenfassung und Ausblick 239 <?page no="240"?> Initiativen in Richtung Business Analytics, die einfach nur Daten in ein Data Warehouse, Data Lake o.ä. zusammenführen wollen, ohne einen konkreten Business Case, scheitern ansonsten. Gerade bei einem Data Lake geht die Semantik und Syntaktik der Originaldaten, durch die Art der Ablage der Daten, zumeist verloren. Wollen Unternehmen darüber hinaus gehen und sich bei der Nutzung von Daten weiterentwickeln, so ist für die meisten Unternehmen die Stufe Data- Savvy erstrebenswert. Ein Data-Driven-Business erfordert große Anstren‐ gungen und eine vollständige Transformation des Unternehmens. Viele Unternehmen scheuen diese Anstrengungen, müssen aber darauf achten, dass sie nicht von neuen Marktteilnehmern überholt werden, die von Anfang an auf ein Data-Driven-Business setzen. Muss jedes mittelständisches Unternehmen Business Analytics und damit Daten nutzen? Die Antwort hängt natürlich von Unternehmensstrategie und Wettbewerbsumfeld ab. Die Wettbewerbsintensität im deutschen Mit‐ telstand, aber auch weltweit, erfordert es, Daten in den Geschäftsprozessen zu nutzen, um immer wieder kleine Vorteile erreichen zu können. Allein durch die Umstellung auf moderne ERP-Systeme stehen erweiterte Analy‐ semöglichkeiten in den Systemen zur Verfügung, die vor kurzem noch undenkbar waren durch die klare Trennung zwischen transaktionalen und OLAP-Systemen. Nutzen sie diese Möglichkeiten, um ihr Unternehmen im Wettbewerb zu stärken und scheuen sie nicht die Herausforderungen, die sich auf dem Weg zum Data-Savvy-Unternehmen stellen. 12.5 Literatur Alparslan, A. und Hügens, T. Business Analytics im Mittelstand. Wirtschaftsinfor‐ matik und Management, Heft 15, S.-152-160 (2023). https: / / doi.org/ 10.1365/ s357 64-023-00462-6 EFI - Expertenkommission Forschung und Innovation (2023): Gutachten zu For‐ schung, Innovation und technologischer Leistungsfähigkeit Deutschlands 2023, Berlin: EFI. Ereth, J. und Kemper, H.-G. (2016): Business Analytics und Business Intelligence. In: Zeitschrift für erfolgsorientierte Unternehmenssteuerung, 28. Jg., Heft 8-9, Seite-458-464. Klodt, H. (2018): Mittelstand. URL: https: / / wirtschaftslexikon.gabler.de/ definition/ m ittelstand-40165/ version-263557, abgerufen am 04.01.2023. 240 12 Business Analytics im Mittelstand - Herausforderungen und Chancen <?page no="241"?> Münter, M.T. (2023). Disruption und Innovationstransfer in der vierten industriellen Revolution - wie kann der Mittelstand die zweite Welle der Digitalisierung überleben? . In: Pfannstiel, M.-A., Dautovic, A. (eds) Transferinnovationen und Innovationstransfer zwischen Wissenschaft und Wirtschaft. Springer Gabler, Wiesbaden. https: / / doi.org/ 10.1007/ 978-3-658-37157-9_26 Penn, C.S. (2023): The evolution of the data driven company. URL: https: / / www.chri stopherspenn.com/ 2019/ 08/ the-evolution-of-the-data-driven-company/ , abgeru‐ fen am 04.01.2023. 12.5 Literatur 241 <?page no="243"?> 13 Energiedaten als Rohstoff für eine nachhaltige Zukunft. Warum die gerichtete Nutzung von energetischen und prozessualen Bestands- und Verlaufsdaten zunehmend zum kritischen wirtschaftlichen Erfolgsfaktor für alle Branchen wird | von Dirk Werth, Victoria Schorr und Shari Alt 13.1 Einleitung Durch das wachsende gesellschaftliche Bewusstsein für den Umwelt- und Klimaschutz nimmt nachhaltiges Wirtschaften immer mehr an Bedeutung zu. Dies zeigt sich unter anderem in internationalen, europäischen sowie na‐ tionalen Vorhaben und Beschlüssen wie dem Green Deal der Europäischen Union und dem Klimaschutzprogramm 2030 der Deutschen Bundesregie‐ rung. Diese Initiativen haben das Ziel, wirtschaftliches Wachstum nicht länger auf dem Rücken der begrenzten, natürlichen Ressourcen auszutra‐ gen. Es wird eine Entkoppelung dieser bisherigen negativen Korrelation angestrebt, sodass ökonomische und ökologische Aspekte vereint und Interessenskonflikte aufgelöst werden können. Um dieses Ziel zu erreichen, wird die Transformation der Wirtschaft zu einer ressourcenschonenden Kreislaufwirtschaft angestrebt. Neben der stattfindenden ökologischen Transformation, findet parallel dazu auch eine digitale Transformation der Wirtschaft statt. Diese beiden Transformationen werden als „Twin Transition“ (University of Cambridge Institute for Sustainability Leadership (CISL) and the Wuppertal Institute (2022) und Bianchini et al. (2022)) bezeichnet. Demnach wird die digitale Transformation der Wirtschaft als Enabler für einen nachhaltigen Umgang mit den begrenzten Ressourcen angesehen (University of Cambridge Institute for Sustainability Leadership (CISL) and the Wuppertal Institute (2022)), denn nur durch die Verfügbarkeit von aktuellen, zuverlässigen Daten können die Strategien der Kreislaufwirt‐ schaft angewandt werden. Die digitale Transformation ermöglicht demnach <?page no="244"?> eine vereinfachte Verbreitung von Informationen hinsichtlich Reichweite, Zugang und Koordination sowie deren Verarbeitung (di Vaio et al. (2021)). - Nachhaltigkeit als Berichtspflicht Diese wirtschaftlichen Umbrüche wirken sich immer stärker auf die Indust‐ riebetriebe in Deutschland jeglicher Größe aus. So wird die im Klimaschutz‐ programm 2030 enthaltene steigende CO 2 -Bepreisung dazu führen, dass Unternehmen bei gleichbleibendem Primärenergieverbrauch mit kontinu‐ ierlich wachsenden Energiekostenpositionen konfrontiert werden. Zu den wachsenden Kosten kommen steigende politische Anforderungen an die Nachweispflichten der Unternehmen hinsichtlich nicht-finanzieller Belange entlang der selbstverantworteten Lieferkette hinzu. Bereits heute sind Großunternehmen rechtlich dazu verpflichtet, unter anderem im Rahmen der Corporate Social Responsibility (CSR) Berichtspflicht über Umweltbe‐ lange zu berichten. Mit der Ablösung der CSR-Berichtspflicht durch die umfänglichere Corporate Sustainability Reporting Directive (CSRD) ab 2024 werden zudem künftig immer mehr Unternehmen unmittelbar von einer Berichtspflicht zu ökologischen Belangen betroffen sein. Essentiell wird hierbei eine transparente Darlegung der verursachten Umweltauswirkun‐ gen durch den unternehmensinternen Ressourcen- und Energieverbrauch sein. - Nachhaltigkeit als Kundenwunsch Zu diesen wachsenden ökonomischen und rechtlichen Herausforderungen durch nationale und europäische Initiativen und Beschlüssen kommt eine steigende Nachfrage nach nachweislich nachhaltigen Produkten und Proz‐ essen durch die Kunden der Unternehmen hinzu. Diese steigende Forderung nach umweltfreundlichen Produkten verdeutlicht das Ergebnis einer Studie, in welcher zwei von drei weltweit befragten Konsumenten die Nachhaltig‐ keit eines Produktes als wichtiges Kaufkriterium einstufen (Simon-Kucher & Partners (2021)). Als Indiz für die Nachhaltigkeit eines Produktes oder Prozesses gelten derzeit die verursachten Treibhausgasemissionen, allen voran der Kohlendioxidausstoß (Bianchini et al. (2022) sowie Frerichs und Saulich (2023)). Um diesbezüglich Transparenz zu schaffen, sind auch hier das Erfassen und Auswerten von Energiedaten unausweichlich für Unter‐ nehmen. Mit dem vorliegen entsprechender Daten lassen sich demnach die 244 13 Energiedaten als Rohstoff für eine nachhaltige Zukunft <?page no="245"?> Anforderungen, welche sich unter anderem aus den politischen Berichts‐ pflichten und den Nachweisforderungen der Kunden ergeben erfüllen. Um im Zuge der Energiewende die Intelligenz und Effizienz des Energie‐ systems zu steigern, kann die Erfassung und Analyse von Energiedaten ei‐ nen erheblichen Beitrag leisten. Bei dem Umgang mit Energiedaten ergeben sich eine Reihe von Herausforderungen, welche bewältigt werden müssen. Je nachdem ob es sich um unternehmens- oder personenbezogene Daten handelt, spielt das Thema Privatsphäre und Datenschutz eine sehr wichtige Rolle, denn aus Energiedaten, ist es möglich sehr sensible Informationen zu erlangen. Es können Rückschlüsse auf das Leben und Verhaltensweisen getroffen werden. Aber auch technische Herausforderungen in Hinblick auf die Datengewinnung und Verarbeitung spielen eine wichtige Rolle (Rigoll 2017). 13.2 Datenerfassung - Anforderungen und Herausforderungen Die Grundlage zur Schaffung von Transparenz ist die Erhebung von Daten. Energie-, Prozess- und Betriebsdaten bergen erhebliches Potenzial und liefern wertvollen Input für Optimierungsprozesse. Die Erfassung von Daten in der richtigen Quantität und Qualität stellt aktuell eine der größten He‐ rausforderungen für Unternehmen dar. Zwar werden Daten bereits häufig erhoben, allerdings sind diese oftmals nicht korrekt dokumentiert, verwaltet und gepflegt sodass diese zur weiteren Nutzung nicht geeignet sind (Frerichs und Saulich 2023). Ein professionelles Data Mining und die Nutzung eines Data-Warehouse-Systems ist überaus ratsam für Unternehmen bei der Einführung eines Energiedatenmanagementsystems. In einem ersten Schritt sollen die zu erfassenden Datenarten festgelegt werden. Hierbei lässt sich zwischen internen und externen sowie struk‐ turierten und unstrukturierten Daten unterscheiden. In diesem Kontext kann es sich um Messwerte aber auch Wetterdaten oder Verbrauchsdaten handeln. Darüber hinaus können auch semi-strukturierte Daten, welche sich zwischen den Kategorien befinden, vorliegen. Zudem muss im Zuge der Energiedatenerfassung immer der Energiebezug, als auch die Energie‐ verwendung erfasst werden. Gemäß des Energieerhaltungssatzes muss der Energiebezug immer der Energieverwendung entsprechen. Der Energiebe‐ zug lässt sich relativ einfach über die Zähler der Energieversorger erfassen. 13.2 Datenerfassung - Anforderungen und Herausforderungen 245 <?page no="246"?> Die Energieverwendung ist etwas komplexer zu erfassen, hierbei muss nach eigenem Ermessen entschieden werden, welche Granularität gewünscht ist. Demnach hat man die Option beispielsweise auf Unternehmensbereichs‐ ebene oder bis auf Geräteebene heruntergebrochen den Energieverbrauch zu erfassen. Dabei sind Aufwand und Kosten auf Unternehmensbereichsebene niedriger als auf Geräteebene, der Nutzen dementsprechend von Bereich zu Geräteebene steigend. Stets sollten bei Erhebung von Daten die elf Kriterien der Datenqualität berücksichtigt werden, unabhängig ob Energie- oder Betriebsdaten. Hierbei handelt es sich um folgende Kriterien Vollständigkeit Datensatz muss alle notwendigen Attri‐ bute enthalten Eindeutigkeit jeder Datensatz muss eindeutig inter‐ pretierbar sein Korrektheit Übereinstimmung von Realität und Da‐ ten Aktualität Datensätze entsprechen dem aktuellen Zustand Genauigkeit Vorliegen der Daten in der notwendigen Genauigkeit Konsistenz keine Widersprüche in den Datensätze und zwischen Datensätzen Redundanzfreiheit kein doppeltes Vorkommen von Daten Relevanz Informationsgehalt der Datensätze muss dem Informationsbedarf entspre‐ chen Einheitlichkeit strukturierter Aufbau der Datensatzin‐ formation Zuverlässigkeit Nachvollziehbarkeit der Entstehung von Daten Verständlichkeit Daten müssen für den Informations‐ empfänger verständlich aufbereitet sein Tabelle 2: Elf Kriterien der Datenqualität Ebenfalls ist darauf hinzuweisen, dass obwohl es möglich ist die Daten sehr feingranular und in einer sehr hohen Anzahl zu erfassen, dies auch 246 13 Energiedaten als Rohstoff für eine nachhaltige Zukunft <?page no="247"?> nicht immer sinnvoll ist. Es muss stets eine Abwägung zwischen Datenflut und ausreichender Datenmenge getroffen werden. Nicht nur die Datenerfas‐ sung, sondern auch ein korrektes Datenmanagement ist besonders wichtig. Daten lassen sich sowohl in einer Datenbank, einem Data Warehouse oder auch in einem Data Lake speichern. Die vorab korrekte Wahl des Datenmanagementsystems sollte gründlich überlegt werden. Wurden die Daten in einer ausgewählten Form gespeichert, bedarf es für die weitere Verwendung der Befolgung des ETL-Prozesses (Extract, Transform, Load). - Confidential - Extract Extraktion von Daten aus verschiedenen Datenquellen Transform Transformation der Daten in das Format der Zieldatenbank Load Laden der Daten in die Zieldatenbank Abb. 24: Datenmanagement ETL Abbildung 24: Datenmanagement nach ETL-Prozess Wie in → Abbildung 24 zu sehen, gestaltet sich der ETL-Prozess, unabhän‐ gig davon um welche Art von Daten es sich handelt, aus drei Phasen. Zuerst werden die Daten aus den Datenquellen extrahiert, dann transformiert und letztendlich in eine Zieldatenbank geladen. Sind alle Daten in der Zieldatenbank vorhanden, ist die Datenvorbereitung abgeschlossen und es kann mit der Analyse der für uns relevanten Energiedaten begonnen werden. 13.3 Energie-, Ressourcen- und Prozessdaten - Was und wie können wir aus ihnen lernen? Dass man aus den Daten sehr wertvolle Informationen gewinnen kann, ist bekannt, aber wie schafft man die gewünschte Transparenz? Für eine Vielzahl von Verbrauchern ist die Energienutzung bisher ein intransparenter Prozess (Rigoll (2017)). Verbraucher nehmen oftmals keine Einsicht in die Verbrauchten Watt, Kilowattstunden oder den erzeugten CO 2 -Verbrauch pro kWh (Hargreaves et al. (2010) und Karjalainen (2011)). Gleichzeitig 13.3 Energie-, Ressourcen- und Prozessdaten - Was und wie können wir aus ihnen lernen? 247 <?page no="248"?> stellt häufig auch nicht nur der elektrische Strom die einzige verwendete Energieform dar, auch Thermische-, Chemische- oder Druckenergie werden häufig verwendet. Der Energiemix in Unternehmen setzt sich häufig aus mehreren Quellen zusammen. Um Energieeinsparmaßnahmen zu treffen, muss Wissen über die einzelnen Verbrauchspositionen vorliegen. Oftmals haben viele Unternehmen und auch Privathaushalte keinerlei Einblick in einzelne Positionen, sondern sie erhalten am Ende des Jahres eine Abrech‐ nung über den Gesamtverbrauch des vergangenen Jahres. Demnach ist vielen Verbrauchern nicht bewusst, welche Vorgänge, wie viel Energie benötigen und es ist vollkommen intransparent aus welchen Positionen sich der Gesamtverbrauch zusammensetzt. - Wissen über Energieverbrauch als Schlüssel für Energieeffizienz Nach Darby (2006) sowie Burgess und Nye (2008) könnte bereits ein direk‐ ter Einblick und eine damit einhergehende Meldung über den aktuellen Energieverbrauch zu einer Energieersparnis von 15 % führen. Um Verhal‐ tensanpassungen vorzunehmen, müssen Verbraucher Transparenz darüber erhalten, welche Aktivitäten wie viel Energie verbrauchen (Karjalainen (2011) und Burgess und Nye (2008)). Nur durch Schaffung einer vollkom‐ menen Transparenz lassen sich Verhaltensanpassungen und Prozessände‐ rungen vornehmen, um die Energieeffizienz zu steigern. Darüber hinaus geht es nicht nur darum die Verbrauchsmuster zu ändern oder ungünstige Verbraucher ausfindig zu machen, auch zeitliche Anpassungen, d. h. Energie zu Zeiten mit viel Energie im Netz zu verbrauchen, kann die Kosten- und Ressourceneffizienz erhöhen (Rigoll (2017)). Damit ein Unternehmen den Energieverbrauch überwachen und ggf. auch steuern kann, ist die Einführung eines Energiemanagement- und Lastmanagementsystems zu empfehlen. Hierbei muss es sich nicht direkt um ein gezieltes Energiema‐ nagementsystem nach der DIN EN ISO 500001 handeln, gerade für kleine- und mittelständige Unternehmen (KMUs) ist oftmals bereits ein gelebtes Energiemanagement ohne Zertifizierung eine kostengünstige Alternative. Vorab müssen die entsprechenden Daten erhoben und in einer Daten‐ bank gespeichert werden, auf die das Energiemanagementsowie das Lastmanagementsystem Zugriff hat. Durch die Anwendung dieser Systeme oder auch einer manuellen Überwachung und Steuerung ist es möglich, Lastspitzen und somit außerordentliche Kosten zu vermeiden. Man kann den Energieverbrauch gezielter steuern und zu Zeiten mit ausreichend Energie 248 13 Energiedaten als Rohstoff für eine nachhaltige Zukunft <?page no="249"?> im Netzt ggf. bestimmte Prozesse anstoßen, um so Kosten zu reduzieren. Im Zuge der Transparenzschaffung, lassen sich unterschiedliche Faktoren zur Optimierung aufdecken. Nach der Messdaten Erfassung ist es ratsam, sich die Energieverbräuche visualisiert darzustellen. Um Energiedaten zu visualisieren, eignet sich hervorragend ein Sankey-Diagramm. - Confidential - Abb. 25: Sankey-Diagramm Differenz Prüfung Maschine 1 Prüfung Maschine 2 Montagelinie 1 Montagelinie 2 Elektronikfertigung Anlagenfertigung Verwaltung gesamt Abbildung 25: Beispielhaftes Sankey-Diagramm Das vorliegende Sankey-Diagramm stellt visuell die Verteilung des Energie‐ bezugs im Unternehmen dar. Auffällig ist hier die erste graue Position, die „Differenz“. Genau dies gilt es nun für das Unternehmen aufzudecken. Hierbei handelt es sich um Energie, welche bezogen wird, jedoch extreme Unklarheit darüber besteht, wohin diese Energie im Unternehmen fließt. Mögliche Gründe für eine solche Differenz können sein, dass bestimmte Geräte oder Abteilungen noch nicht mit einer Messeinrichtung ausgestattet sind, Lackagen oder auch „Energiediebstahl“, hierfür kann es viele Gründe geben. Für jedes Unternehmen ist es daher von enormer Bedeutung diese Blackbox aufzulösen. Darüber hinaus zeigt das vorliegende Diagramm, dass in Montagelinie 1 signifikant weniger Energie verbraucht wird als in Montagelinie 2. Dies könnte z. B. dadurch begründet werden, dass es sich bei Montagelinie 2 um ältere Maschinen, mit ineffizientem und erhöhtem Energieverbrauch handelt. Hierbei wäre eine Maßnahme, diese erhöhten Verbraucher ggf. durch neuere, sparsamere Maschinen auszutauschen. 13.3 Energie-, Ressourcen- und Prozessdaten - Was und wie können wir aus ihnen lernen? 249 <?page no="250"?> Datenanalyse zur energetischen Bewertung Nach dieser ersten Visualisierung kann man eine energetische Bewertung des Unternehmens weiter mit unterschiedlichen Analysemethoden unter‐ suchen. Zu Beginn eignet sich vor allem die ABC-Analyse, welche das Verhältnis von Aufwand und Ertrag anhand einer Ist-Situation darstellt. Sie dient vor allem dazu, die Verbraucher mit dem höchsten Energiebezug zu ermitteln. Weiter dient ein Energieportfolio dazu, die Verbraucher anhand ihrer Kriterien in unterschiedliche Kategorien im Rahmen des Portfolios einzuteilen. - Confidential - Hebel Leistungsabnahme kritische Anlage unkritische Anlage Hebel Laufzeit Laufzeit der Anlage [h] elektrische Anschlussleistung [kW] Abb. 26: ABC- und Portfolioanalyse ABC-Analyse Energieportfolio Abbildung 26: ABC- und Portfolioanalyse Diese Analysemethoden helfen einen Überblick und ein Gefühl über die Verbraucher und die Ist-Situation im Unternehmen zu erhalten. Möchte man darüber hinaus quantitativ Zusammenhänge beschreiben und Prognosen basierend auf Vergangenheitsdaten erstellen, eignet sich die Erstellung einer Regressionsanalyse. Hierbei wird die Beziehung einer abhängigen und einer/ mehreren unabhängigen Variablen miteinander modelliert. Eine weitere Methode zur Energiedatenanalyse ist die Clusteranalyse. Im Zuge dessen, werden Daten nach Ähnlichkeiten sortiert und möglichst homogene Gruppen; sogenannte Cluster; identifiziert. Basierend auf den vorhandenen Daten werden diese anhand ihrer Ähnlichkeit in Gruppen mit gleichen Merkmalen zugeordnet. Existieren Datenpunkte, welche sich zu keiner Gruppe zuzuordnen lassen, handelt es sich hierbei um Ausreißer. Die Clusteranalyse, dient somit vertiefend zur ABC- und Portfolioanalyse dazu, Gemeinsamkeiten und Besonderheiten von Verbrauchern zu erkennen. 250 13 Energiedaten als Rohstoff für eine nachhaltige Zukunft <?page no="251"?> - Confidential - Regression Clustering Abb. 27: Beispiel Regression- und Clusteranalyse Abbildung 27: Beispiel Regressions- und Clusteranalyse Darüber hinaus gibt es eine Vielzahl an weiteren Analysemethoden, welche zur energetischen Bewertung herangezogen werden können, welche jedoch nicht in diesem Beitrag vorgestellt werden. - Gewonnenes Wissen nutzen Nach erfolgreicher Analyse der Daten, kommt es zur Maßnahmenableitung, um das neu gewonnene Wissen zu nutzen. Hierbei ist es empfehlenswert sich stets gemäß dem kontinuierlichen Verbesserungsprozess zu orientieren und die Maßnahmen anhand des PDCA-Zyklus einzuführen. Der PDCA- Zyklus enthält die Schritte Planung (Plan), Ausführung (Do), Überprüfung (Check) und Verbesserungen (Act). Die Basis für einen erstmaligen Durch‐ lauf bilden die operativen und strategischen Ziele der Energiepolitik des jeweiligen Unternehmens, welche gleichzeitig zur Festlegung von energe‐ tischen Kennzahlen dienen. Im ersten Schritt „Planung (Plan)“ werden Energieziele unter Beachtung der wesentlichen Energieeinflussfaktoren aufgestellt, Maßnahmen im Rahmen eines Aktionsplans mit Bestimmung der Verantwortlichkeiten bestimmt sowie die erforderlichen Ressourcen bereitgestellt. Im zweiten Schritt „Ausführung (Do)“ werden die Maßnah‐ men umgesetzt. Hauptsächlich handelt es sich um das Umsetzen von Akti‐ onsplänen, Steuern energierelevanter betrieblicher Prozesse und Abläufe, Sichern der Kompetenz, Bewusstsein der Mitarbeiter und deren Einbin‐ dung in das Energiemanagementsystem über alle Funktionen und Ebenen hinweg. Im nächsten Schritt „Überprüfung (Check)“ werden die bislang durchlaufenden Schritte hinsichtlich ihrer Zielwirksamkeit analysiert und bewertet. Es ist regelmäßig zu überprüfen, ob alle Energieziele umgesetzt wurden. Es finden interne Audits statt, die eine systematische Überprüfung des Energiemanagementsystems beinhalten. Mithilfe des internen Audits werden die Funktionsweise des Energiemanagementsystems und die Ziele weiterentwickelt sowie neue Maßnahmen für die Verbesserung des Energie‐ 13.3 Energie-, Ressourcen- und Prozessdaten - Was und wie können wir aus ihnen lernen? 251 <?page no="252"?> managementsystems entwickelt. Im letzten Schritt „Verbesserungen (Act)“ erfolgt eine schriftliche Bewertung durch das Management. Hier geht es vor allem um die Reflektion der bisherigen Prozesse die Festlegung neuer Ziele und um Maßnahmen zur fortlaufenden Verbesserung der energiebezogenen Leistung und des Energiemanagementsystems (Syska (2011). - Confidential - Zeit Verbesserung • geplante Maßnahmen umsetzen • Prozesse überwachen • Zielerreichung prüfen • Dokumentieren • Maßnahmen planen • Folgemaßnahmen anstoßen • Korrekturmaßnahmen einleiten • Standardisierung Do Check Act Plan Abb. 28: PDCA-Zyklus Abbildung 28: Konzept PDCA-Zyklus - Intelligente Steuerung der Anlagen Die Analyse von Energiedaten und eine Einführung eines Energiemanage‐ ments, dient nicht nur zur Überwachung von Energieverbräuchen, sondern kann auch zu einer ressourcenschonenderen und ggf. intelligenten Steue‐ rung der Verbraucher dienen. Ergänzend zu dem Energiemanagement(-sys‐ tem), lassen sich weitere Systeme zur ganzheitlichen Optimierung von Unternehmensprozessen einführen. Ein Produktionsplanungssystem kann über ein Manufacturing Execution System (MES) die Produktionsprozesse innerhalb des Unternehmens steuern. Für eine energetisch optimale Auslas‐ tung, kann ein Warehouse-Managementsystem die Warenbewegungen im Lager gemäß der verfügbaren Energie steuern. D. h. bei möglicher vorhande‐ ner PV-Anlage, könnten bestimmte Warenbewegungen dann durchgeführt werden, wenn ausreichend Energie vorhanden ist. Alle Systeme werden in einem Business-Intelligence-System vernetzt, koordiniert und kontrolliert. Das Business-Intelligence-System überwacht somit jegliche Prozesse im Unternehmen und kann dadurch feststellen, falls es bei bestimmten Ver‐ brauchern zu außergewöhnlichen Schwankungen oder Mehrverbräuchen kommt. Sodann wird diese Anomalie dem Predictive Maintenance System 252 13 Energiedaten als Rohstoff für eine nachhaltige Zukunft <?page no="253"?> gemeldet und es können frühzeitig Maßnahmen zur Behebung stattfinden und ggf. größere Schäden oder Abflüsse verhindert werden. Das Produkti‐ onsplanungssystem, das Manufacturing Execution System, das Energiema‐ nagementsystem, das Warehouse-Managementsystem und das Predictive Maintenance System organisieren alle Energie- und Materialströme inner‐ halb des Unternehmens und stehen im ständigen Daten Austausch. - Confidential - Produktionsplanung Predictive Maintenance Energiemanagement Warehouse Management Business Intelligence Abb. 29: Konzept einer intelligenten Systemsteuerung Manufacturing Execution Abbildung 29: Konzept einer Intelligenten Systemsteuerung 13.4 Daten als Treiber für Energiemanagement und Berichtspflichten Darüber hinaus ergeben sich nicht nur die internen Vorteile wie Opti‐ mierung der Ressourcen- und Kosteneffizienz unter zu Hilfenahme einer intelligenten Steuerung aus der Analyse von Energiedaten und einem Energiemanagement. Vielmehr hilft eine Analyse der Energiedaten und ein gezieltes Energiemanagement Unternehmen dabei, die aktuellen Heraus‐ forderungen und Berichtspflichten von Politik und Kunden zu meistern. Die Entscheidung sich nach der DIN EN ISO 50001 zertifizieren zu lassen und somit ein zertifiziertes Energiemanagementsystem einzuführen, ist ein weiterer Schritt den aktuellen Pflichten nachzukommen. Immer mehr Unternehmen müssen genauste Nachweise über ihre Res‐ sourcenverbräuche ausweisen, die Erfassung und Analyse von Energiedaten ist hierfür die Basis. Somit können Unternehmen beispielsweise pro Pro‐ dukt/ Prozess ihre Verbräuche nachweisen in Form eines Digitalen Prozess‐ passes, aber auch die Möglichkeit eines konkreten CO 2 -Zertifikatshandel schließt sich daran an. Darüber hinaus kann es ebenso sinnvoll sein, nicht 13.4 Daten als Treiber für Energiemanagement und Berichtspflichten 253 <?page no="254"?> nur Ressourcenverbrauchsdaten, sondern auch Materialdaten mit in einen solchen Pass aufzunehmen. Die Erfassung und Analyse der Energiedaten stellt jedoch für jegliche Anknüpfungsoptionen die Basis dar. Nachfolgend wird eine mögliche Erweiterung der Energiedatenerfassung anhand des Di‐ gitalen Prozesspasses näher erläutert, um ein Praxisbeispiel anhand sowohl statischer als auch dynamischer Daten aufzuzeigen. - Material- und Verbrauchs-Transparenz-Tool: Digitaler Prozesspass Die Betrachtungsweise des Digitalen Prozesspasses stellt eine prozessbe‐ zogene Betrachtungsweise dar. Innerhalb des Digitalen Prozesspasses ist es möglich, die prozessbezogenen Umweltauswirkungen durch die Produk‐ tion eines Produktes transparent sichtbar und optimierbar zu machen. Unternehmen können dadurch z. B. den Prozessschritt mit dem anteilig höchsten Energieverbrauch ausfindig machen oder die Performance von Anlagen und Maschinen zur Produktion eines Produktes untereinander vergleichen. Diese Erkenntnisse können Unternehmen dann zur kontinuier‐ lichen Verbesserung ihrer Prozesse und damit zur kontinuierlichen Senkung ihrer Energiekostenposition nutzen. Durch die Verknüpfung der prozessbe‐ zogenen Energiedaten mit Produktionsdaten, die Auskunft darüber geben, welches Produkt in welcher Anzahl, wann und auf welcher Anlage gefertigt wurde, lassen sich mit dem Digitalen Prozesspass zudem produktbezogene Umweltauswirkungen bestimmen. Hierbei können neben durchschnittli‐ chen Angaben, wie Jahresmittelwerte, auch auftragsspezifische Angaben zu den Umweltauswirkungen durch die Produktion eines Produktes nach‐ gewiesen werden. Dies ist für Unternehmen aus wettbewerbstechnischen Gründen vor allem dahingehend interessant, da sie gegenüber ihren Kunden die kontinuierliche Effizienzsteigerung bei der Produktion, der in Auftrag gegebenen Produkte nachweisen können. Des Weiteren ist ein Ausweis von Materialdaten in Hinblick auf die Kreislauffähigkeit von Produkten ebenfalls von besonderer Relevanz. Das bedeutet die Datenbank des Digi‐ talen Prozesspasses greift auf der einen Seite auf dynamische Daten aus der Produktion bzw. dem Betrieb zu und auf der anderen Seite verknüpft sie diese mit den statischen Daten wie beispielsweise der Bill of Materials, Einkaufs- und Chargendaten. Zusammenfassend werden für den Digitalen Prozesspass unterschiedli‐ che Datenbanken benötigt: Es werden Informationen darüber benötigt, welche und wie viele Produkte wann und wo prozessiert worden sind (Be‐ 254 13 Energiedaten als Rohstoff für eine nachhaltige Zukunft <?page no="255"?> triebsdaten) sowie wie hoch der Energieverbrauch im zeitlichen Verlauf für die unterschiedlichen Maschinen und Fertigungslinien ist (Energiedaten). Bei diesen Daten handelt es sich um dynamische und zeitlich schwankende Daten. Hinzu kommen statische Daten wie die Bill of Materials und andere Chargen und Produktdaten, welche keinen zeitlichen Schwankungen unter‐ liegen. Durch das Verknüpfen der Informationen dieser unterschiedlichen Datenbanken in der Digitalen Prozesspass Hauptdatenbank, lassen sich im Digitalen Prozesspass Aussagen über den gemessenen Energieverbrauch während der Produktion eines bestimmen Produktes und damit Aussagen zu den verursachten CO 2 -Emissionen des Produktes treffen. Gleichzeitig können detaillierte Angaben über die verarbeiteten Materialien und Char‐ geninformationen in dem Digitalen Prozesspass ausgewiesen werden. - Confidential digitaler Prozesspass Datenbank Dashboard Energiedaten Betriebsdaten CO 2 - Mapping Bill of Materials Chargendaten Produktspezifikation dynamische Daten statische Daten Abb. 30: Digitaler Prozesspass Abbildung 30: Systemkomponenten Digitaler Prozesspass Durch die Erfassung all dieser unterschiedlichen Daten in der Hauptdaten‐ bank und dem Ausweis in einem Digitalen Prozesspass wird letztendlich ein wesentlicher Bestandteil für den Digitalen Produktpass geschaffen, welcher aus sämtlichen zu dem Produkt gehörenden einzelnen Prozesspäs‐ sen besteht. Die Kombination von Ressourcenverbrauchs- und statischen Produktdaten ist ein vielversprechendes Konzept, um die Nachhaltigkeit- und Kreislauffähigkeit von Produktionsprozessen und letztlich der finalen Produkte zu optimieren, nachzuverfolgen und auszuweisen. 13.4 Daten als Treiber für Energiemanagement und Berichtspflichten 255 <?page no="256"?> 13.5 Ausblick Viel zu lange wurde das enorme Potenzial in unseren Energiedaten nicht ausreichend beachtet. Getrieben durch die von der Klima- und Energiekrise begründeten Energiewende, rücken Energie- und Ressourcendaten mehr in den Fokus. Die Möglichkeiten und Chancen, aus Daten Wissen und Mehrwerte zu generieren, sind in anderen Branchen seit geraumer Zeit bekannt und werden genutzt. Energiedaten verfügen über sensible Infor‐ mationen, weshalb sie aufgrund rechtlicher Hürden lange Zeit nur wenig schwer zugänglich und wenig genutzt wurden. Nun wird es unumgänglich die Blackbox der Energiedaten zu öffnen und Potenziale freizusetzen. Wir brauchen nicht nur neue Rohstoffe und Innovationen, um die Energiewende zu meistern, Energiedaten selbst können als „Rohstoff “ zur Ressourceneffi‐ zienzsteigerung dienen, wenn man es schafft sie korrekt zu erfassen, zu verarbeiten und anschließend zu analysieren und Maßnahmen abzuleiten. Es geht nicht nur darum die Energieverbräuche zu messen, vielmehr muss ein Verständnis über die komplexen Zusammenhänge und Konse‐ quenzen von Energiebezug- und verbrauch geschaffen werden. Um voll‐ ständige Ressourcentransparenz zu schaffen, sind viele einzelne Kompo‐ nenten notwendig. Der vorliegende Beitrag liefert einen Überblick von zugehörigen Bestandteilen auf dem Weg zur Transparenz. Die Einführung eines Digitalen Produktpasses ist demnach nur möglich, wenn eine ausrei‐ chende Basis hierfür geschaffen ist. Jegliche Optimierungspotenziale sind auf gewisse Weise miteinander korreliert und notwendiger Baustein für die nächste Verbesserung oder einen weiteren Nachweis. Bereits klassische analytische Verfahren zur energetischen Bewertung können erste Effizi‐ enz- und Einsparpotenziale bieten. Durch die Erhebung von einer größeren und diverseren Datenmenge wird es möglich Data-Science-Methoden an‐ zuwenden und damit intelligente Steuerungsoptionen zu schaffen. Daran anknüpfend können wie im Beitrag beschrieben weitere Systeme ange‐ koppelt und in einem Business-Intelligence-System vereint werden. Die Transparenzschaffung auf Produkt- oder Prozessebene mittels Digitalem Produkt- oder Prozesspass und der damit einhergehenden Möglichkeit des Zertifikatshandels sind weitere Ableitungen aus den gewonnenen Daten. Sowohl eine mögliche Zertifizierung als auch die Offenlegung von Ressourcenverbräuchen dient der gesetzlichen Nachweispflicht heutiger und zukünftiger Unternehmen. Die Offenlegung sowie die danach erfolgten Anpassungen und ressourcenschonenden Maßnahmen, dienen zwar zur 256 13 Energiedaten als Rohstoff für eine nachhaltige Zukunft <?page no="257"?> Erfüllung der gesetzlichen Anforderung, bergen darüber hinaus auch einen erheblichen Wettbewerbsvorteil. Aktuell treiben die Anforderungen von Politik und Kunden sowie mone‐ täre Aspekte die Gesellschaft zu einem nachhaltigeren Umgang mit unseren Ressourcen. Der intrinsische Antrieb der Unternehmen der Zukunft sollte darin liegen, einen Beitrag zur Erhaltung und nicht mehr zu Lasten des Ökosystems sowie des gesamten Planeten zu schaffen. Energiedaten als Grundlagen liefern einen Teil des „Rohstoffs“, der benötigt wird, um die Energiewende zu meistern und den Klimawandel zu bremsen. 13.6 Literatur Bianchini, S., Damioli, G., Ghisetti, C., The environmental effects of the „twin“ green and digital transition in European regions, Environmental Resource Economics, 2022. Burgess, J., Nye, M., Re-materialising energy use through transparent monitoring systems, in Energy Policy, Bd.-36/ 12, Foresight Sustainable Energy Management and the Built Environment Project, 2008, pp. 4454-4459. Darby, S., The effectiveness of feedback on energy consumption, Environmental Change Institute, University of Oxford, 2006. di Vaio, A., Palladino, R., Pezzi, A. und Kalisz, D.E., The role of digital innovation in knowledge management systems: A systematic literature review, Journal of Business Research, Nr.-123, pp. 220-231, 2021. Frerichs, T. und Katja, S., Technologien zur digitalen Erfassung von Ressourcenver‐ bräuchen, VDI ZRE Publikationen: Kurzanalyse Nr.-32, VDI ZRE Publikationen, 2023. Hargreaves, T., Nye, T. und Burgess, M., Making energy visible: A qualitative field study of how householders interact with feedback from smart energy monitors, Energy Policy, 2010, p.-6111-6119. Karjalainen, S., Consumer preferences for feedback on household electricity con‐ sumption, Energy and Buildings, Nr.-43.2-3, pp. 458-467, 2011. Rigoll, F., Nutzerorientiertes Energiedatenmanagement - KIT, 2017. Simon-Kucher & Partners, Global Sustainability Study 2021: Consumers are key players for a sustainable future, 2021. Syska, A., Produktionsmanagement: Das A-Z wichtiger Methoden und Konzepte für die Produktion von heute, Wiesbaden: Gabler, 2006. 13.6 Literatur 257 <?page no="258"?> University of Cambridge Institute for Sustainability Leadership (CISL) and the Wuppertal Institute, Digital Product Passport: The ticket to achieving a climate neutral and circular European economy? , CLG Europe, Cambrigde, 2022. 258 13 Energiedaten als Rohstoff für eine nachhaltige Zukunft <?page no="259"?> 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity - wie Daten zu Wettbewerbsvorteilen für Investoren werden | von Wolfgang Faisst und Markus Thomas Münter Die Portfoliosteuerung eines aktiven Investmentfonds an börsennotierten Unternehmen ist nicht trivial, aber zumindest haben sich stabile Geschäfts‐ modelle in Banken oder Investmentgesellschaften etabliert: Typischerweise kümmert sich ein breit aufgestelltes Investmentteam um ein regionales oder industriespezifisches Portfolio, die Unternehmensberichterstattung erfüllt durch anspruchsvolle Regulierung meist hohe Standards, zudem ist ein enger Austausch zwischen Fondsmanagement und Unternehmensleitung die Regel. Aufgrund der Größe der Unternehmen sind meist auch alle denkbaren Unternehmenskennzahlen in guter oder sehr guter Qualität verfügbar. Zudem steigt durch die Anzahl vergleichbarer Unternehmen im Portfolio oder Fonds die Qualität des Fondsmanagements - sowohl mit positiven Effekten für den Fonds als auch in der Wertsteigerung des Unternehmens. Im Kern sind also gute Daten in hinreichender Menge und meist aktuell verfügbar - zudem liegt umfassende Expertise und Erfahrung bei den Fondsmanagern vor. Im Gegensatz dazu stellt für viele mittelständische Beteiligungsfirmen oder Private-Equity-Unternehmen die Portfoliooptimierung und Steuerung immer wieder eine große Herausforderung dar, da sie in der Regel eine Vielzahl von Beteiligungen an nicht börsennotierten Unternehmen halten. Zudem ist das Einwirken auf das Management der Beteiligungsunterneh‐ men weit wichtiger und intensiver zur Wertsteigerung, als dies bei großen Investmentgesellschaften und Index-orientierten Fonds der Fall ist. Typische Herausforderungen von Private-Equity-Unternehmen und Be‐ teiligungsgesellschaften sind unter anderem folgende Bereiche: • Komplexität der Bewertung: Da die Unternehmen meist nicht bör‐ sennotiert sind oder nicht öffentlich gehandelt werden, kann es schwie‐ rig sein, den Wert der Beteiligungen genau zu bestimmen. Private- Equity-Unternehmen müssen daher komplexere Bewertungsmethoden anwenden, um den Wert ihrer Beteiligungen zu ermitteln. <?page no="260"?> • Diversifikation: Private-Equity-Unternehmen haben oft eine be‐ grenzte Anzahl von Beteiligungen, was bedeutet, dass sie anfälliger für Risiken sind, die mit einer einzelnen Beteiligung verbunden sind. Um dieses Risiko zu minimieren, müssen Private-Equity-Unternehmen eine geeignete Diversifikationsstrategie verfolgen. • Liquidität: Die Liquidität von Private-Equity-Investitionen ist meist stärker begrenzt. Damit ist es oft schwierig, in kurzer Zeit Geld aus den Beteiligungen abzuziehen. Private-Equity-Unternehmen müssen daher eine geeignete Exit-Strategie haben, um sicherzustellen, dass sie ihre Investitionen zu einem angemessenen Preis veräußern können. • Management: Private-Equity-Unternehmen müssen aktiv in das Ma‐ nagement der von ihnen gehaltenen Unternehmen eingreifen, um deren Wert zu steigern. Dies erfordert eine enge Zusammenarbeit mit dem Managementteam der Unternehmen und eine klare Strategie für die Umsetzung von Veränderungen. • Regulatorische Anforderungen: Private-Equity-Unternehmen müssen sich zunehmend an eine Vielzahl von regulatorischen Anforderungen orientieren, insbesondere wenn sie öffentliche Mittel einwerben oder in bestimmten stark regulierten Industrien aktiv sind. Zudem kann das Ein‐ werben weiterer Eigenmittel häufig nur bei entsprechender Transparenz der regulatorischen Rahmenbedingungen sichergestellt werden. Insbesondere sind aber - anders als bei Investmentfonds börsennotierter Unternehmen - oft Daten in guter Qualität und hinreichender Menge oft Mangelware. In der Folge müssen Private-Equity-Unternehmen ein deutlich breiteres und tieferes Verständnis der Beteiligungsunternehmen für ihre Be‐ teiligungen aufbauen und aufrechterhalten. Da diese Fähigkeiten üblicher‐ weise nur begrenzt zur Verfügung stehen, können Wettbewerbsnachteile und Wachstumsgrenzen für Private-Equity-Unternehmen entstehen - vor allem, wenn übliche Renditen oder Wertsteigerungen im Portfolio erreicht werden sollen. Zudem stellt aktuell das Markt- und Zinsumfeld zusätzliche Herausforde‐ rungen: Für Investoren wird es zunehmend schwieriger, das Zweibis Dreifa‐ che des investierten Kapitals zu erreichen. Infolgedessen muss die Wertstei‐ gerung durch Optimierung des operativen Geschäftes erreicht werden, weil sie nicht mehr primär durch Multiple-Expansion oder das Wachstum mit dem Markt erreicht werden kann. Dies erfordert, dass die Private-Equity-Anleger und Investoren aktiver werden. Traditionell wurden die Wertsteigerungspro‐ 260 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity <?page no="261"?> gramme vom Management der Portfoliounternehmen mit Unterstützung von Unternehmensberatern oder von operativen Teams des Private-Equity-Funds vorangetrieben. In beiden Fällen wird die erforderliche Transparenz projekt‐ bezogen, aber in der Regel auf sehr manuelle Weise geschaffen, da der heutige Investor und auch das Management-Reporting meist auf eine rückwärts gerichtete (finanzielle) Berichterstattung ohne umfassende Faktenbasis über die strategische und operative Leistung beschränkt sind. Um diese Herausforderungen umfassend zu adressieren, müssen Private- Equity-Unternehmen neue Wege gehen. In diesem Kapitel beschreiben wir anhand der ValueWorks-Lösung, wie eine datengetriebene Portfoliosteue‐ rung nicht nur Transparenz im Portfolio in Echtzeit herstellen kann, sondern insbesondere mögliche Wertsteigerungen mit Handlungsempfehlungen hinterlegt - idealerweise mittels einer Plattform, die Portfoliounternehmen und Investoren gleichzeitig bedient. Die Plattform konzentriert sich auf die Schaffung von Transparenz und ermöglicht ein proaktives Management in einer schnelleren, kostengünstigeren (im Vergleich zu üblichen Business- Intelligence-Projekten) und für das Management geeigneten Benutzerober‐ fläche im Vergleich zu anderen Lösungen. 14.1 Herausforderungen der Private-Equity-Unternehmen und mögliche datengetriebene Lösungsansätze Wie beschrieben stellt aktuell das Marktumfeld und Zinsumfeld große Herausforderungen für Private-Equity-Unternehmen und Investoren. Die Gründe sind, wie in der →-Abbildung-31 gezeigt, unter anderem: • Akquisitionsprämien (aufgrund von nicht investiertem Kapital und Wettbewerb um Akquisitionsziele) sind signifikant gestiegen. In der Folge liegen die Kaufpreise und Bewertungen teils deutlich über histo‐ rischen Benchmarks. • Mehrfache Kontraktion der „Multiples“ (aufgrund der Rezessions‐ perspektive) - damit werden die im Markt gelebten Mechanismen der Wertsteigerung im Portfolio teilweise geschwächt oder unmöglich gemacht. • Zinserhöhungen aller wesentlichen Notenbanken zur Bekämpfung der Inflation, der höhere Finanzierungskosten und Abschläge auf künf‐ 14.1 Herausforderungen der Private-Equity-Unternehmen 261 <?page no="262"?> tige Gewinne verursacht und damit Unternehmensbewertungen gerade wachstumsorientierter Unternehmen unter Druck setzt. • Marktabschwung (allgemein geringere Wachstumserwartungen und verlangsamtes Wachstum, gefördert durch die Verlagerung des Schwer‐ punkts von Wachstumsüberlegungen auf Rentabilität und Liquidität (als Folge davon) - zudem weiterer Druck durch höhere Energiekosten und die durch den Krieg in der Ukraine und die Nachwirkungen der Coronakrise verursachten Probleme in der Lieferkette. - Confidential - CUSTOMER Akquisitionsprämie? • viele Fonds, begrenzte Ziele, trockenes Pulver • wettbewerbsfähige Prozesse, Optimierung vor dem Exit mehrfache Kontraktion? Erhöhung der Zinssätze?  „transformationeller Wandel“ erforderlich ‒ agile and datagetriebene Entscheidungsfindung ‒ klare Ausrichtung und Prioritäten in der gesamten Organisation  Fähigkeiten und Fertigkeiten für die Skalierung müssen implementiert werden  intelligente Plattform als digitale Grundlage Marktabschwung? Eingabewert Erwerbspreis Exit-Multiple Verschuldung/ Finanzierungskosten Marktwachstum Endwert Leistungsverbesserung/ Beschleunigung beschleunigt durch den Abschwung der Märkte Abb. 31: Private Equity Investoren Abbildung 31: Herausforderungen für Private-Equity-Investoren Um die damit entstehende oder drohende Wertsteigerungslücke zu schlie‐ ßen, verschiebt sich der Schwerpunkt zunehmend auf die Wertschöpfung und -steigerung innerhalb der Haltedauer der Investitionen und Beteiligun‐ gen. Dafür aber sind weit bessere Daten und Datenanalyse notwendig, als dies im bisherigen Marktszenario erforderlich war. Wertschöpfung und -steigerung im Portfolio erfordert jetzt untere anderem, dass die Beteili‐ gungsunternehmen eine Transformation zu generell leistungsfähigeren Or‐ ganisationen durchlaufen, skalierbare Prozesse und Wertschöpfungsketten 262 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity <?page no="263"?> etabliert werden sowie gezielt dynamische Fähigkeiten für Unternehmens‐ wachstum aufgebaut werden. All dies bedingt, dass mögliche Werthebel transparent sind und durch die Unternehmensleitung sowie Private-Equity- Unternehmen gezielt gesteuert werden können. Portfoliomanager von Private-Equity-Unternehmen oder mittelständi‐ schen Beteiligungsgesellschaften stehen dabei regelmäßig vor denselben Herausforderungen: • Einfacher Zugang zu individuellen Unternehmensberichten (in‐ klusive schnellem Erkennen von Änderungen historischer Daten oder Plänen und Prognosen). • Durchführung einer umfassenden Analyse des gesamten Portfo‐ lios (inklusive Ranking der Unternehmen nachwichtigen KPIs, Identi‐ fizierung gemeinsamer Trends bei den Portfoliounternehmen, internes und externes Benchmarking, intelligente Prognosen und Frühwarnun‐ gen nach KPI). • Konsolidierung/ Aggregation einzelner Unternehmen zu einer Unter‐ nehmensgruppen- oder Gesamtportfolio-/ Holding-Sicht. • Unterstützung der Umsetzung von Wertschöpfungsplänen, bei‐ spielsweise durch OKR-Pläne (die eine automatische Aktualisierung von „Schlüsselergebnissen“ durch Daten aus den Berichten der Portfolioun‐ ternehmen ermöglicht). Die derzeit vorherrschende Investorenberichterstattung ist aufgrund dieser Komplikationen nicht darauf ausgerichtet, jede Art von Wertsteigerungs‐ management zu unterstützen: Begrenzte und reaktive Transparenz • Investorenberichte sehen je nach Portfoliounternehmen sehr unter‐ schiedlich aus, was ein schnelles Verständnis der Probleme erschwert oder unmöglich macht. • Investorenberichte beschränken sich oft auf rückwärtsgerichtete und im Wesentlichen finanzielle Unternehmensberichterstattung. • Investoren können die Geschäftssituation nicht hinreichend verstehen, um dem Management mit externem Fachwissen und möglichen Bezie‐ hungsnetzwerken wirklich zu helfen. • Die Investorenberichte sind oft veraltet und spezifische KPls oder Daten werden erst nach einem Vorfall angefordert oder erstellt. 14.1 Herausforderungen der Private-Equity-Unternehmen 263 <?page no="264"?> Keine klare Vorstellung davon, was „gut“ bedeutet, und keine Quantifizierung des potenziellen Wertes • Fehlende Benchmarks erschweren das Verständnis der Bereiche, auf die sich Investoren konzentrieren sollten. • Darüber hinaus wird die Quantifizierung des Wertes durch fehlende Referenzwerte erschwert. Hoher manueller Aufwand und langwierige Iterationen • Fehlende Berichtsstandards für (potenzielle) Portfoliounternehmen (Verwendung eigener und inkonsistenter Kennzahlen). • Hoher Aufwand sowohl für die Portfoliounternehmen als auch für die Fonds aufgrund der manuellen Datenerfassung, einschließlich mehrerer Iterationen und wahrscheinlich nächtlicher Datenerfassung. Infolgedessen sind die Investoren oft dazu gezwungen, passiv zu bleiben und mögliche Wertsteigerungen nicht realisieren zu können, da sie ihre möglichen Optimierungen nicht umsetzen oder ausschöpfen können. Zu den typischen Möglichkeiten, diesen Herausforderungen zu begegnen ge‐ hört meist die (a) Beauftragung von Top-Managementberatern, (b) die Einrichtung spezieller operativer Teams auf Private-Equity-Fund-Ebene oder (c) der Aufbau eines Datenteams auf Fund-Ebene zur Unterstützung der Portfoliounternehmen. Allerdings sind die Optionen (a) und (b) oft sehr kostspielig und sind oft nicht nachhaltig, da sie die Entwicklung interner Fähigkeiten nicht ersetzen können. Option (c) ist ebenfalls sehr teuer, die Etablierung dauert länger und ist oft nur bei großen Investments darstellbar - zudem fehlt es den internen Datenteams an Fachwissen und Branchenvergleichen. Ein skalierbarer Ansatz sollte aber weit über ein finanzielles Reporting hinausgehen und muss mindestens Folgendes umfassen: • Technologie: Eine Intelligence-Platform mit einem Data Lake, der sowohl die Aggregation zu KPls als auch die Analyse granularer Daten für aussagekräftige Prognosen ermöglicht, sowie eine Plug&Play-Integ‐ ration mit den operativen Systemen der Portfoliounternehmen. • Inhalt: Sammlung der richtigen branchen- oder unternehmensspezifi‐ schen KPls, Deep-Drill-Visualisierungen und Benchmarks. 264 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity <?page no="265"?> • Führung und Strukturen: Sponsoring auf der Ebene des Investors/ Portfolios und des Portfoliounternehmens, Unterstützung des Prozesses und des technologischen Instrumentariums durch wichtige Nutzer. ValueWorks bietet eine datengetriebene Intelligence-Platform, die Portfo‐ liounternehmen und Investoren gleichzeitig unterstützt. Die Plattform konzentriert sich auf die Schaffung von Transparenz und ermöglicht ein proaktives Management von Schlüsselparametern in einer im Vergleich zu anderen Lösungen schnelleren, kostengünstigeren Lösungen und für das Management der Private-Equity-Unternehmen geeigneten Benutzerober‐ fläche. Während Private-Equity-Funds und Holdings oft unter heterogenen und meist finanzbuchhaltungs-zentrierten Berichten ihrer Portfoliounter‐ nehmen leiden, die meist in Form von Spreadsheets zur Verfügung gestellt werden, hilft ValueWorks, Transparenz auf allen Ebenen (strategisch, opera‐ tiv, finanziell, ESG) zu schaffen und ermöglicht eine umfassende Portfolio‐ analyse auf der Basis eines harmonisierten und vollständig digitalisierten Reportings und Online-Benchmarkings. Wertsteigerungspläne können bei‐ spielsweise mithilfe von integrierten OKR-Modulen erstellt werden. Da die Benutzeroberfläche auf die Managementebene als Nutzer ausgerichtet ist, erhalten Private-Equity-Funds und Holdings unabhängig von Mitarbeitern im Controlling oder der Fachbereichen Einblicke und Empfehlungen direkt als Grundlage für eine schnellere und bessere Entscheidungsfindung. Die Decision-Intelligence-Platform basiert auf einer modernen Datenar‐ chitektur und enthält bereits von Anfang an die richtigen Inhalte wie branchenspezifische KPIs, Visualisierungen und Benchmarks sowie Stan‐ dardschnittstellen zu operativen Systemen. Sie bietet einen hohen Nutzen sowohl für das Management des Portfoliounternehmens (keine Zeit- und Geldverschwendung durch den Start eines BI-Megaprojekts) als auch für die operativen Teams und die Manager des Investmentportfolios. ValueWorks hilft dann auch dabei, Bereiche, in denen die Portfoliounternehmen externe Unterstützung benötigen, schneller zu identifizieren und Top-Management‐ berater schneller auf den neuesten Stand zu bringen. Die Intelligence-Platform bietet eine moderne Datenarchitektur und ist bereits mit zahlreichen Tools ausgestattet, darunter branchenspezifische KPIs, Visualisierungen und Benchmarks sowie Standardschnittstellen zu operativen Systemen. Ziel ist, einen hohen Nutzen für das Management von Portfoliounternehmen, für operative Teams und für Investmentportfolio- 14.1 Herausforderungen der Private-Equity-Unternehmen 265 <?page no="266"?> Manager zu bieten. Damit wird ermöglicht, Bereiche zu identifizieren, in denen Portfoliounternehmen externe Fähigkeiten benötigen, und Top- Managementberater schneller auf den neuesten Stand zu bringen. - Confidential - Data Lakehouse (strukturierte & unstrukturierte Daten auf granularer Ebene, Zeitreihen, Transformation von Quelldaten mit dem Datenschema) Datenschema (Referenzmodell pro Branche mit relevanten Datenobjekten, Feldern, Feldinhalten) Anwendung (inkl. Datenbank mit aggregierten Daten, KI-Funktionen) zentrale Dienste (einschließlich Benchmarking- Daten) Benutzeroberfläche (responsives Design, intuitive Bedienung) CRM HR etc. Abb. 32: Datenarchitektur Integration (Konnektivität, "no-code" Standardschnittstellen) Accounting Marketing Product Mgmt Abbildung 32: Datenarchitektur Die Datenarchitektur besteht, wie in → Abbildung 32 dargestellt, aus sechs Elementen: 1. Integration: No-Code-Integration von operativen Systemen unter Ver‐ wendung einer Standard-Konnektivitätstechnologie wie beispielsweise OUATH 2.0 für den Zugriff auf Stammdaten mit Quellsystem. Im Falle von On-Premises-Systemen werden die Daten entweder über einen Spreadsheet-Upload oder durch Tunneln durch Firewalls gesammelt. 2. Datenschemata: Das Datenschema besteht aus einer umfassenden und branchenspezifischen Datenmodellierung der kompletten Unter‐ nehmensdaten mit Datenobjekten (z. B. für ,Kundeʻ, ,Produktʻ , ,Pro‐ jektʻ, ,Mitarbeiterʻ), zugehörigen Datenfeldern und definierten Feldattri‐ buten. Der ValueWorks-Data-Wizard pro operativem System ermöglicht das Mapping von Datenobjekten, Feldern und Feldattributen aus dem Quellsystem in das Datenschema. 266 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity <?page no="267"?> 3. Data Lakehouse: Speicherung von strukturierten und unstrukturierten Daten auf granularer Ebene, einschließlich Zeitreihen, die aus den Quellsystemen extrahiert, in ValueWorks geladen und gemäß dem Da‐ tenschema transformiert werden. 4. Anwendung: Unterstützung von Managementprozessen von der Pla‐ nung über die Berichterstattung bis hin zur Ausführung, wobei KI- Anwendungsfälle wie Vorhersage und Frühwarnung auf der Grundlage von granularen Daten aus dem Data Lakehouse abgedeckt werden. KI- Anwendungsfälle passen sich auf der Grundlage der verfügbaren Daten automatisch an neue Kunden an und optimieren die Anwendung des KI-Modells auf der Grundlage der erzielten Genauigkeit. 5. Benutzeroberfläche: Die Anwendung sollte auf allen Geräten, ein‐ schließlich Mobilgeräten, in einem responsiven Design verfügbar sein und eine intuitive Nutzung ermöglichen, insbesondere für Benutzer im Management. 6. Zentrale Dienste: Benchmarking-Daten sind ein Schlüsselelement der zentralen Dienste, die allen angeschlossenen Kunden zur Verfügung stehen. In den folgenden Abschnitten wird der ValueWorks-Ansatz sowohl auf der Ebene eines einzelnen Portfoliounternehmens als auch auf der Ebene eines Gesamtportfolios oder einer Holding behandelt. 14.2 Ansätze zur Wertsteigerung und Portfoliooptimierung Das Management von Portfoliounternehmen muss in die Lage versetzt wer‐ den, schnellere und bessere Entscheidungen zu treffen - zudem müssen die Beteiligungsgesellschaften und Private-Equity-Unternehmen Transparenz über die gewählten Maßnahmen und deren Beitrag zu Wertsteigerungen erhalten. Die hier beschriebene Lösung von ValueWorks führt beide Seiten zusammen. Beginnend mit einfachen aber verlässlichen Reportings zu einer modernen Intelligence-Platform mit einem leicht verständlichen Live-Dash‐ board im Stil der Kommunikation von Top-Managementberatern, das eine schnelle und gezielte Entscheidungsfindung auf allen Organisationsebenen (Investor, Portfoliounternehmen, operative Managementebene) ermöglicht und damit zur Wertsteigerungen beitragen kann. 14.2 Ansätze zur Wertsteigerung und Portfoliooptimierung 267 <?page no="268"?> Etablierung professioneller Management-Reporting-Standards für Portfoliounternehmen Das traditionelle Investorenreporting hat einen engen Fokus auf die Finanz‐ berichterstattung, wobei der Schwerpunkt auf der Finanzbuchhaltung liegt und detailliertere Informationen nur reaktiv, d. h. nach dem Eintreten von Ereignissen, angefordert werden, wohingegen ein modernes Management- und Investorenreporting einen viel breiteren Ansatz erfordert, insbesondere in Bezug auf die strategische und operative Leistung des Portfoliounternehmens. Aus der Datenperspektive erfordert dies einen branchenspezifischen Ansatz (→ Abbildung 33 zum Vergleich), da sich operative und strategische KPls und Benchmarks je nach Branche und Unternehmensgröße unterscheiden. - Confidential - © 2023 ValueWorks GmbH. All rights reserved Reporting Typ Format idealer Inhalt traditionelles Reporting ValueWorks finanzielles Reporting G&V G&V • im Stil der COGS Methode • industriespezifisch • detailliert Gewinn- und Verlustrechnung oft sehr allgemein und nicht branchenspezifisch Liquidität strukturierte Liquiditäts-Übersicht inkl.: • operativer Cashflow/ Investitions- Cashflow • Cashflow aus Finanzierung und Zinsen operationales Reporting KPIs • industriespezifische KPIs (70+) • Abdeckung der gesamten Unternehmensprozesse: • kundenbezogen • produktbezogen • lieferantenbezogen • Backoffice automatisch generierte Management- Graphiken • Vertriebspipeline • Umsatzprognose • MQL, SQL, Opportunities nach Quelle (Outbound, Inbound, Netzwerk, Partner) strategisches Reporting KPIs • industriespezifische KPIs (10+) • wichtigster Input zur Durchführung der Bewertung • Beispiel: Rule-of-40, Anteil des Recurring Revenue ESG Reporting KPIs • industriespezifische KPIs (20+), die den UN / GRI Standards folgen möglicher Umfang des Management- und Investoren-Reportings        Abb. 33: Vergleich eines traditionellen Investor Reportings zum ValueWorks-Ansatz Abbildung 33: Vergleich eines traditionellen Investor-Reportings zum ValueWorks-Ansatz Grundidee ist, dass die Portfoliounternehmen vollständig in die Implemen‐ tierung von ValueWorks eingebunden wird. Daher kann das Investoren- Reporting mit minimalem Aufwand für das Portfoliounternehmen vollstän‐ dig digitalisiert werden: 268 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity <?page no="269"?> • Automatisierte Informationsverarbeitung von den operativen Systemen des Portfoliounternehmens zum Management-Reporting und dann zum Investoren-Reporting. • Definition eines „Templates“ für das Investoren-Reporting mit einer Auswahl nützlicher und notwendiger KPls aus einer KPI-Bibliothek, einschließlich finanzieller, operativer, strategischer und ESG-Kennzah‐ len (typischerweise definiert nach dem Markt-Standard). • Bereitstellung eines digitalen Zugangs für Investoren, über die diese auf aktuelle Informationen zugreifen und diese kommentieren können. - Integration der operativen Systeme in den Portfoliounternehmen Die verwendeten operativen Systeme unterscheiden sich von einem Portfo‐ liounternehmen zum anderen. Darüber hinaus variiert die Messung der KPls erheblich, z.-B.: • Unterschiedliche GuV-Strukturen in Bezug auf Methodik, Benennung und Detaillierungsgrad • Unterschiedliche Definitionen von Prozessen, z. B. des Verkaufstrichters (Stufen, Messung von Conversion Rates etc.) Ebene des Portfolio- Management Ebene der Portfolio- Unternehmen Abb. 34: Integration Accounting CRM Marketing ProductMgmt HR etc Accounting CRM Marketing ProductMgmt HR etc Accounting CRM Marketing ProductMgmt HR etc Datenmodell (Referenzmodell pro Branche mit relevanten Datenobjekten, Feldern, Feldinhalten) Datenmodell (Referenzmodell pro Branche mit relevanten Datenobjekten, Feldern, Feldinhalten) Integration (Konnektivität, "no-code" Standardschnittstellen) Datenmodell (Referenzmodell pro Branche mit relevanten Datenobjekten, Feldern, Feldinhalten) Integration (Konnektivität, "no-code" Standardschnittstellen) Datenmodell (Referenzmodell pro Branche mit relevanten Datenobjekten, Feldern, Feldinhalten) Integration (Konnektivität, "no-code" Standardschnittstellen) Abbildung 34: Integration der operativen Systeme in den Portfoliounternehmen In → Abbildung 34 sind die Datenebenen des Portfoliomanagements und der Portfoliounternehmen dargestellt. Die Integration erfolgt über Referenz‐ modelle, die pro Branche zunächst Datenobjekte, Felder und mögliche Feldinhalte definieren, damit aber eine mehrdimensionale Vergleichbarkeit 14.2 Ansätze zur Wertsteigerung und Portfoliooptimierung 269 <?page no="270"?> innerhalb des Portfolios und außerhalb in den Markt und zu Benchmarks ermöglichen. Eine harmonisierte Berichterstattung wird möglich durch (a) einen Abruf der detailliertesten Daten aus den operativen Systemen über Standard‐ schnittstellen (APIs) und (b) ein gemeinsames Datenschema zur Vereinheit‐ lichung der Daten in den verschiedenen Systemen, die voneinander getrennt sind. - Datengetriebene Software- und Entscheidungsarchitektur und Visualisierung Der Ansatz von ValueWorks unterscheidet sich in den folgenden Dimensi‐ onen und Formaten grundlegend von der traditionellen Portfolioberichter‐ stattung (→-Abbildung 35). - Confidential - © 2023 ValueWorks GmbH. All rights reserved Dimensionen traditionelle Portfolio- Berichterstattung ValueWorks Vorteile Nutzer Analysts Investmentmanager, C-Level sofortige Analyse und Entscheidungsfindung, kein Mittelsmann erforderlich Deep-drill- Visualisierungen nein Data Lakehouse ermöglicht detaillierte Analysen und sofort einsetzbare Visualisierungen laufende detaillierte Analyse und Problemvisualisierung Benchmarking nein intern + extern Kalibrierung der Unternehmensleistung und Ermittlung von Verbesserungsbereichen Analytics einfach Advanced Analytics + KI genauere Vorhersage künftiger Entwicklungen usw. Frühwarnung nein yes proaktives Management von Problemen, bevor es zu schlimm wird Empfehlungen nein yes Leitplanken für eine bessere Entscheidungsfindung Abb. 35: Portfolio Berichterstattung Abbildung 35: Ansatz von ValueWorks bei der Portfolioberichterstattung Investoren können von einer dedizierten Portfolioinstanz profitieren, um auf alle individuellen Berichte der Portfoliounternehmen zuzugreifen und diese zu analysieren. Darüber hinaus bietet die Portfolio-Instanz eine um‐ fassende Analyse des gesamten Portfolios sowohl auf aggregierter als auch auf detaillierter KPI-Ebene. 270 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity <?page no="271"?> - Confidential - CUSTOMER Investor Report Analyse Übersicht der Investor Reports (nach Datum) Vergleich zwischen verschiedenen Investor Reports Zugriff und Kommentierung von einzelnen Berichten Vorhersagen von KPIs und Frühwarnhinweise Unternehmensbewertung der Portfoliounternehmen Portfolio Analyse Portfolio Übersicht Ranking der Top KPIs Vergleich nach KPI (und mit externen Benchmarks) Konsolidierung nach Gruppen (Erlöse, Kosten) Wertschöpfungsmanagement „Full Potential Diagnostics“ „Value Creation“-Plan: Vorschlag für OKRs nach Werthebel Wertsteigerungsmanagement (basierend auf OKRs) Bewertung des gesamten Portfolios Abb. 36: Möglichkeiten einer intelligenten Abbildung 36: Möglichkeiten einer intelligenten Portfolio-Management-Lösung Der Vergleich von zwei Spreadsheets auf Änderungen der historische Werte oder Zukunftsprognosen ist mühsam und fehleranfällig. Investoren verlangen einen schnellen und zuverlässigen Überblick darüber, wo und warum Werte angepasst wurden. Mögliche Gründe für die Anpassung der vergangenen Werte pro Kennzahl sind z. B. die Stornierung eines Vertrages oder die Korrektur einer falschen Buchung. Die Zukunftsprognosen werden etwa aufgrund von konjunkturellen Faktoren angepasst. Die Portfolioin‐ stanz ermöglicht den zentralen Zugriff auf die Berichte von einzelnen Portfoliounternehmen oder Gruppen. Es werden wichtige KPls und deren aktuelle Performance angezeigt und durch geeignete Visualisierung für Entscheidungen aufbereitet (→-Abbildung-37). Die Leistung der Portfoliounternehmen wird verglichen, indem die wich‐ tigsten KPls (z. B. Umsatz, EBITDA, NPS, CAC) auf verschiedene Weise ana‐ lysiert werden, beispielsweise „absolute Leistung gegenüber Benchmarks“, „relative Leistung gegenüber Plan“ oder „Wachstum gegenüber der Vergan‐ genheit“. Ein auf der erzielten Leistung basierender Score hilft bei der Einstufung der Portfoliounternehmen. Darüber hinaus werden die Portfoli‐ ounternehmen nach der Wertschöpfung eingestuft. Die Bewertung kann beispielsweise auf der Grundlage des aktuellen/ geplanten Umsatzes und der Umsatzmultiplikatoren aus externen Quellen mi Vergleich zu früheren Bewertungen oder dem Kaufpreis berechnet werden. KPI-Trends innerhalb 14.2 Ansätze zur Wertsteigerung und Portfoliooptimierung 271 <?page no="272"?> des Portfolios und mi Vergleich zu externen Benchmarks sind leicht zu erkennen. Interne (innerhalb des Portfolios) und externe Benchmarks helfen bei der Ermittlung des gesamten Verbesserungspotenzials für das Portfolio oder für einzelne Portfoliounternehmen. Abbildung 37: Visualisierung der Unternehmens- und Portfoliodaten Beispielsweise können Kundenakquisitionskosten (CAC) über die Portfoli‐ ounternehmen hinweg verglichen werden. Die Definition der KPIs kann da‐ her standardisiert werden, um eine Benchmarking-Perspektive zu erreichen. 272 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity <?page no="273"?> Darüber hinaus sollte der richtige Zeitraum gewählt werden, um mit vorü‐ bergehenden Ausreißern umgehen zu können. Um das Verbesserungs- und Wertsteigerungspotenzial zu beurteilen, können die Unternehmenswerte mit einem Referenzwert verglichen werden: 1. Interner Durchschnitt der Portfoliounternehmen 2. Interner Benchmark über alle Portfoliounternehmen 3. Community-Benchmark 4. Externer Benchmark Das Wertsteigerungspotenzial wird als Summe des Verbesserungspotenzi‐ als über alle Portfoliounternehmen berechnet. Das individuelle Verbesse‐ rungspotenzial ist die Differenz zum Referenzwert multipliziert mit einem anderen Faktor (z. B. bei CAC ist es die Anzahl der Neukunden), wenn der Referenzwert besser ist als der der Unternehmen. Warnmeldungen können sowohl für einfache Anwendungsfälle als auch auf der Grundlage des gemeldeten aggregierten Werts festgelegt werden. Ein Beispiel wäre ein Trend bei der Liquidität, die innerhalb der nächsten drei Monate auslaufen könnte. Darüber hinaus sind auf der Grundlage der granularen Daten im Data Lakehouse KI-basierte Vorhersagen für jeden KPI möglich, wenn sie vom Portfoliounternehmen freigegeben werden. Das breite Spektrum an detail‐ lierten Zeitreihen (bis auf Stundenebene) aus allen operativen Systemen und externen Datenquellen hilft also nicht nur bei der Vorhersage, sondern auch bei der Ermittlung der Haupttreiber. Treiber, die stark mit dem vorher‐ gesagten KPI korrelieren, sind ein Hinweis auf eine mögliche Kausalität, was als Frühwarnindikator angesehen werden kann. In jedem Fall ist die Vorhersage aufgrund der umfassenderen und granulareren Eingabedaten genauer als herkömmliche Statistiken. Insbesondere Holdings müssen die KPIs ihrer Portfoliounternehmen zu einer aggregierten Performance konsolidieren: • Umsätze (einschließlich der Aufteilung in verschiedene Umsatzkatego‐ rien) • Kosten (einschließlich der Aufteilung in verschiedene Kostenkatego‐ rien) • Anzahl der Kunden • Anzahl der Mitarbeiter 14.2 Ansätze zur Wertsteigerung und Portfoliooptimierung 273 <?page no="274"?> Darüber hinaus ist eine konsolidierte Berichterstattung über die Segmente des Portfolios erforderlich. Bei den Segmenten kann es sich um verschiedene Branchen, geografische Gebiete oder Produktbereiche handeln. Wenn die Währungen der einzelnen Unternehmen unterschiedlich sind, müssen die Finanzdaten in die führende Währung umgerechnet werden, um ein den tatsächlichen Verhältnissen entsprechendes Bild der Manage‐ mentleistung zu vermitteln. Dies ist der Hauptunterschied zwischen der Managementbuchhaltung, die feste Wechselkurse verwendet, und der Fi‐ nanzbuchhaltung, die aktuelle Wechselkurse verwendet. - Wertschöpfungsmanagement mit OKR-Unterstützung Die Maßnahmen zur Wertschöpfung können in vier Bereiche kategorisiert werden, die auf den Auswirkungen auf den Wert (→ Abbildung 38) und dem Zeitpunkt der Realisierung der Auswirkungen basieren: (a) Multiple- Expansion, (b) Top-Line-Maßnahmen zum Umsatzwachstum, (c) Bottomline-Maßnahmen zur Effizienzsteigerung und schließlich (d) Optimierung der Finanzierung und Schuldenabbau. Eine wichtige Voraussetzung für ein erfolgreiches Ineinandergreifen der Maßnahmen ist, dass die zugrundeliegenden Daten vorhanden und konsistent sind, um das Optimierungspotenzial zu bewerten und ent‐ sprechend umzusetzen. Programme zur Steigerung der Vertriebsqualität erfordern eine angemessene Analyse der aktuellen Produktpalette und der Preisgestaltung auf Kundenebene, um z B. weiße Flecken im Vertrieb oder Möglichkeiten zur Preisharmonisierung/ -erhöhung zu ermitteln. Ein Softwareunternehmen kann beispielsweise seinen Umsatz und seine Ge‐ winnspanne erhöhen, indem es die Wartungsgebühren auf Marktniveau standardisiert. Kostenoptimierungen werden durch die Bündelung des Beschaffungsvolumens über die Portfoliounternehmen hinweg (und viel‐ leicht darüber hinaus mit anderen Portfolios) und die Neuverhandlung von Preisen mit wichtigen Lieferanten ermittelt. Dazu müssen die Ausgaben für Dritte nach einem detaillierten Kostenstrukturschema kategorisiert und ein Ausgabenwürfel auf der Grundlage einzelner Transaktionen erstellt werden. 274 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity <?page no="275"?> - Confidential - CUSTOMER Auswirkungen auf den Wert allgemeine Maßnahmen (kurzfristig) allgemeine Maßnahmen (mittel-/ langfristig) branchenspezifische Maßnahmen, Beispiel Softwaregeschäft (kurzfristig) branchenspezifische Maßnahmen, Beispiel Softwaregeschäft (mittelfristig) branchenspezifische Maßnahmen, Beispiel Softwaregeschäft (langfristig) Multiple Expansion (Erhöhung der Bewertungsmultiplikato ren durch Umgestaltung des Geschäftsmodells) Verkaufs- und Preisinitiativen • Wartungsrate erhöhen/ harmonisieren Cloud/ SaaS transformation • Subscription model Produktisierung von Dienstleistungen • Umwandlung von Dienstleistungen in Produkte (z. B. neue Wartungsmodelle, Templatisierung) • Übertragung von Dienstleistungen an Vertriebspartner (+Absicherung) Top-Line- Maßnahmen (Umsatzwachstum durch Preisgestaltung und -durchsetzung, Cross- und Up-Selling und überarbeitetes Vertriebsmodell) Vertriebsexzellenz • Kundenbetreuung • Cross-Selling • neue Kundensegmente Verbesserte und neue Produkte • Produktinnovation • Erweiterung der Produktpalette • hervorragender Vertrieb • geografische Expansion Vertriebs- und Preisgestaltungsinitiativen • harmonisierte Preisgestaltung/ Rabattmanagement • Lizenzbündelung und Preisgestaltung • Partner-Ökosystem Cloud/ SaaS- Umwandlung • Upselling-Pfade (z. B. Durchdringung mit mehr Nutzern, umsatzbasierte Preisgestaltung) • Cross-Selling von neuen SaaS- Produkten (eigene, Partner) Produktisierung von Dienstleistungen • Monetarisierung von Daten • Künstliche Intelligenz und maschinelles Lernen Bottom-Line- Maßnahmen (Effizienzgewinne durch Skaleneffekte und Digitalisierung) Procurement • Applying portfoliowide discounts • Bundling and renegotiation of top contracts Working capital optimization Digitalisierung/ Shared Services • Synergien im Back- Office-Bereich (Finanzen, Beschaffung, HR/ Recruiting) • Gemeinsame IT- Tools (aus der Cloud) Standort-Strategie • Bündelung von Standorten Cloud/ SaaS- Umwandlung • interner Vertrieb • Selbstbedienung/ AppStore Konsolidierung • Software-Stapel • Rechenzentren Modernste Softwaretechnik • agile Entwicklung • DevOps-Umstellung • Nearshoring Finanzierung der Hebelwirkung (optimierte Kapitalstruktur mit reduzierten Kapitalkosten) bessere Finanzierungsmöglichkeiten aufgrund des hohen Anteils an wiederkehrenden Einnahmen Quelle: BCG, ValueWorks Abb. 38. Beispiel eines Wertschöpfungsplans Abbildung 38: Beispiel eines Wertschöpfungsplans für ein Softwareunternehmen Der Wertschöpfungsplan dient als Grundlage für die Verzahnung von Zielen und Maßnahmen, beispielsweise mittels OKRs (Objectives and Key Results), auf Unternehmens-, Team- und Programmebene und wird dann umgesetzt. Portfolioweite Initiativen könnten mithilfe von OKRs auf Portfolio/ Fonds‐ ebene und mit Unterstützung von Vertretern des Fonds und einzelner Portfoliounternehmen verfolgt werden. OKRs haben sich bereits als agile Zielsetzungsmethodik bewährt und sind daher eine gute Grundlage für die Mobilisierung der Organisation(en). ValueWorks ermöglicht die automa‐ tisierte Messung von „Schlüsselergebnissen“ aus Controllingdaten, um den OKR-Pflegeaufwand auf wenige Minuten pro Zyklus zu reduzieren. Die folgenden beispielhaften OKR-Definitionen veranschaulichen, wie die Elemente eines Wertschöpfungsplans in OKRs als Grundlage für die operative Umsetzung übersetzt werden können. 14.2 Ansätze zur Wertsteigerung und Portfoliooptimierung 275 <?page no="276"?> - Confidential - CUSTOMER Key Result 1: durchschnittliche Standardwartungsrate für Neukunden von 13 % auf 20 % Key Result 3: definieren Sie Premium- Wartung und gewinnen Sie die ersten 5 Kunden Milestone: Nutzenversprechen für die Standardwartung definieren Milestone: Vorbereitung der externen und internen Kommunikation Milestone: Kommunikation durchführen Milestone: Durchführung von Markt- und Wettbewerbsforschung Milestone: Definieren Sie Verpackung & Preisgestaltung für Premium-Wartung Milestone: Priorisierung & Ansprache von mehr als 20 potenziellen Kunden Zielsetzung: Anwendung von portfolioweiten Rabatten Key Result 1: Einsparungen in Höhe von x Euro durch Neuverhandlung mit den 5 wichtigsten Lieferanten Key Result 2: Erstellung eines Beschaffungsausgabenwürfels, der 50 % der Ausgaben für Dritte abdeckt Meilenstein: Identifizieren Sie die wichtigsten Lieferanten und die Ausgaben des letzten Jahres Meilenstein: Vorbereitung von Verhandlungen und Terminierung von Lieferantentreffen Meilenstein: Verhandlungen mit den 5 wichtigsten Lieferanten führen Meilenstein: Erstellung eines einheitlichen Kategorienschemas, z. B. nach einer detaillierten GuV Meilenstein: Priorisierung der Kategorien für die Erstellung von Ausgabenwürfeln Meilenstein: Datenzuordnung und -bereinigung durchführen * Weitere Erhöhungen in den kommenden Quartalen Meilenstein: Schaffen Sie Transparenz über den Wartungsgrad nach Kunde Meilenstein: Definition des Wertversprechens & der Botschaft für die Erhöhung der Gebühr Meilenstein: Ansprechen von Kunden (z. B. über Kundenbetreuer) Meilenstein: Festlegung der 5 Lieferanten und des Standards für alle Portfoliounternehmen Milestone: Analysis of areas for bundling and renegotiation or new suppliers. Key Result 2: duurchschnittlicher Standard-Wartungssatz für bestehende Kunden von 13 % auf 15 %* Zielsetzung: Anhebung/ Harmonisierung der Wartungsraten Abb. 39: Beispiel OCR-Definition Abbildung 39: Beispiel für OKR-Definitionen für Elemente des Wertschöpfungsplans. 14.3 Zusammenfassung und Ausblick Die Herausforderungen der Steuerung von Investmentportfolios durch Pri‐ vate-Equity-Unternehmen oder mittelständische Beteiligungsgesellschaften sind wesentlich von makroökonomischen Rahmenbedingungen abhängig. Zahleiche Investmentportfolios kommen aktuell aufgrund steigender Finan‐ zierungskosten, Verwerfungen infolge der Coronapandemie und des Kriegs in der Ukraine unter Druck. In der Folge sind bessere Steuerungsinstrumente notwendig, die schneller und verlässlicher Wertsteigerungen identifizieren 276 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity <?page no="277"?> und umsetzen helfen. Datengetriebene Lösungen, die eine effiziente Integra‐ tion unterschiedlicher Datenquellen über die Portfoliounternehmen hinweg ermöglichen, können hier Wettbewerbsvorteile schaffen. Dies gilt um so mehr, wenn die Daten zu Transparenz der Ist-Situation zwischen Investor und Beteiligungsunternehmen und der Ableitung von Maßnahmen zur Wertsteigerung beitragen. Der hier beschriebene Ansatz bietet Investoren und ihren Portfoliounter‐ nehmen zahlreiche auf Daten basierende Vorteile: 1) Verbesserte Einblicke und höherer Transparenz • Leicht verständliche Berichterstattung auf der Grundlage von Best- Practice-Beispielen aus dem Bereich Private Equity. • Echtzeit-Zugang zu strategischen, operativen, finanziellen und ESG- Berichten. • Integrierte Benchmarks, die es Investoren ermöglichen, die Situation besser und schneller zu verstehen und das Management proaktiv zu unterstützen. 2) Vereinfachte Vorbereitung von Finanzierungsrunden und laufende Berichterstattung • Best-Practice-Vorlagen für die Berichterstattung nach Branchen, ein‐ schließlich eines vordefinierten Satzes von rund 100 Standard-KPIs. • Integration mit Transaktionssystemen über API, die eine automatische Berechnung von KPls und Echtzeit-Reporting über leicht verständliche Dashboards ermöglicht. 3) Skalierbare intelligente Lösung für die Wertsteigerung • Software-eingebettete Leitplanken für datengesteuertes Management. Die passenden KPIs, Management-ready Visualisierungen und integ‐ rierte Benchmarks. • Empfehlungen, die automatisch vom System generiert werden. Entscheider und Investoren werden damit von proaktiven und datengesteu‐ erten Decision-Intelligence-Funktionen unterstützt, die Orientierungshilfen für eine schnellere und bessere Entscheidungsfindung bieten. Nach dem 14.3 Zusammenfassung und Ausblick 277 <?page no="278"?> Vergleich von Ist-Werten und Benchmarks werden Probleme und Fragen identifiziert. Die KI-gestützte Vorhersage hilft zu bestimmen, ob sich ein erkanntes Problem verschärfen oder entspannen wird. Auf der Grundlage der zugrundeliegenden Entscheidungsbäume und der Daten aus dem Data Lakehouse, ergänzt durch die Einschätzung des Managements, liefert die Ursachenanalyse eine Diagnose des Problems und empfiehlt eine Lösung. 278 14 Datengetriebene Wertsteigerung und Portfoliosteuerung im Private Equity <?page no="279"?> 15 Datengetriebene Logistikplanung mit KI | von Stefan Kremsner In diesem Kapitel wird ein konkreter Use-Case beschrieben, der das Po‐ tenzial durch bessere Vernetzung und algorithmische Nutzung relevanter Daten abteilungsübergreifend innerhalb eines Unternehmens verdeutlicht. Im Folgenden wird Stellung genommen, zu Schwächen in bestehenden IT-Logistikprozessen und wie Lieferketten durch gesamtheitliche Planung mit signifikanten Einsparungen optimiert werden können. Durch dynami‐ sche Optimierung der Materialzulieferung eines Automotive-Zulieferers mit künstlicher Intelligenz wird gezeigt, wie es datengetrieben möglich ist, alle transportrelevanten Faktoren zu berücksichtigen und detaillierter geplante Transporte mit besserer Auslastung zu realisieren. 15.1 Herausforderungen datengeriebener Logistik Die Logistik unserer Zeit ist eine bereits mehrheitlich auf möglichst viel Effizienz getrimmte Branche. Diverse Tools und Software-Plattformen ver‐ einfachen heutzutage Disponent: innen weltweit die Arbeit und erhöhen die Qualität der manuell geplanten Transportrouten. Trotz all dieser Innovatio‐ nen der vergangenen Jahre bietet die Logistik noch immenses Optimierungs‐ potenzial. Datengetrieben ist die Logistik z. B. in der Automobilindustrie mit ihren vielen Datenaustausch-Standards bereits seit Jahrzehnten. Aller‐ dings denkt und agiert die Logistik-IT-Planung in komplexen Lieferketten vielmehr eindimensional und - parallel der Unternehmensstrategie und -organisation - isoliert anstatt übergreifend und ganzheitlich. Ein Großteil aller geplanten LKWs und Seefrachtcontainer in der Supply- Chain eines produzierenden Unternehmens nutzt den vollen Laderaum nicht aus, da durch die Komplexität der operativen Transportplanung oder aufgrund von manuellen Eingriffen es schlichtweg zu schwierig ist alle vorhandenen Parameter und Nebenbedingungen in die Transportplanung mit einzubeziehen. Das dynamische Agieren der Materialsteuerung auf schwankende Bedarfe im Spannungsfeld zwischen Produktionsplanung, Bestandsminimierung, komplexer Variantenvielfalt und speziellen LKW- <?page no="280"?> Stapelbarkeiten von Zulieferteilen wie im Automotive ist die Bestrebung nach Effizienz in einer optimalen vernetzten Logistikdatenwelt. In dieser Agilität birgt sich ein ökonomisch und ökologisch riesiges Potenzial für Automobilhersteller und -zulieferer, um die Logistikkosten nachhaltig zu senken. Diese verfügbaren Potenziale erfasst die innovative Software Mas‐ terScheduler von s2 data & algorithms in ihrer Gesamtheit und unterstützt mithilfe von künstlicher Intelligenz die gesamtheitliche Planung und Opti‐ mierung der Lieferkette, welche die Logistik nicht nur kosteneffizienter, sondern auch wesentlich CO 2 -schlanker macht. Hierbei ist das wichtigste Anliegen die individuellen Anforderungen der Logistikprozesse der jeweiligen produzierenden Unternehmen genaustens abzubilden und somit das gesamt mögliche Potenzial zu erkennen und auszunutzen. Dabei spielen die grundlegenden Daten die entscheidende Rolle. Umso umfangreicher alle transportrelevanten Stammdaten und Be‐ wegungsdaten zur Verfügung gestellt werden, desto leistungsfähiger kann der Algorithmus entscheiden. Diese Datenpakete umfassen in der Regel Informationen zu Packungsgrößen, Abmessungen, Stapelbarkeit der Güter, Lieferparameter wie z. B. das verfügbare strategische Transportnetzwerk mit unterschiedlichen Transporttarifen, produktionsspezifische Daten wie Lagerstände und viel, viel mehr. Durch die Vernetzung der wichtigsten Da‐ ten aus den Bereichen Logistik, Produktion und Warenwirtschaft kann ein globales abteilungsübergreifendes Supply-Chain-Kostenoptimum gefunden werden, mit signifikanten Auswirkungen auf Wirtschaftlichkeit und Wett‐ bewerbsvorteil für Industrieunternehmen. - Use Case: Automobil-Zulieferung In der täglichen Disposition plant ein produzierendes Unternehmen die Versorgung seiner Produktion mit Rohmaterial von Lieferanten. Das hohe Transportvolumen im Automotive macht es kosteneffizienter, stets volle LKWs zu planen und den Spediteur als langfristigen Kontraktlogistiker zu binden und Woche für Woche mehrmals bei den Lieferanten an bestimmten Tagen die Anlieferung durchzuführen. Dem Lieferanten werden vorab benötigte Mengen basierend auf Kundenabrufen, Produktionsplanung und Lagerbeständen gemeldet samt Vorausschau für die nächsten Wochen und Monate. Die Planung der Materialien in Gebinden auf möglichst volle LKWs (genannt FTL: Full Truck Load) oder kosteneffizienteste LTL-Tarife (Less Than Truckload, eine LKW-Teilladung) ist dabei das zentrale Opti‐ 280 15 Datengetriebene Logistikplanung mit KI <?page no="281"?> mierungsproblem. Der Status quo der Industrie ist die statische Planung von festen Liefertagen, an denen der Lieferant mit bestimmter Frequenz pro Woche angefahren wird, um Ware abzuholen. Je nach Volatilität der Produktion, Bestandsoptimierung oder Zusammensetzung der benötigten Materialien in Gebinden am LKW schwankt dementsprechend auch die Auslastung von LKWs. Ein Potenzial, das durch Verknüpfung relevanter transportentscheidender Faktoren und innovativen Algorithmen hebbar wird, entsteht. Durch in die Jahre gekommene IT-Werkzeuge wird weiters das komplexe Planungsproblem zu einfach modelliert. Transportauslastung wird nicht in physikalische notwendiger 3D-Beladung samt Stapelbarkeiten unterschiedlicher Containergrößen, sondern eindimensional in reinen La‐ demetern angegeben. Fehlende Transparenz und bewusste Vereinfachung komplexer Prozesse schürt weiters im Management-Reporting der Logistik- KPIs den Irrglauben, die Logistik funktioniere effizient, während der reale tiefgehende Blick entgegen der flachen, eindimensionalen Scheibe die runde Logistikwelt zurecht ineffizient darstellt und den vermeidbaren Leerraum am Transport dreifach exakt bemisst. Abb. 40: Transportauslastung vor und nach Optimierung samt Beispiel-LKW vorher: durchschnittliche Auslastung | 70,9 % nachher: durchschnittliche Auslastung | 92,2 % gesamtheitliche Optimierung durch MasterScheduler +21,3 % mehr Auslastung Abbildung 40: Transportauslastung vor und nach Optimierung samt Beispiel-LKW 15.1 Herausforderungen datengeriebener Logistik 281 <?page no="282"?> Es ist notwendig verfügbaren Detailgrad in der Planung datengetrieben zu schaffen und die Realität in einem Optimierungsmodell detailgetreuer abzubilden. Durch die dynamische operative und taktische Transportplanung ent‐ scheidet MasterScheduler wesentlich, wie die Materialsteuerung voraus‐ schauend und bis in 3D optimal erfolgt. Dafür werden die benötigten Materialien von Lieferanten gesamtheitlich und bedarfsorientiert optimiert und unter Berücksichtigung von Produktion, Lager, Transportequipment, -tarifen und vorausschauend geplant. Die relevanten Stamm- und Bewe‐ gungsdaten kommen in der Praxis meist aus verschiedenen Systemen wie ERP, Transportmanagement-System (TMS) oder Warenwirtschaft (WMS). - Confidential - Abb. 41: Überblick System-Integration als Add-On um datengetrieben zu optimieren Lieferanten transportrelevante Daten aus mehreren Systemen werden übermittelt gesamtheitlich optimierte Transporte werden zurückgespielt MasterScheduler TMS ERP ERP WMS ERP Abbildung 41: Überblick Systemintegration als Add-On um datengetrieben zu optimieren Die diametralen Zielgrößen der Kosteneffizienz liegen im Balanceakt: Trans‐ portkosten, vs. Lager- und Kapitalbindungskosten. In anderen Worten, es lohnt sich, LKWs und Seefrachtcontainer bewusst besser auszulasten und höhere Bestände in Kauf zu nehmen, um gesamtheitlich Kosten zu minimieren. MasterScheduler plant hierfür optimierte Lieferungen bzw. Bestellungen des Lieferanten, um jeden notwendigen LKW mit möglichst 282 15 Datengetriebene Logistikplanung mit KI <?page no="283"?> vielen Materialien der Folgetage aufzufüllen und bereits früher mitzuneh‐ men. Dadurch steigt die Transportauslastung in Gewicht, Volumen und Lademetern, als auch die Versorgungssicherheit bei Lieferunterbrechungen. Mehr noch konsolidiert der Algorithmus LKW-Ladungen, die nur Teile eines LKWs auslasten, zu vollen LKWs (sogenannte Milkruns mit mehreren Be- oder Entladestellen). Die Kommissionierung von Container und Paletten sowie die volle 3D-Beladung unter allen operativen Nebenbedingungen auf der Ladefläche erfolgt über die Wochen hinaus simultan, um das Potenzial an freiem Laderaum noch weiter zu verbessern in dem dadurch größeren Suchraum an mathematischen Lösungen. Damit wird in einem Zeitraum die minimale Anzahl an konsolidierten Transporten gefunden, um mit voller Auslastung kosteneffizient die Transportplanung mit Versorgungssi‐ cherheit zu gewährleisten. Die Konsequenz der volleren Beladung unter Berücksichtigung von Produktion, Lager und Transportplanung bedeutet für den Automotive-Interior-Hersteller: 21,3 % mehr Transportauslastung und damit im Schnitt eine Einsparung von 1 von 5 LKWs. Die Logistikkosten im Automotive liegen bei 3-6 % des Umsatzes. Der große Fußabdruck von Scope-3-Emissionen durch Logistikdienstleister schmerzt sichtlich sowohl im notwendigen Transportbudget als auch in der CO 2 -Bilanz. Der Use Case der Zulieferung von Rohmaterialien ist universell. In der Branche liefert die gesamtheitliche Optimierung der Transporte einen signifikanten Wettbewerbsvorteil, der erst greifbar wird, wenn die relevanten Daten zusammengefügt werden und algorithmisch verarbeitet werden. Dabei wird den Disponent: innen, Supply-Chain-Manager: innen und Logistiker: innen ein Decision Support geliefert, der die tägliche Arbeit erleichtert, Fachwissen in Form von Methodik und Algorithmik konserviert und eine Datenbasis schafft, die für Analytics besonders wertvoll ist. - Daten in Unternehmen heutzutage Insgesamt sind Daten nicht nur das Herzstück der digitalen Wirtschaft, sondern ihr Potenzial für alle Unternehmen enorm. Die Analyse dieser Daten ermöglicht es Unternehmen, fundierte Entscheidungen zu treffen und ihre Wettbewerbsfähigkeit auf dem Markt zu steigern. In den nachfolgenden Abschnitten werden wir uns mit dem Potenzial von Daten und deren Analyse für Unternehmen beschäftigen und zeigen, wie sie die Entschei‐ dungsfindung innerhalb von Unternehmen verändern. 15.1 Herausforderungen datengeriebener Logistik 283 <?page no="284"?> Daten werden oft als das „neue Gold“ der digitalen Ära bezeichnet. Sie enthalten wertvolle Informationen, die Unternehmen helfen können, ihre Prozesse zu optimieren, neue Geschäftsmöglichkeiten zu erkennen und Risiken zu minimieren. Die Fähigkeit, große Mengen von Daten effektiv zu analysieren und daraus Erkenntnisse zu gewinnen, ist in der modernen Logistik und der Effizienz der Lieferkette von entscheidender Bedeutung. 15.2 Advanced Analytics - Datenanalyse in der Logistik Ein entscheidender Aspekt der Datenanalyse ist die Fähigkeit, Muster und Zusammenhänge in den Daten zu erkennen. Neben altbekannten Möglichkeiten diese Datenflut zu filtern und zu clustern, bietet die Technik heutzutage auch wesentlich innovativere Tools. Diese ermöglichen es Unter‐ nehmen, fundierte Entscheidungen zu treffen, die auf Fakten und Analysen basieren, statt auf Intuition oder Vermutungen. Z.-B. können Logistikdaten analysiert werden, um herauszufinden, wie Produktion und Logistik in einem höheren Maße miteinander verzahnt werden können. Auf diese Weise können Unternehmen ihre Ressourcen gezielter einsetzen, Synergien im strategischen Transportnetzwerk und unter Spediteuren nutzen und langfristig Logistikstückkosten pro Material senken. Wie bereits angedeutet ermöglichen revolutionäre Softwarelösungen, wie beispielsweise MasterScheduler, die Transparenz der zur Verfügung stehenden Daten. Diese fortschrittlichen Technologien, oftmals auf Basis von künstlicher Intelligenz (KI) und maschinellem Lernen, haben die Art und Weise, wie Unternehmen Daten analysieren, revolutioniert. Mithilfe dieser Technologien können Unternehmen komplexe Datenmengen in kürzester Zeit verarbeiten und wertvolle Erkenntnisse gewinnen. Dies ermöglicht es ihnen, schnell auf Veränderungen im Markt zu reagieren und Wettbewerbs‐ vorteile zu erzielen. Ein weiterer Vorteil der Advanced Analytics ist die Möglichkeit, Progno‐ sen und Vorhersagen für die Zukunft zu treffen. Unternehmen können mit‐ hilfe von Datenanalysen zukünftige Trends über Kosten, Lieferparameter und Kundenbedürfnisse antizipieren, was ihnen ermöglicht, ihre Prozesse entsprechend anzupassen und sich auf dem Markt zu behaupten. Die Entscheidungsfindung in Unternehmen hat sich durch die Analyse dieser breiten Masse an Informationen grundlegend verändert. Es hat sich von einer eher intuitiven und subjektiven Herangehensweise zu einer da‐ 284 15 Datengetriebene Logistikplanung mit KI <?page no="285"?> tengetriebenen und objektiven Praxis gewandelt. Heute stehen in Transport Management Systemen Insight Informationen bis hin zu Marktbenchmarks zur Verfügung. Dies führt zu einer erhöhten Effizienz und einer verbesserten Wettbewerbsfähigkeit für Unternehmen, die in der Lage sind, die Vorteile der Datenanalyse zu nutzen. Zusammenfassend kann gesagt werden, dass das Potenzial von Daten und deren Analyse für Unternehmen enorm ist. Durch den Einsatz moder‐ ner Technologien und Analysemethoden können Unternehmen fundierte Entscheidungen treffen, ihre Prozesse optimieren und auf zukünftige He‐ rausforderungen vorbereitet und resilient sein. In einer immer komplexeren und vernetzteren Welt ist die Fähigkeit, Daten aufbereitet, verfügbar und effektiv nutzbar zu machen, entscheidend für den Erfolg von Unternehmen. - Wie mit Daten die Logistik optimiert wird Vor allem in der Logistik spielen immer größere Datenmengen eine sehr große Rolle. Die Logistik ist ein zentraler Bestandteil vieler Unternehmen und hat direkten Einfluss auf Effizienz, Kosten und Kundenzufriedenheit. Durch die Nutzung von Daten und deren Analyse können Unternehmen ihre logistischen Abläufe optimieren und bessere Entscheidungen treffen. Die algorithmische Planung bietet dabei entscheidende Vorteile gegenüber der manuellen Planung. Ein wichtiger Aspekt der Logistikoptimierung ist die Verbesserung der Lieferketten-Transparenz. Mithilfe von Daten können Unternehmen die Leistung ihrer Lieferanten, die Effizienz der Transportmittel und die Zu‐ verlässigkeit ihrer Lager- und Distributionszentren analysieren. Diese In‐ formationen sind entscheidend für die strategische Entscheidungsfindung, da sie Unternehmen dabei helfen, Engpässe zu identifizieren, Risiken zu minimieren und den Gesamtprozess zu verbessern. Die algorithmische gesamtheitliche Planung bietet gegenüber der eindi‐ mensionalen oder manuellen Planung mehrere Vorteile. Erstens ermöglicht sie eine bessere Ressourcenallokation. Moderne Algorithmen können kom‐ plexe Berechnungen effizient durchführen und optimale Lösungen für die Zuteilung von Fahrzeugen, Fahrern und Lagerressourcen finden. Dabei werden Faktoren wie Transportkosten, Auslastungen, Lieferzeiten und Um‐ weltauswirkungen berücksichtigt. Zweitens kann die algorithmische Pla‐ nung bei der Vorhersage von Nachfrage und Bestandsmanagement helfen. Unternehmen können mithilfe von Datenanalysen und maschinellem Ler‐ 15.2 Advanced Analytics - Datenanalyse in der Logistik 285 <?page no="286"?> nen präzise Prognosen erstellen und so den Lagerbestand optimieren. Dies minimiert das Risiko von Lagerengpässen oder Überbeständen und führt zu einer effizienteren Lieferkette. Drittens ermöglicht die algorithmische Planung eine schnellere und flexiblere Anpassung an Veränderungen. Im Vergleich zur manuellen Planung können Algorithmen in Echtzeit auf neue Daten reagieren und die Planung entsprechend anpassen. Dies ist besonders wichtig, wenn es um die Reaktion auf unvorhergesehene Ereignisse wie Lie‐ ferverzögerungen, Produktionsunterbrechungen oder Verkehrsstörungen geht. Die Entscheidungsfindung von Menschen kann von diesen Technologien profitieren, da sie fundierte Entscheidungen auf der Grundlage von Daten treffen können, anstatt sich auf Intuition oder Erfahrung zu verlassen. Die Kombination aus menschlicher Expertise und algorithmischer Planung ermöglicht es Unternehmen, eine optimale Balance zwischen Effizienz, Kosten und Kundenzufriedenheit zu erreichen - in einem Zeitalter in dem Fachkräftemangel, Unbeständigkeit und Ressourcenknappheit den Logistik‐ alltag bestimmen. Insgesamt hat die Nutzung von Daten und deren Analyse einen großen Einfluss auf die Logistik von Unternehmen. Die algorithmische Planung bietet im Vergleich zur manuellen Planung entscheidende Vorteile, indem sie die Ressourcenallokation optimiert, die Vorhersage von Nachfrage und Bestandsmanagement verbessert und eine schnellere Anpassung an Veränderungen ermöglicht. Die Entscheidungsfindung von Menschen wird durch diese Technologien unterstützt und ermöglicht eine effizientere und effektivere oprative, taktische und strategische Logistikplanung. - Verknüpfung von Daten und Analyse Die Nutzung von Daten und deren Analyse hat das Potenzial, Unternehmen in vielerlei Hinsicht zu revolutionieren, insbesondere solche, die sich mit Logistik beschäftigen. In diesem Text werden wir die Vorteile für Unter‐ nehmen erörtern, die sich aus der Optimierung der gesamten Lieferkette, einer engeren Verbindung von Produktion und Logistik, einer erhöhten Nachhaltigkeit und einer besseren Vorbeugung gegen Fachkräftemangel ergeben. Dabei beziehen wir uns auf die in früheren Texten besprochenen Themen und vertiefen sie weiter. Die Optimierung der gesamten Lieferkette ist ein wesentlicher Vorteil, den Unternehmen aus der Datenanalyse ziehen können. Indem sie ihre 286 15 Datengetriebene Logistikplanung mit KI <?page no="287"?> Lieferkettenprozesse überwachen und analysieren, können sie Engpässe identifizieren, die Effizienz steigern und die Zusammenarbeit mit Lieferan‐ ten verbessern. Diese Optimierung führt zu einer besseren Ressourcennut‐ zung und einer höheren Rentabilität. Die algorithmische Planung, die wir in früheren Texten erwähnt haben, spielt dabei eine entscheidende Rolle, indem sie den Unternehmen hilft, effizientere Entscheidungen über ihre Lieferketten zu treffen und ihre Prozesse zu optimieren. Durch die Analyse von Daten können auch die Abteilungen für Produk‐ tion und Logistik enger miteinander verbunden werden. Eine bessere Ab‐ stimmung zwischen diesen beiden Abteilungen führt zu einer effizienteren Nutzung von Ressourcen, einer höheren Flexibilität und einer schnelleren Reaktionsfähigkeit auf Marktveränderungen. Beispielsweise können Pro‐ duktionsdaten verwendet werden, um die Verfügbarkeit von Rohstoffen und Fertigprodukten zu überwachen, während Logistikdaten dazu verwendet werden können, die Transport- und Lagerkapazitäten zu optimieren. Diese Informationen können dann gemeinsam genutzt werden, um fundierte Entscheidungen über Produktionsmengen, Lieferzeiten und Lagerbestände zu treffen. Ein weiterer wichtiger Vorteil der Datenanalyse ist die Möglichkeit, die Nachhaltigkeit in Unternehmen zu erhöhen. Durch die Analyse von Umwelt- und Emissionsdaten können Unternehmen ihre CO 2 -Emissionen besser überwachen und Maßnahmen ergreifen, um diese zu reduzieren. Beispielsweise können Transportwege optimiert, energieeffizientere Pro‐ duktionsmethoden implementiert oder Verpackungsmaterialien reduziert werden. Darüber hinaus können Unternehmen mithilfe von Datenanalysen ihre Nachhaltigkeitsziele besser verfolgen und sicherstellen, dass sie auf dem richtigen Weg sind, um ihre Umweltauswirkungen zu minimieren. 15.3 Wie der große Datenfluss Probleme heutiger Unternehmen entgegenwirkt Der Fachkräftemangel ist eine Herausforderung, mit der viele Unternehmen konfrontiert sind. Die Nutzung von Daten kann dazu beitragen, diesem Problem entgegenzuwirken. Zum einen kann die Datenanalyse dazu ver‐ wendet werden, um die benötigten Fähigkeiten und Qualifikationen für bestimmte Stellen zu identifizieren und gezielte Personalentwicklungsmaß‐ nahmen zu ergreifen. Zum anderen kann sie dazu beitragen, das Recruiting 15.3 Wie der große Datenfluss Probleme heutiger Unternehmen entgegenwirkt 287 <?page no="288"?> zu optimieren, indem sie hilft, die besten Talente zu identifizieren und Perso‐ nalentscheidungen auf der Grundlage von Leistungsdaten und Prognosen zu treffen. Zudem kann die Datenanalyse dazu beitragen, Mitarbeiterbindung und -zufriedenheit zu verbessern, indem sie Einblicke in die Bedürfnisse und Präferenzen der Belegschaft bietet. Dadurch können Unternehmen personalisierte Entwicklungs- und Förderprogramme entwickeln, die den Mitarbeitern helfen, ihre Karriereziele zu erreichen und langfristig im Unternehmen zu bleiben. Ein weiterer Aspekt, der in der Logistik durch den Einsatz von Daten und deren Analyse verbessert werden kann, ist die Kundenorientierung. Indem Unternehmen Kundeninformationen und Kaufverhalten analysieren, können sie die Nachfrage besser vorhersagen und ihre Logistikprozesse ent‐ sprechend anpassen. Dies führt zu einer verbesserten Kundenzufriedenheit, da Produkte und Dienstleistungen besser auf die Bedürfnisse der Kunden abgestimmt sind. Zudem ermöglicht die Datenanalyse eine bessere Prognose von saisonalen Schwankungen, wodurch Unternehmen ihre Lagerbestände und Produktionspläne optimieren können, um Engpässe oder Überbestände zu vermeiden. Die Implementierung von datengetriebenen Lösungen erfordert jedoch auch eine entsprechende Infrastruktur und Fachkenntnisse. Unternehmen müssen in moderne Informationssysteme und Analyse-Tools investieren, um große Datenmengen effizient verarbeiten und analysieren zu können. Gleichzeitig ist es wichtig, Mitarbeiter in den Bereichen Datenanalyse und Entscheidungsfindung zu schulen, damit sie die gewonnenen Erkenntnisse effektiv nutzen können. Ein weiterer wichtiger Faktor bei der erfolgreichen Implementierung von datenbasierten Lösungen in der Logistik ist der Datenschutz. Unternehmen müssen sicherstellen, dass sie die Datenschutzbestimmungen einhalten und die Daten ihrer Kunden und Mitarbeiter vertraulich behandeln. Eine klare und transparente Datenschutzrichtlinie ist entscheidend, um das Vertrauen der Kunden und Mitarbeiter zu gewährleisten und potenzielle rechtliche Risiken zu minimieren. Insgesamt bietet die Nutzung von Daten und deren Analyse zahlreiche Vorteile für Unternehmen, die sich mit Logistik beschäftigen. Die Optimie‐ rung der gesamten Lieferkette, eine engere Verbindung von Produktion und Logistik, eine erhöhte Nachhaltigkeit und eine bessere Vorbeugung gegen Fachkräftemangel sind nur einige der vielen Möglichkeiten, wie Unternehmen von datenbasierten Lösungen profitieren können. Um das 288 15 Datengetriebene Logistikplanung mit KI <?page no="289"?> volle Potenzial der Datenanalyse auszuschöpfen, ist es jedoch wichtig, in entsprechende Technologien und Fachkenntnisse zu investieren und gleichzeitig den Datenschutz zu gewährleisten. - Wie Tools wie MasterScheduler die Effektivität von Unternehmen erhöhen Unternehmen, die eine Logistikabteilung haben und aktiv Logistik betrei‐ ben, stehen stets vor der Herausforderung, ihre Abläufe und Prozesse zu optimieren, um Wettbewerbsvorteile zu erzielen. Innovative Planungssoft‐ ware spielt dabei eine entscheidende Rolle, indem sie die Logistik, die Produktion und das Warenlager verändert und Unternehmen dabei unter‐ stützt, effizienter und effektiver zu arbeiten. In diesem Text werden wir die verschiedenen Aspekte untersuchen, in denen innovative Planungssoftware einen bedeutenden Einfluss auf diese Unternehmen hat. 1. Integration von Logistik, Produktion und Warenlager: Eine der Hauptfunktionen von innovativer Planungssoftware besteht darin, die verschiedenen Abteilungen eines Unternehmens miteinander zu ver‐ knüpfen und so eine engere Zusammenarbeit zu ermöglichen. Durch die Integration von Logistik, Produktion und Warenlager können Unter‐ nehmen Echtzeitinformationen über ihre gesamte Wertschöpfungskette erhalten, was zu einer besseren Entscheidungsfindung und Prozessop‐ timierung führt. 2. Automatisierung und Effizienzsteigerung: Innovative Planungs‐ software ermöglicht die Automatisierung von Prozessen in der Logistik, Produktion und im Warenlager. Durch den Einsatz von Algorithmen und maschinellem Lernen kann die Software komplexe Muster in den Daten erkennen und optimale Lösungen für die Planung und Steuerung von Prozessen bereitstellen. Dies führt zu einer signifikanten Effizienz‐ steigerung und Kostensenkung. 3. Echtzeitplanung und Reaktionsfähigkeit: Eine der wichtigsten Funktionen von innovativer Planungssoftware ist die Fähigkeit, Echt‐ zeitdaten zu verarbeiten und darauf basierende Entscheidungen zu treffen. Dies ermöglicht es Unternehmen, schnell auf Veränderungen im Markt oder in der Lieferkette zu reagieren und ihre Prozesse entsprechend anzupassen. Dadurch wird die Reaktionsfähigkeit des Unternehmens erhöht und die Wahrscheinlichkeit von Engpässen oder Überbeständen reduziert. 15.3 Wie der große Datenfluss Probleme heutiger Unternehmen entgegenwirkt 289 <?page no="290"?> 4. Nachhaltigkeit und Umweltverträglichkeit: Innovative Planungs‐ software kann dazu beitragen, die Umweltauswirkungen von Unterneh‐ men zu reduzieren, indem sie Optimierungsmöglichkeiten in Bezug auf Energieverbrauch, Transportwege und Materialverwendung identi‐ fiziert. Dies ermöglicht Unternehmen, ihre CO 2 -Emissionen zu senken und nachhaltigere Geschäftspraktiken zu implementieren. 5. Kundenzufriedenheit und Personalisierung: Indem sie die Daten‐ analyse in ihre Planungssoftware integrieren, können Unternehmen ihre Kunden besser verstehen und ihre Produkte und Dienstleistungen an die individuellen Bedürfnisse anpassen. Dies führt zu einer höheren Kundenzufriedenheit und stärkt die Kundenbindung. 6. Prognosefähigkeit und vorausschauende Wartung: Innovative Pla‐ nungssoftware kann dazu verwendet werden, zukünftige Entwicklun‐ gen in der Logistik, Produktion und im Warenlager vorherzusagen. Dies ermöglicht Unternehmen, ihre Ressourcen effizienter zu planen und mögliche Probleme oder Engpässe frühzeitig zu erkennen. Darüber hinaus können Unternehmen mithilfe von vorausschauender Wartung den Zustand ihrer Anlagen und Fahrzeuge überwachen und Wartungs‐ arbeiten planen, bevor Probleme auftreten. Dadurch werden Ausfallzei‐ ten minimiert und die Lebensdauer der Anlagen verlängert. 7. Einführung von kollaborativen Plattformen: Innovative Planungs‐ software ermöglicht es Unternehmen, kollaborative Plattformen einzu‐ führen, auf denen Mitarbeiter, Lieferanten und Kunden zusammenar‐ beiten und Informationen austauschen können. Dies führt zu einer verbesserten Kommunikation und Zusammenarbeit entlang der gesam‐ ten Lieferkette, was wiederum zu einer höheren Flexibilität und Effizienz beiträgt. 8. Skalierbarkeit und Anpassungsfähigkeit: Moderne Planungssoft‐ ware bietet Unternehmen die Möglichkeit, ihre Logistik-, Produktions- und Lagerprozesse auf flexible Weise zu skalieren und an veränderte Marktbedingungen anzupassen. Dies ist besonders wichtig in Zeiten von schnellem Wachstum oder Veränderungen in der Branche, da Unterneh‐ men ihre Prozesse schnell anpassen können, um wettbewerbsfähig zu bleiben. 9. Datengetriebene Entscheidungsfindung: Durch die Integration von Datenanalyse und maschinellem Lernen in die Planungssoftware kön‐ nen Unternehmen fundierte, datengetriebene Entscheidungen treffen, die auf tiefgehenden Einblicken in ihre Geschäftsprozesse basieren. 290 15 Datengetriebene Logistikplanung mit KI <?page no="291"?> Dies führt zu einer besseren Entscheidungsqualität und einer höheren Erfolgswahrscheinlichkeit bei der Umsetzung von Strategien und Pro‐ jekten. 10. Talententwicklung und Mitarbeiterbindung: Innovative Algorith‐ mik und Decision Support kann dazu beitragen, den Fachkräftemangel zu bekämpfen, indem sie Unternehmen dabei unterstützt, ihre Mitarbei‐ ter weiterzubilden und ihre Fähigkeiten in den Bereichen Datenanalyse und Prozessverständnis und -optimierung zu erweitern. Darüber hinaus kann Software dazu verwendet werden, die Mitarbeiterzufriedenheit und -bindung zu erhöhen, indem sie personalisierte Karriereentwick‐ lungsmöglichkeiten und Anreizsysteme bietet. 15.4 Zusammenfassung und Ausblick Zusammenfassend hat innovative Planungssoftware das Potenzial, die Lo‐ gistik, die Produktion und das Warehouse-Management in Unternehmen grundlegend zu verändern und zahlreiche Vorteile zu bieten. Unternehmen, die in moderne gesamtheitliche Planungslösungen investieren, können ihre Prozesse abteilungsübergreifend optimieren, ihre Effizienz steigern, ihre Umweltauswirkungen reduzieren und ihre Kunden- und Mitarbeiterzufrie‐ denheit verbessern. Um das volle Potenzial dieser Technologien auszuschöp‐ fen, ist es jedoch wichtig, dass Unternehmen bereit sind, in die notwendige (Daten-)Infrastruktur, Schulungen und Fachkenntnisse zu investieren und eine Kultur der datengetriebenen Entscheidungsfindung zu fördern. Der entstehende Wettbewerbsvorteil durch sich ergebendes Potenzial an Prozessverbesserungen auch abseits der Supply Chain wird weiterhin die systematische Erfassung sowie die Analyse und strukturierte, indizierte Speicherung von relevanten Daten beschleunigen. Innovative neue Lösun‐ gen und Adaptionen bestehender Software-Tools rund um künstliche Intel‐ ligenz in der IT-Prozessverbesserung, Digitalisierung und Automatisierung werden Trend bleiben und ein starkes Wachstum erfahren. Entscheidend für die Einführung und Nutzung neuer datengetriebener Lösungen und Tools wird neben Innovationsmanagement aber vor allem die IT-Strategie und Ausrichtung rund um Cloud, offene Systeme, Data Availability und Data Governance sein. 15.4 Zusammenfassung und Ausblick 291 <?page no="293"?> Glossar A/ B-Test | Ein Experiment, bei dem zwei Varianten (A und B) verglichen werden, um festzustellen, welche besser abschneidet. Häufige Verwendung in digitalen Geschäftsmodellen und personalisierten Marketingstrategien. AI Act | EU-Gesetz, das den ethischen und verantwortungsvollen Einsatz von künstlicher Intelligenz regeln soll (in Entwicklung 2023). Algorithmus | Eine präzise Schritt-für-Schritt-Anleitung oder Logikre‐ chenregel zur Lösung eines Problems oder zur Ausführung einer Aufgabe. API (Application Programming Interface) | Eine Reihe von Regeln und Protokollen, die es verschiedenen Softwareanwendungen ermöglichen, miteinander zu kommunizieren und zu interagieren. Augmented Reality (AR) | Technologie, die virtuelle Inhalte in die reale Umgebung einfügt und so eine erweiterte Wahrnehmung schafft. Bias | Eine systematische Verzerrung oder Voreingenommenheit in Daten, Algorithmen oder Entscheidungsprozessen, die zu unfairen oder ungenauen Ergebnissen führen kann. Big Data | Große und komplexe Datensätze aus sehr unterschiedlichen Quellen innerhalb und außerhalb des Unternehmens, die schwach- oder unstrukturiert sind, und schnell oder sogar exponentiell anwachsen. Blockchain | Eine dezentrale und transparente digitale Datenbank, die aus einer Kette von Blöcken besteht. Jeder Block enthält eine Liste von Transaktionen, die kryptografisch miteinander verknüpft sind. Durch Kon‐ sensmechanismen und Kryptografie ermöglicht die Blockchain sichere und fälschungssichere Aufzeichnung und Verifizierung von Transaktionen ohne zentrale Kontrollinstanz. Business Intelligence | Technologien und Strategien zur Analyse und Interpretation von Unternehmensdaten, um zusätzliche Erkenntnisse zu gewinnen und die Entscheidungsfindung zu unterstützen. Business Model Canvas | Visuelles Framework für den Entwurf, die Beschreibung und die Evaluierung von Geschäftsmodellen. <?page no="294"?> Chatbot | Ein computerbasiertes Programm, das mit Benutzern interagiert und menschenähnliche Unterhaltungen durchführt. Cloud Computing | Ein Modell, bei dem über das Internet Ressourcen wie Speicherplatz und Rechenleistung bereitgestellt und genutzt werden. Cloud-Technologien | IT-Dienste, -Ressourcen und Rechenkapazität, die über das Internet bei Dienstleistern bereitgestellt werden und On-Demand- Zugriff und Skalierbarkeit ermöglichen. CSR (Corporate Social Responsibility, Soziale Verantwortung der Unternehmen) | Die Verpflichtung von Unternehmen, ethisch zu handeln und zu einer nachhaltigen Entwicklung beizutragen. CSRD (Corporate Sustainability Reporting Directive) | EU-Richtlinie, die Unternehmen verpflichtet, nichtfinanzielle und nachhaltigkeitsbezo‐ gene Informationen offenzulegen. Customer Data Platform | Eine Software, die Kundendaten aus verschie‐ denen Quellen für Analyse- und Marketingzwecke sammelt und verwaltet. Customer Touch Points | Interaktionspunkte zwischen einem Kunden und einem Unternehmen während der gesamten Customer Journey. Cyber-physische Systeme | Systeme, die physische und virtuelle Kompo‐ nenten miteinander verbinden, um reale und digitale Prozesse zu steuern und zu überwachen. Data Act | EU-Gesetz, das die Erhebung, Speicherung, Verarbeitung und Nutzung von Daten regeln soll (in Entwicklung 2023). Data Analytics | Prozess der Untersuchung, Umwandlung und Modellie‐ rung von Daten, um Erkenntnisse zu gewinnen und die Entscheidungsfin‐ dung zu unterstützen. Data Engineering | Disziplin, die sich mit der Entwicklung und dem Aufbau von Systemen zur Erfassung, Speicherung und Verarbeitung großer Datenmengen befasst. Data Governance | Organisation, Verantwortlichkeiten und Prozesse für die Verwaltung und den Schutz von Datenbeständen innerhalb eines Unter‐ nehmens. 294 Glossar <?page no="295"?> Data Intermediaries | Unternehmen, die als Vermittler fungieren und den Austausch und die Monetarisierung von Daten zwischen Parteien erleichtern. Data Lake | Zentralisiertes Repository/ Datenhaltung, das große Mengen unverarbeiteter Rohdaten in ihrem ursprünglichen Format speichert. Data Lakehouse | Hybride Architektur, die die Fähigkeiten eines Data Lake und eines Data Warehouse kombiniert. Data Literacy | Fähigkeit, Daten zu lesen, zu verstehen, zu analysieren und mit ihnen zu kommunizieren. Data Mining | Entdeckung von Mustern, Zusammenhängen oder Erkennt‐ nissen in großen Datenmengen mithilfe von statistischen Methoden und Algorithmen. Data Science | Ein Bereich, der wissenschaftliche Methoden, Algorithmen und Systeme kombiniert, um Wissen und Erkenntnisse aus Daten zu gewin‐ nen. Data Warehouse | Zentralisiertes Repository/ Datenhaltung, das Daten aus verschiedenen Quellen zu Berichts- und Analysezwecken integriert. Data-as-a-Service | Der Zugriff auf Daten über eine Cloud-Plattform, bei dem die Daten extern gehostet und als Dienstleistung bereitgestellt werden. Datenanalyse | Der Prozess, große Mengen an Daten zu untersuchen, um Muster, Zusammenhänge oder Erkenntnisse zu identifizieren. Datenbereinigung | Der Prozess der Identifizierung und Korrektur von Fehlern, Inkonsistenzen oder Ungenauigkeiten in Datensätzen. Datendrehscheibe | Ein zentraler Ort, an dem Daten aus verschiedenen Quellen zusammengeführt und verteilt werden, um den Zugriff und die Nutzung zu erleichtern. Datensilo | Eine isolierte Datenbank oder Speicherung, in der Informatio‐ nen nicht effizient mit anderen Systemen oder Benutzern geteilt werden können. Datenvisualisierung | Die Darstellung von Daten in grafischer Form, um komplexe Informationen verständlicher und anschaulicher zu machen. Glossar 295 <?page no="296"?> Datification | Automatisierter Prozess der Umwandlung von analogen oder physischen Ereignissen oder Daten in digitale Daten. Deep Learning | Teilbereich des maschinellen Lernens, der neuronale Netze verwendet, um komplexe Muster in Daten zu modellieren und zu verstehen. Design Thinking | Problemlösungsansatz, bei dem Einfühlungsvermögen, Zusammenarbeit und iteratives Prototyping im Vordergrund stehen. DevOps | Softwareentwicklungsmethodik, die die Zusammenarbeit zwi‐ schen Entwicklungs- und Produktmanagement-Abteilungen fördert. Digital Divide | Die Kluft zwischen Personen, die Zugang und Fähigkeiten im Umgang mit digitalen Technologien haben, und denen, die diese nicht besitzen. Digital Markets Act | EU-Gesetz, das den Wettbewerb fördern und faire und offene digitale Märkte gewährleisten soll. Digital Service Act | EU-Gesetz für digitale Dienste und Plattformen, um die Rechte und die Sicherheit der Nutzer in der digitalen Welt zu gewährleisten. Digitale Transformation | Umfassender Veränderungsprozess in Organi‐ sationen, der durch digitale Technologien und Strategien vorangetrieben wird. Digitaler Zwilling | Eine virtuelle Darstellung eines realen Objekts oder Systems, die Daten und Funktionen in Echtzeit widerspiegelt. Digitalisierung | Umwandlung analoger Prozesse, Dienstleistungen oder Produkte in digitale Form. DSGVO (Datenschutz-Grundverordnung) | EU-Gesetz zum Schutz per‐ sonenbezogener Daten und zur Wahrung der Privatsphäre, auch bekannt als General Data Protection Regulation (GDPR). Embedded Systems | IT-Systeme oder Sensoren, die in Geräte oder Ma‐ schinen integriert sind und spezifische Funktionen ausführen, z. B. in Autos oder Haushaltsgeräten. Emotionserkennung | Die Fähigkeit von KI, Emotionen in Gesichtsaus‐ drücken oder Stimmen zu erkennen und zu interpretieren. 296 Glossar <?page no="297"?> ETL-Prozess (Extract, Transform, Load) | Prozess des Extrahierens von Daten aus verschiedenen Quellen, ihrer Transformation und ihrer Beladung in ein Zielsystem. Explainable AI | KI-Modelle und Systeme, die verständliche und nach‐ vollziehbare Erklärungen für ihre Entscheidungen und Ausgaben liefern können. Generative KI | KI-Modelle, die neue Inhalte wie Bilder, Texte oder Musik generieren können. Hadoop | Ein Framework für die verteilte Verarbeitung großer Datenmen‐ gen über ein Cluster von Computern hinweg. Human-in-the-loop | KI-Systeme, die menschliche Intervention oder Überwachung zur Verbesserung der Leistung oder zur Sicherstellung einer ethischen Nutzung erfordern. Internet of Things (IoT) | Netzwerk verbundener physischer Geräte, die Daten sammeln und austauschen können. Interoperabilität | Fähigkeit von Systemen oder Komponenten, nahtlos miteinander zu kommunizieren und Informationen auszutauschen. IT-Architektur | Struktur und Gestaltung der Informationstechnologiesys‐ teme und -infrastruktur einer Organisation. Künstliche Intelligenz | Statistische und mathematische Algorithmen als Analyseverfahren, die selbständig aus Big Data lernen, mögliche Erklä‐ rungen entwickeln und Entscheidungsunterstützung bieten - oder ohne weiteren Eingriff eines Menschen eine Entscheidung treffen. Large Language Models | KI-Modelle wie GPT-3, die in der Lage sind, große Mengen an Sprache und Text zu analysieren und zu generieren. Legacy Systeme | Veraltete oder nicht mehr gepflegte IT-Systeme, Hard‐ ware oder Software, die noch in Unternehmen verwendet werden. Machine Learning | Teilbereich der Künstlichen Intelligenz, der Algorith‐ men entwickelt, die aus Daten lernen und Vorhersagen treffen können. Minimum Viable Product | Produkt mit mindestnotwendigen Funktionen, das entwickelt wird, um schnell Feedback von Kunden zu erhalten und weiter zu iterieren. Häufig im Start-up- und Software-Umfeld verwendet. Glossar 297 <?page no="298"?> Natural Language Processing (NLP) | Eine KI-Technologie, die es Com‐ putern ermöglicht, menschliche Sprache zu verstehen, zu verarbeiten und darauf zu reagieren. Netzwerkeffekte | Ökonomischer Effekt, bei dem der Nutzen oder Wert eines Produkts oder einer Dienstleistung durch die Anzahl der Nutzer steigt. Neuronales Netz | Ein Modell, das biologische Neuronen imitiert und in der KI für das maschinelle Lernen verwendet wird. Next Best Offer | Empfehlung oder Angebot an Kunden, das am wahr‐ scheinlichsten zu deren Bedürfnissen und Präferenzen passt. Non-fungible Token | Einzigartiger digitaler Token, der mittels Block‐ chain-Technologie eindeutig identifizierbar und nicht austauschbar ist. OKR (Objectives and Key Results) | Ein vereinfachendes Framework zur Festlegung und Verfolgung von Zielen in Unternehmen, das klare und messbare Ergebnisse betont. Open Data | Daten, die für jedermann frei zugänglich sind und ohne Einschränkungen genutzt, weiterverarbeitet und geteilt werden können. OTT-Player (Over-the-top player) | Unternehmen, die über vorhandene digitale Infrastruktur Inhalte oder Dienstleistungen bereitstellen, ohne auf traditionelle Vertriebswege angewiesen zu sein. Häufig passiert dies ohne direkte Bezahlung der Infrastruktur-Dienstleister. PDCA-Zyklus | Plan-Do-Check-Act-Zyklus, ein kontinuierlicher Verbes‐ serungsprozess zur systematischen Planung, Durchführung, Überprüfung und Anpassung von Maßnahmen. Personalisierte Empfehlungen | KI-Algorithmen, die auf Basis von Benutzerdaten maßgeschneiderte Vorschläge für Produkte, Inhalte oder Dienstleistungen machen. Plattformen und mehrseitige Märkte | Basieren auf direkten und in‐ direkten Netzwerkeffekten. Der Nutzen für Kunden entsteht hier zum überwiegenden Teil, weil andere Kunden die Plattform ebenfalls nutzen und eine Vernetzung möglich ist. 298 Glossar <?page no="299"?> Plattformgeschäftsmodell | Mehrseitiger Markt, bei dem eine Plattform als Intermediär zwischen verschiedenen Nutzergruppen fungiert und Werte schafft. Häufig getrieben durch direkte und indirekte Netzwerkeffekte. Power BI | Eine Business-Intelligence-Plattform, die Datenvisualisierung, Datenanalyse und Berichterstattung ermöglicht, um Erkenntnisse zu gewin‐ nen und Entscheidungen zu treffen. Predictive Analytics | Nutzung von Daten, Algorithmen und statistischen Modellen, um zukünftige Ereignisse oder Verhaltensmuster vorherzusagen. Predictive Maintenance | Anwendung von KI und Big-Data-Analyse, um Wartungsbedarf an Maschinen oder Anlagen vorherzusagen und Ausfälle zu verhindern. Process Mining | Analyse von Unternehmensprozessen basierend auf digitalen Spuren, um Schwachstellen zu identifizieren und Effizienz zu steigern. Reifegradmodell | Eine Bewertungsmethode zur Einschätzung des Ent‐ wicklungsstandes eines Unternehmens oder einer Organisation in bestimm‐ ten Bereichen. Häufig verwendet zur Abschätzung von Digitalisierung oder KI in Unternehmen. Responsible AI | Verantwortungsvoller Einsatz von künstlicher Intelligenz, der ethische Grundsätze, Transparenz und Kontrollierbarkeit berücksich‐ tigt. Robotic Process Automation | Automatisierung von repetitiven Aufgaben durch Software-Roboter, um die Effizienz und Genauigkeit zu verbessern. Schwache AI | Künstliche Intelligenz, die auf spezifische Aufgaben oder Bereiche beschränkt ist und menschliche Unterstützung erfordert. Scrum | Ein agiles Projektmanagement-Framework, das iterative Entwick‐ lung, Zusammenarbeit im Team und schnelles Lernen betont. Social Media Mining | Analyse großer Mengen an Social-Media-Daten, um Meinungen, Trends oder Verhaltensmuster der Nutzer zu verstehen. Speech-to-Text | Umwandlung von gesprochener Sprache in Text, häufig durch den Einsatz von Spracherkennungssoftware. Glossar 299 <?page no="300"?> Sprachassistent | Eine KI-gesteuerte Software, die Sprachbefehle versteht und Benutzern bei verschiedenen Aufgaben hilft. Starke AI | Künstliche Intelligenz, die menschenähnliche kognitive Fähig‐ keiten besitzt und komplexe Aufgaben eigenständig lösen kann. Target Operating Model | Ein integriertes Organisations- und IT-Modell, das die gewünschte zukünftige Struktur, Prozesse und Ressourcenverteilung innerhalb eines Unternehmens beschreibt. Tech Stack | Eine Kombination aus Technologien, Frameworks und Tools, die zur Entwicklung und Bereitstellung von Softwarelösungen verwendet werden. TensorFlow | Eine Open-Source-Plattform für maschinelles Lernen, die die Entwicklung und Bereitstellung von KI-Modellen erleichtert. Third-Party-Daten | Daten, die von externen Quellen stammen und nicht vom eigenen Unternehmen generiert wurden. Tokenization | Prozess der Aufteilung eines Textes in einzelne Tokens, z. B. Wörter oder Zeichen, um ihn besser analysieren oder verarbeiten zu können. Twin Transition | Der parallele Übergang eines Unternehmens zu digitalen Technologien und einer nachhaltigen klimaschonenden/ -neutralen Unter‐ nehmensstrategie. Type I Error | Ein Fehler, bei dem die falsche Annahme getroffen wird, dass ein Effekt oder ein Muster vorhanden ist, obwohl er tatsächlich nicht existiert. Type II Error | Ein Fehler, bei dem ein Effekt oder ein Muster nicht erkannt oder abgelehnt wird, obwohl er tatsächlich vorhanden ist. Virtuelle Assistenten | KI-gesteuerte Programme oder Geräte, die Benut‐ zern bei Alltagsaufgaben unterstützen und Informationen bereitstellen. VUCA | Eine Abkürzung für Volatility (Volatilität), Uncertainty (Ungewiss‐ heit), Complexity (Komplexität) und Ambiguity (Mehrdeutigkeit), um die Herausforderungen der Unternehmensumwelt zu beschreiben. Web 3.0 | Eine Weiterentwicklung des Internets, die durch die verstärkte Nutzung von künstlicher Intelligenz, personalisierter Inhalte und dezentra‐ ler Architektur gekennzeichnet ist. 300 Glossar <?page no="301"?> Web 4.0 | Eine spekulative Weiterentwicklung des Internets, die die Ver‐ schmelzung von physischer und digitaler Welt durch Technologien wie das Internet der Dinge, künstliche Intelligenz und erweiterte Realität umfasst. Glossar 301 <?page no="303"?> Beitragsautor: innen Shari Alt ist studierte Wirtschaftsingenieurin. Sie beschäftigt sich am August-Wilhelm Scheer Institut mit dem nachhaltigen Umgang mit begrenzten Ressourcen. Hierbei steht für sie der Praxisbezug im Mittelpunkt. In enger Zu‐ sammenarbeit mit betroffenen Unternehmen erarbeitet sie als Projektmanagerin Lösungen zu Problemstellungen im Kontext der Kreis‐ laufwirtschaft, beispielsweise im Rahmen von Workshops oder gemeinsamen Forschungspro‐ jekten und überführt diese in die praktische Anwendung. Der thematische Schwerpunkt ihrer Arbeit stellt der Digitale Produktpass (DPP) dar. Als Mitglied des DKE-Gremiums zum Digitalen Produktpass engagiert sie sich aktiv an dessen Normungs- und Standardisierungsarbeit. Dr. Andreas Braun ist Director of Artificial In‐ telligence & Data Science in der Technologiebe‐ ratung von PwC Luxemburg mit Schwerpunkt auf KI- und Machine-Learning-Anwendungen und Strategieentwicklung. Er arbeitet seit mehr als 15 Jahren mit maschinellem Lernen in An‐ wendungen, die von Smart Cities, Biometrie, dem Internet der Dinge bis hin zu intelligenten Geräten reichen. Er hält einen Doktortitel in Informatik und hat mehr als 100 wissenschaft‐ liche Veröffentlichungen und Patente verfasst. Er war stellvertretender Sprecher der Fraunhofer-Allianz für Ambient Assisted Living und Personal Health, vertrat Fraunhofer in EIT Health, EIT Digital und dem AAL Joint Programme. Er war Principal Investigator am Athene Security Research Center in Darmstadt, Dozent an der TU Darmstadt und hat in der ISO/ IEC JTC1 SC37 Gruppe zur Standardisierung in der Biometrie mitgearbeitet. <?page no="304"?> Prof. Wolfgang Decker verfügt über mehr als 30 Jahre Erfahrung in der Beratung und in leitenden Positionen in der Industrie. Seit 2020 ist er Professor für Wirtschaftsingenieur‐ wesen mit Schwerpunkt Digital Factory & Sup‐ ply-Chain-Management an der Hochschule der Bayerischen Wirtschaft in München. Neben sei‐ ner Lehrtätigkeit berät er Unternehmen im pro‐ duzierenden Mittelstand, mit einem Fokus auf der Modernisierung von Produktionsprozessen und der Entwicklung neuer digitaler Geschäftsmodelle. Dr. Sven Deglow ist Co-CEO BNP Paribas Personal Investors Germany. Zur der Geschäfts‐ einheit von BNP Paribas gehören die Marken Consorsbank, DAB BNP Paribas und BNP Pari‐ bas Wealth Management Private Banking. Der promovierte Volkswirt blickt auf fast 15 Jahre Erfahrung im digitalen Banking und Brokerage in verschiedenen Management-Positionen bei Comdirect und BNP Paribas zurück. Dr. Wolfgang Faisst ist Mitbegründer und CEO von ValueWorks.ai und Senior Advisor bei Cadence Growth Capital. Zuvor arbeitete er 14 Jahre für SAP in führenden Positionen in der Produktentwicklung (inklusive SAP S/ 4 HANA und Intelligent ERP). In dieser Zeit hat er u. a. den SAP Store als digitalen Kanal der SAP, das erste SAP-Partner-Programm für die Cloud sowie SAP XM als Medien- und Datenplattform aufgebaut. Dr. Faisst hat einen Hintergrund in der Top-Management-Beratung und war Mitbegründer der IT-Praxisgruppe von Bain & Company im deutschsprachigen Raum. Neben seinen geschäft‐ lichen Aufgaben ist er Dozent für Unternehmenssoftware an den Universi‐ täten Bamberg und Bayreuth und wurde zum Arbeitsgruppenleiter in der deutschen KI-Initiative (betrieben von AcaTech) ernannt. 304 Beitragsautor: innen <?page no="305"?> Markus Gildenhard begann 2018, nach einem Studium der Biologie in Kiel und einer For‐ schungstätigkeit am Max-Planck-Institut für In‐ fektionsbiologie in Berlin, seine Laufbahn in der Wirtschaft als Data Scientist bei 1&1. Hier beschäftigte er sich mit der Modellierung und Optimierung von Vertriebsmaßnahmen und Re‐ tention-Prozessen. 2021 wechselte er als Pro‐ jektmanager in den Customer Experience Be‐ reich bei 1&1 und betreute Projekte zur Analyse und Verbesserung der Kundenbindung. Seit 2023 leitet er als Head of Enter‐ prise Advanced Analytics ein Team von Data Scientists und AI-Consultants. Dr. Torben Hügens ist Managing Director bei der avantum consult GmbH. Er ist seit 16 Jahren im Umfeld Business Analytics aktiv und hat als Berater in diversen Projekten bei der Ausge‐ staltung von Business-Analytics-Strategien und deren Umsetzung mitgewirkt. Sein derzeitiger Schwerpunkt liegt in der Beratung von Unter‐ nehmen jeglicher Größe in der Umsetzung von Dateninitiativen und deren Begleitung als Trus‐ ted Advisor für Business-Analytics-Themen. Patricia Kahr studierte an der Technischen Universität Ilmenau (2008-2012) und war im Anschluss für unterschiedliche Unternehmen und Agenturen im Bereich Marketing und Stra‐ tegy Consulting tätig, bevor sie sich entschied, Business gegen Wissenschaft einzutauschen. Nach einem erfolgreich abgeschlossenen Mas‐ terstudium an der Universität Maastricht (2020) im Bereich Human Decision Science (MSc) ent‐ schied sie sich, ihr Doktoratsstudium an der Technischen Universität in Eindhoven aufzunehmen. Für ihr Dissertations‐ thema „Langfristige Vertrauensbildung in KI-Systeme“ vereint sie Wissen aus den unterschiedlichsten Bereichen (Psychologie, Soziologie, Verhaltens‐ Beitragsautor: innen 305 <?page no="306"?> ökonomie, Computer Science) und möchte neben den theoretischen, vor al‐ lem praktische Antworten (und konkrete Lösungen) für zukünftige Mensch- Maschinen-Kollaborationen finden. Sonja Christa Köberlein ist studierte Diplom- Psychologin und Mathematikerin sowie ausge‐ wiesene Expertin für die Themen Datenkultur und Kulturwandel im Rahmen digitaler Transformati‐ onen. Seit über zehn Jahren begleitet sie Organi‐ sationen aller Branchen auf ihrem Weg zu einem datengetriebenen Unternehmen. Als Senior-Pro‐ ject-Managerin bei der Unternehmensberatung Horváth leitet sie den Market-Service-Change- Management für digitale Transformationen. Kim Kordel leitet im Co-Lead die Abteilung „Data & Insights“, in denen drei Kompetenz‐ center und mehrere Fachexpert: innen täglich daran arbeiten, die Schweizerische Post zu einer datengetriebenen Organisation zu machen. In einer zweiten Funktion ist sie verantwortlich für das Thema „Internet of Things“ und treibt die Vernetzung in der Post voran. Zuvor arbeitete sie bei Bosch.IO - der IoT- und Digitaleinheit von Bosch - in unterschiedlichen Rollen von interner und externer IoT-Geschäftsmodellberatung bis hin zum Business Development. Sie war zudem Co-Initiatorin des Bosch-Start-up-Programms und engagiert sich bei der REDI School für digitale Integration. 306 Beitragsautor: innen <?page no="307"?> Dr. Stefan Kremsner ist seit 2010 als Un‐ ternehmer für die Entwicklung von Industrie‐ projekten rund um Algorithmen & Software für Optimierung, Data Analytics und Block‐ chain-Anwendungen verantwortlich und leit‐ ete Forschungsteams rund um Artificial Intel‐ ligence und stochastische Optimierung. Als Lektor, Vortragender und Netzwerker bringt Dr. Kremsner die moderne, mathematische For‐ schung in industrielle Anwendungen und in operative Prozesse. Gemeinsam mit Dr. Stefan Lendl gründeten die beiden Grazer Mathemati‐ ker aus einem spannenden Transportoptimierungsprojekt eines Automobil- Zulieferer im Jahre 2020 heraus das Startup „s2 data & algorithms GmbH“. „MasterScheduler“ war geboren. Speziell für Automotive und verwandte Logistik-Prozesse entwickelt, schafft es die Optimierungsplattform „Mas‐ terScheduler“ gesamtheitlich und in vollem Detailgrad die Logistik und Materialsteuerung in Inbound, Outbound und Interwerksverkehr zu opti‐ mieren. Dabei bleiben die Algorithmen flexibel anpassbar um operative Nebenbedingungen und lasten Transporte im Netzwerk signifikant besser aus als Standard-Software. Dr. Kremsner studierte an der Technischen Universität Graz und promo‐ vierte an der Karl-Franzens Universität Graz im Fach Mathematik mit dem Spezialgebiet stochastische Optimierung und Machine Learning für hochdimensionale Probleme. Dr. Kremsner ist auch neben seiner Tätigkeit als Geschäftsführer von s2 noch als aktiver Forscher und Lektor der Mathematik treu geblieben. Prof. Dr. Markus Thomas Münter ist Pro‐ fessor für Volkswirtschaftslehre, insbesondere Mikroökonomie, an der htw saar in Saarbrü‐ cken. Er forscht im Bereich dynamischer Markt‐ strukturen, Digitalisierung und Innovationen. Er hat an der London Business School und der La Trobe University in Melbourne gearbeitet. Er hat 15 Jahre Erfahrung in Unternehmens‐ Beitragsautor: innen 307 <?page no="308"?> beratung und Banking in der europäischen Finanzdienstleisterindustrie, bis 2014 als Principal der Eurogroup Consulting im Frankfurter Büro. In Bera‐ tungsprojekten unterstützt er Unternehmen bei digitaler Transformation, organisatorischer Neuaufstellung und der Implementierung von Innovati‐ onsstrategien. Prof. Dr. Annina Neumann ist eine erfahrene Expertin im Bereich Künstliche Intelligenz und Datenwissenschaften. Ihre berufliche Laufbahn begann mit einem Studium der Bioinformatik an der TU und LMU München. Mittlerweile kann sie auf fast 15 Jahre Erfahrung in der freien Wirtschaft in unterschiedlichen Industriezwei‐ gen zurückblicken. Sie war unter anderem als VP Data Technology für ProSiebenSat.1 Media SE und als Principal Machine Learning Strate‐ gist für Amazon Web Services (AWS) tätig. Heute lehrt sie als Professorin für Künstliche Intelligenz und Software Engineering an der Hochschule Flensburg. Jörg Neumann leitet bei BNP Paribas Personal Investors das Team Business Analytics & Infor‐ mation. Er kam im Jahr 2000 zur Consorsbank und war dort maßgeblich am Aufbau der Infra‐ struktur der Analyse-Tools und -methoden be‐ teiligt. Davor war der Wirtschaftsmathematiker für die Finanzdienstleister der Quelle Gruppe tätig. 308 Beitragsautor: innen <?page no="309"?> Dr. Nataša Pavlović-Höck ist promovierte Wirtschaftsinformatikerin und bei Horváth als Unternehmensberaterin verantwortlich für die Telekommunikationsbranche. Sie begleitet Un‐ ternehmen vorrangig bei Strategieentwicklung und digitaler Transformation. Davor war sie über elf Jahre beim Telekommunikationskon‐ zern Telefónica tätig in verschiedenen Füh‐ rungspositionen im Strategiebereich und in der Marketing-, Sales&Service-Organisation, zuletzt in der Rolle „Director Customer Experience & Digital Transforma‐ tion“. Dr. Jürgen Rahmel promovierte im Bereich Künstliche Intelligenz und Neuronale Netze. Er startete seine Laufbahn in der Finanzindustrie bei der Deutschen Bank und wechselte nach einer Zeit in der DWP Bank zur HSBC Deutsch‐ land. Dort war er IT-Leiter für das Wertpa‐ pier-Segment bevor er für acht Jahre für die HSBC nach Hong Kong ging. Nach Stationen in der Software-Entwicklung, IT Operations sowie der Leitung einer Forschungskooperation des Innovations-Teams kehrte Dr. Rahmel für drei Jahre als Chief Digital Officer zur HSBC Deutschland zurück. Seit 2021 wieder in Hong Kong tätig, leitet Dr. Rahmel nun das Innovationsumfeld für Compliance und Digital Business Services - wo Themen wie Digitale Assets, Web 3.0, Metaverse, Generative KI und andere neue Themen auf Business-Tauglichkeit sowie bzgl. Regulatorik- und Compliance-Fragen untersucht werden. Dr. Rahmel erwarb einen MBA in International Management und ist Lehrkraft für den Financial Stream in Computerwissenschaften an der Universität Hong Kong. Beitragsautor: innen 309 <?page no="310"?> Victoria Schorr sammelte bereits während ih‐ rer akademischen Laufbahn Erfahrung im Be‐ reich der Datenanalyse mit Fokus auf Machine Learning sowie im Umgang mit Datenbanken. Zur Anwendung von maschinellem Lernen, der Auswertung und Interpretation der Ergebnisse bringt sie fundierte Kenntnisse in Python, R, Stata und SPSS mit. In ihrer Rolle als Digitiza‐ tion Professional am August-Wilhelm Scheer Institut beschäftigt sie sich mit Digitalisierungs‐ themen in den Bereichen Energie und Nachhaltigkeit. Dabei liegt ihr Schwerpunkt im Bereich der Datenanalyse und dem Datenmanagement im Kontext von Energiedaten. Sie ist Projektmitarbeiterin in verschiedenen Forschungsprojekten und agiert gleichzeitig an der Schnittstelle zwischen Forschung und Praxis. In den zukunftsweisenden Forschungsprojekten stehen verschiedene Verfahren des Machine Learnings und der künstlichen Intelligenz sowie das Datenmanagement auf der täglichen Agenda. Joachim Stalph ist Geschäftsführer und Ex‐ perte für Data und Tech bei elaboratum. Seine Beratungsschwerpunkte liegen zusätzlich auf E-Commerce-Konzeption, UX, Conversion-Op‐ timierung und Cross-Channel-Verknüpfung. Im Themenfeld kundengetriebenes Marketing und Relationship Commerce beschäftigt ihn die Fra‐ gestellung, wie aus rohen Daten intelligente Erkenntnisse gewonnen und aktiviert werden können.- 310 Beitragsautor: innen <?page no="311"?> Rainer Volland ist Managing Partner und Ge‐ schäftsführer der Digitalberatung elaboratum. Vorher arbeitete er in verschiedenen Manage‐ ment Positionen bei Siemens, Infineon und der Telefónica Deutschland. Er verantwortete dort unter anderem die Entwicklung des Online-Auf‐ tritts für die Marke O2. Seit 8 Jahren berät er Telekommunikations‐ firmen und Versicherungen in Deutschland und der Schweiz zum Thema Kundenzentrierung auf Basis von Behavioral Economics und Daten. Dabei tritt das Thema Personalisierung unter Zuhilfenahme generativer AI zunehmend in den Fokus. Lisa Weinzierl hat ihre berufliche Laufbahn im Bankwesen und in der Wirtschaftsprüfung begonnen. Durch ihr Masterstudium in Business & Economics und ihre ersten Programmiererfah‐ rungen entdeckte sie Daten und die damit eng verbundene IT-Branche für sich. Nach drei Jah‐ ren externer IT-Beratung als Data Scientist hat sie nun die Rolle der KI-Expertin bei der Schwei‐ zerischen Post übernommen und prägt das unter‐ nehmensweite Verständnis und die Nutzbarkeit von Künstlicher Intelligenz. Seit 2022 trägt sie in einer zweiten Funktion, Co- Lead für die Abteilung Data & Insights, die Verantwortung für die Strategie und Umsetzung der beiden Komponenten Daten und KI. Nebenbei engagiert sie sich an der Dualen Hochschule Baden-Württemberg als Dozentin für den Studiengang Data Science mit dem Thema „Big Data Programming“. Beitragsautor: innen 311 <?page no="312"?> Dr. Dirk Werth ist Geschäftsführer und wis‐ senschaftlicher Direktor des August-Wilhelm Scheer Instituts für digitale Produkte und Pro‐ zesse, einem privaten Forschungszentrum mit dem Schwerpunkt Digitalisierung. Ein besonde‐ rer Schwerpunkt des Instituts ist es, die Kluft zwischen Wissenschaft und Industrie zu über‐ brücken und Forschungsergebnisse in markt‐ fähige Produkte zu überführen. Dr. Werth ist außerdem Chefredakteur der Zeitschrift IM+io, einer führenden deutschen Fachzeitschrift über Best & Next Practices in Di‐ gitalisierung, Management und Forschung. Zuvor war er in verschiedenen Managementpositionen tätig, unter anderem als Vizepräsident Innovations- & Forschungsberatung am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Er hat über 200 Publikationen und internationale Artikel in Fachzeitschriften und Büchern veröffentlicht und promovierte 2006 bei Prof. August-Wilhelm Scheer mit einer mehrfach preisgekrönten Arbeit über kollaborative Geschäftsprozesse. Mit seinem wissenschaftlichen Hin‐ tergrund verbindet er Hightech-Forschung mit ambitioniertem Unterneh‐ mergeist und hat ein internationales Team aufgebaut, das Pionier in der Digitalisierung der Unternehmensberatung ist. Copyrights: Shari Alt: © privat | Andreas Braun: © privat | Wolfgang Decker: © privat | Sven Deglow: © Consorbank | Wolfgang Faisst: © privat | Markus Gildenhard: © privat | Torben Hügens: © privat | Patricia Kahr: © privat | Sonja Christa Köberlein: © privat | Kim Kordel: © Schweizerische Post | Stefan Kremsner: © privat | Markus Thomas Münter: © privat | Annina Neumann: © privat | Jörg Neumann: © Consorsbank | Nataša Pavlović-Höck: © privat | Victoria Schorr: © privat | Joachim Stalph: © elaboratum | Rainer Volland: ©-elaboratum | Lisa Weinzierl: ©-Schweizerische Post | Dirk Werth: ©-AWSi 312 Beitragsautor: innen <?page no="313"?> BUCHTIPP Markus Thomas Münter Wettbewerb und Unternehmensstrategie für Management und Consulting 1. Auflage 2022, 317 Seiten €[D] 29,90 ISBN 978-3-7398-3192-3 eISBN 978-3-7398-8192-8 Wettbewerb richtig analysieren und überlegene Strategien entwickeln! Der immer rasantere Wettbewerb bestimmt Marktanteile und letztlich auch den Erfolg eines jeden Unternehmens. Doch wie wirkt sich dies auf die Strategie von Unternehmen aus? Markus Thomas Münter zeigt, wie sich Markstrukturen durch Wettbewerb konkret verändern und wie Unternehmen ihre spezifischen Fähigkeiten erfolgreich einsetzen können, um im Wettbewerb zu bestehen. Auf Besonderheiten digitaler Geschäftsmodelle geht er ein. Auch spieltheoretische Ansätze zieht er zur Erklärung heran. Ein spannender Einstieg für alle, die ökonomische Zusammenhänge in Management, Consulting und Studium schnell und anwendungsorientiert verstehen wollen. UVK Verlag - Ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 \ 72070 Tübingen \ Germany Tel. +49 (0)7071 97 97 0 \ Fax +49 (0)7071 97 97 11 \ info@narr.de \ www.narr.de <?page no="314"?> ISBN 978-3-7398-3224-1 Die Chancen aus Big Data und künstlicher Intelligenz erkennen und jetzt die Digitalisierung vorantreiben! Das globale Datenvolumen wächst Tag für Tag und künstliche Intelligenz optimiert Entscheidungen. Daten und Algorithmen können die Wettbewerbsfähigkeit von Unternehmen erhöhen und neue Geschäftsmodelle hervorbringen - aber nur, wenn Menschen, Organisationen und Prozesse mitwachsen. Rund 20 Expert: innen zeigen Strategien und Organisationsmodelle für Unternehmen in einer datengetriebenen Welt auf. Auf Chancen und Risiken gehen sie praxisnah ein. Ein Glossar erklärt FachbegriŠe. Ein Buch für alle in Praxis und Wissenschaft, die Daten und künstliche Intelligenz als Wettbewerbsvorteile besser verstehen wollen, sowie für Studierende der Wirtschaftswissenschaften und -informatik. Mit Beiträgen von Expert: innen der Unternehmen Consorsbank/ BNP Paribas, Schweizerische Post, PricewaterhouseCoopers Luxembourg, Eindhoven University of Technology, HDBW München, Hochschule Flensburg, s2 data&algorithms, August- Wilhelm Scheer Institut, ValueWorks.ai, elaboratum, htw saar, HSBC Group, Horváth&Partners, avantum consult und 1&1 Telecommunication. Markus Thomas Münter war 15 Jahre Unternehmensberater und im Management von Finanzdienstleistern tätig. Seit 2014 ist er Professor für Volkswirtschaftslehre, insbesondere Mikroökonomie, an der htw saar.