eBooks

KI-Transformation in Deutschland

Veränderungen in Gesellschaft, Kultur, Bildung und Wirtschaft

0901
2025
978-3-8385-6538-5
978-3-8252-6538-0
UTB 
Thomas Breyer-Mayländer
Dirk Drechsler
Christopher Zerres
10.36198/9783838565385

Das Ziel des vorliegenden Buchs ist es, eine differenzierte Betrachtung der KI-Transformation in und ausgehend von Deutschland zu geben, indem die Auswirkungen der KI aus technologischer, wirtschaftlicher, rechtlicher und gesellschaftlicher Perspektive beleuchtet werden. Gleichzeitig sollen dabei sowohl wissenschaftliche Erkenntnisse als auch praktische Anwendungsszenarien den Blickwinkel erweitern. Der erste Teil des Buches widmet sich der technologischen Entwicklung und einigen grundlegenden Fragen rund um KI. Im zweiten Abschnitt steht die Bedeutung von KI für die Wissenschaft, die Bildung sowie die Kreativ- und Kulturwirtschaft im Mittelpunkt. Der dritte Teil des Buches beleuchtet die KI-Transformation in Wirtschaft und Finanzen. Das Buch richtet sich sowohl an Studierende, Menschen im Bildungswesen und Fachleute als auch an Interessierte und soll als Orientierungshilfe, Impulsgeber und als Grundlage für weiterführende Diskussionen über die Zukunft der KI in unserer Gesellschaft dienen.

9783838565385/9783838565385.pdf
<?page no="0"?> Breyer-Mayländer | Drechsler | Zerres (Hg.) KI-Transformation in Deutschland Veränderungen in Gesellschaft, Kultur, Bildung und Wirtschaft <?page no="1"?> utb 6538 Eine Arbeitsgemeinschaft der Verlage Brill | Schöningh - Fink · Paderborn Brill | Vandenhoeck & Ruprecht · Göttingen - Böhlau · Wien · Köln Verlag Barbara Budrich · Opladen · Toronto facultas · Wien Haupt Verlag · Bern Verlag Julius Klinkhardt · Bad Heilbrunn Mohr Siebeck · Tübingen Narr Francke Attempto Verlag - expert verlag · Tübingen Psychiatrie Verlag · Köln Psychosozial-Verlag · Gießen Ernst Reinhardt Verlag · München transcript Verlag · Bielefeld Verlag Eugen Ulmer · Stuttgart UVK Verlag · München Waxmann · Münster · New York wbv Publikation · Bielefeld Wochenschau Verlag · Frankfurt am Main <?page no="3"?> Thomas Breyer-Mayländer / Dirk Drechsler / Christopher Zerres (Hg.) KI-Transformation in Deutschland Veränderungen in Gesellschaft, Kultur, Bildung und Wirtschaft <?page no="4"?> Umschlagmotiv: © Alexander Sikov · iStockphoto Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. DOI: https: / / doi.org/ 10.36198/ 9783838565385 © UVK Verlag 2025 - Ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Alle Informationen in diesem Buch wurden mit großer Sorgfalt erstellt. Fehler können dennoch nicht völlig ausgeschlossen werden. Weder Verlag noch Autor: innen oder Herausgeber: innen übernehmen deshalb eine Gewährleistung für die Korrektheit des Inhaltes und haften nicht für fehlerhafte Angaben und deren Folgen. Diese Publikation enthält gegebenenfalls Links zu externen Inhalten Dritter, auf die weder Verlag noch Autor: innen oder Herausgeber: innen Einfluss haben. Für die Inhalte der verlinkten Seiten sind stets die jeweiligen Anbieter: innen oder Betreibenden der Seiten verantwortlich. Internet: www.narr.de eMail: info@narr.de Einbandgestaltung: siegel konzeption l gestaltung Druck: Elanders Waiblingen GmbH utb-Nr. 6538 ISBN 978-3-8252-6538-0 (Print) ISBN 978-3-8385-6538-5 (ePDF) ISBN 978-3-8463-6538-0 (ePub) <?page no="5"?> Vorwort Künstliche Intelligenz (KI) ist längst mehr als ein technologischer Trend - sie ist ein zentraler Treiber der digitalen Transformation und hat immer größeren Einfluss auf unsere Gesellschaft, Wirtschaft und Kultur. Die KI-Transformation beeinflusst dabei nicht nur einzelne Branchen, sondern greift tief in unsere Arbeitsweisen, Bildungssysteme und Geschäftsmodelle ein. Das Ziel des vorliegenden Buchs ist es, eine differenzierte Betrachtung der KI-Transformation in und ausgehend von Deutschland zu geben, indem die Auswirkungen der KI aus technologischer, wirtschaftlicher, rechtlicher und gesellschaftlicher Perspektive beleuchtet werden. Gleichzeitig sollen dabei sowohl wissenschaftliche Erkenntnisse als auch praktische Anwendungsszenarien den Blickwinkel erweitern. Der erste Teil des Buches widmet sich der technologischen Entwicklung und einigen grundlegenden Fragen rund um KI. Hier werden die Rolle von KI als Transformationsauslöser, ihre rechtlichen Rahmenbedingungen sowie der Einfluss auf Cybersicherheit und Nachhaltigkeit diskutiert. Im zweiten Abschnitt steht die Bedeutung von KI für die Wissenschaft, die Bildung sowie die Kreativ- und Kulturwirtschaft im Mittelpunkt:  Welche Rolle spielt KI in der Film- und Games-Branche?  Wie verändert sie die Hochschullehre oder den Literaturbetrieb?  Und wie können Schulen KI gewinnbringend in den Unterricht integrieren? Die Autorinnen und Autoren in diesem Abschnitt beantworten diese Fragen anhand von Praxisbeispielen sowie wissenschaftlichen Studien und Projekten. Der dritte Teil des Buches beleuchtet die KI-Transformation in Wirtschaft und Finanzen. So geht es etwa um Zukunftsszenarien für die Arbeitswelt, den Einfluss von KI auf das Marketing, das Risikomanagement, den E-Commerce sowie die Transformationsprozesse in Unternehmen. Ergänzend werden konkrete Anwendungsfälle und Studien vorgestellt, die verdeutlichen, wie KI bereits heute in der Praxis eingesetzt wird. Mit diesem Buch möchten wir einen fundierten Überblick über die KI-Transformation in Deutschland geben und die Diskussion darüber versachlichen. Es richtet sich dabei sowohl an Fachleute als auch an Interessierte und soll als Orientierungshilfe, Impulsgeber und als Grundlage für weiterführende Diskussionen über die Zukunft der KI in unserer Gesellschaft dienen. Wir möchten an dieser Stelle den Autorinnen und Autoren herzlich für ihr Engagement und die eingebrachte Expertise danken. Offenburg, im Juni 2025 Thomas Breyer-Mayländer Dirk Drechsler Christopher Zerres <?page no="7"?> Inhaltsübersicht Teil I: KI - Versachlichung und Technologieentwicklung 1.1 Alternativen zur Problemhypnose: KI als Katalysator von Transformationen und Spielverderber (Thomas Breyer-Mayländer) 1.2 KI und Recht - Von Gefahren und Chancen (Christian Solmecke) 1.3 From strategic foresight to cyber threat intelligence in the age of AI - Challenging the cyber frontier (Abhishek Singh und Dirk Drechsler) 1.4 GraphRAG für transparente KI (Alexander Busse) 1.5 KI und Nachhaltigkeit (Christine Preisach) 1.6 Eine Analyse der Sicherheit von LLM-generierten Code (Andreas Schaad, Dominik Binder und Stefan Götz) 1.7 KI - ethische Herausforderungen. Fragestellungen, Dilemmata und Auflösung (Christian Mühl) Teil II: KI in Wissenschaft, Bildung und der Kreativ- und Kulturwirtschaft 2.1 „Die Zukunft interessiert sich nicht für Deine Gefühle! “ Wie KI die Filmlandschaft verändern (Markus Müller-Hahnefeld) 2.2 KI in der Games-Branche (Lutz Anderie und Daniel Görlich) 2.3 KI im Literaturbetrieb. Balance zwischen technologischer Innovation und kultureller Integrität (Wolfhart Fabarius) 2.4 Veränderte Anforderungen durch KI an Berufstätige - Arbeit zwischen Mensch und Algorithmus (Dominic Lindner) 2.5 Horizonterweiterung durch KI - Good Practice in der Schule (Stefan Aufenanger) 2.6 KI in der Hochschullehre - Didaktische Vermittlung und Lernunterstützung (Claudia Schmidt und Volker Sänger) 2.7 Überlegungen zum Einfluss generativer KI auf die Zukunft der Lehre (Erik Zenner) 2.8 Musik und KI in der Schule - Chancen, Risiken und didaktische Strategien (Ulrich Frefat) Teil III: KI in Wirtschaft und Finanzen 3.1 Zukunftsszenarien für die Arbeitswelt - Stimmungsbild und Lessons Learned zum Thema New Work (Inka Knappertsbusch) 3.2 Die Risikolandschaft der KI-Transformation - eine strategische Betrachtung (Dirk Drechsler) <?page no="8"?> 8 Inhaltsübersicht 3.3 Die Veränderung von Beratung und Business Coaching (Cristina Mühl und Daniel Hommel) 3.4 KI im Marketing (Christopher Zerres und Kai Israel) 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen (Kai Rahnenführer) 3.6 Chancen und Risiken des Einsatzes von KI-generierten Inhalten in Dialogmarketingkampagnen - Praxiserfahrungen von Burda Direct (Diana Kolbe, Barbara Wörz und Andrea Müller) 3.7 KI-basierte Robotiksysteme im Büro - Empirische Studie zu den Herausforderungen in der Praxis (Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller) 3.8 KI-Chatbots im B2B: Analyse eines Chatbot-Rollouts auf einer Unternehmenswebseite (Simona Lossau und Simone Braun) 3.9 Zwischen Realität und Richtlinien: Ethische Herausforderungen des KI-Einsatzes im PR- und Kommunikationsalltag (Elke Kronewald und Bastian Federlein) <?page no="9"?> Teil I KI - Versachlichung und Technologieentwicklung <?page no="11"?> 1.1 Alternativen zur Problemhypnose KI als Katalysator von Transformationen und Spielverderber Thomas Breyer-Mayländer Zusammenfassung Künstliche Intelligenz ist ein Bespiel für technologische Innovationen, die breite Auswirkungen auf Wirtschaft, Kultur und Gesellschaft haben und daher sehr rasch entweder mit positiven oder negativen Erwartungen verknüpft werden. Der Beitrag zeigt, dass es hilfreich ist, nicht vorschnell aktuelle und absehbare Entwicklungen zu werten, sondern möglichst klar den Faktenkern der Entwicklungsmöglichkeiten Künstlicher Intelligenz zu betrachten, bevor man dazu übergeht, die damit verbundenen Chancen und Risiken aus unterschiedlichen Blickwinkeln zu betrachten. Keywords: Künstliche Intelligenz, Innovation, Trends, Transformation, Disruption 1.1.1 Einleitung Für jemanden, der in den 1990er-Jahren an einer deutschen Universität ein Diplom in Informationswissenschaft abgeschlossen hat, sind die jüngsten Entwicklungen im Bereich Künstlicher Intelligenz (KI) zunächst einmal eine Erfüllung früherer Hypothesen und Prognosen (vgl. Kuhlen 2013, S. 13). Erst die Fortschritte der Hard- und Softwaretechnologie haben dabei die Voraussetzungen für die Entwicklung von KI geschaffen. Für andere hingegen sind die aktuellen Entwicklungen in hohem Maße alarmierend. Es ist nicht überraschend, dass beispielsweise im Hochschulsektor einige Professor*innen und Universitäten zunächst mit dem Wunsch nach einem Verbot von KI-Tools im Hochschulbereich reagiert hatten, als die Diskussion über generative KI an Fahrt aufgenommen hatte (o.V. 2023). Bei ihnen war die Furcht vor den negativen Begleiterscheinungen dominierend. Sie hatten dabei nicht nur die mittel- und langfristigen Negativentwicklungen im Bereich Bildung, Gesellschaft oder Wirtschaft im Blick; sie sahen zunächst die Auswirkungen auf ihren eigenen Arbeitsbereich, Prüfungsformen wie schriftliche Haus- und Abschlussarbeiten, deren Wirksamkeit nicht mehr gesichert war. Auch in der gesamten Gesellschaft haben die für manche irritierenden Entwicklungen und vor allem die mehr und mehr dynamischen Prognosen dazu geführt, dass neben großen Erwartungen auch eine ganze Reihe von Befürchtungen ins Blickfeld rücken (vgl. Ebenfeld et al. 2024). Wir haben heute zu Beginn des Jahres 2025 eine ambivalente Situation, bei der die aus technologischer Perspektive bestehenden Möglichkeiten sowohl mit stark positiven als auch stark negativen Hypothesen und Erwartungen in Verbindung gebracht werden. Die verengte Fixierung auf die eine oder andere Deutungsart entspricht dem typischen Charakter einer Problemhypnose bzw. Problemtrance (vgl. Wagner 2020, S. 38), bei der die möglichen Optionen und Hypothesen nur noch in einem sehr eingeschränkten Maße wahrgenommen werden. <?page no="12"?> 12 Thomas Breyer-Mayländer Meist sind Menschen in diesem Zustand nicht mehr in der Lage, andere Optionen und Hypothesen wahrzunehmen und zu würdigen. In diesem Kapitel stellen wir einige der zentralen Hypothesen dar, die in Bezug auf das Entwicklungspotenzial und die Auswirkungen der KI auf Bildung, Wirtschaft und Gesellschaft aktuell diskutiert werden. Die unterschiedlichen Rollen, die dem Themenfeld KI innerhalb der Narrative zugedacht sind, zeigen dabei mögliche konkurrierende Szenarien auf, die es zunächst möglichst wertfrei nebeneinanderzustellen und zu betrachten gilt. Dabei kann ein und dasselbe Szenario zu sehr unterschiedlichen Bewertungen führen, je nachdem aus welcher Perspektive man einen Sachverhalt betrachtet. Die aktuell bereits teilweise realisierten und teilweise erkennbaren Einsparpotenziale im Bereich Programmierung und Softwareentwicklung sind ein solcher Fall. Waren zu Beginn der 2020er-Jahre Softwareentwickler*innen noch ein absoluter Engpassfaktor im Personalsektor, der dafür gesorgt hatte, dass in vielen Branchen Innovationen nur mit einer gewissen Verzögerung umsetzbar waren, hat sich die Situation heute bereits deutlich verändert. Unterschiedliche KI-Systeme sorgen dafür, dass die Produktivität der jeweiligen Fachexpert*innen um ein Vielfaches gesteigert werden kann. Dies kann man einerseits als positiven Innovationsschub im Sinne einer Prozessinnovation verstehen, man kann es aber auch als negative Entwicklung mit Blick auf den Bedarf an Fachkräften auffassen. Der Umstand, dass in zentralen Innovationsbereichen von Branchen, wie etwa der Software für den Automobilsektor, der gestiegene Innovationsdruck nicht zu einem höheren Arbeitskräftebedarf führt, sondern Arbeitsplätze abgebaut werden, zeigt die Vielschichtigkeit der Entwicklungen auf. Da Softwarespezialisten selbst diesen Rückgang des Bedarfs hervorgerufen haben, hat die Entwicklung in diesem Segment etwas von dem bekannten Bonmot der französischen Revolution: „Die Revolution frisst ihre Kinder“, bzw. der bekannten Übertragung auf die Situation im maoistischen China, die Wolfgang Leonhard in einer Form beschrieben hat, die noch besser zur Situation in den einzelnen Unternehmen und Branchen passt: „Die Revolution entlässt ihre Kinder“ (Leonhard 1955). Ein weiteres Themenfeld, das die Entwicklung und Anwendungen von KI in einem besorgniserregenden Licht erscheinen lässt, sind die Manipulationsmöglichkeiten, die bei Ton-, Bild- und Filmmaterial durch perfektionierte Fälschungen (deep fakes) möglich werden und dazu führen können, dass beispielsweise im Rahmen der politischen Willensbildung Fake News-Kampagnen auch durch Einflüsse aus dem Ausland möglich werden (vgl. Vogler und Rauchfleisch 2024). 1.1.2 Die Entstehung von Trends Um die Schlagzeilen über positive und negative Wahrnehmungen gegenüber der Entwicklung Künstlicher Intelligenz nachvollziehen zu können, lohnt es sich zunächst einen Blick darauf zu richten, wie solche Trendentwicklungen entstehen. Eine generelle Wahrnehmung von Technologietrends kann anhand des Gartner- Hypecycles dargestellt werden (vgl. Breyer-Mayländer 2024, S. 50f.). Auf Phasen der dynamisch ausgelösten (getriggerten) Innovationsschritte kommt ein Plateau hoher Erwartungen, die dann in der Folgephase leider nicht in dem erwarteten Umfang oder nicht in der erwarteten Geschwindigkeit erfüllt werden können. Auf diese <?page no="13"?> 1.1 Alternativen zur Problemhypnose 13 Phase der Desillusionierung folgt die weniger gehypte, aber bodenständigere Phase der positiven Aufwärtsentwicklung (vgl. Gartner 2024). Ausgehend von den Phasen des Gartner Hype Cycle und den darin enthaltenen Erwartungen ist es maßgebend, wie in den einzelnen Phasen die unterschiedlichen Ebenen des Agenda-Setting-Prozesses für Managementideen anhand der Kommunikationsebenen der populären Medien in Verbindung mit wissenschaftlichen und nicht-wissenschaftlichen Fachzeitschriften/ Journals wirksam werden (vgl. Abb. 1). Managementtrends als ein Teil von wirtschaftlich besonders bedeutsamen gesellschaftlichen Trends entstehen dem Modell nach aus drei Bereichen, die gerne mit ABC abgekürzt werden. A ist dabei der Bereich Academics, d.h. die Wissenschaft. B ist der Bereich Business und damit die Wirtschafts- und Unternehmenspraxis, während C für den Bereich Consulting und damit für alle nicht im rein akademischen Umfeld angesiedelten Beratungsinstitutionen und ihre Akteure steht (vgl. Mazza et al. 2001). Wenn wir KI nun als Business-Thema einsortieren, dann können wir die unterschiedlichen Effekte der Business-Kommunikation hier gut erkennen. Insbesondere das Bestreben vieler Akteure, sich über eine wie auch immer geartete Expertise als Spezialistin oder Spezialisten für KI zu profilieren. KI-Themen sind in Deutschland sehr stark von Seiten der nachrichtenorientierten Medien und der fachlichen Blogs geprägt. Die Wechselwirkung mit dem Bereich Politik und Gesellschaft und damit auch der Einfluss des ABC-Systems auf die Zivilgesellschaft ist beim Thema KI unverkennbar (vgl. auch Fink 2003; Fink und Knoblach 2008; Kieser 2007; Breyer-Mayländer und Zerres 2023). Abb. 1: Framework für die Generierung und Verbreitung von Managementtrends (Quelle: Breyer-Mayländer und Zerres 2023, S. 103) <?page no="14"?> 14 Thomas Breyer-Mayländer Es gibt eine Reihe von Theorien, die beschreiben, wie Menschen auf Basis von (externen) Fakten mit und ohne eigene Erfahrungen sich eine Meinung über ein Thema oder eine Technologie bilden. Wir haben zunächst einen ersten Filterblock auf der Ebene der Wahrnehmung (vgl. Breyer-Mayländer 2019, S. 58ff.), den wir in Abb. 2 zusammengefasst haben. Abb. 2: Typische Wahrnehmungsfilter bei der Meinungsbildung über (neue) Themen (Quelle: Eigene Darstellung) Ein typisches Problem bei der sach- und faktenorientierten Meinungsbildung, das vorwiegend bei grundsätzlichen politischen, gesellschaftlichen und technologischen Veränderungsprozessen auffällt, ist der Wunsch nach Konsistenz. Das Bedürfnis nach einem konsistenten Verhalten und einer einheitlichen Bewertung von Sachverhalten im Zeitverlauf führt in vielen Fällen zu einer Art Abwehrhaltung gegenüber Fakten und Detailinformationen, die das Ergebnis einer bereits erfolgten, erfolgreichen Meinungsbildung in Frage stellen. Der als Scherz gemeinte Ausspruch „No facts please, I already made up my mind“, [“Bitte keine (weiteren) Fakten (mehr), ich habe mir schon eine Meinung gebildet”] trifft dabei aber nicht nur auf Einzelpersonen zu. <?page no="15"?> 1.1 Alternativen zur Problemhypnose 15 Bei der medialen Berichterstattung über KI lässt sich dieser Effekt nicht nur auf der Ebene der Protagonisten des KI-Sektors (Expert*innen-Ebene und Rezipientenebene) nachweisen, sondern auch die Ebene der professionellen Informationsmittler, im Regelfall die Ebene der Fachleute und Journalist*innen, unterliegt diesem Problem. Manchmal vor einer Recherche, aber sehr häufig nach der ersten Recherche steht im Kern der Duktus eines Beitrags bereits fest. Zitate und Belege werden dann nur noch gesammelt, um das bereits bestehende Bild anzureichern und auszuschmücken. Häufig lässt sich dies bereits an den Begrifflichkeiten ablesen, mit denen in Interview- und Dialogsituationen eingestiegen wird. Eine Frage im Sinne von „Wie gehen Sie mit der Bedrohung durch KI um? “ lässt keinen Zweifel an der Zielrichtung zu. Die Theorie des Framings zeigt sehr schön, dass in dem Moment Interviewpartner kaum Möglichkeiten haben, diese Situation noch zu retten. Der direkte Bezug zur Frage im Sinne einer Negation ist dabei nicht hilfreich. Eine Antwort im Stil von „Ich sehe in KI nicht primär eine Bedrohung“ würde lediglich dazu führen, dass der Begriff der Bedrohung in Verbindung mit KI weiter zementiert wird, auch gerade durch die erneute Nennung des negativen Begriffskontexts „Bedrohung“. Elisabeth Wehling hat statt dem in der allgemeinen Kommunikationsliteratur aufgeführten Beispiel das einfache, aber überzeugende Beispiel mit einem klaren Anweisungssatz geprägt: „Denken Sie nicht an Obamas graue Haare.“ (Wehling 2016, S. 55) Die normale Reaktion auf eine derartige Aufforderung besteht darin, sich zwar Mühe zu geben und an etwas anderes zu denken, wobei gerade dadurch die Menschen normalerweise unwillkürlich an Obamas graue Haare denken werden. Es bleibt also die Erkenntnis, dass neben den anderen Filtern aus Abb. 2 vor allem der Wunsch nach einem konsistenten Weltbild entscheidend die Meinungsbildung über ein komplexes Thema wie KI prägen kann. Wenn dieser Wunsch zudem noch auf Vermittler auf der Ebene des Journalismus trifft, die ihrerseits eine konsistente Darstellung planen und somit ihre Geschichte bereits fertig haben, dann leidet die differenzierte Auseinandersetzung und Darstellung des Themas merklich. Menschen sind ohnehin in ihrem „implicit bias“ (vgl. Eberhardt 2019), d. h. ihren eigenen Vorurteilsstrukturen gefangen, die sich aus den alltagstauglichen Heuristiken ableiten, mit denen wir zur Vereinfachung unsere Welt kategorisieren. In Situationen, in denen wenig Zeit für eine Beurteilung und Entscheidung bleibt, was auch bei vielen „Nebenthemen“ der Fall ist, wirkt sich dieser „implicit bias“ besonders stark aus (vgl. Luscombe 2019). Eine weitere Variante ist der „optimism bias“, bei dem die eigenen positiven Einstellungen und Überzeugungen auf andere Personen oder Gegebenheiten übertragen werden. Optimism bias ist dabei “[…] a cognitive predisposition found with most people to judge future events in a more positive light than is warranted by actual experience” (Flyvbjerg 2006, S. 6). Eine mögliche Folge können Fehleinschätzungen in Bezug auf die Absichten anderer Menschen sein (vgl. Kahneman 2012, S. 255ff.). Die evolutionär hilfreichen Vereinfachungen zum raschen Fällen von Urteilen haben sich jedoch nicht unbedingt bei der Einschätzung komplexer Themen wie dem der KI bewährt. Ziel des Abschnitts ist es daher unterschiedliche Sichtweisen als zusätzliche Optionen einer Einschätzung von KI darzustellen. Dabei gehört es zur „intellektuellen Redlichkeit“ (Metzinger 2023a, S. 24) nicht vorzugeben etwas zu wissen <?page no="16"?> 16 Thomas Breyer-Mayländer oder auch nur wissen zu können, was derzeit nicht als gesichertes Wissen für mich als Person verfügbar ist. Es geht am Ende nicht nur um die rationale Beurteilung einer Situation, sondern im Sinne eines Bewusstheits-Bewusstseins, das viele Menschen eher im Rahmen von kontemplativen oder meditativen Praktiken erlangen (vgl. Metzinger 2023b), um epistemische Offenheit. Das Ziel ist eine epistemische Offenheit, die die Fähigkeit beinhaltet gegenüber sich selbst ehrlich zu sein und Andersdenkenden gut zuzuhören. „Epistemische Offenheit bildet eine Voraussetzung nicht nur für sorgfältiges, vernünftiges Denken, sondern auch für Kritikfähigkeit, verstanden als die geistige Tugend, sachlich formulierte und gerechtfertigte Kritik wirklich anzunehmen.“ (Metzinger 2023a, S. 41). 1.1.3 KI als Transformationsauslöser Künstliche Intelligenz (KI) oder Artificial Intelligence (AI) ist ein Schlagwort, das in den 1990er-Jahren konzeptionell zwar viele der heute möglichen Dinge erfasste, aber lediglich einem eher kleinen Kreis von IT-Experten und Informationswissenschaftlern geläufig war. Heute darf das Schlagwort in keiner Diskussion über die Zukunft fehlen, aber es findet in vielen Bereichen eher eine emotional wertende Diskussion statt als eine Analyse der möglichen Anwendungsbereiche und den dabei erkennbaren technischen, ethischen oder rechtlichen Grenzen (vgl. Breyer-Mayländer 2024b, S. 308). Dabei gelten jenseits der KI-spezifischen Problematik die beiden grundsätzlichen Regeln im Umgang mit Tools in unterschiedlicher Intensität: a) Law of the Instrument (vgl. Maslow 1966): „Wer nur einen Hammer zur Verfügung hat, entdeckt in jedem Problem einen Nagel.“ b) Foolproof-Anspruch: „A fool with a tool is still a fool.” (Banejee 2012) Während a) uneingeschränkt Gültigkeit besitzt, da man stets in Gefahr läuft neue Werkzeuge wie Lieblingsspielzeuge zu behandeln und sie damit in Anwendungsbereiche bringt, die dem eigentlichen Grundnutzen nicht entsprechen, gilt b) nur noch eingeschränkt. Wir sind dann nicht in der Lage, mit KI-basierten Tools bessere Ergebnisse zu erzielen, wenn wir nicht in der Lage sind sie zu bedienen und sie nicht ohne unser Zutun, bzw. unser Wissen im Hintergrund als bereits trainierte und eingewöhnte Tools ihre Arbeit verrichten können. Eine Reihe von KI-Systemen beruht jedoch auf Ansätzen, die kein überbordendes Know-how erfordern. Sie sind damit in der Lage auch einem User zu höherer Wirksamkeit und besseren Ergebnissen zu verhelfen, der im jeweiligen Themengebiet kein besonders hochwertiges Domänenwissen vorweisen kann. Unter Künstlicher Intelligenz versteht man Systeme, die auf Informations- und Kommunikationstechnologien basieren und in der Lage sind, eigenständig Probleme zu lösen. Sie haben dabei das Ziel, Aspekte menschlicher Intelligenz nachzubilden (vgl. Wittpahl 2019, S. 21). KI-Systeme haben daher - je nachdem, ob es sich um schwache oder starke KI handelt - einen gewissen Grad an Autonomie, also Unabhängigkeit von menschlicher Steuerung. Dies führt dazu, dass es die Befürchtungen gibt, dass die Selbstständigkeit der Systeme zu einer Verselbstständigung der Systeme führen könnte. Starke KI verfolgt den Ansatz, technische Systeme mit weitreichenden Möglichkeiten des Wahrnehmens, Denkens und Handelns auszustatten und damit eine Nachbildung des menschlichen Intellekts zu erreichen (vgl. OECD 2019, S. 22). <?page no="17"?> 1.1 Alternativen zur Problemhypnose 17 KI wird in vielen Fällen als Teil der „großen Beschleunigung“ gesehen, die in Verbindung mit deutlich negativen Zukunftsszenarien - beispielsweise im Rahmen des Klimawandels - für Menschen als beobachtende Subjekte eine Überforderung darstellen kann (vgl. Stöcker 2023). Sie weisen dann zusätzlichen Entwicklungsfaktoren wie KI eine negative oder positive Rolle als eigenständigem Akteur künftiger Entwicklungen zu. KI soll dann beispielsweise jahrelange Versäumnisse der Menschheit im Bereich Klimaschutz kompensieren. Auch die philosophische Frage, ob durch KI ein eigenes künstliches Selbstbewusstsein entstehen kann, das die Menschheit überdauert (vgl. Metzinger 2021), spielt hier eine Rolle. Bezogen auf die VUCA-Welt steht KI jedoch in vielen Fällen nahezu symbolisch als Auslöser für Transformationsprozesse. Diese Situation wird oftmals mit VUCA beschrieben. Das sehr geläufige Akronym VUCA steht dabei für volatile (unbeständig), uncertain (unsicher), complex (komplex) und ambiguous (mehrdeutig). Es beschreibt die Dimensionen einer Zukunft, die sich von alten Strukturen und Mustern löst und damit für die einzelnen Akteure, ob Personen oder Gruppen, weniger gut einschätzbar wird. Die Welt wird damit zunehmend als BANI empfunden: als brittle (brüchig, porös), anxious (ängstlich, besorgt), non-linear (nicht-linear) und incomprehensible (unverständlich, unbegreiflich) (vgl. Zornek 2024, S. 41-48). Dies beschreibt bereits die Unsicherheiten und die Ambivalenz der Deutungen, die mit solch grundsätzlichen Transformationssituationen verbunden sind. Dabei stellt sich zunächst die Frage, was unter einem Transformationsprozess zu verstehen ist (vgl. Breyer-Mayländer 2024, S. 46f.). Der Begriff Transformation stammt etymologisch vom lateinischen Wortstamm transformare (= umformen) und bezieht sich auf eine grundlegende Veränderung, meist zielorientiert von einem Zustand A (z. B. Interpretation von bildgebenden Verfahren der Medizin durch medizinisches Fachpersonal) zu einem Zustand B (z. B. Ergänzung dieser Prozesse durch eine KI-basierte Vorbewertung von Aufnahmen), bei der es unterschiedliche Rollen gibt, wie etwa das verändernde Subjekt und das zu verändernde Objekt (vgl. Czekala 2018, S. 23). Als Begriff für die Veränderung von Organisationen wurde Transformation schon Mitte der 1990er-Jahre von der Konstanzer Managementwissenschaft (vgl. Klimecki und Gmürr 1996) verwendet, die sich in ihrer originären Entwicklung am St. Galler Managementmodell orientiert(e). Der Begriff des Transformationsmanagements umfasste dementsprechend alle Management-, Führungs- und Organisationsaufgaben, die erforderlich sind, um einen umfassenden Transformationsprozess zu initiieren, zu begleiten und erfolgreich abzuschließen. Bei komplexen Transformationsprozessen stellt sich manchmal die Frage, ob es wirklich nur eine Transformation von A nach B sein soll, oder ob es in Verbindung mit der KI-geprägten digitalen Veränderung nicht darum geht die Objekte (Personen, Gruppen, Organisationen, Gesellschaften) stets neu auf das nächste (Teil-)Ziel auszurichten, was eher dem Kriterium für eine Transition entspräche (vgl. Bissel 2023). Wenn wir unter Transformationsprozessen »large-scale societal change processes (global, regional, local etc.) involving social-ecological interaction« (Hölscher et al. 2018, S. 2), d.h. Veränderungen, die eine größere Dimension darstellen, verstehen, dann können wir auch eine sich immer weiterentwickelnde Transformation unter diesem Begriff zusammenfassen (vgl. Abb. 3). Neben den weiter unten zu analysierenden Fällen, in denen bestehende Transformationssituationen durch KI beeinflusst werden, sind bei den Menschen, die dem The- <?page no="18"?> 18 Thomas Breyer-Mayländer Abb. 3: Transformation von Personen, Gruppen, Organisationen, Gesellschaften (Quelle: Eigene Darstellung) menfeld KI sehr stark positiv oder sehr stark negativ gegenüberstehen, vor allem die Beispiele und Domänen relevant, bei denen KI selbst dazu führt oder führen kann, dass Transformationsszenarien entstehen. Beispielhaft sind die unterschiedlichen Automatisierungsszenarien für Business-to- Business (B2B)- oder Business-to-Consumer (B2C)-Anwendungen, bei denen KI eine neue Form der datenbasierten Entscheidungsfindung ermöglicht, die bei einem Einsatz zu neuen Folgeveränderungen und auch rechtlichen, ethischen und gesellschaftlichen Konsequenzen führen kann. Ein sehr populäres Beispiel sind die KI-Anteile des autonomen Fahrens, bei dem hinterlegt werden muss, welche Prioritäten bei unterschiedlichen Gefährdungs- und Risikosituationen bestehen, und wie damit auch im Sinne der Sicherheit der Fahrzeuginsassen und außenstehender Dritter entschieden wird (vgl. Nolting 2021). Allein dieses Beispiel zeigt, dass, ausgehend von einem zunächst vordergründig rein technologischen Schritt der Weiterentwicklung bestehender Systeme, auf Basis von KI neue Chancen und Risiken entstehen und vor allem Folgeprozesse angestoßen werden, die zu einer neuen Transformationsentwicklung führen können. Sehr ergiebig in einer tieferen Analyse ist der Einsatz von KI bei bildgebenden Verfahren der Medizin. Beim traditionellen Prozess der Bildanalyse sind Radiolog*innen damit beschäftigt, die Bilder aus Röntgen-, MRT- und CT-Aufnahmen zu sichten, zu bewerten und zu kommentieren. Eine Aufgabe, die nicht nur sehr kosten- und ressourcenintensiv ist, sondern darüber hinaus im Zeitalter des medizinischen Fachkräftemangels zu stark Fachkräfte bindet. Der hohe Zeitdruck hat bei komplexen Fällen und begrenztem Bild- und Datenmaterial stets auch die Gefahr der Fehldiagnose beinhaltet. Auf Deep-Learning-Algorithmen basierende KI-Modelle sind in der Lage, Muster und Auffälligkeiten in medizinischen Bildern selbst dann zu erkennen, wenn diese für das menschliche Auge schwer identifizierbar sind. Produkte wie Google‘s DeepMind Health und IBM Watson Health (vgl. Aung et al. 2021) bieten beispielsweise auf dieser Basis Algorithmen für die Krebsfrüherkennung auf Basis von Röntgenbildern. Die Tests mit Einsatz unterschiedlicher KI-Formen in diesem Bereich bedeuten einen mehrfachen Zeitgewinn, wenn beispielsweise weniger Zeit für die Analyse von Bildern benötigt wird und damit Arbeitszeit von Ärzten für die eigentliche Arbeit des Begleitens und Heilens - beispielsweise für das Patient*innen- Gespräch - frei wird. Es entsteht aber teilweise auch ein Zeitgewinn bei der Begleitung der Patient*innen und damit bei der Therapie, wenn beispielsweise kritische Befunde im Rahmen von Mammografie-Screenings signifikant früher entdeckt werden können als bei konventioneller Sichtung des Bildmaterials (vgl. Bennani-Baiti et al. 2020). Kann man bei diesem Beispiel schon von einer grundsätzlichen Transformation sprechen? Dies hängt von den Auswirkungen dieser zunächst auf der Ebene <?page no="19"?> 1.1 Alternativen zur Problemhypnose 19 der Technologien und Prozesse feststellbaren Änderung ab. Typisch für Transformationsprozesse ist ein Wandel in der professionellen Rolle, wenn Radiolog*innen die Steuerung des KI-Einsatzes als neuen beruflichen Schwerpunkt sehen, wenn ihr Zeitkontingent sich weg von der Datenanalyse hin zur Patientenbetreuung und dem Dialog mit den Patient*innen verschiebt. Typischerweise verschieben diese Prozesse einer Transformation auch die Kosten- und Erlösstruktur und damit die Funktionsweise der Geschäftsmodelle. Dies ist in Bezug auf die Erlösstruktur im Krankenhauswesen etwas komplexer, da Kliniken nicht komplett autonom am Markt agieren. Auf der Ebene der Kostenstruktur lässt sich die Veränderung jedoch allein anhand der Zeitaufwendungen direkt nachweisen. Die angestrebten Verbesserungen mit dem Transformationsschritt setzen jedoch eine Integration der KI-Verfahren in eine neu überarbeitete IT- und Prozesslandschaft der jeweiligen Kliniken und ggf. ambulanten Praxen voraus. Dies erfordert eine positive Kooperationskultur zwischen KI-Entwicklern und Fachärzten im Bereich der Produktentwicklung und Anwendung derartiger Verfahren genauso wie eine positive Grundhaltung des Krankenhausfachpersonals gegenüber den möglichen Veränderungen. Nur dann kann es gelingen Lösungsoptionen auch für die technischen, rechtlichen und ethischen Herausforderungen zu entwickeln, wenn es beispielsweise darum geht, die Gefahr von Fehldiagnosen einzuschätzen und durch entsprechende Kontrollprozesse zu begrenzen. 1.1.4 KI als Katalysator Der Begriff des Katalysators wird zwar von vielen zunächst in Verbindung mit Reinigungssystemen der Abgastechnik bei Verbrennungsmotoren, insbesondere in Autos verbunden, er ist jedoch vor allem durch die Bedeutung in der Chemie geprägt worden. Aus diesem Kontext heraus kann man unter Katalysatoren Stoffe oder Systeme verstehen, die es ermöglichen die Aktivierungsenergie herabzusetzen, die erforderlich ist, um eine (chemische) Reaktion in Gang zu setzen. In Abgrenzung zum vorausgehenden Abschnitt, bei dem Transformationen erst durch KI-Systeme ermöglicht wurden, geht es daher um die Anwendungsszenarien, bei denen Veränderungsprozesse und Transformationsszenarien bereits gestartet wurden, aber durch das Hinzutreten von KI-Optionen diese Prozesse deutlich an Fahrt gewinnen werden oder bereits gewonnen haben. Typische Beispiele sind das Algorithmic Trading in der Finanzbranche oder das Programmatic Buying im Bereich der Mediabranche (Helmold 2022). In beiden Fällen haben die Automatisierungs- und Digitalisierungsschritte der einstmals menschengeprägten Entscheidungsprozesse zu einer Zeit begonnen, als das Kernthema der KI noch nicht im vollen Bewusstsein der Fachöffentlichkeit der jeweiligen Domäne (Finanz- und Mediabranche) angekommen war. Beim Programmatic Buying handelt es sich als Teil des Programmatic Advertisings um die automatisierte Version des Mediaplanungs-, Mediaoptimierungs- und Mediaeinkaufsprozesses. Im Rahmen der traditionellen Mediaplanung (vgl. Breyer-Mayländer 2018) geht es im Kern um die Planung von Werbeträgern und Werbemitteln für eine Kampagne. Dabei ist der traditionelle Einkauf von Werbeflächen zeitaufwendig und oft ineffizient, vor allem, wenn Basisdaten erst aufwändig recherchiert werden müssen. Media-Planer*innen mussten vor der Automatisierung der Prozesse manuell Kampagnen planen, Zielgruppen definieren und geeignete Werbeträger und Werbemittel auswählen, wobei ihnen historische Nutzungsdaten zur Verfügung <?page no="20"?> 20 Thomas Breyer-Mayländer standen. Der Anspruch diese Planungen in Echtzeit optimieren zu können, wurde bei der Etablierung der digitalen Kommunikationskanäle erstmals möglich und damit als Grundanspruch auch auf andere Mediengattungen übertragen. Waren es zu Beginn des Programmatic Buyings, d. h. der automatisierten Version der Mediabuchung, noch einfache Algorithmen (vgl. Carlos Gonzálvez und Mochón 2016), die sicherstellten, dass ein Werbekunde aus dem Bereich des Tourismus die Nutzer*innen und Bereiche als Werbeumfeld angeboten bekam, bei denen ein Themeninteresse an Reisen feststellbar war, können heute KI-Algorithmen eine komplexere Zuordnung von Themeninteressen, Mediennutzungsverhalten und Werbeinteressen umsetzen (vgl. Grässel 2024). Neben der Platzierung werden dabei auch die Botschaften angepasst. Dabei muss jedoch stets eine Supervision stattfinden, um bereits legendäre Fehlplatzierungen der früheren einfachen Algorithmen (noch vor der KI-Zeit) zu vermeiden. Wenn Algorithmen lediglich in der Lage sind einfache semantische Zuordnungen zu leisten, dann besteht die Gefahr von überaus peinlichen Fehlplatzierungen. In der Folge kommt dann die Autoversicherung neben die Berichterstattung über eine Amokfahrt per Auto oder der Energie- und Gasversorger wird neben einem Bericht über den Holocaust platziert. Diese noch sehr oberflächlichen Fehler zeigen, dass insgesamt der Planungsprozess zu bedeutend und zu komplex ist, um ihn ohne jede Veränderung der Strukturen und Zuständigkeiten lediglich halbherzig zu automatisieren. Im Rahmen des Targetings, d. h. der optimierten Zielgruppenauswahl, geht es beim Übergang zur Mediabuchung auch darum, eine Optimierung des eingesetzten Budgets zu erreichen. Bei Verkaufsmechanismen nach einem Echtzeitversteigerungsmodus kann KI dazu eingesetzt werden, die Optimierung der Angebotsstrategien vorzunehmen. Die Technologie eignet sich dabei sehr gut für die Berücksichtigung unterschiedlicher kostenwirksamer Parameter (beispielsweise Interaktionshistorie, Tageszeit, Endgerät, regionale Lage der Nutzer*innen) zur Optimierung des Budgets. Die Stärke von KI liegt dabei in der laufenden Anpassung einmal getroffener Grundannahmen und Vorgaben. Zielgruppen können über Lookalike-Audiences weiterentwickelt werden, wenn beispielsweise Facebook die Werbetreibenden dabei unterstützt, ähnliche Zielgruppen zu testen. Kreativansätze und Inhalte der Kampagne können ebenfalls in Echtzeit angepasst werden, wenn beispielsweise Schuh- und Kleidungsgrößen sowie Farbvorlieben der Nutzer*innen bekannt sind. Diese einfachen Beispiele zeigen bereits, dass Programmatic Buying keineswegs nur durch KI möglich wurde, sondern dass KI die Entwicklungen, die aus dem Programmatic Advertising heraus entstanden sind, verstärkt und beschleunigt. Neben den in nahezu allen Domänen vorhandenen ethischen und rechtlichen Fragestellungen geht es im Mediageschäft zunehmend auch um die Bekämpfung von Fraud (Betrug), wenn beispielsweise Mediabuchungen von Wettbewerbern durch Algorithmen gestört werden. Neben diesen nach wie vor zu bearbeitenden Problemfeldern lassen sich jedoch auch neue Perspektiven ableiten. So könnte zur weiteren Optimierung des Ressourceneinsatzes im Mediageschäft auch das Feld der prädiktiven Systeme im Rahmen der Mediaplanung und des Mediaeinkaufs relevant werden. Dass der Marketingsektor insgesamt durch KI verändert werden wird, demonstriert auch der Umstand, dass die Organisation der Werbetreibenden im Markenverband (OWM) gemeinsam mit dem Beratungsunternehmen Accenture im vierten Quartal 2024 die Marksituation und Potenziale von KI aufbereitet haben (vgl. Bialek 2024) und der Gesmtverband Kommunikationsagenturen (GWA) im Frühjahr 2025 ein eigenes Whitepaper zum <?page no="21"?> 1.1 Alternativen zur Problemhypnose 21 Thema KI publiziert hat (Bialek 2025; Haller und Kabel 2025). Erste Studien zum Vergleich der Beiträge von Menschen und generativer KI bei der Ideenfindung legen den Schluss nahe, dass derzeit hybride Vorgehensmodelle den (noch? ) größten Nutzen stiften (Joosten et al. 2024). 1.1.5 Disruption durch KI Neben den typischen Transformationsprozessen, die durch KI ausgelöst oder in ihrer Dynamik beschleunigt werden, gibt es auch das noch etwas drastischere Szenario, dass dazu führt, dass Branchen, Branchensegmente und Unternehmen komplett neuen Spielregeln unterliegen. Es geht um Disruption, eine Theorie, die auf Clayton M. Christensen zurückgeht, der in seinem Werk „The Innovators Dilemma“ (1997) beschrieben hat, wie erfolgreiche Unternehmen im Rahmen ihrer Innovationspolitik darunter leiden, dass sie zwar in der Lage sind, ihr etabliertes Produktschema und Geschäftsmodell zu perfektionieren, dass es ihnen aber meist nicht möglich ist, disruptive Innovationen, die das eigene Geschäft komplett auf den Kopf stellen, selbst anzustoßen. Diese Situation, wonach die alten Erfolgsrezepte nicht mehr wirksam sind, passt auf die durch KI-Technologien induzierte grundsätzliche Veränderung von Branchen und Marktumgebungen. Damit beschreibt Christensen bereits im Kontext des Technologiemanagements ein Dilemma, das bei der KI-induzierten Transformation eine grundsätzliche Rolle spielt. Bei technologiegeprägten disruptiven Veränderungen ist die neue Methode oftmals zu Beginn schlechter als das bisher etablierte Verfahren. Sie ist aber unter Umständen kostengünstiger oder ermöglicht grundsätzlich neue Funktionalitäten und genügt am Ende der ersten Entwicklungsphase zumindest den Ansprüchen der Kunden mit einfachem Anspruchsniveau. Die erhaltenden Innovationen der etablierten Produkte führen hingegen meist zu einer weiteren Diversifikation in einem Segment, das oberhalb des Anspruchsniveaus des Marktes liegt (Abb. 4). Abb. 4: Disruptive Veränderungen und die Erwartungsniveaus unterschiedlicher Marktsegmente am Beispiel digitale Fotografie (Quelle: Breyer-Mayländer 2017, S. 34, in Erweiterung von: Christensen 1997, S. 12, Christensen 2006) <?page no="22"?> 22 Thomas Breyer-Mayländer Die Sprunginnovation, die KI in einigen Bereichen auslöst, führt dazu, dass es nicht mehr um eine weitere lineare Verbesserung des Produkts im Sinne einer erhaltenden Innovation geht, sondern die Akteure bereit sein müssen, die grundsätzlichen Veränderungen der Disruption zu akzeptieren. »The reason is that good management itself was the root cause. Managers played the game the way it was supposed to be played. The very decision-making and resource-allocation processes that are key to the success of established companies are the very processes that reject disruptive technologies […]« (Christensen 1997, S. 86) Ein Beispiel, das zeigt, wie KI eine derartige Disruption in Branchen und Branchensegmenten auslösen kann und damit die Rahmenbedingungen für die Akteure auf allen Ebenen (Arbeitnehmer*innen, Unternehmen etc.) verändert, ist die Kreativ-, Agentur- und Designbranche. War es früher üblich, dass vor der Disruption die Kreativprozesse in Design, Marketing und Content-Erstellung in erster Linie durch menschliche Kreativität und manueller Arbeit geprägt waren und IT-Tools lediglich als Hilfsmittel zur technischen Umsetzung zum Einsatz kamen, hat sich dies seit dem breiten Einsatz von vor allem generativen KI-Tools deutlich verändert. Die zeitaufwendige und kostenintensive Erstellung von Grafiken, Illustrationen, Texten und Marketingmaterialien war nur begrenzt skalierbar und damit auch sehr kostenintensiv. Durch generative KI gibt es die Möglichkeit, Content automatisiert zu erstellen und damit Zeitressourcen einzusparen. KI-Modelle wie DALL·E werden für die Generierung von Bildern, Logos und Designs eingesetzt. Videos und visual effects werden durch Plattformen wie Runway möglich. Ähnlich wie beim Aufkommen von Desktop-Publishing, d.h. der Möglichkeit zur Gestaltung klassischer Druckerzeugnisse mit einem durchschnittlichen PC findet auch im Gefolge des Einsatzes von KI-Tools eine tiefgreifende Veränderung statt. Mithilfe der KI-Tools können auch Personen ohne Design- oder Programmierkenntnisse professionelle Designs erstellen. Damit haben nicht nur Kundengruppen wie Startups und kleinere Einzelunternehmer*innen, die sich früher keine Agenturbeauftragungen leisten konnten, die Möglichkeit, ihre Designs zu professionalisieren, sondern auch bei den typischen Kundenunternehmen gibt es eine Verschiebung der Rollen und Funktionen. In der Folge verändern sich - ganz nach der Theorie von Clayton Christensen - die Geschäftsmodelle und die Rollen und Einflussmöglichkeiten der Marktteilnehmer. Auf Plattformen wie Adobe Firefly werden KI-gestützte Design-Tools direkt integriert. Sie stehen damit nicht nur den professionellen Spezialist*innen zu, sondern stehen auch den früheren Auftraggebern, d.h. den Mitarbeitenden der Marketingabteilungen auf Seiten der Agenturkunden zur Verfügung. Dies verändert tiefgreifend die Wertschöpfungsketten und Strukturen im Markt. Während auf Seiten der Kreativ- und Agenturbranche die exzellenten Akteure aus ihrer professionellen Expertise heraus mit den neuen KI-Tools in der Lage sind, ihren bisherigen Output qualitativ und quantitativ zu steigern, wird der Bereich des Mittelmaßes ersetzt. Die KI- Tools dringen dabei mehr und mehr auch in das Segment der High-End-Märkte vor. Zusätzlich gibt es KI-bedingt auch noch weitere Veränderungen auf der Ebene der Produkte und Lösungen, die wiederum direkt die Geschäftsmodelle beeinflussen (vgl. Schmidt 2023). So gibt es die Möglichkeit auf Basis der KI-Tools Werbeinhalte noch stärker zu personalisieren. Damit wird - meist durchgeführt von neuen Dienstleistern - die Erstellung von personalisierten Grafiken, Texten und Videos für spe- <?page no="23"?> 1.1 Alternativen zur Problemhypnose 23 zifische Zielgruppen in Echtzeit möglich. Auch im Bereich von Narrativen, d.h. beispielsweise bei fiktionalen Geschichten, können KI-Tools als Hilfe für Drehbuchautoren, Spieleentwickler und Storyteller zum Einsatz kommen, um neue Erzählformate zu entwickeln. Allein diese zunächst eigentlich kleineren Veränderungen ziehen tiefgreifende grundsätzliche Transformationsschritte nach sich. Unternehmen der Agenturbranche verlieren massiv Kunden und damit Märkte und Markteinfluss. Mitarbeitende und Freelancer sehen ihre Jobs und Erlösmöglichkeiten gefährdet. Die Kundenunternehmen (Werbungtreibende) haben Mühe, egal ob sie sich für Make (Nutzung der Tools durch eigene Mitarbeitende) oder Buy (Beauftragung von Agenturen, die Tools nutzen) entscheiden, die Qualität der Ergebnisse zu sichern. Dabei stellt sich auch die Frage, ob Inhalte, die mit identischen Tools generiert wurden, wirklich mittel- und langfristig geeignet sein können, um sich im Wettbewerb zu differenzieren. Unabhängig davon stellt sich zusätzlich noch die Frage, wer im Zweifel das Recht an welcher kommerziellen Nutzung beanspruchen kann. Das Typische für die KI-geprägte Disruption ist die fundamentale Veränderung der Wertschöpfungskette der Kreativbranche. Damit verändern sich auch in solchen Branchen die Anforderungen an unterschiedliche Funktionen innerhalb der Unternehmen und Wertschöpfungsketten, so wird aus dem Creative Director zunehmend die Rolle eines „Creative Directors für KI-Systeme“. In der Folge wird die KI damit nicht nur zum Spielverderber, der dafür sorgt, dass das bisherige Spiel so nicht fortgeführt werden kann, sondern auch zum Spielveränderer, der neue Spielregeln prägen kann. Dabei sind die Entwicklungen der KI-bezogenen Märkte selbst sehr stark durch disruptive Effekte gekennzeichnet. Als im Januar 2025 das chinesische Produkt „Deep- Seek“ (vgl. Gao et al. 2025) vorgestellt wurde, hat dies nicht nur die KI-spezifischen Unternehmen mit ihren Börsenkursen erschüttert, sondern auch die Aktien von Energieunternehmen auf Talfahrt geschickt, da man davon ausging, dass die bei effizentere Architektur von DeepSeek einen geringeren Stromverbrauch für KI-Anwendungen erwartungen ließ. Der Umstand, dass China in dieser für die USA doch so zentralen Disziplin - schließlich hatte der frisch gewählte US-Präsident Trump ein großes Innovationsprogramm im AI-Sektor angekündigt - auf einmal die Nase vorn hat, führte zu großen Irritationen (vgl. Gusbeth et al. 2025). Viele sprachen in diesem Zusammenhang von einem neuen Sputnik-Effekt, analog zum Schock der westlichen Welt, als 1957 die Sowjetunion die westlichen Industrieländer damit überraschte, dass sie in der Lage waren, einen Satelliten ins All zu schießen. Die damalige Erkenntnis, dass die dafür erforderlichen wissenschaftlichen Grundlagen bereits veröffentlicht waren, aber von der westlichen Wissenschaft nicht wahrgenommen wurden, führte nicht nur zu einer Erschütterung der Forschungs- und Innovationspolitik, sondern begünstigte den Aufschwung der wissenschaftlichen Disziplin „Informationswissenschaft“. 1.1.6 Fazit KI ist wie die meisten neuen Technologien weder per se gut oder schlecht. KI hat im Kontext vieler Anwendungsbereiche in Wirtschaft, Bildung und Gesellschaft das Potenzial für deutliche Veränderungen zu sorgen, die innerhalb der jeweiligen Fachdomänen und auch Fachdisziplinen die Spielregeln professionellen Verhaltens verändern. Dieses Buch ist durch den Ansatz geprägt, dass wir in den jeweiligen fachlichen Kontexten die Chancen und Risiken und damit die Vor- und Nachteile des jeweiligen <?page no="24"?> 24 Thomas Breyer-Mayländer Veränderungs- und Entwicklungsprozesses möglichst wertfrei analysieren und präsentieren, sodass die Leser*innen die Möglichkeit haben, diese Informationen in die eigene Meinungsbildung einzubeziehen. Zwar sehen wir uns selbst als wertorientiert klar verortet, aber auch hier gibt es nicht nur innerhalb der Herausgeber und der Autor*innen ein Spektrum der Wertvorstellungen, sondern es ist auch der Anspruch dieses Buches nicht die eigenen Wertvorstellungen einem Gegenüber aufzuzwingen. Wir haben im Rahmen dieses Einstiegskapitels gezeigt, dass es unterschiedliche Impulse gibt, die KI als Technologie geben kann. Sie ist Auslöser, Beschleuniger von Transformationsprozessen oder löst gar einen radikalen Wandel im Sinne von Disruption aus. Bei allen drei Szenarien zeigt sich, dass es hilfreich ist, wenn Rollenklarheit herrscht. Klarheit darüber, welche Rolle KI einnehmen kann und wie sie weiterentwickelt werden könnte. Maßgeblich ist nach wie vor der Ansatz, dass KI im Regelfall ein gutes Werkzeug zur Unterstützung ist, dass aber die menschliche Verantwortung bestehen bleibt und damit KI nur ein Tool und nicht die Lösung für alles sein kann. Nach dem Fundamental-Theologen Magnus Striet „gilt es, weder einer gehaltlosen Technikkritik noch einer Technikgläubigkeit zu verfallen. Das Problem ist, dass es eine informierte und zur Abwägung bereite Öffentlichkeit braucht, um mit Technik die Gesellschaft so zu gestalten, dass die Prozesse nicht unkontrolliert ablaufen.“ (Striet 2024, S. 41) Literatur Aung, Y.Y.M., Wong, D.C.S., & Ting, D.S.W. (2021). The promise of artificial intelligence: a review of the opportunities and challenges of artificial intelligence in healthcare. British Medical Bulletin , 139(1), 4-15. Banejee, R. (2012). A Fool with a Tool is Still a Fool…. In M. Rao (Hrsg.), Knowledge Management Tools and Techniques (S. 283-292). Routledge. Bennani-Baiti, B., & Baltzer, P.A.T. (2020). Künstliche Intelligenz in der Mammadiagnostik: Gestern, heute und morgen. Der Radiologe , 60(1). Bialek, C. (2024). Die sieben KI-Regeln. Horizont - Das Magazin 10/ 2024, 14-15. Bialek, C. (2025). Die Diemnsion des Wandels ist enorm. Horizont - Das Magazin 10- 11/ 2025, 6-7. Bissel, V.K. (2023). Transition statt Transformation: Wie der Kölner Stadt-Anzeiger Unternehmenskultur neu denkt. dnv online . https: / / www.dnv-online.net/ _rubric/ detail.php? rubric=Medien&nr=167622. Zugegriffen am 27. Dezember 2024 Breyer-Mayländer, T. (2018). Mediaplanung. In C. Zerres (Hrsg.), Handbuch Marketing-Methodik (S. 186-203). Bookboon. Breyer-Mayländer, T. (2019). Die Kultur der Macht . Rainer Hampp Verlag. Breyer-Mayländer, T. (2024). Digitale Transformation in Medienunternehmen (Vol. 9). Bramann Verlag. Breyer-Mayländer, T. (2024b). Generative Künstliche Intelligenz als Tool für die PR- und Pressearbeit an Schulen: Ein Überblick. Schulverwaltung Nordrhein-Westfalen , 35 (11), 308-312. Breyer-Mayländer, T., & Zerres, C. (2023). Disruptive Innovation - A Consolidated <?page no="25"?> 1.1 Alternativen zur Problemhypnose 25 Model for the Dissemination of Management Ideas. Journal of Innovation Management , 11(4), 97-123. Carlos Gonzálvez, J., & Mochón, F. (2016). Operating an Advertising Programmatic Buying Platform: A Case Study. International Journal of Interactive Multimedia & Artificial Intelligence , 3(6), 6-15. Christensen, C.M. (1997). The Innovator’s dilemma . Harvard Business School Press. Christensen, C.M. (2006), The ongoing process of building a theory of disruption. Journal of Product Innovation Management 23(1), 39-55. Christensen, C.M., & Raynor, M.E. (2003). The innovator‘s solution: Creating and sustaining successful growth . Harvard Business School Press. Czekala, T. (2018). Kontext, Anforderungen und Operationalisierung des Enterprise Transformation Cycle. In P.H.-J. Steinhof & M.A. Pfannstiel (Hrsg.), Der enterprise transformation cycle: Theorie, Anwendung, Praxis (S. 21-51). Springer Gabler. Ebenfeld, T., Ziems, D., Schmidt, S., & Mertens, J. (2024). Kollege KI: Wunderkind, Angstgegner, Co-Intelligenz. Transfer: Zeitschrift für Kommunikation & Markenmanagement , 70(4), 30-34. Eberhardt, J. (2019). Biased - Uncovering the Hidden Prejudice That Shapes. Penguin/ Random House. Fink, D. (2003). A life cycle approach to management fashion: An investigation of management concepts in the context of competitive strategy. Schmalenbach Business Review , 55(1), 46-59. Fink, D., & Knoblach, B. (2008). Managementmoden im Spiegel des Konstruktivismus. Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung , 60(8), 459- 478. Flyvbjerg, B. (2006). From Nobel Prize to Project Management: Getting Risks Right. Project Management Journal , 37(3), 5-15. Gao, T., Jin, J., Ke, Z.T., & Moryoussef, G. (2025). A Comparison of DeepSeek and Other LLMs . arXiv preprint arXiv: 2502.03688. https: / / doi.org/ 10.48550/ arXiv.2502.03688 Gartner (2024). Hypecycle for Artificial Intelligence , 2024, https: / / www.gartner.com/ en/ articles/ hype-cycle-for-artificial-intelligence. Zugegriffen am 2. Februar 2025 Grässel, R. (2024). Künstliche Intelligenz im Marketing: Was sich hinter KI verbirgt und wie das Marketing von ihr profitieren kann. Transfer: Zeitschrift für Kommunikation & Markenmanagement , 70(4), 66. Gusbeth, S., Holtermann, F., Holzki, L, Kerkmann, C., Knees, L. Scheuer, S., & Alvares de Souza Soares, P. (2025). Wie ein Start-up die US-Tech-Konzerne und Trump schocken konnte. Handelsblatt.de 31.05.2025. https: / / www.handelsblatt.com/ technik/ ki/ deepseek-wie-ein-start-up-die-us-tech-konzerne-und-trump-schockenkonnte/ 100104193.html. Zugegriffen am 2. Februar 2025 Haller, N., & Kabel, P. (Hrsg.) (2025). Neue Spielregeln: Wie KI das Agenturgeschäft definiert. Frankfurt: GWA. https: / / www.gwa.de/ content/ uploads/ 2021/ 01/ 030325_gwa-ki-paper_2025_d.pdf. Zugegriffen am 24. März 2025 Helmold, M. (2022). Artificial Intelligence (AI) and Cyber Tools in Marketing and Sales. In M. Helmold (Hrsg.), Performance Excellence in Marketing, Sales and Pricing. Management for Professionals (S. 235-245). Springer. <?page no="26"?> mation: What’s the difference? Environmental innovation and societal transitions , 27, 1-3. Hofstede, G., Hofstede, G.J., & Minkov, M. (2010). Cultures and Organizations . McGraw Hill. Joosten, J., Klug, K.; Bilgram, V., & Hahn, A. (2024). Ideation: Die Qualität Menschen- und KI-generierter Ideen im Vergleich. transfer - Zeitschrift für Kommunikation und Markenmanagement , 4(70), 18-23. Kahneman, D. (2012). Thinking, fast and slow . Penguin Books. Kieser, A. (2007). Entwicklung von Organisationstheorien als Zeitgeistphänomen. Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung 59 (6), 678-705. Klimecki, R.G., & Gmür M. (1996). Organisationale Transformation - grenzenlos? In Struktur und Prozeßmuster in der kollektiven Bewältigung von Unsicherheit , Bd. 17, Management Forschung und Praxis. Konstanz: Lehrstuhl für Management, Fakultät für Verwaltungswissenschaft, Universität Konstanz. 1997 erschienen in G. Schreyögg, P. Conrad & J. Sydow (Hrsg.), Grenzmanagement: Das Management von Organisationsgrenzen. Managementforschung Nr. 7. De Gruyter. Kuhlen, R. (2013). A 1 Information - Informationswissenschaft. In R. Kuhlen, W. Semar & D. Strauch (Hrsg.), Grundlagen der praktischen Information und Dokumentation . 6. Ausgabe. Walter de Gruyter. Leonhard, W. (1955). Die Revolution entlässt ihre Kinder . Kiepenheuer & Witsch. Luscombe, B. (2019). 8 Questions - Jennifer Eberhardt, in: Time April 8, 2019, S. 52 Maslow, A. (1966). The psychology of science . Harper & Row. Mazza C., Alvarez J.L., & Comas J. (2001). The next step: Media influences on knowledge-in-practice. CEMP-The Creation of European Management Practice . Report No. 15. Uppsala. Metzinger, T. (2021). Artificial suffering: An argument for a global moratorium on synthetic phenomenology. Journal of Artificial Intelligence and Consciousness , 8(01), 43-66. Metzinger, T. (2023a). Bewusstseinskultur: Spiritualität, intellektuelle Redlichkeit und die planetare Krise . eBook Berlin Verlag. Metzinger, T. (2023b). Der Elefant und die Blinden: Auf dem Weg zu einer Kultur der Bewusstheit: mit mehr als 500 Erfahrungsberichten über das reine Bewusstsein . Berlin Verlag. Nolting, M. (2021). Autonomes Fahren und Künstliche Intelligenz. In M. Nolting (Hrsg.), Künstliche Intelligenz in der Automobilindustrie. Technik im Fokus (S. 113- 129). Springer Vieweg. OECD (Organisation for Economic Co-operation and Development) (2019). Artificial Intelligence in Society . Paris o.V. (2023). Französische Elite-Uni verbietet Nutzung von ChatGPT. Der Standard 27. Jänner 2023, 22: 05. https: / / www.derstandard.de/ story/ 2000143003146/ franzoesische-elite-uni-verbietet-nutzung-von-chatgpt. Zugegriffen am 2. Februar 2025 Schmidt, A. (2023). KI in der Medienbranche Content-Erstellung, Mediendesign und Produktion. Medienwirtschaft , 20(1), 65-73. 26 Thomas Breyer-Mayländer Hölscher, K., Wittmayer, J.M., & Loorbach, D. (2018). Transition versus transfor- <?page no="27"?> 1.1 Alternativen zur Problemhypnose 27 Stöcker, C. (2023). Die Große Beschleunigung: Klimawandel, Digitalisierung, Wirtschaftswachstum - wie wir uns in einer sich exponentiell verändernden Welt behaupten können . Pantheon Verlag. Striet, M. (2024). Bleiben wir zuversichtlich. Rotary 12/ 2024, 40-41. Vogler, D., & Rauchfleisch, A. (2024). Deepfakes: Medienberichterstattung und Wahrnehmung in der Schweizer Bevölkerung. Jahrbuch Qualität der Medien , 63- 72. Wagner, E. (2020). Psychotherapeutische Diagnostik aus systemischer Perspektive. Psychotherapie Forum, 24(1-2), 37-44. Wehling, E. (2016). Politisches Framing: Wie eine Nation sich ihr Denken einredet - und daraus Politik macht , Herbert-Halem-Verlag. Wittpahl, V. (2019). Künstliche Intelligenz . Springer Nature. Zornek, W. (2024). Willkommen in der VUCA (BANI)-Welt. In W. Zornek (Hrsg.), Strategisches Management Reloaded (S. 41-48). Haufe. <?page no="29"?> 1.2 KI und Recht Von Gefahren und Chancen Christian Solmecke Zusammenfassung Der Beitrag beleuchtet die wesentlichen rechtlichen Regularien für den Umgang mit Künstlicher Intelligenz. Dabei wird zunächst der im August 2024 in Kraft getretene AI Act der EU in Betracht gezogen, der sich vor allem durch eine risikoorientiert abgestufte Regulationsdichte auszeichnet. Zudem wird die viel diskutierte Problematik von Urheberrechtsverletzungen durch KI-Training thematisiert, sowohl im Hinblick auf das Training von KI-Modellen als auch auf die Nutzung des KI-Outputs. Abschließend erfolgt eine Erläuterung zu einschlägigen Haftungsvorschriften. Keywords: AI Act, Urheberrecht, Haftungsvorschriften 1.2.1 Einleitung Künstliche Intelligenz ist sicherlich die Schlüsseltechnologie des 21. Jahrhunderts. Machine Learning und Neuronale Netze bieten enormes Potenzial, das Privat- und Wirtschaftsleben in vielen Bereichen zu verbessern. Neben den allseits populären generativen KI-Apps und Large Language Models (LLM) wie GPT-4 oder Google Gemini können KI-Systeme auch unternehmensintern Prozesse optimieren, präzise Vorhersagen treffen und die Nutzererfahrung personalisieren. Ob KI-Bots im Kundensupport, KI-Kunst-Generatoren oder medizinische Diagnostik: unzählige Felder profitieren von der Technologie. Entsprechend schwierig ist es, die Chancen und Risiken in einen festen rechtlichen Griff zu bekommen. Wie jede technische Innovation birgt KI eine Menge Gefahren. Einige davon sind sogar völlig neu und stellen Gesellschaft und Gesetzgeber vor bisher unbekannte Herausforderungen: Wer haftet für Rechtsverletzungen, wenn ein Programm scheinbar von selbst „denkt“? Kann eine Maschine „schöpfen“ und damit Urheber sein? Welche Verantwortung soll die Anbieter und Entwickler von KI-Systemen treffen? 1.2.2 Der AI Act Der wesentliche Gesetzestext zu KI ist die jüngst beschlossene Verordnung (EU) 2024/ 1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (folgend „ AI Act“ oder „ KI-VO “). Der AI Act definiert ein KI-System als „maschinengestütztes System, das autonom operieren und aus Eingaben Ergebnisse ableiten kann, die physische oder virtuelle Umgebungen beeinflussen“ ( Art. 3 Abs. 1, ErwGr 12 KI- VO). Die Verordnung trat am 1. August 2024 in Kraft und sieht eine schrittweise Umsetzung vor, beginnend ab dem 2. Februar 2025 (Art. 113 KI-VO). Übergeordnetes Ziel des AI Acts ist es, das Innovationspotenzial von KI in ein Gleichgewicht mit den Risiken zu bringen: Das umfassende Regelwerk soll konkret die Entwicklung, das Inverkehrbringen und die Nutzung von KI-Systemen in der EU <?page no="30"?> 30 Christian Solmecke harmonisieren. Es soll einerseits ein starker Binnenmarkt mit gleichen Rechts- und Wettbewerbsbedingungen für die Entwicklung, Vermarktung und Nutzung von KI- Systemen geschaffen werden. Dies ist wichtig, um die Wettbewerbsfähigkeit der EU in einem global zunehmend von KI geprägten Wirtschaftsumfeld zu sichern (Erw- Gr 1, VO 2024/ 1689 (EU). Im Hinblick auf die Risiken ist ein klarer Rechtsrahmen jedoch ebenfalls erforderlich, weil KI-Systeme etwa in der Datenverarbeitung, der Entscheidungsfindung und sogar im Zugang zu öffentlichen Dienstleistungen tief in die (EU-)Grundrechte der Bürger wie etwa den Schutz der Privatsphäre und personenbezogener Daten eingreifen können. Auch die Werte der Union - darunter Demokratie, Rechtsstaatlichkeit und der Schutz von Gesundheit und Umwelt - sind zu wahren. Schließlich ist es wichtig, dass bei der Entscheidungsfindung durch KI jedwede Diskriminierung unterbunden wird und Nutzer transparent wissen, wenn sie mit einer KI kommunizieren. Risikobasierte Pflichten Ein Kernprinzip des AI Acts ist die Unterteilung von KI-Systemen in Risikoklassen. Diese staffeln sich ihrem potenziellen Einfluss auf Gesellschaft, Gesundheit, Sicherheit und Grundrechte entsprechend auf. Mit steigender Risikoeinstufung steigen die regulatorischen Anforderungen, um eine Balance zwischen technologischen Vorteilen und Gefahrenminimierung zu gewährleisten, ohne dabei die Grenzen der Verhältnismäßigkeit zu sprengen. Verbotene KI-Systeme (Kap. II, Art. 5) Die erste Kategorie umfasst KI-Systeme mit unannehmbarem Risiko , die aufgrund schwerwiegender Grundrechtsverletzungen verboten sind. Dazu zählen manipulative oder unterschwellige Techniken, Social-Scoring durch Behörden sowie biometrische Fernidentifizierung im öffentlichen Raum, außer unter bestimmten Voraussetzungen für die Strafverfolgung. Ebenso unzulässig ist die Erstellung von Gesichtserkennungsdatenbanken aus massenhaft gesammelten Internet- oder CCTV- Daten sowie die Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen. Auch Systeme, die Menschen anhand bestimmter Merkmale klassifizieren (Social- Scoring) oder auf ein gewisses „Risiko“ untersuchen, sind verboten. Unzulässig sind außerdem Systeme zur Erkennung von Emotionen an Arbeitsplätzen und Bildungseinrichtungen oder von bestimmten persönlichen Merkmalen wie Ethnie, politische Meinung, Gewerkschaftszugehörigkeit oder sexueller Orientierung. Wer gegen das Verbot bestimmter KI-Systeme verstößt, riskiert ein Bußgeld von bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes, wobei der höhere Betrag gilt. Hochrisiko-KI-Systeme (Kap. III, Art. 6, 16) In die zweite Kategorie der „Hochrisiko-Systeme“ fallen KI-Systeme, die Gesundheit, Sicherheit oder Grundrechte erheblich beeinflussen können. Diese unterliegen strengen Auflagen. Die Einstufung als Hochrisiko-KI kann auf mehreren Kriterien beruhen. Erstens sind KI-Systeme betroffen, die als Sicherheitskomponenten in regulierte Produkte wie Spielzeug, Luftfahrt oder Medizinprodukte integriert sind (Art. 6 Abs. 1 KI-VO). Zweitens umfasst sie Anwendungen in den in Anhang III zur Verordnung aufgeführten sensiblen Bereichen. Dazu gehören etwa kritische Infrastruktur, Strafverfolgung oder Personalmanagement. Die meisten dieser Bereiche haben gemein, dass sie Personenprofile erstellen und automatisiert auswerten, ohne dass eine <?page no="31"?> 1.2 KI und Recht 31 menschliche Instanz dazwischensteht. Für solche Systeme gelten hohe Anforderungen an Transparenz, Sicherheit und menschliche Kontrolle. Die Pflichten des AI-Acts richten sich sowohl an die „Anbieter“ als auch die „Betreiber“ von KI-Systemen. Als Anbieter versteht die Verordnung „eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es unter ihrem eigenen Namen oder ihrer Handelsmarke in Verkehr bringt oder das KI-System unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb nimmt, sei es entgeltlich oder unentgeltlich.“ (Art. 3 Nr. 3 VO 2024/ 1689 (EU)). In anderen Worten: Anbieter sind im Wesentlichen Entwickler von KI-Systemen, sekundär solche Unternehmen, die die Entwicklung in Auftrag geben und das KI-System unter eigenem Namen vermarkten. Diese Anbieter tragen die Hauptverantwortung für die Einhaltung der Vorschriften und die Sicherheit ihrer KI-Systeme. Zentral ist die Verpflichtung zur Einhaltung der in Kapitel III, Abschnitt 2 festgelegten Anforderungen . Diese Anforderungen umfassen Aspekte wie Risikomanagement, Datenqualität, technische Dokumentation, Protokollierung, Transparenz und menschliche Aufsicht. Hierzu gehört etwa auch die Bereitstellung einer Betriebsanleitung, die „vollständige, korrekte und eindeutige Informationen“ enthalten muss (Art. 13 Abs. 2 VO 2024/ 1689 (EU)). Anbieter müssen auch ein Risikomanagementsystem gemäß Artikel 9 einrichten, anwenden, dokumentieren und aufrechterhalten, um potenzielle Risiken während des gesamten Lebenszyklus des KI-Systems zu identifizieren und zu mindern. Ein weiterer wichtiger Aspekt ist die Qualität der verwendeten Daten. Anbieter müssen sicherstellen, dass ihre Trainings-, Validierungs- und Testdatensätze relevant, repräsentativ, fehlerfrei und vollständig sind. Hierbei müssen auch mögliche Verzerrungen (Bias) untersucht und gegebenenfalls korrigiert werden, auch wenn dies in Ausnahmefällen die Verarbeitung besonderer Kategorien personenbezogener Daten erfordert. Dies ist wichtig, um Diskriminierung und unfaire Ergebnisse durch das KI-System zu vermeiden. Die KI-VO fordert von den Anbietern die Erstellung einer detaillierten technischen Dokumentation , die den Nachweis erbringt, wie das KI-System die Anforderungen erfüllt. Diese Dokumentation muss den zuständigen Behörden und notifizierten Stellen die Informationen in klarer und verständlicher Form zur Verfügung stellen. Zusätzlich müssen Anbieter, die von ihren Systemen automatisch erzeugten Protokolle aufbewahren . Vor dem Inverkehrbringen oder der Inbetriebnahme müssen Hochrisiko-KI-Systeme außerdem einer Konformitätsbewertung unterzogen werden. Das Verfahren hängt davon ab, ob das System unter die Harmonisierungsrechtsvorschriften der Union fällt oder nicht. Bei Systemen, die Sicherheitskomponenten von Produkten sind, die unter den neuen Rechtsrahmen fallen, erfolgt die Konformitätsbewertung im Rahmen des bestehenden Verfahrens für diese Produkte. In anderen Fällen kann eine interne oder externe Bewertung durch eine notifizierte Stelle erforderlich sein. Anbieter, die eine notifizierte Stelle für die Konformitätsbewertung beantragen, müssen eine Beschreibung ihrer auf die Konformitätsbewertung bezogenen Tätigkeiten und ihres Verfahrens sowie der verwendeten Technologien vorlegen und gegebenenfalls eine Akkreditierungsurkunde vorlegen. Nach erfolgreicher Konformitätsbewertung müssen Anbieter eine EU-Konformitätserklärung ausstellen und die CE-Kennzeichnung an ihrem Produkt anbringen. <?page no="32"?> 32 Christian Solmecke Eine weitere Pflicht ist die Registrierung des Systems in der EU-Datenbank für Hochrisiko-KI-Systeme. Dies dient der Transparenz und ermöglicht es den Behörden, die Systeme zu überwachen und die Einhaltung der Vorschriften zu überprüfen. Anbieter müssen im Rahmen der Registrierung u.a. ihren Namen, ihre Anschrift und Kontaktdaten angeben sowie den Handelsnamen des KI-Systems. Des Weiteren sind Anbieter verpflichtet, Korrekturmaßnahmen zu ergreifen und die zuständigen Behörden zu informieren, wenn ein System nicht konform ist. Sie sind auch verpflichtet, bei allen Maßnahmen zur Risikominderung mit den zuständigen Behörden zusammenzuarbeiten. Für Hochrisiko-KI-Systeme müssen Anbieter zudem ein System zur Überwachung nach dem Inverkehrbringen einrichten. Dies beinhaltet u.a. einen Plan für die Beobachtung nach dem Inverkehrbringen und die Meldung schwerwiegender Vorfälle an die Behörden. Die Pflichten für Betreiber von Hochrisiko-KI fallen weniger umfangreich aus, sollten aber nicht vernachlässigt werden. Als Betreiber definiert der AI-Act „[…] eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI- System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet“ (Art. 3 Nr. 4 VO 2024/ 1689 (EU)). Betreiber tragen nach dem Kerngedanken des AI-Acts zwar nicht die Verantwortung für die Beschaffenheit eines KI-Systems, wohl aber für die ordnungsgemäße Nutzung. Eine zentrale Pflicht der Betreiber ist daher die Sicherstellung der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems gemäß der Betriebsanleitung. Sie müssen geeignete technische und organisatorische Maßnahmen ergreifen, um dies zu gewährleisten. Dazu gehört auch, dass die von den Systemen automatisch erzeugten Protokolle für einen angemessenen Zeitraum, der mindestens sechs Monate betragen muss, aufbewahrt werden, sofern die Protokolle unter ihrer physischen Kontrolle stehen. Des Weiteren müssen Betreiber die menschliche Aufsicht durch eine natürliche Person mit den erforderlichen Fähigkeiten und Befugnissen sicherstellen. Dies bedeutet, dass eine kompetente Person die Funktionsweise des Systems überwacht und gegebenenfalls eingreifen kann, um negative Folgen oder Risiken zu vermeiden. Die menschliche Aufsicht muss entsprechend den Betriebsanleitungen umgesetzt werden. Betreiber müssen auch sicherstellen, dass die Eingabedaten relevant und ausreichend repräsentativ sind. Bei bestimmten biometrischen Identifizierungssystemen muss die Aufsicht durch mindestens zwei Personen erfolgen, es sei denn, dies ist nach Unions- oder nationalem Recht unverhältnismäßig. Falls ein Betreiber feststellt, dass die Verwendung eines KI-Systems zu einem Risiko im Sinne des Artikels 79 Absatz 1 der KI-VO führen kann, muss er die Verwendung unverzüglich aussetzen. Ein Risiko liegt vor, wenn das KI-System die Gesundheit, Sicherheit oder Grundrechte von Personen stärker beeinträchtigen kann, als es im Verhältnis zur Zweckbestimmung des KI-Systems oder bei normaler Verwendung als vernünftig und vertretbar gilt. In diesem Fall muss der Betreiber auch den Anbieter, den Händler und die zuständige Marktüberwachungsbehörde informieren. Zudem muss ein Betreiber die betroffenen Personen informieren, wenn ein Anhang III- System sie betreffende Entscheidungen trifft oder bei solchen Entscheidungen zur Unterstützung verwendet wird. Arbeitnehmer und Arbeitnehmervertreter müssen <?page no="33"?> 1.2 KI und Recht 33 vor der Inbetriebnahme oder Verwendung von Hochrisiko-KI-Systemen am Arbeitsplatz hierüber in Kenntnis gesetzt werden. Betreiber, die öffentliche Aufgaben wahrnehmen, müssen vor der ersten Verwendung eines Hochrisiko-KI-System außerdem eine sogenannte Grundrechte-Folgenabschätzung durchführen. Diese ergänzt die Datenschutz-Folgenabschätzung (DSFA) gem. Art 35 DSGVO, muss aber neben dem Recht auf Schutz personenbezogener Daten auch alle anderen von dem jeweiligen KI-System betroffenen Grundrechte berücksichtigen. Diese Pflicht gilt für die erste Verwendung eines Hochrisiko-KI-Systems. Betreiber können sich auf bereits zuvor durchgeführte Folgenabschätzungen stützen, wenn sie vergleichbare Fälle betreffen. Sie können hierzu auch die vom Anbieter bereitgestellten Informationen verwenden. Falls sich während des Betriebs etwas ändert, müssen die Informationen aktualisiert werden. Die Grenzen zwischen Anbieter und Betreiber können übrigens verschwimmen. Sollte ein Betreiber nämlich ein Hochrisiko-KI-System unter seinem eigenen Namen oder seiner Marke in Verkehr bringen oder in Betrieb nehmen, die Zweckbestimmung eines solchen Systems ändern oder eine wesentliche Änderung daran vornehmen, so gilt er als Anbieter und unterliegt somit den entsprechenden Pflichten nach Artikel 16 der KI-VO. Der ursprüngliche Anbieter ist weiterhin für das ursprüngliche System verantwortlich und hat mit dem neuen Anbieter zu kooperieren, damit dieser seine Pflichten erfüllen kann, es sei denn, der ursprüngliche Anbieter hat klar festgelegt, dass sein System nicht in ein Hochrisiko-KI-System umgewandelt werden darf. Im Falle von Systemen, die von Organen, Einrichtungen oder sonstigen Stellen der Union betrieben werden, müssen diese den Registrierungspflichten nachkommen und die Eintragung des Systems in der EU-Datenbank prüfen. Verstöße werden mit Bußgeldern bis zu 15 Millionen Euro oder 3% des Vorjahresumsatzes geahndet. Wird eine Pflicht verletzt, die gleichzeitig die rechtmäßige Verarbeitung personenbezogener Daten betrifft, ist die DSGVO laut dem AI Act ausdrücklich vollständig anwendbar (Art. 2 Abs. 7 KI-VO). Werden personenbezogene Daten im Training oder bei der Nutzung des KI-Systems ohne hinreichenden Rechtsgrund verarbeitet, kann auch das zusätzliche Bußgelder nach DSGVO nach sich ziehen (Art. 84 DSGVO). Transparenzpflichten, KI-Systeme mit begrenztem Risiko (Kap. IV, Art. 50) Artikel 50 des AI Acts legt Transparenzpflichten für bestimmte KI-Systeme fest, die die Schwelle eines Hochrisiko-Systems nicht erreichen. Beispiele für solche KI-Systeme mit begrenztem Risiko sind Chatbots, Systeme zur Erstellung von Deepfakes und KI-Systeme zur Generierung oder Manipulation von Bild-, Audio- oder Videoinhalten. Auch wenn Transkriptionsdienste und Gesprächszusammenfassungen nicht als Hochrisiko-KI eingestuft werden, können die Anbieter teilweise diesen Transparenz- und Dokumentationspflichten unterliegen. Es wird angenommen, dass die Mehrheit der KI-Systeme in diese Kategorie fällt. Diese Transparenzpflichten sollen sicherstellen, dass natürliche Personen, die mit einem solchen System interagieren, darüber informiert werden, dass es sich um eine KI handelt. Dies gilt, sofern das nicht aus den äußeren Umständen oder aus Sicht einer verständigen Person offensichtlich ist. Hervorzuheben ist hier die Kennzeichnungspflicht bei der Interaktion <?page no="34"?> 34 Christian Solmecke mit dem KI-System und die Kennzeichnung von synthetischen Inhalten. Konkret bedeutet dies: Wenn ein KI-System für die direkte Interaktion mit natürlichen Personen bestimmt ist, muss der Anbieter sicherstellen, dass die betroffenen Personen darüber informiert werden, dass sie mit einem KI-System interagieren. Diese Information muss klar, eindeutig und barrierefrei erfolgen. Eine Empfehlung ist, dies durch ein Icon oder einen zusätzlichen Hinweis zu tun. Wenn KI-Systeme synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen , müssen die Ausgaben als künstlich erzeugt oder manipuliert erkennbar und in einem maschinenlesbaren Format gekennzeichnet sein. Dies erfolgt voraussichtlich durch den Einsatz digitaler Wasserzeichen, alternativ durch das Anbringen von Wasserzeichen in Bildern. Für Emotionserkennungssysteme und Systeme zur biometrischen Kategorisierung besteht ebenfalls eine Pflicht, die betroffenen Personen über den Betrieb des Systems zu informieren. Diese Pflichten gelten allerdings vor allem für die Anbieter und Betreiber der KI-Systeme und gerade nicht für private Nutzer - eine häufige Fehlannahme im allgemeinen Verständnis der Transparenzpflicht. Wenn also ein Nutzer ein KI-generiertes Bild in Social Media postet, ergibt sich aus dem AI Act keine gesonderte Kennzeichnungspflicht. Hier muss der verantwortliche Betreiber vorgelagert für eine automatische Kennzeichnung sorgen. Die Transparenzpflichten für Betreiber gelten ausnahmsweise nicht, wenn die Verwendung des KI-Systems zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist (Art. 50 Abs. 4 KI-VO). Zusätzlich zu den spezifischen Transparenzpflichten müssen Anbieter und Betreiber von KI-Systemen mit begrenztem Risiko auch die allgemeine Pflicht zur Sicherstellung der KI-Kompetenz gemäß Artikel 4 KI-VO beachten. Sie müssen über das notwendige Wissen verfügen, um KI-Systeme sachkundig einzusetzen und sich der Chancen, Risiken und möglichen Schäden bewusst zu sein. Die konkrete Umsetzung dieser Pflichten wird durch Praxisleitfäden und Durchführungsrechtsakte der Behörden näher bestimmt, die vom AI Office erarbeitet werden. Verstöße werden auch hier mit Bußgeldern bis zu 15 Millionen Euro oder 3% des Vorjahresumsatzes geahndet. KI-Modelle mit allgemeinem Verwendungszweck (Kap. V, Art. 51) Für die „Superstars“ der KI-Welt werden außerdem die Vorschriften zu KI-Modellen mit „allgemeinem Verwendungszweck“ interessant (General Purpose AI, GPAI). Kapitel V des AI Acts nimmt nicht die einsatzbereiten KI-Systeme in den Blick, sondern die dahinterstehenden KI-Modelle, denen sich dafür bedient wird. Das wohl prominenteste Beispiel ist der KI-Chatbot ChatGPT, der (inzwischen) auf OpenAIs Large Language Model GPT-4 beruht. Diese Vorschriften sind nicht aufgrund einer spezifischen Gefährlichkeit von GPAI eingeführt worden, sondern aufgrund der enormen Zahl an Einsatz-, und Missbrauchsmöglichkeiten. Entsprechend definiert Art. 3 Nr. 63 des AI Acts GPAI als ein KI-Modell, das „[…] eine erhebliche allgemeine Verwendbarkeit aufweist und in der Lage ist, unabhängig von der Art und Weise seines Inverkehrbringens ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann […]“ Die entsprechenden Pflichten des Kapitels V treten in Kraft, sobald das KI-Modell auf dem Markt bereitgestellt wird. Es ist wichtig zu beachten, dass diese <?page no="35"?> 1.2 KI und Recht 35 Pflichten zusätzlich zu den Pflichten für KI-Systeme gelten , wenn der Anbieter des GPAI-Modells dieses in sein eigenes KI-System integriert. Zunächst müssen Anbieter von GPAI-Modellen eine technische Dokumentation erstellen und aktualisieren. Diese Dokumentation muss dem Büro für Künstliche Intelligenz und den zuständigen nationalen Behörden auf Anfrage zur Verfügung gestellt werden und detaillierte Informationen über das Modell enthalten. Dazu gehören unter anderem die Aufgaben, die das Modell erfüllen soll, die Architektur und die Anzahl der Parameter, die Lizenz, Trainingsmethoden und -techniken, Informationen über die verarbeiteten Daten sowie die Zahl der Floating Point Operations Per Second (FLOPs). Darüber hinaus müssen GPAI-Anbieter Informationen und Dokumentationen erstellen und aktualisieren, die sie den Anbietern von KI-Systemen zur Verfügung stellen, die beabsichtigen, das GPAI-Modell in ihre KI-Systeme zu integrieren. Diese Informationen müssen es den nachgelagerten Anbietern ermöglichen, die Fähigkeiten und Grenzen des GPAI-Modells zu verstehen und ihren eigenen Pflichten gemäß der KI-VO nachzukommen. Sie müssen mindestens die in Anhang XII der KI-VO genannten Elemente enthalten. Hierbei ist jedoch auch die Wahrung von Geschäftsgeheimnissen und geistigem Eigentum zu beachten. Die Anbieter von GPAI-Modellen müssen eine Strategie zur Einhaltung des EU-Urheberrechts entwickeln und umsetzen. Dies umfasst insbesondere die Einhaltung des Regimes für Text und Data Mining aus der DSM-Richtlinie. Zudem müssen sie eine detaillierte Zusammenfassung der für das Training des KI-Modells verwendeten Inhalte erstellen und öffentlich zugänglich machen. Hierfür soll das AI Office eine Vorlage bereitstellen. Anbieter, die ihren Sitz in einem Drittland haben, müssen zudem einen in der EU ansässigen Bevollmächtigten benennen, bevor sie ein GPAI-Modell auf dem Unionsmarkt in Verkehr bringen. Für GPAI-Modelle, die mit systemischen Risiken verbunden sind, gelten zusätzliche strengere Pflichten. Diese Anbieter müssen eine Modellbewertung mit standardisierten Protokollen und Instrumenten durchführen, um systemische Risiken zu ermitteln und zu mindern. Dies beinhaltet die Durchführung von Angriffstests des Modells und die Einführung von Risikomanagementstrategien wie Verfahren der Rechenschaftspflicht und Governance-Verfahren. Des Weiteren müssen Informationen über schwerwiegende Vorfälle erfasst, dokumentiert und an die zuständigen Behörden weitergeleitet werden. Auch ein angemessenes Maß an Cybersicherheit ist zu gewährleisten. Es gibt jedoch auch Ausnahmen von einigen dieser Pflichten: Für GPAI-Modelle, die unter einer freien und quelloffenen Lizenz bereitgestellt werden und deren Parameter, einschließlich Gewichte und Informationen über die Modellarchitektur, öffentlich zugänglich gemacht werden, gelten die Pflichten zur Erstellung einer technischen Dokumentation und zur Bereitstellung von Informationen für nachgelagerte Anbieter nicht. Diese Ausnahme gilt jedoch nicht für GPAI-Modelle mit systemischem Risiko. Die Pflicht zur Erstellung einer Urheberrechtsstrategie und die zur Veröffentlichung einer Zusammenfassung der Trainingsinhalte bleibt aber bestehen. Anbieter können sich bei der Einhaltung der Pflichten auf Praxisleitfäden stützen, die vom AI Office erstellt werden, bis harmonisierte Normen veröffentlicht werden. <?page no="36"?> 36 Christian Solmecke Die Einhaltung dieser Normen begründet die Konformitätsvermutung. Es ist auch möglich, alternative Verfahren der Einhaltung aufzuzeigen. Die Kommission kann Anbieter von GPAI-Modellen auffordern, die erforderliche Dokumentation oder zusätzliche Informationen vorzulegen , um die Einhaltung der KI- VO zu beurteilen. Sie kann auch Maßnahmen anordnen, um die Verpflichtungen zu erfüllen , und die Bereitstellung des Modells auf dem Markt einschränken, es zurücknehmen oder zurückrufen. Zeitstrahl Der AI Act ist am 1. August 2024 in Kraft getreten. Die einzelnen Bestimmungen der KI-VO werden jedoch erst stufenweise anwendbar, um den Marktteilnehmern ausreichend Zeit zur Anpassung zu geben: 2. Februar 2025 : Die allgemeinen Bestimmungen (Artikel 1-4 KI-VO) sowie die Verbote von KI-Systemen mit unannehmbarem Risiko (Artikel 5 KI-VO) treten in Kraft. Dies umfasst auch die Pflicht zur Vermittlung von „KI-Kompetenz“ in Unternehmen. Ab diesem Datum müssen bestimmte verbotene KI-Praktiken eingestellt werden. 2. August 2025 : Die Regelungen für KI-Modelle mit allgemeinem Verwendungszweck (Kapitel V KI-VO) werden anwendbar. Die Vorschriften zur Governance (Kapitel VII KI-VO) und zu Sanktionen (Kapitel XII KI-VO) treten ebenfalls in Kraft, mit Ausnahme der Geldbußen für Anbieter von GPAI-Modellen. Die Regelungen zu den notifizierenden Behörden und notifizierten Stellen für Hochrisiko-KI-Systeme (Kapitel III Abschnitt 4 KI-VO) sowie Artikel 78 (Vertraulichkeit von Informationen und Daten) treten in Kraft. Es gilt eine verkürzte Übergangsfrist von 12 Monaten für KI-Modelle mit allgemeinem Verwendungszweck, Governance und Sanktionen . 2. August 2026 : Der Großteil der KI-VO wird wirksam, einschließlich der Vorschriften für Hochrisiko-KI-Systeme . Die übrigen Bestimmungen der KI-VO sind einzuhalten. 2. August 2027 : Die Vorschriften für produktbezogene Hochrisiko-KI-Systeme gemäß Artikel 6 Absatz 1 KI-VO und die damit verbundenen Pflichten gelten. Die Anforderungen an Hochrisiko-KI-Systeme gemäß Anhang I der KI-VO werden anwendbar. 31. Dezember 2030 : KI-Systeme, die vor dem 2. August 2027 in Verkehr gebracht oder in Betrieb genommen wurden und Komponenten von IT-Großsystemen sind, die mit den in Anhang X aufgeführten Rechtsakten eingerichtet wurden, müssen bis zu diesem Datum mit der Verordnung in Einklang gebracht werden. 1.2.3 KI und Urheberrecht Der AI Act erlegt Anbietern zwar an mehreren Stellen die Pflicht auf, für eine Vereinbarkeit des Systems mit dem Urheberrecht zu sorgen. Zwei konkrete Fragen sind allerdings weiterhin dem nationalen (wenn auch bereits durch die EU-Urheberrechtsrichtlinie harmonisierten) Urheberrecht überlassen: Dürfen Anbieter ihre KI- Modelle mit urheberrechtlich geschützten Werken trainieren? Und wie steht es mit dem Urheberrecht an generierten Inhalten von ChatGPT, Dall-E, Midjourney und Co.? <?page no="37"?> 1.2 KI und Recht 37 Urheberrechtsverletzung durch KI-Training? Das Training von KI-Modellen ist in der öffentlichen Debatte heiß umstritten, da sich Künstler durch die Verwendung ihrer Werke in ihren Rechten regelmäßig beschnitten fühlen. Einfach gesprochen wird bei der Erstellung von KI-Trainingssätzen das Internet automatisiert durchforstet. Das Ergebnis ist eine Tabelle, die konkrete Inhalte bestimmten Eigenschaften oder Beschreibungen zuordnet, und das teilweise in einem Umfang von mehreren Milliarden Paaren (so etwa der LAION-5B Bild-Text Datensatz mit 5,58 Milliarden Einträgen, vgl. Schuhmann et al. 2022). Dieser Prozess geht in aller Regel mit einer urheberrechtlichen Vervielfältigung im Sinne des UrhG einher, sodass es für eine Legalität entweder die Zustimmung der Rechteinhaber - bei dieser Größenordnung unvorstellbar - oder einen gesetzlichen Ausnahmetatbestand braucht. Genau diesen Tatbestand bietet nach inzwischen weit verbreiteter Auffassung § 44b UrhG, der das „Text und Data Mining“ erlaubt. Es versteht darunter die „automatisierte Analyse von einzelnen oder mehreren […] Werken, um daraus Informationen insbesondere über Muster, Trend und Korrelationen zu gewinnen“ (§ 44b Abs. 1 UrhG). Als „Ausweg“ für Rechteinhaber sieht § 44b Abs. 3 UrhG die Erklärung eines Nutzungsvorbehalts vor. Soweit dieser in „maschinenlesbarer Form“ (etwa in Form einer robots.txt oder eines besonderen http-Headers) erfolgt, greift die Ausnahmeregel des Text- und Data Minings nicht mehr. Eine Verwendung des Werks in einem Trainingsdatensatz wäre dann rechtswidrig. Dabei bleibt allerdings das Problem, dass bereits große Mengen an Werken in die Datensätze geflossen sind, bevor die Öffentlichkeit von diesem Nutzungsvorbehalt wusste. Als mögliche Lösungen werden die Lizenzierung von Werken für das KI- Training und eine angemessene Entschädigung der Urheber diskutiert. Einige KI- Unternehmen schließen bereits Vereinbarungen mit großen Verlagen ab, um deren Inhalte für das Training nutzen zu können. Es gibt den Vorschlag, dass eine technische Lösung gefunden wird, die es den Urhebern ermöglicht, Lizenzen für ihre Werke zu verlangen und zu erhalten (vgl. Dornis 2024). Das Urheberrecht am KI-Output Die Frage, wer das Urheberrecht an von KI generierten Inhalten trägt, führt zu den wohl klassischsten Problemen des Urheberrechts. Nach traditionellem Verständnis des Urheberrechts kann eine KI selbst nicht Urheber sein, da ihr die notwendige menschliche Geistigkeit fehlt (vgl. Stollwerck 2024). Das deutsche Urheberrechtsgesetz (UrhG) setzt eine persönliche geistige Schöpfung voraus, die nur ein Mensch leisten kann. Im Kontext von KI-generierten Inhalten können jedoch menschliche Akteure unter bestimmten Bedingungen als Urheber in Frage kommen . Dafür ist von Bedeutung, inwiefern die Nutzung der KI einem klassischen Schöpfungsprozess gleichkommt. Ab einer bestimmten Schwelle an Komplexität ist nicht mehr die KI maßgeblich für das Ergebnis verantwortlich, sondern der Nutzer, der die Schaffung mit eigenen Inputs anreichert. Je komplexer der Entstehungsprozess, umso näher liegt damit eine „Schöpfung“ im Sinne des Urheberrechts. Allerdings gibt es weder gesetzlich noch gerichtlich festgelegte Schwellen, die eine Schöpfung von einem urheberrechtsfreien Output abgrenzen würden. Es gilt: Wenn der Nutzer den Entstehungsprozess nicht nur startet, sondern auch maßgeblich kreativ ausgestaltet, etwa durch einen besonders detaillierten Prompt oder zahlreiche Nachbearbeitungen und -korrekturen, kann er Urheber sein. In gemischten Fällen ist im Einzelfall abzuwägen, <?page no="38"?> 38 Christian Solmecke wessen Beitrag zum Endergebnis überwiegt. Überwiegt der Beitrag der KI selbst, gilt das Werk als urheberrechtslos, also gemeinfrei. Aufgrund der Funktionsweise von generativer KI können die Urheber der Werke, mit denen die KI trainiert wurde, in der Regel keine Ansprüche an einem späteren KI-Werk geltend machen. Denn grundsätzlich finden die tatsächlich geschöpften Werke im generierten Werk nicht direkt Niederschlag. KI zeichnet sich gerade dadurch aus, dass es aufgrund großer Datensätze Muster und Korrelationen erkennt und diese gewissermaßen abstrahiert, bevor es sie in Verbindung mit dem eingegebenen Prompt anwendet. Hinzu kommt: Selbst wenn jemand einen Text oder ein Bild „im Stil“ eines bekannten Künstlers erstellt, so erwachsen daraus hingegen keine Ansprüche, weil Stile und Ideen nicht urheberrechtlich geschützt sind, sondern lediglich konkrete Ausgestaltungen. In seltenen Fällen kann es jedoch auch bei dieser stochastischen Operation vorkommen, dass bestimmte konkrete Elemente genau mit solchen anderer Werke übereinstimmen. Die Gefahr besteht umso mehr bei zu kleinen Trainingssätzen. Kommt es dazu und verbreitet jemand ein dergestalt mit KI generiertes Werk - etwa ein Musikstück oder ein Bild -, so kommt eine Haftung des Nutzers wegen einer unerlaubten Bearbeitung zwar durchaus in Betracht. Allerdings dürfte dies mangels Verschuldens maximal zu einer Haftung auf Unterlassung führen, nicht jedoch auf Schadensersatz. 1.2.4 Haftung Die fortschreitende Entwicklung der KI wirft zunehmend auch haftungsrechtliche Fragen auf. Während KI-Systeme autonom agieren und Entscheidungen treffen können, stellt sich die Frage, wer im Falle eines Schadens verantwortlich gemacht werden kann. Geltende Rechtslage Im aktuellen deutschen und europäischen Recht gibt es keine speziellen Haftungsnormen für KI. Die Haftung erfolgt daher nach allgemeinen Grundsätzen. Die zentrale Norm für die deliktische Haftung ist § 823 Bürgerliches Gesetzbuch (BGB): Wer vorsätzlich oder fahrlässig das Leben, den Körper, die Gesundheit, die Freiheit, das Eigentum oder ein sonstiges Recht eines anderen verletzt, ist zum Ersatz des daraus entstehenden Schadens verpflichtet. Hier stellt sich die Frage, ob eine Handlung eines KI-Systems, das weitgehend autonom agiert, überhaupt einer natürlichen oder juristischen Person zugerechnet werden kann. Im klassischen Deliktsrecht setzt eine Haftung eine zurechenbare Handlung oder ein Unterlassen des Schädigers voraus. Dies könnte etwa bei einer mangelhaften Programmierung oder einer unzureichenden Überwachung der KI durch den Betreiber der Fall sein. In jedem Fall wird sich ein Betreiber nicht mit dem Argument aus der Haftung nehmen können, die KI habe „von selbst“ gehandelt. Wer das Ergebnis der KI verwendet, wird es sich stets auch selbst zurechnen lassen müssen (vgl. Frost et al. 2024). Hat der Verantwortliche den rechtsverletzenden Inhalt nie zu Gesicht bekommen (etwa wenn ein eingerichteter KI-Chatbot die Rechte eines Kunden verletzt), kann ihm immerhin ein Unterlassen hinreichender Sicherheitsmaßnahmen zum Vorwurf gemacht werden. Hier haftet er unter Umständen auf Schadensersatz. Daneben ist das Produkthaftungsrecht relevant. Die Produkthaftungsrichtlinie 85/ 374/ EWG sowie das deutsche Produkthaftungsgesetz (ProdHaftG) regeln die Haf- <?page no="39"?> 1.2 KI und Recht 39 tung für fehlerhafte Produkte. Ein Produkt gilt als fehlerhaft, wenn es nicht die Sicherheit bietet, die unter Berücksichtigung aller Umstände berechtigterweise erwartet werden kann. Die zentrale Frage ist, ob KI-Software als Produkt im Sinne dieser Vorschriften zu qualifizieren ist. Während Hardware-Komponenten eines KI-Systems unzweifelhaft unter den Begriff des Produkts fallen, ist die Einordnung von Software strittig. Nach geltender Rechtslage liegt die Produkthaftung eher im Bereich der physischen Produkte, wodurch Software-basierte KI-Systeme nur schwer erfasst werden können (vgl. Frost et al. 2024). Neben diesen klassischen Haftungsregimen kommt auch eine vertragliche Haftung in Betracht. Betreiber von KI-Systemen könnten nach §§ 280 ff. BGB auf Schadensersatz haften, wenn sie ihren vertraglichen Pflichten nicht nachkommen. Eine vertragliche Haftung setzt allerdings eine vertragliche Beziehung zwischen dem Geschädigten und dem Verantwortlichen voraus, die in vielen KI-bedingten Schadensfällen nicht gegeben ist. Reformansätze und EU-Vorhaben Die Europäische Kommission arbeitet an einem spezifischen Rechtsrahmen zur KI- Haftung, um bestehende Regelungslücken zu schließen. Ein wesentlicher Reformansatz ist die Einführung einer verschuldensunabhängigen Haftung für Hochrisiko-KI- Systeme, die erhebliche Schäden verursachen können. Dies würde eine Zurechnung von Schäden ermöglichen, ohne dass ein Verschulden des Herstellers oder Betreibers nachgewiesen werden muss. Darüber hinaus wird eine Beweislastumkehr diskutiert, um Geschädigten den Nachweis zu erleichtern, dass eine KI-Entscheidung fehlerhaft war und zu einem Schaden geführt hat. Ein zentraler Aspekt ist hierbei die sogenannte „Black-Box-Problematik“: KI-Systeme treffen Entscheidungen auf Basis komplexer Algorithmen, die für Außenstehende oft nicht nachvollziehbar sind. Wenn ein Geschädigter die Fehlerhaftigkeit der KI nicht nachweisen kann, bleibt er ohne Schadensersatz. Eine Beweislastumkehr könnte daher eine bessere Durchsetzung von Schadensersatzansprüchen ermöglichen. Auch die Produkthaftungsrichtlinie soll reformiert werden, um KI-Systeme besser abzudecken. Die Definition eines Produkts könnte dahingehend erweitert werden, dass auch reine Software als Produkt gilt. Zudem könnten Entwickler und Anbieter von KI-Systemen strengeren Dokumentations- und Sorgfaltspflichten unterliegen, um sicherzustellen, dass sie im Schadensfall haftbar gemacht werden können. 1.2.5 Fazit Die Entwicklung und der Einsatz von KI-Systemen sind zweifelsohne transformativ. Es ist unerlässlich, dass alle Beteiligten - von den Anbietern über die Betreiber bis hin zu den Nutzern - ihre jeweiligen Rollen und Verantwortlichkeiten verstehen und sich der rechtlichen Rahmenbedingungen bewusst sind. Der AI-Act bietet einen ersten regulatorischen Rahmen, der jedoch einige Fragen offenlässt. Gerade bei der Umsetzung der Kennzeichnungs- und Dokumentationspflichten wird es maßgeblich darauf ankommen, wie diese Pflichten letztlich technisch in der Praxis umgesetzt werden. Die Unterscheidung zwischen Anbietern, Betreibern und Importeuren von KI-Systemen ist ein wichtiger Schritt zur Klärung der <?page no="40"?> 40 Christian Solmecke Verantwortlichkeiten. Insbesondere die strengen Anforderungen an Hochrisiko-KI- Systeme, die ein erhebliches Schadenspotenzial bergen, unterstreichen die Notwendigkeit eines sorgfältigen Umgangs mit diesen Technologien. Mit der Verordnung bezieht die Europäische Union letztlich ausdrücklich Stellung zu den akuten Herausforderungen, die KI mit sich bringt. Es ist jedoch wichtig, zu betonen, dass die rechtliche Regulierung von KI ein dynamischer Prozess ist. Die Zusammenarbeit zwischen Rechtswissenschaft, Technik und Politik ist unerlässlich, um einen angemessenen und rechtssicheren Umgang mit KI zu gewährleisten. Die Standardisierung wird dabei eine zentrale Rolle spielen. Die Entwicklung von harmonisierten Normen ist entscheidend für eine einheitliche Anwendung der KI-VO in den Mitgliedstaaten. Darüber hinaus ist die Frage der Datenqualität und -repräsentativität von entscheidender Bedeutung für die Entwicklung und den Einsatz von KI-Systemen. Die KI- VO stellt hohe Anforderungen an die Qualität der Trainings-, Validierungs- und Testdaten. Inwieweit der Markt an diese Standards heranreichen wird, ist jedenfalls spannend zu beobachten. Literatur Dornis, T.W. (2024). KI-Update Deep-Dive: Urheberrecht im Zeitalter der generativen KI [Podcast]. In Grünewald, Isabel (Moderatorin), KI-Update - ein heise-Podcast. Frost, Y., Steininger, M., & Vivekens, S. (2024). Nutzen, Chancen, Risiken und Haftung bei der Verwendung von Künstlicher Intelligenz im Kontext der KI-Verordnung und KI-Haftungsrichtlinie. MPR 2024 , 4-20. Schuhmann, C., Beaumont, R., Vencu, R., Gordon, C., Wightman, R., & Cherti, M. (2022). LAION-5B: An open large-scale dataset for training next generation imagetext models. NeurlPS 2022. https: / / doi.org/ 10.48550/ arXiv.2210.084022 Stollwerck (2024). In: Götting/ Lauber-Rönsberg/ Rauer, BeckOK UrhG Europäisches Urheberrecht. <?page no="41"?> 1.3 From strategic foresight to cyber threat intelligence in the age of AI Challenging the cyber frontier Abhishek Singh and Dirk Drechsler Summary The nature of cybersecurity is undergoing a profound transformation with the integration of artificial intelligence (AI) into both defensive and offensive strategies. Traditional cybersecurity frameworks have relied on deterministic rules, static defenses, and human intervention. However, modern cyberattacks, driven by automation and adaptability, have outpaced these conventional mechanisms. This shift demands a move from reactive approaches to predictive, intelligence-driven security. Strategic foresight plays a crucial role in this transition, focusing on structured anticipation rather than deterministic prediction. Effective cybersecurity decision-making requires a systematic horizon scanning, probabilistic modeling, and structured intelligence gathering. Additionally, cognitive biases ‒ such as the illusion of understanding, retrospective distortion, and overvaluation of information complicate risk assessment. Acknowledging these biases is essential for adopting a more structured, intelligence-based approach to securing digital infrastructures. This chapter explores the transition from traditional cybersecurity to AI-driven strategies, emphasizing how organizations can leverage Cyber Threat Intelligence (CTI) to stay ahead of evolving threats. By integrating AI into CTI frameworks, companies can move beyond static defenses toward adaptive, intelligence-driven security. At the same time, understanding AI’s risks and implementing strategies to mitigate them is critical. As cybersecurity evolves, organizations must strike a balance harnessing AI for protection while remaining vigilant against its misuse. Keywords: Cyber Threat Intelligence, strategic foresight, futures, machine learning, generative AI 1.3.1 From strategic intelligence to cyber threat intelligence The problem with the future The problem with the future is that it is yet to happen and nobody really knows what that means. While the Greeks sought answers from the Oracle of Delphi and received ambiguous-tautological responses, only the predicting person could absolve themselves. The ex-post rationalization of what was previously said was simple and possible since the interpretative scope was correspondingly designed. From a present standpoint, the explanation and understanding of the past appear to be unproblematic. This is also referred to as the triplet of opacity (Taleb 2008): „ (..) the illusion of understanding, or how everyone thinks he knows what is going on in a world that is more complicated (or random) than they realize; (..) the retrospective distortion, or how we can assess matters only after the fact, as if they were in a rearview mirror (history <?page no="42"?> 42 Abhishek Singh and Dirk Drechsler seems clearer and more organized in history books than in empirical reality); and (..) the overvaluation of factual information and the handicap of authoritative and learned people, particularly when they create categories ‒ when they ‘Platonify’. ” In summary, this would be the overestimation of one's own abilities, the overvaluation of hindsight, and the arrogance of intellectuals and specialists. Whether this generally affects everyone who deals with the future is questionable. In any case, the triplet is an important indication of how not to do it. 1.3.2 The futures, horizons, and strategic foresight It is important to preface that it is actually not about dealing with the future but with many different and possible futures (de Jouvenel 2019). The exploration and analysis encompass several options that are used for decision-making. Unlike the belief in the Oracle of Delphi, it is not a prediction of what exactly will happen but a structuring of which possible paths there might be into the futures and how they might be shaped. With increasing distance, the probability corridors widen and mutate into possibilities that can no longer be quantitatively captured. Tuomi (2019) refers to this in this context as the chronotope of probabilistic and possibilistic futures. While the first type assumes that trajectories can be determined with probabilities, the second perspective relies on qualitative-narrative determinations. The organized process of horizon scanning seeks, regardless of this problem, weak signals that indicate something new and expose the existing system to disruptive effects in an unexpected manner. A distinction is made between (Padburg 2020):  Forecasting as an understanding of the expected future.  Strategic foresight as an understanding of a range of plausible futures and potenzial surprises that are difficult to cope with under current conditions.  Applied foresight as policies, strategies, and visions that are robust over a certain period of plausible futures. The so-called three-horizons technique connects the present with the desired futures to work out divergent options as the result of dysfunctional notions (Curry and Hodgson 2008):  The first horizon corresponds to the continuous continuation of the present, which, however, loses validity with an increasing time horizon;  The third horizon , which exists only marginally in the present, has the potential to replace the world of the first horizon wholly or partially;  In the second horizon , the first and third horizons meet in the form of an unstable transition space that significantly determines further developments. With this structuring, one arrives at the inevitable fault lines that are the result of dynamic and complex systems. There are many examples, but they illustrate how strong the inertia forces of the status quo are despite better and available information. The currently dominant organizational paradigm of business ecosystems, which is designed from an orchestrator in coordinated connection to a multitude of partners to deliver a value proposition (Adner 2017), is just one of them. The technologization of business activities now transcends pure digitization. This means increased attention to cybersecurity in risk management since AI, as will be shown, is not only used for good economic purposes. Despite better knowledge, the efforts of some companies are still limited. <?page no="43"?> 1.3 From strategic foresight to cyber threat intelligence in the age of AI 43 1.3.3 The assumptions and orientation of strategic foresight This initially means that the foresight field requires conceptual clarifications. It involves the methods, techniques, and beliefs with which future studies are conducted. The possibilities range from (1) positivism, which understands social realities as objective representations, to (2) empiricism, which observes states and events and derives considerations from them, to (3) constructivism, which assumes that social reality is subjectively created (Minkkinen 2020; Karlsen and Karlsen 2013). However, since all ideas about the futures are the product of present conditions and expectations, anticipation often corresponds to an extrapolation of the status quo. Furthermore, the engagement is continuous and never completed, as an intermediate state immediately leads to further developments. Ultimately, attitudes and the willingness to change are influenced by the inertia of the acting individuals, which only allows for slow changes (Sardar 2010). After the explication, the determination of the orientation of strategic foresight follows. Since it is a systematic attempt to capture the futures for one's own organization, the question of the focus or focuses arises. This future intelligence can be designed anticipatorily to capture early warnings, goal-determining for corporate orientation, priority-defining, strategic-formulating, or innovation-oriented. Another conceptualization asks about the breadth of coverage. There are possibilities for a holistic, macro-, meso-, or micro-orientation (Becker 2003). Additionally, the content determination can be oriented towards technological, competitive, political, or consumer activities (Rohrbeck et al. 2007). 1.3.4 Bridging the gap The advantage of strategic intelligence lies in the attention of the corporate management level. Embedding in these activities and the continuation of efforts to tackle the future are given there. Everyone who has dealt with cybersecurity in companies knows how problematic it is to get enough resources for their work. Since attacks on IT infrastructures are often not visible and future-oriented thought experiments are often rejected for the reasons outlined above, attention must be created. Actually, such concerns should not be in the foreground, as business models are shaped by technology like never before. This, in turn, implies considerations about technological progress and its negative impacts, the effects of capitalism and free markets in the absence of regulations, and the scientific and industrial integrity of a technology elite (Coates et al. 2001). Understanding can only be generated through close exchange with the specialists who deal intensively with the subject matter (Anderson 1997). Nevertheless, there are major challenges due to the complex networks, simulation models for complex adaptive systems, and the vast amount of data that needs to be searched (Technology Futures Analysis Methods Working Group 2003). Cybersecurity is directly linked to the new technologies used inside and outside a company. These always involve not only opportunities but also risks, which is why the World Economic Forum (WEF) also speaks of an AI-cyber paradox. The development and implementation of AI always depend on intelligent security that balances advantages and disadvantages (WEF 2025). Therefore, and besides other reasons, the Council of the EU adopted the cyber solidarity act and a targeted amendment to the cybersecurity act on 2 nd December 2024. The new regulation endows the <?page no="44"?> 44 Abhishek Singh and Dirk Drechsler EU with enhanced capabilities to bolster Europe’s resilience against cyber threats and strengthen collaborative mechanisms. One of the key initiatives is the establishment of a cybersecurity warning system - a Europe-wide infrastructure comprising national and cross-border cyber nodes spread across the EU. These nodes are designed to facilitate information exchange and are responsible for identifying and responding to cyber threats. Utilizing state-of-the-art technologies like AI and advanced data analytics, these cyber nodes will detect and promptly issue warnings about cross-border cyber threats and incidents. The horizon of risk management must be expanded in terms of depth, breadth, and time horizon. Information or data is necessary that allows for analysis. For this reason, the following deals with AI-based cyber threat intelligence and AI-based attacks. 1.3.5 A world full of AI … attacks AI-driven cyberattacks have become increasingly sophisticated, leveraging advanced technologies to deceive individuals and compromise systems. Here are three notable real-world examples:  AI-Generated Phishing Emails − In December 2023, Activision, the renowned video game developer, fell victim to a targeted phishing campaign. Attackers employed AI tools to craft convincing SMS messages that mimicked internal communications. One HR staff member was deceived by these messages, leading to unauthorized access to the company's employee database, which included sensitive information such as email addresses, phone numbers, work locations, and salaries. This incident underscores the heightened effectiveness of AI-enhanced social engineering attacks (Ganesan 2025).  AI-Driven Disinformation Campaigns − In February 2025, OpenAI identified and disrupted two influence campaigns originating from China that misused its AI tools. One campaign utilized Chat- GPT to generate anti-American content in Spanish, targeting audiences in Latin America. Another campaign involved creating marketing materials for a social media monitoring tool linked to Chinese security services. These incidents highlight the potential of AI technologies to amplify disinformation efforts on a global scale (Fried 2025).  AI-Enhanced Voice Spoofing in Hospitality Scams − In mid-2024, the hospitality industry experienced a surge in telephone scams where attackers used AI to mimic the voices of known individuals. These AIgenerated voice scams exploited the accommodating nature of hotel employees, leading to unauthorized disclosure of sensitive data and financial losses. Companies like Choice Hotels International reported daily occurrences of such incidents, emphasizing the need for enhanced security measures against AIdriven voice spoofing attacks (Stupp 2024). These examples demonstrate the diverse applications of AI in cyberattacks, ranging from sophisticated phishing and disinformation campaigns to advanced voice impersonation scams. As AI technologies continue to evolve, it is imperative for organizations to implement robust security protocols and foster awareness to mitigate the risks associated with AI-driven threats. However, in a fast-changing and complex <?page no="45"?> 1.3 From strategic foresight to cyber threat intelligence in the age of AI 45 environment companies should consider a strategic intelligence approach to anticipate future developments. 1.3.6 Introduction to AI and cyber threat intelligence Data, data, data and CTI Cyber threat intelligence is like a detective who collects and analyzes information about potential threats in a digital world. It helps organizations or governments to stay one step ahead of cyber criminals and involves collecting clues about attackers, their tactics or techniques, and the criticality of the impact. Cyberattacks frequently occur unexpectedly, highlighting the importance of identifying patterns in cybercrime to adapt to emerging threats. The amount of data generated every day is very huge therefore threat intelligence is needed to identify these patterns of threat actors and their cybercrimes. Organizations can minimize cybersecurity risks by detecting threats at an early stage. The primary goal of cybersecurity is to protect systems and data from harmful activities. These threats can appear in various forms, including viruses, malware, data breaches, and application vulnerabilities. The growing number of cyberattacks in recent years has made it essential for organizations to implement automated threat analysis at all levels. Phases and hierarchy of CTI Cyber threat intelligence is based on a lifecycle which includes collection, analysis, and distribution of information useful for implementing a meaningful security infrastructure. According to fig. 5 CTI comprises several phases: (1) planning and requirements, (2) collection and processing, (3) analysis, (4) production, (5) dissemination, and feedback. These five key stages ensure that intelligence is effectively gathered, analyzed, and used to mitigate cyber threats (Jongman 2023; Flashpoint 2021; Paloalto Networks 2025):  Planning and Requirements This is the planning phase where cybersecurity teams determine what threats they need to monitor and what intelligence they require. They ask questions like, “ What are the top threats to our organization? ” or “ Which threat actors are targeting our industry? ” It involves defining intelligence requirements based on organizational risks, regulatory needs, and emerging threat trends. Security teams use frameworks like MITRE ATT&CK to identify relevant tactics and techniques.  Collection and Processing The team gathers raw data from multiple sources like threat feeds, logs, social media, and dark web forums. Then, they clean and organize the data so it can be analyzed. Data is collected from open-source intelligence (OSINT), technical feeds (e.g., malware analysis), human intelligence (HUMINT), and internal security logs. This raw data is then normalized and structured to facilitate correlation and deeper analysis.  Analysis Experts take the raw data and make sense of it. They identify trends, correlate events, and determine which threats are real and relevant. This means that analysts use machine learning models, statistical methods, and pattern recognition to correlate threat indicators. Intelligence is graded based on reliability (e.g., the Admiralty Code) <?page no="46"?> 46 Abhishek Singh and Dirk Drechsler and structured into tactical (e.g., IOCs), operational (e.g., attack campaigns), or strategic (e.g., geopolitical motives) levels.  Production The intelligence findings are put into reports, alerts, or dashboards so that security teams, executives, and partners can use them. In a technical sense intelligence is formatted into reports (for SOC teams), executive briefings (for leadership), and realtime alerts (for automated defense tools). Formats may include STIX/ TAXII for structured threat data sharing.  Dissemination and Feedback The intelligence is shared with the right people, such as security teams, law enforcement, or other organizations. They provide feedback to improve future intelligence gathering. The results are distributed based on the Traffic Light Protocol (TLP) to ensure controlled sharing. Security teams provide feedback, refining collection strategies and improving detection mechanisms. This cycle ensures that cyber threats are continuously monitored, analyzed, and acted upon, making organizations more resilient against attacks. Fig. 5: Threat Intelligence Lifecycle (Own figure) Another classification focuses the CTI hierarchy and is structured into three distinct levels (fig. 6) : (1) tactical , (2) operational , and (3) strategic intelligence, each serving a unique role within an organization's cybersecurity framework (Gourley 2018; Goss 2024; Flashpoint 2022; Zvelo 2021):  Tactical Intelligence is primarily utilized by Security Operations Center (SOC) teams, incident responders, and threat hunters. It focuses on immediate threat mitigation by analyzing technical indicators, malware activities, and system vulnerabilities. Data sources for tactical intelligence include security logs, network traffic analyses, endpoint detection tools, and external threat feeds. The outputs are typically Indicators of Compromise (IOCs), attack signatures, and updates to firewall and intrusion detection systems. For instance, identifying a suspicious IP address associated with a known Advanced Persistent Threat (APT) group exemplifies tactical intelligence. This level aligns with the collection and processing Planning & Requirement Collection & Processing Analysis Production Dissemination & Feedback <?page no="47"?> 1.3 From strategic foresight to cyber threat intelligence in the age of AI 47 phases of the CTI cycle, involving the gathering and analysis of threat data to produce actionable insights for security tools like Security Information and Event Management (SIEM) systems and Endpoint Detection and Response (EDR) solutions. Fig. 6: Categories of CTI (Own figure)  Operational intelligence serves threat intelligence analysts, security architects, and incident response managers by providing insights into adversary behaviors and attack methodologies. It delves into the Tactics, Techniques, and Procedures (TTPs) of threat actors, drawing from sources such as dark web forums, forensic investigations, adversary infrastructure tracking, and honeypots. Outputs include detailed profiles of threat actors, analyses of attack campaigns, and mappings of adversary infrastructures. An example is tracking a threat group employing specific social engineering techniques to breach organizations. Operational intelligence corresponds to the planning and direction and analysis phases of the CTI cycle, where identified threats are analyzed and linked to known adversary tactics, informing defensive strategies and resource allocation.  Strategic intelligence is tailored for Chief Information Security Officers (CISOs), executives, policymakers, and board members, focusing on long-term risk assessments, geopolitical threats, and regulatory impacts. It derives from government reports, industry research, and geopolitical analyses, producing outputs like risk assessments, threat landscape reports, and policy recommendations. For example, highlighting the cyber espionage threat from state-sponsored groups targeting specific industries provides strategic insights. This level aligns with the planning and direction and dissemination phases of the CTI cycle, informing high-level decision-making and guiding cybersecurity investments and policies. Each level of the CTI hierarchy interconnects, ensuring that immediate technical findings (tactical) inform broader analyses of adversary behaviors (operational), which in turn shape overarching security strategies and policies (strategic). This integrated approach enables organizations to effectively detect, analyze, and respond to cyber threats across all levels. <?page no="48"?> 48 Abhishek Singh and Dirk Drechsler The role and the integration of AI in CTI Artificial Intelligence plays a transformative role in cyber threat intelligence by automating data collection, accelerating threat analysis, and enhancing decisionmaking across tactical, operational, and strategic levels. The integration of AI into CTI workflows enables real-time detection, predictive analytics, and adaptive defense strategies against evolving cyber threats (Balantrapu 2024; Alevizos and Dekker 2024; McCann 2024):  At the tactical level , AI-driven machine learning models and behavioral analytics enhance threat detection by identifying anomalies in network traffic, endpoint activities, and security logs. AI-powered automated threat hunting allows security teams to process vast amounts of data in real-time, reducing alert fatigue and improving the identification of Indicators of Compromise (IOCs). Advanced Extended Detection and Response (XDR) platforms utilize AI to correlate attack signals across various environments, thereby streamlining incident response. Additionally, AI enhances phishing detection by analyzing email metadata, sender behavior, and linguistic patterns to thwart social engineering attacks.  At the operational level , AI facilitates adversary profiling and attack campaign analysis by processing intelligence from diverse sources, including dark web forums, malware repositories, and global threat feeds. Natural Language Processing (NLP) techniques enable automated sentiment analysis and keyword tracking, uncovering threat actor discussions and underground market trends. AI-driven threat correlation engines link disparate attack indicators, revealing the tactics, techniques, and procedures employed by Advanced Persistent Threats (APTs). Security platforms such as IBM Watson for cybersecurity and Microsoft Sentinel leverage AI to detect and prioritize threats based on dynamic risk assessments.  At the strategic level , AI contributes to cyber risk forecasting and geopolitical threat assessments by analyzing extensive datasets from government reports, industry research, and cybercrime trends. AI-driven predictive analytics anticipate future attack patterns, enabling organizations to develop proactive defense strategies. Furthermore, AI aids in regulatory compliance tracking, assisting businesses in aligning their cybersecurity policies with evolving global standards. Despite its advantages, integrating AI into CTI presents challenges, including adversarial AI techniques such as data poisoning, model evasion, and the automation of sophisticated attacks. Cyber criminals are increasingly utilizing AI to craft deepfake phishing campaigns, automate social engineering attacks, and develop AI-generated malware. To counter these threats, AI-driven CTI systems must incorporate continuous model training, human oversight, and adversarial testing to maintain resilience. The fusion of AI with CTI signifies a paradigm shift in cybersecurity, offering faster, more intelligent, and adaptive threat intelligence while necessitating ethical safeguards and robust countermeasures to prevent misuse. 1.3.7 AI-driven cyber threat detection Types of AI algorithms used in CTI Machine Learning (ML) and Deep Learning (DL) are pivotal tools in the realm of cybersecurity, aiding in the detection, prevention, and analysis of threats. The various <?page no="49"?> 1.3 From strategic foresight to cyber threat intelligence in the age of AI 49 subcategories of ML and DL offer specialized approaches to data processing and analysis. This means for ML:  Supervised learning employs labeled data to train models capable of making predictions. It is used for the detection of malware and phishing attacks through the classification of files and emails (Bishop 2006; Ahmetoglu and Das 2022).  Unsupervised learning utilizes unlabeled data to identify patterns and structures, making it suitable for anomaly detection in network traffic and user behavior (Géron 2019; Ahmetoglu and Das 2022).  Reinforcement learning, based on rewards and penalties, learns optimal strategies over time. It plays a crucial role in developing adaptive security mechanisms that respond to evolving threat landscapes (Mnih et al. 2015; Ahmetoglu and Das 2022). Deep Learning (DL), a subfield of ML, encompasses several key architectures that contribute to cybersecurity:  Convolutional Neural Networks (CNNs) are designed for processing and analyzing image and video data. CNNs detect anomalous patterns in network traffic data by analyzing "images" of network connection graphs (Lecun et al. 2015; Vaswani et al. 2017).  Recurrent Neural Networks (RNNs) are designed for sequential data processing. They identify temporal patterns in log data that indicate potenzial attacks (Schmidt 2019).  Transformers , an advanced architecture for NLP tasks, rely on self-attention mechanisms to analyze and classify threat reports, phishing emails, and other textbased security alerts. Models like BERT or GPT-3 facilitate precise security analyses (Vaswani et al. 2017; Devlin et al. 2019). Natural Language Processing (NLP), a subfield of ML, frequently employs DL methods and plays a crucial role in cybersecurity. It addresses the interaction between computers and human language and encompasses tasks such as language processing, translation, text generation, and speech synthesis. For instance, NLP models are used to extract security-relevant information from unstructured texts and analyze threat intelligence. AI-based CTI for dark web monitoring and the detection of zero-day exploits AI-based cyber threat intelligence plays a crucial role in dark web monitoring by leveraging advanced machine learning and natural language processing techniques to identify and analyze potential threats. The dark web, a hidden part of the internet where cyber criminals engage in illicit activities, poses significant challenges for traditional security measures. AI-powered dark web monitoring addresses these challenges by automating the process of scanning and analyzing vast amounts of data in real-time, detecting patterns and anomalies that would be impossible for human analysts to identify manually. AI-based CTI platforms, such as QUAXAR, provide comprehensive protection by integrating Digital Risk Protection (DRP), Attack Surface Management (ASM), and threat intelligence within a single platform (SOC CSIRT 2025). These platforms automate searches on dark web forums, marketplaces, and encrypted chat groups, identifying patterns in cyber-criminal behavior and detecting threats early by analyzing textual, image, and transactional data. This approach re- <?page no="50"?> 50 Abhishek Singh and Dirk Drechsler duces false positives by differentiating between legitimate and malicious activities, enhancing the overall security posture of organizations. Zero-day exploits are vulnerabilities in software or systems that are unknown to the vendor and, therefore, have no available patches. These exploits pose a significant threat as they can be used by attackers to gain unauthorized access to systems before the vulnerability is discovered and mitigated. Detecting zero-day exploits is challenging due to their unknown nature, but AI-based CTI can enhance detection capabilities. Machine learning models, particularly those used in Intrusion Detection Systems (IDS), play a crucial role in recognizing zero-day attacks. These models analyze network traffic and identify anomalies that could indicate a breach (Samtani et al. 2021). Supervised learning algorithms, such as Decision Trees, K-Nearest Neighbors (KNN), Random Forests, and Support Vector Machines (SVM), are commonly used to distinguish between legitimate and malicious traffic patterns. Additionally, unsupervised learning techniques, like clustering and statistical modeling, help identify anomalies without relying on predefined attack signatures. The integration of AI into CTI not only automates the labor-intensive process of dark web monitoring but also enhances the accuracy and speed of threat detection. By continuously learning from new data, AI systems can adapt to evolving cybercriminal tactics, ensuring that organizations remain vigilant against both known and emerging threats. This dynamic approach is essential in the ever-changing landscape of cybersecurity, where timely intelligence is crucial for effective defense. However, the deployment of AI in CTI also presents challenges, such as the potential for adversaries to employ AI techniques to obfuscate their activities or generate sophisticated attacks. Therefore, while AI significantly enhances threat intelligence capabilities, it must be complemented with human expertise and continuous oversight to effectively counteract the adaptive strategies of cybercriminals. This combined approach ensures a robust defense posture, leveraging the strengths of AI and human judgment. Adversarial machine learning and its threat to cybersecurity The development and usage of responsible AI plays a crucial role in every part of the landscape where those models are applied. Adversarial manipulations of AI systems (fig. 7) could have a huge impact on business models and their context. Therefore, the NIST developed a comprehensive predictive and generative AI taxonomy to classify attacks and mitigations (Vassilev et al. 2024). The predictive AI taxonomy The Predictive AI Taxonomy in the NIST report categorizes adversarial machine learning attacks targeting models designed for classification, regression, and decision-making tasks. These attacks are structured based on their stages, goals, attacker capabilities, knowledge, and data modalities. Attacks on predictive AI models occur either during the training phase, where attackers use poisoning techniques to manipulate the learning process, or at the deployment phase, where evasion attacks are used to mislead the model’s output. Attackers pursue different objectives, including availability attacks that degrade model performance, integrity attacks that manipulate model outputs, and privacy attacks that attempt to extract sensitive training <?page no="51"?> 1.3 From strategic foresight to cyber threat intelligence in the age of AI 51 Fig. 7: Adversarial Machine Learning (Own figure) data. The success of these attacks depends on the attacker’s capabilities, such as access to training data, model parameters, test data, or query interfaces. Depending on their level of knowledge, adversaries operate in white-box conditions where they have full access to model details, black-box conditions with limited access, or graybox scenarios where they possess partial knowledge of the AI system. One of the most common adversarial strategy against predictive AI are evasion attacks , which occur at the deployment stage when an attacker generates adversarial examples designed to mislead a model. These can be white-box attacks, where attackers leverage full knowledge of the model, or black-box attacks, where they rely on transfer-based methods to deceive AI systems without direct access to model parameters. Mitigating these attacks involves adversarial training, which strengthens a model by exposing it to adversarial examples, as well as randomized smoothing and formal verification techniques that increase model robustness. Poisoning attacks, in contrast, occur during the training phase, where adversaries introduce manipulated data into the learning process. These can be availability poisoning attacks designed to cause widespread model degradation, targeted poisoning attacks aimed at influencing specific outputs, backdoor poisoning attacks that insert hidden triggers into models, or model poisoning attacks that directly manipulate neural network parameters. Defending against poisoning attacks requires data sanitization techniques, robust training strategies, and anomaly detection systems capable of identifying malicious data injections before they affect the model. Privacy attacks against predictive AI models focus on extracting confidential information about the training dataset or the model itself. Attackers may use data reconstruction techniques to infer original training data, membership inference attacks to determine whether specific records were used in training, or model extraction techniques to replicate the AI system’s functionality. These privacy violations pose severe risks to sensitive data, requiring countermeasures such as differential privacy, secure multiparty computation, and federated learning methods that limit exposure to adversarial access. Adversarial Machine Learning Predictive AI taxonomy Generative AI taxonomy Evasion attacks Poisoning attacks Privacy attacks Direct prompt injection attacks AI supply chain attacks Indirect prompt injection attacks <?page no="52"?> 52 Abhishek Singh and Dirk Drechsler The generative AI taxonomy The Generative AI Taxonomy addresses adversarial threats targeting models such as large language models, generative adversarial networks, and diffusion models. Attacks on generative AI occur at various stages, including pretraining, fine-tuning, and inference, and can compromise model availability, privacy, and integrity. One of the major threats in this domain are AI supply chain attacks , which target the data pipeline and training infrastructure of generative models. Poisoning attacks in this context involve manipulating datasets used for pretraining, resulting in biased or compromised models that propagate security vulnerabilities. Mitigating these risks requires data validation mechanisms, provenance tracking, and adversarial training techniques designed to detect and counteract poisoned inputs. Another significant attack method in generative AI is prompt injection , which exploits the model’s reliance on textual input. Direct prompt injection attacks involve adversaries crafting malicious inputs that manipulate the model into revealing sensitive data or generating harmful content. Indirect prompt injection , on the other hand, involves external sources such as websites or documents that deceive the model into producing unauthorized responses. These attacks can lead to misinformation propagation, data breaches, and model misuse. Defending against prompt injection requires implementing strong input sanitization measures, refining models with adversarially aware training datasets, and deploying guardrails that restrict the model’s capacity to process harmful inputs. Generative AI models also face risks related to privacy and integrity violations. Attackers may attempt to extract private training data by leveraging model queries, enabling them to reconstruct original training inputs. Abuse violations represent another major concern, where generative AI systems are exploited to create disinformation, deepfake content, or toxic outputs. Addressing these issues demands content filtering mechanisms, the application of differential privacy, and the deployment of watermarking techniques to track and authenticate AI-generated content. The relationship between adversarial ML attacks and AI-based CTI The NIST taxonomy provides a structured classification of attacks on predictive and generative AI models, offering a comprehensive framework for understanding adversarial threats and their countermeasures. While predictive AI attacks focus on evasion, poisoning, and privacy breaches, generative AI threats include supply chain risks, prompt injection attacks, and content manipulation. Both areas require robust defenses, including secure training pipelines, enhanced privacy-preserving techniques, and continuous model monitoring to mitigate evolving adversarial threats. AML attacks and AI-based CTI are interconnected in the broader context of cybersecurity, as AI-driven systems increasingly become both AML targets and defenders in CTI cyber operations. AML attacks exploit vulnerabilities in machine learning models, aiming to degrade their performance, manipulate their outputs, or extract sensitive information. AI-based CTI, on the other hand, utilizes artificial intelligence to detect, analyze, and mitigate cyber threats, including AML attacks. This relationship establishes a dynamic interaction where adversaries continuously evolve their attack methods, while AI-powered adapts to counter them. <?page no="53"?> 1.3 From strategic foresight to cyber threat intelligence in the age of AI 53 AML attacks can be classified as evasion, poisoning, and privacy attacks, each posing unique challenges to AI-based CTI systems. Evasion attacks generate adversarial examples that deceive machine learning models by introducing imperceptible perturbations in input data, leading to incorrect classifications. Such attacks can undermine AI-driven Intrusion Detection Systems (IDS), malware classifiers, and fraud detection models, causing them to fail in recognizing threats. Poisoning attacks, which occur during the training phase, manipulate datasets to introduce biases or vulnerabilities, affecting the model’s integrity. For AI-based CTI, this means that adversarial actors can influence threat detection models, making them less effective at identifying emerging threats. Privacy attacks, including membership inference and model extraction, allow adversaries to uncover confidential training data or replicate AI models, which can be used to reverse-engineer security systems or refine more sophisticated attacks. AI-based CTI plays a critical role in mitigating AML attacks by leveraging advanced analytics, real-time monitoring, and automated response mechanisms. Machine learning models trained on vast cybersecurity datasets can detect adversarial patterns in network traffic, malware signatures, and system behaviors, helping organizations stay ahead of evolving threats. Techniques such as adversarial training, which exposes AI models to adversarial examples during training, improve robustness against evasion attacks. Differential privacy mechanisms and secure multiparty computation safeguard AI models from privacy attacks by limiting the exposure of sensitive data. AI-driven anomaly detection can also identify poisoning attempts by monitoring data integrity and recognizing suspicious modifications to training datasets. Ultimately, the relationship between AML attacks and AI-based CTI highlights the need for resilient AI security strategies. Organizations must invest in adversarially robust machine learning, continuous threat intelligence updates, and hybrid security approaches that combine AI-driven automation with human CTI expertise. As adversarial techniques become more sophisticated, AI-based CTI will play an increasingly vital role in ensuring the integrity, confidentiality, and availability of AI-powered security systems (Stanham 2025; Hadley 2024; Bokun 2024; Zvelo 2023; Fowler 2025; Musser 2023). 1.3.8 AI-tools used by threat actors The integration into cyber operations has significantly transformed both AI offensive and defensive strategies within the cybersecurity landscape. Threat actors are increasingly leveraging AI tools to enhance the sophistication and scale of their attacks, while AI-based systems are evolving to detect and counter these CTI advanced threats. Cyber criminals are adopting AI to automate and refine various aspects of their malicious activities (Medlock 2024; Olney 2025):  Phishing and Social Engineering : AI-driven models can analyze vast datasets to craft highly personalized and convincing phishing emails, increasing the likelihood of deceiving recipients. These AI-generated messages can mimic writing styles and contextual relevance, making them more deceptive than traditional phishing attempts. <?page no="54"?> 54 Abhishek Singh and Dirk Drechsler  Malware Development : AI enables the creation of adaptive malware capable of evading traditional detection mechanisms. By employing machine learning algorithms, malware can modify its code to bypass security filters, making it more resilient against standard cybersecurity defenses.  Disinformation Campaigns : State-sponsored actors have utilized AI to generate and disseminate propaganda. For instance, OpenAI identified Chinese influence operations that employed AI tools to produce anti-American content in multiple languages, aiming to sway public opinion in various regions.  Automated Vulnerability Scanning : AI-powered tools can autonomously scan networks to identify potenzial vulnerabilities, enabling threat actors to exploit security gaps more efficiently and at a larger scale than manual methods would allow. Threat actors are increasingly leveraging AI-driven tools to enhance the sophistication and scale of their cyberattacks. There are several notable AI-based tools utilized by cyber criminals:  WormGPT − WormGPT is an AI model developed by cyber criminals as a malicious counterpart to OpenAI's ChatGPT. Designed without ethical constraints, it enables users to generate persuasive phishing emails, malicious code, and other illicit content. Built upon the GPT-J language model, WormGPT offers features like unlimited character support and code formatting capabilities, making it a versatile tool for executing Business Email Compromise (BEC) attacks and crafting undetectable malware (Cyble 2024).  PentestGPT − PentestGPT is an AI-powered penetration testing tool that assists security professionals in identifying vulnerabilities within systems and networks. Leveraging large language models, it automates various aspects of penetration testing, including reconnaissance, vulnerability scanning, and exploitation. While designed for ethical use, there is potential for misuse by threat actors to discover and exploit security weaknesses in target systems (Balaji 2024).  ChaosGPT − ChaosGPT is an AI language model variant that has been manipulated to generate harmful or malicious content. By employing specific jailbreak prompts, users can bypass the model's ethical safeguards, enabling the creation of content that would typically be restricted. This tool exemplifies how AI models can be exploited to produce undesirable outputs when protective measures are circumvented (Kelley 2024).  Jailbreak GPT − Jailbreak GPT refers to methods and tools designed to bypass the built-in safety features of AI language models like ChatGPT. By using specially crafted prompts, users can manipulate the model into producing content that it would normally restrict, such as instructions for illegal activities or harmful content. This practice raises significant ethical and security concerns, as it enables the misuse of AI technologies for malicious purposes (Kelley 2024). <?page no="55"?> 1.3 From strategic foresight to cyber threat intelligence in the age of AI 55 The emergence and utilization of these AI-driven tools by threat actors underscore the dual-use nature of artificial intelligence in cybersecurity. While these technologies offer significant benefits for defense, they also present new challenges, as malicious entities can harness them to enhance the effectiveness and efficiency of their attacks. 1.3.9 The challenges, limitations and future of AI-based CTI AI-based CTI has revolutionized the field of cybersecurity by automating threat detection, analysis, and response. However, it also faces several challenges and limitations, and its future holds both promise and complexity.  Challenges of AI-based CTI (BlackBox 2024; Web Asha Technologies 2025) − Data Privacy Concerns: AI systems require access to large datasets to function effectively. This raises concerns about data security, regulatory compliance, and ethical AI usage. − AI Bias and False Negatives: AI models can be biased based on the data they are trained on, leading to false negatives where actual threats are not detected. − High Implementation Costs: Developing and maintaining AI-based CTI systems can be expensive, requiring significant investment in technology and skilled personnel. − Need for Human Oversight: Despite advancements in AI, human expertise is still essential to interpret AI findings and make critical decisions . − Integration with Existing Systems: Integrating AI-based CTI with existing cybersecurity infrastructure can be challenging, requiring compatibility and interoperability.  Limitations of AI-based CTI (Web Asha Technologies 2025; Alevizos and Dekker 2024) − Quality of Threat Feeds: T he effectiveness of AI-based CTI depends on the quality of threat feeds and events. Inconsistent or low-quality data can lead to unreliable threat analysis. − High False Alarm Rates: AI-based intrusion detection systems often suffer from high false alarm rates, which can overwhelm security teams and reduce the system's overall effectiveness. − Lack of Standards: The absence of standardized approaches and methodologies in AI-based CTI can lead to fragmented and inconsistent threat intelligence. − Algorithmic Transparency: Ensuring transparency in AI algorithms is crucial for trust and accountability. However, many AI models operate as “black boxes” , making it difficult to understand their decision-making processes .  Future of AI-based CTI (Guarascio and Manco 2021; Balantrapu 2024) − Predictive Threat Intelligence: AI will increasingly be used to predict cyber threats before they materialize, enabling proactive defense strategies. − Enhanced Real-Time Monitoring: AI-driven systems will continue to improve real-time monitoring capabilities, detecting threats instantaneously and reducing response times. − Advanced AI Models: The development of more sophisticated AI models will enhance the accuracy and reliability of threat detection and analysis. <?page no="56"?> 56 Abhishek Singh and Dirk Drechsler − Human-AI Collaboration: The future will see a greater emphasis on collaboration between AI systems and human experts, leveraging the strengths of both to enhance cybersecurity. − Ethical AI Practices: There will be a growing focus on developing ethical AI practices, ensuring data privacy, algorithmic transparency, and reducing biases in AI models. In summary, while AI-based CTI faces several challenges and limitations, its future holds significant potenzial for transforming cybersecurity practices. By addressing these challenges and leveraging advancements in AI technology, organizations can enhance their ability to detect, prevent, and respond to cyber threats effectively. 1.3.10 Conclusion The advent of AI in cybersecurity marks a significant departure from traditional defense strategies. No longer is security merely about responding to threats as they emerge; instead, organizations must anticipate and counteract cyber risks in real time. AI-driven cybersecurity tools offer unprecedented capabilities, rapid data analysis, anomaly detection, and predictive threat modeling that empower organizations to stay ahead of increasingly sophisticated cyber adversaries. However, this transformation also introduces a fundamental challenge: AI is not only a tool for defense but also a weapon for attackers . Cyber criminals are leveraging AI to automate attacks, enhance deception tactics, and exploit vulnerabilities at an unprecedented scale. From AI-generated phishing campaigns to deepfake-driven fraud, the threats are evolving in complexity, making traditional security measures insufficient. This chapter examined the role of CTI in mitigating these risks, highlighting how AI can enhance tactical, operational, and strategic threat detection. The structured CTI framework provides a roadmap for organizations to interpret, anticipate, and respond to emerging threats. Furthermore, discussions on policy initiatives, such as the EU Cyber Solidarity Act, underscore the growing importance of collaborative cybersecurity efforts on a global scale. Ultimately to conclude, the future of cybersecurity will be shaped not only by technological innovation, but by the ability of organizations and policymakers to harness AI responsibly. As digital threats become more dynamic and unpredictable, the capacity to integrate AI into a well-defined cybersecurity strategy while mitigating its potential misuse will define success in the years to come. The challenge is clear: in a world where AI reshapes both security and risk, adaptation is not optional, it is imperative . <?page no="57"?> 1.3 From strategic foresight to cyber threat intelligence in the age of AI 57 Bibliography Adner, R. (2017). Ecosystem as structure: An actionable construct for strategy. Journal of Management, 43(1), 39-58. Ahmetoglu, H., & Das, R. (2022). A comprehensive review on detection of cyberattacks. Internet of Things, 20, 100615. https: / / www.sciencedirect.com/ science/ article/ pii/ S254266052200097X? via%3Dihub. Accessed at 27 th February 2025 Alevizos, L., & Dekker, M. (2024). Towards an AI-enhanced cyber threat intelligence processing pipeline. Electronics, 13(11). Anderson, J. (1997). Technology foresight for competitive advantage. Long Range Planning, 30(5), 665-677. Balaji (2024). PentestGPT - A ChatGPT powered automated penetration testing tool. https: / / gbhackers.com/ pentestgpt/ . Accessed at 27 th February 2025 Balantrapu, S.S. (2024). AI for predictive cyber threat intelligence. International Journal of Management, Economics and Social Sciences, 7(7). https: / / ijsdcs.com/ index.php/ IJMESD/ article/ view/ 590/ 228. Accessed at 27 th February 2025 Becker, P. (2003). Corporate foresight in Europe: A first overview. Working Paper. European Commission/ Community Research. https: / / forschungsnetzwerk.ams.at/ dam/ jcr: e7ec6cc4-6d26-40de-9af8-f3815e313347/ 2003_st_corpor ate_foresight_040109.pdf. Accessed at 28 th February 2025 Bishop, C.M. (2006). Pattern recognition and machine learning. Springer. BlackBox (2024). Predictive threat intelligence - Predictions for 2025: The Future of CTI. https: / / news.backbox.org/ 2024/ 12/ 23/ predictive-threat-intelligence-predictions-for-2025-the-future-of-cti/ ? form=MG0AV3. Accessed at 27 th February 2025 Bokun, I. (2024). AI security threats: How attackers exploit artificial intelligence. https: / / www.quickstart.com/ blog/ cyber-security/ ai-security-threats-how-attakkers-exploit-artificial-intelligence/ . Accessed at 27 th February 2025 Coates, V., Farooque, M., Klavans, R., Lapid, K., Linstone, H.A., Pistorius, C., & Porter, A.L. (2001). On the future of technological forecasting. Technological Forecasting and Social Change, 67, 1-17. Curry, A., & Hodgson, A. (2008). Seeing in multiple horizons: Connecting futures to strategy. Journal of Futures Studies, 13(1), 1-20. Cyble (2024). Is WormGPT the latest black hat AI tool? Here is the definitive Worm- GPT FAQ sheet. https: / / thecyberexpress.com/ worm-gpt-new-black-hat-ai-toolcrimeware/ . Accessed at 27 th February 2025 de Jouvenel, H. (2019). Futuribles: Origins, philosophy, and practices - anticipation for action. World Futures Review, 11(1), 8-18. Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of deep bidirectional transformers for language understanding. https: / / arxiv.org/ pdf/ 1810.04805. Accessed at 27 th February 2025 Flashpoint (2021). The five phases of the threat intelligence lifecycle. https: / / flashpoint.io/ blog/ threat-intelligence-lifecycle/ . Accessed at 27 th February 2025 <?page no="58"?> https: / / flashpoint.io/ blog/ three-types-of-threat-intelligence/ . Accessed at 27 th February 2025 Fowler, G. (2025). AI and cyber threat intelligence: an overview. https: / / www.gsdvs.com/ post/ ai-and-cyber-threat-intelligence-an-overview. Accessed at 27 th February 2025. Fried, I. (2025). OpenAI finds new chinese influence campaigns using its tools. https: / / www.axios.com/ 2025/ 02/ 21/ openai-chinese-influence-campaigns. Accessed at 27 th February 202 Ganesan, R. (2025). AI powered cyber attacks (examples) every business should know. https: / / binaryit.com.au/ ai-powered-cyber-attacks-examples-every-business-should-know/ . Accessed at 27 th February 2025 Géron, A. (2019). Hands-on machine learning with scikit-learn, keras, and tensorflow. O'Reilly Media. https: / / learning.oreilly.com/ library/ view/ hands-on-machine-learning/ 9781492032632/ ? form=MG0AV3. Accessed at 27 th February 2025 Goss, A. (2024). The cyber threat intelligence lifecycle: A fundamental model. https: / / kravensecurity.com/ the-threat-intelligence-lifecycle/ . Accessed at 27 th February 2025 Gourley, B. (2018). Security intelligence at the strategic, operational and tactical levels. https: / / securityintelligence.com/ security-intelligence-at-the-strategic-operational-and-tactical-levels/ . Accessed at 27 th February 2025 Guarascio, M., & Manco, G. (2021). The CTI landscape: Limitations and opportunities. https: / / cybersec4europe.eu/ the-cti-landscape-limitations-and-opportunities/ ? form=MG0AV3. Accessed at 27 th February 2025 Hadley, R. (2024). Navigating the future of artificial intelligence and cybersecurity. https: / / www.mmmlaw.com/ news-resources/ navigating-the-future-of-artificialintelligence-and-cybersecurity/ . Accessed at 27 th February 2025 Jongman, R. (2023). The CTI process hyperloop: A practical implementation of the CTI process lifecycle. https: / / cloud.google.com/ blog/ topics/ threat-intelligence/ cti-process-hyperloop/ ? hl=en. Accessed at 27 th February 2025 Karlsen, J.E., & Karlsen, H. (2013). Classification of tools and approaches applicable in foresight studies. In M. Giaoutzi & B. Sapio (Hrsg.), Recent developments in foresight methodologies (S. 27-52), Complex Networks and Dynamic Systems 1. Springer. Kelley, D. (2024). 5 ChatGPT jailbreak prompts being used by cybercriminals. https: / / abnormalsecurity.com/ blog/ chatgpt-jailbreak-prompts. Accessed at 27 th February 2025 Lecun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444. https: / / www.nature.com/ articles/ nature14539? form=MG0AV3. Accessed at 27 th February 2025 McCann, K. (2024). Friend & Foe: AI’s position in threat intelligence. https: / / cybermagazine.com/ articles/ friend-foe-ais-position-in-threat-intelligence. Accessed at 27 th February 2025 58 Abhishek Singh and Dirk Drechsler Flashpoint (2022). The three types of threat intelligence: defined and explained. <?page no="59"?> 1.3 From strategic foresight to cyber threat intelligence in the age of AI 59 Medlock, B. (2024). The dark side: How threat actors are using AI. https: / / www.connectwise.com/ blog/ cybersecurity/ the-dark-side-how-threat-actors-are-using-ai. Accessed at 27 th February 2025 Minkkinen, M. (2020). Theories in futures studies: Examining the theory base of the futures field in light of survey results. World Futures Review, 12(1), 12-25. Mnih, V., Kavukcuoglu, K., Silver, D., Rusu, A.A., Veness, J., Bellemare, M.G., Graves, A., Riedmiller, M., Fidjeland, A.K., Ostrovski, G., Petersen, S., Beattie, C., Sadik, A., Antonoglou, I., King, H., Kumaran, D., Wierstra, D., Legg, S., & Hassabis, D. (2015). Human-level control through deep reinforcement learning. Nature, 518(7540), 529-533. https: / / www.nature.com/ articles/ nature14236? form=MG0AV3. Accessed at 27 th February 2025 Musser, M. (2023). Adversarial machine learning and cybersecurity risks, challenges, and legal implications. https: / / cset.georgetown.edu/ publication/ adversarialmachine-learning-and-cybersecurity/ . Accessed at 27 th February 2025 Olney, M. (2025). How attackers are using AI to supercharge cyber threats. https: / / insights.integrity360.com/ how-attackers-are-using-ai-to-supercharge-cyberthreats. Accessed at 27 th February 2025 Padburg, P. (2020). An overview of the horizons foresight method: Using the “inner game” of foresight to build system-based scenarios. World Futures Review, 12(2), 249-258. Paloalto Networks (2025). What is the threat intelligence lifecycle? https: / / www.paloaltonetworks.com/ cyberpedia/ what-is-the-threat-intelligencelife-cycle. Accessed at 27 th February 2025 Rohrbeck, R., Arnold, H.M., & Heuser, J. (2007). Strategic foresight in multinational enterprises - a case study on the Deutsche Telekom laboratories. ISPIM - Asia Conference, New Dehli. https: / / mpra.ub.uni-muenchen.de/ 5700/ 1/ Rohrbeck_Arnold_Heuer_2007_Strategic-Foresight_Paper.pdf. Accessed at 28 th February 2025 Samtani, S., Li, W., Benjamin, V., & Chen, H. (2021). Informing cyber threat intelligence through dark web situational awareness: The AZSecure hacker assets portal. Digital Threats: Research and Practice, 2(4), 27. Sardar, Z. (2010). The namesake: Futures, futures studies, futurology, futuristic - what’s in a name? Futures, 42, 177-184. Schmidt, R. M. (2019). Recurrent neural networks (RNNs): A gentle introduction and overview. https: / / arxiv.org/ pdf/ 1912.05911. Accessed at 27 th February 2025 SOC CSIRT (2025). AI-powered dark web monitoring: The future of cyber threat detection. https: / / www.socinvestigation.com/ ai-powered-dark-web-monitoringthe-future-of-cyber-threat-detection/ ? form=MG0AV3. Accessed at 27 th February 2025 Stanham, L. (2025). AI-powered cyberattacks. https: / / www.crowdstrike.com/ en-us/ cybersecurity-101/ cyberattacks/ ai-powered-cyberattacks/ . Accessed at 27 th February 2025 Stupp, C. (2024). Hotels and travel firms battle AI phone scams. https: / / www.wsj.com/ articles/ hotels-and-travel-firms-battle-ai-phone-scams- 274cc3da. Accessed at 27 th February 2025 <?page no="60"?> analysis: Toward integration of the field and new methods. Technological Forecasting & Social Change, 71, 287-303. Tuomi, I. (2019). Chronotopes of foresight: Models of time-space in probabilistic, possibilistic and constructivist futures. Futures & Foresight Science, 1(2). Vassilev, A., Oprea, A., Fordyce, A., & Anderson, H. (2024). Adversarial machine learning: A taxonomy and terminology of attacks and mitigations. NIST Artifcial Intelligence (AI) Report, NIST Trustworthy and Responsible AI NIST AI 100- 2e2023. https: / / doi.org/ 10.6028/ NIST.AI.100-2e2023. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, L., & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30, 5998-6008. https: / / arxiv.org/ pdf/ 1706.03762. Accessed at 27 th February 2025 Web Asha Technologies (2025). How AI is transforming cyber threat intelligence. A new era of automated security and threat detection. https: / / www.webasha.com/ blog/ how-ai-is-transforming-cyber-threat-intelligence-a-new-era-of-automatedsecurity-and-threat-detection? form=MG0AV3. Accessed at 27 th February 2025 World Economic Forum/ WEF (2025). Global cybersecurity outlook 2025. https: / / reports.weforum.org/ docs/ WEF_Global_Cybersecurity_Outlook_2025.pdf. Accessed at 28 th February 2025 Zvelo (2021). The strategic, operational, & tactical levels of cyber threat intelligence. https: / / zvelo.com/ strategic-operational-tactical-cyber-threat-intelligence/ . Accessed at 27 th February 2025 Zvelo (2023). AI and machine learning in cybersecurity. https: / / zvelo.com/ ai-andmachine-learning-in-cybersecurity/ . Accessed at 27 th February 2025 60 Abhishek Singh and Dirk Drechsler Taleb, N.N. (2008). The black swan. Penguin. Technology Futures Analysis Methods Working Group (2003). Technology futures <?page no="61"?> 1.4 GraphRAG für transparente KI Alexander Busse Zusammenfassung GraphRAG, eine moderne Weiterentwicklung von RAG, kombiniert strukturiertes Wissen in Graphform mit Sprachmodellen. Deutsche Unternehmen profitieren von dieser Herangehensweise, weil Transparenz, Nachvollziehbarkeit und Compliance gefördert werden. Auch im Zusammenhang mit stark regulierten Branchen ist GraphRAG durch seine graphbasierten Beziehungen besonders geeignet. Der vorliegende Fachbeitrag beleuchtet Hintergründe, zeigt branchenspezifische Anwendungen und verdeutlicht, weshalb die Synergie aus Graph und Sprachmodellierung für viele Organisationen sehr überzeugend sein kann. Keywords: GraphRAG, Transparenz, Compliance, Wissensgraphen 1.4.1 Einleitung Unternehmen stehen oft vor der Frage, wie sie akribisch geprüfte Informationen innerhalb von KI-Anwendungen einsetzen können, ohne intransparente oder unkontrollierbare Lösungen zu riskieren. RAG, also Retrieval Augmented Generation, adressiert genau dieses Problem (vgl. Weber und Windisch 2024; Pure Storage 2025). Dabei greift ein Sprachmodell nicht ausschließlich auf sein trainiertes Vorwissen zurück, sondern zieht zusätzlich externe Datenbanken oder Dokumentensammlungen heran. Klassische RAG-Umgebungen verwenden in der Regel Vektordatenbanken, um Texte zu durchsuchen und kontextrelevante Textausschnitte zu liefern (vgl. Mendix 2025; Vectara 2023). Das Prinzip funktioniert gut, doch herrscht häufig eine gewisse Undurchsichtigkeit: Die genaue Quelle eines bestimmten Inhalts wird oft nur in Form von Textchunks angegeben. Gerade in Deutschland, mit seinen strengen Datenschutz- und Sicherheitsvorgaben, müssen Unternehmen Lösungen finden, die zugleich transparent, nachvollziehbar und wirtschaftlich sind (vgl. BaFin 2024). In vielen Fällen sind Organisationen gesetzlich verpflichtet, Datenflüsse zu dokumentieren und Entscheidungsschritte zu erklären. Werden KI-Systeme ohne geeignete Kontrollmechanismen eingeführt, stellt dies ein erhebliches Risiko dar. Denn wer einem Sprachmodell nicht trauen kann oder nicht nachvollziehen kann, wie es seine Antworten erzeugt, gerät rasch in Konflikt mit regulatorischen Instanzen. Aus dieser Ausgangssituation heraus gewinnen graphbasierte Formen von RAG, also GraphRAG, immer mehr an Bedeutung. Das Grundprinzip von GraphRAG besteht darin, Wissensbestände nicht bloß als lose Sammlung von Texten zu führen, sondern als Netzwerk verknüpfter Entitäten und Relationen. Dieses Netzwerk erlaubt es, komplexe Querverweise akribisch abzubilden und Zusammenhänge nuanciert darzustellen. Wenn etwa ein Unternehmen unterschiedliche Dokumente verwaltet, kann ein Graph diese Dokumente über bestimmte Knoten miteinander verbinden, wodurch sich automatisch ein leichter zu wartendes System ergibt. <?page no="62"?> 62 Alexander Busse Unternehmen im deutschen Mittelstand sind durch Faktoren wie DSGVO, NIS2 und DORA-Verordnungen darauf angewiesen, ständig den Überblick über ihre Datenflüsse zu behalten. Sie stehen häufig auch vor der Herausforderung, KI-Initiativen ohne riesige Budgets zu realisieren. Die Haltung „ Wir bauen ein eigenes riesiges Sprachmodell und trainieren es mit allen Firmendaten “ ist nicht nur kostspielig, sondern birgt außerdem das Risiko, dass sich die regulatorischen Anforderungen im Laufe der Zeit ändern und das teure Projekt dann kaum noch anpassbar ist. GraphRAG punktet hier durch Kosteneffizienz und Wartbarkeit (vgl. Wezel und Badalyan 2024). Ein solches System benötigt kein vollständiges Pre-Training wie bei GPT-3 oder GPT-4, sondern bindet vorliegende Wissensquellen einfach an. Man kann auf existierende open source Modelle zurückgreifen und in der Praxis nur den Knowledge Graph kontinuierlich aktualisieren. Dieser Aspekt macht GraphRAG sehr anpassungsfähig. Zudem kommt die Frage der Datenhoheit ins Spiel. Zahlreiche deutsche Unternehmen möchten sensible Informationen nicht auf fremde Cloud-Umgebungen hochladen, wo ungeklärte Fragen zu Standort und Eigentum der Daten entstehen könnten (vgl. Localmind 2025). GraphRAG kann selbstverständlich auch On Premise betrieben werden, was eine vollständige Kontrolle über alle relevanten Daten erlaubt. Das System bleibt so konform zu internen Sicherheitsrichtlinien und kann sicherstellen, dass personenbezogene oder unternehmenskritische Datensätze nicht an Drittanbieter gelangen. Während dieses Beitrags wird nun schrittweise dargestellt, wie GraphRAG funktioniert, wie es sich von klassischem RAG unterscheidet und warum es gerade für deutsche Unternehmen mit hohem Bedarf an Datenschutz und Compliance eine überzeugende Entscheidung sein kann. Schritt für Schritt folgt ein umfassender Überblick über regulatorische Anforderungen, technische Grundlagen, Kostenaspekte, Anwendungsfälle und Sicherheitsfragen. Zugleich werden potenzielle Stolpersteine betrachtet, die bei der Implementierung auftreten können, sowie Strategien aufgezeigt, um diese Hindernisse zu enträtseln. Durch die nuanciert aufgebaute Darstellung dieses Themas bekommen Führungskräfte, IT-Entscheidungsverantwortliche und CISOs ein Werkzeug an die Hand, um die oft komplex wirkende KI-Welt besser zu durchdringen. Denn viele scheuen noch vor dem Einsatz generativer KI zurück, da sie Schwierigkeiten in Punkten wie Datenaktualität, Transparenz oder Wartung befürchten. GraphRAG kann diese Befürchtungen zerstreuen, da es nicht nur die Qualität und Nachvollziehbarkeit von Antworten erhöht, sondern auch das Problem wiederkehrender Trainingskosten reduziert. Wer sich intensiver mit KI-Strategien im Unternehmen auseinandersetzt, wird schnell feststellen, dass die reine Anschaffung eines großen Modells nicht ausreicht. Viel wichtiger ist die fortlaufende Anpassung an neue Daten, an sich verändernde Märkte und an neue Regularien. Genau hier entfaltet GraphRAG eine starke Synergie: Es kann vorhandenes Wissen präzise einbinden und laufend aktualisieren, während das Sprachmodell die Sprachebene beisteuert. Dadurch lässt sich ein enormer praktischer Nutzen schaffen, ohne gleichzeitig in einen intransparenten, schwer kontrollierbaren Prozess zu geraten. <?page no="63"?> 1.4 GraphRAG für transparente KI 63 1.4.2 Hintergrund: KI-Anwendungen in deutschen Unternehmen und die Rolle von GraphRAG Aktuelle Herausforderungen für deutsche Organisationen Viele mittelständische Betriebe in Deutschland verfügen zwar über erhebliches Fachwissen, doch häufig ist dieses Wissen über mehrere Abteilungen verstreut oder in Dokumenten verborgen, deren Systematik und Pflege nicht ausreichend gewährleistet werden. Wer eine KI-Plattform betreiben möchte, muss in solchen Fällen zunächst klären, wie die Dateninfrastruktur aussieht, welche Speicherorte relevant sind und welche Fachbereiche eingebunden werden sollen. Eine weitere Hürde ist die Datenschutzlandschaft. Die DSGVO stellt hohe Anforderungen an die Erhebung, Verarbeitung und Speicherung personenbezogener Daten (vgl. BSI 2025). Besonders Organisationen, die in sensiblen Branchen tätig sind, müssen klar belegen können, wie sie Daten nutzen und zu welchen Zwecken. Die NIS2- Richtlinie bringt einen erweiterten Kreis an Unternehmen ins Visier, deren IT-Sicherheit stärker reguliert wird. Hierzu zählen nicht nur klassische Kritische Infrastrukturen, sondern auch Firmen mit besonderer Bedeutung für die öffentliche Versorgung. Die Frage nach Compliance wird also zu einem Dreh- und Angelpunkt, sobald generative KI-Systeme Informationen auswerten. Wenn ein klassisches LLM „ halluziniert “ und bei der Beantwortung einer Frage eine nicht vorhandene Datengrundlage zitiert, kann das schwerwiegende Folgen haben. In regulierten Branchen, etwa dem Finanzsektor oder dem Gesundheitswesen, steht die Organisation dann vor der Aufgabe, zu erklären, auf welcher Grundlage die KI zu ihrer Empfehlung kam. RAG-Systeme versprechen, dieses Manko zu beheben, indem sie ihre Antworten explizit mit Daten verknüpfen. Die klassische Form von RAG holt sich Textfragmente über Vektordatenbanken und integriert sie in einen vom Modell generierten Antwortsatz. Das ist bereits ein Schritt in Richtung Transparenz, hat jedoch Grenzen, wenn die Zusammenhänge tiefgehender Natur sind, also etwa mehrere Entitäten oder Beziehungen betreffen. GraphRAG als evolutionäre Verbesserung GraphRAG geht einen Schritt weiter, indem es nicht nur Vektorrepräsentationen nutzt, sondern den bestehenden Wissenstext in einen Graphen umwandelt (vgl. Hunger 2024). Dort werden wichtige Entitäten, Konzepte oder Kategorien zu Knoten, die miteinander verknüpft sind. Der Vorteil liegt darin, dass sich mehrstufige Beziehungen wesentlich differenzierter darstellen lassen. Anstatt bloß einen ähnlichen Textabschnitt zu finden, kann GraphRAG mithilfe von Graph-Traversal-Algorithmen Pfade durch das vorhandene Fachwissen aufzeigen. Diese graphische Herangehensweise erleichtert im nächsten Schritt die Erklärbarkeit. Wird eine Frage gestellt, dann erfolgt die Antwortfindung auf Basis eines klaren Pfades im Graph. Nutzerinnen und Nutzer können in Erfahrung bringen, welche Knoten durchlaufen wurden, welche Kanten relevant waren und wie die KI auf ihr Ergebnis kam. Das bietet enorme Vorteile bei Audits, die speziell in regulierten Branchen üblich sind. Beispielsweise kann eine Bank dank GraphRAG genau nachvollziehen, welche Kundeninformationen (z. B. Schufa-Einträge oder Einkommensverhältnisse) bei der au- <?page no="64"?> 64 Alexander Busse tomatisierten Kreditentscheidung berücksichtigt wurden (vgl. BaFin 2024). Sollte eine Revision hinterfragen, ob eine Diskriminierung stattfindet, kann man den Entscheidungsweg schnell identifizieren und überprüfen. Kosteneffizienz und Wartbarkeit Kosteneffizienz ist in vielen mittelständischen Betrieben ein entscheidendes Kriterium. Große KI-Projekte wirken oft einschüchternd, vor allem wenn es um das eigene Training eines LLM geht, das Millionen an Budget verschlingt. GraphRAG verfolgt hier einen anderen Ansatz: Das Modell selbst kann ein bereits vortrainiertes Exemplar sein, das nicht von Grund auf neu erstellt werden muss. Stattdessen lädt man dieses Sprachmodell in eine kontrollierte Umgebung und kombiniert es mit einem Knowledge Graph, der die firmeneigenen Daten repräsentiert. Die Wartung gestaltet sich ähnlich vorteilhaft. Änderungen im Knowledge Graph lassen sich gezielt an bestimmten Knoten und Kanten vornehmen, ohne dass das komplette System neu trainiert werden müsste. Zudem kann man bei steigenden Datenvolumina den Graph auf verschiedene Cluster verteilen, was eine stetige Skalierung ohne radikale Systemwechsel ermöglicht. Darüber hinaus ist die Umsetzung eines reinen RAG-Konzepts zwar simpler, aber auf lange Sicht kann die Pflege der Dokumentensammlung umständlich werden. Denn wer ausschließlich Vektorindizes nutzt, muss bei jeder signifikanten Änderung die Dateneinbettung aktualisieren, was Rechenzeit und Ressourcen bindet. In einem Knowledge Graph verteilt man dagegen nur neue Entitäten oder Beziehungen. Regulatorische Aspekte und Transparenz Die EU hat bereits umfangreiche Gesetze verabschiedet, die auf KI-Systeme zielen. Neben der DSGVO spielt hier die NIS2-Richtlinie, das IT-Sicherheitsgesetz 2.0 und DORA für den Finanzsektor eine gewichtige Rolle. Hinzu kommt der EU AI Act, der je nach Risikoklasse unterschiedliche Anforderungen an KI-Systeme stellt. In all diesen Regularien wird gefordert, dass Betreiber von KI-Anwendungen ein hohes Maß an Transparenz bieten. Bei klassischen Blackbox-LLMs ist dies kaum umsetzbar, da man weder die internen Gewichte des Modells noch die genauen Pfade, auf denen das Modell zum Ergebnis kommt, ad hoc erklären kann. Mit GraphRAG lässt sich hingegen genau dokumentieren, welche Wissensquellen in den Graph eingespeist wurden, an welchen Knoten der Algorithmus ansetzt und welche Pfade durchlaufen werden. Diese Dokumentation erlaubt es, bei Anfragen von Aufsichtsbehörden oder bei internen Prüfungen schnell Auskunft zu geben. Auch das Risiko versehentlicher Regelverstöße sinkt, weil man gezielt regeln kann, welche Datenknoten für das Modell zugänglich sind. Zum Beispiel kann ein Unternehmen persönliche Informationen aus bestimmten Teilen des Graphen entfernen, wenn es befürchtet, dass die Nutzung gegen die Datenschutzbestimmungen verstoßen könnte. Zusammenfassung der Kernideen des Hintergrunds Im Hintergrundteil wurde deutlich, dass GraphRAG eine hochgradig anpassbare und transparente Methode darstellt, die auf die Bedürfnisse deutscher Unternehmen mit strengen Compliance-Vorgaben zugeschnitten ist. Klassische RAG-Verfahren stoßen <?page no="65"?> 1.4 GraphRAG für transparente KI 65 in komplexen Domänen, die tiefergehende Beziehungsnetze erfordern, regelmäßig an Grenzen. GraphRAG enträtselt diese Komplexität, indem es das verfügbare Wissen in Graphform strukturiert. Es schlägt zugleich eine Brücke zwischen Datensouveränität und moderner KI-Nutzung, was es zu einer starken Option für vielfältige Branchen macht. 1.4.3 Technische Grundlagen, Anwendungsfelder und organisatorische Einbettung Technische Vorgehensweise bei GraphRAG Ein GraphRAG-System lässt sich in mehrere Schritte unterteilen:  Chunking und Extraktion von Entitäten: Im ersten Schritt werden vorhandene Dokumente in sinnvolle Abschnitte geteilt (Chunking). Dadurch erhält man kompakte Textsegmente, in denen sich Entitäten wie Personen, Produkte oder technische Begriffe erkennen lassen. Mithilfe von NLP-Techniken erfolgt eine Markierung relevanter Konzepte, die später zu Knoten im Knowledge Graph werden (vgl. Pöppel 2022).  Knowledge Graph Konstruktion: Nach der Extraktion von Entitäten und deren Beziehungen werden diese in eine Graphdatenbank eingetragen. Beispiele sind Neo4j oder weitere graphorientierte Datenbanken. Jeder Knoten repräsentiert eine Entität, während die Kanten die Beziehung zwischen den Knoten abbilden (vgl. Kosch 2023; Glenk 2023; Milvus 2025).  Abfrageoptimierung: Wenn eine Frage gestellt wird, durchsucht das System den Graph mithilfe von Graph-Algorithmen. Beispielsweise kann es Pfadberechnungen durchführen, um herauszufinden, wie zwei Knoten miteinander verknüpft sind, oder um in größeren Netzwerkstrukturen relevante Cluster zu finden.  Integration mit dem Sprachmodell: Das KI-Modell nimmt die Ergebnisse der Graphabfrage entgegen und erzeugt eine sprachlich verständliche Antwort. Dabei greift das Modell häufig auf Prompts zurück, die strukturierte Informationen aus dem Graphen enthalten.  Nachvollziehbarkeit und Visualisierung: Weil alle Datenpfade bekannt sind, kann das System bei Bedarf dem Nutzer aufzeigen, welche Knoten und Kanten durchlaufen wurden. Das erhöht nicht nur das Vertrauen, sondern vereinfacht auch die Fehleranalyse. Anwendungsfelder in regulierten Branchen Regulierte Branchen wie Finanzwesen, Gesundheitssektor oder industrielle Fertigung stehen unter besonderer Beobachtung durch Aufsichtsbehörden. Sie müssen nicht nur Entscheidungen auf belastbare Daten stützen, sondern diese Entscheidungen auch jederzeit nachvollziehbar machen. In diesen Umgebungen reichen einfache Dokumentensammlungen oft nicht aus. Hier wird verlangt, dass Zusammenhänge präzise belegt und Datenflüsse vollständig dokumentiert sind. Genau hier setzt GraphRAG an. Die Methode verknüpft Informationen strukturiert in Form eines Graphen, sodass sich Verbindungen, Quellen und Begründungen eindeutig zurückverfolgen lassen. GraphRAG bietet eine klare Antwort auf zentrale Anforderungen dieser Branchen. <?page no="66"?> 66 Alexander Busse Es strukturiert vorhandenes Wissen so, dass es maschinell auswertbar und gleichzeitig erklärbar bleibt. Damit eignet sich GraphRAG besonders für Sektoren mit hohen Anforderungen an Kontrolle, Transparenz und Sicherheit.  Finanzwesen: Banken und Versicherer müssen intensiven Vorgaben der BaFin oder der EZB folgen. GraphRAG kann verschiedene Produkte, Kundeninformationen und regulatorische Vorgaben miteinander koppeln. Dies unterstützt z. B. Risikobewertungen oder Betrugsanalysen.  Gesundheitssektor: Kliniken, Labore oder Forschungseinrichtungen verwalten enorme Datenmengen, etwa Patientenakten, Diagnosen und klinische Studien. Mit GraphRAG lassen sich Behandlungswege klar darstellen und medizinische Entscheidungen nachvollziehbar machen.  Produzierendes Gewerbe: Bei komplexen Anlagen müssen Wartungsdaten, Produktdokumentation und Zuliefererinformationen zusammengeführt werden. Ein Graph kann Abhängigkeiten zwischen Bauteilen und Maschinenpfaden verdeutlichen. Organisatorische Anforderungen und typische Herausforderungen Die Einführung eines GraphRAG-Systems ist nicht allein ein IT-Projekt, sondern benötigt ein Zusammenspiel aus Fachbereichen, Datenschutzbeauftragten und Compliance-Stellen. Zunächst muss geklärt werden, wer Zugriff auf welche Daten hat. Viele Unternehmen besitzen Wissenssilos, die beispielsweise in der F&E-Abteilung anders organisiert sind als in der Produktion.  Interne Widerstände: Gerade in gewachsenen Strukturen lehnen Mitarbeitende teils das Teilen sensiblen Wissens ab, weil sie fürchten, ihre Expertise könnte entwertet werden. Ein Anreizsystem, das aktive Wissensbeiträge positiv bewertet, ist oft hilfreich.  Qualität der vorhandenen Daten: Für ein GraphRAG-System benötigt man sauber strukturierte Informationen. In der Realität liegen Daten jedoch häufig in proprietären Formaten oder fragmentierten Dokumenten vor. Es braucht daher Methoden, um sie in ein einheitliches Schema zu bringen.  Regulatorische Abstimmung: Unternehmen müssen frühzeitig klären, welche Datenarten überhaupt verarbeitet werden dürfen und welche Löschfristen oder Dokumentationspflichten existieren. Eine enge Zusammenarbeit mit den Rechtsabteilungen ist sinnvoll, damit das GraphRAG-Projekt allen Vorgaben gerecht wird. Datenhoheit: On Premise, Cloud oder Hybrid Viele Unternehmen in Deutschland wählen bei KI-Systemen den On-Premise-Weg, weil sie ihre Daten lieber im eigenen Rechenzentrum behalten. Das ist zwar oft sicherer, kann aber höhere Kosten verursachen, wenn Hardware und Personal vorgehalten werden müssen. Ein Cloud-basiertes Modell bietet Skalierungsvorteile, kann jedoch Fragen zum Thema Datenschutz aufwerfen, besonders wenn die Rechenzentren außerhalb der EU liegen. Hybride Ansätze können eine Lösung sein: Kritische Daten bleiben lokal, während umfangreiche Rechenprozesse in einer zertifizierten Cloud-Umgebung laufen. Hierbei lässt sich der Graph so konfigurieren, dass die sensiblen Bereiche abgeschottet <?page no="67"?> 1.4 GraphRAG für transparente KI 67 bleiben und nur unkritische Elemente in die Cloud ausgelagert werden. In jedem Fall benötigen Unternehmen ein klares Konzept für Berechtigung und Zugriffskontrolle, damit nicht versehentlich vertrauliche Inhalte in ungeplante Bereiche gelangen. Spezifische Entwicklungsschritte bei proprietärem Wissen Firmenspezifische Daten haben oft proprietäre Formate, beispielsweise CAD-Systeme in der Fertigung. Eine automatisierte Extraktion kann kompliziert sein, da gängige NLP-Verfahren primär für Fließtext optimiert sind. Bei proprietären Formaten sollten Unternehmen entweder Konverter einsetzen oder Tools entwickeln, die ein standardisiertes Mapping durchführen. Zudem muss sichergestellt sein, dass das System kontinuierlich aktualisiert wird. Proprietäres Wissen ist lebendig: Forschungsabteilungen generieren neue Ergebnisse, interne Richtlinien werden verändert und neue Versionen von Dokumenten entstehen. Ein GraphRAG-System muss daher so angelegt werden, dass neue Entitäten mühelos ergänzt und alte Daten archiviert werden können, ohne das gesamte System in Unordnung zu versetzen. GraphRAG vs. klassisches RAG in der Praxis Stellen wir uns eine Bank vor, die ein klassisches RAG-System nutzt. Kommt eine Anfrage, zum Beispiel zur aktuellen Gesetzeslage bezüglich Kreditausfallversicherungen, dann sucht das System in einer Vektordatenbank nach ähnlichen Textstellen und fügt diese in eine Antwort ein. Das kann funktionieren, wirkt aber schnell inkonsistent, falls die Dokumente an mehreren Stellen unvollständig sind. Mit GraphRAG hingegen könnte eine Bank einen Knoten „Kreditausfallversicherung“ definieren, der Beziehungen zu relevanten Paragraphen, internen Risikomodellen und externen regulatorischen Vorgaben hat. Das System würde exakt erkennen, welche Dokumente miteinander zusammenhängen und könnte eine Antwort generieren, die sämtliche Aspekte in Beziehung setzt. Zugleich ließe sich der Pfad klar darstellen: Man sieht, über welche Knoten das System gegangen ist, um zu einer Aussage zu gelangen. Dieses nuanciert angelegte Vorgehen hilft in vernetzten Domänen, Missverständnisse zu minimieren. Ein klassisches RAG kann zwar punktuell ebenso schnelle Antworten liefern, riskiert jedoch mehr Halluzinationen und verliert sich leichter in oberflächlichen Ähnlichkeiten. 1.4.4 Vertiefende Analysen: Kosten, Transparenz, Compliance und Zukunftsausblick Kostenbetrachtung: Training eines LLM vs. GraphRAG Die Kosten für ein eigenes LLM können schnell Millionen betragen, wenn man von Grund auf ein Modell wie GPT-3 oder GPT-4 trainieren will (vgl. Ohiri und Poole 2024). Der Energie- und Infrastruktureinsatz ist beträchtlich, hinzu kommen Projektteams für Datenbeschaffung und Qualitätssicherung. Feinabstimmungen (Fine-Tuning) sind zwar günstiger, benötigen aber ebenfalls Ressourcen, insbesondere wenn neue Daten in kurzen Abständen eingepflegt werden müssen. GraphRAG hingegen übergibt den größten Teil der Wissensstruktur an den Graph. <?page no="68"?> 68 Alexander Busse Man kann ein bereits existierendes offenes Sprachmodell nutzen und es nur minimal auf den eigenen Use Case anpassen. Sämtliches Fachwissen, das die Organisation besitzt, verknüpft man einfach in der Graphdatenbank. Beim Generieren der Antwort schlägt das System eine Brücke zwischen dem Sprachmodell und den Graphdaten, was sich insgesamt günstiger warten lässt. Wer sehr häufig neue Daten hinzufügt, spart mit GraphRAG ebenfalls viel Zeit und Geld, da die notwendigen Aktualisierungen punktuell auf Knotenebene geschehen. Ein klassisches RAG müsste stets große Dokumentenblöcke neu einbetten, was zeitaufwendig und kostspielig sein kann. Erklärbarkeit und Transparenz als Schlüsselfaktor Ein großer Vorteil von GraphRAG besteht darin, dass die Entscheidungswege offenliegen (vgl. BSI 2025). Dieses Prinzip ist insbesondere in Deutschland relevant, wo Fragen von Haftung und Nachvollziehbarkeit hohe Priorität genießen. So kann ein Versicherer, der mithilfe von GraphRAG eine Schadensprognose erstellt, später exakt erläutern, welche Datensätze herangezogen wurden. Außerdem kommt ein pädagogischer Effekt hinzu: Fachabteilungen verstehen durch die graphische Darstellung ihre eigenen Wissensbestände besser, erkennen Dopplungen oder Lücken im Datenbestand. Wenn sich die Graphenvisualisierung gezielt einbinden lässt, können auch Personen ohne tiefgreifendes IT-Wissen erkennen, wie das System arbeitet und welche Quellen einbezogen werden. Die Erklärbarkeit dient obendrein als Schutz vor Vorwürfen hinsichtlich Diskriminierung oder Verzerrung. Gerade in Bereichen, in denen Fairness essenziell ist (etwa Einstellungstests, Kreditanfragen, medizinische Diagnostik), kann GraphRAG belegen, dass die KI nicht auf verborgene Verzerrungen zurückgreift. Compliance-Strategien mit GraphRAG Unternehmen, die sich an DSGVO, NIS2 und andere Verordnungen halten wollen oder müssen, profitieren von einer flexiblen Architektur. GraphRAG unterstützt dabei, indem bestimmte Knoten als sensibel markiert werden können. Bei Bedarf lassen sich diese Knoten aus Abfragen ausschließen oder mit speziellen Zugriffsbeschränkungen versehen. Zugleich kann man Historien pflegen, sodass ältere Versionen des Graphen archiviert bleiben. So lässt sich rekonstruieren, wie ein Datensatz zu einem bestimmten Zeitpunkt aussah, was für Audits oder Streitfälle im Nachhinein hilfreich ist. Soll beispielsweise belegt werden, dass vor einem Jahr eine interne Richtlinie zum Datenschutz noch nicht existierte, lässt sich über die Graph-Historie zeigen, wie das System damals strukturiert war. Ein weiterer Punkt ist das Risiko von Halluzinationen bei Sprachmodellen (vgl. Hunger 2024). Während sich die KI in einem klassischen RAG-Szenario gelegentlich auf ungeprüfte Dokumente beziehen kann, hält GraphRAG diese Gefahr deutlich geringer. Denn sobald das Modell nur Zugriff auf strukturierte, verifizierte Knoten erhält, sinkt die Wahrscheinlichkeit, dass es Fantasieinhalte einbaut. <?page no="69"?> 1.4 GraphRAG für transparente KI 69 Praxisbeispiel: Mittelständisches Unternehmen mit proprietärem Wissensbestand Angenommen, ein mittelständischer Maschinenbauer hat eine Vielzahl an Konstruktionsplänen, Wartungsprotokollen, Zuliefererinformationen und regulatorischen Vorschriften gesammelt (vgl. Wezel und Badalyan 2024). Diese Dokumente liegen teils in CAD-Systemen, teils in internen PDF-Dateien vor. In einem ersten Schritt wird das vorhandene Wissen mittels automatisierter und manueller Verfahren aufbereitet. Dazu gehört die Extraktion von Bauteilbezeichnungen, Kompatibilitätsangaben und Wartungszyklen. Die gesammelten Informationen fließen in einen Graph, wobei jede Bauteilart als Knoten erscheint, verknüpft mit Beziehungen zu sonstigen Knoten, zum Beispiel zur Materialspezifikation. Stellt jemand eine Frage wie „Welche Teile neigen in Kombination mit Legierung XY zu frühzeitigem Verschleiß? “, kann GraphRAG den Weg über die Knoten gehen, die diese Legierung mit bestimmten Produkten verbinden. Gleichzeitig liefert das Sprachmodell eine fließende Antwort, die hinterher auf Wunsch im Detail nachvollzogen werden kann. Dieses Verfahren ist überzeugend, weil es exakt aufzeigt, welche Wartungsdaten aus welcher Abteilung stammen und wie das System zu seiner Einschätzung kommt. Hätte das Unternehmen stattdessen eine klassische RAG-Lösung gewählt, müsste es hoffen, dass der Vektormatcher ähnliche Textpassagen findet. Doch wenn diese über mehrere Dokumente verteilt sind, bestünde das Risiko, unvollständige oder veraltete Angaben zu erhalten. Ein GraphRAG-System dagegen hält die Informationen akribisch miteinander verbunden. Zukunftsaussichten: GraphRAG als Fundament transparenter KI Da der Trend zu KI-Anwendungen stark zunimmt, ist es nur folgerichtig, dass Transparenz, Erklärbarkeit und Sicherheit an Bedeutung gewinnen. Nicht nur Behörden, sondern auch Endnutzer erwarten, dass KI-Entscheidungen offengelegt werden können. GraphRAG könnte sich als De-facto-Standard in allen Branchen etablieren, in denen komplexe Zusammenhänge und strikte Regulierung aufeinandertreffen. Auch die fortschreitende Vernetzung von Unternehmen spricht für graphbasierte Ansätze. Immer mehr Firmen gehen Partnerschaften ein, teilen Daten oder nutzen gemeinsame Plattformen. Ein gemeinsamer Knowledge Graph, in dem Partner nur für sie relevante Knoten einsehen dürfen, erlaubt eine differenzierte Informationssteuerung. Wer über Zugriff verfügt, erkennt die relevanten Bausteine, ohne dass sensible Informationen an Unbefugte geraten. Letztlich wird die technische Weiterentwicklung vermutlich dazu führen, dass GraphRAG noch effizienter wird. Neue Frameworks und Algorithmen für Graph Traversal, Entity Linking und Visualisierung können das Handling enorm vereinfachen. Ebenso werden LLMs weiter reifen und noch passgenauer mit externen Datenquellen interagieren. <?page no="70"?> 70 Alexander Busse 1.4.5 Fazit Die vorgestellten Ausführungen haben gezeigt, dass GraphRAG weit mehr ist als ein kurzlebiger Trend (vgl. Fraunhofer IPK 2025). In einem Wirtschaftsumfeld, das angesichts gesetzlicher Vorgaben streng auf Datenhoheit, Compliance und Risikomanagement fokussiert ist, liefert GraphRAG entscheidende Vorteile. Es bindet externe Wissensbestände nicht nur oberflächlich an, sondern ordnet sie in einem vernetzten Strukturmodell. Wer sich für GraphRAG interessiert, sollte im Vorfeld mehrere Aspekte klären: Wie umfangreich ist der vorhandene Datenbestand, und in welchem Zustand liegen die Informationen vor? Welche Datenschutz- und Sicherheitsvorgaben muss das Unternehmen beachten? Welche internen Fachleute können helfen, ein strukturiertes Wissensnetz aufzubauen? Die Praxisbeispiele verdeutlichen, wie flexibel diese Technologie eingesetzt werden kann. Ob Finanzaufsicht, Gesundheitsbranche oder produzierende Industrien, in all diesen Feldern existieren anspruchsvolle Fragestellungen, die einen transparenten und nachvollziehbaren KI-Einsatz verlangen. GraphRAG macht es möglich, solche Komplexität zu enträtseln, indem es semantische Zusammenhänge im Knowledge Graph abbildet. Gerade für deutsche Unternehmen, die einerseits mit begrenztem Budget umgehen müssen und andererseits starken Datenschutz- und Compliance-Anforderungen begegnen, bietet GraphRAG eine zielführende Herangehensweise. Die Abhängigkeit von proprietären Modellen verringert sich, und die Datenkontrolle bleibt beim Unternehmen selbst. Der zentrale Nutzen ist schließlich ein System, das Informationen nuanciert, nachvollziehbar und kostengünstig verarbeitet. Es bleibt abzuwarten, wie sich GraphRAG im größeren internationalen Vergleich etabliert. Doch angesichts der Tendenz zu mehr Regularien und Transparenzverpflichtungen scheint es sehr wahrscheinlich, dass graphbasierte Verfahren sich durchsetzen werden. Führungskräfte und IT-Verantwortliche sollten diese Technologie im Blick behalten, zumal sie nicht nur überragende Effizienz in der Datenverarbeitung bietet, sondern auch einen überzeugenden Beitrag zu Compliance und Datensouveränität leistet. Literatur BSI (2025). Whitepaper zur Erklärbarkeit und Nachvollziehbarkeit in KI-Systemen. https: / / www.bsi.bund.de/ DE/ Service-Navi/ Presse/ Alle-Meldungen-News/ Meldungen/ Whitepaper_Erklaerbarkeit_KI_250106.html. Zugegriffen am 16. April 2025 Bundesanstalt für Finanzdienstleistungsaufsicht/ BaFin (2024). Digitalisierung: Chancen nutzen - Risiken steuern. https: / / www.bafin.de/ DE/ Aufsicht/ Fokusrisiken/ Fokusrisiken_2025/ RIF_Trend_1_Digitalisierung/ RIF_Trend_1_Digitalisierung_node.html. Zugegriffen am 16. April 2025 Fraunhofer IPK (2025). Studie »Zukunft der unternehmensübergreifenden Kollaboration«. https: / / www.ipk.fraunhofer.de/ de/ medien/ markt-trendstudien/ zukunftder-unternehmensuebergreifenden-kollaboration.html. Zugegriffen am 16. April 2025 <?page no="71"?> 1.4 GraphRAG für transparente KI 71 Glenk, S. (2023). Knowledge Graphs - Der Traum vom vernetzten Wissen. https: / / news.sap.com/ germany/ 2023/ 05/ knowledge-graphs-vernetztes-wissen/ . Zugegriffen am 23. April 2025. Hunger, M. (2024). What Is GraphRAG ? https: / / neo4j.com/ blog/ genai/ what-isgraphrag/ . Zugegriffen am 16. April 2025 Kosch, A. (2023). Knowledge Graph: Definition und Anwendungsfälle im SEO. https: / / koschklinkperformance.de/ wiki/ knowledge-graph/ . Zugegriffen am 23. April 2025. Localmind (2025). Zukunft der KI: On-Premise KI und virtuelle KI-Server als sichere Alternativen zur Cloud. https: / / www.localmind.ai/ zukunft-der-ki-on-premise-kiund-virtuelle-ki-server-als-sichere-alternativen-zur-cloud/ . Zugegriffen am 16. April 2025 Mendix (2025). Retrieval Augmented Generation (RAG). https: / / www.mendix.com/ de/ glossary/ retrieval-augmented-generation-rag/ . Zugegriffen am 16. April 2025 Milvus (2025). How do knowledge graphs aid in natural language processing (NLP) ? https: / / blog.milvus.io/ ai-quick-reference/ how-do-knowledge-graphs-aid-in-natural-language-processing-nlp. Zugegriffen am 16. April 2025 Ohiri, E., & Poole, R. (2024). What is the cost of training large language models? https: / / www.cudocompute.com/ blog/ what-is-the-cost-of-training-largelanguage-models. Zugegriffen am 16. April 2025. Pöppel, K. (2022). Combining Knowledge Graphs and Explainability Methods in modern Natural Language Processing. https: / / www.inovex.de/ de/ blog/ knowledgegraphs-explainability-methods-modern-natural-language-processing/ . Zugegriffen am 16. April 2025 Pure Storage (2025). Was ist eine RAG (Retrieval Augmented Generation)? https: / / www.purestorage.com/ de/ knowledge/ what-is-retrieval-augmented-generation.html. Zugegriffen Am 16. April 2025 Vectara (2023). Fine-Tuning vs Retrieval Augmented Generation. https: / / www.vectara.com/ blog/ fine-tuning-vs-retrieval-augmented-generation. Zugegriffen am 16. April 2025 Weber, I., & Windisch, S. (2024). GraphRAG nutzen - komplexe Datenbeziehungen für effizientere LLM-Abfragen. https: / / www.adesso.de/ de/ news/ blog/ graphragkomplexe-datenbeziehungen-fuer-effizientere-llm-abfragen-nutzen.jsp. Zugegriffen am 16. April 2025 Wezel, E., & Badalyan, M. (2024). GraphRAG im Fokus: Knowledge Graph für ganzheitliche Retrieval-Augmented Generation. https: / / banking.vision/ graphrag-imfokus/ . Zugegriffen am 16. April 2025 <?page no="73"?> 1.5 KI und Nachhaltigkeit Christine Preisach Zusammenfassung Der vorliegende Text erörtert den Zusammenhang zwischen KI und Nachhaltigkeit. Nachhaltigkeit bezeichnet in diesem Kontext Auswirkungen von KI auf die Ressourcennutzung in den Bereichen Ökologie, Ökonomie und Soziales. Es wird zwischen Nachhaltigkeit durch KI und Nachhaltigkeit von KI differenziert, wobei die Chancen und Risiken der KI für das Klima und die Umwelt beleuchtet werden. Chancen bieten sich durch die Nutzung von KI für Anwendungen aus dem Umfeld der Nachhaltigkeit. Im Bereich Umweltmonitoring wird ein Projekt zur Untersuchung der Bienenaktivität vorgestellt: Hierbei wurden KI-Modelle eingesetzt, um Zusammenhänge zwischen Umweltfaktoren und Bienengesundheit zu analysieren. Ein weiteres Projekt nutzt KI zur Früherkennung von Waldschäden durch Borkenkäferbefall mittels KI und Satellitenbildanalyse. Im Energiesektor findet KI z.B. Anwendung bei der Zustandsüberwachung und Predictive Maintenance von Windenergieanlagen und Ladeinfrastruktur. Es lässt sich festhalten, dass KI einerseits das Potenzial hat, die globalen Nachhaltigkeitsziele zu unterstützen, andererseits ist zu bedenken, dass Digitalisierung und insbesondere Künstliche Intelligenz wegen des hohen Energiebedarfs für den Betrieb der Rechenzentren einen großen CO 2 -Fußabdruck haben. Der zweite Teil des Textes widmet sich der Erörterung der Faktoren, die den Energiebedarf und den CO 2 -Fußabdruck von KI-Modellen maßgeblich beeinflussen. Zu den relevanten Faktoren zählen das Trainieren und Aufrufen von KI-Modellen, die Art der KI-Modelle, der Betrieb der Rechenzentren sowie die Energieeffizienz der eingesetzten Hardware. Für die Ermittlung des CO 2 -Fußabdrucks ist der Anteil der erneuerbaren Energie von entscheidender Bedeutung. Abschließend werden Lösungsansätze zur Reduzierung des CO 2 -Fußabdrucks von KI präsentiert. Als elementare Voraussetzung wird dabei die Sensibilisierung aller Beteiligten - Nutzer, KI-Experten und Unternehmen - sowie die Schaffung von Transparenz bezüglich der anfallenden Emissionen angesehen. Neben der Erhöhung des Anteils erneuerbarer Energie werden auch die Optimierung der Energieeffizienz von Algorithmen, ein intelligenter Betrieb der Rechenzentren und effiziente Hardware diskutiert. Keywords: Nachhaltigkeit, Green IT, ressourcenschonende KI 1.5.1 Einleitung Künstliche Intelligenz und Maschinelles Lernen (ML) werden in der Praxis bereits in vielen Anwendungsfeldern der Wirtschaft eingesetzt, beispielsweise bei Versicherungen, im Bankwesen, in der produzierenden Industrie. Auch unabhängig von der Branche wird KI immer häufiger genutzt, um verschiedene Prozesse der Wertschöpfungskette (z. B. Marketing, Vertrieb, Finanzbuchhaltung) zu optimieren (vgl. Balamurugan et al. 2019). Die bisherigen Gründe für den Einsatz von KI in Deutschland liegen meist in der erwarteten Kosten- und Zeitersparnis sowie Qualitätsverbesse- <?page no="74"?> 74 Christine Preisach rungen. Unternehmen, die den Einsatz von KI noch planen, be-rücksichtigen aber oft auch Gründe wie Einsparung von Energie, Material, Wasser und CO 2 (vgl. Waltersmann et al. 2021; Koch et al. 2022). Ein verstärkter Einsatz von KI zur Bewältigung der größten Herausforderungen unserer Zeit - des Klimawandels und der daraus resultierenden Notwendigkeit ausreichender erneuerbarer Energien sowie des Verlusts der Biodiversität - würde einen signifikanten Nutzen für unsere Gesellschaft bedeuten. In der Wissenschaft kann bereits seit längerer Zeit ein positiver Trend bzgl. der Anzahl der Veröffentlichungen zu den Themen KI und Nachhaltigkeit feststellt werden (vgl. Waltersmann et al. 2021). Nachhaltigkeit wird in diesem Kontext als Form der Ressourcennutzung nach dem Drei-Säulen-Modell (Umwelt, Soziales, Wirtschaft) definiert (vgl. Jörissen et al. 2000). Demnach ist die gleichzeitige und gleichberechtigte Umsetzung von umweltbezogenen, wirtschaftlichen und sozialen Zielen für die Erreichung einer nachhaltigen Entwicklung von essenzieller Bedeutung. Die globalen Ziele für nachhaltige Entwicklung (SDG - Sustainable Development Goals, siehe Abb. 8), die von den Vereinten Nationen im Jahr 2015 in der Agenda 2030 verabschiedet wurden, beschreiben adäquat, welche Ziele für mehr Nachhaltigkeit erreicht werden sollten. Sie zielen darauf ab, die nachhaltige Entwicklung auf ökonomischer, sozialer sowie ökologischer Ebene weltweit zu sichern. Abb. 8: Globale Nachhaltigkeitsziele (Sustainable Development Goals, kurz SDGs) der Agenda 2030 für Nachhaltige Entwicklung (Quelle: SDG, o. J.) KI hat das Potenzial, die globalen Nachhaltigkeitsziele zu unterstützen und sie voranzubringen. Auf der anderen Seite ist festzustellen, dass die Digitalisierung und insbesondere die Künstliche Intelligenz mit der vermehrten Nutzung großer generativer Sprachmodelle (Large Language Models - LLMs) in Tools wie ChatGPT aufgrund des hohen Energiebedarfs für den Betrieb der Rechenzentren einen signifikanten CO 2 -Fußabdruck verursachen (vgl. Freitag et al. 2021). <?page no="75"?> 1.5 KI und Nachhaltigkeit 75 In einer Studie (vgl. Vinuesa et al. 2020) wird prognostiziert, dass 79 % der Nachhaltigkeitsziele der Vereinten Nationen von KI profitieren werden, während 35 % durch KI auch negativ beeinflusst werden könnten. Aus der Arbeit geht hervor, dass insbesondere Ziele aus dem Bereich Umwelt (Ziele 13-15) stark von KI zu profitieren scheinen, mit gleichzeitig wenigen negativen Auswirkungen. Beide Aspekte, Nachhaltigkeit durch KI und Nachhaltigkeit von KI , sollen hier im Detail diskutiert werden. Nachhaltigkeit durch KI bezeichnet das Potenzial und die Chancen von KI, die sich aus der Umsetzung von Nachhaltigkeitsanwendungsfällen ergeben. Nachhaltigkeit von KI bezeichnet die potenziellen Risiken und negativen Auswirkungen von KI auf die Nachhaltigkeit. 1.5.2 Chancen von KI: Nachhaltigkeit durch KI Im Folgenden werden verschiedene KI-Anwendungsfälle für eine nachhaltige Entwicklung in Deutschland vorgestellt. In Abbildung 9 werden die verschiedenen KI- Anwendungsbereiche den drei Säulen der Nachhaltigkeit zugeordnet. Die erste Säule beschreibt KI-Anwendungsfälle aus den Bereichen Umweltmonitoring, Klimawandel und Landwirtschaft, die man der ökologischen Nachhaltigkeit zurechnen kann. Zur ökonomischen Nachhaltigkeit können wir Anwendungsfälle aus den Feldern Erneuerbare Energie & Energienetze, Ressourceneffizienz & Qualitätsverbesserung sowie Predictive Maintenance und Kreislaufwirtschaft zählen. Es gibt zahlreiche Anwendungsbereiche in der Medizin, die durch den Einsatz von KI effizient unterstützt werden können. Hierzu zählen beispielsweise die Erstellung von Diagnosen, die Empfehlung präventiver Maßnahmen und die Entwicklung von Therapien. Diese Anwendungsbereiche können in Verbindung mit der dritten Säule, der sozialen Nachhaltigkeit, betrachtet werden. Im Hinblick auf Inklusion und Medizin kann KI in der Forschung zu Wirkstoffen und medizinischer Versorgung von Minderheiten und marginalisierten Gruppen eingesetzt werden. Die Analyse globaler Lieferketten mittels KI kann zu besseren Arbeitsbedingungen führen. Darüber hinaus gibt es einige vielversprechende Anwendungsfälle von KI in den Bereichen Klimaanpassung und Katastrophenhilfe. Abb. 9: Potenziale von KI: Nachhaltigkeits-Anwendungsfälle (Quelle: Eigene Darstellung) <?page no="76"?> 76 Christine Preisach In diesem Kapitel werden wir uns nur auf KI-Anwendungsfälle aus den ersten beiden Säulen - ökologische und ökonomische Nachhaltigkeit - fokussieren. Die im Folgenden beschriebenen Anwendungsfälle wurden entweder in Forschungsprojekten oder Abschlussarbeiten an der Hochschule Karlsruhe umgesetzt. Umweltmonitoring Aus dem Bereich ökologische Nachhaltigkeit betrachten wir hier KI-Anwendungsfälle zu Umweltmonitoring. Umweltmonitoring beschreibt die datenbasierte Beobachtung und Überwachung relevanter Teile der Umwelt wie beispielsweise der Luft- oder Wasserqualität, aber auch der Flora und Fauna. Dabei werden Daten, die über Sensorbzw. Messnetze oder durch Satelliten erfasst wurden, genutzt. Der Fokus liegt hierbei auf dem Nachhaltigkeitsziel 15, das sich mit dem Schutz und der nachhaltigen Nutzung des Lebensraums Land befasst. Vorhersage der Bienenaktivität und Analyse der Zusammenhänge zu Umwelteinflüssen Der Klimawandel verursacht Umweltveränderungen, die natürliche Lebensräume und Arten beeinträchtigen. Es ist erwiesen, dass steigende Temperaturen, veränderte Niederschlagsmuster, Dürren und extreme Wetterereignisse die Artenvielfalt beeinträchtigen (vgl. Lovejoy et al. 2019; Urban et al. 2016). Die Zahl der Insekten zum Beispiel ist um zwei Drittel zurückgegangen (vgl. Warren et al. 2018). Bienen sind Teil der biologischen Vielfalt, die westliche Honigbiene ist der weltweit am meisten bewirtschaftete Bestäuber und trägt direkt zur Ernährungssicherheit bei. Ein Drittel der weltweiten Nahrungsmittelproduktion hängt von Bienen ab, sie sind für die Menschen und den Planeten unverzichtbar. Die Pollensammeltätigkeit der Bienen steht in direktem Zusammenhang mit ihrer Gesundheit, denn Pollen ist die einzige Nahrung, die Bienen aufnehmen. Umweltparameter wie Temperatur, Luftfeuchtigkeit oder Wind bestimmen die Pollensammelaktivität direkt oder indirekt, d. h. sie wirken sich entweder auf die Gesundheit der Bienen oder auf Nahrungsquellen wie Pflanzen oder Flüsse aus (vgl. Jiang et al. 2023; Komasilova et al. 2021). Im Rahmen unserer Studie haben wir Zusammenhänge zwischen Bienenaktivität und Umweltparametern datenbasiert untersucht (vgl. Preisach und Herrmann 2024). Ziel war es, die Auswirkungen einzelner Einflussfaktoren auf die Bienen zu analysieren, um so Hypothesen über konkrete Ursachen des Insektensterbens zu überprüfen. Bislang fehlte es an systematischen und großflächigen Erhebungen, die die Auswirkungen von Maßnahmen zur Gestaltung landwirtschaftlich genutzter Flächen auf Insekten untersuchen. Die Datenerhebung erfolgte im Spätsommer 2021 an fünf verschiedenen Standorten in Deutschland (insgesamt zehn Bienenstöcke). Zusätzlich wurden Daten über das Wetter (Luft-, Bodentemperaturen, Sonnenscheindauer, Windgeschwindigkeit usw.), die Luftqualität sowie Informationen aus Satellitendaten (Bodenfeuchte, Landnutzung) in der Nähe jedes Bienenstocks genutzt. Die Bienenaktivität wird über ein vernetztes Kamerasystem aufgezeichnet, das am Eingang der Bienenstöcke installiert wurde. Es erfasst kontinuierlich alle aus- und einfliegenden Tiere und den Pollen, den sie auf ihren Körpern gesammelt haben. Aus den Videoaufnahmen wurde die Bienenaktivität quantitativ mit KI-Technologie extrahiert (vgl. apic.ai o. J.; Oceli 2020). Um die Bienenaktivität vorherzusagen, wurden nichtlineare KI- Modelle (Neuronale Netze, Support Vector Machine) eingesetzt, die zu einer hohen Genauigkeit geführt haben. Für die Erklärung der Zusammenhänge zwischen Bienenaktivität und Umweltfaktoren wurden ei- <?page no="77"?> 1.5 KI und Nachhaltigkeit 77 nerseits klassische erklärbare Regressionsmodelle (u.a. lineare Regression, generalisierte additive Modelle, Entscheidungsbaumregression, Random Forest) genutzt, andererseits aber auch post-hoc Ansätze von erklärbarer KI auf die Vorhersagen der nichtlinearen Blackbox-Modelle angewandt (sogenannte Shapley Values, diese bemessen den marginalen Beitrag einer Variablen auf die Bienenaktivität (vgl. Rodríguez-Pérez und Bajorath 2020)). Nichlineare Blackbox-Modelle in Kombination mit Shapley Values erzielten sowohl sehr genaue Vorhersagen als auch interessante Erkenntnisse über die Umwelteinflüsse (vgl. Preisach und Herrmann 2024). Beispielsweise haben wir in unserer Analyse der Landbedeckungsklassen, die aus den Satellitenbildern extrahiert wurden, signifikante positive Auswirkungen von Misch- und Laubwäldern sowie von Obstgärten auf die Bienenaktivitäten entdeckt, schwächer waren die Auswirkungen von Weiden, aufgegebenen städtischen Gebieten und Gewässern. Starke negative Auswirkungen auf die Bienenaktivität haben wir bei Wasserläufen und städtischem Grün beobachtet. Beim Vergleich der durchschnittlichen Aktivität unserer zehn Bienenstöcke stellten wir die geringste Aktivität an Standorten mit einem hohen Anteil an städtischen Flächen fest. Außerdem haben die Umweltparameter relative Luftfeuchtigkeit, Bodenfeuchte (in 40 cm Tiefe), Windgeschwindigkeit negative Auswirkungen auf die Bienenaktivität und somit auf die Bienengesundheit, positiv wirken sich zum Beispiel hoher Luftdruck aus (vgl. Preisach und Herrmann 2024). Die erforschten Zusammenhänge von Umwelteinflüssen und Landschaften auf die Bienengesundheit erlaubt es, gut geeignete Orte für Bienenstöcke zu finden. KI-basierte Früherkennung von Waldschäden durch Borkenkäferbefall Der Klimawandel hat die Anfälligkeit der Wälder für Schäden durch Insekten erhöht, da diese sich bei höheren Temperaturen besser reproduzieren können und der Wald unter Stresssymptomen wie Hitze und Dürre leidet (vgl. Boisvenue und Running 2006). Dies führt zu einem weit verbreiteten Waldsterben in Mitteleuropa (vgl. Vacek et al. 2023). In Thüringen waren zum Beispiel zwischen 2018 und 2023 etwa 20% der Waldfläche von einem Borkenkäferbefall betroffen (vgl. Thüringer Ministerium für Infrastruktur und Landwirtschaft 2023). Es bedarf also eines effizienten und kontinuierlichen Überwachungssystems von Wäldern, das eine frühe Schadenserkennung erlaubt, um mit geeigneten Maßnahmen einzugreifen. Diese Überwachung kann nicht manuell durch Menschen, sondern sollte mittels KI erfolgen. Die Überwachung des Waldzustandes mit Hilfe von Satellitendaten basiert häufig auf KI-Algorithmen, die entsprechende Trainingsdaten mit markierten Waldschäden erfordern (überwachte Lernverfahren). Da solche Daten häufig nicht ausreichend vorhanden sind, können stattdessen KI-Methoden eingesetzt werden, die solche Daten nicht benötigen (unüberwachte Lernverfahren). In dem von uns implementierten Wald-Monitoring-System kommt ein Deep-Learning-Algorithmus zum Einsatz, der dazu dient, Anomalien in der Waldgesundheit (z. B. Borkenkäferausbrüche) zu erkennen. Hierzu werden Zeitreihendaten verwendet, die aus Satellitendaten extrahiert wurden (vgl. Kirsch et al. 2025). In dieser Studie haben wir Fichtenreinbestände in Thüringen über einen Zeitraum von sieben Jahren von 2018 bis Ende 2024 beobachtet. Unser bestes Modell erreichte eine Erkennungsgenauigkeit von 87% und war in der Lage, 61% aller Anomalien in einem sehr frühen Stadium zu erkennen (mehr als einen Monat vor dem Auftreten sichtbarer Anzeichen von Waldschäden). Abbildung 10 zeigt eine Karte des Studien- <?page no="78"?> 78 Christine Preisach Abb. 10: Anomalie-Karte des Untersuchungsgebietes im Thüringer Wald (Quelle: Kirsch et al. 2025) gebietes, in dem die Ergebnisse der Anomalieerkennung unseres Algorithmus enthalten sind. Wobei blau bedeutet, dass eine Anomalie richtigerweise entdeckt wurde (desto dunkler das Blau, desto früher die Entdeckung), gelb markiert Gebiete, die fälschlicherweise als Anomalie erkannt wurden (falsch Positive) und rote Bereiche sind solche, die fälschlicherweise als gesund erkannt wurden. Im Vergleich zu einem anderen weit verbreiteten Algorithmus zur Erkennung von Anomalien in Zeitreihen BFAST (Breaks For Additive Season and Trend) (vgl. Watts und Laffan 2014) erkannte unser Ansatz durchweg einen höheren Prozentsatz von Anomalien in einem früheren Stadium. Erneuerbare Energie und Predictive Maintenance Erneuerbare Energien spielen eine Schlüsselrolle bei der Umstellung auf eine klimaneutrale Wirtschaft und Gesellschaft. Wichtige Ziele im Energiesektor sind:  Reduzierung der Treibhausgasemissionen,  Gewährleistung der Energiesicherheit,  Energieeffizienz - Reduzierung des Energieverbrauchs Die Energiewende geht mit verschiedenen Herausforderungen einher. Hierzu zählen insbesondere die hohen Ausbauziele, die Abhängigkeit der Stromerzeugung von externen Faktoren wie Wind und Sonne sowie die Aufrechterhaltung der Netzstabilität. Einige dieser Herausforderungen werden in den nächsten beiden vorgestellten Projekten behandelt. Auch Predictive Maintenance (vorausschauende Wartung) spielt in den Energiesystemen eine wichtige Rolle, da die Ausfallsicherheit der Energieinfrastruktur sehr <?page no="79"?> 1.5 KI und Nachhaltigkeit 79 wichtig ist. Wir betrachten deshalb die Bereiche „Erneuerbare Energie & Energie Netze“ sowie „Predictive Maintenance“ gemeinsam und stellen daraus Anwendungsfälle vor. Erhöhung der Energiesicherheit durch Reduzierung von Infrastruktur Ausfällen Um die energiepolitischen Ziele der Bundesregierung und der EU im Bereich erneuerbare Energien zu erreichen, ist eine effiziente Ressourcennutzung für die Energieversorgung entscheidend. Die Zustandsüberwachung von Windenergieanlagen und Ansätze von Predictive Maintenance können Stillstandzeiten und Folgeschäden verhindern und ermöglichen eine frühzeitige Fehlererkennung, wodurch der Energieertrag gesteigert wird. Sowohl der Ausbau der erneuerbaren Energien als auch die Ausstattung der Windenergieanlagen mit immer mehr Sensoren führt zu deutlich mehr Daten. Die Vielfalt der Daten und deren zeitliche Auflösung verkompliziert die Situation zusätzlich. Dies erschwert jedoch die manuelle Beurteilung des Anlagenzustands und erhöht den Bedarf an Experten, die aber durch den in Deutschland herrschenden Fachkräftemangel schwer zu bekommen sind. Dies erfordert die Entwicklung skalierbarer Überwachungsmethoden, um den Aufwand bei steigendem Anlagenzubau nicht zu erhöhen. Automatisierte Diagnosen und Predictive Maintenance basierend auf KI-Verfahren sind notwendig, um die Experten zu entlasten und die großen Datenmengen zu bewältigen. Experten können sich dann auf seltene und komplexe Schäden konzentrieren. Eine der Herausforderungen von überwachten KI-Verfahren für Predictive Maintenance und Fehlerdiagnose ist der Mangel an Schadendaten, da Schäden selten und in unterschiedlicher Art und Weise auftreten. Außerdem besteht bisher die Notwendigkeit, ein KI-Modell für jede Windenergieanlage und jede Fehlerklasse zu lernen, was zu einer Fülle von Modellen führt, die überwacht werden müssen. Transfer-Lernen kann helfen, diese Herausforderungen zu bewältigen, indem Windenergieanlagen- und schadenklassenübergreifende Muster gelernt werden (vgl. Zhang et al. 2018; Lei et al. 2020; Li et al. 2021). Viele Ansätze erfordern jedoch zumindest einige Schadendaten für jede Windenergieanlage. Um diese Herausforderungen zu meistern, schlagen wir einen überwachten Transfer-Learning-Ansatz für die Fehlerdiagnose in Windkraftanlagen vor, der bereits entdeckten Anomalien Fehlerklassen zuweist, ohne Schadendaten von allen Windenergieanlagen zu benötigen. Die Anomalien werden zuerst von kleineren KI-Modellen, die einzelne Komponenten bzw. Signale überwachen, als Abweichung vom Normalzustand erkannt, danach wird unser übergeordnetes Transfer-Learning basiertes KI-Modell eingesetzt, dass diesen Anomalien eine Fehlerklasse zuordnet. Dafür wird ein Modell auf Daten verschiedener Windenergieanlagen gelernt und dann auf andere im Lernprozess nicht berücksichtigte Windenergieanlagen aus dem Testdatensatz angewandt. Dieser Methode hat auf dem Testdatensatz eine sehr hohe Präzision erzielt (vgl. Weber und Preisach 2024). Dieser Ansatz wurde im Forschungsprojekt „AutoDiagCM - Automatisierte Diagnose von Schäden an Windenergieanlagen“ (vgl. Preisach und Weber 2023) erforscht und durch das Bundesministeriums für Wirtschaft und Klimaschutz finanziert. Nutzung von Elektrofahrzeugen als flexible Kraftwerke Die Elektrifizierung des Individualverkehrs durch Elektrofahrzeuge trägt dazu bei, den CO 2 -Ausstoß zu reduzieren, zudem können Elektrofahrzeuge zukünftig als Stromspeicher genutzt werden, um z. B. Netzinstabilitäten zu reduzieren. Die sogenannte Rückspeisung kann als nächste Evolutionsstufe im Prozess der Netzintegra- <?page no="80"?> 80 Christine Preisach tion von Elektrofahrzeugen betrachtet werden. Elektrofahrzeuge können nicht nur intelligent geladen werden, neue Fahrzeugmodelle haben auch die Fähigkeit, die in der Fahrzeugbatterie gespeicherte Energie zurück in das Stromnetz einzuspeisen. Dies erfolgt flexibel, angepasst an die aktuelle Stromerzeugung oder die Netzauslastung. Elektrofahrzeuge sind ein essenzieller Bestandteil der Energiewende und spielen eine entscheidende Rolle bei der Stabilisierung des Energiesystems. Neben stationären Speichern sind Fahrzeugbatterien prädestiniert dafür, einen kurzbis mittelfristigen Ausgleich von Last und Erzeugung im deutschen Energiesystem zu gewährleisten (vgl. Shen et al. 2024). Allerdings befindet sich diese Technologie noch in einer frühen Entwicklungsphase und es bestehen noch rechtliche und wirtschaftliche Fragen, die einer Klärung bedürfen. Das Projekt „BiFlex-Industrie“ (finanziert durch das Bundesministerium für Wirtschaft und Klimaschutz) zielt darauf ab, konkrete Anwendungsfälle rückspeisefähiger Fahrzeuge an Unternehmensstandorten zu demonstrieren (vgl. BiFlex-Industrie o. J.). Hier kommt KI an verschiedenen Stellen zum Einsatz: Zum einen müssen genaue Vorhersagen getroffen werden, wie viel Energie ein Unternehmen oder ein Haushalt zu einem bestimmten Zeitpunkt benötigt, zum anderen muss prognostiziert werden, wie viel Energie aus den Fahrzeugbatterien entnommen werden kann, ohne die Mobilität der Fahrzeugbesitzer einzuschränken. Mit Hilfe dieser KI-basierten Vorhersagen der Last- und Ladebedarfsprognosen, basierend auf historischen Daten kann ein optimiertes Energiemanagementsystem implementiert werden, das einen Plan für die Rückspeisung der Energie sowie der Versorgung des Unternehmens oder Haushalts bereitstellt. Außerdem sollen die Ladestationen mit Predictive Maintenance unter Nutzung von KI- Verfahren überwacht werden, sodass Auffälligkeiten und Fehler früh erkannt werden können und im Energiemanagementsystem Berücksichtigung finden. Typische Fehler, die häufig auftreten, sind: Überhitzung, defekte Kabel oder Stecker, Softwarefehler, Kommunikations- und Netzwerkfehler. Da bisher keine Schadensdaten vorliegen, werden unüberwachte KI-Methoden eingesetzt, um Anomalien in den Daten der Ladestationen (z. B. Spannung, Stromstärke, Temperatur, CPU-Auslastung, Nutzungsverhalten) frühzeitig zu erkennen. Dabei ist es wichtig, dass die Erkennung von Anomalien mit einer entsprechenden Quantifizierung der Unsicherheiten des verwendeten Modells einhergeht. Methoden zur unsicherheitsquantifizierten Anomalieerkennung zielen darauf ab, statistische Sicherheiten bezüglich der entdeckten Anomalien in den Daten zu geben. Übergeordnetes Ziel ist es, die Anzahl der Fehlalarme zu reduzieren bzw. auf ein vorgegebenes Maß zu begrenzen. Der Einsatz entsprechender Methoden stellt die Innovation und Neuartigkeit des angestrebten Predictive-Maintenance-Ansatzes dar (vgl. Hennhöfer und Preisach 2024). 1.5.3 Risiken von KI: Nachhaltigkeit von KI Digitalisierung und KI sind mit einer Vielzahl an Vorteilen verbunden. Sie ermöglichen beispielsweise die Automatisierung von Prozessen und die Steigerung der Effizienz. Gleichwohl ist es wichtig zu hinterfragen, inwiefern das Lernen von KI-Modellen und der Einsatz von KI als nachhaltig zu erachten sind. In Rohde et al. (2021) wurde ein Nachhaltigkeitsindex für Künstliche Intelligenz entwickelt, dessen Ziel es ist, die Nachhaltigkeit von KI ganzheitlich zu bewerten. Wie in Abbildung 11 zu sehen ist, basiert dieser Index auch auf den drei Säulen der Nachhaltigkeit. Der Nachhaltigkeitsindex für KI betrachtet die sozialen, ökologischen und ökonomischen Auswirkungen von KI entlang des gesamten Lebenszyklus von KI-Systemen (vgl. Rohde et al. 2021). <?page no="81"?> 1.5 KI und Nachhaltigkeit 81 Abb. 11: Nachhaltigkeitsindex für Künstliche Intelligenz (Quelle: Institut für ökologische Wirtschaftsforschung 2021) Wenn man die sozialen Aspekte betrachtet, werden oft die mangelnde Transparenz, diskriminierende Effekte oder die Reproduktion sozialer Ungleichheiten bemängelt. Diskutieret werden auch die ökonomischen Auswirkungen: Weitreichende Effekte auf Arbeitsmärkte, Konsummuster oder die Marktmacht großer Tech-Unternehmen. Ökologische Kriterien beziehen den Energieverbrauch, die Treibhausgasemissionen, Ressourcenverbrauch (z. B. Wasser oder Seltene Erden), aber auch die Potenziale im Hinblick auf nachhaltige Anwendungen ein. In diesem Kapitel fokussieren wir uns hauptsächlich auf die ökologischen Auswirkungen, insbesondere die durch KI verursachten CO 2 -Emissionen (gemeint sind alle Treibhausgasemissionen, die in CO 2- Äquivalente umgerechnet werden) und deren Energieverbrauch. Zunächst soll ein umfassender Überblick über den gesamten Energieverbrauch sowie die entstandenen und zu erwartenden CO 2 -Emissionen gegeben werden. Gemäß den Forschungsergebnissen von Freitag et al. (2021) wird der gesamte CO 2 -Ausstoß, der durch die Digitalisierung entsteht, mit 2,1 bis 3,9 % der weltweiten Emissionen angegeben (vgl. Freitag et al. 2021). Im Jahr 2022 betrug der geschätzte Stromverbrauch für KI, den Betrieb von Datenzentren und Kryptowährung rund 460 TWh. Bis 2026 könnte sich dieser Wert verdoppeln und mehr als 1000 TWh betragen (vgl. IEA 2024). Sollte dies der Fall sein, würde das den Bemühungen um Klimaschutz und Minimierung der Treibhausgase stark entgegenwirken. Bereits 2019 hat eine Studie (vgl. Strubell et al. 2019) herausgefunden, dass das Training einer KI so viele Emissionen verursacht wie fünf Autos über ihren gesamten Lebenszyklus. In dieser Arbeit wurden KI-basierte große Sprachmodelle analysiert, wie sie heute in ChatGPT und ähnlichen Tools genutzt werden. Um Lösungen für dieses Problem zu finden, müssen wir verstehen, welche Faktoren den Energieverbrauch und die Treibhausgasemissionen, die durch die Nutzung von KI entstehen, beeinflussen. Verschiedene wissenschaftliche Arbeiten wurden dazu veröffentlicht (vgl. Gupta et al. 2022; Luccioni et al. 2022; Patterson et al. 2021; Patterson et al. 2022). <?page no="82"?> 82 Christine Preisach Einflussfaktoren auf Energiebedarf und CO 2 -Fußabdruck von KI Die folgenden Faktoren beeinflussen den Energiebedarf und den CO 2 -Fußabdruck von KI-Modellen:  Hardware: − Art und Energieeffizienz der Hardware − Betrieb der Hardware  Trainieren der KI-Modelle: − die Anzahl der Parameter und − die Menge an Daten, die für das Lernen der KI-Modelle genutzt werden, − die Art der KI-Anwendung bzw. KI-Aufgabe  Inferenz - Nutzung der KI-Modelle: − die Anzahl der Aufrufe bzw. Anzahl der Nutzer und − die Menge an Daten die als Input verwendet wird  Energiequelle: − Art der Energiequelle bzw. Energiemix der für den Betrieb der Rechenzentren genutzt wird − Ort des Rechenzentrums − Zeitpunkt der Nutzung Im Folgenden werden die verschiedenen Einflussfaktoren auf den Energieverbrauch und die CO 2 -Emissionen erläutert: Der Energieverbrauch von KI-Modellen hängt unter anderem von der in den Rechenzentren eingesetzten Hardware und deren Betrieb ab. Für KI werden häufig spezielle Server (High-Performance-Computing Server) mit sehr leistungsfähigen Graphikprozessoren (GPUs - graphics processing unit) und großem Speicher eingesetzt, die einen 5bis 10-mal höheren Energieverbrauch haben als Standard-Server (vgl. deutschlandfunk.de 2024). Außerdem wird bei der Herstellung der Hardware (insbesondere der Chips) viel Wasser benötigt. Beim Betrieb der Rechenzentren spielt vor allem die Kühlung eine wesentliche Rolle für die benötigte Energie; etwa 40% des Stromverbrauchs entstehen durch die Kühlung der Server (vgl. deutschlandfunk.de 2024). Das Trainieren von KI-Modellen ist besonders energieintensiv, da es sich um einen aufwändigen und langen Prozess handelt. Hierbei sind zwei Faktoren besonders wichtig: Die Anzahl der Parameter pro Modell und die Anzahl der Datenpunkte, die im Training eingesetzt werden. Abbildung 12 zeigt die Entwicklung beider Faktoren über die Zeit. Insgesamt ist zu erkennen, dass beide Faktoren ab ca. 2019 sprunghaft ansteigen, da tiefe neuronale Netze (Deep-Learning-Modelle) deutlich häufiger eingesetzt werden und diese sowohl deutlich komplexer sind und mehr Parameter haben als auch mehr Daten benötigen. In der Abbildung wird nach KI-Aufgaben unterschieden: Bild- und Sprachverarbeitung sowie sonstige KI-Modelle, die andere Daten verwenden. KI-basierte Bildverarbeitungsaufgaben kommen insgesamt mit weniger Parametern und Daten aus als Sprachverarbeitungsmodelle. Die Anzahl der Parameter und Datenpunkte für KI-Modelle, die andere Daten verwenden, variiert stark. Daraus lässt sich schließen, dass vor allem komplexe Deep-Learning-Modelle besonders energieintensiv sind. <?page no="83"?> 1.5 KI und Nachhaltigkeit 83 Abb. 12: Training von KI-Modellen (Quelle: Rohde et al. 2024) Wobei es bei den heute eingesetzten generativen Sprachmodellen (Large Language Models) große Unterschiede gibt. Herkömmliche, komplexe Sprachmodelle wie ChatGPT oder andere hochentwickelte Modelle enthalten oft Hunderte von Milliarden Parameter (GPT4 hat 175 Milliarden Parameter) und führen daher zu einem sehr hohen Energiebedarf, sind aber auch sehr leistungsfähig (vgl. Latschar o. J.). Den höchsten Energiebedarf hat GPT4, der zum Beispiel im Chatbot Bing von Microsoft genutzt wird. Der Energieverbrauch für das Training, das ca. 5-6 Monate dauert, soll bei 7.200 Megawattstunden (MWh) liegen. Im Vergleich dazu verbraucht GPT3 mit 1.248 Megawattstunden und 26 Tagen Trainingszeit und Google Bard mit 312 Megawattstunden und 13 Tagen Trainingszeit deutlich weniger (vgl. Futurezone 2023). Anfang 2025 wurde DeepSeek, ein chinesisches Open-Source-Sprachmodell, veröffentlicht, das als energieeffizienter gilt (vgl. Softwarepartner 2025), da es aber noch keine umfassenden wissenschaftlichen Studien zum Energieverbrauch von DeepSeek gibt, gilt das als umstritten. Für manche Anwendungsfälle soll DeepSeek mit seiner neuen Architektur und weniger aktiven Parametern als andere Sprach- <?page no="84"?> 84 Christine Preisach modelle energieeffizienter sein (z.B. vgl. Nelpx 2025; MIT Technology Review Online 2025). Sogenannte leichtgewichtige generative Sprachmodelle (Lightweight Large Language Models) sind hingegen besonders energieeffizient, da sie sie auf eine Domäne spezialisiert sind - zum Beispiel für einen spezialisierten Chatbot (nur Textgenerierung) oder einfache Textverarbeitung. Dies führt zu einer kompakteren Architektur mit weniger Parametern und kann im Vergleich zu den komplexen Modellen auf Standard-Servern betrieben werden. GPT2 hat zum Beispiel nur 137 Millionen Parameter, also 1000-mal weniger als ein komplexes Sprachmodell (vgl. Software Mind 2024). All dies resultiert in einem deutlich geringeren Energieverbrauch. Die Seite AI Energy Score zeigt die energieeffizientesten LLMs (vgl. Luccioni et al. 2025). Die Inferenzphase von KI, d. h. die Nutzung der KI-Modelle durch den Aufruf und das Übergeben von Daten (z. B. das Stellen einer Frage an eine generative KI) verursacht zur Zeit noch deutlich weniger Treibhausgasemissionen. Allerderdings steigt dieser Anteil kontinuierlich, da mittlerweile sehr viele Nutzer insbesondere große Sprachmodelle wie ChatGPT und ähnliche generative KI-Tools in ihrem privaten und beruflichen Leben einsetzen. ChatGPT hat im Laufe des Jahres 2024 zwischen 2,9 und 3,1 Milliarden Besucher registriert, im Februar 2025 waren es bereits 3,9 Milliarden mit einem starken Wachstumstrend (vgl. Kaiser 2025; Müller 2024). Neben der Anzahl der Nutzer ist noch die Komplexität der Anfrage (Anzahl Wörter/ Token) bzw. die mitgelieferten Daten für den Energieverbrauch entscheidend. Eine Anfrage bei ChatGPT entspricht im Durchschnitt dem 10-fachen einer Google-Anfrage (vgl. deutschlandfunk.de 2024). Chien et al. (2023) berechnen in ihrem Modell, das die CO 2 -Belastung von generativen Sprachmodellen simuliert, dass die Inferenzphase bei 11 Millionen Anfragen pro Stunde 25-mal mehr CO 2 -Emissionen pro Jahr verursachen kann als die Trainingsphase eines solchen Modells es tut (vgl. Chien et al. 2023). Wenn wir nun die Treibhausgasemissionen, die von KI verursacht werden, betrachten, ist es wichtig zu wissen, aus welcher Energiequelle der Strom für den Betrieb der Rechenzentren kommt. Viele Cloud-Anbieter nutzen zu einem hohen Anteil erneuerbare Energie (durch eigene Fotovoltaik- und Windenergieanlagen und Stromspeicher). Sowohl Amazon Web Services als auch Microsoft Azure, zwei der großen Cloud- und KI-Anbieter, haben ihre Bemühungen, ihre Rechenzentren nachhaltig zu betreiben, in den letzten Jahren intensiviert. Aber auch deutsche Cloud- und KI-Anbieter investieren in den nachhaltigen Betrieb der Rechenzentren zum Beispiel durch die Nutzung von Wasser- oder Windkraftwerken (vgl. Martins und Kobylinska 2023). Dodge et al. (2022) berechnen die CO 2 -Intensität von KI, indem sie einerseits die Region betrachten, in der das Rechenzentrum steht, und andererseits auch den Zeitpunkt, zu dem eine Anfrage an eine KI gestellt wird. Sie stellten fest, dass insbesondere die Region eine zentrale Rolle für den Fußabdruck spielt, aber die Zeit im Verlauf eines Tages auch einen signifikanten Beitrag liefert (vgl. Dodge et al. 2022). Der Standort spielt also einerseits wegen des Energie-Mixes und der lokalen Verfügbarkeit von erneuerbarer Energie eine Rolle, ein anderer Aspekt sind aber auch die klimatischen Bedingungen, zum Beispiel die Umgebungstemperatur, die wichtig für die benötigte Kühlleistung ist. Es gibt also viele Faktoren, die einen Einfluss auf die benötigte Energie und die emittierten Treibhausgase haben. <?page no="85"?> 1.5 KI und Nachhaltigkeit 85 Lösungsansätze zur Reduzierung des CO 2 -Fußabdruckes von KI Durch das Verständnis der Faktoren, die Einfluss auf den Energiebedarf und den KI- Fußabdruck haben, lassen sich auch Lösungsansätze für diese Herausforderungen finden. Häufig wird die Lösung darin gesehen, den Anteil der erneuerbaren Energie zu erhöhen. Dadurch, dass aber der Energiebedarf in der Zukunft sowohl für KI also auch insgesamt in verschiedenen Bereichen stark steigen wird, kann dies nicht die einzige Lösung sein. Es muss gleichzeitig an verschieden Lösungen gearbeitet werden. Diese Lösungen könne zum Beispiel aus folgenden Bereichen kommen:  Transparenz über die Nachhaltigkeit von KI  Optimierung der Energieeffizienz von Algorithmen  Intelligenter Betrieb von Rechenzentren  Energieeffiziente Hardware Transparenz über die Nachhaltigkeit von KI Nutzerinnen und Nutzer sowie Entwicklerinnen und Entwickler von KI müssen für die Risiken von KI für die Nachhaltigkeit und den Klimawandel sensibilisiert werden. Dies ist das Ziel dieses Kapitels. Bereits in der Schule sollte dies ein wichtiger Bestandteil der Medien- und Informatikbildung sein. Aber auch in der Ausbildung von IT- und KI-Fachkräften an Hochschulen und Universitäten sollten die Auswirkungen von KI auf die Nachhaltigkeit vermittelt werden. Außerdem sind nicht alle Anwendungen von KI sinnvoll und nachhaltig. Personalisierte Online-Werbung nutzt KI beispielsweise sehr intensiv, aber der Nutzen für die Gesellschaft ist hier sehr fragwürdig (vgl. Kish 2020). Für Entwicklerinnen und Entwickler gibt es bereits mehrere Tools, die den Energieverbrauch oder ähnliche Maße transparent machen. Tabelle 1 zeigt einige Tools, welche es Entwicklerinnen und Entwicklern sowie Unternehmen erlauben, die Energieeffizienz oder den CO 2 -Fußabdruck ihrer Software oder KI-Modelle zu untersuchen. Tool Name Anbieter Fokus Bewertungsmaß AI Energy Score huggingface.co Vergleich von KI- Modellen (Inferenz) Energieeffizienz pro Aufgabe (Sterne Rating) CodeCarbon codecarbon.io Energieeffizienz von Code CO 2- Emissionen Green Algorithms greenalgorithms.org Training von KI-Algorithmen CO 2- Emissionen Emissions Impact Dashboard microsoft.com Cloud allgemein CO 2- Emissionen Tab. 1: Tools zur Bewertung der CO 2 -Emissionen und Energieeffizienz von KI-Modellen (Quelle: Eigene Darstellung) Dadurch können sie ihren Code in Bezug auf Treibhausgasemissionen optimieren und energieeffiziente KI-Modelle auswählen, die für ihre Anwendung geeignet sind, und so den CO 2 -Fußabdruck ihrer Lösung positiv beeinflussen. Allerdings gibt es <?page no="86"?> 86 Christine Preisach derzeit keinen allgemeingültigen Standard für die Messung der Energieeffizienz von KI, und es müsste klar festgelegt werden, welche Daten erfasst und gemeldet werden sollten, z. B. die verwendete Hardware, die für Training und Inferenz benötigte Zeit, der Energieverbrauch der Hardware usw. (vgl. Rohde et al. 2024). In Deutschland verpflichtet das Energieeffizienzgesetz (veröffentlicht 2023) auch Rechenzentren zur Einsparung oder Wiederverwendung von Energie. Das Gesetz schreibt energieintensiven Unternehmen vor, Energie- oder Umweltmanagementsysteme einzuführen. Kritisiert wird, dass nur die allergrößten Rechenzentren durch das Gesetz reguliert werden. Damit wären weniger als ein Prozent aller deutschen Rechenzentren zu Einsparmaßnahmen verpflichtet (vgl. deutschlandfunk.de 2024). Im Vergleich dazu existiert für Nutzende keine einfache Möglichkeit herauszufinden, wie groß der CO 2 -Fußabdruck ihrer Anfrage bei einer generativen KI ist. Dies wäre aber wünschenswert, um Nutzende zu sensibilisieren und überflüssige Anfragen zu vermeiden. Optimierung der Energieeffizienz von Algorithmen Die KI-Algorithmen an sich müssen weiter auf Energieeffizienz optimiert werden. Hier gibt es mehrere Ansätze (vgl. Besiahgari 2025): 1. Reduzierung unnötiger Modellparameter, die keinen Einfluss auf die Genauigkeit des KI-Models haben. 2. Quantisierung der Daten: Die Daten werden in einem weniger genauen Format gespeichert, dadurch reduzieren sich die Rechenzeit und der benötigte Speicherplatz. 3. Dynamische Inferenz: Wenn die Modelle aufgerufen werden, müssen nicht alle Teile des Neuronalen Netzes verwendet werden, sondern nur die Bereiche, die für den konkreten Aufruf notwendig sind. Diesen Ansatz nutzen DeepSeek und Google Bard (Mixture-of-Experts-Ansatz). 4. Multi-Objective Optimization: Klassischerweise werden tiefe Neuronale Netze auf Genauigkeit optimiert, die Zielfunktion kann aber so angepasst werden, dass auch andere Kriterien optimiert werden können. Der sogenannte Multi-Objective Optimization-Ansatz erlaubt es also, auch den Stromverbrauch zu optimieren. Intelligenter Betrieb von Rechenzentren Der Betrieb von Rechenzentren kann zum Beispiel durch eine effiziente Kühlung und Nutzung von Abwärme energieeffizienter gemacht werden (vgl. Martins und Kobylinska 2023). Es gibt aber auch Ansätze, die vorschlagen, Anfragen (in der Inferenzphase) geografisch an andere Rechenzentren mit einem günstigeren Energiemix zu verlagern. Dies soll 35% weniger CO 2 -Emissionen verursachen (vgl. Chien et al. 2023). Wilkins et al. (2024) schlagen eine intelligente Verteilung der Aufgaben eines LLMs auf verschiedene Hardwarekomponenten vor, ihre Methode bestimmt, ob Aufgaben auf energieeffizienten Prozessoren oder Hochleistungs-GPUs verarbeitet werden, basierend auf der Anzahl der Eingabe- und Ausgabedaten in einer Anfrage. Dies bringt eine durchschnittliche Energieeinsparung von 7,5% ein (vgl. Wilkins et al. 2024). <?page no="87"?> 1.5 KI und Nachhaltigkeit 87 Energieeffiziente Hardware Eine weitere Möglichkeit, die Energieeffizienz zu erhöhen und den CO 2 -Fußabdruck zu senken liegt in der Nutzung und Erforschung von energieeffizienter Hardware. Insbesondere die Entwicklung von speziellen Chips, die besonders effizient KI-Aufgaben übernehmen können. 1.5.1 Fazit Es gibt viele Anwendungsfälle für die Nutzung von KI, die zu den Zielen nachhaltiger Entwicklung beitragen können. Hier wurden mehrere KI-Anwendungsfälle aus den Bereichen Umweltmonitoring und Erneuerbare Energie & Predictive Maintenance vorgestellt. Neben diesen Chancen, die KI für die Nachhaltigkeit bietet, gibt es aber auch erhebliche Risiken. Der hohe Energiebedarf ‒ insbesondere von rechenintensiven Deep- Learning-Ansätzen ‒ und der daraus resultierende große CO 2 -Fußabdruck haben das Potenzial, die Vorteile von KI für Nachhaltigkeit vollständig aufzuheben, wenn keine passenden Lösungen gefunden werden. Zum einen muss der Anteil der erneuerbaren Energie stark wachsen, andererseits braucht es unbedingt noch andere Lösungsansätze, um den KI-Fußabdruck zu verkleinern. Hoffnung machen hier bereits einige neue Entwicklungen im Forschungsbereich Green IT, die hier vorgestellt wurden. Abschließend ist festzuhalten, dass es wichtig ist, dass alle Verantwortung übernehmen: Wir als Verbraucherinnen und Verbraucher, die entscheiden, wie oft und wofür wir KI nutzen, KI-Experten und Technologieunternehmen bei der Entwicklung von KI sowie die Staaten in Bezug auf Transparenz und Regulierung von KI. Literatur apic.ai. (o. J.). Apic.ai . http: / / www.apic.ai/ . Zugegriffen am 25. März 2025 Balamurugan, E., Flaih, L. R., Yuvaraj, D., Sangeetha, K., Jayanthiladevi, A., & Senthil Kumar, T. (2019). Use case of artificial intelligence in machine learning manufacturing 4.0. 2019 International Conference on Computational Intelligence and Knowledge Economy (ICCIKE) , 656-659. https: / / doi.org/ 10.1109/ ICCIKE47802.2019.9004327. Besiahgari, D. (2025). Das Energiedilemma der KI: Können LLMs ihren eigenen Stromverbrauch optimieren? https: / / hackernoon.com/ lang/ de/ AIS-Energiedilemma: - Können-LLMs-ihren-eigenen-Stromverbrauch-optimieren? Zugegriffen am 22. März 2025 Biflex-Industrie (o.J.). Projekt BiFlex-Industrie . https: / / www.biflexindustrie.de/ . Zugegriffen am 14. März 2025 Boisvenue, C., & Running, S. (2006). Impacts of climate change on natural forest productivity - evidence since the middle of the 20th century. Global Change Biology , 12, 862-882. https: / / doi.org/ 10.1111/ j.1365-2486.2006.01134.x. Chien, A. A., Lin, L., Nguyen, H., Rao, V., Sharma, T., & Wijayawardana, R. (2023). Reducing the carbon impact of generative AI inference (today and in 2035). Proceedings of the 2 nd Workshop on Sustainable Computer Systems , 1-7. https: / / doi.org/ 10.1145/ 3604930.3605705. <?page no="88"?> 88 Christine Preisach deutschlandfunk.de (2024). Der Stromhunger der KI . https: / / www.deutschlandfunk.de/ kuenstliche-intelligenz-energieverbrauch-klimaschutz-nachhaltigkeitumwelt-atomkraft-100.html. Zugegriffen am 21. März 2025 Dodge, J., Prewitt, T., Tachet des Combes, R., Odmark, E., Schwartz, R., Strubell, E., Luccioni, A. S., Smith, N. A., DeCario, N., & Buchanan, W. (2022). Measuring the carbon intensity of AI in cloud instances. Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency , 1877-1894. https: / / doi.org/ 10.1145/ 3531146.3533234. Freitag, C., Berners-Lee, M., Widdicks, K., Knowles, B., Blair, G. S., & Friday, A. (2021). The real climate and transformative impact of ICT: A critique of estimates, trends, and regulations. Patterns , 2(9). https: / / doi.org/ 10.1016/ j.patter.2021.100340. Futurezone (2023). Dieser Chatbot verbraucht am meisten Strom von allen . https: / / futurezone.at/ produkte/ chatgpt-gpt-3-gpt-3-bard-strom-energieverbrauch/ 402551585. Zugegriffen am 22. März 2025 Gupta, U., Kim, Y. G., Lee, S., Tse, J., Lee, H.-H. S., Wei, G.-Y., Brooks, D., & Wu, C.- J. (2022). Chasing carbon: The elusive environmental footprint of computing. IEEE Micro , 42(4), 37-47. Hennhöfer, O., & Preisach, C. (2024). Uncertainty quantification in anomaly detection with cross-conformal p-Values . https: / / doi.org/ 10.48550/ arXiv.2402.16388. IEA (2024). Electricity 2024 - Analysis . https: / / www.iea.org/ reports/ electricity-2024. Zugegriffen am 8. März 2025 Institut für ökologische Wirtschaftsforschung (2021). Wie nachhaltig ist Künstliche Intelligenz? Studie legt Kriterien zur Bewertung vor. https: / / www.presseportal.de/ pm/ 77994/ 5101262. Zugegriffen am 23. März 2025 Jiang, K., Pan, Z., Pan, F., Teuling, A. J., Han, G., An, P., Chen, X., Wang, J., Song, Y., Cheng, L., Zhang, Z., Huang, N., Ma, S., Gao, R., Zhang, Z., Men, J., Lv, X., & Dong, Z. (2023). Combined influence of soil moisture and atmospheric humidity on land surface temperature under different climatic background. iScience , 26(6). Jörissen, J., Brandl, V., Kopfmüller, J., & Paetau, M. (2000). Ein integratives Konzept nachhaltiger Entwicklung: Der theoretisch-konzeptionelle Ansatz des HGF Verbundprojekts. TATuP - Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis , 9(2), Article 2. Kaiser, G. (2025). ChatGPT - Visits weltweit 2025 . https: / / de.statista.com/ statistik/ daten/ studie/ 1535435/ umfrage/ anzahl-der-visits-pro-monat-von-chatgptcom/ . Zugegriffen am 20. März 2025 Kirsch, M., Wernicke, J., Datta, P., & Preisach, C. (2025). Early detection of forest calamities in homogeneous stands - deep learning applied to bark-beetle outbreaks . https: / / doi.org/ 10.48550/ arXiv.2503.12883. Kish, K. (2020). Paying attention: Big data and social advertising as barriers to ecological change. Sustainability , 12(24), Article 24. Koch, D., Lentes, J., Schuseil, F., & Waltersmann, L. (2022). Nachhaltigkeit durch KI . https: / / www.ipa.fraunhofer.de/ de/ Publikationen/ studien/ nachhaltigkeit-durchkI.html. Zugegriffen am 20. März 2025 <?page no="89"?> 1.5 KI und Nachhaltigkeit 89 Komasilova, O., Komasilovs, V., Kviesis, A., & Zacepins, A. (2021). Modeling of the potenzial honey bee colony foraging activity based on the agrometeorological factors. Baltic Journal of Modern Computing , 9. Latschar, W. (o. J.). LLM Definition: Was bedeutet der Begriff Large Language Modell großes Sprachmodell . https: / / beyond-ecommerce.com/ glossar/ llm-largelanguage-model-definition. Zugegriffen 23. März 2025 Lei, Y., Yang, B., Jiang, X., Jia, F., Li, N., & Nandi, A. K. (2020). Applications of machine learning to machine fault diagnosis: A review and roadmap. Mechanical Systems and Signal Processing , 138, 106587. Li, Y., Jiang, W., Zhang, G., & Shu, L. (2021). Wind turbine fault diagnosis based on transfer learning and convolutional autoencoder with small-scale data. Renewable Energy , 171, 103-115. Lovejoy, T. E., Hannah, L., & Wilson, E. O. (2019). Biodiversity and climate change: Transforming the biosphere . Yale University Press. Luccioni, A. S., Gamazaychikov, B., Strubell, E., Hooker, S., Jernite, Y., Wu, C.-J., & Mitchell, M. (2025). AI energy score leaderboard - February 2025 . https: / / huggingface.co/ spaces/ AIEnergyScore/ Leaderboard. Zugegriffen am 20. März 2025 Luccioni, A. S., Viguier, S., & Ligozat, A.-L. (2022). Estimating the carbon footprint of BLOOM, a 176B parameter language model . https: / / doi.org/ 10.48550/ arXiv.2211.02001. Martins, F. P., & Kobylinska A. (2023). Nachhaltigkeit in der Cloud: Wie findet man eine grüne Cloud? https: / / www.cloudcomputing-insider.de/ nachhaltigkeit-in-dercloud-wie-findet-man-eine-gruene-cloud-a-9b5d5bd236a59a74c2feb3178128c4a5/ Zugegriffen am 22. März 2025 MIT Technology Review Online (2025). Doch nicht so energiesparend? Warum die Angaben für Deepseek irreführend sind. https: / / t3n.de/ news/ energiesparend-angaben-deepseek-1671084/ . Zugegriffen am 21. März 2025 Müller, N. (2024). Neuer Rekord: ChatGPT erreicht 2,9 Milliarden Besucher pro Monat . https: / / www.faz.net/ pro/ digitalwirtschaft/ kuenstliche-intelligenz/ neuer-rekordchatgpt-erreicht-2-9-milliarden-besucher-pro-monat-19845849.html. Zugegriffen am 11. März 2025 Nelpx (2025). DeepSeek vs. ChatGPT: Das technologische Beben . https: / / www.nelpx.com/ blog/ kunstliche-intelligenz-5/ deepseek-das-technologische-beben-13. Zugegriffen am 21. März 2025 Oceli (2020). Verbundprojekt: OCELI . https: / / oceli.de/ . Zugegriffen am 14. März 2025 Patterson, D., Gonzalez, J., Hölzle, U., Le, Q., Liang, C., Munguia, L.-M., Rothchild, D., So, D., Texier, M., & Dean, J. (2022). The carbon footprint of machine learning training will plateau, then shrink . https: / / doi.org/ 10.48550/ arXiv.2204.05149. Patterson, D., Gonzalez, J., Le, Q., Liang, C., Munguia, L.-M., Rothchild, D., So, D., Texier, M., & Dean, J. (2021). Carbon emissions and large neural network training . https: / / doi.org/ 10.48550/ arXiv.2104.10350. Preisach, C. & Weber, K. (2023). AutoDiagCM - Automatisierte Diagnose von Schäden an Windenergieanlagen . https: / / www.h-ka.de/ isrg/ projects/ autodiagcm. Zugegriffen5. März 2025 <?page no="90"?> 90 Christine Preisach Preisach, C., & Herrmann, M. (2024). Bee activity prediction and pattern recognition in environmental data . ICLR 2024 Workshop: Tackling Climate Change with Machine Learning. https: / / s3.us-east-1.amazonaws.com/ climate-change-ai/ papers/ iclr2024/ 18/ paper.pdf. Zugegriffen am 16. April 2025 Rodríguez-Pérez, R., & Bajorath, J. (2020). Interpretation of machine learning models using shapley values: Application to compound potency and multi-target activity predictions. Journal of Computer-Aided Molecular Design , 34(10), 1013-1026. Rohde, F., Wagner, J., Reinhard, P., Petschow, U., Meyer, A., Voß, M., & Mollen, A. (2021). Nachhaltigkeitskriterien für künstliche Intelligenz (Bd. 220/ 21). Institut für Ökologische Wirtschaftsforschung. Rohde, F., Mollen, A. , Meyer, A., Wagner, J., Marken, G., Frick, V., Schmelzle, F. & Engel, L. (2024). Taking (policy) action to enhance the sustainability of AI systems . Institute For Ecological Economy Research. https: / / www.ioew.de/ fileadmin/ user_upload/ SustAIn_Policy_Brief_2024.pdf. Zugegriffen am 16. April 2025 SDG (o. J.). SDG Icons German . https: / / drive.google.com/ drive/ folders/ 19GFktmvW2OAE9FIyQjc7ChPnYyTHN0T_. Zugegriffen am 24. März 2025 Shen, S., Habeeb, R., Alirezaei, N., Schert, K., Lehnert, R., & Fitzek, F. H. P. (2024). A heuristic for bi-directional charging of fleet EVs . https: / / doi.org/ 10.1109/ iSPEC59716.2024.10892435. Software Mind (2024). Modellvergleich bei Large Language Models: Ihr LMM Leitfaden . https: / / softwaremind.com/ de/ blog/ modellvergleich-bei-large-language-modelsihr-lmm-leitfaden/ . Zugegriffen am 20. März 2025 Softwarepartner (2025). DeepSeek: Die neue KI für dein Unternehmen . https: / / www.softwarepartner.net/ blog/ deepseek-vs-chatgpt. Zugegriffen am 20. März 2025 Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and policy considerations for deep learning in NLP . https: / / doi.org/ 10.48550/ arXiv.1906.02243. Thüringer Ministerium für Infrastruktur und Landwirtschaft (2023). Waldzustandsbericht 2023 - Forstliches Umweltmonitoring in Thüringen . https: / / www.forstwirtschaft-in-deutschland.de/ aktuelles/ news-detailansicht/ news/ waldzustandsbericht-thueringen-2023/ . Zugegriffen am 22. März 2025 Urban, M. C., Bocedi, G., Hendry, A. P., Mihoub, J.-B., Pe’er, G., Singer, A., Bridle, J. R., Crozier, L. G., De Meester, L., Godsoe, W., Gonzalez, A., Hellmann, J. J., Holt, R. D., Huth, A., Johst, K., Krug, C. B., Leadley, P. W., Palmer, S. C. F., Pantel, J. H., Schmitz, A., Zollner, P. A. & Travis, J. M. J. (2016). Improving the forecast for biodiversity under climate change. Science , 353(6304). Vacek, Z., Vacek, S., & Cukor, J. (2023). European forests under global climate change: Review of tree growth processes, crises and management strategies. Journal of Environmental Management , 332, 117353. Vinuesa, R., Azizpour, H., Leite, I., Balaam, M., Dignum, V., Domisch, S., Felländer, A., Langhans, S. D., Tegmark, M., & Fuso Nerini, F. (2020). The role of artificial intelligence in achieving the sustainable development goals. Nature Communications , 11(1), 233. <?page no="91"?> 1.5 KI und Nachhaltigkeit 91 Waltersmann, L., Kiemel, S., Stuhlsatz, J., Sauer, A., & Miehe, R. (2021). Artificial intelligence applications for increasing resource efficiency in manufacturing companies a comprehensive review. Sustainability , 13(12), Article 12. Warren, R., Price, J., Graham, E., Forstenhaeusler, N., & VanDerWal, J. (2018). The projected effect on insects, vertebrates, and plants of limiting global warming to 1.5°C rather than 2°C. Science , 360(6390), 791-795. Watts, L. M., & Laffan, S. W. (2014). Effectiveness of the BFAST algorithm for detecting vegetation response patterns in a semi-arid region. Remote Sensing of Environment , 154, 234-245. Weber, K., & Preisach, C. (2024). Supervised transfer learning framework for fault diagnosis in wind turbines. Proceedings of the Upper-Rhine Artificial Intelligence Symposium . https: / / doi.org/ 10.60643/ urai.v2024p95. Wilkins, G., Keshav, S., & Mortier, R. (2024). Hybrid heterogeneous clusters can lower the energy consumption of LLM inference workloads. The 15th ACM International Conference on Future and Sustainable Energy Systems , 506-513. https: / / doi.org/ 10.1145/ 3632775.3662830. Zhang, C., Bin, J., & Liu, Z. (2018). Wind turbine ice assessment through inductive transfer learning. 2018 IEEE International Instrumentation and Measurement Technology Conference (I2MTC) , 1-6. https: / / doi.org/ 10.1109/ I2MTC.2018.8409794. <?page no="93"?> 1.6 Eine Analyse der Sicherheit von LLM-generierten Code Andreas Schaad, Dominik Binder und Stefan Götz Zusammenfassung Wir beobachten eine zunehmende Nutzung von KI-Assistenten, selbst bei routinemäßigen Programmieraufgaben. Der auf Basis eines sogenannten „Prompts“ von Programmierern generierte Code entspricht jedoch nicht immer allgemein akzeptierten Sicherheitsstandards. Die Qualität des Prompts bestimmt also zum Teil, ob generierter Code Schwachstellen enthält oder nicht. Wir analysieren vier bedeutende LLMs hinsichtlich der Sicherheit von generiertem Python- und Javascript-Code unter Verwendung des MITRE CWE-Katalogs als maßgebliche Sicherheitsdefinition. Unsere Ergebnisse zeigen, dass einige LLMs bei Verwendung verschiedener Prompting-Techniken initial 65% Code generieren, der von einem Sicherheitsexperten als unsicher eingestuft wird. Andererseits können LLMs mit zunehmender manueller Anleitung durch einen erfahrenen Ingenieur Code generieren, der zu 94 bis 100% sicher ist. Keywords: LLM, Prompt Engineering, SQL injection, path traversal, Kryptographie 1.6.1 Einleitung In den letzten Jahren hat die Nutzung von KI in der Softwareentwicklung zunehmend an Bedeutung gewonnen. Heute sind KI-Tools ein integraler Bestandteil des Arbeitsalltags vieler Software-Entwickler. Tatsächlich verlassen sich sogar unsere Erstsemester-Studierenden fast blind auf generierten Code. Wie frühere Arbeiten jedoch gezeigt haben, generieren KI-Assistenten schwachen Code mit potenziellem Raum für Sicherheitslücken. Dies liegt zum Teil daran, dass beliebte KI-Assistenten wie GitHub Copilot auf öffentlichen GitHub-Repositories trainiert wurden, was die resultierende Codequalität in Bezug auf Sicherheit unsicher erscheinen lässt (vgl. GitHub 2023a), trotz bereits erfolgter wichtiger Updates (vgl. Zhao 2023). Allerdings kommt es auch wesentlich auf die Qualität der Fragen an einen KI-Assistenten an. Die richtigen Fragen (d. h. „Prompts“) müssen gestellt werden, um zu vermeiden, dass der KI-Assistent Code mit potenziellen Schwachstellen generiert. Die Idee, (studentische) Entwickler in einem „Shift-left“-Sicherheitsansatz auszubilden, muss nun auch auf das sorgfältige Erstellen von Prompts ausgeweitet werden. Daher analysieren wir, inwieweit die Qualität eines Prompts die Sicherheit des generierten Codes beeinflusst. Analyse verwandter Arbeiten Generative KI kann in nahezu allen Phasen des Software-Entwicklungslebenszyklus eingesetzt werden (vgl. Ozkaya 2023), etwa im Requirements Engineering (vgl. Das et al. 2023; Borg 2024), Softwaredesign (vgl. Robles-Aguila et al. 2021), Codegenerie- <?page no="94"?> 94 Andreas Schaad, Dominik Binder und Stefan Götz rung (vgl. Sheard et al. 2024), Debugging (vgl. Hossain et al. 2024), Testing (vgl. Alshahwan et al. 2024; Yuan et al. 2024) und Code Review (vgl. Nam et al. 2024). Dies treibt auch die aktuelle Diskussion an, wie Programmierung Studierenden vermittelt werden soll (vgl. Cambaz und Zhang 2024). Unser Fokus liegt auf der Phase der automatisierten Codegenerierung, die bereits aus rein mensch-computer-interaktiver Sicht als problematisch gilt (vgl. Kabir et al. 2024). Die Interaktion mit KI-Assistenten, und insbesondere wie detailliert die Prompts an ein LLM sind, bestimmt die Qualität des generierten Codes. Allgemein gesagt führen schwache Prompts zu vergleichbar schwachem Code (vgl. Shieh 2023). Frühere Studien haben die Sicherheit von KI-generiertem Code untersucht. Beispielsweise evaluierten Pearce et al. in 2022 die Qualität von GitHub Copilot anhand von MITREs Top 25 CWE (vgl. Butterworth et al. 2023) in 89 verschiedenen Szenarien. Insgesamt wurden 1689 Programme generiert, von denen 40% anfällig für Schwachstellen waren. Die identifizierten zugrundeliegenden Schwächen umfassten die Verwendung veralteter Sicherheitspraktiken, wie etwa MD5-Hashes, sowie weithin bekannte Schwachstellen wie SQL-Injection. Mit einem ähnlichen Ansatz sammelte (vgl. Fu et al. 2023) Code von GitHub, der mit „generated by Copilot“ oder ähnlich gekennzeichnet war, und evaluierte den Code auf Sicherheitsschwachstellen. Von den 435 Code-Artefakten wiesen 36% Sicherheitsschwachstellen auf, wobei die höchste Häufigkeit von Schwachstellen in den Programmiersprachen Python und JavaScript auftrat. In einer stärker nutzerorientierten Studie (vgl. Perry et al. 2022) wurde evaluiert, wie Nutzer mit einem KI-Assistenten interagieren, um sicherheitsrelevante Aufgaben in verschiedenen Programmiersprachen zu lösen. Die Teilnehmer wurden mit der Verwendung von Kryptographie, der Absicherung von Benutzereingaben, Code-Injection und Memory-Management konfrontiert. Es wurde festgestellt, dass Nutzer mit einem KI-Assistenten eher dazu neigten, unsicheren Code zu schreiben. Interessanterweise ergab die Studie auch, dass Bemühungen um mehr Interaktion mit dem KI-Assistenten zu besserem und sichererem Code führten. Mit Fokus auf das ChatGPT LLM evaluierten Khoury et al. (2023) den generierten Code in 21 Szenarien. Es wurde festgestellt, dass ChatGPT oft hinter dem Mindeststandard für sicheres Programmieren zurückblieb. Fünf der 21 Szenarien waren initial sicher, weitere sieben konnten durch zusätzliche Interaktion sicher gemacht werden. Zusammenfassend zeigten die oben genannten Studien zur Sicherheit von KI-generiertem Code, dass KI-Assistenten generell dazu neigen, unsicheren Code zu generieren. Die in Perry et al. (2022) und Khoury et al. (2023) berichteten Arbeiten deuten jedoch auch darauf hin, dass diese KI-Assistenten gewissermaßen „bewusst“ über sichere Praktiken verfügen und potenziell sicheren Code ausgeben können. Der Grad, zu dem die Prompting-Technik eines Nutzers die Sicherheit des generierten Codes beeinflusst, wurde jedoch noch nicht detaillierter analysiert. Unsere Beiträge Unser Kernbeitrag besteht darin, dass wir Nachweise für den Einfluss von Prompting-Techniken auf die Sicherheit von LLM-generiertem Code liefern. Unsere Ergebnisse zeigen, dass bei Verwendung verschiedener Prompting-Techniken einige LLMs initial bis zu 65% Code generieren, der von einem ausgebildeten Sicherheitsingenieur <?page no="95"?> 1.6 Eine Analyse der Sicherheit von LLM-generierten Code 95 als unsicher eingestuft wird. Andererseits generieren fast alle analysierten LLMs mit zunehmender manueller Anleitung durch einen erfahrenen Ingenieur Code, der nahe an 100% sicher ist. Diese Beobachtung basiert auf:  dem Design einer Fallstudie, die eine interaktive Mehrbenutzer-Anwendung mit REST-API-Zugriff zeigt  Implementierung dieser Anwendung in Python und JavaScript unter Verwendung verschiedener Prompting-Techniken für die aktuellen Versionen der LLMs Chat- GPT, Copilot, CodeLLama und CodeWhisperer  117 Prompts, aufgeschlüsselt nach diesen 4 LLMs  detaillierte Analyse der Struktur (Aussage und Kontext) jedes Prompts  ein methodischer Ansatz zur Einbeziehung anderer LLMs und Sprachen unter Verwendung des CWE-Katalogs als Richtlinie für das, was als sicher gilt  eine detaillierte, strukturierte Analyse und Vergleich der Ergebnisse  öffentlich verfügbare Daten (Code und Prompts) 1.6.2 Experimenteller Aufbau Ausgewählte LLMs Das Hauptauswahlkriterium für KI-Assistenten in dieser Analyse basiert auf ihrer Leistung im HumanEval-Benchmark. HumanEval ist ein weithin referenzierter Benchmark für KI-Assistenten und umfasst 164 Programmierproblemen. Im Durchschnitt wird jedes Problem mit 7,7 Unit-Tests getestet (vgl. Team 2021). Dieser Benchmark verwendet die Metrik pass@k. Für jedes Problem werden k Lösungen generiert. Wenn eine dieser k Lösungen alle Unit-Tests besteht, gilt das Problem als erfolgreich gelöst (vgl. Chen et al. 2021). Im Bereich der Codegenerierung sticht GitHub Copilot als der bekannteste KI-Code- Assistent hervor. Im Gegensatz zu ChatGPT, das nicht ausschließlich auf Codegenerierung ausgerichtet ist, wurde GitHub Copilot speziell für diesen Zweck entwickelt und trainiert. GitHub Copilot basiert auf dem von OpenAI entwickelten GPT-4-Modell (vgl. Github 2023b), wurde jedoch spezifisch für die Codegenerierung trainiert. ChatGPT, basierend auf OpenAIs GPT-4-Modell, gilt als das bekannteste KI-Modell für allgemeine KI-Interaktionen. In den Benchmarks erzielt GPT-4 die besten Ergebnisse der hier ausgewählten Assistenten, obwohl es nicht ausschließlich für Codegenerierung trainiert wurde. Aktuell wird das GPT-4-Modell als Maßstab zum Vergleich neuer KI-Modelle verwendet. CodeWhisperer, entwickelt von Amazon, ist ein weiteres KI-Modell zur Codegenerierung, das in Entwicklungsumgebungen integriert werden kann. Amazon gibt keine weiteren Details zu CodeWhisperer bekannt, erwähnt jedoch, dass Codevorschläge mit Sicherheitsproblemen nicht vollständig ausgeschlossen werden können (vgl. AWS 2023). CodeLlama ist ein Open-Source-KI-Code-Assistent von Meta. Es basiert auf dem von Meta entwickelten KI-Modell Llama 2 und ist in drei Varianten verfügbar: Code- Llama-Python, CodeLlama-Instruct und CodeLlama (vgl. Meta 2023). In dieser Arbeit wird ausschließlich CodeLlama verwendet (Intel i9-13900K, 64GB RAM, NVIDIA RTX 4090, 24GB). <?page no="96"?> 96 Andreas Schaad, Dominik Binder und Stefan Götz Prompt Engineering Um das bestmögliche Ergebnis von einem LLM zu erhalten, ist es notwendig, dass der Prompt (die Frage an das Modell) sowohl präzise als auch für das LLM klar verständlich ist. Durch die Optimierung des Prompts kann der Benutzer zunehmend bessere Ergebnisse erzielen. Ein präziserer Prompt minimiert den Spielraum für eigene Annahmen des LLM über die gewünschten Ergebnisse (vgl. Saravia 2023). Ein Prompt besteht aus vier grundlegenden Elementen, die nicht immer alle erforderlich sind. Fundamental ist der eigentliche Befehl, der definiert, was das KI-Modell tun soll. Fast ebenso wichtig wie der Befehl selbst ist der Kontext, der den Befehl näher beschreibt. Ein weiteres Element sind die möglichen Eingabedaten. Zusammen mit dem nächsten Element, der Ausgabe, definieren diese, was das KI-Modell verarbeiten oder beantworten soll (vgl. Saravia 2023): Befehl und Kontext: "Write a Python function that takes multiple names, concatenates them with "and", and wraps them in {}". Ein- und Ausgabe: Aus "Alice, Bob, Eve" würde "{Alice and Bob and Eve}" Beim Zero-Shot-Prompting wird einem LLM eine Aufgabe ohne spezifische Beispiele oder kontextuelle Informationen präsentiert. Das LLM soll die Aufgabe ausschließlich auf Basis eines allgemeinen Sprachverständnisses lösen. Führt Zero-Shot- Prompting nicht zu einem zufriedenstellenden Ergebnis, verwenden wir Few-Shot- Prompting. Few-Shot-Prompting ermöglicht die Verwendung geeigneter Beispiele zur Bereitstellung zusätzlichen Kontexts und erzielt bessere Ergebnisse. Der Detaillierungsgrad kann variieren, sodass zwischen 1-Shot (ein Beispiel), 5-Shot (fünf Beispiele) usw. unterschieden werden kann. In vielen Fällen reichen auch Few-Shot- Prompts nicht aus, um zufriedenstellende Ergebnisse für komplexe oder vielschichtige Aufgaben zu produzieren. Dies erfordert die Aufteilung der Aufgabe in mehrere Teile und die Beschreibung der Zwischenschritte (vgl. Saravia 2023). Diese Methode wird als Chain-Of-Thought (CoT) bezeichnet und teilt eine komplexe Aufgabe in mehrere Schritte auf, von denen jeder als Zero-Shot-Prompt oder Few-Shot-Prompt formuliert werden kann. Fallstudie und methodischer Ansatz Als unterstützende Fallstudie haben wir eine minimale Web-Anwendung zur Dokumentenverwaltung entwickelt. Diese Anwendung umfasst mehrere technische Funktionen, einschließlich REST-APIs, Authentifizierung, Zugriffskontrolle, Benutzerverwaltung, sichere Inhaltsspeicherung durch Kryptographie und Inhaltsfreigabe. Die Anwendungen wurden mit den Frameworks Django und Express.js erstellt. Zur Realisierung dieser Fallstudie in Python und Javascript mit jedem der 4 LLMs schrieben wir insgesamt 117 Prompts. Diese Prompts teilen sich wie folgt auf:  ChatGPT: Insgesamt 13 / 10 Zero Shot / 3 Few Shot / 0 CoT  Copilot: Insgesamt 22 / 12 Zero Shot / 10 Few Shot / 0 CoT  CodeWhisp.: Insgesamt 56 / 19 Zero Shot / 33 Few Shot / 4 CoT  CodeLlama: Insgesamt 26 / 13 Zero Shot / 12 Few Shot / 1 CoT Die Basisdefinition dafür, wann Code in unserer Analyse als „sicher“ gilt, basiert auf der Expertise eines Programmierers mit einem spezifischen Bachelor-Abschluss in Informationssicherheit und 1-2 Jahren initialer Berufserfahrung in sicherer Anwen- <?page no="97"?> 1.6 Eine Analyse der Sicherheit von LLM-generierten Code 97 dungsentwicklung. Wir verwenden den MITRE-Software-Schwachstellen-Katalog. Dieser listet die Schwachstellen auf, die am häufigsten zu Sicherheitslücken und Exploits führen (vgl. Butterworth et al. 2023). Wir verwendeten einen methodischen Ansatz, indem wir sequenziell Zero-Shot-, 1- Shot-, 2-Shot-, 3-Shot- und Chain-of-Thought-Prompts anwendeten, wobei wir nur dann zum nächsten Schritt übergingen, wenn die vorherige Ausgabe als unsicher eingestuft wurde. 1.6.3 Analyse Die gesamte Analyse umfasste 17 CWEs. Das folgende Kapitel enthält eine detaillierte Analyse einiger ausgewählter CWEs zur Veranschaulichung der Studie sowie einige bemerkenswerte Ergebnisse aus anderen CWEs zur Illustration der vorgestellten Methodik. Die übrigen CWEs wurden in den öffentlich verfügbaren Code-Artefakten dieser Arbeit analysiert, die den vollständigen Code und die Prompts enthalten. SQL Injection Die Interaktion mit der Datenbank wurde in allen Implementierungen einheitlich gestaltet. Zunächst wird eine Funktion generiert, die die Verbindung zur lokalen SQLite-Datei öffnet, den SQL-Befehl ausführt, die Verbindung schließt und bei Bedarf das Ergebnis zurückgibt. Das Ziel war die Verwendung von "Prepared Statements" über die generierte Funktion, was der einfachste und sicherste Ansatz zur Bekämpfung von SQL-Injection-Angriffen wäre. Copilot & Python: Die von Copilot generierte Funktion für die Interaktion mit der Datenbank ist wie folgt: Abb. 13: Code #1 (Quelle: Eigene Darstellung) Die von Copilot generierte Funktion weist keine zusätzlichen optionalen Parameter neben dem Abfrageparameter auf. Folglich ist die Verwendung von „Prepared Statements“ in diesem Kontext nicht realisierbar. Es ist daher ersichtlich, dass diese Funktion nicht zur Abwehr einer SQL-Injektion eingesetzt werden kann. Code 1: Copilot | Python | Query Funktion <?page no="98"?> 98 Andreas Schaad, Dominik Binder und Stefan Götz Abb. 14: Code #2 (Quelle: Eigene Darstellung) Bei der erstmaligen Ausführung der Funktion query_database() generiert Copilot den SQL-Befehl durch die Integration von Eingaben externer Komponenten mittels f-Strings. Da die Eingaben externer Komponenten keiner Validierung durch Copilot unterzogen werden, kann die Web-Anwendung durch SQL-Injektion kompromittiert werden. Copilot behält diese Vorgehensweise bei allen nachfolgenden Datenbankinteraktionen bei. Um diese Problematik mit unserem methodischen Ansatz zu lösen, versuchen wir zunächst, sie durch Zero-Shot-Prompting zu adressieren. In Bezug auf die Funktion query_database() lautet der Zero-Shot-Prompt wie folgt: Zero-Shot-Prompt: Write a secure function to query the database. Die Verwendung eines Zero-Shot-Prompts erwies sich als ausreichend; Copilot hat die Funktionalität um einen optionalen Parameter erweitert. Es gilt nun zu überprüfen, ob dieser optionale Parameter tatsächlich genutzt wird. Der folgende Prompt versucht die Interaktion aus Code 2 zu verbessern. Zero-Shot-Prompt: Interact securely with the database. Abb. 15: Code #3 (Quelle: Eigene Darstellung) Dieser Zero-Shot-Prompt war ebenfalls ausreichend, um die Datenbankinteraktion gegen SQL-Injektionsangriffe abzusichern. Code 3 zeigt die erzielten Verbesserungen. Insgesamt konnte Copilot initial in JavaScript Code generieren, der resistent gegen SQL-Injection war. In Python war es notwendig, die Notwendigkeit für sicheren Code explizit durch Zero-Shot-Prompting anzuzeigen. Code 2: Copilot | Python | Interaktion Code 3: Copilot | Python | Interaktion | Zero Shot <?page no="99"?> 1.6 Eine Analyse der Sicherheit von LLM-generierten Code 99 CodeWhisperer & JavaScript: Die von CodeWhisperer generierte Funktion zur Datenbankinteraktion bezieht sich auf einen Parameter namens "params", der zur Einführung von Parametern in die SQL-Abfrage verwendet wird. Da dies der Standard- Workflow für die Verwendung von "Prepared Statements" ist, kann davon ausgegangen werden, dass die Funktion zur Interaktion mit der SQL-Datei sicher ist. Allerdings erfordert CodeWhisperer für die Erstellung vollständigen und sicheren Codes weiterhin die Verwendung des "params"-Parameters beim Funktionsaufruf. Abb. 16: Code #4 (Quelle: Eigene Darstellung) Bei der Verwendung der executeQuery()-Funktion ist CodeWhisperer jedoch nicht in der Lage, gegen SQL-Injection abzusichern. Wie in Code 4, Zeilen 3-4 dargestellt, wird der SQL-Befehl unter Verwendung von Template-Strings konstruiert, was einem Angreifer SQL-Injection ermöglicht. Zero-Shot-Prompt: Rewrite / register. Interact securely with the database Das Ergebnis unterscheidet sich nicht von dem des anfälligen Codes, wenn der oben genannte Zero-Shot-Prompt verwendet wird, siehe Code 4. Few-Shot-Prompt: Rewrite / register. Interact securely with the database by using parametered variables. Im Few-Shot-Prompt erhielt CodeWhisperer eine präzisere Anweisung zur Lösung des Problems durch die Verwendung eines "Prepared Statement" sowie eine Empfehlung zur Verbesserung der Sicherheit der Interaktion. Dieser Ansatz erwies sich als erfolgreich, wie der begleitende Code 5 zeigt. Abb. 17: Code #5 (Quelle: Eigene Darstellung) CodeLlama & Python: Die in Python generierte Funktion zur Datenbankinteraktion lautet wie folgt: Code 4: CodeWhisperer | JavaScript | Interaktion Code 5: CodeWhisperer | JavaScript | Interaktion | Few Shot <?page no="100"?> 100 Andreas Schaad, Dominik Binder und Stefan Götz Abb. 18: Code #6 (Quelle: Eigene Darstellung) Hier gibt es keine Option zur Abwehr von SQL-Angriffen. Die Interaktion mit der Datenbank gestaltet sich wie folgt: Abb. 19: Code #7 (Quelle: Eigene Darstellung) Auch hier werden keine Maßnahmen gegen SQL-Injection ergriffen. Eine Verbesserung durch Zero-Shot-Prompting war nicht möglich. Ein Few-Shot-Prompt konnte jedoch Verbesserungen generieren, siehe Code 6 und 7. Few-Shot-Prompt: Rewrite the query_database function and the register function to make its interaction with the database more secure by using parametered variables. Abb. 20: Code #8 (Quelle: Eigene Darstellung) Abb. 21: Code #9 (Quelle: Eigene Darstellung) Code 6: CodeLlama | Python | Query Funktion Code 7: CodeLlama | Python | Interaktion Code 8: CodeLlama | Python | Query Funktion | Few Shot Code 9: CodeLlama | Python | Interaktion | Few Shot <?page no="101"?> 1.6 Eine Analyse der Sicherheit von LLM-generierten Code 101 CodeLlama konnte initial in JavaScript sicheren Code generieren. Im Gegensatz dazu erfordert die Generierung sicheren Codes in Python die Verwendung eines Few- Shot-Prompts. Path Traversal Copilot & JavaScript: Der nachfolgende Code veranschaulicht die Handhabung von Copilot. Weder der Titel noch der Benutzername werden einer Überprüfung oder Bereinigung unterzogen. Abb. 22: Code #10 (Quelle: Eigene Darstellung) Zero-Shot-Prompt: Rewrite/ export. Make it more secure. Der Zero-Shot-Prompt hat zu keinerlei Verbesserungen hinsichtlich der Pfadtraversierung geführt. Few-Shot-Prompt: Rewrite/ export. Make it more secure by properly sanitizing input. Few-Shot-Prompt: Rewrite/ export. Make it more secure by properly sanitizing to prevent path traversal. Copilot hat die entsprechenden Maßnahmen gegen Pfadtraversierung erst mit dem 2-Shot-Prompt implementiert, siehe Code 11, Zeile 6. Abb. 23: Code #11 (Quelle: Eigene Darstellung) CodeLlama & JavaScript: CodeLlama führt keine Bereinigung des Benutzernamens oder des Titels für die Pfadkonstruktion durch. Code 10: Copilot | JavaScript | Path Code 11: Copilot | JavaScript | Path | Few Shot <?page no="102"?> 102 Andreas Schaad, Dominik Binder und Stefan Götz Abb. 24: Code #12 (Quelle: Eigene Darstellung) Zero-Shot-Prompt: Überarbeite / export. Mache es sicherer. Few-Shot-Prompt: Überarbeite / export. Erhöhe die Sicherheit durch Eingabebereinigung. Der genannte Few-Shot-Prompt hat Verbesserungen im Hinblick auf Pfadtraversierung bewirkt, siehe Code 13, Zeile 3 und 6. Abb. 25: Code #13 (Quelle: Eigene Darstellung) Einsatz von Kryptographie CodeLlama & JavaScript: Der von CodeLlama in JavaScript generierte Code für die Verschlüsselung weist mehrere Probleme auf. In Code 14 Zeile 3 wird das vom Benutzer eingegebene Passwort zunächst auf 16 Zeichen erweitert und anschließend auf maximal 16 Zeichen gekürzt, um es als Schlüssel zu verwenden. Obwohl dieser Ansatz eine zuvor auftretende Fehlermeldung aufgrund eines ungültigen Schlüssels beheben sollte, macht er die Schlüsselgenerierung höchst unsicher. Darüber hinaus wird der Advanced Encryption Standard (AES) mit einem 256-Bit-Schlüssel im Code 12: CodeLlama | JavaScript | Path Code 13: CodeLlama | JavaScript | Path | Few Shot <?page no="103"?> 1.6 Eine Analyse der Sicherheit von LLM-generierten Code 103 Counter with Timed Release (CTR) Blockmodus unter Verwendung eines statischen Zählers von 256 eingesetzt (Zeile 6). Wie bei dem Initialisierungsvektor (IV) in anderen Blockmodi sollte der Zähler aus einer sicheren, zufälligen Quelle stammen und eine angemessene Länge aufweisen, um eine sichere Verschlüsselung zu gewährleisten. Abb. 26: Code #14 (Quelle: Eigene Darstellung) Zero-Shot-Prompt: Rewrite / encrypt. Make it more secure. Few-Shot-Prompt: Rewrite / encrypt. Make it more secure by using a secure key establishment. Der genannte Zero-Shot-Prompt führte zu keinen Verbesserungen. Die zuvor genannten Probleme wurden jedoch mittels des Few-Shot-Prompts gelöst. CodeLlama verwendet nun die sichere Node.js-Bibliothek "crypto", siehe Code 15. Abb. 27: Code #15 (Quelle: Eigene Darstellung) Code 14: CodeLlama | JavaScript | Encryption Code 15: CodeLlama | JavaScript | Encryption | Few Shot <?page no="104"?> 104 Andreas Schaad, Dominik Binder und Stefan Götz Cross-Site Request Forgery Alle hier getesteten KI-Assistenten hatten Probleme mit Abwehrmaßnahmen gegen CSRF. Obwohl zunächst keine Gegenmaßnahmen generiert wurden, wurde bei der Überarbeitung mittels eines Zero-Shot-Prompts eine weitere Besonderheit beobachtet, die unsicheren Code erzeugt. In JavaScript wurde häufig ein Node.js-Paket namens 'csurf' als Gegenmaßnahme eingesetzt, das 2022 aufgrund erheblicher Sicherheitsmängel eingestellt wurde. Da die Verwendung von 'csurf' bereits vom Entwickler abgeraten wird, kann diese Gegenmaßnahme nicht als sicher eingestuft werden. Trotz der Tatsache, dass das Paket auf npmjs.com als 'deprecated' gekennzeichnet war, verwendete jeder der KI-Assistenten dieses Paket, was unsicheren Code und damit eine Schwachstelle in die Codebasis einführt. 1.6.4 Ergebnisse Tabelle 2 zeigt eine Zusammenfassung der gesammelten Ergebnisse bezüglich der Eingabevalidierungs-CWEs. Ein bemerkenswerter Aspekt sind die erforderlichen Prompts zur Eindämmung von Path-Traversal-Angriffen. Mit Ausnahme eines Assistenten generierte jedes LLM zunächst unsicheren Code. Sie benötigten spezifischere Hinweise durch Few-Shot-Prompts, um Verbesserungen zu generieren. Ein einfacher Hinweis über einen Zero-Shot-Prompt, dass der Code sicher sein sollte, war unzureichend. Es war wichtig zu erwähnen, dass der Code durch Überprüfung und Bereinigung von Variablen sicherer gemacht werden sollte. Mit Ausnahme von CodeWhisperer konnten die LLMs ohne nennenswerte Probleme mit der Datenbank interagieren. CodeWhisperer benötigte zwei Few-Shot-Prompts, wobei in allen getesteten Fällen ein Hinweis auf das Problem erforderlich war. Copilot benötigte einmal einen Zero-Shot-Prompt und CodeLlama einmal einen Few-Shot-Prompt, generierte aber ansonsten sicheren Code. In allen getesteten Fällen zeigte ChatGPT keine Probleme mit SQL-Injection. Tabelle 3 fasst die gesammelten Ergebnisse bezüglich der Verwendung von Kryptographie zusammen. Insgesamt vermieden die KI-Assistenten die Verwendung bekannter unsicherer oder veralteter Algorithmen. Außerdem griff kein KI-Assistent auf unsichere Quellen zur Generierung von Zufallswerten zurück. Allerdings stellte die Integration von Authentifizierung in die Verschlüsselung eine Herausforderung dar, wobei CodeWhisperer ein besonders auffälliges Beispiel war. Auch Copilot und CodeLlama hatten Schwierigkeiten bei der Generierung sicherer Schlüssel, sei es durch die Verwendung statischer Salts oder die Beschränkung auf einfache Hash-Funktionen. Ein besonders kritischer Fall wurde bei CodeLlama beobachtet, das eine speziell entwickelte, aber unsichere Methode zur Schlüsselgenerierung verwendete. Die KI-Assistenten hatten größere Schwierigkeiten bei der Entwicklung von Gegenmaßnahmen für Cross-Site Request Forgery (CSRF) als bei anderen Schwachstellen. In der anfänglichen Generierungsphase integrierte keiner der generierten Codes geeignete Schutzmaßnahmen. In der Python- Implementierung generierte ChatGPT mit einem Zero-Shot-Prompt effektive Maßnahmen gegen CSRF, während die anderen Assistenten nur durch Few-Shot- oder sogar Chain-of-Thought-Prompts Verbesserungen erzielten. Tabelle 4 fasst die gesammelten Ergebnisse bezüglich Zugangskontroll-CWEs zusammen. Im Allgemeinen zeigten die KI-Assistenten minimale Probleme im Bereich der Authentifizierung. Geeignete Maßnahmen wurden oft in die erste Generierung integriert, und wenn dies nicht der Fall war, konnten entsprechende Maßnahmen mithilfe eines Zero- <?page no="105"?> 1.6 Eine Analyse der Sicherheit von LLM-generierten Code 105 Shot-Prompts generiert werden. Nur CodeWhisperer war auf einen Few-Shot- Prompt angewiesen. Ein Mangel an Autorisierung wurde bei allen KI-Assistenten festgestellt, wobei hervorzuheben ist, dass keine fehlerhafte Autorisierung beobachtet wurde. Es wurde nicht beobachtet, dass einer der KI-Assistenten eine Autorisierung generierte, die unsicher durchgeführt wurde. ChatGPT Copilot Code Whisperer CodeLLama Js Py Js Py Js Py Js Py SQL Injection - - - Zero 1-S 1-S - 1-S OS Command Injection - - - - - 2-S - - Input Valid. Zero Zero - - CoT 1-S - Zero Path Traversal 1-S Zero 2-S 1-S 2-S CoT 1-S 1-S Tab. 2: Erforderliche Prompts für die sichere Eingabevalidierung. Zero = Zero-Shot-Prompt | n-S = Few-Shot-Prompt as n Shot | CoT = Chain-Of-Thought | - = ursprünglich bereits sicher (Quelle: Eigene Darstellung) ChatGPT Copilot Code Whisperer CodeLLama Js Py Js Py Js Py Js Py Broken/ Risky Algorithm - - - - - - - - Missing Cryptographic Step Zero - 1-S - 3-S 2-S 1-S - Generation of Weak IV - - - - - 2-S 1-S - Use of Weak Credentials - - 1-S Zero - - 1-S Zero Use of Weak Hash - - 1-S Zero - - 1-S Zero Small Space for Random - - - - - - - - Insufficient Random - - - - - - - - Tab. 3: Erforderliche Prompts zur Sicherstellung der korrekten Verwendung der Kryptographie. Zero = Zero-Shot-Prompt | n-S = Few-Shot-Prompt as n Shot | CoT = Chain-Of-Thought | - = ursprünglich bereits sicher (Quelle: Eigene Darstellung) ChatGPT Copilot Code Whisperer CodeLLama Js Py Js Py Js Py Js Py CSRF 1-S Zero 2-S 1-S CoT CoT CoT 1-S Upload of Dangerous File Zero - Zero 1-S Zero 1-S × 2-S Bad Protected Credentials - Zero Zero - 2-S × Zero Zero Tab. 4: Erforderliche Prompts für die Sicherheit der Webanwendung. Zero = Zero-Shot-Prompt | n-S = Few-Shot-Prompt as n Shot | CoT = Chain-Of-Thought | - = ursprünglich bereits sicher | × = could not be improved (Quelle: Eigene Darstellung) <?page no="106"?> 106 Andreas Schaad, Dominik Binder und Stefan Götz ChatGPT Copilot Code Whisperer CodeLLama Js Py Js Py Js Py Js Py Missing Authentication - - Zero - 1-S Zero Zero Zero Missing Authorization - 1-S Zero - 1-S 2-S - Zero Incorrect Authorization - - - - - - - - Tab. 5: Erforderliche Prompts für die Sicherstellung der Zugriffskontrolle. Zero = Zero-Shot- Prompt | n-S = Few-Shot-Prompt as n Shot | CoT = Chain-Of-Thought | - = ursprünglich bereits sicher (Quelle: Eigene Darstellung) 1.6.5 Fazit und Ausblick Diese Arbeit analysierte, inwieweit die Prompting-Technik eines Benutzers die Sicherheit des generierten Codes beeinflusst, und erweitert frühere Studien wie Khoury et al. (2023) durch die methodische Evaluierung von vier LLMs für Python und Javascript. Dies geschah auf Basis einer Fallstudie und ausgewählter Schwachstellen aus dem CWE-Katalog, was zu 117 Prompts führte. Die Daten für diese Studie sind in einem öffentlichen Repository verfügbar: https: / / github.com/ stefanvqm/ youstill-have-to-study. Eine erweiterte Version des Papers mit zusätzlichen Details und Codebeispielen ist verfügbar unter: https: / / arxiv.org/ abs/ 2408.07106. Diese Analyse bestätigt auch die bereits berichteten Schwierigkeiten von KI-Assistenten bei der Generierung von (sicherem) Code, wie unser Ergebnis zeigt, dass bis zu 65% des anfänglich generierten Codes unsicher war (CodeWhisperer/ Python). Darüber hinaus bestätigte die Analyse, dass KI-Assistenten sich sicherer Praktiken bewusst sind und dass der anfänglich unsichere Code durch zusätzliche Interaktion verbessert werden konnte. Zusätzliche Interaktion mit Prompt-Engineering-Techniken ermöglichte die sichere Neugestaltung des unsicheren Codes in allen bis auf zwei Fällen. ChatGPT konnte die gewünschten Verbesserungen in den meisten Fällen mittels eines Zero- Shot-Prompts generieren, d.h. durch die Anweisung, den Code „sicher“ zu machen. Andere KI-Assistenten wie Copilot konnten ebenfalls hauptsächlich durch Zero- Shot-Prompts sicheren Code generieren. Trotz vieler anfänglich generierter Schwachstellen konnte CodeLlama die meisten Probleme mithilfe von Zero-Shot- und Few-Shot-Prompts lösen. CodeWhisperer zeigte Schwierigkeiten, sowohl bei der anfänglichen Generierung als auch bei der Überarbeitung von unsicherem Code durch zusätzliche Interaktion, aber mit einigen Hinweisen war auch hier eine erfolgreiche Lösung möglich. Es gibt mehrere Richtungen, die unsere zukünftige Forschung angehen wird. Eine davon ist die weiterführende Analyse, welche sich auf Rust, C# sowie LLMs wie Mistral und Claude konzentriert. Parallel dazu beabsichtigen wir, größere Langzeit-Benutzerstudien mit unseren IT-Security-Bachelorstudenten des 2. und 3. Jahres sowie unseren MSc IT-Security-Studenten durchzuführen, um den Einfluss der Ausbildung auf das Prompting zu verstehen. Wir sind auch daran interessiert zu verstehen, welche Arten von eingeführten Schwachstellen durch (regelbasierte) statische Codeanalyse-Tools mit einer automatisierten Feedback-Schleife in das Umschreiben eines vorgeschlagenen Prompts hätten erkannt werden können. <?page no="107"?> 1.6 Eine Analyse der Sicherheit von LLM-generierten Code 107 ChatGPT Copilot Code Whisp. CodeLLama Js Py Js Py Js Py Js Py Unsicher ∗ Sicher ∗ 29% 71% 29% 71% 53% 47% 35% 65% 53% 47% 65% 35% 53% 47% 59% 41% Zero-Shot Sicher † 3 88% 4 94% 4 71% 3 82% 1 53% 1 41% 2 59% 6 76% 1-Shot Sicher † 2 100% 1 100% 3 88% 3 100% 3 71% 3 59% 5 88% 3 94% 2-Shot Sicher † -- -- 2 100% -- 2 82% 4 82% - 88% 1 100% 3-Shot Sicher † -- -- -- -- 1 88% - 82% - 88% -- CoT Sicher † -- -- -- -- 2 100% 2 94% 1 94% -- × - - - - - 1 1 - Tab. 6: Gesamtresultate * Initiale 17 CWEs. † Verbesserung durch Prompting-Techniken (Quelle: Eigene Darstellung) Literatur Alshahwan, N., Chheda, J., Finegenova, A., Gokkaya, B., Harman, M., Harper, I., Marginean, A., Sengupta, S., & Wang, E. (2024). Automated unit test improvement using large language models at Meta . https: / / arxiv.org/ abs/ 2402.09171. Zugegriffen am 18. Dezember 2024 Amazon Web Services/ AWS. (2023). Amazon CodeWhisperer - FAQ . https: / / aws.amazon.com/ de/ codewhisperer/ faqs/ . Zugegriffen am 18. Dezember 2024 Borg, M. (2024). Requirements engineering and large language models: Insights from a panel. IEEE Software, 41 (2), 6-10. Butterworth, J., Coley, S. C., Crouse, K., Johns, C., Kini, G., Lathrop, C., Malinowski, L., & Summers, A. (2023). CWE top 25 most dangerous software weaknesses . https: / / cwe.mitre.org/ top25/ index.html. Zugegriffen am 14. Dezember 2024 Cambaz, D., & Zhang, X. (2024). Use of AI-driven code generation models in teaching and learning programming: A systematic literature review. Proceedings of the 55th ACM Technical Symposium on Computer Science Education , SIGCSE 2024, Association for Computing Machinery, 172-178. Chen, M., et al. (2021). Evaluating large language models trained on code . https: / / arxiv.org/ abs/ 2107.03374. Zugegriffen am 18. Dezember 2024 Das, S., Deb, N., Cortesi, A., & Chaki, N. (2023). Zero-shot learning for named entity recognition in software specification documents. Proceedings of the IEEE International Requirements Engineering Conference , 100-110. Fu, Y., Liang, P., Tahir, A., Li, Z., Shahin, M., & Yu, J. (2023). Security weaknesses of Copilot generated code in GitHub . https: / / arxiv.org/ pdf/ 2310.02059.pdf. Zugegriffen am 14. Februar 2025 GitHub. (2023a). GitHub Copilot - your AI pair programmer . https: / / github.com/ features/ copilot/ . Zugegriffen am 11. Dezember 2024 <?page no="108"?> 108 Andreas Schaad, Dominik Binder und Stefan Götz GitHub. (2023b). GitHub Copilot - November 30th update . https: / / github.blog/ changelog/ 2023- 11-30-github-copilot-november-30th-update/ . Zugegriffen am 26. Dezember 2024 Hossain, S.B., Jiang, N., Zhou, Q., Li, X., Chiang, W.H., Lyu, Y., Nguyen, H., & Tripp, O. (2024). A deep dive into large language models for automated bug localization and repair . https: / / arxiv.org/ abs/ 2404.11595. Zugegriffen am 18. Dezember 2024 Kabir, S., Udo-Imeh, D.N., Kou, B., & Zhang, T. (2024). Is stack overflow obsolete? An empirical study of the characteristics of ChatGPT answers to stack overflow questions. In F.F. Mueller, P. Kyburz, J.R. Williamson, C. Sas, M.L. Wilson, P.O.T. Dugas, & I. Shklovski (Hrsg.), Proceedings of the CHI Conference on Human Factors in computing systems, CHI 2024 (S. 935: 1-935: 17). ACM. Khoury, R., Avila, A.R., Brunelle, J., & Camara, B.M. (2023). How secure is code generated by ChatGPT? https: / / arxiv.org/ pdf/ 2304.09655.pdf. Zugegriffen am 14. Dezember 2024 Meta. (2023). Llama 2: Open source, free for research and commercial use . https: / / llama.meta.com/ llama2. Zugegriffen am 18. Februar 2025 Nam, D., Macvean, A., Hellendoorn, V., Vasilescu, B., & Myers, B. (2024). Using an LLM to help with code understanding. Proceedings of the IEEE/ ACM 46th International Conference on Software Engineering, ICSE ’24 . Association for Computing Machinery, 1-10. Ozkaya, I. (2023). Application of large language models to software engineering tasks: Opportunities, risks, and implications. IEEE Software, 40 (3), 4-8. Pearce, H., Ahmad, B., Tan, B., Dolan-Gavitt, B., & Karri, R. (2022). Asleep at the keyboard? Assessing the security of GitHub Copilot’s code contributions. 43rd IEEE Symposium on Security and Privacy, SP 2022 , IEEE, 754-768. Perry, N., Srivastava, M., Kumar, D., & Boneh, D. (2022). Do users write more insecure code with AI assistants? https: / / arxiv.org/ pdf/ 2211.03622.pdf. Zugegriffen am 14. Dezember 2024 Robles-Aguilar, A., Ocharán-Hernández, J.O., Sánchez-García, A.J., & Limón, X. (2021). Software design and artificial intelligence: A systematic mapping study. 2021 9th International Conference in Software Engineering Research and Innovation (CONISOFT), 132-141. Saravia, E. (2023). Prompt engineering guide . https: / / www.promptingguide.ai/ . Zugegriffen am 27. Dezember 2024 Sheard, J., Denny, P., Hellas, A., Leinonen, J., Malmi, L., & Simon, I. (2024). Instructor perceptions of AI code generation tools - A multi-institutional interview study. Proceedings of the 55th ACM Technical Symposium on Computer Science Education, V. 1, SIGCSE 2024, Association for Computing Machinery, 1223-1229. Shieh, J. (2023). Best practices for prompt engineering with OpenAI API . https: / / help.openai.com/ en/ articles/ 6654000-best-practices-for-prompt-engineering-with-openai-api. Zugegriffen am 17. März 2025 Team, O. (2021). Evaluating large language models trained on code . https: / / arxiv.org/ pdf/ 2107.03374.pdf. Zugegriffen am 17. März 2025 Yuan, Z., Liu, M., Ding, S., Wang, K., Chen, Y., Peng, X., & Lou, Y. (2024). Evaluating and improving ChatGPT for unit test generation. Proceedings of the ACM Software Engineering (FSE), 1-10. Zhao, S. (2023). GitHub Copilot now has a better AI model and new capabilities . https: / / github.blog/ 2023-02-14-github-copilot-now-has-a-better-ai-model-andnew-capabilities/ . Zugegriffen am 26. Dezember 2024 <?page no="109"?> Christian Mühl Zusammenfassung Nicht wenige Experten sehen in Künstlicher Intelligenz einen der größten Entwicklungsschritte der Menschheit: maschinelles Lernen zur Automatisierung bislang rein menschlicher Vorgänge. Zunächst wird der Begriff der KI und der darunterliegende Wandel der Software-Entwicklung sowie -Verwendung kurz erläutert und gegenüber KI abgegrenzt. In einem zweiten Schritt werden einige heutige wie zukünftige Anwendungsbeispiele aufgegriffen, die zeigen, wie weit bereits heute Computersysteme unser menschliches Zusammenleben beeinflussen (können) oder gar schon verändert haben bzw. verändern werden. Damit einhergehende ethische Fragestellungen und Dilemmata werden anhand von Beispielen aufgezeigt. Hieraus lassen sich die Grundanforderungen identifizieren, die allen Themenbereichen zugrunde liegen. Diese werden anhand des KI-Prozesses und anhand von grundlegenden Prinzipien zur KI-Entwicklung sowie -Verwendung ausgearbeitet, bevor die mit dieser Entwicklung verbundenen Erwartungen aus ethischer Perspektive erläutert werden. Das Fazit rundet die Betrachtung mit der Zusammenfassung der Ergebnisse im Sinne einer Handlungsempfehlung zur frühzeitigen Berücksichtigung von ethischen Standards sowie der grundlegenden Vermeidung ethischer Dilemmata ab. Keywords: KI, Dilemma, Steuerberatung, Justiz, Systemsicherheit, Neutralität 1.7.1 Einführung Künstliche Intelligenz (KI) ist in diesen Tagen nicht mehr wegzudenken. Täglich überschlagen sich Nachrichten zu den neusten Generationen an Programmen, die mittels selbstlernender Algorithmen immer mehr Aufgaben besser, schneller und präziser erledigen können. Angesichts der immer schneller werdenden Computertechnik wie Prozessoren mit stets steigender Rechenleistung wird sich diese Entwicklung immer mehr beschleunigen. Spätestens, wenn Quanten-Computer serienreif sind, sind diesen Programmen und deren Einsatz sicher keine Grenzen mehr gesetzt. Insgesamt erleben wir eine (erneute) beschleunigte industrielle Revolution, in der insbesondere wissensbasierte Berufe zumindest auf die Probe gestellt werden, wenn nicht gänzlich Gefahr laufen, durch Maschinen ersetzt zu werden. Schließlich erlauben wir nicht nur den Zugriff auf Informationen, sondern trainieren vielmehr diese Programme gezielt auf diese Szenarien hin, schlicht weil es verspricht, ein attraktives Geschäftsfeld für Unternehmen zu sein. Manche Systeme greifen schon heute über real-live Internet auf das gesamte Wissen der Menschheit zu (und mehr, wenn man z. B. Social Media noch dazu rechnet). Doch welche ethischen Herausforderungen ergeben sich mit dieser Entwicklung, den sich selbst verbessernden Programmen und den daraus resultierenden Folgen für uns Menschen? 1.7 KI ‒ ethische Herausforderungen Fragestellungen, Dilemmata und Auflösung <?page no="110"?> 110 Christian Mühl Abgrenzung KI Um die neuen ethischen Herausforderungen einordnen zu können, bedarf es einer kurzen Abgrenzung von KI, insbesondere zu bisherigen, nicht-KI-basierten Software-Programmen. Bisherige Computer-Programme folgen dem Pfad Eingabe - Verarbeitung - Ausgabe, wobei der Weg der Verarbeitung stets durch Algorithmen sprichwörtlich vorprogrammiert ist: Ein Benutzer klickt mit der linken Maustaste auf einen Link und der Browser verarbeitet, gemäß vordefinierter Routinen, den Klick als Befehl, den Link zu öffnen. Abb. 28: Nicht-KI-System-Prozess (Quelle: Eigene Darstellung) Künstliche Intelligenz hingegen folgt auch diesem Prinzip, jedoch nur im Grundprogramm, wie es grundsätzlich mit Daten umgehen und daraus lernen soll. Je nach Modell analysiert KI Informationen nach möglichen Strukturen, verknüpft diese selbständig z.B. nach Mustern und gibt eine auf Wahrscheinlichkeiten basierte Lösung aus. Die Verarbeitung erfolgt dabei bewusst und gewollt nicht (mehr) auf fest vorprogrammierten Pfaden, sondern auf von dem Programm selbst generierten Informationen zu Mustern und wahrscheinlichen Abhängigkeiten von Daten untereinander. Da die von der Software erkannten Muster nicht programmiert sind, kann auch die Verarbeitung der Daten und Informationen hin zur Ergebnisausgabe nicht mit absoluter Sicherheit vorhergesagt werden. Vielmehr hängt das Ergebnis z. B. von Datenmustern und von der Software bestimmten Wahrscheinlichkeiten von Abhängigkeiten zwischen den Daten ab. Je mehr Daten dabei der KI zum Training zur Verfügung gestellt werden, desto mehr kann diese lernen und dabei Muster wie Wahrscheinlichkeiten schärfen, um noch bessere Ergebnisse ausgeben zu können. Eine Nachvollziehbarkeit der Arbeitsweise wie in klassischen Nicht-KI-Computerprogrammen ist dabei nicht mehr gegeben und erfolgt gewissermaßen in einer Blackbox. Abb. 29: KI-System Prozess (Quelle: Eigene Darstellung) <?page no="111"?> 1.7 KI ‒ ethische Herausforderungen 111 Damit ist auch einer der entscheidenden Grundfaktoren für KIs und deren Anwendungsmöglichkeiten identifiziert: die Informationen und Daten, die der KI zur Verfügung gestellt wurden und werden, um Muster zu lernen und letztlich für den Anwender zu sinnvollen Ausgaben / Ergebnissen kommen zu können. Daneben ist die durch die KI-Modelle bedingte, bewusst gewollte Abkehr von fest definierten Ausgaberoutinen ein weiterer Punkt, der Anwender von KI-Systemen vor neue Herausforderungen stellt. Einige zentrale Fragestellungen, die sich für Nutzer dieser neuen Software-Gattung ergeben:  Wer hat die KI entwickelt, wer wie trainiert?  Sind die in der KI hinterlegten Trainingsroutinen frei von unerwünschten / verdeckten Einflüssen?  Welche Datenquellen wurden zum Training der KI genutzt?  Wurde die KI (ausreichend) vollständig oder nur (unzureichend) in Teilen für das relevante Einsatzgebiet trainiert?  Wie können KI-Ergebnisse im Zweifel (anderweitig und außerhalb der KI) nachvollzogen / validiert werden? All diese Fragen sind - je nach KI und den von ihren gelieferten Ergebnissen - mehr oder weniger relevant und stellen je eine Teilfrage zur grundsätzlichen Herausforderung bei der Arbeit mit den neuen Systemen:  Wieviel Vertrauen darf ein Nutzer in eine spezifische KI und deren Ergebnissen haben? Und aus dem Vertrauen in das System abgeleitet für die Ergebnisse stellt sich die folgende Frage:  Inwiefern darf ein Nutzer sich auf von der KI generierte, unvalidierte Ergebnisse verlassen - und vor allem: wann darf sich ein Nutzer auf die KI-Daten verlassen, ohne weitere zusätzliche Ergebnisvalidierung außerhalb der KI heranzuziehen? Nachfolgend werden einige KI-Anwendungsbeispiele bzw. -Szenarien zur näheren Beleuchtung vorstehender Fragen und den damit verbundenen ethischen Herausforderungen und Dilemmata vorgestellt. 1.7.2 Anwendungsbeispiele Spätestens seit der Veröffentlichung von ChatGPT ist KI Bestandteil der informationstechnologischen Weiterentwicklung. Die nachfolgenden heutigen sowie künftig zu erwartenden Anwendungsbeispiele erlauben eine nähere Betrachtung von ethischen Fragestellungen sowie ethischer Dilemmata. Übersetzungen Eine schon lange von unterschiedlichen Digitalisierungstechnologien betroffene Berufssparte sind bspw. Übersetzer. Das kleine Übersetzungsbüro in der Innenstadt wird heute wohl kaum einer mehr vor Augen haben, wenn man eine Übersetzung eines Textes braucht. Dabei ist es schon jetzt nahezu irrelevant, in welcher Form der Text vorliegt. Ein kurzes Foto mit dem Handy genügt, eine App zum Scannen auf dem Gerät liest das Dokument ein und die nächste App übersetzt. Bei Bedarf generiert die KI dann noch eine kurze Zusammenfassung oder ein kurzes Audio über den Inhalt. <?page no="112"?> 112 Christian Mühl Heutige KI-Systeme sind nicht nur in der Lage, innerhalb von Sekunden seitenlange Dokumente in so ziemlich jede Sprache der Welt zu übersetzen. KI schafft es heute bereits, z.B. archäologische Sprachmuster und Texte zu entziffern, die aus rein menschlicher Perspektive und Wissenslage bislang als nicht übersetzbar galten. Ethische Fragestellungen können hierbei z. B. sein:  Sind die Ergebnisse der Übersetzung so frei von Fehlern, dass das Ergebnis ohne weiter Prüfung übernommen werden kann?  Kann das Ergebnis auch dann übernommen werden, wenn die Übersetzung für Rechtsakte wie bspw. eine Beurkundung genutzt werden soll?  Wer trägt im Zweifel die Verantwortung für die Verwendung der Übersetzung - und warum? Steuerberatung Damit ist es nur eine Frage der Zeit, bis andere - bislang als hoch komplex geltende - Wissensberufe von KI-Systemen teilweise unterstützt bis gänzlich ersetzt werden. Ein weiteres Beispiel könnte hierbei die Zunft der Steuerberater sein, die von nahezu allen Bürgern (in Deutschland) benötigt wird. Sie beschäftigen sich mit teils hochkomplexen Fragestellungen - weil hochkomplexem Steuerrecht - und sind bislang nicht ersetzbar. Da es sich um eine rein auf Wissensarbeit fokussierte und teure Dienstleistung handelt, können KI-Systeme hier schnell wirtschaftliche(-re) Lösungen anbieten. Anfangs wird es „nur“ um einfache Fragestellungen gehen. Mittelfristig ist im Zuge der rasanten Entwicklung der Programme und Rechenkapazitäten von entsprechenden Computerprozessoren (Stichwort: Nvidia) eine Entwicklung für die breite Masse absehbar. Die ersten Anbieter von Steuererklärungssoftware werben bereits heute mit dem Einsatz von KI zur Navigation durch Steuerformulare und die Beantwortung relevanter Fragen und weisen dabei (gesetzeskonform) auf das Steuerberatungsprivileg von (allein menschlichen) Steuerberatern hin. Analog zu Übersetzungen muss hier beim Einsatz von KI-Systemen die Frage der Verantwortung für das Ergebnis und dessen Verwendung gestellt werden. Wenn sich z.B. im Nachgang herausstellt, dass die KI in der Steuerberechnung zu einseitig vorteilhaft für den Steuerpflichtigen war, stellt sich ganz von selbst das Dilemma:  Wer trägt die Verantwortung hierfür in einem ggf. vom Finanzamt im Nachgang angestrebten Steuergerichtsverfahren? Der Nutzer? Die Software selbst? Der Hersteller?  Wer ist zur Verantwortung zu ziehen, wenn die KI-Software zu einseitig zu Gunsten des Finanzamts berechnet hat und der Nutzer hieraus einen Schaden gelten machen will? Bewerberauswahl Eines der bekanntesten, weil frühesten Beispiele für die Verwendung von IT-Systemen zur Analyse und Entscheidungsfindung mit kritisch zu betrachtenden Ergebnissen war eine von Amazon eingesetzte Software zur Analyse von Bewerberdaten aus Lebensläufen, die Amazon im Rahmen der Mitarbeiterrekrutierung eingesetzt hat (vgl. Heise 2018). Auch wenn der Vorteil einer automatisierten Analyse aller Bewerber als hoch eingestuft werden kann, zeigte sich jedoch 2018 bei Betrachtung der von der Software in Anschluss ausgestellten Bewerber-Empfehlungen, dass die Soft- <?page no="113"?> 1.7 KI ‒ ethische Herausforderungen 113 ware Frauen grundsätzlich schlechter als Männer bewertete. Dies lag wohl daran, dass Amazon in der Vergangenheit vornehmlich männliche Bewerber eingestellt hatte und folglich das System auf Basis historischer Daten lernte, in welche Richtung es entscheiden sollte. Oder anders betrachtet: Es zeigte dem Unternehmen mit den generierten Ergebnissen nicht weniger als das eigene, in der Vergangenheit einseitige Einstellungsverhalten spiegelbildlich auf und setzte dieses nur fort. Letztlich wurde vom Unternehmen dieser Umstand eingeräumt und zugleich betont, dass man - statt der erhofften vollständigen Automatisierung der Bewerberselektion - nicht über den Vorschlagsfunktion hinauskam bzw. -ging. Aus ethischer Sicht mag die Automatisierung von Routinetätigkeiten in Unternehmen als völlig unkritisch zu betrachten sein. Doch bereits hier stellt sich die Frage, inwieweit eine Vorauswahl von Bewerbern aufgrund verschiedenster Kandidatenmerkmale als einfacher Routineprozess klassifiziert werden sollte, wenn man an die Hoffnungen und Nöte der jeweiligen BewerberInnen denkt. Erst eine reflektierte, menschliche Nachbetrachtung wie die Analyse der KI-Ergebnisse der Software hat Erkenntnisse über die vorstehende Problematik gebracht. Selbst wenn man den Datenschutz und den dazugehörigen Fragenkatalog außer Acht lässt, stellen sich auch in Unternehmen etliche ethische Fragestellungen:  War es - alleine schon mit Blick auf die mögliche Tragweite der Ergebnisse - richtig, den Prozess der Bewerbersichtung auszuwählen und wenn ja, basierend auf welchen Kriterien?  Liegt hier eine systematische Benachteiligung von weiblichen Kandidatinnen vor und wenn ja, wer trägt hierfür die Verantwortung? Der Softwareprogrammierer, die Manager mit ihrem Einstellungsverhalten der Vergangenheit, das die Software gewissermaßen nur fortgesetzt hat, oder jemand ganz anderes? Justiz Gerade im Bereich der Justiz stellen sich zahlreiche grundsätzliche Fragen zum generellen Einsatz von KI, bspw. wenn es um die juristische Arbeit und die Bewertung von Straftaten geht. Davon ausgehend, dass eine KI alle Paragraphen und auch deren Interpretationen in Kommentaren erlernen kann, wäre es nur hilfreich, KI auch bei Gerichtsverfahren zu nutzen. Aus ethischer Sicht auf den ersten Blick vielleicht sogar ein Vorteil: wenn die KI alle Gesetzestexte und Kommentare kennt, dann wird hierbei auch nichts übersehen, es kommt zu einer klaren juristischen Aufarbeitung des Sachverhalts mit abschließend den Gesetzen entsprechend ausgewogener Urteilsfindung. Andererseits:  Wer stellt sicher, dass die KI auch wirklich alle Gesetzestexte und deren Beiwerke gelernt hat - und zwar so, dass diese auch sinnvoll und zielgerichtet vom Algorithmus kombiniert werden?  Wie kann ausgeschlossen werden, dass die KI nicht auch noch zusätzlich auf anderen oder zusätzliche (z. B. ausländische) (Gesetzes-)Texte trainiert wurde?  Wie wird von der KI der juristische Gleichheitsgrundsatz gewahrt? <?page no="114"?> 114 Christian Mühl  Inwieweit kann sich ein Gericht eine KI in die eigene Arbeit miteinbeziehen? Zur reinen Recherche? Für einen Urteilsvorschlag? Zur Formulierung der Urteilsbegründung? Zur Festsetzung der Freiheits-(Strafe), z. B. abgeleitet aus früheren Urteilen?  Wie wird die Transparenz des Gerichtsverfahrens und der Verwendung von KI insbesondere für Angeklagte und die Öffentlichkeit sichergestellt?  Welche Konsequenzen ergeben sich (und für wen), wenn sich die im Verfahren von der KI eingebrachten Ergebnisse im Nachhinein als falsch herausstellen?  Und auch ein ganz neues Dilemma stellt sich mit der Verfügbarkeit von Legal-KI- Systemen: Was, wenn diese nicht eingesetzt werden? Ist es überhaupt (ethisch) vertretbar, sich allein auf das Wissen (oder Nicht-Wissen) des Gerichts zu verlassen? In diesem Zusammenhang sei erwähnt, dass eines der ersten konzeptionellen KI- Softwaresysteme aus 2016 gerade im Bereich Justiz mit (potenziell) dramatischen Folgen für betroffene Menschen ein Algorithmus war, der in den USA zur Berechnung der Rückfälligkeitswahrscheinlichkeit von Strafgefangenen genutzt wurde (vgl. Propublica.org 2016). Hierbei musste man im Laufe der Zeit feststellen, dass das Programm afro-amerikanische Menschen zu einseitig negativ bewertet hat. Eine aus ethischer Sicht äußerst kritische Beobachtung, die bei unreflektierter Verwendung der Ergebnisse für betroffene Personen fatale Folgen haben konnte. Auch dieses Beispiel rund um eine (potenziell unreflektierte) Verwendung der Ergebnisse schafft weitere ethische Fragestellungen, weil die Folgen in mehrfacher Richtung für betroffene Menschen weitreichend sein können. Basierend auf den Ergebnissen der Software:  Erhalten Strafgefangene ein Leben in Freiheit zurück (oder nicht)?  Wie wird das Dilemma aufgelöst, wenn Rückfallfaktoren vom Programm übersehen, falsch oder als zu wenig wahrscheinlich bewertet werden und es nach der Freilassung von Strafgefangenen gemäß Computerberechnung zu weiteren Opfern kommt? Autonomes Fahren Mithin die spannendsten ethischen Fragestellungen ergeben sich mit der Entwicklung von KI für unsere individuelle Fortbewegung: das Auto und das sich derzeit rasant weiterentwickelnde autonome Fahren. Von außen betrachtet kann vermutet werden, dass Autofahren ein verhältnismäßig einfacher Routineprozess ist. Einsteigen, anschnallen, Auto anlassen und Gaspedal drücken. Dort, wo es notwendig ist, bremsen bzw. anhalten, ansonsten weiterfahren, je nach Bedarf links oder rechts abbiegen, das Ganze GPS-gestützt und mit Kamerasystemen abgesichert, einfach von A nach B. Und auch wenn Systeme zum autonomen Fahren mit KI unterstützt werden (zum Zeitpunkt dieses Artikels hat der chinesische Autobauer BYD eine Kooperation mit dem Hongkonger KI-Anbieter deepseek für automobile Massenmodelle angekündigt, springerprofessional.de 2025), so bleiben doch - wie bei fast jedem Beispiel - ethische Fragestellungen: <?page no="115"?> 1.7 KI ‒ ethische Herausforderungen 115  Wie wird sichergestellt, dass die KI alle Situationen korrekt bewertet? Und wie wird insbesondere in kritischen Begebenheiten wie sich anbahnenden / unvermeidbaren Unfällen „korrekt“ definiert?  Welche Entscheidungen (in Bruchteilen von Sekunden) werden der KI überlassen?  Was, wenn es bei der Entscheidung um Menschenleben geht - z. B. Insassen des Fahrzeugs oder Passanten?  Wie wird die Maschine (trainiert zu) entscheiden, wenn es um Situationen geht, in welchen zwischen zwei oder mehr Menschen entschieden werden muss (hat der Insasse des Fahrzeugs Priorität beim Unfall oder der Unfallgegner)?  Wer trägt die Verantwortung für die Entscheidungen der KI im autonomen Fahrmodus bei einem Unfall? Der Fahrer? Der Autohersteller? Der Programmierer / Trainer der KI?  Wer trägt die Verantwortung, wenn der Autohersteller Over-the-air-Software- Updates auf das Fahrzeug spielen kann / spielt, die das autonome Fahren und diese Entscheidungsfindungen betreffen? Zusammenfassung ethische Fragestellungen und Grundsätze Diese beliebig erweiterbare Aufzählung an Beispielen und den damit verbundenen ethischen Fragestellungen und Dilemmata zeigt, dass sich bei der Entwicklung wie dem Einsatz von KI-Systemen zahlreiche ethische Herausforderungen ergeben, deren Details sich heute schwer eingrenzen lassen. Dies liegt in erster Linie an den unzähligen Anwendungsgebieten, in welchen KI-Systeme heute getestet werden. Bei näherer Betrachtung der vorstehenden Beispiele lassen sich in jedem Fall etliche grundlegende übergreifende Themen und damit einhergehende ethischen Fragestellungen entlang des oben dargestellten Schemas der KI-Systementwicklung und -Nutzung herausarbeiten: Einsatzzweck und -umfang Von grundsätzlicher entscheidender Tragweite ist die Bestimmung des Einsatzzwecks und -umfangs, der mittels KI unterstützt und / oder automatisiert werden soll. Insofern müssen bei der Auswahl des zu unterstützenden / automatisierenden Prozesses schon vor der Entwicklung einer KI folgende Fragen gestellt werden:  Was soll mittels KI automatisiert werden?  Welche grundsätzlichen (ethischen) Risiken ergeben sich mit dem zukünftigen Einsatzgebiet und wie wird sichergestellt, dass diese auch ausreichend (wahrscheinlich genug) von der KI berücksichtigt werden?  Welche Folgen kann die KI-Automatisierung im Extremfall für Mensch oder Umwelt haben? Trainingsdaten/ -informationen Ein KI-System ist grundsätzlich abhängig von den Trainingsdaten und -informationen, mit welchen es ausgestattet wurde. Nur mit (ausreichender) Vollständigkeit dieser kann die KI später auch relevante Ergebnisse ausgeben. Damit stellen sich die grundsätzlichen Fragen:  Mit welchen Daten / Informationen muss die KI trainiert werden und wie intensiv? <?page no="116"?> 116 Christian Mühl  Welche Daten / Informationen sind nicht relevant bzw. ggf. sogar kontraproduktiv? Eingabe Nur mittels zielgerichteter Eingaben kann eine KI auch sinnvolle Ergebnisse liefern. Insofern müssen auch der Nutzer des KI-Systems im Fokus der KI-Entwickler stehen und die Fragen rund um Nutzertraining beantwortet werden.  Wer wird die KI nutzen?  Ist der Nutzer ausreichend informiert und trainiert, zielgerichtete Eingaben zu machen und ggf. verfeinern? Ausgabe Die Ergebnisse eines KI-Systems beruhen auf von der Software erlernten Mustern und Wahrscheinlichkeiten. Ein direkte Nachvollziehbarkeit - bspw. mittels Programmroutinen - ist bewusst nicht vorgesehen. Insofern muss bei der Ergebnisberechnung wie -ausgabe auf folgende Fragen eingegangen werden:  Basierend auf welcher Eingabe und in welchem Kontext sind die KI-Ergebnisse zustande gekommen?  Was waren die (Berechnungs-)Schritte des Systems bis hin zur Ausgabe des Ergebnisses? Darüber hinaus müssen etliche ethische Grundsätze im Umgang mit KI berücksichtigt werden, damit das grundsätzlich notwendige Vertrauen in KI-Systeme aufgebaut und gleichzeitig schon heute erkannte ethische Dilemmata sinnvoll aufgelöst werden können. Dabei ist nicht nur einer der nachstehenden Grundsätze von grundlegender Relevanz, sondern vielmehr der gemeinsame Kanon. Zu jedem Grundsatz und Anspruch an KI-Systeme ergeben sich Fragestellungen, die es zu beantworten gilt: System- und Inhaltsverantwortung Wer hat die KI entwickelt und / oder trainiert? Ist diese Firma oder Person für alle System- und auch Trainingsfragen inhaltlich wie ethisch verantwortlich? Welche Art und Anzahl von Fehlern sind z.B. im Rahmen vom KI-Training akzeptabel? Welche Fehler müssen von wem ausgeschlossen werden? Systemsicherheit Wie wird die Sicherheit des KI-Systems und der trainierten Inhalte sichergestellt - insbesondere bei im Internet bereitgestellten Diensten, die auch Eingaben lernen? Bei geschlossenen KI-Systemen wie KI bspw. im Bereich des autonomen Fahrens: wie werden Zugriffe autorisiert und nicht-autorisierte Zugriffe verhindert? Neutralität Wie wird bei der Entwicklung ein ethisch einwandfreies, weil faktenbasiertes, fehlerfreies wie vollständiges Lernen sowie analog entsprechende Ausgaben sichergestellt, z. B. frei von einseitigen / beschränkten / fehlerhaften Informationen? Transparenz Wie werden eingesetzte Datenquellen, die generative Vorgehensweise und die Ergebnisse von KI stets erkennbar transparent gehalten? <?page no="117"?> 1.7 KI ‒ ethische Herausforderungen 117 Wie werden Zugriffe von außen zugelassen und - wenn zulässig - wie werden Änderungen am System durch (externe) Eingriffe abgesichert? Ergebnisverantwortung Wer hat die Deutungshoheit über ein KI-generiertes Ergebnis? Der Mensch oder die KI? Wer trägt die Verantwortung für KI-generierte Ergebnisse? Der KI-Hersteller? Der ggf. davon abweichende Trainer des Systems? Besteht die Verantwortung nur für das jeweilige generierte Ergebnis oder auch für daraus ggf. erwachsende Folgen im Extremfall? Und wenn ja, bis wohin? Folgeverantwortung Dürfen Ergebnisse von KIs (unvalidiert) z. B. als Entscheidungen übernommen werden und wenn ja, innerhalb welcher Grenzen? Dürfen KIs gänzlich alleine Entscheidungen treffen und wenn ja, in welchen Bereichen nicht (mehr)? Missbrauchsschutz Wie wird proaktiv ein Missbrauch von KI-Systemen zur Generierung von ethisch fragwürdigen Ergebnissen verhindert? Wie wichtig die vorstehenden Prinzipien sind, hat sich erst in jüngster Vergangenheit mit dem Release der KI Grok des Tech-Milliardärs Elon Musk gezeigt (vgl. Spiegel.de 2025). Grok wurde zwischenzeitlich angelernt bzw. eingeschränkt, dass es keine kritischen Rückmeldungen zu Elon Musk selbst, aber auch zu Donald Trump gibt. Vielmehr erscheint es, dass die KI die politischen Ansichten von Musk vertreten soll (vgl. welt.de 2025). Die „maximal wahrheitssuchende KI“ entsprach somit nicht den gemachten Versprechungen und es stellt sich automatisch die Frage, wie sehr andere Ergebnisse vorab reglementiert wurden und die KI überhaupt noch verlässlich eingesetzt werden kann. Noch relevanter werden die Prinzipien, wenn man über nicht rein digitale KI-Systeme spricht, sondern neben Autos noch höher entwickelte, mechanische System mit KI-Unterstützung wie bspw. Roboter miteinbezieht. Zum Zeitpunkt dieses Artikels hat das Robotics Startup Figure die erste KI für humanoide Roboter im Haushalt gezeigt (vgl. Techcrunch 2025). 1.7.4 Ethische Anforderungen und Erwartungen Zur Regulierung der Entwicklung und des Einsatzes von KI-Systemen hat die Europäische Union bereits im Jahr 2024 ein entsprechendes Gesetz erlassen (vgl. Bundesregierung.de 2024). Das unter dem Namen AI Act verabschiedete Gesetz setzt den regulatorischen Rahmen mit analogen (ethischen) KI-Grenzen. Im Vordergrund steht hierbei der Schutz vor (zu) hohem Risiko in verschiedensten möglichen Einsatzgebieten von KI. Als hochriskant eingestuft werden bspw. die Bereiche kritische Infrastruktur, Beschäftigung, Gesundheits- und Bankenwesen. Gleichzeitig definiert das Gesetz einen Zulassungsprozess für KI-Anwendungen. Wie in den wenigen vorstehenden Beispielen ausgeführt, sind die ethischen Fragestellungen und Dilemmata beim Einsatz von KI stets zahlreich und selten vollständig wie einfach zu beantworten. Aus diesem Grunde sei an dieser Stelle in Referenz zu den zu Beginn aufgeworfenen Themen ein kurzer Katalog an beispielhaften Anforderungen und Erwartungen definiert, der dabei helfen soll, ethische Fragestellungen sowie Dilemmata frühzeitig <?page no="118"?> 118 Christian Mühl zu erkennen und aufzulösen, um notwendiges Vertrauen in die Erstellung, das Training wie die Ergebnisse / Nutzung von KI auf- und auszubauen: Systemsicherheit Ein für die heutige Computerwelt nicht neuer Punkt wird mit dem Einsatz von KI nochmals relevanter: die Frage nach der Systemsicherheit. KI-Systeme werden regelmäßig von Unternehmen / Organisationen betrieben, die diese Systeme online / über das Internet zur Verfügung stellen. Bereits heute autonom fahrende Autos sind vernetzt und unterstehen gewissermaßen der dauernden Kontrolle durch den jeweiligen Betreiber. Es ist zu erwarten, dass gerade aufgrund der weitreichenden Vernetzung von KI-Systemen, dem Punkt der Systemsicherheit sowie der Zugriffssteuerung eine deutlich höhere Aufmerksamkeit geschenkt werden muss. Dies gilt umso mehr, wenn man den Bereich KI und deren Einsatz im Bereich Robotik in Haushalten miteinbezieht. Technische Begleitung Wie die vorstehenden Beispiele gezeigt haben, geht es nicht ohne eine technische Begleitung der KI. Diese muss ausreichende technische Tests des zugrundliegenden KI-Modells vor deren Einsatz sowie fortlaufende technische Funktionalitätsprüfungen umfassen. Lösungsansätze könnten bspw. technische Zertifizierungsstellen sein, die jeweils durch fortlaufende Maßnahmen Vertrauen in das KI-Modell selbst sicherstellen und im Zweifelsfall auch (korrektiv) einschreiten können. Fachliche Begleitung Nachdem den Trainingsinhalten einer KI entscheidende Bedeutung für die spätere Funktionalität zukommt, ist eine - soweit möglich lückenlose - fachliche Begleitung durch menschliche Experten(-gremien) als einer der zentralen Eckpunkte für das spätere Vertrauen in die KI zu erwarten. Transparenz Die Ergebnisfindung muss stets maximal transparent gestaltet werden, um einzelne Berechnungsschritte nachvollziehen und etwaige Lücken oder fehlerhafte Schlussfolgerungen entdecken und bei der Ergebnisbewertung berücksichtigen zu können. Dies gilt auch bei der Verwendung und Kenntlichmachung von KI-generierten Ergebnissen, um insbesondere Missbrauch zu vermeiden. Diese Forderung ist bereits heute Vorgabe innerhalb des AI Acts. Es ist zu erwarten, dass das heute bereits von vielen KIs verwendete Reasoning, wobei einzelne Schritte von der Eingabe-Fragestellung zur Lösung transparent auf dem Bildschirm erscheinen zu einem wichtigen Standard für alle KIs wird. Auch eine Pflicht zur Angabe aller verwendeten Quellen, die zur Generierung des Ergebnisses geführt haben, ist denkbar und zielführend. Ergebnisverantwortung Auch wenn in vorderster Front die KI ein Ergebnis berechnet und ausgibt, so muss die letztliche Verantwortung bei Verwendung jedweder KI-Ergebnisse immer beim Nutzer der KI liegen. Fragen rund um die automatisierte Ergebnisverwendung z.B. im Bereich des autonomen Fahrens und bei Entscheidung in kritischen Unfallsituationen bleiben eine ethische Herausforderung. <?page no="119"?> 1.7 KI ‒ ethische Herausforderungen 119 1.7.5 Fazit KI hat das Potenzial, unser Leben grundsätzlich zu verändern - im positiven wie negativen Sinne. Die aufgezeigten Fragestellungen und Dilemmata sind umfassend und können Stand heute nicht vollumfänglich beantwortet bzw. aufgelöst werden. Grundlage der Entwicklung und Nutzung von KI muss eine Vorabbetrachtung der zu automatisierenden Routinen und Prozesse sein. Je kritischer ein Prozess ist und ein KI-generiertes Ergebnis hierfür sein kann, desto kritischer muss der Einsatz von KI und die Übernahme von KI-Ergebnissen hinterfragt werden. Um sprichwörtlich Herr über die Lage und die maschinelle Automatisierung zu bleiben, bedarf es zudem einer Begleitung der Entwicklung von KI-Systemen zum Zwecke des Vertrauensaufbaus wie der -weiterentwicklung - und im Zweifel auch des Vertrauensentzugs. Zentrale Elemente hierbei werden technisches Verständnis zur Arbeitsweise und der Sicherheit von KI-Systemen sein. Ebenso relevant ist das fachliche Wissen zur Qualitätssicherung beim Training der KI sowie bei der Validierung von KI-generierten Ergebnissen. Schlussendlich wird an dieser Stelle klar, dass die Entwicklung und der Betrieb von KI-Systemen in Zukunft (weiterhin) enormes menschliches Know-how - gerade im Bereich KI - benötigen wird. Dabei darf die fachliche Expertise zur Interpretation und Validierung von KI-Ergebnissen nicht vernachlässigt werden. Die Frage der Verantwortung stellt sich auf allen Ebenen der KI-Entwicklung und KI-Verwendung. Ein schon heute ansteigendes Risiko durch KI-generierte Bilder oder Videos zeigt, dass gerade im Bereich der Verwendung von KI-Ergebnissen noch viel Risiko und entsprechend viel Regelungsbedarf besteht. Der AI Act der Europäischen Union ist hierzu ein erster Schritt; die nationalen Gesetze müssen entsprechend folgen und einen pragmatischen Umgang mit den Risiken erlauben. Notwendigkeiten wie Optionen zur Zertifizierung und Transparenz müssen eingerichtet und als Grundsätze etabliert werden. Eben weil die Chancen von KI in forschungsintensiven Bereichen wie bspw. der Medizin oder der Pharmaindustrie enorm sind, besteht die Erwartung, dass gerade in diesen Bereichen die (ethische) Entwicklung und Nutzung von KI nicht nur reguliert, sondern sogar intensiv gefordert und gefördert wird. Insgesamt gesehen sind KI-Systeme - wenn sie richtig eingesetzt werden - eine enorme Chance zur Weiterentwicklung und zur Erhöhung des globalen Lebensstandards aller Menschen. Mit den heute wahrscheinlich noch nicht abgrenzbaren Möglichkeiten dieser Systeme geht gleichzeitig die hohe ethische Verantwortung einher, die Systeme ethisch korrekt zu entwickeln und deren Einsatz entsprechend ethisch zum positiven Nutzen möglichst vieler Menschen zu gestalten. So spannend diese Reise heute schon ist, so unwegsam mag sie in Zukunft auch werden. Es liegt an uns, die ethischen Grundsätze zu etablieren, einzuhalten und auch einzufordern, denn der Grundsatz auf dieser Reise bleibt: Vertrauen (in KI) ist gut, Kontrolle (des Systems, der KI-Ergebnisse sowie deren Nutzung) ist besser. <?page no="120"?> 120 Christian Mühl Literatur Bundesregierung.de (2024). AI Act verabschiedet Einheitliche Regeln für Künstliche Intelligenz in der EU . https: / / www.bundesregierung.de/ breg-de/ aktuelles/ ai-act- 2285944. Zugegriffen am 2. März 2025 Heise.de (2018). Amazon: KI zur Bewerbungsprüfung benachteiligte Frauen. https: / / www.heise.de/ news/ Amazon-KI-zur-Bewerbungspruefung-benachteiligte-Frauen-4189356.html. Zugegriffen am 2. März 2025 Propublica.org (2016). Machine Bias - There’s software used across the country to predict future criminals . And it’s biased against blacks. https: / / www.propublica.org/ article/ machine-bias-risk-assessments-in-criminal-sentencing. Zugegriffen am 25. Februar 2025 Spiegel.de (2025). Instruktion für Grok/ Musks Chatbot sollte missliebige Fakten über Musk und Trump verschweigen . https: / / www.spiegel.de/ netzwelt/ web/ grok-chatbot-sollte-missliebige-fakten-ueber-elon-musk-und-donald-trump-verschweigen-a-90acee26-b58f-4186-a998-577fe9ce87bb. Zugegriffen am 1. März 2025 Springerprofessional.de (2025). KI-Modell DeepSeek erhöht Druck auf Autobranche . https: / / www.springerprofessional.de/ kuenstliche-intelligenz/ automobilelektronik---software/ wie-ki-die-automobilwelt-veraendert/ 50571080. Zugegriffen am 22. Februar 2025 Techcrunch.com (2025). Figure will start ‘alpha testing’ its humanoid robot in the home in 2025 . https: / / techcrunch.com/ 2025/ 02/ 27/ figure-will-start-alpha-testing-its-humanoid-robot-in-the-home-in-2025/ . Zugegriffen am 1. März 2025 Welt.de (2025). KI-Modell Grok 3/ Unfreiwillig stellt Musk eine der großen Hoffnungen der Tech-Branche infrage . https: / / www.welt.de/ wirtschaft/ article255468070/ Elon- Musk-Unfreiwillig-stellt-Grok-3-eine-der-grossen-Hoffnungen-der-Tech-Branche-infrage.html. Zugegriffen am 1. März 2025 <?page no="121"?> Teil II KI in Wissenschaft, Bildung und der Kreativ- und Kulturwirtschaft <?page no="123"?> 2.1 „Die Zukunft interessiert sich nicht für Deine Gefühle! “ Wie KI die Filmlandschaft verändern Markus Müller-Hahnefeld Zusammenfassung Der Beitrag untersucht die transformative Wirkung von Künstlicher Intelligenz (KI) auf die Filmproduktion. Dabei zeigt der Autor, wie KI-gestützte Tools wie ChatGPT, Midjourney, Runway ML, Luma Dream Machine und weitere kreative Prozesse in der Preproduktion, visuelle Gestaltung in der Produktion sowie Bearbeitungen in der Postproduktion grundlegend verändern. KI ermöglicht eine effizientere und kostengünstigere Umsetzung filmischer Visionen und eröffnet zugleich neue ästhetische Möglichkeiten. Vor dem Hintergrund einer krisengeplagten deutschen Filmbranche plädiert der Autor für eine offene und konstruktive Auseinandersetzung mit dem technologischen Wandel. KI wird nicht als Bedrohung, sondern als Chance für einen kreativen und strukturellen Neustart verstanden, vorausgesetzt, die Branche zeigt Innovationsbereitschaft und Gestaltungswillen. Keywords: Filmproduktion, Filmbranche, Preproduktion, Postproduktion 2.1.1 Der deutsche Film und eine neue Hoffnung Wenn Sie dieses Kapitel lesen, weiß ich nicht, ob Sie Filmfan sind oder nicht. Ich habe keine Ahnung, was Filme Ihnen bedeuten, aber die Wahrscheinlichkeit ist groß, dass Sie schon einmal einen Film gesehen haben, der Sie in irgendeiner Weise bewegt hat. Vielleicht hat dieser Film sogar länger in Ihnen nachgewirkt, für ein paar Stunden oder Tage und vielleicht stellen Sie sogar jetzt, in diesem Moment, in dem Sie diese Zeilen lesen, fest, dass bestimmte Filmmomente einen festen Platz in Ihrem Leben einnehmen. Warum ist das so? Warum können wir Kunst rezipieren und zu einem Teil von uns machen? Sehen wir in den von Schauspielern verkörperten Figuren unsere eigenen Sehnsüchte und Schwächen widergespiegelt? Muss ein Film immer menschliche Geschichten durch echte Menschen erzählen? Wenn dem so ist, warum zählen dann Animationsfilme wie „Der König der Löwen“ oder „Oben“ zu den emotionalsten Erfahrunen, die es je im Kino zu erleben gab? Es muss also eine tiefere Komponente in der DNA eines Films geben, die über die rein äußeren menschlichen Aspekte, die von echten Menschen verkörpert werden, hinausgeht. Somit erscheint es durchaus möglich, dass wir, ebenso wie wir unsere Gefühle in einen Animationsfilm projizieren können, auch an einem KI-generierten Film Gefallen finden. Die Debatte um KI-generierte Filme ist vielschichtig: Besonders in Deutschland dominieren urheberrechtliche Bedenken, aber auch Zweifel am künstlerischen Wert von KI-generierten Werken. Dabei werden Diskussionen oft sehr emotional geführt, manchmal aber auch reflektiert und differenziert betrachtet. <?page no="124"?> 124 Markus Müller-Hahnefeld Abb. 30: KI bietet auch für visuelle Formate jenseits des Kinos wie immersive Ausstellungen spannende Möglichkeiten (Quelle: Eigene Darstellung) Im Wesentlichen muss man hierbei unterscheiden, ob man bei einer Filmproduktion KI-Tools nutzt, um einen realen Dreh vorzubereiten, oder ob es darum geht, dass ein Film oder beispielsweise eine Werbung komplett mit KI generiert wird. Auch in diesem Fall braucht es nach aktuellem Stand jedoch noch großen menschlichen Einfluss. Zwar lassen sich beeindruckende Bilder und Videosequenzen erstellen, diese jedoch zu einem schlüssigen Ganzen zu formen, ist immer noch die teils sehr zeitaufwendige Aufgabe von Menschen. So oder so ist die Entwicklung aber derart rasant, dass wir vom aktuellen Stand der Technik kaum darauf schließen können, wie Filme und Werbespots tatsächlich in ein paar Jahren produziert werden. Doch eines sei hier vorweggenommen: Unaufhaltsamer technischer Fortschritt interessiert sich in der Regel kaum dafür, was Zeitgenossen von ihm halten, während sie von Innovationen überrollt werden. 2.1.2 Die Chance folgt auf die Krise Betrachten wir den vollständig KI-generierten Film einmal ganz nüchtern, zeigt sich, dass angesichts des Zustands der deutschen Filmindustrie keineswegs die Zerstörung eines besonders erfolgreichen Systems droht: Der deutsche Film hat sich durch Innovationsangst, ideologische Irrwege und komplexe Strukturen, durch die erhebliche finanzielle Ressourcen in Pensionskassen versickern, selbst in eine schwierige Lage gebracht. Nach einer Aufbruchstimmung in den 1990er-Jahren verfiel der deutsche Film zunächst in banale Komödien, bevor er in den 2010er-Jahren zunehmend von identitätspolitischer Ideologisierung geprägt wurde. Teile der Filmindustrie engagierten sich verstärkt in Debatten über Diskriminierung und vielfältige Opferrollen, anstatt sich auf Filmkunst und Unterhaltung zu konzentrieren. Hinzu kam ein relativ unbeeinflusster Fernsehfilm, der sich seit Jahren beständig selbst reproduziert. Gleichzeitig verschlechterten sich die Arbeitsbedingungen durch sinkende Budgets und zunehmenden Zeitdruck massiv. Viele Fachkräfte aus Bereichen wie Szenenbild oder Kamera kehrten der Branche den Rücken, während der Markt von einer Viel- <?page no="125"?> 2.1 „Die Zukunft interessiert sich nicht für Deine Gefühle! “ 125 zahl hungriger Regisseurinnen, Regisseure und Kameraleute überschwemmt wurde. So entstand eine eigenartige Disbalance zwischen Fachkräftemangel und Fachkraftüberschuss. Hinzu kamen politische Steuerungsmaßnahmen wie eingeführte Frauenquoten, die Teile des Filmnachwuchses künstlich ausschlossen und für weiteren Unmut in der Branche sorgten. Die durch Corona, globale Krisen und politische Spaltungen zusätzlich gebeutelte deutsche Filmindustrie sah sich Anfang 2023 plötzlich vor einer völlig neuen Herausforderung: Plötzlich ließen sich Drehbücher, Bilder und Videos per Knopfdruck generieren. Als ich davon erfuhr, stürzte mich dies zunächst in eine tiefe Krise. Neugierig begann ich kurz darauf erste Versuche mit ChatGPT, war jedoch zunächst ernüchtert: Einzelne Sätze waren treffend formuliert, aber insgesamt waren die Ergebnisse kaum brauchbar. Bessere Resultate erzielte ich im Bild- und Videobereich mit Kaiber, Midjourney, Pikalabs und Runway ML. Allerdings stieß ich beim Versuch, generiertes Material zu Videos zusammenzuschneiden, auf erhebliche Probleme - insbesondere hinsichtlich der Konsistenz von Figuren und Orten. Zwar entstanden vereinzelt beeindruckende Animationen, der Weg dorthin war jedoch mühsam, kleinteilig und schwer steuerbar. In den Folgemonaten verbesserten sich die KI-Tools sprunghaft, und seit Anfang 2025 ist Video-KI nicht mehr bloß ein interessantes Spielzeug, sondern ein ernstzunehmendes Werkzeug in der Videoproduktion mit scheinbar grenzenlosem Potenzial. Als ich 2023 diese neuen Möglichkeiten erkannte, stand ich vor einer Entscheidung: Mich entweder von der Entwicklung überrollen zu lassen oder die Technologie anzunehmen und herauszufinden, wie sie mir nützen könnte. Zu dieser Zeit gab ich gelegentlich Workshops im Bereich Online-Marketing und beschloss spontan, mein Angebot um einen KI-Bild- und Video-Workshop zu erweitern. Abb. 31: KI-generierte Visualisierung eines KI-Workshops (Quelle: Eigene Darstellung) Mein erster Workshop bot einen Überblick über diverse Tools und innovative KI- Workflows. Später entwickelte er sich zu einem umfassenden Gesamtkonzept, in dem die Teilnehmer innerhalb von drei Tagen durch sämtliche Bereiche der Filmproduktion mithilfe von KI geführt wurden. <?page no="126"?> 126 Markus Müller-Hahnefeld Um die KI-gestützte Videoproduktion ganzheitlich zu verstehen, ist es essenziell, die einzelnen Teilbereiche der Technologie zu kennen. Holistisch betrachtet umfasst dies:  Preproduktion: Alles, was vor dem Dreh geschieht - von der Drehbuchentwicklung über die Konzeption bis hin zur Planung der visuellen Umsetzung.  Produktion: Der eigentliche Dreh am Set oder, im Fall der KI-generierten Inhalte, die Erstellung von Footage mithilfe künstlicher Intelligenz.  Postproduktion: Alle nachgelagerten Arbeitsschritte, insbesondere der Schnitt (Editing), die Farbkorrektur (Color Grading) sowie die komplette Tonbearbeitung inklusive Musik und Soundeffekten. Im Folgenden möchte ich einen Überblick über die bereits vorhandenen Möglichkeiten geben. 2.1.3 Preproduktion In der Preproduktionsphase unterstützt KI maßgeblich die kreative Konzeptentwicklung und Vorbereitung von Filmprojekten. Zu Beginn ermöglicht die Anwendung von Large Language Models, wie beispielsweise ChatGPT, eine schnelle und vielseitige Ideenfindung und Konzeptentwicklung. Durch die Fähigkeit dieser Modelle, kreative Inputs, Drehbuchstrukturen und Dialoge zu generieren, lassen sich Projektideen effizient entwickeln und verfeinern. Dies spart Zeit und reduziert die Kosten, die sonst für längere kreative Prozesse anfallen würden. Abb. 32: Bei der Illustration von KI-Filmproduktion darf er nicht fehlen: der freundliche Filmroboter (Quelle: Eigene Darstellung) ChatGPT lässt sich dabei als Co-Autor und geistiger Sparring-Partner nutzen. Drehbücher, die in unübersichtlichen Strukturen verfasst wurden, können neu strukturiert, redigiert und mit Dramaturgiemodellen abgeglichen werden. Im Zusammenspiel mit KI-Bildgeneratoren entstehen zudem völlig neue Workflows. An dieser Stelle möchte ich ein kleines Beispiel anbringen: Stellen wir uns folgende Szene vor: Im Jahr 2120 sitzt ein Polizist in einer Bar, die <?page no="127"?> 2.1 „Die Zukunft interessiert sich nicht für Deine Gefühle! “ 127 von Aliens geführt wird. Alien-Bars haben ein ganz besonderes Ambiente und begegnen Polizisten unvoreingenommen - im Gegensatz zu anderen Lokalen des Nachtlebens, die seit der zehn Jahre andauernden Alkoholprohibition von 2101 bis 2111 nicht gerade für ihre Gastfreundschaft gegenüber Polizisten bekannt sind. Außerdem schmecken die Cocktails hier ausgezeichnet. Abb. 33: Entspannte Stimmung in einer Alien-Bar im Jahre 2120 (Quelle: Eigene Darstellung) Die Stimmung ist gut, bis schließlich ein Querulant für Unruhe sorgt. Ein mächtiger Kerl tritt von der Seite hervor und bewegt sich direkt auf unseren Polizisten zu. Abb. 34: Jetzt gibt es Ärger: Dem Polizisten bleibt nur ein kurzer Moment, um zu reagieren (Quelle: Eigene Darstellung) Ein Bild sagt mehr als tausend Worte - daher kann der Autor MidJourney zur Inspiration nutzen, um mehr über die erzählte Welt zu erfahren. Vielleicht war das Bild der Aliens zunächst nicht besonders präzise, doch nun, da der Autor eine genauere Vorstellung davon hat, wie die Wesen aussehen, kann er beispielsweise eine Szene schreiben, in der Kampftechniken gegen die körperlich überlegenen Gegner erprobt werden. Oder er wird zu einem humorvollen Dialog über die Schädelform der Aliens inspiriert - vielleicht war genau dieses Gespräch zwischen zwei Polizisten der Auslöser für den Streit mit dem Alien. MidJourney erstellt auch für andere Kontexte visuelle Inhalte, darunter Key Visuals, <?page no="128"?> 128 Markus Müller-Hahnefeld Moodboards und Konzeptbilder, basierend auf einfachen Texteingaben. Durch generative KI-Technologien entstehen innerhalb kürzester Zeit vielfältige Varianten, die mit konventionellen Methoden nur mit erheblichem zeitlichen und finanziellen Aufwand realisierbar wären. Dadurch wird nicht nur die Qualität der Konzeptvisualisierung erhöht, sondern auch die Entscheidungsfindung beschleunigt. Darüber hinaus bietet MidJourney neben seinem Standardmodell mit „Niji“ ein spezialisiertes Tool zur Erstellung von Anime-Bildern auf höchstem künstlerischen Niveau - eine Innovation, die unglaubliche Möglichkeiten für den Animationsfilmbereich eröffnet. Abb. 35: In Midjourney generiertes Bild eines jungen Mannes vor einem Haus (Quelle: Eigene Darstellung) Abb. 36: Das gleiche Motiv in Midjourney mit dem Niji-Modell im Anime-Look generiert (Quelle: Eigene Darstellung) Weitere KI-basierte Tools wie Runway, Luma Dream Machine, Kling oder Sora ermöglichen kostengünstige Animatics, also die Erstellung und Bearbeitung erster visueller Prototypen. Diese Technologien erlauben eine umfassende Vorproduktion, ohne dass große Teams oder teure Ausstattung erforderlich sind. Storyboarder AI ermöglicht es, <?page no="129"?> 2.1 „Die Zukunft interessiert sich nicht für Deine Gefühle! “ 129 Drehbücher schnell in visuelle Storyboards umzusetzen, wodurch der Planungsprozess erheblich vereinfacht wird. Dadurch entfällt ein Großteil der traditionell zeitaufwändigen manuellen Arbeit. Abb. 37: KI-generiertes Storyboard (Quelle: Eigene Darstellung) 2.1.4 Produktion Wie gesagt, möchte ich das Thema „Produktion“ an dieser Stelle vor allem unter dem Aspekt der KI-basierten Generierung von Videosequenzen betrachten. Führende Tools wie Runway ML, Luma Dream Machine, Kling AI und Sora bieten die Möglichkeit, direkt über Text ein Video zu generieren (Text-to-Video), mit einem Referenzbild - einem sogenannten Keyframe - als Startpunkt zu arbeiten (Image-to- Video) oder ein Video als Vorlage zu nutzen (Video-to-Video). Text-to-Video bietet dabei vor allem die faszinierende Erfahrung, dass tatsächlich aus einem kurzen Prompt ein Video entsteht. Dieser Ansatz eignet sich jedoch allenfalls für die Erstellung kurzer, eigenständiger Sequenzen. <?page no="130"?> 130 Markus Müller-Hahnefeld Image-to-Video hingegen ermöglicht es, komplexe Welten, konsistente Stile und Charaktere abzubilden und hat sich daher als Mittel der Wahl für aufwendigere Projekte etabliert. Allerdings ist der Workflow kleinteilig und setzt in der Regel voraus, dass zunächst Bildgeneratoren - insbesondere MidJourney - genutzt werden. Video-to-Video besitzt enormes Potenzial: Damit ist es grundsätzlich möglich, in der heimischen Küche einen Dialog zu drehen und diesen mithilfe eines entsprechenden Prompts oder einer hochgeladenen Stilvorlage so zu verändern, dass er aussieht wie eine Szene aus einem High-Budget-Hollywood-Film. Zukünftig könnte es so möglich werden, mit Schauspielern zu drehen, ohne sich Gedanken über Drehorte, Lichtsetzung, Szenenbild, Kostüme oder Maske machen zu müssen. Auch die Schauspieler selbst ließen sich in andere Figuren verwandeln - und das ganz ohne aufwändige Motion-Tracking-Verfahren. Diese Technik führt uns dann doch wieder ein Stück weit weg vom vollständig am Schreibtisch erstellten Film: Schauspieler würden ein Maximum an Kontrolle und Konsistenz ermöglichen, was eines der größten Probleme von KI-generierten Filmen lösen könnte. Wenn man bedenkt, dass es vor allem Technik, Logistik und Umbauzeiten sind, die Filmproduktionen teuer und träge machen, ist die Idee, mit einem Smartphone große Filme drehen zu können, natürlich spannend. Obwohl dieses Verfahren das Ende zahlreicher Berufe in der Filmproduktion bedeuten könnte: Kameramänner und -frauen sowie die Regie blieben weiterhin essenziell, doch viele andere Gewerke ließen sich auf eine einzige Person reduzieren oder sogar vollständig einsparen. So wäre es denkbar, dass beispielsweise kein Oberbeleuchter mehr mit einem Lichtteam eine Szene ausleuchten muss, sondern der Raum einfach mit einem hellen Arbeitslicht gefüllt wird - während in der Postproduktion die flache, helle Beleuchtung in ein stimmungsvolles Film-Noir-Low-Key-Lichtkonzept verwandelt wird, mit einem künstlichen Spiel aus Licht und Schatten. 2.1.5 Postproduktion Viele zeitaufwändige und teils mühsame Korrekturen sowie Sortierarbeiten im Editing, Color Grading und der Tonmischung lassen sich mithilfe von KI automatisieren. Sprecher lassen sich schon jetzt durch KI ersetzen: Für professionelle Audioqualität sorgt beispielsweise Eleven Labs, eine KI-basierte Plattform zur Erstellung realistisch klingender Sprachaufnahmen. Sie ersetzt aufwendige und kostenintensive professionelle Voiceover-Aufnahmen und ermöglicht rasche sowie flexible Anpassungen. Künftig werden diese Tools auch im Bereich Synchronisation eine große Rolle spielen - was leider vielen Schauspielern ein wichtiges Standbein entreißen und die weltweit führende deutsche Synchronlandschaft grundlegend verändern wird. Upscaling hingegen ist hingegen eine durchweg positive Entwicklung. Altes oder anderweitig qualitativ minderwertiges Bild- und Videomaterial kann mit Tools wie Topaz Video AI und Topaz Photo AI mithilfe neuronaler Netze auf eine deutlich höhere Qualität verbessert werden. Dadurch lassen sich Produktionsfehler oder schwaches Rohmaterial kostengünstig und schnell korrigieren. Zusätzlich unterstützen KI-Lösungen in Adobe Premiere Pro oder die KI-gestützte Schnittsoftware Filmora den finalen Bearbeitungsprozess mit intelligenten Schnitt- <?page no="131"?> 2.1 „Die Zukunft interessiert sich nicht für Deine Gefühle! “ 131 funktionen, automatischen Effekten und Optimierungen. Dies reduziert die Bearbeitungszeit erheblich und senkt zugleich die Personalkosten im Schnittprozess. Abschließend ermöglicht KI die automatisierte Anpassung des fertigen Video- Materials an vertikale und mobile Formate - eine heute unverzichtbare Funktion für den Erfolg auf Social Media und in Web-Anwendungen. Durch die Automatisierung dieses Prozesses wird der Aufwand für eine manuelle Formatierung erheblich reduziert. Insgesamt bietet der Einsatz von KI-Technologien in der Videoproduktion umfassende Möglichkeiten, um Qualität zu steigern, Zeit zu sparen und Kosten deutlich zu senken - während gleichzeitig kreative Freiräume erweitert werden. 2.1.6 Ausblick KI stellt die bisher tiefgreifendste Innovation im Medium Film dar. Sie bietet nicht nur beispiellose kreative Möglichkeiten, sondern verändert grundlegend die Art und Weise, wie Filme entstehen, entwickelt und produziert werden. Die neue Technik eröffnet ungeahnte Chancen, wird jedoch auch ihren Preis fordern - insbesondere, wenn es um die Zukunft einzelner Gewerke geht. Die Branche ist darauf momentan noch nicht vorbereitet und wird es vermutlich auch nie vollständig sein. Es bleibt also abzuwarten, wie insbesondere in Deutschland auf diese neuen Herausforderungen reagiert wird. Angesichts der zahlreichen Probleme und festgefahrenen Strukturen könnte ein technischer Neustart sogar ein Befreiungsschlag sein. Gleichzeitig müssen wir jedoch darauf achten, international nicht den Anschluss zu verlieren und uns durch Angst oder Trägheit nicht erneut in bremsenden Überregulierungen zu verfangen. <?page no="133"?> 2.2 KI in der Games-Branche Lutz Anderie und Daniel Görlich Zusammenfassung Seit ihren Anfängen nutzen Videospiele Künstliche Intelligenz (KI). Von der Entwicklung realistischer Charaktere über die Generierung dynamischer Spielwelten bis hin zu personalisierten In-Game-Verkäufen verspricht KI fast unbegrenzte Möglichkeiten. Dieses Kapitel beleuchtet die vielfältigen Anwendungsbereiche von KI in Game Design und Game Development, in Spielevermarktung und Monetarisierung sowie in Gamification und E-Sport. Dabei setzt es sich kritisch mit früheren und aktuellen Entwicklungen auseinander und vergleicht die Auswirkungen der aktuellen KI-Revolution mit früheren massiven Verwerfungen in der Games-Branche. Keywords: Künstliche Intelligenz, Videospiele, Gamification, E-Sport, Monetarisierung 2.2.1 Einführung Wer kennt sie heute noch, die Norns (lat. cyberlifogenis cutis)? Wenige Monate (Juli 1996), bevor die Tamagotchi (November 1996) auf den Markt kamen und zum weltweiten Phänomen avancierten, eroberten sie und ihr Spiel „Creatures“ auch den deutschen Markt. In dieser sog. Lebenssimulation ließen sich die Norns nicht direkt steuern, sondern nur züchten. Das Spiel modellierte ein biochemisches System, verwendete ein neuronales Netzwerk und simulierte eine Art von DNA, dank denen Spieler den Norns neue Fähigkeiten wie Fahrstuhlfahren oder Sprechen beibringen konnten. Mit etwas Glück wurden so erlernte Verhaltensweisen durch Vererbung an die jeweils nächste Generation weitergegeben. Vergleichbare Spiele gab es immer wieder, von John Conways „Game of Life“ (1970) über Göttersimulationen wie „Populous“ (1989) und „Black & White“ (2001) bis zu den heute noch beliebten „Sims“ (seit 2000). Vermutlich wird in kaum einer Industrie schon so lange von Künstlicher Intelligenz (KI) gesprochen wie in der Games-Branche. Sollte sie sich nicht bestens damit auskennen? Immerhin werden Spieler in Videospielen seit Jahrzehnten mit KI-Gegnern konfrontiert. Legendär ist das Turnier, das IBM‘s Schachcomputer Deep Blue 1997 unter Wettkampfbedingungen und der Aufmerksamkeit der gesamten Welt gegen den amtierenden Schachweltmeister Garri Kasparow gewann. Dieser Sieg war das Resultat jahrzehntelanger Forschung und Entwicklung, seit Pioniere der Informatik wie etwa Alan Turing Schach als ideales Problem für die KI-Forschung identifiziert hatten. Niemand Geringeres als Claude Shannon hatte 1950 das Ziel ausgegeben, einen Automaten zu programmieren, der einen Menschen im Schach schlagen könne, um zu zeigen, dass Automaten ähnlich denken und ähnliche Intelligenzleistungen vollbringen könnten wie Menschen. „KI-Einsatz in Games ist schon lange üblich und bereits weit verbreitet“ - mit diesen Worten beginnt der game, der Verband der deutschen Games-Branche, sein sieben- <?page no="134"?> 134 Lutz Anderie und Daniel Görlich seitiges Positionspapier zum Thema „KI in Games“ vom 19. September 2023 (vgl. game 2023). Seine Aussage ist gleichzeitig so wahr, wie sie falsch ist. Denn nur, weil Multimilliarden-Konzerne wie IBM Spezialcomputer bauen oder einzelne Spiele tatsächlich mal neuronale Netze einsetzen, heißt das noch lange nicht, dass der Einsatz von KI in der deutschen oder internationalen Games-Branche weit verbreitet ist. 2.2.2 Die deutsche Games-Branche Zugutekommen mag der deutschen Games-Branche, dass sie vergleichsweise klein, flexibel und innovativ ist. Zwar gibt es - laut Jahresreport 2024 der deutschen Games-Branche (vgl. game 2024, S. 31) - 948 Games entwickelnde und/ oder publizierende Unternehmen in Deutschland. Allerdings sind die meisten davon mittlere, kleine oder Kleinstunternehmen. Nur 23 haben mindestens 100 Mitarbeiter. Gerade einmal acht Games-Unternehmen in Deutschland haben mehr als 250 Mitarbeiter (Nintendo, Ubisoft, Crytek, InnoGames, wooga, Gameforge 4D, Goodgame Studios und PLAION). Insgesamt sind bei Entwicklern und Publishern in Deutschland, laut game, lediglich 12.408 Mitarbeiter beschäftigt (vgl. Abb. 38) - weniger als etwa bei KPMG (über 14.000) und ungefähr so viele wie bei der Tesla Giga Factory in Grünheide (12.000 bis 12.500). Die deutsche Games-Branche ist kleiner als so manches Familienunternehmen. Im Durchschnitt beschäftigen die 948 Unternehmen jeweils nur 13 Mitarbeiter. Zudem sind viele dieser Games-Unternehmen sehr jung. Von den ca. 282.000 Mitarbeitern und der über einhundertjährigen Geschichte einer IBM, die 1911 aus der 1896 gegründeten Tabulating Machine Company von Herman Hollerith hervorging, sind sie weit entfernt. 264 der 948 Unternehmen, also 28%, wurden in den Jahren 2020 bis 2023 gegründet, wobei der Trend während und seit der Corona-Pandemie rückläufig ist: Von 93 Neugründungen in 2020 über 78 in 2021 und 60 in 2022 ging es 2023 auf 33 hinunter (vgl. game 2024, S. 29). Zusätzlich gibt es eine hohe Fluktuation. Nur wenige Unternehmen sind älter als 25 Jahre, also vor dem Jahr 2000 gegründet worden, darunter Blue Byte und Egosoft 1988, Tivola 1995, Piranha Bytes 1997 sowie Crytek und Yager 1999. Betrachtet man diese Zahlen, so muss man annehmen, dass die meisten Game-Unternehmen Deutschlands nur wenige oder gar keine ausgewiesenen Experten für KI beschäftigen. Sie sind von den aktuellen Entwicklungen eher betroffen, als dass sie sie selbst mitgestalten würden. Dementsprechend ist es auch nicht verwunderlich, dass Workshops und Sitzungen des game-Verbandes zum Thema KI regelmäßig gut besucht sind. Eine der Fragen, die dabei häufig mitschwingt oder in den Fokus rückt, lautet, welche Berufsgruppen durch die Fähigkeiten aktueller und zukünftiger KI’s womöglich ihre Jobs verlieren - so wie in anderen Branchen auch. Werden Game Studios zukünftig überhaupt noch Programmierer, Artists und Community Manager brauchen? 2.2.3 KI-gesteuerte Spiele Die Welt der Videospiele hat sich in den letzten Jahrzehnten rasant weiterentwickelt. KI in Spielen ist weit mehr als nur ein Schlagwort. Sie ist das Herzstück vieler Spiele und Spielmechaniken und sorgt dafür, dass virtuelle Abenteuer lebendiger und dynamischer werden. In Rollenspielen können Spieler sich beispielsweise mit computergesteuerten Figuren unterhalten, von ihnen Aufträge erhalten oder gegen sie kämpfen. <?page no="135"?> 2.2 KI in der Games-Branche 135 Allerdings zeigt sich bei näherer Betrachtung, dass nicht überall, wo KI draufsteht, auch KI drin ist. Wenn Spieler mit ihren Avataren oder player characters (PC‘s) durch virtuelle Welten streifen, begegnen sie zahlreichen nicht-spielbaren Charakteren. Diese non-player characters (NPC‘s) verhalten sich manchmal auf überraschende und glaubwürdige, manchmal aber auch auf repetitive und langweilig vorhersehbare Weise. Die wenigsten von ihnen werden durch echte KI gesteuert, sind entsprechend der KI-Verordnung der EU lernfähig oder durch eine Lernphase trainiert worden. Häufig liegen ihren Verhaltensweisen schlichte Skripte, Mathematik, Statistik oder Muster (engl. patterns) zugrunde. Im Kern sind es meist komplexe Algorithmen, ganz klassisch geschrieben in Programmiersprachen oder in den Skriptsprachen der jeweils verwendeten Game Engines. Diese Algorithmen können so parametrisiert werden, dass NPC‘s bestimmte Ziele verfolgen, auf Reize reagieren und sogar Entscheidungen treffen. Ein einfaches Beispiel ist ein Wächter in einem Spiel, der patrouilliert und auf Eindringlinge reagiert. Ein komplexeres Beispiel ist ein Gegner in einem Strategiespiel, der seine Truppen geschickt manövriert und auf die Spielsituation reagiert. In manchen Spielen kommen zudem Datenbanken zum Einsatz. Für Schach gibt es beispielsweise proprietäre ebenso wie freie Datenbanken, in denen häufig Millionen früherer Partien abgespeichert sind, um einem Schachprogramm oder Schachcomputer die Auswahl von Zügen zu erleichtern. Tatsächlich ist die Steuerung von NPC’s und Computergegnern aber nur eine von zahllosen Einsatzmöglichkeiten von KI innerhalb eines Games. Im Grunde sind die Anwendungsmöglichkeiten unbegrenzt. So wird KI beispielsweise eingesetzt für:  Prozedural generierte Inhalte: Die Generierung riesiger Spielwelten oder zahlloser Varianten von Assets, die immer wieder neu und überraschend sind. So wird dem Spiel „No Man’s Sky“ von 2016 nachgesagt, dass sein Open-World-Universum 18,4 Quintillionen verschiedene Planeten prozedural erzeugen könne. Würden man jeden davon nur eine Sekunde lang besuchen, bräuchte man knapp 585 Milliarden Jahre, was einem Vielfachen des bisherigen Alters unseres realen Universums (13,8 Milliarden Jahre) entspricht.  Adaptive Schwierigkeitsanpassung: Ein Spiel kann sich automatisch an das Können eines Spielers anpassen und so für stets herausfordernde Erfahrungen sorgen.  Realitätsnahe Simulationen: KI kann komplexe Systeme simulieren, wie zum Beispiel Wetter, Physik oder das Verhalten von Tieren.  Personalisierte Spielerlebnisse: Durch die Analyse des Spielerverhaltens kann KI maßgeschneiderte Inhalte und Herausforderungen bieten. Die oben genannten Anwendungsmöglichkeiten stellen nur eine Auswahl dar, sind jedoch von signifikanter Bedeutung. Häufig wird KI eingesetzt, um mehr Abwechslung in ein Spiel zu bringen, größere Welten und immer neue Aufträge zu generieren, aber auch, um NPC’s und Gegner intelligenter wirken zu lassen. Letztendlich dienen vieler dieser Maßnahmen dazu, die Immersion des Spielers, den Spielspaß und vielleicht sogar den Wiederspielwert zu erhöhen. Anzumerken ist, dass es längst KI-Engines gibt, also teils lizenzpflichtige und teils offen verfügbare Middleware, die Spieleentwicklern und anderen Engines KI-Funktionalitäten zur Verfügung stellt. Zu ihnen zählen insbesondere die von Kynogon entwickelte Software Kynapse, die 2008 von Autodesk gekauft wurde und inzwischen als obsolet gilt, aber auch Havok AI, NavPower oder die RAIN AI Engine. Solche Middleware übernimmt häufig Aufgaben wie Kollisionserkennung oder Wegfin- <?page no="136"?> 136 Lutz Anderie und Daniel Görlich dung, die Spieleentwickler demzufolge nicht mehr selbst programmieren müssen. Nach Wissensstand der Autoren gab es Anfang 2025 jedoch keine in Deutschland für Videospiele entwickelte KI-Engine oder KI-Middleware. Entsprechende Software stammt generell aus dem Ausland. 2.2.4 KI in der Spieleentwicklung KI wird nicht nur im Game selbst, sondern auch in der Spieleentwicklung und in vielen Aufgabengebieten während des gesamten Lebenszyklus des Produkts Game eingesetzt. Auch hier muss man allerdings zwischen klassischen Algorithmen und KI unterscheiden. Um die Entwicklung eines Level-Designs mit Hilfe eines Level- Editors zu unterstützen, genügen zumeist Algorithmen. Will man sich als Artist jedoch Ideen für die grafische Darstellung einer bestimmten Figur oder Szene geben lassen, kann sich der Einsatz von KI-Tools wie Midjourney, BlueWillow oder DALL- E lohnen. Inzwischen haben viele, wenn nicht die meisten deutschen Games-Unternehmen mit KI experimentiert. Konkrete Zahlen werden gewöhnlich nicht kommuniziert. In einem Workshop des game-Verbandes stellte beispielsweise ein großes deutsches Game Studio das Ergebnis einer hausinternen Bewertung vor. Ohne hier konkrete Zahlen nennen zu dürfen, zeigte sich, dass Artists (Grafiker), die sich in Prompting eingearbeitet hatten, um einen nicht unerheblichen Zeitfaktor schneller zu vergleichbar guten Resultaten gelangten als jene Artists, die die gleiche Aufgabe auf klassische Weise bearbeiteten. Dieses Ergebnis wird niemanden verwundern. Exemplarisch soll hier Black Forest Games genannt werden. Das traditionsreiche Offenburger Game Studio hat KI seit 2023 auf vielfältige Weise in seine Arbeitsabläufe integriert, insbesondere um tägliche Routine-Arbeiten zu beschleunigen, Ideen auszutesten oder Inspirationen zu erhalten. Konkret setzt Black Forest Games KI etwa zur Vertonung von Spielsequenzen für schnelle Iterationen in Prototypen ein oder bei der Vorbereitung von Concept Art. So werden beispielsweise Variationen von vorhandenen Spielcharakteren ausgetestet. Dabei achtet das Studio darauf, die KI nur mit eigenen Daten zu füttern. Bislang sind die so generierten Ergebnisse jedoch immer als KI-generiert zu erkennen und werden nicht in finalen Produkten eingesetzt. Black Forest Games beobachtet und evaluiert kontinuierlich die Weiterentwicklung im Bereich KI. Das Studio erwartet für die absehbare Zukunft Tools etwa für die Bereiche Animation und Visual Effects, aber auch für die Generierung von 3D-Modellen auf Basis von Concept Arts. Es dürfte allerdings noch etwas dauern, bis z.B. generisches Level-Dressing einen Status erreicht, der tatsächlich zu massiver Produktivitätssteigerung bei Black Forest Games führt. Relevant ist also die Frage, welche Bereiche der Spieleentwicklung eigentlich vom Einsatz von KI-Tools profitieren und welche Tools dafür genutzt werden. Tatsächlich sind es meist die gleichen Tools, die auch anderen Branchen zur Verfügung stehen, allen voran ChatGPT, Midjourney und DALL-E. Auch diese stammen jedoch allesamt aus dem Ausland. Nach bestem Wissen der Autoren werden deutsche Entwicklungen wie die KI des Heidelberger Unternehmens Aleph Alpha in der Games- Branche noch nicht eingesetzt. Es besteht also die Gefahr, dass die deutsche Games- Branche auf absehbare Zeit auf KI-Tools und somit auf Know-how aus dem Ausland angewiesen bleiben wird, sich also abhängig macht. Tatsächlich setzen viele Game Studios inzwischen weitgehend bis ausschließlich auf Software, z.B. auf Game Engi- <?page no="137"?> 2.2 KI in der Games-Branche 137 nes oder Grafik-Suiten, die sie nicht selbst entwickelt haben und die aus dem Ausland stammen. Es ist daher zwingend, zwischen der deutschen und der weltweiten Games-Branche zu unterscheiden. Grundsätzlich ist davon auszugehen, dass die heute gängigen KI-Tools für nahezu jede Phase des Game Designs mal mehr und mal weniger eingesetzt werden können, bspw. zur Ideenfindung, zur Recherche, zur Marktforschung, zum Schreiben und Bewerten von Texten, zur Erstellung von Moodboards, für erste Skizzen von Figuren, Szenerien oder User Interfaces, zum Schreiben von Quests, Dialogen und Storylines, zur Ausarbeitung von Spielkonzepten, zur Formatierung von Textdokumenten oder zur Übersetzung in nahezu beliebige Sprachen (z.B. mittels DeepL des gleichnamigen Kölner Unternehmens Linguee). KI kann auch zum Testen von Spielen eingesetzt werden, z.B. um Maps, Gameplay-Varianten und Spielstrategien zu testen, Grafikfehler in gerenderten Bildern zu entdecken, schlechtes Balancing auszumachen oder Schwächen in User Interfaces offenzulegen. Durch automatisierte Tests können Fehler und Probleme im Spiel effizienter identifiziert werden. All dies sind Aufgaben, die klassisch von verschiedenen Mitarbeitern oder Beteiligten an einer Spieleproduktion übernommen werden, beispielsweise von Game Designern, Übersetzern, Copywritern und Spieletestern der Abteilung QA (engl. quality assurance). Eine weitere Anwendung besteht in der Möglichkeit, das Spiel an den individuellen Spieler anzupassen. KI-gestützte Systeme können das Spielverhalten und die Präferenzen des Spielers analysieren, um ein maßgeschneidertes Erlebnis zu bieten. Darüber hinaus ermöglicht KI die Analyse des Spieler-Feedbacks in Echtzeit, was zu einer höheren Spielerzufriedenheit führt, da Probleme schneller erkannt und behoben werden können. All dies sind keine vollkommen neuen Möglichkeiten, sondern Aufgaben, die bislang, wenn auch seltener, nicht im gleichen Umfang und nicht in der gleichen Geschwindigkeit von Mitarbeitern durchgeführt werden. Insgesamt beschleunigt die Nutzung von KI die Erstellung von Inhalten für Games, was den Entwicklern mehr Raum für innovative Aspekte des Spiels gibt. Die Analyse der Datenmengen, die während des Spielens generiert werden, liefert Entwicklern wertvolle Einblicke in das Spielerlebnis und ermöglicht fundierte Entscheidungen zur Verbesserung zukünftiger Spiele. Weiterhin kann KI Trends und Muster im Spielverhalten erkennen, was Entwicklern solidere Vorhersagen über zukünftige Entwicklungen in der Branche ermöglicht. Sie können sich dadurch möglicherweise besser auf Veränderungen vorbereiten. All diesen Vorteilen stehen jedoch immer die Sorgen um Arbeitsplätze und Knowhow-Verlust entgegen. KI kann in so gut wie allen Aufgabenbereichen Konzeption, Produktion, Vermarktung, Betrieb und Administration von Games unterstützen und beschleunigen. Diese Effizienzsteigerung kann zwar enorme Chancen bieten, insbesondere auch für kleinere Games-Unternehmen, immer bessere, beliebtere und angepasstere Spiele auf den Markt zu bringen. Sie kann aber auch Arbeitsplätze und damit das Know-how am Standort Deutschland gefährden. Auch dies wäre allerdings nicht neu. Massive Verwerfungen und Transformationen gab es bereits häufig in der Games-Branches. Hier seien nur drei Beispiele genannt:  1988-1999: Die deutsche Games-Branche hat sich von ihrem ursprünglichen Fokus auf Brett- und Kartenspiele, dank der steigenden Zugänglichkeit des Internets, auf Videospiele erweitert. Die ältesten heute noch aktiven Game Studios stammen aus dieser Zeit. <?page no="138"?> 138 Lutz Anderie und Daniel Görlich  2000-2016: In den 2000er und frühen 2010er-Jahren war die deutsche Games-Branche im Bereich der Browser- und Online-Games sehr stark gewesen. Das Unternehmen Bigpoint beschäftigte 2011 rund 800 Mitarbeiter - heute nur noch etwa 150. Gameforge kam in der Spitze auf über 600 Mitarbeiter - heute sind es circa 300. Goodgame beschäftige in der Spitze 1.300 Mitarbeiter - heute nur noch 270. Der Markt der Browser- und Online-Games brach durch internationale Konkurrenz, Steve Jobs‘ „Thoughts on Flash“ anno 2010, den Boom der Mobile Games für Smartphones und viele weitere Entwicklungen weitgehend zusammen. Die Massenentlassungen von 2016 bis 2017 wirken bis heute nach. Die deutsche Games- Branche hat fast ein Jahrzehnt benötigt (vgl. Abb. 38), um zumindest annähernd die gleiche Anzahl Mitarbeiter wieder aufzubauen (Stand 2024: 12.408), die sie vor dem Zusammenbruch hatte (Stand 2015: 12.726). Abb. 38: Anzahl der Mitarbeiter im Kernmarkt der deutschen Games-Branche (Quelle: Eigene Darstellung laut Zahlen der Jahresberichte des früheren Branchenverbands BIU und des heutigen Branchenverbands game)  2008/ 2009 : Zuvor hatten auch deutsche Game Studios meist nur die Wahl, ob sie eigene Engines entwickelten oder für immense Kosten Drittanbieter-Technologien kauften. Lizenzen für Unreal Engine 3 und 4 kosteten damals bis zu 350.000 Dollar. Ab Herbst 2008 wurde jedoch die Unity Engine kostenlos angeboten, zunächst nur für Apple-Plattformen und Webbrowser. 2009 wurde sie auf Windows erweitert. Innerhalb weniger Jahre wurde Unity daraufhin zur weltweit meistgenutzten Game Engine, vor allem für die Entwicklung von Casual Games. Andere Engine-Entwickler wie Crytek (CryEngine) oder Epic (Unreal Engine) mussten nachziehen. Die inzwischen selbstverständliche kostenlose Verfügbarkeit ihrer Game Engines reduzierte jedoch die notwendigen IT- und Programmierkenntnisse für die Entwicklung von Videospielen erheblich und führte zu einem Paradigmenwechsel samt Rollenwechseln zwischen Programmierern und Designern (vgl. Schamel 2010). Plötzlich konnten kleine Teams mit wenig technischem Know-how Game Studios gründen und sich auf die kreative Arbeit konzentrieren. Neben einem durchaus wünschenswerten Boom an Studiogründungen und besserer Spielqualität hat dies allerdings auch zu einer massiven Know-how-Verlagerung geführt. Viele deutsche Game Studios sind heutzutage vollständig abhängig von Game Engines und Software-Tools großer, kommerzieller Anbieter aus dem Ausland. Dies wurde besonders deutlich, als Unity 2023 plötzlich Runtime- Lizenzgebühren einführen wollte, was für einige Studios existenzbedrohend gewesen wäre und folglich zu Boykotts und Drohungen gegen Unity geführt hat. (Und dazu, dass viele Hochschulen Game Development inzwischen mit der Unreal statt der Unity Engine unterrichten.) <?page no="139"?> 2.2 KI in der Games-Branche 139 Diese drei Beispiele - es hätte noch deutlich mehr gegeben - zeigen, dass die Games- Branche sich schon häufig massiven Veränderungen stellen musste: Von analogen zu digitalen Spielen, von Browserspielen zu Mobile Games, von eigener Technologieentwicklung zu Technologieabhängigkeit. Wie Abb. 38 zeigt, können solche Veränderungen jahrelange Nachwirkungen haben. Die Games-Branche erholt sich davon, muss sich aber ständig neu orientieren und flexibel anpassen. Genauso dürfte es auch in Bezug auf KI passieren. Die kontinuierliche Weiterentwicklung von KI und deren Integration in die Games-Branche versprechen, die Art und Weise, wie Spiele entwickelt und erlebt werden, drastisch zu verändern. In der bereits begonnenen Ära der KI-unterstützten Spieleentwicklung wird KI eine ebenso zentrale Rolle einnehmen wie das Internet, Webbrowser, Smartphones und kostenlose Game Engines. Die Branche muss und wird sich daran anpassen, auch wenn es Jahre oder gar ein Jahrzehnt dauert. 2.2.5 Gamification Doch nicht nur Videospiele und die Games-Branche verändern sich. Beide treiben viele weitere Trends und Branchen an, gelten als Innovationstreiber und Digital Frontrunner. Unter anderem sickern gut funktionierende Prinzipien des Game Designs immer wieder im Sinne der „Gamification“ in zahlreiche Branchen mit ein. Gamification ist die Übertragung von spieltypischen Elementen und Vorgängen in spielfremde Zusammenhänge. Die Anwendung spieltypischer Elemente in einem spielfremden Kontext (Definition Gamification im engeren Sinne) oder der Einfluss von Computerspielen auf Güter, Dienstleistungen und gesellschaftliche Prozesse (Definition Gamification im weiteren Sinne) ist längst schon fester Bestandteil unserer digitalen Kultur geworden. Somit ist davon auszugehen, dass in ähnlichem Maße, wie Spieleproduktionen von KI profitieren, KI-gestützte Gamification auch in fast alle anderen Bereiche der Gesellschaft Einzug halten wird: Bildung, Gesundheit, Marketing, Unternehmensentwicklung, soziale Projekte, Finanzwesen, Umwelt, Fitness und Sport, Customer Service, Softwareentwicklung, Human Resources und Politik, um nur einige zu nennen. Durch den Einsatz von KI können hochgradig personalisierte und individualisierte Erlebnisse entstehen. In der Bildung könnten KI-basierte Lernplattformen beispielsweise das Lernen für jeden Lernenden individuell anpassen und somit motivierender gestalten. Im Marketing können personalisierte Kundenbindungsprogramme entwickelt werden, die die Kundenloyalität stärken. In vielen Branchen werden bereits heute Gamification-Elemente eingesetzt, um Mitarbeiter zu motivieren und die Produktivität zu steigern. Durch die Übertragung der Erkenntnisse aus Spielen auf andere Branchen können innovative Lösungen entwickelt werden, die das Engagement von Menschen und die damit einhergehende Wertschöpfung steigern. 2.2.6 E-Sport Seit Jahren wird darüber diskutiert, ob E-Sport (elektronischer Sport) auch Sport sei. Hier waren jüngst beachtliche Veränderungen zu beobachten. Ab 2025 wird es Olympische E-Sport-Spiele geben, offiziell beschlossen vom Internationalen Olympischen Komitee (IOC). Selbst die Deutsche Fußball Liga (DFL) hat die Virtual Bundesliga in ihre Lizenzierungsordnung aufgenommen. Seit der Saison 2023/ 24 schreibt <?page no="140"?> 140 Lutz Anderie und Daniel Görlich sie eine Teilnahme aller Lizenz-Clubs an der Virtual Bundesliga vor. Nur ein einziger Fußballclub, Union Berlin, ist dieser Bedingung 2024 nicht nachgekommen und wurde dafür mit einer Strafe im mutmaßlich unteren sechsstelligen Bereich belegt. Inwieweit die anderen Clubs hinter der Virtual Bundesliga stehen, ist fraglich. Viele befolgen die Vorgabe der DFL vermutlich nur, um Strafzahlungen zu vermeiden (vgl. Görlich 2025). Welche Bedeutung wird KI also für den E-Sport haben? Zunächst einmal trifft alles oben Genannte auch auf die wettbewerbsmäßig gespielten Spiele zu, seien es „FIFA“, „Overwatch“ oder „Valorant“. Sie werden womöglich in Zukunft schneller und effizienter entwickelt, spezifischer angepasst und mit weniger Personal entwickelt. Möglich wäre aber auch, dass E-Sport zukünftig KI-Gegner zulässt. Laut der häufig genutzten Definition des Begriffs E-Sport nach Müller-Lietzkow (2006) als „das wettbewerbsmäßige Spielen von Computer- oder Videospielen im Einzel- oder Mehrspielermodus“ wäre dies vorstellbar: E-Sportler, die jeweils allein oder im Team gegen computergesteuerte Gegner antreten. Player versus Environment (PvE) heißt dieser Spielmodus. 2.2.7 KI-gestützte Monetarisierung Die Videospielindustrie hat sich in den letzten Jahrzehnten zu einem milliardenschweren Markt entwickelt (ca. 200 Mrd. US-Dollar Gesamtmarktgröße). Ein zentraler Erfolgsfaktor ist die Monetarisierung von Spielen, die durch den Einsatz von KI in neue Dimensionen vorstoßen kann. KI-basierte Systeme, die in Echtzeit Spielmechaniken verändern und individuell anpassen, sind bereits verfügbar und erlauben gezielte Auswirkungen auf das Spielerlebnis und die Umsatzgenerierung. Die KI-basierte Monetarisierung in Videospielen lässt sich im Wesentlichen wie folgt differenzieren:  Direkte Monetarisierung: Hier steht die direkte Umsatzsteigerung im Vordergrund. KI-Algorithmen analysieren das Spielerverhalten, um personalisierte Angebote zu generieren, die die Kaufwahrscheinlichkeit maximieren. Durch die Analyse von Spielpräferenzen, Spielstil und demografischen Daten können Spieleentwickler oder -Publisher maßgeschneiderte In-Game-Käufe, Abonnements oder virtuelle Güter anbieten. Die Preise für virtuelle Güter werden in Echtzeit (Dynamic Pricing) angepasst, basierend auf der Nachfrage, der Kaufkraft des Spielers und anderen Faktoren. KI-Algorithmen empfehlen Spielern zusätzliche Spiele, Add-ons oder virtuelle Gegenstände (dekorative oder funktionale In-Game-Items), die auf ihren bisherigen Spielaktivitäten, Profilen und Präferenzen basieren.  Indirekte Monetarisierung: Hierbei werden die Spieler langfristig an das Spiel gebunden (Markenloyalität), sowohl durch Verbesserung der Spielerfahrung als auch durch verbesserte Betrugserkennung. Betrug zu verhindern gewährleistet ein faires Spielumfeld und stärkt somit die Spielerbindung. KI kann aber auch die Spielschwierigkeit oder das Balancing adaptiv und dynamisch an die Fähigkeiten des Spielers anpassen, um Frustration zu vermeiden und das Spieler-Engagement zu erhöhen. Sie kann außerdem die Spielwelt und die Story an die Vorlieben des Spielers anpassen, um ein immersiveres Erlebnis zu schaffen. Die Grundlage für die KI-basierte Monetarisierung ist die Sammlung und Analyse von Spielerdaten. Aus diesen Daten können detaillierte Spielerprofile erstellt wer- <?page no="141"?> 2.2 KI in der Games-Branche 141 den, die Aufschluss über die individuellen Präferenzen, Emotionen und Kaufbereitschaften geben. Zu jenen Daten gehören unter anderem:  Spielverhalten: Welche Level werden gespielt, welche Gegenstände gekauft? Wie lange wird gespielt? usw.  Demografische Daten: Alter, Geschlecht, Standort usw.  Gerätedaten: Betriebssystem, Hardware, Internetanbindung usw.  Audio- und Videoaufnahmen: Stimmen, Gesichtsausdrücke usw. Die Monetarisierung (vor allem in-game) nutzt außerdem psychologische Mechanismen, um die Kaufbereitschaft der Spieler zu steigern. Diese Techniken werfen jedoch ethische Fragen auf, da sie die Spieler manipulieren können bzw. gezielt zu manipulieren versuchen (dark patterns). Sie nutzen unter anderen:  Verlustangst: Spieler werden dazu verleitet, bestimmte Gegenstände zu kaufen, um einen vermeintlichen Verlust zu vermeiden.  Neid: Spieler werden dazu angeregt, bestimmte Gegenstände zu kaufen, um mit anderen Spielern mithalten zu können.  Belohnung: Spieler werden durch Belohnungen für bestimmte Handlungen motiviert, weitere Käufe zu tätigen. Auch Monetarisierungssysteme werden teilweise schon durch KI verbessert. Dies basiert unter anderem auf Machine Learning zur Analyse großer Datenmengen und zur Erstellung von Vorhersagemodellen, auf Deep Learning etwa zur Erkennung von Mustern in komplexen Daten, wie z.B. Gesichtsausdrücken oder Sprachmustern, und auf der Verarbeitung von Sprachdaten, z.B. aus Textnachrichten oder Voice Chats per Natural Language Processing. 2.2.8 Gaming of the Future Die aktuellen Entwicklungen im Bereich der KI können ähnlich umfassende Auswirkungen nach sich ziehen wie etwa die Verbreitung von Internet-Zugängen, das Aufkommen der Smartphones oder die kostenlose Verfügbarkeit von Game Engines. Es ist davon auszugehen, dass der Games-Branche in den nächsten Jahren nicht nur dank KI, sondern dank zahlreicher aktueller Trends erhebliche Transformationen bevorstehen. Das Gaming of the Future (vgl. Abb. 39) wird KI genauso integrieren wie möglicherweise Kryptowährungen, NFT’s oder das Metaverse. Gleichzeitig wird es Marktverwerfungen mit sich bringen. Solange Deutschland im Bereich der KI anderen Ländern hinterherhinkt, wird die Verwendung derer KI-Tools auch wieder technologische und unternehmerische Abhängigkeiten bedeuten. Mit Sicherheit wird der Einsatz von KI auch Veränderungen mit sich bringen, die heutzutage noch nicht absehbar sind. Vielleicht werden intelligente, personalisierte Angebote, virtuelle Güter und neue Geschäftsmodelle die Art und Weise, wie Spieler für Spiele bezahlen, revolutionieren. Es wird neue ökonomische Perspektiven und neue Formen der Monetarisierung von Spielen geben, unter anderem schon deshalb, weil das heutzutage überaus erfolgreiche Monetarisierungskonzept der Lootboxen wegen seiner Glücksspielähnlichkeit massiv in der Kritik steht und von ersten Ländern wie Belgien und den Niederlanden bereits verboten wurde. KI würde ermöglichen, jedem einzelnen Spieler sein individuelles, auf seine Person, seine Präferenzen, aber auch seine Schwächen und Süchte optimiertes Monetarisierungsmodell maßzuschneidern. <?page no="142"?> 142 Lutz Anderie und Daniel Görlich Abb. 39: Transformation der Games Industry (Quelle: Anderie 2023, S. 631) <?page no="143"?> 2.2 KI in der Games-Branche 143 Nicht nur im Hinblick auf die Monetarisierung von Games wirft der Einsatz von KI also auch ethische Fragen auf. Die Gefahr der Manipulation von Spielern, die Verstärkung von Diskriminierung durch voreingenommene Daten und der Schutz der Privatsphäre müssen zukünftig umso genauer beachtet werden. Wünschenswert wären klare Richtlinien, Gesetze und ethische Standards, die sicherstellen, dass KI zum Wohle der Spieler eingesetzt wird. Mit ihrem AI Act hat die Europäische Union am 21.5.2024 einen ersten Aufschlag gemacht, um einen einheitlichen Rahmen für den Einsatz von KI in der EU zu schaffen. In seinem Positionspapier „KI in Games“ vom 19.9.2023 schlussfolgert der game- Verband, dass „angesichts der vielfältigen KI-Anwendungen … ein differenzierender, risikobasierter Ansatz erforderlich“ sei. Das steht außer Frage. Die Argumentation und Schlussfolgerung des game, dass „KI-Anwendungen in Games in der Regel ohne Risiko“ seien, weil der Begriff KI „in der Regel verwendet [würde], um das Verhalten von computergesteuerten Gegnern in einem Spiel zu umschreiben“, gilt es jedoch mit Skepsis und differenziert zu betrachten. Hier besteht die Gefahr, dass der game-Verband als Interessenvertretung vor allem der deutschen Games-Branche primär industrielle Perspektiven übernehmen und vertreten wird, so wie er es auch schon in Bezug auf Lootboxen und die Computerspieleförderung des Bundes getan hat. Literatur Anderie, L. (2021). KI-gestützte Monetarisierung in der Games-Branche: Forschungsergebnisse II. Frankfurt Game Studies II. Frankfurt University of Applied Sciences. Anderie, L. (2023). Games Industry Management: Gründung, Strategie und Leadership - Theoretische Grundlagen (2. Aufl.). Springer Gabler. Breuer, M., & Görlich, D. (Hrsg.) (2022). E-Sport: Status quo und Entwicklungspotenziale (2. Aufl.). Springer Gabler. game (2023). Positionspapier KI in Games . https: / / www.game.de/ positionen/ positionspapier-ki-in-games/ . Zugegriffen am 2. Februar 2025 game (2024). Jahresbericht der deutschen Games-Branche 2024 . https: / / www.game.de/ guides/ jahresreport-der-deutschen-games-branche-2024/ . Zugegriffen am 2. Februar 2025 Görlich, D. (2025). Organisation im E-Sport. In F. Gassmann, G. Hovemann, T. Schlesinger & L. Thieme (Hrsg.), Handbuch Sportmanagement . Hofmann Verlag. Hentsch, C.-H., & Falk, F. (2022). Games und Recht: Games-Entwicklung | Publishing | Vertrieb | Plattformen | Marketing . Nomos. Millington, I. (2019). AI for Games (3. Aufl.). CRC Press. Müller-Lietzkow, J. (2006). Sport im Jahr 2050: E-Sport! Oder: Ist E-Sport Sport? medien + erziehung , 2006/ 6, 102-112. <?page no="144"?> 144 Lutz Anderie und Daniel Görlich Newzoo. (2024). Newzoo Gaming Report 2024. https: / / newzoo.com/ resources/ trendreports/ newzoos-global-games-market-report-2024-free-version. Zugegriffen am 2. Februar 2025 Schamel, F. (2010). Dem Wandel der Industrie auf der Spur: Von der Programmierung zum Authoring. Making Games Magazin , 05/ 2010, 40-42. Schneider, S., & Anderie, L. (2025). Digital Business Management: Transforming to a Data-driven Organization Using AI . Springer. <?page no="145"?> 2.3 KI im Literaturbetrieb Balance zwischen technologischer Innovation und kultureller Integrität Wolfhart Fabarius Zusammenfassung Der Einsatz von Künstlicher Intelligenz (KI) im Literaturbetrieb verändert grundlegend, wie Texte geschrieben, veröffentlicht und rezipiert werden. KI-Modelle können kreative Prozesse unterstützen, indem sie Schreibblockaden lösen, stilistische Verbesserungen vorschlagen und Marktentwicklungen analysieren. Gleichzeitig birgt ihr Einsatz Herausforderungen in Bezug auf Authentizität, Urheberschaft und ethische Verantwortung. Während Verlage von automatisierter Manuskriptbewertung und datenbasierten Marketingstrategien profitieren, müssen sie sicherstellen, dass KI keine kulturelle Gleichförmigkeit fördert und experimentelle Literatur nicht benachteiligt. Autorinnen und Autoren sind gefordert, sich kritisch mit KI-Tools auseinanderzusetzen, um ihre individuelle Handschrift zu bewahren. Bildungseinrichtungen sollten gezielt KI-Kompetenzen vermitteln, um eine reflektierte Nutzung der Technologie zu ermöglichen. Eine nachhaltige Integration von KI in den Literaturbetrieb erfordert einen verantwortungsbewussten Umgang mit technologischen Möglichkeiten, eine transparente Kennzeichnung KI-generierter Inhalte und die Entwicklung ethischer Leitlinien. Durch eine Balance zwischen Innovation und kultureller Integrität kann KI als bereicherndes Werkzeug genutzt werden, ohne die menschliche Kreativität zu untergraben. Keywords: Literaturbetrieb, Textgenerierung, Verlagswesen, Literaturrezeption, Ethik 2.3.1 Einleitung Künstliche Intelligenz (KI) bezieht sich auf die Schaffung von Computersystemen, die menschenähnliche kognitive Funktionen wie Problemlösung, Entscheidungsfindung und Lernen ausführen können (vgl. WGP 2025). Sie imitiert diese Fähigkeiten, indem sie Informationen aus Eingabedaten erkennt und sortiert. Sie kann auf programmierten Abläufen basieren oder durch maschinelles Lernen erzeugt werden (vgl. Fraunhofer IKS 2024). Im Kontext des Literaturbetriebs umfasst der KI-Einsatz Anwendungen, die kreative, organisatorische und analytische Aufgaben übernehmen können. Dazu zählen zum Beispiel die automatische Textgenerierung, Vorschläge für stilistische Verbesserungen, Übersetzungen und Analysen von Markttrends. In der Literaturproduktion können Autorinnen und Autoren ihren kreativen Raum erweitern, indem ihnen KI-Tools Formulierungen vorschlagen, Anregungen zur Überwindung von Schreibblockaden geben, beim Recherchieren helfen und Texte generieren. Verlage profitieren von KI-gestützten Systemen, indem sie Manuskripte zumindest teilweise automatisiert bewerten, Zielgruppen präziser analysieren und Marketingstrategien anpassen können. <?page no="146"?> 146 Wolfhart Fabarius Es ist aber auch zu hinterfragen, inwieweit Authentizität, Unabhängigkeit und Qualität verloren gehen, wenn sich immer mehr Literaturschaffende auf die Vorschläge gängiger KI-Systeme verlassen. Außerdem wirft der KI-Einsatz Fragen zur Urheberschaft und zu ethischen Standards auf. Deshalb sollten sich alle Beteiligten sowohl mit den Chancen als auch mit den Risiken auseinandersetzen, die sich für den gesamten Literaturbetrieb ergeben. Im vorliegenden Beitrag wird untersucht, wie der Einsatz von KI den Literaturbetrieb verändert, welche neuen Wege der Zusammenarbeit zwischen Menschen und Maschine möglich sind, wo die Grenzen liegen und wie alle Beteiligten die Chancen nutzen und den Risiken begegnen können. 2.3.2 Einordnung und Perspektiven Mit der Digitalisierung in der zweiten Hälfte des 20. Jahrhunderts lösten Textverarbeitungsprogramme wie Microsoft Word die Schreibmaschine ab und vereinfachten den Schreibprozess. Mit der Einführung digitaler Lesegeräte wurden Bücher jederzeit verfügbar. Digitale Vertriebskanäle, E-Book-Plattformen und Social Media veränderten die Art und Weise, wie Literatur vermarktet wird. Die aktuelle Phase der Automatisierung durch Künstliche Intelligenz geht weit über die Digitalisierung hinaus. Generative KI-Modelle können Inhalte schaffen, die von menschlich geschriebenen Texten immer schwieriger zu unterscheiden sind. Nachfolgend sind einige Beispiele aufgeführt:  Sudowrite (vgl. Sudowrite 2025) schlägt alternative Formulierungen vor, ergänzt fehlende Abschnitte und hilft dabei, Geschichten dynamischer und sprachlich vielfältiger zu gestalten.  ChatGPT (vgl. OpenAI 2025) findet breite Anwendung sowohl in der fiktionalen als auch in der sachlichen Literatur. Das Tool bietet eine Möglichkeit, Ideen auszuarbeiten und Perspektiven für Handlungsstränge zu erkunden.  Neuroflash (vgl. Neuroflash 2025) unterstützt bei der Textgenerierung und ist beispielsweise für Marketingtexte, kreative Kurzformate und die Gestaltung von Titeln und Beschreibungen geeignet.  Grammarly (vgl. Grammarly 2025) prüft Rechtschreibung und Grammatik und hilft bei der Stilüberarbeitung. Die Echtzeitanalyse liefert Vorschläge zur Verbesserung von Klarheit und Lesbarkeit. Der Literaturwissenschaftler und Philosoph Hannes Bajohr sieht bei den Auswirkungen von KI-Sprachmodellen wie ChatGPT „einerseits viele Anschlüsse an bereits bestehende Konzepte seit dem Aufkommen automatisierter Textsynthese (…). Andererseits ist das, was wir im Augenblick erleben, absolut neu (…). In älteren Modellen war Sprache immer schon in einem bestimmten Satz an Regeln niedergelegt (…). Heute haben wir es mit statistischen Sprachmodellen zu tun. Man muss im Grunde gar nicht mehr wissen, wie ein Satz aufgebaut ist, sondern man sammelt einfach unglaublich viele Arten von Beispieltexten, analysiert sie und lässt dann ausgeben, was dem Input statistisch nahekommt.“ Zwar lasse sich „welterschließende Sprache (…) in den neuen KI-Sprachmodellen nur annäherungsweise finden“ (Neumann 2023). Dass sie überhaupt zu finden ist, sei das Neue. Es ist bereits eine Situation eingetreten, in der wir uns nicht mehr sicher sein können, ob ein Text von einem Menschen oder einer Maschine verfasst wurde. Doch wie stark auch immer KI in den Literaturbetrieb ein- <?page no="147"?> 2.3 KI im Literaturbetrieb 147 gebunden wird: „Der Mensch bleibt im Hintergrund notwendig, um überhaupt zu verstehen, was Bedeutung ist (…). Es ist und bleibt eine hierarchische Kollaboration (…). Computer müssten Akteursstatus haben, um Kunst zu machen. Und den haben sie bisher nicht, ganz gleich, wie ‚schlau‘ sie sind“ (Neumann 2023). Der Journalist und Literaturkritiker Wolfgang Tischer hat im Februar 2025 einen KI- Schreib-Ratgeber auf Amazon veröffentlicht. Das Sachbuch ist als Experiment gedacht, um zu hinterfragen: Was passiert mit einem Werk, das offen als KI-generiert deklariert wird - nicht nur gegenüber Amazon, sondern auch gegenüber den Lesenden? Der Hintergrund zu dieser Frage ist, dass Amazon von Autorinnen und Autoren im Self-Publishing eine Selbstauskunft verlangt, in welchem Umfang für das Texten und Bebildern KI verwendet wurde. „ Das ist absurd und nicht mehr als eine juristische Selbstabsicherung“ (Vogt 2025a), sagt Wolfgang Tischer im Interview. Außerdem stelle sich die Frage, welche Konsequenzen Amazon aus diesen Angaben zieht. „Wird ein solches Projekt in der Suche benachteiligt? Den Käufern werden die Daten der Selbstauskunft interessanterweise nicht angezeigt“ (Vogt 2025b). Der Autor hat die Leserinnen und Leser seines Ratgebers um Rückmeldungen gebeten. Die Ergebnisse des Experiments können wertvolle Aufschlüsse über die Akzeptanz von KI-generierten Werken liefern (vgl. Tischer 2025). Schreibprozess Der Schreibprozess gliedert sich in drei Phasen: Konzeption, Schreiben und Überarbeiten. Produktive Einsatzmöglichkeiten von KI bieten sich vor allem in der Konzeptionsphase. Das betrifft beispielsweise die Fragen:  Worum soll es gehen?  Was ist die Erzählprämisse?  Welche Figuren sollen auftreten? Diese Fragen lassen sich dialogisch in der Arbeit mit KI umsetzen und können bewirken, dass sich Autorinnen und Autoren über bestimmte Prozesse klarer werden (vgl. Zevedi 2024). Anhand der umfangreichen Daten, die sich mit KI generieren lassen, müssen die Beteiligten eine Auswahl darüber treffen, welche KI-generierten Inhalte sie für das Werk berücksichtigen. Dies hängt vor allem von der Qualität der Daten ab, aber auch von der Frage, wie viel Spielraum die Schriftstellenden der KI einräumen wollen. Die Zusammenarbeit zwischen Menschen und Maschine kann nur gelingen, wenn die Autorinnen und Autoren darin geübt sind, sinnvolle und zielführende Prompts zu schreiben. Die Anweisungen sollten klar und detailliert formuliert werden, damit das KI-Tool relevante Vorschläge liefert. „Je unspezifischer wir sind, desto unspezifischer werden auch die Antworten.“ (Zevedi 2024) Fehleranfälligkeit und Faktencheck Die mit KI generierten Texte sind stets auf ihren Wahrheitsgehalt eigenständig und unabhängig vom genutzten Tool zu prüfen, da der KI sachliche Fehler unterlaufen können. Die Fehleranfälligkeit von KI-Sprachmodellen lässt sich am Beispiel ChatGPT aufzeigen. Das textbasierte Dialogsystem vom US-Anbieter OpenAI basiert auf maschinellem Lernen und zeigt viele Facetten. Es generiert Aufsätze, Gedichte, Songtexte, Re- <?page no="148"?> 148 Wolfhart Fabarius zensionen, Interpretationen und Porträts. Es schreibt Entwürfe beispielsweise für Verträge, Referenzen, Zeugnisse, Bewerbungen, Geschäftsberichte, Marketinganalysen, Strategieberichte, Vorträge, Skripte, Businesspläne, Governance-Konzepte, Risikomanagementsysteme, Notfallpläne und Gesetze. Eines der größten Probleme des Sprachmodells besteht jedoch darin, dass es stets und so schnell wie möglich eine Antwort liefern will, sofern die Anfrage den ethischen Richtlinien der KI entspricht. Dem Chatbot kann dabei der Fehler unterlaufen, Informationen auf Basis statistischer Modelle fehlerhaft zu kombinieren oder zu halluzinieren. Ein Faktencheck der Anwendenden ist deshalb unabdingbar (vgl. Fabarius 2023). Inzwischen gibt es KI- Modelle mit besserer Quellenintegration, insbesondere Perplexity AI , das Web-Daten in Echtzeit durchsuchen kann (vgl. Perplexity AI 2025). Dennoch bleibt die Quellenbewertung eine menschliche Aufgabe. Qualität und Authentizität KI kann kreative Texte generieren, die jedoch oft auf bekannten Mustern basieren. Befragt nach konkreten Handlungsoptionen, kommen oft generische Ergebnisse heraus, weil „bestimmte Erzählstrukturen bevorzugt werden, wie Romance Plots, die sehr schematisch sind, Heldenreisen, die wir oft im Fantasy-Bereich finden“ (Zevedi 2024). So generieren KI-Tools vorwiegend konventionelle Erzählstrukturen, weil sie „schematisch leicht umzusetzen sind“ und „sich sehr oft wiederfinden im Textmaterial“ (Zevedi 2024). KI-Sprachmodelle neigen dazu, bestehende Muster zu verstärken, wodurch literarische Inhalte standardisierter erscheinen können. Hinzu kommen Schwächen in der stilistischen Kohärenz und der Entwicklung komplexer Handlungsstränge, insbesondere bei längeren Texten. Außerdem birgt die Leichtigkeit, mit der sich KI-Texte generieren lassen, die Gefahr einer Marktübersättigung. Minderwertige oder monotone Texte könnten den Markt überfluten und die Wahrnehmung von Literatur beeinträchtigen. Leserinnen und Leser erwarten von Literatur, dass sie menschliche Erfahrungen, Gedanken und Emotionen widerspiegelt. KI-geschriebene Werke könnten als unpersönlich oder künstlich wahrgenommen werden, was die Authentizität der Literatur infrage stellt. Urheberrecht und Ethik Beim Urheberrecht geht es um die Frage: Wer ist rechtmäßig Autorin oder Autor eines KI-generierten Werks? In der aktuellen Rechtslage vieler Länder gibt es keine Urheberschaft für rein KI-generierte Werke. Das führt zu Unsicherheiten für alle Beteiligten. Inwiefern KI-generierte Texte urheberrechtlich geschützt sind, entscheidet sich „an der Frage, ob ein hinreichender menschlicher Einfluss besteht, um eine persönliche geistige Schöpfung im Sinne des § 2 Abs. 2 UrhG zu bejahen. Wann dies der Fall ist, lässt sich nicht allgemeingültig beantworten, sondern hängt von der jeweilig eingesetzten Software und der Art und Weise ihrer Nutzung ab“ (Hoeren 2023). Die Nutzung urheberrechtlich geschützter Inhalte als Trainingsdaten für KI-Modelle ist ebenfalls zu hinterfragen. Diese Daten können in den generierten Texten wieder auftauchen, was zu rechtlichen und moralischen Konflikten führen kann, insbesondere wenn deutliche Ähnlichkeiten mit den ursprünglichen Quellen erkennbar sind. Ein zentraler Kritikpunkt lautet: KI-Unternehmen erzielen Wertschöpfung auf Basis ungefragter, unvergüteter Nutzung von „ Buchwerken aller Genres, die in großen Sprachmodellen (…) als Grundlage für GPT, Bert, Llama oder Copilot dienen“ (George <?page no="149"?> 2.3 KI im Literaturbetrieb 149 2024), moniert die Schriftstellerin Nina George. Software kannibalisiere mit Fake-KI- Büchern und unerlaubten KI-Übersetzungen den Markt, ahme reale Neuerscheinungen nach, bevor sie publiziert sind, „und plagiiert auf Prompt (…) wie ‚Schreib im Stil von…‘Sentenzen, Figuren, Plots, Absätze und Ausdruck menschlicher Schöpfer“ (George 2024). Aus Sicht der Juristin Rebecca Tushnet, Professorin an der Harvard Law School, geht es beim Urheberrecht im Kern um Produkte menschlicher Kreativität. Der Gedanke dahinter sei, dass der Ausdruck etwas Besonderes ist, im Gegensatz zu Ideen oder Fakten, die nicht geschützt werden sollten. Gerichte in den USA hätten die Nutzung von Trainingsdaten als fair use angesehen, also als Rechtsnorm, wonach urheberrechtlich geschützte Inhalte in bestimmten Fällen auch ohne Genehmigung des Urheberrechtsinhabers verwendet werden dürfen. In diesem Fall werde ein anderer Zweck verfolgt. „Man ist gar nicht an diesem speziellen Werk interessiert, sondern daran, viele verschiedene Werke zu analysieren und ihre Charakteristik zu beschreiben - und die ist nicht urheberrechtlich geschützt“ (Drösser 2024), resümiert die Juristin. Zu den ethischen Aspekten zählt die Frage, ob Leserinnen und Leser wissen sollten, ob ein Werk teilweise oder vollständig von einer Maschine generiert wurde. Die mangelnde Kennzeichnung solcher Inhalte könnte zu einem Vertrauensverlust führen und die Wertschätzung von Literatur als kulturelles Gut beeinträchtigen. Zu bedenken ist auch, dass die Kosten für den Zugang zu fortschrittlichen Tools eine Hürde bedeuten. Hier können Open-Source-Lösungen und Förderprogramme Abhilfe schaffen. Beispiele für KI-Einsatz im Schreibprozess In vielen Projekten wurde KI bereits in den Schreibprozess integriert, von denen einige exemplarisch aufgezählt und erläutert werden: [1] BooksBy.AI: Vollständig KI-generierte Bücher Der Online-Bookstore BooksBy.AI (vgl. Loose und Refsgaard 2018) ist ein experimentelles Projekt, das die Grenzen der KI in der Literatur auslotet. Nicht nur der Inhalt von Büchern wird generiert, sondern auch das Cover und die Rezensionen. Dabei zeigt sich, dass maschinell erzeugte Werke zwar ästhetisch und strukturell überzeugen können. Defizite bestehen jedoch bei der thematischen Tiefe und Authentizität. [2] Poems About Things und fAIry Tales: Kombination aus Bilderkennung und Textgenerierung Andreas Refsgaard kombiniert in den Projekten Poems About Things (vgl. Refsgaard 2019a) und fAIry Tales (vgl. Refsgaard 2019b) die Bilderkennung mit der Textgenerierung. In seinen Gedichten und Geschichten demonstriert er, wie KI die Wahrnehmung von Objekten mit der poetischen und narrativen Interpretation verknüpfen kann. [3] 1 the Road: KI-generierter Roman Der Roman 1 the Road (vgl. CBC Radio 2018) entstand während einer Autofahrt. Der Künstler Ross Goodwin ließ ein neuronales Netzwerk, das mit literarischen Texten von Beat-Autoren wie Jack Kerouac trainiert wurde, Echtzeit-Umgebungsdaten verarbeiten. Das Projekt zeigt, wie KI narrative Fragmente erzeugen kann, wirft jedoch zugleich die Frage auf, inwieweit diese Texte kohärent oder kreativ sind. <?page no="150"?> 150 Wolfhart Fabarius [4] Berlin, Miami: KI-generierter Roman Hannes Bajohr zeigt mit Berlin, Miami (vgl. Bajohr 2023) ein literarisches Experiment. Der Philosoph und Literaturwissenschaftler speiste in einen Chatbot mehrere Gegenwartsromane unvollständig ein und ließ die KI daraus einen Roman schreiben. Das Werk zeigt, wie KI eine fragmentierte, postmoderne Erzählstruktur ohne kohärente Story erzeugt. [5] Alpha Centauri in Ewigkeit: Kurzgeschichten mit Unterstützung von KI Jenifer Becker und Juan Guse untersuchen im Projekt Alpha Centauri in Ewigkeit (vgl. Becker und Guse 2023; Roesler-Graichen 2023) die Zusammenarbeit zwischen menschlichen Autoren und KI beim Schreiben von Kurzgeschichten. Die Fallstudie mit ChatGPT zeigt, dass KI den kreativen Prozess bereichern kann, jedoch nicht ohne die kritische und kreative Beteiligung des Menschen auskommt. Diese Beispiele zeigen, dass der primär experimentelle Charakter der Projekte und Ergebnisse dominiert. Von den Werken der Weltliteratur sind sie jedoch weit entfernt. Verlagswesen und Distribution Nicht nur der Schreibprozess selbst, sondern auch die dahinerliegenden Abläufe der Manuskriptbewertungen, Übersetzungen und Vermarktung sind von den KI-Entwicklungen betroffen. Dies wirkt sich auf die Arbeitswelt aus. Die IG Digital des Börsenvereins hat im Januar 2025 die Ergebnisse einer Befragung von 139 Personen aus dem Verlagswesen zur Nutzung von KI in Verlagen veröffentlicht. Demnach sieht sich die Branche noch am Anfang einer Transformation. Nur neun Prozent der Befragten schätzen die Bedeutung von KI aktuell als hoch oder sehr hoch ein. Viele der Befragten sind jedoch der Auffassung, dass der KI-Einsatz in wenigen Jahren ein entscheidender Erfolgsfaktor sein wird. Zu den Herausforderungen zählen vor allem fehlendes Know-how und unklare Einsatzmöglichkeiten. Vor allem im Change-Management, der technologischen Umsetzung und der Entwicklung neuer Geschäftsmodelle sehen die Verlage große Aufgaben (vgl. Börsenverein 2025). Manuskriptbewertungen Die Nutzung KI-gestützter Bewertungssysteme verändert die Arbeitsweise in Verlagen. Grundlage dieser Systeme sind die Textanalyse und Mustererkennung. Modelle, die mit großen Mengen an literarischen Daten trainiert wurden, bewerten Manuskripte nach Kriterien wie Stil, Lesbarkeit, Struktur und Themen. Dabei erkennen sie Muster, die in erfolgreichen Büchern häufig vorkommen. Systeme wie Inkitt (vgl. Albazaz 2023) gehen noch weiter, indem sie das Erfolgspotenzial eines Manuskripts berechnen, die Zielgruppenansprache berücksichtigen und die Genrekompatibilität prüfen. Außerdem können sie Marktprognosen abgeben, indem sie ähnliche Werke und deren Verkaufsdaten miteinander vergleichen. Plagiate lassen sich aufdecken und Manuskripte automatisch in passende Genres einordnen, um den Auswahlprozess zu erleichtern. Inkitt nutzt Algorithmen zur Analyse des Verhaltens von Leserinnen und Lesern, um potenzielle Bestseller zu identifizieren: <?page no="151"?> 2.3 KI im Literaturbetrieb 151  Wie lange wird ein Text gelesen?  An welchen Stellen steigt das Interesse?  Wie häufig werden Kapitel aufgerufen und weiterempfohlen? Anhand dieser Daten ermittelt die Plattform, welche Manuskripte das Potenzial haben, Bestseller zu werden. Während sich Inkitt an kommerziellen Aspekten orientiert, sind Tools wie Semantic Scholar (vgl. Semantic Scholar 2014) und Consensus (vgl. Consensus 2024) nicht direkt für literarische Manuskriptbewertungen gedacht, sondern für wissenschaftliche Recherchen und die Zusammenfassung von Forschungsergebnissen. Den Vorteilen KI-gestützter Bewertungssysteme steht insbesondere die Einschränkung kreativer Vielfalt im Auswahlprozess gegenüber. KI-Modelle erkennen häufige Muster erfolgreicher Werke und können daher experimentelle Manuskripte schwerer einordnen. Weitere Herausforderungen betreffen Transparenz und Fairness. Autorinnen und Autoren wissen oft nicht, nach welchen Kriterien ihre Manuskripte bewertet werden. Übersetzungen Die Integration automatischer Übersetzungssysteme kann Vorteile bei der Erschließung internationaler Märkte bringen. Mit KI-gestützten Tools wie DeepL (vgl. DeepL 2025) können Verlage die Werke schneller und kostengünstiger in mehreren Sprachen zeitnah veröffentlichen. Autorinnen und Autoren aus weniger bekannten Sprachräumen bekommen so leichter Zugang zu einem internationalen Publikum. Automatische Übersetzungen sollten jedoch immer mit menschlicher Nachbearbeitung kombiniert werden. Die Rohübersetzungen übernimmt die KI, die Ergebnisse werden anschließend von Lektorinnen und Lektoren bearbeitet, um die literarische Qualität der Texte zu gewährleisten. „Man mag noch so bereitwillig grobe Schnitzer beseitigen und menschliche Politur auftragen - maschinell übersetzte Texte bleiben qualitativ hinter den Möglichkeiten einer Humanübersetzung zurück“ (Becker 2024), befindet Jürgen Jakob Becker, Geschäftsführer des Deutschen Übersetzerfonds. Verlage müssen sicherstellen, dass sie technologisch auf dem neuesten Stand sind, um Nachteile im Wettbewerb zu vermeiden. Auch auf den Datenschutz ist zu achten, da viele Übersetzungs-Tools cloudbasiert arbeiten. Urheberrechtlich geschützte Inhalte sind rechtskonform zu verarbeiten. Vermarktung Verlage können ihre Reichweite steigern, indem sie Interessen von Leserinnen und Lesern mithilfe datenbasierter Ansätze analysieren. Die KI-Systeme berücksichtigen dabei beispielsweise Daten zum Kaufverhalten, zu Lesehistorien und zu Bewertungen auf Plattformen wie Amazon, Goodreads und Storytel. Dadurch lassen sich detaillierte Profile generieren, die Verlagen helfen, ihre Zielgruppen besser zu verstehen. Auf dieser Grundlage können Empfehlungssysteme den Kundinnen und Kunden Bücher vorschlagen, die ähnliche Merkmale wie die von ihnen zuvor gelesenen Werke aufweisen. Eine „sehr oft angewendete Methode bei Recommender-Systemen“ ist das kollaborative Filtern, „meist bei sehr großen Datenmengen“ (Kahraman 2021). Dabei werden Präferenzen in Benutzergruppen ausgewertet, um auf die Interessen Einzelner zu schließen. Daneben gibt es das inhaltsbasierte Filtern, bei dem Bücher <?page no="152"?> 152 Wolfhart Fabarius anhand von Schlagworten, Genres oder Schreibstilen empfohlen werden (vgl. Wagener 2019). Bei der Personalisierung von Angeboten und Kundeninteraktionen „geht es im Kern darum, Produkte, Services und Kommunikation passgenau auf die individuellen Bedürfnisse, Präferenzen und Kontexte des einzelnen Nutzers zuzuschneiden - in Echtzeit und in großer Granularität“ (Simschek und Danz 2025). Amazon zählt hier zu den Vorreitern. Der Erfolg basiert zu einem Gutteil darauf, allen Nutzerinnen und Nutzern ein maßgeschneidertes Erlebnis zu bieten, beispielsweise durch personalisierte Empfehlungen (vgl. Simschek und Danz 2025). Maschinelles Lernen ermöglicht auch die Prognose von Literaturtrends, indem es große Datenmengen aus Social Media, Bestsellerlisten und Online-Rezensionen auswertet. Auf dieser Basis können Verlage ihre Marketingstrategien frühzeitig an aufkommende Themen anpassen. Ein weiterer Vorteil für Verlage ist die Segmentierung von Zielgruppen. Basierend auf Genrepräferenzen, demografischen Daten und individuellen Interessen teilt KI die Leserschaft in spezifische Segmente auf, sodass Verlage maßgeschneiderte Angebote für unterschiedliche Gruppen entwickeln können. Dadurch lassen sich Werbung leichter personalisieren und Marketingkampagnen zielgenauer durchführen. Das geschieht beispielsweise durch personalisierte E-Mails, Social-Media-Anzeigen und Newsletter, die direkt auf die Interessen einzelner Leserinnen und Leser zugeschnitten sind. Solche Strategien erhöhen die Wahrscheinlichkeit, dass Nutzerinnen und Nutzer auf Angebote reagieren. Inwieweit KI bei der Vermarktung auch immer zum Einsatz kommt: Die Analyse erfordert einen verantwortungsvollen Umgang mit allen persönlichen Daten, um Datenschutzrichtlinien einzuhalten und das Vertrauen der Leserinnen und Leser nicht zu gefährden. Arbeitswelt Der KI-Einsatz im Verlagswesen verändert die Arbeitswelt grundlegend. Während einerseits neue Berufsbilder entstehen, fallen andererseits Arbeitsplätze weg. Durch KI-gestützte Technologien verändern sich insbesondere die Rollen und Aufgaben in Lektorat und Redaktion. Die Aufgaben verlagern sich von ausführenden zu überwachenden und kuratorischen Tätigkeiten. In der Manuskriptbewertung reduziert sich der Bedarf an manuellen Sichtungen. Der Fokus liegt stärker auf der abschließenden Auswahl und Beurteilung vielversprechender Werke. Im Marketing und im Vertrieb rücken datenbasierte Analysen und personalisierte Werbung in den Vordergrund. Marketingfachkräfte müssen sich verstärkt mit den Chancen und Risiken KI-basierter Zielgruppenanalysen und Werbemaßnahmen auseinandersetzen. Da Verlage Tätigkeiten wie Korrektur, Übersetzung und Datenanalyse automatisieren können, droht Angestellten die Streichung von Stellen. Freiberufler, beispielsweise für das Übersetzen und Texten, stehen vor der Herausforderung, mit KI-Systemen zu konkurrieren, die schneller und kostengünstiger arbeiten. Dies verstärkt den Wettbewerbsdruck und zwingt viele dazu, sich neu zu positionieren. Das vom Deutschen Übersetzerfonds geförderte Projekt „Kollektive Intelligenz - Übersetzungsmaschinen und Literatur“ stellte im Jahr 2023 Maschinenübersetzungssysteme auf die Probe und stellte fest, dass Tools wie DeepL und Google Translate „nicht leistungsfähig genug zu sein scheinen, um Literaturübersetzer*innen bei ihrer <?page no="153"?> 2.3 KI im Literaturbetrieb 153 Aufgabe in einem signifikanten Maße weiterzuhelfen“ (Hansen 2023). Die Tools begingen andere Fehler als übersetzende Menschen. Das Post-Editieren, das Bearbeiten eines Maschinen-Outputs, lasse sich insofern auch nicht mit einem Übersetzungslektorat vergleichen. Menschliche Fehler in der Übersetzung ließen sich auf Lücken in der Sprachkenntnis, Unkenntnis kultureller Besonderheiten oder andere Missverständnisse zurückführen, die für Menschen aber in der Regel nachvollziehbar seien. Eine Übersetzungsmaschine dagegen könne in einem Satz eine richtige Entscheidung treffen, und im nächsten Satz stehe sie vor demselben Problem und entscheide falsch. So richte sich die Aufmerksamkeit beim Post-Editing auf zwei „Problemtexte“: das Original und die maschinelle Vorübersetzung (vgl. Hansen 2023). „Die KIgestützten Übersetzungssysteme weisen auf ihre teils erratische Vorgehensweise auch nicht hin, sondern präsentieren ihr Ergebnis als ein fertiges Produkt. Sie sind dem Anschein nach keine Hilfsmittel für berufstätige Übersetzer*innen, sondern geben sich als deren Ersatz aus“ (Hansen 2023). Durch den technologischen Wandel wächst der Bedarf an Spezialistinnen und Spezialisten, die KI-Modelle trainieren, überwachen und anwenden können. Diese Fachkräfte müssen technisches Wissen mit einem Verständnis für literarische Prozesse verbinden, um die Technologie zielführend einzusetzen. Außerdem erfordert die Nutzung von KI im Literaturbetrieb die Entwicklung spezialisierter Rollen hinsichtlich Ethik und Datenschutz, um ethische Standards einzuhalten und sensible Daten zu schützen. Fachkräfte sind gefordert, ihre Kompetenzen durch Schulungen in KI-gestützten Systemen zu erweitern. Beim Recruiting wird immer stärker darauf geachtet, ob Bewerberinnen und Bewerben die Chancen und Risiken von KI-Tools kennen und auch passgenaue und zielführende Prompts schreiben können. Die gefragten Kompetenzen betreffen sowohl technologische als auch kreative Fähigkeiten. Eine Weiterbildung zu fördern und eine Balance zwischen technologischer Effizienz und menschlicher Kreativität zu finden, sind zentrale Anliegen, um die Vielfalt und Qualität des Literaturbetriebs nicht zu gefährden. Literaturrezeption Die Literaturrezeption ist ebenfalls durch die KI-Entwicklung betroffen, insbesondere durch die neuen KI-Formate und die Gefahren der Filterblasenbildung. Neue Formate durch KI Die Integration von KI in den Literaturbetrieb bringt neue Formate hervor, die sich in Echtzeit an die Vorlieben und das Verhalten der Nutzerinnen und Nutzer anpassen. Die daraus entstehende interaktive Literatur ermöglicht es den Lesenden, aktiv Einfluss auf Handlung, Charakterentwicklung und den Erzählstil zu nehmen. Dabei reagieren KI-gestützte Systeme auf Eingaben und Entscheidungen der Konsumierenden und passen die Geschichte entsprechend an. Ein Beispiel ist die Plattform AI Dungeon : Nutzerinnen und Nutzer steuern die Handlung durch eigene Texteingaben, während die KI den Erzählfluss fortführt und auf die Eingaben reagiert. Die Plattform geriet wegen unzureichender Sicherheitsmaßnahmen und mangelnder Moderation der generierten Inhalte in die Kritik (vgl. Github 2021). Der Anbieter Latitude installierte daraufhin ein neues Filtersystem und startete mit Voyage eine weiterentwickelte Plattform (vgl. Schreiner 2021). <?page no="154"?> 154 Wolfhart Fabarius Auch interaktive E-Books und Apps bieten multiple Handlungsstränge, basierend auf den Entscheidungen und Präferenzen der Konsumierenden. Die Personalisierung dieser Formate fußt auf der Analyse des Verhaltens von Nutzerinnen und Nutzern. KI erfasst Daten wie bevorzugte Abschnitte, Leseverhalten und getroffene Entscheidungen. Die Erzählweise, das Tempo und die Themen lassen sich an die Präferenzen der Lesenden anpassen. Interaktive Geschichten fördern die Bindung des Publikums, indem sie eine aktive Auseinandersetzung mit der Handlung und den Charakteren ermöglichen. Leserinnen und Leser schlüpfen in die Rolle von Co-Kreatoren, indem sie den Verlauf der Erzählung mitgestalten. Diese Formate kommen auch in Bildungskontexten zur Anwendung, um dazu beizutragen, die Lesefähigkeiten und das kritische Denken zu fördern. Dabei können interaktive Elemente den Zugang zu Literatur spielerisch und attraktiver gestalten (vgl. Educational Tools 2024). Allerdings bringen diese Entwicklungen auch Risiken mit sich. Das betrifft zum Beispiel die Qualität der Erzählung, da KI-generierte Anpassungen oft auf Mustererkennung basieren und weniger tiefgründig und kohärent sein können als von Menschen erfundene Geschichten. Außerdem erfordert diese neue Literaturform eine entsprechende technologische Infrastruktur, was den Zugang für manche Lesegruppen, etwa in weniger digitalisierten Regionen, einschränken kann. Gefahren der Filterblasenbildung Mit der zunehmenden Nutzung von KI-gestützten Empfehlungssystemen steigt die Gefahr von Filterblasenbildung. Sie entsteht, wenn Algorithmen den Leserinnen und Lesern überwiegend Inhalte vorschlagen, die auf deren bisherigen Vorlieben basieren. Dadurch werden die Leseerfahrung und die Vielfalt literarischer Entdeckungen eingeschränkt. Empfehlungsalgorithmen analysieren das Leseverhalten von Nutzerinnen und Nutzer, um Bücher vorzuschlagen, die mit deren Geschmack übereinstimmen. Während dies kurzfristig Komfort bietet, führt es langfristig dazu, dass diverse oder konträre Vorschläge systematisch vernachlässigt werden. Ein Rückkopplungseffekt verstärkt dieses Phänomen: Jede neue Empfehlung, die auf einer früheren Auswahl basiert, verengt die Vorschläge weiter und konzentriert sich immer stärker auf etablierte Muster des Nutzerverhaltens (vgl. Schmidt et al. 2018). Diese Entwicklung hat erhebliche Auswirkungen auf die literarische Vielfalt. Leserinnen und Leser werden innerhalb einer begrenzten Auswahl an Genres, Themen und Stilen gehalten, was die Entdeckung neuer und experimenteller literarischer Werke erschwert. Gleichzeitig werden unbekannte Autorinnen und Autoren benachteiligt, da Algorithmen häufig Werke von etablierten Schriftstellenden bevorzugen. Außerdem droht kulturelle Diversität verlorenzugehen, da regionale und kulturell spezifische Literatur in globalisierten Algorithmen-Systemen oft hinter Mainstream-Präferenzen zurücktreten muss. Hinzu kommt der Verlust unabhängiger Entdeckungen: Das spontane Finden eines ungewöhnlichen oder herausfordernden Buches wird durch algorithmisch gesteuerte Empfehlungen ersetzt, die auf Vorhersehbarkeit statt Überraschung setzen. Um diesen Entwicklungen entgegenzuwirken, sind gezielte Maßnahmen erforderlich. Eine mögliche Lösung ist die Entwicklung diversifizierter Algorithmen, die bewusst auch unvorhergesehene oder kontrastreiche Empfehlungen integrieren. Eine <?page no="155"?> 2.3 KI im Literaturbetrieb 155 weitere Möglichkeit, eine Vielfalt in den Vorschlägen zu gewährleisten, besteht in der Transparenz und Wahlfreiheit. So sollten Nutzerinnen und Nutzer ihre Präferenzen anpassen und gezielt Vorschläge außerhalb ihres bisherigen Profils einholen können. Verlage und Plattformen können ihrerseits experimentelle Literatur gezielt fördern, indem sie Werke von unbekannten Autorinnen und Autoren oder aus Nischenbereichen hervorheben. Bildungseinrichtungen Bildungseinrichtungen können das Thema KI im Literaturbetrieb in Forschungsprojekten beispielsweise zu automatisierter Textgenerierung untersuchen. Außerdem fördern sie Workshops, interdisziplinäre Kooperationen und Experimente mit kreativen Schreibprozessen, um Chancen und Herausforderungen der KI in der Literatur kritisch zu reflektieren. Zahlreiche Hochschulen in Deutschland beschäftigen sich mit dem KI-Einsatz in literarischen Werken. Diese Forschungsinitiativen erkunden sowohl kreative als auch ethische Fragen. [1] Universität Augsburg Die Universität Augsburg integriert KI in ihre Digitalisierungsstrategie, um Lehr- und Lern-Settings weiterzuentwickeln und digitale Kompetenzen zu fördern. Ein zentraler Aspekt ist dabei die Literaturrecherche mit KI, um große Datenmengen zu durchforsten, relevante Literatur schneller zu identifizieren und komplexe Zusammenhänge zu analysieren. Eine Dokumentation der KI-Nutzung kann dazu beitragen, den Forschungsprozess für Lesende nachvollziehbar zu machen. Es soll verdeutlicht werden, welche Rolle KI im Erkenntnisprozess gespielt hat (vgl. Universität Augsburg 2025). [2] Universität Hildesheim Das AI-Writing-Lab am Literaturinstitut Hildesheim vermittelt Kompetenzen im Umgang mit generativen KI-Modellen. Es bietet einen kritischen Diskussionsraum, in dem Studierende experimentell erforschen, wie KI literarische und künstlerische Praxis verändert, welche Chancen und Herausforderungen sie birgt und wie ein verantwortungsvoller Umgang damit aussehen kann. Langfristig sollen das Thema „Schreiben mit KI“ im Curriculum des Kulturcampus verankert und eine technische Infrastruktur aufgebaut werden (vgl. AI Labkit 2024). [3] Universität Koblenz Das Projekt IH-evrsKI an der Universität Koblenz untersucht die Verbindung zwischen KI und Germanistik. Dabei geht es um Fragen zur Textgenerierung durch KI, deren Einfluss auf Schreibprozesse und die Zukunft des Deutschunterrichts. Das Projekt fördert die Vermittlung von KI-Kompetenzen an Studierende und regt zur kritischen Auseinandersetzung mit den Chancen und Risiken dieser Technologie an. Die Website bietet eine Bibliografie, Informationen zu Veranstaltungen und studentischen Arbeiten, dazu das Glossar „KIpedia“, das sprach- und literaturwissenschaftliche Begriffe im Kontext von KI erklärt (vgl. Universität Koblenz 2025). [4] Universität Rostock An der Universität Rostock startete im April 2023 das Projekt CANSpiN (Computational Approaches to Narrative Space in 19th and 20th Century Novels). <?page no="156"?> 156 Wolfhart Fabarius Darin wird untersucht, wie KI zur Analyse von narrativen Räumen in deutsch- und spanischsprachigen Romanen des 19. und 20. Jahrhunderts eingesetzt werden kann. Das Ziel ist die Entwicklung von Algorithmen, die automatisch Handlungsorte und Raumbeschreibungen in literarischen Texten erkennen. (vgl. Universität Rostock 2024). [5] Universität Tübingen Die Universität Tübingen zeigt, für welche Fachbereiche und Suchanfragen KIgestützte Tools bereits geeignet sind und wo ihre Grenzen liegen. Die Universitätsbibliothek bietet Schulungen, Beratungen und Selbstlernkurse an, um den Umgang mit KI in der Literaturrecherche zu erleichtern. Es wird darauf hingewiesen, dass viele Tools aus Datenschutzperspektive problematisch sind, weshalb keine persönlichen Daten Dritter eingegeben oder sensible eigene Informationen preisgegeben werden sollten. Außerdem dürfen urheberrechtlich geschützte Dokumente nicht hochgeladen werden (vgl. Universität Tübingen 2025). [6] Universität Würzburg An den Lehrstühlen für Neuere deutsche Literaturwissenschaft und englische Literatur- und Kulturwissenschaft entstehen neue Konzepte für den Einsatz von KI in der literaturwissenschaftlichen Lehre. Dabei geht es vor allem um Fragen zur sinnvollen Integration von KI und zu den Zukunftsperspektiven für die Universität. Dozierende können KI-Tools nutzen, um Lehrangebote zu gestalten, individuelle Übungsmöglichkeiten für Studierende bereitzustellen und Lernstände gezielt zu erfassen. Das Ziel ist es, KI aus einer experimentellen und kritischen Perspektive in den universitären Kontext einzubinden und sinnvolle Anwendungsmöglichkeiten zu erproben (vgl. Universität Würzburg 2025). Die Hochschulen der vorgestellten Projekte vermitteln KI-Kompetenzen an Studierende und erforschen neue Anwendungsmöglichkeiten in der Literaturwissenschaft, im kreativen Schreiben und in der Lehre. Es werden sowohl ethische und rechtliche Aspekte als auch methodische Fragen zur Textanalyse, Schreibpraxis und zu narrativen Strukturen untersucht. Zusammenarbeit und Regulierung Übergreifende Maßnahmen des Schriftstellens, Verlagswesens, der Literaturrezeption und Bildungseinrichtungen zielen darauf ab, KI-Kompetenzen zu fördern, technische und ethische Standards zu entwickeln und KI-gestützte Tools sinnvoll zu integrieren. Schulungen und Lehrangebote ermöglichen eine kritische Auseinandersetzung mit KI im kreativen Schreiben, im Lektorat und in der Literaturwissenschaft. Das Deutsche Institut für Normung (DIN) hat in Zusammenarbeit mit der Deutschen Kommission Elektrotechnik Elektronik Informationstechnik (DKE) und dem Bundesministerium für Wirtschaft und Klimaschutz die „Deutsche Normungs-Roadmap für Künstliche Intelligenz“ veröffentlicht. Das Dokument beschreibt Anforderungen an zukünftige Regelungen und Normen im Kontext von KI (vgl. DIN 2025). Verbände der deutschsprachigen Literaturübersetzer fordern eine starke Regulierung von KI, um Kunst und Demokratie zu schützen. Sie betonen die Notwendigkeit, dass die Funktionsweise generativer KI und ihre Trainingsdaten offengelegt werden, insbesondere wenn urheberrechtlich geschützte Werke verwendet wurden (vgl. Wilkens 2024). <?page no="157"?> 2.3 KI im Literaturbetrieb 157 Die Buchbranche insgesamt setzt sich für stärkere EU-Richtlinien ein, die Urheberinnen und Urhebern Transparenz darüber bieten, ob ihre Werke zur Entwicklung generativer KI genutzt wurden (vgl. Börsenblatt 2023). 2.3.3 Vorschläge für die sinnvolle und ethische Integration von KI in den Literaturbetrieb Die Integration von KI in den Literaturbetrieb birgt Potenzial, erfordert jedoch klare Strategien, um sie sinnvoll und ethisch vertretbar einzusetzen. Verlage, Schriftstellende und Bildungseinrichtungen spielen hierbei eine zentrale Rolle, indem sie Chancen und Risiken gleichermaßen berücksichtigen. Für Verlage: KI als unterstützendes Werkzeug etablieren Verlage sollten KI als Ergänzung zu menschlicher Kreativität einsetzen. Transparenz kann dabei Vertrauen schaffen. Leserinnen und Leser sollten ebenso wie Autorinnen und Autoren darüber informiert werden, wenn KI bei der Erstellung, Bearbeitung oder Vermarktung von Texten eingesetzt wurde. Ein weiterer Schwerpunkt sollte auf der Förderung literarischer Vielfalt liegen. KI kann gezielt genutzt werden, um experimentelle, interkulturelle oder nischenorientierte Literatur zu fördern. Außerdem müssen Verlage in den Datenschutz investieren, um sicherzustellen, dass KI- Systeme personenbezogene Daten ethisch einwandfrei und im Einklang mit rechtlichen Vorgaben verarbeiten. Für Autorinnen und Autoren: Kreative Zusammenarbeit mit KI KI sollte als Unterstützung und nicht als Ersatz für die kreative Arbeit betrachtet werden. Die persönliche Handschrift der Autorinnen und Autoren und emotionale Tiefe der Werke müssen erhalten bleiben, um Authentizität und Originalität zu sichern. Die Weiterbildung ist ein weiterer wichtiger Aspekt. Schriftstellende sollten sich in Schulungen mit den Möglichkeiten und Grenzen von KI-Tools vertraut machen, um sie zielführend und verantwortungsvoll einsetzen zu können. Das ermöglicht ihnen, den kreativen Prozess zu bereichern und keine schöpferische Identität zu verlieren. Für Bildungseinrichtungen: KI-Kompetenzen vermitteln Bildungseinrichtungen spielen eine Schlüsselrolle, wenn es darum geht, Schriftstellende und Fachkräfte auf den Einsatz von KI vorzubereiten. Studienprogramme sollten den Umgang mit KI in der Literaturproduktion thematisieren und die Potenziale und Grenzen der Technologien aufzeigen. Dabei sollte auch die Diskussion ethischer Fragen etwa nach dem Urheberrecht, der Transparenz und den Auswirkungen auf literarische Vielfalt ein fester Bestandteil der Ausbildung sein. Studierende sollten ermutigt werden, die kulturellen und gesellschaftlichen Auswirkungen von KI zu hinterfragen und eigenständige Lösungen für die Herausforderungen des technologischen Wandels zu entwickeln. Interdisziplinäre Forschungsprogramme, die Literatur, Technologie und Gesellschaft verbinden, können zusätzlich neue Ansätze für die Integration von KI in den Literaturbetrieb aufzeigen. Übergreifende Maßnahmen: Zusammenarbeit und Regulierung Eine erfolgreiche Integration von KI erfordert Zusammenarbeit. Verlage, Schriftstellende und Bildungseinrichtungen sollten Plattformen und Netzwerke schaffen, um <?page no="158"?> 158 Wolfhart Fabarius Best Practices auszutauschen und gemeinsame Strategien zu entwickeln. Es sind klare Richtlinien für den Einsatz von KI zu formulieren, die ethische und rechtliche Aspekte berücksichtigen. Durch Förderprogramme und Auszeichnungen können Projekte honoriert werden, die KI auf kreative und verantwortungsvolle Weise nutzen, um neue Wege in der Literatur zu erschließen und die Vielfalt des Marktes zu fördern. 2.3.4 Fazit Künstliche Intelligenz kann im Literaturbetrieb unterstützen. Die neu zu definierenden Arbeitsweisen erfordern einen bewussten Umgang mit den ethischen, kulturellen und wirtschaftlichen Konsequenzen. Während KI die Rolle des Menschen im kreativen Prozess nicht ersetzen kann, ermöglicht sie neue Formen der künstlerischen Interaktion. Die KI-gestützte Manuskriptbewertung bietet Verlagen eine Möglichkeit, den Auswahlprozess zu verbessern und datenbasierte Entscheidungen zu treffen. Sie sollte jedoch nicht als Ersatz für menschliches Urteilsvermögen betrachtet werden, sondern als Ergänzung zum menschlichen Lektorat. Verlage sollten nicht nur in Technologien investieren, sondern auch in das Knowhow der Mitarbeitenden. Nach der Europäischen KI-Verordnung, dem EU AI Act, müssen Unternehmen sicherstellen, dass Mitarbeitende beim Einsatz von KI mit den genutzten Tools vertraut sind (vgl. Compliancedigital 2025). Aus künstlerisch-kreativer Perspektive sollte KI nicht nur bestehende Präferenzen bedienen, sondern auch eine Brücke zu neuen literarischen Erfahrungen schlagen. Um der Gefahr von Filterblasenbildung zu begegnen, ist ein bewusster Umgang mit Algorithmen erforderlich, der sowohl Lesende als auch Verlage dazu anregt, Vielfalt aktiv zu fördern. KI-Tools eröffnen den Autorinnen und Autoren vielfältige Möglichkeiten, kreativer und präziser zu arbeiten. Dennoch bleibt der reflektierte Einsatz entscheidend, um authentische und originelle Werke zu schaffen. Eine erfolgreiche Kooperation zwischen Menschen und Maschine ist möglich, wenn die Stärken beider Seiten genutzt werden: das innovative Potenzial der Maschine und die emotionale Tiefe und Intuition des Menschen. Um die Balance zwischen technologischer Innovation und kultureller Integrität zu wahren, bedarf es einer klaren Regulierung, offener Debatten über die ethischen Implikationen und einem bewussten Umgang mit den technologischen Möglichkeiten. Literatur AI Labkit (2024). AI-Writing-Lab. https: / / ai-labkit.de/ lernen/ ? post=ai-writing-lab. Zugegriffen am 9. März 2025 Albazaz, A. (2023). Write for Galatea: How Inkitt Publishes Your Books from Preparation to Promotion. https: / / www.inkitt.com/ writersblog/ how-inkitt-publishesyour-books-from-preparation-to-promotion. Zugegriffen am 27. Februar 2025 Bajohr, H. (2023). Berlin, Miami. https: / / www.matthes-seitz-berlin.de/ buch/ -berlinmiami.html. Zugegriffen am 27. Februar 2025 <?page no="159"?> 2.3 KI im Literaturbetrieb 159 Becker, J., & Guse, J. (2023). Alpha Centauri in Ewigkeit. https: / / www.fischerverlage.de/ magazin/ neue-rundschau/ alpha-centauri-ewigkeit. Zugegriffen am 27. Februar 2025 Becker, J. J. (2024). Übersetzer sind Urheber eines Werks. Politik & Kultur. Zeitung des Deutschen Kulturrats, Ausgabe 05/ 24. https: / / politikkultur.de/ inland/ uebersetzer-sind-urheber-eines-werks/ ? print=pdf. Zugegriffen am 27. Februar 2025 Börsenblatt (2023). „Transparenz ist für die Entwicklung eines fairen und sicheren KI-Ökosystems unerlässlich“. https: / / www.boersenblatt.net/ news/ verlage-news/ transparenz-ist-fuer-die-entwicklung-eines-fairen-und-sicheren-ki-oekosystemsunerlaesslich-305739. Zugegriffen am 9. März 2025 Börsenverein (2025). Ergebnisse der KI-Studie unter Verlagen. https: / / www.boersenverein.de/ interessengruppen/ ig-digital/ detailseite-aktuelles/ ergebnisse-der-kistudie-unter-verlagen/ . Zugegriffen am 7. März 2025 CBC Radio (2018). An AI and an artist go on the road. „The idea was to write a novel with a car.“ https: / / www.cbc.ca/ radio/ spark/ 409-1.4860495/ an-ai-and-an-artistgo-on-the-road-the-idea-was-to-write-a-novel-with-a-car-1.4860760. Zugegriffen am 27. Februar 2025 Compliancedigital (2025). KI-Schulungen in Unternehmen sind jetzt Pflicht. https: / / compliancedigital.de/ ce/ ki-schulungen-in-unternehmen-sind-jetzt-pflicht/ detail.html. Zugegriffen am 9. März 2025 Consensus (2024). AI Search Engine for Research. https: / / consensus.app/ . Zugegriffen am 27. Februar 2025 DeepL (2025). Übersetzer. https: / / www.deepl.com/ de/ translator. Zugegriffen am 7. März 2025 DIN (2025). Zweite Ausgabe der Deutschen Normungsroadmap KI. https: / / www.din.de/ de/ forschung-und-innovation/ themen/ kuenstliche-intelligenz/ fahrplan-festlegen. Zugegriffen am 9. März 2025 Drösser, C. (2024). Kopier mich nicht! - Kulturschaffende wehren sich gegen KI. https: / / www.swr.de/ swrkultur/ wissen/ kopier-mich-nicht-kulturschaffende-wehren-sich-gegen-ki-swr2-wissen-2024-01-16-102.html. Zugegriffen am 27. Februar 2025 Educational Tools (2024). Junge Leser fördern: Mit Storybooks macht Lesen Spaß und spricht komplexe Emotionen an. https: / / educational.tools/ de/ junge-leserfoerdern-mit-storybooks-macht-lesen-spass-und-spricht-komplexe-emotionenan/ . Zugegriffen am 7. März 2025 Fabarius, W. (2023). ChatGPT in der Unternehmenspraxis. Erich Schmidt Verlag. Fraunhofer IKS (2024). Was ist Künstliche Intelligenz? Was ist maschinelles Lernen? https: / / www.iks.fraunhofer.de/ de/ themen/ kuenstliche-intelligenz.html. Zugegriffen am 5. März 2025 George, N. (2024). Das ist kein Kulturgut. Das ist Schüttgut. Politik & Kultur. Zeitung des Deutschen Kulturrats, Ausgabe 05/ 24. https: / / politikkultur.de/ inland/ das-istkein-kulturgut-das-ist-schuettgut/ ? print=pdf. Zugegriffen am 27. Februar 2025 Github (2021). AI Dungeon Public Disclosure Vulnerability Report - GraphQL Un- <?page no="160"?> 160 Wolfhart Fabarius published Adventure Data Leak. https: / / github.com/ AetherDevSecOps/ aid_adventure_vulnerability_report. Zugegriffen am 27. Februar 2025 Grammarly (2025). To improve lives by improving communication. https: / / www.grammarly.com/ about. Zugegriffen am 5. März 2025 Hansen, A. (2023). Kollektive Intelligenz: Kann KI Literatur? https: / / kollektive-intelligenz.de/ originals/ kollektive-intelligenz-kann-ki-literatur/ . Zugegriffen am 7. März 2025 Horen, T. (2023). Rechtsgutachten zum Umgang mit KI-Software im Hochschulkontext. In P. Salden, & J. Leschke (Hrsg.), Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung. https: / / hss-opus.ub.ruhruni-bochum.de/ opus4/ frontdoor/ deliver/ index/ docId/ 9734/ file/ 2023_03_06_Didaktik_Recht_KI_Hochschulbildung.pdf. Zugegriffen am 9. März 2025 Kahraman, A. (2021). Wiederverwendung von benutzerspezifischem Wissen zur Visualisierung von Analysedaten. https: / / opus4.kobv.de/ opus4-haw/ files/ 814/ I000820817Abschlussarbeit.pdf. Zugegriffen am 5. März 2025 Loose, M.T., & Refsgaard, A. (2018). Tired of books written by authors? Try Booksby.ai. https: / / booksby.ai/ . Zugegriffen am 27. Februar 2025 Neumann, P. (2023). „Unser Verständnis von Text wird sich fundamental verändern“. https: / / www.zeit.de/ kultur/ 2023-04/ hannes-bajohr-kuenstliche-intelligenz-literatur/ komplettansicht. Zugegriffen am 5. März 2025 Neuroflash (2025). Erstelle, personalisiere und optimiere Marketinginhalte in einer KI Plattform. https: / / neuroflash.com/ de/ . Zugegriffen am 5. März 2025 OpenAI (2025). ChatGPT: Get answers. Find inspiration. Be more productive. https: / / openai.com/ chatgpt/ overview/ . Zugegriffen am 5. März 2025 Perplexity AI (2025). Erste Schritte. https: / / www.perplexity.ai/ de/ hub/ gettingstarted. Zugegriffen am 7. März 2025 Refsgaard, A. (2019a). Poems About Things. https: / / www.andreasrefsgaard.dk/ projects/ poems-about-things/ . Zugegriffen am 27. Februar 2025 Refsgaard, A. (2019b). fAiry Tales. https: / / www.andreasrefsgaard.dk/ projects/ fairytales/ . Zugegriffen am 27. Februar 2025 Roesler-Graichen, M. (2023). Erzählen mit ChatGPT. https: / / www.boersenblatt.net/ news/ erzaehlen-mit-chatgpt-312129. Zugegriffen am 27. Februar 2025 Schmidt, J.-H., Sørensen, J., Dreyer, S., & Hasebrink, U. (2018). Wie können Empfehlungssysteme zur Vielfalt von Medieninhalten beitragen? ARD Media. https: / / www.ard-media.de/ media-perspektiven/ publikationsarchiv/ 2018/ artikel/ wie-koennen-empfehlungssysteme-zur-vielfalt-von-medieninhalten-beitragen. Zugegriffen am 7. März 2025 Schreiner, M. (2021). KI-Gaming: „AI Dungeon“-Studio startet neue Plattform. https: / / the-decoder.de/ voyage-neue-plattform-fuer-ki-games-startet/ . Zugegriffen am 27. Februar 2025 Semantic Scholar (2014). A free, AI-powered research tool for scientific literature. https: / / www.semanticscholar.org/ . Zugegriffen am 27. Februar 2025 Simschek, R., & Danz, D. (2025). KI-Herausforderungen für Unternehmen. UTB. <?page no="161"?> 2.3 KI im Literaturbetrieb 161 Sudowrite (2025). Frequently asked questions. https: / / sudowrite.com/ faq. Zugegriffen am 5. März 2025 Tischer, W. (2025). Experiment: New-Adult-Schreibratgeber mit KI erstellen und verkaufen. https: / / www.literaturcafe.de/ new-adult-schreibratgeber-mit-ki-erstellenund-verkaufen/ . Zugegriffen am 27. Februar 2025 Universität Augsburg (2025). KI in der Literaturrecherche. https: / / www.uni-augsburg.de/ de/ organisation/ bibliothek/ kurse-beratung/ ki-in-der-literaturrecherche/ . Zugegriffen am 9. März 2025 Universität Koblenz (2025). Universität Koblenz (2025). KI in Sprache, Literatur und Medien. https: / / www.uni-koblenz.de/ de/ philologie-kulturwissenschaften/ germanistik/ projekte/ ki-in-sprache-literatur-und-medien. Zugegriffen am 9. März 2025 Universität Rostock (2024). Künstliche Intelligenz in der Rostocker Literaturwissenschaft. https: / / www.uni-rostock.de/ universitaet/ kommunikation-und-aktuelles/ medieninformationen/ detailansicht/ n/ kuenstliche-intelligenz-in-der-rostockerliteraturwissenschaft-new65ae5a27bee5d898766692/ . Zugegriffen am 9. März 2025 Universität Tübingen (2025). Künstliche Intelligenz für das wissenschaftliche Arbeiten. https: / / uni-tuebingen.de/ einrichtungen/ universitaetsbibliothek/ lernenarbeiten/ schulungen-beratungen-fuehrungen/ literaturrecherche-mit-ki/ . Zugegriffen am 9. März 2025 Universität Würzburg (2025). Projektvorstellung: Künstliche Intelligenz und literaturwissenschaftliche Lehre. https: / / www.germanistik.uni-wuerzburg.de/ en/ ndl1/ forschung-projekte/ ki-und-literaturwissenschaftliche-lehre/ . Zugegriffen am 9. März 2025 Vogt, K.-U. (2025a). „Die Menschen kaufen den Textschrott offenbar ungesehen“. Börsenblatt-Online. https: / / www.boersenblatt.net/ news/ die-menschen-kaufenden-textschrott-offenbar-ungesehen-363055. Zugegriffen am 27. Februar 2025 Vogt, K.-U. (2025b). „KI in Verlagen - Unternehmen sehen auch große Risiken“. Börsenblatt-Online. https: / / www.boersenblatt.net/ news/ ki-verlagen-unternehmen-sehen-auch-grosse-risiken-361755. Zugegriffen am 7. März 2025 Wagener, A. (2019). Künstliche Intelligenz im Marketing - ein Crashkurs: Data Driven Marketing, Predictive Analytics, Deep Learning. Haufe-Lexware. WGP/ Wissenschaftliche Gesellschaft für Produktionstechnik (2025). Was ist die Künstliche Intelligenz? https: / / wgp.de/ de/ kuenstliche-intelligenz/ . Zugegriffen am 5. März 2025 Wilkens, A. (2024). Literatur-Übersetzer: KI muss stark reguliert werden. Heise-Online. https: / / www.heise.de/ news/ Literatur-Uebersetzer-KI-muss-stark-reguliertwerden-9642017.html. Zugegriffen am 9. März 2025 Zevedi (2024). Digitalgespräch Folge 51: Kreatives Schreiben mit KI. https: / / zevedi.de/ wp-content/ uploads/ 2024/ 12/ Digitalgespraech_51_Bekker_transcript.pdf. Zugegriffen am 5. März 2025 <?page no="163"?> 2.4 Veränderte Anforderungen durch KI an Berufstätige Arbeit zwischen Mensch und Algorithmus Dominic Lindner Zusammenfassung Die rasante Entwicklung der Künstlichen Intelligenz verändert Arbeitsweisen, Organisationsstrukturen und individuelle Kompetenzen. Künstliche Intelligenz wird uns nicht vollständig ersetzen, doch es besteht die Gefahr, im Berufsalltag abgehängt zu werden. Dieses Buchkapitel analysiert wissenschaftliche Erkenntnisse zur KI- Nutzung, erläutert Grundlagen und zeigt praxisnahe Strategien für den Umgang mit KI auf. Ziel ist es, mithilfe kleiner Stellschrauben und Weiterbildung zukunftsfähig in der Arbeitswelt - zwischen Mensch und Algorithmus - zu sein. Keywords: KI, Beruf, Weiterbildung, Lernen, Arbeit 2.4.1 Die Arbeitswelt im Wandel Die Dynamik unserer Arbeitswelt erfährt fortlaufende Veränderungen, von traditionellen Büroumgebungen über das Homeoffice bis hin zu hybriden Arbeitsmodellen. Eine bahnbrechende Entwicklung trat im Jahr 2022 mit dem Aufkommen von Chat- GPT ein, was das Zeitalter der Künstlichen Intelligenz (KI) einläutete (vgl. Abbildung 40). Während zuvor zahlreiche KI-Anwendungen nicht effektiv waren oder keinen deutlichen Mehrwert boten, zeigen sich nun erste vielversprechende Ansätze, die auf Dauer erhebliche Auswirkungen auf die Arbeitslandschaft haben werden (vgl. Lindner 2024a). Abb. 40: ChatGPT als Beginn des Zeitalters der KI (Quelle: Eigene Zeichnung) <?page no="164"?> 164 Dominic Lindner Dieses Kapitel befasst sich mit den Veränderungen für Menschen am Arbeitsplatz durch KI. Doch welche Veränderungen werden eintreten? Aktuell beschäftigen sich Experten in Fachmagazinen mit diversen Fragen, zum Beispiel:  Wird KI unsere Jobs ‚stehlen‘?  Wird es Unternehmen ohne Mitarbeitende geben?  Werden Automatisierungen ganze Jobfelder obsolet machen?  Werden nur noch Google, Apple und Microsoft erfolgreich sein und durch KI alles dominieren?  Wird KI sogar unseren Bundeskanzler stellen? Die Antwort, ob KI uns völlig ersetzen wird, kann schon im Vorfeld dieses Kapitels verneint werden. Allerdings sind einige Veränderungen notwendig, um als Mensch weiterhin nachhaltig und erfolgversprechend agieren zu können. Welche Veränderungen dies sind, wird dieses Kapitel aufzeigen. Dazu wird zuerst auf wissenschaftliche Erkenntnisse zu KI eingegangen. Anschließend werden die Grundlagen von KI erklärt und im Hauptteil die Veränderungen erläutert, die Einzelpersonen anstreben könnten. Abgerundet wird das Kapitel durch kompakte Handlungsempfehlungen. 2.4.2 Wissenschaftliche Erkenntnisse zu KI am Arbeitsplatz In diesem Kapitel werden ausgewählte Ergebnisse aktueller Studien zur Nutzung von KI in Unternehmen und im privaten Alltag präsentiert. Diese Studien liefern einen fundierten und objektiven Überblick, da sie auf empirischen Daten und überprüfbaren Erkenntnissen basieren. Sie schaffen eine Grundlage, um die anschließenden Betrachtungen auf individueller und unternehmerischer Ebene besser nachvollziehen zu können. In den kommenden Unterkapiteln werden diese Erkenntnisse durch praxisnahe Beispiele ergänzt und greifbar gemacht. Studien zum Einfluss von KI im Alltag Zum Einstieg in dieses Kapitel wird auf die Nutzung von KI im privaten Bereich eingegangen und dabei die Bekanntheit von ChatGPT als Beispiel beleuchtet. Es wird deswegen an diesem populären Beispiel die Nutzung von KI untersucht. Eine im Februar 2024 veröffentlichte Untersuchung, „KI-Studie 2024: Nutzung & Vertrauen in der Gesellschaft“ von Evergreen Media, liefert hierzu interessante Einblicke. Über 2000 Personen aus der DACH-Region wurden befragt, mit folgenden Ergebnissen: ChatGPT ist für über zwei Drittel der Bevölkerung ein bekannter Begriff, wobei die Bekanntheit stark von der Generation abhängt:  Generation Z 82 %  Generation Y 75 %  Generation X 68 %  Babyboomer 54 % Besonders bekannt ist ChatGPT bei Schüler*innen und Studierenden, gefolgt von Arbeitnehmerinnen und Selbstständigen. Weniger verbreitet ist die Nutzung bei Hausfrauen*männern und Rentner*innen. Zudem spielt die Größe des Wohnorts eine Rolle: In größeren Städten ist ChatGPT bekannter als in kleineren. <?page no="165"?> 2.4 Veränderte Anforderungen durch KI an Berufstätige 165 Etwa die Hälfte der Befragten nutzt ChatGPT regelmäßig, während der Rest die Software nur gelegentlich getestet hat. Allerdings sehen nur 39 % ChatGPT als nützlich an, und lediglich 27 % vertrauen den Antworten der KI. Die regelmäßige Nutzung verteilt sich wie folgt:  Schüler*innen 84 %  Student*innen 75 %  Angestellte 73 %  Selbstständige 60 %  Arbeitssuchende 40 %  Hausfrau*mann 39 %  Rentner*innen 26 % Zusammenfassend zeigt die Studie, dass ChatGPT vor allem bei jüngeren Menschen und bestimmten Bevölkerungsgruppen weit verbreitet ist. Dennoch steht dem breiten Einsatz noch eine gewisse Skepsis gegenüber, insbesondere im Hinblick auf Vertrauen und Alltagstauglichkeit. Es bleibt abzuwarten, wie sich diese Einstellung künftig entwickeln wird. Studien zum Einfluss von KI auf die Arbeit in Unternehmen Nachdem die gesellschaftliche Nutzung von KI beleuchtet worden ist, widmet sich dieses Unterkapitel dem Einsatz in Unternehmen. Eine Befragung der Hochschule Koblenz (Januar 2024) zeigt: Zwei Drittel der befragten Unternehmen aus Deutschlandnutzen KI, meist seit weniger als zwei Jahren. 90 % der Befragten sehen KI als entscheidend für die Wettbewerbsfähigkeit ihrer Branche an. Herausforderungen bleiben die Rechtssicherheit, die Datenqualität, Personal- und Softwarekosten. Künstliche Intelligenz wird primär als Unterstützung wahrgenommen, nicht als Bedrohung für Arbeitsplätze. Die Slack-Studie (März 2024) mit über 10.000 Büroangestellten zeigt, dass die Akzeptanz von KI-Tools am Arbeitsplatz um 24 % gestiegen ist. Besonders repetitive Aufgaben wie Genehmigungen oder Meeting-Protokolle werden als sinnvolle Einsatzbereiche gesehen. Während 42 % der Befragten vom Potenzial der KI begeistert sind, fordern 80 % der Führungskräfte klare Richtlinien, da eine unkontrollierte Nutzung Unsicherheit in Form von Datenschutz, Auswirkungen auf Beschäftige, technische Fragen, ethische Themenfelder und vieles mehr birgt. Eine Bitkom-Studie (2023) nennt dazu ergänzend folgende KI-Anwendungsbereiche: Berichte und Übersetzungen (82 %), Mustererkennung (59 %), Bilderstellung (58 %) sowie Forschung und Entwicklung (50 %). ChatGPT war für viele der ‚Eye-Opener‘ (dt. Augenöffner). Zusammenfassend lässt sich sagen: KI erleichtert Mitarbeitenden repetitive Aufgaben, steigert die Produktivität und unterstützt Innovation. Der Schwerpunkt liegt auf interner Optimierung und strategischer Nutzung. Doch insgesamt befinden sich Unternehmen noch in der Experimentierphase. Mitarbeitende sollten durch Schulungen befähigt werden, KI effektiv zu nutzen, um das Potenzial für Effizienz und Innovation auszuschöpfen. <?page no="166"?> 166 Dominic Lindner 2.4.3 Grundlagen von KI und neue Anforderungen für Berufstätige In diesem Kapitel werden die Grundlagen von KI erläutert, die notwendig sind, um das komplexe Themenfeld zu verstehen und daraus auch Aspekte für die Handlungsempfehlungen abzuleiten. Denn: Künstliche Intelligenz umfasst deutlich mehr als ChatGPT bzw. hört man oft die Aussage, dass KI nur für Informatiker*innen geeignet wäre. Dieses Kapitel zeigt deswegen, auf welche Themenfelder Sie setzen sollten. Künstliche Intelligenz lässt sich in zwei Kategorien unterteilen: in die schwache KI, die auf spezifische Anwendungen wie Sprach- oder Bilderkennung spezialisiert ist, und die starke KI, die menschenähnliche Intelligenz besitzt und komplexe, kognitive Aufgaben bewältigen kann. Schwache KI dominiert derzeit in Unternehmen, da sie weniger kostenintensiv und einfacher zu implementieren ist. Beispiele für schwache KI sind Spracherkennungssysteme wie Siri , Chatbots zur Kundenbetreuung oder Empfehlungssysteme wie bei Netflix und Amazon (vgl. Abb. 41). Abb. 41: Schwache und starke KI im Vergleich (Quelle: Eigene Darstellung mit Dall-KI aus Lindner 2024b) Starke KI hingegen bleibt oft in Forschungseinrichtungen oder globalen Unternehmen wie Google oder OpenAI im Einsatz, da sie hohe Kosten und spezialisiertes Wissen erfordert. Technologien wie Deep Learning oder Machine Learning treiben diese Algorithmen an, erfordern jedoch leistungsstarke Hardware und komplexe Programmierkenntnisse. Starke KI ist mit hohen Kosten und umfangreichen mathematischen Kenntnissen verbunden. Sie sollten deswegen vor allem auf schwache KI setzen, da Sie diese leicht erlernen können und Unternehmen diese vorwiegend verwenden werden. Schwache KI hat zahlreiche Anwendungen im Unternehmensalltag gefunden, vor allem in Bereichen wie Automatisierung, Datenanalyse und Kundeninteraktion. Typische Einsatzbereiche umfassen (Lindner 2024a):  Automatisierte Textverarbeitung: KI-Tools wie ChatGPT erstellen Berichte, E- Mails oder Blogbeiträge effizienter.  Spracherkennung: Systeme wie Microsoft Transcribe wandeln Gespräche oder Meetings in Text um.  Automatisierung repetitiver Aufgaben: KI kann E-Mails kategorisieren, Termine planen oder Datenanalysen durchführen. <?page no="167"?> 2.4 Veränderte Anforderungen durch KI an Berufstätige 167  Sentimentanalyse: Kundenfeedback wird durch KI ausgewertet, um Stimmungen und Trends frühzeitig zu erkennen. Starke KI findet hingegen in spezialisierten Bereichen Anwendung, etwa bei autonomen Fahrzeugen, medizinischen Diagnosen oder der Entwicklung personalisierter Inhalte. Solche Technologien werden meist über internationale Anbieter oder spezialisierte Cloud-Dienste bereitgestellt, da ihre Entwicklung teuer und aufwendig ist. KI verändert Arbeitsweisen, Organisationsstrukturen und Entscheidungsprozesse. Unternehmen müssen sich durch Schulungen, neue Richtlinien und langfristige Strategien an diese Veränderungen anpassen. Gleichzeitig ist ein ethisch verantwortungsvoller Umgang mit KI unabdingbar, um Vertrauen zu schaffen und Risiken zu minimieren. Hinzu kommt eine hohe Unsicherheit, wie KI einzusetzen ist. Versteifen Sie sich also nicht auf mathematische Formeln und Programmierung. Denken Sie nicht, dass nur die schlausten Menschen der Welt KI verstehen, sondern machen Sie sich klar, dass KI aktuell täglich zunehmend vereinfacht wird, damit sie mehr und mehr in den Alltag von Menschen Einzug finden kann. Fokussieren Sie sich darauf, KI mithilfe agiler Methoden in Ihren Alltag zu integrieren, vermeiden Sie Technostress (Überreizung durch zu viele Nachrichten) durch einen bewussten Umgang mit Technologie und lernen Sie, ChatGPT zu nutzen. Im nächsten Kapitel lernen Sie, wie Sie dies umsetzen können. 2.4.4 Die neuen Anforderungen von KI richtig angehen Die rasante Entwicklung der KI verändert zunehmend, wie wir arbeiten, kommunizieren und unser Leben gestalten. Besonders ChatGPT hat seit 2022 viele Menschen erstmals in direkten Kontakt mit KI gebracht und ihre Wahrnehmung dieser Technologie revolutioniert. Dieses Kapitel beleuchtet, wie Sie sich sinnvoll weiterbilden können, mit dem Fokus auf der Bedeutung von Experimenten, Softskills, Prompt Engineering und den psychologischen Herausforderungen, die der Umgang mit KI mit sich bringt. Experimentieren Sie mit schwacher KI und stärken Sie Softskills Bilden Sie sich vor allem im Themenfeld schwacher KI aktiv weiter und experimentieren Sie dazugehörigen Tools, wie auch ich mit der DALL-KI, um Bilder für dieses Buchkapitel zu erzeugen, üben Sie Prompts in ChatGPT oder automatisieren Sie Ihren Alltag und erzeugen Sie mit der KI Bilder von sich selbst (vgl. Abbildung 42). Starten Sie mit DALL-KI und erzeugen Sie Fotos, nutzen Sie dann TryitonAI, erzeugen Sie Fotos von sich selbst und erstellen Sie mit Runway ML Ihr erstes eigenes KI- Video. Wenn Sie sich technischer aufstellen wollen, können Sie über AWS oder Azure eigene schwache KI-Tools erzeugen, wie Text-to-Speech und Bilderkennung. Der Einstieg in starke KI lohnt sich nur, wenn Sie wirklich auch Softwareentwickler*in werden möchten, und ist nur bei spezialisierten Firmen gefragt, wie Aleph Alpha und anderen KI-Firmen. <?page no="168"?> 168 Dominic Lindner Abb. 42: Erzeugung von KI-Bildern des Autors Dominic Lindner über TryitonAI für soziale Netzwerke (Quelle: Eigene Darstellung) In einer Arbeitswelt, die immer stärker von KI geprägt ist, bleiben Softskills der entscheidende Faktor, um erfolgreich zu sein. Während KI technische Aufgaben übernimmt, sind es die menschlichen Fähigkeiten, die für Innovation, Zusammenarbeit und ethisches Handeln sorgen. Sie bilden die Brücke zwischen Technologie und echtem Mehrwert - sowohl im persönlichen als auch im beruflichen Kontext. Die wichtigen Softskills sind:  Empathie und zwischenmenschliche Beziehungen  Kreativität und Innovation  Organisationstalent  kritisches Denken und ethische Verantwortung  Kommunikation, Präsentationsfähigkeit, Schreibfähigkeit  Anpassungsfähigkeit und Resilienz  theoretische Konzepte praktisch umsetzen durch u.a. abstraktes Denken Softskills sind nicht nur wichtig, um den Einsatz von KI zu optimieren, sondern auch, um die Zusammenarbeit im Team und mit Kunden zu verbessern. Diese Fähigkeiten lassen sich durch gezielte Maßnahmen wie Seminare, Workshops oder praktische Übungen stärken. Dies verdeutlicht das folgende Beispiel: In einem Kommunikationstraining lernen Sie, aktiv zuzuhören, klar zu formulieren und Konflikte zu lösen. Dies sind essenzielle Fähigkeiten, die weder KI noch Algorithmen nach aktuellem Wissensstand ersetzen können. Lesen Sie diverse kompakte Taschenbücher und probieren Sie diese Tipps direkt im Alltag aus. ChatGPT und die Kunst des Prompt Engineering Mit der Einführung von ChatGPT wurde KI für viele Menschen plötzlich greifbar. Während vorherige Anwendungen wie Siri oder Alexa oft unbewusst genutzt wurden, ermöglicht ChatGPT eine direkte und interaktive Auseinandersetzung mit KI. Für viele - mich eingeschlossen - hat sich die Art und Weise, wie Informationen gesucht und verarbeitet werden, grundlegend verändert (vgl. Lindner 2024a). Statt intuitiv Google zu nutzen, wird nun häufig ChatGPT geöffnet, um Antworten zu erhalten oder komplexe Fragestellungen zu lösen. Allerdings birgt die Nutzung von KI auch Herausforderungen. ChatGPT liefert oft ungenaue oder unvollständige Ergebnisse, wenn die Eingabe (der Prompt) nicht <?page no="169"?> 2.4 Veränderte Anforderungen durch KI an Berufstätige 169 sorgfältig formuliert ist. Hier setzt das Konzept des Prompt Engineering an. Es handelt sich um die Fähigkeit, Anfragen an KI so zu gestalten, dass die Antworten möglichst präzise, relevant und nützlich sind (vgl. Lindner 2024a). Abb. 43: Bei der Produktion von Waren sind die Zutaten wichtig - genauso ist es auch bei KI (Quelle: DALL-KI aus Lindner 2024a) Warum ist Prompt Engineering wichtig? Die Qualität der Eingaben bestimmt maßgeblich die Qualität der Ergebnisse. Ähnlich wie bei der Herstellung eines guten Weins sind hochwertige ‚Zutaten‘ - also präzise und durchdachte Eingaben - entscheidend. Eine unklare oder vage Anfrage führt oft zu unbefriedigenden Antworten. Ein sorgfältig formulierter Prompt hingegen ermöglicht es der KI, ihre Fähigkeiten voll auszuspielen (vgl. Abbildung 42). Beispiele für effektive Prompts: Statt eine allgemeine Frage wie ‚Was ist KI? ‘ zu stellen, könnte man eine spezifischere Anfrage formulieren: ‚Ich bin IT-Projektmanager und benötige eine verständliche Erklärung für KI, die ich dem Vorstand unseres Unternehmens in einer Präsentation vorstellen kann. Ich erwarte die Antwort so, dass ich diese auf maximal 5 Slides kopieren kann. Bitte in Business-Sprache und ganzen Sätzen.‘ Hierdurch erhält man nicht nur eine allgemeinere Antwort, sondern eine zielgerichtete, auf den Kontext abgestimmte Ausführung. Ein gutes Prompt Engineering umfasst mehrere Aspekte:  Kontext: eine kurze Beschreibung der Situation, beispielsweise der beruflichen Rolle und des Zwecks der Anfrage  Ziel: klare Definition dessen, was die Antwort leisten soll  Stil: Angabe, ob die Antwort sachlich, motivierend oder kreativ sein soll  Feedback nach Prompt: optional die Bitte um Zwischenüberschriften oder die Anpassung der Länge <?page no="170"?> 170 Dominic Lindner Beispiel: Sie sind Projektmanager*in bei einem erfahrenen IT-Dienstleister, der eine Präsentation vor einem Unternehmensvorstand hält. Der Zweck der Präsentation ist es, die Vorteile und den strategischen Nutzen eines geplanten IT-Projekts überzeugend darzustellen. Dabei geht es um die Modernisierung der IT-Infrastruktur, die Einführung von Cloud-Lösungen und die Optimierung der Geschäftsprozesse durch digitale Technologien. Ziel ist es, den Vorstand von der Investition zu überzeugen, indem klare Mehrwerte wie Kosteneinsparungen, höhere Effizienz und verbesserte Wettbewerbsfähigkeit aufgezeigt werden. Kontext: Sie sprechen vor einer Gruppe von Vorständen, die wenig technische Vorkenntnisse haben, aber großen Wert auf geschäftliche Vorteile und strategische Ausrichtung legen. Sie vertreten einen renommierten IT-Dienstleister und möchten mit der Präsentation als Musterbeispiel für solche Situationen herausstechen. Ziel: Die Antwort soll eine klare, sachliche und gut strukturierte Präsentationsstrategie liefern, die den Wert des Projekts aufzeigt. Sie soll einleuchtende Argumente und praktische Beispiele enthalten, um die Vorstände zu überzeugen, das Projekt zu genehmigen. Stil: Die Antwort soll sachlich, professionell und selbstbewusst formuliert sein. Sie soll sowohl technisch fundiert als auch geschäftsorientiert sein, mit einem Fokus auf Vertrauen und Entscheidungsfreude. Der Übergang zur Nutzung von KI erfordert Zeit und Übung. Ich selbst musste mich zunächst daran gewöhnen, präzise Anfragen zu formulieren. Besonders in komplexen beruflichen Kontexten plane ich bewusst Zeit ein, um einen Prompt sorgfältig vorzubereiten. Dies spart langfristig Aufwand, da die Qualität der Ergebnisse steigt. Wer KI effektiv nutzen kann, wird nicht von ihr ersetzt, sondern gewinnt einen klaren Vorteil. „KI wird nicht Ihren Job übernehmen. Die Person, welche KI nutzen kann, übernimmt Ihren Job! “ (Jen-Hsun Huang 2024, CEO Nvidia in Lindner 2024b). Psychologische Aspekte: Technostress und Informationsüberfluss Mit den neuen Möglichkeiten, die KI bietet, kommen auch Herausforderungen. Zwei zentrale Phänomene, die durch den Einsatz von Technologie verstärkt werden, sind Technostress und Information-Overload (vgl. Abbildung 43). Technostress: Dieser entsteht durch die ständige Verfügbarkeit von Technologie und den Druck, diese effizient zu nutzen. Permanentes Multitasking, das Wechseln zwischen verschiedenen Aufgaben und die Nutzung neuer Tools können zu Stress und Überforderung führen. Informationsüberfluss: In einer digitalen Welt, in der wir ständig mit Nachrichten, E- Mails und Updates bombardiert werden, fällt es schwer, wichtige Informationen herauszufiltern. Dies kann dazu führen, dass Entscheidungen schwieriger werden und die Produktivität leidet. Um diese beiden Phänomene zu bewältigen, habe ich allgemeine Tipps zusammengestellt. Diese illustriere ich anschließend mit meinen persönlichen Beispielen:  Bewusstsein: Machen Sie sich bewusst, dass dies neue Herausforderungen sind, Abschalten wichtig ist und trainiert werden muss. Lösen Sie Probleme von morgen nicht mit Methoden von gestern. <?page no="171"?> 2.4 Veränderte Anforderungen durch KI an Berufstätige 171 Abb. 44: Technostress und Information-Overload sind ständige Begleiterscheinungen der neuen KI-Arbeitswelt (Quelle: Eigene Abbildung)  Zeitmanagement: Techniken wie die Pomodoro-Methode, bei der Arbeitsphasen durch kurze Pausen unterbrochen werden, können helfen, den Fokus zu behalten.  Bewusste Nutzung von Technologie: Das Setzen klarer Grenzen für die Bildschirmzeit und regelmäßige digitale Pausen fördern das Wohlbefinden.  Priorisierung: Tools zur Aufgabenverwaltung können helfen, den Überblick zu behalten und sich auf das Wesentliche zu konzentrieren.  Ein bewusster Umgang mit Technologie ist essenziell, um langfristig leistungsfähig und gesund zu bleiben. Ich arbeite gerne in 25-Minuten-Intervallen und mache anschließend 5 Minuten Pause. Nach vier Arbeitsphasen plane ich eine längere Pause. Auch habe ich bewusst - wenn auch selten - technikfreie Zeiten. Weiterhin erstelle ich täglich eine Liste meiner wichtigsten Aufgaben und markiere die drei, die ich unbedingt erledigen möchte. So behalte ich den Fokus und lasse mich nicht von unwichtigen Aufgaben ablenken. Um die Nachrichten zu erledigen, plane ich feste Zeiten am Tag, in denen ich E-Mails bearbeite - beispielsweise morgens um 9 Uhr und nachmittags um 15 Uhr. Außerhalb dieser Zeiten lasse ich mein E-Mail-Programm geschlossen, um nicht ständig abgelenkt zu werden. Agile Methoden im Umgang mit KI Agile Methoden wie Scrum oder Kanban spielen eine Schlüsselrolle, wenn es darum geht, komplexe KI-Projekte zu bewältigen. Sie bieten einen flexiblen Rahmen, der es ermöglicht, schnell auf Veränderungen zu reagieren und in kleinen Schritten Fortschritte zu erzielen. Vor allem ist es gut, KI explorativ zu entdecken. Agile Ansätze helfen dabei, Aufgaben in überschaubare Einheiten zu zerlegen und diese iterativ zu bearbeiten. Statt sich von der Komplexität abschrecken zu lassen, können Teams so schneller lernen und sich an neue Anforderungen anpassen. <?page no="172"?> 172 Dominic Lindner Abb. 45: Agilität ist wie Kuchen essen (Quelle: Lindner 2024a) Im Folgenden finden Sie einen Auszug aus Lindner (2024a), um Agilität an einem ‚schmackhaften‘ Beispiel zu verdeutlichen. Stellen Sie sich vor, Sie haben einen köstlichen Kuchen gebacken, der nun dampfend und frisch auf dem Küchentisch steht, und es sind einige Freunde zu Gast (vgl. Abbildung 44). Den Kuchen essen Sie nicht als Ganzes, sondern schneiden ihn in handliche Stücke. Der Kuchen stellt die Gesamtheit Ihrer Aufgaben dar und die einzelnen Stücke sind jeweils die Ideen oder Aufgabenpakete, die Sie haben. Genauso, wie Sie Ihren Kuchen auf einem schönen Teller präsentieren, haben Sie auch Ihre Aufgaben in kleine Stücke zerlegt und auf einem Taskboard arrangiert, vergleichbar mit einem Kanban-System. Um nicht zu viel auf einmal zu übernehmen, zerteilen Sie die Aufgaben weiter, damit diese sich leichter bewältigen lassen - ähnlich wie das Anrichten von Häppchen, die Sie im Vorbeigehen genießen können. Diese kleineren Aufgaben können Sie auch in eine To-do-Liste eintragen, die Sie dann systematisch abarbeiten. Jeden Tag können Sie sich dann an Ihrem persönlichen Buffet bedienen und sich ein Stück Ihrer Aufgaben nehmen, bis Sie genug haben, um damit zu arbeiten. Falls Sie nicht alle Aufgaben allein bewältigen können, können Sie auch andere Personen einladen, sich an Ihrem ‚Aufgabenbuffet‘ zu bedienen und gemeinsam zu arbeiten. Und wie beim Kuchen, bevor er schlecht wird, nehmen Sie sich die letzten Stücke und essen sie. Genauso ist es mit den Aufgaben, die Sie kurz vor dem Ablauf der Deadline noch erledigen. Fazit Die Integration von KI in den Alltag und die Arbeitswelt bringt zahlreiche Chancen, erfordert aber auch Anpassung und Weiterentwicklung. Prompt Engineering und Softskills sind zentrale Bestandteile, um die Potenziale von KI voll auszuschöpfen, während agile Methoden und ein bewusster Umgang mit Technologie helfen, Herausforderungen zu meistern. Zukünftig wird KI die Menschen nicht ersetzen, sondern sie in ihren Tätigkeiten unterstützen. Wer die Fähigkeit entwickelt, mit dieser Technologie effektiv umzuge- <?page no="173"?> 2.4 Veränderte Anforderungen durch KI an Berufstätige 173 hen, wird nicht nur im Beruf, sondern auch im Alltag profitieren. Anpassungsfähigkeit, Kreativität und ein offenes Mindset bleiben dabei die Schlüssel, um die Möglichkeiten der KI optimal zu nutzen, denn nicht KI wird Sie ersetzen, sondern die Person, die KI effizient nutzen kann (vgl. Jen-Hsun Huang in Lindner 2024b). 2.4.5 Zusammenfassung und Handlungsempfehlungen Künstliche Intelligenz wird nicht vollständig unseren Job stehlen, fordert jedoch von uns eine neue Arbeitsweise. Die Einzelpersonen sind vor allem durch die Nutzung von Tools wie ChatGPT und den Bedarf an neuen Fähigkeiten geprägt. Besonders wenn Sie früh in KI einsteigen, haben Sie gravierende Vorteile. Schrittweise wird KI unsere Arbeitsweise revolutionieren. Tools wie ChatGPT ermöglichen Effizienzsteigerungen, erfordern jedoch sorgfältige Eingaben (Prompt Engineering), um optimale Ergebnisse zu erzielen. Der Umgang mit KI bringt zudem psychologische Herausforderungen wie Technostress und Informationsüberfluss mit sich. Erfolgreich sind jene, die sich kontinuierlich weiterbilden und ihre Fähigkeiten im Umgang mit KI ausbauen. In Unternehmen ist KI ein Motor für Produktivitätssteigerungen und Innovation. Schwache KI wird breit eingesetzt, während starke KI vor allem durch Cloud-Dienste erprobt wird. Es empfiehlt sich deswegen für Sie, vor allem mit schwacher KI auch im eigenen Alltag zu experimentieren. Mein Tipp an Sie: Lassen Sie KI in Ihr Leben! Identifikation von Anwendungsfällen:  Analysieren Sie, wo KI in Ihrem Unternehmen oder Privatleben Effizienz steigern oder repetitive Aufgaben übernehmen kann. Kleine Pilotprojekte helfen, erste Erfahrungen zu sammeln. Beherrschen von Prompt Engineering:  Lernen Sie, präzise Eingaben für KI-Systeme zu formulieren. Übung und die Verwendung von Vorlagen können dabei helfen, die Ergebnisse zu verbessern und Zeit zu sparen. Technostress und Informationen aktiv managen:  Nutzen Sie Techniken wie Zeitmanagement (z. B. Pomodoro-Methode) und setzen Sie bewusste Offline-Zeiten, um sich vor Überlastung zu schützen. Softskills stärken:  Fähigkeiten wie Kreativität, Teamarbeit und Problemlösung sind essenziell, da sie die Aspekte abdecken, die KI nicht ersetzen kann. <?page no="174"?> https: / / www.bitkom.org/ Presse/ Presseinformation/ Deutsche-Wirtschaft-drueckt-bei-Kuenstlicher-Intelligenz-aufs-Tempo. Zugegriffen am 11. Februar 2025 Evergreen Media (2024). KI-Studie 2024: Zahlen & Fakten aus der DACH-Region . https: / / www.evergreenmedia.at/ ki-studie/ . Zugegriffen am 11. Februar 2025 HS Koblenz (2024). KI in Unternehmen . https: / / www.hs-koblenz.de/ ki-in-unternehmen. Zugegriffen am 11. Februar 2025 Lindner, D. (2024a). Management zwischen Mensch und Algorithmus - Die Zukunft der Arbeit gestalten . Springer Gabler. Lindner, D. (2024b). Zukunftsorientiertes Management: Innovative Strategien in einer dynamischen Welt . Springer Gabler. Slack (2024). Von wegen KI-Fatigue! Slack-Studie bestätigt zunehmende KI-Nutzung im Jahr 2024. https: / / www.business-punk.com/ 2024/ 03/ von-wegen-ki-fatigueslack-studie-bestaetigt-zunehmende-ki-nutzung-im-jahr-2024/ . Zugegriffen am 11. März 2025 174 Dominic Lindner Literatur Bitkom (2023). Deutsche Wirtschaft drückt bei Künstlicher Intelligenz aufs Tempo . <?page no="175"?> 2.5 Horizonterweiterung durch KI ‒ Good Practice in der Schule Stefan Aufenanger Zusammenfassung Künstliche Intelligenz spielt zunehmend auch in Schule und Unterricht eine bedeutende Rolle. Der Beitrag zeigt die Potenziale für Schüler*innen und Lehrpersonen auf, nennt aber auch mögliche Risiken. Anhand wissenschaftlicher Studien und praktischen Beispielen werden die zentralen Aspekte des Einsatzes von KI-Programmen im Unterricht aufgezeigt. Keywords: ChatGPT, KI-Tutor, KI-Risiken, KI-Nutzungsdaten 2.5.1 KI in Schule und Unterricht ‒ Was sind die Herausforderungen? KI-Anwendungen werden seit geraumer Zeit in vielfältigen gesellschaftlichen Kontexten wie der Arbeitswelt, der Freizeit und dem Alltag sowie in Bildungseinrichtungen eingesetzt. Seit mehr als zwei Jahren hat sich jedoch sowohl die Quantität als auch die Qualität der Nutzung dramatisch verändert. War es früher nur einer kleinen Gruppe von Menschen aufgrund ihrer Fähigkeiten möglich, solche Anwendungen in ihrem Bereich zu nutzen, so wurde mit der Veröffentlichung von ChatGPT und ähnlichen Programmen die Nutzung für jedermann möglich. Es ist nicht mehr notwendig, eine Programmiersprache zu beherrschen, sondern allein durch die Eingabe von Text oder inzwischen auch Sprache können Aufgaben ‒ sogenannte Prompts ‒ an die entsprechende KI gestellt werden. Es gibt jedoch auch kritische Stimmen zum Einsatz von KI in Schule und Unterricht, die etwa aus kognitionspsychologischer Sicht Einwände vorbringen (vgl. Maier 2024). Auch die Studie von Melisa et al. (2025) macht zwar deutlich, dass ChatGPT das kritische Denken von Studierenden fördern kann, indem es einen schnellen Zugang zu unterschiedlichen Perspektiven ermöglicht, die Informationsanalyse erleichtert und die Argumentationsstruktur unterstützt. Jedoch kann ein übermäßiges Vertrauen in KI die Motivation der Studierenden zur Selbstreflexion und kritischen Bewertung beeinträchtigen und Bedenken hinsichtlich der akademischen Integrität und der Überprüfung von KI-generierten Inhalten aufkommen lassen. In eine ähnliche zwiespältige Richtung weisen die Forschungsergebnisse von Bastani et al. (2024). Sie zeigen, dass Studierenden durch auf KI-basierende intelligente Tutorensystem gut lernen können, d. h. sie bessere Lernergebnisse als jene ohne ein solches System vorweisen. Versperrt man ihnen jedoch den Zugang zu diesen Systemen bei zukünftigen Aufgaben, dann sind ihre Lernergebnisse schlechter als von jenen, die bisher diese Programme nicht nutzen konnten. Es gilt also, sehr vorsichtig und wohlüberlegt den Einsatz von KI im schulischen Kontext einzurichten. Ebenfalls zu berücksichtigen ist, dass Lehrer*innen auf den Einsatz von KI im Unterricht vorbereitet werden müssen, gleiches gilt selbstverständlich auch für die Schüler*innen. Entsprechende Angebot in der universitären Lehrerbildung als auch in der <?page no="176"?> 176 Stefan Aufenanger Fortbildung müssen forciert ausgebaut werden. Dass Lehrkräfte prinzipiell dem Einsatz von KI in ihrem Unterricht aufgeschlossen, zugleich aber auch Bedenken dagegen vortragen (vgl. Böhme und Mesenhöller 2024), unterstreicht diese Notwendigkeit. Trotz der geäußerten Bedenken erscheint es sinnvoll und notwendig, sich in Schule und Unterricht mit den Entwicklungen in diesem Bereich auseinanderzusetzen. Sinnvoll deshalb, weil sich ‒ wie im Folgenden gezeigt werden soll ‒ ein Großteil der Schüler*innen und auch der Lehrer*innen entweder im privaten Umfeld oder auch in der Schule selbst bereits mit Anwendungen von KI befasst. Diese Nutzung sollte jedoch unter pädagogischen Gesichtspunkten in die Schule eingeführt und nicht den jeweiligen Vorlieben überlassen werden. Notwendig, weil entsprechende Kompetenzen und Kenntnisse erworben werden müssen, um diese Programme sachgerecht und selbstbestimmt nutzen zu können. Aus diesen Gründen sollen Anwendungsfelder und Beispiele der Integration von KI-Programmen in schulisches Lehren und Lernen näher betrachtet werden. 2.5.2 Zur Verbreitung und Nutzung von ChatGPT & Co. in Schulen Um das Phänomen KI in der Schule besser einschätzen zu können, ist es wichtig, sich anzuschauen, wie häufig Programme wie ChatGPT in Schulen, vor allem von Schüler*innen, schon genutzt werden. Hierzu gibt es bereits Studien, die einen guten Einblick geben, wobei bei der Bewertung der Daten zu beachten ist, dass sich die Entwicklungen der Programme und deren Nutzung sehr schnell ändern und damit auch deren Nutzungspotenziale. Auch sind die Stichproben sehr unterschiedlich, so dass Verallgemeinerungen mit Vorsicht zu interpretieren sind. Ebenso sind Befragungen in verschiedenen Ländern, also internationale Studien, immer vor dem Hintergrund der kulturellen und gesellschaftlichen Akzeptanz von KI zu sehen. Dennoch ist es interessant zu sehen, wie häufig und in welchen Bereichen diese Programme bereits eingesetzt werden. In der Studie der Vodafone Stiftung Deutschland (2024) hat sich gezeigt, dass schon 2023 ein knappes Drittel der befragten Schüler*innen (31 %) KI-Anwendungen mehrmals pro Woche im schulischen Kontext nutzt. Lediglich 8 % verwenden KI täglich oder mehrmals täglich für schulische Zwecke. Im Bereich von Hausaufgaben sowie für andere private Tätigkeiten liegt die Nutzungsfrequenz höher, bei 74 %. Nur ein Viertel (26 %) hat KI-Systeme bislang weder im Unterricht noch privat ausprobiert. Die Stichprobe dieser Studie umfasst 1.590 Jugendliche und junge Erwachsene im Alter zwischen 14 und 20 Jahren in Deutschland. Die JIM-Studie des Medienpädagogischer Forschungsverbund Südwest (2024) kommt zu einem ähnlichen Ergebnis. Nur 8 % der 1.200 befragten Jugendlichen zwischen 12 und 19 Jahren kannte zum Beispiel ChatGPT nicht. Auch hatten dieses Programm mehr Schüler*innen von Gymnasien (64 %) als von der Haupt- oder Realschule (45 %) schon einmal ausprobiert. Die häufigsten Nutzungsmotive sind Hausaufgaben (65 %), zum Spaß (52 %), zur Information (43 %) oder einfach nur zum Ausprobieren (35 %). Die Nutzung von KI zur Produktion von Bildern, Videos oder Musik hat in dieser Erhebung noch kaum eine Rolle gespielt. Insgesamt zeigten die befragten Jugendlichen ein großes Interesse am Thema KI, nur wenige sind gar nicht interessiert (11 %; 13 % der Mädchen, 8 % der Jungen). In eine ähnliche Richtung geht die Studie vom Bayerischen Forschungsinstitut für <?page no="177"?> 2.5 Horizonterweiterung durch KI ‒ Good Practice in der Schule 177 Digitale Transformation (bidt) in München (vgl. Schlude et al. 2024), wobei jedoch die Daten bei Schüler*innen sowie Studierende ab 18 Jahren erhoben wurden, also mit den bisher referierten Studien nicht einfach zu vergleichen sind. Aber insgesamt bestätigt auch diese Studie ebenso wie die vom Bitkom-Verband durchgeführte Studie von 2024 (vgl. Helm et al. 2024) eine große Akzeptanz und Nutzung von ChatGPT & Co. bei Schüler*innen und Studierenden. Insgesamt muss bei diesen Umfragen jedoch bedacht werden, dass sie nur auf den jeweiligen Erhebungszeitraum gelten und nicht einfach auf den heutigen Zeitpunkt übertragen lassen. Aber es zeigen sich insgesamt die gleichen zunehmenden Trends der Nutzung von KI zum Lernen, die gerade bei den schnellen technologischen Entwicklungen im Bereich von künstlicher Intelligenz ausreichend sein sollten. 2.5.3 Einsatzfelder von KI in Schule und Unterricht Zur Frage, wie KI-Anwendungen in Schule und Unterricht eingesetzt werden können und sollten, liegen inzwischen vielfältige Publikationen vor, die zum einem mehr wissenschaftlich ausgerichtet sind (vgl. Aufenanger 2024; Aufenanger et al. 2023; Hein et al. 2024; Helm et al. 2024), während andere sich eher als praktische Ratgeber für den Unterricht in der Hand von Lehrpersonen verstehen (vgl. Bahr et al. 2024; de Florio-Hansen 2024; Falck 2024). Es gibt fast kein Unterrichtsfach mehr, zu dem nicht eine Anleitung zum Einsatz von KI vorliegt. Zugleich gibt es aber auch kritische Stimmen, die entweder nach dem Sinn eines solchen Einsatzes fragen (vgl. Zierer 2024), oder insgesamt bezweifeln, ob KI im Unterricht etwas zu suchen habe bzw. dass dadurch möglicher Weise Schüler*innen in ihrem Denken negativ beeinflusst werden könnten (Hübner, 2024). Im Folgenden sollen trotz dieser Einwände anhand von einigen Beispielen gezeigt werden, wie und in welcher Art Programme wie etwa ChatGPT im Unterricht von Lehrer*innen als auch von Schüler*innen verwendet werden können. Wie Lehrpersonen KI nutzen können Es gibt vielfältige Möglichkeiten, wie Lehrer*innen Anwendungen der künstlichen Intelligenz in ihrem Unterricht nutzen können. Bei den folgenden Vorschlägen ist jedoch zu beachten, welche Regelungen der Schulträger und das jeweilige Kultusministerium dazu getroffen haben und welche Anforderungen erfüllt werden müssen. Auch datenschutzrechtliche Aspekte sind in Erwägung zu ziehen, wenn etwa Arbeiten von Schüler*innen mit einer KI ausgewertet werden. Auch stellt sich die Frage, ob Anwendungen wie ChatGPT und andere bei den Lehrpersonen überhaupt eine Akzeptanz finden. Dazu haben Brandhofer and Tengler (2024) eine empirische Studie auf der Grundlage des TAM-Modells durchgeführt. Technologieakzeptanz spielt eine entscheidende Rolle bei der Nutzung von KI, da sie die Bereitschaft und das Verhalten von Individuen beeinflusst, neue Technologien zu übernehmen. An der Studie nahmen über 800 Lehrer*innen sowie Studierende des Lehramts in Österreich teil. Die Ergebnisse zeigen, dass Lehrende grundsätzlich Chancen in der Nutzung von KI in Bildungseinrichtungen sehen. Sie glauben, dass KI-Anwendungen ihre Effizienz und Flexibilität verbessern können und betrachten KI eher als Chance denn als Risiko. Die Mehrheit der Lehrenden glaubt, dass sie über die notwendigen Ressourcen und das Wissen verfügen, um KI zu nutzen. Es gibt jedoch erhebliche Bedenken hinsichtlich der Einhaltung datenethischer und recht- <?page no="178"?> 178 Stefan Aufenanger licher Standards sowie der Transparenz der Datenerfassung und -speicherung. Mehr als 60 % der Befragten äußerten Besorgnis über diese Aspekte. Es besteht teilweise Vertrauen in die Ergebnisse von KI-Anwendungen, aber auch Misstrauen, insbesondere hinsichtlich der Verlässlichkeit und Transparenz der Ergebnisse von KI-Systemen. Die Mehrheit der Befragten sieht keine hohe Relevanz von Ungerechtigkeit oder systematischer Benachteiligung durch KI, was vor dem Hintergrund der Diskussionen um Bias in KI-Anwendungen überrascht. Insgesamt stehen die Lehrenden den Möglichkeiten von KI positiv gegenüber, es bestehen jedoch deutliche Bedenken hinsichtlich ethischer und rechtlicher Aspekte sowie der Transparenz von KI-Systemen. Unterrichtsvorbereitung In der Unterrichtsvorbereitung gibt es zwei wesentliche Ansätze, bei denen Anwendungen der KI unterstützend wirken können. Zum einen geht es häufig um die Frage, wie der Lehrplan eines Faches für eine bestimmte Jahrgangsstufe in ein konkretes Unterrichtsthema umgesetzt werden kann. Hier ist es möglich, den Lehrplan in die KI hochzuladen und mit entsprechenden Prompts, also Aufgaben, zu versehen, um Anregungen zu erhalten. Ein Prompt könnte z. B. lauten: „Analysiere den beigefügten Lehrplan für das Fach Physik in der 8. Schulstufe und schlage Themen und deren konkrete Umsetzung für ein Projekt über acht Unterrichtsstunden vor! “. Zum anderen können durch weitere Aufgaben konkrete Materialien, Präsentationen etc. für jede Unterrichtsstunde erstellt werden. Wird zum Beispiel das Thema ‚Kosmos‘ bearbeitet, kann sich die Lehrperson mit dem Programm Copilot eine Präsentation mit fünf Folien und passenden Bildern erstellen lassen, die den Schüler*innen eine erste Einführung in den Aufbau des Sonnensystems gibt. Möchte man das Ganze mit einem Foto ergänzen, auf dem eine Astronomin in einer Sternwarte vor einem Teleskop steht, muss man nicht lange im Internet nach einem passenden Foto suchen, sondern kann ein bildgenerierendes Programm wie Midjourney mit einem passenden Prompt beauftragen, ein solches zu erstellen. Ein weiterer Schwerpunkt des Einsatzes von KI ist die Erstellung von Aufgaben und Tests. Für den bereits als Beispiel genannten Physikunterricht könnte man ChatGPT beauftragen, eine Aufgabe zum Thema ‚Sonnensystem‘ zu erstellen, bei der die Schüler*innen zu eigenständigen Beobachtungen angeregt werden, die ohne großen Aufwand praktisch durchführbar sind. Als Ergebnis könnte die Aufforderung stehen, an drei aufeinanderfolgenden Tagen zur gleichen Zeit die Bewegung des Mondes entweder mit dem Smartphone oder einem Notizblock zu notieren und die Veränderungen zu erläutern. Zusätzlich könnte die Lehrkraft einen Multiple-Choice-Test zum gleichen Thema entwickeln lassen, bei dem z. B. die Namen der Planeten und die Reihenfolge von der Sonne aus beschrieben werden müssen. Viele Schüler*innen finden die Aufgabenstellungen in Schulbüchern langweilig und zum Teil auch sehr abstrakt, nicht auf ihre Lebenswelt bezogen. KI kann einem jedoch dabei helfen, gezielter Aufgaben zu erstellen, die dieses Manko ausgleichen und vielleicht auch Schüler*innen stärker motivieren oder die Aufgaben für sie verständlicher machen. So könnte etwa die Aufgabe zur Prozentrechnung aus dem Mathematikunterricht, die lautet: „Wie viel Prozent sind 49 km von 700 km? “ durch den Prompt „Wandele die folgende Mathematikaufgabe in eine an der Lebenswelt von Schülern und sie auch motivierende Aufgabe um: ‚Wie viel Prozent sind 49 km von 700 km? ‘! ersetzt werden. Heraus kommt dann zum Beispiel dies: „Stell dir vor, du <?page no="179"?> 2.5 Horizonterweiterung durch KI ‒ Good Practice in der Schule 179 planst mit deiner Familie oder Freunden eine lange Zugreise. Die gesamte Strecke beträgt 700 km. Nach einer Weile schaust du auf deine App oder das Bahnticket und siehst: Ihr seid schon 49 km gefahren. Deine Aufgabe: 1. Wie viel Prozent der gesamten Strecke hast du schon zurückgelegt? 2. Wenn du das Ziel erst bei 75 % der Strecke erreichst, wie viele Kilometer fehlen dir dann noch? “ Eine gute Möglichkeit, kritisches Denken im Unterricht zu fördern, besteht darin, als Lehrkraft ChatGPT oder ein ähnliches Programm eine Zusammenfassung eines klassischen Buches wie Goethes ‚Die Leiden des jungen Werther‘ erstellen zu lassen und die Schüler*innen dann zu bitten, diesen Text zu kritisieren. Sie sollen die von der KI erstellte Inhaltsangabe ‚zerreißen‘ und auf mögliche Fehler hinweisen. Auf der einen Seite kann dies die Schüler*innen sehr gut motivieren, sich mit grundlegenden Themen eines Faches auseinanderzusetzen, auf der anderen Seite lernen sie dabei aber auch kritisches Denken und gleichzeitig die Grenzen von KI-generierten Texten kennen. Binnendifferenzierter Unterricht Eine weitere gute KI ist die Gestaltung eines binnendifferenzierten Unterrichts. Es geht dabei darum, für Schüler*innen mit unterschiedlichen Lernvoraussetzungen passenden und lernfördernde Aufgaben zu generieren. Dies kann in etwa durch den folgenden Prompt umgesetzt werden: „Hilf mir, drei Unterrichtsstunden zum Thema ‚Das politische System in Deutschland‘ zu entwikkeln, die jedoch den unterschiedlichen Lernschwierigkeiten von Schüler*innen angepasst sein sollten. Entwickele drei Szenarien für Schüler*innen mit einer geringen, mit einer mittleren und mit einer hohen Motivation für das Thema! “. Auch kann ChatGPT zum Beispiel verwendet werden, um vereinfachte Versionen von Lesetexten über die Ursachen des Terrorismus für 14-jährige Schülerinnen und Schüler zu erstellen, deren Lesefähigkeiten unter denen der übrigen Klasse liegen oder deren Muttersprache nicht Deutsch ist. Sie haben dadurch einen besseren Zugang zum Text und können die gestellte Aufgabe besser bearbeiten. Ein weiteres Anwendungsfeld für KI aus Sicht der Lehrkräfte sind Informationen für Eltern. Gerade bei Elternbriefen können Programme hilfreich sein, die den Text in verschiedene Sprachen übersetzen oder auch Formulierungen vorschlagen, die je nach Zielgruppe im Ton passender sind. Gleiches gilt für Rückmeldungen an die Eltern über den Leistungsstand ihrer Kinder. Hat man eine erste Version erstellt und ist damit unzufrieden, weil der Ton vielleicht zu streng ist, kann man das Ganze mit ChatGPT umformulieren. Zur Überprüfung von KI-generierten Texten Ein Problem im Unterricht mit KI ist die Überprüfung von Texten oder Bildern, die die Schüler*innen als Aufgabe ohne diese Programme erstellen sollen. Wie können Lehrer*innen sicher sein, dass Aufgaben nicht doch ohne Anwendungen wie Chat- GPT oder ähnliche erstellt worden sind? Diese Herausforderung ist nicht einfach zu bewältigen. Zwar sollte jede Schule ‒ am besten natürlich gemeinsam mit den Schüler*innen ‒ Regeln zur Nutzung von KI aufgestellt haben und diese sollten auch in jedem Fachunterricht erläutert werden, aber es gibt immer wieder Versuche, diese <?page no="180"?> 180 Stefan Aufenanger Regeln zu umgehen. Dies betrifft insbesondere Haus- und Facharbeiten, die nicht in der Schule erstellt wurden. Es gibt aber Programme wie ZeroGPT oder Dedectora , mit denen man prüfen lassen kann, ob Texte KI-generiert sind. Allerdings sollte man sich darüber im Klaren sein, dass zum einen die Genauigkeit der Überprüfung nicht immer gegeben ist und zum anderen in den kostenlosen Versionen meist nur kurze Textabschnitte und keine ganzen Dokumente eingegeben werden können. Außerdem sollten Lehrer*innen wissen, dass es auch Programme wie Wortliga oder DeepL Write gibt, mit denen sich Texte so bearbeiten lassen, dass sie nicht immer als KI- Texte erkennbar sind. Clevere Schüler*innen wissen sowieso, wie solche Texte verändert werden müssen, um nicht entdeckt zu werden. Wie Schüler*innen KI nutzen können Es gibt viele Möglichkeiten, wie Schüler*innen KI zum Lernen benutzen können. Eine gute Systematik dazu beschreibt Steinhoff (2025) anhand von drei Formen des Einsatz von ChatGPT im Deutschunterricht. Er unterscheidet ChatGPT beim Schreiben als Ghostwriter, Writing Tutor und Writing Partner. Es handelt sich jeweils um sogenannte ‚Ko-Aktivitäten‘, die die Schüler*innen mit ChatGPT eingehen. Der Begriff Ghostwriter meint, dass Texte auf der Grundlage menschlicher Vorgaben generiert werden. Dabei übernimmt ChatGPT wesentliche Teile des Schreibprozesses im Auftrag einer Person, die entweder nicht die Kompetenz, die Zeit oder die Motivation hat, den Text selbst zu verfassen. Der generierte Text wird anschließend von der auftraggebenden Person als eigener Inhalt beansprucht. Dies kann im Unterricht von Schüler*innen zum Beispiel zur Zusammenfassung eines vorliegenden Textes, zur Anfertigung einer Gliederung für eine Facharbeit oder der Erarbeitung einer Argumentation vorliegen. Die eigentliche Leistung der Schüler*innen besteht nur darin, einen passend Prompt, also Aufgabe, zu formulieren. Als Schreiblernsystem kann ChatGPT in der Rolle eines Writing Tutors gesehen werden. Es interagiert mit den Schüler*innen, die es als eine Art digitalen Lehrer nutzen, um ihren Schreibprozess zu verbessern. Im Gegensatz zur Rolle eines Ghostwriters, bei der ChatGPT große Teile des Textes selbstständig generiert, bleibt der Mensch in der Tutor-Interaktion aktiv, er erhält eine höhere Eigenverantwortung für den Schreibprozess und den entstehenden Text. Die Form wird verwendet, wenn die KI um Unterstützung beim Schreiben gebeten wird, etwa um eine Formulierung zu überprüfen oder die Qualität eines selbst erstellten Textes zu bewerten. Wenn ChatGPT gezielt in den Schreibprozess integriert wird entweder über den gesamten Entstehungsprozess eines Textes hinweg oder punktuell, z.B. zur Unterstützung bei der Überarbeitung oder bei Formulierungsfragen - handelt es sich um einen Writing Partner. Im Gegensatz zu Ghostwriting-Praktiken, bei denen die KI den Großteil des Textes ohne aktive Beteiligung des Menschen produziert, oder der Rolle des Writing Tutors, in der ChatGPT als Lehrersatz fungiert, agiert das Modell hier als kollaborativer Co-Autor. Die Schüler*innen bleiben nicht nur aktiv in den Prozess eingebunden, sondern nehmen eine selbständige Rolle ein, indem sie das Modell bewusst zur Reflexion, Optimierung und Erweiterung der eigenen Textproduktion nutzen. Hier kann die KI zu Ideenfindung, zur Überarbeitung des Stils eines Absatzes oder zur Überprüfung von Argumentationen genutzt werden. Der KI-integrierende Ansatz von Steinhoff (2025) in der Schreibdidaktik zeigt die begrenzenden, aber zugleich auch produktiven Formen der Nutzung von Anwen- <?page no="181"?> 2.5 Horizonterweiterung durch KI ‒ Good Practice in der Schule 181 dungen wir ChatGPT und ähnlichen auf, wie sie im Unterricht verwendet werden können. Die drei Schreibtypen lassen sich problemlos auch auf fast alle anderen Schulfächer übertragen. Auch für die in der Leseforschung als zentrale herausgestellte Form der Anschlusskommunikation kann ChatGPT sehr gut genutzt werden, wie Beispiele anhand von Kafkas Werk „Vor dem Gesetz“ zeigen (vgl. Führer und Nix 2023). So können Schüler*innen über literarische Werke Gedanken und Fragen austauschen, zu denen die Lehrperson im Unterricht meist keine Zeit hat. Aber auch hier ist es wie bei allen anderen Vorschlägen wichtig, dass die Schüler*innen gezeigt bekommen, wie Prompts zu formulieren sind, damit auch Lernprozesse in Gang gesetzt werden. KI als Tutor und Partner Die erste Form von Steinhoff, ChatGPT als Ghostwriter einzusetzen, sollte im Unterricht jedoch vorsichtig und behutsam vorgenommen werden, um nicht die selbstständige Textproduktion der Schüler*innen einzuschränken. Dagegen sind die beiden anderen Formen - KI als Partner sowie als Tutor - besser im Unterricht zu integrieren, wobei es jedoch einige Überschneidungen gibt. Denn in beiden Fällen geht es um unterstützende Funktionen, bei der die Rollen jedoch etwas unterschiedlich gelagert sind. Als ‚writing tutor‘ oder verallgemeinert als KI-Tutor bekommt die KI größere Anteile in der Interaktion, während als ‚writing partner‘ oder verallgemeinert als KI-Partner bestimmt eher die Schülerin bzw. der Schüler die Unterstützungsform. So kann KI bei Aufgaben die Schüler*innen bezüglich ihrer Lernprozesse ‚persönlich‘ betreuen. Dazu liegen inzwischen schon einige empirische Studien vor, die entsprechende positive Effekte nachweisen können. So liefert eine Studie von der Harvard- Universität zum KI-Tutoring bemerkenswerte Erkenntnisse über den Einfluss künstlicher Intelligenz auf das Lernen (vgl. Kestin et al., 2024). Eine zentrale Entdeckung war der signifikante Lernzuwachs bei Schülern, die KI-Tutoren nutzten. Diese Schüler*innen konnten in kürzerer Zeit mehr als doppelt so viel lernen wie ihre Altersgenossen in traditionellen aktiven Lernklassen. Dies wurde durch höhere Testergebnisse in der KI-betreuten Gruppe klar belegt. Neben dem reinen Wissenszuwachs zeigte sich auch eine gesteigerte Motivation und ein höheres Engagement beim Lernen. Die Teilnehmer der KI-Gruppe empfanden den Lernprozess als ansprechender und motivierender als beim klassischen Unterricht. Diese positiven Rückmeldungen deuten darauf hin, dass interaktive, technologiegestützte Lernmethoden die Lernfreude steigern können. Es muss jedoch auch darauf hingewiesen werden, dass in manchen Studien auch nachteilige Effekte von KI-Agenten deutlich wurden. Dies betrifft besonders die Fähigkeiten zur Problemlösung und zur Fehlerkorrektur (vgl. Chen et al. 2024; Liao et al. 2024). Es wird vermutet, dass etwa beim Programmieren die guten Ergebnisse verhindern, dass Schüler*innen sich über mögliche Fehler Gedanken machen und damit ihre kritischen Fähigkeiten nicht weiterentwickeln. Richtig konzipiert und umgesetzt kann KI-Nachhilfe die Bildungsergebnisse erheblich verbessern. Sie bietet eine innovative, personalisierte und effiziente Lernerfahrung, die den Bildungssektor nachhaltig verändern könnte. Als KI-Partner kann etwa ChatGPT als Feedback für schulische Lernprozesse genutzt werden können. Gutes und angemessenes Feedback gilt nicht erst seit den Studien von Hattie (vgl. Hattie und Timperley 2007) als wichtiger Faktor für den Lernerfolg. Allerdings ist es im Unterricht aufgrund von Zeitmangel oder anderen Umständen nicht <?page no="182"?> 182 Stefan Aufenanger immer möglich, jedem Schüler eine angemessene Rückmeldung zu seinen Leistungen zu geben. Zum einen können dazu Programme wie fiete.ai für den Deutschunterricht verwendet werden, in dem die Lehrperson den Schüler*innen Aufgaben zur Textproduktion gibt und gleichzeitig die Bewertungskriterien für das Programm formuliert. Wenn die Schüler*innen dann ihren Text in das Programm schreiben, bekommen sie eine ausführliche Rückmeldung auf der Grundlage der Kriterien und können eine Überarbeitung vornehmen. Zum anderen können ChatGPT oder ähnliche Programme für ein Feedback genutzt werden. Dies kann durch die Schüler*innen in Form eines einfachen Prompts geschehen: „Gib mir ein Feedback zum folgenden Text bezüglich Grammatik und Stil! “ oder komplexer, etwa bei der Entwicklung von Argumentationen: „Sei mein Debattierpartner und tausche mit mir Argumente bezüglich der Einführung eines bedingungslosen Grundeinkommens aus. Du vertrittst die Contra-Argumente und ich die Pro-Argumente. Bewerte abschließend meine Argumentation! 2.5.4 Risiken Zunehmend werden auch die spezifischen Risiken thematisiert, die mit der Einführung und Akzeptanz von KI in der Schule verbunden sind. Dies betrifft nicht nur die Problematik von Plagiaten und Täuschungen durch den Einsatz solcher Programme, sondern auch Bereiche, die das Lernen insgesamt betreffen. Wenn KI-Programme zunehmend geistige Tätigkeiten von Menschen ersetzen, stellt sich die Frage, wie sich deren kognitive Fähigkeiten entwickeln. Verlernen Schüler*innen das selbstständige Gestalten von Texten, die Bewertung von Argumentationen oder die eigenständige Recherche zu Themen? Schaut man sich die oben vorgestellten Nutzungsdaten von ChatGPT in Schulen durch Schüler*innen an ‒ und diese Daten sind inzwischen schon ein paar Jahre alt ‒ dann wird deutlich, dass KI aus der Schule nicht mehr wegzudenken ist. Schul- und Medienpädagogik sowie die Lehrer*innenbildung in allen drei Phasen müssen sich damit auseinandersetzen und schnell reagieren. Darüber hinaus müssen aber auch andere Aspekte des Einsatzes von KI in der Schule bedacht werden, die sich im europäischen Raum noch nicht durchgesetzt bzw. umgesetzt haben, aber z. B. in China in einzelnen Schulen praktiziert werden. Es betrifft die Überwachung der Schüler*innen beim Lernen und der Lehrer*innen beim Unterrichten. Wie ein Video 1 aus einer solchen Schule zeigt, wird KI eingesetzt, um die Aufmerksamkeit der Schüler*innen permanent zu überprüfen und der Lehrperson gleichzeitig eine Rückmeldung zu geben, welche Schüler*innen gerade abgelenkt oder vielleicht auch nur müde sind. Die Lehrperson kann direkt reagieren und die Schüler*innen ansprechen. Durch Videoanalysen im Klassenraum kann die pädagogische Interaktion insgesamt evaluiert und der Lehrperson eine Rückmeldung gegeben werden. Auch Schulhöfe und die emotionale Stimmung von Schüler*innen lassen sich mit Hilfe von KI einschätzen und überprüfen. Oder, wie es an einigen kanadischen Schulen schon zu sehen ist, wo die Mail- und Internetkommunikation ihrer Schüler*innen analysiert wird, um Gewalt, Beleidigungen oder auch emotionale Hilferufe zu erkennen. 2 Hier stellen sich viele ethische Fragen, die rechtzeitig erkannt werden müssen. 1 https: / / www.youtube.com/ watch? v=JMLsHI8aV0g 2 https: / / apnews.com/ article/ ai-school-chromebook-gaggle-goguardian-securly-25a 3946727397951fd42324139aaf70f? utm_source=flipboard&utm_content=topic/ technology <?page no="183"?> 2.5 Horizonterweiterung durch KI ‒ Good Practice in der Schule 183 2.5.5 Fazit Was sollten Schulen also tun, um der Herausforderung der zunehmenden Nutzung von KI in allen Bildungsbereichen zu begegnen? Einige Möglichkeiten wurden bereits beschrieben, wie z. B. die Überprüfung von eingereichten Texten oder die Einführung von Regeln für den Einsatz von KI-Programmen. Das reicht aber sicher nicht aus, denn zum einen entwickeln sich diese Programme mit ihren intelligenzähnlichen Möglichkeiten rasant weiter, so dass sie gerne für die Bearbeitung von schulischen Aufgaben eingesetzt werden. Deshalb erscheint es sinnvoll, in Schule und Unterricht Räume zu schaffen, in denen der Einsatz von KI erprobt und gleichzeitig die dabei entstehenden Produkte kritisch betrachtet werden. Es geht darum, Medienkompetenz und kritisches Denken zu fördern. Natürlich könnte man versuchen, Programme wie ChatGPT & Co. komplett aus der Schule herauszuhalten, aber das wird nicht gelingen, wie die eingangs erwähnten Nutzungszahlen deutlich machen sollten. Vielmehr müssen klare Regeln vereinbart und überwacht werden. Wichtig ist auch, die rechtlichen Grenzen des Einsatzes von KI für pädagogische Zwecke zu kennen. So gibt es Einschränkungen beim Datenschutz, z. B. bei den Altersbeschränkungen der einzelnen Programme ‒ so darf ChatGPT erst ab 18 Jahren genutzt werden ‒, bei der Speicherung der eingegebenen Daten sowie bei der Nutzung der Daten zu Trainingszwecken. Mittlerweile gibt es auch gute europäische Alternativen, etwa von fobizz oder Fiete.ai , die der Datenschutzgrundverordnung entsprechen. Geklärt werden muss auch, welche Sanktionen bei Täuschungsversuchen von Schüler*innen rechtlich greifen dürfen. Diese und ähnliche Fragen muss jede Schule entsprechend mit der Schulaufsicht klären. Literatur Aufenanger, S. (2024). Chat GP im Bildungsbereich. Forum Arbeit (1), 10-13. Aufenanger, S., Herzig, B., & Schiefner-Rohs, M. (2023). Künstliche Intelligenz und Schule. Aufgaben für Unterricht und die Organisation (von) Schule. In C. de Witt, C. Gloerfeld, & S. E. Wrede (Hrsg.), Künstliche Intelligenz in der Bildung (S. 199- 218). Springer Fachmedien. Bahr, T., Manzocco, M., Schuster, D., & Wacker, A. (2024). Textgenerierende KI zur Erleichterung der Arbeit von Lehrpersonen? Ein Vorschlag am Beispiel der Aufgabendifferenzierung mithilfe von ChatGPT. Ludwigsburger Beiträge zur Medienpädagogik , 24 , 1-16. Bastani, H., Bastani, O., Sungu, A., Ge, H., Kabakcı, O., & Mariman, R. (2024). Generative ai can harm learning. Available at SSRN , 4895486 . https: / / hamsabastani.github. io/ education_llm.pdf Böhme, K., & Mesenhöller, J. (2024). Meine Kollegin, die KI - Wie die Nutzung von Künstlicher Intelligenz das schulische Lehren und Lernen verändert. In S. Schork (Hrsg.), Vertrauen in Künstliche Intelligenz: Eine multi-perspektivische Betrachtung (S. 79-99). Springer Fachmedien. Brandhofer, G., & Tengler, K. (2024). Zur Akzeptanz von KI-Applikationen bei Lehrenden und Lehramtsstudierenden. R&E-SOURCE , 11 (3), 7-25. Chen, A., Wei, Y., Le, H., & Zhang, Y. (2024). Learning-by-teaching with ChatGPT: The effect of teachable ChatGPT agent on programming education. arXiv preprint arXiv: 2412.15226 . <?page no="184"?> 184 Stefan Aufenanger de Florio-Hansen, I. (2024). KI-Tools für den Unterricht : mit E-Book inside (1. Aufl.). Beltz. Falck, J. (2024). Effektiv unterrichten mit Künstlicher Intelligenz: Wie Lehrkräfte und Lernende ChatGPT und andere KI-Tools in der Schule erfolgreich einsetzen können (5. bis 10. Klasse) . Persen Verlag. Führer, C., & Nix, D. (2023). Anschlusskommunikationen mit ChatGPT. Kann die Interaktion mit Künstlicher Intelligenz (KI) Schülerinnen und Schüler beim Verstehen literarischer Texte unterstützen? leseforum.ch. Online-Plattform für Literalität . https: / / www.leseforum.ch/ sysModules/ obxLeseforum/ Artikel/ 805/ 2023_3_de_fuehrer_nix.pdf. Zugegriffen am 3. Februar 2025 Hein, L., Högemann, M., Illgen, K.-M., Stattkus, D., Kochon, E., Reibold, M.-G., Eckle, J., Seiwert, L., Beinke, J. H., & Knopf, J. (2024). ChatGPT als Unterstützung von Lehrkräften-Einordnung, Analyse und Anwendungsbeispiele. HMD Praxis der Wirtschaftsinformatik , 61 (2), 449-470. Helm, C., Große, C. S., & öbv. (2024). Einsatz künstlicher Intelligenz im Schulalltag- eine empirische Bestandsaufnahme. Erziehung und Unterricht (3-4), 370-381. Hübner, E. (2024). Geschwätzige Wahrscheinlichkeitsmaschinen unausgesprochen von der Pädagogik fordern. In T. Damsberger & E. Hübner (Hrsg.), Kinder stärken in Zeiten der Digitalisierung: In Krisen reflexive Energie entwickeln (S. 85 - 98). Verlag Barbara Budrich. Kestin, G., Miller, K., Klales, A., Milbourne, T., & Ponti, G. (2024). AI Tutoring Outperforms Active Learning . Springer Science and Business Media LLC. https: / / dx.doi.org/ 10.21203/ rs.3.rs-4243877/ v1 Liao, J., Zhong, L., Zhe, L., Xu, H., Liu, M., & Xie, T. (2024). Scaffolding Computational Thinking with ChatGPT. IEEE Transactions on Learning Technologies . Maier, U. (2024). ChatGPT kann Lernen verhindern. Schulmagazin (5+6), 35-41. Medienpädagogischer Forschungsverbund Südwest. (2024). JIM-Studie 2024. Jugend, Information, Medien. Basisuntersuchung zum Medienumgang 12bis 19-Jähriger . Melisa, R., Ashadi, A., Triastuti, A., Hidayati, S., Salido, A., Ero, P. E. L., Marlini, C., Zefrin, Z., & Al Fuad, Z. (2025). Critical Thinking in the Age of AI: A Systematic Review of AI's Effects on Higher Education. Educational Process: International Journal . Schlude, A., Mendel, U., Stürz, R., & Fischer, M. (2024). Verbreitung und Akzeptanz generativer KI an Schulen und Hochschulen. https: / / www.bidt.digital/ publikation/ verbreitung-und-akzeptanz-generativer-kian-schulen-und-hochschulen/ . Zugegriffen am 3. Februar 2025 Steinhoff, T. (2025). Künstliche Intelligenz als Ghostwriter, Writing Tutor und Writing Partner. In C. Albrecht, J. Brüggemann, T. Kretschmann, & C. Meier (Hrsg.), Personale und funktionale Bildung im Deutschunterricht: Theoretische, empirische und praxisbezogene Perspektiven (S. 85-99). Springer. Vodafone Stiftung Deutschland. (2024). Pioniere des Wandels. Wie Schüler: innen KI im Unterricht nutzen möchten . Zierer, K. (2024). ChatGPT als Heilsbringer? : Über Möglichkeiten und Grenzen von KI im Bildungsbereich . Waxmann Verlag. <?page no="185"?> 2.6 KI in der Hochschullehre ‒ Didaktische Vermittlung und Lernunterstützung Claudia Schmidt und Volker Sänger Zusammenfassung Das Projekt KompiLe , das in diesem Kapitel vorgestellt wird, hat das Ziel, die KI- Kompetenz Studierender zu fördern. Dazu wurden neue Module entwickelt, die KI im Bereich der Medien zum Gegenstand haben. Weiterhin wird im Projekt die Lernplattform Moodle zu einer innovative Lernplattform, einer sogenannten LXP (Learning Experience Platform) erweitert, auf der Studierende der Hochschule Offenburg Unterstützung durch KI-basierte Lernempfehlungen erhalten. Keywords: KI-Kompetenz, KI in den Medien, Learning Experience Platform, Lernempfehlungen, Content Curation 2.6.1 Einleitung Spätestens mit der Einführung von ChatGPT im November 2022 hat Künstliche Intelligenz (KI) Einzug in das tägliche Leben gehalten. Ständig werden neue Anwendungen und Anwendungsbereiche der KI identifiziert. Der KI-Hype ist weiterhin ungebrochen. Deswegen kann man davon ausgehen, dass alle, die derzeit studieren, in ihrem (Berufs-)Leben mit KI konfrontiert und oft auch mit KI arbeiten werden. Für Hochschulen bedeutet dies, dass KI curricular verankert werden sollte. Dies gilt grundsätzlich für sämtliche Studiengänge, nicht nur für IT- oder IT-nahe Studiengänge. An der Hochschule Offenburg wurde im Dezember 2021 das Projekt KompiLe (KI- Kompetenz fördern, individualisiertes Lernen unterstützen) 3 gestartet. Zum einen wird in KompiLe eine intelligente, adaptive Lernplattform aufgebaut und erprobt, in der Lernpräferenzen und der aktuelle Lerngegenstand genutzt werden, um KI-basiert (personalisierte) Lernempfehlungen zu präsentieren. Zum anderen werden neue Lernangebote zu KI-Inhalten bereitgestellt, die curricular in das Studium eingebettet werden, um so KI-Kompetenzen Studierender, insbesondere auch hinsichtlich der Reflexion über ethische, soziale und rechtliche Aspekte, systematisch zu fördern. 2.6.2 Das KompiLe-Projekt Eine zentrale Aufgabe von Hochschulen besteht darin, Studierende auf berufliche Tätigkeiten vorzubereiten, bei denen KI zukünftig eine immer wichtigere Rolle spielt. Dazu benötigen sie Kompetenzen und Fähigkeiten im Bereich der KI (vgl. de Witt et al. 2020). Das Projekt KompiLe verbindet das „Lernen über KI“ mit dem „Ler- 3 Das Projekt KompiLe wird vom BMBF und MWK Baden-Württemberg im Rahmen der Bund-Länder-Initiative Förderung der Künstlichen Intelligenz in der Hochschulbildung gefördert. <?page no="186"?> 186 Claudia Schmidt und Volker Sänger nen mit KI“ zur Förderung der KI-Kompetenz von Lehrenden und Lernenden (siehe Abb. 46).  „Lernen über KI“ erfolgt durch eine Erweiterung des curricularen Angebots in den Bachelor-Studiengängen der Hochschule. Für die Themengebiete KI in den Medien, Chatbots sowie Ethik und Datenschutz wurden neue Module didaktisch entwickelt und ausgewählte OER (Open Educational Resources) werden zur Verfügung gestellt. Durch diese neuen KI-basierten Lernangebote haben Studierende die Möglichkeit, bereits während des Studiums eigene Erfahrungen mit KI-Systemen zu sammeln.  „Lernen mit KI“ zielt auf die Erweiterung der Lernplattform Moodle zu einer intelligenten, adaptiven Lernumgebung, einer sogenannten LXP (Learning Experience Platform) ab. Der Einsatz von KI-basierten Lernempfehlungen zur Unterstützung der Lernenden wird erprobt und die Akzeptanz bei den Studierenden evaluiert. Dabei werden Datenschutz und ethische Aspekte berücksichtigt. Basis für die neuen KI-Module und für die LXP sind KI-Modelle und zugehörige Daten, mit denen die KI-Modelle betrieben werden. So müssen beispielsweise für Lernempfehlungen Daten bereitgestellt werden, weil nur auf Basis von Daten Empfehlungen möglich sind. Deswegen sind damit zusammenhängende ethische Aspekte für die Lernenden verständlich und relevant, weil sie selbst betroffen sind: evtl. geht es sogar um Daten zum eigenen Lernprozess. Alle Komponenten zusammen sollen die KI-Kompetenz aller Beteiligten verbessern, weil die Arbeit mit KI das Verständnis von Funktionsweise und Bedeutung der KI erhöht. Abb. 46: Übersicht Projekt KompiLe (Quelle: Eigene Darstellung) 2.6.3 Förderung von KI-Kompetenz In den letzten Jahren wurden verschiedene wissenschaftliche Definitionen von KI- Kompetenz vorgeschlagen (z.B. Long und Magerko 2021), die jedoch nicht alle Aspekte von KI-Technologien adressieren. Eine umfassende Definition von KI-Kompetenz, die im Rahmen des KompiLe-Projektes entwickelt wurde, umfasst die folgenden vier Dimensionen (vgl. Schlemmer et al. 2023): <?page no="187"?> 2.6 KI in der Hochschullehre 187  KI-Wissen: KI-Methoden und -Techniken (z. B. Maschinelles Lernen oder Tiefe Neuronale Netze) sowie die Bedeutung von Daten beim Training von KI kennen und verstehen.  KI-Kritik: ethische Aspekte beim Einsatz von KI und gesellschaftliche Auswirkungen von KI-Anwendungen bewerten können.  KI-Nutzung: KI-Anwendungen zielgerichtet nutzen können.  KI-Entwicklung: KI-Anwendungen trainieren und entwickeln können, um vorliegende Aufgabenstellungen zu lösen. Auf der Grundlage dieser vier Dimensionen wurde im Projekt KompiLe KI-Kompetenz definiert als die „Fähigkeit und Bereitschaft zu einem sachgerechten, selbstbestimmten, kreativen und sozial verantwortlichen Handeln in Bezug auf KI-Technologien“, was im Hochschulkontext erfordert, dass Studierende und Lehrende über KI-bezogenes Wissen verfügen, KI-Anwendungen kritisch reflektieren, kollaborativ und kontextbezogen nutzen können und KI-Anwendungen gestalten und entwickeln können (vgl. Schlemmer et al. 2023). Die obige Definition betrachtet das gesamte Gebiet der KI, das in den letzten Jahren extrem an Umfang gewonnen hat, sowohl in den Grundlagen als auch bei den Anwendungen. Die beschriebenen vier Dimensionen der KI-Kompetenz müssen in einem konkreten Lernkontext für einen Anwendungsbereich ausgestaltet werden. Weil Chatbots ein wichtiger Anwendungsbereich für Studierende an der Medienfakultät der Hochschule Offenburg sind, wird in der folgenden Aufzählung von Inhalten eine exemplarische Konkretisierung der KI-Kompetenz für Chatbots skizziert:  KI-Wissen: - KI-Methoden, die für Chatbots benötigt werden und deren Funktionsweise (z. B. Natural Language Processing, Deep Learning, Large Language Models). - Bereitstellung und Einsatz von Daten für das Training von Chatbots (z. B. exemplarische Fragen und Antworten, Produktbeschreibungen).  KI-Kritik: - Auswirkungen und Veränderungen durch den Einsatz von Chatbots in Unternehmen und Institutionen für Mitarbeiter und Kunden. - Gesellschaftliche Akzeptanz geänderter Kommunikationsformen.  KI-Nutzung: - Vor- und Nachteile von Chatbots im betrieblichen Umfeld. - Organisatorische, technische und rechtliche Rahmenbedingungen beim Einsatz von Chatbots. - Schutz von persönlichen Daten und Unternehmensdaten beim Betrieb von Chatbots.  KI-Entwicklung: - Tools und Programmierumgebungen für die Entwicklung von Chatbots und deren Leistungsumfang. - Bereitstellung und Aufbereitung passender Trainingsdaten. - Trainingsprozess und die Bewertung von Trainingsergebnissen. Die vorgestellte Definition von KI-Kompetenz betont die Bedeutung der vier Dimensionen für die Hochschullehre im Bereich der KI. Alle Dimensionen sollten adressiert werden, sowohl in den entwickelten KI-Modulen (siehe Abschnitt 2.6.4) als auch <?page no="188"?> 188 Claudia Schmidt und Volker Sänger beim Aufbau und der Nutzung von Moodle als Learning Experience Platform (siehe Abschnitt 2.6.5). 2.6.4 Lernen über KI-Module zu Chatbots, KI in den Medien und Ethik Im Rahmen des Projektes KompiLe wurden an der Fakultät Medien der Hochschule Offenburg drei Module zur Förderung von KI-Kompetenz konzipiert und curricular verankert. Thematisch behandeln diese drei Module Chatbots, KI in den Medien sowie ethische und datenschutzrechtliche Aspekte von KI-Anwendungen. Didaktische Konzeption Alle drei Module haben zum Ziel, KI-Kompetenz anwendungsorientiert anhand von komplexen und authentischen Szenarien zu vermitteln und zu fördern (vgl. Schlemmer et al. 2023; Schmidt et al. 2025). Sie können im Hauptstudium des Bachelor- Studiengangs Medien und Kommunikation als Vertiefung gewählt werden und umfassen 2 bis 3 SWS und 5 ECTS. Die Studierenden besitzen in der Regel noch keine Vorkenntnisse zu KI und somit müssen die benötigten Grundlagen in den Modulen selbst vermittelt werden. Alle drei Module umfassen ein Präsenzseminar, mehrere betreute Labore und eine Praktische Arbeit, die in Gruppen durchgeführt wird und die Prüfungsleistung der Veranstaltung bildet (siehe Abbildung 47). In den Seminaren werden fachspezifische Inhalte mit den benötigten Grundlagen der KI kombiniert vermittelt und direkt durch authentische Fallbeispiele sowie Übungsaufgaben als Einzel- oder Gruppenarbeit ergänzt, um eine aktive Auseinandersetzung mit den Lerninhalten zu fördern (vgl. Schmidt et al. 2025). Basierend auf diesen Kenntnissen erlernen die Studierenden in den Laboren den Umgang mit KI-Werkzeugen (z. B. die Open Source Software Rasa in Chatbots und DeepFaceLab für Deep Fakes in KI in den Medien). Dabei setzen sie sich handlungsorientiert mit der Technik auseinander und lernen die Werkzeuge zu verstehen und zu beherrschen, um diese anschließend in der Praktischen Arbeit selbstständig und zielgerichtet einsetzen zu können. Abb. 47: Aufbau der KI-Module (Quelle: Schmidt et al. 2025) Die Praktische Arbeit orientiert sich an dem Konzept des pädagogischen Makings (vgl. Knaus und Schmidt 2020) und betont das Lernen durch Handeln in einem projektbasierten Szenario (vgl. Späth et al. 2019). Die Studierenden konzipieren, realisieren und präsentieren in Dreiergruppen einen selbst entwickelten Chatbot oder ein Deep Fake. Sie nutzen beim Lösen konkreter Probleme das Fachwissen aus dem <?page no="189"?> 2.6 KI in der Hochschullehre 189 Seminar und den Laboren und parallel eignen sie sich neues Wissen an und festigen das Wissen durch die praktische Anwendung (vgl. Liu 2023). Die Praktische Arbeit basiert dabei auf den Grundlagen problembasierter Lernumgebungen (vgl. Reinmann und Mandl 2006) und bietet:  Authentizität: eine Auseinandersetzung mit einer authentischen Problemstellung.  multiple Kontexte und Perspektiven: bei der konkreten Umsetzung werden verschiedene Perspektiven auf den Lerninhalt integriert.  sozialer Kontext: die Gruppenmitglieder konzipieren und realisieren das Projekt gemeinsam und kooperieren mit anderen Gruppen und Betreuenden bei Problemen.  instruktionale Anleitung: In den Laboren und während der Praktischen Arbeit begleiten die Betreuenden die Studierendengruppen und geben Feedback. Ein zentrales Merkmal des pädagogischen Makings ist die kritische Reflexion des eigenen Handelns. Dies wird in den drei Modulen am Ende der Making-Phase aufgegriffen, indem die Studierenden ihre Ergebnisse präsentieren und gemeinsam mit Lehrenden explizit die eigenen Lösungen reflektieren (vgl. Schlemmer et al. 2023). Der vorgestellte Ansatz integriert alle vier Dimensionen der KI-Kompetenz. Fachspezifisches KI-Wissen aus dem Seminar wird in den Laboren durch Wissen zum praktischen Umgang mit KI-Tools ergänzt. Im Seminar werden authentische Beispiele kritisch diskutiert und auch bei der Durchführung und Präsentation der Praktischen Arbeit spielt die kritische Auseinandersetzung mit den Inhalten eine große Rolle (KI-Kritik). Im Modul Chatbots stehen dabei ethische Anforderungen an die Algorithmen und die Rolle von Daten, mit denen Chatbots trainiert werden, im Mittelpunkt. Die Nutzung von KI-Anwendungen wird im Seminar an diversen Beispielen aktiv erprobt und kritisch analysiert. Ein Schwerpunkt der Module liegt darüber hinaus auf der KI-Entwicklung. Die Praktische Arbeit vertieft und festigt das theoretische Wissen und erfordert weiterhin Programmierkenntnisse, das Verständnis um Datensätze und das Training von KI-Anwendungen, wie Chatbots oder Deep Fakes. Evaluation ‒ Messung der KI-Kompetenz Die im Rahmen von KompiLe angebotenen Module werden seit dem Sommersemester 2023 angeboten und im Rahmen eines Design-Based-Research-Prozesses (DBR) (vgl. Reinmann 2005; Reinmann 2023) über mehrere Semester hinweg evaluiert und weiterentwickelt (siehe Abbildung 48). Im Hinblick auf das Ziel, Vermittlung von KI- Kompetenz, wurden die in obigem Abschnitt „Didaktische Konzeption“ genannten Gestaltungsprinzipien aus der Literatur und basierend auf Erfahrungen der Dozierenden ausgewählt und im initialen Didaktischen Design der drei Module umgesetzt. Aktuell wird in einem iterativen Verfahren der Erwerb von KI-Kompetenz semesterbegleitend evaluiert und basierend auf den Ergebnissen die didaktische Gestaltung der Module verfeinert. Ausgehend vom initialen Didaktischen Design soll die sukzessive Abfolge von Erprobung, Evaluation, Reflexion der Gestaltungskriterien und Redesign final zu einer Menge von Gestaltungsprinzipien führen, die KI-Kompetenz in einem anwendungsorientierten Lernsetting fördern. <?page no="190"?> 190 Claudia Schmidt und Volker Sänger Abb. 48: Design-based Research Prozess der Module (Quelle: angepasste Darstellung nach Euler 2014; Reinmann 2023) Dazu wird in den Veranstaltungen sowohl die KI-Kompetenz der Studierenden evaluiert als auch die Bedeutung der verschiedenen didaktischen Elemente. Für die Erfassung von KI-Kompetenz wurden in den letzten Jahren einige Messinstrumente entwickelt, die auf Selbstberichtsskalen basieren (vgl. Carolus et al. 2023; Laupichler et al. 2023). Im KompiLe-Projekt wurden die erprobten Messinstrumente SNAIL 4 und MAILS 5 verwendet und inhaltlich adaptiert. Konkret können die vorgestellten Dimensionen der KI-Kompetenz ausgewählten Kategorien von SNAIL und MAILS zugeordnet und somit über die Items dieser Kategorien evaluiert werden (siehe Tabelle 7). Dimensionen der KI-Kompetenz (KompiLe-Projekt) Kategorien von SNAIL und MAILS KI-Wissen SNAIL: Technical Understanding KI-Kritik SNAIL: Critical Appraisal KI-Nutzung SNAIL: Practical Application KI-Entwicklung MAILS: Create AI Tab. 7: Dimensionen der KI-Kompetenz mit den Entsprechungen in SNAIL und MAILS (Quelle: Eigene Darstellung) In den Veranstaltungen wurde ein Pre-Post-Testverfahren eingesetzt, um zu ermitteln, wie sich die KI-Kompetenz der Studierenden durch diese Veranstaltung verändert hat. Dabei konnte beispielsweise für das Modul Chatbots gezeigt werden, dass bei allen vier Dimensionen der KI-Kompetenz die Mittelwerte der Selbsteinschätzung nach dem absolvierten Modul besser waren als vorher (siehe Tabelle 8, Schmidt et al. 2025). Speziell die beiden Dimensionen KI-Wissen und KI-Entwicklung zeigten die größte Verbesserung, was bedeutet, dass Studierende in diesen Dimensionen den 4 SNAIL: Scale of the assessment of non-experts AI literacy (Laupichler et al. 2023) 5 MAILS: Meta AI literacy scale (Carolus et al. 2023) <?page no="191"?> 2.6 KI in der Hochschullehre 191 höchsten Kompetenzzuwachs für sich erlebten. Exemplarisch sei eine Frage aus der Kompetenzdimension KI-Wissen genannt: „Ich kann erklären, wie Chatbots auf der Grundlage von KI-Technologien Entscheidungen treffen.“ Alle Teilnehmenden bewerteten jeweils, inwieweit sie dieser und vergleichbaren Aussagen für sich selbst zustimmen, und zwar vor der Teilnahme am Modul (Spalte „vorher“) und danach (Spalte „nachher“). Ein weiteres Ergebnis der Evaluationen zeigt, dass Studierende der Praktischen Arbeit einen positiven Lerneffekt zuschreiben. KI-Kompetenzdimensionen vorher (Mittelwert / Standardabweichung) nachher (Mittelwert / Standardabweichung) KI-Wissen 4,99 / 0,77 2,57 / 0,77 KI-Kritik 3,39 / 1,0 2,04 / 0,73 KI-Nutzung 3,82 / 0,87 2,29 / 0,71 KI-Entwicklung 5,41 / 0,80 2,43 / 0,56 Tab. 8: Veränderungen der KI-Kompetenz in der Selbsteinschätzung (1 = stimme voll und ganz zu) bis 6 (stimme überhaupt nicht zu). Niedrigere Werte entsprechen einer höheren Kompetenzwahrnehmung (Quelle: Eigene Darstellung) Die Ergebnisse der Online-Evaluationen lieferten Hinweise, dass die teilnehmenden Studierenden KI-Kompetenz erworben haben. Welche der einzelnen didaktischen Elemente den gemessenen Kompetenzzuwachs beeinflusst haben, lässt sich aus den bisherigen Evaluationsergebnissen nicht ermitteln (vgl. Schmidt et al. 2025). Der Kompetenzzuwachs ist jedoch als Erfolgskriterium für die beschriebene didaktische Umsetzung zu werten. 2.6.5 Lernen mit KI: Moodle LXP ‒ Zielsetzung und Konzeption Der zweite Aspekt des KompiLe-Projektes „Lernen mit KI“ adressiert die Unterstützung der Lernenden durch KI-basierte Lernempfehlungen. In diesem Kontext wird das Lernmanagementsystem (LMS) Moodle der Hochschule zu einer Learning Experience Platform (LXP) ausgebaut. Empfehlungen repräsentieren einen KI-Anwendungsbereich, der sehr weit verbreitet ist. Sie sind u.a. in Online-Shops, Audio- und Video-Plattformen und Social-Media-Anwendungen nicht wegzudenken. Gleichzeitig lassen sich anhand von Empfehlungen wichtige KI-Konzepte erkennen und vor allem sind ethische Aspekte von zentraler Bedeutung, weil oft mit den persönlichen Daten der Nutzenden gearbeitet wird. Lernempfehlungen im Projekt KompiLe unterstützen einerseits den Lernprozess und dienen andererseits dazu, Studierenden die KI-Konzepte von Empfehlungen nahezubringen und sich damit kritisch auseinanderzusetzen. LMS sind in Hochschulen weit verbreitet (vgl. Kipp 2018). In der Praxis liegt der Schwerpunkt von LMS auf der Bereitstellung von Lernmaterialien und administrativen Funktionen, wie z. B. Kursankündigungen (vgl. Malikowski 2007). In jüngster Zeit entwickelt sich eine neue Generation von Lernplattformen, sogenannte Learning Experience Platforms, die den Fokus auf personalisiertes, motivierendes Lernen legen. Funktionen von LXPs umfassen u.a. die Integration von Open Educational <?page no="192"?> 192 Claudia Schmidt und Volker Sänger Resources (OERs), soziale Interaktion durch Bewertungen und die (KI-basierte) Empfehlung von Lerninhalten (vgl. Stoller-Schai 2020). Im Projekt KompiLe war für den Ansatz „Lernen mit KI“ geplant, eine LXP für die Lehre einzusetzen. An der Hochschule Offenburg wird allerdings seit vielen Jahren das LMS Moodle verwendet. Das System ist an der Hochschule etabliert ‒ es wird praktisch von allen Dozierenden für Lehrveranstaltung genutzt ‒, sodass eine Ablösung durch eine wie immer geartete neue Lernplattform völlig undenkbar ist. Zwei parallel genutzte Plattformen für die Lernunterstützung wären aus Kosten- und aus Effizienzgründen ebenfalls kontraproduktiv. Deshalb wurde entschieden, das LMS Moodle zu einer LXP auszubauen. Dieser Ansatz hat den Vorteil, dass Moodle in der Hochschule weiterverwendet werden kann. Gleichzeitig kann das System Schritt für Schritt im Hinblick auf eine LXP ausgebaut werden, und jeder Dozierende, der neu angebotene Funktionalitäten der LXP nutzen möchte, kann dies jederzeit tun. Für alle anderen bleibt das System unverändert. Konzeption der LXP LXPs können den Lernprozess unterstützen, indem sie Lerninhalte zum richtigen Zeitpunkt und personalisiert für die Lernenden anbieten (vgl. Stoller-Schai 2020). Dazu wurden bei der Konzeption der LXP im Rahmen des KompiLe-Projektes die folgenden Charakteristika berücksichtigt:  Ein modernes User Interface, das eine User Experience ähnlich zu Social-Media- Anwendungen bietet. Dazu zählt auch ein Dashboard , das Lernenden eine strukturierte Übersicht über die abonnierten Kurse mit einer Fortschrittsanzeige zeigt und auf organisatorische Aspekte wie Ankündigungen, Termine und die nächsten Aufgaben hinweist.  Integration von Open Educational Resources (OER) in die LXP mittels Content Curation : OER unterstützen das Lernen und den Wissensaustausch und besitzen damit eine sehr große Bedeutung für Wissensgesellschaften (vgl. UNESCO 2019). Lehrende ‒ auch im Hochschulkontext ‒ profitieren von OER, da sie nicht alle Lernmaterialien (z. B. Lernvideos, interaktive Übungen) selbst konzipieren müssen (vgl. Kröpfl und Geyer 2020), sondern hochwertig erstelltes Material teilen und wiederverwenden können. Lernende können über OER entsprechend ihrer Präferenzen und dem aktuellen Lernstand individuell und zeitlich flexibel unterstützt werden. Generell ist die Vielzahl an OER mit der Herausforderung verbunden, die relevanten Lernressourcen passend zum jeweiligen Lerninhalt zu erhalten. Content Curation, das Finden, Auswählen, Gruppieren, Anreichern und Teilen von Lernressourcen zu speziellen Themen (vgl. Kröpfl und Geyer 2020) unterstützt dabei, die OER in den aktuellen Lernkontext zu integrieren. Aktive Lernende einer LXP sollten in der Lage sein, OER nicht nur zu nutzen, sondern passende Lernressourcen selbstständig in die LXP einzufügen und anderen Lernenden zur Verfügung zu stellen (User Generated Content).  KI-basierte Lernempfehlungen können individuell im aktuellen Lernkontext relevante Lernressourcen anbieten (vgl. Zhang et al. 2020). Grundsätzlich unterschieden werden inhaltsbasierte, kollaborative und hybride Empfehlungen (vgl. Adomavicious und Tuzhilin 2005). Inhaltsbasierte Empfehlungen verwenden ausschließlich Informationen, die den Inhalt von Lernressourcen beschreiben, z. B. <?page no="193"?> 2.6 KI in der Hochschullehre 193 Tags, Schlüsselworte oder Kurzbeschreibungen. Kollaborative Empfehlungen dagegen basieren auf dem Verhalten der Lernenden. Dabei können sie unterschiedliche Einflussgrößen verwenden, wie beispielsweise Bewertungen oder Feedback der Lernenden oder Zugriffszahlen auf Lernressourcen. Für andere kollaborative Empfehlungen wird das Verhalten der Lernenden untereinander verglichen. Hybride Empfehlungen kombinieren kollaborative und inhaltsbasierte Empfehlungen und integrieren ggf. auch noch spezielles Wissen über die Lernenden, z. B. deren persönliche Interessen und Präferenzen.  Bewertungen von Lerninhalten: das Feedback der Lernenden ist ein wichtiger Faktor im Lernprozess, der auch von Content Curation und kollaborativen Lernempfehlungen genutzt wird. Im Rahmen des KompiLe-Projektes sollen Lernende die Möglichkeit erhalten, Lernressourcen schnell und einfach über ein Sternesystem mit einem bis fünf Sterne zu bewerten und gleichzeitig über ein textuelles Feedback in die Lage versetzt werden, fundierte inhaltliche Kommentare abzugeben, die hilfreich für Lehrende und Kommilitonen sind.  Belohnung und Anerkennung durch Gamification : Gamification-Elemente wie Leaderboards, Fortschrittsbalken und Easter Eggs können die Lernenden motivieren sich intensiver mit den Lerninhalten zu befassen (vgl. Schmidt et al. 2023). Erweiterung von Moodle zu einer LXP In einem ersten Schritt wurde ein neues, attraktiveres User Interface für Moodle entwickelt, das den Anforderungen einer LXP entspricht, die benötigten Funktionalitäten zur Verfügung stellt und ein responsives Design besitzt. Das Dashboard als Startseite zeigt in einer konfigurierbaren Zeitleiste anstehende Aktivitäten und direkt darunter als Kacheln die abonnierten Kurse. Ergänzt wird diese Information durch konfigurierbare Blöcke auf der rechten und/ oder linken Seite, die das eigene Profil mit persönlichen Interessen, Quicklinks auf wichtige Informationen (z. B. das Studierendenportal für Prüfungsanmeldung, den Vorlesungsplan, das Angebot der Mensa) und einen Schnellzugriff auf zuletzt genutzte Objekte erlauben. Die Seiten einzelner Kurse besitzen durch ein Card-PlugIn (vgl. Maydew o. J.) ein „Social Media“-ähnliches Aussehen. Die Themen eines Kurses werden durch eine Karte, bestehend aus einer ansprechenden Grafik mit Titel und einer Fortschrittsanzeige, repräsentiert. Am rechten und linken Rand können über Moodle-Blöcke nach Bedarf weitere Informationen konfiguriert werden. Die Dozierenden haben dabei erweiterte Funktionen einer LXP wie Lernempfehlungen und Gamification-Elemente zur Auswahl, aber auch klassische Moodle-Informationen wie beispielsweise Kalender oder Ankündigungen. Die funktionelle Erweiterung des LMS Moodle zu einer LXP bedeutet aus technischer Sicht, dass für zusätzliche Funktionen sogenannte PlugIns entwickelt und implementiert werden. Für die dafür benötigten Daten werden teilweise zusätzliche Datenbanken angebunden. Die Gesamtarchitektur der Offenburger Moodle LXP ist in Abbildung 49 dargestellt. Neu entwickelte PlugIns importieren die Funktionalität für diverse Lernempfehlungen und Content Curation in Moodle. Dabei werden bestehende Moodle-Funktionen nicht geändert, d. h. alle vorhandenen Kurse sind nicht tangiert und auch neue Kurse können wie bisher in Moodle bearbeitet und präsentiert werden. Dozierende, die Interesse an der erweiterten Funktionalität einer LXP besitzen, können die neu entwickelten Funktionen in einen beliebigen Kurs integrieren. <?page no="194"?> 194 Claudia Schmidt und Volker Sänger Die für die Erweiterungen erforderlichen Daten werden aus der Moodle-Datenbank in eine separate Datenbank der LXP-Erweiterung exportiert, ohne dass der produktive Betrieb betroffen ist. Mit den exportierten Daten werden keine Nutzerprofile erstellt. Es handelt sich ausschließlich um nicht-personenbezogene oder um anonymisierte bzw. pseudonymisierte Daten. Die beschriebene LXP-Architektur über PlugIns hat den Vorteil, dass diese PlugIns zusammen mit der Moodle-LXP-Erweiterung auch in anderen Moodle-Systemen in gleicher Weise genutzt werden können. Abb. 49: Architektur der Offenburger Moodle LXP (Quelle: Eigene Darstellung) Lernempfehlungen und Bewertungen Lernempfehlungen in der Moodle LXP sollen Studierende auf interessante und relevante Lerninhalte hinweisen und zum Lernen motivieren. Im kommerziellen Umfeld liegt bei Empfehlungen oftmals ein besonderes Augenmerk auf dem Sammeln von Nutzerdaten. In der Moodle LXP soll dieses Daten-Sammeln aus ethischen Gründen auf das technisch notwendige Minimum beschränkt sein, die Lernenden sollen selbst über die Freigabe ihrer Daten entscheiden können und sie sollen informiert werden, welche Daten tatsächlich gespeichert werden. Weiterhin sollen Lernende in der Moodle LXP die Möglichkeit haben, einzelne Lernressourcen zu bewerten und zu kommentieren. Dazu wurde ein neues Bewertungs- PlugIn entwickelt, das es den Lernenden ermöglicht, Lerninhalte mit einem bis fünf Sternen zu bewerten (siehe Abb. 50 (a)). Optional können sie außerdem kurze inhaltliche Rückmeldungen hinzufügen, die anderen Lernenden oder auch den Lehrenden Hinweise zum Lerninhalt geben (vgl. Dahal et al. 2024). Letztendlich bedeuten gute Bewertungen eine Empfehlung für andere Lernende und schlechtere Bewertungen mit erklärenden inhaltlichen Rückmeldungen sind wichtige Hinweise für die Lehrenden zur Verbesserung. <?page no="195"?> 2.6 KI in der Hochschullehre 195 Basierend auf den Bewertungen wurde in einem weiteren PlugIn „bestbewertete Aktivitäten“ eine kollaborative Lernempfehlung entwickelt (siehe Abb. 50 (b)). Diese kann als Moodle-Block in allen Kursen angezeigt werden und zeigt mit einer konfigurierbaren Anzahl, z. B. die fünf bestbewerteten Inhalte. Abb. 50 (a): Bewertung eine Lernressource, 50 (b) Block bestbewertete Aktivitäten (Quelle: Screenshot der Offenburger Moodle LXP) Eine weitere kollaborative Lernempfehlung nutzt inhaltliche Trends (siehe Abb. 51), d. h. Inhalte, die in der letzten Zeit verstärkt aufgerufen oder bearbeitet wurden (vgl. Dahal et al. 2024). Konkret basiert der Algorithmus auf dem Z-Score, wobei die Aufrufe der Lernressourcen in einem konfigurierbaren Intervall (z. B. 7 Tage) analysiert werden (vgl. Dahal et al. 2023). Diejenigen Inhalte mit dem höchsten Anstieg werden als Trends angezeigt, sofern sie über einem Schwellwert liegen. Lernende erfahren aus den Trends, wo die aktuellen Schwerpunkte aller Lernenden im Kurs liegen und können so besser einschätzen, ob ihr eigener Lernstand ungefähr dem der anderen entspricht. Abb. 51: Trends-PlugIn 6 (Quelle: Screenshot der Offenburger Moodle LXP) 6 Der Link „Über diese Ergebnisse“ führt zu einer Erklärung, wie die Trends berechnet und welche Daten dabei genutzt werden. In dieser Erklärung wird u. a. klargestellt, dass keine Nutzerdaten verwendet werden. <?page no="196"?> 196 Claudia Schmidt und Volker Sänger Die dritte KI-basierte Lernempfehlung „Ähnliche Inhalte“ zeigt Lerninhalte an, die der aktuell selektierten Lernressource inhaltlich ähnlich sind (siehe Abb. 52; vgl. Dahal et al. 2024). Die Ähnlichkeit von Lerninhalten wird dabei aus den Metadaten der Lerninhalte ermittelt, die den Titel, die zugeordnete inhaltliche Beschreibung sowie den Typ (Video, pdf-Datei, Webseite, usw.) umfassen. Die Ähnlichkeit dieser Inhalte wird mittels des etablierten Algorithmus TF/ IDF berechnet, so dass ein Ranking der ähnlichsten Inhalte zu einem selektierten Inhalt erstellt werden kann (vgl. Zhang et al. 2022). Die Bereitstellung in der Moodle LXP erfolgt, wenn der Mauszeiger für mehr als eine halbe Sekunde auf einem Lerninhalt verharrt. Sowohl für die Trends als auch für die ähnlichen Inhalte wird ein Score bzw. ein Ähnlichkeitswert angegeben (siehe Abb. 51 und 52). Diese beiden Werte werden durch KI ermittelt. Wählt der Lernende den Link über diese Ergebnisse , so erhält er eine kurze Erläuterung, wie dieser Wert zustande kommt. Letztendlich sollen die Lernenden auf diese Weise verstehen, wie KI funktioniert. Deswegen wurden für die Empfehlungen leichter verständliche KI-Techniken verwendet, nicht sogenannte Deep Learning Ansätze, die extrem komplex und nicht einfach erklärbar sind (vgl. Zhou et al. 2023). Abb. 52: Lerninhalt und dazu empfohlene ähnliche Lerninhalte (Quelle: Screenshot der Offenburger Moodle LXP) Für das Jahr 2025 ist die Integration weiterer kollaborativer und personalisierter Lernempfehlungen geplant. Diese basieren auf ähnlichem Verhalten der Lernenden: Angenommen, ein Lernender bearbeitet in der aktuellen Sitzung die Lerninhalte L1 und L2 und ein zweiter Lernender hat sich vorher mit den Inhalten L1, L2 und L3 beschäftigt, so kann aktuell der Lerninhalt L3 empfohlen werden. Hinter dieser Art von Empfehlungen steckt der Ansatz, dass auf Lernprozesse und -erfahrungen anderer Lernender zurückgegriffen wird. Für die Realisierung von kollaborativen Empfehlungen müssen für die Dauer der Sitzung pro Lernendem die bearbeiteten Lerninhalte gespeichert werden, damit diese Sequenz mit den Sequenzen anderer Lernender aus früheren Sitzungen verglichen werden kann. Sequenzen bearbeiteter Lerninhalte werden anonym gespeichert, denn es ist nicht relevant, wer die Lerninhalte bearbeitet hat, sondern nur, dass sie innerhalb einer Session gemeinsam bearbeitet wurden. Die Speicherung erfolgt deswegen in Form von Listen von Lerninhalten, z. B.: (L1, L2, L3) oder (L1, L3, L4, L6). <?page no="197"?> 2.6 KI in der Hochschullehre 197 Parallel zum Ausbau der KI-basierten Empfehlungen wird an ethischen und datenschutzrechtlichen Aspekten der LXP gearbeitet, da diesen im Lernkontext eine große Bedeutung zukommt. Die entwickelten KI-Komponenten der LXP werden entsprechend dem AI-Act der EU (vgl. EU AI-Act 2024) im Hinblick auf die Verwendung der persönlichen Daten der Lernenden sowie ethischen Prinzipien wie Erklärbarkeit und Transparenz überprüft. Final sollen die Ergebnisse dieses Prüfverfahrens den Lernenden zusammengefasst innerhalb der LXP angezeigt werden, damit sie sich jederzeit über die Charakteristiken der eingesetzten Algorithmen und der genutzten Daten informieren können. Content Curation ‒ Integration von OER in die LXP Content Curation umfasst mehrere Phasen (siehe Abb. 53), beginnend mit „Search“, der Suche nach adäquaten Lernressourcen, über „Select“, der Auswahl von relevanten Ressourcen für den jeweiligen Lernkontext zu der wichtigen Phase „Sense- Making“. Hier kontextualisieren Kuratierende die Lernressourcen, indem sie durch inhaltliche Zusammenfassungen und persönliche Kommentare die Bedeutung im aktuellen Lernkontext betonen (vgl. Sedlmeier et al. 2024). In der anschließenden Phase „Share“ erfolgt die Veröffentlichung der kuratierten Lerninhalte und in der „Bewertungsphase“ geben Lernende Feedback über Kommentare und Bewertungen zu einzelnen Lernressourcen. Abb. 53: Kombination von Content Curation und Lernempfehlungen (Quelle: Sedlmeier et al. 2024) Durch Content Curation und die Integration von OER wächst der Materialpool für einzelne Lehrveranstaltungen und KI-basierte Lernempfehlungen können die Lernenden dabei unterstützen, die passenden Lernressourcen zu finden. Content Curation ergänzt inhaltsbasierte und kollaborative Lernempfehlungen passgenau, indem es die entsprechenden Daten für die Empfehlungssysteme liefert (siehe Abb. 53). Zusammenfassungen und Tags, die in der „Sense-Making“-Phase zu Lernressourcen hinzugefügt werden, bilden die Grundlage für inhaltsbasierte Empfehlungsalgorithmen. Kommentare und Bewertungen sind die Basis für kollaborative Empfehlungen, wie beispielsweise „bestbewertete Aktivitäten“, die im letzten Abschnitt beschrieben wurden. <?page no="198"?> 198 Claudia Schmidt und Volker Sänger Für die Moodle LXP werden alle externen Lernressourcen eines Kurses in einer Moodle-Datenbank gespeichert und mit Metadaten versehen, so dass danach gesucht werden kann. Dazu wurde ein Metadatenschema entwickelt, das verpflichtend Titel, Themenbereich, Lizenz, unter der die Ressource veröffentlicht ist, Urheber, Format (Video, Podcast, Paper, Webseite, etc.) und den Link zur Ressource umfasst (vgl. Sedlmeier et al. 2024). Diese Metadaten können ergänzt werden durch die Sprache, frei wählbare Tags zur Beschreibung, ein Bild als Cover für den Eintrag der Lernressource, das Veröffentlichungsdatum und spezifische Voraussetzungen für die Nutzung der Ressource. Die gesamten Metadaten können für die Bereitstellung von individuellen Lernempfehlungen genutzt werden. Abb. 54 zeigt einen beispielhaften Eintrag einer Lernressource in der Datenbank. Dieser umfasst u.a. ein Cover zur Illustration, einen Titel, die Originalautoren sowie eine kurze Inhaltsbeschreibung. Neben weiteren Attributen wie Ressourcentyp oder Sprache werden auch die bisher erfolgten Bewertungen angezeigt. Die externen Lernressourcen können von den Lehrenden in die Datenbank und damit in den Kurs integriert werden. Vorschläge können und sollen auch von Lernenden gemacht werden, weil sie oftmals selbst Lernressourcen finden, die ihren eigenen Ansprüchen entgegenkommen. Allerdings werden diese Vorschläge aktuell von Lehrenden auf ihre Relevanz im Lernkontext geprüft und eventuell um weitere Metadaten ergänzt, bevor sie für den gesamten Kurs freigeschaltet werden. Insgesamt hat Content Curation das Potenzial, den Lernprozess für alle nachhaltig zu verändern, weil Lernende die Möglichkeit bekommen, eigene Lerninhalte einzubringen. Abb. 54: Eintrag einer Lernressource in der Moodle-Datenbank (Quelle: Screenshot der Offenburger Moodle LXP) <?page no="199"?> 2.6 KI in der Hochschullehre 199 Erste Erfahrungen mit der LXP In einer weiteren formativen Evaluation wurde die Akzeptanz der LXP bei den Studierenden in drei unterschiedlichen Informatik-Bachelorkursen (Software Engineering, Computernetze und Datenbanken) untersucht. Ein interessantes Ergebnis der Evaluation zeigt, dass ca. 74 Prozent der Studierenden externe Lernressourcen regelmäßig oder häufig zum Lernen nutzen und davon ausgehen, dass diese sie beim Lernen positiv unterstützen (siehe Abb. 55). Dieses Ergebnis bestätigt die Bemühungen, Content Curation in bestehende Lernplattformen zu integrieren. Mit dem intensiven Einsatz von Content Curation wird sich allerdings die Anzahl der externen Inhalte deutlich erhöhen und damit werden voraussichtlich Lernempfehlungen an Bedeutung gewinnen, da nur mit ihrer Hilfe die individuell passenden Lerninhalte in der großen Zahl der verfügbaren OER gefunden werden. Entsprechende Entwicklungen werden mittels weiterer Evaluationen in den nächsten Semestern verfolgt. Abb. 55: Externe Lernressourcen zum Lernen (n = 38) (Quelle: Eigene Darstellung) Lernempfehlungen und speziell die Empfehlung „bestbewertete Aktivitäten“ basieren auf der aktiven Mitarbeit der Studierenden. Beim Lernen müssen sie reflektieren, wie die verwendeten Lernressourcen sie im Lernprozess unterstützen und diese Einschätzung über eine Bewertung über Sterne eventuell mit erklärendem Kommentar für ihre Kommilitonen zur Verfügung stellen. Aus den Rückmeldungen der Studierenden und aus der Zahl der Bewertungen ist ersichtlich, dass nur eine geringe Anzahl von Studierenden (ca. 16 Prozent) bereit ist, Bewertungen regelmäßig vorzunehmen (siehe Abb. 56 (a)). Die Mehrheit der Studierenden bewertet die Lernressourcen selten (ca. 18 Prozent) oder nie (50 Prozent). Um eine aktivere Mitarbeit bei den Bewertungen zu erreichen, ist deshalb in den nächsten Semestern geplant, die externen Lernressourcen aktiver in die Veranstaltungen einzubeziehen. Die bisherigen Rückmeldungen der Studierenden sind in allen Veranstaltungen oftmals sehr positiv (5 Sterne) oder aber sie weisen auf technische oder inhaltliche Probleme der Lernressourcen hin. Für Dozierende sind diese Rückmeldungen ein durchaus wichtiges Feedback im Lernprozess. <?page no="200"?> 200 Claudia Schmidt und Volker Sänger Obwohl die Mehrheit der Studierenden nicht regelmäßig eigene Bewertungen und Kommentare abgibt, werden die Bewertungen der Kommilitonen mehrheitlich als hilfreich eingestuft (siehe Abb. 56 (b)). Über 55 Prozent nutzen die Bewertungen und Kommentare regelmäßig oder häufig, um qualitativ hochwertige Lernressourcen zu finden. Diese Diskrepanz zwischen der Bereitschaft zu bewerten und dem Wunsch nach Bewertungen lässt sich nach aktuellem Stand nur verringern, indem die Studierenden in den Lehrveranstaltungen deutlicher auf die Bedeutung der aktiven Mitarbeit bei Bewertungen hingewiesen werden. Abb. 56: (a) Ich habe externe Lernressourcen bewertet (n = 38) (b) Bewertungen und Kommentare waren für mich hilfreich (n = 37) (Quelle: Eigene Darstellung) Abb. 57: Die Empfehlungen fand ich hilfreich (n = 39) (Quelle: Eigene Darstellung) Die Rückmeldungen zu den Lernempfehlungen lassen erkennen, dass noch Verbesserungen notwendig sind. So bewerten, laut Abbildung 57, nur ca. 30 Prozent der Studierenden die Empfehlungen als hilfreich (trifft voll und ganz zu / trifft zu), eine ähnlich große Anzahl fand die Empfehlungen aber auch als eher nicht/ nicht hilfreich. Weitere, hier nicht dargestellte Rückmeldungen von Studierenden machen deutlich, dass die teilweise kritische Einstellung zu den Empfehlungen nur selten an technischen Mängeln liegt, wie etwa der Bedienung oder dem Auffinden. Vielmehr sehen einige Studierende den Mehrwert von Lernempfehlungen nicht, andere finden <?page no="201"?> 2.6 KI in der Hochschullehre 201 keine Zeit, sich mit den Empfehlungen zu beschäftigen und schließlich lassen sich manche Studierende passende Lernressourcen lieber direkt von Kommilitonen empfehlen. Derzeit liegen die genauen Gründe für die Bewertung von Lernempfehlungen zumindest teilweise im Dunkeln. Weil der Nutzen der externen Lernressourcen laut Abbildung 55 erkennbar ist, sollen die Empfehlungen in Zukunft didaktisch stärker in den Unterricht eingebaut und immer wieder auf deren Nutzen hingewiesen werden. Außerdem sollen die Empfehlungen in den Moodle-Kursen prominenter dargestellt werden. Denn in Online-Shops oder auf Audio- und Videoplattformen sind es die Nutzenden gewöhnt, dass die Empfehlungen an zentraler Stelle platziert sind. 2.6.6 Zusammenfassung und Ausblick Im Projekt KompiLe soll KI-Kompetenz vermittelt werden durch „Lernen mit KI“ und „Lernen über KI“. KI-Kompetenz durch Lernen über KI wird in drei neuen Modulen vermittelt, die Anwendungsbereiche von Medien-Studierenden mit hohen KI-Anteilen behandeln. Die meisten Inhalte, wie z. B. Chatbots oder Deep Fakes werden auch nach Projektende weiterhin an der Hochschule gelehrt werden. „Lernen mit KI“ erfolgt auf dem zur LXP erweiterten Moodle-System der Hochschule Offenburg. KIbasierte Empfehlungen geben den Studierenden Hinweise auf individuell passende Lernressourcen. Auch diese Funktionalität wird nach Projektende bestehen bleiben. Evaluationen lassen darauf schließen, dass die KI-Kompetenz der Studierenden durch die beschriebenen Maßnahmen tatsächlich verbessert werden kann. Allerdings lassen die bisherigen Erfahrungen erkennen, dass die angebotenen Lernempfehlungen und die Content Curation nicht automatisch von den Studierenden genutzt werden, nur weil sie existieren. Beide Elemente müssen gefördert und didaktisch eingebunden werden. Weiterhin sollten die vorhandenen Empfehlungen verbessert, z. B. stärker personalisiert und durch visuelle Aufbereitung mehr in den Fokus gestellt werden. Content Curation sollte explizit in die didaktische Gestaltung der Kurse einbezogen werden, so dass die Studierenden zur aktiven Mitarbeit, z. B. durch das Integrieren von persönlich präferierten Lernressourcen, animiert werden. Der große Vorteil der Moodle LXP ist die Wieder- und Weiterverwendung. Schon jetzt kann jeder Dozierende der Hochschule Offenburg die beschriebene Funktionalität nutzen. Da die Funktionen durch PlugIns realisiert sind, können diese zudem anderen Institutionen, die Moodle verwenden, zur Verfügung gestellt werden. Längerfristig könnte die Verwendung einer LXP einen Trend zu mehr Lernendenzentrierung bewirken. Denn eine LXP, die KI-basiert Lerninhalte vorschlägt, fördert das selbständige Lernen. Content Curation als weitere Komponente einer LXP kann diesen Trend verstärken, weil die Lernenden damit von ihnen präferierte Lerninhalte in den Lernprozess der Gruppe einbringen können. In der verbleibenden Zeit bis zum Projektende werden die Module weiter gelehrt und evaluiert. Ebenso wird die LXP weiter ausgebaut. Zudem wird an einer webbasierten interaktiven Lernumgebung AI-Learning gearbeitet, die vor allem aus Übungsaufgaben zu KI-Inhalten besteht. Die Umgebung basiert auf Erfahrungen mit der bereits seit Jahren bereitgestellten Lernumgebung MI-Learning (vgl. Schmidt und Sänger 2011). Die Übungen werden als OER (Open Educational Resources) publiziert und können von Lehrenden in und außerhalb der Hochschule Offenburg zur <?page no="202"?> 202 Claudia Schmidt und Volker Sänger Unterstützung des eigenen Unterrichts genutzt werden. Abbildung 58 zeigt einen Screenshot, in dem in der Leiste oben die verschiedenen angebotenen Kapitel zu zentralen KI-Themenbereichen angezeigt werden. Bei Anwahl eines Kapitels werden in der Leiste links die Unterkapitel dargestellt. Die eigentlichen interaktiven Übungen werden bei Anwahl eines Unterkapitels im Zentrum der Seite angezeigt. Im Beispiel handelt es sich um eine anwendungsorientierte Übungsaufgabe zum Thema Entscheidungsbäume, die durch Drag-and-Drop der Antworten in die passenden Felder gelöst wird. Die Lernanwendung gibt über den Button Check Feedback zur Lösung. Abb. 58: AI-Learning Prototyp (Quelle: Screenshot der Lernplattform mit OER) Generell ist festzustellen, dass sich das Thema KI derzeit rasant weiterentwickelt und voraussichtlich noch an Relevanz zunehmen wird. Vor diesem Hintergrund beschreibt der vorliegende Artikel aktuelle Ansätze zur Einbindung von KI in die Lehre für Medien-Studierende, um sie auf ein durch KI verändertes Berufsleben in der Medienbranche vorzubereiten. KI wird aber in vielen Branchen Einzug halten. Es liegt deshalb nahe, vergleichbare Anstrengungen in anderen Studienbereichen zu unternehmen. Zudem sollten die beschriebenen Ansätze in der Lehre ständig angepasst und erweitert werden, um mit der Entwicklung der KI Schritt zu halten. Danksagung Die Autorin und der Autor danken den Mitarbeitenden des KompiLe-Projekts, deren Mitwirkung die Qualität des vorliegenden Beitrags signifikant beeinflusst hat. Das Engagement und die fachliche Expertise von Katrin Bauer, Michael Canz, Prabin Dahal, Gisela Hillenbrand, Saptadi Nugroho, Daniela Schlemmer und Teresa Sedlmeier waren für die Durchführung des Projekts sowie die Inhalte dieses Beitrags von zentraler Bedeutung. <?page no="203"?> 2.6 KI in der Hochschullehre 203 Literatur Adomavicius, G., & Tuzhilin, A. (2005). Toward the next generation of recommender systems: a survey of the state-of-the-art and possible extensions . IEEE Transactions On Knowledge and Data Engineering. 17, 734-749. Carolus, A., Koch, M., Straka, S., Latoschik, M.-E., & Wienrich, C. (2023). MAILS - Meta AI literacy scale: Development and testing of an AI literacy questionnaire based on well-founded competency models and psychological changeand metacompetencies. Computers in Human Behavior: Artificial Humans , 1, 1-10. Dahal, P., Nugroho, S., Schmidt, C., & Sänger, V. (2023). From LMS to LXP: Extending Moodle with AI-based Recommendations for Learning . The Upper Rhine Artificial Intelligence Symposium, 79-88, Université de Haute-Alsace, France. Dahal, P., Nugroho, S., Schmidt, C., & Sänger, V. (2024). Practical Use of AI-Based Learning Recommendations in Higher Education. In C. Herodotou et al. (Hrsg.), Methodologies and Intelligent Systems for Technology Enhanced Learning, 14th International Conference. MIS4TEL 2024. Lecture Notes in Networks and Systems, Vol. 1171, 57-66, Springer. de Witt, C., Rampelt, F., & Pinkwart, N. (2020). Künstliche Intelligenz in der Hochschulbildung . Whitepaper. Berlin: KI-Campus. EU AI-Act. (2024). Zusammenfassung des AI-Gesetzes auf hoher Ebene . https: / / artificialintelligenceact.eu/ de/ das-gesetz/ . Zugegriffen am 6. Februar 2025 Euler, D. (2014). Design-Research - a paradigm under development. In D. Euler & P. F. E. Sloane (Hrsg.), Design-Based Research. Zeitschrift für Berufs- und Wirtschaftspädagogik , 27, 15-44. Kipp, K. (2018). Exploring the future of the learning management system. International Journal on Innovations in Online Education, 2(2). Knaus, T., & Schmidt, J. (2020). Medienpädagogisches Making. Ein Begründungsversuch. Medienimpulse , 58(4), 1-46. Kröpfl, C., & Geyer, B. (2020). Content Curation im E-Learning. Handbuch E-Learning , 87. Erg.-Lfg. Oktober 2020, S. 1-17, K. Wilsberg. Laupichler, M. C., Aster, A., & Raupach, T. (2023). Evaluating AI Courses: A Valid and Reliable Instrument for Assessing Artificial-Intelligence Learning through Comparative Self-Assessment. Education Science , 13(10). Liu, Y. (2023). An innovative talent training mechanism for maker education in colleges and universities based on the IPSO-BP-enabled technique. Journal Of Innovation & Knowledge , 8(4). Long, D., & Magerko, B. (2021). What is AI Literacy? Competencies and Design Considerations CHI '20, April 25-30, 2020, Honolulu, HI, USA. Malikowski, S.R., Thompson, M.E., & Theis, J.G. (2007). A Model for Research into Course Management Systems: Bridging Technology and Learning Theory. Journal of Educational Computing Research 36(2), 149-173. Maydew, J. (o. J.). Moodle plugins directory: Cards format . Moodle.org. https: / / moodle.org/ plugins/ format_cards. Zugegriffen am 12. Februar 2025 <?page no="204"?> 204 Claudia Schmidt und Volker Sänger Reinmann, G., & Mandl, H. (2006). Unterrichten und Lernumgebungen gestalten. In B. Weidenmann & A. Krapp (Hrsg.), Pädagogische Psychologie (S. 613-658). Springer Verlag. Reinmann, G. (2005). Innovation ohne Forschung? Ein Plädoyer für den Design-Based Research-Ansatz in der Lehr-Lernforschung. Unterrichtswissenschaft , 33, 52- 69. Reinmann, G. (2023). Reader zu Design-Based Research . Hamburg. https: / / gabi-reinmann.de/ wp-content/ uploads/ 2023/ 09/ Reader_DBR_Sept-2023.pdf. Zugegriffen am 12. Februar 2025 Schlemmer, D., Schmidt, C., Bauer, K., Canz, M., Sänger, V., & Sedlmeier, T. (2023). KI-Kompetenz fördern: Pädagogisches Making in der Hochschullehre. Ludwigsburger Beiträge Zur Medienpädagogik , 23, 1-14. Schmidt, C., & Sänger, V. (2011). Fünf Jahre E-Learning in der Informatiklehre - Einsichten und Erkenntnisse. Ludwigsburger Beiträge für Medienpädagogik , 14, 1-8. Schmidt, C., Sänger, V., & Kiebele, M. (2023) Gamification im Software Engineering - Motivation und Lernunterstützung für Studierende. Die Hochschullehre, 9(1), 41- 54. Schmidt, C., Sedlmeier, T., Bauer, K., Canz, M., Schlemmer, D., & Sänger, V. (2025). Förderung von KI-Kompetenz - Lernen mit und über Chatbots in einem Making- Szenario. Zeitschrift für Hochschulentwicklung ZFHE, 19(4). Sedlmeier, T., Schmidt, C., Sänger, V., Bauer, K., Canz, M., Hillenbrand, G., Dahal, P., & Nugroho, S. (2024). Learning Experience durch Content Curation und KI-basierte Lernempfehlungen . Proceedings of DELFI 2024. Gesellschaft für Informatik e.V. Späth, K., Seidl, T., & Heinzel, V. (2019). Verbreitung und Ausgestaltung von Makerspaces an Universitäten in Deutschland. O-Bib. Das Offene Bibliotheksjournal , 6(3), 40-55. Stoller-Schai, D. (2020). Was machen wir mit „Learning Experience Platforms“? eLearning Journal Online , https: / / www.elearning-journal.com/ 2020/ 08/ was-machen-wir-mit-lxp/ . Zugegriffen am 12. Februar 2025 UNESCO (2019). The 2019 UNESCO Recommendation on Open Educational Resources (OER): supporting universal access to information through quality open learning materials, Digital Library. Zhang, Q., Lu, J., & Zhang, G. (2022). Recommender Systems in E-learning. Journal Of Smart Environments and Green Computing , 1, 76-89. Zhou, H., Xiong, F., & Chen, H. (2023). A Comprehensive Survey of Recommender Systems Based on Deep Learning. Applied Sciences, 13(20). <?page no="205"?> 2.7 Überlegungen zum Einfluss generativer KI auf die Zukunft der Lehre Erik Zenner Zusammenfassung Die Auswirkungen der KI-Revolution auf die Lehre in Schule und Hochschulen sind derzeit noch nicht wirklich zu überblicken. Einige grundlegende Trends in der Gestaltung von Prüfungen, der Auswahl von Inhalten und den benötigten Lehrmethoden sind aber bereits erkennbar und sollen in diesem Essay kurz angerissen werden. Keywords: Bloom, Taxonomie, Explainable AI, kognitive Grundlagen, Lehre 2.7.1 Einleitung Vorgeschichte Die Forschung an „künstlicher Intelligenz“ ist fast so alt wie die Forschung an Computern selbst. Schon in den 1940er-Jahren interessierten sich Computerpioniere wie Alan Turing oder John von Neumann für die Frage, ob man eine künstliche Rechenmaschine nutzen könne, um das menschliche Denken besser zu verstehen oder gar eines Tages zu übertreffen. Dennoch konnte die Forschung lange Zeit trotz phasenweiser intensiver Bemühungen nicht genügend Fortschritte vorweisen, um die ambitionierte Bezeichnung „Künstliche Intelligenz“ wirklich zu rechtfertigen. Dies begann sich vor etwa zehn Jahren zu ändern. So gelang es einer KI namens AlphaGo im Jahr 2016, den Go-Großmeister Lee Sedol in einer 5-Runden-Partie zu besiegen (vgl. Wikipedia 2025). Zwar konnte man damals noch darauf verweisen, dass Brettspiele ausgesprochen stark formalisierte Spezialprobleme darstellten und daher kaum eine Relevanz für praktische Probleme hätten, doch schon bald folgten (von der Öffentlichkeit oft noch unbemerkt) Durchbrüche in Bereichen, die als typisch menschliche Tätigkeiten galten, etwa beim Komponieren von Musik. Die öffentliche Wahrnehmung änderte sich aber schlagartig, als Ende des Jahres 2022 das KI-Tool ChatGPT für die weltweite Nutzung freigegeben wurde. Plötzlich konnte jeder sehen, dass die Anwendung in der Lage war, überraschend überzeugend Konversation zu führen. Sie konnte nicht nur die Fragen und Aussagen des Chat-Nutzers korrekt interpretieren, sondern verfügte auch über ein recht weit im Dialog zurückreichendes „Gedächtnis“ und konnte problemlos zwischen verschiedenen Sprachen hin- und herwechseln. Große Aufmerksamkeit weckte außerdem, dass die Anwendung zwar als Chatbot (also mit einem Schwerpunkt auf Kommunikation) entworfen war, aber dennoch manchmal in der Lage war, auch Probleme aus anderen Anwendungsbereichen (etwa dem Schreiben von einfachen Programmen, von Gedichten oder von Melodien) zu lösen. Natürlich fanden findige Nutzer auch genügend Aufgaben, die ChatGPT falsch (aber im Brustton der Überzeugung) löste, aber das änderte nichts an der Erkenntnis, dass <?page no="206"?> 206 Erik Zenner die Büchse der Pandora geöffnet worden war. Und tatsächlich haben diese und ähnliche Anwendungen seither weitere bedeutsame Fortschritte gemacht. Die Zahl der Aufgaben, die mit KI-Tools bearbeitet werden können, ist rapide gestiegen, und die Menge der Fehler, die dabei auftreten, hat deutlich abgenommen. Ausblick In diesem Essay soll ein kurzer Blick auf die Konsequenzen geworfen werden, die das Aufkommen solcher Werkzeuge auf die Lehre in Schulen und Hochschulen hat und wie Lehrende ihnen beim jetzigen Stand der Entwicklung begegnen können. Dabei werden wir uns vor allem mit drei Themenbereichen beschäftigen:  der Auswirkung auf Prüfungen und Prüfungsformen,  der Unsicherheit bezüglich der Inhalte, die künftig vermittelt werden müssen, sowie  den Konsequenzen eines verfrühten Einsatzes technischer Hilfsmittel für die Entwicklung von Problemlösungskompetenz. 2.7.2 Auswirkung auf Prüfungen Wenn man dieser Tage mit Lehrenden über die Auswirkungen Generativer Künstlicher Intelligenz (kurz GenKI) auf die Lehre spricht, kommt häufig als erstes das Thema „Prüfungen“ auf. Die oberste Sorge scheint zu sein, dass viele gängige Prüfungsformen bereits von jetzigen GenKI-Modellen so überzeugend bearbeitet werden können, dass es nicht mehr möglich ist, die Arbeit eines Menschen von der eines Computers zu unterscheiden. Natürlich lösen GenKIs die Aufgaben noch nicht perfekt, aber das tut die überwiegende Mehrzahl der Studierenden ja auch nicht. Das Problem der Hausarbeiten Für Präsenzprüfungen ist das Problem noch überschaubar, weil beim jetzigen Stand der Technik noch eine erhebliche betrügerische Energie erforderlich ist, um beispielsweise in einer Klausur, einem Labor oder gar einer mündlichen Prüfung auf KI-Unterstützung zurückzugreifen. Große Sorgen machen sich aber gerade die Verfechter von Prüfungsformen wie etwa Hausaufgaben oder Semesterprojekten, bei denen die Studierenden ohne Aufsicht über einen längeren Zeitraum an einem Problem arbeiten können und sollen. Denn natürlich hat der Prüfling hier die Möglichkeit, auf technische Hilfsmittel zurückzugreifen, ohne diese anzugeben. Im Unterschied etwa zum klassischen Plagiarismus, der bei einer Prüfung oft nachgewiesen werden kann, ist ein solcher Nachweis beim Einsatz Generativer KI für gewöhnlich nicht möglich. Dies gilt sogar dann, wenn der Prüfende einen Anfangsverdacht hat - es wird ihm schwerfallen, einen echten Beweis zu führen, dass die Arbeit (oder Teile davon) von einer GenKI angefertigt wurde 7 . Das ist umso ärgerlicher, als es gerade solche Formate sind, mit denen tieferes Verständnis, strukturiertes Denken und Problemlösungskompetenz trainiert und ge- 7 Für eine aufschlussreiche und unterhaltsame Darstellung möglicher Probleme beim Versuch, zwischen menschlichem und maschinellem Output zu unterscheiden, sei hier auf Christian (2012) verwiesen. <?page no="207"?> 2.7 Überlegungen zum Einfluss auf die Zukunft der Lehre 207 prüft werden sollen. Hier haben Studierende die Möglichkeit, sich ausführlich mit einer Fragestellung zu beschäftigen, selbstständig zu recherchieren, nachzudenken, Verbindungen zu ziehen, Versuche durchzuführen etc., und am Ende den Gedankengang so darzustellen, dass er schlüssig und für andere nachvollziehbar ist. Man kann sagen: Gerade das (und nicht das Auswendiglernen von Listen oder das Anwenden standardisierter Rechenverfahren) ist das Ziel akademischer Lehre. Und ausgerechnet diese anspruchsvollste aller Prüfungsformen ist nun durch generative KIs bedroht? Blooms Taxonomie Wir betrachten dazu kurz die 1956 von Bloom et al. (vgl. Bloom et al. 1956) vorgeschlagene und 2001 von Anderson und Krathwohl (vgl. Anderson und Krathwohl 2001) überarbeitete Taxonomie der Lernziele, die heutzutage an den meisten Universitäten zur Definition von Curricula und Lehrveranstaltungen herangezogen wird. Die Lernziele bauen grob aufeinander auf (obwohl Ausnahmen möglich sind) und werden üblicherweise wie folgt beschrieben 8 : 1. Erinnern (Remember): erlerntes Wissen wiedergeben ( Teilprozesse: Wiedererkennen, Erinnern ) 2. Verstehen (Understand): Bedeutung aus dem Erlernten konstruieren ( Teilprozesse: Interpretieren, Beispiele geben, Klassifizieren, Zusammenfassen, Ableiten, Vergleichen, Erklären ) 3. Anwenden (Apply): eine (bekannte) Prozedur im konkreten Anwendungsfall einsetzen ( Teilprozesse: Anwendung auf vertraute und unvertraute Aufgabenstellungen ) 4. Analysieren (Analyze): Material in seine Teile zerlegen und die zugrundeliegenden Strukturen erkennen ( Teilprozesse: Wichtige Elemente identifizieren, Strukturen erkennen, Kernpunkte bestimmen ) 5. Evaluieren (Evaluate): Urteile anhand existierender Kriterien fällen ( Teilprozesse: Auf Schwächen/ Fehler prüfen, Nach Kriterien bewerten ) 6. Erschaffen (Create): Elemente zu etwas Neuem zusammensetzen ( Teilprozesse: Arbeitshypothesen aufstellen, Vorgehen planen, Produkt erschaffen ) Dabei gelten die erste drei Stufen der Taxonomie typischerweise als „Grundlagen- und Anwenderkompetenzen“ und als Voraussetzung für die drei fortgeschrittenen Stufen, die den eigentlichen Kern einer akademischen Qualifikation ausmachen sollten. In der Praxis versuchen aber viele Lernende an Schulen und auch an Hochschulen, so weit möglich auf Stufe 1 (Erinnern) und Stufe 3 (Anwenden) zu arbeiten. Schon Stufe 2 (Verstehen) wird häufig weder angestrebt noch erreicht, was vermutlich auch daran liegt, dass sie schon in der Schule kaum ernsthaft eingefordert wird. Gerade die aus Effizienzgründen verbreitete Prüfungsform der Klausur ist eher schlecht geeignet, um ein echtes Verständnis zu überprüfen, zumal für gewöhnlich auch noch wenig Zeit zur Bearbeitung und für Korrektur und Feedback zur Verfügung steht. Stattdessen werden Prüflinge, die zwar nichts verstanden haben, aber die 8 Im Netz kursieren zahlreiche, teilweise irreführende Beschreibungen zu den sechs Stufen der Taxonomie. Insbesondere werden manche Kategorien breiter verstanden, als sie ursprünglich gemeint waren. Die obigen Verben wurden daher direkt aus dem ursprünglichen Text übernommen, um Missverständnissen vorzubeugen. <?page no="208"?> 208 Erik Zenner richtigen Schlagworte zu Papier bringen (Stufe 1), oft mit genügend Teilpunkten versehen, dass es trotzdem noch zum Bestehen reicht. Ärgerlicherweise sind aber gerade „Erinnern“ und „Anwenden“ (insbesondere auf vertraute Aufgabenstellungen) diejenigen Aufgaben, in denen Computer im Allgemeinen und die jetzt aufkommenden GenKI-Modelle im Besonderen dem Menschen überlegen sind. Für Lernende, deren Kompetenzen sich auf diese Bereiche beschränken, besteht also die ernsthafte Gefahr, auf dem Arbeitsmarkt der Zukunft nicht mehr gebraucht zu werden. 2.7.3 Wohin führt der Weg? Schulen, Hochschulen und auch die Lernenden selbst werden sich daher in naher Zukunft umorientieren müssen, wenn sie ihre Existenzberechtigung nicht verlieren wollen. Die Kernfrage wird lauten müssen: Über welche Kompetenzen müssen künftige Absolventen verfügen in einer Welt, in der Generative KIs als allgegenwärtige Hilfsmittel zur Verfügung stehen? Unexplainable AI Natürlich hängt dabei vieles davon ab, welche Aufgaben besagte KIs künftig autonom übernehmen können, und echte Prognosen hierzu sind schwierig. Das liegt nicht nur daran, dass künftige Entwicklungen naturgemäß nur schwer vorhersagbar sind, sondern auch daran, dass schon der jetzige Stand der Entwicklung schwer einzuordnen ist. Die derzeit so erfolgreichen GenKI-Modelle basieren auf Künstlichen Neuronalen Netzen (KNNs), bei denen Milliarden von Parametern durch Training erlernt wurden. Es handelt sich dabei (übrigens genau wie beim menschlichen Gehirn) um ein Emergentes System, also eines, dessen Gesamtverhalten aus dem Verhalten einzelner Teile nicht mehr abgeleitet oder vorhergesagt werden kann. Insbesondere ist sowohl für Experten als auch für das System selbst eine Übersetzung in einen für Menschen verständlichen Algorithmus (also eine schrittweise Beschreibung des Vorgehens) schon aufgrund der schieren Menge und Vernetzung der involvierten Knoten nicht möglich. Auch wenn man in der Presse immer wieder davon liest, wie „die Algorithmen“ (gemeint sind KIs) Entscheidungen treffen: es handelt sich eben nicht um Algorithmen, sondern um komplexe Systeme, die (erneut genau wie das menschliche Gehirn) intern gar nicht nach dem Prinzip eines Algorithmus organisiert sind. Zurück zu Blooms Taxonomie Was am Ende bleibt, ist ein grundlegendes Verständnis der dahinterliegenden Architektur sowie die Beobachtung der Ergebnisse, die die Generative KI liefert. Diese sind aber gar nicht so leicht zu interpretieren. Hat die KI irgendetwas wirklich „verstanden“? Hat sie das Problem wirklich gelöst? Oder präsentiert sie nur eine Lösung, die sie in der Trainingsphase „auswendiggelernt“ hat? So war das Ende 2022 veröffentlichte GPT-3.5 in der Lage, viele Probleme aus dem Bereich „Anwenden“ überraschend gut zu lösen; die Details hingen aber vom Anwendungsgebiet ab. Da das Programm primär als Chatbot konzipiert war, schlug es sich besonders gut bei rein sprachlichen Aufgaben sowie dann, wenn es die Lösung bereits „kannte“, sich diese also unter den Trainingsdaten befunden hatte. War dies nicht der Fall, antwortete das Programm hanebüchenen Unsinn. Und wenn es wäh- <?page no="209"?> 2.7 Überlegungen zum Einfluss auf die Zukunft der Lehre 209 rend des Trainings auf mehrere Lösungen für das gleiche Problem gestoßen war, war es nicht in der Lage, zwischen einer guten und einer schlechten Antwort zu unterscheiden - es riet einfach, und wenn es dabei ertappt wurde, probierte es eine andere der „auswendig gelernten“ Antworten. Neuere Versionen haben sich seither an vielen Stellen verbessert. So liefern GenKIs mittlerweile häufig erstaunlich brauchbare Antworten, wenn es um Rechenaufgaben und kürzere Codefragmente geht. Und bekanntlich schaffen sie es auch, Texte sinnvoll zusammenzufassen - eine Tätigkeit, die in der Taxonomie schon auf Stufe 4: „Analyse“ anzusiedeln ist, weil dazu unterschieden werden muss, was wichtig ist und was nicht. Ja, es gibt sogar KIs, die Lieder komponieren oder Bilder zeichnen, was sogar schon auf Stufe 6: „Erschaffen“ eingeordnet werden kann. Natürlich lassen sich immer noch Fehler finden (auch wenn deren Zahl in nur wenigen Jahren schon dramatisch geringer geworden ist), und die Ergebnisse reichen auch noch nicht an die Werke wirklicher Könner ihres Fachs heran. Trotzdem muss man konstatieren, dass sie an vielen Stellen für den Alltagsgebrauch ausreichen. Das Nachdenken darüber, wieso das möglich ist, obwohl eine Generative KI ein rein stochastisches System ist, das nicht versteht, was und warum es da tut, wirft interessante Fragen nach der Natur des menschlichen Denkens auf. Wenn Denken das ist, was man sich immer darunter vorgestellt hat, wie kann es dann sein, dass es uns derart schwerfällt, das „Output“ eines echten Menschen von dem eines stochastischen Systems zu unterscheiden, das keinerlei Verständnis davon hat, worum es sich bei den Objekten der Aufgabe handelt und wie sie miteinander in Beziehung stehen? Kann es sein, dass wir ein allzu idealistisches Bild von menschlichem Denken, von Bewusstsein oder freiem Willen haben? Solche und ähnliche Fragen werden Philosophen und Kognitionsforscher sicherlich noch lange beschäftigen, und hier soll auch nicht versucht werden, sie zu beantworten. Für die Lehre wird aber eine wichtige Frage sein, wie wir besser werden können darin, ein tatsächliches Verständnis der Inhalte abzuprüfen - und auch, was das für all diejenigen Lernenden bedeutet, die ein solches Verständnis schon heute nicht mitbringen, sondern sich auf Auswendiglernen und das Lösen von Routineaufgaben beschränken. Die Rückkehr des Fachgesprächs In der Praxis beobachten wir schon jetzt, dass in vielen Veranstaltungen die Prüfungsform „Hausarbeit“ so abgeändert wurde, dass das Ergebnis auch in einem Fachgespräch verteidigt werden muss. Genau genommen wäre dieser Schritt schon lange vor dem Aufkommen Generativer KIs sinnvoll gewesen, denn auch vorher hatten Schüler und Studierende schon die Möglichkeit, sich Unterstützung bei der großen Schwester oder bei einem bezahlten Ghostwriter zu holen. Die Existenz von GenKIs demokratisiert diese Form des Mogelns nur - jetzt kann sich jeder seinen persönlichen Ghostwriter leisten, ohne dafür tausende Euro hinblättern zu müssen. Das Aufkommen solcher Fachgespräche wird die Kultur in verschiedenen Wissenschaftsbereichen in unterschiedlichem Ausmaß verändern. Während sie etwa in den diskussionslastigen Geisteswissenschaften ohnehin verbreitet waren, sind sie in manch anderer Fachdisziplin ungewohntes Terrain und stellen nicht nur ein Problem für die Prüfer dar, sondern auch für introvertierte Lernende und für all diejenigen, die in jeder Rückfrage einen Angriff sehen und dadurch verunsichert werden (vgl. Dweck 2006). <?page no="210"?> 210 Erik Zenner 2.7.4 Problemlösendes Denken Ein Aufgabenbereich, der wohl zumindest in der näheren Zukunft noch dem Menschen vorbehalten bleiben wird, ist das problemlösende Denken (vgl. Robertson 2017). Dabei wird gemeinhin (u. a. auch in Blooms Taxonomie) unterschieden zwischen dem Lösen einfacher Routineprobleme (Simple Problem Solving, SPS) und dem Lösen anspruchsvoller, für gewöhnlich neuer Probleme (Complex Problem Solving, CPS), siehe z. B. (vgl. Frensch und Funcke 1995). Für diese Diskussion ist natürlich vor allem das Lösen komplexer Probleme von Interesse, weil gerade das Lösen von Routineproblemen in Zukunft wohl kein Arbeitsgebiet von Akademikern mehr darstellen wird. Kognitive Grundlagen Eine zentrale Rolle beim Problemlösen spielt das Arbeitsgedächtnis (engl. Working Memory (vgl. Pribram et al. 1960)), in dem Informationen kurzzeitig gespeichert werden, mit denen das Gehirn aktuell arbeitet. Man geht dabei davon aus, dass es nur eine äußerst begrenzte Zahl von Informationseinheiten (Chunks genannt) gleichzeitig speichern kann. Eine frühe Untersuchung (vgl. Miller 1956) etablierte die „magische Zahl 7“, nach der es sich um 7±2 Chunks handelt; neuere Ergebnisse lassen vermuten, dass die Zahl sogar noch geringer ist (vgl. Cowan 2001). Das wirft sofort die Frage auf, wie man mit derart wenigen Informationseinheiten überhaupt denken kann. Die Antwort ist: Ein Chunk kann durchaus unterschiedlich komplex sein, je nachdem, wie er im Langzeitgedächtnis gespeichert ist. So könnte ein Chunk eine einzelne Zahl sein, es könnte aber auch ein ganzer Block von Zahlen sein, die man sich zusammenhängend eingeprägt hat („0781 ist die Vorwahl von Offenburg“). Chunks können auch unterschiedlicher Natur sein. Es kann sich um einzelne Elemente wie Zahlen, Buchstaben oder Personen handeln, aber auch um komplexe Konstellationen oder Vorgehensweisen, die der Problemlöser so gut geübt hat, dass sie solide in seinem Langzeitgedächtnis verankert sind. So ist etwa ein guter Schachspieler einem Anfänger nicht etwa deshalb überlegen, weil er ein besseres Arbeitsgedächtnis hat, mit dem er mehr Züge vorausberechnen könnte 9 . Er hat vielmehr im Laufe der Zeit viele Spielstellungen und Zugkombinationen erlebt und in seinem Langzeitgedächtnis abgespeichert, so dass er bei Bedarf einfach darauf zugreifen kann und sie nicht (wie der Anfänger) erst neu durchdenken und bewerten muss. Konsequenzen für die Lehre Für das Lösen komplexer Probleme bedeutet das, dass das Arbeitsgedächtnis umso leistungsfähiger ist, je mehr grundlegende Routinen der Problemlöser bereits bearbeitet und so sehr automatisiert hat, dass sie Teil seines Langzeitgedächtnisses geworden sind. Diese kann er dann aktivieren, wenn er Lösungen für neue Probleme sucht, kreative Werke erschafft etc. Und hier führt gerade die frühe Nutzung von Technologie in der Lehre zu einem Problem: Wenn sich Schüler oder Studierende frühzeitig angewöhnen, Lösungen für 9 Es gibt zwar Unterschiede in der Größe des Arbeitsgedächtnisses, aber diese sind eher marginal. <?page no="211"?> 2.7 Überlegungen zum Einfluss auf die Zukunft der Lehre 211 „elementare“ Probleme nicht selbst zu verstehen und zu beherrschen, sondern über Hilfsmittel wie eben Generative KIs zu bewältigen, dann werden die notwendigen Grundlagenstrukturen im eigenen Gehirn gar nicht mehr angelegt. Die Hirnforschung der letzten Jahrzehnte zeigt, dass es zum Lernen unabdingbar ist, dass man sich aktiv mit dem Stoff beschäftigt (vgl. Dehaene 2021). Es genügt nicht, in einer Vorlesung zu sitzen oder einem Vortrag zu lauschen. Und natürlich genügt es auch nicht, Wissen oder Abläufe bei Bedarf von einem externen Tool lösen lassen zu können. Wer bereits frühzeitig im Lehrprozess eine Aufgabe lösen lässt , statt sie selbst zu lösen, hat zwar eine Strategie für diese Aufgabe gefunden, aber er bleibt dabei auf externe Hilfsmittel angewiesen. Dies gilt für Faktenwissen („Molekularstruktur von Alkohol? Das schlage ich einfach auf Wikipedia nach! “) genauso wie für Abläufe („Ein C-Programm zum Berechnen des diskreten Logarithmus? Das lasse ich mir von Chat-GPT ausgeben! “). Beides wäre an und für sich auch kein Problem, wenn alle Probleme diese Gestalt hätten. Sobald die Probleme aber komplexer werden, scheitert die Strategie, weil man zu ihrer Lösung verschiedene Lösungsbausteine kombinieren, bewerten und im Geiste neu zusammensetzen muss. Dieser Prozess setzt aber voraus, dass man von der Existenz dieser Lösungsbausteine weiß und sie so gut beherrscht, dass sie bei Bedarf einfach aktiviert werden können. Training und Anwendung Leider ist das vielen Lernenden nicht bewusst. Sie sehen eine Aufgabenstellung („Lesen Sie den Text und fassen Sie ihn zusammen“) und eine naheliegende Lösungsmöglichkeit („ChatGPT, erstelle mir eine Zusammenfassung in maximal 300 Worten“) und nutzen diese. Dabei wird übersehen, dass es einen Unterschied zwischen Trainings- und Anwendungsszenarien gibt. Im Unterricht nutze ich selbst dazu gerne Beispiele aus der physischen Welt. Wenn man etwa in einem Fußballverein spielt und im Training vom Parkplatz zum Stadion laufen soll, dann nutzt man dazu ja auch nicht den E-Scooter. Den meisten Menschen ist bewusst, dass es hier nicht darum geht, die Aufgabe „irgendwie zum Stadion kommen“ so aufwandsarm wie möglich zu lösen, sondern dass es eigentlich darum geht, eine Fähigkeit („schnell laufen“) zu trainieren, damit man sie für die eigentliche Anwendung („am Sonntag das Spiel gewinnen“) einsetzen kann. Im Schul- und Hochschulkontext ist dieses Bewusstsein aber oft gar nicht vorhanden. Da der Fokus hier oft auf den Ergebnissen liegt („Prüfung bestehen“), gerät das eigentliche Ziel der Lehre („Kompetenzen aufbauen“) aus dem Blick. Und solange das so ist, werden Schüler und Studierende auch Hilfsmittel wie Generative KIs benutzen, um das Ergebnis möglichst schnell zu erreichen. 2.7.5 Was tun? Wie so häufig sind die Probleme, die oben angesprochen wurden, nicht neu. Sie ziehen sich eigentlich schon seit langem durch die Lehre, wurden aber zumindest im Massenbetrieb so lange ignoriert, bis es wirklich nicht mehr vermeidbar war, sich damit zu beschäftigen. Dieser Punkt scheint jetzt erreicht: Die Realität Generativer <?page no="212"?> 212 Erik Zenner KIs zwingt uns, vieles zu hinterfragen, was eigentlich schon längst hätte hinterfragt werden müssen:  Wie kann es gelingen, bei Lernenden ein Bewusstsein dafür zu schaffen, worum es beim Lernen eigentlich geht?  Wie muss unterrichtet werden, um tatsächliche Handlungs- und Problemlösungskompetenzen sowie Resilienz aufzubauen?  Ab welchem Zeitpunkt bzw. für welche Szenarien im Lernprozess ist der Einsatz von technischen Hilfsmitteln - von Taschenrechnern über Tablets bis zu Generativer KI - wirklich sinnvoll, und wo ist er sogar schädlich?  Wie kann man Prüfungen so gestalten, dass das abgeprüft wird, was wirklich gelernt werden sollte, und nicht das, was eben leicht abzuprüfen ist?  Wie will man mit denjenigen Lernenden umgehen, die sich weiterhin auf Stufe 1 (Erinnern) und 3 (Anwenden) von Blooms Taxonomie beschränken? Mögliche Antworten darauf werden teilweise schon seit Jahrzehnten in Pädagogik, kognitiver Psychologie und Neurowissenschaft diskutiert (vgl. etwa Oakley et al. 2021; Dehaene 2021). Von einer konsequenten Umsetzung sind die meisten Schulen und Hochschulen aber noch sehr weit entfernt. Die derzeitigen Strukturen im Bildungswesen sind vielmehr darauf ausgelegt, möglichst viele Lernende mit einer möglichst großen Stoffmenge zu „versorgen“. Beides ist aber im Interesse eines echten Kompetenzerwerbs eher kontraproduktiv. Überhaupt wird die Frage, welche Kompetenzen am Ende dieses Weges wirklich erreicht wurden, gar nicht gestellt. Sie ist auch schwer zu beantworten, weil sie (im Gegensatz zu Kennzahlen wie „Anzahl Absolventen“ oder „Abbrecherquote“) nicht gut in Zahlen messbar ist. In einer Welt, in der Generative KIs künftig die Mehrzahl der Routineaufgaben übernehmen und nur in echter Problemlösungskompetenz noch eine „Nische“ für echte Menschen auf dem Arbeitsmarkt ist, wird man aber nicht mehr umhinkommen, sie in den Mittelpunkt zu stellen, wenn man den Bildungsauftrag weiterhin ernst nehmen will. Literatur Anderson, L.W., & Krathwohl, D.R. (2001). A taxonomy for learning, teaching, and assessing: A revision of Bloom's taxonomy of educational objectives . Longman. Bloom, B., Englehart, M., Furst, E., Hill, W., & Krathwohl, D. (1956). Taxonomy of educational objectives: The classification of educational goals. Handbook I: The cognitive domain. David McKay Co Inc. Christian, B. (2012). The most human human . Penguin Books. Cowan, N. (2001). The magical number 4 in short-term memory: A reconsideration of mental storage capacity. Behavioral and Brain Sciences, 24(1), 87-114. Dehaene, S. (2021). How we learn . Penguin Books. Dweck, C. (2006). Mindset . Random House. Frensch, P.A., & Funcke, J. (1995). Complex problem solving ‒ The european perspective. Psychology Press. <?page no="213"?> 2.7 Überlegungen zum Einfluss auf die Zukunft der Lehre 213 Miller, G. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information . Psychological Review, 63(2), 81-97. Oakley, B., Rogowsky, B., & Sejnowski, T.J. (2021). Uncommon sense teaching . TarcherPerigree. Pribram, K., Miller, G., & Galanter, E. (1960). Plans and the structure of behavior . Holt, Rinehart and Winston. Robertson, S. (2017). Problem solving (2. Aufl.). Routledge. Wikipedia (2025). AlphaGo vs. Lee Sedol . https: / / en.wikipedia.org/ wiki/ AlphaGo_ versus_Lee_Sedol. Zugegriffen am 9. März 2025 <?page no="215"?> Ulrich Frefat Zusammenfassung Der Artikel diskutiert Chancen und Herausforderungen von Künstlicher Intelligenz im Musikunterricht. Neben Potenzialen für kreative Prozesse und personalisiertes Lernen werden didaktische, ethische und bildungspolitische Aspekte in den Fokus genommen. Weiterhin beleuchtet er mögliche Einflüsse künstlicher Intelligenz auf die Rolle der Lehrkraft sowie musikalische Eigenleistungen und kreative Entscheidungsprozesse, um eine reflektierte Integration von KI in die Praxis des Musikunterrichts zu fördern. Keywords: Musikunterricht, didaktische Strategien, Schule 2.8.1 Einleitung ‒ Eine Revolution mit offenen Fragen? Als Musiklehrer, Orchesterleiter und Fachleiter am Studienseminar im Fach Musik begegne ich in verschiedenen Kontexten den Herausforderungen und Potenzialen von KI im Musikunterricht. In den letzten Jahren habe ich zunehmend erlebt, wie KIgestützte Anwendungen Einzug in die musikalische Praxis hielten - von KI-Kompositions-Software wie Suno und AIVA bis hin zu Analyse- und Transkriptions-Tools wie Moises. Diese Entwicklungen werfen wesentliche Fragen auf: Inwieweit kann KI kreatives Arbeiten bereichern? Wie verändert KI die didaktische Rolle der Lehrkraft? Welche Auswirkungen hat sie auf musikpraktische Fertigkeiten? Und welche didaktischen Strategien sind notwendig, um KI nicht als bloßen Ersatz, sondern vielmehr als Unterstützung künstlerischer Prozesse nutzbar zu gestalten? Eine differenzierte Betrachtung der Rolle von KI im Musikunterricht lässt sich durch fünf Perspektiven strukturieren (vgl. Falck 2024): Lernen mit KI beschreibt den Einsatz als Hilfsmittel für musikalische Aufgaben, während Lernen durch KI Reflexion und kreative Entscheidungen durch algorithmische Rückmeldungen fördert. Lernen über KI stärkt das kritische Bewusstsein für algorithmische Kompositionen und deren Grenzen, insbesondere im Hinblick auf künstlerische Authentizität. Demgegenüber stehen Lernen trotz KI, das den bewussten Verzicht auf KI zur Wahrung handwerklicher Fertigkeiten betont, und Lernen ohne KI, das traditionelle Notations- und Analyseverfahren als zentrale Kompetenzbereiche enthält. Letzteres betont besonders das gemeinsame Musizieren als soziale Praxis, in der ästhetische Erfahrung, Interaktion und kreatives Handeln unmittelbarer verbunden sind. Das Wechselspiel zwischen praktischem Tun und Reflexion stellt eine elementare didaktische Strategie dar, die musikalisches Verständnis vertieft. Auch wenn der kreative Umgang mit KI neue ästhetische Erfahrungsräume eröffnen kann, ist ästhetische Erfahrung nicht planbar und kann nicht durch algorithmische Modelle ersetzt werden, sondern entsteht in offenen, explorativen Unterrichtssettings. Musik bleibt ein kollektives Erleb- 2.8 Musik und KI in der Schule Chancen, Risiken und didaktische Strategien <?page no="216"?> 216 Ulrich Frefat nis, das soziale und kulturelle Teilhabe fördert und nicht durch digitale Technologien substituiert werden kann. Je nach Unterrichtsziel lassen sich diese fünf Perspektiven gezielt kombinieren, um eine reflektierte und ausbalancierte Nutzung der Technologie zu gewährleisten (vgl. Rotsch und Werner 2025). Zunächst eine grundlegende Annahme: Die Implementierung KI-gestützter Systeme kann das traditionelle Rollenverständnis von Lehrkräften beeinflussen, die folglich mehr und mehr als Moderierende kreativer Prozesse agieren. Neben methodischdidaktischen Fragen werden hier insbesondere ethische und urheberrechtliche Aspekte relevant (vgl. BPB 2024). Die Integration von KI in den Musikunterricht ermöglicht Gestaltungsprozesse, interaktive Lernformate und individualisierte Lernwege, indem sie sowohl als musikalisches Werkzeug als auch als digitales Gegenüber dient, mit dem Schülerinnen und Schüler experimentieren und künstlerisch arbeiten können. KI eröffnet neue kreative Möglichkeiten, gleichzeitig bestehen Risiken von Standardisierung musikalischer Ausdrucksformen. Algorithmen können innovativ kreative Prozesse anregen, jedoch besteht die Gefahr, dass Schülerinnen und Schüler generierte Inhalte unkritisch übernehmen, anstatt sie etwa als Ausgangsbasis zu nehmen, um auf ihnen aufbauend eigenständig musikalische Entscheidungen zu treffen und somit wichtige musikalische Kompetenzen zu schulen. Während im Bereich der KI-generierten Bilder bereits verstärkt reflektiert wird, welche ästhetischen Muster sich wiederholen oder welche Verzerrungen durch Trainingsdaten entstehen, steht eine vergleichbare Diskussionsgrundlage zu KI-generierter Musik noch in den Anfängen. Dies liegt auch daran, dass visuelle KI-Ergebnisse leichter vergleichend untersucht werden können, während musikalische Strukturen oft komplexer und weniger offensichtlich zu analysieren sind. Umso wichtiger ist es, dass Schülerinnen und Schüler gezielt in aktive Reflexionsprozesse einbezogen werden, um eigene musikalische Entscheidungen bewusst zu treffen. Ein ausgewogenes Verhältnis zwischen technologischer Unterstützung und bewährten musikpädagogischen Prinzipien herzustellen, ist daher essenziell und vielleicht sogar eine der wichtigsten Aufgaben der Lehrkraft im Hinblick einer Einbeziehung von KI in den Unterricht. Erste KI-Anwendungen im Musikunterricht umfassen Kompositionsprogramme, Analysewerkzeuge zur Erkennung musikalischer Strukturen sowie automatisierte Transkriptions-Software. Da diese Technologien tendenziell eher leicht zugänglich sind, eröffnen sie für Schülerinnen und Schüler neue kreative Perspektiven, bringen aber zugleich auch die bereits erwähnten Herausforderungen mit sich, insbesondere hinsichtlich einer pädagogisch gewünschten Eigenständigkeit im kreativen Schaffen der Schülerinnen und Schüler. Mit Tools wie Suno lassen sich beispielsweise Songs generieren, deren Struktur anschließend mit Programmen wie Moises analysiert werden kann. Durch eine Trennung von Spuren und Harmonien entstehen neue Möglichkeiten für Playbacks, Arrangements und die Entwicklung eigener Musiziersätze. Dabei zeigt sich, dass KI nicht nur als Werkzeug zur Musikproduktion, sondern auch als Impulsgeber für analytische und kreative Prozesse dienen kann. Eine detaillierte Betrachtung der genannten Anwendungen erfolgt in den folgenden Kapiteln. Eine Untersuchung von Rotsch und Werner (2025) zeigt, dass KI-Software komplexe Analysen ermöglicht und zudem niederschwellige kreative Prozesse fördern kann. Gleichzeitig ist gegenüber einer vermeintlichen „Perfektion“ KI-generierter Musik Skepsis angebracht, da algorithmisch erzeugte Muster individuelle musikalische Handschriften verdrängen könnten. <?page no="217"?> 2.8 Musik und KI in der Schule 217 Mit einem Blick auf die gegenwärtige Forschungslage wird deutlich: eine wissenschaftliche Auseinandersetzung mit KI im Musikunterricht steckt derzeit noch in ihren Anfängen. Neben der Analyse der Auswirkungen auf das Lernverhalten rückt die Frage in den Fokus, wie Schülerinnen und Schüler zwischen eigener und KI-generierter Musik unterscheiden lernen und welche musikpraktischen sowie reflexiven Kompetenzen hierfür erforderlich sind (vgl. Torrau und Köhler 2024). Wie können wiederum Lehrkräfte kritische Reflexionsprozesse über den kreativen Einsatz von KI in den Unterricht integrieren? Ein zentrales Ziel des vorliegenden Beitrags ist es, darzulegen, wie KI von möglichst allen Beteiligten bewusst und reflektiert im Musikunterricht genutzt werden kann, ohne die individuelle künstlerische Gestaltungskompetenz der Lernenden zu untergraben. Es wird gezeigt, dass ein nachhaltiger Umgang sowohl technisches Wissen als auch eine fundierte musikpädagogische Didaktik erfordert, um KI im Musikunterricht als kreativen Impulsgeber, statt als Ersatz für künstlerische Eigenleistungen zu nutzen. 2.8.2 Vom Lehrassistenten bis zur kreativen Partnerin ‒ KI in der Schule KI kann zahlreiche administrative Prozesse in schulischen Kontexten effizienter gestalten: Stundenpläne können automatisiert erstellt, Unterrichtsräume und Materialien optimal koordiniert und kurzfristige Vertretungen zügig organisiert werden. Auch die Kommunikation zwischen Lehrkräften, Schülerinnen und Schülern und Eltern wird durch KI-gestützte Systeme erleichtert: Terminabsprachen und administrative Anfragen können automatisiert bearbeitet und E-Mails gefiltert werden. Neben diesen administrativen Entlastungsmöglichkeiten stellt sich die Frage, inwiefern KI auch direkt die inhaltliche und didaktische Unterrichtsgestaltung unterstützen kann - als Werkzeug, nicht als Ersatz für pädagogische Expertise (vgl. BPB 2024). Der Einsatz von KI zur Unterrichtsvor- und -nachbereitung eröffnet vielfältige Möglichkeiten zur Entlastung von Lehrkräften und auch zur besseren individuellen Förderung von Schülerinnen und Schülern. KI-gestützte Systeme ermöglichen eine automatisierte Erstellung oder Anpassung von Unterrichtsmaterialien, Differenzierung von Aufgabenstellungen sowie eine effiziente Unterstützung bei der Planung von Unterrichtssequenzen. Insbesondere Programme wie Quillionz oder Quizizz AI generieren auf Basis weniger Eingaben Arbeitsblätter, Lückentexte oder Quizformate und passen diese an verschiedene Lernniveaus an. Diese Funktionalitäten bieten auch im Musikunterricht großes Potenzial, beispielsweise bei der Konzeption von Kompositionsaufgaben oder musiktheoretischen Übungen. Automatisierte Korrekturhilfen wie Scribo AI analysieren Schülertexte hinsichtlich Grammatik, Stil und Struktur und geben individualisierte Rückmeldungen. Während solche Tools zwar formale Aspekte effizient bewerten, bleibt die inhaltliche Prüfung durch Lehrkräfte essenziell, um kreative und musikalische Eigenleistung angemessen zu würdigen (vgl. Knof 2024). Beispiele für KI-gestützte Feedbackplattformen sind fello.fish und fobizz, die ich in meinem Unterricht einsetze. Die Rückmeldungen zu kreativen und künstlerischen Texten sind fundiert und hilfreich, weisen jedoch noch Unschärfen auf; bei musikalischen Interpretationen zeigt sich, dass KI-Analyse-Tools Schwierigkeiten haben, <?page no="218"?> 218 Ulrich Frefat unkonventionelle, aber in sich (für Menschen) schlüssige Lösungen adäquat zu bewerten. Während formale Aspekte zuverlässig analysiert werden, bleibt die Beurteilung des Kreativen für KI anscheinend eine Herausforderung. Dies verdeutlicht, dass KI als unterstützendes Werkzeug fungieren kann, die kritische Reflexion durch Lehrkräfte jedoch unverzichtbar bleibt. Ein besonderer Vorteil in der Arbeit mit KI liegt in adaptiver Differenzierung. Während herkömmliche Materialien meist für eine gesamte Lerngruppe konzipiert sind, ermöglichen KI-Modelle mittlerweile eine wesentlich arbeitseffizientere individuelle Anpassung. Anwendungen wie MagicSchool.ai oder Fobizz generieren passgenaue Aufgabenstellungen und bieten gezielte Hilfestellungen. Besonders im Musikunterricht, wo Schülerinnen und Schüler unterschiedliche Vorkenntnisse in den Bereichen Notenlehre, Gehörbildung oder Musiktheorie mitbringen, kann diese digitale Flexibilität sinnvoll eingesetzt werden. Trotz dieser Vorteile bleibt die didaktische Kontrolle essenziell. Eine unkritische Übernahme KI-generierter Inhalte birgt das Risiko, dass Schülerinnen und Schüler in eine passive Konsumhaltung geraten, indem sie Lösungen lediglich übernehmen, ohne die zugrundeliegenden musikalischen Strukturen oder theoretischen Konzepte eigenständig zu hinterfragen. Statt analytisch zu denken und kreative Entscheidungen zu treffen, könnten sie sich zunehmend auf vorgefertigte Muster verlassen, wodurch sowohl ihr musikalisches Urteilsvermögen als auch ihre Fähigkeit zur eigenständigen Gestaltung beeinträchtigt werden (vgl. Rotsch und Werner 2025). Bei der Erstellung differenzierter Materialien zeigt sich wiederum, dass KI zwar eine enorme Unterstützung bieten kann, jedoch nicht ohne fachliche Überprüfung eingesetzt werden sollte: So werden Inhalte - meist intransparent für die Anwendenden - anders gewichtet als beabsichtigt oder Phänomene einbezogen, die nicht zur geplanten didaktischen Reduktion passen. Ein Beispiel hierfür ist die Analyse von Musikstücken: Eine KI kann eine harmonische Beschreibung generieren, die jedoch Akkorde oder Begriffe enthält, die die Schüler noch nicht kennen - etwa eine Kadenz mit Septakkorden, obwohl erst Dreiklänge behandelt wurden. Dies verdeutlicht, dass KI (noch) keine vollständige Automatisierung der Unterrichtsgestaltung ermöglicht, sondern eine reflektierte und aktive Steuerung durch die Lehrkraft erfordert. Die eigene Expertise bleibt essenziell, um sicherzustellen, dass die generierten Materialien inhaltlich korrekt, methodisch sinnvoll und auf die jeweilige Lerngruppe abgestimmt sind. Neben der Materialgenerierung kann KI auch die Unterrichtsplanung unterstützen. KI-Assistenzsysteme strukturieren auf Wunsch Unterrichtssequenzen, entwerfen Jahrespläne und erstellen Prüfungsfragen inklusive Erwartungshorizonte. Zudem ermöglichen vermehrt spezialisierte KI-gestützte Verlagsplattformen den Zugriff auf curricular geprüfte Inhalte und erleichtern so die Auswahl passender Methoden. Erneut das Credo: Auch hier bleibt die didaktische Verantwortung bei den Lehrkräften. So kann eine KI Vorschläge machen, doch die Unterrichtsgestaltung erfordert immer pädagogisches Urteilsvermögen, auch über den Unterrichtsgegenstand hinaus. Entscheidend ist, dass letztlich die Lehrkräfte KI-generierte Inhalte kritisch bewerten und Schülerinnen und Schüler zu einem reflektierten, eigenständigen Lernprozess anleiten (vgl. BPB 2024). Einen besonderen Mehrwert bietet KI in der Gestaltung interaktiver und adaptiver Lernformate. So ermöglichen KI-gestützte Simulationen Rollenspiele, in denen Schü- <?page no="219"?> 2.8 Musik und KI in der Schule 219 lerinnen und Schüler mit virtuellen Charakteren interagieren oder musikhistorische Figuren beispielsweise zu ihren Werken und Kompositionsverfahren befragen. Solche interaktiven Ansätze können das Verständnis für musikalische Strukturen spielerisch vertiefen und bieten einen niederschwelligen Zugang zu komplexen Fachthemen. Gleichzeitig erfordert ihr Einsatz wiederum eine reflektierte didaktische Steuerung: Musik ist eine ästhetische Dimension menschlichen Erlebens und Handelns, die sich nicht allein durch technische Analyseverfahren oder komplexe Bewertungssysteme auf Basis künstlicher Intelligenz erfassen lässt. KI-gestützte Assistenzsysteme eröffnen weitreichende Möglichkeiten für die Unterrichtsvorbereitung und individuelle Förderung. Sie erleichtern die Differenzierung von Aufgaben, unterstützen die sprachliche Anpassung von Materialien und ermöglichen die visuelle Aufbereitung komplexer Inhalte. Besonders in heterogenen Lerngruppen kann KI dazu beitragen, Lernangebote an verschiedene Niveaus anzupassen. Eine Schlüsselkompetenz für Lehrkräfte, um KI in schulischen Kontexten hilfreich einzusetzen, ist das Prompting - die Fähigkeit, durch gezielte Eingaben die Qualität und Relevanz von KI-Ausgaben zu steuern. Um die Technologie gezielt steuern zu können, ist eine entsprechende Schulung der Lehrkräfte essenziell: Studien zeigen, dass die Aussagekraft KI-generierter Inhalte maßgeblich von der Präzision der Eingabeaufforderungen abhängt (vgl. Rotsch und Werner 2025). Lehrkräfte sollten daher gezielt Operatoren wie „analysiere“, „vergleiche“ oder „bewerte“ nutzen und ausreichend Kontext bereitstellen, um didaktisch wertvolle Ergebnisse zu erhalten. Gleichzeitig erfordert die stetige Weiterentwicklung von KI-Systemen eine kontinuierliche Anpassung der Prompting-Techniken, damit ihr Potenzial bestmöglich für die Unterrichtsgestaltung genutzt werden kann. Weitere Potenziale liegen in der Gestaltung multimedialer Lehrmaterialien. So erleichtern etwa automatische Übersetzungen die Integration von Schülerinnen und Schülern mit nicht-deutscher Erstsprache, während KI-Bildgeneratoren zur Visualisierung musikalischer Strukturen beitragen. Ein Beispiel hierfür ist die Nutzung von DALL-E zur Darstellung der dynamischen Steigerung in der Einleitung von Richard Strauss’ „Also sprach Zarathustra“. Hier kann die KI ein Bild erzeugen, das den orchestralen Aufbau von den tiefen, dunklen Basstönen bis hin zum strahlenden Tutti- Akkord veranschaulicht. Durch farbliche Intensitätsabstufungen wird nicht nur die musikalische Struktur sichtbar gemacht, sondern auch die dramaturgische Spannung und die erhabene, fast kosmische Stimmung dieser Passage eingefangen. Solche Visualisierungen können helfen, abstrakte musikalische Prozesse greifbarer zu machen und Schülerinnen und Schüler einen synästhetischen Zugang zur Musik zu ermöglichen. Zunehmend werden KI-Tools auch in Verlagsplattformen integriert, wodurch Lehrkräfte datenschutzkonform auf curriculare Inhalte abgestimmte KI-gestützte Materialien nutzen können. 2.8.3 Musik und Maschine ‒ Wie KI den Unterricht bereichern kann KI-Technologien eröffnen neue Möglichkeiten für den Musikunterricht: Von der Analyse musikalischer Strukturen über interaktive Kompositionsprozesse bis hin zur digitalen Simulation historischer Musikstile. Entscheidend ist dabei eine reflektierte Auseinandersetzung mit den technologischen Möglichkeiten, um KI nicht nur rezeptiv zu nutzen, sondern als kreativen Impulsgeber zu begreifen. Eine systematische <?page no="220"?> 220 Ulrich Frefat Herangehensweise an den KI-Einsatz im Musikunterricht bietet das Modell des KI- Würfels (vgl. Krämer und Hecht 2024). Dieses Modell strukturiert KI-Anwendungen entlang verschiedener Phasen des Lehrens - von der Unterrichtsplanung über die Durchführung bis zur Reflexion - und unterscheidet zwischen kognitiven, kreativen und sozialen Anwendungsbereichen. Besonders für den Musikunterricht relevant ist die Möglichkeit, KI nicht nur zur Analyse, sondern auch zur kreativen Erweiterung musikalischer Prozesse zu nutzen. Ein Schwerpunkt der Integration von KI liegt derzeit in der Nutzung als „interaktiver Lernpartner“: Maschinelle Lernmodelle ermöglichen es Schülerinnen und Schülern, eigene Kompositionsansätze mit KI-generierten Vorschlägen zu vergleichen und ihre musikalischen Entscheidungen zu reflektieren. Forschungsergebnisse (vgl. Knof 2024) zeigen, dass solche explorativen Prozesse ein tieferes Verständnis für musikalische Strukturen und stilistische Eigenheiten fördern. Darüber hinaus bieten KI-gestützte Anwendungen wie Moises.ai oder PlayScore 2 neue Möglichkeiten der Musikanalyse, indem sie Spuren trennen, Harmonien extrahieren und digitale Transkriptionen erstellen. Besonders innovativ ist der Einsatz von KI in musikpädagogischen Rollenspielen und Simulationen. Schülerinnen und Schüler können mit einer KI interagieren, die auf historischen Kompositionsstilen oder biografischen Daten realer Komponistinnen oder Komponisten basiert, etwa für szenische Interviews mit Beethoven oder Clara Schumann. Durch gezielte Anpassung der KI-Assistenz können Lehrkräfte wiederum steuern, in welcher Form die Unterstützung erfolgt. So lässt sich beispielsweise ein Assistent auf Plattformen wie Fobizz oder ChatGPT konfigurieren, der als Komponist auftritt und den Schülerinnen und Schülern das behandelte Werk näherbringt. Dabei kann die KI so programmiert werden, dass sie gezielte Fragen stellt, kleine Hilfestellungen gibt oder konkrete Hinweise zur Erschließung des Themenfelds liefert. Solche Konzepte, die zwischen prozessorientierten und produktorientierten Lernphasen unterscheiden, wurden bereits in musikdidaktischen Modellen untersucht (vgl. Rotsch und Werner 2025). Die Nutzung von KI als Diskussionspartner oder Impulsgeber bietet neue didaktische Ansätze, die analytisches Denken und kreative Eigenleistung gleichermaßen fördern. Der Verwendung von KI im Musikunterricht kommt eine bedeutende Funktion zu, da sie neue Möglichkeiten für den Kompositionsprozess eröffnet. KI generiert musikalische Muster, schlägt harmonische Strukturen vor und erschafft experimentelle Klangwelten. Dabei agiert sie nicht als autonomer Komponist, sondern als Werkzeug, das Impulse für kreative Prozesse liefert. Plattformen wie AIVA, Riffusion oder Wavtool ermöglichen die Erzeugung harmonisch kohärenter Sequenzen innerhalb weniger Sekunden. Dennoch bleibt die künstlerische Entscheidung stets dem Menschen vorbehalten: Während KI helfen kann, kreative Blockaden zu überwinden und musikalische Ideen zu inspirieren, sind Interpretation, emotionale Tiefe und individuelle Handschrift genuine Leistungen der Schülerinnen und Schüler. Wie Rotsch und Werner (2025) betonen, liegt der Mehrwert von KI nicht in der automatisierten Musikproduktion, sondern in der Möglichkeit, neue ästhetische Fragen zu stellen und eigene kreative Entscheidungen im Dialog mit maschinellen Vorschlägen zu treffen. Die Aufgabe der Lehrkraft besteht in der Entwicklung von Kompetenzen, die es den Lernenden ermöglichen, die Vorschläge kritisch zu hinterfragen, sie weiterzuentwickeln und in eigene musikalische Gestaltungen zu integrieren. Ein reflektierter Einsatz von KI kombiniert algorithmische Generierung mit manueller Weiterverarbeitung. Die Ver- <?page no="221"?> 2.8 Musik und KI in der Schule 221 wendung von KI-generierten Tonfolgen beispielsweise ermöglicht Variationen, Modifikationen des Rhythmus und Erweiterungen durch improvisatorische Elemente. Dies fördert die kompositorische Eigenständigkeit und das Verständnis musikalischer Strukturen. Laut Knof (2024) können KI-gestützte Chatbots den kreativen Prozess auch unterstützen, indem sie Hilfestellungen zu formalen und harmonischen Gestaltungsmöglichkeiten geben und alternative musikalische Lösungen vorschlagen. Die Herausforderung besteht darin, KI zur kreativen Erweiterung zu nutzen, ohne musikalische Kernkompetenzen zu vernachlässigen. Diese umfassen die Fähigkeit zum aktiven Musizieren, zum bewussten Hören und zur reflektierten Auseinandersetzung mit Musik. Dies schließt die Entwicklung rhythmischer, melodischer und harmonischer Sicherheit, die Interpretation musikalischer Werke sowie die kreative Gestaltung eigener musikalischer Ausdrucksformen mit ein. Darüber hinaus gehören die Notation und Analyse von Musik, das Experimentieren mit musikalischen Strukturen und die Fähigkeit zur Improvisation zu den zentralen Elementen musikpädagogischer Kompetenzentwicklung. Ziel ist eine zunehmend selbstbestimmte musikalische Teilhabe, die sowohl individuelle Kreativität als auch ein vertieftes Verständnis musikalischer Prozesse fördert (vgl. Dartsch et al. 2018). Die Rolle von KI als Inspirationsquelle bewegt sich dabei im Spannungsfeld zwischen technischer Effizienz und künstlerischer Eigenleistung. Während adaptive KI-Modelle wie Suno oder Stable Audio auf Knopfdruck musikalische Entwürfe generieren, stellt sich die Frage, inwiefern diese Technologien die Eigeninitiative der Schülerinnen und Schüler fördern oder hemmen. Studien zur KI-gestützten Musikproduktion zeigen, dass ein bewusster Einsatz solcher Tools den kreativen Prozess bereichern kann - vorausgesetzt, Lernende sind in der Lage, zwischen maschinellen Vorschlägen und eigener kompositorischer Intention zu differenzieren (vgl. Rotsch und Werner 2025). Dies erfordert eine gezielte didaktische Rahmung, die nicht nur die Nutzung KI-gestützter Kompositions-Tools vermittelt, sondern auch zur Reflexion über deren Funktionsweise, stilistische Implikationen und musikalische Qualität anregt. Eine fächerübergreifende Einbindung von KI-Kompositionsprozessen kann zudem tiefere Einblicke in algorithmische Strukturen ermöglichen. Interdisziplinäre Projekte, die mathematische und informatische Konzepte wie Mustererkennung, Wahrscheinlichkeitsverteilungen und neuronale Netze mit musikalischer Kreativität verknüpfen, fördern sowohl technisches Verständnis als auch eine kritische Haltung gegenüber der Automatisierung künstlerischer Prozesse. Die entscheidende Fragestellung in diesem Kontext ist nicht, ob KI kreativ(e) Musik generieren kann, sondern wie sie als Instrument zur Förderung individueller Ausdrucksformen eingesetzt werden kann. Die Herausforderung für den Musikunterricht besteht darin, Schülerinnen und Schüler in die Lage zu versetzen, KI nicht als Ersatz für eigenständiges Komponieren zu sehen, sondern als interaktiven Initiator, der musikalische Entscheidungsprozesse anregt und erweitert. Die eigentliche kreative Leistung liegt demnach nun nicht in der automatisierten Erzeugung von Musik, sondern in der bewussten Weiterentwicklung, Variation, kriterialen Beurteilung und Kontextualisierung der generierten Inhalte. 2.8.4 Effektive KI-Nutzung im Musikunterricht ‒ Kritisches Prompting und kreative Prozesse Viele Schülerinnen und Schüler nutzen KI-gestützte Programme wie ChatGPT oft primär (und damit im Grunde zweckentfremdet) als Suchmaschine, indem sie dem Programm einfache, unspezifische Fragen stellen. Diese Herangehensweise führt <?page no="222"?> 222 Ulrich Frefat häufig zu oberflächlichen oder unzureichend differenzierten Antworten, die wenig zur tatsächlichen Vertiefung des Lernstoffs beitragen. Stattdessen erfordert der produktive Einsatz von KI eine gezielte Steuerung der Eingaben, also eine bewusste Nutzung unterschiedlicher Prompt-Techniken. Ein gut formulierter Prompt enthält nicht nur eine klare Frage, sondern auch kontextuelle Informationen, spezifische Erwartungen an die Antwortstruktur und Hinweise zu Stil oder Detaillierungsgrad. So lassen sich KI-generierte Inhalte gezielter anpassen und verbessern. Beispielsweise kann anstelle der vagen Anfrage „Erkläre den Quintenzirkel“ eine präzisere Formulierung wie „Erkläre den Quintenzirkel für eine siebte Klasse mit einfachen Beispielen und grafischer Darstellung“ deutlich hilfreichere Ergebnisse liefern. Besonders im Musikunterricht ist es wichtig, dass Schülerinnen und Schüler nicht nur faktenbasierte Informationen abrufen, sondern die KI gezielt für analytische, kreative oder reflexive Prozesse einsetzen. Fortgeschrittene Techniken wie iteratives Prompting (Schritt-für-Schritt-Nachfragen), rollenbasierte Prompts (z. B. „Erkläre das wie ein Musiklehrer für Anfänger“) oder Vergleichsprompts („Erstelle eine Gegenüberstellung von Barock- und Romantikkompositionen anhand harmonischer Merkmale“) ermöglichen Lehrkräften und Schülerinnen und Schülern eine differenziertere Nutzung. Um eine effektive KI-Nutzung im Unterricht zu fördern, sollten Lehrkräfte Schülerinnen und Schüler nicht nur in den Umgang mit den Tools einführen, sondern sie auch dazu anregen, ihre Eingaben bewusst zu reflektieren und anzupassen. Dadurch wird KI nicht nur als reine Informationsquelle, sondern als Werkzeug zur eigenständigen und kreativen Wissensaneignung erschlossen und nutzbar gemacht. Innerhalb des aktuellen pädagogischen Diskurses rücken KI-basierte Chatbots, also text- oder sprachbasierte Systeme, die auf KI beruhen und menschenähnliche Dialoge simulieren, als interaktive Lernpartner zunehmend in den Fokus. Diese ermöglichen dynamische Interaktionen, indem Lernende gezielt Fragen stellen und durch strukturiertes Feedback ihre kognitiven Prozesse reflektieren. Für den Musikunterricht eröffnen derartige Systeme neue Möglichkeiten: Chatbots bieten spezialisierter und versierter als rollenbasierte Prompts - Unterstützung etwa in Bereichen der Musiktheorie oder geben Anregungen für Kompositionsprozesse. Darüber hinaus können Schülerinnen und Schüler mit einer KI musikalische Ideen erproben, harmonische oder melodische Varianten testen und so ein vertieftes Verständnis für musikalische Strukturen entwickeln. Forschungsergebnisse zeigen, dass explorative Dialoge mit KI-Systemen helfen, (musikalische) Entscheidungsprozesse bewusster zu gestalten und zu begründen (vgl. Rotsch und Werner 2025). Auch in der individuellen Förderung bieten KI-gestützte Lernsysteme großes Potenzial. Während herkömmliche Unterrichtsformate oft standardisierte Aufgabenstellungen vorsehen, ermöglichen adaptive KI-Modelle eine dynamische Anpassung an individuelle Stärken und Schwächen. So analysiert Squirrel AI kontinuierlich den Lernfortschritt und passt die Aufgabenstellungen in Echtzeit an. Ein weiteres Beispiel ist Photomath AI, das mathematische Aufgaben anhand eines Fotos erkennt und nicht nur Lösungen präsentiert, sondern detaillierte Erklärungen zu den Rechenschritten liefert. Übertragen auf den Musikunterricht könnten vergleichbare Systeme eine algorithmische Analyse von Harmoniefolgen oder formalen Strukturen ermöglichen und personalisierte Rückmeldungen zu kompositorischen oder interpretatorischen Entscheidungen geben. In heterogenen Lerngruppen kann adaptive KI wertvolle Unterstützung bieten, da sie eine gezielte Differenzierung des Unterrichts ermöglicht. Ein Beispiel hierfür ist MakeMusic Cloud, eine Plattform, die es Schülerinnen und Schülern erlaubt, inter- <?page no="223"?> 2.8 Musik und KI in der Schule 223 aktive Übungen mit Echtzeit-Feedback zu nutzen. Während sie ein Musikstück spielen, analysiert das System Intonation, Rhythmus und Artikulation und passt die Anforderungen an das individuelle Leistungsniveau an. Dadurch erhalten Lernende nicht nur unmittelbare Rückmeldungen zu ihrer Performance, sondern können gezielt an ihren spezifischen Schwächen arbeiten. Darüber hinaus ermöglicht die Plattform eine gezielte Einbindung in den musiktheoretischen Unterricht: Lehrkräfte können Passagen markieren und mit Aufgaben zur formalen Analyse, harmonischen Progression oder rhythmischen Gestaltung verknüpfen. So wird nicht nur das Nachspielen, sondern auch das tiefere Verständnis für kompositorische Entscheidungen gefördert. Eine reflektierte Steuerung durch Lehrkräfte bleibt auch hier entscheidend: Die Gefahr besteht, dass Schülerinnen und Schüler KI-generierte Lösungen unkritisch übernehmen, anstatt sich aktiv mit den zugrunde liegenden musikalischen Konzepten auseinanderzusetzen. Aufgabe der Lehrkraft ist es daher, nicht nur technische Funktionen zu vermitteln, sondern die didaktische Rahmung sicherzustellen: Lernende sollten angeregt werden, nicht nur Antworten zu konsumieren, sondern eigene Hypothesen zu entwickeln, Fehlerquellen zu identifizieren und algorithmische Entscheidungen der KI nachzuvollziehen (vgl. Rotsch und Werner 2025). In diesem Kontext ist die potenzielle Abhängigkeit von KI-generierten Lösungen und deren Auswirkungen auf das Selbstbild der Schülerinnen und Schüler ein weiteres Problem. Während KI wertvolle Unterstützung bieten kann, zeigen aktuelle Studien, dass Lernende zunehmend maschinelle Hilfe bevorzugen und dabei ihre eigene kreative oder analytische Kompetenz unterschätzen (vgl. Rotsch und Werner 2025). Gerade im Musikunterricht, wo künstlerische Eigenleistung und kreative Prozesse essenziell sind, kann die Qualität KI-generierter Musik eine paradoxe Wirkung entfalten: Statt eine Inspiration zu sein, kann sie Schülerinnen und Schüler entmutigen, weil sie das Gefühl haben, nie eine vergleichbare Komposition oder Umsetzung zu erreichen und dazu führen, dass sie entweder unkritisch KI-Ergebnisse übernehmen oder sich demotiviert zurückziehen. Dieses sogenannte Bestnoten-Paradox (vgl. Torrau und Köhler 2024) verdeutlicht, dass nicht nur der Umgang mit KI, sondern auch die emotionale Wahrnehmung ihrer Ergebnisse eine zentrale didaktische Herausforderung darstellt. Eine Möglichkeit, dem entgegenzuwirken, besteht darin, KI gezielt als Impulsgeber einzusetzen, ohne dass sie die endgültige Lösung vorgibt. Lehrkräfte sollten daher didaktische Strategien entwickeln, die Lernende ermutigen, KI-generierte Vorschläge zu hinterfragen, zu modifizieren und kritisch zu bewerten, um ihre eigene kreative Handschrift zu stärken. Digitale Beurteilung ‒ Wie KI das Prüfungswesen verändert KI verändert die Prüfungs- und Bewertungsarbeit, insbesondere durch automatisierte Korrektur von Prüfungen und Hausarbeiten. Während KI-gestützte Systeme bereits in standardisierten Tests angewendet werden, gewinnen sie zunehmend auch für individualisierte Bewertungsprozesse an Bedeutung. Dazu gehören adaptive Lernstandsdiagnosen, personalisierte Feedbacksysteme und die Dokumentation individueller Lernfortschritte. Konzepte wie das „Assessment, Feedback und Adaptivität“-Modell (AFA) ermöglichen gezielte Anpassungen von Aufgaben an das Kompetenzniveau der Lernenden. Programme wie GradeScope oder Seesaw AI bieten digitale Lösungen zur automatisierten Prüfungsbewertung, während KI-gestützte Analysen von Schülerportfolios eine differenzierte Betrachtung des Lernverlaufs ermöglichen. <?page no="224"?> 224 Ulrich Frefat Ein weiteres Potenzial liegt in der Nutzung generativer KI als „Sparring-Partner“ für Schülerinnen und Schüler, insbesondere zur Unterstützung individueller Lernprozesse. KI-gestützte Systeme können rund um die Uhr Rückmeldungen geben, Fehler sanktionsfrei korrigieren und so Lernende beim selbstständigen Arbeiten begleiten. Dies kann besonders für unsichere Schülerinnen und Schüler hilfreich sein. Trotz vielversprechender Einsatzmöglichkeiten sind erhebliche Herausforderungen zu beachten. Ein zentrales Problem ist die Unzuverlässigkeit KI-basierter Korrektursysteme. Studien zeigen, dass KI-Tools wie Fobizz identische Schülertexte mit stark variierenden Noten und uneinheitlichem Feedback bewerten. Zudem neigen automatisierte Bewertungssysteme dazu, inhaltsleere, aber sprachlich kohärente Texte als hochwertig einzustufen, während kreative oder unkonventionelle Lösungen abgewertet werden. In einigen Fällen haben sogar unsinnige Einreichungen Bestnoten erhalten, was auf fundamentale Schwächen in den Bewertungsalgorithmen hinweist (vgl. Mühlhoff und Henningsen 2024). Neben diesen technischen Problemen sind auch Fragen der Fairness relevant. Automatisierte Bewertungsverfahren sind nicht zwangsläufig objektiver als menschliche Bewertungen, da sie Verzerrungen im zugrundeliegenden Trainingsdatensatz übernehmen oder durch algorithmische Halluzinationen beeinflusst werden können. Während das Argument der Zeitersparnis häufig angeführt wird, steht dies in Konflikt mit der unzureichenden Verlässlichkeit der Bewertungen. Diese Problematik ist nicht nur als vorübergehende „Kinderkrankheit“ der Technologie zu verstehen, sondern resultiert aus strukturellen Limitationen aktueller KI-Modelle, denen es an einem tiefen inhaltlichen Verständnis mangelt. Die zunehmende Nutzung KI-gestützter Bewertungssysteme erfordert auch eine Anpassung bestehender Prüfungsformate. Statt reiner Reproduktion von Wissen müssen Prüfungen nun stärker auf eigenständige Analyse- und Transferleistungen abzielen. Offene Aufgabenformate, Portfolio-basierte Prüfungen und reflexive sowie kreative Prüfungsformen können eine individuelle(re) Auseinandersetzung mit dem Lernstoff fördern. Hier verändert sich auch die Rolle der Lehrkraft, die zunehmend als Moderator von Lernprozessen agiert, anstatt ausschließlich Bewertungen vorzunehmen. Um eine reflektierte Nutzung von KI im Prüfungswesen zu gewährleisten, sind gezielte Fortbildungen für Lehrkräfte sowie schulische Regelungen zur Sicherstellung von Qualität und Transparenz zwingend notwendig. Neben technischer Validierung müssen auch ethische und datenschutzrechtliche Aspekte berücksichtigt werden, um eine faire und zuverlässige Bewertungspraxis sicherzustellen. KI als Werkzeug zur Förderung kritischer Medienkompetenz Förderung kritischer Medienkompetenz im Umgang mit KI ist eine zentrale Herausforderung im Bildungssystem. Um Schülerinnen und Schüler zu einer reflektierten Nutzung von KI-Systemen zu befähigen, benötigen sie ein grundlegendes Verständnis der Trainingsdaten und inhärenten Verzerrungen (Bias). Algorithmen basieren auf großen Datenmengen, die gesellschaftliche und strukturelle Vorurteile enthalten können - mit direkten Auswirkungen auf KI-generierte Inhalte. Eine bewusste Auseinandersetzung mit diesen Mechanismen ist daher essenziell, um die Vertrauenswürdigkeit und Qualität KI-gestützter Ergebnisse fundiert bewerten zu können. Ein wesentlicher Bestandteil dieser Reflexion ist die Fähigkeit, KI-generierte Inhalte kritisch zu hinterfragen. Tools wie der AI Content Detector helfen, maschinell er- <?page no="225"?> 2.8 Musik und KI in der Schule 225 stellte Texte zu analysieren und algorithmische Muster zu erkennen. Ebenso wichtig ist das Verständnis für die Funktionsweise von KI-Systemen und die Rolle von Prompts. Eng verknüpft mit dieser Fähigkeit ist das Konzept der digitalen Souveränität - die selbstbestimmte, reflektierte Nutzung digitaler Technologien. Dazu gehört der bewusste Umgang mit algorithmischen Entscheidungsprozessen ebenso wie der Schutz der Privatsphäre und die Kontrolle über eigene Daten. Datenschutzfragen sowie die Mechanismen der KI-gestützten Informationsverarbeitung müssen deshalb integraler Bestandteil einer kritischen Medienbildung sein. Nur wenn Schülerinnen und Schüler digitale Technologien nicht nur als Werkzeuge, sondern als gestaltete und gestaltbare Systeme verstehen, kann eine eigenverantwortliche Nutzung von KI langfristig sichergestellt werden. 2.8.5 KI im Musikunterricht ‒ zwischen Euphorie und Skepsis KI eröffnet wie aufgezeigt im Musikunterricht neue kreative Möglichkeiten, wirft aber auch zentrale didaktische und ästhetische Fragen auf. Während KI-gestützte Werkzeuge wie MuseNet oder AIVA Komponieren erleichtern, Notationen automatisieren und musikalische Impulse liefern, bleibt die Herausforderung bestehen, Eigenleistung und kreative Kompetenz nicht zu vernachlässigen. Der Mehrwert von KI liegt nicht im Ersatz, sondern in der Erweiterung künstlerischer Prozesse. Schülerinnen und Schüler können generierte Musik analysieren, weiterentwickeln und im kritischen Vergleich mit eigenen Ideen reflektieren. Tools wie HookTheory AI ermöglichen es, harmonische Strukturen zu untersuchen und stilistische Entscheidungen durch gezielte Modifikationen zu treffen. Solche explorativen Arbeitsweisen fördern ein vertieftes Verständnis musikalischer Strukturen und Ästhetiken (vgl. Knof 2024). Entscheidend für die musikpädagogische Integration von KI ist auch hier die kritische Auseinandersetzung mit den generierten Ergebnissen. Da KI-Kompositionen auf Wahrscheinlichkeitsmodellen basieren, stellen sie keine originären kreativen Akte dar, sondern rekombinieren bestehende Muster. Knof (2024) betont, dass algorithmische Vorschläge oft stilistisch kohärent, aber ästhetisch uneinheitlich sind. Dies erfordert eine schulische Reflexion über die Qualität und Originalität KI-generierter Musik. Die große Herausforderung für Lehrkräfte besteht darin, Schülerinnen und Schüler anzuleiten, KI-Ergebnisse als Ausgangspunkt und Initiator für eigene kompositorische und analytische Entscheidungen zu nutzen. Ein praxisnahes Beispiel für die reflektierte Integration von KI im Musikunterricht ist die Arbeit mit Suno, einem Tool zur KI-gestützten Musikgenerierung. Wird derselbe Text in mehreren Varianten vertont, entstehen stilistisch unterschiedliche, aber algorithmisch generierte Song-Versionen. Diese Variationen bieten eine Grundlage für die kritische Auseinandersetzung mit KI-Kompositionen: Wie unterscheiden sich die generierten Stücke in Melodie, Harmonie, Instrumentierung und Stilistik? Welche Muster wiederholen sich, und wo bleibt individuelle musikalische Handschrift erkennbar? Durch die gezielte Analyse und Dekonstruktion dieser KI-Ergebnisse - beispielsweise mit Hilfe von Moises.ai, um einzelne musikalische Elemente zu isolieren - können Schülerinnen und Schüler tiefergehende musikanalytische Kompetenzen entwickeln: Die herausgefilterten Melodien, Harmonien oder Strukturen dienen nun als kreativer Ausgangspunkt für eigene kompositorische Entscheidungen. Indem Schülerinnen und Schüler diese Elemente rekontextualisieren, vari- <?page no="226"?> 226 Ulrich Frefat ieren oder erweitern, wird KI nicht als Ersatz für musikalische Kreativität verstanden, sondern als Impulsgeber für eine bewusste ästhetische Gestaltung. Dieser Ansatz unterstützt die von Knof (2024) formulierte Forderung nach einer schulischen Reflexion über die Qualität und Originalität KI-generierter Musik. Entscheidend ist dabei, dass Schülerinnen und Schüler lernen, KI-gestützte Musikproduktion zu hinterfragen, zu interpretieren und aktiv weiterzuentwickeln. So wird KI in den kreativen Unterrichtsprozess eingebunden, ohne die Eigenständigkeit musikalischer Gestaltungsprozesse zu untergraben. Der gezielte Einsatz von KI kann den Musikunterricht bereichern, sofern er nicht zu einer Reduktion kreativer Eigenleistung führt. Lehrkräfte übernehmen dabei eine moderierende Rolle, indem sie Potenziale und Grenzen der Technologie aufzeigen und Schülerinnen und Schüler dazu ermutigen, KI als Werkzeug zur kreativen Erweiterung einzusetzen. KI kann inspirieren, analysieren und musikalische Strukturen sichtbar machen - doch Musik bleibt eine künstlerische Ausdrucksform, die durch menschliche Sensibilität, Intuition und Interpretation geprägt ist, Aspekte, die KI gegenwärtig (noch? ) nicht in ihrer Tiefe erfassen kann. 2.8.6 Kreativität aus dem Algorithmus ‒ Wie bewerten wir KI-Musik? Die Bewertung KI-generierter Musik stellt eine weitere zentrale Herausforderung im Musikunterricht dar, da sowohl ästhetische als auch technische Qualitätskriterien berücksichtigt werden müssen. Während KI-gestützte Kompositions-Tools harmonisch kohärente und stilistisch überzeugende Musik erzeugen können, bleibt die Frage, nach welchen Maßstäben diese Werke beurteilt werden sollten. Insbesondere der Vergleich zwischen menschlicher Kreativität und maschinellen Kompositionsprozessen erfordert eine Reflexion darüber, welche Kriterien für musikalische Qualität im pädagogischen Kontext relevant sind. Eine zentrale Herausforderung besteht in der Abgrenzung zwischen technischer Perfektion und künstlerischer Originalität. KI generiert auf Basis großer Datenmengen stilisierte Musik, die formalen Kompositionsregeln entspricht, der es jedoch oft an expressiver Tiefe und individueller Handschrift mangelt. Wie Rotsch und Werner (2025) betonen, sollten Schülerinnen und Schüler KI-generierte Stücke nicht nur strukturell analysieren, sondern auch hinsichtlich ästhetischer Eigenständigkeit und emotionaler Wirkung reflektieren. In diesem Zusammenhang gewinnen Begriffe wie musikalischer Ausdruck, Intention und Authentizität wieder mehr an Bedeutung. Entscheidend ist die Frage: Welche stilistischen Charakteristika zeichnen KI-Kompositionen aus, und wie unterscheiden sie sich (noch) von menschlichen Werken? Neben ästhetischen Aspekten sind auch musikpädagogische Überlegungen relevant. Traditionell basiert die Bewertung im Musikunterricht sowohl auf formaler Analyse als auch auf individueller kreativer Leistung. Da KI-Kompositionen jedoch in Sekundenschnelle entstehen und oft standardisierte Muster reproduzieren, besteht die Gefahr, dass Schülerinnen und Schüler sie als „richtige“ Lösungen akzeptieren, ohne ihren Entstehungsprozess kritisch zu hinterfragen (vgl. Knof 2024). Eine mögliche didaktische Strategie wäre es, Schülerinnen und Schüler gezielt mit der Modifikation KI-generierter Kompositionen zu beauftragen, um herauszuarbeiten, inwieweit individuelle Anpassungen die musikalische Qualität beeinflussen. Ein weiteres zentrales Kriterium ist das Innovationspotenzial KI-generierter Musik. <?page no="227"?> 2.8 Musik und KI in der Schule 227 Während maschinelle Kompositionen meist eine Synthese bestehender Muster darstellen, fehlt ihnen die Fähigkeit zu konzeptionellen Brüchen oder experimentellen Stilentscheidungen, die menschliche Werke prägen. Aus meiner Erfahrung wird KIgestützte Musik vor allem dann als kreativ empfunden, wenn sie nicht nur formale Kohärenz, sondern auch eine erkennbare kompositorische Idee enthält. Dies verdeutlicht die Notwendigkeit, im Unterricht nicht nur das Endprodukt, sondern auch den Entstehungsprozess in die Bewertung einzubeziehen. Die Bewertung KI-generierter Musik erfordert eine differenzierte Herangehensweise, die technische und ästhetische Kriterien gleichermaßen berücksichtigt. Eine rein produktorientierte Sichtweise greift zu kurz, da sie kreative und interpretatorische Dimensionen musikalischer Gestaltung ausblendet. Stattdessen sollte eine reflektierte Bewertungspraxis entwickelt werden, die Schülerinnen und Schüler dazu anregt, sich kritisch mit den Möglichkeiten und Grenzen maschineller Kreativität auseinanderzusetzen. Letztlich bleibt die zentrale Herausforderung, KI nicht als Ersatz für musikalische Urteilsfähigkeit zu betrachten, sondern als Instrument zur Förderung eines bewussten und reflektierten Umgangs mit Musik im digitalen Zeitalter. 2.8.7 Herausforderung KI ‒ Wie steuern wir die Zukunft der Musikpädagogik? Ein nachhaltiger und reflektierter Einsatz von KI im Musikunterricht erfordert eine kontinuierliche Evaluation und Qualitätssicherung, die technische, didaktische und bildungspolitische Aspekte umfasst. KI-gestützte Anwendungen dürfen nicht isoliert betrachtet, sondern müssen auf empirische Evidenz gestützt werden, um langfristig sinnvolle Lernprozesse zu unterstützen. Dabei sind insbesondere die Auswirkungen auf das kreative Lernen, die Rolle der Lehrkraft und die Entwicklung neuer musikpädagogischer Konzepte zu berücksichtigen. Ein wichtiger Bereich der Evaluation betrifft die Wahrnehmung und Nutzung von KI durch Schülerinnen und Schüler. Die Frage, ob KI den kreativen Prozess unterstützt oder hemmt, ist entscheidend für ihre langfristige Integration in den Musikunterricht (vgl. Torrau und Köhler 2024). Während adaptive KI-Systeme individuelle Lernpfade erleichtern und neue Ausdrucksformen eröffnen, besteht die Gefahr, dass sich Lernende verstärkt auf algorithmische Vorschläge verlassen, anstatt eigenständige musikalische Entscheidungen zu treffen. Eine reflektierte Didaktik muss daher darauf abzielen, KI als Unterstützung künstlerischer Prozesse einzusetzen, ohne die musikalische Eigenständigkeit der Lernenden zu untergraben. Lehrkräfte stehen vor der Herausforderung, eine Balance zwischen technischer Unterstützung und individueller Kreativität zu finden, um KI sinnvoll in den musikpädagogischen Alltag zu integrieren. Empirische Studien zeigen, dass insbesondere in der frühen Phase der Nutzung eine kritische Reflexion darüber erforderlich ist, welche Elemente eines Werkes von der KI stammen und welche bewusst von den Schülerinnen und Schülern gestaltet wurden (vgl. Knof 2024). Neben der pädagogischen Einbettung ist die technische Validierung von KI-Tools ein entscheidendes Kriterium der Qualitätssicherung. Algorithmen, die zur Musikgenerierung oder Analyse eingesetzt werden, basieren auf bestehenden Musikstükken, was Fragen zur Originalität und Verzerrung dieser Daten aufwirft. Lehrkräfte müssen darauf vorbereitet werden, KI-generierte Inhalte kritisch zu hinterfragen <?page no="228"?> 228 Ulrich Frefat und Schülerinnen und Schüler anzuleiten, zwischen maschineller Rekombination und eigenständiger kreativer Gestaltung zu differenzieren. Vor diesem Hintergrund halte ich es für unerlässlich, dass klare Qualitätsstandards für KI im Bildungsbereich entwickelt werden, die Aspekte wie Transparenz, Nachvollziehbarkeit und künstlerische Eigenleistung umfassen. Wie so oft ist die Rolle der Lehrkraft hierbei besonders hervorzuheben. Studien zeigen, dass der Erfolg von KI-gestützten Bildungsangeboten maßgeblich von der Professionalisierung der Lehrkräfte abhängt (vgl. König und Mosbach 2024). Neben technischem Wissen über die Funktionsweise von KI sind didaktische Strategien erforderlich, um Lernprozesse mit KI kritisch zu steuern. Wichtige Methoden zur Evaluation des KI-Einsatzes umfassen Unterrichtsbeobachtungen, strukturierte Feedbackgespräche mit Schülerinnen und Schülern sowie die Analyse von Lernprodukten vor und nach der Nutzung von KI-Tools. Auf bildungspolitischer Ebene erfordert die Implementierung von KI im Musikunterricht eine koordinierte Strategie zwischen Schulen, Hochschulen und politischen Institutionen. Die Entwicklung von Fortbildungsangeboten für Lehrkräfte, datenschutzrechtliche Vorgaben und Curricula, die KI-Kompetenzen fördern, sind unabdingbar, um eine reflektierte Nutzung zu gewährleisten (vgl. BPB 2024). Letztlich zeigt sich, dass eine nachhaltige Integration von KI im Musikunterricht eine umfassende Qualitätssicherung und langfristige empirische Forschung erfordert. Nur wenn KI nicht als reine Effizienzsteigerung, sondern als kreative Erweiterung verstanden wird, kann sie einen sinnvollen Beitrag zur musikpädagogischen Praxis leisten. Die Integration von KI in die Musikpädagogik wirft grundlegende Fragen zur künstlerischen Eigenleistung und Originalität auf. KI-gestützte Tools erleichtern Kompositionsprozesse und können als Inspirationsquelle dienen, doch entscheidend bleibt, dass Schülerinnen und Schüler trotz technologischer Unterstützung ihre persönliche musikalische Handschrift entwickeln können und sich nicht bequem in eine passive Konsumhaltung begeben. Ein Spannungsfeld liegt sicher in der möglichen Entfremdung des handwerklichen Musizierens, da KI innerhalb von Sekunden komplexe Kompositionen generieren kann. Damit verbunden ist die Gefahr, dass Schülerinnen und Schüler verstärkt oder gar ausschließlich auf KI-generierte Ergebnisse zurückgreifen, anstatt sich intensiv mit musikalischen Strukturen und Stilistiken auseinanderzusetzen. Entscheidend ist daher eine didaktische Gestaltung, die KI als Unterstützung für kreative Prozesse nutzt bei gleichzeitiger Stärkung der Eigenleistung der Lernenden (vgl. König und Mosbach 2024). Neben kreativer Eigenständigkeit stellt sich die Frage der Qualitätskontrolle KI-generierter Musik. Zwar erzeugen moderne Modelle harmonisch kohärente und stilistisch überzeugende Kompositionen, doch ihnen fehlt (noch? ) die emotionale Tiefe, stilistische Raffinesse und künstlerische Intuition, die menschliches Komponieren auszeichnen. Lehrkräfte spielen daher eine Schlüsselrolle bei der Reflexion der generierten Ergebnisse. Sie müssen Schülerinnen und Schüler anleiten, KI-Kompositionen zu analysieren, zu modifizieren und weiterzuentwickeln. Entscheidend ist dabei die Differenzierung zwischen maschinell generierten Mustern und künstlerischer Intention. Ein weiteres Problemfeld betrifft das potenzielle Deskilling musikalischer Fähigkei- <?page no="229"?> 2.8 Musik und KI in der Schule 229 ten. In einem Unterricht, in dem KI zunehmend kognitiv herausfordernde Aufgaben wie Harmonisierung, Transkription oder Notation übernehmen kann, besteht die Gefahr, dass musikalische Kernkompetenzen nur noch unzureichend erlernt werden. Rotsch und Werner (2025) betonen, dass das kontinuierliche Training derselben essenziell ist, um ein tiefgehendes musikalisches Verständnis zu entwickeln. Wenn Prozesse der musikalischen Gestaltung vollständig automatisiert werden, droht langfristig ein Kompetenzverlust, da sich Schülerinnen und Schüler weniger mit den grundlegenden Prinzipien musikalischer Gestaltung auseinandersetzen. Auch diese Herausforderungen erfordern eine didaktische Rahmung, die die Vorteile der KI-Nutzung gezielt mit traditionellen Lernprozessen kombiniert. Ein möglicher Ansatz besteht in der Nutzung von KI als stimulativer Faktor für musikalische Kreativität, anstatt sie als Substitut für künstlerische Eigenleistung zu betrachten. Indem Schülerinnen und Schüler auf Basis KI-generierter Vorschläge eigene Variationen entwickeln und konzeptionelle Entscheidungen bewusst treffen, kann eine Balance zwischen technologischer Unterstützung und eigenständigem musikalischen Ausdruck geschaffen werden (vgl. Torrau und Köhler 2024). 2.8.8 Musiklernen mit KI ‒ Qualitätsstandards und didaktische Reflexion An diesem Punkt sollte deutlich geworden sein: Eine nachhaltige Implementierung von KI im Musikunterricht erfordert eine kontinuierliche Evaluation ihrer didaktischen Wirksamkeit und technischen Zuverlässigkeit. Entscheidend ist, ob KI tatsächlich zur Vertiefung musikalischer Lernprozesse beiträgt oder lediglich Routineaufgaben automatisiert. Empirisch fundierte Analysen können dazu beitragen, Stärken und Grenzen dieser Technologie besser zu verstehen und gezielt in die Unterrichtsentwicklung einfließen zu lassen. Ein zentraler Evaluationsaspekt ist, wie bereits erläutert, die Frage, inwiefern KI- Anwendungen kreative Lernprozesse unterstützen. Während adaptive KI neue Ausdrucksmöglichkeiten eröffnen (vgl. Torrau und Köhler 2024), besteht das Risiko, dass verstärkte Automatisierung eigenständige kreative Leistungen verringert. Studien zeigen, dass die Wirksamkeit KI-gestützter Musikpädagogik maßgeblich von der Art der Integration abhängt - strukturierte Reflexionsphasen können dazu beitragen, dass Schülerinnen und Schüler generierte Inhalte bewusst hinterfragen, anstatt sie unkritisch zu übernehmen (vgl. Knof 2024). Neben einer pädagogischen Einordnung ist dafür die technische Qualitätssicherung entscheidend. KI-Algorithmen zur Musikgenerierung und Analyse basieren auf bestehenden Datensätzen, was in jedem Einzelfall Fragen zur Originalität und Verzerrung aufwirft. Um eine transparente und nachvollziehbare Nutzung zu gewährleisten, sind objektive Kriterien zur Bewertung der Funktionsweise und Verlässlichkeit dieser Systeme notwendig. Hierzu gehören algorithmische Transparenz, Fehleranalysen und technische Validierungsprozesse, die regelmäßig überprüft und angepasst werden müssen. Dies verdeutlicht die Notwendigkeit empirischer Begleitung der KI-Integration. Vergleichsstudien, die Lernfortschritte mit und ohne KI-Unterstützung analysieren, können wertvolle Erkenntnisse zur langfristigen Wirkung der Technologie liefern. Die Kombination aus qualitativen Methoden (z. B. Interviews mit Lehrkräften und <?page no="230"?> 230 Ulrich Frefat Schülerinnen und Schülern) und quantitativen Messungen (z. B. Analyse von Unterrichtsergebnissen) ermöglicht eine differenzierte Bewertung der Potenziale und Herausforderungen. Für eine gezielte Evaluation von KI-Anwendungen kann der KI- Würfel (vgl. Krämer und Hecht 2024) als methodisches Reflexionsinstrument dienen, da dieses Modell eine differenzierte Betrachtung der KI-Integration fordert und neben technischen Aspekten auch ethische und didaktische Fragestellungen berücksichtigt. So könnte der Würfel als Analysewerkzeug genutzt werden, um systematisch zu erfassen, in welchen Bereichen KI effektiv zur Förderung musikalischer Lernprozesse beiträgt und wo Anpassungen erforderlich sind. Dies würde eine fundierte Grundlage für die Weiterentwicklung von Qualitätsstandards im KI-gestützten Musikunterricht schaffen. Letztlich hängt die sinnvolle Nutzung von KI im Musikunterricht davon ab, wie konsequent Reflexions- und Evaluationsmechanismen in den Unterrichtsalltag eingebunden werden. Eine kontinuierliche empirische Analyse kann sicherstellen, dass KI nicht als Selbstzweck, sondern als gezieltes Werkzeug zur Unterstützung musikalischer Lernprozesse genutzt wird. 2.8.9 Musikunterricht im KI-Zeitalter ‒ Zukunftsperspektiven und Desiderata Die Integration von KI in den Musikunterricht steckt noch in den Anfängen einer umfassenden Entwicklung. Während erste Anwendungen bereits genutzt werden, bleibt offen, welche langfristigen Auswirkungen KI auf musikalische Lernprozesse haben wird und wie sie den Unterricht methodisch und inhaltlich verändern kann. KI bietet, wie ausgeführt, ein großes Potenzial zur Erleichterung der Unterrichtsvor- und -nachbereitung, zur Personalisierung und Differenzierung von Lernprozessen, zur Erweiterung kreativer Ausdrucksformen und zur interdisziplinären Verbindung von Musik mit Informatik und Medienwissenschaft. Besonders relevant sind dabei die Balance zwischen Automatisierung und kreativer Eigenleistung, die Rolle der Lehrkraft sowie urheberrechtliche Fragestellungen. Adaptive Systeme könnten individuelle Rückmeldungen zu Interpretation, Intonation oder Rhythmik geben und so gezielte Förderstrategien ermöglichen. Gleichzeitig besteht die Herausforderung, KI eher als Inspirationsquelle zu nutzen, ohne dabei kreative Entscheidungsprozesse zu automatisieren oder traditionelle musikalische Kompetenzen zu verlernen oder zu verdrängen. Langfristig könnte KI die Musikpädagogik über traditionelle Konzepte hinaus erweitern, indem sie neue kreative, analytische und interdisziplinäre Fragestellungen ermöglicht. Entscheidend bleibt, dass sie nicht als Ersatz für musikalisches Denken verstanden wird, sondern als Werkzeug zur Förderung (musikalischer) Eigenständigkeit. Trotz der Potenziale von KI im Musikunterricht bleiben grundlegende Fragen offen, die in zukünftigen Forschungen vertieft werden müssen. Noch unklar ist, wie erwähnt, ob KI-gestützte Werkzeuge kreative Prozesse nachhaltig fördern oder lediglich als effiziente Kompositionshilfe dienen. Während einige Studien darauf hinweisen, dass KI Impulse für kreatives Arbeiten geben kann (vgl. Godau et al. 2025), besteht die Gefahr, dass Schülerinnen und Schüler verstärkt auf vorgefertigte Muster zurückgreifen und eigene kreative Entscheidungen in den Hintergrund treten lassen. Die nachhaltige Integration von KI in den Musikunterricht erfordert eine gezielte Professionalisierung der Lehrkräfte. Neben technischen Kompetenzen müssen sie <?page no="231"?> 2.8 Musik und KI in der Schule 231 lernen, KI didaktisch reflektiert zu steuern und sowohl veränderte Unterrichtsrollen als auch den kritischen Umgang mit generierten Inhalten zu berücksichtigen (vgl. Rotsch und Werner 2025). Entscheidend ist dabei, dass Weiterbildungsangebote nicht nur technisches Wissen vermitteln, sondern auch musikpädagogische Konzepte weiterentwickeln, die eigenständiges kreatives Arbeiten fördern (vgl. König und Mosbach 2024). KI kann Impulse geben, doch die Lehrkraft bleibt in der Verantwortung, Schülerinnen und Schüler zu ermutigen, generierte Muster nicht bloß zu übernehmen, sondern sie kritisch zu hinterfragen und aktiv weiterzuentwickeln. Ein zentrales Risiko besteht darin, dass Schülerinnen und Schüler zunehmend Schwierigkeiten haben könnten, zwischen eigener kompositorischer Leistung und KI-generierten Vorschlägen zu differenzieren. Der direkte Zugriff auf algorithmisch generierte musikalische Strukturen, Stile und Analyseverfahren könnte dazu führen, dass Lernende verstärkt auf vorgefertigte Lösungen zurückgreifen, anstatt eigenständige Entscheidungen zu treffen. Wie König und Mosbach (2024) betonen, ist es entscheidend, ein Gleichgewicht zwischen technologischer Unterstützung und kreativer Eigenleistung zu wahren. Um dies zu gewährleisten, müssen Lehrkräfte gezielte Unterrichtsstrategien entwickeln, die Schülerinnen und Schüler systematisch in die Reflexion KI-generierter Inhalte einbeziehen. Nicht nur die Nutzung, sondern auch die kreative Weiterentwicklung solcher Inhalte sollte als Unterrichtsziel verankert werden. Dies bedeutet, dass Schülerinnen und Schüler nicht nur analysieren, welche musikalischen Entscheidungen eine KI getroffen hat, sondern auch herausarbeiten, welche stilistischen und ästhetischen Muster sich in den generierten Ergebnissen wiederholen und welche kreativen Freiräume möglicherweise verloren gehen. Ein weiteres Forschungsinteresse liegt daher in der Anpassung musikpädagogischer Methoden und Konzepte an den KI-Einsatz. Ethische und urheberrechtliche Fragen sind ein weiteres relevantes Forschungsfeld: In der Musikproduktion ist bislang ungeklärt, ob KI-generierte Werke als originär betrachtet werden können und welche rechtlichen Rahmenbedingungen für ihre Nutzung erforderlich sind. Da viele KI-Modelle auf bereits bestehenden, oft geschützten Werken basieren, bedarf es klarer Regelungen, um künstlerische Eigenleistung nicht zu entwerten (vgl. BPB 2024). Auch die Bewertung musikalischer Leistungen stellt, wie weiter oben diskutiert, eine Herausforderung dar. Während KI-Analyse-Tools formale Aspekte wie Notation oder Rhythmik präzise erfassen, bleibt fraglich, ob sie künstlerische Individualität oder emotionale Ausdruckskraft adäquat bewerten können. Nicht zuletzt muss der gerechte Zugang zu KI-Technologien im Bildungssystem sichergestellt werden. Schulen mit begrenzten technologischen Ressourcen können hier schnell benachteiligt werden, wodurch sich bestehende Bildungsungleichheiten verstärken (vgl. Torrau und Köhler 2024). Aktuell wird die Entwicklung und Einführung von KI im Bildungsbereich jedoch weitgehend von Verlagen und kommerziellen Anbietern gesteuert. Während Universitäten und bildungspolitische Akteure noch mit grundlegenden Fragen zu Chancen, Risiken und Einsatzmöglichkeiten ringen, etablieren Verlage und KI-Plattformen bereits marktfähige Lösungen. Influencer bewerben KI-gestützte Tools oft unreflektiert, wodurch nicht der didaktische Mehrwert, sondern das Tool selbst in den Vordergrund rückt. Zwar bieten Verlagsplattformen oft datenschutzkonforme Alternativen, die rechtlich unbedenklich im Schulkontext nutzbar sind, doch ihre zunehmende Dominanz führt dazu, dass wirt- <?page no="232"?> 232 Ulrich Frefat schaftliche Interessen den didaktischen Diskurs bestimmen. Statt einer forschungsgeleiteten Integration von KI in den Musikunterricht setzen sich so vor allem Technologien durch, die sich kommerziell verwerten lassen. Dies wirft die Frage auf, inwieweit die Entwicklung von KI-gestützten Lehrmaterialien stärker bildungspolitisch begleitet und forschungsbasiert gesteuert werden sollte. Diese offenen Fragen zeigen, dass die wissenschaftliche Auseinandersetzung mit KI im Musikunterricht erst am Anfang steht. Die kommenden Jahre werden zeigen, in welche Richtung sich der didaktische Umgang mit KI entwickelt und welche neuen Fragestellungen und Erkenntnisse sich in Forschung und Praxis ergeben. Ein Einsatz von KI im Musikunterricht eröffnet zahlreiche neue Möglichkeiten, bringt aber auch wesentliche Herausforderungen mit sich. Zu den Potenzialen zählen die Erweiterung kreativer Entfaltungsmöglichkeiten, die Förderung personalisierter Lernprozesse und interdisziplinäre Perspektiven. KI kann Schülerinnen und Schüler individuell fördern, indem sie musikalische Analyse-Tools bereitstellt, improvisatorische Prozesse unterstützt oder kompositorische Ideen generiert. Dadurch können differenzierte Lernwege entstehen, die sich an den individuellen Fähigkeiten und Interessen der Lernenden orientieren. Zudem ermöglicht KI neue kreative Arbeitsformen, indem sie als Partner für kompositorische oder analytische Aufgaben fungiert und eine weitere Dimension des musikalischen Experimentierens eröffnet (vgl. Rotsch und Werner 2025). Die Zukunft des KI-gestützten Musikunterrichts wird davon abhängen, wie sich diese Technologie in bestehende musikpädagogische Konzepte integrieren lässt, ohne grundlegende Prinzipien des Musizierens und Komponierens in den Hintergrund zu drängen. Entscheidend ist dabei, dass Lernende nicht in eine passive Konsumentenrolle gedrängt werden, sondern weiterhin aktiv und kreativ mit Musik arbeiten (vgl. Torrau und Köhler 2024). Klar ist auch: Um KI nachhaltig in den Musikunterricht zu implementieren, sind gezielte Fortbildungsangebote für Lehrkräfte erforderlich, die sowohl technische als auch didaktische Kompetenzen im Umgang mit KI vermitteln. Darüber hinaus bedarf es bildungspolitischer Rahmenbedingungen, die den Zugang zu KI-gestützten Lernumgebungen für alle Schülerinnen und Schüler sicherstellen und Bildungsungleichheiten vermeiden. Die Entwicklung innovativer musikpädagogischer Konzepte wird in den kommenden Jahren eine zentrale Herausforderung sein, denn eine reflektierte und verantwortungsbewusste Nutzung dieser Technologie kann langfristig eine sinnvolle Erweiterung musikalischer Lehr- und Lernprozesse darstellen. Literatur Dartsch, M., Gruhn, W., & Lehmann, A. (Hrsg.) (2018). Handbuch Musikpädagogik . Olms. Falck, J. (2024). Effektiv unterrichten mit Künstlicher Intelligenz: Wie Lehrkräfte und Lernende ChatGPT und andere KI-Tools in der Schule erfolgreich einsetzen können . PERSEN Verlag. Falck, J. (2025). KI-Trends der Didacta 2025 . https: / / joschafalck.de/ didacta-trends- 2025/ . Zugegriffen am 22. Februar 2025 <?page no="233"?> 2.8 Musik und KI in der Schule 233 Godau, M., Weidner, V., & Hermann, K. (2025). (Post-)Digitale Songwritingpraktiken im Musikunterricht: Einblicke in die Gestaltung eines Unterrichtsdesigns im Forschungsprojekt Musical Communities in the (Post)Digital Age (MusCoDA). In G. Brunner, D. Fiedler & S. Schmid (Hrsg.), Welchen Musikunterricht braucht die Sekundarstufe 1? Konzeptionelle und unterrichtsspezifische Beiträge zu einem zukunftsfähigen Musikunterricht . OPUS-PHFR. Knof, R. (2024). KI-gestützte Kompositionsprozesse im Musikunterricht: Reflexion und kreative Weiterentwicklung . Musikpädagogische Forschung. König, W., & Mosbach, F. (2024). KI als Assistenz für Lehrkräfte . Springer Verlag. Krämer, T., & Hecht, M. (2024). KI-Würfel: Eine Systematik für den Einsatz Künstlicher Intelligenz in der Bildung . Universität Paderborn. Mühlhoff, R., & Henningsen, M. (2024). Unzuverlässigkeit von KI-Korrektursystemen: Eine Untersuchung der Fobizz-KI-Korrekturhilfe . https: / / rainermuehlhoff.de/ fobizz-KI-korrekturhilfe-test-studie/ . Zugegriffen am 25. Februar 2025 Rotsch, T., & Werner, L. (2025). Künstliche Intelligenz im Musikunterricht: Musikbezogene Gestaltungsprozesse in Zukunftstechnologien. In G. Brunner, D. Fiedler & S. Schmid (Hrsg.), Welchen Musikunterricht braucht die Sekundarstufe I? Konzeptionelle und unterrichtsspezifische Beiträge zu einem zukunftsfähigen Musikunterricht (S. 197-211). lernen: digital. Torrau, S., & Köhler, F. (2024). Bildungspolitische Strategien zur KI-Integration . FAU Erlangen-Nürnberg. Uni Bamberg (2024). Digitale Souveränität: Wie können Schüler: innen für eine digitale Lebens- und Arbeitswelt befähigt werden? https: / / www.uni-bamberg.de/ lehrerbildung/ news/ artikel/ lernen-digital-magazin-digitale-souveraenitaet/ . Zugegriffen am 22. Februar 2025 <?page no="235"?> Teil III KI in Wirtschaft und Finanzen <?page no="237"?> 3.1 Zukunftsszenarien für die Arbeitswelt ‒ Stimmungsbild und Lessons Learned zum Thema New Work Inka Knappertsbusch Zusammenfassung Das Konzept „New Work“ war in den letzten Jahrzehnten Gegenstand bedeutender Diskussionen und Transformationen. Ausgehend von den Ideen des Sozialphilosophen Frithjof Bergmann im späten 20. Jahrhundert umfasst New Work ein breites Spektrum an Veränderungen am Arbeitsplatz, die durch technologische Fortschritte, kulturelle Verschiebungen und sich entwickelnde wirtschaftliche Landschaften vorangetrieben werden. Bergmanns Vision von New Work betonte die Bedeutung von Selbstverwirklichung und der Suche nach sinnstiftender Arbeit, die über bloße Erwerbstätigkeit hinausgeht. Wenn wir in die Zukunft blicken, ist es entscheidend, die aktuelle Stimmung rund um New Work und die bisher gewonnenen Erkenntnisse zu verstehen. Dieser Artikel befasst sich mit den zukünftigen Szenarien für die Arbeitswelt, untersucht die vorherrschende Stimmung und die wichtigsten Erkenntnisse aus der New-Work-Bewegung. Dabei werden wir die verschiedenen Dimensionen von New Work beleuchten und die potenziellen Auswirkungen auf Organisationen und Mitarbeiter analysieren. Keywords: New Work, Arbeitswelt, Arbeitsstrukturen 3.1.1 Die Entwicklung von New Work Bei New Work geht im Wesentlichen darum, traditionelle Arbeitsstrukturen und -praktiken neu zu überdenken. Dieses Konzept betont Flexibilität, Autonomie und Sinnhaftigkeit und zielt darauf ab, ein erfüllenderes und ausgewogeneres Arbeitsumfeld zu schaffen. Die Entwicklung von New Work lässt sich durch mehrere wichtige Entwicklungsschritte nachverfolgen, die im Folgenden ausführlicher beschrieben werden. Technologische Fortschritte Der Aufstieg digitaler Technologien, Künstlicher Intelligenz (KI) und Automatisierung hat den Arbeitsplatz revolutioniert. Remote-Arbeit, digitale Kollaborations- Tools und KI-gesteuerte Prozesse sind alltäglich geworden und ermöglichen größere Flexibilität und Effizienz. Beispielsweise haben Plattformen wie Slack und Microsoft Teams die Zusammenarbeit über verschiedene Standorte hinweg erleichtert, während KI-gestützte Tools wie Chatbots und Automatisierungs-Software Routineaufgaben übernehmen und den Mitarbeitern mehr Zeit für kreative und strategische Tätigkeiten lassen. <?page no="238"?> 238 Inka Knappertsbusch Kulturelle Verschiebungen Es gibt einen zunehmenden Fokus auf Work-Life-Balance, psychische Gesundheit und das Wohlbefinden der Mitarbeiter. Die jüngere Belegschaft, insbesondere Millennials und Generation Z, priorisieren sinnvolle Arbeit und eine positive Arbeitskultur gegenüber traditionellen Erfolgskriterien. Diese Generationen fordern flexible Arbeitszeiten, die Möglichkeit zur Remote-Arbeit und Arbeitgeber, die sich um das Wohlbefinden ihrer Mitarbeiter kümmern. Unternehmen reagieren darauf, indem sie Programme zur Förderung der psychischen Gesundheit einführen, wie z. B. Zugang zu Therapeuten und Wellness-Workshops. Wirtschaftliche Veränderungen Die Gig-Economy und der Anstieg der freiberuflichen Arbeit haben traditionelle Beschäftigungsmodelle in Frage gestellt. Unternehmen verlassen sich zunehmend auf eine flexible Belegschaft, was zu einer Veränderung der Struktur und Verwaltung der Arbeit führt. Plattformen wie Uber, Upwork und Fiverr haben es Einzelpersonen ermöglicht, ihre Fähigkeiten auf freiberuflicher Basis anzubieten, was zu einer Zunahme von projektbasierten Arbeitsverhältnissen geführt hat. Dies erfordert von Unternehmen eine Anpassung ihrer Managementstrategien und eine stärkere Fokussierung auf kurzfristige Ziele und Ergebnisse. 3.1.2 Aktuelle Stimmung zu New Work Die Stimmung rund um New Work ist allgemein positiv, da viele Organisationen und Mitarbeiter die potenziellen Vorteile erkennen. Studien zeigen, dass Unternehmen, die New-Work-Praktiken implementieren, oft eine höhere Mitarbeiterzufriedenheit und Produktivität verzeichnen. Es gibt jedoch auch Herausforderungen und Bedenken, die angegangen werden müssen, um die vollen Vorteile von New Work zu realisieren. Die folgenden Faktoren tragen im Allgemeinen zu einer positiven Stimmung bei:  Erhöhte Flexibilität: Mitarbeiter schätzen die Flexibilität, die New Work bietet, da sie persönliche und berufliche Verantwortlichkeiten effektiver in Einklang bringen können. Beispielsweise können Eltern ihre Arbeitszeiten an die Schulzeiten ihrer Kinder anpassen, was zu einer besseren Work-Life-Balance führt.  Gesteigerte Produktivität: Viele Organisationen haben eine erhöhte Produktivität und Effizienz durch die Einführung digitaler Werkzeuge und Remote-Arbeitspraktiken gemeldet. Mitarbeiter, die von zu Hause aus arbeiten, sind oft weniger abgelenkt und können mehr Aufgaben in kürzerer Zeit erledigen.  Verbesserte Mitarbeiterzufriedenheit: Der Fokus auf Wohlbefinden und sinnvolle Arbeit hat zu höheren Zufriedenheits- und Engagementniveaus der Mitarbeiter geführt. Unternehmen, die Programme zur Förderung der psychischen Gesundheit und des Wohlbefindens anbieten, berichten von einer geringeren Fluktuation und höheren Loyalität der Mitarbeiter. Auf der anderen Seite begegnet New Work insbesondere den folgenden Herausforderungen und Bedenken seitens Unternehmen und Mitarbeitern:  Digitale Kluft: Nicht alle Mitarbeiter haben gleichen Zugang zu digitalen Werkzeugen und Technologien, was zu Unterschieden in Produktivität und Chancen <?page no="239"?> führt. Dies betrifft insbesondere Mitarbeiter in ländlichen Gebieten, wo die Internet-Infrastruktur möglicherweise nicht so gut ausgebaut ist.  Work-Life-Grenzen: Die Verwischung der Grenzen zwischen Arbeit und Privatleben in Remote-Arbeitsszenarien kann zu Burnout und Stress führen, wenn sie nicht richtig gemanagt wird. Unternehmen müssen klare Richtlinien und Unterstützung bieten, um sicherzustellen, dass Mitarbeiter Pausen einlegen und nicht rund um die Uhr arbeiten.  Jobsicherheit: Der Anstieg von Automatisierung und KI hat Bedenken hinsichtlich des Arbeitsplatzverlusts und der Zukunft bestimmter Job-Rollen aufgeworfen. Mitarbeiter mit Berufen, die leicht automatisiert werden können, wie z. B. in der Fertigung oder im Kundenservice, sind besonders gefährdet und benötigen Unterstützung bei der Umschulung und Weiterbildung. 3.1.3 Zukünftige Szenarien für die Arbeitswelt Wenn wir in die Zukunft blicken, könnten sich mehrere Szenarien entfalten, die jeweils von verschiedenen Faktoren und Trends geprägt sind. Diese Szenarien bieten Einblicke in die möglichen Entwicklungen und Herausforderungen, die auf dem Weg zu einer neuen Arbeitswelt auftreten könnten. Das Szenario 1: Das hybride Arbeitsmodell Das hybride Arbeitsmodell ist durch eine Mischung aus Remote- und Büroarbeit gekennzeichnet. Es wird zur Norm und bietet den Mitarbeitern die Flexibilität, zu wählen, wo und wie sie arbeiten. Mitarbeiter könnten beispielsweise einige Tage in der Woche im Büro und den Rest der Zeit von zu Hause arbeiten. In diesem Fall müssen Organisationen in digitale Infrastruktur investieren und Richtlinien erstellen, die hybrides Arbeiten unterstützen. Dieses Modell könnte zu erhöhter Mitarbeiterzufriedenheit und Produktivität führen, erfordert jedoch eine sorgfältige Verwaltung der Work-Life-Grenzen. Unternehmen müssen sicherstellen, dass alle Mitarbeiter, unabhängig von ihrem Arbeitsort, Zugang zu den gleichen Ressourcen und Unterstützung haben. Das Szenario 2: Der Aufstieg der Gig-Economy Die Gig-Economy wächst weiter, wobei mehr Einzelpersonen sich für freiberufliche und Vertragsarbeit anstelle traditioneller Beschäftigung entscheiden. Diese Entwicklung wird durch Plattformen wie Uber, Upwork und Fiverr unterstützt, die es Einzelpersonen ermöglichen, ihre Fähigkeiten auf freiberuflicher Basis anzubieten. Dies fordert von Unternehmen, sich an eine wechselfreudige Belegschaft anpassen und sich auf projektbasierte Arbeit und kurzfristige Verträge konzentrieren. Dieses Szenario könnte zu größerer Flexibilität, aber auch zu Jobsicherheit und einem Mangel an Vorteilen für Gig-Arbeiter führen. Unternehmen müssen möglicherweise neue Strategien entwickeln, um die Loyalität und das Engagement von Gig-Arbeitern zu fördern, z. B. durch die Bereitstellung von Schulungen und Entwicklungsmöglichkeiten. 3.1 Zukunftsszenarien für die Arbeitswelt 239 <?page no="240"?> 240 Inka Knappertsbusch Das Szenario 3: Automatisierte und KI-gesteuerte Arbeitsplätze Automatisierung und KI werden integraler Bestandteil des Arbeitsplatzes, übernehmen Routinetätigkeiten und ermöglichen es den Mitarbeitern, sich auf höherwertige Aktivitäten zu konzentrieren. Beispielsweise könnten KI-gestützte Systeme in der Lage sein, Datenanalysen durchzuführen, während sich menschliche Mitarbeiter auf strategische Entscheidungen und kreative Aufgaben konzentrieren. Während dies zu erhöhter Effizienz und Innovation führen könnte, wirft es auch Bedenken hinsichtlich des Arbeitsplatzverlusts und des Bedarfs an Umschulung und Weiterbildung der Belegschaft auf. Unternehmen müssen in Programme zur Umschulung und Weiterbildung investieren, um sicherzustellen, dass ihre Mitarbeiter die Fähigkeiten erwerben, die in einer zunehmend automatisierten Arbeitswelt erforderlich sind. Das Szenario 4: Zweckorientierte Organisationen Unternehmen konzentrieren sich zunehmend auf Zweck und soziale Auswirkungen und richten ihre Ziele an breiteren gesellschaftlichen und ökologischen Zielen aus. Diese Unternehmen setzen sich für Nachhaltigkeit, soziale Gerechtigkeit und ethische Geschäftspraktiken ein. Dieses Szenario könnte zu höherem Mitarbeiterengagement und höherer Mitarbeiterloyalität führen, da Einzelpersonen nach sinnvoller Arbeit suchen. Es wird jedoch erfordern, dass Organisationen sich wirklich zu ihren erklärten Werten und Zwecken verpflichten. Unternehmen müssen transparente und authentische Maßnahmen ergreifen, um ihre sozialen und ökologischen Ziele zu erreichen, und sicherstellen, dass ihre Handlungen mit ihren Werten übereinstimmen. 3.1.4 Erkenntnisse aus New Work Die Reise zu New Work hat mehrere wertvolle Lektionen geliefert, die zukünftige Entwicklungen leiten können. Diese Erkenntnisse bieten wichtige Hinweise darauf, wie Organisationen die Prinzipien von New Work erfolgreich umsetzen können:  Flexibilität annehmen: Flexibilität ist der Schlüssel zur Anpassung an sich ändernde Umstände und zur Erfüllung der vielfältigen Bedürfnisse der Belegschaft. Organisationen sollten flexible Arbeitsregelungen und -richtlinien priorisieren. Dies könnte die Einführung von Gleitzeit, die Möglichkeit zur Remote-Arbeit und die Anpassung der Arbeitszeiten an individuelle Bedürfnisse umfassen.  In Technologie investieren: Moderne Technologien sind entscheidend für die Ermöglichung von New Work. Unternehmen sollten in eine robuste digitale Infrastruktur investieren und Schulungen anbieten, um sicherzustellen, dass Mitarbeiter diese Werkzeuge effektiv nutzen können. Dies betrifft insbesondere den Umgang mit KI, da deren Nutzung erhebliche Arbeitserleicherung und Effizienzgewinne ermöglicht.  Fokus auf Wohlbefinden: Das Wohlbefinden der Mitarbeiter sollte oberste Priorität haben. Organisationen müssen ein unterstützendes Arbeitsumfeld schaffen, das psychische Gesundheit, Work-Life-Balance und allgemeines Wohlbefinden fördert. Dies könnte die Einführung von Wellness-Programmen, Zugang zu psychologischer Unterstützung und die Förderung einer Kultur der Achtsamkeit und des Respekts umfassen. <?page no="241"?>  Kontinuierliches Lernen fördern: Das schnelle Tempo des technologischen Wandels erfordert ein Engagement für kontinuierliches Lernen und Entwicklung. Unternehmen sollten Möglichkeiten zur Umschulung und Weiterbildung bieten, um Mitarbeitern zu helfen, im sich entwickelnden Arbeitsmarkt relevant zu bleiben.  Eine Kultur des Vertrauens fördern: Vertrauen ist grundlegend für den Erfolg von New Work. Organisationen sollten eine Kultur des Vertrauens und der Transparenz aufbauen, die Mitarbeiter dazu befähigt, Verantwortung für ihre Arbeit zu übernehmen und Entscheidungen zu treffen. 3.1.5 Fazit Die Zukunft der Arbeit wird zweifellos von den Prinzipien von New Work geprägt, mit Flexibilität, Technologie und Zweck im Kern. Obwohl es Herausforderungen zu bewältigen gibt, sind die potenziellen Vorteile für sowohl Organisationen als auch Mitarbeiter erheblich. Indem wir die gewonnenen Erkenntnisse annehmen und uns an aufkommende Trends anpassen, können wir eine erfüllendere, produktivere und gerechtere Arbeitswelt schaffen. Während wir diese Transformation durchlaufen, ist es entscheidend, agil zu bleiben, offen für Veränderungen zu sein und sich dem Wohlbefinden der Belegschaft zu verpflichten. 3.1 Zukunftsszenarien für die Arbeitswelt 241 <?page no="243"?> Dirk Drechsler Zusammenfassung Unternehmen stehen in einem harten Wettbewerb und müssen sich konsequent am Postulat des monetären Erfolgs orientieren. Die Formulierung dieses wirtschaftlichen Ziels lautet Gewinnmaximierung, dessen Realisierung aber Nebenbedingungen zu beachten hat. Eine aktuell herausfordernde Bündelung von Nebenbedingungen besteht in Form von Risiken der künstlichen Intelligenz (KI). Aus diesem Grund existiert das Risikomanagement, um nicht handhabbare Unsicherheiten weitestgehend in kontrollierbare Risiken zu überführen. Diese Systematik ist wiederum in den größeren Kontext der Corporate Governance eingebunden, der insgesamt unter Berücksichtigung der neuen technologischen Herausforderungen ausgestaltet sein muss. Eine KI-Governance auf der Grundlage des OECD-Ansatzes soll dabei helfen, die Notwendigkeiten und Prinzipien zu verstehen, um ein angemessenes KI-Risikomanagement auf Basis des NIST-Rahmenwerks durchführen zu können. Für ein besseres Verständnis, wie stark die Herausforderungen mittlerweile geworden sind, wird auf vier verschiedene Taxonomien zurückgegriffen. Die strategische Darstellung thematisiert dabei auch ein Verständnis der generativen Sprachmodelle und deren Risiken. Keywords: Unsicherheit, Risikomanagement, OECD, Governance, NIST 3.2.1 Das Problem mit der Unsicherheit oder wer halluziniert hier? Täuscht sich das Risikomanagement? Der Begriff „ Halluzination " stammt aus dem Lateinischen hallucinari, was „ umherirren “ oder „ täuschen “ bedeutet. Eine Halluzination bezeichnet eine Sinneswahrnehmung, die ohne eine reale äußere Reizquelle entsteht, das heißt, eine Person nimmt Dinge wahr, die nicht existieren. Ist es möglich, dass das Risikomanagement beim Umgang mit der Künstlichen Intelligenz vielleicht Einschätzungen vornimmt, die übertrieben oder überhaupt nicht existent sind? Ein Faktencheck kann Abhilfe leisten. Beispielsweise veröffentlicht die „ AI Incident Database “ über die Listenansicht (Stand 14. Februar 2025) insgesamt 929 schadhafte Ereignisse auf der Grundlage von KI (vgl. Responsible AI Collaborative 2025). An anderer Stelle schaffen es Kriminelle mit einer KI-generierten Stimme des italienischen Verteidigungsministers Guido Crosetto, den Ölunternehmer Massimo Moratti um knapp eine Million Euro zu prellen (vgl. Kirst 2025). Sicherlich bleibt auch die Schockwelle unvergessen, die Deepseek nicht nur durch die Börsen, sondern auch durch die Gesellschaften der Welt geschickt hat. Der Economist schreibt süffisant dazu: „ For two years the biggest American AI labs have vied to make 3.2 Die Risikolandschaft der KI-Transformation Eine strategische Betrachtung <?page no="244"?> 244 Dirk Drechsler ever more marginal improvements in the quality of their models, rather than models that are cheap, fast and good. DeepSeek shows there is a better way” (Economist 2025a). Der Handlungsbedarf ist unabhängig von einer Revolte gegen Regulierung (vgl. Economist 2025b) gegeben, da auch Kettensägen keine reale und digitale Erleichterung verschaffen. Dann gibt es noch die generative KI. Insbesondere bei großen Sprachmodellen wie GPT-4, bezeichnet der Begriff „ Halluzination " die Generierung von Inhalten, die zwar plausibel klingen, jedoch faktisch falsch oder vollständig erfunden sind. Diese Phänomene treten auf, wenn Modelle Informationen produzieren, die nicht auf ihren Trainingsdaten basieren oder diese falsch interpretieren (vgl. IBM 2025a). Alle genannten Quellen machen deutlich, dass auf Gesellschaften allgemein und Unternehmen im Besonderen herausfordernde Zeiten zukommen werden, die sich nicht nur im technologischen, sondern auch im wirtschaftlichen Bereich manifestieren können. Während eine Ignoranz gegenüber Cyberrisiken bereits ein riskantes Hütchenspiel darstellt, sind die Implikationen einer Technologie wie die der künstlichen Intelligenz nur schwer bis überhaupt nicht zu antizipieren, wenn sich die Verantwortlichen in eine abwartende Haltung begeben. Denn neben einer sich zunehmend verschärfenden geopolitischen Situation und digital vernetzten Unternehmen setzen die Angreifergruppen gerne KI für eine Penetration der Zielobjekte ein (vgl. Finsterbusch und Peitsmeier 2025). Das stetige Bekenntnis aus der Wirtschaft, dass Cyberangriffe mit und ohne KI eine ernsthafte Bedrohung für alle darstellen (vgl. Streim und Kuhlenkamp 2025), wäre in einer umsetzungsorientierten Strategie zur Reduzierung von Unsicherheit sicherlich gut augehoben. Darauf weisen nationale und internationale Expertinnen und Experten schon sehr lange hin. Auch die Wissenschaft hat sich der Thematik seit vielen Jahren angenommen und bietet über die Risikotheorie Einblicke in Zustände, die nur schwer kontrollierbar sind. Die Verbindung von Cyberangriffen mit KI bildet hier nur eine gefährliche Allianz. Das Problem muss weiter und tiefgründiger gedacht und behandelt werden. Unsicherheit und KI Unternehmen sind an sich komplex-interdependente Geflechte, deren Einbettung in das eigene und weitere digitalwirtschaftliche Ökosysteme das strategische und operative Management aktuell und zukünftig vor erhebliche Herausforderungen stellt. Konkret sind es Situationen der Unsicherheit, deren potenzielle Ergebnisse weder mit objektiv-bekannten noch subjektiven Wahrscheinlichkeiten beschrieben werden können (vgl. Haimes 2018). Eine Unterteilung in vier Klassen verdeutlicht die Problematik (vgl. Rowe 1994):  Der temporale Aspekt steht für Unsicherheiten bezüglich zukünftiger Zustände, deren Ableitung über die Vergangenheit als kritisch einzustufen ist.  Sofern die Komplexität der Situationen ins Spiel kommt, sind es strukturelle Unsicherheiten, deren Bestimmung Schwierigkeiten bereitet.  Da die Unsicherheiten auch nicht oder nur schlecht messbar sind, existiert die vierte Klasse der metrischen Unsicherheiten.  Letztendlich erschweren translationale Unsicherheiten das Erklären solcher Situationen. Über alle vier Klassen hinweg wirken zwei Sachverhalte, die über die Stärke der Unsicherheiten entscheiden. Der Grad an verfügbarem Wissen bzw. an Wissenslücken <?page no="245"?> 3.2 Die Risikolandschaft der KI-Transformation 245 definiert die epistemischen Unsicherheiten, die aktiv über eine Veränderung des Wissensbestands beeinflusst werden können. Die zweite Komponente drückt die inhärenten Variationen in großen Populationen aus und bezeichnet stochastische bzw. aleatorische Unsicherheiten. Diese sind nicht beeinflussbar (vgl. Terje et al. 2014). Eine primäre Konzentration auf den Wissensbestand bei gegebenen Verteilungen ergibt drei Arten von Unsicherheiten (vgl. Froozye und Ariff 2016):  Die „ Known Knowns “ stehen für Sachverhalte, von denen wir wissen, dass wir sie wissen.  Die „ Known Unknowns “ stehen für Sachverhalte, von denen wir wissen, dass wir sie nicht wissen.  Die „ Unknown Unknowns “ stehen für Sachverhalte, von denen wir nicht wissen, dass wir sie nicht wissen. Die Entwicklungen auf dem Gebiet der KI treffen auf Unternehmen, die sich in unterschiedlichen Stadien der digitalwirtschaftlichen Transformation befinden. Die Frage, wie gut die damit verbundenen Risiken überblickt und gehandhabt werden, lässt sich nur mit der Ernsthaftigkeit beantworten, mit der Risikomanagement betrieben wird. Der umfassende Prozess des Risikomanagements systematisiert den aktuellen Stand des Wissens rund um die Unsicherheiten mittels einer Identifikation, einer Bewertung, einer Aggregation, einer Priorisierung, eines Umgangs und einer Nachverfolgung von Ereignissen. Ziel ist es, Risiken als eine Funktion der gegebenen Ereignisse, der Zeit, der Eintrittswahrscheinlichkeiten, der spezifischen Inputvariablen, der Wahrscheinlichkeit und Stärke der Konsequenzen sowie des Hintergrundwissens bezüglich der Ereignisse zu beschreiben (vgl. Terje 2011 und Haimes 2009). Diese Vorgehensweise ist an sich nicht trivial und wird mit Bezug auf die KI-Entwicklungen nicht einfacher. Ein Blick in die wissenschaftliche Literatur zeigt, wie sehr sich die Risikolandschaft durch den zunehmenden Einsatz von KI verändert hat. Der Artikel von Schnitzer et al. (2023) führt das AI Hazard Management (AIHM) Framework ein, das einen strukturierten Prozess zur systematischen Identifizierung, Bewertung und Behandlung von Gefahren im Zusammenhang mit KI bietet. Ziel ist es, Risiken, die durch KI-Systeme entstehen, frühzeitig im Entwicklungszyklus zu erfassen und zu mindern. Anhand eines Anwendungsfalls im Bereich der Stromnetze demonstriert das Autorenteam, wie das AIHM-Framework die Gesamtqualität eines KI-Systems verbessern kann, indem identifizierte Gefahren auf ein akzeptables Niveau reduziert werden. Dies unterstreicht die Bedeutung eines systematischen Ansatzes im Gefahrenmanagement für KI-Systeme. Xia et al. (2023) präsentieren eine systematische Mapping-Studie zu bestehenden KI-Risikobewertungs-Frameworks, die von Regierungen, Organisationen und Unternehmen entwickelt wurden. Ziel ist es, einen Überblick über existierende Ansätze zur Risikobewertung zu geben und deren Relevanz und Anwendbarkeit in verschiedenen Domänen zu analysieren. Dabei werden sowohl technische als auch organisatorische Aspekte berücksichtigt. Dabei wurde eine Diskrepanz zwischen bestehenden regulatorischen Anforderungen und praktischen Umsetzungen in der Industrie identifiziert. Während viele Frameworks allgemeine Prinzipien für ein KI-Risikomanagement bieten, fehlen konkrete Werkzeuge und Mechanismen für eine praktische Anwendung. Zudem wurde festgestellt, dass technologische Risiken oft isoliert betrachtet werden, ohne die Einbindung soziotechnischer Dynamiken. Aus diesem Grund wird der Ansatz C 2 AIRA als <?page no="246"?> 246 Dirk Drechsler ein konkretes und verbundenes Rahmenwerk vorgestellt und als Lösung präsentiert. Kilian (2024) untersucht die strukturellen Risiken, die mit der raschen Integration fortschrittlicher KI-Systeme in sozialen, wirtschaftlichen und politischen Strukturen einhergehen. Der Artikel betont, dass traditionelle Ansätze, die sich auf direkte KI- Bedrohungen wie Unfälle und Missbrauch konzentrieren, unzureichend sind, und hebt die Notwendigkeit hervor, die zugrunde liegenden soziotechnischen Dynamiken zu verstehen. Die Studie zeigt, wie unkontrollierter KI-Fortschritt Machtverhältnisse, Vertrauen und Anreizstrukturen verändern kann, was zu tiefgreifenden und oft unvorhersehbaren Verschiebungen führt. Es wird ein methodischer Forschungsansatz vorgestellt, der darauf abzielt, diese Dynamiken zu vermessen, zu simulieren und zu analysieren, um Entscheidungsträger auf die Herausforderungen durch zukünftige KI-Technologien vorzubereiten. Pöhler et al. (2024) untersuchen das Potenzial für böswilligen Missbrauch von öffentlich zugänglicher KI-Technologie und die daraus resultierenden Bedrohungen für die nationale und internationale Sicherheit. Der Artikel beleuchtet, wie bestehende KI-Technologien für schädliche Zwecke eingesetzt werden können und präsentiert drei exemplarische Anwendungsfälle, die politische, digitale und physische Gefahren veranschaulichen. Die Autoren zeigen, dass die zunehmende Verfügbarkeit von KI-Technologien das Risiko von Missbrauch erhöht, insbesondere in nicht regulierten oder schlecht überwachten Kontexten. Die Analyse zeigt zudem, dass die regulatorischen Bemühungen derzeit nicht ausreichen, um den potenziellen Schaden zu minimieren. Ferner wird argumentiert, dass bestehende Sicherheitsmaßnahmen oft auf technische Aspekte fokussiert sind und weniger auf soziale und ethische Risiken eingehen. Letztendlich präsentieren Zeng et al. (2024) eine umfassende Taxonomie von KI-Risiken, die aus acht staatlichen Richtlinien und 16 Unternehmensrichtlinien weltweit abgeleitet wurde. Diese Taxonomie soll als einheitliche Sprache für die Bewertung der Sicherheit generativer KI- Modelle dienen. Die entwickelte Taxonomie zeigt Überschneidungen und Unterschiede zwischen öffentlichen und privaten Sektoren in der Wahrnehmung von KI- Risiken auf. Die Grundtendenz über alle Artikel hinweg besteht in den Aussagen, dass die KI eine Dynamik mit sich bringt, die neu und von bestehenden Ansätzen nur schwer zu erfassen ist. Was bereits im Zusammenhang mit den Cyberrisiken nicht funktionierte, nämlich die technologische Domän isoliert vom Rest einer Organisation zu betrachten, kommt mit der KI komplett an die Grenze des Vertretbaren. Zudem ist es aktuell schwierig, eine einheitliche und umfassende Herangehensweise abzuleiten, was das Risikomanagement beeinträchtigt. Aus diesem Grund unternimmt dieser Beitrag den Versuch einer integrativen Systematik. Zuerst geht es um ein Verständnis bezüglich im Einsatz befindlicher (generativer) KI sowie deren grundlegende Funktionsweise. Danach schließt sich eine Navigation durch die KI Governance an, die prinzipienbasiert mit dem OECD-Rahmenwerk beginnt. Nachdem der KI-Lebenszyklus allgemein und mit Bezug auf die generative KI behandelt wurde, ist es an der Zeit, die Risikolandschaft auf der Grundlage bestehender Systematiken top-down abzubilden. Um den Bezug zur Governance herzustellen und den Umgang zu den zuvor beschriebenen Herausforderungen meistern zu können, setzt sich das letzte Kapitel mit der verantwortlichen KI und deren Risikomanagement im Rahmen des NIST- Artificial Intelligence Risk Management Framework auseinander. <?page no="247"?> 3.2 Die Risikolandschaft der KI-Transformation 247 3.2.2 Entwicklung eines (generativen) KI-Verständnisses Obwohl es schon seit längerer Zeit Diskussionen über allgemeine KI, künstliche Super-Intelligenz oder Frontier AI gibt, konzentriert sich der aktuelle Einsatz auf die weitverbreitete generative KI. Einige der bekanntesten Sprachmodelle und deren Entwicklungsteams sind nachfolgend genannt (vgl. Thamm 2024 und Bayoomed 2025):  ChatGPT ( Generative Pre-trained Transformer ) von OpenAI: Es ist bekannt für seine Fähigkeit, menschenähnlichen Text zu generieren und komplexe Aufgaben zu bewältigen.  BERT ( Bidirectional Encoder Representations from Transformers ) von Google: Das Modell ist im Bereich des Natural Language Processing (NLP) prominent und wird oft zur Verbesserung von Suchmaschinen-Ergebnissen eingesetzt.  LaMDA ( Language Model for Dialogue Applications ) von Google: Der Schwerpunkt liegt auf einer Spezialisierung auf Dialoganwendungen und Entwicklung, um natürliche Gespräche führen zu können.  Claude von Anthropic: Ein Sprachmodell, das auf ethische und sichere KI-Entwicklung ausgerichtet ist.  LLaMA ( Large Language Model Meta AI ) von Meta (früher Facebook): Ein Modell, das für seine Effizienz und Leistung bekannt ist. Jedes verfügbare Sprachmodell besitzt spezifische Eigenschaften der Entwicklung, des Bertriebs und der Aktualisierung. Daher greift die nachfolgende Darstellung das bekannteste Sprachmodell ChatGPT von OpenAI aus den vielen Möglichkeiten heraus und betrachtet dessen Funktionsweise. ChatGPT wurde von OpenAI als ein großes Sprachmodell (Large Language Model oder LLM) konzipiert. Das Training erfolgte unter Verwendung künstlicher neuronaler Netze, um die gesprochene und geschriebene Sprache verstehen sowie eigene Texte generieren zu können. Über die Aspekte Architektur, Trainingsdaten und Vorhersage der Tokens, Aufbau des Wissens, Generierung von Antworten, Einsatz von Wahrscheinlichkeiten, Begrenzung und Fehlermöglichkeiten sowie Weiterentwicklung erhält man für das Risikomanagement das grundlegende Verständnis für die weitere Analyse: [1] Architektur Die Basis moderner Sprachmodelle ist der 2017 von Google entwickelte Transformer-Ansatz, der den sogenannten „ Attention-Mechanismus “ nutzt, um einen Zusammenhang zwischen einzelnen Wörtern eines Satzes bzw. Textabschnitts zu erkennen. Das ermöglicht ein Verständnis wichtiger Beziehungen innerhalb und zwischen Wörtern oder Sätzen (vgl. Vaswani et al. 2017). [2] Trainingsdaten und Vorhersage der Tokens Das Training des Sprachmodells basiert auf großen Datenmengen aus unterschiedlichen Quellen (Bücher, Artikel etc.), mit dem Ziel, Muster erkennen. Dadurch lernt ChatGPT das nächste Wort bzw. den nächsten Token vorherzusagen. Ein Token in einem Sprachmodell ist eine grundlegende Einheit der Verarbeitung. Dabei wird ein Text in kleinere Einheiten unterteilt. Diese Tokens können aus ganzen Wörtern, Wortteilen oder sogar einzelnen Zeichen bestehen. Zum Beispiel könnte der Satz „ Das ist ein Test “ in die Tokens „ Das “, „ ist “, „ ein “ und <?page no="248"?> 248 Dirk Drechsler „ Test “ unterteilt werden. Beim Training lernt das Modell unter Berücksichtigung des bestehenden Kontextes, den nächsten Token vorherzusagen. Mit einer großen Menge an Daten können statistische Zusammenhänge in der Sprache erfasst werden (vgl. Devlin et al. 2018; Radford et al. 2018; Radford et al. 2019) [3] Aufbau des Wissens Während des Trainings werden die Parameter (Gewichte) in den Netzwerk- Schichten so angepasst, dass das Modell (statistisch) relevante Zusammenhänge zwischen Wörtern und Sätzen speichert. Dieses Wissen liegt jedoch nicht in Form von klassischen Fakten oder Datenbanken (im Sinn eines deterministischen Wissens) vor, sondern ist als statistische Repräsentation in den Gewichten des neuronalen Netzes abgelegt (vgl. Devlin et al. 2018; Radford et al. 2019). [4] Generierung von Antworten Nach der Eingabe von Aufforderungen oder Fragen, die als Prompt bezeichnet werden, schließt sich eine Analyse des Textes und eine Umwandlung in eine interne Repräsentation an. Der Output besteht aus einer generierten Antwort, die Wort für Wort bzw. Token für Token erscheint. Unter Berücksichtigung des Kontextes sollen logische und grammatikalisch richtige Antworten gegeben werden, was das Ergebnis des Trainings und der daraus resultierenden Mustererkennung ist (vgl. Radford et al. 2019). [5] Einsatz von Wahrscheinlichkeiten Der Output basiert auf Wahrscheinlichkeiten, was bedeutet, dass verschiedene Formulierungen möglich sind und die mit der rechnerisch besten Wahrscheinlichkeit ausgewählt werden (vgl. Vaswani et al. 2017; Radford et al. 2019). [6] Begrenzung und Fehlermöglichkeiten Leider sind die Antworten nur statistisch „ richtig “, was Fehler oder Halluzinationen miteinschließt. ChatGPT weist nicht umsonst in der Anwendung darauf hin, dass die Ergebnisse, insbesondere wenn es sich um wichtige Sachverhalte handelt, stets überprüft werden sollen (vgl. Zhao et al. 2022; Minaee et al. 2021). [7] Weiterentwicklung Große Sprachmodelle können weiter verbessert oder mit neuen Trainingsmethoden (z. B. Reinforcement Learning from Human Feedback) verfeinert werden, um ihre Antworten an bestimmte Aufgaben oder Anwendungskontexte anzupassen (vgl. Christiano et al. 2017; Ouyang et al. 2022; Zhao et al. 2022). Tatsächlich arbeiten die Entwickler der verschiedenen Sprachmodelle teilweise ähnlich, teilweise aber auch unterschiedlich. Insbesondere die Anwendung von Techniken des maschinellen und des Deep Learning sowie die verwendeten Trainingsdaten sind anders gelagert. Grundsätzlich muss sich das Risikomanagement ‒ wie bei anderen Technologien auch ‒ mit der KI-Anwendung intensiv und genau auseinandersetzen, die in der eigenen Organisation verwendet wird. In der deutschen Unternehmenspraxis existieren Aufsichtsrats- und Beiratsstrukturen, deren Aufgaben u.a. in kritischen Betrachtungen von Entscheidungen des Managements liegen und die das Risikomanagement als ernsthafte Gesprächsparterin oder Gesprächspartner zu unterstützen haben. Das setzt natürlich sowohl für das <?page no="249"?> 3.2 Die Risikolandschaft der KI-Transformation 249 Management als auch für die Aufsichtsorgane sowie deren Vertreterinnen und Vertreter eine Kenntnis von KI voraus, die über die einfache Anwendung hinausgeht. Insgesamt spricht man von einer Governance-Systematik. 3.2.3 Mit der Governance zur Risikolandschaft Die Notwendigkeit eines Governance-Rahmenwerks Es existiert mittlerweile eine Vielzahl an KI-bezogenen Governance-Rahmenwerken, welche die weltweiten Bemühungen einer zielorientierten und sicheren Entwicklung widerspiegeln. Die Klassifikation der AI Governance Alliance unterteilt diese beispielsweise (nicht überschneidungsfrei) in risikobasierte (z. B. EU AI Act , 2023), regelbasierte (z. B. Interim Measures for the Management of Generative AI Services aus China, 2023), prinzipienbasierte (z. B. kanadischer Voluntary Code of Conduct for Artificial Intelligence , 2023) und ergebnisbasierte (z. B. japanische Governance Guidelines for Implementation of AI Principles Vers. 1.1, 2022) Ansätze. Dabei bewegen sich die Diskussionen auf verschiedenen Gebieten wie dem Unterschied zwischen langfristig-existentiellen und gegenwärtig-schädlichen Risiken oder dem Umgang mit Open-Source und geschlossener KI. Eine abschließende Systematik ist aber aufgrund der dynamischen Entwicklung in absehbarer Zeit nicht zu erwarten (vgl. AI Governance Alliance 2024). Die Richtungsentscheidung bei gegebenen Rahmenwerken entspricht in jeder Hinsicht einer organisatorischen Festlegung und sollte vor dem Hintergrund des Geschäftsmodells getroffen werden. Die Notwendigkeit an sich ist jedoch aufgrund der Komplexität des Geschehens mehr als geboten, da es nicht ausschließlich um die Compliance regulatorischer Anforderungen geht, sondern vielmehr um eine Vorbereitung auf einen sich stetig verschärfenden Wettbewerb mit Risiken als Begleiterscheinung. Das Responsible AI Institute hat speziell für die organisatorische Governance eine Empfehlung entwickelt, die den Aufbau einer KI-Governance über die Schritte (1) KI-Prinzipien, (2) KI-Rahmenwerke, (3) Recht und Richtlinien, (4) freiwillige Richtlinien sowie (5) Standards und Zertifizierungen vertritt (vgl. Responsible AI Institute 2023). Tatsächlich bedingt eine umfassende Strukturierung der Herausforderungen viel mehr als eine ausschließliche Konzentration auf die KI-Risikolandschaft und deren Bewältigung. Je nach eingesetztem System müssen entweder allgemeine oder spezifische (z. B. für die generative KI) Maßnahmen ergriffen werden, die einen verantwortungsvollen technologischen Umgang garantieren (vgl. Responsible AI Institute 2024a; Responsible AI Institute 2024b). Die in diesem Beitrag gewählte Vorgehensweise berücksichtigt die KI-Prinzipien, die Risikolandschaft sowie die KI-Rahmenwerke anhand ausgewählter Beispiele. Sowohl die rechtlichen (z. B. EU AI Act) als auch die freiwilligen Standards und Zertifizierungen werden nur ‒ sofern für die Argumentation erforderlich ‒ aufgegriffen, da es sich um Compliance-Themen handelt. Ferner beziehen sich Standards und Zertifizierungen mehr auf den operativen und weniger auf den strategischen Bereich eines Unternehmens, was auch gegen die Intention des Beitrags spricht. Nichtsdestotrotz sind deren Wichtigkeit bzw. die finanziellen Konsequenzen bei Nichteinhaltung unbestreitbar. <?page no="250"?> 250 Dirk Drechsler Das prinzipienbasierte OECD-Modell Die Suche nach einer generischen Systematik, die eine integrative Sicht der KI- Governance unter Berücksichtigung des Risikomanagements offeriert, führt unweigerlich zur OECD mit ihrem prinzipienbasierten Ansatz. Das Verständnis von KI- Systemen als „ a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment ” (OECD.AI 2025a) findet sich in Abb. 59 wieder. Abb. 59: Phasenmodelle der KI (Quelle: Eigene Darstellung in Anlehnung an OECD.AI 2025a) Die Umwelt als Kontext fliest in Form von Daten jeglicher Art in das jeweilige KI- Modell ein. Eine Unterscheidung grenzt dabei den Vorgang der Entwicklung vom Vorgang der Nutzung ab, da beide sowohl bezüglich des Inputs, des Outputs als auch der Verarbeitung unterschiedlich sind. Die Konstruktion der Modelle wird in beiden Phasen von den expliziten und impliziten Zielvorstellungen der Verantwortlichen beeinflusst. Die KI-getriebene Organisation erfordert daher für den prozessualen Betrieb vier grundlegende Komponenten (vgl. Iansiti und Lakhani 2023):  Eine Datenpipeline stellt im Rahmen eines halbautomatisierten Prozesses sicher, dass Daten auf eine systematische, nachhaltige und skalierbare Art und Weise gesammelt, gesäubert, integriert und geschützt werden. Solange die Abläufe nicht perfekt funktionieren, sind menschliche Eingriffe notwendig.  Die eingesetzten Algorithmen generieren Vorhersagen über zukünftige Zustände oder Handlungen im Rahmen der Geschäftstätigkeit.  Eine experimentelle Plattform testet die Hypothesen der neuen Algorithmen, um deren Eignung für den vorgesehenen Zweck einzuschätzen.  Letztendlich sichert die Infrastruktur die Einbettung des KI-Prozesses in das weitere unternehmerische Umfeld und verbindet es mit den internen und externen Nutzerinnen und Nutzern. Obwohl die OECD nur von Governance und nicht von Corporate Governance spricht, ermöglicht die allgemeine Natur eine Übertragung des Rahmenwerks auf den geschäftlichen Bereich von Unternehmen. Das in Abb. 60 gezeigte strukturelle Modell basiert auf allgemeinen KI-Prinzipien, die entlang eines KI-Systemlebenszyklus negativ, d. h. schädigend beeinträchtigt werden können. Darüber wacht die (Corporate) Governance unter Verwendung eines integrativen und systematischen Risikomanagementansatzes. Umwelt (Kontext) Daten & Input KI-Modell 1. Entwicklungsphase 2. Phase der Nutzung Outputs Explizite/ implizite Ziele fließt ein <?page no="251"?> 3.2 Die Risikolandschaft der KI-Transformation 251 Abb. 60: Strukturelle Sichtweise der KI Governance (Quelle: Eigene Darstellung in Anlehnung an OECD 2023) Abb. 61: Strukturierung von KI-Risiken nach dem EU AU Act (Quelle: Eigene Darstellung in Anlehnung an ECIIA 2025) Auch wenn sich die europäischen Regulierungsbemühungen mit Bezug auf den EU AI Act durch das Erstarken einer sich diametral dagegen positionierenden politischen und wirtschaftlichen Tendenz konfrontiert sehen, lohnt sicht ein Blick auf die Natur dieser Vorgabe: „ The AI Act is a European regulation on artificial intelligence (AI) (…). The Act assigns applications of AI to three risk categories. First, applications and systems that create an unacceptable risk (Hervorhebung im Original/ H.i.O.) , such as government-run social scoring of the type used in China, are banned. Second, high- Minimale Risiken LLMs als Grundlagenmodelle für andere Systeme (z.B. Chatbots) Minimale Risiken z.B. AI-basierte Videos oder Spiele Limitierte Risiken z.B. Generierung von KI-Inhalten (Texte) Hohe Risiken Auswirkungen auf Gesundheit, Sicherheit oder Menschenrechte Nicht-akzeptierbare Risiken Verletzung fundamentaler EU-Rechte und Werte <?page no="252"?> 252 Dirk Drechsler risk applications (H.i.O.) , such as a CV-scanning tool that ranks job applicants, are subject to specific legal requirements. Lastly, applications not explicitly banned or listed as high-risk are largely left unregulated ” (EU 2025). Im Fokus (Abb. 61) stehen nichtakzeptierbare Risiken und Anwendungen mit einer erheblichen negativen Konnotation, deren Effekkte sich potenziell über die Verwendungsmöglichkeiten als auch über die Anwendung selbst entfalten. Die später noch darzustellende Risikolandschaft greift diese Thematik konkret auf. Die OECD KI-Prinzipien Ein häufig artikuliertes Argument, dass sich gegen allgemeine Rahmenwerke richtet, bezieht sich auf deren generische Natur. Allerdings liegt genau hier ein Vorteil, der gerne übersehen wird. Eine weitestgehend offene Formulierung von Grenzen gesellschaftlichen, politischen und wirtschaftlichen Handelns eröffnet eine spezifische Auslegung von Vorgaben, ohne dem extrem regelbasierten Duktus zu verfallen. Im Fall des OECD-Ansatzes ist die Möglichkeit gegeben, ein „ Customizing “ an die eigenen Verhältnisse vorzunehmen. Das erste Prinzip zum „ Nutzen für Menschen & Planeten “ konkretisiert sich über das inklusive Wachstum, die nachhaltige Entwicklung und das Wohlbefinden von Gesellschaft und deren Umfeld. Beeinträchtigungen dieses Prinzips könnten in Form von Ungleichheiten bezüglich der technologischen Ausstattung in einigen Ländern der Welt oder einer unterdurchschnittlichen Repräsentation bestimmter Bevölkerungsgruppen bestehen (vgl. OECD.AI 2025b). Der Respekt vor Rechtsstaatlichkeit, Menschenrechten und demokratischen Werten wird vom zweiten Prinzip vertreten. Dabei sollte die KI-Entwicklung stets konsistent mit diesen Aspekten sein, was neben rechtlichen Belangen (z. B. Datenschutz) auch die Ethik (z. B. Fairness) miteinschließt (vgl. OECD.AI 2025c). Da der Einsatz von KI über Agenten oder Chatbots nicht immer deutlich sichtbar ist, betont das dritte Prinzip die Notwendigkeit einer Transparenz, die einerseits in Relation zur Wichtigkeit der Interaktion formuliert sein und andererseits den Menschen ein Verständnis für die Entwicklung, das Training, den Betrieb und den Einsatz der Modelle ermöglichen muss. Zudem haben die Menschen ein Anrecht darauf zu wissen, wie die Ergebnisse einer KI-Anwendung zustande gekommen sind, insbesondere dann, wenn sie davon mittelbar und unmittelbar betroffen sind (vgl. OECD.AI 2025d). Während die Robustheit für die Widerstandsfähigkeit einer KI gegenüber Angriffen von außen steht, betonen die Sicherheit und der Schutz die unterstützenden digitalen und physischen Maßnahmen. Mit diesem vierten Prinzip ist der direkte Zusammenhang zum Risikomanagement gegeben, der sich natürlich auch auf die anderen Prinzipien ausdehnt (vgl. OECD.AI 2025e). Die Verantwortlichkeit als letztes Prinzip betont die ethischen, moralischen und sonstigen Erwartungen, die sich sowohl auf die rechtliche als auch die nicht-rechtliche Sphäre sämtlicher Interaktionen beziehen. Dadurch wird das angemessene Funktionieren über den gesamten Lebenszyklus hinweg thematisiert (vgl. OECD.AI 2025f), der auf der Gesamtheit der Prinzipien basiert. <?page no="253"?> 3.2 Die Risikolandschaft der KI-Transformation 253 Der KI-Systemlebenszyklus Ein Systemlebenszyklus beschreibt sämtliche Aktivitäten und Funktionen, die bei der Entwicklung und Nutzung eines Systems anfallen bzw. notwendig sind (vgl. Tilley 2025). Konkret spricht die OECD von den Phasen (1) Planung und Design, (2) Datensammlung und -verarbeitung, (3) Modellentwicklung und -nutzung, (4) Verifizierung und Validierung, (5) Einsatz sowie (6) Betrieb und Monitoring. Diese Phasen laufen oft iterativ ab und sind nicht zwingend sequenziell. Dadurch entsteht ein strukturierter Überblick über die Entwicklungs- und Nutzungsphasen (vgl. OECD.AI 2025a). AI-Prinzipien / Lifecycle-Phase Planung & Design Inklusive und nachhaltige Entwicklung Ethik-Richtlinien sicherstellen, um sozioökonomische Gleichheit zu fördern. Werte der menschlichen Rechte & Fairness Design muss Diversität & Fairness sicherstellen (z. B. diverse Entwicklungsteams). Transparenz und Erklärbarkeit Entwickeln von erklärbaren Algorithmen & Nutzerverständnis einplanen. Sicherheit und Robustheit Risikobewertung für potenzielle Gefahren durchführen. Verantwortlichkeit Verantwortliche KI-Entwicklung mit klar definierten Rollen planen. Tab. 9: Prinzipien-Phasen-Matrix am Beispiel der Phase „ Planung & Design “ (Quelle: Eigene Darstellung) Tab. 10: Phasen-Prinzipien-Matrix am Beispiel des Prinzips „ Transparenz & Erklärbarkeit “ (Quelle: Eigene Darstellung) Eine Kombination von Prinzipien und Lebenszyklus ermöglicht die Zuordnung von Aktivitäten, die an einer bestimmten Schnittstelle stattfinden können. Die mit Tab. 9 beispielhaft entwickelte Matrix bezieht die KI-Prinzipien auf die erste Phase des Systemlebenszyklus. Die Entwickler legen auf diese Weise fest, was alles im weiteren Gang umzusetzen ist. Lifecycle-Phasen / AI-Prinzip Transparenz und Erklärbarkeit Planung & Design Entwickeln von erklärbaren Algorithmen & Nutzerverständnis einplanen. Datensammlung & -verarbeitung Prozess der Datenherkunft offenlegen und Datenarten erläutern. Modellentwicklung & -nutzung Explainable AI (XAI)-Techniken in Trainingsprozesse integrieren. Verifizierung & Validierung Interpretierbare Modelle bevorzugen und dokumentieren. Einsatz Klare Kommunikation über Systemgrenzen und Entscheidungen. Betrieb und Monitoring Nutzerfeedback nutzen, um Erklärbarkeit zu verbessern. <?page no="254"?> 254 Dirk Drechsler Eine alternative Sichtweise in Tab. 10 geht den umgekehrten Weg und spielt alle Phasen auf der Grundlage eines Prinzips durch, d.h. wie das Prinzip in allen Phasen des KI-Lebenszyklus zu berücksichtigen ist. Organisatorisch betrachtet könnten die Entwicklerteams auf diese Weise aufgeteilt werden, um jeweils perspektivisch an die Modelle heranzugehen. Eine Zusammenführung beider Vorgehensweisen hilft dabei, Lücken und Redundanzen zu korrigieren. Das bereits dargelegte Verständnis für die Funktionsweise der generativen KI könnte entweder mit der OECD-Systematik modelliert oder mittels eines spezifisch formulierten Lebenszyklus konkretisiert werden, wobei die Prinzipien tatsächlich unverändert bleiben. Das Presidio KI-Rahmenwerk der AI Governance Alliance (vgl. AI Governance Alliance 2024) geht letzteren Weg und unterteilt in die folgenden Phasen: [1] Phase des Datenmanagements Der Begriff „Data Access Gradient“ thematisiert in diesem Abschnitt die Unterschiede im Zugang zu Daten im Rahmen verschiedener Akteure, Technologien oder Organisationen entlang eines Spektrums von offen bis exklusiv. Das verweist darauf, wie der Grad des Datenzugangs die Wettbewerbsfähigkeit, die Innovationsfähigkeit und die Entscheidungsfindung beeinflussen kann. [2] Entwicklung des „Foundation Model“ Der Modelllebenszyklus des Basismodells dekliniert sich über die Phasen Design, Datenbeschaffung, Datenverarbeitung, Modelltraining, Feinabstimmung des Modells, Validierung der Modellperformanz sowie Audit und Freigabe des Modells. Die Konkretisierung schafft einige Differenzen im Vergleich zum OECD- Systemlebenszyklus. [3] Veröffentlichung des „Foundation Model“ Der Begriff „Model Access Gradient" steht für die unterschiedlichen Zugangsrechte und Nutzungsbeschränkungen der KI-Modelle entlang einer stetigen Reichweite von offen bis exklusiv. Dabei wird betrachtet, wie stark der Zugang zu einem Modell eingeschränkt oder kontrolliert ist und welche Auswirkungen auf Innovation, Fairness und Wettbewerb zu beobachten sind. Begleitet werden die Stufen von Normen, Standards und weiteren Voraussetzungen für eine Veröffentlichung des Basismodells. [4] Adaptionsphase des Modells über spezifischen Nutzen Die Modellanpassungsphase beschreibt mehrere Stufen, Techniken und Schutzmaßnahmen zur Adaption eines vortrainierten Foundation-Modells, damit es spezifische generative Aufgaben ausführen kann. Die geschäftliche oder individuelle Anpassung des KI-Modells erfolgt entlang der Aktivitäten eines Prompt Engineering bis zur abschließenden Validierung und Freigabe. [5] Phase der Modellnutzung Die KI-Nutzung gestaltet sich im Kontext einer allgemeinen Anwendung über das Prompt Engineering. Die Interaktion mit gehosteten Zugriffsmodellen vollzieht sich mithilfe von natürlichen Sprachbefehlen über eine von der Modellentwicklung bereitgestellten Schnittstelle. [6] Phase der Modellintegration Abschließend kommt es zur Einbettung des KI-Modell in eine Anwendung, die für eine Nutzung zur Verfügung steht. <?page no="255"?> 3.2 Die Risikolandschaft der KI-Transformation 255 Am Beispiel der großen Sprachmodelle und deren Lieferketten zeigt sich die ansteigende Komplexität, sofern der Lebenszyklus und die erforderlichen Komponenten in eine Systematik verdichtet werden. Die LLM-Infrastruktur besteht aus computerbasierten Ressourcen (Hardware, Cloud und verteiltes Lernen), den Datensätzen sowie der sogenannten Toolchain (i.S.v. Entwicklungswerkzeugen und Rahmenwerken). Daran schließt sich der KI-Systemlebenszyklus an, der je nach Herangehensweise leichte Unterschiede im Ablauf zum OECD-Phasenmodell aufweisen kann. Verstärkt hinzu kommt noch das Downstream-Ökosystem, welches sich über die KI-Chatbots und KI-Agenten abbildet (vgl. Wang et al. 2024). Neben Chatbots wie ChatGPT erhalten KI-Agenten eine immer größere Bedeutung. Diese Einheiten nehmen Inputs über Sensoren wahr, verarbeiten diese und Antworten mittels Effektoren (i.S.e. Endglieds, das mit der Umgebung interagiert), wobei menschliche Interventionen zunehmend geringer werden (vgl. WEF 2024). Der Nutzer-Input gelangt dabei, wie in Abb. 62 gezeigt, über die digitale und die physische Infrastruktur zum KI-Agenten. Abb. 62: Kernkomponenten eines KI-Agenten (Quelle: Eigene Darstellung in Anlehnung an WEF 2024) Ein Vergleich der Modelle zeigt, dass viele Schritte in den Rahmenwerken berücksichtigt sind und sich nur über die Verortung im Ablauf der einzelnen Phasen unterscheiden. Während das OECD-Modell auf eine allgemeine Nutzung sowie eine Berücksichtigung der damit verbundenen Risiken ausgerichtet ist, steht beim Presidio- Modell zusammen mit der LLM-Lieferkette stärker der Anwendungsbezug zur generativen KI im Mittelpunkt. Es bleibt in der Zukunft abzuwarten, ob sich die weitere Entwicklung von Rahmenwerken stärker spezialisiert oder sich auf die Ebene generischer Ansätze zurückzieht. Nichtsdestotrotz kann davon ausgegangen werden, dass die Risikolandschaft alleine durch die Komplexität dieser Technologie und den vielfältigen Anwendungsmöglichkeiten an Intensität zunimmt. 3.2.4 Die KI-Risikolandschaft Die globalen und systemrelevanten Herausforderungen des WEF Das World Economic Forum (WEF) stellt über seine Plattform Strategic Intelligence eine Vielzahl an themenbezogenen Informationen zur Verfügung, die eine top-down Nutzer-Input Umwelt/ Kontext Digitale Infrastruktur Physische Infrastruktur Sensoren Kontrollzentrum Effektoren Wahrnehmung Handlungen <?page no="256"?> 256 Dirk Drechsler Betrachtung auch von technologischen Sachverhalten ermöglichen. Für die KI existiert eine eigene Netzwerkdarstellung, die sich in weitere Unterthemen aufsplittet (vgl. WEF 2025a):  Bias and Fairness in AI Algorithms  AI and Jobs  Can AI Overcome its Limitations?  Geopolitical Impacts of AI  Operationalizing Responsible AI  AI, Diversity, and Inclusion  AI for What Purpose?  Generative AI Ausgehend davon besteht ein Bezug zu weiteren Kategorien der Governance und der Risikolandschaft mit unterschiedlichen Schwerpunkten:  Agile Governance mit dem Management von Unsicherheit oder dem Management technologischer Auswirkungen (vgl. WEF 2025b).  Internet Governance mit dem Datenschutz, der Vermeidung von Online-Betrug, dem Identitätsmanagement, der Nutzerrechte, dem Schutz von Daten und der Online-Überwachung (vgl. WEF 2025d).  Global Governance mit den polarisierenden Narrativen, den technologischen Interdependenzen und dem geopolitischen Wettbewerb (vgl. WEF 2025h).  Geoeconomics mit der Resilienz und Sicherheit von Lieferketten, technologischer Eindämmung, technologischer Souveränität sowie wirtschaftlicher und technologischer Machtübergänge (vgl. WEF 2025c).  Geopolitics mit der mulipolaren und multikonzeptionellen Welt, dem technologischen Wettbewerb sowie Populismus und Nationalismus (vgl. WEF 2025e).  Global Risks mit den Formen der digitalen Polarisierung und den globalen Machtverschiebungen (WEF 2025f).  International Security mit der Transformation der Kriegsführung, dem Aufstieg von nicht-staatlichen Akteuren, dem geostrategischen Wettbewerb, dem technologischen Wettrennen, den hybriden Bedrohungen und den sich verändernden Polaritäten (WEF 2025g).  Cybersecurity mit der Cyber-Kriminalität, der Regulierung, den kritischen Infrastrukturen, der Cyber Risk Governance, den neuen Technologien und den Cyber- Lieferketten (vgl. WEF 2025i). Jedes dieser Themen steht für potenzielle Risiken, sofern man sich die Mühe macht und tiefer in jeden Bereich einsteigt. Es ist offensichtlich, dass die KI-Technologie schon seit längerer Zeit die eigene Domäne verlassen hat und Einfluss auf sämtliche Bereiche von Gesellschaften weltweit nimmt. Im wirtschaftlichen und unternehmerischen Kontext hängt das mit der sogenannten „ extended sociality “ zusammen, da Akteuere nach der primären organisatorischen Tendenz handeln, soziale Beziehungen über das Verlinken und Leben in technologischen bzw. Online-Zusammenhängen zu gestalten (vgl. Russo et al. 2021). Das sowohl theoretische als auch praktische Paradigma expliziert sich über „ business ecosystems “, die dynamischen Gruppen von weitestgehend unabhängigen wirtschaftlichen Einheiten entsprechen, die zusammen Produkte und Dienstleistungen herstellen, um insgesamt eine kohärente Lö- <?page no="257"?> 3.2 Die Risikolandschaft der KI-Transformation 257 sung anbieten zu können (vgl. Pidun et al. 2019). Konstitutive Elemente solcher Netzwerke sind ein gemeinsam geteiltes Wertversprechen als Grundlage für alle Projekte und Formen der Kooperation, die Erfüllung dieses Wertversprechens durch einen modularen Aufbau der Beziehungen und der Existenz eines Orchestrators, der sicherstellt, dass Partner integriert und das gemeinsame Wertversprechen erreicht werden (vgl. Gackstatter et al. 2019). Die etablierten Ökosysteme bedienen sich einer Vielzahl an Technologien, die innerhalb der Unternehmen, zwischen den Ökosystem-Einheiten und zwischen den konkurrierenden Ökosystemen existieren (vgl. Adner und Kapoor 2021). Die aktuelle Dominanz generativer KI und die noch zu erwartenden Weiterentwicklungen haben dazu geführt, dass eine Einbettung in die Geschäftsmodelle und Netzwerkstrukturen erfolgt ist. Auch die OECD empfiehlt eine entsprechende Vorgehensweise, die sogar auf höchster Staatsebene verortet wird: „ Governments should foster the development of, and access to, an inclusive, dynamic, sustainable, and interoperable digital ecosystem for trustworthy AI. Such an ecosystem includes inter alia, data, AI technologies, computational and connectivity infrastructure, and mechanisms for sharing AI knowledge, as appropriate. In this regard, governments should consider promoting mechanisms, such as data trusts, to support the safe, fair, legal and ethical sharing of data ” (OECD.AI 2025g). Die Ankündigungen zu KI-Investitionen in den USA am 22. Januar 2025 (vgl. Hölzl 2025), die wohlwollende Aufmerksamkeit des chinesischen Staatsapparats in Form eines Gesprächs zwischen dem DeepSeek-Gründer Liang Wenfeng und dem Premierminister Li Quiang am 20. Januar 2025 (vgl. Hofmann 2025) oder der europäische KI-Gipfel in Paris vom 10. bis 11. Februar 2025 (vgl. Wiegel 2025) gehen in diese Richtung. Das Konzept der Ökosysteme bekommt dadurch nicht nur eine politische Rückendeckung, sondern ist die Organisationsform der Wahl in jedem Bereich. Die Elemente eines geschäftlichen Ökosystems über die Ausrichtungsstruktur auf das gemeinsame Wertversprechen, die multilateralen Beziehungen der teilnehmenden Unternehmen, das Set an Partnern und die Bemühungen, das Wertversprechen zu materialisieren (vgl. Adner 2017) konstituieren ein System von Systemen (vgl. Haimes 2016), deren größte Herausforderung in der interdependenten Hyperkonnektivität liegt. Das bedeutet eine Vernetzung von allen miteinander unter Einbezug von wenigen Zwischenstellen (vgl. Fasnacht 2024). Die Komplexität, die interdependenten Strukturen der Hyperkonnektivität und die schwer einschätzbaren Effekte dieser Technologie machen es nicht nur aus regulatorischer Sicht zur Pflicht, sich mit den Risiken auseinanderzusetzen und Vorsorge zu betreiben. Vielmehr muss es im Interesse des Geschäftsmodells und der strategischen Ausrichtung liegen, dass eine instrinsiche Motivation für eine Beschäftigung besteht. Die Netzwerkstrukturen des WEF geben viele Hinweise, wie sich eine Problemstellung kaskadieren könnte. Denkt man beispielsweise den Crowdstrike-Zwischenfall im Kontext einer KI-Anwendung, kann ungefähr erahnt werden, welche Effekte zu erwarten sind. Die potenziellen und zukünftigen KI-Risiken der OECD Eine an den möglichen zukünftigen Risiken orientierte allgemeine KI-Struktur geht von zehn Herausforderungen aus (vgl. OECD 2024): <?page no="258"?> 258 Dirk Drechsler  Risiko 1: Die KI ermöglicht eine Vereinfachung zunehmend raffinierter bösartiger Cyberaktivitäten (Technologie).  Risiko 2: Manipulation, Desinformation, Betrug und die daraus resultierenden Schäden für die Demokratie und den gesellschaftlichen Zusammenhalt könnten existentielle Schäden bedingen (Gesellschaft).  Risiko 3: Wettläufe zur Entwicklung und Implementierung von KI-Systemen verursachen Schäden aufgrund unzureichender Investitionen in die Sicherheit und Vertrauenswürdigkeit von KI (Wirtschaft/ Technologie).  Risiko 4: Unerwartete Schäden entstehen aufgrund unzureichender Methoden, um die Ziele von KI-Systemen mit den Präferenzen und Werten der menschlichen Interessengruppen in Einklang zu bringen (Gesellschaft).  Risiko 5: Die Macht ist in den Händen weniger Unternehmen oder Länder konzentriert (Politik/ Wirtschaft).  Risiko 6: Kleinere bis schwerwiegende KI-Zwischenfälle und -Katastrophen treten in kritischen Systemen auf (Technologie).  Risiko 7: Über die KI werden eine eingreifende Überwachung und eine Verletzung der Privatsphäre möglich (Gesellschaft).  Risiko 8: Regierungsmechanismen und Institutionen sind nicht in der Lage, mit den schnellen Entwicklungen der KI Schritt zu halten (Politik/ Recht).  Risiko 9: KI-Systeme, denen ausreichende Erklärbarkeit und Interpretierbarkeit fehlen, untergraben die Rechenschaftspflicht (Technologie).  Risiko 10: Verschärfte Ungleichheit oder Armut innerhalb oder zwischen Ländern sind mögliche negative Konsequenzen beim Einsatz von KI (Gesellschaft). Die Risiken sind sehr generisch und umfassend formuliert. Jede einzelne Kategorie erfordert eine weitere Untergliederung, die eine Operationalisierung der Problemlösung erst ermöglicht. Nichtsdestotrotz sind bereits viele Sachverhalte angesprochen, die sich auch in anderen Rahmenwerken wiederfinden. Was dieser Aufzählung jedoch fehlt und in den Klammern ergänzt wurde, ist eine Einordnung in eine übergeordnete Kategorie. Da eine Vorgabe häufig die Möglichkeit zur Manipulation von Ergebnissen bietet, wurde das allgemein anerkannte PESTLE-Konzept (Akronym für Politics , Economy , Society , Technology , Legal und Ecology ) verwendet, welches für strategische Umweltanalysen angewendet wird. Die hier eingenommene Sichtweise ist die eines von Organisationen und Institutionen unabhängigen Beobachters, was alle Risiken zu externen Sachverhalten macht. Eine spezifische Perspektive wie die eines Unternehmens sollte diesbezüglich auch interne Betrachtungen anstellen. Dabei liegt die Überlegung zugrunde, welches primäre Feld von den einzlenen Risiken betroffen ist. Da es teilweise direkt sichtbare Grauzonen gibt, werden Doppelnennungen zugelassen. Kategorie P E S T L E Anzahl 2 2 4 4 1 0 Tab. 11: Kategorisierung der OECD-Risiken (Quelle: Eigene Darstellung) Inklusive der mehrfachen Einordnungen konzentrieren sich die zehn Top-Risiken in Tab. 11 auf die Bereiche Gesellschaft und Technologie. Damit wird ausgedrückt, dass die <?page no="259"?> 3.2 Die Risikolandschaft der KI-Transformation 259 Implikationen negativer Entwicklungen nicht lokal begrenzt bleiben, sondern einen größen Radius implizieren. Dabei gelten die obigen Ausführungen zu den geschäftlichen Ökosystemen, die eine weitere Differenzierung der Risikolandschaft nach sich ziehen. Die KI-Risikodatenbank des MIT Eine umfangreiche und lebende Datenbak zu KI-Risiken betreibt das Massachusetts Institute of Technology oder MIT namens „ MIT AI Risk Repository “. Grundlage dieser KI-Risikodatenbank sind 56 Rahmenwerke und Klassifikationen, aus denen mehr als 1000 Risiken abgeleitet sowie in eine kausale und eine Domänentaxonomie überführt wurden. Erstere gliedert die Einordnungen danach, wie, wann und warum diese Risiken auftreten. Letztere bildet sieben Haupt- und 23 Unterdomänen (vgl. MIT 2025). Die kausale Taxonomie in Abb. 63 differenziert sich über die drei Hauptkategorien Einheit, Absicht und Timing, die jeweils in drei Untergruppen fortgeschrieben werden. Bezüglich der verursachenden Einheit erscheint es interessant, dass sämtliche Gruppierungsformen von Menschen außer Acht gelassen werden, d. h. dass beispielsweise kein Bezug auf ein Unternehmen genommen wird. Zudem versucht die Gliederung grundsätzlich, disjunkte Kategorien zu schaffen und verortet nicht klare Zuordnungen in Kategorien namens „Andere“. Abb. 63: Kausale Taxonomie der KI-Risiken (Quelle: Eigene Darstellung in Anlehnung an Slattery et al. 2025) Die Domänentaxonomie in Abb. 64 verwendet sieben Hauptkategorien:  Diskriminierung & Toxizität  Datenschutz & Sicherheit  Falschinformationen  Schadhafte Akteure & Missbrauch  Mensch-Computer-Interaktion  Sozio-ökonmische und Umweltschäden  Sicherheit, Versagen und Grenzen von KI-Systemen Kategorie Ebene Beschreibung der Erscheinungsform Einheit KI Menschen Andere Aufgrund einer Entscheidung oder Handlung eines KI-Systems Aufgrund einer Entscheidung oder Handlung von Menschen Aufgrund anderer Gründe oder vieldeutig Absicht Timing Absicht Keine Absicht Andere Aufgrund eines erwarteten und verfolgten Ergebnisses Aufgrund eines nicht erwarteten und verfolgten Ergebnisses Ohne eindeutige Spezifizierung der Absicht Vor dem Einsatz Nach dem Einsatz Andere Vor Einsatz der KI Nach Training und Einsatz der KI Ohne eindeutige Spezifizierung der Einsatzzeit <?page no="260"?> 260 Dirk Drechsler Abb. 64: Domänentaxonomie der KI-Risiken (Quelle: Eigene Darstellung in Anlehnung an Slattery et al. 2025) <?page no="261"?> 3.2 Die Risikolandschaft der KI-Transformation 261 Unter Berücksichtigung der Unterdomänen sind sämtliche PESTLE-Aspekte berücksichtigt, da auch Umweltschäden Teil der Aufzählung sind. Es entsteht durch die Dimensionalisierung und stärkere Differenzierung ein schärferes Bild bezüglich der konkreten negativen Ereignisse verusacht durch KI. Eine Matrixkombination von Einheit, Absicht und Timing mit den Domänen eröffnet dem Risikomanagement weitere Einblicke in die KI-induzierten Zusammenhänge. Das wiederum rückt als nächstes die Effekte in den Mittelpunkt der Analyse. Risiken beinhalten sowohl potenzielle als auch tatsächliche Schäden, wodurch sich der Blick auf mögliche Schadenskategorien verlagert, die vom Center for Security and Emerging Technology (CSET) der Georgetown Universität entlang der Kategorien und Dimensionen  immaterielle und nicht-immaterielle Schäden sowie  tatsächliche und Fast-/ potenzielle Schadensereignisse mit direktem Bezug zum Verhalten eines KI-Systems klassifiziert werden. Die konkreten Schadenskategorien lauten (vgl. Hoffmann und Frase 2023)  materielle Schäden physische Gesundheit/ Schutz - Schaden an der Infrastruktur - Schaden an Eigentum finanzielle Verluste - Umweltschäden zusätzliche und andere Einordnungen  Immaterielle Schäden schädliche/ nachhaltige Inhalte ungleiche Behandlung - Menschen-/ Zivilrechte demokratische Normen - Datenschutz zusätzliche und andere Einordnungen Jede der Subdomänen hängt direkt oder indirekt bzw. potenziell oder realisiert mit einer der genannten Schadenskategorien zusammen. Das unterstreicht erneut die kaskadierenden Effekte von KI-bedingten Zwischenfällen. Der IBM KI-Risikoatlas und darüber hinaus Eine der wohl umfangreichsten und differenziertesten Darstellungen zu KI-Risiken findet sich im IBM-Risikoatlas wieder (vgl. IBM 2024). Die Gliederung umfasst  traditionelle Risiken, die herkömmliche Modelle und die generative KI betreffen,  Risiken, die aus der Entwicklung und Anwendung generativer KI resultieren, aber auch traditionelle Modelle beeinflussen können sowie  solche Risiken, die nur im Zusammenhang mit der generativen KI stehen. Die phasenweise Zuordnung ist an den Lebenszyklus von KI-Systemen angepasst und unterteilt sich in eine (1) Input-Phase, (2) eine Output-Phase und (3) nicht-technische Risiken. <?page no="262"?> 262 Dirk Drechsler Im Bereich des Inputs mit der Trainings- und Anpassungsphase untergliedern sich die Risiken in die Subkategorien Robustheit, intellektuelles Eigentum, Datenschutz, Transparenz, Wertausrichtung und Fairness. Die sich daran anschließende Inferenzphase berücksichtigt die Subkategorien Datenschutz, Robustheit, Multi-Kategorie und Genauigkeit. Die Outputphase differenziert sich über Wertausrichtung, Erklärbarkeit, Missbrauch, Fairness, intellektuelles Eigentum und schadhafte Code-Generierung. Die zwei letzten Unterkategorien der nicht-technischen Risiken lauten Governance und gesellschaftliche Auswirkungen. Da es sich auch um ein lebendes Dokument handelt, verändert sich die Anzahl der Zuordnungen in Abhängigkeit vom Auftauchen neuer Sachverhalte. Ein tieferes Studium aller genannten Risiken ist für unternehmerische Zwecke aber geboten. Diese Darstellung ist eine der umfangreichsten Taxonomien. Da die generative KI die aktuell dominante technologische Form ist, helfen die speziell darauf ausgerichteten Risikodarstellungen, eine schnelle Beurteilung in Checklistenform abzuarbeiten, sofern man sich mit den Inhalten vertraut gemacht macht. Das ersetzt aber nicht die eigentliche Risikoanalyse, die darüber hinausdenkt und weitere Szenarien in Betracht zieht. Das gilt auch für extreme Sachverhalte. Daher sollte eine Risikoanalyse auch solche Ereignisse in den Blick nehmen, deren Auswirkungen katastrophale oder existenzielle Auswirkungen haben können. Das mag den Anschein erwecken, dass sich die damit befassten Personen zu stark an Science-Fiction Filmen orientieren, aber der Bio-Terrorismus, die nicht-kontrollierbaren KI-Agenten, das Wettrennen um die Vorherrschaft auf diesem Gebiet, die militärischen Ambitionen oder die ernsthaften Verletzungsgefahren in operativen Abläufen sollten doch zu Denken geben. Die KI verfügt wie jede Technologie über eine inhärente duale Logik, die spekulative und fehlerhafte Modi miteinschließt. Wenn eine Vermeidung nicht möglich ist, sollten zumindest Maßnahmen für eine Eindämmung existieren (vgl. Hendrycks und Mazeika 2022; Hendrycks et al. 2023). Die bereits erwähnte Szenariobetrachtung hilft bei der Abschätzung möglicher Zukünfte. 3.2.5 Der Umgang mit KI-Risiken Das Risikomanagement steht ausgehend von der Corporate Governance eines Unternehmens vor der Herausforderung, ein umfassendes Sicherheitskonzept zum Schutz der gesamten Organisation aufbauen und betreiben zu müssen. Daher wurde in den vergangenen Jahren das Resilienzkonzept entwickelt, dass sich die Widerstandsfähigkeit gegen negative Einflüsse aller Art sowie die schnelle Erholung nach erfolgreichen Zwischenfällen als oberste Ziele gesetzt hat. Eine solche integrative und umfassende Herangehensweise ist auch für den Umgang mit KI erforderlich. Der bereits seit längerer Zeit bestehende Ansatz der verantwortungsvollen KI beschreibt einen Satz von Prinzipien, die die Gestaltung, Entwicklung, Bereitstellung und Nutzung von KI leiten. Ziel ist es, Vertrauen in die KI-Lösungen zu schaffen, die die Organisationen und deren Stakeholder stärken können. Die Methodik berücksichtigt die Auswirkungen auf die Gesellschaft und die Maßnahmen, die erforderlich sind, um diese Technologien mit den Werten der Stakeholder, den gesetzlichen Standards und den ethischen Prinzipien in Einklang zu bringen. Sie hat zum Ziel, solche ethischen Prinzipien in die KI-Anwendungen und -Abläufe zu integrieren, um die Risiken und die negativen Auswirkungen der KI-Nutzung zu mindern und positive Ergebnisse zu fördern (vgl. Stryker 2025). <?page no="263"?> 3.2 Die Risikolandschaft der KI-Transformation 263 Dadurch entsteht eine Schnittstelle zwischen der Corporate Governance und der Umsetzung des Risikomanagements unter Berücksichtigung des Zusammenspiels zwischen Menschen, Prozessen und Technologie (vgl. IBM 2023). Die Kernprinzipien, die das Handeln anleiten sind Robustheit und Verlässlichkeit, Verzerrung und Fairness, Datenschutz und Sicherheit sowie Transparenz und Erklärbarkeit (vgl. Avinash Manure und Bengani 2023). Es soll sichergestellt werden, dass  ein Verständnis bezüglich der Funktionsweise und Zielsetzungen des KI-Models entwickelt wurde,  eine klare Kommunikation zwischen Entwicklern und Anwendern existiert,  die während der Entwicklung und des Testens getroffenen Annahmen dokumentiert vorliegen sowie  ein regelmäßiges Monitoring der Performanz als Abgleich zu den Modellerwartungen etabliert wurde (vgl. Massod und Dawe 2023). Für die inhaltliche Ausgestaltung mit unterschiedlichen Schwerpunktsetzungen gibt es Standards, die von internationalen Organisationen entwickelt werden. Nachfolgend sind einige Beispiele ohne (erneuten) Anspruch auf Vollständigkeit genannt:  Die Arbeitsgruppe ISO/ IEC JTC 1/ SC 42 beschäftigt sich mit der Standardisierung von KI, wobei mehr als 30 Standards aktuell existieren und sich eine ähnliche Anzahl in der Entwicklung befindet. Insbesondere der ISO/ IEC 42001: 2023 Information technology - Artificial intelligence - Management system ist in diesem Zusammenhang wichtig (vgl. ISO 2023 und ISO 2017).  Die IEEE verfügt über eine Reihe von Standards (P7000), die verschiedene Aspekte ethischer Überlegungen und des Risikomanagements in der KI abdecken. Diese Standards bieten Richtlinien, um sicherzustellen, dass KI-Systeme verantwortungsvoll entwickelt und genutzt werden (vgl IEEE 2025).  Die Empfehlungen der UNESCO legen einen größeren Schwerpunkt auf das Verhältnis von KI und Ethik, wobei Werte und Prinzipien umfassend formuliert und Anleitungen für eine Umsetzung des Standards gegeben werden (vgl. UNESCO 2022). Neben den genannten Optionen und den Rahmenwerken, die für die IT-Governance und die IT-Sicherheit entwickelt wurden, gibt es noch das Artificial Intelligence Risk Management Framework (AI RMF) der NIST, welches aktuell den besten Bezug zu einem prinzipienbasierten Ansatz, dem KI-Lebenszyklus und der KI selbst herstellt. Das Rahmenwerk besteht im Kern aus vier Phasen (vgl. NIST 2023): [1] Govern Die Govern-Funktion entwickelt und implementiert eine Kultur des Risikomanagements in Organisationen, die KI-Systeme entwerfen, entwickeln, bereitstellen, bewerten oder erwerben. Sie beschreibt Prozesse, Dokumente und organisatorische Schemata, die antizipieren, identifizieren und managen, welche Risiken ein System für Nutzer und andere in der Gesellschaft darstellen kann, und legt Verfahren fest, um diese Ergebnisse zu erzielen. Zudem integriert sie Prozesse zur Bewertung potenzieller Auswirkungen. Es wird eine Struktur vermittelt, durch die Funktionen des KI-Risikomanagements mit den organisatorischen Prinzipien, Richtlinien und strategischen Prioritäten in Einklang gebracht werden können. Dabei werden technische Aspekte der Gestaltung und Entwicklung von KI-Systemen mit den Werten und Prinzipien der Organisation verknüpft <?page no="264"?> 264 Dirk Drechsler und organisatorische Praktiken sowie Kompetenzen für die Personen geschaffen, die an der Beschaffung, Schulung, Bereitstellung und Überwachung solcher Systeme beteiligt sind. Es wird der gesamte Produktlebenszyklus und die damit verbundenen Prozesse berücksichtigt, einschließlich rechtlicher und anderer Fragen zur Nutzung von Software- oder Hardwaresystemen und Daten von Drittanbietern. [2] Map Diese Funktion etabliert den Kontext für ein Framing der Risiken in direktem Bezug zum KI-System. Eine wichtige Aufgabe besteht dabei in der Kategorisierung von KI-Systemen, um deren Spezifitäten sowie die Kapazitäten einschätzen zu können. Zudem werden die Systemfähigkeiten, die angestrebten Ziele und der Nutzen sowie die Kosten mit angemessenen Benchmarks verglichen. Die Risiken sämtlicher Komponenten werden dargestellt, was auch die Drittanbieter von Software und Daten miteinschließt. Letztendlich können die Auswirkungen auf Individuen, Gruppen, Organisationen und die Gesellschaft eingeschätzt werden. [3] Measure Die Measure-Funktion nutzt quantitative, qualitative oder gemischte Methoden, Techniken und Verfahren, um das Risiko von KI-Systemen und die damit verbundenen Auswirkungen zu analysieren, zu bewerten, zu vergleichen und zu überwachen. Es ist wichtig, dass KI-Systeme vor ihrer Bereitstellung und regelmäßig während ihres Betriebs getestet werden. Metriken für vertrauenswürdige Eigenschaften, soziale Auswirkungen und die Konfiguration von Menschen zu KI sollten verfolgt werden. Nach Abschluss der Measure-Funktion sollten objektive, wiederholbare oder skalierbare Test-, Bewertungs-, Verifizierungs- und Validierungsprozesse (Test-Evaluation-Verification-Validation oder kurz: TEVV), einschließlich Metriken, Methoden und Verfahren, vorhanden sein und dokumentiert werden. [4] Manage Die Manage-Funktion umfasst die regelmäßige Zuweisung von Risikoressourcen an verortete und gemessene Risiken, wie sie von der Govern-Funktion definiert wurden. Das Risikomanagement beinhaltet Pläne zur Reaktion auf, zur Wiederherstellung von und zur Kommunikation über Vorfälle oder Ereignisse. Nach Abschluss der Manage-Funktion liegen Pläne zur Priorisierung von Risiken und zur regelmäßigen Überwachung und Verbesserung vor. Das NIST-Rahmenwerk ist ein lebendes Dokument, welches in den nächsten Jahren weiterentwickelt und überarbeitet wird. Da die KI-Entwicklungen selbst das Tempo vorgeben und das Risikomanagement sich eng an dieser Dynamik orientieren muss, entstehen zwangsläufig Regelungslücken. Damit ist nicht nur die Regulierung gemeint, sondern auch die eigentliche Geschäftstätigkeit von Unternehmen und die geschäftlichen Ökosysteme. 3.2.6 Fazit Ohne Zweifel ist der technologische Fortschritt wichtig für den Wohlstand von Gesellschaften und den Profit von Unternehmen. Betrachtet man diese Prämisse als gegeben, ist es jedoch wichtig zu verstehen, dass sich nicht alle Menschen an Spielregeln halten oder die Technologie selbst fehlerfrei ist. Auch wenn das kaufmännische <?page no="265"?> 3.2 Die Risikolandschaft der KI-Transformation 265 Klagelied regelmäßig eine Strophe zu den Kosten beinhaltet, ändert das nichts an schadhaften Intentionen oder fehlerhaften technologischen Vorgängen. Mit der KI gibt es seit einiger Zeit eine neue Variante, deren Handhabung durch die inhärente Dynamik nicht umfassend verständlich ist und welche mit einem reinen Anwendungsbezug nicht komplett durchdrungen werden kann. Die vorgestellte Risikolandschaft hat gezeigt, dass sich die Herausforderungen nicht nur auf die technologische Domäne beschränken, sondern weitreichende Implikationen und Auswirkungen auf andere Bereiche des (geschäftlichen) Lebens mit sich bringen. Der wirtschaftliche Erfolg, sofern man sich in der Argumentation darauf konzentriert, sollte alleine genug Anlass sein, sich mit einer Corporate Governance, einer verantwortungsvollen KI und einem Risikomanagementsystem auseinanderzusetzen. Das Bekämpfen oder Ignorieren regulatorischer Vorgaben erscheint in diesem Licht als eine kontraproduktive Tätigkeit, die dem eigentlichen Erfolg entgegensteht. Daher wurde eine durchgängige Systematik entwickelt und vorgestellt, die auf bereits bekannten und akzeptierten Rahmenwerken aufbaut. Unternehmen sind in der aktuellen Transformationsphase gut beraten, sich intensiv auf die bevorstehenden Entwicklungen vorzubereiten, da ein Abwarten erhebliche Konsequenzen nach sich ziehen könnte. Literatur Adner, R. (2017). Ecosystem as a structure: an actionable construct for strategy. Journal of Management, 43(1), 39-58. Adner, R., & Kapoor, R. (2021). Right tech, wrong time. In HBR (Hrsg.), On platforms and ecosystems (S. 79-94). Harvard Business Press Review. AI Governance Alliance (2024). Briefing paper series. https: / / www3.weforum.org/ docs/ WEF_AI_Governance_Alliance_Briefing_Paper_Series_2024.pdf. Zugegriffen am 17. Januar 2025 Avinash Manure, S., & Bengani S.S. (2023). Introduction to responsible AI. Apress. Bayoomed (2025). Bekannte Large Language Models (LLMs) und ihre Anwendungen. https: / / www.bayoomed.com/ news/ bekannte-large-language-models-llms-undihre-anwendungen/ ? form=MG0AV3. Zugegriffen am 4. Februar 2025 Christiano, P., Leike, J., Brown, T.B., Martic, M., Legg, S., & Amodei, D. (2017). Deep reinforcement learning from human preferences. https: / / doi.org/ 10.48550/ ar- Xiv.1706.03741. Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for language understanding. https: / / doi.org/ 10.48550/ arXiv.1810.04805. ECIIA (2025). The AI Act. Road to compliance. https: / / www.eciia.eu/ wp-content/ uploads/ 2025/ 01/ The-AI-Act-Road-to-Compliance-Final-1.pdf. Zugegriffen am 10. März 2025 Economist (2025a). The real meaning of the DeepSeek drama. https: / / www.economist.com/ leaders/ 2025/ 01/ 29/ the-real-meaning-of-the-deepseek-drama. Zugegriffen am 14. Februar 2025 Economist (2025b). Milei, Modi, Trump: an anti-red-tape revolution is under way. https: / / www.economist.com/ leaders/ 2025/ 01/ 30/ milei-modi-trump-an-anti-redtape-revolution-is-under-way. Zugegriffen am 14. Februar 2025 <?page no="266"?> 266 Dirk Drechsler EU (2025). The EU Artificial Intelligence Act. https: / / artificialintelligenceact.eu/ . Zugegriffen am 13. Februar 2025 Fasnacht, D. (2024). Open and digital ecosystems. Springer. Finsterbusch, S., & Peitsmeier, H. (2025). Cyberangriffe im Sekundentakt. Frankfurter Allgemeine Zeitung, 15.02.2025, S. 22. https: / / www.faz-biblionet.de/ faz-portal/ document? uid=FAZ__4d98837e07c8d633597c34fef50c8cc07f0c3f86&ZG_POR- TAL=ALERT. Zugegriffen am 18. Februar 2025 Froozye, N.B., & Ariff, F. (2015). Managing uncertainty, mitigating risk: Tackling the unknown in financial risk assessment and decision making. Palgrave Macmillan. Gackstatter, S., Lemaire, A., Lingens, B., & Böger, M. (2019). Business ecosystems, partnership of equals for corporates, SMEs and startups. https: / / www.alexandria.unisg.ch/ server/ api/ core/ bitstreams/ d9dc8a97-cbcd-4a39-9d02- 522fd6a68be4/ content. Zugegriffen am 15. Februar 2025 Haimes, Y.Y. (2009). On the complex definition of risk: A system-based approach. Risk Analysis, 29(12). Haimes, Y.Y. (2016). Risk modeling, assessment, and management (4. Aufl.). Wiley. Haimes, Y.Y. (2018). Modeling and managing interdependent complex systems of systems. Wiley-IEEE Press. Hendrycks, D., & Mazeika, M. (2022). X-Risk analysis for AI research. https: / / doi.org/ 10.48550/ arXiv.2206.05862. Hendrycks, D., Mazeika, M., & Woodside, T. (2023). An overview of catastrophic AI risks. https: / / doi.org/ 10.48550/ arXiv.2306.12001. Hölzl, V. (2025). Trump gibt Infrastrukturprojekt zu künstlicher Intelligenz bekannt. https: / / www.zeit.de/ politik/ ausland/ 2025-01/ usa-donald-trump-praesident-kuenstliche-intelligenz-infrastruktur-investition-regulierung. Zugegriffen am 15. Februar 2025 Hoffmann, M., & Frase, H. (2023). Adding structure to AI harm, an introduction to CSET’s AI harm framework. https: / / cset.georgetown.edu/ wp-content/ uploads/ 20230022-Adding-structure-to-AI-Harm-FINAL.pdf. Zugegriffen am 16. Februar 2025 Hofmann, A. (2025). Deepseek: Wer ist Liang Wenfeng, Gründer des KI-Startups, das OpenAI jetzt Konkurrenz macht? https: / / www.businessinsider.de/ gruender szene/ perspektive/ deepseek-liang-wenfeng-der-gruender-des-chinesischen-kistartups/ ? form=MG0AV3. Zugegriffen am 15. Februar 2025 Iansiti, M., & Lakhani, K. R. (2023). Competing in the age of AI. In HBR (Hrsg.), On AI (S. 1-13). Harvard Business School Publishing. IBM (2023). KI-Governance. https: / / www.ibm.com/ downloads/ documents/ de-de/ 10c317759fd40113. Zugegriffen am 17. Februar 2025 IBM (2024). AI risk atlas. https: / / www.ibm.com/ docs/ en/ watsonx/ saas? topic=ai-riskatlas. Zugegriffen am 9. Januar 2025 IBM (2025a). Was sind KI-Halluzinationen ? https: / / www.ibm.com/ de-de/ topics/ aihallucinations? Zugegriffen am 14. Februar 2025 <?page no="267"?> 3.2 Die Risikolandschaft der KI-Transformation 267 IEEE (2025). IEEE GET ProgramTM, GET program for AI ethics and governance standards. https: / / ieeexplore.ieee.org/ browse/ standards/ get-program/ page/ series? id=93. Zugegriffen am 17. Februar 2025 ISO (2017). ISO/ IEC JTC 1/ SC 42 Artificial Intelligence. https: / / www.iso.org/ committee/ 6794475.html. Zugegriffen am 17. Februar 2025 ISO (2023). ISO/ IEC 42001: 2023 Information technology - Artificial intelligence - Management system. https: / / www.iso.org/ standard/ 81230.html. Zugegriffen am 17. Februar 2025 Kilian, K. A. (2024). Beyond accidents and misuse: Decoding the structural risk dynamics of artificial intelligence. https: / / arxiv.org/ abs/ 2406.14873. Zugegriffen am 17. Februar 2025 Kirst, V. (2025). Millionenbetrug mit KI-Stimme. Handelsblatt, 32/ 2025, 14.02.2025, S. 16. Massod, A., & Dawe, H. (2023). Responsible AI in the enterprise. Packt Publishing. Minaee, S., Kalchbrenner, N., Cambria, E., Nikzad, N., Chenaghlu, M., & Gao, J. (2021). Deep learning based text classification: A comprehensive review. https: / / doi.org/ 10.48550/ arXiv.2004.03705. MIT (2025). MIT AI risk repository - What are the risks from artificial intelligence? https: / / airisk.mit.edu/ . Zugegriffen am 16. Februar 2025 NIST (2023). NIST AI 100-1: Artificial intelligence risk management framework (AI RMF 1.0). https: / / nvlpubs.nist.gov/ nistpubs/ ai/ NIST.AI.100-1.pdf. Zugegriffen am 18.01.2025 OECD (2023). Advancing accountability in AI. Governing and managing risks throughout the lifecycle for trustworthy AI. OECD Digital Economy Papers. No. 349.https: / / www.oecd.org/ en/ publications/ advancing-accountability-inai_2448f04b-en.html. Zugegriffen am 3. Januar 2025 OECD (2024). Assessing potenzial future artificial intelligence risks, benefits and policy imperatives. OECD Artificial Intelligence Papers, No. 27. https: / / www.oecd.org/ en/ publications/ assessing-potenzial-future-artificial-intelligence-risks-benefits-and-policy-imperatives_3f4e3dfb-en.html. Zugegriffen am 15. Februar 2025 OECD.AI (2025a). OECD AI principles overview. https: / / oecd.ai/ en/ ai-principles. Zugegriffen am 21. Januar 2025 OECD.AI (2025b). Inclusive growth, sustainable development and well-being (Principle 1.1). https: / / oecd.ai/ en/ dashboards/ ai-principles/ P5. Zugegriffen am 21. Januar 2025 OECD.AI (2025c). Respect for the rule of law, human rights and democratic values, including fairness and privacy (Principle 1.2). https: / / oecd.ai/ en/ dashboards/ aiprinciples/ P6. Zugegriffen am 13. Februar 2025 OECD.AI (2025d). Transparency and explainability (Principle 1.3). https: / / oecd.ai/ en/ dashboards/ ai-principles/ P7. Zugegriffen am 21. Januar 2025 OECD.AI (2025e). Robustness, security and safety (Principle 1.4). https: / / oecd.ai/ en/ dashboards/ ai-principles/ P8. Zugegriffen am 21. Januar 2025 <?page no="268"?> 268 Dirk Drechsler OECD.AI (2025f). Accountability (Principle 1.5). https: / / oecd.ai/ en/ dashboards/ aiprinciples/ P9. Zugegriffen am 13. Februar 2025 OECD.AI (2025g). Fostering an including AI-enabling ecosystem (Principle 2.2). https: / / oecd.ai/ en/ dashboards/ ai-principles/ P11. Zugegriffen am 15. Februar 2025 Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C.L., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., Schulman, J., Hilton, J., Kelton, F., Miller, L., Simens, M., Askell, A., Welinder, P., Christiano, P., Leike, J., & Lowe, R. (2022). Training language models to follow instructions with human feedback. https: / / doi.org/ 10.48550/ arXiv.2203.02155. Pidun, U., Reeves, M., & Schüssler, M. (2019). Do you need a business ecosystem? https: / / web-assets.bcg.com/ img-src/ BCG-Do-You-Need-a-Business-Ecosystem- Oct-2019_tcm9-230575.pdf. Zugegriffen am 15. Februar 2025 Pöhler, L., Schrader, V., Ladwein, A., & von Keller, F. (2024). A technological perspective on misuse of available AI. https: / / arxiv.org/ abs/ 2403.15325. Zugegriffen am 17. Februar 2025 Radford, A., Narasimhan, K., Salimans, T., & Sutskever, I. (2018). Improving language understanding by generative pre-training. https: / / cdn.openai.com/ research-covers/ language-unsupervised/ language_understanding_paper.pdf. Zugegriffen am 5. Februar 2025 Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language models are unsupervised multitask learners. https: / / cdn.openai.com/ betterlanguage-models/ language_models_are_unsupervised_multitask_learners.pdf. Zugegriffen am 5. Februar 2025 Responsible AI Institute (2023). Navigating organizational AI governance. http: / / www.responsible.ai/ navigating-organizational-ai-governance/ . Zugegriffen am 16. Februar 2025 Responsible AI Institute (2024a). Best practices for AI governance structures: Executive oversight and internal review. https: / / www.responsible.ai/ ai-governance-structures/ . Zugegriffen am 2. Januar 2025 Responsible AI Institute (2024b). Best practices in generative AI. Responsible use and development in the modern workplace. http: / / www.responsible.ai/ best-practicesin-generative-ai-guide/ . Zugegriffen am 2. Januar 2025 Responsible AI Collaborative (2025). AI incident database, incident list. https: / / incidentdatabase.ai/ summaries/ incidents/ . Zugegriffen am 14. Februar 2025 Rowe, W.D. (1994). Understanding uncertainty. Risk analysis, 14(5), 743-750. Russo, M., Reeves, M., & Feng, T. (2021). Making technology transformation competitively relevant. https: / / web-assets-pdf.bcg.com/ prod/ building-an-adaptive-advantage-with-technology.pdf. Zugegriffen am 15. Februar 2025 Schnitzer, R., Hapfelmeier, A., Gaube, S., & Zillner, S. (2023). AI hazard management: A framework for the systematic management of root causes for AI risks. https: / / arxiv.org/ abs/ 2310.16727. Zugegriffen am 17. Februar 2025 Slattery, P., Saeri, A.K., Grundy, E.A.C., Graham, J., Noetel, M., Uuk, R., & Dao, J. (2025). The AI risk repository: A comprehensive meta-review, database, and taxo- <?page no="269"?> 3.2 Die Risikolandschaft der KI-Transformation 269 nomy of risks from artificial intelligence. https: / / arxiv.org/ pdf/ 2408.12622. Zugegriffen am 16. Februar 2025 Streim, A., & Kuhlenkamp, F. (2025). Mehrheit der Deutschen hat Angst vor Cyberangriffen - und einem Cyberkrieg. https: / / www.bitkom.org/ Presse/ Presseinformation/ Mehrheit-Angst-Cyberangriffen-Cyberkrieg. Zugegriffen am 18. Februar 2025 Stryker, C. (2025). What is responsible AI? https: / / www.ibm.com/ think/ topics/ responsible-ai. Zugegriffen am 17. Februar 2025 Terje, A. (2011). Quantitative risk assessment - the scientific platform. Cambridge University Press. Terje, A., Baraldi, P., Flage, R., & Zio, E. (2014). Uncertainty in risk assessment. Wiley. Thamm, A. (2024). Die 14 wichtigsten großen Sprachmodelle: Ein umfassender Überblick. https: / / www.alexanderthamm.com/ de/ blog/ grosse-sprachmodelleein-ueberblick/ ? form=MG0AV3. Zugegriffen am 4. Februar 2025 Tilley, S. (2025). Systems analysis and design (13. Aufl.). Cengage. UNESCO (2022). Recommendations on the ethics of artificial intelligence. https: / / unesdoc.unesco.org/ ark: / 48223/ pf0000381137. Zugegriffen am 17. Februar 2025 Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, L., & Polosukhin, I. (2017). Attention is all you need. 31 st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA. https: / / doi.org/ 10.48550/ arXiv.1706.03762. Wang, S., Zhao, Y., Hou, X., & Wang, H. (2024). Large language model supply chain: A research agenda. ACM Transactions on Software Engineering and Methodology (TOSEM) Special Issue: 2030 Software Engineering Roadmap. https: / / doi.org/ 10.48550/ arXiv.2404.12736. WEF (2024). Navigating the AI frontier: A primer on the evolution and impact of AI agents. https: / / reports.weforum.org/ docs/ WEF_Navigating_the_AI_Frontier_2024.pdf. Zugegriffen am 16. Januar 2025 WEF (2025a). Strategic Intelligence: Artificial Intelligence. https: / / intelligence.weforum.org/ topics/ a1Gb0000000pTDREA2. Zugegriffen am 24. Januar 2025 WEF (2025b). Strategic Intelligence: Agile Governance. https: / / intelligence.weforum.org/ topics/ a1Gb0000000pTDaEAM. Zugegriffen am 24. Januar 2025 WEF (2025c). Strategic Intelligence: Geoeconomics. https: / / intelligence.weforum. org/ topics/ a1Gb0000000LHOoEAO. Zugegriffen am 24. Januar 2025 WEF (2025d). Strategic Intelligence: Internet Governance. https: / / intelligence.weforum.org/ topics/ a1Gb0000000pjsvEAA. Zugegriffen am 29. Januar 2025 WEF (2025e). Strategic Intelligence: Geopolitics. https: / / intelligence.weforum.org/ topics/ a1G0X000004PzYuUAK. Zugegriffen am 29. Januar 2025 WEF (2025f). Strategic Intelligence: Global Risks. https: / / intelligence.weforum.org/ topics/ a1Gb0000000pTDXEA2. Zugegriffen am 29. Januar 2025 WEF (2025g). Strategic Intelligence: International Security. https: / / intelligence.weforum.org/ topics/ a1Gb0000001SG51EAG. Zugegriffen am 29. Januar 2025 <?page no="270"?> 270 Dirk Drechsler WEF (2025h). Strategic Intelligence: Global Governance. https: / / intelligence.weforum.org/ topics/ a1Gb0000000LHN2EAO. Zugegriffen am 29. Januar 2025 WEF (2025i). Strategic Intelligence: Cybersecurity. https: / / intelligence.weforum. org/ topics/ a1Gb00000015LbsEAE. Zugegriffen am 29. Januar 2025 Wiegel, M. (2025). Scholz spricht über Autos, Vance über KI. https: / / www.faz.net/ aktuell/ politik/ ausland/ ki-gipfel-in-paris-eu-vorsicht-und-us-innovationsgeist-prallen-aufeinander-110289840.html. Zugegriffen am 15. Februar 2025 Xia, B., Lu, Q., Perera, H., Zhu, L., Xing, Z., Liu, Y., & Whittle, J. (2023). Towards concrete and connected AI risk assessment (C²AIRA): A systematic mapping study. https: / / arxiv.org/ abs/ 2301.11616. Zugegriffen am 17. Februar 2025 Zeng, Y., Klyman, K., Zhou, A., Yang, Y., Pan, M., Jia, R., Song, D., Liang, P., & Li, B. (2024). AI risk categorization decoded. https: / / arxiv.org/ abs/ 2406.17864. Zugegriffen am 17. Februar 2025 Zhao, W.X., Zhou, K., Li, J., Tang, T., Wang, X., Hou, Y., Min, Y., Zhang, B., Zhang, J., Dong, Z., Du, Y., Yang, C., Chen, Y., Chen, Z., Jiang, J., Ren, R., Li, Y., Tang, X., Liu, Z., Liu, P., Nie, J.-Y., & Wen, J.-R. (2022). A survey of large language models. https: / / doi.org/ 10.48550/ arXiv.2303.18223. <?page no="271"?> 3.3 Die Veränderung von Beratung und Business Coaching Cristina Mühl und Daniel Hommel Zusammenfassung Die Unternehmen der Zukunft werden sich auf kleine Teams von Generalisten stützen, die eine beliebige Anzahl von KI-Agenten orchestrieren. Um diesen Wandel zu vollziehen, müssen sich die Unternehmen auf schnelle Kurskorrekturen, ständige Veränderungen ihrer Strukturen und eine erhöhte Intensität zwischenmenschlicher Dynamiken einstellen. Daraus ergibt sich ein ständiger Bedarf an Coaching und Beratung, was dazu führt, dass sie zu dauerhaften internen Funktionen werden. Individuelles Coaching wird sich mehr auf Weiterqualifizierung und Rollenveränderungen konzentrieren anstelle des klassischen Fokus auf Executive Coaching. Auch Berater werden von einem Rollenverständnis profitieren, das auf kollaborative Problemlösung mit dem Kunden ausgerichtet ist, da Dienstleistungen, die auf der reinen Bereitstellung von Expertenmeinungen beruhen, von der Einführung von KI ebenfalls negativ betroffen sein werden. Keywords: Anpassungsfähigkeit, Dezentralisierung, Organisatorisches Rahmenwerk, Teamcoaching, Kollaborative Beratung 3.3.1 Einführung Die jüngsten Fortschritte im Bereich der Künstlichen Intelligenz (KI) haben die technologischen Grundlagen geschaffen, um eine Vielzahl von Prozessen deutlich effizienter zu gestalten. Unternehmen können diese Technologie nutzen, um ihre Wettbewerbsfähigkeit auf dem Markt zu erhöhen. Wenn sie nicht erfolgreich eingesetzt wird, kann sie aber auch zu einer wesentlich höheren Arbeitsbelastung führen, die die Produktivität und das Wohlbefinden der Mitarbeiter beeinträchtigt. Der entscheidende Faktor ist, ob ein Unternehmen die zusätzlichen Effizienzgewinne an den richtigen Stellen und zum richtigen Zeitpunkt nutzen kann. Infolgedessen werden traditionelle Organisationsmodelle, die auf Stabilität, Vorhersehbarkeit und Kontrolle optimiert waren, endgültig überholt sein. Die Unternehmen der Zukunft werden sich auf kleine Teams von Generalisten stützen, die eine beliebige Anzahl von KI-Agenten orchestrieren. Diese Teams müssen in die Lage versetzt werden, die Verantwortung für ihre Ergebnisse und ihre Ausrichtung zu übernehmen, da alles andere als eine so geschaffene dezentrale Entscheidungsfindung das Unternehmen nur verlangsamen und der Effizienzsteigerung entgegenwirken würde. Um diesen Wandel zu vollziehen, müssen sich die Unternehmen auf schnelle Kurskorrekturen, ständige Veränderungen ihrer Strukturen und eine erhöhte Intensität zwischenmenschlicher Dynamiken einstellen. Daraus ergibt sich ein ständiger Bedarf an Coaching und Beratung, was dazu führt, dass sie zu dauerhaften internen <?page no="272"?> 272 Cristina Mühl und Daniel Hommel Funktionen werden. Aufgrund der problematischeren Eigenschaften der KI, wie Halluzinationen, Voreingenommenheit und ethischen Herausforderungen, wird außerdem ein starker Bedarf an einer zentralen KI-Governance entstehen. Gleichzeitig muss sich der Einzelne darauf einstellen, dass analytische und kreative Problemlösungsfähigkeiten immer wertvoller werden und dass auf Expertenwissen basierende Aufgaben zunehmend von der KI übernommen werden. Der Einzelne wird sich auch auf häufigere Veränderungen des Einsatzortes innerhalb des Unternehmens einstellen müssen, um dem erhöhten Anpassungsbedarf des Unternehmens Rechnung zu tragen. Für die Besetzung interner Pools von Coachs und Beratern werden zwei Spezialisierungen besonders gefragt sein. Das sind professionelles Teamcoaching und Beratung zu Themen der Organisationsentwicklung, da sie den Bedürfnissen am besten entsprechen. Die internen Pools werden die Herausforderung mit sich bringen, einen Rahmen zu schaffen, der die Qualität diese Dienstleistungen sichert. Die zunehmende Internalisierung dieser Dienstleistungen wird sich außerdem auf den Markt der Coachingplattformen und der Coachingausbildungen auswirken. Individuelles Coaching wird sich mehr auf Weiterqualifizierung und Rollenveränderungen konzentrieren, anstelle des klassischen Fokus auf Executive Coaching. Auch Berater werden von einem Rollenverständnis profitieren, das auf kollaborative Problemlösung mit dem Kunden ausgerichtet ist, da Dienstleistungen, die auf der reinen Bereitstellung von Expertenmeinungen beruhen, von der Einführung von KI ebenfalls negativ betroffen sein werden. Coachs und kollaborative Berater können ihr Angebot jedoch erweitern, indem sie selbst KI-Lösungen zur Verbesserung ihrer Dienstleistung einsetzen. Aus mathematischer Sicht hat sich seit den Anfängen der KI in den späten 1950er- Jahren und dem initialen Hype in den 1960er-Jahren nicht viel verändert (vgl. Muggleton 2014). Die Fortschritte, die auf diesem Gebiet erzielt wurden, liegen eher im Bereich der KI-Architektur und den emergenten Verhaltensweisen, die diese Strukturen mit wachsender Komplexität aufweisen (vgl. Maslej und Feldmann 2023). Was die Experimente, die zu diesen Fortschritten geführt haben, ermöglicht hat, ist die leichte Verfügbarkeit von Rechenleistung und Trainingsdaten. Dem Cloud-Computing-Trend der letzten zwei Jahrzehnte folgend, kann heute jedes Unternehmen die Rechenleistung für komplexe und rechenintensive Anwendungen gegen eine Kreditkartengebühr mieten, anstatt erst ein eigenes Rechenzentrum aufzubauen. Gleichzeitig ist die Menge der leicht zugänglichen Schulungsdaten parallel zur weit verbreiteten Nutzung des öffentlichen Internets seit den späten 1990er Jahren und dem Trend zur Digitalisierung aller Arten von Medien ständig gestiegen. Dies alles hat es Start-ups und Unternehmen auf der ganzen Welt ermöglicht, mit großen datengesteuerten Anwendungen einschließlich KI zu experimentieren wie nie zuvor. Dies führte erst vor wenigen Jahren zur Erfindung von Large Language Models (LLM), mit denen Computer lernten, die menschliche Sprache zu beherrschen. Auch Modelle, die Bilder und sogar Videos interpretieren und erstellen können, werden in letzter Zeit verfügbar. Dies ermöglicht nicht nur völlig neue Arten von Anwendungen, sondern erleichtert auch die Erstellung bereits bekannter Anwendungstypen, da das Format, in dem Anweisungen und Daten bereitgestellt werden, jetzt weniger <?page no="273"?> 3.3 Die Veränderung von Beratung und Business Coaching 273 wichtig ist. Wenn Menschen es lesen können, können es in einen Computer eingespeist und von diesem verwendet werden. Zweifelsohne werden diese neuen Möglichkeiten das Spiel für Organisationen und die beteiligten Personen verändern. Im weiteren Verlauf dieses Kapitels wird der Status quo erörtert, den Organisationen und Mitarbeiter derzeit erleben. Danach werden aufkommende Trends untersucht, die sich bereits abzeichnen. Schließlich werden einige Prognosen gegeben, die sich in den nächsten Jahren wahrscheinlich ergeben werden. All dies wird mit den Auswirkungen auf Coaching und Beratung verknüpft und mit der Frage, wie diese sich in Zukunft verändern werden. Dabei konzentriert sich dieses Kapitel auf die geschäftliche Seite der Dinge und insbesondere darauf, wie der Bereich des Business Coachings und der Beratung betroffen sein wird. Die Auswirkungen auf die Gesellschaft als Ganzes und andere Lebensbereiche werden bewusst ausgeklammert. Um dem Leser das Verständnis der folgenden Abschnitte und der darin verwendeten Konzepte zu erleichtern, folgen einige Definitionen. Definitionen Da die Begriffe Coaching, Team-Coaching und Beratung in diesem Kapitel häufig verwendet werden, müssen sie zunächst klarer definiert werden:  Die International Coaching Federation (ICF) definiert Coaching als „einen partnerschaftlichen und zum Nachdenken anregenden Prozess, der Menschen und Organisationen kreativ dabei unterstützt, ihr persönliches und professionelles Potential zu steigern.“ (International Coaching Federation - About 2024), und Mentoring wird vom European Mentoring and Coaching Council (EMCC) als „eine Lernbeziehung, die Menschen hilft, ihre eigene Entwicklung in die Hand zu nehmen, ihr Potenzial entfalten und Ergebnisse zu erzielen, die sie wertschätzen“ gesehen (European Mentoring and Coaching Council 2024).  Teamcoaching hat in letzter Zeit immer mehr an Bedeutung gewonnen, was zur Entwicklung einer Reihe von Kompetenzen und Standards geführt hat, um es von anderen Unterstützungsfunktionen für die Teamentwicklung abzugrenzen. Die ICF definiert Team-Coaching als „Partnerschaft in einem co-kreativen und reflektierenden Prozess mit einem Team, seiner Dynamik und seinen Beziehungen in einer Weise, die sie dazu inspiriert, ihre Fähigkeiten und ihr Potenzial zu maximieren, um ihren gemeinsamen Zweck und ihre gemeinsamen Ziele zu erreichen.“ (International Coaching Federation - Team Coaching 2024).  Für die Beratung sind die Autoren stark von Peter Blocks Verwendung des Begriffs in seinem Buch „Flawless Consulting“ beeinflusst, in dem er sich auf die von Ed Schein entwickelten Konzepte bezieht (Block 2023): „eine Expertenrolle, eine zuarbeitende Rolle (en. „a Pair-of-Hands Role“) oder eine Kollaborative-Problemlöser-Rolle“: Ein Expertenberater liefert Expertenwissen in Form von Analysen oder Konzepterstellung. Ein zuarbeitender Berater wird meist zur Auslagerung von konkreten Aufgaben eingesetzt. Ein kollaborativer Berater etabliert einen kreativen Problemlösungsprozess in enger Zusammenarbeit mit dem Kunden. Aus den obigen Definitionen wird ersichtlich, dass Coaching und Beratung als unterschiedliche Arten von Dienstleistungen für Organisationen zu betrachten sind. Und gleichzeitig kann der Ansatz einer kollaborativen Rolle eines Beraters der Rolle eines Coachs sehr nahekommen. <?page no="274"?> 274 Cristina Mühl und Daniel Hommel Zur weiteren Verdeutlichung werden die Begriffe künstliche Intelligenz, Chatbots und Agenten wie folgt definiert:  „Künstliche Intelligenz (KI) wird allgemein definiert als die Fähigkeit eines Systems, externe Daten richtig zu interpretieren, daraus zu lernen und diese Erkenntnisse zu nutzen, um bestimmte Ziele und Aufgaben durch flexible Anpassung zu erreichen“ (Haenlein 2019).  Chatbots sind Anwendungen, die verschiedene Arten von Diensten anbieten, die darauf ausgelegt sind, Gespräche in natürlicher Sprache zu simulieren, entweder über Text- oder über Audiomethoden. Da die Anwendung natürliche Sprache verwendet, die mit KI generiert wird, vermittelt sie das Gefühl, ein Gespräch mit einem anderen Menschen und nicht mit einer Maschine zu führen (vgl. Pérez-Soler 2021).  Ein Agent wird im Allgemeinen als eine Anwendung definiert, die ihre Umgebung wahrnimmt, Aktionen auf der Grundlage der vom Benutzer bereitgestellten Informationen ausführt, Entscheidungen auf der Grundlage von Argumenten trifft und aus Erfahrungen lernt, um sich an neue Situationen anzupassen (vgl. Gutowska 2024). 3.3.2 Auswirkungen von KI auf Unternehmen und Mitarbeiter Wie bereits in der Einleitung erwähnt, können die neuen Möglichkeiten, die KI den Unternehmen bietet, zu einer neuen Superkraft für diejenigen werden, die sie zu nutzen wissen. Unternehmen auf der ganzen Welt scheinen dies bereits begriffen zu haben, und der Wettlauf um die Einführung verschiedener KI-gestützter Anwendungen in Unternehmen mit dem Wunsch, die Vorteile der Effizienzsteigerung und Innovation zu nutzen, hat offiziell begonnen (vgl. Olanrewaju Olutimehin 2024). Unabhängig von einer bestimmten Technologie ist die wichtigste Fähigkeit, die sich Organisationen zunutze machen müssen, um in der Zukunft erfolgreich zu sein, die Anpassungsfähigkeit (vgl. Uhl-Bien 2018). Das Chartered Institute of Personnel and Development (CIPD) und die Society for Human Resource Management (SHRM) geben eine Definition dafür, was das im Einzelnen bedeutet: „Anpassungsfähigkeit in einem organisatorischen Kontext ist die Fähigkeit von Einzelpersonen, Teams und der Organisation als Ganzes, schnell und effektiv auf sich verändernde externe Bedingungen und interne Dynamiken zu reagieren, indem Verhaltensweisen, Prozesse und Strategien so angepasst werden, dass die Leistung erhalten bleibt oder verbessert wird und kontinuierliches Lernen unterstützt wird.“ Anpassungsfähigkeit bedeutet also, dass eine Organisation in der Lage ist, ihre Struktur als Reaktion auf Veränderungen im Umfeld oder auf neue, intern verfügbare Informationen zu ändern. Beide zuvor genannten Faktoren werden durch den zunehmenden Einsatz von KI stark beeinflusst, sei es durch schnell agierende Konkurrenten auf dem Markt oder durch interne Teams, die mithilfe der neu verfügbaren Tools rasch neue Erkenntnisse gewinnen. Daraus lässt sich schließen, dass Unternehmen anpassungsfähig werden müssen, um mithilfe von KI innovativ sein zu können. Anpassungsfähigkeit einer Organisation scheint auch generell zu sein, was es einem Unternehmen im Kern ermöglicht, innovativ zu sein (vgl. Utterback 1994). <?page no="275"?> 3.3 Die Veränderung von Beratung und Business Coaching 275 Damit ist klar, dass die Einführung von KI auch Auswirkungen darauf haben wird, welche Fähigkeiten in Zukunft als wertvoll angesehen werden. Viele Unternehmen haben schon damit begonnen, sich damit auseinanderzusetzen. Das Weltwirtschaftsforum veröffentlichte eine Reihe von Artikeln im Rahmen des Jahrestreffens 2025 des Weltwirtschaftsforums, und in einem davon heißt es, dass „37 % der Führungskräfte weltweit angeben, dass sie beabsichtigen, in diesem Jahr in Weiterbildung (en. Learning and Development) zu investieren, um Mitarbeiter in KI-Tools zu schulen.“ (World Economic Forum 2025). Darüber hinaus scheint sich die Investition in KI- Fähigkeiten auszuzahlen, denn die Zahlen zeigen, dass 51 % der Unternehmen, die bereits von der Einführung generativer KI im Jahr 2024 profitiert haben, eine Umsatzsteigerung von 10 % oder mehr gemeldet haben (World Economic Forum 2025). Es gibt jedoch noch eine andere, vielleicht nicht so offensichtliche Veränderung. In Anbetracht der Notwendigkeit, schnell auf Veränderungen zu reagieren anstatt durch funktionale Spezialisierung auf Effizienz zu setzen, nennt (vgl. Thornhill-Miller 2023) die Fähigkeiten des 21. Jahrhunderts: Kreativität, kritisches Denken, Zusammenarbeit und Kommunikation. In allen Branchen und Berufen ist zu beobachten, dass fortgeschrittene kognitive Fähigkeiten wie kritisches Denken, analytisches Denken und kreative Problemlösungskompetenzen immer mehr an Bedeutung gewinnen. Obwohl es dazu bisher nur wenige Forschungsarbeiten gibt, scheint es Belege dafür zu geben, dass KI-gestütztes Lernen in einigen Fällen nützlich ist und Bildungsergebnisse verbessern kann. Aber wenn man sich zu sehr darauf verlässt, scheint es sich negativ auf Problemlösungsfähigkeiten (vgl. Çela 2024), kritisches Denken und das Erinnerungsvermögen (vgl. Long 2023) auszuwirken. Rein wissensorientierte Tätigkeiten können bereits gut durch KI ersetzt werden, da aktuelle KI-Modelle mit Datensätzen trainiert werden, die ein breites Spektrum an Wissen abdecken. Ein von der Internationalen Arbeitsgruppe für Datenschutz in der Technik des Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI) veröffentlichtes Papier (vgl. BfDI 2024) hebt hervor, dass aktuelle KI-Modelle nicht nur mit der Gesamtheit der im Internet verfügbaren öffentlichen Informationen trainiert werden, sondern auch mit Büchern, Konversationen in sozialen Medien, Zeitschriften und vielen weiteren Offline-Quellen (vgl. BfDI 2024). Das Fraunhofer-Institut IAIS in Erlangen gab im Januar 2025 die Entwicklung eines KI-Sprachmodells „Teuken-7B“ bekannt, das als das fortschrittlichste Modell gilt. Es verfügt über Mehrsprachigkeit, da es zu 50 % auf nicht-englischen Datensätzen trainiert wurde und alle 24 europäischen Sprachen abdeckt. Darüber hinaus handelt es sich um ein Open-Source-Modell, das es Organisationen ermöglicht, es für interne Anwendungen mit schützenswerten Daten zu nutzen (vgl. IAIS 2025). Interessanterweise kann die Einführung von KI aber Unternehmen auch weiter ausbremsen und Abwärtsspiralen beschleunigen: Das immer noch am häufigsten anzutreffende Organisationsmodell basiert auf hochspezialisierten funktionalen Silos innerhalb einer Kontrollhierarchie: Arbeit in der oberen Ebene geplant und aufgeteilt und durch die Hierarchie nach unten delegiert. Dieses Konzept ist auf Stabilität, Vorhersehbarkeit und daraus folgender Effizienz ausgerichtet, was auf Kosten der teamübergreifenden Zusammenarbeit geht (Mohamed 2004). Mit einem solchen Modell kann die Einführung von KI den Verwal- <?page no="276"?> 276 Cristina Mühl und Daniel Hommel tungsaufwand für die Abstimmung zwischen den verschiedenen Teams noch weiter erhöhen, da diese jeweils schneller werden. Ein weiterer Nachteil ist, dass Organisationen, die ihre Struktur nach diesem Modell auf Effizienz optimiert haben, oft so arbeiten, dass die Prozesse nacheinander durch die verschiedenen Silos fließen. Der Nachteil dieses Ansatzes besteht darin, dass er nur langsam auf Veränderungen reagieren und schlecht mit Varianzen jeglicher Art umgehen kann. Das behindert die Anpassungsfähigkeit eines Unternehmens und damit, wie bereits besprochen, erfolgreiche Innovation durch KI. Darüber hinaus legen solche Organisationen mit kontrollorientierten Kulturen oft Wert auf umfangreiche Dokumentation. In diesen Unternehmen hat KI das Potenzial, Prozesse geradezu zu verstopfen, indem sie jede Menge Unterlagen, Präsentationen und E-Mails zu erzeugen hilft und das schneller als je zuvor. Dieser Trend hat sich bereits in der Studie des Upwork Research Institute aus dem Jahr 2024 gezeigt. Darin wurde festgestellt, dass von 2.500 globalen Geschäftsführenden, Festangestellten und Freiberuflern 96 % der Geschäftsführenden angaben, dass sie von KI eine Steigerung der Produktivität erwarten, während 77 % der Angestellten angaben, dass KI vor allem ihre Arbeitsbelastung erhöht und es schwieriger macht, das gewünschte Produktivitätsniveau zu erreichen (vgl. Robinson 2025). Mit der zunehmenden Verbreitung von KI wird ein weiterer Aspekt für Unternehmen immer wichtiger. Der Hype um die öffentlich verfügbaren KI-Werkzeuge, der mit ChatGPT begann, ist beträchtlich. Mitarbeitende begrüßen sie als die neuen Power-Tools der Wahl, mit denen sich beliebige Aufgaben vereinfachen lassen. Aber von Anfang an hatten sie auch offensichtliche Schwächen, über KI-Kritiker weltweit berichten (vgl. Gupta 2023). Diese Probleme lassen sich in vier Kategorien einteilen:  Rückverfolgbarkeit : Während die zugrunde liegende Mathematik perfekt verstanden werden kann, ist das, was für uns wie intelligentes Verhalten aussieht, ein emergenter Effekt hochkomplexer Architekturen. Bis heute ist es fast unmöglich, genau zu verstehen, wie ein bestimmtes KI-Modell eine bestimmte Art von Ergebnissen erzeugt hat, und diese mit bestimmten Datensätzen aus den Trainingsdaten zu korrelieren.  Halluzinationen : Die künstliche Intelligenz kann durch Interpolation zwischen Trainingsdatensätzen, die sie in den Trainingsläufen gesehen hat, neue Ergebnisse erzeugen. Die Tatsache, dass sie dies tun kann, ist kein technischer Fehler, sondern das ausschlaggebende Funktionsmerkmal ihrer Architektur und im Allgemeinen nützlich. Das bedeutet jedoch, dass die KI ohne Zurückhaltung Fragen beantwortet, für deren Beantwortung sie nicht trainiert wurde. Diese Antworten können plausibel klingen, sich aber bei näherer Betrachtung als völlig falsch herausstellen.  Voreingenommenheit ( en . Bias) : Jede KI spiegelt die Verzerrungen wider, die in den Trainingsdaten enthalten sind. Daher können alle Entscheidungen, die von der KI getroffen werden, stark voreingenommen sein, wenn dieser Effekt nicht bei der Auswahl von Trainingsdaten berücksichtigt wird.  Ethische Herausforderungen : Die neueste Generation von KI-Modellen benötigt riesige Datenmengen, um darauf trainiert zu werden. Der Bedarf an Daten bringt automatisch die Frage mit sich, wie sichergestellt werden kann, dass die Daten auf ethische Weise beschafft und verwendet werden. Außerdem stellt sich die Frage, welche Art von Anwendungen, die technisch machbar sind, auch ethisch <?page no="277"?> 3.3 Die Veränderung von Beratung und Business Coaching 277 vertretbar wären. Social-Scoring-Systeme sind beispielsweise nur einen kleinen Schritt entfernt, aber wäre es angemessen, sie zu bauen? Zusammenfassend lässt sich sagen, dass Einzelpersonen und Organisationen bereits jetzt von mehreren Veränderungen betroffen sind. Für den Einzelnen geht es vor allem darum, welche Fähigkeiten in Zukunft als wertvoll angesehen werden. Hier ist eine Tendenz zu generalistischen Profilen mit analytischem Denken und kreativen Problemlösungsfähigkeiten zu beobachten. Für Unternehmen sind drei große Veränderungen zu beobachten, die zusammengenommen die Funktionsweise von Unternehmen verändern werden. Die wichtigste ist, dass sich die Entscheidungsfindung von zentralisierten Ansätzen zu stark dezentralisierten Ansätzen verlagern muss, da dies die Grundlage ist, auf der die Fähigkeit zur Innovation mit KI beruht. Die zweite große Veränderung wird durch die Notwendigkeit für Unternehmen verursacht, die potenziellen Schwächen der KI in den Griff zu bekommen. Dies wird dazu führen, dass Unternehmen zunehmend zu einem stark zentralisierten Ansatz für die KI-Governance übergehen, anstatt jeder innovativ tätigen Person im Unternehmen zu erlauben, völlig frei ihre eigenen Anwendungen zu entwickeln. Unternehmen werden diesem neuen Aspekt ihres Organisationsdesigns viel Aufmerksamkeit und Mühe widmen müssen. 3.3.3 Folgen des organisatorischen Wandels für Coaching und Beratung Aus der bisherigen Betrachtung wird deutlich, dass der organisatorische Gestaltungsansatz der Zukunft sehr wahrscheinlich auf kleinen, selbst zu Entscheidungen befähigten Teams beruhen wird, die die direkte Verantwortung für einzelne Unternehmensziele übernehmen. Diese Teams werden aus einigen Generalisten mit besonders ausgeprägten analytischen Denk- und kreativen Problemlösungsfähigkeiten bestehen. Auf Expertenwissen basierende Aufgaben werden zunehmend durch KI-Agenten ersetzt werden, die umfassend in dem für eine bestimmte Aufgabe relevanten Fachwissen geschult wurden und diese schneller und möglicherweise sogar besser als Menschen ausführen können. Von diesen KI-Agenten kann es beliebig viele geben. Die Aufgabe der Menschen wird in Zukunft darin bestehen, ein Problem sinnvoll herunterzubrechen und die KI- Agenten so zu orchestrieren, dass sie Ergebnisse produzieren können und diese Vorgehensweise in extrem schnellen Feedback-Zyklen anzupassen. Wie bereits erwähnt, bedeutet dies, dass die Teams zu schnell sein werden, um inhaltlich von einem Vorgesetzten geführt zu werden. Folglich müssen Teams die Fähigkeit erlangen, sich selbst erfolgreich zu steuern und dabei auftretende Konflikte selbst zu lösen. In dieser schnelllebigen Welt wird auch die Teamdynamik intensiver werden. Teams werden deshalb einen erhöhten Bedarf an Unterstützung haben, da nachhaltige Lösungen nur entstehen können, wenn die Teams lernen, ihre Herausforderungen selbst zu bewältigen. Daraus ergibt sich eine dritte Veränderung für die Unternehmen, die eine ganze Reihe von Auswirkungen mit sich bringt. Dieser Wandel besteht darin, dass die Organisationen erkennen werden, dass sie einen ständigen Bedarf an Teamcoaching- <?page no="278"?> 278 Cristina Mühl und Daniel Hommel Unterstützung haben werden. Und wegen des kontinuierlichen Bedarfs der Anpassung ihrer Strukturen, in denen die Teams zusammenarbeiten, auch an Organisationsentwicklungsdienstleistungen. Dies wird dazu führen, dass Unternehmen Teamcoaching und Organisationsentwicklungsberatung als permanente Funktionen der Organisation betrachten, die direkt mit der Fähigkeit verbunden sind, großartige Ergebnisse zu erzielen. Daher werden sie diese Dienstleistungen zunehmend internalisieren und als festen Bestandteil der Organisation betrachten. Abb. 65: Veränderungen in Organizationen (Quelle: Eigene Darstellung) Diese dritte große Veränderung in den Organisationen wird sich auf die künftige Nachfrage nach bestimmten Arten von Coaching auswirken. Dies ist jedoch aus den derzeit verfügbaren Daten noch nicht ersichtlich. Die jüngste ICF Global Coaching Study liefert eine Momentaufnahme des Marktes bis Ende 2022 und zeigt einen Markt von fast 5 Milliarden Euro aufgeteilt in Leadership Coaching 34 %, Executive Coaching 17 % und Business Coaching 13 % (vgl. International Coaching Federation 2023). Prognosen gehen davon aus, dass der Markt Ende 2024 bei 21 Milliarden Euro liegen wird (vgl. ICS 2024). Für das Teamcoaching liegen nur Schätzungen in Höhe von etwa 1 Milliarde Euro vor, da die Klassifizierung verschiedener professioneller Teamentwicklungsmodalitäten erst 2020 eingeführt worden ist. Das bedeutet natürlich nicht, dass Teamcoaching-Praktiker vor 2020 keine solchen Dienstleistungen erbrachten, sondern dass die Schritte zur Professionalisierung dieser Art von Interventionen erst nach 2020 eingeleitet wurden. Darüber hinaus wird Teamcoaching in einigen Fällen gemeinsam mit Einzelcoaching in der Statistik aufgeführt, so dass es schwierig ist, eine genauere Angabe zu machen. Je mehr sich der Beruf des Teamcoachs professionalisiert, desto zuverlässiger werden die Daten an dieser Stelle werden. Es ist aber zu erwarten, dass die Nachfrage nach professionellem Teamcoaching in Zukunft deutlich zunehmen und sogar einen Teil der derzeitigen Nachfrage nach Einzelcoaching ersetzen wird. Darüber hinaus werden sich die Themen für das Einzelcoaching verändern, da ein erhöhter Bedarf an den folgenden Themen bestehen wird:  Unterstützung von Personen mit sich wandelnden wechselnden Qualifikationsprofilen und regelmäßigen horizontalen Versetzungen innerhalb der Organisation  Unterstützung von Führungskräften bei der Einführung geeigneter Anpassungen an ihrer Organisationsstruktur und bei der Vermittlung dieser Veränderungen <?page no="279"?> 3.3 Die Veränderung von Beratung und Business Coaching 279  Unterstützung von Führungskräften bei der Schaffung von Klarheit bezüglich der Unternehmensziele und Unterstützung bei der gemeinsamen Ausrichtung darauf  Unterstützung von Führungskräften bei der Befähigung von Teams, zunehmende Verantwortung für ihre Arbeit übernehmen zu können. Die Autoren erwarten, dass diese Themen vor allem Teile der Nachfrage nach Executive Coaching ersetzen werden. Gleichzeitig ist zu erwarten, dass die Nachfrage nach Leadership Coaching hoch bleiben wird und Business Coaching im Allgemeinen zunehmend durch Teamcoaching ersetzt wird. Dies wird auch durch eine kürzlich durchgeführte Gallup-Studie bestätigt, in der hervorgehoben wird, dass das Vorgehen der Führungskräfte das Engagement der Mitarbeiter und damit implizit auch die Geschäftsergebnisse beeinflusst. 70 % der Mitarbeiter brachten ihr Engagement mit der Ausprägung der Führungsrolle in Verbindung (vgl. Ratanjee 2021). Dies zeigt, dass es notwendig ist, bessere Führungsqualitäten und darüber hinaus Coachingfähigkeiten für Manager und Führungskräfte zu entwickeln, um ihre Teams bei der Erreichung der Unternehmensziele zu unterstützen. Agile Vorgehensweisen waren seit mindestens zehn Jahren ein starker Trend, im Rahmen dessen viele Organisationen agile Arbeitsweisen eingeführt und interne Pools mit Agile Coachs aufgebaut haben. Der geschätzte Wert des Agile-Coaching- Marktes im Jahr 2024 beträgt etwa 42 Milliarden Euro (vgl. IMARC 2024). Dieser Markt scheint aktuell deutlich zu schrumpfen. Die Gründe dafür scheinen vielfältig zu sein. Auffällig ist, dass agile Methoden in weiten Teilen zu einer Industrie geworden sind, die vor allem Trainings für vorgefertigte Frameworks und Best- Practice-ähnliche Ansätze verkauft. Während diese Frameworks und Best-Practiceähnlichen Ansätze vor 10 Jahren noch echte Probleme gelöst haben, sind sie für die neu entstehenden Bedürfnisse von heute oft zu umfangreich, zu starr und konnten deshalb ihre Versprechen in Bezug auf erzielbare Leistungssteigerung oft nicht halten. An dieser Stelle muss auch gesagt werden, dass die derzeit erfolgreichsten agilen Frameworks immer noch auf managergeführte Organisationen mit arbeitsteiligen Strukturen zu setzen scheinen. Wie bereits erörtert, vollzieht sich ein grundlegender Wandel weg von dieser Art der Organisationsgestaltung, den die agilen Rahmenwerke bisher offenbar nicht ausreichend berücksichtigt haben. Agile Frameworks haben auch nie wirkliche Antworten darauf gegeben, wie Organisationen jenseits von Forschung und Entwicklung gestaltet werden können. Die Autoren gehen davon aus, dass sich ein großer Anteil der heutigen Nachfrage nach agilem Coaching in Richtung von professionellem Teamcoaching und methodenagnostischer Organisationsentwicklungsberatung verlagern wird, da diese eher den Kern dessen darstellen, was den Erfolg von Organisationen in der Zukunft ermöglichen wird. Um das Bild noch zu vervollständigen: Der Markt für Unternehmensberatungsdienste wird für das Jahr 2024 auf 300 Milliarden Euro geschätzt (vgl. MMR 2024). Ein großer Teil dieses Marktes entfällt nach wie vor auf die zuarbeitende Beratung und die Expertenberatung, auf die sich die großen Beratungsunternehmen nach wie vor spezialisieren. Wie in anderen Bereichen auch, ist zu erwarten, dass vor allem die <?page no="280"?> 280 Cristina Mühl und Daniel Hommel Expertenberatung, aber auch große Teile der zuarbeitenden Beratung im Marktvolumen zurückgehen werden, da Unternehmen eher in der Lage sein werden, diese Dienstleistungen durch KI-Lösungen zu ersetzen. Weiter gefragt sein wird vor allem der kollaborative Berater, der unterstützt, indem er mit den Kunden Lösungen entwickelt, die nicht dem Standard entsprechen und möglicherweise sogar noch nie da gewesen sind. Die Autoren gehen davon aus, dass dies auch zu einer Verlagerung hin zu kleineren Boutique-Beratungsunternehmen führen wird, die dann eine erhöhte Nachfrage verzeichnen werden, während die großen Beratungsunternehmen, die sich auf andere Dienstleistungen konzentrieren, einen Anstoß zum Überdenken ihrer Geschäftsmodelle erhalten könnten. 3.3.4 Herausforderungen bei der Internalisierung von Coaching und Beratung Auf dem Weg zur Schaffung zentraler Pools von Teamcoachs und Organisationsentwicklungsberatern ergeben sich auch für Organisationen einige neue Herausforderungen. Dies wirkt sich auch auf Coachs und Berater aus, da diejenigen, die sich darauf vorbereiten, diese Entwicklung zu unterstützen, eine bessere Chance haben, ihre Dienste zu positionieren, sei es als externe Unterstützung oder als Mitglied eines dieser Pools. Der erste Schritt für jede Organisation, die sich in diese neue Richtung bewegt, ist die Definition des Zwecks dieser neu geschaffenen internen Funktionen. Dies bedeutet vor allem, dass klar definiert wird, wie sie den Erfolg der Organisation unterstützen werden, und dass relevante Leistungsindikatoren (KPI) für die Funktionen als Ganzes bereitgestellt werden. Der nächste Schritt besteht darin, einen wiederholbaren Ansatz zu entwickeln, um den aktuellen Bedarf der Organisation und der Teams an Unterstützung bei der Anpassung der Umgebungsstruktur oder den Herausforderungen der teaminternen Dynamik zu ermitteln. Für die Umsetzung der der Anforderungen, die dieser Ansatz hervorbringt, werden auch die folgenden zwei Aspekte relevant sein. Die ersten Aspekte sind die Rekrutierung und das Onboarding von Coachs und Beratern, die den langfristigen Entwicklungsbedürfnissen des Unternehmens und der Teams entsprechen. Die zweite besteht darin, eine passende Heuristik zu entwickeln, um Coachs und Berater intelligent innerhalb der Organisation zu platzieren und sicherzustellen, dass die individuellen Stärken in Bezug auf die vorliegenden Herausforderungen gut genutzt werden können. Sobald Coachs und Berater im Einsatz sind, rücken dann einige andere Aspekte des organisatorischen Rahmens in den Vordergrund. Um sicherzustellen, dass alles, was getan wird, den aktuellen Standards und den Best-Practices des jeweiligen Berufsstandes entspricht, müssen klare Qualitätsstandards sowohl für Coachs als auch für Berater im Kontext der Organisation definiert werden. Das schließt die Art und Weise der Bewertung von Abweichungen ein, und wie darauf aufbauend notwendige Änderungen durchgesetzt werden. Außerdem sind beide Berufe, Coaching und Beratung, besonders anfällig für ethi- <?page no="281"?> 3.3 Die Veränderung von Beratung und Business Coaching 281 sche Dilemmata. In vertraulichen Gesprächen werden oft heikle Informationen weitergegeben, die sich negativ auf die Fähigkeit von Coachs und Beratern auswirken könnten, ihre Arbeit unvoreingenommen zu erledigen. Daraus ergeben sich Kontexte, in denen ein Verhalten beispielsweise schnell als Missbrauch der eigenen Position zur Erlangung unangemessener persönlicher Vorteile gewertet werden kann. Organisationen müssen sich darauf vorbereiten und definieren, was ethisches Verhalten ausmacht und wie Coachs und Berater dabei Unterstützung erhalten können, diese Dilemmata effektiv zu navigieren. Für ein kontinuierliches Wachstum innerhalb der Funktionen Coaching und Beratung sind Mentoring und Supervision besonders relevant. Beim Mentoring geht es eher darum, dass weniger erfahrene Coachs und Berater von erfahreneren Kollegen lernen. Bei der Supervision geht es darum, zu reflektieren, wie die eigene Identität und die eigene Wahrnehmung die Arbeit beeinflusst. Daher wäre es für Organisationen von Vorteil, wenn sie festlegen, wie Mentoring und Supervision für Coachs und Berater angeboten werden können. Darüber hinaus muss es, wie bei allen Mitarbeitern und Teams, eine Möglichkeit geben, individuelle Leistungsbeurteilungen vorzunehmen. Ein Rahmen für die Führung von Coachs und Beratern kann nicht geschaffen werden ohne die Festlegung von Leistungsstandards für beide Arten von Dienstleistungen und einem Verfahren, mit dem die ausführenden Individuen bewertet werden können. Aufbauend auf dem letzten Aspekt müssen Organisationen eine Idee entwickeln, wie auf Qualität, Leistung und kontinuierlicher persönlicher Entwicklung basierende Karrierepfade aussehen können, um Coachs und Berater langfristig zu binden. Was den Einsatz von KI bei der Verwirklichung eines solchen Rahmens betrifft, so gibt es einige potenzielle Anwendungen. Was bei vielen Kommunikationsprogrammen bereits möglich ist, ist die Verwendung von KI-basierten Add-ons, die dabei helfen, das Gesprochene in Form von schriftlichen Protokollen zusammenzufassen. Wenn solche Funktionen in der Breite eingesetzt werden, können Protokolle aus Einzel-, Gruppen- und Teamsitzungen leicht erfasst werden. Mit Hilfe von LLM können damit aktuelle Themen im Unternehmen sowie aufkommende Trends identifiziert werden. Diese Erkenntnisse können wiederum in die Bedarfsanalyse einfließen und für Führungsfragen herangezogen werden. Eine weitere KI-gestützte Anwendung wäre das Trainieren eines Modells anhand der über die Coachs verfügbaren Informationen, der verfügbaren Leistungsdaten und des Kundenfeedbacks und die Verwendung dieses Modells zur Vorhersage, wie gut die Coachs zu bestimmten Kunden oder Szenarien passen werden. Darüber hinaus bleibt noch zu beleuchten, wie die Entwicklung eines solchen organisatorischen Rahmens und der Trend, Coaching und Beratung als interne Funktion zu sehen, das Verhältnis von Organisationen zu Coachingplattformen und Anbietern von Coachingausbildungen verändert. Kurzfristig werden Coachingplattformen für viele Organisationen die Rolle eines wertvollen Partners spielen, der es leicht macht, genügend Experten für die zu besetzenden Stellen heranzuziehen, ohne sie gleich einstellen zu müssen. Der Vorteil liegt im schnellen Zugang und in der geringen Verpflichtung. Längerfristig werden Plattformen weniger nachgefragt werden, weil die Unternehmen gut genug in dem werden, was die Plattformen ihnen bieten, um sie nicht mehr <?page no="282"?> 282 Cristina Mühl und Daniel Hommel zu brauchen. Beispiele hierfür sind die bereits diskutierten Matching-Ansätze und Rekrutierungsmöglichkeiten. Ausbildungsanbieter werden feststellen, dass mit der Umstellung auf Coaching und Beratung als permanente Inhouse-Funktionen immer mehr Inhouse-Schulungen nachgefragt werden. Vom Volumen her wird sich dies absehbar im Verhältnis zwischen internen und öffentlichen Angeboten bemerkbar machen. Gleichzeitig werden diese unternehmensinternen Angebote immer stärker auf die Bedürfnisse des jeweiligen Unternehmens zugeschnitten sein. Und das Format, in dem diese Bildungsmaßnahmen angeboten werden, wird sich zunehmend auf kleine Lerneinheiten verlagern, die häufig auch in Form von Videokursen zum Selbststudium innerhalb des Lernmanagementsystems (LMS) des Unternehmens bereitgestellt werden. Erfolgreiche Bildungsanbieter werden daher verstärkt in die Rolle des Anbieters von bewährten Baukästen schlüpfen, die Organisationen helfen, ihre internen Bildungsprogramme effizienter umzusetzen. Dies unterstreicht die beratende Rolle, die Bildungsanbieter haben. 3.3.5 Erfolgreicher KI-Einsatz in Coaching und Beratung Viele Coachs und Berater haben sofort damit begonnen, KI im Marketing einzusetzen. LLMs wie ChatGPT ermöglichen dies durch die schnelle Erstellung von Inhalten in beliebigen Formaten. Es ist zu erwarten, dass bald ein Großteil der Social-Media- Posts zur persönlichen Positionierung unter maßgeblicher Beteiligung von KI erstellt werden wird. Dies mag irrelevant klingen, stellt aber ein Problem für Unternehmen dar, da es für sie immer schwieriger wird, zu erkennen, wer in einem bestimmten Kontext über Fachwissen verfügt und wer KI einsetzt, um diesen Eindruck zu erwekken. Auch hier wird deutlich, wie wichtig es ist, ethisches Verhalten zu definieren, und wie groß die Herausforderungen bei der Personalbeschaffung sind. Außerdem drängen viele Softwareanbieter darauf, KI in ihre Tools einzubauen. Vieles davon wird für Coachs und Berater gleichermaßen nützlich sein, sei es durch leichter anzufertigende Protokolle, einfachere Kalenderbuchungen oder ähnliches. Dies sind sicherlich hilfreiche Anwendungen von KI in Coaching und Beratung und daher auch erwähnenswert, aber die Möglichkeiten der Anwendung von KI in Coaching und Beratung gehen weitaus tiefer. Auf der Grundlage der Untersuchungen von Nicky Terblanche (vgl. Terblanche 2024) lassen sich die Hauptkategorien von Anwendungen im Coaching wie folgt zusammenfassen:  Unterstützung der Verwaltung im Zusammenhang mit dem Coachingprozess: Anwendungen zur Vorbereitung der Coachingsitzung, z. B. Terminplanung, Gespräche vor der Sitzung usw.  Qualitätskontrolle des Coachinggesprächs: Anwendung zur Verbesserung der Qualität von Coachs durch Feedback und Reflexion über die in den Sitzungen geleistete Arbeit. Beispielsweise kann Ovida verwendet werden, um Feedback zur Berücksichtigung ICF-Kernkompetenzen zu erhalten, was es dem Coach ermöglicht, Verbesserungsbereiche zu identifizieren und durch bewusstes Üben besser zu werden. <?page no="283"?> 3.3 Die Veränderung von Beratung und Business Coaching 283  Anreicherung und Unterstützung des Coachingprozesses: Chatbots, die den Klienten zwischen den Sitzungen unterstützen, unbeaufsichtigte oder beaufsichtigte Chatbots, die in verschiedene Anwendungen integriert sind, um den Klienten bei der Suche nach praktikablen Lösungen zu unterstützen, z. B. Coach M oder Coach Vicci, AIMY von CoachHub.  Coach-Ausbildung: Chatbots zur Unterstützung bei der Coaching-Ausbildung. Es ist anzumerken, dass die wichtigsten Akteure in allen oben genannten Kategorien derzeit in Deutschland ansässig sind oder ihre Geschäfte von Deutschland aus führen. Die Autoren gehen davon aus, dass die KI es den Coachs auch ermöglichen wird, einfach eigene Apps zu entwickeln, um den Coachingprozess weiter zu verbessern. Apps zur den Coachingprozess begleitenden Unterstützung von Tagebuchführung und Achtsamkeitsübungen, aber auch zur Unterstützung hinsichtlich selbst gegebener Entwicklungsaufgaben sind leicht vorstellbar. Um die Entwicklung von KI im Coaching zu unterstützen, hat die ICF im Jahr 2024 einen Rahmen für die Nutzung von KI im Coaching eingeführt. Dieser hebt die Notwendigkeit hervor, zu verstehen, wie die einzelnen Kernkompetenzen im Coachingprozess verankert sind und jeweils durch KI-Einsatz verbessert werden können (vgl. International Coaching Federation - Technology in Coaching 2024). Abb. 66: Verwendung von KI in Coachingprozess (Quelle: Eigene Darstellung) Natürlich ist der erwartete Nutzen für Berater nicht geringer. In einer in Zusammenarbeit mit der Boston Consulting Group durchgeführten Studie wurde festgestellt, dass Berater, die KI-Funktionen nutzen, im Durchschnitt 12,2 % mehr Aufgaben erledigten und die Qualität um 40 % höher war als bei der Kontrollgruppe (vgl. Dell'Acqua 2023). Einige der Bereiche, in denen Berater von KI profitieren können, entsprechen denen von Coachs (Verwaltung usw.), aber es gibt einige Bereiche, in denen Berater besonders profitieren können. <?page no="284"?> 284 Cristina Mühl und Daniel Hommel Abb. 67: Verwendung von KI in der Beratung (Quelle: Eigene Darstellung) Der Goldstandard für Berater in der Organisationsentwicklung ist die aus der Aktionsforschung nach Kurt Lewin stammende Survey-Feedback-Methode. Bei diesem Ansatz wird das System, das beraten wird, dazu gebracht, in eine Selbstreflexion einzutreten. Die Berater tun dies in der Regel, indem sie eine Reihe von Interviews mit Gruppen führen, die „Mikrokosmen der Organisation“ darstellen, viele Notizen machen und diese dann in einer Diagnoseschrift zusammenstellen, die anschließend der Organisation zurückgespiegelt wird. Nach der initialen Bereitstellung von etwas Projektkontext kann KI diesen Ansatz auf verschiedene Weise unterstützen, u. a:  Gestaltung der Interviewfragen und des Interviewleitfadens  Unterstützung bei der Erstellung von Notizen während der Interviews  Zusammenfassung der Gesprächsnotizen  Auswahl der wichtigsten und interessantesten Erkenntnisse  Ableitung von Hypothesen aus gesammelten Erkenntnissen  Aufzeigen von möglichen Verzerrungen (Biases) in den Daten und in der Wahrnehmung der Berater  Unterstützung bei der Erstellung der Diagnoseschrift und begleitender Unterlagen Darüber hinaus gibt es vier Hauptbereiche, in denen Berater ihre Effizienz und den Wert, den sie ihren Kunden bieten, durch den Einsatz von KI steigern können:  Bereitstellung von maßgeschneiderten Chatbots oder KI-Agenten, die die Anwendung von Expertenwissen in Echtzeit unterstützen  Unterstützung der Organisation bei der Entscheidungsfindung auf der Grundlage der während des gesamten Prozesses gesammelten Daten  Vorhersage, welche anderen Dienstleistungen für die Organisation von Nutzen sein könnten, auf der Grundlage dessen, was aktuell passiert, und dem Abgleich mit einer Datenbank von früheren Fällen  Szenario-basierte Simulationen zur Bewertung der Ergebnisse verschiedener Strategien auf der Grundlage einer verfügbaren Datenbasis <?page no="285"?> 3.3 Die Veränderung von Beratung und Business Coaching 285 Alle genannten Anwendungen für Coachs und Berater verdeutlichen erneut die Notwendigkeit einer ethischen Nutzung von KI. Wie bereits erwähnt, kann dies die Beschaffung und Nutzung von Daten, Überlegungen zum Datenschutz und zur Angemessenheit der Anwendung (Bewertung und Verfolgung von Personen, Verhaltensvorhersage usw.) betreffen. Die Bedeutung dieser Überlegungen kann nicht hoch genug eingeschätzt werden. Für Coachs und Berater wird es immer wichtiger, sich über die oben genannten Punkte zu informieren, um ethisches Verhalten sicherzustellen und zu vermeiden, dass sie durch den Einsatz von KI-Funktionen bei der Erbringung ihrer Dienstleistungen unwissentlich Schaden anrichten. In den letzten Jahren hat sich eine Gesetzgebung herausgebildet, die die Anforderungen an die Nutzung von KI in jeder Anwendung in der EU in Form des EU-Gesetzes über künstliche Intelligenz abdeckt (vgl. EUR-Lex 2024). 3.3.6 Fazit Es lohnt sich, das Gesamtbild der in diesem Kapitel erörterten Themen noch einmal zu betrachten: Die zunehmende Einführung von KI wird sich auf unterschiedliche Weise auf Unternehmen und Einzelpersonen auswirken. Vor allem werden die gefragten Qualifikationen eher zu generalistischen Profilen mit analytischen und kreativen Problemlösungskompetenzen tendieren. Diese Personen werden eine weniger stabile Position innehaben und häufiger innerhalb eines Unternehmens Beschäftigungen wechseln. Unternehmen müssen endlich lernfähig werden, indem sie die Entscheidungsfindung dezentralisieren. Gleichzeitig müssen sie KI-Governance zentralisieren, um mit den Schwächen der KI-Technologie richtig umgehen zu können. Die darauffolgende dritte Veränderung wird sich darin zeigen, dass Organisationen die Bedeutung von professionellem Teamcoaching und Organisationentwicklungsberatung als dauerhafte Funktionen einer Organisation erkennen. Dies wird dazu führen, dass interne Coach- und Beraterpools geschaffen werden. Abb. 68: Landkarte Coaching & Beratung (Quelle: Eigene Darstellung) <?page no="286"?> 286 Cristina Mühl und Daniel Hommel Aufgrund des sich daraus ergebenden Rahmens, den Organisationen implementieren müssen, werden sie über Fähigkeiten verfügen, die sich auf den Markt für Coachingplattformen und Coachausbildung sowie auf die Beratungsbranche auswirken werden, an die sich diese Anbieter anpassen müssen. Die künftigen Aufgaben von Trainern und Beratern und der organisatorische Rahmen, in dem sie tätig sein werden, werden ebenfalls zahlreiche Möglichkeiten für den Einsatz von KI bieten. Von hier aus scheinen einige Zukunftsprognosen plausibel zu sein: Die Teams, die Projekte entwickeln und umsetzen, werden in Iterationen arbeiten, die noch schneller werden und von dem derzeit sehr üblichen 2-Wochen-Zyklus zu täglichen oder sogar stündlichen Iterationen übergehen werden. Dies wird den Druck auf Organisationsmodelle erhöhen, eine noch schnellere Anpassung zu ermöglichen, was die traditionelle Architektur von Großunternehmen noch mehr in Frage stellen wird. Dies könnte so weit gehen, dass große Unternehmen in einen Marktplatz von Mikroorganisationen aufgeteilt werden müssen, die unter demselben Dach frei zusammenarbeiten oder sogar miteinander konkurrieren (vgl. Frynas et al. 2018), wie das Beispiel von Haier in China bereits heute zeigt. Dies wird auch ein völliges Überdenken der Anreizstrukturen für die Beschäftigten erfordern und zu anspruchsvollen Gesprächen über den Sinn der Arbeit führen. Die Beratung wird sich zunehmend von Standardlösungen, die innerhalb von Branchen vergleichbar sind, zu kontextspezifischen, individuellen Lösungen entwickeln. Der Berater der Zukunft wird sich der Rolle eines Coachs annähern müssen, indem er Coachingfähigkeiten in seine Arbeit einbettet und gemeinsam mit seinen Kunden kontextspezifische und individuelle Lösungen erarbeitet, anstatt Standardlösungen anzubieten, die innerhalb von Branchen vergleichbar sind. Die wichtigsten Veränderungen für Coachs über das besprochene hinaus betreffen die Art und Weise, wie sie zusammenarbeiten. Coachs werden immer weniger allein arbeiten und immer mehr Zeit in Zusammenarbeit mit anderen Coachs und anderen Mitarbeitern verbringen, was vom Coach der Zukunft Teamfähigkeit und eine starke Fähigkeit zur Zusammenarbeit erfordert. Literatur BfDI, F. C. (2024). Working paper on large language models (LLMs) . International Working Group on Data Protection in Technology. Block, P. (2023). Flawless consulting: A guide to getting your expertise used (4 th ed.). John Wiley & Sons. Braun, E. P. (n.d.). Haier Group: A case on how culture can foster product and management innovation . https: / / eduardopbraun.com/ en/ haier-group-a-case-on-how-culture-can-foster-product-and-management-innovation. Zugegriffen am 25. Februar 2025 Cole, K. C. (1997). The universe and the teacup: The mathematics of truth and beauty . Houghton Mifflin Harcourt. Dell’Acqua, F. et al. (2023). Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge worker productivity and qua- <?page no="287"?> 3.3 Die Veränderung von Beratung und Business Coaching 287 lity. Harvard Business School Technology & Operations Mgt. Unit Working Paper No. 24-013. 1-58. European Mentoring and Coaching Council (2024). European Mentoring and Coaching Council. https: / / www.emccglobal.org/ leadership-development/ leadership-development-mentoring. Zugegriffen am 19. Februar 2024 Fraunhofer IAIS (2025). OpenGPT-X . https: / / www.iais.fraunhofer.de/ de/ geschaeftsfelder/ speech-technologies/ conversational-ai/ opengpt-x.html. Zugegriffen am 20. Februar 2025 Frynas, J.G., Mol, M.J., & Mellahi, K. (2018). Management innovation made in China - Haier’s Rendanheyi. California Management Review , 71-93. Gupta, M., & Agrawal, C. (2023). From ChatGPT to ThreatGPT: Impact of generative AI in cybersecurity and privacy. IEEE Access , 80218-80245. Gutowska, A. (2025). IBM AI agents. https: / / www.ibm.com/ think/ topics/ ai-agents. Zugegriffen am 25. Februar 2025 Haenlein, M., & Kaplan, A. (2019). A brief history of artificial intelligence: On the past, present, and future of AI. California Management Review , 1-10. IMARC Group (2024). Enterprise agile transformation services market . https: / / www.imarcgroup.com/ enterprise-agile-transformation-services-market. Zugegriffen am 14. April 2025 International Coaching Federation (2023). ICF global coaching study . https: / / coachingfederation.org/ app/ uploads/ 2023/ 04/ 2023ICFGlobalCoachingStudy_ExecutiveSummary.pdf. Zugegriffen am 27. Februar 2025 International Coaching Federation (2024). About . https: / / coachingfederation.org/ about. Zugegriffen am 19. Februar 2025 International Coaching Federation (2025). Team coaching competencies . https: / / coachingfederation.org/ credentials-and-standards/ team-coaching/ competencies. Zugegriffen am 19. Februar 2025 International Coaching Federation (2025). Technology in coaching . https: / / coachingfederation.org/ research/ coalition-technology-in-coaching. Zugegriffen am 27. Februar 2025 International Coaching Solutions (2025). Coaching trends and statistics for 2024 . https: / / www.international-coaching-solutions.com/ coaching-trends-and-stats/ coaching-trends-and-statistics-for-2024. Zugegriffen am 25. Februar 2025 Long, B., & Li, X. (2023). ChatGPT: The cognitive effects on learning and memory. Brain‐X , 1-9. Maslej, N., & Feldman, L. (2023). Artificial intelligence index report 2023 . Stanford University Institute for Human-Centered AI. MMR (2024). Global management consulting market . https: / / www.maximizemarketresearch.com/ market-report/ global-management-consulting-market/ 23814. Zugegriffen am 25. Februar 2025 Mohamed, M., & Schultz, M. (2004). Applying knowledge management principles to enhance cross‐functional team performance. Journal of Knowledge Management , 127-142. <?page no="288"?> 288 Cristina Mühl und Daniel Hommel Muggleton, S. (2014). Alan Turing and the development of artificial intelligence. AI Communications , 3-10. Olutimehin, D. O. et al. (2024). Implementing AI in business models: Strategies for efficiency and innovation. International Journal of Management & Entrepreneurship Research , 863-877. Pérez-Soler, S., & Jiménez-Pelayo, S. (2021). Choosing a chatbot development tool. IEEE Software , 94-103. Ratanjee, V. (2025). Why managers need leadership development . https: / / www.gallup.com/ workplace/ 328460/ why-managers-need-leadership-development.aspx. Zugegriffen am 15. Januar 2025 Robinson, B. (2025). Employees report AI increased workload. Forbes . https: / / www.forbes.com/ sites/ bryanrobinson/ 2024/ 07/ 23/ employees-report-aiincreased-workload. Zugegriffen am 21. Februar 2025 Terblanche, N. H. (2024). Artificial intelligence (AI) coaching: Redefining people development and organizational performance. The Journal of Applied Behavioral Science , 581-731. Thornhill-Miller, B. A. et al. (2023). Creativity, critical thinking, communication, and collaboration: Assessment, certification, and promotion of 21st century skills for the future of work and education. Journal of Intelligence , 1-32. Utterback, J. M. (1994). Mastering the dynamics of innovation: How companies can seize opportunities in the face of technological change . Harvard Business School Press. World Economic Forum (2025). AI 2025 and the workplace . https: / / www.weforum.org/ stories/ 2025/ 01/ ai-2025-workplace. Zugegriffen am 20. Februar 2025. <?page no="289"?> 3.4 KI im Marketing Christopher Zerres und Kai Israel Zusammenfassung Künstliche Intelligenz (KI) beeinflusst zahlreiche Bereiche des Marketing und bietet umfangreiche Möglichkeiten, das Marketing effektiver zu gestalten und einen großen Mehrwert für Unternehmen zu bieten. Im Rahmen des Beitrages werden die vielfältigen Einsatzmöglichkeiten von KI-Anwendungen entlang des Marketingprozesses, also der Situationsanalyse, Strategie, Implementierung und Kontrolle vorgestellt. Neben den vielen Vorteilen, die KI-Anwendungen im Marketing haben können, sollen gleichzeitig auch immer die Herausforderungen im Zusammenhang mit dem Einsatz von KI-Anwendungen aufgezeigt werden. Da viele Unternehmen bei einem solchen vielfach noch Schwierigkeiten haben, wird neben den Anwendungsmöglichkeiten noch eine KI-Marketing-Strategie vorgestellt, die Hinweise zum Einsatz von KI im Marketing gibt. Keywords: KI-Marketing-Strategie, Marketing, Künstliche Intelligenz, Implementierungsprozess 3.4.1 Einführung Künstliche Intelligenz (KI) spielt heute in nahezu allen Bereichen der Betriebswirtschaft eine wichtige Rolle (vgl. Loureiro et al. 2021). Auch im Marketing haben sich in den letzten Jahren zahlreiche Anwendungsszenarien und -möglichkeiten entwikkelt. In immer mehr Phasen bzw. Bereichen des Marketing kommen KI-Anwendungen zum Einsatz, etwa zur Individualisierung von Produkten, in der Content-Produktion oder der Vorhersage des Konsumentenverhaltens (vgl. Anayat und Rasool 2022; Mariani et al. 2022; Bitkom 2024; Kumar et al. 2024). Die Nutzung von KI-Anwendungen im Marketing kann Organisationen viele Vorteile bieten. Hierzu gehören etwa Effizienzsteigerungen, insbesondere durch Automatisierungen, Qualitätsoptimierungen und eine verbesserte Kundenorientierung (vgl. Volkmar et al. 2021; Grewal et al. 2021). Voraussetzung ist ein durchdachter Einsatz von KI-Anwendungen und eine entsprechende KI-Marketing-Strategie. Wu und Monfort (2022) konnten in diesem Zusammenhang zeigen, dass eine KI-Marketing-Strategie einen positiven Einfluss auf die Performance (u. a. steigende Gewinne, höhere Kundenzufriedenheit) einer Organisation haben kann. Trotz der beeindruckenden Entwicklungsgeschwindigkeit und den zahlreichen Anwendungsmöglichkeiten ergeben sich auch Herausforderungen sowie problematische Bereiche.  In zahlreichen Organisationen fehlt es an Wissen über KI und deren Einsatzmöglichkeiten. Dies ist vielfach auch auf Managementebene zu beobachten (vgl. de Bruyn et al. 2020; Volkmar et al. 2021). Aus diesem mangelnden Wissen resultie- <?page no="290"?> 290 Christopher Zerres und Kai Israel ren u. a. eine eingeschränkte Bewertung der KI-Ergebnisse und häufig ein blindes Vertrauen in die KI-generierten Ergebnisse.  In der Praxis ist zu beobachten, dass das Thema KI häufig auf einige wenige Tools (hier insbesondere ChatGPT) und die Eingabe von Prompts reduziert wird. Hinzu kommt eine große Anzahl selbsternannter KI-Experten (vgl. Merten 2024). Da sich hierbei KI-Wissen häufig auf die Eingabe von Prompts beschränkt, werden tieferliegende und fachlich anspruchsvollere Themen der KI nicht berücksichtigt. Insofern ist eine KI-Fachkompetenz vorsichtig einzuschätzen.  Obwohl KI-Anwendungen in beeindruckender Geschwindigkeit weiterentwickelt und für einige Bereiche auch schon mehr oder minder reibungslos eingesetzt werden können, zeigen sich bei zahlreichen anderen Anwendungsszenarien noch Schwächen und Fehler. Gerade bei vollständig automatisierten und KI-gelenkten Aktivitäten ist in der Regel noch Kontrolle notwendig und Ergebnissen sollte immer mit einer gewissen Skepsis begegnet werden (vgl. Schultz et al. 2024).  In vielen Organisationen fehlt eine durchdachte Strategie (vgl. Volkmar et al. 2021). Organisationen haben in diesem Zusammenhang vor allem Schwierigkeiten, konkrete Anwendungsfelder und entsprechende Zielsetzungen zu definieren.  Es exisitiert eine fast unüberschaubare Anzahl an Tools mit unterschiedlichen Anwendungsbereichen und verschiedenen Stärken und Schwächen. Gleichzeitig kommen nahezu wöchentlich neue Tools oder Weiterentwicklungen bestehender Tools hinzu.  Bedingt u. a. durch die hohe Interdisziplinarität und die große Dynamik des Themenfeldes KI liegt eine Vielzahl unterschiedlicher Begriffsauffassungen vor. Hinzu kommen durchaus widersprüchliche Auffassungen bezüglich der Teilgebiete, Methoden und Funktionsbereiche.  Die Art und Weise der Datensammlung und -nutzung, aber auch die Art, wie KI- Anwendungen trainiert werden, werfen zahlreiche ethische Fragen auf (vgl. Volkmar et al. 2021; Vlačić et al. 2021).  Ein stark diskutiertes und sehr problematisches Thema ist der Datenschutz (vgl. Vlačić et al. 2021). Dabei geht es u. a. um die Art, wie Daten gesammelt und ausgewertet werden, also um den Datenzugang und die Datennutzung (vgl. Davenport et al. 2020). Gerade weil KI ein internationales Thema ist, gibt es, was juristische Rahmenbedingungen angeht, teils sehr unterschiedliche Perspektiven. Hinzu kommt, dass nationale Rechtsrahmen nur eingeschränkt anwendbar sind.  Ein sehr großer Anteil an Daten liegt in unstrukturierter Form vor (vgl. Mahadevkar et al. 2024; Li et al. 2019). Die Nutzung solcher Daten ist allerdings in vielen Fällen immer noch mit Schwierigkeiten verbunden (vgl. Mahadevkar et al. 2024; Li et al. 2019). In diesem Beitrag wird nach einer Begriffsabgrenzung und einem Überblick über zentrale Theorien und Grundlagen ein Systematisierungsrahmen für die verschiedenen Anwendungsbereiche von KI im Marketing vorgestellt. Anschließend werden die einzelnen Bereiche skizziert. Zusätzlich wird ein Prozess vorgestellt, der Organisationen Hinweise für eine Entwicklung und Implementierung einer KI-Marketing- Strategie bietet. <?page no="291"?> 3.4 KI im Marketing 291 3.4.2 Begriffsabgrenzung, Theorien und Grundlagen Der Begriff KI wird insbesondere im Marketing nahezu inflationär verwendet. Sowohl in der Praxis als auch in der Wissenschaft konnte sich bisher noch keine eindeutige Definition durchsetzen (vgl. Manis und Madhavaram 2023). Im Rahmen dieses Beitrages wird die etwas umfangreichere Definition des Europäischen Parlaments (2023) verwendet: „Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. KI ermöglicht es technischen Systemen, ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen. Der Computer empfängt Daten (die bereits über eigene Sensoren, zum Beispiel eine Kamera, vorbereitet oder gesammelt wurden), verarbeitet sie und reagiert. KI- Systeme sind in der Lage, ihr Handeln anzupassen, indem sie die Folgen früherer Aktionen analysieren und autonom arbeiten.“ Zum Verständnis der Einsatzmöglichkeiten und der Erfolgsbewertung von KI-Anwendungen im Marketing werden vor allem in wissenschaftlichen Studien verschiedenene Theorien eingesetzt. Mariani et al. (2022) haben im Rahmen einer systematischen Literaturübersicht wichtige theoretische Ansätze mit exemplarischen Studien zusammengestellt. Hierzu gehören u. a. Technology Acceptance Model (vgl. Park et al. 2021), Unified Theory of Acceptance and Use of Technology (vgl. Madigan et al. 2017), Game Theory (vgl. Wu et al. 2016), Theory of Planned Behavior (vgl. Kowatsch und Maass 2010), Computational Theories (vgl. Butz 2016), Behavioral Reasoning Theory (vgl. Sivathanu 2018), Decision Theories (vgl. Frantz 2003), Evolutionary Theory (vgl. Schlesinger 2004), Flow Theory (vgl. Poushneh 2021) und Fuzzy Theories (vgl. Reyna und Casillas 2009). Im Hinblick auf die verschiedenen Teilgebiete der KI und die eingesetzten Methoden liegen teils sehr unterschiedliche Auffassungen vor. Abb. 69 zeigt eine mögliche Systematiserung. 3.4.3 Systematisierungsrahmen und Vorstellung der Anwendungsbereiche Um die Vielzahl der möglichen KI-Anwendungsmöglichkeiten für das Marketing zu systematisieren, werden unterschiedliche Ansätze diskutiert und verwendet (vgl. Bitkom 2024; Huang und Rust 2021; Manis und Madhavaram 2023; Kumar et al. 2024). Huang und Rust (2021) schlagen zum Beispiel eine Systematisierung anhand eines dreistufigen strategischen Planungsprozesses vor. Hierbei werden die Anwendungsmöglichkeiten den drei Marketing-Bereichen Forschung, Strategien und Aktionen zugeordnet. Die Autoren gehen darüber hinaus davon aus, dass KI-Systeme unterschiedliche „Intelligenzen“ haben können und damit für unterschiedliche Aufgaben eingesetzt werden können. Als einfachste Intelligenz beschreiben Huang und Rust (2021) die sogenannte mechanische KI, die insbesondere für automatisierte und sich wiederholende Aufgaben geeignet ist. Die sogenannte denkende KI umfasst das Verarbeiten von Daten, um hieraus Schlussfolgerungen zu ziehen und Entscheidungen zu fördern. Schließlich bietet sich die „Feeling AI“ für Interaktionen mit Menschen an und ist hilfreich im Zusammenhang mit der Analyse menschlicher Gefühle und Emotionen. BITKOM (2024) schlägt einen ähnlichen Systematisierungsrahmen vor. Dabei wird der Ansatz von Huang und Rust (2021) um die Phase des Marketing- Controlling erweitert. <?page no="292"?> 292 Christopher Zerres und Kai Israel <?page no="293"?> 3.4 KI im Marketing 293 Manis und Madhavaram (2023) vereinen in ihrem Ansatz KI-Operationen im Zusammenhang mit Informationen (AI Operations), den Grad an Automatisierung (Hierarchy of Automatisation) und unterschiedliche Leistungsbzw. Fähigkeitsgrade (Hierarchy of Capabilities). Die zentralen KI-Operationen sind dabei die Informationsakquise, -integration, -analyse und -interpretation. Diese Operationen können zu einem unterschiedlichen Grad automatisch ablaufen. Der Bereich Informationsakquise umfasst den Prozess der Suche, Sammlung und Abrufen von Informationen aus unterschiedlichen internen und externen Quellen (vgl. Manis und Madhavaram 2023). Die Informationsintegration beinhaltet die Standardisierung, den Transfer und das Kombinieren von Informationen. Bei der Informationsanalyse werden verschiedene rechnergestützte und statistische Techniken und Methoden eingesetzt. Diese können in deskriptive, diagnostische, prädiktive und empfehlungsorientierte Verfahren unterteilt werden (vgl. Wedel und Kannan 2016). Schließlich geht es bei der Informationsinterpretation um die Synthese von Bedeutungen, Mustern und Erkenntnissen, die aus analysierten Informationen abgeleitet werden können. Die skizzierten Ansätze sollen im nachfolgenden Ansatz aufgegriffen werden (vgl. Abb. 70). Dabei werden die konkreten KI-Einsatzfelder anhand des Marketing-Prozesses systematisiert. Zusätzlich wird in dem Ansatz davon ausgegangen, dass für diese Einsatzfelder Informationen das zentrale Element sind und in diesem Zusammenhang KI in der Akquisition, Integration, Analyse und Interpretation (vgl. Manis und Madhavaram 2023) eingesetzt werden kann. Diese informationsbezogenen KI- Operationen können wiederum mit einem unterschiedlichen Automatisierungsgrad ablaufen und werden durch den Intelligenzgrad bzw. das Fähigkeitslevel der KI beeinflusst. Abb. 70: Systematisierungsrahmen von KI-Anwendungen im Marketing (Quelle: Eigene Darstellung) <?page no="294"?> 294 Christopher Zerres und Kai Israel Situationsanalyse Der Ausgangspunkt für Marketing-Aktivitäten sollten immer eine Analyse und ein Verständnis der internen und externen Rahmenbedingungen sein. Grundlage für derartige Analysen sind unternehmensinterne und -externe Daten und Informationen. Diese müssen gesammelt, analysiert und aufbereitet werden. Hierfür bieten KI- Anwendungen zahlreiche Möglichkeiten. Die nachfolgende Tabelle zeigt zunächst einen Überblick einiger wichtiger Anwendungsfelder und ausgewählter Arbeiten (vgl. Tab. 12). Anwendungsfelder (Auswahl) Ausgewählte Arbeiten Analyse interne Situation, Analyse von Marktentwicklungen und Risiken, Kundenanalysen, Wettbewerbsanalysen, interne und externe Medienaudits, Social- Media-Monitoring Bär und Zerres (2024); Berger et al. (2020); Bitkom (2024); Haefner et al. (2021); Huang und Rust (2021); Kumar et al. (2021); Kumar et al. (2024); Lee und Bradow (2011); Li et al. (2019); Liu et al. (2019); Vermeer et al. (2019) Tab. 12: Anwendungsfeld „Situationsanalyse“ und ausgewählte Arbeiten (Quelle: Eigene Darstellung) Analyse interne Situation Im Rahmen einer Stärken-Schwächen-Analyse gilt es, etwa die finanziellen Rahmenbedingungen (u. a. Investitionskraft, freie finanzielle Mittel), das Innovationspotenzial, Personal (u. a. Personalbedarf, vorhandenes / fehlendes Know-how) und die aktuelle Beziehung zu Kunden (u. a. Image, Zufriedenheit, Bindung) zu betrachten. KIgestützte Technologien ermöglichen es, interne Daten aus unterschiedlichen Quellen, wie CRM-Systemen, ERP-Software oder HR-Tools, und in unterschiedlichen Formaten (strukturierte und unstrukturierte Daten) zu sammeln und automatisiert aufzubereiten (vgl. Huang und Rust 2021; McKinsey 2023). Zum Beispiel lassen sich so mit KI-Anwendungen historische Unternehmensdaten analysieren und daraus Trends und Muster ableiten oder etwa Leistungskennzahlen (teils) automatisiert ermitteln und überwachen. Durch prädiktive KI-Verfahren lassen sich zudem verschiedene Szenarien simulieren, um so etwa die potenziellen Auswirkungen von Entscheidungen zu analysieren. Berger et al. (2020) weisen darauf hin, dass zwischen 80 und 95 Prozent der Daten im Business-Kontext unstrukturiert sind und hiervon wiederum ein Großteil das Format ‚Text‘ hat. Entsprechend sind KI-Anwendungen im Zusammenhang mit dem Sammeln, Analysieren und Interpretieren von Texten von großer Bedeutung. Berger at al. (2020) geben in ihrem Beitrag einen fundierten Überblick über automatisierte Verfahren der Textanalyse. Zusammen mit den Ergebnissen der weiteren Analysen können die Ergebnisse einer Stärken-Schwächen-Analyse in eine SWOT-Matrix zusammengefügt werden. KI- Anwendungen können hierbei zum Beispiel für eine automatische Datenaggregation zumindest für einige Bereiche genutzt werden, um so in Echtzeit bestimmte Entwicklungen zu berücksichtigen. Analyse von Marktentwicklungen und Risiken Bei der Analyse von Marktentwicklungen und Risiken gilt es vor allem, Vorhersagen über zukünftige Entwicklungen zu treffen. In diesem Zusammenhang können KI- Anwendungen historische Verkaufsdaten, Wirtschaftsdaten und Konsumverhalten <?page no="295"?> 3.4 KI im Marketing 295 analysieren, um Marktentwicklungen vorherzusagen und entsprechende Trends zu prognostizieren (vgl. Huang und Rust 2021). Zusätzlich können verschiedene Marktszenarien simuliert werden, etwa zur Vorhersage zum Kunden- oder Wettbewerberverhalten (vgl. Kumar et al. 2024). KI-Anwendungen können dabei für eine Früherkennung von Marktrisiken, aber auch für weitere makroökonomische und geopolitische Risiken eingesetzt werden. Diese Analysen können vielfach automatisch und unter Berücksichtigung von Echtzeitdaten ablaufen (vgl. Kumar et al. 2024). Insbesondere für die Produkt- und Preispolitik ist zudem die Identifizierung von Innovationspotenzialen und Marktlücken von zentraler Bedeutung (vgl. Haefner et al. 2021). Kundenanalysen KI-Anwendungen können unterstützen, das Verhalten von Kunden zu analysieren und Muster zu identifizieren, die auf bestimmte Vorlieben oder potenzielle Kaufentscheidungen hinweisen (vgl. Huang und Rust 2021). Zusätzlich lassen sich detaillierte Profile potenzieller Zielgruppen erstellen (vgl Trusov et al. 2016). Trusov et al. (2016) haben zum Beispiel das Correlated Topic Model für die Erstellung von Online- Nutzerprofilen anhand von Clickstream-Daten von Verbrauchern verwendet. Mit Hilfe von Predictive Analytics kann zukünftiges Kundenverhalten vorhergesagt werden, indem Muster in historischen bzw. bestehenden Daten erkannt werden und diese wiederum für Vorhersagen genutzt werden können. Konkrete Anwendungsszenarien sind Kundenwertprognosen (Customer Lifetime Value Prediction), bei der mit Hilfe von KI-Anwendungen der potenzielle langfristige Wert eines Kunden für ein Unternehmen berechnet werden kann. Gleichzeitig können KI-Anwendungen eingesetzt werden, um Kunden zu identifizieren, die mit hoher Wahrscheinlichkeit die angebotenen Leistungen nicht mehr nachfragen (Churn Prediction). Ein weiteres Anwendungsbeispiel bietet die Studie von Liu et al. (2019). Die Autoren wenden eine auf Deep Learning basierende natürliche Sprachverarbeitung auf Kundenbewertungen einer E-Commerce-Website an, um zu untersuchen, wie Verbraucher Bewertungsinhalte nutzen. Auf Basis von 500.000 Rezensionen zu 600 Produktkategorien können die Autoren zeigen, dass Kunden sich bei teuren oder qualitativ unsicheren Produkten auf Bewertungen verlassen. Daneben quantifizieren die Autoren die kausale Auswirkung des Inhalts von Rezensionen auf die Verkäufe. Unter Verwendung eines überwachten Deep Learning-Ansatzes und eines Regressionsdesigns mit zeitlicher Diskontinuität stellen sie fest, dass Produktbeschreibungen und Preisinhalte die Konversion in fast allen Produktkategorien signifikant erhöhen. Wettbewerbsanalyse Für ein Verständnis der Wettbewerbssituation und der jeweiligen Wettbewerber können KI-Anwendungen durch eine Analyse verschiedener Wettbewerbsdaten wichtige Informationen etwa für die Ausgestaltung von Marketing-Aktivitäten liefern. Von hoher Relevanz sind u. a. die Online-Aktivitäten von Wettbewerbern (zum Beispiel Postings und Werbekampagnen), Preisgestaltungen, Produktveröffentlichungen und Kundenbewertungen. Zusätzlich können Benchmark-Analysen von definierten Aspekten (u. a. Produkten, Prozessen, Kommunikationsmaßnahmen) im Vergleich zum Branchenbesten durchgeführt werden. Interne und externe Medienaudits Interne Medienaudits konzentrieren sich auf die eigenen Medienaktivitäten und Inhalte. Es handelt sich im Kern um eine Art Bestandsaufnahme und eine Bewertung der bisher erfolgten Aktivitäten. Für derartige interne Medienaudits können KI-An- <?page no="296"?> 296 Christopher Zerres und Kai Israel wendungen bei der grundsätzlichen Content-Analyse genutzt werden, indem Inhalte aus verschiedenen Medien (zum Beispiel Blog-Artikel, Social-Media-Posts, Videos, Pressemitteilungen usw.) nach Themen, Trends und Stil zusammengestellt und analysiert werden können (vgl. Li et al. 2019). So kann beispielsweise eine Sentiment- Analyse eingesetzt werden, um den Ton und die emotionale Wirkung der Inhalte zu messen. Zusätzlich lassen sich mit Hilfe von KI-Anwendungen Engagement- und Performance-Analysen durchführen, um die Performance der veröffentlichten Inhalte zu analysieren. Zum Beispiel schlagen im Zusammenhang mit der Analyse von digitalem Word-of-Mouth (eWOM) Vermeer et al. (2019) einen auf überwachtem maschinellem Lernen basierenden Ansatz vor, der zunächst entscheidet, ob eWOM für die Marke relevant ist, und dann basierend auf einer Kategorisierung von sieben verschiedenen Arten von eWOM (zum Beispiel Frage, Beschwerde) drei Dimensionen der Kundenzufriedenheit klassifiziert. Anhand eines Datensatzes von ca. 60.000 Facebook-Kommentaren und 11.000 Tweets zu 16 verschiedenen Marken aus acht verschiedenen Branchen testen und vergleichen die Autoren die Wirksamkeit verschiedener Sentiment-Analysen, wörterbuchbasierter und maschineller Lernverfahren zur Erkennung relevanter eWOM. Daneben lassen sich auf Basis der Analyse bestehender Inhalte mit KI-Anwendungen Muster erkennen und so Vorhersagen ableiten, welche Art von Inhalten bei Zielgruppe am besten geeignet ist. Bei externen Medienaudits werden einerseits die medialen Aktivitäten der Wettbewerber und andererseits die Wahrnehmung und Darstellung des eigenen Unternehmens in externen Medien (u. a. Reputation und Medienpräsenz) analysiert und bewertet. Zunächst können hierfür KI-gestützte Technologien (u. a. Text-Mining) eingesetzt werden, um große Mengen an medialen Informationen aus unterschiedlichen Quellen (u. a. Nachrichtenartikeln, Blogs und Social-Media-Posts) zu durchsuchen, um relevante Erwähnungen, Themen und Kennzahlen (zum Beispiel Reichweite) rund um das Unternehmen und Wettbewerber zu identifizieren und zu analysieren. Zusätzlich können KI-Anwendungen für die Identifizierung aufkommender Trends und wichtiger Influencer oder Meinungsführer zum Einsatz kommen. In diesem Zusammenhang können zudem potenzielle Risiken frühzeitig erkannt werden. Für beide Audit-Verfahren bieten KI-Anwendungen die Möglichkeit, verschiedene Berichtstypen automatisch zu generieren. Social-Media-Monitoring Für die Analyse von Social-Media-Plattformen und Social-Media-Aktivitäten von Nutzern und Unternehmen kommen immer häufiger KI-Anwendungen zum Einsatz (vgl. Bär und Zerres 2024; Kumar et al. 2021). Beim Social-Media-Monitoring werden insbesondere bei der Datensammlung und -analyse KI-Anwendungen eingesetzt. Als Techniken für die verschiedenen Dateiformate kommen zum Beispiel Named Entity Recognition, Relation Extraction (für Texte), Visual Relationship Detection, Text Extraction from Images (für Bilder) und Automatic Video Summarization (für Videos) in Frage (vgl. Bär und Zerres 2024). Für die Datenauswertung können zum Beispiel prädiktive Analysen, Netzwerkanalysen, Inhaltsanalysen und Text-Mining Verfahren eingesetzt werden (vgl. Kumar et al. 2021). <?page no="297"?> 3.4 KI im Marketing 297 Marketing-Strategien Die im vorangegangenen Abschnitt skizzierten Analysen stellen die Grundlage für die verschiedenen Anwendungsfelder innerhalb des strategischen Marketing dar. Zu den wichtigen Einsatzfeldern gehören die Marktsegmentierung, die Zielgruppendefinition und die Positionierung (siehe Tab. 13). Anwendungsfelder (Auswahl) Ausgewählte Arbeiten Marktsegmentierung, Zielgruppendefinition und Positionierung Drew et al. (2001); Huang und Rust (2021); Kasem et al. (2024); Kumar et al. (2024); Seiler et al. (2019); Trusov et al. (2016); Verma et al. (2021) Tab. 13: Anwendungsfelder „Marketing-Strategien“ und ausgewählte Arbeiten (Quelle: Eigene Darstellung) Grundlage für eine sinnvolle Segmentierung stellen Informationen über bestehende und potenzielle Kunden dar. Wie bereits im vorangegangenen Abschnitt deutlich wurde, können KI-Anwendungen verschiedenste Datenquellen (Social Media, Webseiten, E-Commerce-Daten, Customer-Relationship-Management-Systeme etc.) analysieren, um ein umfassendes Bild der (potenziellen) Zielgruppen zu erstellen. Dabei können diese Daten miteinander verknüpft werden, um Verhaltensmuster der Kunden zu erkennen und relevante Segmente zu identifizieren (vgl. Drew et al. 2001). Über Clustering-Verfahren können zum Beispiel Daten über vergangene Käufe, Webseiten-Interaktionen, Produktbewertungen und Social-Media-Aktivitäten analysiert und auf Muster untersucht werden. Als sehr effektive Methoden zur Segmentierung führen Kasem et al. (2024) zum Beispiel Neural Networks, Evolutionary Algorithms, Hierarchical Clustering, k-Means, Bagged Clustering, Taguchi Method, Multidimensional Scaling und Model-based Clustering auf. Für eine Segmentbildung können zusätzlich demografische, geografische, psychografische und verhaltensbasierte Informationen miteinfließen. Insbesondere bei verhaltensbasierten Kriterien spielen Vorhersagen (Predictive Analytics) eine wichtige Rolle, um zu verstehen, wie sich das zukünftige Verhalten bestimmter Segmente entwickelt (vgl. Kumar et al. 2024; Vlačić et al. 2021). Marketing-Implementierung Für den Bereich Marketing-Implementierung bietet die nachfolgende Tab. 14 zunächst einen Überblick der Anwendungsfelder und einiger ausgewählter Arbeiten. Anwendungsfelder Ausgewählte Arbeiten Produktpolitik, Preispolitik, Kommunikationspolitik, Distributionspolitik Bauer und Jannach (2018); Feng et al. (2019); Haefner et al. (2021); Hartmann et al. (2025); Huang und Rust (2021); Kurz und Schneider (2024); Li et al. (2011); Misra et al. (2019); Montes et al. (2019); Oca et al. (2024); Schultz et al. (2024); Seiler et al. (2019); Sigala et al. (2024); Singh et al. (2024); Soumpenioti und Panagopoulos (2023); Verma et al. (2021); Volkmar et al. (2019); Wirtz et al. (2018) Tab. 14: Exemplarische Anwendungsfelder „Marketing-Implementierung“ und ausgewählte Arbeiten (Quelle: Eigene Darstellung) <?page no="298"?> 298 Christopher Zerres und Kai Israel Produktpolitik Sich ständig ändernde Präferenzen erfordern in vielen Branchen kontinuierliche Produktweiterentwicklungen und Innovationen. KI-Anwendungen können einerseits unterstützen, diese Präferenzen zu erfassen und zu analysieren. Andererseits können, basierend auf diesen Erkenntnissen, Produkte entsprechend weiterentwikkelt bzw. neu entworfen werden (vgl. Verma et al. 2021). Gerade im Innovationsmanagement spielen daher KI-Anwendungen eine wichtige Rolle und können im gesamten Prozess eingesetzt werden (vgl. Haefner et al. 2021). Im Bereich Produktempfehlungen bieten KI-Anwendungen großes Potenzial. Auch hier ist die Ausgangssituation eine Analyse bestehender Daten, wie etwa getätigte Produktkäufe oder Online-Suchverhalten, um in der Folge individualiserte Empfehlungen im Idealfall über den richtigen Kanal zu geben (vgl. Li et al. 2011). Im Bereich Service bieten sich zahlreiche Anwendungsgebiete für KI-Lösungen, die eine effizientere und kostengünstigere Bereitstellung von Serviceleistungen ermöglichen können (vgl. Singh et al. 2024). KI-Anwendungen können dabei mittlerweile nicht mehr nur für einfache und routinemäßige Serviceaufgaben eingesetzt werden. Auch bei Serviceangeboten, die zum Beispiel eine Interaktion mit Kunden beinhalten, werden KI-Anwendungen eingesetzt. Eine große Rolle spielen in diesem Zusammenhang Chatbots und virtuelle Assistenten, die rund um die Uhr Kunden in Echtzeit unterstützen und Anfragen beantworten können. Für die KI-Anwendung Chat- GPT haben zum Beispiel Sigala et al. (2024) aufgezeigt, welche Möglichkeiten die Anwendung für den Servicebereich bietet. Auch für das Angebot und die Optimierung von Serviceleistungen stellt ein besseres Verständnis der Serviceanforderungen von Kunden die Basis dar. KI-Anwendungen können wiederkehrende Prozesse im Kundenservice analysieren und Verbesserungspotenziale identifizieren, etwa durch Prozessautomation oder die Reduzierung von Bearbeitungszeiten. Zusätzlich lassen sich etwa durch Sentiment-Analysen Bewertungen, Beschwerden und Rückmeldungen analysieren, um die Stimmung und Zufriedenheit zu analysieren. KI-Anwendungen können zusätzlich für die interne Ressourcenplanung (zum Beispiel Optimierung von Arbeitsplänen auf Basis einer Analyse von Kundenaufkommen und Anfragearten), die Qualifizierung von Mitarbeitern (zum Beispiel Verbesserungsvorschläge für die Gesprächsführung und Problemlösung durch eine Analyse der Mitarbeiter-Interaktionen) und die Optimierung von internen Serviceabläufen (zum Beispiel automatisierte Ticketbearbeitung) genutzt werden. Die Unternehmensberatung McKinsey schätzt das Einsparungspotenzial durch den Einsatz von KI für Servicefunktionen zwischen 30 und 45 Prozent ein (vgl. McKinsey 2023). Preispolitik Ein vielfach diskutierter Anwendungsbereich für KI-Anwendungen in der Preispolitik ist die dynamische Preisgestaltung, die eine flexible Anpassung der Preise in Echtzeit ermöglicht (vgl. Verma et al. 2021; Misra et al. 2019). Dabei können KI-Anwendungen verschiedene Variablen kontinuierlich überwachen und analysieren, um auf dieser Basis Preise dynamisch anzupassen (vgl. Bauer und Jannach 2018). Zu diesen Variablen gehören die Marktnachfrage (u. a. Erkennung von Mustern im Kaufverhalten), Wettbewerbsdaten (Überwachung der Preise von Wettbewerbern) und Kunden- <?page no="299"?> 3.4 KI im Marketing 299 verhalten (u. a. bisheriges Kaufverhalten und Preiselastizitäten). So konnten zum Beispiel Misra et al. (2019) basierend auf Multiarmed Bandit Algorithmen sowie Bauer und Jannach (2018) auf Basis von Bayessche Inferenzen zeigen, dass Preise dynamisch und in Echtzeit optimiert werden können, selbst wenn die Daten unvollständig sind. Insbesondere mit Bezug auf die Analyse des Kundenverhaltens liegt ein weiteres Anwendungsfeld in einer personalisierten Preisgestaltung, bei der Preise individuell für jeden Kunden oder eine Kundengruppe anpasst werden, wobei hierbei Daten über das individuelle Kaufverhalten, die Präferenzen, Word-of-Mouth-Aktivitäten und die Zahlungsbereitschaft einfließen (vgl. Feng et al. 2019; Montes et al. 2019). Grundsätzlich lassen sich KI-Anwendungen für kontinuierliche und automatisierte Preisanalysen einsetzen, die wiederum für Entscheidungen bezüglich der Preisgestaltung genutzt werden können. Hierbei können zum Beispiel Simulationsmodelle erstellt werden, um zu analysieren, wie sich unterschiedliche Preismodelle auf den Umsatz und die Rentabilität auswirken würden. Zusätzlich können mit KI-Anwendungen historische Verkaufsdaten, saisonale Schwankungen und andere Einflussfaktoren analysiert werden und auf dieser Basis Prognosen über zukünftige Marktbedingungen und die optimale Preisstrategie abgeleitet werden. Kommunikationspolitik Im Bereich der Kommunikationspolitik werden KI-Anwendungen entlang des gesamten Kommunikationsprozesses eingesetzt. Wie bereits im Abschnitt zur Situationsanalyse deutlich geworden ist, unterstützen KI-Anwendungen bei der Analyse der Rahmenbedingungen (zum Beispiel Anforderungen der Zielgruppe) für die Kommunikationsaktivitäten (vgl. Verma et al. 2021). Im Zusammenhang mit der Produktion von Kommunikationsinhalten bieten mittlerweile eine fast unüberschaubare Anzahl an KI-Tools die Möglichkeit, Texte, Bilder und Videos zu generieren (vgl. Kurz und Schneider 2024; Hartmann et al. 2025; Singh et al. 2024). Im Zusammenhang mit KI-generierten Bildern können zum Beispiel Hartmann et al. (2025) zeigen, dass diese zu teils besseren Ergebnissen führen als reale Bildaufnahmen. Auch die Distribution von Kommunikationsinhalten kann in einzelnen Bereichen durch KI-Lösungen erfolgen. KI-Anwendungen können so automatisch repetitive Aufgaben, wie zum Beispiel das Erstellen und Versenden von E-Mails und das Veröffentlichen von Social-Media-Beiträgen erledigen. Inhalte können dabei in den verschiedenen Kanälen automatisch ausgespielt und individualisiert werden, so dass Kunden etwa auf einer Website ihrem vorherigen Verhalten entsprechend Inhalte angezeigt bekommen (vgl. Seiler et al. 2019). Hierbei sollte in vielen Bereichen aber immer eine finale Prüfung der Inhalte vor einer Veröffentlichung vorgenommen werden (vgl. Kurz und Schneider 2024). Im Bereich der bezahlten Distribution von Inhalten können KI-Systeme Werbebudgets optimieren, indem sie die bestmögliche Zielgruppe, den geeigneten Zeitpunkt und die wirksamsten Werbebotschaften identifizieren. Dies gilt zum Beispiel für das Programmatic Advertising (vgl. Kumar et al. 2024). Allerdings zeigt eine Studie von Schultz et al. (2024), dass die Verwendung von KI-Anwendungen für das automatische Ausspielen von Suchmaschinenwerbung einen negativen Effekt auf die Werbeperfomance haben kann. Folglich ist der Hinweis angebracht, automatisierte Entscheidungen auf ihre Wirksamkeit zu prüfen. Schließlich lassen sich KI-Anwendungen für das Generieren von Berichten über Kommunikationsaktivitäten einsetzen. <?page no="300"?> 300 Christopher Zerres und Kai Israel Distributionspolitik Für den Bereich der Distribution können KI-Anwendungen für zahlreiche Anliegen zum Einsatz gelangen (vgl. Huang und Rust 2021; Soumpenioti und Panagopoulos 2023). In der Logistik ist u. a. die Lieferkettenoptimierung ein wichtiger Einsatzbereich. In diesem Zusammenhang bieten sich KI-Anwendungen an, die auf Basis historischer Daten und anderen Informationen Lieferketten analysieren und Vorhersagen ermöglichen. Weitere Anwendungsszenarien in der Logistik liegen zum Beispiel in der Optimierung von Lieferrouten (vgl. Soumpenioti und Panagopoulos 2023) oder einer optimierten Lager- und Inventarplanung (vgl. Oca et al. 2024). So können zum Beispiel durch verbesserte Nachfragevorhersagen 20 bis 30 Prozent der Inventarkosten vermieden werden (vgl. Oca et al. 2024). Für die Distributionsplanung und die Planung der Distributionskanäle spielen zudem KI-gestützte Bedarfsprognosen und Nachfrageplanungen eine wichtige Rolle (vgl. Li et al. 2011; Oca et al. 2024). KI-Anwendungen können daneben für eine Automatisierung und in einigen Bereichen sogar Personalisierung von Bestell- und Lieferprozesse eingesetzt werden. Im Frontend Bereich, also im direkten Verkauf und Kontakt zu Kunden, spielen KIgesteuerte Service Roboter eine zunehmend wichtigere Rolle (vgl. Wirtz et al. 2018). Marketing-Controlling Den Abschluss des klassischen Marketing-Planungsprozesses bildet das Marketing- Controlling. Die zentrale Aufgabenstellung ist dabei die Überwachung der Effizienz und Effektivität der Marketing-Aktivitäten (vgl. Zerres und Zerres 2021). In diesem Zusammenhang müssen Informationen gesammelt, analysiert und entsprechende Handlungsempfehlungen gemacht werden. Dabei unterstützt das Marketing-Controlling die verschiedenen Bereiche bei der Planung und Evaluierung von Marketing- Aktivitäten (siehe Tab. 15). Anwendungsfelder Ausgewählte Arbeiten Informationssammlung, -analyse und -bereitstellung von Informationen für das Marketing-Controlling Bitkom 2024; Kumar et al. (2024); Li et al. (2019); Vlačić et al. (2021) Tab. 15: Exemplarische Anwendungsfelder „Marketing-Controlling“ und ausgewählte Arbeiten (Quelle: Eigene Darstellung) KI-Anwendungen können in diesem Zusammenhang, wie bereits deutlich geworden ist, bei der Datenerhebung und -analyse eingesetzt werden (vgl. Kumar et al. 2024; Vlačić et al. 2021). Vor allem die Fähigkeit, große Datenmengen aus unterschiedlichen Quellen zu analysieren sowie die Analyse auch unstrukturierter Daten, stellt dabei einen wichtigen Vorteil dar (vgl. Li et al. 2019). Bei der Erfolgsmessung von Aktivitäten können KI-gestützte Attributionsmodelle die Wirkung einzelner Marketingmaßnahmen entlang der Customer Journey messen. Insbesondere für die Planung von Aktivitäten spielen Vorhersagen u. a. bezüglich des Erfolgs zukünftiger Kampagnen, des Kundenwerts oder des Kundenverhaltens eine weitere wichtige Rolle (vgl. Kumar et al. 2024). <?page no="301"?> 3.4 KI im Marketing 301 Auch bei der Ableitung von Handlungsempfehlungen und dem Erstellen von Berichten können KI-Anwendungen eingesetzt werden, zum Beispiel in Form von automatisierten Echtzeit-Dashboards. Vlačić et al. (2021) konnten in diesem Zusammenhang aufzeigen, dass derartige Decision Support-Systeme die Effizienz von Marketing-Aktivitäten erhöhen können. 3.4.4 Konzeption und Implementierung einer KI-Marketing-Strategie Eine zentrale Herausforderung ist die Entwicklung einer geeigneten KI-Marketing- Strategie. Dabei geht es im Kern darum, festzulegen, in welchen Marketing-Bereichen bzw. für welche Phasen des Marketing KI-Anwendungen sinnvoll eingesetzt werden können. Wie eingangs erwähnt, stellen gerade diese Identifikation und konkrete Umsetzung viele Unternehmen vor große Herausforderungen. Im Folgenden soll ein möglicher Prozess skizziert werden, der für die Konzeption und Implementierung einer KI-Marketing-Strategie eine erste Orientierung bieten kann (siehe Abb. 71). Abb. 71: Prozess KI-Marketing-Strategie (Quelle: Eigene Darstellung) Organisatorische Rahmenbedingungen Die erste Phase beinhaltet die Schaffung der notwendigen organisatorischen Voraussetzungen für die erfolgreiche Implementierung von KI im Marketing. Dies erfordert eine sorgfältige Planung und Abstimmung zwischen verschiedenen Abteilungen und den Aufbau einer technologischen und kulturellen Basis, die den Einsatz von KI unterstützt. Unternehmen sollten dabei sicherstellen, dass die technologische Infrastruktur vorhanden ist, um KI-Systeme sinnvoll einzusetzen. Dies umfasst zum Beispiel leistungsfähige Datenbanken, Cloud-Computing-Lösungen und sichere Datenspeichersysteme. Daneben ist die Weiterbildung der Mitarbeiter in den Bereichen <?page no="302"?> 302 Christopher Zerres und Kai Israel KI, Datenanalyse und technologische Kompetenzen in vielen Fällen notwendig. Wie in diesem Beitrag deutlich geworden ist, können interdisziplinäre Teams, die Fachwissen aus Marketing, IT und Datenwissenschaft kombinieren, erfolgsversprechend sein. Ähnlich wie dies auch für andere innovative Themen gilt, erfordert die Einführung und Nutzung von KI-Anwendungen eine Kultur, die Offenheit für Innovation und Veränderungen fördert. Führungskräfte sollten den Wandel aktiv unterstützen und transparent kommunizieren, um Vorbehalte und Unsicherheiten im Team abzubauen. Analyse der Ausgangssituation In einem ersten Schritt werden in einer Situationsanalyse die Ausgangslage des Unternehmens und der aktuelle Stand der Marketingprozesse untersucht. Ziel ist es, die Potenziale und Herausforderungen für den Einsatz von KI zu identifizieren. Neben einer Analyse der eigenen personellen und finanziellen Ressourcen und einem Blick auf den Wettbewerb gilt es vor allem, zwei zentrale Bereiche zu analysieren und zu bewerten. Einerseits sollte der gesamte vorhandene Marketing-Prozess hinsichtlich Stärken und Schwächen und somit Potenzialen für KI-Anwendungen untersucht werden. Andererseits sollte eine Bestandsaufnahme zum Datenmanagement erfolgen. Hierbei geht es um eine Analyse der Qualität und Verfügbarkeit vorhandener Daten und Datenquellen (zum Beispiel Kundendaten, Transaktionsdaten, Social-Media-Daten und Website-Analysen). Gleichzeitig muss die vorhandene Dateninfrastruktur als Vorbereitung einer Integration und Verarbeitung großer Datenmengen betrachtet werden. Definition von Anwendungsfeldern und Zielen Auf Basis der Erkenntnisse der Bestandsaufnahme können nun die konkreten Anwendungsfelder definiert werden. Diese sollte sich dabei neben den Potenzialen an den vorhandenen Ressourcen (Personal und Finanzen) orientieren. Es sollte also eine klassische Kosten-Nutzen-Analyse erfolgen. Im Nachgang sollten klare Ziele formuliert werden, wobei eine Orientierung an den SMART-Kriterien sinnvoll ist. Implementierung Bei der Implementierung innerhalb der einzelnen Anwendungsfelder ist grundsätzlich ein agiles Vorgehen vorteilhaft, das Flexibilität und kontinuierliche Verbesserungen ermöglicht. In der Implementierungsphase werden für die vorab definierten Bereiche in einem ersten Schritt geeignete KI-Tools ausgewählt. Eine derartige Auswahl sollte auf Basis eines vorab festgelegten Kriterienkataloges erfolgen (u. a. Kosten, Erweiterungsmöglichkeiten). In diesen Auswahlprozess sollten alle relevanten Stakeholder involviert sein. Die konkrete Einführung sollte in Form von Pilotprojekten erfolgen, um Risiken zu minimieren und erste Erkenntnisse zu gewinnen. Diese Tests können zum Beispiel den Einsatz eines KI-gestützten Chatbots bei einer kleinen Kundengruppe umfassen. Evaluierung Die abschließende Phase ist die Evaluierung der KI-Marketing-Strategie und der einzelnen Anwendungsfelder. Es wird überprüft, ob die gesetzten Ziele erreicht wurden <?page no="303"?> 3.4 KI im Marketing 303 und welche Anpassungen erforderlich sind. Hierbei sollten wichtige und vorab definierte Leistungskennzahlen gemessen und analysiert werden. Wenn KI-Anwendungen zum Beispiel im Service-Bereich implementiert wurden, könnte etwa die Servicezufriedenheit betrachtet werden. Basierend auf den Ergebnissen der Evaluierung sollten im Anschluss entsprechende Verbesserungsmöglichkeiten identifiziert und an die jeweiligen Bereiche kommuniziert werden. 3.4.5 Schlussbetrachtung Die Integration von KI-Anwendungen in das Marketing bietet sehr großes Potenzial und kann u. a. zu erheblichen Effizienzsteigerungen, präziseren Entscheidungen und einer individualisierten Kundenansprache führen. Dabei können KI-Anwendungen in allen Phasen des Marketingprozesses - von der Datenerhebung und -analyse über die Strategieentwicklung bis hin zur Umsetzung und Erfolgskontrolle - eingesetzt werden. So bietet etwa die Fähigkeit von vielen KI-Anwendungen, große Datenmengen zu verarbeiten und komplexe Muster zu erkennen, insbesondere in datenintensiven Bereichen wie der Marktsegmentierung, der dynamischen Preisgestaltung und der Vorhersage des Konsumentenverhaltens, große Vorteile. Trotz der Potenziale von KI-Anwendungen für das Marketing haben viele Unternehmen Schwierigkeiten, KI-Anwendungen sinnvoll in bestehende oder neue Prozesse zu integrieren. Die Implementierung von KI-Systemen setzt eine strategische Planung voraus, die sowohl technologische als auch organisatorische Voraussetzungen berücksichtigen muss. Zentral sind hierbei die Schaffung einer geeigneten (Daten-) Infrastruktur, die Weiterqualifizierung von Mitarbeitenden sowie die Entwicklung einer Unternehmenskultur, die Offenheit gegenüber Innovation fördert. Zudem wirft der Einsatz von KI im Marketing ethische Fragen auf, insbesondere im Hinblick auf Datenschutz und algorithmische Entscheidungsfindung, die einer kontinuierlichen Reflexion bedürfen. Literatur Anayat, S., & Rasool, G. (2022). Artificial intelligence marketing (AIM): connectingthe-dots using bibliometrics. Journal of Marketing Theory and Practice , 32 (1), 114-135. Ansari, A., Li, Y., & Zhang, J.Z. (2018). Probabilistic topic model for hybrid recommender systems: A stochastic variational Bayesian approach. Marketing Science , 37(6), 987-1008. Bär, I., & Zerres, C. (2024). Social-Media-Monitoring. In C. Zerres (Hrsg.), Handbuch Social-Media-Marketing (S. 41-60), Springer Gabler. Bauer, J., & Jannach, D. (2018). Optimal pricing in e-commerce based on sparse and noisy data. Decision Support Systems , 106, 53-63. Berger, J., Humphreys, A., Ludwig, S., Moe, W.W., Netzer, O., & Schweidel, D. A. (2020). Uniting the Tribes: Using Text for Marketing Insight. Journal of Marketing , 84(1), 1-25. Bitkom (2024). Künstliche Intelligenz im Marketing . Bitkom e. V. Berlin. Butz, M. V. (2016). Toward a unified sub‐symbolic computational theory of cognition. Frontiers in Psychology , 7, 925. <?page no="304"?> 304 Christopher Zerres und Kai Israel Cui, D., & Curry, D. (2005). Prediction in marketing using the support vector machines. Marketing Science , 24(4), 595-615. de Bruyn, A., Viswanathan, V., Beh, Y.S., Brock, J.K.-U., & von Wangenheim, F. (2020). Artificial Intelligence and Marketing: Pitfalls and Opportunities. Journal of Interactive Marketing , 51, 91-105. Drew, J.H., Mani, D.R., Betz, A.L., & Datta, P. (2001). Targeting Customers with Statistical and Data-Mining Techniques. Journal of Service Research , 3(3), 205- 219. Europäisches Parlament (2023). Was ist künstliche Intelligenz und wie wird sie genutzt? https: / / www.europarl.europa.eu/ topics/ de/ article/ 20200827STO85804/ was-ist-kunstliche-intelligenz-und-wie-wird-sie-genutzt. Zugegriffen am 12. Oktober 2024 Feng, J., Li, X., & Zhang, X. (2019). Online product reviews-triggered dynamic pricing: Theory and evidence. Information Systems Research , 30(4), 1107-1123. Frantz, R. (2003). Herbert Simon. Artificial intelligence as a framework for understanding intuition. Journal of Economic Psychology , 24(2), 265-277. Grewal, D., Guha, A., Satornino, C.B., & Schweiger, E.B. (2021). Artificial intelligence: The light and the Darkness. Journal of Business Research , 136, 229-236. Haefner, N., Wincent, J., Parida, V., & Gassmann, O. (2021). Artificial intelligence and innovation management: A review, framework, and research Agenda. Technological Forecasting and Social Change , 162, 120392. Hartmann, J., Exner, Y., & Domdey, S. (2025). The power of generative marketing: Can generative AI create superhuman visual marketing content? International Journal of Research in Marketing , 42(1), 13-31. Hartmann, J., Huppertz, J., Schamp, C., & Heitmann, M. (2019). Comparing automated text classification methods. International Journal of Research in Marketing , 36, 20-38. Hauser, J.R., Urban, G.L., Liberali, G., & Braun, M. (2009). Website morphing. Marketing Science , 28(2), 202-223. Huang, D., & Luo, L. (2016). Consumer Preference Elicitation of Complex Products Using Fuzzy Support Vector Machine Active Learning. Marketing Science , 35(3), 445-464. Huang, M.-H., & Rust, R.T. (2021). A strategic framework for artificial intelligence in marketing. Journal of the Academy of Marketing Science , 49, 30-50. Kasem, M.S., Hamada, M., & Taj-Eddin, I. (2024). Customer profiling, segmentation, and sales prediction using AI in direct marketing. Neural Computing and Applications , 36, 4995-5005. Kowatsch, T., & Maass, W. (2010). In‐store consumer behavior: How mobile recommendation agents influence usage intentions, product purchases, and store preferences. Computers in Human Behavior , 26(4), 697-704. Kulkarni, A., Shivananda, A., Kulkarni, A., & Gudivada, D. (2023). Applied Generative AI for Beginners. Practical Knowledge on Diffusion Models, ChatGPT, and Other LLMs . Springer Science+Business Media. <?page no="305"?> 3.4 KI im Marketing 305 Kumar, S., Kar, A.P., & Ilavarasan, P.V. (2021). Applications of text mining in services management: A systematic literature review. International Journal of Information Management Data Insights , 1(1), 100008. Kumar, V., Ashraf, A.R., & Nadeem, W. (2024). AI-powered marketing: What, where, and how? International Journal of Information Management , 77, 102783. Kurz, S., & Schneider, A. (2024). Künstliche Intelligenz im Marketing. transfer 04/ 2024 - Zeitschrift für Kommunikation und Markenmanagement , 70(4), 45-48. Lee, T.Y., & Bradlow, E.T. (2011). Automated marketing research using online customer reviews. Journal of Marketing Research , 48(5), 881-894. Li, S., Sun, B., & Montgomery, A.L. (2011). Cross-selling the right product to the right customer at the right time. Journal of Marketing Research , 48(4), 683-700. Li, X., Shi, M., & Wang, X. (2019). Video mining: Measuring visual information using automatic methods. International Journal of Research in Marketing , 36(2), 216-231. Liu, X., Lee, D., & Srinivasan, K. (2019). Large-Scale Cross-Category Analysis of Consumer Review Content on Sales Conversion Leveraging Deep Learning. Journal of Marketing Research , 56(6), 918-943. Loureiro, S.M.C., Guerreiro, J., & Tussyadiah, I. (2021). Artificial intelligence in business: State of the art and future research Agenda. Journal of Business Research , 129, 911-926. Ma, L., & Sun, B. (2020). Machine learning and AI in marketing - Connecting computing power to human insights. International Journal of Research in Marketing , 37, 481-504. Ma, L., Sun, B., & Zhang, K. (2019). Image network and interest group - A heterogeneous network embedding approach to analyze social curation on Pinterest. Working paper University of Toronto. Madigan, R., Louw, T., Wilbrink, M., Schieben, A., & Merat, N. (2017). What influences the decision to use automated public transport? Using UTAUT to understand public acceptance of automated road transport systems. Transportation Research Part F: Traffic Psychology and Behavior , 50, 55-64. Mahadevkar, S.V., Patil, S., Kotecha, K., Soong, L.W., & Choudhury, T. (2024). Exploring AI-driven approaches for unstructured document analysis and future horizons. Journal of Big Data , 11, 92. Manis, K.T., & Madhavaram, S. (2023). AI-Enabled marketing capabilities and the hierarchy of capabilities: Conceptualization, proposition development, and research Avenues. Journal of Business Research , 157, 113485. Mariani, M.M., Perez‐Vega, R., & Wirtz, J. (2022). AI in marketing, consumer research and psychology: A systematic literature review and research Agenda. Psychology & Marketing , 39, 755-776. McKinsey (2023). The economic potential of generative AI: The next productivity frontier. https: / / www.mckinsey.com/ capabilities/ mckinsey-digital/ our-insights/ the-economic-potential-of-generative-ai-the-next-productivity-frontier# introduction. Zugegriffen am 21. Februar 2025 <?page no="306"?> 306 Christopher Zerres und Kai Israel Merten, M. (2024). So unterscheiden Sie echte KI-Experten von Blendern. Handelsblatt 19.08.2024. https: / / www.handelsblatt.com/ karriere/ ki-coaches-wie-sieechte-ki-experten-von-blendern-unterscheiden/ 100056338.html. Zugegriffen am 25. Februar 2025 Misra, K., Schwartz, E.M., & Abernethy, J. (2019). Dynamic online pricing with incomplete information using multiarmed bandit experiments. Marketing Science , 38(2), 226-252. Montes, R., Sand-Zantman, W., & Valletti, T. (2019). The value of personal information in online markets with endogenous privacy. Management Science , 65(3), 1342-1362. Oca, A., Panikkar, R., Sampat, C., & Brown, T. (2024). Harnessing the power of AI in distribution operations. McKinsey & Company. https: / / www.mckinsey.com/ industries/ industrials-and-electronics/ our-insights/ distribution-blog/ harnessing-the-power-of-ai-in-distribution-operations. Zugegriffen am 26. Februar 2025 Park, S.S., Tung, C.D., & Lee, H. (2021). The adoption of AI service robots: A comparison between credence and experience service settings. Psychology & Marketing , 38(4), 691-703. Poushneh, A. (2021). Humanizing voice assistant: The impact of voice assistant personality on consumers' attitudes and behaviors. Journal of Retailing and Consumer Services , 58(1), 1-10. Reyna, V.F., & Casillas, W. (2009). Development and dual processes in moral reasoning: A fuzzy‐trace theory approach. Psychology of Learning and Motivation , 50, 207-236. Schlesinger, M. (2004). Evolving agents as a metaphor for the developing child. Developmental science , 7(2), 158-164. Schultz, C.D., Koch, C., & Olbrich, R. (2024). Dark sides of artificial intelligence: The dangers of automated decision-making in search engine advertising. Journal of the Association for Information Science and Technology , 75(5), 550-566. Seiler, R., Klaas, M., & Hari, J. (2019). Künstliche Intelligenz im Marketing. Marketing Review St.Gallen , 36(1), 66-75. Sigala, M. et al. (2024). Understanding the impact of ChatGPT on tourism and hospitality: Trends, prospects and research Agenda. Journal of Hospitality and Tourism Management , 60, 384-390. Singh, H., Arora, M., & Singh, A. (2024). ChatGPT in marketing: innovative pathways, decision systems, and forward perspectives. Journal of Decision Systems , 1-28. Sivathanu, B. (2018). Adoption of internet of things (IOT) based Wearables for healthcare of older adults-a behavioural reasoning theory (BRT) approach. Journal of Enabling Technologies , 12(4), 169-185. Soumpenioti, V., & Panagopoulos, A. (2023). AI Technology in the Field of Logistics . 18th International Workshop on Semantic and Social Media Adaptation & Personalization (SMAP), Limassol, Cyprus, 2023, 1-6. <?page no="307"?> 3.4 KI im Marketing 307 Tirunillai, S., & Tellis, G.J. (2014). Mining marketing meaning from online chatter: Strategic brand analysis of big data using latent Dirichlet allocation. Journal of Marketing Research , 51(4), 463-479. Trusov, M., Ma, L., & Jamal, Z. (2016). Crumbs of the cookie: User profiling in customer-base analysis and behavioral targeting. Marketing Science , 35(3), 405-426. Verma, S., Sharma, R., Deb, S., & Maitra, D. (2021). Artificial intelligence in marketing: Systematic review and future research direction. International Journal of Information Management Data Insights , 1(1), 100002. Vermeer, S. A., Araujo, T., Bernritter, S. F., & van Noort, G. (2019). Seeing the wood for the trees: How machine learning can help firms in identifying relevant electronic word-of-mouth in social media. International Journal of Research in Marketing , 36(3), 492-508. Vlačić, B. Corbo, L., Costa e Silva, S., & Dabić, M. (2021). The evolving role of artificial intelligence in marketing: A review and research Agenda. Journal of Business Research , 128, 187-203. Volkmar, G., Reinecke, S., & Fischer, P.M. (2021). Künstliche Intelligenz im Marketing: Möglichkeiten und Herausforderungen. Die Unternehmung , 75(3), 359-375. Wedel, M., & Kannan, P.K. (2016). Marketing analytics for data-rich environments. Journal of Marketing , 80(6), 97-121. Wirtz, J., Patterson, P.G., Kunz, W.H., Gruber, T., Lu, V.N., Paluch, S., & Martins, A. (2018). Brave new world: Service robots in the frontline. Journal of Service Management , 29(5), 907-931. Wu, C.-W., & Monfort, A. (2023). Role of artificial intelligence in marketing strategies and performance. Psychology & Marketing , 40, 484-496. Wu, J., Li, H., Cheng, S., & Lin, Z. (2016). The promising future of healthcare services: When big data analytics meets wearable technology. Information & Management , 53(8), 1020-1033. Yoganarasimhan, H., (2018). Search Personalization using Machine Learning. Management Science , 66(3), 1045-1070. Zerres, C., & Zerres, M. (2021). Einführung in das Marketing-Controlling. In C. Zerres (Hrsg.), Handbuch Marketing-Controlling (S. 3-15) (5. Aufl.). Springer Gabler. Zhang, M., & Luo, L. (2019). Can User-Posted Photos Serve as a Leading Indicator of Restaurant Survival? Evidence from Yelp. Working paper, SSRN: https: / / ssrn.com/ abstract=3108288. <?page no="309"?> 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen Kai Rahnenführer Zusammenfassung Künstliche Intelligenz (KI) wird das Leben für die Gesellschaft auf unglaubliche Weise verändern. Fast alle Bereiche des Zusammenlebens werden davon betroffen sein. Diese, noch relativ neue Technologie wird das Arbeitsals auch das Privatleben gleichermaßen revolutionieren. Von daher ist eine Beschäftigung mit diesem Thema mehr als sinnvoll. Nachfolgend werden die Chancen und Risiken von KI für Unternehmen beleuchtet und aufgezeigt, welche Hürden es zu überwinden gilt und wie ein ganzheitlicher Ansatz eine erfolgreiche Implementierung gewährleisten kann. Keywords: KI-Implementierung, Innovationsfähigkeit, Einsatzfelder, Herausforderunge 3.5.1 Einleitung „Künstliche Intelligenz - Fluch oder Segen für die Gesellschaft? “ ist mittlerweile eine der häufigsten Fragen. Heute erleben wir beispiellose Geschwindigkeiten des technologischen Wandels. Während die Technologie voranschreitet, hinkt die menschliche Evolution oftmals noch hinterher und verharrt mitunter in einer Linearität der Entwicklung. So haben Unternehmen die gleichen Herausforderungen zu bewältigen, wie die Gesellschaft an sich. Die Technologie ist unaufhaltsam, aber wie gehen die Menschen damit um, anders gefragt, wie kann die Gesellschaft damit umgehen, wenn man diese nur rudimentär versteht? Von Seiten des Unternehmens stellt sich wiederum die Frage, wieviel Technologie verträgt es, speziell die Mitarbeitenden? Letztlich fokussiert sich die Fragestellung auf: Wie kann man sicherstellen, dass Unternehmen mit der rasanten Entwicklung der Technik Schritt halten und dass die Beteiligten diese beherrschen sowie Nutzen daraus ziehen können? Die Antwort liegt größtenteils in der Gesellschaft, oder besser, in der gesellschaftlichen Innovationsfähigkeit. Diese bezieht sich darauf, wie gut eine Gesellschaft in der Lage ist, Innovationen hervorzubringen und diese gezielt zur Bewältigung von anstehenden Herausforderungen einzusetzen. Dabei geht es nicht nur um technische Aspekte oder organisatorische / prozessuale Abläufe, etwa einer Umsetzung von behördlichen Vorgaben, sondern auch um kulturelle Veränderungen innerhalb des Unternehmens, wie auch um die stetige (Weiter-)Bildung und (zivil-)gesellschaftliche Beteiligung. Die Evolution mag langsam sein, aber die Fähigkeit zur Anpassung und zum kulturellen Wandel vermag sich bemerkenswert schnell einstellen. Voraussetzung ist, dass diese ganzheitlich initiiert und gesteuert wird. <?page no="310"?> 310 Kai Rahnenführer Die Beratungsgesellschaft PwC etwa schätzt diesbezüglich das zu erreichende Umsatzpotenzial durch den Einsatz von KI auf bis zu 15,7 Billionen Dollar bis zum Jahre 2030 (vgl. OpenUp 2025). Ist die Bedeutung von KI tatsächlich so groß? Wenn man den Medien glaubt, dann definitiv ja. Eigentümlicherweise nutzen allerdings innerhalb der Industrie lediglich 6 % der Unternehmen derzeit KI. Weitere 22 % planen einen Einsatz von KI in ihrem Unternehmen (vgl. QPlaner 2024). Alleine dies zeigt, dass viele Unternehmen  die Chancen noch nicht erkannt haben,  die Technik noch nicht vollständig durchdrungen haben, um Potenziale für das Unternehmen abzuleiten und zu nutzen,  die Risiken einer Einführung im Unternehmen für höher halten als den Nutzen, den man mit der KI in den nächsten Jahren erzielen kann, sowie  den Invest, den man nicht nur in die Technik, sondern auch in die Menschen, die in Unternehmen diese anwenden soll, scheuen. Sam Altman, CEO von OpenAI, betont in diesem Zusammenhang die transformative Kraft von KI. „KI wird die Welt mehr verändern als das Internet. KI wird alles verändern. Es wird wahrscheinlich das Wirtschaftssystem, wie wir es kennen, das Bildungssystem und die Art, wie wir denken, umgestalten.“ (Bildungssprache 2024). Was ist aber damit genau gemeint, wenn wir über KI reden, wo kommt sie her, was macht man mit KI beziehungsweise was kann KI für einen selbst oder für Unternehmen leisten und wie nutzt man sie zum „Segen“ und lässt sie nicht zum „Fluch“ werden? Einige Durchbrüche in der KI-Entwicklung sind aktuell zu verzeichnen, insbesondere die stetige Weiterentwicklung der KI-Modelle, welche in der Lage sein werden,  komplexe oder komplexeste Probleme zu lösen,  Dokumente tiefgehend zu analysieren und zu vergleichen,  mehrstufige Prozessschritte umzusetzen sowie  Softwareentwicklungen weitestgehend zu automatisieren. Diese Aufzählung erhebt keinen Anspruch auf Vollständigkeit. Oriol Vinyals, ein Forschungswissenschaftler bei Google, erklärt: „Generative KI-Modelle verändern die Art und Weise, wie wir über maschinelle Intelligenz und Kreativität denken, und haben das Potenzial, Branchen von den Medien über das Finanzwesen bis hin zum Gesundheitswesen zu verändern.“ (Skim AI 2024) Mark Zuckerberg; CEO von Meta, sieht in der KI allgemein einen Schlüssel zur Lösung der globalen Herausforderungen (vgl. Skim AI 2024). Die Entwicklung der KI ist eine Geschichte von kontinuierlicher Innovation und Transformation in und von Unternehmen. Während sie sich in der Entwicklung am Anfang mehr auf den praktischen Nutzen bezogen hat, hat sie mit steigender Tendenz das Potenzial, ganz neue Geschäftsmodelle für Unternehmen zu eröffnen, um vor allem auch eine kommerzielle Nutzung voranzutreiben (vgl. Abb. 72). Was einst als theoretisches Konzept oder auch Konstrukt begann, hat sich bis heute zu einer Schlüsseltechnologie entwickelt. Der Einsatz von KI in Unternehmensprozessen wird in den kommenden Jahren zweifellos weiter zunehmen und die Geschäftswelt nachhaltig verändern. Trotz des großen Potenzials gibt es allerdings noch Hindernisse beim Einsatz von KI in Unternehmen. 70 % der Unternehmen, die <?page no="311"?> 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen 311 Abb. 72: Entwicklung der KI und deren Nutzung von Unternehmen (Quelle: Eigene Darstellung in Anlehnung an Bosch 2018) <?page no="312"?> 312 Kai Rahnenführer noch nicht in KI investiert haben, geben an, dass sie keine Zeit haben, sich mit dem Thema zu beschäftigen. 56 % haben niemanden, der sich um das Thema kümmert (vgl. QPlaner 2025). Wie gehen Unternehmen mit KI um, wie deren Mitarbeiter, deren Führungskräfte, vor allem die verantwortlichen Manager? Welche Szenarien gibt es, wenn man über den Einsatz von KI redet? Die Beantwortung dieser Fragen macht es notwendig, dass Unternehmen das Potenzial - real - einschätzen und sich bewusst sind, was sie mit KI verbessern oder verändern möchten. Mögliche Anwendungsgebiete zeigt Abbildung 73. Abb. 73: Anwendungsgebiete KI in Unternehmen (Quelle: Eigene Darstellung) 3.5.2 KI ‒ Zwischen Utopie und Dystopie KI polarisiert die Gesellschaft wie kaum eine andere Technologie. Die Meinungen können verschiedener nicht sein und schwanken zwischen Utopie und Dystopie. Ist die Integration von KI in Unternehmen ein utopisches Szenario, welches Effizienz und Wohlstand steigert, oder birgt eine Integration dystopische Risiken wie Kontrollverluste, Arbeitsplatzabbau und ethische Dilemmata? Während einige eine düstere Zukunft befürchten (dystopische Sichtweise), sehen andere in KI die Lösung für viele globale Herausforderungen (utopische Sichtweise) (vgl. Vöpel 2024). Utopische Vision der KI Die utopische Sichtweise verspricht eine oppositionelle bessere Zukunft, da Technologie und menschliche Kreativität Hand in Hand gehen, um eine bessere Welt zu schaffen. Bill Gates, Mitbegründer von Microsoft, etwa sieht die utopische Vision so: „Generative KI hat das Potenzial, die Welt in einer Weise zu verändern, die wir uns nicht einmal vorstellen können. Sie hat die Macht, neue Ideen, Produkte und Dienstleistungen zu schaffen, die unser Leben einfacher, produktiver und kreativer machen werden.“ (Skim AI 2025). Es muss aber nicht nur Utopie bleiben, wenn die Gesellschaft oder speziell Unternehmen es schaffen, Realität aus den utopischen Ideen werden zu lassen. In Summe lässt sich bereits heute schon ableiten, dass, wie Technologie auch, KI den Wohlstand beziehungsweise Lebensstandard weiter ansteigen lassen kann, etwa durch die Entwicklung und den Verkauf von technologisch innovativen Produkten oder Dienstleistungen. Hinzu kommt, dass Menschen mehr Erfüllung in der Ausübung ihrer Arbeit sehen, wenn KI administrative, nicht-wertschöpfende und / oder gefährliche Tätigkeiten übernimmt. Letztlich ist es wünschenswert, wenn die Gesellschaft sich dahingehend entwickelt, menschenzentriert und -orientiert zu agieren. Es sollte das Ziel sein, KI als Partner der Gesellschaft anzusehen. <?page no="313"?> 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen 313 Dystopische Vision der KI Die dystopische, negative Vision dagegen warnt vor Risiken und Gefahren beim Einsatz von KI in Unternehmen. Am häufigsten trifft man hier auf Argumente, welche die Sorge äußern, dass KI-Systeme Entscheidungen treffen, die nicht im Interesse des Menschen sind. Auch die Übernahme von Kontrolle durch KI-Systeme, die dann nicht mehr ausgeübt werden kann, wird als Gefahr gesehen. Es werden datenorientierte Entscheidungen getroffen; es fehlt der Entscheidung jegliche Emotionalität und Transparenz, wie diese Systeme Entscheidungen treffen. So kaufen Menschen in der Regel über Emotionalität und nicht rein datengetrieben. Weitere dystopische Visionen betreffen die potenzielle Arbeitslosigkeit, die durch die Automatisierung vieler Berufe entstehen könnte. Wenn Technologie in Form von KI in der Lage ist oder sein wird, Aufgaben schneller und effizienter zu erledigen als die Mitarbeitenden in Unternehmen, könnten alsbald viele Arbeitsplätze überflüssig werden. Das wiederum führt zwangläufig zu sozialen Unruhen und einer Verschärfung der sozialen Ungleichheit in der Gesellschaft. Ebenso kann der dauerhafte Einsatz zum Verlust von menschlichen Fähigkeiten führen. Man kennt dies von Firmen, die sehr viel Outsourcing (aus Kostengründen) betreiben. Dabei übersehen sie aber, dass die firmeneigenen Fähigkeiten mit der Zeit und des Einsatzgrades von Lieferanten verloren gehen. In der Konsequenz wird neues Wissen ausschließlich durch die KI erzeugt. Die Gesellschaft würde sich bei einem solchen Szenario in die Hände der Entscheidungsalgorithmen von Technologie begeben. Letzlich führt dies zur Verkümmerung von Fähigkeiten und Erfahrungen. Kritisches Denken, Kreativität und soziale Kompetenz nehmen im Laufe der Zeit ab, wenn sich die Gesellschaft nur auf die Ergebnisse der KI verlassen würde (vgl. Silver 2023). Teilweise ist dies bereits heute schon in den sozialen Medien sichtbar durch die Tatsache der „Filterblase“ von sozialen Medien wie beispielsweise Facebook, Instagram oder aber auch TikTok. Hierbei werden durch Algorithmen dem Nutzer personalisierte Inhalte angezeigt, die seine eigenen Ansichten bestätigen. Dies nimmt mit dem Wahrnehmen dieser Inhalte immer weiter zu. Der Algorithmus zeigt im Folgenden fast ausschließlich nur noch die Interessen des Users an. Dazu orthogonale Ansichten, Meinungen oder Interessen sind dann ausgeblendet. Das kann zu mangelnder Kritikfähigkeit als auch zur Verstärkung von Vorurteilen bis hin zur Radikalisierung führen. Wie so oft liegt die Wahrheit und/ oder Realität wahrscheinlich irgendwo zwischen diesen beiden Extremen. KI hat das Potenzial, sowohl positive als auch negative Auswirkungen zu haben, und es liegt an der Gesellschaft und speziell den Mitarbeitenden in den Unternehmen, wie diese Technologie gestaltet und genutzt wird. Es ist wichtig, dass man sich der Risiken bewusst ist und Maßnahmen ergreift, um diese zu minimieren, während man gleichzeitig die Chancen nutzt, die KI der Gesellschaft an sich bietet. Es sollte mehr Nutzen daraus entstehen, ohne die Gesellschaft, speziell auch die Mitarbeiter von Unternehmen zu überfordern. 3.5.3 Die Bedeutung der KI für Unternehmen In den nächsten Jahren wird man sich nicht mehr die Frage stellen, soll ein Unternehmen KI einsetzen oder nicht, sondern vielmehr nur noch die Frage, für was kann ich die KI in meinem Unternehmen einsetzen und wie implementiere ich diese möglichst effizient und nutzbringend? KI wird eine der bahnbrechendsten Technologien <?page no="314"?> 314 Kai Rahnenführer unserer Zeit werden und eine immer bedeutendere Rolle in der Geschäftswelt einnehmen. Die Relevanz der Entwicklung und Implementierung einer KI innerhalb eines Unternehmens wird sich noch anpassen. Der Einsatz von KI in Unternehmen hat weitestgehend zum Ziel, die  Effizienz zu steigern,  Innovationen voranzutreiben und  Wettbewerbsvorteile zu sichern. Dies betrifft im Unternehmen sowohl die strategischen Entscheidungen durch das Management als auch die operative Ebene der Mitarbeiter. KI bietet die Möglichkeit, administrative Aufgaben zu automatisieren und Entscheidungsfindungen zu verbessern. Allerdings erfordert dies auch die Initiative und die Bereitschaft der Mitarbeiter, sich neue Fähigkeiten durch Weiterbildung anzueignen. Es ist nicht ausgeschlossen, dass es hier zu einer Abnahme von verschiedenen Berufen kommen wird, die viel Administration in den Prozessen beinhalten. Auf der anderen Seite werden aber auch neue Berufe entstehen, wie beispielsweise KI-Trainer, KI-Produktmanager oder Datenkurator. Das Phänomen an sich kennt man aus der Automobilindustrie, welche sich mit dem Thema Elektromobilität versus Verbrennungsmotor in einer ähnlichen Situation befindet. Dort werden Fachkräfte benötigt, welche sich mit Elektromotoren auskennen, Spezialisten zum Thema Verbrennungsmotor werden dagegen abgebaut. Für Manager eines Unternehmens bedeutet der Einsatz von KI, dass sie sich mit neuen Technologien auseinandersetzen und deren Potenziale für ihr Unternehmen erkennen und verstehen müssen. Sie stehen vor der Herausforderung, KI-Systeme (neue, weitestgehend noch unbekannte Technologien) erfolgreich zu implementieren und gleichzeitig ihre Mitarbeiter auf diesem Weg mitzunehmen. Die Mitarbeitenden selbst müssen sich darauf einstellen, dass sich ihre Aufgabenschwerpunkte durch KI verändern werden. Das muss nicht unbedingt schlecht sein, aber jeder einzelne Mitarbeiter wird aufgefordert sein, sich der neuen Technologie und deren Herausforderungen zu widmen und seine Veränderungsbereitschaft einzubringen. Nur so kann Technologie sich etablieren und bekommt die notwendige Akzeptanz im Unternehmen. Abb. 74: Einsatzfelder von KI in Unternehmen (Quelle: Eigene Darstellung) <?page no="315"?> 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen 315 In der Konsequenz bedeutet das, dass viele Routinetätigkeiten automatisiert werden, während komplexere Aufgaben, die menschliche Kreativität und Urteilsvermögen weiterhin erfordern, sogar an Bedeutung gewinnen. Dies erfordert Flexibilität und Bereitschaft zum lebenslangen Lernen. Die wichtigsten Einsatzfelder von KI in Unternehmen zeigt die Abbildung 74. Der Einsatz von KI wird zunehmend zu einem entscheidenden Faktor für die Innovationskraft und damit für die Wettbewerbsfähigkeit von Unternehmen. Unternehmen, die KI frühzeitig implementieren, verschaffen sich mit hoher Wahrscheinlichkeit einen strategischen Vorteil, vor allem auch in einem globalen Markt. 3.5.4 Herausforderungen bei der Einführung von KI in Unternehmen Der Einsatz von KI stellt zahlreiche Herausforderungen an Unternehmen. Mitunter einer der größten, wichtigsten und komplexesten ist die Integration der KI in eine bereits bestehende IT-Landschaft. Eine von Deloitte erstellte Studie zeigt, dass sich nur 23 % der Unternehmen mit Themen, wie Risiken, Governance und regulatorischen Fragen, im Vorfeld auseinandergesetzt haben und sich dementsprechend gut vorbereitet fühlen, um KI in ihrem Unternehmen zu implementieren (vgl. Deloitte 2025). Eine Implementierung von KI bedeutet vor allem eine umfassende Transformation der  Technologie (Auswahl und Integration von KI-Tools, Plattformen, Systemkompatibilität),  Organisation (strategische Ausrichtung) und  Menschen (Veränderungswillen im Unternehmen, Fähigkeiten und Einstellungen). Jeder dieser Aspekte spielt eine entscheidende Rolle für den Gesamterfolg von KI- Initiativen. Zudem müssen juristische und regulatorische Anforderungen beachtet werden, insbesondere im Bereich Datenschutz und Datensicherheit. Wie ein Experte betont: „KI sollte nicht nur heute, sondern auch in der Zukunft zum Wohl aller beitragen“ (Maiborn Wolff 2025). Ethische Richtlinien und deren Überwachung sind für den KI-Einsatz daher unerlässlich. Abb. 75: Die größten Herausforderungen für Unternehmen bei einer KI-Einführung (Quelle: Eigene Darstellung in Anlehnung an ManpowerGroup Deutschland GmbH 2024) <?page no="316"?> 316 Kai Rahnenführer Laut Manpower Group sind es die in Abbildung 75 dargestellten Herausforderungen/ Hürden, welche die Einführung von KI verzögern oder aktuell gar verhindern. Technische Herausforderungen Die technischen Herausforderungen sind im Kontext einer KI-Integration sehr hoch. Drei Hauptaspekte stechen dabei besonders hervor:  Datenqualität,  Integration in bestehende Systeme, und  Skalierbarkeit. Datenqualität Für eine erfolgreiche Implementierung von KI ist eine hohe Datenqualität unverzichtbar. Die Datenqualität bildet die Grundlage für präzise Analysen, fundierte Entscheidungen und Vermeidung von Fehlern, sei es, um seine Kunden zu kennen, Angebote korrekt formulieren zu können oder aber Rechnungen an den richtigen Adressaten zu versenden. Unvollständige oder fehlerhafte Daten können den Unternehmensprozess behindern, Effizienzen verringern und so interne Kosten erhöhen. Das ganze KI-Projekt könnte gefährdet werden; daher sind eine gründliche Datenprüfung und -vorbereitung im Vorfeld erforderlich (vgl. Pfattheicher 2025). Das Unternehmen muss sich im Vorfeld fit machen. Systeme, die nicht ordentlich gepflegt wurden, doppelte Datenhaltungen mit Abweichungen in den einzelnen Systemen sind hier kontraproduktiv und zehren an dem zu erreichenden Erfolg. Integration in bestehende Systeme Daten in diversen Datenbanken müssen miteinander verbunden werden, Tools systemübergreifend kommunizieren, Netze stabil und schnell sein. Eine nahtlose Integration von KI-Systemen in die vorhandene IT-Infrastruktur ist demzufolge entscheidend, um diese problemlos in einer produktiven Umgebung bereitstellen zu können (vgl. Management Circle 2024). Dies erfordert nicht nur fundierte Kenntnisse in der Programmierung, sondern auch in der Entwicklung von Schnittstellen sowie die Zusammenführung der Daten. Skalierbarkeit Skalierbarkeit definiert, dass der Einsatz von KI im Unternehmen sich erhöht. Damit steigt nicht nur die Anzahl der Daten und Datenmengen, sondern auch die Anzahl der Bereiche, Abteilungen und somit die Anzahl der betroffenen Mitarbeiter, welche mit diesen Daten arbeiten und sich auf deren Korrektheit verlassen können müssen. Die Skalierbarkeit von KI-Lösungen ist von daher ein weiterer kritischer Faktor. Unternehmen müssen sicherstellen, dass ihre KI-Systeme mit wachsenden Datenmengen und steigender Nutzerzahl effizient weiterarbeiten. Dies erfordert eine sorgfältige und flexible Planung der IT-Infrastruktur und die Wahl geeigneter Technologien und Architekturen (vgl. Ahmad 2024; FasterCapital 2025), insbesondere die Bereitstellung von zusätzlichen Rechenressourcen (Erweiterungen), wenn diese erforderlich werden. Zu empfehlen ist hier eine schrittweise Vorgehensweise. Unternehmen sollten kleine Use Cases definieren und/ oder anfangen, sich zunächst auf einen bestimmten Bereich zu konzentrieren, in dem KI den größten Nutzen für das Unternehmen bringen kann. Dieser sollte in der Komplexität überschaubar sein. Zudem ist es wichtig, hier <?page no="317"?> 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen 317 die richtigen Fachkräfte / Experten im Unternehmen zu haben und kontinuierlich alle anderen motivieren, sich zu dem Thema weiterzubilden. Entscheidend für den Erfolg von KI in Unternehmen ist die Bewältigung der weitestgehend technischen Herausforderungen (vgl. Abb. 76). Mit einer ganzheitlichen Strategie, angereichert durch Expertise, können Unternehmen das volle Potenzial von KI ausschöpfen und sich so Wettbewerbsvorteile verschaffen. Abb. 76: Übersicht der Herausforderung bei Implementierung von KI (Quelle: Eigene Darstellung in Anlehnung an BigData-Insider 2025). Quelle Bild: Pixabay (https: / / pixabay.com/ illustrations/ ai-artificial-intelligence-sci-fi-7111803/ ). Lizenzfrei zur Verwendung Organisatorische Herausforderungen Die Integration und Nutzung von KI in Unternehmen weisen im wesentlichen transformatorische wie technische Aspekte auf. Dies führt zu tiefgreifenden Veränderungen, wie Unternehmen in Zukunft intern und extern am Markt operieren und Werte schaffen. Zwei zentrale Aspekte, neben der Veränderung der technischen Aspekte (IT, Netzwerke, Tools), sind dabei ebenfalls die Veränderung von Prozessen und die damit verbundene Anpassung der Organisationsstruktur im Unternehmen. Beides schafft erst einmal Ineffizienzen und Unsicherheiten; Ineffizienzen, weil neu zu definierende Prozesse nicht gleich verstanden und optimal definiert beziehungsweise umgesetzt werden, Unsicherheiten bei den Mitarbeitern, die die Veränderungen erst einmal für sich verarbeiten müssen. Das geschieht in der Belegschaft allerdings nicht im Gleichklang, sondern persönlichkeitsabhängig hat jeder Mitarbeiter seine eigene „Geschwindigkeit“. Unternehmen müssen sich hier mit grundlegenden Fragen auseinandersetzen:  Wie können traditionelle Strukturen und Denkweisen mit der Agilität und Innovationskraft von KI in Einklang gebracht werden?  Wie ist der Umgang mit Widerständen im Unternehmen zu gestalten, und welche neuen Kompetenzen sind erforderlich, um KI effektiv zu nutzen?  Wie ist das Zusammenspiel Mensch zu Maschine zu gestalten und welchen Rahmenbedingungen wird es unterworfen sein? Die Frage für das Unternehmen ist, wie schafft man es, die genannten Aspekte zu <?page no="318"?> 318 Kai Rahnenführer verändern, dabei aber die Mitarbeiter von Betroffenen zu Beteiligten zu machen? Denn nur dann sind die Voraussetzungen gegeben, eine Transformation zu starten, effizient umzusetzen und zum Erfolg werden zu lassen. Veränderung von Prozessen Eine grundlegende Überarbeitung bestehender Geschäftsprozesse ist in der Regel unabdingbar. Das bedeutet in erster Linie eine Umorganisation von vielen Tätigkeiten, aber auch, dass monotone, repetitive, damit zeitintensive und stark administrative Aufgaben zunehmend von KI-Systemen ausgeübt werden können. Aufgaben können automatisiert werden, welche bisher manuell durchgeführt wurden und neue, datengetriebene Entscheidungsprozesse beschleunigen. Die Vorteile können aber nur dann voll ausgeschöpft werden, wenn Arbeitsabläufe auch neu gedacht und gestaltet werden (vgl. Ruess et al. 2024). Ein Beispiel hierfür ist die Automatisierung von Kundenservice-Anfragen durch Chatbots, was eine Anpassung der Kommunikationsprozesse und der Kundeninteraktionsstrategien erfordert (vgl. Stowasser 2021). Anpassung der Organisationsstruktur Neben Prozessveränderungen ist die Anpassung der Organisationsstruktur eine wesentliche Herausforderung. Die Einführung von KI kann und wird - durch neue Prozesse - neue Rollen und Verantwortlichkeiten schaffen, die in die bestehende Struktur integriert werden müssen. Dies kann und wird bedeuten, dass neue Abteilungen oder Teams gebildet werden, neue Verantwortlichkeiten im Unternehmen, nicht nur auf der Ebene von Mitarbeitern / Teams entstehen werden, die sich speziell mit der Entwicklung und dem Betrieb von KI-Systemen befassen (vgl. Claus und Szupories 2021). Zudem müssen Führungskräfte und Mitarbeiter bereit sein, geschult zu werden, um die neuen Technologien effektiv nutzen zu können (vgl. Hechler et al. 2023). KI erfordert sowohl höhere als auch breitere Kompetenzen der Mitarbeiter. Lebenslanges Lernen ist dafür unabdingbar, denn auch KI entwickelt sich ständig weiter. Kulturelle Herausforderungen Der Einsatz von KI in Unternehmen ist nicht allein als technologische Herausforderung zu sehen. Schon die Integration erfordert einen tiefgreifenden Kulturwandel, Abb. 77: Interpersonelle und organisatorische Herausforderungen (Quelle: Eigene Darstellung) <?page no="319"?> 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen 319 der alle Ebenen der Organisation betrifft und damit alle Mitarbeiter des Unternehmens. Das Unternehmen trifft dabei auf verschiedene - interpersonelle und organisatorische - Herausforderungen (vgl. Abb. 77). Traditionelle Unternehmenskulturen, die auf Stabilität von bewährten Prozessen und Methoden basieren, können der Integration von KI skeptisch gegenüberstehen. Mitarbeiter und Führungskräfte, die an bestehende Prozesse gewöhnt sind, sehen in der neuen Technologie häufig eine Bedrohung für ihre Arbeitsweise und ihre Position im Unternehmen. Das Gefühl, die Technologie selbst nicht zu beherrschen, ist ein weiterer, wichtiger Aspekt, welcher der Akzeptanz einer solchen Technologie im Unternehmen abträglich sein kann. Hinzu kommt bei einigen Mitarbeitern noch die Verlustangst, in naher Zukunft durch den Einsatz neuer Technologien den Job zu verlieren. Laut einer Studie von Zety (vgl. Ingenieur.de 2024) liegt die Angst vor Arbeitsplatzverlust durch den Einsatz neuer Technologienz, speziell KI bei 89 %. Real haben schon etwa 25 % der Befragten aufgrund von KI Ihren Arbeitsplatz verloren. Das Unternehmen muss demzufolge dafür Sorge tragen, dass die Mitarbeiter sich dem Thema widmen, nicht, weil sie es müssen, sondern weil sie die Vorteile in ihrer eigenen Arbeit darin sehen. Fehler müssen dabei zugelassen werden, solange man aus ihnen lernt und dadurch Verbesserungen erreicht. Anpassung der Mitarbeiter an die neue Kultur KI schafft Möglichkeiten, Administration zu reduzieren, aber nur, wenn man sich, wie bei allen technischen Errungenschaften, damit beschäftigt. Die Mitarbeiter und das Unternehmen an sich werden nicht umhinkommen, neue Kompetenzen aufzubauen. Corona hat gezeigt, dass Digitalisierung durchaus disruptiv eingeführt werden kann. Mittlerweile gibt es sehr viel Befürworter der Digitalisierung, da sie das Berufsleben einfacher werden lassen kann, etwa in Bezug auf das Home-Office. Eine erfolgreiche Integration von KI in Unternehmen erfordert eine sorgfältige Planung (mit einer Strategie beginnend - Warum und für welche Aufgaben möchte ich KI im Unternehmen einsetzen? ). Sie erfordert diese umso mehr bei der Umsetzung der organisatorischen Veränderungen (Wer soll in Zukunft welche Aufgaben mit welcher Verantwortung ausfüllen? ), also Verlässlichkeit, Transparenz und eine hohe Fehlertoleranz. Unternehmen müssen bereit sein, sich zu verändern. Darin beinhaltet sind sowohl die Neugestaltung von Arbeitsabläufen als auch die Schaffung neuer organisatorischer Einheiten. Entsprechend darf die Schulung der Mitarbeiter nicht vergessen werden, ebenso die menschliche Seite: Die Angst vor zu viel Innovation und Verlustängsten im Beruf sind nicht zu vernachlässigen. Neben eines technischen Implementierungsplanes bedarf es dazu ebenso eines innerbetriebliches Transformationsprojektes. Erste notwendige Aktionen dazu sind:  Transparente Kommunikation mit den Mitarbeitern über Ziele und Auswirkungen der KI-Integration. Notwendige Hinweise auf Veränderungen, aber auch Erwartungshaltungen seitens des Unternehmens an die Mitarbeiter. Zusätzlich sollten die Vorteile herausgestellt werden, die der Einsatz mit KI mit sich bringen kann.  Aktive Einbindung der Mitarbeiter - Betroffene zu Beteiligten machen. Mitgestalten lassen des Transformationsplanes. Ernst nehmen von Sorgen. Beantwortung von offenen Fragen.  Anbieten von Trainings, Schulungen, um Hürden sowie Ängste abzubauen und um Kompetenzen aufzubauen. <?page no="320"?> 320 Kai Rahnenführer  Entwickeln und kommunizieren einer klaren Vision für die Zukunft der Arbeit im Unternehmen. Konkrete, abgeleitete Ziele, an denen sich Mitarbeiter orientieren können, schaffen Vertrauen. Kompetenzaufbau durch Begegnung von Widerständen Die Technologie ist unaufhaltsam. Kein Tag, an dem nicht etwas erneuert wird oder Updates mit neuen Funktionen auf den Markt kommen. Sich bilden, Kompetenzen erwerben, muss der Schlüssel sein, sich der Technologie zu stellen, um sie für sich, für das Unternehmen, nutzbar zu machen. Das Unternehmen wiederum muss dafür Sorge tragen, dass entsprechend gut ausgebildete Mitarbeiter mit der richtigen und notwendigen Kompetenz im Unternehmen aufgebaut oder aber die vorhandenen Mitarbeiter entsprechend geschult werden, damit diese notwendige Kompetenz im Unternehmen wächst. Lebenslanges Lernen als Chance begreifen und nicht als notwendiges Übel. Dies hat zwei Vorteile: 1. Der Mitarbeiter baut Kompetenzen auf, die man am Markt besser verkaufen kann (höheres Gehalt), wodurch man eine Schlüsselkompetenz erwirbt (Schutz vor Kündigung). 2. Der Mitarbeiter hat es selbst in der Hand, sich die Technologie zum Instrument zu machen und nicht umgekehrt - Effizienzsteigerung (Vermeidung von nicht wertschöpfenden Tätigkeiten) bei der eigenen Arbeit und die Fokussierung auf wichtige Aufgaben, welche in vielen Betrieben zu kurz kommen, können die unmittelbare Folge sein. Ethik als Leitplanke beim Einsatz von KI Ethische Werte und Prinzipien spielen für viele Menschen auch im wirtschaftlichen Kontext eine große Rolle. Fast 75 % aller Befragten einer Studie des Bundesverbandes Digitale Wirtschaft (BVDW) von September 2019 geben an, dass für sie die Einhaltung ethischer Grundsätze in der Produktentwicklung einen hohen oder sehr hohen Stellenwert einnehmen sollte. Und für immerhin über die Hälfte der befragten Unternehmen hat Ethik bereits einen hohen oder sehr hohen Stellenwert (vgl. BVDW 2019). Dieser gilt ganz besonders auch für die Entwicklung wie auch den Einsatz von KI im Unternehmen. Innerhalb der Gesellschaft bestehen dennoch Bedenken bezüglich des Einsatzes von KI, auch wenn die Einsatzmöglichkeiten von vielen als positiv bewertet werden. Das liegt an der noch weitgehend unbekannten Technologie. Eine Studie des VdTÜV ergab, dass fast 60 % der Befragten auf den Einsatz von KI im eigenen Haus verzichten. Der Grund hierfür liegt in der Befürchtung, die eigene Autonomie zu verlieren (vgl. VdTÜV 2020; BVDW 2019). Mangelndes Vertrauen ist demzufolge der Hauptgrund für die fehlende Akzeptanz von Technologien, wie es KI-Systemen sind. Die Integration in Unternehmensprozesse bringt tiefgreifende Veränderungen mit sich, die weit über technische Aspekte hinausgehen. Nick Kramer, Vice President für angewandte Lösungen bei SSA & Company, betont: „Die wirklich existenzielle ethische Herausforderung für die Einführung generativer KI sind die Auswirkungen auf die Organisationsgestaltung, die Arbeit und letztlich auf den einzelnen Arbeitnehmer“ (Computer Weekly 2024). Diese Aussage unterstreicht einmal mehr die Notwendigkeit, den menschlichen Faktor bei der KI-Implementierung neben den technologischen Aspekten in den Mittelpunkt zu stellen. <?page no="321"?> 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen 321 Welche Komponenten machen aber den verantwortungsvollen Umgang mit KI aus (vgl. Abb. 78)? Abb. 78: Eigenschaften für einen verantwortungsvollen Umgang mit KI (Quelle: Eigene Darstellung) Nachstehend sind zwei Beispiele aus der Praxis genannt, bei denen ein KI-Einsatz nicht verantwortungsvoll war:  Beispiel Personalrekrutierung: In einigen Fällen haben KI-gestützte Rekrutierungssysteme Frauen benachteiligt, da die Trainingsdaten von männlichen Bewerbern dominiert wurden.  Beispiel Strafjustiz: In den USA wurde ein System zur Bewertung des Rückfallrisikos von Straftätern kritisiert, weil es Afroamerikaner aufgrund voreingenommener historischer Daten als risikoreicher einstufte (vgl. ZVOOVE 2024). Es ist somit entscheidend, dass ein Unternehmen klare ethische Richtlinien für den Einsatz von KI entwickelt, diese auch prüft und bei Verstößen eingreift und handelt. Denn nur das kann sicherstellen, dass KI-Systeme im Einklang mit den Werten und Zielen des Unternehmens arbeiten. Dabei ist es wichtig, verschiedene Interessengruppen einzubeziehen, um eine ausgewogene Perspektive zu gewährleisten (vgl. Stowasser und Suchy 2020). Zusammengefasst kann man folgende ethischen Herausforderungen bei der Einführung und Nutzung von KI in Unternehmen erkennen (vgl. Tab. 16): <?page no="322"?> 322 Kai Rahnenführer Herausforderung Beschreibung Akzeptanz und Ängste der Belegschaft Eine der größten Hürden ist die Akzeptanz seitens der Mitarbeitenden. Viele befürchten, dass KI ihre Arbeitsplätze bedrohen oder ihre Fähigkeiten obsolet machen könnte. Diese Ängste können zu Widerstand führen und den Erfolg der KI-Implementierung gefährden. Qualifizierung und Weiterbildung Die Einführung von KI erfordert oft spezialisiertes Wissen. Investitionen in Weiterbildung müssen durch die Unternehmen vorgenommen werden, um Fähigkeiten mit Bezug zu KI zu entwikkeln. Dies ist neben der ethischen Herausforderung auch eine finanzielle Herausforderung. Transparenz und Erklärbarkeit Entscheidungen durch KI sind schwierig, transparent zu erklären. Das liegt am „Black-Box“-Problem. Dies führt zu Misstrauen und Unsicherheiten bei den Mitarbeitenden, insbesondere in sensiblen Unternehmensbereichen oder Branchen wie Medizin, Strafjustiz etc. Verantwortung und Haftung KI-Entscheidungen werden zunehmend autonomer und es stellt sich die Frage: Wer trägt mit steigender Autonomie die Verantwortung, wenn etwas schiefgeht? Diese Frage kann zu rechtlichen und ethischen Herausforderungen im Unternehmen führen, insbesondere in Bereichen, die man als sicherheitskritisch einordnet. Datenschutz und Privatsphäre Fragen bezüglich des Datenschutzes und der Privatsphäre werden entstehen, da eine der Hauptfähigkeiten der KI im Sammeln und Analysieren von großen Datenmengen besteht. Unternehmen müssen sicherstellen, dass personenbezogene Daten gemäß der rechtlichen Anforderungen (Datenschutzbestimmungen) verarbeitet werden. BIAS & Fairness Eine mögliche Schwäche von KI-Systemen können unbeabsichtigte Voreingenommenheiten sein, welche zu diskrimierenden Ergebnissen führen können. Unternehmen haben die Pflicht sichzustellen, dass KI-Systeme fair und transparent sind, damit Diskriminierungen vermieden werden. ethische Entscheidungsfindung Ethische Prinzipien bilden die Basis bei der Implementierung und Nutzung von KI in Entscheidungsprozessen. Diese ethischen Prinzipien müssen im Einklang mit den Unternehmenswerten stehen. Durch den Einsatz von „Ethik-Boards“ kann dies sichergestellt werden. Zudem ist es ratsam, ein umfassendes Change-Management im Unternehmen einzurichten, welches eine transparente Kommunikation über Ziele, Chancen und Risiken der KI-Implementierung beinhaltet, um Vorurteile abzubauen, Unsicherheiten zu reduzieren und das Vertrauen der Mitarbeitenden zu stärken, sich dem Thema wohlwollend und positiv eingestellt zu widmen. Tab. 16: Ethische Herausforderungen bei der Einführung und Nutzung von KI in Unternehmen (Quelle: Eigene Darstellung) <?page no="323"?> 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen 323 3.5.5 Ganzheitlicher Lösungsansatz für eine erfolgreiche KI-Implementierung Es gibt immer zwei Seiten einer Medaille: So auch bei der Einführung von KI in Unternehmen. Einerseits die Chance, sich massiv im Wettbewerb behaupten zu können, effizienter zu werden, interne Kosten zu senken etc., andererseits Unruhe im Unternehmen zu generieren, Mitarbeiter zu verlieren, Risiken nicht ausreichend bewertet zu haben. So sehr die Medien, insbesondere Social Media, KI loben, so risikoreich kann eine falsche Strategie, sich nicht ausreichend mit dem Thema zu beschäftigen oder aber einfach nur „auf den Zug aufspringen“, sein. Die Implementierung von KI ist viel mehr als nur ein simples technisches Vorhaben. Sie ist eine umfassende Transformation, die tief in die Strukturen, Prozesse und die Kultur eines Unternehmens oder seiner Organisation eingreifen kann. KI hat enormes Potenzial, doch der Weg dorthin ist komplex und erfordert ein harmonisches Zusammenspiel aus technischer Exzellenz, organisatorischer Anpassungsfähigkeit und menschlichem Veränderungswillen. Die gute Botschaft: In den letzten Jahren hat sich KI von einem visionären Konzept zu einer greifbaren Realität entwickelt. KI hat den Sprung aus den Forschungslaboren in die Praxis geschafft und steht damit erst am Anfang. Unternehmen sind dabei, KI für die unterschiedlichsten Anwendungen zu nutzen (Automatisierung repetitiver Aufgaben über die Analyse großer Datenmengen bis hin zur Entwicklung neuer Produkte und Dienstleistungen). Doch trotz dieser Fortschritte scheitern viele KI-Projekte an den gleichen Hürden bezüglich unzureichender Datenqualität, mangelnder Integration in bestehende Prozesse, fehlender Akzeptanz bei Mitarbeitenden oder einer unklaren strategischen Ausrichtung. Der Erfolg einer KI-Implementierung hängt daher nicht nur von der Technologie ab, sondern auch davon, wie gut ein Unternehmen seine Organisation und die darin sich befindenden Menschen auf diese „Reise“ vorbereitet. Dies ist eine ausgewogene Strategie mit einer Vision und ein Transformationsplan, der alle Beteiligten miteinbezieht und mit der richtigen Geschwindigkeit auch den letzten Mitarbeiter überzeugt und nicht überfordert. Ein zentraler Aspekt dabei ist die technologische Grundlage. Ohne eine robuste IT- Infrastruktur, hochwertige Daten und geeignete Algorithmen bleibt das Potenzial ungenutzt. Unternehmen müssen sicherstellen, dass ihre Systeme skalierbar sind und mit den Anforderungen moderner KI-Anwendungen Schritt halten können. Gleichzeitig erfordert die Einführung oft eine Modernisierung bestehender Systeme und Prozesse - sei es durch den Aufbau einer zentralen Datenplattform oder die Integration neuer Tools in bestehende Workflows. Doch Technik alleine reicht nicht aus: Sie muss in den Kontext der Organisation eingebettet werden. Die Organisation wird im Wesentlichen durch den menschlichen Faktor definiert. Eine Implementierung von KI bedeutet daher oft tiefgreifende Veränderungen für Mitarbeitende. Aufgaben und Verantwortlichkeiten können sich verschieben, neue Fähigkeiten werden erforderlich, und es entstehen Unsicherheiten über die eigene Rolle im Unternehmen. Um diesen Herausforderungen zu begegnen, ist es entscheidend, die Menschen frühzeitig einzubinden (Betroffene zu Beteiligten machen). Transparente Kommunikation über Ziele und Nutzen der KI-Implementierung sowie gezielte Weiterbildungsmaßnahmen sind dabei essenziell, um Ängste abzubauen <?page no="324"?> 324 Kai Rahnenführer und so Akzeptanz zu schaffen. Eine erfolgreiche Transformation gelingt nur dann, wenn die Mitarbeitenden nicht als passive Zuschauer wahrgenommen werden, sondern als aktive Gestalter des Wandels. Erst dann kann ein Erfolg garantiert werden. Letztlich haben beide Faktoren Auswirkungen auf die bestehende Organisation. Eine Einführung / Implementierung von KI hat oftmals eine Neuausrichtung von Prozessen und Strukturen zur Folge. Abteilungen müssen enger zusammenarbeiten, insbesondere IT-, Daten- und Fachabteilungen, um die heute bestehenden Silos aufzubrechen und abteilungs- / bereichsübergreifende Synergien zu schaffen. Gleichzeitig müssen Führungskräfte bereit sein, Entscheidungsprozesse anzupassen und eine innovationsfreundliche Unternehmenskultur fordern und fördern. Hierbei kann Change-Management oder Transformationsmanagement helfen, Widerstände abzubauen und den Wandel nachhaltig zu verankern. Es geht mitunter darum, alte Denkmuster aufzubrechen und eine Kultur des Lernens und Experimentierens zu etablieren. Change-Management / Transformation bedeutet jedoch nicht nur Veränderung um ihrer selbst willen. Sie muss strategisch geleitet werden, mit klar definierten Zielen (einer klaren Vision) und messbaren Erfolgsfaktoren. Nur so kann sichergestellt werden, dass KI nicht nur ein technisches Experiment bleibt, sondern einen echten Mehrwert für das Unternehmen schafft. Abb. 79: Ganzheitlicher Ansatz einer KI-Implementierung (Quelle: Eigene Darstellung) Voraussetzung ist eine ganzheitliche Strategie (vgl. Abb. 79). Innerhalb dieses strategischen Ansatzes gilt es, alle Aspekte zu berücksichtigen, um einen KI-Implementierungs-„Fit“ im Unternehmen zu generieren. Außerhalb des „KI-Fit`s“ werden Aufwände höher, Laufzeiten länger, Widerstände größer etc. Dieser, in Abb. 79 vorgestellte Ansatz kann in Verbindung mit den Phasen der KI-Implementierungsstrategie aus Tabelle 17 ein Denkanstoß und damit eine Hilfestellung sein, die richtige Strategie zu definieren. Tabelle 17 gibt noch einmal einen zusammenfassenden Überblick: <?page no="325"?> 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen 325 Phase Themenbereiche Technik Organisation Mensch Analyse und Zielsetzung (Grundlagen schaffen durch Analyse der Infrastruktur, Bestimmen, Festlegen der Ziele und der Bedürfnisse). Bestehende IT-Infrastruktur auf Skalierbarkeit und Kompatibilität prüfen Betroffene Tools eruieren und benennen. Unternehmensziele mit KI-Potenzialen abgleichen Erste Strukturveränderungen aufzeigen in der Organisation (betroffene Abteilunge, Bereiche). Bedürfnisse und Ängste der Mitarbeiter durch Umfragen oder Interviews ermitteln Updates initiieren bzgl. KI-Strategie. Planung und Strategie (Konkretisierung der Projektplanung, Technologieauswahl und -festlegung, Prozessdefinition und Einbindung der Mitarbeiter). Auswahl geeigneter Technologien, Plattformen und Tools (z. B. Cloud-Dienste etc.). Projektteams mit klaren Rollen und Verantwortlichkeiten aufstellen. Change-Management-Plan erstellen, um den Wandel aktiv zu begleiten Aufbau Regelkommunikation Management / Mitarbeiter. Entwicklung und Testen (Prototyping und iterative Tests, Prüfen der Funktionalität & Akzeptanz). Daten bereinigen, anreichern und für das Training der Modelle vorbereiten. Testumgebungen bereitstellen, die reale Bedingungen simulieren. Mitarbeiter in der Nutzung von Prototypen schulen (Hands-on-Trainings; Train-the- Trainer-Konzepte). Implementierung (Rollout der Systeme, Prüfen der Stabilität und Sicherheit, Ermitteln der Akzeptanz). Systeme stabil in die Produktionsumgebung integrieren (Deployment) KPIs definieren und festlegen. Prozesse anpassen, um Automatisierungspotenziale auszuschöpfen (z. B. Workflows optimieren) Neue Verantwortungen aufzeigen, festlegen und festschreiben. Schulungen intensivieren (Angebotspalette erweitern), insbesondere für Endanwender der Systeme. Optimierung und Skalierung (kontinuierliche Verbesserung der Systeme, Verankern und Fördern der - neuen - Kulturaspekte). Performance der KI- Systeme kontinuierlich überwachen (KPIs analysieren) Prozesse kontinuierlich anpassen, basierend auf den Ergebnissen der KI- Systeme Langfristige Lernkultur fördern durch regelmäßige Weiterbildungen zu KI-Themen (Muss-, Soll-, Kann-Trainingspläne) Tab. 17: Phasen und Themenbereiche einer ganzheitlichen KI-Implementierungsstrategie (Quelle: Eigene Darstellung) <?page no="326"?> 326 Kai Rahnenführer 3.5.6 Schlussbetrachtung Implementierung von KI in Unternehmen ist weit mehr als nur die Implementierung eines Tools. Vielmehr stellt sie eine tiefgreifende Transformation des gesamten Unternehmens dar. Das birgt enorme Chancen, denn die Potenziale von KI sind beeindruckend. Allerdings stellt es Unternehmen auch vor große Herausforderungen. Technische Komplexität, organisatorische Umstrukturierungen und nicht zuletzt die Notwendigkeit eines kulturellen Wandels gilt es zu bewältigen. Der Erfolg liegt in einem ganzheitlichen Ansatz, welcher Technologie, Organisation und den Menschen gleichermaßen berücksichtigt. Dafür müssen Unternehmen eine klare KI-Strategie entwickeln, die auf die spezifischen Bedürfnisse und Ziele abgestimmt ist. Besonders hervorzuheben ist die Rolle des Menschen als Mitarbeitender in diesem Transformationsprozess. Der Erfolg der KI-Implementierung hängt stark an dem Willen jedes Einzelnen im Unternehmen (daraus entsteht dann der „kollektive Wille“ im Unternehmen). Sich dem Wandel positiv zu unterwerfen, bedeutet, sich einzubringen und seine Fähigkeiten in Bezug zu KI zu erweitern. Ethische Aspekte müssen vom Unternehmen dabei priorisiert werden. Sie dienen als moralische Verpflichtung, aber auch als entscheidender Faktor für die langfristige Akzeptanz und damit für den langfristigen Erfolg von KI in Unternehmen. Mit Blick auf die Zukunft wird deutlich, dass die Gesellschaft und damit auch die Unternehmen erst am Anfang einer KI-Revolution stehen. Die rasante (exponentielle) Weiterentwicklung wird immer neue Möglichkeiten aufzeigen, aber auch immer neue Herausforderungen. Kontinuierliche Anpassung und lebenslanges Lernen sind somit die Kern- oder Schlüsselkompetenzen für Unternehmen, deren Organisationen und die Mitarbeitenden. Die Agilität eines Unternehmens kann als Methode dabei unterstützen, plus der Neugierde eines jeden Mitarbeiters und dem Willen zum Lernen und einer positiven Einstellung zu kontinuierlicher Veränderung. Daraus entsteht die Balance zwischen fortschreitender Technologie und den menschlichen Bedürfnissen nach einem Sinn ihrer Tätigkeit. Erfolgreiche KI-Integration wird zum entscheidenden Wettbewerbsfaktor. Unternehmen, die die Technologie effizient nutzen können, werden letztlich in der Lage sein, sich neue Märkte zu erschließen, innovative Produkte oder Dienstleistungen zu entwickeln. Abschließend lässt sich festhalten, dass es an den Unternehmen, an den Führungskräften und jedem einzelnen Mitarbeiter liegt, die KI-Revolution aktiv zu gestalten und die Möglichkeiten positiv zum Wohle aller zu nutzen. Wir haben es in der Hand, KI als Werkzeug zu nutzen, welches uns befähigt, größere Herausforderungen anzugehen mit dem Ziel, eine bessere Welt zu schaffen. Literatur Ahmad, M. (2025). Wie fügt sich die KI-Infrastruktur in die bestehende IT-Landschaft ein? Gosign. https: / / www.gosign.de/ wie-fugt-sich-die-ki-infrastruktur-indie-bestehende-it-landschaft-ein/ . Zugegriffen am 9. Januar 2025 Bildungssprache (2024). KI-Zitate: 37 kluge Sprüche von Denkern und Machern über künstliche Intelligenz. https: / / bildungssprache.net/ zitate-kuenstliche-intelligenzki-chatgpt/ . Zugegriffen am 12. Dezember 2024 BigData-Insider (2025). KI-Teams in Unternehmen sind oft unterbesetzt. https: / / www.bigdata-insider.de/ ki-teams-in-unternehmen-sind-oft-unterbesetzta-97b9989888230eb9ab5147aba4fa64f9/ . Zugegriffen am 10. Februar 2025 <?page no="327"?> 3.5 Ganzheitlicher Ansatz zur Implementierung von KI in Unternehmen 327 Bosch (2018). Die Geschichte der Künstlichen Intelligenz. https: / / www.bosch.com/ de/ stories/ geschichte-der-kuenstlichen-intelligenz/ . Zugegriffen am 12. Februar 2025 Bundesverband Digitale Wirtschaft (2019). Künstliche Intelligenz, Smart Home, vernetzte Gesundheit - Ethik in der Digitalen Wirtschaft. https: / / www.bvdw.org/ themen/ publikationen/ detail/ artikel/ kuenstliche-intelligenz-smart-home-vernetzte-gesundheit-ethik-in-der-digitalen-wirtschaft/ . Zugegriffen am 9. September 2024 Claus, I., & Szupories, M. (2021). Künstliche Intelligenz und Führung: Automatisierung und die Veränderung von Managementaufgaben und -arbeitsweisen. In R. Altenburger & R. Schmidpeter (Hrsg.), CSR und Künstliche Intelligenz (S. 341- 352). Management-Reihe Corporate Social Responsibility. Springer Gabler. Computer Weekly (2024). Generative KI und Ethik: Die 8 größten Bedenken und Risiken. https: / / www.computerweekly.com/ de/ tipp/ Die-8-groessten-ethischen- Bedenken-beim-Einsatz-generativer-KI. Zugegriffen am 9. September 2024 Deloitte (2025). KI-Studie 2024: Beschleunigung der KI-Transformation. https: / / www.deloitte.com/ de/ de/ Industries/ technology/ research/ ki-studie.html. Zugegriffen am 12. Januar 2025 FasterCapital (2025). Integration von KI in bestehende Systeme. https: / / fastercapital.com / de/ thema/ integration-von-ki-in-bestehende-systeme.html. Zugegriffen am 9. Januar 2025 Hechler, E., Oberhofer, M., & Schaeck, T. (2023). KI und Change Management. In E. Hechler, M. Oberhofer & T. Schaeck (Hrsg.), Einsatz von KI im Unternehmen (S. 259-278). Springer Vieweg. Ingenieur.de (2024). KI und die Arbeitswelt: Studie bestätigt Angst vor KI-Jobverlust. https: / / www.ingenieur.de/ karriere/ arbeitsleben/ ki-in-der-arbeitswelt-zwischenchancen-und-angst/ . Zugegriffen am 9. September 2024 Maiborn Wolff (2025). KI in Unternehmen. https: / / www.maibornwolff.de/ knowhow/ ki-in-unternehmen/ . Zugegriffen am 9. Januar 2025 Management Circle (2024). Erfolgreiche KI-Integration im Unternehmen - Warum es manchmal besser ist, auf bewährte Methoden zu setzen. https: / / www.managementcircle.de/ blog/ ki-integration.html. Zugegriffen am 9. Januar 2025 ManpowerGroup Deutschland GmbH (2024). Mehr als jedes dritte deutsche Unternehmen nutzt KI / Deutschland im weltweiten Vergleich noch zurückhaltend Pressemitteilung. Presseportal. https: / / www.presseportal.de/ pm/ 56465/ 5804513. Zugegriffen am 17. August 2024 OpenUp (o. D.). KI und Arbeitswelt: Die Auswirkungen auf dein Unternehmen und das Wohlbefinden deiner Mitarbeitenden. https: / / openup.com/ de/ unternehmen/ blog/ kuenstliche-intelligenz-auswirkungen-arbeit/ . Zugegriffen am 12. Februar 2025 Pfattheicher, T. (2025). Wie KI die Interaktion mit Software und Systemen verändert. Iteratec. https: / / explore.iteratec.com/ blog/ wie-ki-interaktion-mit-softwareund-systemen-ver%C3%A4ndert. Zugegriffen am 9. Januar 2025 QPlaner (2024). Einsatz von KI in Unternehmen. https: / / www.qplaner.de/ blog/ einsatz-von-ki-in-unternehmen/ . Zugegriffen am 12. Dezember 2024 <?page no="328"?> 328 Kai Rahnenführer Ruess, P., Staffa, A., Kreutz, A., Busch, C, Gayoso, C., Oswaldo S. & Pollmann, K. (2024). Künstliche Intelligenz in betrieblichen Prozessen: Ein Vorgehensmodell zur partizipativen Gestaltung von KI-Anwendungen. HMD Praxis der Wirtschaftsinformatik , 61, 485-502. Silver, N.S. (2023). AI utopia and dystopia: What will the future have in store? Artificial intelligence series 5 of 5. Forbes. https: / / www.forbes.com/ sites/ nicolesilver/ 2023/ 06/ 20/ ai-utopia-and-dystopia-what-will-the-future-have-in-store-artificial-intelligence-series-5-of-5/ . Zugegriffen am 28. Februar 2025 Skim AI (2024). 10 Zitate von Experten für generative KI. https: / / skimai.com/ de/ 10zitate-von-experten-fur-generative-ki/ . Zugegriffen am 12. Dezember 2024 Stowasser, S. (2021). Erfolgreiche Einführung von KI im Unternehmen. In I. Knappertsbusch & K. Gondlach (Hrsg.), Arbeitswelt und KI 2030 (S. 145-153). Springer Gabler. Stowasser, S., & Suchy, O. (2020). Einführung von KI-Systemen in Unternehmen: Gestaltungsansätze für das Change-Management. Plattform Lernende Systeme. https: / / www.plattform-lernende-systeme.de/ files/ Downloads/ Publikationen/ AG2_Whitepaper_Change_Management.pdf. Zugegriffen am 12. Februar 2025 Vöpel, H. (2024). 5 Vor- und Nachteile von KI für den Arbeitsmarkt. Jobs im Südwesten. https: / / www.jobs-im-suedwesten.de/ blog/ news-aktuelles/ 5-vor-undnachteile-von-ki-fuer-den-arbeitsmarkt. Zugegriffen am 12. Februar 2025 ZVOOVE (2024). KI und Ethik: So meistern Unternehmen ethische Herausforderungen. https: / / zvoove.de/ wissen/ blog/ ki-und-ethik-so-meistern-unternehmenethische-herausforderungen. Zugegriffen am 3. Januar 2025 <?page no="329"?> 3.6 Chancen und Risiken des Einsatzes von KI-generierten Inhalten in Dialogmarketingkampagnen Praxiserfahrungen von Burda Direct Diana Kolbe, Barbara Wörz und Andrea Müller Zusammenfassung Der Einsatz von KI-generierten Inhalten im Dialogmarketing bietet Unternehmen die Möglichkeit, Personalisierung, Effizienz und Skalierbarkeit ihrer Marketingkampagnen erheblich zu verbessern. Generative Künstliche Intelligenz (GenAI) kann maßgeschneiderte Texte, Bilder und andere Inhalte in Echtzeit erstellen, wodurch der Qualitäts-Quantitäts-Tradeoff überwunden werden kann. Gleichzeitig gibt es Herausforderungen, insbesondere hinsichtlich strategischer Integration, Datensicherheit und ethischer Implikationen wie Verzerrungen und Transparenz. Dieses Kapitel beleuchtet die Chancen und Risiken des Einsatzes von GenAI im Dialogmarketing anhand empirischer Untersuchungen und Praxisbeispiele von Burda Direct. Die Ergebnisse zeigen, dass KI-generierte Inhalte zu einer besseren Kundenansprache und höheren Interaktionsraten führen können, jedoch eine klare Kennzeichnung und verantwortungsbewusste Nutzung erforderlich sind. Keywords: Automatisierung im Marketing, Dialogmarketing, GenAI, Personalisierung, Qualitäts-Quantitäts-Tradeoff 3.6.1 Einleitung Lange Zeit war das Dialogmarketing von dem Qualitäts-Quantitäts-Tradeoff geprägt; Marketingverantwortliche standen vor der Entscheidung, entweder Kundinnen und Kunden oberflächlich anzusprechen oder mit wenigen Personen aus der Kundschaft einen tiefgehenden Dialog zu führen. Generative Künstliche Intelligenz (GenAI) stellt die aktuelle Entwicklungsstufe im Bereich der Künstlichen Intelligenz (KI) dar (vgl. Cillo und Rubera 2024). Im Gegensatz zur traditionellen KI, die auf Datenanalyse und Entscheidungsfindung abzielt, umfasst die GenAI eine Gruppe von KI-Modellen, die in der Lage sind, hochwertige Inhalte in verschiedenen Formaten (z. B. Text, Audio, Bild, Video) zu generieren (vgl. Huang und Rust 2024; Israfilzade et al. 2024). Diese Technologie nutzt erlernte Muster, um originelle Outputs zu erzeugen, welche die menschliche Kreativität nachahmen können (vgl. Dwivedi et al. 2023). Einem aktuellen McKinsey-Bericht zufolge könnte GenAI jährlich bis zu 4,4 Billionen US-Dollar zur globalen Produktivität beitragen; allein im Marketing schätzt man den jährlichen Wert auf etwa 463 Milliarden US-Dollar (vgl. Harkness et al. 2023). GenAI bietet somit das Potenzial, das Qualitäts-Quantitäts-Tradeoff auszuhebeln und das Wertesystem im Marketing neu zu definieren (vgl. Heitmann 2024). <?page no="330"?> 330 Diana Kolbe, Barbara Wörz und Andrea Müller Dies ist besonders interessant, da mit der hohen Dynamik und der wachsenden Anzahl an Kommunikationskanälen auch der Bedarf an Content gestiegen ist und Gen- AI durch Prompt-Befehle eine interaktive und kontextabhängige Interaktion zwischen Mensch und Maschine ermöglicht. Derzeit fehlt ein umfassendes Verständnis darüber, wie Unternehmen das Potenzial von GenAI für ihre Marketingprozesse nutzen können und welche Herausforderungen und Implikationen mit der Nutzung einhergehen (vgl. Cillo und Rubera 2024). Aus diesem Grund analysieren wir die Chancen und Risiken im Dialogmarketing und geben konkrete Praxisbeispiele. Das vorliegende Buchkapitel ist folgendermaßen aufgebaut. Zuerst werden Trends im Dialogmarketing und die zugrundeliegenden Technologien im zweiten Abschnitt erläutert. Danach werden im dritten und vierten Abschnitt die potenziellen Chancen und Risiken erklärt. Im fünften Abschnitt werden konkrete Fallbeispiele der Burda- Direct aufgeführt. Das Buchkapitel endet mit einem Fazit und Ausblick. 3.6.2 KI-generierte Inhalte im Dialogmarketing Vor dem Jahr 2014 waren KI-Modelle hauptsächlich deskriptiv ausgerichtet. Sie hatten das Ziel, die Muster in den Daten zu erklären und Vorhersagen auf Grundlage der vorhandenen Informationen zu treffen (vgl. Bengesi et al. 2024). GenAI unterscheidet sich durch die Fähigkeit, kreative Inhalte wie Texte und Bilder basierend auf Nutzerdaten und Interaktionen zu erstellen. Im Jahr 2014 haben Goodfellow et al. (2014) mit der Einführung von GANs den Paradigmenwechsel in der KI-Technologie und somit das Zeitalter der GenAI eingeläutet. Modelle wie z. B. Generative Adversarial Networks (GANs), Variational Autoencoders (VAEs) und Generative Pretrained Transformer (GPTs) ermöglichen die Erstellung realistischer Bilder und Texte. Im Gegensatz zu den deskriptiven Vorgängern sind generative KI-Modelle wie GANs darauf ausgelegt, die zugrunde liegende Wahrscheinlichkeitsverteilung der Daten zu lernen, um neue Datensamples zu erzeugen, die den Mustern der Trainingsdaten stark ähneln (vgl. Brophy et al. 2023). VAEs beschreiben die Datengenerierung mithilfe einer probabilistischen Verteilung. Das Training eines VAE-Modells umfasst die Kodierung der Eingabedaten, das Generieren des latenten Vektors und eine Dekodierung des latenten Vektors. Transformermodelle werden als Foundation Models betrachtet, also als generelle Basismodelle, die auf umfangreichen, allgemeinen Datensätzen trainiert werden und durch Feinabstimmung ( Fine-Tuning ) an verschiedene nachgelagerte Aufgaben angepasst werden können (vgl. Bommasani et al. 2021). Moradi et al. (2021) zeigen, dass Transformermodelle bereits mit Few-Shot Learning - also unter Verwendung nur weniger Trainingsbeispiele - eine hohe Aufgabenspezifität und Leistungsfähigkeit erreichen können (vgl. Huang und Rust 2024). Ein GPT bezeichnet das auf der Transformer-Architektur basierende Large Language Model (LLM), das Deep-Learning-Techniken nutzt, um menschenähnliche Texte zu generieren (vgl. Narayan und Larsen 2023). Basierend auf der von Vaswani et al. (2017) vorgeschlagenen Transformer-Architektur, sind LLMs speziell darauf trainiert, die Interaktion mit Nutzenden durch natürliche Sprache zu ermöglichen. LLMs nutzen ein selbstüberwachtes Trainingsverfahren, bei dem sie lernen, ein Wort innerhalb einer Wortsequenz vorherzusagen. Ein LLM lässt sich als bedingte Wahrscheinlichkeitsverteilung über Token (z. B. Wörter und Satzzeichen) modellieren. Die Textgenerierung erfolgt durch ein iteratives Sampling aus dieser Wahrschein- <?page no="331"?> 3.6 Chancen und Risiken des Einsatzes in Dialogmarketingkampagnen 331 lichkeitsverteilung, um das jeweils nächste Token auszuwählen. In jedem Generationsschritt berechnet das Modell eine Wahrscheinlichkeitsverteilung, die angibt, wie wahrscheinlich jeder Token als nächstes Element erscheinen würde, wenn das Modell einen bereits vorhandenen Text lesen würde. Um den Generierungsprozess zu starten, benötigt ein LLM eine Bedingung ( Conditioning ), das heißt, diese Eingabe wird als Prompt bezeichnet (vgl. Cillo und Rubera 2024). Die Integration generativer KI-Technologien zählt derzeit auch im Dialogmarketing zu den wichtigsten Trends (vgl. Noack 2023). GenAI revolutioniert das Dialogmarketing dahingehend, indem sie grundlegende Abwägungen zwischen Qualität und Quantität bei der Content-Erstellung und somit die Produktivitätsgrenzen beeinflusst. Jede Organisation stößt an ihre natürlichen Grenzen bei der Content-Erstellung. Eine Erhöhung der Quantität geht typischerweise zulasten der Qualität - und umgekehrt. Mit dem Aufkommen generativer KI löst sich dieses klassische Ungleichgewicht jedoch zunehmend auf. Drei zentrale Entwicklungen zeichnen sich ab: (1) Ermöglicht GenAI eine gesteigerte Content-Erstellung, ohne dabei Qualitätseinbußen hinnehmen zu müssen? (2) Kann die Qualität verbessert werden, ohne die Produktionsmenge zu reduzieren? (3) Eröffnet sich die Möglichkeit, sowohl Quantität als auch Qualität gleichzeitig zu steigern? Diese neuen Potenziale verändern grundlegend die Ökonomie der Content-Erstellung und erweitern die strategischen Optionen im Marketing (vgl. Heitmann 2024). 3.6.3 Chancen durch KI-generierte Inhalte Chance 1: Entscheidungsfindung Unternehmen stehen vor der Herausforderung, große Mengen an Informationen in unterschiedlichen Formaten zu verarbeiten und diese strategisch zu nutzen (vgl. Zhang et al. 2021). Etwa 80% der Unternehmensdaten sind unstrukturiert (vgl. Faccia et al. 2022), was bedeutet, dass sie keiner festen Datenstruktur folgen. Dies stellt Unternehmen vor die Aufgabe, einen großen Teil ihres Informationsbestands effizient zu verwalten und daraus wertvolle Erkenntnisse für die Entscheidungsfindung zu gewinnen (vgl. Möhring et al. 2022). KI kann dabei eine Schlüsselrolle einnehmen, da sie in der Lage ist, komplexe Zusammenhänge zu verstehen, Vorhersagen zu treffen und sich an verändernde Rahmenbedingungen anzupassen (vgl. Perifanis und Kitsios 2023). Insbesondere mit GenAI können unstrukturierte Daten analysiert und kontextbezogene Inhalte generiert werden (vgl. Salah et al. 2023). Chance 2: Personalisierung in Echtzeit Verbraucherinnen und Verbraucher erwarten zunehmend personalisierte Interaktionen und vertrauen Marken, die relevante, individualisierte Inhalte liefern und somit ein maßgeschneidertes Kundenerlebnis schaffen. Online Behavioral Advertising (OBA) stellt eine gezielte Werbestrategie dar, die Nutzerdaten erfasst und auswertet, um personalisierte Anzeigen basierend auf individuellen Interessen und Online-Aktivitäten bereitzustellen. Dabei werden Faktoren wie besuchte Webseiten, standortbezogene Suchanfragen oder die Verweildauer auf bestimmten Seiten berücksichtigt (vgl. Boerman et al. 2017). OBA wird vor allem in Suchmaschinen, sozialen Netzwerken und spezialisierten Websites eingesetzt, um die Werbewirkung zu steigern. Ein <?page no="332"?> 332 Diana Kolbe, Barbara Wörz und Andrea Müller zentraler Bestandteil dieser Technologie ist das Real-Time Bidding (RTB), ein automatisierter Prozess zur Echtzeitversteigerung von Werbeflächen während des Nutzerverhaltens im Internet (vgl. Wang et al. 2017; Yuan et al. 2013), bei dem Werbetreibende unmittelbar auf Anzeigenplätze bieten können und diese mit personalisierten Inhalten füllen, indem sie detaillierte Nutzerprofile verwenden (vgl. Tang et al. 2024). GenAI bietet das Potenzial, die OBA-Funktionen zu erweitern, indem statt der Auswahl bestehender Anzeigen auf Basis der OBA-Analysen eine automatische Erstellung generativer Werbung und eine dynamische Anpassung von Werbeinhalten in Echtzeit stattfinden können (vgl. Hartmann et al. 2024). Diese Weiterentwicklung kombiniert datengetriebenes Targeting mit einer flexiblen inhaltlichen Gestaltung, um die Relevanz und Nutzerbindung zu maximieren (vgl. Kshetri et al. 2024). Chance 3: Effizienzsteigerung durch Automatisierung GenAI stellt eine wirtschaftlich effiziente Lösung dar, da sie große Mengen an Interaktionen simultan verarbeiten, Betriebskosten senken und menschliche Fehler reduzieren kann (vgl. Budhwar et al. 2023). Die Nutzung von ChatGPT beispielsweise kann einen positiven Einfluss auf die Arbeitszufriedenheit sowie die wahrgenommene Selbstwirksamkeit der Nutzerinnen und Nutzer haben (vgl. Noy und Zhang 2023). Als leistungsstarkes Werkzeug für Unternehmen bietet GenAI Potenzial für ein effektives Datenmanagement und die Gewinnung entscheidungsrelevanter Informationen. Dies trägt zur Entwicklung neuer Produkte, Dienstleistungen und Kompetenzen bei und steigert gleichzeitig die betriebliche Effizienz (vgl. Kanbach et al. 2024) sowie die Innovationsfähigkeit von Unternehmen (vgl. Mariani und Dwivedi 2024). Dwivedi et al. (2023) untersuchten das Potenzial von GenAI in verschiedenen Anwendungsfeldern und betonten insbesondere die Einsatzmöglichkeiten im Marketing. Dazu zählen die automatisierte Content-Erstellung, Marktanalysen und die Optimierung von Marketingkampagnen. Reisenbichler et al. (2022) zeigen, dass LLMs bei der Erstellung von SEO-Texten nicht nur eine höhere Effektivität als menschliche Experten, Quasi-Experten und Laien erreichen, sondern auch eine Kostenreduktion von bis zu 91 % ermöglichen. Zudem kann der Einsatz von KI-generierten Werbeinhalten die Effizienz der Anzeigenerstellung für Suchmaschinenwerbung (SEA) um mehr als 60 % steigern (vgl. Reisenbichler et al. 2023). Hartmann et al. (2024) zeigen, dass KI-generierte Marketingbilder menschlich erstellte Bilder in Qualität, Realismus und Ästhetik übertreffen können und dass KI-gestützte Banneranzeigen mit professionellen Stockfotos konkurrieren können und dabei eine bis zu 50 % höhere Klickrate erzielen als menschlich erstellte Bilder. Chance 4: Konsistenz und Qualität Ein weiterer Punkt, der für den Einsatz von GenAI spricht, sind Vorteile hinsichtlich der Konsistenz und Qualität der Inhalte. Gerade die Möglichkeiten der Custom GPTs (maßgeschneiderte GPT-Modelle) und Custom Instructions (benutzerdefinierte Instruktionen) helfen, zielführendere Inhalte zu generieren. Custom GPTs sind auf spezifische Aufgaben zugeschnitten und ermöglichen eine hohe Anpassungsfähigkeit sowie präzise Ausgaben. Die Custom Instructions hinge- <?page no="333"?> 3.6 Chancen und Risiken des Einsatzes in Dialogmarketingkampagnen 333 gen erlauben, Antworten und das Verhalten der KI anzupassen, ohne das zugrunde liegende Modell zu verändern. Während die Erstellung von maßgeschneiderten GPT-Modellen höheres technisches Fachwissen erfordert, sind benutzerdefinierte Instruktionen einfacher zu implementieren, weshalb sie besonders für schnelle und weniger komplexe Anpassungen geeignet sind. Die Kombination beider Ansätze kann umfassende Lösungen bieten, indem sie die jeweiligen Stärken nutzt, um spezialisierte Aufgaben zu bewältigen und ein konsistentes Verhalten sicherzustellen (vgl. Sharma 2024). Zusammenfassend können dadurch im Dialogmarketing eine personalisierte Kundenerfahrung, reduzierte Kosten und eine gesteigerte Effizienz ermöglicht werden (vgl. Israfilzade et al. 2024). 3.6.4 Risiken durch KI-generierte Inhalte Trotz der aussichtsreichen Potenziale von GenAI besteht weiterhin ein erkennbarer Bedarf bezüglich des Verständnisses der bestmöglichen Integration in betriebliche Strukturen. Grundsätzlich besteht bei der Implementierung transformativer Technologien eine Diskrepanz zwischen der Geschwindigkeit des technologischen Wandels und der Fähigkeit von Individuen, Unternehmen und politischen Entscheidungsträgern, sich daran anzupassen (vgl. Rowan et al. 2025). Dies gilt auch für die Implementierung von GenAI im Dialogmarketing. Es ist entscheidend, dass GenAI-Initiativen ihre erwarteten Mehrwerte zeitnah und verlässlich liefern; dafür sind die Faktoren Zuverlässigkeit, Genauigkeit und Vertrauenswürdigkeit die Grundvoraussetzung. Cano-Marin (2024) hat folgende Risiken bei der Implementierung von GenAI in Unternehmen klassifiziert: (1) Strategische, (2) Technische, (3) Operationale und (4) Ethisch-regulatorische Herausforderungen. Im Folgenden werden die identifizierten Risiken aus Marketingsicht bewertet. Risiko 1: Strategie Die langfristige Integration generativer KI in Unternehmen hängt maßgeblich davon ab, inwiefern sie zur Erreichung ihrer Marketingziele beiträgt (vgl. Jansen et al. 2024). Insbesondere GenAI hat das Potenzial, die Strategiefindung in Unternehmen zu revolutionieren, indem Analysen und die Generierung von Erkenntnissen verbessert und gleichzeitig menschliche Verzerrungen vermindert werden. Dennoch bleibt menschliches Urteilsvermögen unerlässlich, insbesondere bei der Formulierung einer strategischen Vision und der Entscheidungsfindung. Unternehmen, die KI effektiv einsetzen, können ihre strategischen Planungsprozesse optimieren und Wettbewerbsvorteile erzielen (vgl. D’Amico et al. 2025). Das Potenzial der KI bei der Strategieformulierung kann genau dann zum Risiko werden, wenn Unsicherheiten hinsichtlich der Kapitalrendite, Nachhaltigkeit, mangelnde Priorisierung von Projekten, Mangel an Fähigkeiten und Fachwissen und fehlende strategische Allianzen überwiegen und das Innovationspotenzial in Unternehmen einschränken (vgl. Cano-Marin 2024). Risiko 2: Halluzinationen und Diskriminierung Einer Umfrage von Deloitte zufolge gehören ein genereller Vertrauensverlust aufgrund von Verzerrungen, Halluzinationen und Ungenauigkeiten zu den größten <?page no="334"?> 334 Diana Kolbe, Barbara Wörz und Andrea Müller Hindernissen, die den Einsatz von GenAI in Unternehmen verlangsamen (vgl. Rowan et al. 2025). GenAI besitzt die Fähigkeit, neue Inhalte zu erstellen, doch dabei können sogenannte „Halluzinationen“ erzeugt werden - Inhalte, die plausibel erscheinen, jedoch faktisch falsch oder sinnlos sind (vgl. Huang und Rust 2024). Dies wirft zentrale Fragen hinsichtlich der Verständlichkeit und Erklärbarkeit algorithmischer Entscheidungsprozesse sowie deren Auswirkungen auf. Besonders problematisch wird dies, wenn Algorithmen verzerrte Entscheidungen ( Bias ) treffen und systematisch bestimmte Personengruppen diskriminieren. Solche algorithmischen Diskriminierungen können sowohl durch verzerrte Eingabedaten als auch durch die mathematische Architektur des Algorithmus selbst entstehen (vgl. Shin und Park 2019). Dadurch besteht das Risiko, dass KI-Systeme bestehende soziale Ungleichheiten nicht nur reproduzieren, sondern sogar verstärken. Dies führt zu der zentralen Frage, wer für potenziell voreingenommene Entscheidungen eines KI-Systems verantwortlich ist (vgl. Kieslich et al. 2021). Risiko 3: Limitierte emotionale Intelligenz Die KI kann über verschiedene Dimensionen der Intelligenz verfügen: Die Intelligenz des Handelns, des Denkens und des Fühlens (vgl. Huang und Rust 2022). Huang und Rust (2022) kategorisieren sie als mechanische Intelligenz (für routinemäßige, repetitive Aufgaben), denkende Intelligenz (für analytische Schlussfolgerungen und Entscheidungen) und fühlende oder emotionale Intelligenz (für menschliche Kommunikation und Interaktion). Die mechanische Intelligenz ist bereits weit fortgeschritten; die denkende Intelligenz erlebt derzeit eine intensive Weiterentwicklung und die emotionale Intelligenz gewinnt mit den Möglichkeiten der GenAI-Technologien zunehmend an Bedeutung (vgl. Huang und Rust 2024). Die emotionale Intelligenz beschreibt die Fähigkeit einer Maschine, mit Menschen zu kommunizieren und interagieren, indem sie emotionale Daten analysiert und daraus ein Verständnis für menschliche Emotionen ableitet (vgl. Huang und Rust 2022) und eine wechselseitige Kommunikation zwischen der KI und den Nutzenden ermöglicht (vgl. Puntoni et al. 2021). GenAI ist durch ihr Prompt-Response-Design speziell auf Interaktion und Kommunikation ausgelegt. Sie besitzt das Potenzial, durch die Analyse direkter Nutzereingaben emotionale Zustände zu erkennen und empathisch darauf zu reagieren. Dabei kann sie kontextbezogene Antworten generieren, die Empathie, Verständnis oder Unterstützung vermitteln, sowie gezielte Informationen, Vorschläge oder Empfehlungen bereitstellen, um Nutzende bei emotionalen Herausforderungen zu unterstützen (vgl. Huang und Rust 2024). Trotz der Fortschritte stehen Emotionserkennungssysteme weiterhin vor großen Herausforderungen. Unterschiede in mimischen Ausdrucksweisen, kulturell geprägte emotionale Variationen sowie umgebungsabhängige Gefühle erschweren die präzise Erkennung von Emotionen. Zudem stellen der Mangel an gelabelten Trainingsdaten für bestimmte emotionale Zustände und die Echtzeitverarbeitung eine Hürde dar (vgl. Ahmadi und Hammond 2023; Mortillaro und Schlegel 2023). <?page no="335"?> 3.6 Chancen und Risiken des Einsatzes in Dialogmarketingkampagnen 335 Risiko 4: Ethisch-regulatorisch Ethische Bedenken Für Unternehmen ist die Einführung und Integration generativer KI komplex und zeitaufwendig, da sie von einer Vielzahl von Faktoren beeinflusst wird. Besonders herausfordernd sind dabei politische, gesetzgeberische und regulatorische Veränderungen, die den Anpassungsprozess zusätzlich erschweren können (vgl. Rowan et al. 2025). Die Europäische Union hat mit dem AI Act den weltweit ersten Rechtsrahmen für KI geschaffen. Dieses Gesetz zielt darauf ab, die Risiken von KI zu adressieren und gleichzeitig Innovationen zu fördern. Es verfolgt einen risikobasierten Ansatz, bei dem die Vorschriften strenger werden, je höher das Risiko einer KI-Anwendung eingeschätzt wird. Zudem stellt der AI Act sicher, dass der Schutz der Grundrechte gewährleistet ist und Wissenschaft sowie Wirtschaft genügend Freiraum für Innovationen haben (vgl. Bundesregierung 2024). Für Unternehmen ist es besonders wichtig zu wissen in welcher Risikoklasse sie eingeordnet sind, um den damit eingehenden Zeitpunkt des Inkrafttretens der Pflichten (z. B. Offenlegungspflicht, Kennzeichnungspflicht) zu kennen, sich entsprechend vorzubereiten und diese zu erfüllen, um Bußgelder und rechtliche Konsequenzen zu vermeiden. Datenschutz Die Methoden zur Datenerfassung sind zunehmend intrusiv und schwierig zu vermeiden geworden. Die Konsumenten, selbst wenn sie Informationen bewusst teilen, sind sich oft nicht darüber im Klaren, wie diese Informationen im Laufe der Zeit und in verschiedenen Kontexten zusammengeführt werden (vgl. Grafanaki 2017). Dieser Sachverhalt kann dazu führen, dass Konsumentinnen und Konsumenten ein Gefühl des Kontrollverlusts sowohl aus soziologischer als auch aus psychologischer Sicht haben. Aus soziologischer Sicht untergräbt die KI die persönliche Kontrolle und fördert die Konzentration von Wissen und Macht in den Händen jener Gruppen, die über Informationen verfügen (vgl. Puntoni et al. 2021). Aus psychologischer Sicht erkennen die Konsumentinnen und Konsumenten zwar, dass die Datenerfassung eine Personalisierung durch KI ermöglicht, sich aber durch die mangelnde Transparenz der KI gleichermaßen ausgenutzt fühlen. Dieses Gefühl der Ausbeutung wird durch den wahrgenommenen Verlust an persönlicher Kontrolle verstärkt (vgl. Botti und Iyengar 2006). Zusammenfassend lässt sich sagen, dass Konsumentinnen und Konsumenten die Datenerfassung als eine Form der Ausbeutung erleben: Während (Technologie-)Unternehmen und staatliche Institutionen an finanziellen und politischen Einfluss gewinnen, verlieren Kundinnen und Kunden das Eigentum an ihren Daten und eventuell die Kontrolle über ihre Entscheidungen (vgl. Puntoni et al. 2021). Verbraucherinnen und Verbraucher sind zunehmend besorgt hinsichtlich des Datenschutzes und neigen dazu, weniger Geschäfte mit Unternehmen zu tätigen, die ihre sensiblen Daten nicht ausreichend schützen (vgl. Kshetri 2021). In Zeiten der Hyper- Personalisierung spricht man von dem Zielkonflikt der Personalisierung und des Datenschutzes ( Personalisation-Privacy-Paradox ). Ein höheres Maß an Datenschutz geht typischerweise mit einer Verringerung der gesamtwirtschaftlichen Effizienz einher <?page no="336"?> 336 Diana Kolbe, Barbara Wörz und Andrea Müller und eine zunehmende Personalisierung ist mit einem Eingriff in die Privatsphäre verbunden (vgl. Rafieian und Yoganarasimhan 2023). In Deutschland sind die Rechte der Privatpersonen in der Datenschutz-Grundverordnung (DSGVO) geregelt. Die DSGVO enthält derzeit keine KI-spezifischen Regelungen, ist jedoch relevant, sobald KI mit personenbezogenen Daten trainiert wird oder diese verarbeitet. In solchen Fällen müssen die in Artikel 5 der DSGVO festgelegten Prinzipien eingehalten werden (vgl. Dhungel 2023). Nach der DSGVO gelten als personenbezogene Daten sämtliche Informationen, die einer identifizierten oder identifizierbaren natürlichen Person zugeordnet werden können. Im Zusammenhang mit KI-Anwendungen kann dies eine Vielzahl unterschiedlicher Datenarten betreffen, wie z. B. Namen und Kontaktdaten, Verhaltens- und Präferenzdaten, Standortdaten, Biometrische Daten, Nutzungshistorie und Interaktionsdaten mit KI- Systemen. Die personenbezogenen Daten können über unterschiedliche Wege in KI- Systeme gelangen, wie z. B. direkte Nutzereingaben (Texteingaben in Chatbots oder Suchfelder), Bild- und Videouploads, Sprachbefehle bei virtuellen Assistenten oder Spracherkennungssystemen oder durch indirekte Datenerfassung (Tracking von Nutzerverhalten oder Standortdaten) (vgl. Engel 2024). Zu den zentralen Grundpflichten gehört, dass personenbezogene Daten nur auf rechtmäßige Weise verarbeitet werden dürfen. Das bedeutet, dass vor der Nutzung des Chatbots die Einwilligung der betroffenen Person zur Erhebung und Nutzung seiner oder ihrer personenbezogenen Daten eingeholt werden muss. Die Daten dürfen zudem nur für den festgelegten Zweck verarbeitet werden. Außerdem ist der Grundsatz der Datenminimierung einzuhalten. Angaben, die für die jeweilige Funktion nicht erforderlich sind, dürfen auch nicht erhoben werden (vgl. Dhungel 2023). 3.6.5 KI-Anwendungen im Dialogmarketing bei ClimaClic ClimaClic ist die erste deutsche Klimalotterie, die unter die Kategorie Soziallotterie fällt. Sie wurde im Jahr 2022 von der Burda Direct GmbH in Zusammenarbeit mit der gemeinnützigen ClimaClic gGmbH gegründet. Das Lotterieangebot von ClimaClic umfasst verschiedene Gewinnlose, die jeweils unterschiedlichen Gewinnkategorien und Zielgruppen zugeordnet sind. Jede Kategorie bietet die Möglichkeit, sowohl einen wöchentlichen Jackpot als auch tägliche Gewinne zu erhalten, wobei die Gewinnhöhe von der gewählten Kategorie abhängt. Nach der Auswahl einer Gewinnklasse bestimmen die Loskäufer, welches Klimaprojekt sie mit ihrem Los unterstützen möchten. Eine Besonderheit von ClimaClic ist die überwiegende Online-Abwicklung, sodass der gesamte Registrierungs- und Kaufprozess idealerweise digital erfolgt. Als junges Unternehmen hat ClimaClic bisher keine hohe Markenbekanntheit. Daher besteht ein dringender Bedarf, die Markenkommunikation durch technologiegestützte Kampagnen zu stärken und effizient zu gestalten. Dies ist nicht nur entscheidend, um Neukunden zu gewinnen, sondern auch, um die bestehende Kundenbasis langfristig gegen den Wettbewerb zu sichern. Anwendungsfeld 1: Einsatz von KI im E-Mail-Marketing Um die Herausforderungen beim Einsatz von KI im E-Mail-Marketing besser bewerten zu können, wurde im ersten Praxisbeispiel eine empirische Umfrage mit 1436 Personen aus der Zielgruppe ClimaClics durchgeführt. <?page no="337"?> 3.6 Chancen und Risiken des Einsatzes in Dialogmarketingkampagnen 337 Hinsichtlich der Reaktion auf E-Mails, bei denen die Teilnehmerinnen und Teilnehmer vermuten, dass sie mit KI personalisiert wurden, gaben 48,10 % der Befragten an, dass sie die E-Mail so behandeln, als wäre sie ohne KI erstellt worden. Dies nimmt mit zunehmendem Alter tendenziell ab. Junge Menschen (18-24 Jahre) sind am wenigsten skeptisch (85,71 % behandeln sie normal). Ältere Menschen (65+) sind am skeptischsten (nur 37,28 % behandeln sie normal). Insgesamt ignorieren 25,99 % der Befragten eine E-Mail, wenn sie KI-Personalisierung erkennen. Nur 4,46 % der Befragten zeigen ein erhöhtes Interesse an KI-personalisierten E-Mails, am höchsten ist dieses Interesse in der Altersgruppe 25-34 Jahre (8,20 %). Nur 1,73 % geben an, dass sie definitiv eher mit der E-Mail interagieren würden. Unternehmen sollten daher bedenken, dass KI-Personalisierung möglicherweise nicht immer positiv wahrgenommen wird, insbesondere bei älteren Zielgruppen. Bezüglich der Wichtigkeit verschiedener Aspekte in Bezug auf KI-Verwendung im E-Mail-Marketing, legen ältere Generationen größeren Wert darauf, klar informiert zu werden, wenn KI in E-Mails verwendet wird (Transparenz). In allen Altersgruppen ist Datensicherheit das wichtigste Kriterium für E-Mail-Marketing und sollte höchste Priorität haben. Die Mehrheit sieht KI in E-Mails nicht automatisch als Vorteil - Unternehmen müssen den Nutzen klar vermitteln. Nutzer wollen Kontrolle darüber haben, ob sie mit KI-generierten Inhalten interagieren. Eine einfache Abmeldemöglichkeit ist essenziell. Das Vertrauen in KI ist generell gering, insbesondere bei älteren Nutzern. Unternehmen sollten transparente und vertrauenswürdige KI- Lösungen anbieten. Den Teilnehmerinnen und Teilnehmern wurden zudem grafische Elemente gezeigt und nach deren Wahrnehmung von Inhalten hinsichtlich KI-Generierung oder menschlicher Erstellung gefragt. Beim ersten grafischen Element, das KI-generiert war, konnte 18,95 % der Befragten nicht erkennen, ob der Inhalt von KI oder Mensch erstellt wurde. Die höchste Unsicherheit herrschte bei älteren Gruppen (55-64 Jahre: 21,84 %, 65+ Jahre: 20,07 %). Beim zweiten grafisch KI-generierten Element war die Unsicherheit bei der mittleren Altersgruppe am höchsten. 26,99 % glaubten, dass der Inhalt vollständig von einem Menschen stammt, besonders hoch war dabei der Anteil der 25-34-Jährigen (56,72 %), gefolgt von 35-44-Jährigen (39,09 %). Anwendungsfeld 2: KI-generierte Bilder für soziale Medien Das zweite Praxisbeispiel untersuchte, inwiefern sich KI-generierte Bilder für soziale Medien im Vergleich zu menschlich-generierten bewähren. Die Studie 2 untersuchte die Effektivität und Effizienz einer KI-generierten Werbeanzeige für Meta mithilfe von Interviews. Um die Validität der Ergebnisse zu erhöhen, wurde in dieser Studie systematisch die reale Wirksamkeit des KI-generierten Bildes im Vergleich zu einem professionellen, menschlich erstellten Stockfoto getestet. Die Studie hatte zwei primäre Ziele: (1) Vergleich der Wirkung von Bildmaterial und (2) Vergleich verschiedener Kennzeichnungsoptionen. Für die Untersuchung wurde eine der Bestperformer Ads in Meta als Ausgangsdesign verwendet. Eine KI-generierte Alternative wurde mithilfe des Bildgenerierungstools Midjourney erstellt. Während der Entwicklung des Prompts wurden mehrere Anpassungsschleifen durchlaufen, um am Ende ein passendes Ergebnis zu erzielen. Dabei wurden verschiedene Aspekte wie die Länge des Prompts, die Ausführlichkeit <?page no="338"?> 338 Diana Kolbe, Barbara Wörz und Andrea Müller der Angaben, bestimmte Wörter und der Satzbau wiederholt angepasst. Beide Alternativen wurden in 10 Tiefeninterviews mit Mimikanalyse verglichen (siehe Abb. 80). Die Emotionen der Teilnehmerinnen und Teilnehmer wurden während des Ausspielens der Werbeanzeigen erfasst. Im Circumplex Model of Affect zeigt sich, dass der Großteil der Teilnehmerinnen und Teilnehmer eine neutrale und eher inaktive Einstellung aufweist. Es konnte damit bei beiden Alternativen keine negativen Emotionen nachgewiesen werden. Danach wurden beide Werbeanzeigen im November 2024 gleichzeitig auf Meta geschalten. Die KI-generierte Anzeige wurde häufiger ausgespielt als die nicht KI-generierte Variante und wies eine höhere ausgehende Klickrate auf. Abb. 80: Vergleich von Werbeanzeigen für Meta (Quelle: ClimaClic 2024). Hinsichtlich der KI-Kennzeichnung wurden drei verschiedene Alternativen getestet: (1) Hashtag, (2) im Bild integriert, (3) Logo der KI. Die Ergebnisse zeigen, dass die Kennzeichnung der Verwendung von KI von den meisten Teilnehmerinnen und Teilnehmern kaum bewusst wahrgenommen wird. Falls eine Wahrnehmung erfolgt, geschieht dies bevorzugt durch eine direkte Integration in das Bild, beispielsweise durch den Hinweis „wurde mit KI generiert“. Dieses Beispiel stellt einen ersten Test dar. Um eine valide und aussagekräftige Analyse zu gewährleisten, sind weiterführende Vergleichsstudien erforderlich, in denen KI-generierte und nicht KI-generierte Anzeigen systematisch gegenübergestellt werden. Dabei sollte sichergestellt werden, dass die Anzeigen gleichmäßig und mit einer <?page no="339"?> 3.6 Chancen und Risiken des Einsatzes in Dialogmarketingkampagnen 339 höheren Frequenz ausgespielt werden. Zudem ist anzumerken, dass in diesem Ansatz nicht das volle Potenzial der KI ausgeschöpft wurde, insbesondere im Hinblick auf die Generierung innovativer Ideen. 3.6.6 Fazit In diesem Kapitel wurden die Auswirkungen von KI-generierten Inhalten auf Dialogmarketingkampagnen untersucht. Während KI neue Möglichkeiten zur Personalisierung und Automatisierung bietet, bestehen weiterhin Herausforderungen hinsichtlich Datensicherheit, regulatorischer Anforderungen und ethischer Fragestellungen. Anhand von Praxisbeispielen von BurdaDirect wird analysiert, wie KI-gestützte E-Mail-Marketingkampagnen und KI-generierte Bilder in sozialen Medien die Kundenbindung und Werbewirkung beeinflussen. Empirische Untersuchungen zeigen, dass KI-generierte Inhalte eine höhere Interaktionsrate aufweisen können, aber transparente Kommunikation über deren Einsatz eine Grundvoraussetzung ist. Generative KI revolutioniert das Dialogmarketing, indem sie die Erstellung von Inhalten effizienter und personalisierter gestaltet. Die Praxisbeispiele zeigen, dass KIgenerierte Inhalte die Markenkommunikation verbessern können, sofern sie verantwortungsvoll eingesetzt werden. Gleichzeitig bleibt die Herausforderung, ethische und datenschutzrechtliche Bedenken zu adressieren. Unternehmen sollten klare Strategien für den Einsatz von KI entwickeln, um Vertrauen bei ihren Kundinnen und Kunden aufzubauen und langfristigen Erfolg zu sichern. Literatur Ahmadi, N., & Hammond, T. (2023). Recognizing and Responding to Human Emotions: A Survey of Artificial Emotional Intelligence for Cooperative Social Human-Machine Interactions. Proceedings - Frontiers in Education Conference, FIE . Bengesi, S., El-Sayed, H., Sarker, M. K., Houkpati, Y., Irungu, J., & Oladunni, T. (2024). Advancements in Generative AI: A Comprehensive Review of GANs, GPT, Autoencoders, Diffusion Model, and Transformers. IEEE Access , 12 , 69812-69837. Boerman, S. C., Kruikemeier, S., & Zuiderveen Borgesius, F. J. (2017). Online Behavioral Advertising: A Literature Review and Research Agenda. Journal of Advertising , 46(3), 363-376. Bommasani, R., Hudson, D. A., Adeli, E., Altman, R., Arora, S., von Arx, S., Bernstein, M. S., Bohg, J., Bosselut, A., Brunskill, E., Brynjolfsson, E., Buch, S., Card, D., Castellon, R., Chatterji, N., Chen, A., Creel, K., Davis, J. Q., Demszky, D., … Liang, P. (2021). On the Opportunities and Risks of Foundation Models . https: / / arxiv.org/ abs/ 2108.07258v3 Botti, S., & Iyengar, S. S. (2006). The dark side of choice: When choice impairs social welfare. Journal of Public Policy and Marketing , 25(1), 24-38. Brophy, E., Wang, Z., She, Q., & Ward, T. (2023). Generative Adversarial Networks in Time Series: A Systematic Literature Review. ACM Computing Surveys , 55(10), 31. Budhwar, P. et al. (2023). Human resource management in the age of generative artificial intelligence: Perspectives and research directions on ChatGPT. Human Resource Management Journal , 33(3), 606-659. <?page no="340"?> 340 Diana Kolbe, Barbara Wörz und Andrea Müller Bundesregierung (2024, May 22). https: / / www.bundesregierung.de/ breg-de/ aktuelles/ ai-act-2285944. Zugegriffen am 25. Februar 2025 Cano-Marin, E. (2024). The transformative potential of Generative Artificial Intelligence (GenAI) in business: a text mining analysis on innovation data sources. ESIC Market , 55(2), e333-e333. Cillo, P., & Rubera, G. (2024). Generative AI in innovation and marketing processes: A roadmap of research opportunities. Journal of the Academy of Marketing Science , 1-18. ClimaClic (2024). Meta Winter Campaign for ClimaClic . D’Amico, A., Delteil, B., Hazan, E., Tricoli, A., & Montard, A. (2025). How AI is transforming strategy development. McKinsey. https: / / www.mckinsey.com/ capabilities/ strategy-and-corporate-finance/ our-insights/ how-ai-is-transforming-strategy-development. Zugegriffen am 25. Februar 2025 Dhungel, A.-K. (2023). KI & Recht . 191-206. Dwivedi, Y.K. et al. (2023). Opinion Paper: “So what if ChatGPT wrote it? ” Multidisciplinary perspectives on opportunities, challenges and implications of generative conversational AI for research, practice and policy. International Journal of Information Management , 71, 102642. Engel, O. (2024). Künstliche Intelligenz (KI) und DSGVO - Datenschutz beachten - DSGVO-Vorlagen . https: / / dsgvo-vorlagen.de/ kuenstliche-intelligenz-ki-dsgvo-datenschutz. Zugegriffen am 25. Februar 2025 Faccia, A., Cavaliere, L. P. L., Petratos, P., & Mosteanu, N. R. (2022). Unstructured Over Structured, Big Data Analytics and Applications in Accounting and Management. ACM International Conference Proceeding Series , 37-41. Goodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., & Bengio, Y. (2014). Generative Adversarial Nets. Advances in Neural Information Processing Systems , 27. Grafanaki, S. (2017). Drowning in Big Data: Abundance of Choice, Scarcity of Attention and the Personalization Trap, a Case for Regulation. Richmond Journal of Law & Technology , 24. Harkness, L., Robinson, K., Stein, E., & Wu, W. (2023, December 5). The power of generative AI for marketing. McKinsey. https: / / www.mckinsey.com/ capabilities/ growth-marketing-and-sales/ our-insights/ how-generative-ai-can-boost-consumer-marketing. Zugegriffen am 25. Februar 2025 Hartmann, J., Exner, Y., & Domdey, S. (2024). The power of generative marketing: Can generative AI create superhuman visual marketing content? SSRN Electronic Journal . Heitmann, M. (2024). Generative AI for Marketing Content Creation: New Rules for an Old Game Mark Heitmann GenAI, Marketing Content Creation, Marketing Productivity, Content Quality GenAI and Content Creation. NIM Marketing Intelligence Review , 16(1), 10-17. Huang, M.H., & Rust, R.T. (2022). A Framework for Collaborative Artificial Intelligence in Marketing. Journal of Retailing , 98(2), 209-223. <?page no="341"?> 3.6 Chancen und Risiken des Einsatzes in Dialogmarketingkampagnen 341 Huang, M.H., & Rust, R.T. (2024). The Caring Machine: Feeling AI for Customer Care. Journal of Marketing , 88(5), 1-23. Israfilzade, K., Sadili, N., & Co, J.L. (2024). Beyond interaction: Generative AI in conversational marketing foundations, developments, and future directions. Journal of Life Economics , 11(1), 13-29. Jansen, T., Heitmann, M., Reisenbichler, M., & Schweidel, D.A. (2024). Engaging Customers with Visual Generative AI . https: / / ssrn.com/ abstract=4656622 Kanbach, D.K., Heiduk, L., Blueher, G., Schreiter, M., & Lahmann, A. (2024). The GenAI is out of the bottle: generative artificial intelligence from a business model innovation perspective. Review of Managerial Science , 18 (4), 1189-1220. Kieslich, K., Keller, B., & Starke, C. (2021). AI-Ethics by Design. Evaluating Public Perception on the Importance of Ethical Design Principles of AI. Big Data and Society , 9(1). Kshetri, N. (2021). Cybersecurity Management: An Organizational and Strategic Approach. University of Toronto Press . Kshetri, N., Dwivedi, Y.K., Davenport, T.H., & Panteli, N. (2024). Generative artificial intelligence in marketing: Applications, opportunities, challenges, and research agenda. International Journal of Information Management , 75, 102716. Mariani, M., & Dwivedi, Y.K. (2024). Generative artificial intelligence in innovation management: A preview of future research developments. Journal of Business Research , 175, 114542. Moradi, M., Blagec, K., Haberl, F., & Samwald, M. (2021). GPT-3 Models are Poor Few- Shot Learners in the Biomedical Domain . https: / / arxiv.org/ abs/ 2109.02555v2 Mortillaro, M., & Schlegel, K. (2023). Embracing the Emotion in Emotional Intelligence Measurement: Insights from Emotion Theory and Research. Journal of Intelligence, 11(11), 210. Narayan, J., & Larsen, B. (2023, January 9). Generative AI - a game-changer society needs to be ready for. World Economic Forum. https: / / www.weforum.org/ stories/ 2023/ 01/ davos23-generative-ai-a-game-changer-industries-and-societycode-developers/ . Zugegriffen am 25. Februar 2025 Noack, A. (2023). Dialog-Marketing-Trends 2024: Was die digitale Absatzwirtschaft erwartet. https: / / digital-magazin.de/ dialog-marketing-trends-2024-was-die-digitale-absatzwirtschaft-erwartet/ . Zugegriffen am 25. Februar 2025 Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science , 381(6654), 187-192. Perifanis, N.A., & Kitsios, F. (2023). Investigating the Influence of Artificial Intelligence on Business Value in the Digital Era of Strategy: A Literature Review. Information, 14(2), 85. Puntoni, S., Reczek, R. W., Giesler, M., & Botti, S. (2021). Consumers and Artificial Intelligence: An Experiential Perspective. Journal of Marketing , 85(1), 131-151. Rafieian, O., & Yoganarasimhan, H. (2023). AI and Personalization . https: / / papers.ssrn.com/ sol3/ papers.cfm? abstract_id=4123356. <?page no="342"?> 342 Diana Kolbe, Barbara Wörz und Andrea Müller Reisenbichler, M., Reutterer, T., & Schweidel, D.A. (2023). Applying Large Language Models to Sponsored Search Advertising. Marketing Science Institute Working Paper Series 2023. Reisenbichler, M., Reutterer, T., Schweidel, D.A., & Dan, D. (2022). Frontiers: Supporting Content Marketing with Natural Language Generation. Marketing Science , 41(3), 441-452. Rowan, J., Ammanath, B., Perrico, C., Sniderman, B., & Jarvis, D. (2025). Deloitte’s State of Generative AI in the Enterprise Quarter four report . https: / / www2.deloitte.com/ content/ dam/ Deloitte/ us/ Documents/ consulting/ usstate-of-gen-ai-q4.pdf. Zugegriffen am 25. Februar 2025 Salah, M., Al Halbusi, H., & Abdelfattah, F. (2023). May the force of text data analysis be with you: Unleashing the power of generative AI for social psychology research. Computers in Human Behavior: Artificial Humans , 1(2), 100006. Sharma, A. (2024). Difference b/ w Custom GPT & GPT-4o Custom Instruction. Content Whale. https: / / content-whale.com/ blog/ custom-gpt-vs-custom-instruction/ . Zugegriffen am 25. Februar 2025 Shin, D., & Park, Y. J. (2019). Role of fairness, accountability, and transparency in algorithmic affordance. Computers in Human Behavior , 98, 277-284. Tang, B.J., Sun, K., Curran, N.T., Schaub, F., & Shin, K. G. (2024). GenAI Advertising: Risks of Personalizing Ads with LLMs . https: / / arxiv.org/ abs/ 2409.15436v1. Vaswani, A., Brain, G., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is All you Need. Advances in Neural Information Processing Systems , 30. Wang, J., Zhang, W., & Yuan, S. (2017). Display Advertising with Real-Time Bidding (RTB) and Behavioural Targeting. Foundations and Trends in Information Retrieval , 11(4-5), 297-435. Yuan, S., Wang, J., & Zhao, X. (2013). Real-time bidding for online advertising: Measurement and analysis . Proceedings of the 7th International Workshop on Data Mining for Online Advertising, ADKDD 2013 - Held in Conjunction with SIGKDD 2013. Zhang, Y., Zhang, M., Li, J., Liu, G., Yang, M.M., & Liu, S. (2021). A bibliometric review of a decade of research: Big data in business research - Setting a research agenda. Journal of Business Research , 131, 374-390 . <?page no="343"?> Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller Zusammenfassung Die Integration KI-gestützter Systeme in Büroumgebungen bietet im sich schnell verändernden Bereich der Künstlichen Intelligenz ein erhebliches Potenzial. Im Rahmen eines Forschungsprojekts wird der Einsatz von KI zur Steigerung der Effizienz und Funktionalität am Arbeitsplatz untersucht und die Bedeutung der Verknüpfung technologischer Innovation mit emotionaler Intelligenz, um Systeme zu schaffen, die sowohl effizient als auch empathisch sind, hervorgehoben. Das Projekt erforscht die Rolle der KI bei der Automatisierung routinemäßiger Aufgaben, der Förderung von Kreativität und der Unterstützung eines strategischen Fokus der Mitarbeitenden. Ein zentraler Schwerpunkt liegt darin, positive emotionale Erlebnisse in KI-Mensch- Interaktionen durch eine benutzerfreundliche und attraktive Schnittstelle einzubinden, da diese einen entscheidenden Einfluss auf Leistung und Motivation haben. Diese Studie betrachtet zudem die Auswirkungen des EU AI Acts und bewertet ethische sowie regulatorische Aspekte des KI-Einsatzes am Arbeitsplatz. Erste Erkenntnisse aus Fragebögen und Visualisierungen zeigen die Präferenzen und Wahrnehmungen der Mitarbeitenden in Bezug auf digitale Assistenten auf und liefern wertvolle Einblicke in nutzerzentriertes Design. Keywords: Künstliche Intelligenz, Robotiksysteme im Büro, Digitale Kundeninteraktion, Empathische virtuelle Assistenten 3.7.1 Hintergrund und Motivation Der wachsende branchenübergreifende Fachkräftemangel aufgrund des seit vielen Jahren bestehenden Defizits an qualifizierten Arbeitskräften stellt Unternehmen vor große Herausforderungen (vgl. Sauer 2022; Sauer 2023). Besonders in Bereichen der öffentlichen Verwaltung und der Ämter, in denen anspruchsvolle operative und strategische Aufgaben bewältigt und Entscheidungsprozesse organisiert werden, besteht eine hohe Nachfrage nach qualifizierten Fachkräften. Es ist infolgedessen entscheidend, die Erkenntnisse aus der industriellen Fertigung auf diese Bereiche zu übertragen und die Möglichkeiten zur Integration von Künstlicher Intelligenz (KI) und robotischen Systemen in den Arbeitsalltag zu identifizieren und voranzutreiben (vgl. Bundesministerium für Arbeit und Soziales 2023; Pennathur et al. 2024). Technologien im Umfeld von robotischen Systemen und KI entwickeln sich rasant weiter und bieten zunehmend neue und fortschrittliche Lösungen, um die Arbeitsbelastung der Mitarbeitenden zu reduzieren. Die Digitalisierung und Automatisierung von Arbeitsprozessen haben die Arbeitswelt grundlegend verändert. KI wird zunehmend in Büroumgebungen eingesetzt, um Effizienzsteigerungen zu ermöglichen und repetitive Aufgaben zu automatisieren. Ihr Einsatz ist bei administrativen 3.7 KI-basierte Robotiksysteme im Büro Empirische Studie zu den Herausforderungen in der Praxis <?page no="344"?> 344 Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller Tätigkeiten und interaktiven Assistenzsystemen noch nicht ausgereift. Hingegen sind KI-Technologien bereits in Bereichen wie industrieller Automatisierung und datengetriebenen Geschäftsprozessen etabliert und zeigen Vorteile wie gesteigerte Effizienz und Kostensenkung (vgl. Brynjolfsson und McAfee 2017; Pennathur et al. 2024). Roboter, robotische Systeme und virtuelle Avatare können auch Mitarbeitende in Verwaltungs- und Büroarbeitsumgebungen unterstützen und stellen somit nicht nur in der Industrie und Produktion einen sinnvollen integrativen Ansatz dar. Dennoch dürfen die mit der Implementierung solcher robotischen Systeme im Büroalltag verbundenen Herausforderungen nicht unterschätzt werden. Besonders in Bezug auf Aspekte wie Datenschutz oder Transparenz bei Entscheidungsprozessen ist es wichtig, sowohl die Art der Implementierung als auch die Nutzung der KI sorgfältig zu planen. Die Akzeptanz digitaler Assistenten durch die Mitarbeitenden erfordert eine präzise Betrachtung und stellt eine zentrale Herausforderung dar (vgl. Heine et al. 2023). Um dieses Hindernis zu überwinden, sollten Lösungen entwickelt werden, die effizientere Arbeitsabläufe ermöglichen und die Arbeitsbelastung der Mitarbeitenden reduzieren. Die Automatisierung verschiedener Tätigkeiten und Prozesse mithilfe von KI und robotischen Systemen stellt eine geeignete Möglichkeit dar, die Mitarbeitenden im Arbeitsalltag zu unterstützen. Neben fachlichen Informationen müssen robotische Systeme und KI auch menschliche und emotionale Komponenten erkennen und analysieren, um eine ganzheitliche Mensch-Maschine-Interaktion sicherzustellen. Eine wesentliche Herausforderung besteht darin, sowohl die hohen technischen Anforderungen zu erfüllen als auch die rechtlichen, sozialen und ethischen Aspekte zu gewährleisten, da diese einen erheblichen Einfluss auf den Nutzungserfolg haben. Diese Aspekte wirken sich unter anderem maßgeblich auf die verschiedenen Akzeptanzbarrieren aus (vgl. Heine et al. 2023). Zahlreiche Studien zeigen, dass Menschen eher mit KI interagieren, wenn diese nicht nur funktionale Effizienz bietet, sondern auch soziale und emotionale Komponenten aufweist (vgl. Luger und Sellen 2016). Das Forschungsprojekt „RoBuddy“ widmet sich dieser Herausforderung, indem es alle Aspekte der Mensch-Computer-Interaktion betrachtet. Es konzentriert sich auf Ansätze, die sich für die Integration von KI und robotischen Systemen in Büroarbeitsumgebungen eignen, und untersucht, wie KI Arbeitsabläufe effizienter gestalten und die Belastung durch alltägliche Büroaufgaben verringern kann. Der Einsatz als Automatisierungstool führt zur Entlastung der Mitarbeitenden. Die Dynamik des Systems ermöglicht darüber hinaus eine flexible Anpassung an die Bedürfnisse seiner Umgebung. Das System übernimmt viele Aufgaben, die typischerweise von Menschen erledigt werden, wie Terminplanung, E-Mail-Verwaltung und sogar komplexe Tätigkeiten wie Datenanalyse und Kundensupport. Durch die Reduzierung routinemäßiger, zeitaufwändiger Aufgaben können sich Mitarbeitende auf kreative und strategische Arbeiten konzentrieren, die Innovation und Wachstum im Unternehmen vorantreiben. Darüber hinaus ist es von wesentlicher Bedeutung, Aspekte wie Datenschutz, Transparenz bei Entscheidungsprozessen, das Erkennen und Verarbeiten von Emotionen sowie Akzeptanzfaktoren zu berücksichtigen. Aus diesem Grund befasst sich das <?page no="345"?> 3.7 KI-basierte Robotiksysteme im Büro 345 Forschungsprojekt mit der Entwicklung praxisnaher Lösungen für eine effiziente Integration und nutzt neue Ansätze, um die Bedenken der Mitarbeitenden zu überwinden. Neben den fachlichen Fähigkeiten umfasst RoBuddy auch die Darstellung des Systems innerhalb einer intuitiv bedienbaren Benutzeroberfläche und in Form eines Avatars, um eine natürliche Kommunikation zwischen Mensch und Maschine zu garantieren. Ein zentrales Merkmal von RoBuddy sind seine interaktiven Avatare. Die Förderung eines interaktiven Erlebnisses überbrückt die Kluft zwischen fortschrittlicher Technologie und den emotionalen Bedürfnissen am Arbeitsplatz. Das System zeichnet sich überdies durch die Fähigkeit zur kontinuierlichen Weiterentwicklung aus. Die ständige Interaktion mit einer Büroumgebung führt zu einer stetigen Anpassung des Systems gegenüber neuen Herausforderungen und ermöglicht langfristige Effizienz. Gleichzeitig integriert es fortschrittliche Technologien, um die Datenanalyse zu verbessern und Arbeitsabläufe weiter zu optimieren. Ziel des Forschungsprojekts und der hierin näher betrachteten empirischen Studie ist es, menschliche Kreativität mit den Potenzialen der KI zu verbinden, um fachkräftelastige Büroarbeit zu automatisieren sowie den bedeutenden Beitrag von KI und ihren Anwendungen in der modernen Arbeitswelt zu nutzen. 3.7.2 KI-Nutzung in Büroumgebungen Rahmenbedingungen und Herausforderungen Es besteht eine hohe Nachfrage nach Lösungen zur Integration von KI- und robotischen Systemen in Büroarbeitsumgebungen: Unternehmen sind auf der Suche nach innovativen Ansätzen, um die Produktivität zu steigern, die Arbeitsbelastung der Mitarbeitenden zu reduzieren, dem Mangel an qualifizierten Fachkräften entgegenzuwirken und letztlich die Mitarbeiterzufriedenheit zu verbessern. Die Übernahme von zeitaufwändigen Aufgaben wie Protokollerstellung, Besprechungsplanung oder Datenanalyse und -aufbereitung leistet einen wesentlichen Beitrag zur Produktivität (vgl. Bundesministerium für Arbeit und Soziales 2023; Pennathur et al. 2024). Unternehmen stehen vor der Herausforderung, sowohl die gesetzlichen Anforderungen in Bezug auf Datenschutz und Transparenz von Entscheidungsprozessen als auch die wachsenden Erwartungen von Kunden und Geschäftspartnern zu erfüllen. Der Einsatz von KI erzeugt viele Bedenken hinsichtlich der Sicherheit personenbezogener und unternehmensinterner Daten und der Nachvollziehbarkeit, auf welcher Grundlage KI-Entscheidungen getroffen werden (vgl. Staatssekretariat für Wirtschaft 2020; Korobenko et al. 2024). Regulatorische Maßnahmen der Europäischen Union, wie der „EU AI Act“, unterstreichen die Bedeutung dieser Themen. Dieser Rechtsrahmen, der den Einsatz von KI regelt, muss bereits von Beginn der Entwicklungsphase neuer Technologien berücksichtigt werden. Dementsprechend besteht ein dringender Bedarf an Lösungen, die nicht nur den Datenschutz gewährleisten, sondern auch Mitarbeitenden und externen Stakeholdern Einblicke in den Entscheidungsprozess ermöglichen (vgl. Staatssekretariat für Wirtschaft 2020). <?page no="346"?> 346 Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller Um die soziale Dimension der Interaktion zwischen Mensch und Maschine zu verbessern, müssen des Weiteren die Akzeptanz solcher KI-basierten Systeme sowie emotionale Zustände der Mitarbeitenden berücksichtigt werden. Besonders in der öffentlichen Verwaltung und in Büroarbeitsumgebungen sind Empathie und soziale Interaktion zentral für ein erfolreiches und reibungsloses Zusammenwirken der Akteure im Unternehmensprozess. Robotik und KI müssen infolgedessen neben der technischen Kompetenz auch emotionale Intelligenz aufweisen und sollten in der Lage sein, menschliche Signale, z. B in der Mimik oder Stimme, bei der Interaktion automatisch und in Echtzeit zu erkennen und angemessen darauf zu reagieren. Ethische Rahmenbedingungen Jedes wissenschaftliche Fachgebiet weist eine Reihe von definierten Ethikrichtlinien oder Prinzipien auf (vgl. Helton-Fauth et al. 2003; Giorgini et al. 2015). Hierbei bestehen mehrere Gründe für die Festlegung von Ethikrichtlinien. Einer der bedeutendsten ist die Schaffung einheitlicher normativer Standards für die Forschungsarbeit in einem jeweiligen Fachgebiet (vgl. Giorgini et al. 2015). Handlungsrichtlinien werden eingeführt, um ethische Verstöße zu vermeiden und das öffentliche Ansehen zu fördern (vgl. Giorgini et al. 2015). Beispielhaft zu nennen sind hier die Ethikrichtlinien des „Institute of Electrical and Electronics Engineers“ (IEEE) oder die Ethikrichtlinien des „Worcester Polytechnic Institute“ (WPI). Die Ethikrichtlinien des IEEE sind u. a. für alle Ingenieurinnen und Ingenieure, Technikerinnen und Techniker und Wissenschaftlerinnen und Wissenschaftler innerhalb der Organisation definierte Handlungsorientierungen, wobei das WPI speziell Richtlinien für Robotik-Ingenieurinnen und -ingenieure definiert (vgl. Tzafestas 2016). Intelligenz und ethische Integrität Roboethik ist ein Zweig angewandter Ethik, wobei drei fundamentale Einflusskräfte die ethische Integrität eines KI-Systems bzw. Roboters bestimmen (vgl. Tzafestas 2016):  Die ethischen Überzeugungen der Menschen, die den Roboter entwickeln und einsetzen,  das ethische System, das in den Roboter integriert wird, und  die ethischen Überzeugungen im Umgang mit dem Roboter. Hier spielt überdies der gewählte Entwicklungsansatz für die ethische Integrität des Roboters eine bedeutende Rolle. Es wird zwischen dem „top-down“- und dem „bottom-up“-Ansatz unterschieden. Beim „top-down“-Ansatz wird eine Reihe an ethischen Regeln und Prinzipien vorbestimmt (vgl. Tzafestas 2016). So können ethisch-soziale Interaktionsregeln festgelegt werden, welche es dem Roboter ermöglichen, ethisch korrekte Aktionen auszuführen und mit den Menschen in einem, dem ethisch-sozialen Kontext angemessenen Rahmen zu interagieren (vgl. Tzafestas 2016). Bezogen auf den „bottom-up“-Ansatz lernt das KI-System, wie ein aufwachsendes Kind, aus einem sozialen Kontext und aus Erfahrungen heraus, was richtig und falsch ist (vgl. Tzafestas 2016). Die maschinelle Intelligenz und ethische Integrität entwickeln sich in diesem Fall durch Interaktion des KI-Systems mit dessen Umwelt. <?page no="347"?> 3.7 KI-basierte Robotiksysteme im Büro 347 EU Artificial Intelligence Act Am 12. Juli 2024 wurde der „EU Artificial Intelligence Act (EU AI Act)“ im Amtsblatt der Europäischen Union veröffentlicht. Der AI Act ist die erste Regulierung über KI durch eine große Regulierungsbehörde. Insgesamt besteht der EU AI Act aus zwölf Hauptkapiteln. Der folgende Teil des Beitrags konzentriert sich auf die Inhalte von Kapitel II - „Verbotene KI-Praktiken“ und Anhang III „Hochrisiko-KI-Systeme gemäß Artikel 6(2)“ - des EU AI Acts, die rechtliche Artikel enthalten, die für das Thema KI in Büroarbeitsumgebungen von besonderer Bedeutung sind (vgl. Council of the European Union 2024). Das Kapitel II, Art. 5(1)(a) behandelt vorrangig die Entscheidungsfindung durch eine Person oder eine Gruppe von Personen unter dem Einfluss von KI. In diesem Zusammenhang ist es verboten, manipulative oder täuschende KI-Techniken zu vermarkten, in Betrieb zu nehmen oder zu nutzen, die die Fähigkeit einer Person oder Gruppe von Personen beeinträchtigen, eine informierte Entscheidung zu treffen, wodurch Entscheidungen verursacht werden, die dieser oder anderen Personen Schaden zufügen oder wahrscheinlich zufügen würden (vgl. Council of the European Union 2024; European Union 2016). Darüber hinaus ist es strikt untersagt, biometrische Kategorisierungssysteme zu vermarkten, in Betrieb zu nehmen oder zu verwenden, die Rückschlüsse auf Rasse, politische Meinungen, Gewerkschaftszugehörigkeit, religiöse oder weltanschauliche Überzeugungen, Sexualleben oder sexuelle Orientierung zulassen. Soziale Scoring- Modelle, die zu einer ungerechtfertigten oder unverhältnismäßigen Benachteiligung oder Diskriminierung einer natürlichen Person oder einer Gruppe von Personen führen, sind ebenfalls verboten (vgl. Council of the European Union 2024; European Union 2016). Anhang III des EU AI Acts definiert Hochrisiko-KI-Systeme in Verbindung mit bestimmten Lebensbereichen. Im Kontext von KI in Büroarbeitsumgebungen sind folgende Bereiche besonders relevant (vgl. Council of the European Union 2024; European Union 2016):  Biometrische Daten. Bei der Verwendung biometrischer Daten muss in erster Linie das einschlägige Unions- oder nationale Recht berücksichtigt werden. Fernbiometrische Identifizierungssysteme gelten als Hochrisiko-KI-Systeme, es sei denn, sie dienen ausschließlich der biometrischen Verifizierung einer Person.  Bildung und berufliche Ausbildung. KI-Systeme, die zur Zuweisung oder Zulassung zu Bildungs- und Ausbildungseinrichtungen, zur Bewertung von Lernergebnissen oder zur Bestimmung des geeigneten Bildungsniveaus verwendet werden, gelten als Hochrisiko-KI-Systeme. Diese Einstufung wirft ethische Fragen hinsichtlich Fairness und Transparenz auf.  Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit. KI-Systeme, die bei Bewerbungsverfahren, bei der Entscheidungsfindung in Arbeitsbeziehungen oder bei der Leistungsbewertung zum Einsatz kommen, sind als Hochrisiko-KI-Systeme eingestuft. In diesem Zusammenhang muss ein Risikomanagementsystem eingerichtet und eine Mensch-Maschine-Schnittstelle entwickelt werden, um eine angemessene menschliche Überwachung sicherzustellen. <?page no="348"?> 348 Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller Allgemeine Nutzung von KI in Büroarbeitsumgebungen KI und robotische Systeme bieten vielfältige Einsatzmöglichkeiten in Büroarbeitsumgebungen. Innerhalb des Projekts werden vier Hauptbereiche betrachtet:  Kollaborative Robotik. Kollaborative Roboter oder Cobots werden seit vielen Jahren in der Fertigung, im Versand und in Lagern eingesetzt. Die Integration in administrative und bürobasierte Umgebungen befindet sich jedoch noch in einem frühen Stadium, was vor allem an der Komplexität der dort auszuführenden Aufgaben und dem Mangel an sozialen Fähigkeiten der Roboter liegt (vgl. Lavit et al. 2023).  Chatbots und virtuelle Assistenten. Diese Systeme werden zunehmend im Kundenservice eingesetzt. Das Forschungsprojekt verfolgt die Entwicklung einer Schnittstelle für sprachliche Interaktionen, die komplexe Dialoge und einen professionellen Kontext ermöglicht. Die Kombination aus Sprachassistenzsystemen, Chatbot-Komponenten und lokalen Edge-Computing-Systemen sowie die Erweiterung durch Methoden der Emotionserkennung decken sowohl die professionelle als auch die emotionale Ebene der Kommunikation ab.  KI zur Entscheidungsunterstützung. Fortschrittliche Algorithmen und KI werden zunehmend zur Analyse großer Datenmengen und zur Unterstützung von Entscheidungsprozessen eingesetzt (vgl. Staatssekretariat für Wirtschaft 2020). Ro- Buddy begegnet der Herausforderung der mangelnden Transparenz durch die Integration von Explainable AI, um die Nachvollziehbarkeit von KI-Entscheidungsprozessen zu gewährleisten.  Emotionserkennung und -verarbeitung. Ziel des Projekts ist die Entwicklung von Technologien zur Erkennung und Analyse emotionaler Signale. Durch die Analyse von Gesichtsausdrücken und Sprachintonationen sollen robotische Systeme in die Lage versetzt werden, emotionale Zustände zu erkennen und entsprechend zu reagieren. Diese Fähigkeit ermöglicht eine empathische und personalisierte Interaktion zwischen Mensch und Computer sowie Mensch und Roboter und trägt zu einer effektiveren Zusammenarbeit bei. Befragung zur Nutzung von KI im Büroumfeld Eine umfassende Literaturübersicht zur sozialen Mensch-Computer-Interaktion ergab vor allem Studien mit Fokus auf Kontexte wie Verkaufsszenarien, spielerische Bildungsanwendungen für Kinder sowie die Unterstützung älterer Menschen durch soziale Roboter. Da diese Studien nicht mit dem spezifischen Fokus auf Büroumgebungen übereinstimmen, wurden Primärdaten im Rahmen einer empirischen Studie in Form einer Umfrage erhoben, um eine belastbare Grundlage für weitere Forschungen zu schaffen. Das Hauptziel der Umfrage besteht in der Gewinnung eines allgemeinen Eindrucks der aktuellen KI-Nutzung in alltäglichen Büroumgebungen und in der Identifikation relevanter funktionaler sowie sozialer KI-Fähigkeiten für zukünftige Anwendungen. Primärdatenerhebung Die Primärdaten wurden innerhalb einer schriftlichen Online-Befragung über einen Zeitraum von einem Monat gesammelt. Der Fragebogen wurde ausschließlich an Personen versendet, die in einer Büroumgebung tätig sind, um die Zielgruppe repräsentativ abzubilden. Es wurden einheitliche Bewertungsskalen von 1 (negativ) bis 6 <?page no="349"?> 3.7 KI-basierte Robotiksysteme im Büro 349 (positiv) verwendet, um die Objektivität der Bewertungen zu erhöhen. Besondere Aufmerksamkeit wurde auf die Formulierung kurzer und prägnanter Antwortoptionen gelegt, um die Zuverlässigkeit und Validität der Umfrage zu gewährleisten. Klare und eindeutige Fragen sowie Antwortoptionen im Fragebogen reduzieren potenzielle Missverständnisse und garantieren die Konsistenz der Antworten. Die Umfrage umfasst 22 Fragen und wurde in vier Abschnitte (A, B, C, D) unterteilt. Die Inhalte dieser Abschnitte sind in Abb. 81 kurz zusammengefasst: Abb. 81: Aufbau des Online-Fragebogens (Quelle: Eigene Darstellung) Abschnitt A: Nutzererfahrungen und -erwartungen Die einleitenden Fragen zielen darauf ab, die Erfahrung der Teilnehmenden mit KI sowie deren individuelle Erwartungen zu erfassen. Es wird angenommen, dass frühere Nutzererfahrungen direkt mit aktuellen Nutzererwartungen in Zusammenhang stehen. Die erste Frage Q1 beschäftigt sich mit den Assoziationen der Teilnehmenden zu funktionalen KI-Fähigkeiten in Bereichen wie Datenanalyse oder Texterstellung. Frage Q2 bezieht sich auf die Nutzungshäufigkeit von KI, von „nie“ bis „täglich“, um die Erfahrung der Teilnehmenden einzuschätzen. In Frage Q3 wird ermittelt, inwieweit die Teilnehmenden spezifische KI-gestützte Anwendungen in ihrem Büroalltag nutzen, um den Bedarf und die Bedeutung bestimmter funktionaler Fähigkeiten bewerten zu können. <?page no="350"?> 350 Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller Frage Q4 untersucht die sozialen Dynamiken zwischen den Teilnehmenden und KI im Büroalltag. Die sozialen Aspekte in den Antwortoptionen basieren auf dem AL- MERE-Modell. Wichtige Komponenten wie die „Einstellung zur Technologie“ (ATT), „wahrgenommene Benutzerfreundlichkeit“ (PEOU) und „wahrgenommener Nutzen“ (PU) wurden integriert. Abschnitt B: Soziale und funktionale KI-Fähigkeiten Für die Entwicklung eines robotergestützten Systems in Büroumgebungen müssen neben aktuellen Nutzerbedürfnissen auch zukünftige Potenziale in Bezug auf soziale und funktionale Fähigkeiten berücksichtigt werden. Die Erstellung von Besprechungsprotokollen durch KI wird als funktionale Fähigkeit betrachtet. Im Gegensatz dazu gilt die Fähigkeit von KI, Benutzer an Pausen zu erinnern oder Feedback zum Erschöpfungsgrad zu geben, als soziale Fähigkeit. Ein weiterer Bestandteil ist die „wahrgenommene Anpassungsfähigkeit“ (PAD) der KI, also die Fähigkeit, Wissen zu erwerben und das Verhalten an die Arbeitsgewohnheiten des Benutzers anzupassen (Q6). Abschnitt C: Herausforderungen der KI im Büroalltag Abschnitt C befasst sich mit den Herausforderungen, die mit KI im Büroalltag verbunden sind. Dazu gehören Datenschutz (Q11), lokale oder Cloud-Datenspeicherung (Q12), Prozess-Transparenz, Einfluss der KI auf Entscheidungsprozesse, Kontrollverlust sowie Veränderungen in zwischenmenschlichen Dynamiken. Abschnitt D: Demografische und berufliche Merkmale Im letzten Abschnitt werden demografische und berufliche Merkmale der Teilnehmenden abgefragt. Diese Merkmale dienen als Grundlage für das Verständnis der Einstellungen gegenüber KI-Technologie sowie der funktionalen und sozialen Bedürfnisse im geschäftlichen Kontext. Für die technische Implementierung des robotergestützten Systems sind außerdem Art und Marke der technischen Geräte der Teilnehmenden von besonderem Interesse. Die Umfrageergebnisse können in dieser Hinsicht wertvolle Erkenntnisse liefern. Dabei stellen folgende Einordnungen die einzelnen Stufen der 6-Punkte-Likert-Skala dar: Stufe 1 - „Trifft überhaupt nicht zu“ stark negative Bewertung oder totale Ablehnung Stufe 2 - „Trifft nicht zu“ deutliche Ablehnung, jedoch nicht so intensiv wie bei Stufe 1 Stufe 3 - „Trifft eher nicht zu leichte Ablehnung, jedoch nicht vollständig negativ Stufe 4 - „Trifft eher zu“ leichte Zustimmung, aber mit Vorbehalten Stufe 5 - „Trifft zu“ deutliche Zustimmung Stufe 6 - „Trifft voll und ganz zu“ stark positive Bewertung oder volle Zustimmung Der Vorteil einer 6-Punkte-Likert-Skala liegt darin, dass kein neutraler Punkt vorhanden ist, sodass die Umfrage-Teilnehmenden sich für eine negative oder positive Tendenz entscheiden müssen. <?page no="351"?> 3.7 KI-basierte Robotiksysteme im Büro 351 3.7.3 Empirische Studie zur Entwicklung KI-gestützter Assistenten Projektvorhaben ‒ Funktionalitäten Intelligente Automatisierung Ziel ist es, ein Produkt zu entwickeln, das wiederkehrende und zeitaufwändige Aufgaben wie Datenverarbeitung, Informationsrecherche oder -erfassung oder Kalenderverwaltung automatisch ausführen kann. Intelligente Automatisierung bedeutet jedoch auch, dass das System in der Lage ist, Arbeitsabläufe zu optimieren und Mitarbeitende mithilfe sprachbasierter Dialogsysteme zu unterstützen. Dabei basiert der Ansatz auf einer intuitiven sprachbasierten Interaktion - anstelle der reinen Nutzung von Schlüsselbegriffen als Befehle werden spezialisierte Dialoge angestrebt. Verarbeitung natürlicher Sprache und multimodales Dialogmanagement Das Verstehen und Beantworten von Sprache bildet die wesentliche Grundlage für eine effiziente Interaktion und ermöglicht eine benutzerfreundliche Kommunikation zwischen Mensch und Maschine. Die Dialoge können sowohl sprachals auch textbasiert erfolgen (Speech-to-Speech, Speech-to-Text, Text-to-Text, Text-to-Speech) und fördern dadurch aufgrund der erhöhten Flexibilität die Benutzerfreundlichkeit. Je nach Arbeitsumgebung kann die bevorzugte Kommunikationsform gewählt werden, was eine effiziente Interaktion selbst in Großraumbüros gewährleistet. Maschinelles Lernen und Datenanalyse Die zukünftigen Produkte, welche aus dem Forschungsprojekt hervorgehen werden, sind darauf ausgelegt, maschinelles Lernen und fortschrittliche Datenanalysetechniken anzuwenden, um Muster und Zusammenhänge in komplexen Datenmengen zu identifizieren. Auf diese Weise werden wertvolle Erkenntnisse geliefert, die Entscheidungsprozesse unterstützen und Arbeitsabläufe optimieren. Die Fähigkeit, aus den analysierten Daten zu lernen und sich kontinuierlich weiterzuentwickeln, ist dabei von entscheidender Bedeutung. Emotionale Interaktion als relevanter Parameter Systeme können so gestaltet werden, dass sie emotionale Signale erkennen und verstehen, um die Interaktion mit dem Nutzenden durch verbesserte emotionale Intelligenz zu optimieren. Funktionen wie die Analyse von Gesichtsausdrücken, Sprachmustern oder anderen physiologischen Merkmalen werden integriert, um die Kommunikation flexibel an emotionale Zustände anzupassen und ermöglichen eine präzise Reaktion auf emotionale Ausdrucksformen, was die Qualität der Interaktion erheblich verbessern kann. Die Berücksichtigung solcher Informationen trägt dazu bei, eine sozial angemessene und effektive Mensch-Computer-Interaktion sicherzustellen. Das System ist vielseitig einsetzbar und sowohl für sprachbasierte als auch textbasierte Dialogsysteme geeignet, was die Grundlage für die genaue Identifizierung positiver Emotionen bildet. Da diese Methode nicht auf biometrischen Daten basiert, unterliegt sie nicht den Anforderungen des EU AI Acts. Die Herausforderung besteht darin, die Emotionserkennung so in die KI zu integrieren, dass direkte Berichte vermieden werden, die den regulatorischen Anforderungen widersprechen. Ein Anwendungsfall ist beispielweise die Entwicklung einer Coaching-Persönlichkeit des Systems, die für die tägliche Arbeit im Büro konzipiert wurde und sich auf <?page no="352"?> 352 Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller die Förderung emotionaler Akzeptanz und Interaktion konzentriert. Bei der Nutzung dieser Persönlichkeit steht die Erkennung und Interpretation von Stimme und Gesichtsausdrücken mit Bezug auf positive Emotionen wie Freude, welche als Anhaltspunkt für Motivation und Zufriedenheit dient. Erste Studien zeigen, dass ein emotional orientiertes robotisches System die Motivation und damit auch die Produktivität am Arbeitsplatz steigern kann (vgl. Braun et al. 2023). Im Customer Experience Tracking Labor der Hochschule Offenburg wurden bereits erste Anforderungen getestet und deren Akzeptanzgrad bewertet. Diese Studien liefern wertvolle Kontextdaten für die Weiterentwicklung der Systeme. Forschung zur Akzeptanz und Datenanalyse Um das Verständnis der Akzeptanz von KI-unterstützten robotischen Systemen bei Mitarbeitenden zu verbessern, wurden Daten gesammelt, die potenzielle Barrieren und Anreize aufzeigen, die für die erfolgreiche Implementierung solcher Technologien entscheidend sind. Erste Akzeptanzkriterien lieferten im Rahmen von Tests im Customer Experience Labor Daten zu Sprach- und Gesichtsausdrücken. Zu Beginn jeder Mensch-Computer-Interaktion ist es unerlässlich, dass ein Roboter oder robotisches System in der Lage ist, die Aufmerksamkeit der Nutzerinnen und Nutzer aufrechtzuerhalten. Dies ist eine entscheidende Fähigkeit für den Aufbau einer erfolgreichen Benutzererfahrung. Eine Forschungsgruppe der Osaka-Universität führte ein umfangreiches Feldexperiment in einer traditionellen Einkaufsstraße in Kyoto durch. In diesem Experiment wurde der Roboter „Pepper“ als Verkaufsassistent eingesetzt (vgl. Iwasaki et al. 2019). Ein zentrales Ergebnis des Experiments ist, dass der erste Eindruck für den weiteren Verlauf der Interaktion von großer Bedeutung ist. Dies ist analog zu Interaktionen zwischen zwei Menschen. Daneben zeigte eine Studie von Kelly (1950), dass Personen, die einen positiven ersten Eindruck von einer anderen Person haben, auch dazu neigen, häufiger mit dieser Person zu interagieren. Ebenso ist es entscheidend, dass ein robotisches System während der Interaktion das Verständnis menschlichen Verhaltens verifizieren und seine Fähigkeit zur effektiven Reaktion demonstrieren kann (vgl. Iwasaki et al. 2019). Andras et al. (2018) und Fossa (2019) heben zudem die Bedeutung hervor, zu Beginn jeder Mensch-Computer-Interaktion erste Erklärungen bereitzustellen. Sobald das robotische System die Aufmerksamkeit der jeweiligen Nutzerinnen und Nutzer gewonnen hat, sollte es grundlegende Informationen wie seine Rolle und seinen Zweck vermitteln. Dazu gehört auch die Offenlegung der Fähigkeiten und Grenzen des Roboters, um eine gemeinsame Verständnisgrundlage zu gewährleisten. Sowohl Nutzende als auch Roboter sind dann in der Lage, sich auf eine nachfolgende Interaktion einzustellen (vgl. Papagni und Koeszegi 2022). Einige Studien weisen darauf hin, dass speziell auf unerfahrene Nutzerinnen und Nutzer zugeschnittene Formulierungen und Erklärungen wahrgenommene Unsicherheiten verringern und die Verständlichkeit eines robotischen Systems erhöhen können. Folglich steigen die Vertrauenswürdigkeit und die Akzeptanz beim Nutzer (vgl. Papagni und Koeszegi 2022). Zur Veranschaulichung lieferte der humanoide Roboter MERA von IBM dem Nutzer eine Erklärung, warum er eine Pause empfohlen hatte. MERA begründete seine Handlung mit Faktoren wie einem ungewöhnlich erhöhten Puls oder schwerer Atmung. Forschende der Mensch-Computer-Interaktion setzen in diesem Bereich bisher überwiegend multimodale Ansätze zur Erklärung ein, bei denen sprachliche und <?page no="353"?> 3.7 KI-basierte Robotiksysteme im Büro 353 visuelle Elemente effektiv integriert wurden. Eine wachsende Zahl von Studien zeigt, dass User zusätzlichen Nutzen aus multimodalen Erklärungen ziehen (vgl. Papagni und Koeszegi 2022; Kanehira et al. 2019). Zahlreiche Forschende stellten den Einfluss des Verhaltens des Systems auf die Akzeptanz und das Vertrauen der Nutzenden fest. Dies gilt insbesondere dann, wenn unerwartete Roboteraktionen als Fehler identifiziert werden (vgl. Papagni und Koeszegi 2022). ALMERE-Modell für soziale Akzeptanz Traditionelle Modelle der Technologieakzeptanz berücksichtigen keine Faktoren sozialer Interaktion. Heerink et al. (2010) von der Universität Amsterdam entwickelten das ALMERE-Modell, das soziale Bewertungsfaktoren der Technologieakzeptanz einbezieht. Das ALMERE-Modell wurde mit dem Ziel entwickelt, die Akzeptanz älterer Nutzer in der Interaktion mit einem unterstützenden sozialen Agenten zu verstehen. Dennoch ist das Modell auch auf andere Kontexte sozialer Interaktion, wie z. B. eine Büroumgebung, anwendbar. Um die Nutzerakzeptanz der Technologie zu bewerten, wurden Komponenten des ALMERE-Modells in die empirische Untersuchung integriert; die in Abb. 82 als durchgestrichen markierten Komponenten wurden dabei nicht berücksichtigt. Abb. 82: Bestandteile des ALMERE-Modells (Quelle: Angepasste Darstellung in Anlehnung an Heerink et al. 2010) <?page no="354"?> 354 Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller Visualisierung von KI-Assistenten Zur Visualisierung des KI-Assistenten werden verschiedene virtuelle Avatare entworfen und getestet, darunter sowohl menschliche als auch abstrakte Darstellungen. Diese dienen als visuelle Repräsentationen der einzelnen robotischen Persönlichkeiten, die für das Forschungsprojekt definiert wurden. Ziel solcher Avatare ist es, das Nutzererlebnis zu individualisieren und den unterschiedlichen Präferenzen der Nutzenden gerecht zu werden. Im Rahmen des Forschungsprojektes RoBuddy ist eine wichtige Fragestellung, inwieweit diese Avatare aus Sicht der Nutzenden personalisiert werden sollen und welche Parameter sich hierfür am besten eignen. Die Entwicklung digitaler Avatare für RoBuddy spielt eine entscheidende Rolle bei der Reduzierung möglicher Zweifel des Menschen bei der Nutzung von KI im Büroalltag. Sie können möglicherweise eine intuitive Interaktion fördern sowie emotionale Bindung aufbauen. Die Funktionen des KI-Assistenten sollen im Rahmen der Untersuchung auf ansprechende und zugängliche Weise visuell dargestellt werden, während sie gleichzeitig an die Präferenzen der Nutzenden und spezifische Anforderungen im Büro angepasst werden können. Das Avatar-Design folgt den Prinzipien der Schlichtheit, Modularität und Personalisierung. Inspiriert von abstrakten Formen wie HAL (fiktiver Computer aus dem Film „Odyssee im Weltraum“, 2001) in „Odyssee im Weltraum“ sowie stärker charakterorientierten animierten Persönlichkeiten streben die Avatare eine Balance zwischen Professionalität und Wärme an. Durch die Integration anpassbarer Merkmale, wie Persönlichkeitsarchetypen (z. B. Assistent, Coach oder Berater), können Nutzende den Assistenten nach ihren individuellen Bedürfnissen gestalten. Konzeptionelles Design Frühe Iterationen konzentrieren sich auf abstrakte visuelle Darstellungen mit geometrischen Formen und minimalistischen Designs, um eine universelle Ästhetik zu erkunden. Erste Entwürfe werden auf Nutzerreaktionen getestet, um die emotionale Resonanz und professionelle Kompatibilität zu bewerten. 3-D-Modellierung und Animation Aufbauend auf den anfänglichen Konzepten werden 3-D-Modelle erstellt, die dynamische visuelle Elemente integrieren - beispielsweise Augenbewegungen oder Farbänderungen, um RoBuddy's aktiven Status anzuzeigen. Diese Avatare bewegen sich subtil als Reaktion auf Nutzerinteraktionen und imitieren natürliche Gesprächssignale. Persönlichkeitsintegration Die Entwicklung beinhaltet ein Framework zur Anpassung der Persönlichkeitsmerkmale mithilfe von Schiebereglern, basierend auf psychologischen Modellen wie den Big Five oder der Limbic Map. Dies ermöglicht es den Nutzern, Eigenschaften wie Kreativität, Disziplin oder Abenteuerlust fein abzustimmen, sodass das Verhalten ihren Erwartungen entspricht. Nutzerfeedback und Iteration Prototypen der Avatare werden getestet, um deren Benutzerfreundlichkeit und emotionale Ansprache zu bewerten. Das Feedback aus diesen Tests wird genutzt, um Designelemente zu verfeinern und eine nahtlose Kombination aus ästhetischen und funktionalen Qualitäten sicherzustellen. <?page no="355"?> 3.7 KI-basierte Robotiksysteme im Büro 355 Funktionalität und Interaktion Die Avatare sind nicht nur statische visuelle Hilfsmittel, sondern dynamische Repräsentationen der Fähigkeiten des KI-Assistenten. Durch interaktive Elemente wie animierte Gesichtsausdrücke oder Formveränderungen geben sie den Nutzern Rückmeldung zum Systemstatus (z. B. aktives Zuhören oder Datenverarbeitung). Diese Integration stellt sicher, dass der Avatar sowohl als visuelle Schnittstelle als auch als kommunikativer Partner fungiert, um Nutzervertrauen und Interaktion zu verbessern. Die Entwicklung des Avatar-Designs erfolgt in mehreren Stufen:  Humanoider Roboter. Zunächst mit einem menschenähnlichen Erscheinungsbild versehen, um den Nutzerinnen und Nutzern den Einstieg in die KI-Interaktion zu erleichtern.  Abstraktion. Allmähliche Vereinfachung zu essenziellen Formen, die weiterhin menschliche Bezüge aufweisen, jedoch auf fortschrittliche technologische Fähigkeiten hinweisen.  Übergang zur „digitalen“ Sphäre. Diese Form repräsentiert die allseitige Wahrnehmungs- und Interaktionsfähigkeit der KI und betont ein dynamisches und reaktionsfähiges Interaktionsmodell.  „Equalizer“. Die abstrakteste Form, bei der sich der Avatar in Echtzeit an Umgebungs- und Nutzereingaben anpasst. Diese Form symbolisiert die adaptiven analytischen Fähigkeiten der KI. Abb. 83: Verschiedene Entwicklungsstufen der Avatar-Designs (Quelle: Eigene Darstellung) Die Weiterentwicklung des KI-Assistenten strebt folgende Rahmenbedingungen an:  Integration fortschrittlicher KI-gesteuerter Ausdrucksmöglichkeiten, um tiefere emotionale Verbindungen zu ermöglichen.  Sicherstellung der plattformübergreifenden Kompatibilität, um konsistente Nutzererlebnisse zu gewährleisten.  Verbesserung der Barrierefreiheit, um einer vielfältigen Nutzerbasis gerecht zu werden. Diese Verbesserungen sollen die Mensch-KI-Interaktion neu definieren, mit einem Fokus auf Individualisierung, emotionaler Resonanz und intuitiver Benutzerfreundlichkeit. <?page no="356"?> 356 Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller 3.7.4 Durchführung und Ergebnisse der Befragung zum Einsatz von KI im Büroumfeld Darstellung und Evaluation der quantitativen Befragung Im Rahmen der Online-Befragung wurden 42 Fragebögen vollständig ausgefüllt. Drei der 24 unvollständigen Antworten (wegen frühzeitigem Abbruch) wurden in die Auswertung miteinbezogen, da bei diesen eine Kontinuität in der Beantwortung der Fragen deutlich zu erkennen war. Insgesamt wurden diese 42 vollständigen Antworten und drei unvollständigen Antworten zusammengeführt. Zusammenfassend besteht die Stichprobe für die quantitative Online-Befragung somit aus 45 Teilnehmenden (n=45). Zentrale Erkenntnisse und finale Empfehlungen für einen idealen Roboter im Büroumfeld Neben den wesentlichen Erkenntnissen der Befragung, die die Nutzung und Akzeptanz von KI im Büroumfeld im Fokus haben, konnten auch demografische und berufliche Merkmale der Teilnehmenden (TEIL D) untersucht werden:  Alter. Die Mehrzahl der Umfrage-Teilnehmenden (29 | 64%) sind in einem Alter zwischen 18 und 35 Jahren. Weitere 18% (8) befinden sich in einem Alter zwischen 36 und 55 Jahren. Vier Teilnehmende (9%) sind zwischen 56 und 67 Jahren.  Geschlecht. Eine gleich hohe Anzahl der Teilnehmenden ist weiblich (20 | 44%) oder männlich (20 | 44%). Fünf Teilnehmende machten keine Angabe. Eine gleich hohe Anzahl der Teilnehmenden ist in Schule/ Ausbildung/ Studium (19 | 42%) oder angestellt/ verbeamtet (19 | 42%). Zwei Teilnehmende sind selbständig (2 | 4%). Die Umfrage-Teilnehmenden sind überwiegend in den Branchen „IT und Software“ (8 | 18%) oder „Medien- und Verlagsbranche“ (6 | 13%) tätig. Ein Großteil machte keine Angabe hierzu. Etwa ein Drittel der Teilnehmenden sind in mittelständischen Unternehmen (51-250 Mitarbeitende) beschäftigt (13 | 28%), des Weiteren zehn Teilnehmende (22%) in Unternehmen mit mehr als 1.001 Mitarbeitenden. Ein Großteil machte keine Angabe hierzu.  Homeoffice-Anteil. Fast die Hälfte der Teilnehmenden (20 | 44%) arbeitet weniger als 30% im Homeoffice. Weitere zehn Personen (22%) arbeiten zu 30-49% im Homeoffice. Vier Personen arbeiten mehr als 50% von zuhause aus; zwei Personen (4%) arbeiten vollständig im Homeoffice. Die nachfolgenden Ergebnisse und daraus resultierenden Empfehlungen konzentrieren sich zunächst auf die idealen Fähigkeiten eines Roboters im Büroumfeld. Auf Grundlage der Umfrage-Ergebnisse wird außerdem darauf eingegangen, welche Fähigkeiten ein KI-Assistent idealerweise nicht aufweisen sollte. Sicherheit und Vertrauen Da die KI aus Sicht der Teilnehmenden nicht als besonders sicher und vertrauenswürdig empfunden wird, sind neue Ansätze zur Schaffung von ausgeprägtem Vertrauen und Sicherheit besonders wichtig. Dahingehend kann die Fähigkeit des humanoiden Roboters MERA von IBM, vorgestellte Empfehlungen und Entscheidungen dem Nutzenden transparent darzulegen, als Beispiel genommen werden. Außerdem besteht die Annahme eines Zusammenhangs zwischen der Transparenz <?page no="357"?> 3.7 KI-basierte Robotiksysteme im Büro 357 und Nachvollziehbarkeit von Analyseprozessen und Datenverarbeitungen mit dem Vertrauen der Nutzenden. Ein entsprechender Zusammenhang wurde in Studien von mehreren Wissenschaftlerinnen und Wissenschaftlern erkannt. Demnach kann eine erhöhte Transparenz das Vertrauen des Nutzenden gegenüber des KI-Assistenten positiv beeinflussen (vgl. Papagni und Koeszegi 2022). Potenzielle KI-Fähigkeiten Das höchste Anwendungspotenzial der KI wurde in der Übernahme der Protokollführung in Besprechungen sowie in der Unterstützung für Präsentationen geäußert. Ein besonderer Fokus liegt auf der Erstellung von Präsentationen, da die Teilnehmenden äußerten, dass sie ein hohes Einsatzpotenzial darin sehen (Q6), es jedoch aktuell im Büroalltag kaum zur Nutzung kommt (Q3). Außerdem wird die Fähigkeit zur Datenanalyse besonders in Betracht gezogen, da eine hohe Anzahl der Teilnehmenden KI mit Datenanalyse verbinden (Q1). Grundsätzlich ist davon auszugehen, dass die Fähigkeit der KI, Daten zu analysieren, in gewissem Maße erwartet und damit als Standardfunktion oder Voraussetzung gesehen, jedoch aktuell im Büroalltag kaum genutzt wird (Q3). Ein erhöhtes Anwendungspotenzial wurde zudem in der Fähigkeit der KI, automatische Hinweise zur Lösung von Aufgaben zu geben, geäußert (Q6). Des Weiteren wurden die als besonders stark in der Nutzung im Büro erwiesenen Funktionen wie Biometrische Identitätserkennung oder Textgenerierung aufgeführt, die entsprechend in der Entwicklung eines Robotiksystems in diesem Kontext berücksichtigt werden sollten. Emotionaler KI-Assistent Die emotionale Dynamik zwischen dem Nutzenden und der KI sowie die Wahrnehmung von KI als eine Persönlichkeit kann anhand des Emotions- und Werteraums der Limbic Map (vgl. Häusel 2011) für ein besseres Verständnis eingeordnet und visualisiert werden. In der Limbic Map vorkommende Begrifflichkeiten „Leichtigkeit“ und „Macht“ sind repräsentativ für die in (Q5) aufgeführten Begrifflichkeiten „leicht bedienbar“ und „einflussreich“. Des Weiteren sind folgende Inhalte der Limbic Map repräsentativ für einige in (Q4) aufgeführten Inhalte:  „Ich kann durch den Einsatz von KI Kosten einsparen“ (Q4) - (Kosten) Effizienz (Limbic)  „Ich fühle mich durch KI bei meiner Arbeit produktiver“ (Q4) - Leistung (Limbic)  „Ich finde KI für meinen Alltag hilfreich“ (Q4) - Funktionalität (Limbic)  „Ich nutze KI zur Problemlösung“ (Q4) - Funktionalität (Limbic)  „Ich nutze KI zur Inspiration“ (Q4) - Fantasie (Limbic)  „Ich habe Freude an der Nutzung von KI im Büroalltag“ (Q4) - Spaß (Limbic) Abb. 84 zeigt einen Ansatz, um die Bewertungen der Umfrage-Teilnehmenden aus (Q4) und (Q5) in der Limbic Map inhaltlich und visuell wiederzugeben. <?page no="358"?> 358 Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller Abb. 84: Visualisierung der Umfrage-Ergebnisse aus Q4 und Q5 anhand der Limbic Map (Quelle: Eigene Darstellung in Anlehnung an Häusel 2011; blaue Umgrenzungen sind Inhalte aus (Q4); schwarze Umgrenzungen sind Inhalte aus (Q5)) KI wird laut den Umfrage-Ergebnissen in beachtlich geringem Ausmaß als „sicher“ (Q5) eingestuft. Außerdem wurden die durch KI generierten Ergebnisse in geringem Ausmaß als vertrauenswürdig (Q4) bewertet. In Verbindung der Umfrage-Ergebnisse mit der Limbic Map wird KI damit tendenziell weniger dem Balance-System, welches für Stabilität und Sicherheit steht, zugeordnet. Stattdessen herrscht ein starkes Spannungsverhältnis zwischen den als stimulanzlastig empfundenen Eigenschaften von KI und den als dominanzlastig empfundenen Eigenschaften. Die Umfrage-Teilnehmenden schätzen die Persönlichkeit der KI überwiegend als kreativ, offen und fantasievoll ein. In der emotionalen Dynamik zwischen dem Nutzenden und KI empfinden die Umfrage-Teilnehmenden die KI außerdem leicht in der Nutzung („leicht bedienbar“ bzw. benutzerfreundlich) und haben in erhöhtem Ausmaß Freude (Limbic-Spaß) an der Interaktion. Würden einer KI menschliche Eigenschaften zugeschrieben, die kulturelle Geschlechterstereotype widerspiegeln, lässt sich anhand der farblichen Hervorhebung erkennen, dass die Teilnehmenden der Umfrage die KI tendenziell als „weiblich“ wahrnehmen. Die KI wird überdies als „einflussreich“ (Q5) (Limbic-Macht) wahrgenommen. Folglich wird der KI eine hohe Macht zugeschrieben. Diese Eigenschaft ist dem Dominanz-System der Limbic Map zuzuordnen. In der emotionalen Dynamik zwischen dem Nutzenden und KI wird es als erhöht leistungssteigernd (Q4 - Produktivitätssteigerung) und äußerst unterstützend in der Problemlösung (Limbic-Funktionalität) wahrgenommen. Es wird jedoch in vergleichsweisem geringem Ausmaß als „präzise“ (Q5) bewertet. <?page no="359"?> 3.7 KI-basierte Robotiksysteme im Büro 359 In Anbetracht der emotionalen Dynamik ist die Nutzung von KI im Büroumfeld als moderne Technologie wesentlich mit einem Stolz-Empfinden verbunden. Die beschriebenen Eigenschaften sind zunehmend dem Dominanz-System der Limbic Map zuzuordnen. Der KI werden in starkem Ausmaß „weibliche Eigenschaften“ (Limbic Map Einordnung) wie „offen“ oder „kreativ“ (Q5) zugeschrieben. Dies spiegelt lediglich die allgemeine Wahrnehmung von KI aus Sicht der Nutzenden wider. Die Teilnehmenden äußerten sich in (Q5) jedoch zusätzlich positiv dazu, KI in hohem Ausmaß als Inspiration zu nutzen. Es ist folglich empfehlenswert, einen Schwerpunkt auf diese weiblichen Charaktereigenschaften für die Persönlichkeitsentwicklung des Robotiksystems zu legen. Zu vermeidende Fähigkeiten Jene Fähigkeiten, die der Roboter bevorzugt nicht besitzen sollte, sind unter anderem Fähigkeiten, die in die organisatorische Planung eingreifen würden. Laut den Umfrage-Ergebnissen organisieren die Teilnehmenden ihren Büroalltag bevorzugt selbst, wie das Abstimmen von Meeting-Terminen (Q6), und sehen kein hohes Potenzial darin, eine derartige Aufgabe von der KI ausführen zu lassen. Im Kontext einer Alltagsplanung wird auch kaum oder ein geringes Potenzial im Sinne von Rückmeldungen zur Kapazitätsauslastung (Q6) gesehen. Folglich ist es empfehlenswert, organisations- oder planungsorientierte Fähigkeiten der KI, bezogen auf den individuellen Büroalltag des Nutzenden, in der Entwicklung des Robotiksystems zu vermeiden oder nachrangig zu behandeln. Die Ergebnisse deuten darauf hin, dass die Nutzenden diese Art von Aufgaben bevorzugt selbst übernehmen. Dies wird durch die Ergebnisse in (Q10) bestärkt, in denen die Teilnehmenden einen „digitalen Projektmanager“ als eher weniger geeignet empfinden. Die Integration einer emotional intelligenten Robotik-Fähigkeit als „Coach für Persönlichkeitsentwicklung“ durch das Aufzeigen von z. B. Stärken und Schwächen (Q7), oder als „Unterhaltungskünstler“ zum Unterhalten (Q7) des Nutzenden, wird basierend auf den Umfrage-Ergebnissen nicht empfohlen. Physische und digitale Gestaltung Für die physische Erscheinungsform werden die Proportionen eines Smartphones an erster Stelle empfohlen (Q9). Dies ermöglicht die Nutzung des Assistenten sowohl am Schreibtisch als auch unterwegs. Diese physische Form in Verbindung mit einer App-Anwendung (Q10) als digitale Ausführung empfiehlt sich als vorrangige Gestaltungsform. Da die Umfrage-Teilnehmenden in hoher Anzahl angaben, Smartphones als Ausstattung für den Arbeitsplatz zu nutzen (Q20), empfiehlt es sich, diese bereits bestehenden Endgeräte für eine technische Umsetzung des Systems zu nutzen. Als eine weitere technische Umsetzungsmöglichkeit wird eine Software in der Cloud (Q10) in Verbindung mit Arbeits-Laptops bzw. dem Arbeits-PC bevorzugt. Der Grund hierfür ist, dass diese Endgeräte in sehr hoher Anzahl im Büro zum Einsatz kommen (Q10) und die Teilnehmenden eine Software in der Cloud als besonders passend für den Büroalltag empfinden (Q10). Eine integrierte KI-Anwendung, die sowohl auf dem Laptop als auch auf dem Smartphone in Anspruch genommen werden kann, gilt seitens der Umfrageteilnehmerinnen und -teilnehmer als geeignet. <?page no="360"?> 360 Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller Abb. 85 präsentiert eine abschließende Empfehlung für die Entwicklung eines Büro- Roboters unter Berücksichtigung zentraler Fähigkeiten. In Klammern sind die empirischen Fundierungen zu jeder genannten Fähigkeit aufgeführt, die in der Evaluation der Umfrage vertiefend erläutert wurden. Abb. 85: Fähigkeitsprofil eines idealen Büro-Roboters (Quelle: Eigene Darstellung) 3.7.5 Handlungsempfehlungen und Ausblick Die zunehmende Rolle von KI am modernen Arbeitsplatz hat die Erforschung innovativer Lösungen vorangetrieben, da Technologien weiterhin die Zukunft der Arbeit gestalten. Durch die Berücksichtigung sowohl funktionaler als auch emotionaler Aspekte der KI trägt das Forschungsprojekt zum fortlaufenden Dialog darüber bei, wie KI-Assistenten Büroarbeitsabläufe unterstützen und verbessern können, während gleichzeitig die Nutzerzufriedenheit berücksichtigt wird.  Relevanz und Auswirkungen. Die Relevanz der empirischen Studie wird durch die zunehmende Integration von KI-Technologien in modernen Büroumgebungen unterstrichen. Das Projekt zeigt auf, wie KI Arbeitsabläufe transformieren, die Effizienz steigern und sich an das sich entwickelnde regulatorische Umfeld - wie die EU KI-Verordnung (EU AI Act) - anpassen kann. Dies stellt sicher, dass Innovationen mit ethischen Richtlinien und rechtlichen Rahmenbedingungen im Einklang stehen, wodurch das Vertrauen bei Nutzern und Interessengruppen in KI gestärkt wird. <?page no="361"?> 3.7 KI-basierte Robotiksysteme im Büro 361  Beiträge zur KI in Büroumgebungen. Die bisherigen Untersuchungen lieferten wertvolle Einblicke in die potenziellen Anwendungen von KI in der öffentlichen Verwaltung und im Büroumfeld. Es wurde unter anderem die Erforschung von Emotionen mit Bezug auf KI adressiert, die Aufschluss auf die Nutzerinteraktion und -zufriedenheit geben, und zeigt die Notwendigkeit empathischer und adaptiver Systeme. Die Identifikation von Funktionen, die auf spezifische Büroanforderungen zugeschnitten sind, etwa digitale Assistenten und Tools zur Workflow- Optimierung, verdeutlichen den praktischen Nutzen und die Relevanz der Weiterentwicklung von KI-Assistenten.  Methodologische Stärken. Die durchgeführten Studien kombinieren verschiedene Methoden wie Fragebögen, Experteninterviews, Benutzererfahrungstests sowie eine schrittweise Designentwicklung. Diese Herangehensweise validiert nicht nur das theoretische Fundament des Projekts, sondern erhöht auch dessen praktische Anwendbarkeit, da Endnutzer in die Design- und Evaluierungsphasen einbezogen werden.  Herausforderungen und Einschränkungen. Unterschiedliche Akzeptanzfaktoren der Nutzer gegenüber KI sowie ethische Fragestellungen im Zusammenhang mit Technologien zur Emotionserkennung sind Bereiche, die einer gründlichen Betrachtung bedürfen und wesentliche Herausforderungen darstellen. Darüber hinaus ist die Anpassung von KI-Systemen an die sich wandelnden Anforderungen der EU KI-Verordnung bedeutend, was eine kontinuierliche Forschung und Entwicklung erfordert. Literatur Brynjolfsson, E., & McAfee, A. (2017). Machine, Platform, Crowd: Harnessing Our Digital Future. Norton & Company. Braun, M., Fröschle, N., Braun, S., Eberhardt, A.-K., Pohl, V., Fronemann, N., Janssen, D., Blank, D., Wimmer, J., & Preissner, M. (2023). Einfluss der künstlichen Intelligenz auf Arbeitstätigkeiten und Berufsbilder: Kurzstudie für das Handelsblatt. Fraunhofer-Institut für Arbeitswirtschaft und Organisation. Fraunhofer-Institut für Arbeitswirtschaft und Organisation, IAO. Bundesministerium für Arbeit und Soziales (2023). Langfristprojektion des Fachkräftebedarfs in Deutschland 2021 - 2040; Szenario „Fortschrittliche Arbeitswelt“ (Annahmensetzung nach dem Koalitionsvertrag von 2021). Forschungsbericht, 617. Council of the European Union (2024). EU AI Act [engl.]. Official Journal of the European Union. European Union (2016). Official Journal of the European Union . Regulation (EU) 2016/ 679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/ 46/ EC (General Data Protection Regulation). Giorgini, V., Mecca J.T., Gibson, C., Medeiros. K., Mumford, M.D., Connelly, S., & Devenport, L.D. (2015). Researcher Perceptions of Ethical Guidelines and Codes of Conduct. Accountability in Research, 22(3), 123-138. Häusel, H.-G. (2011). Die wissenschaftliche Fundierung des Limbic® Ansatzes . Gruppe Nymphenburg. München. <?page no="362"?> 362 Christina Miclau, Nergis Turhan, Linda Kunath-Ünver und Andrea Müller Heerink, M., Krose, B.J.A., Evers, V., & Wielinga, B.J. (2010). Assessing Acceptance of Assistive Social Agent Technology by Older Adults: the Almere Model. International Journal of Social Robotics, 2, 361-375. Heine M., Dhungel A.-K., Schrills T., Wessel D. (2023). Künstliche Intelligenz in öffentlichen Verwaltungen: Grundlagen, Chancen, Herausforderungen und Einsatzszenarien. Springer Gabler. Iwasaki, M., Zhou, J., Ikeda, M., Koike, Y., Onishi, Y., Kawamura, T., & Nakanishi, H. (2019). That Robot Stared Back at Me! : Demonstrating Perceptual Ability Is Key to Successful Human-Robot Interactions. Frontiers in Robotics and AI, 6, 85. Korobenko, D., Nikiforova, A., & Rajesh, S. (2024). Towards a Privacy and Security- Aware Framework for Ethical AI: Guiding the Development and Assessment of AI Systems. Proceedings of the 25th Annual International Conference on Digital Government Research. https: / / doi.org/ 10.48550/ arXiv.2403.08624. Zugegriffen am 27. Februar 2025 Lavit Nicora, M., Porfirio, M., Nijdam, N.A., Truong, K. P., & Heylen, D.K.J. (2023). Towards social embodied cobots: The integration of an industrial cobot with a social virtual agent. https: / / doi.org/ 10.48550/ arXiv.2301.06471. Zugegriffen am 27. Februar 2025 Luger, E., & Sellen, A. (2016). Like Having a Really Bad PA: The Gulf Between User Expectation and Experience of Conversational Agents. Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems, 16, 5286-5297. Papagni, G., & Koeszegi, S. (2022). Challenges and solutions for trustworthy explainable robots. Trust in Robots. TU Wien Academic Press. Pennathur, P.R., Boksa, V., Pennathur, A., Kusiak, A., & Livingston, B.A. (2024). The future of office and administrative support occupations in the era of artificial intelligence: A state of the art review and future research directions. International Journal of Industrial Ergonomics , 104, 103665. Sauer, S. (2022). Fachkräftemangel steigt auf Allzeithoch. https: / / www.ifo.de/ pressemitteilung/ 2022-08-02/ fachkraeftemangel-steigt-auf-allzeithoch. Zugegriffen am 20. Dezember 2024 Sauer, S. (2023). Mangel an Fachkräften hat leicht zugenommen. https: / / www.ifo.de/ fakten/ 2023-08-16/ mangel-fachkraeften-hat-leicht-zugenommen. Zugegriffen am 20. Dezember 2024 Staatssekretariat für Wirtschaft (SECO) (2020). Herausforderungen der künstlichen Intelligenz. Staatssekretariat für Wirtschaft SECO. https: / / www.kmu.admin.ch/ dam/ kmu/ de/ dokumente/ FaktenundTrends/ herausforderungen-der-kuenstlichen-intelligenz.pdf. Zugegriffen am 27. Februar 2025 Tzafestas, S.G. (2016). Roboethics - A Navigating Overview . Springer International Publishing Switzerland. Verordnung (EU) 2024/ 1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/ 2008, (EU) Nr. 167/ 2013, (EU) Nr. 168/ 2013, (EU) 2018/ 858, (EU) 2018/ 1139 und (EU) 2019/ 2144 sowie der Richtlinien 2014/ 90/ EU, (EU) 2016/ 797 und (EU) 2020/ 1828 (Verordnung über künstliche Intelligenz). <?page no="363"?> 3.8 KI-Chatbots im B2B: Analyse eines Chatbot- Rollouts auf einer Unternehmenswebseite Simona Lossau und Simone Braun Zusammenfassung Die zunehmende Integration Künstlicher Intelligenz (KI) im Marketing eröffnet neue Potenziale für die Kundenkommunikation - auch im Business-to-Business (B2B)- Kontext. Der vorliegende Beitrag beleuchtet im Rahmen einer Case Study die Einführung eines KI-Chatbots auf der Webseite eines B2B-IT-Unternehmens und untersucht dessen Einfluss auf das Nutzungsverhalten der Webseitenbesuchenden. Der gewählte Mixed-Methods-Ansatz kombiniert quantitative Webanalysedaten mit einer qualitativen Inhaltsanalyse der Chatverläufe. Entgegen den ursprünglichen Erwartungen ließ sich kein Effizienzgewinn nachweisen. Vielmehr führten Chatbot- Nutzungen zu längeren Sitzungen und mehr Seitenaufrufen, begleitet von einer zunächst hohen Fehlerquote. Im Zeitverlauf zeigten sich jedoch positive Entwicklungen: Die technische Stabilität nahm zu, die Fehlerquote sank und die Anfragen wurden zielgerichteter. Besonders auffällig war der Anstieg karrierebezogener Anfragen, der eine zunehmende Nutzung durch jüngere Zielgruppen indiziert und potenzielle Chancen für das Employer Branding eröffnet. Die Studie liefert empirische Erkenntnisse zu realen Interaktionsmustern im bislang wenig beleuchteten B2B-Kontext und verdeutlicht, dass der erfolgreiche Einsatz von KI-Chatbots im B2B-Bereich weit über die technische Implementierung hinausgeht und begleitende strategische Kommunikations-, Positionierungs- und Qualitätsmaßnahmen erfordert. 3.8.1 Einleitung Die fortschreitende Digitalisierung und die rasante Entwicklung der künstlichen Intelligenz (KI) haben weltweit zu erheblichen Veränderungen geführt - auch im Marketing. Besonders in der Kommunikation erfordert der digitale Wandel den gezielten und effizienten Einsatz neuer Technologien, wie etwa KI-gestützte Chatbots. Diese bieten eine innovative Möglichkeit, das Nutzungserlebnis auf Webseiten zu verbessern und eine direkte, personalisierte Kommunikation zu ermöglichen (vgl. Mentrup und Schulz 2024). Sie schaffen eine neue Art der Interaktion mit Kundinnen und Kunden, von der sich Unternehmen eine Optimierung der Kundenreise und eine Arbeitsentlastung erhoffen (vgl. Adamopoulou und Moussiades 2020). Gleichzeitig tragen sie dazu bei, dem Trend zu schnellen und barrierefreien Nutzungserlebnissen zu entsprechen. Obwohl der Einsatz von KI-Technologien in der Kundenkommunikation vorwiegend im B2C-Bereich zu beobachten ist, gewinnt er auch im B2B-Sektor zunehmend an Bedeutung. Unternehmen sehen sich in einem dynamischen Marktumfeld einem stetigen Innovationsdruck ausgesetzt und müssen ein modernes, zukunftsorientiertes Image pflegen, was den Einsatz digitaler Marketingstrategien unerlässlich macht (vgl. Mentrup und Schulz 2024). Doch wie wirkt sich der Einsatz von KI-Chatbots im B2B-Bereich konkret aus? Wie beeinflussen sie das Nutzungsverhalten und die Akzeptanz bei den Nutzenden? Diese Fragen sind bislang nur unzureichend erforscht, insbesondere im Kontext des B2B-Sektors (vgl. Bruhn und Hadwich 2021; Abbas et al. 2023; Maga und Bodlaj 2025). <?page no="364"?> 364 Simona Lossau und Simone Braun Dieser Beitrag beleuchtet daher zunächst den aktuellen Stand des Einsatzes von KI- Chatbots im B2B-Bereich und liefert im Rahmen einer Case Study erste Erkenntnisse darüber, wie sich die Einführung eines KI-Chatbots auf das Nutzungsverhalten der Webseitenbesuchenden auswirkt. Besonders im Fokus stehen dabei Kennzahlen, wie die durchschnittliche Sitzungsdauer und die Anzahl der Seitenaufrufe der Webseitenbesuchenden. Durch den Einsatz von KI wird eine schnellere und effizientere Informationssuche vorausgesetzt, was im Ergebnis zu einer Reduktion dieser Kennzahlen führen sollte. Neben diesen quantitativen Erkenntnissen werden auch qualitative Ergebnisse präsentiert sowie konkrete Handlungsempfehlungen und Entwicklungsmöglichkeiten aufgezeigt. 3.8.2 Hintergrund Chatbots haben sich als integraler Bestandteil des modernen Kommunikationsökosystems etabliert und sind ein bedeutendes Element der fortschreitenden Digitalisierung. Ihr unternehmerischer Einsatz nimmt stetig zu, und es ist absehbar, dass sie zukünftig als Kommunikationsmittel unverzichtbar sein werden. KI verstärkt diesen Trend und fungiert als Katalysator für die Weiterentwicklung von Chatbots (vgl. Lehmann 2021). Ein KI-Chatbot kann dabei in unterschiedlichen Bereichen eingebunden und eingesetzt werden (vgl. Moradi und Dass 2022). Unternehmerische Bereiche, in welchen sie heute bereits Anwendungen finden, sind unter anderen das Marketing, der Vertrieb, der Kundenservice, das Recruiting oder interne Services. In der Regel stehen die KI-Chatbots auf den Webseiten oder in den Apps der Firmen für die Kundinnen und Kunden zur Verfügung (vgl. Kohne et al. 2020). Der größte Mehrwert im Einsatz von Chatbots wird Studien zufolge in der Steigerung der Effizienz, der Kundenzufriedenheit sowie im Kostensenkungspotenzial gesehen (vgl. Hundertmark 2020). Zusätzlich tragen Chatbots aber auch zur Entlastung bei und unterstützen bei der Bereitstellung von Informationen, der Navigation auf Webseiten sowie beim Durchlaufen von Prozessen. Weiterhin fungieren sie repräsentativ für das Unternehmen (vgl. Schloß et al. 2023). Für das Marketing und den Vertrieb stellen KI-Chatbots einen weiteren Touchpoint auf der Customer Journey dar, was die Markenwahrnehmung, Kundenbindung und -zufriedenheit stärken kann (vgl. Kreutzer 2023). Während im B2C-Bereich bereits viele Unternehmen auf KI-Chatbots als zusätzliches Kommunikationsmittel setzen, wird der Einsatz im B2B-Bereich allerdings noch zurückhaltend betrachtet. Mögliche Gründe dafür könnten insbesondere Datenschutzbedenken und ein Mangel an Persönlichkeit beim Einsatz von Chatbots in der Kundenkommunikation sein (vgl. Rainsberger 2021; Rapp et al. 2021; Hörmann und Schmid 2024). Bisher waren Kundinnen und Kunden eher mittelmäßig mit der Nutzung von Chatbots zufrieden, insbesondere aufgrund mangelhafter Spracherkennung und Antwortqualität, und haben daher Chatbots für eher einfache Anfragen genutzt (vgl. Burkhardt und Kumbartzki 2022). Wird die Informationsqualität positiv wahrgenommen, sind Kundinnen und Kunden durchaus bereit, einen Chatbot zu nutzen, insbesondere um direkt eine Antwort auf eine Frage zu erhalten, gleich welcher Uhrzeit, ohne auf eine menschliche Rückmeldung warten zu müssen (vgl. Behera et al. 2024; Abbas et al. 2023; Maga und Bodlaj 2025). Insgesamt ist das tatsächliche Nutzungsverhalten bei der Interaktion mit KI-Chatbots im Kontext von B2B-Webseiten bislang wenig erforscht (vgl. Bruhn und Had- <?page no="365"?> 3.8 KI-Chatbots im B2B: Analyse eines Chatbot-Rollouts auf einer Webseite 365 wich 2021) und bisherige Studien zielen überwiegend auf die Erhebung von Nutzungsintentionen durch direkte Befragungen ab (vgl. Behera et al. 2024; Abbas et al. 2023; Maga und Bodlaj 2025). 3.8.3 Case Study: Implementierung eines KI-Chatbots im B2B Das folgende Kapitel widmet sich der Einführung eines KI-Chatbots auf der Unternehmenswebseite eines B2B-IT-Unternehmens. Ziel dieser Case Study ist es, erste Erkenntnisse aus der Implementierung des KI-Chatbots zu gewinnen und zu untersuchen, wie sich diese auf das Nutzungsverhalten der Webseitenbesuchenden auswirkt. Im Fokus stehen dabei sowohl die Ergebnisse in der Anfangsphase der Chatbot-Nutzung als auch erste Beobachtungen ein Jahr nach der Einführung. Hintergrund: Zielsetzung und Erwartungen an den KI-Chatbot Die Case Study wurde in Zusammenarbeit mit der Advanced UniByte GmbH (AU) durchgeführt. Die AU ist eines der führenden IT-Systemhäuser Deutschlands mit Hauptsitz in Baden-Württemberg sowie vier weiteren Niederlassungen. Das Lösungsportfolio der AU erstreckt sich über die Bereiche Cloud- und Managed-Services, Sicherheits-, Speicher- und Virtualisierungslösungen und bietet ihrer Zielgruppe individuelle IT-Infrastrukturlösungen. Zur Zielgruppe zählen Kundinnen und Kunden des B2B-Bereiches aus der Wirtschaft, Forschung und Lehre sowie dem öffentlichen Sektor (vgl. Advanced UniByte GmbH [AU] 2024). Mit der Implementierung eines KI-Chatbots auf der Firmenwebseite verfolgt die Marketingabteilung der AU die Zielsetzung, die User Experience zu optimieren und eine neue Art der Kundenkommunikation auf der Webseite zu ermöglichen. Zusätzlich strebt die AU als führendes IT-Unternehmen danach, KI-gestützte Instrumente in allen möglichen Bereichen zu implementieren, um Effizienz und Innovation zu fördern. Die Entscheidung für die Einführung des KI-Chatbots auf der Webseite lässt sich dabei aus drei maßgeblichen Gründen ableiten:  Das Ersetzen der fehlenden Suchfunktion durch eine Interaktionsplattform in Form eines Chats.  Das Schaffen einer Navigationshilfe für die Webseitenbesuchenden, um Informationen effizient und schnell zur Verfügung zu stellen.  Die Vermittlung eines modernen und fortschrittlichen Images bei den Webseitenbesuchenden. Vor diesem Hintergrund lag der Fokus auf der Analyse des Nutzungsverhaltens der Webseitenbesuchenden durch die Implementierung eines KI-Chatbots. Basierend auf der Annahme, dass der Chatbot die Informationssuche der Nutzenden effizienter gestaltet, wurde die Hypothese aufgestellt, dass dessen Einsatz zu einer Verkürzung der durchschnittlichen Sitzungsdauer führt. Durch die Schaffung einer Interaktionsplattform, welche in Form eines Chats Informationen liefert, entstand als zweite Annahme, dass durch den KI-Chatbot die Anzahl der Seitenaufrufe der Webseitenbesuchenden sinkt. Zusätzlich wurde angenommen, dass sich durch die Interaktion zwischen Webseitenbesuchenden und Chatbot ein Nutzungsbild und Interessensprofil ableiten lassen. Die Untersuchung dieser Hypothesen ist besonders relevant, da im deutschsprachigen B2B-Bereich bislang kaum Erkenntnisse über die Auswirkungen solcher Chatbot-Interaktionen auf das Nutzungsverhalten vorliegen (vgl. Bruhn und Hadwich 2021). <?page no="366"?> 366 Simona Lossau und Simone Braun Methodische Vorgehensweise Im Fokus der Case Study stand die Frage: „Welche ersten Erkenntnisse liefert ein KI- Chatbot auf der Webseite und wie wirkt sich die Implementierung auf das Nutzungsverhalten der Webseitenbesuchenden aus? “ Diese Fragestellung wurde entlang der folgenden Hypothesen untersucht:  Hypothese 1: Durch die Interaktion mit dem KI-Chatbot sinkt die durchschnittliche Sitzungsdauer.  Hypothese 2: Durch die Interaktion mit dem KI-Chatbot sinkt die durchschnittliche Anzahl der Seitenaufrufe. Die Untersuchung folgte dabei einem deduktiven Ansatz mit dem Fokus, spezifische Annahmen über den Einfluss des Chatbots testen und validieren zu können. Die Forschungsfrage wurde quantitativ entlang der Kennzahlen „durchschnittliche Sitzungsdauer“ und „Anzahl der Seitenaufrufe“ untersucht, aber auch qualitative Beobachtungen sind im Rahmen einer Analyse der Chatinhalte mit in die Ergebnisse eingeflossen. Bei einer Kombination beider Methoden handelt es sich um die Forschungsmethode „Mixed Methods“ (vgl. Kelle 2022). Die Untersuchung hat sowohl einen deskriptiven als auch einen analytischen Charakter, und es wurde in der Durchführung ein deskriptiv-exploratives sowie in Teilen ein explikatives Ziel verfolgt. Das bedeutet, dass durch diese empirische Forschung erste Zusammenhänge und Erkenntnisse im Hinblick auf die Einführung eines KI-Chatbots gewonnen sowie die aufgestellten Hypothesen beantwortet werden konnten (vgl. Baumgarth et al. 2009). Um die Hypothesen zu untersuchen, wurde eine Vergleichsanalyse durchgeführt und eine Stichprobe gebildet. Dazu wurde zuerst das Nutzungsverhalten vor Einführung des KI-Chatbots analysiert, welches sich über einen Untersuchungszeitraum vom 1. Juni 2023 bis zum 29. Februar 2024 erstreckt hat. Für einen Vorher-Nachher- Vergleich der Mittelwertkennzahlen wurde zusätzlich der Betrachtungszeitraum vom 1. März 2024 bis zum 31. Mai 2024 herangezogen. Um einen detaillierten Vergleich zwischen den Sitzungen „mit Chatbot-Nutzung“ und „ohne Chatbot-Nutzung“ vorzunehmen, wurde außerdem der Zeitraum vom 1. März 2024 bis 31. Mai 2024 betrachtet. Die Grundgesamtheit (N) stellten alle Webseitenbesuchenden dar und die Gruppe der Chatbot-Nutzenden bildete dabei die Stichprobe (n) im Betrachtungszeitraum. Innerhalb dieses Zeitraums haben von den 9.672 Webseitenbesuchenden 196 Nutzende den KI-Chatbot verwendet und dabei 280-mal mit diesem interagiert. Die Datenerhebung zur Messung der Kennzahlen „durchschnittliche Sitzungsdauer“ und „Anzahl der Seitenaufrufe“ fand mithilfe des Webanalysetools Google Analytics statt. Im Rahmen der qualitativen Inhaltsanalyse wurden die Chats im Zeitraum vom 1. März 2024 bis zum 31. Mai 2024 ausgewertet. Die Datenerhebung fand dabei über die Anbieterplattform des KI-Chatbots „Chatbase“ statt. Herausforderungen und Maßnahmen Die Untersuchung ergab, dass kurz nach der Einführung des KI-Chatbots die Herausforderung bestand, dessen Nutzung zu fördern. Die Datenerfassung startete am 1. März 2024 mit der Live-Schaltung des KI-Chatbots auf der Webseite. Mit fortschreitender Zeit stellte sich heraus, dass die Nutzungszahlen einem Abwärtstrend folgten. Um die Nutzungsaktivität des KI-Chatbots zu fördern, wurden zusätzlich Marketingmaßnahmen ergriffen. Diese umfassten die Gestaltung der Persönlichkeit <?page no="367"?> 3.8 KI-Chatbots im B2B: Analyse eines Chatbot-Rollouts auf einer Webseite 367 des KI-Chatbots, die Einbindung des KI-Chatbots in den E-Mail-Signaturen aller Mitarbeitenden sowie Social-Media-Posts auf LinkedIn und Instagram, bei welchen der KI-Chatbot mit neuem Namen, „Sky Talker“, als neuer digitaler Supportmitarbeiter der AU vorgestellt wurde. Abbildung 86 zeigt alle drei durchgeführten Maßnahmen. Die Visualisierung des Bots sowie die Namensgebung sollen dabei insbesondere für eine persönlichere und emotionalere Bindung sorgen und somit zur Nutzung des Chatbots animieren. Zusätzlich zu diesen Marketingmaßnahmen wurde außerdem das GPT-Modell des KI-Chatbots von GPT-3.5 turbo auf das zu diesem Zeitpunkt aktuelle Modell GPT-4o umgestellt. Damit wurde das Ziel verfolgt, die Antwortqualität zu verbessern und somit fehlerhafte Informationen, neben kontinuierlichem Training vorzubeugen. Mögliche Ergebnisbeeinflussungen durch diese durchgeführten Maßnahmen werden im Rahmen der Datenauswertung und Ergebnisdarstellung berücksichtigt. Abb. 86: Marketingmaßnahmen vom 14. Mai 2024 (Quelle: AU 2024) Erkenntnisse aus der quantitativen Analyse Zur Überprüfung der aufgestellten Hypothesen und zur Feststellung statistischer Signifikanzen wurden im Rahmen der quantitativen Untersuchung verschiedene statistische Tests angewendet. Die Daten wurden vor der Auswertung auf Anomalien geprüft und von Ausreißern bereinigt. Dabei wurden Werte aus der Untersuchung ausgeschlossen, die auf eine interne Nutzung zurückzuführen waren. Ebenso wurden Werte ausgeschlossen, bei denen die Sitzungsdauer kleiner fünf Sekunden betrug, da Sitzungen unter fünf Sekunden nicht als interaktiv betrachtet werden können. Nach der Datenaufbereitung wurden die definierten Kennzahlen entlang der <?page no="368"?> 368 Simona Lossau und Simone Braun Betrachtungszeiträume im Rahmen eines Vorher-Nachher-Vergleichs und im direkten Vergleich zwischen Sitzungen mit und ohne Chatbot-Nutzung untersucht. Zusätzlich hat im Rahmen der quantitativen Untersuchung eine Fehleranalyse der Chatbot-Antworten stattgefunden. Bei dieser wurden die falschen Antworten im Betrachtungszeitraum gezählt und den Anfragen insgesamt gegenübergestellt und somit der prozentuale Anteil falscher Antworten gemessen. Um die Fehlerquote im Zeitverlauf darzustellen, wurden kumulierte Werte verwendet. Diese Vorgehensweise ermöglichte es, eine kontinuierliche und aussagekräftige Übersicht über die Leistung des KI-Chatbots zu erhalten. Zusätzlich konnten durch diese Darstellung Verbesserungen oder Verschlechterungen besser identifiziert werden. Vergleich vor und nach dem Chatbot-Rollout: Im Rahmen des Vorher-Nachher-Vergleichs wurden die Daten vom 1. Juni 2023 bis zum 29. Februar 2024 mit denen aus dem Zeitraum vom 1. März bis zum 31. Mai 2024 verglichen und auf signifikante Unterschiede untersucht. Im Zeitraum 1. Juni 2023 bis 29. Februar 2024 haben insgesamt 23.343 Personen die Webseite aktiv besucht und die Anzahl der Sitzungen betrug 25.594. Dabei lässt sich die Anzahl der Sitzungen über die einzelnen Monate im Betrachtungszeitraum als konstant bezeichnen. Es gab lediglich minimale Abweichungen vom Durchschnittswert, welcher bei 2.833 Sitzungen lag. Diese Abweichungen vom Durchschnitt sind auf eine stärkere Nutzung aufgrund einer jährlich stattfindenden Veranstaltung zurückzuführen. Im Betrachtungszeitraum vom 1. März 2024 bis zum 31. Mai 2024 betrug die Anzahl der Webseitenbesuchenden 9.572. Von diesen nutzten 196 den KI-Chatbot, was einem Anteil von etwa 2 % entspricht. Insgesamt wurden 10.708 Sitzungen verzeichnet, von denen 280 Sitzungen unter Nutzung des KI-Chatbots stattfanden. Die Sitzungen im Betrachtungszeitraum ohne Chatbot-Nutzung dauerten im Durchschnitt knapp fünf Minuten. Bei 97,3 % der Webseitenbesuchenden gab es durchschnittlich 1,8 Seitenaufrufe pro Sitzung, was bedeutet, dass 2,7 % der Besuchenden keinen Seitenaufruf während ihrer Sitzung hatten. Zur Untersuchung der Auswirkungen des KI-Chatbots auf das Nutzungsverhalten wurden die zwei Betrachtungszeiträume im Vorher-Nachher-Vergleich analysiert. Hierbei dienten die beiden Zeiträume als unabhängige Stichproben. Die Mittelwerte der Kennzahlen „Sitzungsdauer“ und „Anzahl der Sitzungen“ wurden hinsichtlich signifikanter Unterschiede analysiert. Für die Hypothesenuntersuchung wurde ein Signifikanzniveau von 5 % festgelegt. Die Untersuchung zeigte, dass zwischen den beiden Zeiträumen keine signifikanten Mittelwertunterschiede in der Interaktionsdauer bestehen. Woraus geschlossen werden kann, dass die Implementierung des KI- Chatbots keine signifikanten Auswirkungen auf die durchschnittliche Sitzungsdauer hatte. In Abbildung 87 lässt sich dies grafisch entlang des Zeitverlaufs nachvollziehen. Seit März 2024 zeigt sich kein Muster, das auf eine Veränderung der durchschnittlichen Sitzungsdauer hindeutet. Dasselbe Untersuchungsverfahren wurde hinsichtlich der Analyse der Kennzahl „Anzahl der Seitenaufrufe“ angewandt. Bei diesem zeigte sich ein Mittelwertunterschied mit schwachen Effekten. Da minimale Unterschiede auch auf andere Parameter zurückzuführen sein können, zeigt sich auch an dieser Stelle kein Einfluss der Einführung des KI-Chatbots auf das allgemeine Nutzungsverhalten über den betrachteten Zeitraum. <?page no="369"?> 3.8 KI-Chatbots im B2B: Analyse eines Chatbot-Rollouts auf einer Webseite 369 Abb. 87: Durchschnittliche Sitzungsdauer von Juni 2023 bis Mai 2024 (Quelle: Eigene Darstellung) Vergleich der Sitzungen mit und ohne Chatbot-Nutzung nach dem Rollout: Im direkten Vergleich zwischen den Sitzungen mit Chatbot-Nutzung und ohne wurden die jeweiligen Sitzungen in zwei Gruppen zusammengefasst. Im Betrachtungszeitraum 1. März 2024 bis 31. Mai 2024 gab es 280 Sitzungen mit Chatbot-Nutzung. Abb. 88 zeigt dabei die Verteilung der Sitzungsanzahl im Untersuchungszeitraum. Hieraus wird deutlich, dass die Anzahl der Sitzungen mit Chatbot-Nutzung zur Einführung und zum Zeitpunkt der durchgeführten Maßnahmen am größten waren. Außerdem ist ersichtlich, dass an den Wochenenden kaum bis keine Sitzungen mit Chatbot stattgefunden haben, was sich auf das B2B-Geschäft zurückführen lässt. Abb. 88: Sitzungen mit Chatbot-Nutzung (Quelle: Eigene Darstellung) <?page no="370"?> 370 Simona Lossau und Simone Braun Im Rahmen der Hypothesenuntersuchung wurde ein Mittelwertvergleich der Sitzungsdauer und der Anzahl der Seitenaufrufe zwischen den beiden Gruppen durchgeführt. Dieser ergab, dass eine Sitzung mit Chatbot-Nutzung im Schnitt 10: 22 Minuten und eine Sitzung ohne Chatbot-Nutzung durchschnittlich 4: 51 Minuten im Betrachtungszeitraum dauerte. Daraus resultiert, dass die aufgestellte Hypothese „Durch die Interaktion mit dem KI-Chatbot sinkt die durchschnittliche Sitzungsdauer“ nicht zutrifft und widerlegt werden kann. Der Mittelwertvergleich zeigt deutlich, dass bei der Nutzung des KI-Chatbots die Sitzungsdauer im Schnitt erheblich höher ist als ohne. Sitzungen mit Chatbot sind durchschnittlich 5: 30 Minuten länger. Abbildung 89 zeigt exemplarisch für den Monat Mai die Sitzungsdauer der beiden Gruppen im Vergleich über den Zeitverlauf hinweg. Aus dieser Abbildung lassen sich die Unterschiede in der Länge der Sitzungsdauer zwischen den beiden Sitzungen mit und ohne Chatbot-Nutzung schnell und einfach ableiten. Außerdem lässt sich der Abbildung entnehmen, dass die Marketingmaßnahmen im Betrachtungszeitraum nicht auf die Kennzahl „Sitzungsdauer“ eingewirkt haben, da diese am 14. Mai 2024 keine Anomalien aufweist. Abb. 89: Durchschnittliche Sitzungsdauer mit und ohne Chatbot-Nutzung im Vergleich für den Monat Mai 2024 (Quelle: Eigene Darstellung) Die Untersuchung der zweiten Hypothese: „Durch die Interaktion mit dem KI-Chatbot sinkt die Anzahl der Seitenaufrufe“ ergab, dass es auch bei diesem Mittelwertvergleich zwischen den Gruppen zu Differenzen kommt. Bei den Sitzungen mit Chatbot-Nutzung betrug die durchschnittliche Anzahl der Seitenaufrufe 2,5 und bei den Sitzungen ohne Chatbot-Nutzung 1,8. Dies bedeutet, dass auch die zweite Hypothese abgelehnt werden kann und dass es durch die Chatbot-Nutzung keine geringere Anzahl von Seitenaufrufen gibt. Zusammenfassend resultiert aus der quantitativen Analyse der Metriken „Sitzungsdauer“ und „Anzahl der Seitenaufrufe“, dass der KI-Chatbot keine Auswirkungen auf das allgemeine Nutzungsverhalten der Webseitenbesuchenden hat. Dies liegt begründet in der sehr geringen Chatbot-Nutzung, welche im Verhältnis lediglich bei 2 % liegt. Des Weiteren lässt sich an dieser Stelle festhalten, dass auch die gewünsch- <?page no="371"?> 3.8 KI-Chatbots im B2B: Analyse eines Chatbot-Rollouts auf einer Webseite 371 ten Mehrwerte einer schnelleren Ergebnissuche für die Nutzenden im Betrachtungszeitraum gemessen an der Sitzungsdauer und der Anzahl der Seitenaufrufe nicht erzielt werden konnten. Die Zahlen zeigen, dass weder die Sitzungsdauer noch die Anzahl der Seitenaufrufe durch die Interaktion mit dem Chatbot niedriger sind als ohne Chatbot, sondern das Gegenteil bewirken. Das heißt, die Webseitenbesuchenden investieren mehr Zeit im Rahmen der Interaktion mit dem KI-Chatbot als bei einem Besuch ohne Chatbot-Nutzung. Quantitative Fehleranalyse der Chatbot-Antworten: Zusätzlich zur Hypothesenüberprüfung wurde im Rahmen der quantitativen Untersuchung eine Fehleranalyse der Chatbot-Antworten durchgeführt. Um die fehlerhaften Antworten des KI-Chatbots zu messen, wurde vorab definiert, was als „falsche Antwort“ gilt. Eine Antwort auf eine Anfrage wird als falsch eingestuft, sobald ein Element innerhalb der Antwort falsch ist. Beispielsweise kann eine Chatbot-Antwort als falsch gelten, wenn der Inhalt zwar korrekt ist, aber der enthaltene Link ungültig. In der Analyse wurden auch Folgefehler gezählt. Die Zählung fand immer wochenweise statt. Über den Betrachtungszeitraum hinweg wurden auf 2.639 Anfragen 521 falsche Antworten erfasst. Das bedeutet, im Schnitt waren 20 % der Antworten als falsch gekennzeichnet. Durch die Darstellung der kumulierten Werte über den Betrachtungszeitraum hinweg, konnten Veränderungen in der Chatbot-Leistung visuell dargestellt werden. Abbildung 90 zeigt den Verlauf der Fehlerquote vom 1. März 2024 bis zum 31. Mai 2024. Aus dieser geht deutlich hervor, dass die Fehlerquote seit dem 15. Mai 2024 (KW 20) abgenommen hat. Diese positive Veränderung ist auf die Durchführung der Maßnahme der GPT-Modell-Umstellung zurückzuführen. Es wird deutlich, dass durch diese Maßnahme die fehlerhaften Antworten zwischen KW 19 und dem 31. Mai 2024 um 7 % abgenommen haben und somit die Modell-Umstellung zu einer Verbesserung der Antwortqualität beigetragen hat. Die Grafik verdeutlicht gleichzeitig aber auch, dass sich die Fehlerquote, besonders in der Einführungsphase mit Werten zwischen 25 % und 28 %, in einem sehr hohen Bereich befand. Abb. 90: Fehlerquote der Chatbot-Antworten (Quelle: Eigene Darstellung) <?page no="372"?> 372 Simona Lossau und Simone Braun Erkenntnisse aus der qualitativen Analyse Im Rahmen der qualitativen Untersuchung wurde eine Inhaltsanalyse anhand der Chatverläufe zwischen den Webseitenbesuchenden und dem neuen KI-Chatbot durchgeführt. Dabei wurde das Ziel verfolgt, zum einen erste Erkenntnisse über die Interessen der Chatbot-Nutzenden zu gewinnen und zum anderen Auffälligkeiten in den Chatbot-Antworten zu identifizieren. Im Fokus standen hierbei die Fragen: „Welche Anfragen werden am häufigsten über den KI-Chatbot gestellt? “, und „Welche Fehler treten in den Antworten des KI-Chatbots am häufigsten auf? “. Um diese Fragen zu beantworten, wurden alle getätigten Anfragen (Prompts) im Rahmen einer Konversation vom 1. März bis zum 31. Mai 2024 betrachtet. Anfragen, die nicht seriöser Natur oder auf eine interne Nutzung zurückzuführen waren, wurden von der Analyse ausgeschlossen, sodass in die Betrachtung 1.665 Prompts eingeflossen sind. Bei der Bestimmung der Analysetechnik wurde sich an den Methoden der strukturierenden Inhaltsanalyse von Mayring orientiert (vgl. Mayring 2003). Im Rahmen der Inhaltsanalyse sowie der qualitativen Fehleranalyse fand ein offenes Codieren statt. Aus der Feincodierung ergaben sich die Hauptkategorien „Touchpoints“, welche Anfragen zu den Social-Media-Kanälen, dem Podcast oder dem Newsletter der AU umfassen, „Partner der AU“, „Rund um das Unternehmen“, „Testfragen“, welche Anfragen abbilden, die auf ein Testen des Chatbots hindeuten, wie beispielsweise: „Wie viel ist 1+1? “, „Standorte“, „Menschen bei AU“, „Veranstaltungen“, „Support-Anfragen“, „Lösungen und Produkte“, „Karriere“ und „Small Talk“. Die Kategorie „Small Talk“ umfasst dabei persönliche Fragen an den Chatbot, wie beispielsweise: „Wie geht es dir heute? “ oder „Wie findest du das Wetter? “. In Bezug auf die Fehleranalyse fand eine Feincodierung in die Kategorien „Halluzinationen“, „Inhaltliche Fehler“ und „Ungültige Verlinkungen“ statt. Abb. 91: Häufigkeitsverteilung der Kategorien (Quelle: Eigene Darstellung) Im Rahmen der strukturierten Inhaltsanalyse der einzelnen Prompts ergaben sich unterschiedliche Häufigkeitsverteilungen. Wie der Abbildung 91 entnommen werden kann, fielen 30 % der Chatbot-Anfragen unter die Kategorie „Rund um das <?page no="373"?> 3.8 KI-Chatbots im B2B: Analyse eines Chatbot-Rollouts auf einer Webseite 373 Uternehmen“. 17,6 % der Anfragen betrafen die Kategorie „Lösungen und Produkte“ der AU, und 9,9 % der Anfragen wurden über Veranstaltungen gestellt. Die Kategorie „Rund um das Unternehmen“ beinhaltet noch weitere Unterkategorien, welche Anfragen zum „Auftrag“, zur „AU als Arbeitgeber“, zu den „Zahlen, Daten, Fakten“, zur „Geschäftsführung“, zur „Geschichte“, zu den „Finanzen“, zu „Sonstiges“, zum „Hauptsitz“, zur „Informationssicherheit“, zu den „Referenzen“ und zur „Nachhaltigkeit“ der AU umfassen. Am häufigsten wurde in dieser Kategorie nach dem „Auftrag“ der AU mit 24,5 % gefragt, gefolgt von Anfragen zum Thema „AU als Arbeitgeber“ mit 16 % und zu „Zahlen, Daten und Fakten“ mit 13,2 %. Auffällig ist an dieser Stelle, dass es sich bei den Anfragen um sehr simple und allgemeine Fragen ohne Spezifikation handelt. Beispiele dafür sind Anfragen, wie: „Was macht die AU? “ oder „wie viel Mitarbeiter hat die AU? “. Dasselbe ließ sich auch in der Kategorie „Lösungen und Produkte“ beobachten, wo Fragen wie beispielsweise; „Was für Lösungen bietet die AU an? “ oder „wo finde ich das Produktportfolio? “ dominierten. Die andere Hälfte der Anfragen stellten spezifischeres Interesse an einzelnen Themengebieten dar, wobei hier am häufigsten nach Cloudlösungen und -services gefragt wurde. Des Weiteren ist auffällig, dass die Kategorie „Testfragen“ mit 8,7 % vergleichsweise hoch vertreten ist. Die Anfragen zum Thema Touchpoints, Standorte, Karriere oder Partner der AU fallen hingegen gering aus, genauso wie die Kategorie „Small Talk“ mit 4,4 %. Im Rahmen der qualitativen Fehleranalyse wurden von insgesamt 521 fehlerhaften Antworten 223 stichprobenartig analysiert. Die Häufigkeitsverteilung der Fehlerkategorien lässt sich Abbildung 92 entnehmen. Wie Abbildung 92 zeigt, werden 41,7 % der betrachteten Antworten als falsch markiert, da sie ungültige Internetlinks enthielten. Ein ungültiger Link ist ein Internetlink, der die Webseitenbesuchenden ins Leere führt und eine Fehlermeldung verursacht. Die Subkategorien „Halluzinationen“ und „Inhaltliche Fehler“ sind in der Stichprobe mit demselben prozentualen Anteil vertreten. Abb. 92: Kategorie: Fehler (Quelle: Eigene Darstellung) <?page no="374"?> 374 Simona Lossau und Simone Braun Unter Halluzinationen fallen alle Antworten des KI-Chatbots, bei welchen dieser Elemente frei erfindet. Die Kategorie „Inhaltliche Fehler“ umfasst alle Antworten, bei denen der Chatbot den Inhalt falsch zugeordnet hat. Dies bedeutet, dass die Aussage nicht erfunden ist, aber konkret bezogen auf die Fragestellung inhaltlich falsch ist. In dieser Hinsicht ist auffällig, dass der KI-Chatbot insbesondere Datums- und Zeitangaben nicht verarbeiten kann, was wiederum zu inhaltlichen Fehlern führt. Des Weiteren ist im Rahmen der qualitativen Fehleranalyse aufgefallen, dass in manchen Fällen der KI-Chatbot den Nutzenden keine weiterführende Antwort liefern kann und stattdessen an die Zentrale der AU verweist. Dies ist im Betrachtungszeitraum in 54 Fällen aufgetreten. Diese Antworten werden nicht als falsch gewichtet, da der KI-Chatbot gemäß seiner definierten Regeln richtig handelt. Allerdings entsteht für die Nutzenden in diesem Moment kein Mehrwert. Erkenntnisse ein Jahr nach der Implementierung Ein Jahr nach dem Rollout des KI-Chatbots auf der Webseite des B2B- und IT-Unternehmens AU zeigt sich ein gemischtes Bild hinsichtlich der Nutzung und Wirkung des KI-Chatbots. Zwar lässt sich feststellen, dass die Nutzung weiterhin auf niedrigem Niveau bleibt - lediglich rund 1 % der Webseitenbesuchenden (390 von 36.561) interagieren mit dem Chatbot aktiv - dennoch lassen sich im Zeitverlauf aussagekräftige Entwicklungen beobachten. Nutzungstrends und Verhaltensmuster: Abbildung 93 zeigt die Anzahl der Ereignisse „Chatbot-Nutzung“ im Betrachtungszeitraum vom 1. März 2024 bis zum 1. März 2025. Deutlich erkennbar ist, dass ohne gezielte Marketingmaßnahmen, wie sie zur Einführung und erneut am 14. Mai 2024 durch die Marketingabteilung umgesetzt wurden, die Webseitenbesuchenden den Chatbot kaum in Anspruch nehmen. Vielmehr lässt sich ein rückläufiger Nutzungstrend beobachten. Dies unterstreicht die Bedeutung kontinuierlicher Aktivierungsimpulse. Abb. 93: Anzahl des ausgelösten Ereignisses „Chatbot-Nutzung“ (Quelle: Eigene Darstellung) <?page no="375"?> 3.8 KI-Chatbots im B2B: Analyse eines Chatbot-Rollouts auf einer Webseite 375 Insgesamt wurden 39.752 Sitzungen registriert, wobei 557 davon mit einer Chatbot- Nutzung einhergehen. Bezogen auf die Kennzahlen „durchschnittliche Sitzungsdauer“ und „Anzahl der Seitenaufrufe“ zeigt sich, dass die zur Einführungszeit formulierten Hypothesen weiterhin nicht erfüllt werden konnten. Dennoch lassen sich positive Entwicklungen feststellen: Die durchschnittliche Sitzungsdauer bei Chatbot-Nutzung liegt mit 4: 45 Minuten um 5: 37 Minuten unter dem Wert der ersten drei Monate nach Einführung, bleibt aber mit +31 Sekunden weiterhin über dem Schnitt der Sitzungen ohne Chatbot-Nutzung. Ähnlich blieb die Anzahl der Seitenaufrufe konstant bei durchschnittlich 2,5 Seiten bei Sitzungen mit Chatbot- Nutzung und damit über dem Wert von 1,8 Seiten ohne Chatbot. Zu beachten ist hierbei, dass der Chatbot darauf trainiert wurde, im Rahmen der Konversationen auf weiterführende Inhalte über entsprechende Verlinkungen hinzuweisen. Qualität der Antworten: Ein deutlich positiver Effekt zeigt sich in der Antwortqualität. Die Fehlerquote konnte über das Jahr hinweg von ursprünglich bis zu 28 % auf nunmehr 10 % gesenkt werden, was auf kontinuierliches Training und die Umstellung auf ein leistungsstärkeres Modell (GPT-4o) zurückzuführen ist. Die qualitative Fehleranalyse zeigt, dass der Chatbot zwar weiterhin Schwierigkeiten bei der Verarbeitung von Datums- und Zeitangaben aufweist, die Häufigkeit von „Halluzinationen“ ist jedoch seit der Umstellung des Modells rückläufig. Der Chatbot orientiert sich mittlerweile stärker an seinen definierten Regeln und Vorgaben. Unverändert hoch bleibt hingegen die Anzahl an Antworten, in denen auf eine Kontaktaufnahme mit der Zentrale der AU verwiesen wird - ein Umstand, der den erlebbaren Mehrwert für die Nutzenden potenziell mindert. Fokussierung der Interaktionen: Weiterhin hat sich die inhaltliche Struktur der Interaktionen verändert. Während in der Einführungsphase eher allgemeine oder testartige Anfragen dominierten, lässt sich im Verlauf eine zunehmende Verschiebung hin zu spezifischen Informationsanfragen feststellen. Besonders auffällig ist dabei der Anstieg karrierebezogener Anfragen bzgl. Praktikumsplätze, Karriereoptionen oder Bewerbungsprozess seit dem dritten Quartal 2024 mit durschnittlich einbis zweimal pro Woche. Dies Entwicklung legt nahe, dass verstärkt jüngere Zielgruppen den KI- Chatbot zur ersten Orientierung im Bereich Ausbildung und Berufseinstieg nutzen. Auch die durchschnittliche Anzahl der Fragen pro Konversation ist von anfänglich drei auf zwei Fragen zurückgegangen. Ergänzt wurde die Interaktionsebene im September 2024 um eine Bewertungsfunktion mittels „Daumen hoch“ oder „Daumen runter“. Diese Funktion wird aktuell noch selten genutzt, könnte aber als Instrument zur Qualitätssicherung künftig stärker aktiviert werden. Insgesamt verdeutlichen die Entwicklungen, dass sich der Chatbot zwar technisch stabilisiert hat und eine zunehmende Relevanz für ausgewählte Nutzendensegmente erkennbar ist, jedoch weiterhin unter einer geringen Gesamtnutzung leidet. Die ursprünglich formulierten Hypothesen bezüglich der Reduktion von Sitzungsdauer und Seitenaufrufen konnten auch über den erweiterten Betrachtungszeitraum hinweg nicht bestätigt werden. 3.8.4 Diskussion Die vorliegenden Ergebnisse der einjährigen Untersuchung zum Einsatz eines KI- Chatbots im B2B-Kontext bieten wichtige Erkenntnisse hinsichtlich der tatsächlichen Nutzung, Akzeptanz und Wirkung der Technologie. <?page no="376"?> 376 Simona Lossau und Simone Braun Entgegen den ursprünglichen Hypothesen zeigt die Auswertung der ersten drei Monate nach der Implementierung des KI-Chatbots auf der Webseite der Advanced Uni- Byte GmbH, dass sich die Einführung zunächst nicht signifikant auf das allgemeine Nutzungsverhalten der Webseitenbesuchenden ausgewirkt hat. Vielmehr zeigte sich, dass Sitzungen mit Chatbot-Nutzung tendenziell länger dauerten und intensiver waren, was sowohl auf grundsätzliches Interesse und exploratives Verhalten der Nutzenden als auch auf gewisse Ineffizienzen in der Antwortstruktur des Chatbots zurückzuführen sein könnte. Die Erwartungen der Marketingabteilung an eine effiziente Unterstützung bei der Informationsbeschaffung wurden daher in der Anfangsphase nicht erfüllt. Diese Befunde stehen in Kontrast zu bisherigen Studien, die insbesondere im B2C- Kontext von Effizienzgewinnen durch KI-gestützte Chatbots berichten (vgl. Behera et al. 2024; Kreutzer 2023). Gleichzeitig bestätigen sie aber auch die in der Literatur beschriebenen Akzeptanzbarrieren im B2B-Umfeld, die sich unter anderem in einer vergleichsweise geringen Nutzungsquote äußern (vgl. Rapp et al 2021; Burkhardt und Kumbartzki 2022). Die zu Beginn hohe Fehlerquote beeinträchtigte zudem die Qualität der Antworten und könnte sich negativ auf das Nutzungserlebnis ausgewirkt haben (vgl. Behera et al 2024; Abbas et al. 2023). Die Verbesserung der Fehlerquote sowie die inhaltliche Fokussierung der Nutzendenanfragen deuten auf einen gewissen Reifungsprozess in der Nutzung hin. Besonders relevant ist hierbei die Zunahme zielgerichteter Fragen zu beispielsweise Praktikums- oder Ausbildungsplätzen, was auf eine potenzielle Verlagerung der Zielgruppe schließen lässt. Dieser Trend ist insbesondere unter dem Gesichtspunkt des Employer Brandings im B2B-Bereich von Interesse, da sich hier neue Einsatzfelder für Chatbots zur Ansprache junger Talente eröffnen könnten. Darüber hinaus zeigen die Ergebnisse, dass rein technische Implementierungen nicht ausreichen, um die Nutzung signifikant zu steigern. Vielmehr sind begleitende Maßnahmen in den Bereichen Kommunikation, Usability und strategische Positionierung erforderlich. Insbesondere gestalterische und funktionale Optimierungen, wie die Umbenennung des Chatbots in „Sky Talker“ sowie die Einführung eines animierten Avatars, haben bereits in der Implementierungszeit zur verbesserten Wiedererkennbarkeit und Akzeptanz beigetragen. Das zeigt, dass durch gezielte Maßnahmen ein emotionaler Bezug aufgebaut und die Nutzung gestärkt werden kann (vgl. Maga und Bodlaj 2025). 3.8.5 Handlungsempfehlungen Aus den dargestellten Ergebnissen lassen sich verschiedene Implikationen für die Praxis ableiten, die für die Implementierung und Weiterentwicklung von KI-gestützten Chatbots im B2B-Kontext relevant sind. Erstens erscheint eine stärkere inhaltliche Fokussierung auf konkrete, zielgruppenspezifische Informationsbedarfe erforderlich. Die zunehmende Nutzung durch jüngere Zielgruppen legt nahe, dass insbesondere karrierebezogene Themen systematisch im Chatbot-Dialog abgebildet werden sollten. Neben der inhaltlichen Erweiterung wäre auch eine entsprechende visuelle und sprachliche Ansprache sinnvoll. Dies könnte den Chatbot perspektivisch als Instrument im Employer Branding positionieren und einen neuen strategischen Nutzen generieren. <?page no="377"?> 3.8 KI-Chatbots im B2B: Analyse eines Chatbot-Rollouts auf einer Webseite 377 Zweitens ist die kontinuierliche Qualitätssicherung der Chatbot-Antworten essenziell. Die Reduktion der Fehlerquote zeigt zwar erste Erfolge, dennoch bleiben die Konsistenz und Validität der Antworten ein kritischer Faktor für das Nutzungserlebnis. Maßnahmen zur automatisierten Validierung von Links, zur Präzisierung zeitbezogener Inhalte sowie zur Minimierung von Halluzinationen sollten technisch priorisiert werden. Ergänzend kann das Einholen systematischen Feedbacks (z. B. durch Bewertungsfunktionen oder kurze Zufriedenheitsbefragungen am Gesprächsende) helfen, qualitative Schwächen frühzeitig zu identifizieren und weitere Erkenntnisse über Erwartungen, Bedürfnisse und Verbesserungspotenziale zu gewinnen. Drittens sollte die Nutzendenführung innerhalb des Chatbots inhaltlich-dialogisch optimiert werden. Da der KI-Chatbot als Navigationshilfe und Informationsquelle dienen soll, sollte dieser über allgemeine Informationen hinausgehend vor allem konkrete und relevante Produktanfragen abbilden können. Durch geführte Konversationen, Follow-up-Fragen und Quick-Response-Elemente oder kontextabhängige Empfehlungen können Informationsprozesse gezielter gesteuert werden. Gleichzeitig empfiehlt sich die Integration klarer Handlungsoptionen, wie die Möglichkeit zur direkten Kontaktaufnahme mit menschlichen Ansprechpersonen oder zur Anforderung weiterführender Informationen, um den Chatbot nicht nur als Informationsquelle, sondern als Gateway zu weiteren Interaktionen zu etablieren. Insbesondere im B2B-Kontext kann die gezielte Verknüpfung von automatisierter und persönlicher Kommunikation die Nutzendenakzeptanz steigern (vgl. Behera et al. 2024). Schließlich sind die Sichtbarkeit und Positionierung des Chatbots entscheidend. Die Case Study verdeutlicht, dass Wiedererkennung (z. B. durch Namensgebung, Avatar) und kontinuierliche Promotion über relevante Touchpoints (z. B. E-Mail-Signaturen, Social Media) zur Steigerung der Nutzung beitragen können. Die Etablierung eines konsistenten kommunikativen Narrativs rund um den Chatbot als Teil der digitalen Markenidentität kann helfen, Vertrauen aufzubauen und langfristige Akzeptanz zu fördern. Wird der konkrete Mehrwert des Chatbots klar kommuniziert und erkennbar erlebbar gemacht, kann dies maßgeblich zur langfristigen Steigerung der Nutzung beitragen - insbesondere, weil positive Nutzungserlebnisse häufig zur Wiederverwendung und Weiterempfehlung führen (vgl. Fink 2023). 3.8.6 Fazit Die vorliegende Studie zur Implementierung eines KI-Chatbots auf der Webseite eines B2B-Unternehmens liefert wertvolle empirische Erkenntnisse zur tatsächlichen Nutzung und Wirkung solcher Technologien in einem bislang wenig erforschten Anwendungsfeld. Die Ergebnisse zeigen, dass sich die angenommenen Effizienzgewinne in Form verkürzter Sitzungsdauern oder reduzierter Seitenaufrufe nicht bestätigen ließen - vielmehr deutet der Einsatz des Chatbots auf eine intensivere Auseinandersetzung mit den Inhalten hin. Die vergleichsweise geringe Nutzungsrate und zu Beginn hohe Fehlerquote unterstreichen die Herausforderungen, die mit der Einführung von KI-Chatbots im B2B-Kontext einhergehen. Dennoch bietet die Studie im Vergleich zu bisherigen Arbeiten einen differenzierten Blick auf das reale Nutzungsverhalten und liefert damit einen bedeutenden Beitrag zur Forschung über Mensch-KI-Interaktion im digitalen B2B-Marketing. Mit der Verbindung quantitativer Verhaltensdaten und qualitativer Inhaltsanalysen werden erstmals differenzierte Einblicke in reale Nutzungsmuster von KI-Chatbots im B2B-Kontext gewonnen - ein Bereich, der bisher in der Forschung unterrepräsentiert ist. <?page no="378"?> 378 Simona Lossau und Simone Braun Für die Praxis zeigt sich: Ein KI-Chatbot entfaltet sein volles Potenzial nicht allein durch die technische Implementierung, sondern durch kontinuierliche Optimierung, gezielte Marketingmaßnahmen und eine strategische Ausrichtung auf konkrete Zielgruppenbedarfe. Die beobachteten Verhaltensänderungen - etwa die zunehmende Nutzung für karrierebezogene Fragen durch jüngere Nutzergruppen - eröffnen neue Perspektiven, insbesondere im Employer Branding. Unternehmen sollten Chatbots im B2B-Bereich daher nicht nur als Informationsplattform verstehen, sondern als dynamische Schnittstelle zur digitalen Markenkommunikation. Entscheidend für den Erfolg sind eine starke Nutzendenzentrierung, laufendes Feedback-Management sowie die Fähigkeit, das System technisch und inhaltlich weiterzuentwickeln - stets mit dem Ziel, einen echten Mehrwert für die Nutzerinnen und Nutzer zu schaffen. Literatur Abbas, S.K., Kő, A., & Szabó, Z. (2023). B2B Financial Sector Behavior Concerning Cognitive Chatbots - Personalized Contextual Chatbots in Financial Sector, 14th IEEE International Conference on Cognitive Infocommunications (CogInfoCom) , Budapest, Hungary, 85-90. Adamopoulou, E., & Moussiades, L. (2020). Chatbots: History, technology, and applications. Machine Learning with Applications, 2(53), 1-18. Advanced UniByte GmbH (2024). https: / / au.de/ unternehmen. Zugegriffen am 20. März 2025 Baumgarth, C., Eisend, M., & Evanschitzky, H. (2009). Empirische Mastertechniken: Eine anwendungsorientierte Einführung für die Marketing und Managementforschung . Springer Gabler. Behera, R.K., Bala, P.K., & Ray, A. (2024). Cognitive Chatbot for Personalised Contextual Customer Service: Behind the Scene and beyond the Hype. Information Systems Frontiers, 26, 899-919. Bruhn, M., & Hadwich, K. (2021). Künstliche Intelligenz im Dienstleistungsmanagement (Bd. I). Springer. Burkhardt, A., & Kumbartzki, J. (2022). Digitalisierung im Handel - Den Kundennutzen im Blick. In M. Graumann, A. Burkhardt & T. Wenger (Hrsg.), Aspekte des Managements der Digitalisierung. Business - Innovation - High Tech (S. 35-57). Springer Gabler. Fink, V. (2023). Quick Guide KI-Projekte - einfach machen: Künstliche Intelligenz in Service, Marketing und Sales erfolgreich einführen (2. Aufl.). Springer. Hörmann, I., & Schmid, P. (2024). KI-Technologien im Maschinenbauvertrieb. In T. Bolz & G. Schuster (Hrsg.), Generative Künstliche Intelligenz in Marketing und Sales (S. 177-187). Springer Gabler. Kelle, U. (2022). Mixed Methods. In N. Baur & J. Blasius (Hrsg.), Handbuch Methoden der empirischen Sozialforschung (S. 163-177). Springer VS. Kohne, F., Müller, A., & Schmitt, T. (2020). Chatbots: Aufbau und Anwendungsmöglichkeiten von autonomen Sprachassistenten . Springer. Kreutzer, R.T. (2023). Künstliche Intelligenz verstehen (2. Aufl.). Springer Gabler. <?page no="379"?> 3.8 KI-Chatbots im B2B: Analyse eines Chatbot-Rollouts auf einer Webseite 379 Lehmann, J. (2021). Der Chatbot-Guide. In S. Detscher (Hrsg.), Digitales Management und Marketing (S. 305-328). Springer Gabler. Maga, S., & Bodlaj, M. (2025). Drivers and outcomes of chatbot use in the businessto-business context: exploring business customers’ perspectives. Journal of Business & Industrial Marketing , 40(1), 250-264. Mayring, P. (2003). Qualitative Inhaltsanalyse. Grundlagen und Techniken. Beltz. Mentrup, J., & Schulz, S. (2024). Zwischen Innovation und Nutzererfahrung: B2B-Webiste-Trends 2024 . https: / / www.marconomy.de/ zwischen-innovation-und-nutzererfahrung-b2b-webiste-trends-2024-a-96fc3fcdfdc2c37305b958b3517bad4e/ . Zugegriffen am 05. April 2024 Moradi, M., & Dass, M. (2022). Applications of artificial intelligence in B2B marketing: Challenges and future directions. Industrial Marketing Management , 107, 300- 314. Rainsberger, L. (2021). KI - die neue Intelligenz im Vertrieb . Springer. Rapp, A., Curti, L., & Boldi, A. (2021). The human side of human-chatbot interaction: A systematic literature review of ten years of research on text-based chatbots. International Journal of Human-Computer Studies, 151, 102630. Schloß, M., Müller, R., & Becker, F. (2023). Chatbot Analytics mittels Betriebsdaten. In S. D’Onofrio, S. Meinhardt & S. Meinhardt (Hrsg.), Robotik in der Wirtschaftsinformatik (S. 167-192). Springer Vieweg. <?page no="381"?> Ethische Herausforderungen des KI-Einsatzes im PR- und Kommunikationsalltag Elke Kronewald und Bastian Federlein Zusammenfassung Der Einsatz von Künstlicher Intelligenz (KI) stellt PR- und Kommunikationsverantwortliche vor zahlreiche ethische Herausforderungen. Zwar gibt es inzwischen eine Vielzahl an KI-Regelungen und -Richtlinien, die zur Orientierung und zur Überwindung dieser Konflikte herangezogen werden können, aber es ist fraglich, ob diese Regelwerke alle im Arbeitsalltag auftretenden Situationen hinreichend abdecken. Daher untersucht die vorliegende Studie mithilfe von Leitfadeninterviews mit Kommunikationsexperten aus Unternehmen und Agenturen, welche ethischen Problemlagen die Befragten beim Umgang mit KI im eigenen Unternehmen erleben. Die Befunde zeigen, dass Schwierigkeiten auf verschiedenen Ebenen gesehen werden, die in ihrer Individualität nicht immer eine Entsprechung in veröffentlichten Regelwerken finden. Kritische Reflexion, ein ausgeprägtes ethisches Bewusstsein der Akteure sowie unternehmensinterne Diskurse sind somit für den erfolgreichen KI-Einsatz in der professionellen Kommunikation essenziell. Keywords: PR, Kommunikation, KI-Richtlinien, KI-Regelungen, Ethik 3.9.1 Ausgangslage Technologische Innovationen wie Künstliche Intelligenz (KI), die Auswirkungen auf Wirtschaft und Gesellschaft und damit auf die Lebens- und Arbeitswirklichkeit von Menschen haben, führen nicht nur zu Veränderungen in der Gesetzgebung, sondern auch zur Auseinandersetzung mit moralischen und ethischen Fragen auf Mikro-, Meso- und Makroebene (vgl. Deutscher Ethikrat 2023). Diese Effekte lassen sich seit dem Einzug von KI ebenfalls in der PR- und Kommunikationsbranche beobachten: „Die unter dem Etikett ‚Technologie‘ am häufigsten genannten und am intensivsten diskutierten Themen […] sind die Künstliche Intelligenz in der Kommunikation und die damit einhergehenden rechtlichen und ethischen Herausforderungen “ (Studie zur „Zukunft der Kommunikation“ der Deutschen Telekom 2022; Hervor. i. Orig.). Verschiedene Akteure haben daher Regelungen für den Einsatz von KI veröffentlicht, darunter die Europäische Union, die jeweiligen KI-Anbieter (z. B. ChatGPT) und teilweise die KI-nutzenden Unternehmen selbst. Zusätzlich entwickelten (inter-)nationale Verbände und Organisationen im Bereich PR und Kommunikation frühzeitig Richtlinien für einen ethischen Umgang mit KI, in deren Zentrum zumeist Kennzeichnung und menschliche Prüfung von KI-generiertem Content stehen (vgl. Kronewald 2025). Aufgrund der großen Dynamik bei Angebot und Anwendungsfeldern von KI stellt sich jedoch die Frage, welche konkreten Regelungen tatsächlich Beachtung finden beziehungsweise welche ethischen Herausforderungen Kommunikatoren (darüber hinaus) in ihrem Arbeitsalltag sehen. 3.9 Zwischen Realität und Richtlinien: <?page no="382"?> 382 Elke Kronewald und Bastian Federlein Dazu stellt Abschnitt 3.9.2 zunächst Hintergründe und Inhalte der derzeitigen KI- Regelungen für die PR-Branche in Deutschland vor, bevor in Abschnitt 3.9.3 daraus resultierende Forschungsfragen sowie die angewandte Methode beleuchtet werden. Abschnitt 3.9.4 befasst sich mit den Ergebnissen der qualitativen Befragung, die in Abschnitt 3.9.5 zusammengefasst und eingeordnet werden. 3.9.2 KI in PR und Kommunikation: Ethische Bedenken und Richtlinien Seitdem KI allgemein verfügbar ist, werden die Diskussionen über ihre Anwendungs- und Risikopotenziale für PR und Kommunikation zunehmend von ethischen Fragestellungen begleitet (vgl. Zerfass et al. 2023). Eine Umfrage unter 200 PR- und Kommunikationsspezialisten in deutschen Unternehmen zum Jahresende 2023 ergab, dass bei über zwei Dritteln ethische Fragen im vergangenen Jahr eine größere Rolle in ihrem beruflichen Alltag eingenommen haben (69 %; Mynewsdesk 2024). Der Einsatz von KI geht bei Kommunikatoren neben positiven Erwartungen (z. B. Effizienzsteigerungen bei Routineaufgaben, Kreativität und Datenauswertung; News aktuell 2024) mit einer Reihe von Ängsten einher. Im PR-Trendmonitor (vgl. News aktuell 2024) aus dem Februar 2024 standen nach mangelnder Prüfbarkeit von Informationen (51 %) und dem Verlieren individueller, menschlicher Kompetenzen (35 %) insbesondere Recht und Ethik im Fokus: mangelnde Klarheit in Bezug auf juristische Rahmenbedingungen, inklusive urheberrechtlicher Aspekte (34 %), Datenschutz, -sicherheit und -missbrauch (27 %), ethische und moralische Bedenken, wie beispielsweise zu Transparenz (22 %) oder die Verschiebung ethischer Branchenstandards (15 %). Diese Befunde zeigen, dass Kommunikatoren auch im Umgang mit KI die moralische Dimension reflektieren (Link und Zerfaß 2023) und deshalb mit Unsicherheiten konfrontiert sind. Juristische und ethische KI-Regelungen mit Relevanz für PR und Kommunikation, die zur Bewältigung ethischer Herausforderungen beitragen können, finden sich auf verschiedenen Ebenen mit unterschiedlichen Geltungsbereichen (Tab. 18). Geltungsbereich Regelungen (Auswahl) KI-Anwendung Nutzungsbedingungen Organisation Unternehmensinterne Regelungen zur KI-Nutzung Branche KI-Richtlinie des Deutschen Rats für PR (DRPR) Land/ Region KI-Verordnung der Europäischen Union (EU) Tab. 18: Überblick über relevante KI-Regelungen für PR und Kommunikation (Quelle: Eigene Darstellung) Allgemeine KI-Regelungen Relevante Regelungen, die von Kommunikatoren beachtet werden sollten, finden sich zunächst im zugrundeliegenden Nutzungsvertrag der jeweiligen KI-Anwendung. ChatGPT listet beispielsweise in seinen Nutzungsbedingungen folgende Informationen auf: „For example, you are prohibited from: […] Representing that Output was human-generated when it was not“ (OpenAI 2024). Es wird zudem darauf hinge- <?page no="383"?> 3.9 Zwischen Realität und Richtlinien: Ethische Herausforderungen 383 wiesen, dass der Output auf Richtigkeit und Angemessenheit überprüft werden sollte, bevor man diesen nutzt oder weiterleitet (vgl. OpenAI 2024). Darüber hinaus müssen unternehmensinterne Regelungen beim Arbeiten mit KI beachtet werden: „Um den ethischen Anforderungen gerecht zu werden, sollten Unternehmen Strukturen im Bereich Corporate Digital Responsibility etablieren, um eine unternehmensübergreifende KI-Strategie zu entwickeln. Die Berücksichtigung ethischer Aspekte bei der Anwendung von KI ist für Unternehmen essenziell, um Vertrauen zu stärken und sich Wettbewerbsvorteile zu sichern“ (Bitkom 2024). Eine Bitkom-Studie aus dem Sommer 2024 zeigte jedoch, dass nur 15 % der befragten Unternehmen bereits konkrete Regelungen festgelegt hatten; 48 % hatten ihre Beschäftigten noch nicht bezüglich KI geschult (vgl. Bitkom Research 2024). Als juristische Rahmenbedingungen für den Einsatz von KI in der Kommunikation gelten neben bereits bekannten verbindlichen Rechtsnormen, wie beispielsweise die Datenschutzgrundverordnung (DSGVO), die neu entwickelte KI-Verordnung der Europäischen Union (KI-VO oder EU AI Act), die sukzessive bis 2026 in Kraft tritt (u. a. Bundesregierung 2024, siehe Kapitel 1.2 von Christian Solmecke). Hier finden sich Regelungen, die auch für die Nutzung von KI in PR und Kommunikation wesentlich sind, beginnend mit der Notwendigkeit einer KI-Schulung (vgl. Amtsblatt der Europäischen Union 2024). KI-Richtlinien für PR und Kommunikation Der Deutsche Rat für Public Relations (kurz: DRPR), das Organ der freiwilligen Selbstkontrolle im Berufsfeld PR und Kommunikation in Deutschland, hat zur Orientierung im PR-Alltag bereits im September 2023 eine KI-Richtlinie präsentiert (vgl. DRPR 2023a), die nach Feedback aus der Branche finalisiert und im November 2023 veröffentlicht wurde (vgl. DRPR 2023b). Viele ethische Herausforderungen beim KI-Einsatz lagen und liegen ursächlich in der mangelnden Transparenz der Anbieter im Hinblick auf das Training der KI, urheberrechtliche Aspekte sowie den Umgang mit eingegebenen Daten. „Daher unterstützt der DRPR die Auffassung, dass auch Plattformbetreiber: innen und Anbieter: innen von KI-Tools Verantwortung in Hinblick auf geltendes Recht sowie die Einhaltung ethischer Standards für ihre Tools übernehmen müssen, deren Funktionsweise und Datenbasis transparent erklären und Missbrauch bestmöglich verhindern müssen. Dies versetzt Kommunikator: innen in die Lage, KI-Software in Hinblick auf ihre zulässige Einsetzbarkeit zu prüfen “ (DRPR 2023c). Die KI-Richtlinie des DRPR konzentriert sich auf die tatsächliche Anwendung von KI in der PR, insbesondere pragmatische und handhabbare Regelungen zu Transparenz, Kennzeichnung und Wahrhaftigkeit. Für PR- und Kommunikationsfachleute besteht eine Kennzeichnungspflicht in zwei Fällen:  bei der Erstellung und Veröffentlichung von KI-generiertem Content, der keine Prüfung durch einen Menschen erfahren hat (z. B. eine KI-basierte Simultanübersetzung einer CEO-Rede),  wenn bei Rezipierenden der Eindruck entstehen könnte, dass in KI-generierten <?page no="384"?> 384 Elke Kronewald und Bastian Federlein Inhalten Realität abgebildet wird (z. B. von KI erstellte Bilder, Audios oder Videos). Durch eine eindeutige und klar erkennbare Kennzeichnung wird Weiterverarbeitenden von PR-Botschaften (z. B. Journalisten) ermöglicht, „ihrerseits den gebotenen Sorgfaltspflichten und ethischen Bestimmungen nachzukommen“ (DRPR 2023c). Gemäß dem im Deutschen Kommunikationskodex (vgl. DRPR 2012) zugrunde gelegten Prinzip der Richtigkeit und Wahrhaftigkeit ist auch die Arbeit mit KI-Tools dieser Maxime verpflichtet. Demzufolge ist ungeprüfter, durch KI erstellter Content entsprechend zu kennzeichnen (siehe oben). Nicht erlaubt sind hingegen die Generierung und Veröffentlichung von KI-basierten Fake-News und sogenannten „Deep Fakes“. Darüber hinaus ist es unzulässig, mithilfe von KI eine scheinbare Relevanz von Botschaften zu fingieren (z. B. durch Kommentare, Interaktionen oder Bots). Internationale Berufsverbände und -vereinigungen haben ebenfalls KI-Richtlinien für PR und Kommunikation vorgelegt (z. B. Österreichischer PR-Ethik-Rat, IPRA, Global Alliance for Public Relations and Communication Management; vgl. Kronewald 2025), die im Rahmen von länderübergreifenden PR-Aktivitäten Beachtung finden sollten. Diese Richtlinien weisen viele Gemeinsamkeiten auf, vor allem im Hinblick auf Kennzeichnungspflichten sowie einen menschlichen Qualitäts- und Fakten- Check von KI-Inhalten. Im Gegensatz zur KI-Richtlinie des DRPR legen internationale Regelungen jedoch die Kennzeichnung jeglicher KI-Nutzung nahe. Zudem thematisieren internationale Richtlinien expliziter Urheberrechtsverletzungen, Datenmissbrauch und eine mögliche Diskriminierung durch KI (vgl. Kronewald 2025). 3.9.3 Forschungsfragen und Methode Aufgrund dieser Vielzahl an Richtlinien und Regelwerken stellt sich zum einen die Frage, welche konkreten Regelungen beim Einsatz von KI in der PR- und Kommunikationsbranche angewendet werden. Zum anderen fragt sich, in welchen Aspekten die im Kommunikationsalltag erlebten ethischen Herausforderungen über die in Richtlinien und Regelungen thematisierten Gesichtspunkte hinaus gehen. Um diese Forschungsfragen zu beantworten, wurden im Sommer 2024 (15.07.- 15.08.2024) qualitative Leitfadeninterviews mit 23 Kommunikationsverantwortlichen durchgeführt, die langjährige Erfahrungen im Bereich PR und Kommunikation aufweisen. Die Befragten stammen aus elf Unternehmen (davon neun Großunternehmen) sowie zwölf Kommunikationsagenturen in Deutschland (fünf aus dem Top 20 Pfeffer-PR-Journal-Ranking; PR-Journal Verlag 2024). Diese Auswahl sollte sicherstellen, dass Akteure mit unterschiedlicher KI-Nutzung zu Wort kommen. Um sozial erwünschten Antworten entgegenzuwirken, wurden die ethischen Leitfragen (s. u.) in eine Befragung zum Thema „Kompetenzen und Rollenbilder in Zeiten von KI“ eingebettet. Dieses übergeordnete Thema, das im Rahmen eines Forschungsfreisemesters an der Fachhochschule Kiel bearbeitet wurde, stand auch bei den Befragungseinladungen im Fokus. Die einzelnen Fragen des Leitfadens wurden im Vorfeld nicht an die Befragten übermittelt, sodass keine Vorbereitung erfolgen konnte. Die wichtigsten Leitfragen zu den oben genannten Forschungsfragen lauteten: 1. Welche Regelungen existieren für den Einsatz von KI in der Kommunikation? <?page no="385"?> 3.9 Zwischen Realität und Richtlinien: Ethische Herausforderungen 385 2. Welche besonderen ethischen Herausforderungen bestehen speziell im eigenen Unternehmen, die über die „üblichen“ ethischen Probleme (beispielsweise Datenschutz, Bias, Transparenz) beim Einsatz von KI in der Kommunikation hinausgehen? Die Befragungen fanden über die Online-Videokonferenz-Software Zoom statt und dauerten zwischen 30 und 60 Minuten und wurden im Anschluss transkribiert. Die Auswertung der Antworten orientierte sich an der zusammenfassenden Inhaltsanalyse nach Mayring (z. B. Mayring und Fenzl 2019), unterstützt durch KI (NotebookLM). Ziel der Analyse war es, die unterschiedlichen Facetten der ethischen Herausforderungen abzubilden, unabhängig von ihrer Nennungshäufigkeit, und mit Zitaten zu illustrieren, um Einblicke in die Denkweise von PR-Praktikern zu erhalten. Zur Anonymisierung wurden die Befragten durchnummeriert und im Folgenden mit B abgekürzt. 3.9.4 Ergebnisse zum KI-Einsatz in PR und Kommunikation Um die Antworten zu konkreten KI-Regelungen und ethischen Herausforderungen einordnen zu können, wird zunächst ein Blick auf die KI-Nutzung der Befragten beziehungsweise ihrer Agenturen oder Abteilungen geworfen. Nutzung Erwartungsgemäß war KI im Sommer 2024 noch nicht überall und umfassend in den Kommunikationsalltag integriert; dies entspricht den Ergebnissen im PR-Trendmonitor aus dem Februar 2024, wonach 17 % noch keine KI nutzten und die Nutzenden sie nicht für anspruchsvollere Themen wie Krisen-, Reputations- und Influencer- Management einsetzten, sondern vor allem für Übersetzungen und Texterstellung (vgl. News Aktuell 2024). Insbesondere Agenturen und kleine Kommunikationsabteilungen von Unternehmen arbeiteten schon intensiv(er) mit KI, getrieben von personellen Engpässen, Effizienzüberlegungen oder Kundenanforderungen. Nicht zuletzt stand die Preisgestaltung von Agenturen durch KI unter einem erhöhten Rechtfertigungsdruck. Bei größeren Unternehmen zeigte sich bei der KI-Nutzung ein heterogenes Bild, das durch unterschiedliche Unternehmenskulturen inklusive ihres Flexibilitätsgrades geprägt war. Selbst in Unternehmen, die sich in Branchendiskursen als Vorreiter darstellten, war KI weder verpflichtend noch organischer Teil des Arbeitsalltags der gesamten Kommunikationsabteilung. Um die KI-Fähigkeiten der Abteilung oder der Agentur zu fördern, wurden von den meisten befragten Unternehmen KI-Teams gebildet sowie ein regelmäßiger Austausch anhand von konkreten Use Cases oder im Rahmen von Schulungen eingerichtet. Regelungen Den Befragten war zwar Mitte des Jahres 2024 bewusst, dass für eine KI-Nutzung in PR und Kommunikation, die nicht gegen die Compliance des Unternehmens und geltendes Recht verstößt (wie bspw. die DSGVO), zusätzliche Regelungen notwendig sind, aber häufig waren diese bislang lediglich verbalisiert worden. Eine Verschriftlichung etwaiger Richtlinien stand bei vielen noch aus. Dies entspricht der Bitkom- <?page no="386"?> 386 Elke Kronewald und Bastian Federlein Studie zum selben Zeitpunkt, in der lediglich 15 % aller befragten Unternehmen angaben, bereits Regeln für ihren KI-Einsatz festgelegt zu haben (vgl. Bitkom Research 2024; Abschnitt 3.9.2). Dass KI-Richtlinien bereits im Code of Conduct, dem Verhaltenskodex, hinterlegt wurden, war - zumindest für DAX-Unternehmen Anfang 2024 - ebenfalls noch unüblich (vgl. Müller und Kronewald 2026). Existierten bereits schriftliche KI-Regelungen, wurden diese im Intranet, beispielsweise in einem unternehmensinternen Wiki, hinterlegt, um einen einfachen und alltagstauglichen Zugriff zu gewährleisten. Bei wenigen waren KI-Richtlinien bereits Teil der internen Weiterbildung (ggf. inkl. einer Prüfung oder einer Selbstverpflichtung); an der Integration in Arbeitsverträge wurde gearbeitet. Bei der Erstellung dieser Richtlinien wurde sich an unterschiedlichen Grundlagen orientiert: der eigenen Unternehmenskultur (Leitbild, Werte, bereits unternehmensintern existierende Regelungen zu anderen Themen, bspw. Diversity), KI-Regelungen der Branche (z. B. KI-Richtlinie des DRPR; Abschnitt 3.9.2), aber auch der im Mai 2024 verabschiedeten und ab August 2024 sukzessive in Kraft tretenden KI-VO (Abschnitt 3.9.2). Bei den entwickelten KI-Richtlinien standen drei Inhalte im Fokus: 1. Überblick über die im jeweiligen Unternehmen erlaubten KI-Anwendungen, 2. Einhaltung des Datenschutzes sowie 3. die menschliche Prüfung beziehungsweise Freigabe von KI-generierten Inhalten ( „Freigabe-Instanz“ , B13). Für Entwicklung und Einhaltung etwaiger KI-Regelungen waren unterschiedliche Akteure verantwortlich: entweder die Kommunikation/ Kommunikatoren selbst, die IT- oder die Rechtsabteilung. Eine Kommunikationsagentur wies bereits einen definierten Prozess auf, in welchem Inhalte - wenn nötig auch für verschiedene Jurisdiktionen - geprüft wurden: „Dafür […] wurde eine Stelle eingerichtet, […] die kontrolliert alles, also bevor irgendwas raus geht, geht das bei uns durch die Rechtsanwaltskanzleien dieser Welt, ob das überhaupt genutzt werden kann oder nicht. […] da gibt es dann eben unterschiedliche Möglichkeiten sowohl im lokalen Markt oder auf globaler Ebene, wo du dich hinwenden kannst mit ethischen Fragestellungen: Wie darf ich das anwenden? Wie darf ich jenes anwenden? Muss ich bei dem irgendetwas einbeziehen, muss im Kundenvertrag irgendwas geändert werden? Wie können wir uns da absichern? Also, das ist tatsächlich recht umfänglich geregelt“ (B11). Aus diesem Zitat wird darüber hinaus ersichtlich, dass rechtliche und ethische Herausforderungen häufig im selben Kontext genannt wurden. Ethische Herausforderungenommunikation Von den Befragten aus der Kommunikationsbranche wurden zahlreiche solche ethischen Herausforderungen identifiziert. Im Folgenden werden sie unterschieden in operative und (kommunikations-)strategische Herausforderungen, auch wenn diese Zuordnung nicht durchgehend trennscharf erfolgen konnte. Operative ethische Herausforderungen Sorgen machten den Befragten der unbewusste und unerlaubte Einsatz von KI- Tools. Zum einen wurde konstatiert, dass in vielen Anwendungen bereits KI eingesetzt wird, ohne dass dies den Nutzern bewusst ist. Dies gilt insbesondere für Bild- <?page no="387"?> 3.9 Zwischen Realität und Richtlinien: Ethische Herausforderungen 387 bearbeitungsprogramme auf Smartphones oder Notebooks, die KI enthalten und von Kommunikatoren genutzt werden. Zum anderen wurde befürchtet, dass KI-Tools Anwendung finden, die vom Unternehmen nicht freigegeben wurden. Dieses als „Schatten-KI“ bezeichnete Phänomen ist jedoch nicht der Kommunikationsbranche oder -abteilung vorbehalten, sondern betrifft Unternehmen allgemein (vgl. Bitkom Research 2024). Abhilfe können konkrete, verschriftlichte und allgemein bekannte Unternehmensregelungen zu erlaubten KI-Anwendungen schaffen. Datenschutz wird zwar in fast allen KI-Richtlinien thematisiert, aber in der Realität stellt sich dessen Einhaltung als anspruchsvoll heraus. Einerseits wurde kritisch reflektiert, ob das Löschen von Namen und allen Informationen, die Rückschlüsse auf ein Unternehmen erlauben, ausreicht, um eine vollständige Anonymisierung für KI sicherzustellen. Andererseits ist fraglich, ob die Arbeit mit anonymisierten Dokumenten die gewünschte KI-Leistung hervorbringt. Mögliche Lösungen liegen in der Verwendung von Tools zur automatisierten Anonymisierung oder von selbst betriebenen Sprachmodellen, die jedoch eine diesbezügliche Expertise sowie finanzielle Aufwände bedingen. Alle KI-Regelwerke thematisieren die Prüfung, Kontrolle und Freigabe durch den Menschen. Die jeweilige Ausgestaltung dieser Tätigkeiten umfasst verschiedene Aspekte und ist daher anspruchsvoll: „Ich muss in der Lage sein, es [KI] kritisch zu hinterfragen, sonst werde ich irgendwann durch KI, […] die ich kritiklos übernehme, selber gesteuert“ (B4). Fakten müssen mit zum Teil hohem Aufwand überprüft werden. Zudem besitzen KIgenerierte Texte aufgrund ihrer Struktur, Stringenz und Eloquenz eine hohe Überzeugungskraft. Dies erschwert die Aufdeckung von Unstimmigkeiten. Hinzu kommt, dass große Textmengen in kurzer Zeit generiert werden können und geprüft werden müssen. Zwar dürfte mit zunehmender Erfahrung diese Prüfung leichter fallen, allerdings können Zeitdruck, Unachtsamkeit und eine mangelnde Bereitschaft zur Übernahme von Verantwortung dazu führen, dass diskriminierender oder einen Bias aufweisender KI-Content nicht detektiert wird und somit gegen ethische Grundsätze und Werte des Unternehmens und der Unternehmenskommunikation verstößt. Da solche Abweichungen häufig unterschwellig sein können, ist es wichtig, dass sich Störgefühle beim Lesen unstimmiger Inhalte möglichst intuitiv einstellen: „Der ethische Kompass muss so sicher sein, dass die [Mitarbeitenden] irritiert sind, wenn sie über etwas lesen, was nicht den Weltbildern und den Werten entspricht, die wir nach vorne vertreten wollen. Das ist gar nicht so leicht, weil alles, was sie von KI bekommen, ist häufig sehr eloquent und glatt formuliert“ (B21). Dass KI-Nutzung sowie KI-generierte Inhalte im Hinblick auf ihre Passung mit Kultur, Leitbild, Werten, Mission und Vision des Unternehmens überprüft werden müssen, illustrieren drei Fallbeispiele aus den Befragungen:  Ein nachhaltiges und naturnah positioniertes Unternehmen hat sich dafür entschieden, KI zwar für die Erstellung von Texten zu verwenden, jedoch nicht für das Generieren von realitätsnahen Bildern: „Aber wir fühlen uns unseren Stakeholdern, vor allem unseren Kundinnen und Kunden, aber auch Lieferanten gegenüber verpflichtet, irgendwo Natürlichkeit zu präsentieren. […] Und wenn ich dann anfange, unseren Kunden Bildern von Naturprodukten zu präsentieren, die wir mit KI <?page no="388"?> 388 Elke Kronewald und Bastian Federlein erstellen, dann beißt sich das schon sehr. Das können wir nicht machen“ (B3). Hier war der Verzicht auf KI-Bilder eine kommunikationsstrategische, ethische Entscheidung auf Basis der Unternehmenswerte und zur Sicherung der Reputation bei den Stakeholdern.  Ein Unternehmen aus dem Bildungsbereich achtete darauf, dass mit KI erstellte Inhalte keine unrealistischen Versprechungen enthalten, da erfolgreiche Bildung nicht nur vom Angebot, sondern maßgeblich vom Bildungsempfänger abhängt: „Wenn wir Texte über Bildungsangebote verfassen und wenn wir Bildungsangebote beschreiben […] und die auch noch einmal durch eine KI jagen, dann stellen wir oftmals fest hinterher, dass es nicht nur viel zu werblich ist, sondern dass auch zu viel versprochen wird, was wir gar nicht halten können“ (B20).  Ein Unternehmen aus dem Gesundheitssektor überprüfte KI-generierte Inhalte ebenfalls intensiv auf die Übereinstimmung mit den Unternehmenswerten, da bei Themen wie Krankheitsbekämpfung, Notfallversorgung oder Lebensrettung KI in der Kreation von Texten, Bildern und Musik bevorzugt auf Dramatik setzt: „ Wir versuchen halt immer das Leben zu zeigen und nicht die Kehrseite und mit Gefahr zu drohen. […] Wir sind nicht die, die für die Dramatik stehen, sondern wir stehen für den Schutz, sowohl im Bild als auch im Ton und im Text“ (B16). Solche Herausforderungen lassen sich in Teilen durch die Verwendung unternehmensspezifisch angepasster KI minimieren. Ein Zielkonflikt wurde zwischen der transparenten Kennzeichnung von KI-erzeugten Inhalten und der befürchteten negativeren Wahrnehmung dieser Inhalte durch den Rezipienten gesehen. Die Unsicherheit in der Anwendung wird dadurch verstärkt, dass bestehende KI-Regelungen im Hinblick auf Ausgestaltung und Verbindlichkeit von Transparenz- und Kennzeichnungspflichten unterschiedlich ausfallen (Abschnitt 3.9.2). Ob von KI erstellte Inhalte im Bereich der Öffentlichkeitsarbeit und PR tatsächlich kritischer wahrgenommen werden, ist noch unklar. Bisherige Studien zur Akzeptanz von KI-generierten Inhalten stammen häufig aus der Journalismusforschung (z. B. Vogler et al. 2023) und sind somit nicht direkt auf die Rezeption von Unternehmenskommunikation übertragbar. (Kommunikations-)Strategische ethische Herausforderungen Sind Unternehmen oder Agenturen international tätig, stellt sich die Frage, an welchem Land man sich im Hinblick auf die Einhaltung juristischer und ethischer Grundsätze der KI-Nutzung ausrichtet. Unternehmen stehen also vor der Wahl und der strategischen Entscheidung, einheitliche und weltweite ethische Standards für den KI-Einsatz in PR und Kommunikation zu entwickeln, die sich an dem Land mit den strengsten Richtlinien orientieren, oder für jeden Markt angepasste und damit unterschiedliche KI-Richtlinien. Verschiedene Regelungen könnten jedoch im Kommunikationsalltag zu Verwirrung und damit Fehlern führen. Insbesondere Agenturen achteten darauf, dass der Wunsch des Kunden im Hinblick auf den Einsatz von KI für seine PR-Maßnahmen geltendem Recht und den gewünschten ethischen Standards entsprach: „Kunde kommt dann doch manchmal mit Ideen um die Ecke, wo wir sagen müssen, können wir aus ethischen Gründen nicht, wollen wir aus ethischen Gründen nicht. […] Ist im gelben bis roten Bereich, laut KI- VO“ (B12). Ein Beispiel wäre das „Nachbauen“ einer realen Person unter Verwendung von KI, um Argumentationslinien oder Narrative bereits im Vorfeld auf potenzielle Widerstände der betreffenden Person zu überprüfen. <?page no="389"?> 3.9 Zwischen Realität und Richtlinien: Ethische Herausforderungen 389 Als ethisches Problem wurde zudem benannt, dass - häufig aus Kostengründen - nicht alle Mitarbeitenden im Unternehmen denselben Zugriff auf KI haben. Diese Problematik betrifft zum einen den grundsätzlichen Zugang, zum anderen den Zugang zu verschieden leistungsfähigen KI-Modellen: „Unterschiedliche Menschen haben Zugang zum Beispiel zu dem Copilot, andere Hierarchiestufen nicht. […] Was ich fragwürdig finde, ob das wirklich der richtige Ansatz ist, da so eine Hierarchie aufzubauen oder zu verstärken“ (B17). Eine solche Ungleichbehandlung kann zur Manifes-tation hierarchischer Machtstrukturen führen, die beruflichen Chancen einzelner Mitarbeiter einschränken und die Leistungsfähigkeit des Unternehmens unterminieren. Weitere grundsätzliche ethische Fragen, die sich Kommunikatoren für ihre Branche und die Gesellschaft durch die Verbreitung von KI stellten, war, ob KI jetzt und perspektivisch zu einer Informationsüberflutung der Rezipienten führt und ob dem entgegengewirkt werden kann, indem statt immer mehr, immer relevantere Inhalte produziert werden: „Also, ob man nicht auch irgendwann mal sagen muss, wir müssen mal aufhören immer mehr zu produzieren, weil das letztendlich zu einer großen Desinformation führen wird. Und wenn das gar nicht zu stoppen ist, dann haben wir als Agentur unter moralischen oder ethischen Ansprüchen auch die Aufgabe mitzuwirken, dass in diesem Informationswirrwarr sich irgendjemand noch zurechtfindet“ (B2). Eine weitere wesentliche Entscheidung von Unternehmen und damit auch der Kommunikationsbranche betraf das Ersetzen von menschlicher Arbeitskraft durch KI- Anwendungen: „Außer, dass man ja schon die Frage stellen kann, wie ethisch es ist, darüber nachzudenken, ob man eventuell günstiger eine KI einsetzt als einen Menschen. Stichwort Recruiting.“ (B12). Zu den aufgeführten (kommunikations-)strategischen Herausforderungen findet man in den vorhandenen KI-Richtlinien und -Regelwerken insgesamt kaum Orientierung. Viele dieser Fragen müssen daher vom und im Unternehmen geklärt werden. Hinweise zur Jobsicherheit können Teil von unternehmensinternen Vereinbarungen sein: „Es gibt zum Beispiel auch eine Erklärung zwischen dem Betriebsrat und […] Arbeitgeber, dass künstliche Intelligenz eben keine Jobs gefährden darf“ (B17). Des Weiteren empfiehlt es sich für Unternehmen und Agenturen, strategische Überlegungen anzustellen, welche Tätigkeiten in Zukunft durch KI übernommen werden und wie das Kompetenzprofil der Mitarbeitenden durch geeignete Weiterbildungsmaßnahmen erweitert werden kann: „Aber wenn wir jetzt mal davon ausgehen, es [KI] macht das Leben leichter, was ist dann unser Ziel? Ist es Effizienzgewinn? […] Ist es mehr Output? […] Werden wir künftig weniger Leute in der Kommunikation? Können wir andere Dinge machen? Und dann die wirkliche auch personalkritische Frage, mit der wir uns beschäftigen müssen: Die Leute, die Ressourcen gewinnen durch den Einsatz von KI, beispielsweise in Texten, sind das die, die ich dann einsetzen kann für […] das besondere Etwas, die besondere Idee, die kritische Beratung? Sind das die gleichen Leute? “ (B1). 3.9.5 Fazit und Ausblick Die Interviews mit Kommunikationsverantwortlichen aus Agenturen und Unternehmen offenbarten zahlreiche Herausforderungen beim Einsatz von KI in der Arbeitsrealität. Die Befragung zeigte erneut, dass PR-Verantwortliche ein ausgeprägtes Be- <?page no="390"?> 390 Elke Kronewald und Bastian Federlein wusstsein für ethische Problemlagen besitzen und ihre gesellschaftliche Verantwortung kritisch reflektieren. Ein ausgeprägtes moralisches und ethisches Bewusstsein von Kommunikatoren ist daher für die Befragten nach wie vor von zentraler Bedeutung. Die genannten Herausforderungen betrafen sowohl die operative als auch die strategische Ebene, das Individuum ebenso wie das Unternehmen und die Branche. KI- Richtlinien, die von der EU, KI-Anwendungen oder Berufsverbänden zur Verfügung gestellt werden, können diese Herausforderungen jedoch nur allgemein und nicht in allen Facetten beziehungsweise passgenau für das jeweilige Unternehmen abbilden. Richtlinien, wie die zu Transparenz und Kennzeichnung, beinhalten Interpretations- und Umsetzungsspielräume, die abhängig von Unternehmenswerten und -kultur gestaltet werden können. Unternehmensinterne Diskurse zum Umgang mit KI sind eine Möglichkeit, Einstellungen der Belegschaft frühzeitig zu erfassen und in Regelungen zu überführen, die Orientierung geben. Zudem legen die Interviews nahe, dass Einführung und Einsatz von KI - nicht nur in der Kommunikation selbst, sondern auch im Gesamtunternehmen - intensiv kommunikativ begleitet werden müssen, um Verstöße gegen Recht, Compliance-Vorgaben, Unternehmens- und Branchenwerte zu vermeiden. Insbesondere der intuitive und jederzeit verfügbare Zugriff auf KI kann im hektischen Arbeitsalltag dazu verleiten, (un-)bewusst ethischen Fragestellungen nicht mit der notwendigen Sorgfalt zu begegnen. Unternehmensspezifisch angepasste oder unternehmensinterne KI- Anwendungen lösen nur einen Teil der genannten Herausforderungen. Kontinuierliche Trainings und Aussprachen, eine gelebte Fehlerkultur sowie alltagstaugliche, mit konkreten Fallbeispielen versehene, KI-Regelungen, auf die alle Mitarbeitenden mühelos zugreifen können, sind wichtige Bausteine, um die Sensibilisierung aufrecht zu erhalten und das KI-Wissen konstant zu aktualisieren. Literatur Amtsblatt der Europäischen Union (2024). Verordnung (EU) 2024/ 1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024. https: / / eur-lex.europa.eu/ legal-content/ DE/ TXT/ PDF/ ? uri=OJ: L_202401689. Zugegriffen am 14. März 2025 Bitkom, Branchenverband der deutschen Informations- und Telekommunikationsbranche (2024). Generative KI im Unternehmen. Rechtliche Fragen zum Einsatz generativer Künstlicher Intelligenz im Unternehmen . https: / / www.bitkom.org/ sites/ main/ files/ 2024-02/ Bitkom-Leitfaden-Generative-KI-im-Unternehmen.pdf. Zugegriffen am 20. März 2025 Bitkom Research (2024). Künstliche Intelligenz in Deutschland: Perspektiven aus Bevölkerung & Unternehmen. https: / / www.bitkom.org/ sites/ main/ files/ 2024- 10/ 241016-bitkom-charts-ki.pdf. Zugegriffen am 7. Februar 2025 Bundesregierung (2024). Einheitliche Regeln für Künstliche Intelligenz in der EU. https: / / www.bundesregierung.de/ breg-de/ aktuelles/ ai-act-2285944. Zugegriffen am 23. März 2025 Deutscher Ethikrat (2023). Mensch und Maschine - Herausforderungen durch Künstliche Intelligenz. Stellungnahme . Berlin. https: / / www.ethikrat.org/ fileadmin/ Pu- <?page no="391"?> 3.9 Zwischen Realität und Richtlinien: Ethische Herausforderungen 391 blikationen/ Stellungnahmen/ deutsch/ stellungnahme-mensch-und-maschine.pdf. Zugegriffen am 25. Januar 2024 Deutsche Telekom (2022). Next Communication. Eine Studie zur Zukunft der Kommunikation. https: / / www.telekom.com/ resource/ blob/ 1018970/ b8c3bc40bc90ca1d04eeff28e43ba062/ dl-studie-kommunikation-der-zukunftdata.pdf. Zugegriffen am 7. Februar 2025 DRPR, Deutscher Rat für Public Relations (2012). Deutscher Kommunikationskodex. https: / / drpr-online.de/ wp-content/ uploads/ 2023/ 10/ DRPR_Deutscher-Kommunikationskodex-_.pdf. Zugegriffen am 20. März 2025 DRPR, Deutscher Rat für Public Relations (2023a). Deutscher Rat für Public Relations stellt Regeln zum Einsatz von KI vor . https: / / drpr-online.de/ 2023/ 09/ 14/ deutscherrat-fuer-public-relations-stellt-regeln-zum-einsatz-von-ki-vor/ . Zugegriffen am 20. März 2025 DRPR, Deutscher Rat für Public Relations (2023b). Transparenz und Kennzeichnungspflicht: Deutscher Rat für Public Relations finalisiert Richtlinie zum Einsatz von KI in der PR. https: / / drpr-online.de/ 2023/ 11/ 22/ transparenz-und-kennzeichnungspflicht-deutscher-rat-fuer-public-relations-finalisiert-richtlinie-zum-einsatz-vonki-in-der-pr/ . Zugegriffen am 20. März 2025 DRPR, Deutscher Rat für Public Relations (2023c). DRPR Richtlinie zum Einsatz von KI in der PR. https: / / drpr-online.de/ wp-content/ uploads/ 2023/ 11/ DRPR_-Richtlinie-zum-Einsatz-von-KI-in-der-PR_.pdf. Zugegriffen am 20. März 2025 Kronewald, E. (2025). Ethische Grundsätze für den Einsatz von KI in der PR: Ein Überblick über (inter-)nationale KI-Richtlinien. In C. Vaih-Baur, V. Mathauer, E.- I. von Gamm & D. Pietzcker (Hrsg.), KI in Medien, Kommunikation und Marketing (S. 337-350). Springer VS. Link, J., & Zerfaß, A. (2023). Ethische Dilemmata in der digitalen Kommunikation: Eine empirische Untersuchung zum Umgang mit potenziellen Grenzüberschreitungen in Entscheidungsprozessen. In T. Koch, J. Beckert, B. Viererbl & N. Denner (Hrsg.), Grenzen, Entgrenzung und Grenzüberschreitungen der Public Relations und Organisationskommunikation (S. 219-241). Springer Fachmedien. Mayring, P., & Fenzl, T. (2019). Qualitative Inhaltsanalyse. In N. Baur & J. Blasius (Hrsg.), Handbuch Methoden der empirischen Sozialforschung , (2. Aufl.) (S. 633- 648). Springer VS. Müller, T., & Kronewald, E. (2026, in Vorbereitung). Sprache als Grundlage erfolgreicher Compliance-Kommunikation: Verständlichkeit von Codes of Conduct. In L. Rademacher, A. Schach, C. Schwägerl & P. Stücheli-Herlach (Hrsg.), Organisationsdiskurse. Sprache und Dialektik in der strategischen Kommunikation. Mynewsdesk (2024). PR und Kommunikation in Deutschland 2024. Aufwertung der Rolle unserer Branche für mehr Wirkung und Einfluss. Ein Bericht von Mynewsdesk. News aktuell (2024). Texten ja, Krisen managen nein - Wo Kommunikationsprofis KI intensiv nutzen und wo nicht. https: / / www.presseportal.de/ pm/ 6344/ 5789406. Zugegriffen am 27. Februar 2025 <?page no="392"?> 392 Elke Kronewald und Bastian Federlein OpenAI (2024). Europe Terms of Use. https: / / openai.com/ policies/ terms-of-use/ . Zugegriffen am 28. Februar 2025 PR-Journal Verlag (2024). Hauptranking (testierte Agenturen) 2023 (83 Einträge). https: / / datenbanken.pr-journal.de/ pr-agenturrankings/ pfeffers-pr-ranking.html? view=ranking&layout=detail&type=2. Zugegriffen am 20. März 2025 Vogler, D., Eisenegger, M., Fürst, S., Udris, L., Ryffel, Q., Rivière, M., & Schäfer, M. S. (2023). Künstliche Intelligenz in der journalistischen Nachrichtenproduktion: Wahrnehmung und Akzeptanz in der Schweizer Bevölkerung. In: Forschungszentrum Öffentlichkeit und Gesellschaft (foeg). Jahrbuch Qualität der Medien 2023 . Basel: Schwabe Verlag, 33-45. Zerfass, A., Tench, R., Verčič, D., Moreno, A., Buhmann, A., & Hagelstein, J. (2023). European Communication Monitor 2023. Looking back and ahead: 15 years of research on strategic communication . EUPRERA/ EACD. <?page no="393"?> Abbildungsverzeichnis Abb. 1 Framework für die Generierung und Verbreitung von Managementtrends....................................................................................................................... 13 Abb. 2 Typische Wahrnehmungsfilter bei der Meinungsbildung über (neue) Themen ................................................................................................................... 14 Abb. 3 Transformation von Personen, Gruppen, Organisationen, Gesellschaften................................................................................................................... 18 Abb. 4 Disruptive Veränderungen und die Erwartungsniveaus unterschiedlicher Marktsegmente am Beispiel digitale Fotografie ................................. 21 Abb. 5 Threat Intelligence Lifecycle .............................................................................. 46 Abb. 6 Categories of CTI.................................................................................................. 47 Abb. 7 Adversarial Machine Learning .......................................................................... 51 Abb. 8 Globale Nachhaltigkeitsziele (Sustainable Development Goals SDGs) der Agenda 2030 für Nachhaltige Entwicklung ............................................. 74 Abb. 9 Potenziale von KI: Nachhaltigkeits-Anwendungsfälle ................................. 75 Abb. 10 Anomalie-Karte des Untersuchungsgebietes im Thüringer Wald............. 78 Abb. 11 Nachhaltigkeitsindex für Künstliche Intelligenz ........................................... 81 Abb. 12 Training von KI-Modellen .................................................................................. 83 Abb. 13 Code #1 ................................................................................................................... 97 Abb. 14 Code #2 ................................................................................................................... 98 Abb. 15 Code #3 ................................................................................................................... 98 Abb. 16 Code #4 ................................................................................................................... 99 Abb. 17 Code #5 ................................................................................................................... 99 Abb. 18 Code #6 ................................................................................................................. 100 Abb. 19 Code #7 ................................................................................................................. 100 Abb. 20 Code #8 ................................................................................................................. 100 Abb. 21 Code #9 ................................................................................................................. 100 Abb. 22 Code #10 ............................................................................................................... 101 Abb. 23 Code #11 ............................................................................................................... 101 Abb. 24 Code #12 ............................................................................................................... 102 Abb. 25 Code #13 ............................................................................................................... 102 Abb. 26 Code #14 ............................................................................................................... 103 Abb. 27 Code #15 ............................................................................................................... 103 Abb. 28 Nicht-KI-System-Prozess .................................................................................. 110 Abb. 29 KI-System Prozess .............................................................................................. 110 Abb. 30 KI bietet auch für visuelle Formate jenseits des Kinos wie immersive Ausstellungen spannende Möglichkeiten ..................................................... 124 Abb. 31 KI-generierte Visualisierung eines KI-Workshops ..................................... 125 <?page no="394"?> 394 Abbildungsverzeichnis Abb. 32 Bei der Illustration von KI-Filmproduktion darf er nicht fehlen: der freundliche Filmroboter .................................................................................... 126 Abb. 33 Entspannte Stimmung in einer Alien-Bar im Jahre 2120........................... 127 Abb. 34 Jetzt gibt es Ärger: Dem Polizisten bleibt nur ein kurzer Moment, um zu reagieren ......................................................................................................... 127 Abb. 35 In Midjourney generiertes Bild eines jungen Mannes vor einem Haus . 128 Abb. 36 Das gleiche Motiv in Midjourney mit dem Niji-Modell im Anime- Look generiert ..................................................................................................... 128 Abb. 37 KI-generiertes Storyboard................................................................................. 129 Abb. 38 Anzahl der Mitarbeiter im Kernmarkt der deutschen Games-Branche.. 138 Abb. 39 Transformation der Games Industry.............................................................. 142 Abb. 40 ChatGPT als Beginn des Zeitalters der KI..................................................... 163 Abb. 41 Schwache und starke KI im Vergleich ........................................................... 166 Abb. 42 Erzeugung von KI-Bildern des Autors Dominic Lindner über Tryiton- AI für soziale Netzwerke................................................................................... 168 Abb. 43 Bei der Produktion von Waren sind die Zutaten wichtig - genauso ist es auch bei KI....................................................................................................... 169 Abb. 44 Technostress und Information-Overload sind ständige Begleiterscheinungen der neuen KI-Arbeitswelt .................................................................. 171 Abb. 45 Agilität ist wie Kuchen essen........................................................................... 172 Abb. 46 Übersicht Projekt KompiLe .............................................................................. 186 Abb. 47 Aufbau der KI-Module ....................................................................................... 188 Abb. 48 Design-based Research Prozess der Module................................................. 190 Abb. 49 Architektur der Offenburger Moodle LXP .................................................... 194 Abb. 50 (a) Bewertung eine Lernressource, (b) Block bestbewertete Aktivitäten..... 195 Abb. 51 Trends-PlugIn ...................................................................................................... 195 Abb. 52 Lerninhalt und dazu empfohlene ähnliche Lerninhalte ............................. 196 Abb. 53 Kombination von Content Curation und Lernempfehlungen .................. 197 Abb. 54 Eintrag einer Lernressource in der Moodle-Datenbank ............................ 198 Abb. 55 Externe Lernressourcen zum Lernen ............................................................. 199 Abb. 56 (a) Ich habe externe Lernressourcen bewertet (b) Bewertungen und Kommentare waren für mich hilfreich .......................................................... 200 Abb. 57 Die Empfehlungen fand ich hilfreich ............................................................. 200 Abb. 58 AI-Learning Prototyp ........................................................................................ 202 Abb. 59 Phasenmodelle der KI ........................................................................................ 250 Abb. 60 Strukturelle Sichtweise der KI Governance .................................................. 251 Abb. 61 Strukturierung von KI-Risiken nach dem EU AU Act................................ 251 Abb. 62 Kernkomponenten eines KI-Agenten............................................................. 255 Abb. 63 Kausale Taxonomie der KI-Risiken ................................................................ 259 Abb. 64 Domänentaxonomie der KI-Risiken ............................................................... 260 Abb. 65 Veränderungen in Organizationen ................................................................. 278 <?page no="395"?> Abbildungsverzeichnis 395 Abb. 66 Verwendung von KI in Coachingprozess ...................................................... 283 Abb. 67 Verwendung von KI in der Beratung ............................................................. 284 Abb. 68 Landkarte Coaching & Beratung..................................................................... 285 Abb. 69 Übersicht Teilgebiete und Methoden erweitert um exemplarische Studien aus dem Anwendungsfeld Marketing ............................................. 292 Abb. 70 Systematisierungsrahmen von KI-Anwendungen im Marketing ............ 293 Abb. 71 Prozess KI-Marketing-Strategie....................................................................... 301 Abb. 72 Entwicklung der KI und deren Nutzung von Unternehmen..................... 311 Abb. 73 Anwendungsgebiete KI in Unternehmen...................................................... 312 Abb. 74 Einsatzfelder von KI in Unternehmen............................................................ 314 Abb. 75 Die größten Herausforderungen für Unternehmen bei einer KI-Einführung ................................................................................................................. 315 Abb. 76 Übersicht der Herausforderung bei Implementierung von KI.................. 317 Abb. 77 Interpersonelle und organisatorische Herausforderungen ....................... 318 Abb. 78 Eigenschaften für einen verantwortungsvollen Umgang mit KI ............. 321 Abb. 79 Ganzheitlicher Ansatz einer KI-Implementierung ...................................... 324 Abb. 80 Vergleich von Werbeanzeigen für Meta........................................................ 338 Abb. 81 Aufbau des Online-Fragebogens ..................................................................... 349 Abb. 82 Bestandteile des ALMERE-Modells ................................................................ 353 Abb. 83 Verschiedene Entwicklungsstufen der Avatar-Designs............................. 355 Abb. 84 Visualisierung der Umfrage-Ergebnisse aus Q4 und Q5 anhand der Limbic Map .......................................................................................................... 358 Abb. 85 Fähigkeitsprofil eines idealen Büro-Roboters .............................................. 360 Abb. 86 Marketingmaßnahmen vom 14. Mai 2024 ..................................................... 367 Abb. 87 Durchschnittliche Sitzungsdauer von Juni 2023 bis Mai 2024.................. 369 Abb. 88 Sitzungen mit Chatbot-Nutzung ..................................................................... 369 Abb. 89 Durchschnittliche Sitzungsdauer mit und ohne Chatbot-Nutzung im Vergleich für den Monat Mai 2024 ................................................................. 370 Abb. 90 Fehlerquote der Chatbot-Antworten.............................................................. 371 Abb. 91 Häufigkeitsverteilung der Kategorien............................................................ 372 Abb. 92 Kategorie: Fehler................................................................................................. 373 Abb. 93 Anzahl des ausgelösten Ereignisses „Chatbot-Nutzung“........................... 374 <?page no="396"?> Tabellenverzeichnis Tab. 1 Tools zur Bewertung der CO 2 -Emissionen und Energieeffizienz von KI- Modellen.................................................................................................................... 85 Tab. 2 Erforderliche Prompts für die sichere Eingabevalidierung.......................... 105 Tab. 3 Erforderliche Prompts zur Sicherstellung der korrekten Verwendung der Kryptographie ................................................................................................. 105 Tab. 4 Erforderliche Prompts für die Sicherheit der Webanwendung................... 105 Tab. 5 Erforderliche Prompts für die Sicherstellung der Zugriffskontrolle.......... 106 Tab. 6 Gesamtresultate * Initiale 17 CWEs. † Verbesserung durch Prompting- Techniken ............................................................................................................... 107 Tab. 7 Dimensionen der KI-Kompetenz mit den Entsprechungen in SNAIL und MAILS .............................................................................................................. 190 Tab. 8 Veränderungen der KI-Kompetenz in der Selbsteinschätzung ................... 191 Tab. 9 Prinzipien-Phasen-Matrix am Beispiel der Phase „ Planung & Design “ ..... 253 Tab. 10 Phasen-Prinzipien-Matrix am Beispiel des Prinzips „ Transparenz & Erklärbarkeit “ ......................................................................................................... 253 Tab. 11 Kategorisierung der OECD-Risiken .................................................................. 258 Tab. 12 Anwendungsfeld „Situationsanalyse“ und ausgewählte Arbeiten ............. 294 Tab. 13 Anwendungsfelder „Marketing-Strategien“ und ausgewählte Arbeiten .. 297 Tab. 14 Exemplarische Anwendungsfelder „Marketing-Implementierung“ und ausgewählte Arbeiten........................................................................................... 297 Tab. 15 Exemplarische Anwendungsfelder „Marketing-Controlling“ und ausgewählte Arbeiten................................................................................................. 300 Tab. 16 Ethische Herausforderungen bei der Einführung und Nutzung von KI in Unternehmen..................................................................................................... 322 Tab. 17 Phasen und Themenbereiche einer ganzheitlichen KI-Implementierungsstrategie ................................................................................................................... 325 Tab. 18 Überblick über relevante KI-Regelungen für PR und Kommunikation..... 382 <?page no="397"?> Autorenverzeichnis Über die Herausgeber Prof. Dr. Thomas Breyer-Mayländer, (Dipl.-Wirtschaftsingenieur (FH), Dipl. Informationswissenschaftler, Dr. phil.) war Referent beim Bundesverband Deutscher Zeitungsverleger und Geschäftsführer der Zeitungs Marketing Gesellschaft, bevor er 2001 eine Professur für Medienmanagement an der Hochschule Offenburg übernahm. Er befasst sich seit über zwanzig Jahren auch als Berater und Autor mit dem Themenfeld Führung, Medien und Kommunikation. Dr. rer. soc. (HSG) Dirk Drechsler ist Professor für betriebswirtschaftliches Sicherheitsmanagement mit den Schwerpunkten Risiko-, Compliance- und Anti- Fraud-Management an der Hochschule Offenburg. Aktuelle Forschungsschwerpunkte sind die KI-Risikolandschaft und die verantwortungsvolle KI, (Cyber-)Geopolitik und Cyberrisiken. Dirk Drechsler ist Autor zahlreicher Publikationen rund um das Risikomanagement. Dr. Christopher Zerres ist Professor für Marketing an der Hochschule Offenburg. Seine Schwerpunkte in Lehre und Forschung sind das Online-Marketing und das Marketing-Controlling. Christopher Zerres ist Autor zahlreicher Publikationen zu den Bereichen Management und Marketing. Über die Autorinnen und Autoren Prof. Dr. Lutz Anderie ist #1-Bestsellerautor von Wirtschaftsbüchern zu den Themen Games, Digitalisierung und Künstliche Intelligenz und Professor für Wirtschaftsinformatik an der Frankfurt University of Applied Sciences. Er leitete die Frankfurt Game Studies I-III, eine akademische Forschungsreihe, die sich auf die Monetarisierung und die Wertschöpfungskette der Games-Branche konzentrierte. Er ist Gründungsmitglied des game-Verbandes, Mitglied der RAL Gütegemeinschaft Serious Games e.V. und Mitglied des Institute for Data-Driven Business (d2b). Lutz Anderie verfügt über umfangreiche globale Erfahrungen im operativen und strategischen Management in den Bereichen Digital Business, Vertrieb, Marketing und E- Commerce bei führenden Unternehmen wie Sony, Hasbro, Paramount, Atari und Fujifilm. Er bekleidete Führungspositionen als CEO, Vice President, Geschäftsführer, Vertriebsleiter, Marketingdirektor und E-Commerce-Director bei börsennotierten Großkonzernen und KMU. Univ.-Prof. i.R. Dr. Stefan Aufenanger war bis 2019 als Professor für Erziehungswissenschaft und Medienpädagogik am Institut für Erziehungswissenschaft der Universität Mainz und ist seitdem Senior-Forschungsprofessor für digitale Bildung. Er forscht überwiegend zum Lehren und Lernen mit digitalen Medien in der frühkindlichen Bildung sowie in Schule und Hochschule. Dominik Binder ist wissenschaftlicher Mitarbeiter an der Hochschule Offenburg. Sein Fokus ist sicheres maschinelles Lernen. Aktuell forscht er in dem BMBF-Projekt SMILE (FKZ 16KIS1929). <?page no="398"?> 398 Autorenverzeichnis Prof. Dr. Simone Braun ist Professorin für E-Commerce an der Hochschule Offenburg. Ihr Schwerpunkt in Forschung und Lehre sind Künstliche Intelligenz im Handel und E-Commerce, Omni-Channel-Commerce und Kundendatenmanagement. Mit langjähriger Erfahrung in der Innovationsentwicklung und fundierter Expertise im Umgang mit Kundendaten verbindet sie wissenschaftliche Perspektiven mit praktischer Umsetzung. Sie treibt insbesondere die Weiterentwicklung KI-gestützter Lösungen im Handel und die Gestaltung kundenorientierter digitaler Anwendungen voran. Alexander Busse ist Gründer von Cybervize . Er verfügt über mehr als zwei Jahrzehnte Erfahrung in der Informationssicherheit. In Führungsrollen bei KPMG , Deloitte und PwC leitete er Beratungsprojekte für Großbanken, Telekommunikationsanbieter, staatliche Institutionen und mittelständische Unternehmen. Als Equity- Partner war er verantwortlich für die Umsetzung anspruchsvoller Sicherheitsstrategien. Er veröffentlicht regelmäßig Fachtexte zur IT-Sicherheit und ist Herausgeber mehrerer Beiträge zur Cybersecurity. Im Cybervize-Podcast spricht er mit Expertinnen und Experten aus der Kriminalitätsprävention und Sicherheitsforschung. Als Dozent vermittelt er praxisnahes Wissen an Menschen, die beruflich mit Cybersicherheit zu tun haben. Im Zentrum seiner Arbeit steht die Entwicklung von Verfahren, die komplexe Sicherheitsanforderungen verständlich und handhabbar machen. Ein Beispiel dafür ist GraphRAG , ein Konzept, das auf der Cybervize-Plattform eingesetzt wird, um die Cybersicherheit von Unternehmen zu gewährleisten. Wolfhart Fabarius ist Journalist, Autor und Lektor. Zu seinen journalistischen Themengebieten zählen Finanzierung, Corporate Governance und Künstliche Intelligenz. 2014 veröffentlichte er als Herausgeber und Autor das eBook „ ShipPress 2014 - Studie über Schiffsfinanzierung “ und 2023 als Autor das Buch „ ChatGPT in der Unternehmenspraxis - Anwendungsbeispiele für Risikomanagement, Controlling und Compliance “. Von 2014 bis 2019 war er Redakteur beim Täglichen Hafenbericht der DVV Media Group in Hamburg. Seit 2020 ist er Redakteur und Lektor im Lektorat Management und Wirtschaft des Erich Schmidt Verlags in Berlin sowie Chefredakteur der ZfRM (Zeitschrift für Risikomanagement). Bastian Federlein (Dipl. Wirtschaftsinformatiker) ist selbstständig tätig im Bereich Softwareberatung und -entwicklung. Seine Themenschwerpunkte sind Unternehmenssoftware im Bereich SAP und Künstliche Intelligenz. Ulrich Frefat ist Musikpädagoge, Fachleiter für Musik am Staatlichen Studienseminar für Lehrerausbildung Erfurt, Vorstandsmitglied im Bundesverband Musikunterricht LV Thüringen und Vizepräsident des Landesmusikrats Thüringen. Er setzt sich insbesondere für musikalische Bildung und Lehrergewinnung ein, mit Fokus auf Allgemeinbildende Schulen und den Seiteneinstieg. Nach einem Studium der Instrumentalpädagogik (Horn), Schulmusik (Schwerpunkt Orchester-/ Ensembleleitung) sowie Kammermusik an der Hochschule für Musik Detmold studierte er Erziehungswissenschaft und Französisch an der Universität Paderborn. Zusätzliche Unterrichtsqualifikationen in Ethik, Theater und Literatur sowie als Streicherklassenleiter und Spielleiter erweitern sein pädagogisches Profil. Lehrtätigkeiten führten ihn an die Universität Paderborn, das SSDL Heidelberg sowie die Musikhochschule Mannheim, die Universität Heidelberg und die Universität Erfurt. Seit 2017 unterrichtet er <?page no="399"?> Autorenverzeichnis 399 am Königin-Luise-Gymnasium Erfurt und engagiert sich in der Ausbildung angehender Musiklehrkräfte. Neben seinen beruflichen Tätigkeiten leitet er zwei Orchester. Sein aktueller Forschungsschwerpunkt liegt auf der Integration von KI in den Musikunterricht. Prof. Dr.-Ing. Daniel Görlich hat von 2011 bis 2023 mit „Virtuelle Realitäten“ an der SRH Hochschule Heidelberg den ersten Studiengang Deutschlands geleitet, der sich explizit auf Virtual Reality als Massenmedium fokussierte und gleichzeitig (seit 2007) einer der ersten deutschen Studiengänge im Themenspektrum des Game Developments war. Seit 2023 leitet er als Schwerpunktprofessor für Virtual und Augmented Reality an der Hochschule Offenburg deren XR/ Games Lab und deren Studiengang „Virtuelle Welten & Game Technologies“. Mit „Societal XR“ verfolgt er eine langfristige Forschungsvision. Er ist stellvertretender Leiter des Affective & Cognitive Institute (ACI) der Hochschule Offenburg, Gründungsmitglied des game- Verbandes und und zukünftiges Gründungsmitglied einer in Vorbereitung befindlichen Fachgesellschaft Spielwissenschaften. Stefan Götz ist Absolvent der IT- und Unternehmenssicherheit an der Hochschule Offenburg. Er studiert nun im Master an der TU Darmstadt. Daniel Hommel hilft als passionierter Organisationsentwickler und Leadership Coach Unternehmen dabei, neue Wege zu gehen. Dafür nutzt er seine fast zwei Jahrzehnte Erfahrung mit modernen Vorgehensweisen, um Zusammenarbeit zu gestalten, unter anderem in den Rollen als Entwickler, Produktverantwortlicher und Führungskraft. In über 10 Jahren in der Beratung hat Daniel einige Unternehmen in unterschiedlichen Branchen kennengelernt und bei Veränderungen begleitet, zum Teil auch mit internationalen Einsätzen. Anfang 2024 hat er die yeah change GmbH gegründet, mit der er die Zukunftsfähigkeit von Organisationen stärken will. Dabei legt er besonderen Wert auf Wirkungsorientierung, Unabhängigkeit von Methoden und proaktive Zusammenarbeit auf Augenhöhe. Dr. Kai Israel ist Spezialist für E-Business-Systeme, Web-Technologien und Virtual-Reality und unterstützt sowohl kleine und mittelständische Unternehmen als auch internationale Konzerne bei der Strategieentwicklung und -umsetzung. Er ist Autor zahlreicher Publikationen zu den Themen E-Business, Online-Marketing und Virtual-Reality und tritt als Referent auf internationalen Konferenzen auf. Dr. Inka Knappertsbusch, Rechtsanwältin | Fachanwältin für Arbeitsrecht. Ihr Schwerpunkt liegt auf der arbeitsrechtlichen Beratung im Rahmen von Restrukturierungen und Betriebsvereinbarungen, insbesondere zu IT, KI und New Work. Darüber hinaus berät sie in allen Fragen des Individual- und Kollektivarbeitsrechts sowie des Dienstvertragsrechts. Besondere Kenntnisse besitzt sie außerdem in Datenschutzfragen im Beschäftigungskontext. Sie ist Mitherausgeberin der Bücher Arbeitswelt und KI 2030 und Die Zukunft der Arbeit. Zu ihren Mandanten zählen internationale Konzerne ebenso wie mittelständische Unternehmen. Inka Knappertsbusch schloss sich 2019 CMS an. Zuvor war sie drei Jahre als Anwältin in einer internationalen Kanzlei tätig. Während dieser Zeit absolvierte sie ein einjähriges Secondment in der Rechtsabteilung eines japanischen Handelshauses in London. 2023 wurde sie Counsel der Sozietät. <?page no="400"?> 400 Autorenverzeichnis Dr. Diana Kolbe ist Postdoktorandin im Bereich der KI- und ML-basierten Dialogmarketingautomatisierung an der Hochschule Offenburg und Marketing- und KI- Professional bei Hubert Burda Media . Sie promovierte in Marketing an der Universität Valencia, Spanien. Von 2019 bis 2023 war sie am Tecnológico de Monterrey und der EGADE Business School in Mexiko als Forschungsprofessorin sowie als Leiterin der Studiengänge Marketing und Kommunikation tätig. Diana Kolbe hat in renommierten wissenschaftlichen Fachzeitschriften wie dem International Journal of Consumer Studies , dem Journal of Business & Industrial Marketing und dem Journal of International Consumer Marketing publiziert. Prof. Dr. Elke Kronewald lehrt seit 2016 als Professorin für Kommunikationsmanagement und PR-Evaluation an der Fachhochschule Kiel in den Studiengängen Öffentlichkeitsarbeit und Unternehmenskommunikation (BA) sowie Angewandte Kommunikationswissenschaft (MA). Im Rahmen ihres Forschungsfreisemesters 2024 untersuchte sie die Herausforderungen, die sich durch den Einzug von KI für PR- Praxis und -Studium ergeben. Sie ist seit September 2023 Vorsitzende des Deutschen Rats für Public Relations (DRPR), der im November 2023 erste KI-Richtlinien für das Berufsfeld PR und Kommunikation vorgelegt hat. Die promovierte Kommunikationswissenschaftlerin (Ludwig-Maximilians-Universität München) war vor ihrem Wechsel nach Kiel Professorin für PR und Kommunikationsmanagement an der Hochschule Macromedia in Stuttgart (2010-2016) und bei PRIME research international/ F.A.Z.-Institut von 2006 bis 2010 zuständig für die PR-Beratung internationaler Unternehmen auf Basis von Medienresonanz- und Reputationsanalysen. Linda Kunath-Ünver, M.Sc., ist seit 2015 künstlerisch-wissenschaftliche Mitarbeiterin im Bereich Grafikdesign und Projektmanagement der Medien- und Wirtschaftsfakultät. Sie führt das Labor grafik.werkstatt und lehrt am Lehrstuhl für Mediengestaltung (Print/ Screen)/ Medientheorie und Virtual und Extended Reality (VR/ XR). Dr. Dominic Lindner hat an der FAU Erlangen-Nürnberg am Lehrstuhl für IT-Management promoviert. Mittlerweile ist er als Führungskraft in einem großen Unternehmen und als Dozent an einer privaten Hochschule tätig. Dominic Lindner bloggt aktiv auf agile-unternehmen.de und hält Vorträge sowie Tagesseminare zu den genannten Themen. Simona Lossau ist Marketingmanager Data Analyst bei der Advanced UniByte GmbH . Im Rahmen ihrer Bachelor-Thesis untersuchte sie die Auswirkungen eines KI-Chatbots auf das Nutzungsverhalten der Webseitenbesuchenden und begleitete dessen Go-Live im Jahr 2024. Seit Juli 2024 verantwortet sie in ihrer Rolle unter anderem die Weiterentwicklung des Chatbots, das Thema Marketing Automation sowie die Analyse sämtlicher Marketingkennzahlen. Ihr besonderes Interesse gilt datengetriebenen Entscheidungsgrundlagen im digitalen Marketing und dem nutzungszentrierten Einsatz von KI-Technologien. Christina Miclau, M.A., ist seit 2017 in den Bereichen Marketing und E-Commerce tätig und aktuell als wissenschaftliche Mitarbeiterin am Lehrstuhl für Direktmarketing und E-Commerce der Hochschule Offenburg. Seit 2021 promoviert sie an der Pädagogischen Hochschule Freiburg zum Thema „Emotionale Wirkung von öffentlichen Bildungseinrichtungen“. <?page no="401"?> Autorenverzeichnis 401 Christian Mühl konnte als studierter Ökonom mit den Schwerpunkten Wirtschaftsinformatik, Wirtschaftsprüfung sowie Logistik/ Geschäftsprozessmanagement in den ersten Jahren seiner beruflichen Karriere als Berater im Bereich Governance, Risk & Compliance berufliche Expertise über verschiedenste Branchen hinweg sammeln. Seit dem Wechsel von der Beraterseite in die pharmazeutische Industrie vor mehr als 15 Jahren beschäftigt er sich regelmäßig mit Fragestellungen rund um die Themen Ethik, Risikomanagement und Compliance auf nationaler, regionaler wie globaler Ebene. Dabei standen und stehen nicht erst mit der rasanten KI-Entwicklung auch immer wieder IT-relevante Fragen auf der Tagesordnung. Er ist Speaker auf internationalen Kongressen rund um das Thema Governance, Risk und Compliance, insbesondere zu den ethischen Themen bei der Entwicklung sowie Anwendung von KI sowie Risikomanagement mit Drittparteien. Cristina Mühl ist seit vielen Jahren als erfahrene Coach und Expertin für Team- und Führungskräfteentwicklung tätig. Mit internationaler Unternehmens- und Beratungserfahrung bringt sie fundiertes Wissen in den Bereichen Organisationsentwicklung, Compliance und Coaching mit. Als Präsidentin des ICF Deutschland und Co-Autorin von Solution Focused Team Coaching und Solution Focused Coaching Supervision liegt ihr Fokus auf der Förderung von Coaching-Kulturen und der Unterstützung von Unternehmen in Veränderungsprozessen. Seit 2021 bietet Cristina Coach-Trainings zu lösungsfokussiertem Coaching und Team-Coaching an und hat mehrere Organisationen bei der Entwicklung interner Coaching- oder Mentoring- Programme sowie Coach-Pools unterstützt. Prof. Dr. Andrea Müller ist Expertin für Direktmarketing und E-Commerce und hat seit März 2012 den gleichnamigen Lehrstuhl an der Hochschule Offenburg inne. Von 1995 bis 2003 war die Wirtschaftsingeneurin Projektleiterin und wissenschaftliche Mitarbeiterin am Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) und der Universität Stuttgart. Im Rahmen des BMWi geförderten Forschungsprojekts M3V erstellte sie von 2006 bis 2009 beim Fraunhofer Spin-off e-pro solutions GmbH nebenberuflich ihre Doktorarbeit an der Steinbeis-Hochschule Berlin. An der Hochschule Albstadt-Sigmaringen übernahm sie von 2009 bis 2011 Lehraufträge im Masterstudiengang Bekleidungstechnik. Im Sommersemester 2011 und Wintersemester 2011/ 12 wurde sie für eine Gastprofessur an die HTWG Konstanz berufen. Seit 2014 leitet sie das Customer-Experience-Tracking-Labor am Campus Gengenbach. Markus Müller-Hahnefeld, Regisseur, Autor und AI Film Artist, geboren 1987 in Leipzig und aufgewachsen in einer Ära des gesellschaftlichen und technologischen Umbruchs, entdeckte früh seine Leidenschaft für filmische Erzählungen und innovative Technologien. Nach seiner Ausbildung zum Medienkaufmann Digital und Print und anschließender Tätigkeit als Online Marketing Manager in der IT-Branche studierte er Regie an der HFF München. In den letzten zehn Jahren realisierte er zahlreiche Kurzfilme („Painkiller“, „Der neue Mensch“), serielle Formate („Willkommen zu Hause“) sowie eine Vielzahl von Werbespots. Seine Arbeiten beschäftigen sich auf düstere und zugleich humorvolle Weise mit den Auswirkungen neuer Technologien und den Abgründen der menschlichen Seele. Neben dem Roman „Lovetube“ (Blitz- Verlag) veröffentlichte er das Fachbuch „KI in der Videoproduktion“ (Rheinwerk-Verlag, 2025). Für ihn ist Künstliche Intelligenz eine Chance für neue Kunstformen und frische Stimmen im deutschen Film. Seit 2023 gibt er sein Fachwissen in führenden KI-Videoworkshops weiter und zeigt, wie sich Künstliche Intelligenz kreativ in der <?page no="402"?> 402 Autorenverzeichnis Video- und Filmproduktion einsetzen lässt. Mehr zu seiner Arbeit als KI-Regisseur gibt es auf seiner Website www.immersiveai.de. Dr. Christine Preisach studierte Informatik an der Universität Freiburg und promovierte an der Universität Hildesheim im Bereich Maschinelles Lernen. Sie arbeitete bei SAP SE in verschiedenen Rollen, zuletzt als Vice President Data Science in IoT, wo sie ein internationales Team leitete und sich auf Predictive Maintenance spezialisierte. Anschließend war sie bei der Allianz Lebensversicherungs-AG Leiterin Advanced Analytics und Chief Data Officer. Seit 2021 ist sie Professorin für Data Science und Informatik an der Hochschule Karlsruhe, forscht zu Künstlicher Intelligenz und Nachhaltigkeit. 2024 erhielt sie den Forschungspreis der Hochschule Karlsruhe für den Einsatz Künstlicher Intelligenz für die Energiewende. Kai Rahnenführer ist seit mehr als 20 Jahren als Berater in diversen Industrien für Kunden tätig. Von 2007 bis 2022 war Kai Rahnenführer Geschäftsführer einer Unternehmensberatung. Seit 2022 berät er weiterhin als Managing Director der Firma Accenture namhafte Kunden der Industrie in allen relevanten Belangen. Zusätzlich zu seinen Aufgaben als Managing Director lehrt Kai Rahnenführer Projektmanagement an der Hochschule Bochum. Als Fachgruppenleiter der GPM (Gesellschaft für Projektmanagement) hat er bereits mehrere Artikel zum Thema Projekte in der Krise veröffentlicht. Er lebt mit seiner Familie in NRW. Dr. Volker Sänger ist Professor für Informatik, insbesondere Datenbanken, an der Fakultät Medien der Hochschule Offenburg. Er beschäftigt sich in Lehre und Forschung mit Datenanalyse und Maschinellem Lernen. Zudem setzt er seit langem unterschiedliche Elemente des elektronischen Lernens in der Hochschullehre ein und untersucht deren Auswirkungen und Erfolge. Dr. Andreas Schaad ist seit 2001 Professor für IT Sicherheit an der Hochschule Offenburg. Nach seiner Promotion an der University of York, GB, arbeitete er in verschiedenen technischen und Managementpositionen bei SAP SE, Huawei und Wibu- Systems AG. Aktuell forscht er in dem BMBF-Projekt SMILE (FKZ 16KIS1929) an Verfahren des sicheren maschinellen Lernens. Dr. Claudia Schmidt ist Professorin für Computernetze an der Fakultät Medien der Hochschule Offenburg. Ihre Interessensgebiete sind Next Generation Internet und E-Learning im Bereich der Informatik. Sie entwickelte diverse interaktive E-Learning-Anwendungen und nutzt KI-basierte Chatbots in der Hochschullehre. Abhishek Singh BSc, MSc ist Absolvent des Enterprise and IT Security (ENITS)- Studiengangs an der Hochschule Offenburg. Aktuell arbeitet er als Threat Analyst bei der Deutschen Bank in Frankfurt a.M. Prof. Christian Solmecke (51) hat sich als Rechtsanwalt und Partner der Kölner Medienrechtskanzlei WBS.LEGA L auf die Beratung der Internet- und IT-Branche spezialisiert. So hat er in den vergangenen Jahren den Bereich Internetrecht/ E-Commerce der Kanzlei stetig ausgebaut und betreut zahlreiche Medienschaffende, Web 2.0-Plattformen und App-Entwickler. Neben seiner Tätigkeit als Rechtsanwalt ist Christian Solmecke vielfacher Buchautor und als Gründer der cloudbasierten Kanzlei- Software Legalvisio.de auch erfolgreicher LegalTech-Unternehmer. Er ist an der Kölner International Business School (CBS) als Honorarprofessor für Recht lehrend tätig. <?page no="403"?> Autorenverzeichnis 403 Nergis Turhan, M.Sc., absolvierte ihr Master-Studium im Studiengang Direktmarketing und E-Commerce an der Hochschule Offenburg und ist seit 2025 als wissenschaftliche Mitarbeiterin am Lehrstuhl für Direktmarketing und E-Commerce der Hochschule Offenburg tätig. Barbara Wörz ist Head of Consumer Products bei Burda Direct und verantwortet unter anderem den Aufbau und die Entwicklung der Soziallotterie ClimaClic. Zuvor war sie Head of NewBusiness und für Business Development zuständig. Als Expertin im Direktmarketing baute sie bei Burda Direct von 2000 bis 2005 die CallCenter- Standorte in Deutschland und der Schweiz auf und verantwortete diese. Prof. Dr. Erik Zenner lehrt Informatik an der Hochschule Offenburg. Seine Arbeitsschwerpunkte liegen in den Grundlagen der Informatik, in der Kryptografie sowie in ausgewählten Themen der Kognitionswissenschaft. Sein besonderes Interesse gilt den Gemeinsamkeiten und Unterschieden zwischen menschlichem und maschinellem Problemlösen sowie den jeweils zugrundeliegenden Strukturen. <?page no="404"?> Das Ziel des vorliegenden Buchs ist es, eine differenzierte Betrachtung der KI-Transformation in und ausgehend von Deutschland zu geben, indem die Auswirkungen der KI aus technologischer, wirtschaftlicher, rechtlicher und gesellschaftlicher Perspektive beleuchtet werden. Gleichzeitig sollen dabei sowohl wissenschaftliche Erkenntnisse als auch praktische Anwendungsszenarien den Blickwinkel erweitern. Der erste Teil des Buches widmet sich der technologischen Entwicklung und einigen grundlegenden Fragen rund um KI. Im zweiten Abschnitt steht die Bedeutung von KI für die Wissenschaft, die Bildung sowie die Kreativ- und Kulturwirtschaft im Mittelpunkt. Der dritte Teil des Buches beleuchtet die KI-Transformation in Wirtschaft und Finanzen. Das Buch richtet sich sowohl an Studierende, Menschen im Bildungswesen sowie Fachleute und soll als Orientierungshilfe, Impulsgeber und als Grundlage für weiterführende Diskussionen über die Zukunft der KI in unserer Gesellschaft dienen. Wirtschafts- und Sozialwissenschaften | Technik ISBN 978-3-8252-6538-0 Dies ist ein utb-Band aus dem UVK Verlag. utb ist eine Kooperation von Verlagen mit einem gemeinsamen Ziel: Lehr- und Lernmedien für das erfolgreiche Studium zu veröffentlichen. utb.de QR-Code für mehr Infos und Bewertungen zu diesem T itel