eBooks

Künstliche Intelligenz in Nachrichtenredaktionen

2021
978-3-7398-8114-0
UVK Verlag 
Uwe Eisenbeis
Magdalena Ciepluch

KI in der Nachrichtenproduktion, -aufbereitung und -distribution effektiv einsetzen Austria Presse Agentur, Axel Springer Verlag, Stuttgarter Zeitung und Stuttgarter Nachrichten, Frankfurter Allgemeine Zeitung und Neue Osnabrücker Zeitung: Hier kommen Künstliche Intelligenz, Machine Learning, Robot Journalism, Natural Language Processing und Text-to-Speech-Technologie zum Einsatz. Die fünf Fallbeispiele gehen auf Ziele, Implementierung sowie Erfolgsfaktoren ein.Zudem führt das Buch in die wichtigsten Begrifflichkeiten ein und verortet die Implikationen der Technologien in Geschäftsmodell sowie Wertschöpfungskette. Das Buch richtet sich an alle, die sich für den Einsatz von Künstlicher Intelligenz im Verlagsumfeld interessieren und hierzu Entscheidungen treffen.

Künstliche Intelligenz in Nachrichtenredaktionen Begriffe Systematisierung Fallbeispiele Uwe Eisenbeis, Magdalena Ciepluch (Hrsg.) Prof. Dr. Uwe Eisenbeis ist Professor für Medienmanagement und Ökonomie an der Hochschule der Medien in Stuttgart. Magdalena Ciepluch, M.A., ist wissenschaftliche Mitarbeiterin und Doktorandin an der Hochschule der Medien in Stuttgart. Uwe Eisenbeis, Magdalena Ciepluch (Hrsg.) Künstliche Intelligenz in Nachrichtenredaktionen Begriffe, Systematisierung, Fallbeispiele Mit Beiträgen von Magdalena Ciepluch, Dennis Czaja, Leonie Dapfer, Miriam Deck, Uwe Eisenbeis, Andreas Freimann, Fynn Heitmann, Jasmin Hofer, Sarah Jäckle, Lisa Janko, Alexander Obert, Veronika Pfahler, Sophia Schimpgen, Marie Senghas, David Simoes, Maik Uhlich, Katharina Willbold UVK Verlag · München Umschlagabbildung: © koto_feja · iStockphoto Herausgeberfoto Uwe Eisenbeis: © HdM Stuttgart/ Florian Müller Herausgeberfoto Magdalena Ciepluch: © privat Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.dnb.de abrufbar. 1. Auflage 2021 © UVK Verlag 2021 - ein Unternehmen der Narr Francke Attempto Verlag GmbH + Co. KG Dischingerweg 5 · D-72070 Tübingen Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Internet: www.narr.de eMail: info@narr.de CPI books GmbH, Leck ISBN 978-3-7398-3114-5 (Print) ISBN 978-3-7398-8114-0 (ePDF) ISBN 978-3-7398-0152-0 (ePub) Vorwort Das erste von einem Algorithmus geschriebene wissenschaftliche Fachbuch wird veröffentlicht. Eine Software schreibt Kurzgeschichten, die es fast zu einem Literaturpreis schaffen. Diese und viele weitere Beispiele haben zwar große mediale Aufmerksamkeit erhalten, betreffen allerdings den Alltag der allermeisten von uns (zumindest vorerst) nicht. Es gibt aber auch andere Anwendungsfälle von Algorithmen und Künstlicher Intelligenz in den Bereichen Inhalteerstellung, -aufbereitung, -distribution oder -vermarktung. Beispiele, mit denen wir alle - auch wenn uns das nicht immer und in allen Fällen bewusst ist - bei unserem täglichen Medienkonsum konfrontiert sind.  Die österreichische Presseagentur (Austria Presse Agentur) setzt auf Robot Journalism, um Wahlergebnisse in der Wahlberichterstattung aufzubereiten.  Der Axel Springer Verlag setzt Artificial Intelligence zur inhaltlichen Steuerung und Personalisierung seiner Nachrichten-App ein.  Die Stuttgarter Zeitung und die Stuttgarter Nachrichten nutzen Natural Language Processing, um den Feinstaubradar für Stuttgart und die entsprechenden Texte zu generieren.  Die Frankfurter Allgemeine Zeitung nutzt Machine Learning zur Personalisierung der Zusammenstellung von Nachrichten für die einzelnen Leserinnen und Leser.  Die Neue Osnabrücker Zeitung setzt Text-to-Speech-Technologie auf Basis neuronaler Netzwerktechnik für eine akustische Sprachausgabe von Artikeln ein. Diese Beispiele stehen im Fokus dieser Publikation zum Thema „Künstliche Intelligenz in Nachrichtenredaktionen“. Die Beispiele sollen Inspiration für andere sein und - über jeweils wahrgenommenen Erfolgsfaktoren - eine Hilfestellung bieten, für alle, die sich 6 Vorwort ebenfalls Gedanken über den Einsatz von Algorithmen und Künstlicher Intelligenz in der Verlagswelt und anderen journalistischen Umfeldern - insbesondere im Bereich von Nachrichtenredaktionen - Gedanken machen (müssen). Das vorliegende Buch enthält sieben Beiträge: Im ersten Beitrag werden unter anderem (sieben) wichtige Begriffe aufbereitet und definiert, sowie insbesondere drei Möglichkeiten der Systematisierung der „Orte“ und Implikationen von Algorithmen und Künstlicher Intelligenz vorgestellt - die Innovationssystematik (Art der Innovation), der Geschäftsmodellansatz (Komponente des Geschäftsmodells), sowie schließlich das Wertschöpfungskettenkonzept (Stufe der Wertschöpfungskette). In den darauffolgenden fünf Beiträgen werden die oben aufgezählten fünf Fallbeispiele vorgestellt. Dabei geht es jeweils darum, zunächst die Ausgangslage (also den Grund für den Einsatz der Technologie) und den Lösungsansatz vorzustellen, dann die mit der Anwendung verbundenen Ziele und Erwartungen zu skizzieren und die Implementierung und Funktionalität der Anwendung beziehungsweise Technologie zu beschreiben. Zudem wird auf die bei der Implementierung und/ oder dem Betrieb der Anwendung jeweils wahrgenommenen Herausforderungen und Erfolgsfaktoren eingegangen. Das Buch schließt mit einem Beitrag, der eine übergreifende Zusammenfassung der Erkenntnisse aus den Fallbeispielen und eine Einordnung der Fallbeispiele in die drei im ersten Kapitel vorgestellten Systematisierungen (Art der Innovation, Verortung in Geschäftsmodell und Wertschöpfungskette) enthält. Hervorgegangen ist die Idee, Fallbeispiele aus der Praxis anschaulich aufzubereiten, aus einem Forschungsprojekt an der Hochschule der Medien zum Thema „High Technologies and Media“. Im Rahmen dieses Projekts sollen die Implikationen der zentralen Technologieinnovationen der vergangenen Jahre auf die Wertschöpfungsketten und die Geschäftsmodelle der Medienindustrie untersucht werden. An diesem Forschungsprojekt wirken auch Studierende der Bachelor- und Masterstudiengänge „Medienwirtschaft“ und „Medien- Vorwort 7 management“ der Hochschule der Medien mit. Allen Studierenden der vergangenen vier Jahrgänge des IPW (Interdisziplinäres Projekt Wirtschaft), die sich ebenso in das Forschungsprojekt eingebracht haben, gilt ein herzlicher Dank für das Interesse und Engagement im Rahmen von „High Technologies and Media“. Sie alle sind namentlich auf der Webseite zum Projekt (www.MediaTechNavigator.com) genannt. Ein besonders herzlicher Dank gilt den Unternehmen und unseren dortigen Ansprechpartnerinnen und Ansprechpartnern, namentlich Frau Katharina Schell (Mitglied der Chefredaktion, Digitales der APA - Austria Presse Agentur), Frau Stefanie Zenke (zum Zeitpunkt des Interviews Ressortleiterin für Multimedia Reportagen bei der Stuttgarter Zeitung und den Stuttgarter Nachrichten, heute Redakteurin beim Südwestdeutschen Rundfunk), Herrn Peter M. Buhr (zum Zeitpunkt des Interviews Senior Consultant Digital & Innovations bei der Axel Springer SE, seit Juli 2020 Gründer und CEO bei Sinnborn GmbH), Herrn Joachim Dreykluft (Leiter des HHLab der NOZ-Medien), Herrn Philip Holtmann (Director Publisher & Public Relations bei der Upday GmbH & Co. KG), Herrn Jan Georg Plavec (Redakteur bei der Stuttgarter Zeitung und Stuttgarter Nachrichten) sowie Herrn Thomas Schultz-Homberg (zum Zeitpunkt des Interviews Chief Digital Officer der FAZ Verlagsgruppe, seit Oktober 2020 CEO des Regionalmedienverlags von DuMont). Ohne ihre Bereitschaft an diesem Projekt mitzuwirken, wäre diese Fallstudiensammlung nicht entstanden. Dieses Buch wurde ohne den Einsatz von Künstlicher Intelligenz geschrieben, wir als Herausgeberteam arbeiten also noch daran. Wir lassen uns aber inspirieren. Sie hoffentlich auch. Stuttgart, im April 2021 Uwe Eisenbeis und Magdalena Ciepluch Inhalt Vorwort ......................................................................................................... 5 Algorithmen und Künstliche Intelligenz zur Erstellung, Aufbereitung und Distribution von Inhalten im Verlagsumfeld. Begrifflichkeiten und Möglichkeiten der Systematisierung von Implikationen 1 Herausforderung und Handlungsnotwendigkeit erkennen: Warum es sich lohnt, über KI in journalistischen Umfeldern nachzudenken! ........................ 13 2 Überblick behalten und Begriffe kennen: Warum sprechen alle von Machine Learning und Natural Language Generation? .............................................................. 16 3 Innovation differenzieren und Implikationen systematisieren: Wie verändern sich Geschäftsmodell und Wertschöpfungskette? ...................................................... 23 3.1 Welche Art der Innovation wird hervorgerufen? .............. 24 3.2 Welche Komponenten des Geschäftsmodells sind von Veränderungen betroffen? ............................................... 27 3.3 Welche Stufen der Wertschöpfungskette sind von Veränderungen betroffen? ............................................... 29 4 Zusammenfassung und nächste Schritte nachvollziehen: Was sollte man für die weitere Beschäftigung mit dem Thema mitnehmen? ................................................................... 31 Literatur ................................................................................................ 33 10 Inhalt Robot Journalism zur Aufbereitung von Wahlergebnissen in der Wahlberichterstattung der Austria Presse Agentur 1 Ausgangslage und Lösungsansatz ......................................... 39 2 Ziele und Erwartungen............................................................. 40 3 Implementierung und Funktionalität.................................... 40 4 Herausforderungen und Erfolgsfaktoren ............................. 41 5 Fazit und Ausblick ..................................................................... 43 Künstliche Intelligenz zur inhaltlichen Steuerung und Personalisierung der Nachrichten-App Upday von Axel Springer 1 Ausgangslage und Lösungsansatz ......................................... 45 2 Ziele und Erwartungen............................................................. 46 3 Implementierung und Funktionalität.................................... 46 4 Herausforderungen und Erfolgsfaktoren ............................. 48 5 Fazit und Ausblick ..................................................................... 50 Natural Language Processing für den Feinstaubradar von Stuttgarter Zeitung und Stuttgarter Nachrichten 1 Ausgangslage und Lösungsansatz ......................................... 53 2 Ziele und Erwartungen............................................................. 54 3 Implementierung und Funktionalität.................................... 55 4 Herausforderungen und Erfolgsfaktoren ............................. 57 5 Fazit und Ausblick ..................................................................... 58 Inhalt 11 Machine Learning als Grundlage der Personalisierungsfunktion „Entdecken“ in der FAZ.NET-App der Frankfurter Allgemeinen Zeitung 1 Ausgangslage und Lösungsansatz ......................................... 61 2 Ziele und Erwartungen............................................................. 62 3 Implementierung und Funktionalität.................................... 62 4 Herausforderungen und Erfolgsfaktoren ............................. 63 5 Fazit und Ausblick ..................................................................... 66 NOZ Medien nutzt Text-to-Speech-Technologie auf Basis neuronaler Netzwerktechnik für eine akustische Sprachausgabe der Texte 1 Ausgangslage und Lösungsansatz ......................................... 68 2 Ziele und Erwartungen............................................................. 68 3 Implementierung und Funktionalität.................................... 69 4 Herausforderungen und Erfolgsfaktoren ............................. 70 5 Fazit und Ausblick ..................................................................... 72 Algorithmen und Künstliche Intelligenz zur Erstellung, Aufbereitung und Distribution von Nachrichteninhalten. Erkenntnisse aus fünf Fallstudien 1 Einsatzgebiete und Anwendungen kennen: Welche Einsatzgebiete und Anwendungen gibt es? ......................... 75 2 Gründe und Ziele bewusst machen: Welche Unternehmensziele sollen mit KI erreicht werden? .......... 77 3 Entwicklung und Implementierung durchdenken: Was ist die geeignete Organisationsform und wer sind geeignete Partnerinnen und Partner? .......................... 78 12 Inhalt 4 Herausforderungen und Erfolgsfaktoren identifizieren: Wovon hängt der Erfolg der Anwendungen ab? ............... 80 4.1 Mitarbeiterakzeptanz und Schulung ..................................... 81 4.2 Quantität und Qualität der Daten .......................................... 82 4.3 Sichtbarkeit und Reichweite der Anwendung .................... 83 4.4 Zusammenarbeit und geeignete Partnerinnen und Partner .......................................................................................... 84 4.5 Interne Strukturen und Kompetenz....................................... 84 5 Veränderungen und Implikationen systematisieren: Wie lassen sich die Fallbeispiele einordnen? ............................... 85 5.1 Welche Art der Innovation wird hervorgerufen? .............. 86 5.2 Welche Komponenten des Geschäftsmodells sind von Veränderungen betroffen? ....................................................... 89 5.3 Welche Stufen der Wertschöpfungskette sind von Veränderungen betroffen? ....................................................... 91 6 Zusammenfassung und Fazit ableiten: Was sind die Lessons Learned zu KI in journalistischen Umfeldern? .... 94 Literatur ................................................................................................ 96 Stichwortverzeichnis ............................................................................. 99 Algorithmen und Künstliche Intelligenz zur Erstellung, Aufbereitung und Distribution von Inhalten im Verlagsumfeld. Begrifflichkeiten und Möglichkeiten der Systematisierung von Implikationen Uwe Eisenbeis, Magdalena Ciepluch, Miriam Deck, Fynn Heitmann, Jasmin Hofer 1 Herausforderung und Handlungsnotwendigkeit erkennen: Warum es sich lohnt, über KI in journalistischen Umfeldern nachzudenken! Zum 250. Geburtstag von Ludwig van Beethoven soll und wird Künstliche Intelligenz dessen 10., seinerzeit unvollendete, Symphonie (fertig) komponieren (Deutsche Telekom 2019). Das erste von einem Algorithmus geschriebene wissenschaftliche Fachbuch wurde gerade zum Thema Lithium-Ionen-Batterien veröffentlicht (Springer Nature 2019). Eine Software hat mehrere Kurzgeschichten geschrieben, von denen es eine in die engere Auswahl für einen Literaturpreis geschafft hat (Steffen 2016). Im Auktionshaus Christieʼs wird erstmals ein Gemälde versteigert, das von einer Künstlichen Intelligenz geschaffen wurde (Zeit Online 2018). Dies ist nur eine kleine Auswahl der mit viel Medienaufmerksamkeit versehenen Anwendungen von Algorithmen oder Künstlicher Intelligenz in der Medienbeziehungsweise Kreativindustrie. Vielleicht geht gerade von solchen Beispielen eine Faszination (sowohl aus Bewunderung als auch aus Entsetzen) aus, weil es dabei auch um „Kreativität“ geht, eine Kompetenz/ Fähigkeit, die wir Menschen für uns vorbehalten und von Maschinen als nicht-imitierbar glaubten. An dieser Stelle geht es jedoch nicht um die Diskussion (Dartnall 1994; Boden 2009; Kasparov/ Greengard 2017), wo Kreativität anfängt 14 Künstliche Intelligenz in Nachrichtenredaktionen oder aufhört und ob die Kreativleistung zunächst von Menschen erbracht werden muss, um dann die Maschine damit zu füttern, zu trainieren und dadurch neue Kreativität zu ermöglichen. Es geht hier auch nicht um die gesellschaftlich-ethische Diskussion (Bostrom/ Yudkowski 2014; Grimm/ Zöllner 2018), ob es wünschenswert ist, dass Algorithmen Tätigkeiten und Aufgaben übernehmen, die bislang von Menschen ausgeübt und ausgeführt wurden - dabei gilt es sicher, Regeln zu definieren und Rahmenbedingungen zu schaffen, wie die zunehmende Algorithmisierung unserer Welt gestaltet werden soll (Anderson/ Anderson 2011). Vielmehr geht es hier zunächst einmal nur um die Feststellung, dass Algorithmen zunehmend die Art und Weise verändern, wie Medien produziert, vermarktet und konsumiert werden - dies betrifft auch Verlage und journalistische Umfelder - und das mit wachsender Intensität sowie mit zunehmender Geschwindigkeit. Und dies eben nicht nur in mit viel Aufmerksamkeit versehenen Prestigeprojekten, sondern im medialen Alltag (wie die in der folgenden Aufzählung erwähnten sowie die in diesem Buch präsentierten Fälle zeigen). Diese Feststellung und daran anknüpfende Fragestellungen werden hier aus der Perspektive einer managementorientierten Betriebswirtschaftslehre vorgenommen, es geht also im Kern um die Frage nach den Implikationen von Algorithmen und Künstlicher Intelligenz auf Geschäftsmodelle und Wertschöpfungsketten von Unternehmen im Verlagsumfeld beziehungsweise in journalistischen Umfeldern sowie daraus ableitend um Hilfestellungen bei Managemententscheidungen. Die Relevanz der angedeuteten Entwicklungen für Handlungs- und Gestaltungsentscheidungen verdeutlichen die folgenden drei (exemplarisch herausgegriffenen) inzwischen alltäglichen Einsatzbeispiele aus der Verlagswelt:  Automatisierte Produktion von Nachrichteninhalten: Unter den Stichworten „Automated Journalism“ oder „Algorithmic Journalism“ ist die Produktion von Nachrichteninhalten mit wenig bis hin zu völlig ohne menschliche Mitwirkung (Carlson 2015; Diako- Begrifflichkeiten und Systematisierung 15 poulus/ Koliska 2017) bereits Realität - insbesondere in den Bereichen Sport-, Wetter-, Wirtschafts- und Finanznachrichten (Dörr 2016).  Inhalteerstellung auf Basis von automatisierten Daten: Unter „Data Journalism“ oder „Data Driven Journalism“ wird eine journalistische Erzählweise verstanden, bei denen Nachrichtenredaktionen nützliche Informationen aus automatisch generierten Daten ziehen und auf Grundlage dieser Inhalte produzieren (Gray 2012). So werden beispielsweise einzelne (interaktive) Grafiken zum Gegenstand gesamter Nachrichtenrubriken (Matzat 2011).  Automatisierte Ausspielung personalisierter Werbung („Programmatic Advertising“): Die Ausspielung von Online-Werbung erfolgt bereits seit längerem unter Nutzung von Big-Data und KI-Algorithmen (Gensch 2018). Werbeinhalte werden nicht nur automatisiert ausgespielt, sondern auch (in Echtzeit) individualisiert (unter anderem nach Ort/ Umfeld, Zeit, Kontext, Stimmung) und inhaltlich (unter anderem in Bildsprache, Tonalität) angepasst (Jacob 2018). Vor diesem Hintergrund wird klar: Ob bereits im Tagesgeschäft Algorithmen und Künstliche Intelligenz eingesetzt werden, ob noch experimentiert wird, ob zumindest darüber nachgedacht wird, dass das Thema in naher Zukunft an Relevanz gewinnen könnte - Medienunternehmen und Verlage tun gut daran, sich mit diesen neuen Technologien auseinanderzusetzen, sowohl um selbst aktiv werden zu können und Wettbewerbsvorteile und Differenzierung herauszubilden, als auch um überhaupt die Möglichkeit einer aktiven Gestaltung sicherzustellen. Dies ist im Übrigen grundsätzlich nichts Neues: Immer wenn insbesondere Technologien substanzielle Veränderungen hervorrufen, entsteht ein Bedarf (sowohl in der Wissenschaft als auch in der Praxis) Einsatzmöglichkeiten zu identifizieren und zu systematisieren, Chancen und Risiken zu identifizieren und Implikationen abzuleiten, um Orientierung zu ermöglichen und sich (insbesondere Unter- 16 Künstliche Intelligenz in Nachrichtenredaktionen nehmen aber auch Verbände und politische Institutionen) vorbereiten und positionieren zu können. Dieser Artikel und die nachfolgenden Fallstudien sollen als Gesamtes eine Systematisierung vornehmen, Orientierung geben und erste Handlungs- und Gestaltungsempfehlungen geben. Insofern werden hier insbesondere die zwei folgenden Fragen beantwortet:  Im Sinne einer Systematisierung zur Orientierung: Welche Einsatzgebiete und Anwendungsfälle im Bereich der Inhalteerstellung, -aufbereitung und -distribution sowie zur Entwicklung neuer Dienste gibt es (tatsächlich schon heute), welche werden in (naher) Zukunft möglich?  Im Hinblick auf eine Gestaltung: Welche Implikationen im Sinne von Handlungsfeldern sowie Herausforderungen und Erfolgsfaktoren sind dabei zu identifizieren? Bevor jedoch in den folgenden Beiträgen des Buches fünf konkrete Fälle vorgestellt werden, wird in diesem Artikel zunächst (a) ein gemeinsames Grundverständnis über die Technologien und Begriffe geschaffen sowie (b) eine Systematisierung der Implikationen dieser Technologien hinsichtlich Art der Innovation und Ort der Innovation (in der Wertschöpfungskette, im Geschäftsmodell) vorgenommen. 2 Überblick behalten und Begriffe kennen: Warum sprechen alle von Machine Learning und Natural Language Generation? Am Thema Künstliche Intelligenz (KI) wird bereits seit langem geforscht. Die Ursprünge der KI als eigene Wissenschaft liegen in den 1930er Jahren. Erste Grundsteine legten damals Kurt Gödel, Alan Turing und Alonso Church durch die Aufstellung elementarer Regeln der Logik (Ertel/ Mast 2009: 8). McCulloch, Pitts und Hebbln gelang in den 1940er Jahren ein wichtiger Fortschritt durch die Entwicklung der ersten mathematischen Modelle für neuronale Netze. Künstliche neuronale Netze bestehen aus künstlichen Neuronen, Begrifflichkeiten und Systematisierung 17 erstellt nach dem Vorbild von Neuronen im menschlichen Nervensystem. Mit den ersten programmierbaren Rechenmaschinen wurde aus der theoretischen KI-Forschung in den 1950ern schließlich eine praktische Wissenschaft (Ertel/ Mast 2009: 8). Mit der sogenannten „thinking machine“ von Newell und Simon (1956) sowie der Programmiersprache LISP von McCarthy (1958) konnte gezeigt werden, dass Computer, neben ihrer eigentlichen Arbeitsweise über Zahlen, auch Symbole verarbeiten können. Die Vorstellung dieser beiden Systeme auf der Dartmouth-Konferenz im Jahr 1956 gilt als offizielle Geburtsstunde der KI (Ertel/ Mast 2009: 9). In der Folge wurden mit der Entwicklung der Bayesschen Netze und des probabilistischen Machine Learnings in den 1960er Jahren wichtige Grundlagen im Bereich des maschinellen Lernens gelegt (Ertel/ Mast 2009: 9). Aus der KI-Forschung entwickelt sich seit den 1990er Jahren das Feld des maschinellen Lernens (Machine Learning). Diese Technologie umfasst Methoden, die durch Lernprozesse Sinnzusammenhänge in bestehenden Datensätzen feststellen und auf deren Grundlage Vorhersagen treffen (Buxmann/ Schmidt 2019: 7f.). Datensätze können analysiert werden, um bestimmte Verhaltensweisen zu erlernen, sodass ein Rechner Muster und Zusammenhänge erkennen kann. So werden neue Aktionen trainiert, ohne einen Computer dabei explizit zu programmieren. Die Analyse großer Datenmengen anhand bestimmter Kriterien und Muster basiert auf Algorithmen. Ein Algorithmus beschreibt eine fest definierte Vorgehensweise, um ein (mathematisches) Problem zu lösen. Dabei geht es nicht um einen konkreten Einzelfall, sondern eine Art beziehungsweise Logik von Problem, das auf unterschiedliche Weise auftreten kann. Es handelt sich um eine systematische Schritt-für-Schritt-Anleitung, einen Prozess, zur Verarbeitung von Daten (Saake und Sattler 2020: 4; Zweig 2018), die ähnlich zu mathematischen Formeln, Gebrauchsanweisungen oder Spielregeln aufgebaut ist. Algorithmen bilden die Grundlage der Programmierung von 18 Künstliche Intelligenz in Nachrichtenredaktionen Computersystemen beziehungsweise Maschinen (Saake und Sattler 2020: 3ff.). Ein Algorithmus beschreibt eine fest definierte, systematische Vorgehensweise, um ein definiertes mathematisches Problem zu lösen. Im Bereich der Programmierung handelt es sich somit um eine Prozessanleitung zur Verarbeitung von Daten. Die wachsende Rechenleistung von Computern ermöglicht seit den 2000er Jahren erhebliche Fortschritte im Einsatz neuronaler Netze und Machine Learning-Anwendungen. Ab 2010 geriet das sogenannte Deep Learning, eine spezielle Form des Machine Learnings, in den Fokus der Forschung und lieferte rasante Entwicklungen unter anderem in den Bereichen der Sprachverarbeitung und der Objekterkennung (Döbel et al. 2018: 15). Fasst man die Entwicklungen der Künstlichen Intelligenz zusammen, lässt sich folgende Begriffsbeschreibung festhalten: Künstliche Intelligenz ist ein Oberbegriff für eine Reihe von Technologien, die von maschinellem Lernen und regelbasierten Systemen bis hin zu Schnittstellen wie Sehen und natürlicher Sprachverarbeitung reichen. Vielfach wird sogar der (vergleichsweise) einfache Einsatz von Algorithmen bei der Verarbeitung von Daten (beispielsweise statistische Auswertungen und daraus abgeleitete Entscheidungen) als KI bezeichnet. Künstliche Intelligenz (Artificial Intelligence) ist ein Oberbegriff für eine Reihe von Technologien, die von maschinellem Lernen und regelbasierten Systemen bis hin zu Schnittstellen wie Sehen und natürlicher Sprachverarbeitung reichen. Vielfach wird sogar der (vergleichsweise) einfache Einsatz von Algorithmen bei der Verarbeitung von Daten (beispielsweise statistische Auswertungen und daraus abgeleitete Entscheidungen) als KI bezeichnet. Begrifflichkeiten und Systematisierung 19 Betrachtet man Anwendungen von KI, wird zwischen einer schwachen und einer starken KI unterschieden (Buxmann/ Schmidt 2019: 7). Eine starke KI ist bezeichnend für alle Ansätze bei denen versucht wird, die Vorgänge des menschlichen Gehirns abzubilden und zu imitieren. Dazu zählen auch das Bewusstsein sowie die Empathie. Jedoch gibt es bis heute noch kein Projekt, das der Umsetzung von einer starken KI nahegekommen ist (Buxmann/ Schmidt 2019: 7f.). Bei allen Lösungen, die heutzutage technisch umsetzbar sind und in Softwarelösungen implementiert werden, handelt es sich um eine schwache KI. Es geht um die Entwicklung von Algorithmen für bestimmte Problemstellungen, wobei die Lernfähigkeit von großer Bedeutung ist (Buxmann/ Schmidt 2019: 7f.). Das Datenvolumen ist dabei ein wichtiger Treiber der KI, denn Daten machen sie intelligenter, relevanter und genauer. Ein weiterer Treiber ist die zunehmende Rechenleistung, die der KI die Möglichkeit gibt, noch mehr Daten zu verarbeiten und zu analysieren (Cocorocchia et al. 2018: 6). Maschinelles Lernen hingegen ist ein Teilbereich der Künstlichen Intelligenz. Athur L. Samuel definierte den Begriff 1959 als „künstliche Generierung von Wissen aus Erfahrung“ (Samuel 1959). Mithilfe von Machine Learning werden IT-Systeme befähigt, Muster und Gesetzmäßigkeiten in vorhandenen Datenbeständen zu erkennen und auf deren Basis Problemlösungen zu entwickeln. Nach der Versorgung mit relevanten Daten und der Festlegung von Regeln sollen die intelligenten Systeme eigenständig lernen und „künstliches“ Wissen generieren. Maschinelles Lernen (Machine Learning) ist ein Teilbereich der Künstlichen Intelligenz. Mithilfe von Machine Learning werden IT-Systeme befähigt, Muster und Gesetzmäßigkeiten in vorhandenen Datenbeständen zu erkennen und auf deren Basis Problemlösungen zu entwickeln. Nach der Versorgung mit relevanten Daten und der Festlegung von Regeln sollen die intelligenten Systeme eigenständig lernen und „künstliches“ Wissen generieren. 20 Künstliche Intelligenz in Nachrichtenredaktionen Dank schnellerer Computer und verbesserter Rechenleistung erfuhren die Neuronalen Netzwerke mit der Jahrtausendwende einen neuen Aufschwung. Im Zusammenhang mit Big Data gerieten Künstliche Intelligenz und Machine Learning zunehmend in die Aufmerksamkeit der Öffentlichkeit. Maßgebliche Erfolge in der Sprachverarbeitung, Objekterkennung und der Musterkennung führten zum heutigen Erfolg des maschinellen Lernens und der Künstlichen Intelligenz (Döbel et al. 2018: 15). Apropos Big Data. Big Data bezeichnet im Allgemeinen zunächst einmal eine große Menge an Rohdaten, die in ihrem Umfang, ihrer Unterschiedlichkeit und Schnelllebigkeit nur schwer mit herkömmlichen Verfahren verarbeitet werden können. Neben der zunehmenden Herausforderung, diese immer größer werdende Menge an Daten zu speichern, liegt die zentrale Schwierigkeit in der effektiven Nutzung der Daten. Mithilfe unterschiedlicher (heute zur Verfügung stehender) Technologien lassen sich die Rohdaten auf unterschiedliche Weisen analysieren, strukturieren und aggregieren, um beispielsweise kontextbezogene Querverbindungen und Muster herzustellen. Big Data-Analysen dienen dazu, Informationen großer Datenmengen transparenter aufzubereiten, diese in Echtzeit zu bearbeiten und so Vorhersagen oder Simulationen zu generieren. Mithilfe von Algorithmen, Künstlicher Intelligenz oder sogar maschinellem Lernen wird aus oder mit Daten etwas gemacht - es werden Erkenntnisse gewonnen und/ oder Inhalte erstellt. Big Data bezeichnet im Allgemeinen zunächst einmal eine große Menge an Rohdaten, die in ihrem Umfang, ihrer Unterschiedlichkeit und Schnelllebigkeit nur schwer mit herkömmlichen Verfahren verarbeitet werden können. Beim konkreten Einsatz von Algorithmen und Künstlicher Intelligenz zur Produktion von Inhalten kommen dann noch einmal andere Begriffe ins Spiel: Auch wenn die Begrifflichkeiten bislang noch sehr Begrifflichkeiten und Systematisierung 21 unterschiedlich verwendet und definiert werden (van Dalen 2012; Clerwall 2014; Napoli 2014; Carlson 2015; Coddington 2015; Lewis/ Westlund 2015; Bontchev 2016; Diakopoulus/ Koliska 2017; Lindén 2017), alleine die Auflistung der folgenden Begriffe (nur ein Auszug) macht deutlich, dass insbesondere (auch) die Bereiche Konzeption, Produktion und Aufbereitung von Inhalten teilweise bereits automatisiert sind, und zunehmend sein werden: Computational Journalism, Algorithmic Journalism, Automated Journalism, Robot Journalism. Häufig wird die KI im Medienbeziehungsweise Verlagsumfeld mit Automated Journalism gleichgesetzt (Monti 2018). Allerdings ist Automated Journalism nur eine Anwendung, die auf KI basiert und stellt wiederrum einen Unterbegriff des Computational Journalism dar. Diakopoulos und Koliska definieren den Begriff Computational Journalism als „finding, telling, and disseminating news stories with, by or about algorithms“ (Diakopoulos/ Koliska 2016). Algorithmen sind dabei eine Folge von Schritten, um mit Wissenslogiken wichtige Selektionsfunktionen (beispielsweise Suche, Matching, Relevanzzuweisung und Präferenzabbildung) wahrzunehmen. Somit können Algorithmen journalistische Funktionen wie Editieren, Aggregieren, Distribuieren und automatisiertes Publizieren übernehmen (Pavlik 2013; Gillespie 2014, 2016; Broussard 2014; Diakopoulos 2015). Computational Journalism bezeichnet die (Weiter-)Verarbeitung von (journalistischen) Texten. Damit kann das Editieren, Aggregieren, Distribuieren und automatisierte Publizieren gemeint sein. Während Computational Journalism auch die (Weiter-)Verarbeitung von (journalistischen) Texten umfasst, bezeichnen Begriffe wie Algorithmic Journalism, Automated Journalism oder Robot Journalism das automatische Generieren von Texten (Dörr 2015). Dörr beschreibt Algorithmic Journalism als einen (semi-)automatisierten Prozess der algorithmischen Textgenerierung und demnach eine 22 Künstliche Intelligenz in Nachrichtenredaktionen unabhängige Produktion, Publikation und Distribution von Texten (fast) ohne menschlichen Einfluss (Dörr 2016). Es wird demnach möglich, viele Texte in kurzer Zeit zu erstellen und dies auch gleich in verschiedenen Sprachen (Dörr 2015). Algorithmic Journalism (auch Robot Journalism oder Automated Journalism) bezeichnet den Vorgang beziehungsweise die Verfahren der algorithmischen und automatisierten Textgenerierung, das automatische Erstellen von Texten. Ganz entscheidend im Rahmen der algorithmischen und automatisierten Textgenerierung ist der Begriff Natural Language Generation (NLG). Hierbei findet eine Selektion von Daten, die Relevanzzuweisung bestimmter Eigenschaften in eine semantische Struktur und schließlich die Generierung eines Textes in natürlicher Sprache als Output statt (Dörr 2015: 5). Der technische Prozess wird dabei als Natural Language Processing (NLP) bezeichnet. Damit Natural Language Generation funktioniert, sind (vereinfacht dargestellt) in einer ersten Phase eine inhaltliche Eingrenzung und Vorstrukturierung einiger Parameter notwendig: die Länge des Textes, die journalistische Darstellungsform, das Thema, die Tonalität und der Stil sowie der Ort und die Zeit der Publikation. In der zweiten Phase finden die Textplanung und Textrealisierung statt. Anhand von Selektionsalgorithmen werden die vorliegenden Daten iterativ verglichen und im Sinne einer Relevanzzuweisung geordnet, strukturiert und sortiert. Diese Relevanzzuweisung findet in Form von Textrealisierung, Aggregation und Lexikalisierung statt. Daraus entsteht in der dritten Stufe das Ergebnis in Form eines grammatikalisch korrekten Textes. Begrifflichkeiten und Systematisierung 23 Natural Language Generation bezeichnet ein Verfahren, das im Rahmen der algorithmischen und automatisierten Textgenerierung eingesetzt wird. Hierbei findet eine Selektion von Daten, die Relevanzzuweisung bestimmter Eigenschaften in eine semantische Struktur und schließlich die Generierung eines Textes in natürlicher Sprache als Output statt. Gerade Natural Language Generation ist ein Verfahren, auf dem eine Vielzahl der Anwendungsfälle von Algorithmen und Künstlicher Intelligenz in der Medienbranche und Verlagen beziehungsweise journalistischen Umfeldern beruht. Nämlich immer dann, wenn es um algorithmische und automatisierte Textgenerierung und damit um die Inhalteerstellung und -aufbereitung geht. Anpassungen und Aufbereitung von Inhalten an das Zielpublikum lassen sich insbesondere durch Anwendungen umsetzen, die auf Machine Learning basieren. Beides findet heute bereits statt, ganz real, jeden Tag - wie die Fallbeispiele in den folgenden Artikeln veranschaulichen. 3 Innovation differenzieren und Implikationen systematisieren: Wie verändern sich Geschäftsmodell und Wertschöpfungskette? Will man die möglichen Anwendungsfälle von Algorithmen und Künstlicher Intelligenz bei der Inhalteerstellung, -aufbereitung und -distribution in der Medienbranche und Verlagen beziehungsweise journalistischen Umfeldern systematisieren, um Überblick und Orientierung zu geben, kann im Hinblick auf Managemententscheidungen nach der Verortung des Technologieeinsatzes und der Implikation der Technologieinnovation differenziert werden. Diesem Ansatz folgend sind die folgenden Fragen hilfreich:  Welche Art der Innovation wird durch den Einsatz von Algorithmen und Künstlicher Intelligenz bei der Inhalteerstellung, -aufbereitung und -distribution in Medienunternehmen (Verlagen) hervorgerufen? 24 Künstliche Intelligenz in Nachrichtenredaktionen  In welchem Bereich des Geschäftsmodells von Medienunternehmen (Verlagen) ergeben sich durch den Einsatz von Algorithmen und Künstlicher Intelligenz bei der Inhalteerstellung, -aufbereitung und -distribution Veränderungen?  In welchen Stufen der Wertschöpfungskette werden Algorithmen und Künstliche Intelligenz bereits heute bei der Inhalteerstellung, -aufbereitung und -distribution in Medienunternehmen (Verlagen) eingesetzt? 3.1 Welche Art der Innovation wird hervorgerufen? Innovationen im Allgemeinen und insbesondere Innovationen, die sich durch das Aufkommen und den Einsatz neuer Technologien ergeben, werden häufig hinsichtlich ihrer Implikationen diskutiert, bewertet und strukturiert. Dies ist erst recht vor dem Hintergrund anstehender Managemententscheidungen sinnvoll (Wie können/ sollen/ müssen wir uns positionieren? ). Schumpeter (1911) hatte ursprünglich zwischen Produkt- und Prozessinnovation unterschieden. Dabei definiert er Produktinnovation als „the introduction of a new good - that is one with which consumers are not yet familiar - or a new quality of a good“ und Prozessinnovation als „the introduction of a new method of production, that is one not yet tested by experience in the branch of manufacture concerned [...] and can also exist in a new way of handling a commodity commercially”. Somit führt Produktinnovation zu einer neuen oder zumindest verbesserten Leistung (Produkt, Dienstleistung, Service). Wohingegen Prozessinnovation auf Veränderungen im Leistungserstellungsprozess abzielt, dieser also durch die Innovation effizienter (beispielsweise kostengünstiger, schneller, weniger fehleranfällig) wird (Utterback/ Abernath, 1975; Damanpour/ Gopalakrishnan 2001). Es ist durchaus möglich, dass beides zusammen auftritt (Athey/ Schmutzler 1995; Pisano 1996) - als sogenannte Produkt-Prozess-Innovation - Produktinnovation entweder, weil eine Produktinnovation auch eine Prozessinnova- Begrifflichkeiten und Systematisierung 25 tion notwendig macht oder weil Prozessinnovation Produktinnovation erst ermöglicht. Eine Weiterentwicklung der Dichotomie von Prozessinnovation und Produktinnovation wird von dem sogenannten Oslo Manual (OECD/ EUROSTAT 2018) vorgenommen. Demnach wird zusätzlich noch Marketinginnovation und Organisationsinnovation unterschieden (Abbildung 1):  Produktinnovation: Eine Produktinnovation ist die Einführung von Produkten, Dienstleistungen oder Services, welche neu sind oder in Bezug auf ihre Eigenschaften oder ihren Verwendungszweck erheblich verbessert wurden. Gemeint sind damit wesentliche Verbesserungen der technischen Spezifikationen, der Komponenten und Materialien, der integrierten Software, der Benutzerfreundlichkeit oder anderer funktioneller Merkmale - im Vergleich zu den bisher am Markt befindlichen und/ oder den bislang im Portfolio des jeweils betrachteten Unternehmen befindlichen Angeboten.  Prozessinnovation: Eine Prozessinnovation ist die Einführung einer neuen oder deutlich verbesserten Produktions- oder Lieferungsbeziehungsweise Bereitstellungsmethode. Dazu gehören wesentliche Änderungen der eingesetzten Techniken, der Ausrüstung und/ oder der Software. Es werden demnach signifikant verbesserte Methoden der Produktions- oder Serviceerstellung implementiert, die darauf abzielen, die Kosten in Produktion oder Lieferung zu senken, die Qualität zu erhöhen oder neue oder deutlich verbesserte Produkte herstellen oder liefern zu können.  Marketinginnovation: Eine Marketinginnovation ist die Einführung einer neuen Marketingmethode, die erhebliche Änderungen im Produktdesign oder der Verpackung, der Produktplatzierung, der Produktbewerbung oder der Preisgestaltung mit sich bringt. Diese zielen darauf ab, besser auf Kundenbedürfnisse eingehen und neue Märkte erschließen zu können oder das Produkt auf dem Markt neu zu positionieren, mit dem Ziel, den Umsatz 26 Künstliche Intelligenz in Nachrichtenredaktionen des Unternehmens zu steigern. Es geht demnach um bisher nicht von dem Unternehmen eingesetzte Marketingmethoden, die Teil eines neuen Marketingkonzepts oder einer neuen Marketingstrategie sind, mit wesentlichen Abweichungen von den bestehenden Marketingmethoden des Unternehmens.  Organisationsinnovation: Eine Organisationsinnovation ist die Einführung einer neuen Organisationsmethode in der Geschäftspraxis, der Arbeitsplatzorganisation oder den Außenbeziehungen des Unternehmens. Organisatorische Innovationen können darauf abzielen, die Leistung eines Unternehmens zu steigern, indem sie die Verwaltungs- oder Transaktionskosten senken, die die Zufriedenheit am Arbeitsplatz (und damit die Arbeitsproduktivität) erhöhen, den Zugang zu nicht nutzbaren Ressourcen ermöglichen. Es handelt sich dabei um organisatorische Tools und Methoden, die zuvor nicht in der Firma verwendet wurden. Abbildung 1: Arten von Innovation nach OECD/ EUROSTAT (2018). Dabei sind im hier diskutierten Fall (Anwendungsfälle von Algorithmen und Künstlicher Intelligenz bei der Erstellung, Aufbereitung und Distribution von Inhalten) nur Prozessinnovation und Produktinnovation sowie Produkt-Prozess-Innovation relevant. Produktinnovation (neues Produkt, neue Dienstleistung oder neuer Service) Prozessinnovation (neue Produktions- oder Lieferungsbzw. Bereitstellungsmethode) Marketinginnovation (neue Marketingmethode) Organisationsinnovation (neue Organisationsmethode) Innovation Begrifflichkeiten und Systematisierung 27 Marketinginnovation und Organisationsinnovation können und werden zwar auch durch den Einsatz von Algorithmen und Künstlicher Intelligenz (beispielsweise Programmatic Advertising) hervorgebracht, nicht jedoch, wenn es um die journalistische Inhalteerstellung, -aufbereitung und -distribution geht. 3.2 Welche Komponenten des Geschäftsmodells sind von Veränderungen betroffen? Will man Einsatzgebiete und Anwendungsmöglichkeiten sowie insbesondere die Implikationen von Algorithmen und Künstlicher Intelligenz vor dem Hintergrund von Geschäftsmodellen systematisieren, helfen gängige Geschäftsmodellansätze (Stähler 2001: 42ff.). Diese unterscheiden dabei als Komponenten Nutzenversprechen, Wertschöpfungsarchitektur sowie Ertragsmodell oder - inhaltlich nahezu identisch, nur mit anderen Begrifflichkeiten - die Komponenten Wertschöpfungsstruktur, Prozessarchitektur sowie Erlösmodell (Hass 2002). Nimmt man die Überlegung hinzu, dass die Kundin beziehungsweise der Kunde im Zentrum eines Geschäftsmodells steht, bietet sich als Erweiterung das St. Galler Modell an, wonach Geschäftsmodelle als Kombination der vier Komponenten (Abbildung 2) „Leistungsmodell“ (Was wird der Kundin beziehungsweise dem Kunden als Leistung angeboten? ), „Wertschöpfungsmodell“ (Wie wird die Leistung hergestellt? ), „Ertragsmodell“ (Wie wird Wert erzielt? ) und schließlich „Kundenmodell“ (Wer sind die Zielkundinnen und -kunden? ) verstanden werden (Gassmann/ Frankenberger/ Csik 2013: 6). Konkretisiert um die hier diskutierten Technologien (Algorithmen und Künstliche Intelligenz) würden sich demnach folgende Fragen stellen:  Inwieweit verändern Algorithmen und Künstliche Intelligenz das Leistungsmodell von Medienunternehmen? (Werden für Medienunternehmen durch Algorithmen und Künstliche Intelligenz 28 Künstliche Intelligenz in Nachrichtenredaktionen andere und/ oder neue Leistungen möglich beziehungsweise verändern sich die bisherigen Leistungen? )  Inwieweit verändern Algorithmen und Künstliche Intelligenz das Wertschöpfungsmodell von Medienunternehmen? (Werden Medienunternehmen ihre Wertschöpfung beziehungsweise ihre Leistung auf andere Art und Weise erbringen? )  Inwieweit verändern Algorithmen und Künstliche Intelligenz das Ertragsmodell von Medienunternehmen? (Werden in Medienunternehmen neue und/ oder andere Erlösmodelle zum Einsatz kommen? )  Inwieweit verändern Algorithmen und Künstliche Intelligenz das Kundenmodell von Medienunternehmen? (Werden Medienunternehmen neue und/ oder andere Zielgruppen als potenzielle Kundinnen und Kunden ansprechen? ) Dabei sollen alle Fragen als insofern neutral verstanden werden, dass nicht unterschieden wird, ob Medienunternehmen etwas verändern müssen oder verändern können - die Implikationen sind also als Risiko oder als Chance zu verstehen. Abbildung 2: Geschäftsmodell-Ansatz nach Gassmann/ Frankenberger/ Csik (2013: 6). Ertragsmodell Wie wird Wert erzielt? Wertschöpfungsmodell Wie wird die Leistung hergestellt? Leistungsmodell Was wird den Kundinnen und Kunden angeboten? Zielgruppe Wer sind die Zielkundinnen und Zielkunden? Was? Wert? Wie? Wer? Begrifflichkeiten und Systematisierung 29 Schließlich kann man noch den Grad der Veränderung und/ oder Innovation bewerten: Sind die Veränderungen hinsichtlich Geschäftsmodell (Leistungsmodell, Wertschöpfungsmodell, Ertragsmodell) eher als gering einzuschätzen und damit als Weiterentwicklung des Bisherigen zu verstehen (inkrementell) oder sind tiefgreifende Veränderungen zu erwarten (radikal oder neudeutsch: disruptiv)? Dabei kann sowohl nach Zeitpunkt und/ oder Schnelligkeit, nach Unsicherheit beziehungsweise Planbarkeit der Veränderung sowie nach Einfluss und Kontrollmöglichkeit weiter differenziert werden. Hier ist jedoch zu berücksichtigen, dass eine entsprechende Bewertung und Systematisierung nicht nur branchenspezifisch, sondern ausschließlich unternehmensindividuell möglich ist. 3.3 Welche Stufen der Wertschöpfungskette sind von Veränderungen betroffen? Die Frage nach Veränderungen des Wertschöpfungsmodells (als Komponente des Geschäftsmodells) kann differenzierter betrachtet werden. Implikationen neuer Technologien (Technologieinnovationen) werden häufig vor der Frage nach resultierenden Veränderungen für die Prozesse im Unternehmen diskutiert. Dies kann, dem ursprünglichen Konzept der Wertschöpfungskette von Porter (1992) folgend, im Bereich der Unterstützungsaktivitäten (Sekundäraktivitäten) oder im unmittelbaren Leistungserstellungsprozess (Primäraktivität) betrachtet werden. Während erstere in der Regel branchenunabhängig (beispielsweise Unterstützung der Personalauswahl durch KI-Anwendungen) sind, müssen letztere branchenspezifisch betrachtet werden, da hier auf Prozesse abgestellt wird, die unmittelbar in das Produkt einfließen, dieses verändern und/ oder verbessern. Neben den Fragen „Was wird getan? “ und „Wie läuft das ab? “ muss im Rahmen der Wertschöpfungskette auch nach dem „Wer macht was? “ gefragt werden. Die Antworten auf diese Fragen können alle Veränderungen zum bisherigen (ohne Algorithmen und Künstliche Intelligenz) Status Quo aufweisen. 30 Künstliche Intelligenz in Nachrichtenredaktionen Die Medienwertschöpfungskette nach Gläser (2010: 349) unterscheidet sieben Stufen: In Stufe 1 wird der Wertschöpfungsprozess durch einen Auslöser beziehungsweise eine Auftraggeberin oder einen Auftraggeber gestartet. Diese Initiierung kann dabei durch Medienunternehmen sowie durch Privatpersonen erfolgen. Die Stufen 2, 3 und 4 sind die Stufen, in denen Content generiert wird. In Stufe 2 wird (teilweise fertiger) Content intern oder extern beschafft. Dies kann durch Eigenproduktion oder Fremdbezug (Make-or-Buy-Entscheidung) erfolgen. In Stufe 3 wird der Content (teilweise aus dem beschafften Content) neu erstellt (Herstellung). Hier geht es demnach um die Konzeption, Kreation und Produktion. In Stufe 4 werden die einzelnen Content-Elemente zu einem vermarktbaren Produkt zusammengestellt oder gebündelt (Packaging). Die Stufen 5 und 6 stellen den Vertrieb und die Vermarktung des zuvor erstellten Produktes zusammen. In Stufe 5 findet zunächst die Vervielfältigung oder Bereitstellung der Produkte statt, bevor diese dann in der Stufe 6 an Kundinnen und Kunden weitergegeben werden (Distribution). Die Distribution kann entweder physisch (wenn der Content zuvor auf materielle Träger gebracht wurde) oder auf digitalem Weg (immateriell) erfolgen. Stufe 7 beschreibt die Nutzung des Contents durch Endkonsumentinnen und Endkonsumenten. Hauptmerkmal dieser Stufe ist das Zeitmanagement, das sich an die situative und vor allem zeitliche Relevanz des Konsums richtet. Speziell bezogen auf Algorithmen und Künstlicher Intelligenz nimmt Zydorek (2018) eine Einsortierung der durch diese Technologien möglichen Anwendungen in einer viertstufigen Wertschöpfungskette vor. Er unterscheidet dabei Initiierung, Konzeption, Formatentwicklung, Contentproduktion, Contentbündelung sowie Contentdistribution und gibt somit eine Übersicht zu „Orten und Wirkungsweisen des Einsatzes von Algorithmen in den Wertschöpfungsstufen des Mediencontents“ (Zydorek 2018: 63). Nimmt man schließlich die verlagsspezifische Wertschöpfungskette von Wirtz (2016: 76) sowie die von Godefroid und Kühnle (2018: 3) erstellte Konzeption der Einflüsse von Digitalisierung in der Wertschöpfungskette von Medienunternehmen hinzu, lässt sich eine Begrifflichkeiten und Systematisierung 31 geeignete Wertschöpfungskette zur Systematisierung des Einsatzes von Algorithmen und Künstlicher Intelligenz bei der Inhalteerstellung, -aufbereitung und -distribution in der Medienbranche und Verlagen beziehungsweise in journalistischen Umfeldern ableiten (Abbildung 3): (1) Beschaffung von Information und Inhalten sowie Akquisition von Werbung, (2) Produktion und Aggregation von Content sowie Platzierung von Werbung, (3) Packaging der Produkte, (4) Technische Produktion, (5) Distribution. Abbildung 3: Wertschöpfungskette von Medienunternehmen nach Wirtz (2016: 76) und Godefroid/ Kühnle (2018: 3). 4 Zusammenfassung und nächste Schritte nachvollziehen: Was sollte man für die weitere Beschäftigung mit dem Thema mitnehmen? Das Thema Künstliche Intelligenz selbst ist nicht neu. Jedoch ermöglichen die technischen Entwicklungen seit den 2000er Jahren erhebliche Fortschritte im Einsatz von KI. Künstliche Intelligenz wird seitdem meist als Oberbegriff für eine Reihe von Technologien unterschiedlicher Komplexitäts- und Entwicklungsstufen verstanden. Packaging der Produkte Technische Produktion Distribution Beschaffung von Informationen und Inhalten Akquisition von Werbung Produktion und Aggregation von Content Platzierung von Werbung Rezipient/ Kunde 32 Künstliche Intelligenz in Nachrichtenredaktionen Vielfach wird sogar der (vergleichsweise) einfache Einsatz von Algorithmen bei der Verarbeitung von Daten (beispielsweise statistische Auswertungen und daraus abgeleitete Entscheidungen) bereits als KI bezeichnet. Maschinelles Lernen ist ein Teilbereich der Künstlichen Intelligenz. Mithilfe von Machine Learning werden IT-Systeme befähigt, Muster und Gesetzmäßigkeiten in vorhandenen Datenbeständen zu erkennen und auf Basis dessen Problemlösungen zu entwickeln. Nach der Versorgung mit relevanten Daten und der Festlegung von Regeln, sollen die intelligenten Systeme eigenständig lernen und „künstliches“ Wissen generieren. Im Kontext von Anwendungen, die explizit auf Verlage und journalistische Umfelder abstellen, werden insbesondere Computational Journalism, als (Weiter-)Verarbeitung von (journalistischen) Texten, sowie Algorithmic Journalism (auch Automated Journalism oder Robot Journalism) für das tatsächliche automatische Erstellen von Texten unterschieden. Bei Letzterem geht es häufig um Natural Language Generation - immer dann, wenn es um algorithmische und automatisierte Textgenerierung und damit um die Inhalteerstellung und -aufbereitung geht. Weitere typische (medienspezifische) Anwendungsfälle von Algorithmen und KI sind die Anpassungen und die Aufbereitung von Inhalten an ein Zielpublikum. Folgt man der hier skizzierten Ausgangslage, wonach in Zukunft Algorithmen zunehmend die Art und Weise verändern, wie Inhalte produziert, vermarktet und konsumiert werden, ergibt sich für Unternehmen in diesen Branchen die Herausforderung, sich auf diese Veränderungen einzustellen. Dies beginnt mit der Kenntnis über mögliche Einsatzfelder und reicht über das Erkennen der Implikationen von Algorithmen und Künstlicher Intelligenz für die Geschäftsmodelle und Wertschöpfungsketten und endet bei Managemententscheidungen im Hinblick auf eine Positionierung und/ oder Gestaltung - nicht zuletzt, um Wettbewerbsfähigkeit sicherstellen zu können. Begrifflichkeiten und Systematisierung 33 Vor dem Hintergrund dieser Herausforderungen bietet es sich an, sich einen Überblick über (eine Vielzahl) konkreter Anwendungsfälle zu verschaffen sowie diese zu systematisieren. Dies kann beispielsweise über Technology Landscapes oder über die im Vorangegangenen vorgestellte Differenzierung von Innovationsarten (Welche Art der Innovation findet statt? ), über die Verortung der entstehenden Implikation im beziehungsweise auf das Geschäftsmodell (Welche Komponente des Geschäftsmodells ist von Veränderungen betroffen? ) sowie über eine Verortung auf der Wertschöpfungskette (Welche Stufe der Wertschöpfungskette ist von Veränderungen betroffen? ) erfolgen. So sollte es möglich sein, sowohl Chancen als auch Risiken zu identifizieren, um sich dann - wie bereits erwähnt - positionieren zu können. In den folgenden Beiträgen werden fünf Fallbeispiele vorgestellt (Dapfer/ Schimpgen/ Senghas/ Ciepluch 2021; Ciepluch/ Freimann/ Jäckle/ Pfahler/ Uhlich 2021; Czaja/ Obert/ Simoes/ Ciepluch 2021; Willbold/ Janko/ Eisenbeis 2021; Janko/ Willbold/ Eisenbeis 2021): Dabei geht es jeweils darum, zunächst die Ausgangslage (also den Grund für den Einsatz der Technologie) und den Lösungsansatz vorzustellen, dann die mit der Anwendung verbunden Ziele und Erwartungen zu skizzieren und die Implementierung und Funktionalität der Anwendung beziehungsweise Technologie zu beschreiben. Zudem wird auf die bei der Implementierung und/ oder dem Betrieb der Anwendung jeweils wahrgenommenen Herausforderungen und Erfolgsfaktoren eingegangen. Den Abschluss des Buches bildet dann ein Beitrag (Ciepluch/ Eisenbeis 2021), der eine übergreifende Zusammenfassung der Erkenntnisse aus den Fallbeispielen und eine Einordnung der Fallbeispiele in die drei hier vorgestellten Systematisierungen (Art der Innovation, Verortung in Geschäftsmodell und Wertschöpfungskette) enthält. Literatur Anderson, S. L. & Anderson, M. (2011). Machine ethics. New York: Cambridge University Press. 34 Künstliche Intelligenz in Nachrichtenredaktionen Athey, S. & Schmutzler, A. (1995). Product and process flexibility in an innovative environment. The RAND Journal of Economics 26(4) 1995, 557-574. Boden, M. A. (2009). Creativity in a nutshell. Think 5(15) 2009, 83-96. Bontchev, B. (2016). Modern trends in the automatic generation of content for video games. Serdica Journal of Computing 10(2) 2016, 133-166. Bostrom, N. & Yudkowski, E. (2014). The ethics of artificial intelligence. In: K. Frankish & W. M. Ramsey (Hrsg.), The Cambridge Handbook of Artificial Intelligence (316-334). New York: Cambridge University Press. Broussard, M. (2014). Artificial intelligence for investigative reporting. Using an expert system to enhance journalists’ ability to discover original public affairs stories. Digital Journalism 3(6) 2015, 814-831. Buxmann, P. & Schmidt, H. (2019). Ökonomische Effekte der Künstlichen Intelligenz. In: P. Buxmann & H. Schmidt (Hrsg.), Künstliche Intelligenz - Mit Algorithmen zum wirtschaftlichen Erfolg (21-37). Berlin: SpringerGabler. Carlson, M. (2015). The robotic reporter - Automated journalism and the redefinition of labor, compositional forms, and journalistic authority. Digital Journalism 3(3) 2015, 416-431. Caswell, D., & Dörr, K. (2017). Automated journalism 2.0: Event driven narrative. From simple descriptions to real stories. Journalism Practice 2017, 1-20. Ciepluch, M. & Eisenbeis, U. (2021). Algorithmen und Künstliche Intelligenz zur Erstellung, Aufbereitung und Distribution von Nachrichteninhalten. Erkenntnisse aus fünf Fallstudien. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (75-99). München: UVK. Ciepluch, M., Freimann, A., Jäckle, S., Pfahler, V. & Uhlrich, M. (2021). Artificial Intelligence zur inhaltlichen Steuerung und Personalisierung der Nachrichten- App Upday von Axel Springer. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (43-49). München: UVK. Clerwall, C. (2014). Enter the Robot Journalist. Journalism Practice 8(5) 2014, 519- 531. Cocorocchia, C., Dunn, J., Hall, S. & Takahashi, R. (2018). How do emerging technologies affect the creative economy? , McKinsey & Company, im Internet: https: / / www.mckinsey.com/ industries/ technology-media-and-telecommunications/ our-insights/ how-do-emerging-technologies-affect-the-creativeeconomy, abgerufen am 02.03.2020. Begrifflichkeiten und Systematisierung 35 Coddington, M. (2015). Clarifying journalism’s quantitative turn: A typology for evaluating data journalism, computer journalism, and computer-assisted reporting. Digital Journalism 3(3) 2015, 331-348. Czaja, D., Obert, A., Simoes, D. & Ciepluch, M. (2021). Natural Language Processing für den Feinstaubradar von Stuttgarter Zeitung und Stuttgarter Nachrichten. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (51-57). München: UVK. Damanpour, F. & Gopalakrishnan, S. (2001). The dynamics of the adoption of product and process innovations in organizations. Journal of Management Studies 38(1) 2001, 45-65. Dapfner, L., Schimpgen, S., Senghas, M. & Ciepluch, M. (2021). Robot Journalism zur Aufbereitung von Wahlergebnissen in der Wahlberichterstattung der Austria Presse Agentur. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (37-42). München: UVK. Dartnall, T. (Hrsg.) (1994). Artificial Intelligence and Creativity: An Interdisciplinary Approach, Dordrecht: Springer Science + Business Media. Deutsche Telekom AG (2019). Künstliche Intelligenz soll Beethovens zehnte Sinfonie vollenden, im Internet: https: / / www.telekom.com/ de/ konzern/ themenspecials/ special-beethoven-jahr-2020/ details/ kuenstliche-intelligenz-sollbeethovens-zehnte-sinfonie-vollenden-587346, abgerufen am 02.03.2020. Diakopoulos, N. (2015). Algorithmic Accountability. Journalistic investigation of computational power structures. Digital Journalism 3(3) 2015, 398-415. Diakopoulos, N. & Koliska, M. (2017). Algorithmic transparency in the news media. Digital Journalism 5(7) 2017, 809-828. Döbel, I., Leis, M., Vogelsang, M. M., Neustroev, D., Petzka, H., Rüping, S., Voss, A., Wegele, M. & Welz, J. (2018). Maschinelles Lernen - Kompetenzen, Anwendungen und Forschungsbedarf. München: Fraunhofer Gesellschaft. Dörr, K. N. (2015). Algorithmic Journalism. Einordnung und Konsequenzen. Konstanz: UVK Verlag. Dörr, K. N. (2016). Mapping the field of algorithmic journalism, in: Digital Journalism 4(6) 2016, 700-722. Ertel, W., & Mast, F. (2009). Grundkurs Künstliche Intelligenz: eine praxisorientierte Einführung. Wiesbaden: Vieweg + Teubner. Gassmann, O., Frankenberger, K. & Csik, M. (2013). Geschäftsmodelle entwickeln. 55 innovative Konzepte mit dem St. Galler Business Model Navigator, München: Carl Hanser. 36 Künstliche Intelligenz in Nachrichtenredaktionen Gensch, P. (2018). Künstliche Intelligenz für Sales, Marketing und Service. Mit AI und Bots zu einem Algorithmic Business - Konzepte, Technologien und Best Practices. Wiesbaden: Springer. Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. Boczkowski, & K. Foot (Hrsg.), Media Technologies: Essays on Communication, Materiality, and Society (167-194). Cambridge, MA: MIT Press. Gillespie, T. (2016). Algorithm. In B. Peters (Hrsg.), Digital keywords: A vocabulary of information (18-30). Princeton: Princeton University Press. Gläser, M. (2010). Medienmanagement. München: Verlag Franz Vahlen. Godefroid, P. & Kühnle, B. A. (2018). Medientechnologie als unternehmerischer Diversifikationsfaktor. In J. Krone, & T. Pellegrini (Hrsg.), Handbuch Medienökonomie (1-21). Wiesbaden: Springer Fachmedien. Goertzel, B. & Pennachin, C. (2007). Contemporary approaches to artificial general intelligence. In: C. Pennachin & B. Goertzel (Hrsg.), Artificial general intelligence (1-31). Berlin: Springer. Gomez-Uribe, C. A. & Hunt, N. (2016). The Netflix recommender system: Algorithms, business value, and innovation, ACM Transactions on Management Information Systems 6(4) 2016, Article 13. Gräfe, A. (2016). Guide to automated journalism. New York: Columbia Journalism School. Gray, J. (2012). The data journalism handbook: how journalists can use data to improve the news. Beijing, Köln: O’Reilly. Grimm, P. & Zöllner O. (2018). Mensch - Maschine: Ethische Sichtweisen auf ein Spannungsverhältnis, Stuttgart: Franz Steiner Verlag. Haim, M. & Gräfe, A. (2018). Automatisierter Journalismus. In: C. Neuberger, & C. Nuernbergk (Hrsg.), Journalismus im Internet, (139-160). Wiesbaden: Springer VS. Jacob, M. (2018). Kundenmanagement in der digitalen Welt, Wiesbaden: Springer. Janko, L., Willbold, K. & Eisenbeis, U. (2021). Text-to-Speech-Technologie auf Basis neuronaler Netzwerktechnik für eine akustische Sprachausgabe der Texte bei der NOZ Medien. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (67-73). München: UVK. Kasparov, G. & Greengard, M. (2017). Deep thinking: Where Machine Intelligence Ends and Human Creativity Begins, New York: Public Affairs. Lewis, S. C. & Westlund, O. (2015). Big data and journalism: Epistemology, Expertise, Economics, and Ethics, in: Digital Journalism, 3(3) 2015, 447-466. Begrifflichkeiten und Systematisierung 37 Lindén, C.-G. (2017). Algorithms for Journalism: The Future of News Work. The Journal of Media Innovations 4(1) 2017, 60-76. Matzat, L. (2011). Datenjournalismus, in: Bundeszentrale für politische Bildung, im Internet: https: / / www.bpb.de/ gesellschaft/ medien/ opendata/ 64069/ datenjournalismus, abgerufen am 17.04.2020. McCarthy, J. (1960). Recursice Functions of Symbolic Expressions and Their Computation by Machine, Part 1, in: Communications oft the ACM 3(4), 184-195. Monti, M. (2018). Automated Journalism and Freedom of Information: Ethical and Juridical Problems Related to AI in the Press Field, in: Opinio Juris in Comparatione, 1(1) 2018, 139-155. Napoli, P. M. (2014). On automation in media industries: Integrating algorithmic media production into media industries scholarship. Media Industries 1(1) 2014, 33-38. Newell, A. & Simon, H. (1956). The logic theory machine: A complex information processing system, in: IRE Transactions on Information Theory, 2(3), 61-79. OECD/ Eurostat (2018): Oslo Manual 2018. Guidelines for collecting, reporting and using data on innovation. The measurement of scientific, technological and innovation activities. (4. Aufl.). Paris; Luxemburg: OECD. Pavlik, J. (2013). Innovation and the future of journalism. Digital Journalism 1(2) 2013, 181-193. Pisano, G. P. (1996). The development factory: Unlocking the potential for process innovation. Cambridge, MA: Harvard Business School Press. Porter, M. E. (1992). Wettbewerbsvorteile: Spitzenleistungen erreichen und behaupten (3. Aufl.). Frankfurt/ Main: Campus Verlag. Saake, G. & Sattler, K.-U. (2020). Algorithmen und Datenstrukturen. Eine Einführung mit Java. Heidelberg: dpunkt.verlag. Samuel, A. L. (1959). Some Studies in Machine Learning Using the Game of Checkers, in: IBM Journal of Research and Development, 3(3) 1595, 210-229. Schumpeter, J. A. (1934). The theory of economic development, (Original German edition 1911) Cambridge, Mass: Harvard University Press. Springer Nature (2019). Springer Nature veröffentlicht sein erstes maschinengeneriertes Buch, in: springer.com, 02.04.2019, im Internet: https: / / www.springer.com/ gp/ about-springer/ media/ press-releases/ corporateg/ springer-naturemaschinen-generiertes-buch/ 16590072, abgerufen am 02.03.2020. Steffen, S. (2016). Maschine schreibt preisverdächtiges Buch, in: neues deutschland, 24.03.2016, im Internet: https: / / www.neues-deutschland.de/ artikel/ 1006215.maschine-schreibt-preisverdaechtiges-buch.html, abgerufen am 02.03.2020. 38 Künstliche Intelligenz in Nachrichtenredaktionen Utterback, J. M. & Abernathy, W. J. (1975). A dynamic model of process and product innovation. The International Journal of Management Science 3(6) 1975, 639-656. Van Dalen, A. (2012). The algorithms behind the headlines: How machine-written news redefines the core skills of human journalists. Journalism Practice, 6(5- 6) 2012, 648-658. Willbold, K., Janko, L. & Eisenbeis, U. (2021). Machine Learning als Grundlage der Personalisierungsfunktion „Entdecken“ in der FAZ.NET-App der Frankfurter Allgemeinen Zeitung. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (59-65). München: UVK. Wirtz, B. W. (2013). Medien- und Internetmanagement (8. Aufl.). Wiesbaden: SpringerGabler. Zeit Online (2018). Auktionshaus versteigert erstmals KI-Gemälde, in: Zeit Online, 26.10.2018, im Internet: https: / / www.zeit.de/ kultur/ kunst/ 2018-10/ kuenstliche-intelligenz-versteigerung-gemaelde-algorithmus-christie-s-auktionshaus, abgerufen am 02.03.2020. Zweig, K. A. (2016). Arbeitspapier: Was ist ein Algorithmus? , in: Algorithm Watch, 12.05.2016, im Internet: https: / / algorithmwatch.org/ publication/ arbeitspapier-was-ist-ein-algorithmus/ , abgerufen am 15.01.2021. Zydorek, C. (2018). Grundlagen der Medienwirtschaft. Algorithmen und Medienmanagement. Wiesbaden: SpringerGabler. Robot Journalism zur Aufbereitung von Wahlergebnissen in der Wahlberichterstattung der Austria Presse Agentur Leonie Dapfer, Sophia Schimpgen, Marie Senghas, Magdalena Ciepluch Die Austria Presse Agentur (APA) mit Hauptsitz in Wien versteht sich als Nachrichten-, Informations- und Technologieagentur und ist die größte nationale Nachrichten- und Presseagentur Österreichs. Stand 2018 sind über 500 Mitarbeiterinnen und Mitarbeiter bei der APA beschäftigt. Der Umsatz der APA betrug im Jahr 2018 über 63,7 Millionen Euro. Die APA befindet sich im Eigentum von zwölf österreichischen Tageszeitungen sowie dem öffentlich-rechtlichen Rundfunk (ORF). Sie dient besonders Tageszeitungen, Radio- und Fernsehsendern, Onlinediensten und Zeitschriften sowie dem Informationsmanagement in Unternehmen als Lieferantin von Informationen. In einem Pilotprojekt wurden zur Europawahl 2019 die Wahlergebnisse aus über 2.000 Gemeinden mithilfe von Künstlicher Intelligenz (Robot Journalism) zu Berichten automatisiert verarbeitet. 1 Ausgangslage und Lösungsansatz Mit dem Ziel, zu einem „News-Tech-Unternehmen“ zu werden, bei dem Technologie und Nachrichten verschmelzen, startete die APA zu Beginn des Jahres 2019 ein Pilotprojekt, um mithilfe von Künstlicher Intelligenz automatisch Texte zu generieren. Zur Europawahl am 26. Mai 2019 wurde die innovative Technologie erstmals 40 Künstliche Intelligenz in Nachrichtenredaktionen eingesetzt. Dabei wurden zu sämtlichen Wahlergebnissen aus über 2.000 österreichischen Gemeinden automatisch Texte erstellt. Grundlage für die Einführung der Artificial Intelligence-Technologie war es, den APA-Kundinnen und -Kunden Kurzberichte zur Europawahl auf Gemeindeebene zur Verfügung stellen zu können. In den Jahren davor lagen die Wahlergebnisse nur in Tabellenform vor, diesmal konnten erstmalig große Datenmengen automatisch zu Berichten aufbereitet werden. 2 Ziele und Erwartungen Die APA erhoffte sich von dem Pilotprojekt die Erweiterung von Wissen und Know-how im Bereich neuer Technologien, um so ihrem Ziel ein „News-Tech-Unternehmen“ zu werden, näher zu kommen. Auf Basis dieser Ausgangserwartung wurden vier konkrete Ziele definiert: (1) Die Gewinnung von zusätzlichen Erfahrungen bezüglich des zukünftigen Einsatzes neuer Technologien im Arbeitsalltag einer Nachrichten- und Presseagentur. (2) Mithilfe von Technologie effizient zusätzliche Inhalte und infolgedessen neue Produkte und Services entwickeln und anbieten zu können. Dadurch sollte (3) die Möglichkeit geschaffen werden, den Kundenstamm zu erweitern und auch neue Märkte zu erschließen. (4) Durch den Einsatz von Artificial Intelligence-Technologie journalistische Tätigkeiten zu erleichtern und Routineaufgaben außerhalb des journalistischen Kerngeschäfts zu automatisieren, also Workflows zu erleichtern und zu verkürzen. 3 Implementierung und Funktionalität Aufgrund der Vielzahl bereits etablierter Anbieter von Lösungen im Bereich der Natural Language Generation, entschied sich APA gegen eine aufwändige Eigenentwicklung. Stattdessen wird bei Technologie und Softwarelösung auf die Erfahrung von AX Semantics zurückgegriffen. In der Artificial Intelligence-Software Robot Journalism bei der Wahlberichterstattung der APA 41 stehen vorgefertigte Sets an Sprach- und Grammatikregeln zur Verfügung, sowie eine Logik, um den Daten einen Kontext zu geben und diese einordnen zu können. Darüber hinaus unterstützt das Tool mittlerweile 110 Sprachen. Somit war es im konkreten Fall der Europawahl möglich, auf Basis von strukturierten Inputdaten der Redaktion, in diesem Fall die Wahlergebnisse aus den Gemeinden, sowie des zuvor definierten Regelwerks, automatisch Kurztexte generieren zu lassen. Die automatisch generierten Texte müssen dann von der Redaktion bewertet und gegebenenfalls korrigiert werden. Kleine, grammatikalische Korrekturen sind momentan noch unvermeidbar und werden von den Journalistinnen und Journalisten vorgenommen. Des Weiteren kann die Redaktion Sätze umstellen oder den Satzbau variieren sowie je nach Relevanz einzelner Textpassagen die Position beziehungsweise die Reihenfolge einzelner Textteile anpassen. Der Mensch hat somit nicht nur Kontroll- und Korrekturfunktion, sondern trainiert die Software auch, indem Anweisungen hinsichtlich Grammatik oder Syntax gegeben werden, die dann in das Regelwerk des Systems aufgenommen werden. 4 Herausforderungen und Erfolgsfaktoren Bei dem Einsatz der Technologie bestehen jedoch Risiken, die die Technologie mit sich bringt. Robot Journalism birgt die Gefahr, dass falsche Inhalte erzeugt und somit ein falsches Bild von einem Sachverhalt vermittelt wird. Deshalb ist es besonders wichtig, darauf zu achten, welche Anweisungen der Technologie gegeben werden und in welcher Form sowie an welcher Stelle im Text die Inputdaten einzusetzen sind. Folglich kann die menschliche Intelligenz aktuell durch die Technologie nicht vollständig ersetzt werden. Hierbei ergaben sich auch Herausforderungen für die Redakteurinnen und Redakteure von APA. Neben dem spezifischen journalistischen Know-how, ist eine Affinität zum Coding und weiteren 42 Künstliche Intelligenz in Nachrichtenredaktionen neuen technologischen Anwendungen Voraussetzung für die Arbeit mit der Software. Zusätzlich sollte ein generelles Interesse am Thema Natural Language Generation bestehen. Die Implementierung der Software hat circa vier Monate in Anspruch genommen, wobei der Gesamtaufwand trotz der vergleichsweise kurzen Implementierungsphase von APA als enorm hoch bewertet wird. Als Grund dafür sind der hohe Abstimmungs- und Koordinationsaufwand aufgrund der Neuartigkeit des Projektes sowie der hohe „Lernaufwand“ zu nennen. Das Trainieren der Artificial Intelligence-Software erlaubt es, menschlich klingende Texte zu generieren, ohne dass ein/ e Journalist/ in aktiv beteiligt sein muss. Das Tool lernt, worauf die Journalistinnen und Journalisten bei ihren Texten achten und passt sich dementsprechend ihren Präferenzen an. Zentrale Herausforderungen  Robot Journalism birgt ohne menschliche Kontrolle die Gefahr der Generierung von falschen Inhalten.  Artificial Intelligence-Anwendungen benötigen sehr genaue Anweisungen, um sinnvoll und effizient eingesetzt werden zu können.  Die beteiligten Redakteurinnen und Redakteure benötigen sowohl eine Affinität zum Journalismus, als auch zum Coding. Auf der anderen Seite bietet Künstliche Intelligenz viele Chancen. So können beispielsweise große Datenmengen effektiv verarbeitet werden. Durch den kontinuierlichen Gesamtüberblick über die Daten werden interne Workflows verbessert. Einer der größten Vorteile der neuen Technologie besteht dementsprechend in der Schnelligkeit der Datenaufbereitung. In diesem Anwendungsfall konnten die mithilfe von Künstlicher Intelligenz verarbeiteten Daten der Wahlergebnisse noch am Robot Journalism bei der Wahlberichterstattung der APA 43 Wahlabend in Form von Kurzberichten zur Verfügung gestellt werden. Durch die bereits vorhandene Nachfrage seitens der Kundinnen und Kunden ist die externe Akzeptanz des gesamten Pilotprojektes insgesamt als sehr gut zu bewerten. Die interne Akzeptanz war ebenfalls überwiegend positiv, da das Team motiviert ist, Neues auszuprobieren und mit technologischen Innovationen zu arbeiten. Wahrgenommene Erfolgsfaktoren  Frühzeitige und offene Kommunikation gegenüber den Mitarbeiterinnen und Mitarbeitern über den für die Zukunft geplanten Technologieeinsatz.  Frühzeitige Schulung der Mitarbeiterinnen und Mitarbeiter im Umgang mit den neuen Technologien.  Kontinuierliche Pflege und Training der Artificial Intelligence-Anwendung sowie Fehlerkorrektur der automatisch generierten Texte durch die Redaktion. 5 Fazit und Ausblick Über das Pilotprojekt hinaus sind für die APA folgende Handlungsempfehlungen für die Implementierung einer solchen Technologie in das Alltagsgeschäft einer Nachrichtenagentur erfolgsrelevant: An erster Stelle steht eine stetige interne Kommunikation. Wichtig ist es, die konkreten Absichten bezüglich der Einführung einer Technologie sowie die Erwartungen an die Mitarbeiterinnen und Mitarbeiter zu kommunizieren. Künstliche Intelligenz kann und wird den Menschen und seine journalistische Tätigkeit nicht ersetzen. Die Anweisungen und Vorgaben der Redaktion in die Artificial Intelligence-Software, ebenso wie die Korrektur im Nachhinein sind für zufriedenstellende Ergebnisse unumgänglich. Durch die hohen technischen und auch neuen Anforderungen an die Mitarbeiterinnen 44 Künstliche Intelligenz in Nachrichtenredaktionen und Mitarbeiter ist es empfehlenswert, diese frühzeitig entsprechend zu schulen. Die APA Gruppe sieht im Einsatz neuer Technologien nicht nur hohes, sondern auch ein erfolgskritisches Potenzial, insbesondere in der Nachrichten-, Presse- und Informationsarbeit. Spannende Zahlen und Fakten  Mithilfe von Künstlicher Intelligenz wurden am Wahlabend der Europawahl 2019 Wahlergebnisse aus über 2.000 Gemeinden zu Berichten verarbeitet.  Bereits mit dem ersten Anwendungstag konnten die Ziele der effizienten Produktion neuer, zusätzlicher Inhalte und damit das Angebot neuer Services sowie das Erreichen neuer Kundinnen und Kunden erzielt werden.  Auf Basis der bei der Europawahl gesammelten Erfahrungen startet die APA zur Nationalratswahl am 29. September 2019 den Echtbetrieb von „Automated Content“.  Nicht zuletzt aufgrund der hohen Technologieaffinität und der damit einhergehenden Vorreiterrolle ist die APA als einer der Leitbetriebe Österreichs 2019 ausgezeichnet worden. Künstliche Intelligenz zur inhaltlichen Steuerung und Personalisierung der Nachrichten-App Upday von Axel Springer Magdalena Ciepluch, Andreas Freimann, Sarah Jäckle, Veronika Pfahler, Maik Uhlich Das 1946 gegründete Verlagshaus Axel Springer umfasst heute als Axel Springer SE circa 200 Tochterunternehmen und beschäftigt rund 16.000 Mitarbeiterinnen und Mitarbeiter weltweit. Bekannte Marken sind unter anderem BILD, WELT, B.Z., idealo, kaufDA, Immowelt und StepStone. Seit mehr als zehn Jahren treibt das Unternehmen einen Umbau zu einem der führenden digitalen Medienunternehmen voran. 2018 wurden bereits 70% der Umsatzerlöse durch digitale Angebote erzielt. Gemeinsam mit Samsung Electronics wurde mit der Nachrichten- App Upday eine Plattform entwickelt, die journalistische Kuration mit maschineller Aggregation verbindet. 1 Ausgangslage und Lösungsansatz Eine große Herausforderung des Verlagswesens ist der rückläufige Absatz von Printprodukten. Aus diesem Grund stellen sich Verlage vielfach neu auf. Axel Springer investiert bereits seit 2005 in neue digitale Geschäftsfelder. Seit 2010 wird eine explizite Digitalisierungsstrategie vorangetrieben. Ziel dabei ist es, digitale und journalistische Produkte und Dienstleitungen zu entwickeln. Vor diesem Hintergrund entstand in Kooperation mit Samsung Electronics die Nachrichten-App Upday, ein Nachrichten-Aggregator, der journalistische Inhalte aufbereitet und in mehreren Ländern auf einer 46 Künstliche Intelligenz in Nachrichtenredaktionen Vielzahl von Samsung Smartphones und anderen Samsung-Geräten wie Tablets, TVs, Uhren und Kühlschränken vorinstalliert ist. 2 Ziele und Erwartungen Im Rahmen der Digitalisierungsstrategie sollte mit der Nachrichten-App Upday ein moderner Nachrichten-Aggregator entwickelt werden. Modern bedeutet in diesem Fall insbesondere, dass sich die Anwendung an die Gewohnheiten der Nutzerinnen und Nutzer anpassen kann. Zudem sollte die Nutzung der App für die Nutzerinnen und Nutzer mit geringstem Aufwand verbunden, bequem und intuitiv zu bedienen sein und dabei größtmögliche Personalisierung bei der Nachrichtenauswahl liefern. Um die Gefahr zu vermeiden, dass die Nutzerinnen und Nutzer sich in der sogenannten „Filter Bubble“ verlieren, gibt es neben dem algorithmisch gesteuerten „My News“-Bereich noch den Bereich „Top News“, in dem professionelle Journalistinnen und Journalisten die jeweils wichtigsten Nachrichten des Tages auswählen und allen Nutzerinnen und Nutzern anzeigen. Neben diesen Anforderungen in Bezug auf Funktionalität, Benutzerfreundlichkeit und journalistische Inhalte, sollte das Projekt zudem in vergleichsweise kurzer Zeit umgesetzt werden und dann wirtschaftlich tragfähig sein. 3 Implementierung und Funktionalität Technologiebasis von Upday ist ein Themenmanagementsystem von Retresco, ein auf Natural Language Processing spezialisiertes Dienstleistungsunternehmen. Das System wurde aufgrund der angestrebten Internationalisierung um die Fähigkeit, ausländische Quellen verarbeiten zu können, sowie Mehrsprachigkeit ergänzt. Der Zeitplan konnte entsprechend eingehalten werden: Von der Zusammenstellung des Teams über die App-Entwicklung bis hin zum Testing - alles wurde innerhalb von sechs Monaten durchgeführt. Künstliche Intelligenz der Nachrichten-App Upday von Axel Springer 47 Upday sammelt zum einen Nachrichten automatisch aus einer Vielzahl unterschiedlicher Quellen und kategorisiert diese nach Themengebieten. Zum anderen werden Nachrichten auch durch redaktionelle Teams, die für mehrere europäische Länder eigens aufgebaut wurden, ausgewählt. Dabei umfasst die Upday App neben dem Bereich „Top News“, in dem durch die Redaktion als besonders relevant eingestufte Nachrichten angezeigt werden, den personalisierten „My News“-Bereich. Hierfür können sich Nutzerinnen und Nutzer nach der Installation der App für unterschiedliche Interessensgebiete entscheiden. Über die Nutzungszeit hinweg werden Informationen über das Nutzungsverhalten gesammelt. Dieses Nutzungsverhalten (der Track-Record) wird unter Verwendung eines neuronalen Netzwerks ausgewertet, sodass der Algorithmus die Auswahl der Nachrichten sukzessive verfeinern kann. Zudem kann Upday stärker an individuelle Vorlieben angepasst werden, indem neue Interessensgebiete ausgewählt und alte wieder entfernt werden. Es lassen sich auch einzelne Unterkategorien eines Interessensgebiets auswählen: Beispielsweise kann die Kategorie „Technologie“ in weitere Unterkategorien wie „Handys und Tablets“ oder „Smart Home“ spezifiziert werden. Der Algorithmus berücksichtigt das Nutzerverhalten und die Interessen bei der Artikelauswahl, indem Nachrichten einer semantischen Analyse unterzogen werden. Neben der Kategorisierung der Nachrichten wird auch eine Relevanzbewertung der Quelle vorgenommen. So wird beispielsweise überregionalen Tageszeitungen bei überregionalen Themen eine höhere Relevanz als kleinen Regionalzeitungen, die über das gleiche Thema berichten, zugewiesen. Diese Relevanzeinstufung kann sich jedoch auch verschieben: Entscheiden sich die Nutzerinnen und Nutzer häufiger für die Meldungen der Regionalzeitung, steigt diese in der Relevanzbewertung (zum Thema). Die Informationsgrundlage von Upday, das mittlerweile eigene Editionen in 34 europäischen Ländern betreibt, bilden etwa 5.000 ausgewählte journalistische Quellen, die bestimmte Qualitätskri- 48 Künstliche Intelligenz in Nachrichtenredaktionen terien (unabhängig, nicht-kommerziell, ...) erfüllen müssen. Auch neue Quellen werden nicht automatisch übernommen, sondern durchlaufen einen redaktionellen Auswahlprozess. 4 Herausforderungen und Erfolgsfaktoren Da Axel Springer bereits über Erfahrungen mit Artificial Intelligence-Technologie verfügt, stellte die Entwicklung der technischen Lösung beziehungsweise des Systems keine große Herausforderung dar. Stattdessen lagen die Schwierigkeiten bei der Entwicklung, Gestaltung und Vermarktung der App selbst. Beispielsweise wurde die Verständlichkeit des Produkts für neue Nutzerinnen und Nutzer anfangs falsch eingeschätzt: So wurden zum Beispiel Tutorials produziert und zur Verfügung gestellt, welche die App erklären. Diese wurden jedoch von den Nutzerinnen und Nutzern nicht genutzt und wurden somit offenbar nicht benötigt. Zusätzlich entstanden wegen des schnellen Wachstums und der hohen Nutzerzahlen Skalierungsprobleme (Server- und Systemleistung), die Axel Springer von kleineren Applikationen zuvor nicht kannte. Ein Katalysator für die schnelle Entwicklung von Upday war, dass die Artificial Intelligence-Lösung durch das Themenmanagementsystem von Retresco bereits als Basis zur Verfügung stand und nicht von Grund auf neu entwickelt werden musste. Dies erleichterte die Entwicklung und Implementierung enorm und sorgte auch für eine weniger komplexe Qualitätssicherung bei der Technologie. Des Weiteren haben der ständige Austausch der Entwicklerinnen und Entwickler mit Samsung sowie die Vorinstallation auf Samsung-Geräten maßgeblich zum Erfolg beigetragen. Zum einen konnte höchste Kompatibilität sichergestellt werden, zum anderen wurde dadurch eine große Verbreitung gewährleistet. Die Zusammenarbeit wurde sukzessive auf mehrere Geräte und Länder erweitert. Durch die Vorinstallation auf Samsung-Geräten kann man von einer erhöhten Offenheit und Akzeptanz der Nutzerinnen und Nutzer ausgehen, da sie Samsung als Gerätehersteller bereits vertrauen. Erfolgskritische Künstliche Intelligenz der Nachrichten-App Upday von Axel Springer 49 Voraussetzung dafür ist, dass die App für jedes der Geräte optimiert ist und durch die damit einhergehende Kompatibilität die Benutzung nicht durch technische Probleme beeinträchtigt. Zentrale Herausforderungen  Mit Unsicherheit behaftete Planungen hinsichtlich des Nutzerverhaltens im Umgang mit (neuen) Technologien.  Skalierungsprobleme aufgrund nicht vorhersehbarer erforderlicher Server- und Systemleistung.  Finden eines tragfähigen Monetarisierungsmodells für neue Anwendungen beziehungsweise neue Dienste.  Unsicherheit auf Seiten der Mitarbeiterinnen und Mitarbeiter im Umgang mit neuen (unbekannten) Technologien sowie deren Auswirkungen auf den Arbeitsplatz. Angesichts der Tatsache, dass sich die Verlagsbranche künftig stark digitalisieren muss, um im Wettbewerb Bestand zu haben, besteht zudem ein Nährboden für Zukunftsängste von Seiten der Mitarbeiterinnen und Mitarbeiter. Auch wenn der Konzern Axel Springer sich seit Jahren einer Digital Culture Transformation verschrieben hat, welche Hierarchien stetig abbaut und so eine deutlich leichtere Kommunikation und ein offeneres Klima ermöglicht, bleiben Unsicherheiten über noch unbekannte Technologien bestehen. Dabei bietet Axel Springer seinen Mitarbeiterinnen und Mitarbeitern eine Vielzahl an Angeboten, die diese an Themen wie Künstliche Intelligenz heranführen sollen. Diese reichen von verschiedenen Weiterbildungskursen, über Austauschformate in Form von fünf bis sechs halböffentlichen Veranstaltungen im Jahr, bis hin zu Expertenkreisen zu spezifischen Themen. 50 Künstliche Intelligenz in Nachrichtenredaktionen Wahrgenommene Erfolgsfaktoren  Vorhandensein einer eigenen Innovationsabteilung im Unternehmen.  Frühzeitiger Aufbau von Erfahrung mit Artificial Intelligence Technologie.  Frühzeitiges Heranführen der Mitarbeiterinnen und Mitarbeiter an neue Technologien.  Zusammenarbeit mit etablierten und starken Partnerinnen und Partnern. 5 Fazit und Ausblick In Zukunft werden laut Axel Springer viele Bereiche der Gesellschaft durch Technologien wie Künstliche Intelligenz beflügelt. Doch wie genau der Einsatz von neuen Technologien dabei gestaltet wird, kann man heute noch nicht konkret sagen. Sicher ist nur, dass sich vieles im positiven Sinne verändern wird. Aus diesem Grund muss auch die Scheu, sich diese Tools aktiv zu Nutze zu machen, gesellschaftsübergreifend überwunden werden. Bei Axel Springer geht man davon aus, dass Menschen nicht durch Automatisierung ersetzt werden. Hingegen sollen mithilfe unterschiedlichster Technologien die Menschen unterstützt werden. Auch in Bezug auf das Verlagswesen ergeben sich daraus völlig neue Möglichkeiten. Die Redaktionen von Axel Springer stehen in der Verantwortung, zu entscheiden welche Informationen wichtig sind und diese journalistisch sichtbar zu machen. Diese Kapazitäten und das langjährige Know-how des Unternehmens mit der Technologie zu verbinden, wird als zukünftige Erfolgschance gesehen. Die Kombination aus Mensch und Maschine könnte demnach ein Schlüsselfaktor sein, um sich im Wettbewerb zu behaupten. Künstliche Intelligenz der Nachrichten-App Upday von Axel Springer 51 Spannende Zahlen und Fakten  Upday erreicht rund 25 Millionen aktive Nutzerinnen und Nutzer pro Monat weltweit.  Pro Monat verzeichnet Upday 5 Milliarden Page Impressions.  Die Informationsbasis von Upday umfasst rund 5.000 internationale Quellen.  Die App war innerhalb von nur sechs Monaten nach Zusammenstellung des Teams bereits marktreif.  Der Break-Even-Point wurde Ende 2018 erreicht. Natural Language Processing für den Feinstaubradar von Stuttgarter Zeitung und Stuttgarter Nachrichten Dennis Czaja, Alexander Obert, David Simoes, Magdalena Ciepluch Stuttgarter Zeitung und Stuttgarter Nachrichten, die seit 1945 beziehungsweise 1946 als regionale Tageszeitungen erscheinen, gehören beide als Teil der Stuttgarter Zeitung Verlagsgesellschaft mbH zur der Südwestdeutschen Medien Holding GmbH. Mit einer gemeinsamen verkauften Auflage von 195.000 Exemplaren wird eine Reichweite von 500.000 Leserinnen und Lesern erreicht. Seit 2015 wird mit einer weitgehend zusammengelegten Redaktion gearbeitet. Zum Angebot gehören unter anderem auch die Online-Portale ZGS.de (Stuttgarter Zeitung) und StN.de (Stuttgarter Nachrichten) mit rund 3.3 Millionen Unique Usern pro Monat. Seit Herbst 2017 wird für diese Online-Portale mithilfe von Künstlicher Intelligenz der sogenannte Feinstaubradar mit inzwischen täglich 80 automatisch generierten Feinstaubmeldungen erstellt. 1 Ausgangslage und Lösungsansatz Gerade in regionalen Tageszeitungen sind Informationen zu Stickoxid- und Feinstaubkonzentration im Erscheinungsgebiet relevante Inhalte für die Bürgerinnen und Bürger. Das Thema Feinstaubbelastung ist in den vergangenen Jahren zunehmend in den Fokus politischer und gesellschaftlicher Diskussionen gerückt. Besonders die Stadt Stuttgart und die sie umgebende Region sind für hohe Belastungswerte und vielfältige Maßnahmen zur Verbesserung der Situation bekannt. Daher hat die Landesanstalt für Umwelt in 54 Künstliche Intelligenz in Nachrichtenredaktionen Baden-Württemberg eine Vielzahl von Messstationen und Sensoren in der Stadt aufbauen lassen, um die Feinstaubkonzentration in der Luft zu messen. Im Fokus stehen dabei Orte mit hohem Verkehrsaufkommen, beispielsweise die Hauptstraßen und das Stuttgarter Neckartor. Dort werden die EU-Grenzwerte für die Feinstaubkonzentration regelmäßig überschritten. In dieser Situation fehlte es der bisherigen Feinstaubberichterstattung der Stuttgarter Zeitung und der Stuttgarter Nachrichten vor allem an tagesaktuellen Messwerten und einer Berichterstattung nicht nur für die kritischen Stellen in der Innenstadt, sondern eben auch für den gesamten Ballungsraum und somit auch für Nebenstraßen und Wohngebiete. Um der entsprechenden Informationsnachfrage zum Thema gerecht werden zu können, war eine Umgestaltung und Automatisierung der Berichterstattung sowie die Aufbereitung und Darstellung der Feinstaubwerte für beide Verlagshäuser von hoher Relevanz. Vor Einführung des sogenannten Feinstaubradars und der damit verbundenen Einbindung von Robot Journalism oder auch Automated Journalism (Natural Language Processing) gab es keinen vergleichbaren Prozess zur Automatisierung bei der Erstellung von Texten innerhalb der beiden Häuser. Auch die Datenqualität (Aktualität, Genauigkeit, Granularität) konnte bisher nicht in ihrem vollen Umfang zur Verfügung gestellt werden. Mithilfe von Künstlicher Intelligenz können inzwischen täglich 80 automatisch generierte Feinstaubmeldungen erstellt werden. Somit stehen die Berichte für jeden Stuttgarter Stadtbezirk und jede Gemeinde zur Verfügung. Neben diesen maschinell erstellten Texten wird den Leserinnen und Lesern über die Online- Portale StN.de und ZGS.de eine Livekarte zur Verfügung gestellt, auf der die Feinstaubwerte visuell dargestellt werden. 2 Ziele und Erwartungen Ziel des Projektes „Feinstaubradar“ war und ist es, erste Erfahrungen im Bereich Robot Journalism zu sammeln: Zum einen im Hinblick auf das Einfügen von Robot Journalism in die redaktionellen Natural Language Processing beim Feinstaubradar auf ZGS.de/ StN.de 55 Abläufe. Zum anderen im Hinblick auf die Frage, inwieweit automatisiert generierte Texte von den Leserinnen und Lesern angenommen werden. Neben einer besseren Informationsversorgung für die Bürgerinnen und Bürger zu den Feinstaubwerten im Großraum Stuttgart, sollten mithilfe der zusätzlich generierten Texte auch die Reichweite und der Umsatz der beiden Verlagshäuser erweitert beziehungsweise gesteigert werden. 3 Implementierung und Funktionalität Grundlage für die Feinstaubmeldungen des Feinstaubradars sind die von den Messstationen und Sensoren generierten Messwerte. Diese werden stündlich von inzwischen über 750 Sensoren im Großraum Stuttgart ermittelt. Die Entwicklung der Sensoren wurde vom OK Lab Stuttgart vorangetrieben, einer Gruppe, die unter anderem an Projekten zu Open Data, Transparenz und Datenvisualisierung arbeitet. Das OK Lab Stuttgart stellt die Messdaten dem Verlag zur Verfügung. Zur Verarbeitung der großen Menge an Feinstaubdaten und der hohen Frequenz an zu verfassenden Berichten setzen die Stuttgarter Zeitung und die Stuttgarter Nachrichten auf die Technologie der automatisierten Generierung von Texten, dem Robot Journalism (Natural Language Processing). Die zugrunde liegende Technologie und Softwarelösung wird von AX Semantics, ebenfalls ein Unternehmen aus der Region, bereitgestellt. Damit die Robot Journalism-Software funktioniert, müssen zunächst strukturierte Daten zur Verfügung stehen. In diesem Fall werden in einem ersten Schritt die von den Sensoren gemessenen Werte zur Feinstaubbelastung gesammelt und aufbereitet. In einem zweiten Schritt wird das gesammelte Datenpaket mit einem Regelset verbunden, welches linguistische Eigenschaften und Logiken beinhaltet: An dieser Stelle geben Redakteurinnen und Redakteure initial an, welche Formulierungen und Formate für die Berichterstattung gewünscht sind. Danach erfolgt auf Basis der hinterlegten Regeln und Logiken (algorithmisiert) das eigentliche Natural 56 Künstliche Intelligenz in Nachrichtenredaktionen Language Processing. Für die Redaktion ist dies eine Art Black Box - die Texte stehen dann zur Verfügung. Allerdings hat die Redaktion nach der maschinellen Erstellung einer Feinstaubmeldung die Möglichkeit, Feinjustierungen und Optimierungen am Text durchzuführen, bevor dieser veröffentlicht wird. Um die Fähigkeiten der Artificial Intelligence-Software beziehungsweise dem Textroboter kontinuierlich zu verbessern, wird die Software von einem Team aus der Redaktion sowie aus Programmiererinnen und Programmierern trainiert. Trainieren bedeutet in diesem Fall, dass unter anderem zusätzliche Informationen zu den Feinstaubmeldungen, weitere oder neue Regelsets und Logiken sowie linguistische Eigenschaften (mögliche Formulierungen) ins System eingegeben werden, damit dieses lernen und sich verbessern kann. Dieser Trainingsprozess ist inzwischen soweit fortgeschritten, dass die entstehenden Texte sich sprachlich nicht mehr von denen eines menschlichen Verfassers unterscheiden. Auf den Online-Portalen StN.de und ZGS.de findet sich unter der Rubrik „Feinstaub“ eine Livekarte von Stuttgart und der Region, auf der die einzelnen Stadtteile je nach Grenzwert des Feinstaubs in der Luft unterschiedlich eingefärbt sind. Die visuelle Darstellung ermöglicht es den Leserinnen und Lesern in einem weiteren Schritt - durch das Anklicken der gewünschten Region - nähere Informationen zu den Feinstaubwerten in dieser zu erfahren. So werden die Anzahl der Sensoren als auch der Vergleichswert des Vortages zur gleichen Uhrzeit angezeigt. Eine weitere Funktion des Feinstaubradars auf den Online-Portalen ist der detaillierte, aktuelle Feinstaubbericht je nach Ortsteil oder Landkreis. Dieser Bericht umfasst circa 250 Wörter und beschreibt die aktuelle Luftvorschau, wann mit wie viel Feinstaub zu rechnen ist, den Vergleich zum Vortag sowie eine Vorausschau auf den nächsten Tag. Natural Language Processing beim Feinstaubradar auf ZGS.de/ StN.de 57 4 Herausforderungen und Erfolgsfaktoren Die Funktionsweise und der Erfolg des Feinstaubradars stehen und fallen mit der Quantität und Qualität der zur Verfügung stehenden Daten. Nur wenn eine entsprechend große Datenmenge zur Verfügung steht und die Software auf ein sauberes Regelset zugreifen kann, ist Robot Journalism sinnvoll umsetzbar. Ein zentraler Erfolgsfaktor liegt demnach in der Datengenerierung und Aufbereitung, da sie die Grundlage für die Textautomatisierung bilden. Des Weiteren ist die Wahl des richtigen Dienstleisters relevant. AX Semantics unterstützt das Projekt Feinstaubradar und die Redaktion von Stuttgarter Zeitung und Stuttgarter Nachrichten bei der Implementierung und Nutzung der Artificial Intelligence-Software vor Ort. Zentrale Herausforderungen  Fehlende Klarheit hinsichtlich Auswirkungen der neuen Technologien auf den Arbeitsplatz und die Arbeit selbst.  Fehlendes Know-how im Umgang mit neuen Technologien.  Finden der richtigen Partnerinnen und Partner zur Umsetzung von Technologieprojekten. Eine weitere Herausforderung liegt in der Akzeptanz und der Schulung der Mitarbeiterinnen und Mitarbeiter innerhalb der Verlagshäuser. Sowohl die Programmiererinnen und Programmierer von AX Semantics und Mitarbeiterinnen und Mitarbeiter von OK Lab Stuttgart als auch die Redaktion sowie weitere Mitarbeiterinnen und Mitarbeiter der beiden Verlagshäuser wurden vor und während der Nutzung der Software umfassend betreut und trainiert, sodass das Arbeiten mit der Technologie für alle Beteiligten sukzessive zum Alltagsgeschäft wird. 58 Künstliche Intelligenz in Nachrichtenredaktionen Wahrgenommene Erfolgsfaktoren  Hochwertige Databases (qualitativ und quantitativ) für die Textautomation.  Wahl des richtigen Dienstleisters für die Durchführung und/ oder Begleitung.  Umfassende Schulung der beteiligten Mitarbeiterinnen und Mitarbeiter (in der Redaktion sowie anderen Bereichen, zum Beispiel aus dem IT-Bereich). 5 Fazit und Ausblick Die Anzahl der installierten Feinstaubsensoren in der Region nimmt stetig zu. Daraus ergibt sich ein immer dichteres Datennetz, wodurch auch die Datenqualität und -quantität kontinuierlich steigen. Ebenso werden durch Training des Systems die automatisch generierten Meldungen immer besser. Der Feinstaubradar und die Berichte vermitteln einen stets aktuellen Überblick über die Feinstaubsituation in Stuttgart und der Umgebung. Die Stuttgarter Zeitung und die Stuttgarter Nachrichten bauen mit diesem Alleinstellungsmerkmal eine dauerhafte Bindung zu den Leserinnen und Lesern auf. Die Fallstudie zeigt, dass Automated Journalism nicht nur bei Daten für Wetter- oder Finanzberichte verwendet werden kann, sondern auch auf regionaler Ebene auf die Bedürfnisse der Leserinnen und Leser zugeschnitten werden kann. Spannende Zahlen und Fakten  Seit Oktober 2017 ist der auf Künstlicher Intelligenz basierende Feinstaubradar online verfügbar.  Über 750 Feinstaubsensoren messen die Feinstaubbelastung in der Region Stuttgart. Natural Language Processing beim Feinstaubradar auf ZGS.de/ StN.de 59  80 Feinstaubberichte werden täglich von der Robot Journalism-Software generiert.  In der Kategorie Datenjournalismus ist der Feinstaubradar 2018 mit dem Lokaljournalistenpreis der Adenauer-Stiftung ausgezeichnet worden. Machine Learning als Grundlage der Personalisierungsfunktion „Entdecken“ in der FAZ.NET-App der Frankfurter Allgemeinen Zeitung Katharina Willbold, Lisa Janko, Uwe Eisenbeis Die Frankfurter Allgemeine Zeitung (F.A.Z.) ist eine der bedeutendsten überregionalen Tageszeitungen in Deutschland sowie weltweit. Erstmals 1949 erschienen, erreicht die F.A.Z. heute täglich über 850.000 Leserinnen und Leser bei einer Auflage von über 200.000 Exemplaren. Das Korrespondentennetz ist mit über 90 In- und Auslandskorrespondenten, die ausschließlich für die F.A.Z. arbeiten, eines der größten weltweit. Seit Januar 2001 steht das redaktionelle Nachrichtenportal FAZ.NET online zur Verfügung. Im Jahr 2019 verzeichnete das Portal mehr als 141 Millionen Unique Users. Zusätzlich steht das Angebot der FAZ.NET Smartphone-Nutzerinnen und -Nutzern über die kostenlose FAZ.NET-App zur Verfügung, die den Leserinnen und Lesern auch über mobile Endgeräte Zugang zu Nachrichten ermöglicht. Seit 2018 werden den App-Nutzerinnen und Nutzern in der Funktion „Entdecken“ personalisierte Inhalte auf Grundlage ihres Leseverhaltens und von Machine Learning empfohlen. 1 Ausgangslage und Lösungsansatz In der digitalen Welt dominiert Personalisierung immer stärker unseren Alltag. Heutzutage sind Nutzerinnen und Nutzer digitaler Angebote daran gewöhnt, Empfehlungen auf Basis ihrer individuellen Interessen und Verhaltensweisen zu erhalten. Dies reicht von 62 Künstliche Intelligenz in Nachrichtenredaktionen Filmvorschlägen bei Streaming-Anbietern bis hin zu Produktempfehlungen bei Onlinehändlern. Diese Angebote werden für Konsumentinnen und Konsumenten aufgrund der unüberschaubaren Menge an verfügbaren Informationen zunehmend attraktiv. Vor diesem Hintergrund entwickelte und implementierte die F.A.Z. im Jahr 2018 die auf Künstlicher Intelligenz basierende Personalisierungsfunktion „Entdecken“ als ein Feature der FAZ.NET-App. 2 Ziele und Erwartungen Die F.A.Z. verfolgt mit der Personalisierungsfunktion zwei zentrale Ziele. Zum einen soll die Personalisierungsfunktion dabei helfen, neue Nutzerinnen und Nutzer für die Bezahlangebote zu gewinnen. Zum anderen wurde die Personalisierungsfunktion implementiert, um die Nutzerinnen und Nutzer dahingehend zu begeistern, die FAZ.NET-App noch aktiver zu nutzen und entsprechend das Engagement der Leserinnen und Leser, etwa in Bezug auf Lesedauer und Frequenz von Wiederkehrern, zu steigern. Diese beiden Ziele konnten erfolgreich umgesetzt werden. So konvertieren Nutzerinnen und Nutzer der Funktion „Entdecken“ 26-mal häufiger zu einem Bezahlangebot, als andere, die diese Funktion nicht in der App nutzen. Ebenso sind Nutzerinnen und Nutzer der Funktion 46-mal so engagiert wie herkömmliche App-Nutzerinnen und -Nutzer. Das Engagement wird dabei anhand der Parameter Häufigkeit der Besuche, Anzahl angeklickter Artikel, Lesetiefe (=Scrolltiefe) sowie Verweildauer gemessen. 3 Implementierung und Funktionalität Da sich App-Nutzerinnen und -Nutzer für die Funktion „Entdecken“ explizit registrieren müssen, gelingt es der F.A.Z., Personen zu identifizieren und deren Leseverhalten zu analysieren. Die Grundlage der Analyse stellen über 300 Datenpunkte dar. Anhand dieser lassen sich Verhaltensmuster erkennen, die anonymi- Machine Learning bei der FAZ.NET-App 63 siert - also ohne Rückschlüsse auf die jeweilige Person - in die Cloud Computing Plattform Microsoft Azure eingespielt werden. Der dort laufende „Matchbox Recommender“, ein von Microsoft entwickeltes Empfehlungssystem basierend auf Machine Learning, vergleicht das Leseverhalten jeder individuellen Nutzerin und jedes Nutzers mit einer Vielzahl von in der Cloud bereits vorhandenen ebenfalls anonymisierten Personae und deren Leseverhalten. Darauf basierend kann mittels mathematischer Modelle für alle Nutzerinnen und Nutzer berechnet werden, welche Inhalte am wahrscheinlichsten zu deren Leseverhalten passen. Die Ergebnisse werden daraufhin an die FAZ.NET-App zurückgespielt und Nutzerinnen und Nutzer erhalten die entsprechenden Artikel in Echtzeit als Vorschlag. Neben Microsoft arbeitet die F.A.Z. im Rahmen des Projekts mit dem externen Dienstleister App Factory zusammen, der für die Programmierung des Algorithmus beauftragt wurde. Die Konzeption der App, die beispielsweise die Definition der Datenpunkte beinhaltet, übernahm die F.A.Z. eigenständig. Bei der Konzeption galt es zu hinterfragen, in welchem Produkt die Funktion am sinnvollsten erprobt werden kann. Die Entscheidung fiel schließlich auf die FAZ.NET-App, weil von App-Nutzerinnen und -Nutzern verglichen mit Website-Nutzerinnen und -Nutzern eine höhere Markenloyalität erwartet wird, da sich erstere bereits gezielt für den Download der App entschieden haben. 4 Herausforderungen und Erfolgsfaktoren Der Erfolg jeder Personalisierungsfunktion hängt von der Qualität der Empfehlungen ab. Beim Machine Learning beruht die Qualität der Empfehlungen auf der Menge an Daten, die der Maschine zum Lernen zur Verfügung stehen. Mit steigender Nutzerzahl wächst auch die Menge an Daten. Dementsprechend stellte das Risiko, dass Early Adopters aufgrund von irrelevanten Empfehlungen vorzeitig abspringen, eine zentrale Herausforderung an das Projekt dar. Durch die in Microsoft Azure bereits vorhandenen Personae gelang es der 64 Künstliche Intelligenz in Nachrichtenredaktionen F.A.Z., auch den Early Adopters qualitativ hochwertige Empfehlungen zu bieten. So konnte die Nutzerzahl stetig gesteigert werden. Zentrale Herausforderungen  Bei unzureichenden Nutzerdaten zu Beginn des Projekts besteht das Risiko, dass irrelevante Empfehlungen gegeben werden, wodurch Early Adopters abspringen könnten.  Da Empfehlungen in Echtzeit innerhalb der Aufmerksamkeitsspanne der Nutzerinnen und Nutzer (kürzer als drei Sekunden) ausgespielt werden sollten, müssen die hinter den Empfehlungen liegenden Rechenmodelle entsprechend optimiert werden.  Den Nutzerinnen und Nutzern müssen auch dann Empfehlungen angezeigt werden können, wenn keine ausreichend gute und schnelle Verbindung zum Internet besteht. Neben der Qualität der Empfehlungen spielt auch die Geschwindigkeit der Funktion eine entscheidende Rolle für den Erfolg. Die Aufmerksamkeitsspanne von mobilen Nutzerinnen und Nutzern liegt bei unter drei Sekunden. Kann in dieser kurzen Zeit keine Empfehlung ausgespielt werden, ist die Wahrscheinlichkeit hoch, dass Nutzerinnen und Nutzer aus Frustration abspringen. Entsprechend galt es bei der Implementierung von „Entdecken“, die Zeit zur Berechnung der Empfehlungen auf unter drei Sekunden zu optimieren. Auch muss selbst bei einer schlechten Internetverbindung sichergestellt werden, dass Nutzerinnen und Nutzer Empfehlungen angezeigt bekommen. In diesem Fall spielt die Funktion die für die jeweiligen Nutzerinnen und Nutzer letzten verfügbaren Empfehlungen aus, um den Blick auf einen leeren Bildschirm zu vermeiden. Darüber hinaus fand die F.A.Z. durch Testing heraus, dass die Sichtbarkeit der Funktion entscheidend ist. Wurde innerhalb des redaktionellen Teils vorgeschlagen, die Funktion „Entdecken“ Machine Learning bei der FAZ.NET-App 65 auszuprobieren, konnten deutlich mehr Nutzerinnen und Nutzer dafür gewonnen werden. Dennoch ist aktuell die Funktion ausschließlich über das untere Menüband erreichbar und damit bislang noch nicht sehr präsent positioniert, da die F.A.Z. zum aktuellen Zeitpunkt mit dieser neuen Funktion vorwiegend erste Erfahrungen sammeln möchte. Daneben ist auch die Vielfalt der Empfehlungen von Bedeutung, damit keine Langeweile bei Leserinnen und Lesern entsteht. Aktuell spielt die Funktion daher sowohl einzelne Beiträge als Empfehlungen als auch Themenpakete und Vorschläge zu Autoren aus. Wahrgenommene Erfolgsfaktoren  Zusammenarbeit mit geeigneten Partnerinnen und Partnern, um den Algorithmen von Beginn an ausreichend Daten zum Lernen zur Verfügung zu stellen und dadurch die Qualität der Empfehlungen ständig zu gewährleisten.  Kontinuierliche Optimierung der Rechenmodelle, um Empfehlungen in Echtzeit zu ermöglichen.  Präsente Platzierung der neuen Funktion innerhalb des redaktionellen Angebots, um die Sichtbarkeit der Funktion zu steigern.  Platzierung unterschiedlicher Empfehlungs-Kategorien, um den Leserinnen und Lesern abwechslungsreiche Inhalte vorschlagen zu können und so deren Engagement zu steigern. Darüber hinaus sollen die Leserinnen und Leser zu neuen Themen inspiriert werden, indem auch Empfehlungen an der Peripherie der jeweiligen Nutzerinteressen angezeigt werden. So sollen „Filter Bubbles“ verhindert werden, die entstehen, wenn Informationen im Netz von Algorithmen gefiltert werden, sodass Nutzerinnen und Nutzer ausschließlich Inhalte angezeigt bekommen, die mit ihren Ansichten übereinstimmen. 66 Künstliche Intelligenz in Nachrichtenredaktionen 5 Fazit und Ausblick Vor dem Hintergrund des erzielten Erfolgs von „Entdecken“ plant die F.A.Z., die Funktion im gesamten digitalen Produktportfolio zur Verfügung zu stellen, wie etwa für die Website FAZ.NET oder für Kundinnen und Kunden mit digitalem Abonnement der F.A.Z. Neben Produktempfehlungen im E-Commerce oder Filmvorschlägen von Streaming-Anbietern wird zukünftig also auch die individuelle Content-Empfehlung im Zeitungswesen ein Bestandteil des immer stärker personalisierten Alltags vieler Konsumenten werden. Für die Zukunft sieht die F.A.Z. auch über Personalisierung hinaus Einsatzfelder für die KI wie etwa im audio- und audiovisuellen Bereich. Spannende Zahlen und Fakten  Die Funktion „Entdecken” ist in der FAZ.NET-App seit 2018 verfügbar.  Nutzerinnen und Nutzer der Funktion „Entdecken” konvertieren 26-mal häufiger in ein kostenpflichtiges Abonnement als reguläre App-Nutzerinnen und -Nutzer.  Die Engagement-Rate der „Entdecken”-Nutzerinnen und -Nutzer ist 46-fach höher als bei regulären App-Nutzerinnen und -Nutzern.  2019 gewann die Personalisierungsfunktion den European Digital Media Award der WAN-IFRA (World Association of Newspapers and News Publishers) in der Kategorie „Beste Website oder Mobile Service”.  Zudem belegte die F.A.Z. mit der „Entdecken”-Funktion den zweiten Platz bei den INMA Global Media Awards 2019 in der Kategorie „Best Use of New Technology”. NOZ Medien nutzt Text-to-Speech-Technologie auf Basis neuronaler Netzwerktechnik für eine akustische Sprachausgabe der Texte Lisa Janko, Katharina Willbold, Uwe Eisenbeis Im Jahr 2016 hat die Neue Osnabrücker Zeitung GmbH & Co. KG (NOZ Medien) die mh: n Medien gekauft. Zu den neuen Unternehmen gehören norddeutsche Traditionstitel wie die „Neue Osnabrücker Zeitung“, das „Flensburger Tageblatt“ und die „Schweriner Volkszeitung“. Mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern gehört NOZ Medien heute zu den zehn größten Zeitungsverlagsgruppen in Deutschland. NOZ Medien hat sich vom traditionellen Verlagshaus zum modernen Medienunternehmen mit einem multimedialen Portfolio und zahlreichen digitalen Produkten entwickelt. Mit mehr als 30 Tageszeitungen, zahlreichen Wochenzeitungen und Magazinen steht das Medienhaus sowohl für überregionale Themenvielfalt als auch lokale Nachrichtenkompetenz. Die NOZ Mediengruppe arbeitet an der Zukunft des Journalismus und treibt den digitalen Wandel voran. Das siebenköpfige Audioteam der NOZ Digital arbeitet derzeit an der Implementierung einer Text-to-Speech-Technologie basierend auf neuronaler Netzwerktechnik für eine akustische Sprachausgabe von Texten der NOZ Mediengruppe. Das Team wird vom HHLab mit technischer Expertise und Ressource unterstützt. Das HHLab ist die Redaktion, in der Forschung und Entwicklung der zusammengeschlossenen regionalen Medienhäusern, namentlich NOZ Medien und mh: n Medien, stattfindet. 68 Künstliche Intelligenz in Nachrichtenredaktionen 1 Ausgangslage und Lösungsansatz Als Medienhaus und eine der größten Zeitungsverlagsgruppen in Deutschland produziert NOZ Medien täglich große Mengen an Textmaterial und stellt diese ihren Leserinnen und Lesern in gedruckter oder digitaler Form bereit. Die NOZ Mediengruppe kam zu der Erkenntnis, dass reines Textmaterial heute nicht mehr ausreichend ist. So haben Leserinnen und Leser auch während alltäglicher Situationen, wie etwa der morgendlichen Autofahrt zum Arbeitsplatz oder dem Verstauen der Wocheneinkäufe, den Wunsch, Medieninhalte zu konsumieren. Textmaterial lässt dies allerdings nicht zu, da in den beschriebenen Situationen Augen und Hände für andere Aufgaben benötigt werden. Vor diesem Hintergrund stellte sich die NOZ Mediengruppe die Frage, wie Inhalte für entsprechende Nutzungssituationen aufbereitet werden können. Das Medienhaus kam zu dem Ergebnis, dass eine Umwandlung von Texten in Sprache beziehungsweise in Audiodateien stattfinden muss. Dies kann auf zwei Wegen erreicht werden: Entweder sprechen Menschen die Texte ein oder Maschinen übernehmen diese Aufgabe vollautomatisch. Letzteres, bei dem Systeme geschriebenen Text in gesprochene Sprache umwandeln, wird als Text-zu-Sprache oder Text-to-Speech-Verfahren (TTS) bezeichnet. Aufgrund der großen Menge an Textmaterial, die täglich bei der NOZ Mediengruppe entsteht, entschied sich die Zeitungsverlagsgruppe schließlich dazu, eine verhältnismäßig geringe Menge der Texte von Menschen - meist Redakteurinnen und Redakteuren - einsprechen zu lassen, während die überwiegende Mehrheit mittels einer Sprachsoftware in natürlich klingende Sprache konvertiert werden soll. 2 Ziele und Erwartungen Aufgrund der veränderten Mediennutzungsgewohnheiten der heutigen digitalen Gesellschaft müssen die in Textform produzierten Inhalte zukünftig auch in anderen Konsumformen zur Verfügung Text-to-Speech-Technologie bei NOZ Medien 69 stehen. Die NOZ Mediengruppe ermöglicht ihren Nutzerinnen und Nutzern durch KI-gestützte Assistenzsysteme das Rezipieren von Inhalten in Situationen, bei denen klassische Medien (zum Beispiel das Lesen von Texten) scheitern. Hierdurch soll Kundenbindung geschaffen und eine Steigerung der Conversion-Rate hinsichtlich neuer Abonnements erzielt werden. 3 Implementierung und Funktionalität TTS-Systeme erhalten einen Text als Eingabe und wandeln diesen in eine akustische Sprachausgabe um. Entsprechende Software basiert auf einer neuronalen Netzwerktechnik. Das Ziel ist ein möglichst angenehmes Nutzererlebnis zu schaffen, indem die „künstlich erzeugte“ Aussprache möglichst der natürlichen Intonation ähnelt. Die entsprechende cloudbasierte Software hat das Audioteam der NOZ Digital von einem Fremdanbieter bezogen. Es erarbeitete diese nicht eigenständig, sondern greift auf eine cloudbasierte Software-as-a-Service (SaaS) Lösung zurück. Als Anforderung an TTS-Systeme gelten Verständlichkeit und Natürlichkeit. Wobei ersteres notwendig und zweiteres wünschenswert ist. Die Sprachsynthese der deutschen Sprache ist noch nicht optimal und entsprechende Systeme funktionieren aktuell in englischer Sprache deutlich besser, sodass hier kaum ein Unterschied zwischen menschlicher und computerbasierter Sprachausgabe hörbar ist. Der signifikante Unterschied liegt darin, dass in englischer Sprache deutlich mehr Datenmaterial vorliegt, das zur Verbesserung der Software herangezogen werden kann. Je mehr Datenmaterial zur Verfügung steht, desto besser kann die Software feinjustiert werden. Deshalb sind die Anbieter der Software oftmals im englischen Sprachraum angesiedelt. Bei der NOZ Mediengruppe dauerte die Implementierung einer derartigen Software circa sechs Monate und beinhaltete Aufgaben, die von der Entscheidung für eine geeignete Software, über die Auswahl geeigneter Texte bis hin zur Evaluation adäquater 70 Künstliche Intelligenz in Nachrichtenredaktionen Abspieltechnologien und der Integration dieser Technologien in die jeweiligen Medienprodukte (wie Homepage oder Apps) reichten. 4 Herausforderungen und Erfolgsfaktoren Durch den Einsatz von TTS entstehen für die NOZ Mediengruppe zwei zentrale Herausforderungen. Das Lese- und Hörverstehen sind eng, aber nicht untrennbar miteinander verbunden. Jedoch führen viele Texte beim Lesen im Vergleich zum Hören zu einem besseren Verständnis des Textes, da die erstellten Texte meistens zum Lesen und nicht zum Hören konzipiert wurden. Um ein besseres Verständnis bei den Zuhörerinnen und Zuhörern zu erzielen, ist es wichtig, dass die redaktionellen Inhalte so verfasst werden, dass sie sowohl lesend als auch hörend konsumiert werden können. Die NOZ Mediengruppe führte spezielle Schulungen ein, die es den Redakteurinnen und Redakteuren ermöglicht, Texte zu erstellen, die zugleich Lese- und Hörverstehen positiv beeinflussen. Zentrale Herausforderungen  Texte müssen nicht mehr nur zum Lesen (Leseverstehen), sondern auch zum Hören (Hörverstehen) konzipiert werden.  Schwierigkeiten bei der Auswahl der Sprachsoftware aufgrund des enormen Angebots.  Englische Sprachausgabe weist bislang merklich höhere Qualität auf als deutsche Sprachausgabe, da größere Datenmengen in Englisch zum Trainieren der Software zur Verfügung stehen.  Sprachqualität ist in der deutschen Sprache noch nicht optimal und kann in einigen Bereichen (wie etwa der Intonation) verbessert werden. Text-to-Speech-Technologie bei NOZ Medien 71 Eine weitere Herausforderung stellt die Wahl der Text-to-Speech Software dar. Aktuell gibt es über 100 Text-to-Speech-Softwareanwendungen auf dem Markt, welche eine große Auswahl an Sprachen und Sprachvarianten bieten. Angeboten werden diese von spezialisierten Nischenunternehmen bis hin zu großen cloudbasierten Global Playern. Die Kriterien zur Auswahl einer entsprechenden Software orientieren sich an der Zielgruppe. So sind beispielsweise die Stimmhöhe oder Lesegeschwindigkeit stark von der regionalen beziehungsweise nationalen Prägung der Konsumentinnen und Konsumenten abhängig. Für die NOZ Mediengruppe galt es deshalb, den für ihre Kundinnen und Kunden geeignetsten Anbieter zu ermitteln. Zudem lag eine Herausforderung darin, dass das Qualitätsbedürfnis mit steigender Nachfrage ebenfalls zunimmt. Die Erwartungen an den Text-zu-Sprache Dienst wachsen damit exponentiell. Die NOZ Mediengruppe ist mit der Wahl ihres Tools zufrieden. Trotzdem ist man der Meinung, dass eine menschliche Stimme insbesondere bei deutscher Sprache noch deutlich von einer mittels Software erzeugten Stimme unterschieden werden kann. Wahrgenommene Erfolgsfaktoren  Gezielte Auswahl und Einsatz der Text-to-Speech-Software von Cloud-Anbietern.  Schulungen für Redakteurinnen und Redakteure, um das Verfassen von Texten, die sich zum Lesen und Hören eignen, zu trainieren.  Zu Beginn des Projekts sowohl von Menschen eingelesene Texte als auch von Software generierte Sprachausgaben veröffentlichen und Nutzerakzeptanztests durchführen. 72 Künstliche Intelligenz in Nachrichtenredaktionen 5 Fazit und Ausblick Da die Akzeptanz KI-gestützter Assistenzsysteme, zu denen auch TTS-Systeme gehören, zukünftig steigen dürfte, sieht die NOZ Mediengruppe der Einführung eines Text-zu-Sprache-Dienstes positiv entgegen. Für die NOZ Mediengruppe beherrschen die heute existierenden TTS-Systeme die Umwandlung von Text bereits in weiten Teilen in zufriedenstellender Qualität. So ist beispielsweise die Erzeugung von Einzellauten oder Wörtern schon weit vorangeschritten. Jedoch gibt es noch Verbesserungsbedarf in anderen Teilbereichen, wie etwa der Intonation. Spannende Zahlen und Fakten  Die automatisierte Sprachausgabe-Funktion ist seit Sommer 2020 implementiert.  Täglich werden circa 600 Texte produziert. Ob alle diese Texte in eine akustische Sprachausgabeversion umgewandelt werden, soll anhand von Nutzerakzeptanztests ermittelt werden.  Von kleineren spezialisierten bis hin zu großen Cloud-Anbietern sind bereits mehr als über 100 Text-to-Speech-Softwareanwendungen auf dem Markt.  Während in englischer Sprache kaum noch Unterschiede zwischen Mensch und Maschine beim Vorlesen hörbar sind, besteht bei deutscher Sprache noch Verbesserungsbedarf bei den TTS-Systemen. Auch zukünftig plant die NOZ Mediengruppe, weitere Projekte auf Basis von Künstlicher Intelligenz einzusetzen. So soll zum Beispiel an einer automatischen Distribution der Inhalte gearbeitet werden. Mit Unterstützung von künstlichen neuronalen Netzen, die mithilfe von Mustererkennung in der Lage sind festzustellen, welche Inhalte von welchen Nutzerinnen und Nutzern präferiert werden, Text-to-Speech-Technologie bei NOZ Medien 73 sollen der Nutzerin beziehungsweise dem Nutzer zielgerichtete Inhalte ausgespielt werden. Algorithmen und Künstliche Intelligenz zur Erstellung, Aufbereitung und Distribution von Nachrichteninhalten. Erkenntnisse aus fünf Fallstudien Magdalena Ciepluch, Uwe Eisenbeis 1 Einsatzgebiete und Anwendungen kennen: Welche Einsatzgebiete und Anwendungen gibt es? Künstliche Intelligenz und Machine Learning halten immer mehr Einzug in die Medienbranche. Auch in der Verlagswelt und in anderen journalistischen Kontexten finden sich bereits viele Anwendungsbeispiele. In den hier (in den vorangegangenen Beiträgen) vorgestellten fünf Fallstudien ging es weder darum, Einsatzszenarien an der Grenze des technologisch Machbaren zu skizzieren oder solche, die sich noch in frühen Experimentierstadien befinden, noch ging es darum, mögliche Anwendungsszenarien vorauszusagen. Vielmehr sollten Einsatzgebiete und konkrete Anwendungsfälle aus Nachrichtenredaktionen beschrieben werden, die bereits zum Tagesgeschäft von Medienunternehmen gehören und die von den Kundinnen und Kunden der Unternehmen beziehungsweise den Leserinnen und Lesern bereits heute genutzt werden (können). Dies waren im Einsatzgebiet „Natural Language Processing/ Automatische Textgenerierung“ der Feinstaubradar von Stuttgarter Zeitung und Stuttgarter Nachrichten (Czaja/ Obert/ Simoes/ Ciepluch 2021) sowie die Aufbereitung von Wahlergebnissen der Austria Presse Agentur (Dapfer/ Schimpgen/ Senghas/ Ciepluch 2021). Die Austria Presse Agentur verarbeitete in einem Pilotprojekt zur Europawahl 2019 die Wahlergebnisse aus über 2.000 Gemeinden mithilfe von Robot Journalism und Natural Language Processing zu Kurzberichten. Somit konnten neue, zusätzliche Inhalte generiert und neue Leserinnen und Leser erreicht werden. Auch Stuttgarter Zeitung und 76 Künstliche Intelligenz in Nachrichtenredaktionen Stuttgarter Nachrichten erstellen unter Anwendung der Natural Language Processing-Technologie täglich über 80 automatisch generierte Feinstaubmeldungen für die Region Stuttgart. Des Weiteren bieten sie auf ihren Online-Portalen StN.de und ZGS.de eine Livekarte an, auf der die Feinstaubwerte visuell dargestellt werden. Im Einsatzgebiet „Personalisierung von Nachrichten“ ist Axel Springer mit der Nachrichten-App Upday (Ciepluch/ Freimann/ Jäckle/ Pfahler/ Uhlrich 2021) ebenso aktiv wie die Frankfurter Allgemeine Zeitung mit der „Entdecken“-Funktion der FAZ.NET-App (Willbold/ Janko/ Eisenbeis 2021). In der FAZ.NET-App der Frankfurter Allgemeinen Zeitung wird Machine Learning als Grundlage einer Personalisierungsfunktion angewendet. Nutzerinnen und Nutzern werden so auf Basis ihres Leseverhaltens personalisierte Inhalte empfohlen. Axel Springer bietet seinen Leserinnen und Lesern mit der App Upday einen Nachrichten-Aggregator an, bei dem die Inhalte über Artificial Intelligence-Software gesteuert und personalisierte Informationen aufbereitet werden. Das Einsatzgebiet „Text-to-Speech“ wurde anhand der Sprachausgabe-Funktion der NOZ Medien (Janko/ Willbold/ Eisenbeis 2021) dargestellt. NOZ Medien nutzt die Text-to-Speech-Technologie, um basierend auf neuronaler Netzwerktechnik Texte akustisch wiederzugeben und in dem Sinne der Nutzerin und dem Nutzer „vorzulesen“, um damit neue Nutzungssituationen für ihre Inhalte zu ermöglichen. Über die hier beschriebenen Anwendungsfälle hinaus, existiert eine Vielzahl weiterer KI-Einsatzfelder für Medienunternehmen (Mayer 2018) wie beispielsweise: (1) Der Einsatz Künstlicher Intelligenz in der Verkaufssteuerung, (2) die Verbesserung der Datenqualität in der Werbevermarktung, (3) die Kostenoptimierung des Kundenservice durch Algorithmen, (4) die Neukundengewinnung sowie Kundenbindung durch die (Früh-)Erkennung von Kündigungen durch intelligente Algorithmen und (5) die Vorhersage und Optimierung der Leistungswerte von Online-Inhalten - ein Einsatzgebiet, das zumindest auch Bestandteil der hier vorgestellten Fallbeispiele der F.A.Z. Erkenntnisse aus fünf Fallstudien 77 (FAZ.NET News-App) sowie bei Axel Springer (Upday News-App) ist. 2 Gründe und Ziele bewusst machen: Welche Unternehmensziele sollen mit KI erreicht werden? Bei allen diesen Anwendungsfällen ist Künstliche Intelligenz nicht gleich Künstliche Intelligenz. Wie die fünf erwähnten Fallstudien (der vorangegangenen Kapitel) zeigen, gibt es verschiedene Ansätze und Herangehensweisen, die Technologie im Unternehmen zu adaptieren: Natural Language Processing-Technologie wird eingesetzt, um Kurztexte anhand vorher eingegebener Daten und Regeln automatisch generieren zu lassen, Machine Learning-Technologie wird eingesetzt, um Inhalte zu Personalisieren und Text-to- Speech-Technologie wird eingesetzt, um eine akustische Sprachausgabe von Texte zu ermöglichen. Die Fallstudien zeigen auch, dass es unterschiedliche Gründe und Ziele für Veränderungen und Adaptionen der Technologien im Unternehmen gibt. APA hatte sich zum Ziel gesetzt, zu einem News-Tech-Unternehmen zu werden und Routineaufgaben außerhalb des journalistischen Kerngeschäfts zu automatisieren, also Workflows zu erleichtern und zu verkürzen. Ein ähnlicher Grund liegt bei Stuttgarter Zeitung und Stuttgarter Nachrichten vor: Durch Natural Language Processing-Technologie können - in diesem Fall in Form des Feinstaubradars - zusätzliche Inhalte generiert werden, ohne jedoch die Redaktion mit entsprechenden monotonen Aufgaben zu überlasten. Der Einsatz technologischer Innovation führt in diesem Fall zu einer schnelleren und kostengünstigeren Produktion von Inhalten, sodass die Ressourcen der Redaktion in anderen Bereichen (anspruchsvollere und spannendere Tätigkeiten) beziehungsweise für andere Tätigkeiten eingesetzt werden können. In dem genannten Beispiel der APA oder der Stuttgarter Nachrichten hat KI keine Tätigkeiten übernommen, die zuvor von Journalistinnen und 78 Künstliche Intelligenz in Nachrichtenredaktionen Journalisten ausgeführt wurden, sondern es sind zusätzliche Inhalte entstanden. Die F.A.Z. verfolgt mit dem Einsatz der Machine Learning Technologie und der damit möglichen „Entdecken“-Funktion das Ziel, FAZ.NET und die zugehörigen Smartphone-App noch aktiver zu gestalten und das Engagement der Leserinnen und Leser zu steigern. NOZ Medien verfolgt mit der Text-to-Speech-Technologie das Ziel, für seine Nutzerinnen und Nutzer vor dem Hintergrund veränderter Nutzungsgewohnheiten zusätzliche Nutzungssituationen zu erschließen, indem Inhalte nicht nur in Textform, sondern auch als Audio angeboten werden. So sollen Nutzerinnen und Nutzer in zusätzlichen Situationen des alltäglichen Lebens auf die Inhalte der NOZ Medien zugreifen können. Für Axel Springer fügt sich die App Upday in die Digitalisierungsstrategie des Unternehmens auf dem Weg zu einem digitalen Medienhaus. Allen Fallbeispielen gemeinsam ist das Ziel, Erfahrungen im Einsatz von auf Künstlicher Intelligenz basierender Technologien zu sammeln. Somit ist der Einsatz von KI nie ein Selbstzweck. Vielmehr geht es darum, Mehrwerte im Sinne von Nutzenvorteilen zu generieren - entweder für Nutzerinnen und Nutzer, Kundinnen und Kunden beziehungsweise Leserinnen und Leser oder für das Unternehmen selbst. 3 Entwicklung und Implementierung durchdenken: Was ist die geeignete Organisationsform und wer sind geeignete Partnerinnen und Partner? Auffallend ist, dass in allen Fallstudien die neuen Technologien nie komplett intern, sondern immer in Kooperation mit anderen Unternehmen aus dem Technologieumfeld entwickelt und/ oder implementiert wurden. Sowohl APA als auch die Stuttgarter Zeitung und Stuttgarter Nachrichten entschieden sich bei der Vielzahl bereits etablierter Anbieter im Bereich Natural Language Processing für das Technologie- Erkenntnisse aus fünf Fallstudien 79 unternehmen AX Semantics. Aber nicht nur bei der Entwicklung der Anwendung spielt AX Semantics eine Rolle. Auch im laufenden Betrieb werden sowohl inhaltliche als auch grammatikalische Korrekturen vorgenommen und an die Software von AX Semantics zurückgegeben, wodurch das Tool trainiert und stetig verbessert wird. Die F.A.Z. greift auf die KI-Kompetenz von Microsoft zurück: Innerhalb der FAZ.NET-App werden die Daten aller registrierten Nutzerinnen und Nutzer an die Cloud-Computing-Plattform Microsoft Azure geschickt, in der bereits Personae mit verschiedenen Leseverhalten hinterlegt sind. Hier wird das Leseverhalten aller Nutzerinnen und Nutzer mit den in der Cloud gespeicherten Personae verglichen. Sind thematische Kongruenzen zu finden, werden die Ergebnisse an die App und durch personalisierte Inhalte der Nutzerin oder dem Nutzer zurückgespielt. Des Weiteren wurde im Rahmen der FAZ.NET-App mit dem Dienstleister App Factory zusammengearbeitet, der für die Programmierung des Algorithmus beauftragt wurde. F.A.Z.-intern wurde die Konzeption, wie beispielsweise die Definition der Datenpunkte und der Aufbau der App, vorgenommen. Auch NOZ Medien nutzt für die Implementierung der neuen Technologie sowohl interne als auch externe Ressourcen. Das HHLab, welches die Redaktion in der Forschung und Entwicklung der Medienhäuser NOZ Medien und mh: n Medien darstellt, besteht aus Journalistinnen und Journalisten, Entwicklerinnen und Entwicklern und UX-Expertinnen und -Experten. Die entsprechende Software für das Text-to-Speech-Verfahren entwickelte das HHLab zusammen mit einem Anbieter cloudbasierten Software-as-a-Service- Lösungen. Bei Axel Springer wurde die Implementierung der App Upday intern gestartet. Aufgrund von Zeitmangel hat sich Axel Springer aber gegen eine vollständige Eigenentwicklung der App entschieden und zog Retresco, ein auf Natural Language Processing spezialisierten Dienstleistungsunternehmen, hinzu. Des Weiteren ging 80 Künstliche Intelligenz in Nachrichtenredaktionen Axel Springer eine Kooperation mit Samsung Electronics ein. Die fertige App wurde auf allen Samsung-Geräten vorinstalliert. Hierdurch konnte eine hohe Kompatibilität mit den Geräten und erhöhte Akzeptanz der App gewährleistet werden. 4 Herausforderungen und Erfolgsfaktoren identifizieren: Wovon hängt der Erfolg der Anwendungen ab? Aus den Fallstudien konnten einige zentrale Aspekte herausgearbeitet werden, welche bei dem Einsatz der Technologien - unabhängig davon in welchem Einsatzbereich und welche Technologie im Speziellen - in Unternehmen beachtet werden sollten, und den Erfolg oder Misserfolg der Implementierung und Anwendung beeinflussen. Dies waren insbesondere folgende Faktoren: [1] „Mitarbeiterakzeptanz und Schulung“, was unter anderem die Einbindung der Mitarbeiterinnen und Mitarbeiter in das Vorhaben beinhaltet. [2] „Quantität und Qualität der Daten“ und somit auch die kontinuierliche Optimierung und das Training der KI. [3] „Sichtbarkeit und Reichweite der Anwendung“, um von Beginn an eine kritische Masse von Nutzerinnen und Nutzern zu haben und deren Feedback und Nutzungsgewohnheiten zur Optimierung der Anwendung nutzen zu können. [4] „Zusammenarbeit und geeignete Partnerinnen und Partner“ für die Entwicklung, Implementierung und/ oder den Betrieb der Anwendung. [5] „Interne Strukturen und Kompetenzen“, um für das Vorhaben nicht ausschließlich von externen Partnerinnen und Partnern abhängig zu sein. Tabelle 1 zeigt diese Erfolgsfaktoren und deren explizite Erwähnung im Rahmen der einzelnen Fallbeispiele. Die Nicht-Aufzählung eines Fallbeispiels bei einem oder mehreren der Erfolgsfaktoren bedeutet dabei nicht, dass dieser Faktor im jeweiligen Fall keine Erkenntnisse aus fünf Fallstudien 81 Rolle gespielt hätte, sondern nur, dass der Faktor im Rahmen der Fallstudie nicht explizit genannt wurde. Tabelle 1: In den Fallstudien identifizierte Erfolgsfaktoren Identifizierter Erfolgsfaktor Explizite Erwähnung des Erfolgsfaktors im Fallbeispiel Mitarbeiterakzeptanz und Schulung APA, Axel Springer, NOZ Medien, Stuttgarter Nachrichten/ Stuttgarter Zeitung Quantität und Qualität der Daten APA, F.A.Z., NOZ Medien, Stuttgarter Nachrichten/ Stuttgarter Zeitung Sichtbarkeit und Reichweite der Anwendung Axel Springer, F.A.Z. Zusammenarbeit und geeignete Partnerinnen und Partner Axel Springer, F.A.Z., NOZ Medien, Stuttgarter Nachrichten/ Stuttgarter Zeitung Interne Strukturen und Kompetenz Axel Springer, NOZ Medien In nahezu allen Fallstudien wurden die Erfolgsfaktoren „Mitarbeiterakzeptanz und Schulung“, „Quantität und Qualität der Daten“ sowie „Zusammenarbeit und geeignete Partnerinnen und Partner“ genannt. Es ist davon auszugehen, dass insbesondere diese Faktoren grundsätzlich im Rahmen des Einsatzes von KI in Medienunternehmen von hoher Relevanz sind. 4.1 Mitarbeiterakzeptanz und Schulung Prinzipiell ist festzustellen, dass in Medienunternehmen grundsätzliches Interesse am Thema sowie Offenheit dafür notwendig sind, um eine Technologie in bereits existierende Strukturen und Abläufe zu integrieren. So wurde bei APA besonders Wert darauf gelegt, dass die Natural Language Processing-Technologie als eine unterstützende Technologie von allen Mitarbeiterinnen und Mitarbeitern akzeptiert wird. 82 Künstliche Intelligenz in Nachrichtenredaktionen Axel Springer bietet seinen Mitarbeiterinnen und Mitarbeitern im Zuge der Digitalisierungsstrategie eine Vielzahl von Angeboten, die diese an Themen wie Künstliche Intelligenz heranführen sollen. Hierdurch soll den Unsicherheiten im Umgang mit den neuen (unbekannten) Technologien und deren Auswirkungen auf den Arbeitsplatz entgegengewirkt werden. Die Mitarbeiterinnen und Mitarbeiter der NOZ Medien erhielten spezielle Schulungen, um zu lernen, wie sowohl die Leserinnen und Leser als auch Hörerinnen und Hörer journalistische Inhalte verstehen können und wie diese formuliert werden müssen, damit das Text-to-Speech-Verfahren ohne Probleme angewendet werden kann. Da Stuttgarter Nachrichten und Stuttgarter Zeitung für den Feinstaubradar Natural Language-Technologie einsetzen und dabei eng mit AX Semantics und OK Lab Stuttgart zusammenarbeiten müssen, wurden sowohl die Programmiererinnen und Programmierer von AX Semantics, Mitarbeiterinnen und Mitarbeiter von OK Lab Stuttgart als auch die Redaktion und weitere Mitarbeiterinnen und Mitarbeiter der beiden Verlagshäuser vor und während der Nutzung der Software umfassend betreut und geschult. 4.2 Quantität und Qualität der Daten Vor allem bei der Natural Language Processing-Technologie, wie sie APA sowie Stuttgarter Zeitung und Stuttgarter Nachrichten nutzen, ist das richtige Einpflegen der korrekten Daten Voraussetzung für den Erfolg von automatisch generierten Texten. Ist dies nicht gewährleistet, kann es zu Verzerrungen in der Datenverarbeitung der Software kommen, wodurch fehlerhafte Texte entstehen können. Dabei spielt sowohl die Qualität als auch Quantität der Daten eine wichtige Rolle. Je mehr Daten die Software erfassen kann, desto genauere Ergebnisse können geliefert werden. Des Weiteren sind die „Entdecken“-Funktion der FAZ.NET-App als auch Upday von Axel Springer maßgeblich von der Qualität der Erkenntnisse aus fünf Fallstudien 83 Nachrichtenquellen abhängig. Da beide Anwendungsfälle Machine Learning beziehungsweise Künstliche Intelligenz als Grundlage der inhaltlichen Steuerung und Personalisierung ihrer Nachrichten- App nutzen, ist die Qualität der Empfehlungen und die Auswahl der richtigen Quellen für die Nachrichtenzusammenfassung von essentieller Bedeutung für den Erfolg der App. Bei einer Personalisierungsfunktion ist es wichtig für die weitere Nutzung der App, die Wünsche und Interessen der Nutzerinnen und Nutzer durch die Empfehlungen widerzuspiegeln. Die Qualität der Empfehlungen ist jedoch nicht nur von dem Leseverhalten der Nutzerinnen und Nutzer abhängig, sondern auch von der eingespeisten Datenmenge in das Cloud-Programm und das Themenmanagementsystem. Und auch der Erfolg für das Text-to-Speech-Verfahren, wie es bei NOZ Medien verwendet wird, steht und fällt mit dem Dateninput, der hier nicht aus einer zuvor definierten Datenquelle, sondern aus redaktioneller Hand stammt. Die Textformulierung ist dabei zentraler Faktor. Da gelesene Texte oftmals anders verarbeitet werden als gehörte Texte, müssen diese hier so umgeschrieben werden, damit sie auch als Sprachausgabe verständlich sind. Hierfür gab es spezielle Schulungen der Redakteurinnen und Redakteure. 4.3 Sichtbarkeit und Reichweite der Anwendung Die Platzierung einer neuen Funktion in ein bestehendes Portfolio, wie der Personalisierungsmöglichkeit bei Axel Springer und der FAZ.NET-App kann als zentrale Herausforderung und Erfolgsfaktor genannt werden. Je nach Platzierung dieser Funktion, greift der Nutzer oder die Nutzerin mehr oder weniger darauf zu. Ein weiterer Erfolgsfaktor kann Axel Springer und der App Upday hier zugesprochen werden, da sie mithilfe einer Kooperation mit Samsung die App auf allen Samsung-Endgeräten vorinstallieren konnten. Somit konnte zum einen die volle Funktionsfähigkeit gewährleistet und zum anderen die Nutzerakzeptanz der App erhöht werden. 84 Künstliche Intelligenz in Nachrichtenredaktionen 4.4 Zusammenarbeit und geeignete Partner Die Förderungen der Zusammenarbeit und der ständige Austausch mit einem externen Unternehmen beziehungsweise Entwicklungsteam hat vor allem bei interdisziplinären Teams oberste Priorität. So entschloss sich die F.A.Z. zur Zusammenarbeit mit externen Partnern, um den Algorithmen von Beginn an ausreichend Daten zum Lernen zur Verfügung zu stellen und dadurch die Qualität der Empfehlungen ständig zu gewährleisten. Bei NOZ Medien war die Auswahl der Sprachsoftware aufgrund des enormen Angebots eine Herausforderung. Da es aktuell mehr als 100 Text-to-Speech-Softwareanwendungen auf dem Markt gibt, war die Wahl der entsprechenden Software mit Unsicherheiten verbunden. Die Kriterien zur Auswahl einer entsprechenden Software orientierten sich an der Zielgruppe. Und auch für die Stuttgarter Nachrichten und Stuttgarter Zeitung kann die Wahl des richtigen Partners bzw. der richtigen Partnerin zur Umsetzung des Feinstaubradars als Herausforderung bezeichnet werden. So war es hier notwendig, gleich zwei Kooperierende zu finden, wobei der eine die geeigneten Daten liefert und der andere diese Daten mithilfe der zur Verfügung gestellten Natural Language Processing-Software zielgerecht verarbeiten kann. 4.5 Interne Strukturen und Kompetenz Sowohl bei der technischen Entwicklung eines Produkts als auch der Implementierung der Technologie in einem Medienunternehmen muss zudem darauf geachtet werden, die Server- und Systemleistungen im Blick zu haben. So war die Personalisierungsfunktion in der App Upday von Axel Springer hinsichtlich der internen Struktur vor eine Herausforderung gestellt, da aufgrund des schnellen Wachstums und der hohen Nutzerzahlen Skalierungsprobleme in der Server- und Systemleistung entstanden, die das Unternehmen von kleineren Applikationen zuvor nicht kannte. Erkenntnisse aus fünf Fallstudien 85 Innerhalb der NOZ Medien und des Text-to-Speech-Verfahrens war die akustische Sprachausgabe als „natürliche“ Sprachausgabe eine weitere Herausforderung, denn die Akzeptanz von akustischer Sprachausgabe mit einem natürlichen Stimmfluss ist höher als bei einer sehr synthetischen Stimme. Momentan funktioniert die akustische Sprachausgabe in englischer Sprache besser als in deutscher. Dennoch kann davon ausgegangen werden, dass sich hier die Qualität zunehmend verbessern wird. Bis dahin ist eine ständige Überprüfung und Weiterentwicklung notwendig, damit die Technologien auf aktuellstem Stand bleiben und mithilfe der Verbesserungsvorschläge der Nutzerinnen und Nutzer immer „intelligenter“ werden. 5 Veränderungen und Implikationen systematisieren: Wie lassen sich die Fallbeispiele einordnen? Die Fallstudien werden hier aus der Perspektive einer managementorientierten Betriebswirtschaftslehre betrachtet, es geht also im Kern um die Frage nach den Implikationen von Algorithmen und Künstlicher Intelligenz auf Geschäftsmodelle und Wertschöpfungsketten von Unternehmen im Verlagsumfeld beziehungsweise in journalistischen Umfeldern sowie daraus ableitend um Hilfestellungen bei Managemententscheidungen. Um die technologischen Innovationen und Implikationen zu systematisieren, lassen sich die drei im ersten Beitrag dieses Buches (Eisenbeis/ Ciepluch/ Deck/ Heitmann/ Hofer 2021) vorgestellten Modelle heranziehen und die folgenden drei Fragen formulieren:  In welchen Stufen der Wertschöpfungskette werden Algorithmen und Künstliche Intelligenz bereits heute bei der Inhalteerstellung, -aufbereitung und -distribution in Medienunternehmen (Verlagen) eingesetzt?  In welchem Bereich des Geschäftsmodells von Medienunternehmen (Verlagen) ergeben sich durch den Einsatz von Algorithmen und Künstlicher Intelligenz bei der Inhalteerstellung, -aufbereitung und -distribution Veränderungen? 86 Künstliche Intelligenz in Nachrichtenredaktionen  Welche Art der Innovation wird durch den Einsatz von Algorithmen und Künstlicher Intelligenz bei der Inhalteerstellung, -aufbereitung und -distribution in Medienunternehmen (Verlagen) hervorgerufen? Zur Beantwortung dieser Fragen werden im Folgenden die aufbereiteten Fallbeispiele in die Systematisierungen einsortiert - zunächst in die Innovationssystematik (Art der Innovation), dann in den Geschäftsmodellansatz (Komponente des Geschäftsmodells), sowie schließlich in das vorgestellte Wertschöpfungskettenkonzept (Stufe der Wertschöpfungskette), um die jeweiligen Veränderungen überblicksartig aufzuzeigen. 5.1 Welche Art der Innovation wird hervorgerufen? Innovationen und insbesondere technische Innovationen, die durch den Einsatz von Algorithmen und Künstlicher Intelligenz hervorgebracht werden, können sich auf unterschiedliche Bereiche eines Unternehmens beziehen. Das Modell nach dem Oslo Manual (OECD/ EUROSTAT 2018) bietet eine Differenzierung vier verschiedener Innovationsarten in einem (Medien-)Unternehmen: Produktinnovation, Prozessinnovation, Marketinginnovation, Organisationsinnovation. Ordnet man die einzelnen Fälle dieser Systematik zu (Abbildung 1), fällt auf, dass in allen Fällen eine Produktinnovation entsteht. So ist in allen Beispielen ein neues Produkt beziehungsweise eine neue Dienstleistung entwickelt und eingeführt worden, die es als solche vorher entweder noch nicht gab oder welche substanziell verbessert wurde. Die Stuttgarter Nachrichten und Stuttgarter Zeitung führten mit den Feinstaubradar sowie der Live-Karte auf ihrer Webseite zwei komplett neue Produkte beziehungsweise Dienstleistungen ein, die es als solche zuvor nicht gab. Die App Upday stellt für Nutzerinnen und Nutzer ebenfalls ein neues Produkt dar, welches seit seiner Veröffentlichung Teil des Produktportfolios von Axel Springer ist. Die akustische Sprachausgabe von journalistischen Inhalten Erkenntnisse aus fünf Fallstudien 87 bei NOZ Medien erweitert die bisherigen Dienstleistungen des Verlags und verbessert insbesondere die Verwendungsmöglichkeit der Inhalte. Die F.A.Z. verbessert und/ oder verändert die eigene FAZ.NET-App substanziell über die „Entdecken“-Funktion und ermöglicht so seinen Nutzerinnen und Nutzern einen erweiterten Service. Hier kann von einer Verbesserung der technischen Spezifikation und deren Komponenten gesprochen werden, da sich der Bereitstellungsprozess der journalistischen Inhalte geändert hat. APA hat mit den automatisch erstellten Kurzberichten ein neues Produkt eingeführt und damit das Inhaltsportfolio erweitert. Es wird somit in allen Fällen eine verbesserte Leistung sichtbar, die vor der technologischen Innovation in dem Maße nicht vorhanden war beziehungsweise sich vorher nicht auf dem Markt befand. Abbildung 1: Art der durch die Technologie hervorgerufene Innovation in den betrachteten Fallstudien Produktinnovation (neues Produkt, neue Dienstleistung oder neuer Service) Prozessinnovation (neue Produktions- oder Lieferungsbzw. Bereitstellungsmethode) Marketinginnovation (neue Marketingmethode) Organisationsinnovation (neue Organisationsmethode) Innovation 88 Künstliche Intelligenz in Nachrichtenredaktionen Aus den Fallstudien lassen sich auch Implikationen für den Produktionsprozess journalistischer Inhalte feststellen. Bei vier der fünf vorgestellten Fallbeispiele hat sich der Produktionsprozess maßgeblich verändert und/ oder verbessert (Prozessinnovation). Anhand von automatisch eingepflegten Daten sowie einer Natural Language Processing-Technologie lassen sich Kurzberichte wie die von APA und Stuttgarter Nachrichten und Stuttgarter Zeitung ohne menschliches Zutun erstellen. Lediglich die Nachkontrolle muss von der Redaktion übernommen werden. Der Prozess hat sich dahingehend verändert, dass nur noch ein kleiner Teil des Leistungserstellungsprozesses bei der Redaktion liegt und sich diese auf andere Aufgaben konzentrieren kann. Die Produktionsmethode wird auch bei NOZ Medien effizienter, da in einem Arbeitsgang sowohl der schriftliche als auch akustische journalistische Inhalt erstellt wird. Zwar muss die Redaktion diesen noch selbst verfassen, doch wird der Inhalt danach mithilfe der Text-to-Speech-Technologie in gesprochener Sprache automatisch ausgegeben. Lediglich bei der App Upday von Axel Springer findet sich keine Prozessinnovation als solche, da die App ein komplett neues Produkt darstellt und es keine bisherigen Prozesse gab, die hätten verbessert werden können. Es handelt sich um ein ganz neues Angebot des Verlags, dessen Leistungserstellungsprozesse erst mit der Implementierung der App entstanden. Somit lässt sich in vier von fünf Fällen laut Schumpeter (1934) von einer Produkt-Prozess-Innovation sprechen, bei der eine Produktinnovation auch eine Prozessinnovation notwendig macht. Marketinginnovation und Organisationsinnovation lassen sich in den Anwendungsbeispielen nicht finden. Dies heißt aber nicht, dass diese grundsätzlich bei der journalistischen Erstellung, Aufbereitung und Distribution von Inhalten nicht von Relevanz sind - sie spielten bei den hier vorgestellten Fallbeispielen nur keine Rolle. Bei den aufgeführten Produkten, Dienstleistungen und Services lassen sich (zumindest auf den ersten Blick) keine Verbesserungen im Design oder der Verpackung, in der Produktplatzierung oder neuen Positionierung im Markt ausmachen. Zudem stoßen die Erkenntnisse aus fünf Fallstudien 89 technologischen Innovationen und deren Einsatz keine direkten Organisationsinnovationen an. Zumindest werden keine organisatorischen Tools oder Methoden sichtbar, die zuvor nicht in dem Verlag oder Verlagshaus verwendet wurden. 5.2 Welche Komponenten des Geschäftsmodells sind von Veränderungen betroffen? Die Einsatzgebiete und Implikationen von Algorithmen, Künstlicher Intelligenz und Machine Learning lassen sich zudem hinsichtlich des Geschäftsmodells von Medienunternehmen und Verlagen untersuchen und systematisieren. Dabei stellt sich die Frage, welche Komponenten des Geschäftsmodells durch die Implikationen der technologischen Innovationen betroffen sind (Abbildung 2). Auf den ersten Blick lässt sich feststellen, dass die technologischen Innovationen vor allem einen Einfluss auf das Leistungs- und Wertschöpfungsmodell der Medienunternehmen haben. Das bedeutet zum einen, dass sich neue Leistungen ergeben oder sich bisherige Leistungen verändern und zum anderen, dass die Wertschöpfung auf andere Art und Weise erbracht wird. Produkte und ihre Herstellung verändern sich somit im Zuge von Künstlicher Intelligenz und Algorithmen. Sowohl bei APA, der Frankfurter Allgemeinen Zeitung als auch bei der Stuttgarter Zeitung und Stuttgarter Nachrichten können Implikationen technischer Innovationen im Leistungs- und Wertschöpfungsmodell ausgemacht werden. Den Kundinnen und Kunden wird entweder ein verändertes oder ein neues Produkt angeboten. Dies hat Einfluss auf die Herstellung des Produkts. Somit ist auch das Wertschöpfungsmodell von den Implikationen betroffen. Dies stellt bei den Fallstudien sogar ein zentrales Kriterium dar. Die hier verwendeten Technologien setzen an der Entwicklung und Produktion der Leistung beziehungsweise dem journalistischen Inhalt an. 90 Künstliche Intelligenz in Nachrichtenredaktionen Abbildung 2: Durch die Technologien hervorgerufene Veränderungen der Komponenten des Geschäftsmodells in den betrachteten Fallstudien Bei Axel Springer hingegen stehen das Ertragsmodell und das Leistungsmodell im Zentrum der Implikationen. Die Implementierung von Upday ermöglicht ein neues Erlösmodell, da der Wert nicht mehr nur aus den bisherigen Produkten und Leistungen erbracht wird, sondern es zu einer neuen Art der Erlösgenerierung kommt. Zudem wird mit der App die Zielgruppe erweitert. Insbesondere durch die Installation auf allen Samsung-Endgeräten ist es möglich, neue Zielkundinnen und -kunden zu gewinnen. NOZ Medien hat mit der Einführung der Text-to-Speech-Technologie ebenfalls das Leistungs- und Wertschöpfungsmodell angepasst. Die journalistischen Inhalte werden neben lesbaren auch automatisch zu akus- Ertragsmodell Wie wird Wert erzielt? Wertschöpfungsmodell Wie wird die Leistung hergestellt? Leistungsmodell Was wird den Kundinnen und Kunden angeboten? Zielgruppe Wer sind die Zielkundinnen und Zielkunden? Was? Wert? Wie? Wer? Erkenntnisse aus fünf Fallstudien 91 tischen Versionen verarbeitet und ermöglichen so eine neue Zielgruppenausrichtung. Die Komponenten Ertragsmodell und Zielgruppe sind in den hier betrachteten Fällen nicht von entscheidenden Veränderungen betroffen. Wie auch bereits bei den Innovationsarten heißt dies allerdings nicht, dass diese Komponenten grundsätzlich durch den Einsatz von KI nicht betroffen sind beziehungsweise sein können (nur eben nicht explizit in den hier betrachteten Fällen). 5.3 Welche Stufen der Wertschöpfungskette sind von Veränderungen betroffen? Da technologische Innovationen häufig im Kontext der daraus resultierenden Prozesse im Unternehmen diskutiert werden, stellt sich die Frage, auf welchen Stufen der Wertschöpfungskette Algorithmen und Künstliche Intelligenz in Medienunternehmen eingesetzt werden beziehungsweise welche Stufen der Wertschöpfungskette durch den Technologieeinsatz verändert werden. Die Fallstudien beziehen sich dabei alle auf die automatische Inhalteerstellung, -aufbereitung und -distribution mithilfe der neuen Technologien. Insbesondere die verlagsspezifische Wertschöpfungskette nach Wirtz (2016: 76) und Godefroid/ Kühnle (2018: 3) eignet sich hier bei der Systematisierung der Implikationen der Anwendungsfälle (Abbildung 3). Offenkundig verändern die Technologien insbesondere die technische Produktion: In allen Fallstudien liegt ein zentraler Schritt der Produktion journalistischer Inhalte nicht mehr primär bei der Redaktion, sondern bei Computerprogrammen und Algorithmen. Der Einsatz der Natural Language Processing-Technologie wirkt sich insbesondere auf die Wertschöpfungsstufen Produktion und Aggregation von Content sowie die technische Produktion aus. Diese beiden Wertschöpfungsstufen haben sich seit der Implementierung der Künstlichen Intelligenz bei APA maßgeblich verändert. Der journalistische Inhalt wird im Verlagshaus über eine Vielzahl 92 Künstliche Intelligenz in Nachrichtenredaktionen an strukturierten Daten, hier den Wahlergebnissen, aggregiert und in einem zweiten Schritt in automatisch generierten Texten ausgegeben. Die Redaktion erstellt den Text nicht mehr selbst, sondern überlässt die technische Produktion der Künstlichen Intelligenz. Erst danach überprüft sie die erstellten Texte auf inhaltliche und grammatikalische Fehler und korrigiert diese, wenn nötig. Des Weiteren verändern sich die Distribution des journalistischen Inhaltes und die Nutzung der Inhalte durch die Endkundinnen und -kunden nicht. Beides bleibt wie vor der technologischen Implementierung gleich. Abbildung 3: Durch die Technologien hervorgerufene Veränderungen der Komponenten auf der Wertschöpfungskette in den betrachteten Fallstudien Mit der Personalisierungsfunktion in der FAZ.NET-App werden ganz andere Stufen der Wertschöpfungskette verändert. Durch die Implementierung der Funktion und der Nutzung der dahinterliegenden Machine Learning-Technologie hat sich zunächst das Packaging der Produkte geändert. Die journalistischen Inhalte werden durch die Funktion neu zusammengestellt und gebündelt. Es findet eine neue Zusammenstellung bisheriger Content-Elemente statt. Damit einher geht die technische Produktion des Contents. Nicht Packaging der Produkte Technische Produktion Distribution Beschaffung von Informationen und Inhalten Akquisition von Werbung Produktion und Aggregation von Content Platzierung von Werbung Rezipient/ Kunde Erkenntnisse aus fünf Fallstudien 93 die Redaktion wählt passende Artikel für die Nutzerin oder den Nutzer aus, sondern die Software ermittelt durch das Leseverhalten, welche journalistischen Inhalte relevant sein könnten. Auch das Ausspielen der journalistischen Inhalte hat sich aufgrund der neuen Funktion geändert. Damit übt die auf Machine Learning basierte Technologie Einfluss auf die Distribution aus. Mit einer veränderten Distribution geht ein anderer Konsum vonseiten der Rezipientinnen und Rezipienten aus. Daher lässt sich auch auf dieser Wertschöpfungsstufe eine Modifizierung feststellen. Bei der App Upday von Axel Springer lassen sich Veränderungen auf denselben Wertschöpfungsstufen ausmachen. Auch hier verändern sich durch die technologische Innovation das Packaging der Produkte, die technische Produktion, die Distribution und die Nutzung durch die Rezipientinnen und Rezipienten. Die App bietet journalistische Inhalte in angepasstem Format an. Da die Quellen der journalistischen Inhalte sowohl aus der Lokalpresse als auch von überregionalen Redaktionen stammen, hat sich im Zuge der Entwicklung und Implementierung der App Upday die Produktion und Aggregation von Content verändert. Auch die NOZ Medien bedienen mit ihrer akustischen Sprachausgabe journalistischer Inhalte eher die hinteren Stufen der Wertschöpfungskette. Die Anwendung der Natural Language Processing-Technologie hat eine neue Art der technischen Produktion des Contents zur Folge. Der journalistische Text wird von der Redaktion so aufbereitet, dass er sowohl akustisch als auch gelesen verstanden werden kann. Erst dann kommt die Technologie zum Einsatz und erzeugt eine automatisch erstellte Sprachausgabe des Inhalts. Daraus ergibt sich auch eine neue Form der Distribution und damit eine neue Form der Nutzung aufseiten der Kundinnen und Kunden. Der Feinstaubradar der Stuttgarter Zeitung und Stuttgarter Nachrichten verändert bereits die erste Stufe der Wertschöpfungskette, die Beschaffung von Informationen und Inhalten. Die Informationen und Inhalte für den journalistischen Content werden hier mithilfe 94 Künstliche Intelligenz in Nachrichtenredaktionen der von OK Lab Stuttgart aufgestellten Sensoren im Großraum Stuttgart ermittelt. Diese werden in einem weiteren Schritt mithilfe der Natural Language Processing-Technologie weiterverarbeitet. Dabei verändert sich nicht nur die Produktion und Aggregation des Contents, sondern auch die technische Produktion, da die daraus entstehenden Texte individuell, das heißt je nach Wunschregion, automatisch erzeugt werden. Die Distribution nach außen läuft weiterhin über die Website der Stuttgarter Zeitung und Stuttgarter Nachrichten. Auch der Konsum des Inhaltes bleibt gleich. Die Akquisition und Platzierung von Werbung spielt in den hier betrachteten Fallstudien keine (entscheidende) Rolle. Allerdings liegt es auf der Hand, dass gerade in diesem Einsatzgebiet entsprechende Technologien - auch und gerade im Verlagsumfeld - längst eingesetzt werden (Gensch 2018). 6 Zusammenfassung und Fazit ableiten: Was sind die Lessons Learned zu KI in journalistischen Umfeldern? Die fünf Anwendungsfälle haben gezeigt, dass es bereits im Tagesgeschäft befindliche und funktionierende Anwendungsfälle für den Einsatz von Algorithmen und Künstlicher Intelligenz in Verlagen und journalistischen Umfeldern - hier konkret zur Erstellung, Aufbereitung und Distribution von Nachrichteninhalten - existieren. Diese betreffen unterschiedliche Einsatzgebiete: Als Beispiel für das Einsatzgebiet „Natural Language Processing/ Automatische Textgenerierung“ wurde der Feinstaubradar von Stuttgarter Zeitung und Stuttgarter Nachrichten (Czaja/ Obert/ Simoes/ Ciepluch 2021) sowie die Aufbereitung von Wahlergebnissen der Austria Presse Agentur (Dapfner/ Schimpgen/ Senghas/ Ciepluch 2021) vorgestellt. In das Einsatzgebiet „Personalisierung von Nachrichten“ fallen die Nachrichten-App Upday von Axel Springer (Ciepluch/ Freimann/ Jäckle/ Pfahler/ Uhlrich 2021) sowie die „Entdecken“- Funktion der FAZ.NET-App der Frankfurter Allgemeine Zeitung (Willbold/ Janko/ Eisenbeis 2021). Das Einsatzgebiet „Text-to- Erkenntnisse aus fünf Fallstudien 95 Speech“ wurde anhand der Sprachausgabe-Funktion der NOZ Medien (Janko/ Willbold/ Eisenbeis 2021) vorgestellt. Somit geht es in allen hier vorgestellten Fallbeispielen insbesondere um die Inhalteerstellung, -aufbereitung und -distribution - wohl wissend, dass es auch weitere Einsatzfelder von Künstlicher Intelligenz und Algorithmen in der Medienbranche gibt (Mayer 2018). Die Fallstudien zeigen auch, dass es unterschiedliche Gründe und Ziele für Veränderungen und Adaptionen der Technologien in Unternehmen gibt: Diese reichen von der Idee, Erfahrungen mit neuen Technologien zu sammeln bis hin zur Strategie, führendes Technologieunternehmen im entsprechenden Anwendungsbereich zu werden oder sich zum digitalen Medienhaus entwickeln zu wollen. Auch der Wunsch nach Prozess- und Workflowoptimierung liegt hinter der Entscheidung, entsprechende Technologien einzusetzen. Ebenso wie die Zielsetzung der Erweiterung des Produktportfolios, der Entwicklungen neuer Dienste und der Bespielung neuer Kanäle sowie der Wunsch, mit (diesen) neuen Anwendungen veränderten Nutzungsgewohnheiten der Kundinnen und Kunden gerecht zu werden. Und trotz Angebotserweiterung sollen die bestehenden Ressourcen geschont werden, Journalistinnen und Journalisten ihrem Tagesgeschäft nachgehen und sich auf ihr Kerngeschäft konzentrieren können. Somit ist der Einsatz von KI nie ein Selbstzweck. Vielmehr geht es darum, Mehrwerte im Sinne von Nutzenvorteilen zu generieren - entweder für Nutzerinnen und Nutzer, Kundinnen und Kunden beziehungsweise Leserinnen und Leser oder für das Unternehmen selbst. Die identifizierten zentralen Herausforderungen und Erfolgsfaktoren lagen in (1) „Mitarbeiterakzeptanz und Schulung“, was unter anderem die Einbindung der Mitarbeiterinnen und Mitarbeiter in das Vorhaben beinhaltet, (2) „Quantität und Qualität der Daten“ und somit auch die kontinuierliche Optimierung und das Training der KI, (3) „Sichtbarkeit und Reichweite der Anwendung“, um von Beginn eine kritische Masse von Nutzerinnen und Nutzern zu haben und deren Feedback und Nutzungsgewohnheiten zur Optimierung der Anwendung nutzen zu können, (4) „Zusammenarbeit und 96 Künstliche Intelligenz in Nachrichtenredaktionen geeignete Partnerinnen und Partner“ für die Entwicklung, Implementierung und/ oder den Betrieb der Anwendung, sowie (5) „Interne Strukturen und Kompetenzen“, um für das Vorhaben nicht ausschließlich von externen Partnerinnen und Partner abhängig zu sein. Das Einsortieren von Einsatzgebieten und Fallbeispielen in die Systematisierungen (Art der Innovation, Implikationen für die Komponenten des Geschäftsmodells, Implikationen für die Stufen der Wertschöpfungskette) erleichtern den Überblick zur Inspiration zu Möglichkeiten des Einsatzes und zur Ableitung von Handlungsoptionen. Weitere Einsatzgebiete und Anwendungsbeispiele im Medienkontext sind über die „MediaTech Landscape“ des „MediaTech Navigators“ der Hochschule der Medien - entwickelt im Rahmen des IPW (Interdisziplinäres Projekt Wirtschaft) im Studiengang Medienwirtschaft - unter www.MediaTechNavigator.com zu finden. Die Datenbank der Plattform (www.MediaTechNavigator.com/ mediatechlandscape) lässt sich, wie in der hier vorgestellten Systematik (Art der Innovation, Implikationen für die Komponenten des Geschäftsmodells, Implikationen für die Stufen der Wertschöpfungskette), durchsuchen und gibt zudem einen Überblick über Anwendungsfälle weiterer Emerging Technologies wie Big Data, Blockchain sowie Augmented Reality und Virtual Reality - jeweils mit Bezug zur Medienbranche. Literatur Ciepluch, M., Freimann, A., Jäckle, S., Pfahler, V. & Uhlrich, M. (2021). Artificial Intelligence zur inhaltlichen Steuerung und Personalisierung der Nachrichten- App Upday von Axel Springer. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (43-49). München: UVK. Czaja, D., Obert, A., Simoes, D. & Ciepluch, M. (2021). Natural Language Processing für den Feinstaubradar von Stuttgarter Zeitung und Stuttgarter Nachrichten. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (51-57). München: UVK. Erkenntnisse aus fünf Fallstudien 97 Dapfner, L., Schimpgen, S., Senghas, M. & Ciepluch, M. (2021). Robot Journalism zur Aufbereitung von Wahlergebnissen in der Wahlberichterstattung der Austria Presse Agentur. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (37-42). München: UVK. Eisenbeis, U., Ciepluch, M., Deck, M., Heitmann, F. F. & Hofer, J. (2021). Algorithmen und Künstliche Intelligenz zur Erstellung, Aufbereitung und Distribution von Inhalten im Verlagsumfeld. Begrifflichkeiten und Möglichkeiten der Systematisierung von Implikationen. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (9-36). München: UVK. Gensch, P. (2018). Künstliche Intelligenz für Sales, Marketing und Service. Mit AI und Bots zu einem Algorithmic Business - Konzepte, Technologien und Best Practices. Wiesbaden: Springer. Godefroid, P. & Kühnle, B. A. (2018). Medientechnologie als unternehmerischer Diversifikationsfaktor. In J. Krone, & T. Pellegrini (Hrsg.), Handbuch Medienökonomie (1-21). Wiesbaden: Springer Fachmedien. Janko, L., Willbold, K. & Eisenbeis, U. (2021). Text-to-Speech-Technologie auf Basis neuronaler Netzwerktechnik für eine akustische Sprachausgabe der Texte bei der NOZ Medien. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (67-73). München: UVK. Mayer, C. P. (2018). Künstliche Intelligenz und Maschinelles Lernen: Hintergrund, Anwendungsfälle und Chancen für Medienunternehmen. Medienwirtschaft (3/ 2018), 30-35. OECD/ Eurostat (2018): Oslo Manual 2018. Guidelines for collecting, reporting and using data on innovation. The measurement of scientific, technological and innovation activities. (4. Aufl.). Paris; Luxemburg: OECD. Schumpeter, J. A. (1934). The theory of economic development, (Original German edition 1911) Cambridge, Mass: Harvard University Press. Willbold, K., Janko, L. & Eisenbeis, U. (2021). Machine Learning als Grundlage der Personalisierungsfunktion „Entdecken“ in der FAZ.NET-App der Frankfurter Allgemeinen Zeitung. In Eisenbeis, U. & Ciepluch, M. (Hrsg.), Künstliche Intelligenz in Nachrichtenredaktionen. Begriffe, Systematisierung, Fallbeispiele (59-65). München: UVK. Wirtz, B. W. (2013). Medien- und Internetmanagement (8. Aufl.). Wiesbaden: SpringerGabler. Stichwortverzeichnis Algorithmic Journalism 14, 21-23, 22, 39-44, 53-59 Algorithmus 18 Artificial Intelligence 16-19, 18 Austria Presse Agentur (APA) 39-44 Automated Journalism 14, 21-23, 39-44, 53-59 Axel Springer SE 45-51 Big Data 20 Computational Journalism 21 Data Driven Journalism 15 Data Journalism 15 Erfolgsfaktoren 43, 50, 58, 65, 71, 80-85 Ertragsmodell 27, 28, 90 Feinstaubradar (ZGS.de/ StN.de) 53-59 Frankfurter Allgemeine Zeitung (F.A.Z.) 61-66 Geschäftsmodell-Ansatz 27-29, 28, 89-91, 90 Innovationsarten 24-27, 26, 86-89, 87 Kundenmodell 27, 28, 90 Künstliche Intelligenz 16- 19, 18 Leistungsmodell 27, 28, 90 Machine Learning 17, 19, 19-20, 61-66 Marketinginnovation 25, 26, 87 Maschinelles Lernen 17, 19, 19-20, 61-66 Nachrichten-Aggregator 45-51 Natural Language Generation 22-23, 23, 39- 44, 53-59 Natural Language Processing 22-23, 39-44, 53-59 Neue Osnabrücker Zeitung GmbH & Co. KG (NOZ Medien) 67-73 News-Aggregator 45-51 Organisationsinnovation 26, 87 Personalisierung 61-66 100 Stichwortverzeichnis Produktinnovation 24-25, 26, 86-87 Produkt-Prozess-Innovation 24, 88 Programmatic Advertising 15 Prozessinnovation 24-25, 26, 87-88 Robot Journalism 21-23, 39- 44, 53-59 Sprachausgabe 67-73 Stuttgarter Zeitung Verlagsgesellschaft mbH 53-59 Stuttgarter Zeitung/ Stuttgarter Nachrichten 53-59 Text-to-Speech-Technologie 67-73 Upday (News- App/ Aggregator) 45-51 Wertschöpfungskette 29-31, 31, 91-94, 92 Wertschöpfungsmodell 27, 28, 90 Wertschöpfungsstufen 29- 31, 31, 91-94, 92 Zielgruppe 27, 28, 90 ISBN 978-3-7398-3114-5 www.uvk.de KI in der Nachrichtenproduktion, -aufbereitung und -distribution effektiv einsetzen Austria Presse Agentur, Axel Springer Verlag, Stuttgarter Zeitung und Stuttgarter Nachrichten, Frankfurter Allgemeine Zeitung und Neue Osnabrücker Zeitung: Hier kommen Künstliche Intelligenz, Machine Learning, Robot Journalism, Natural Language Processing und Text-to-Speech-Technologie zum Einsatz. Die fünf Fallbeispiele gehen auf Ziele, Implementierung sowie Erfolgsfaktoren ein. Zudem führt das Buch in die wichtigsten Begrifflichkeiten ein und verortet die Implikationen der Technologien in Geschäftsmodell sowie Wertschöpfungskette. Das Buch richtet sich an alle, die sich für den Einsatz von Künstlicher Intelligenz im Verlagsumfeld interessieren und hierzu Entscheidungen treffen. Prof. Dr. Uwe Eisenbeis ist Professor für Medienmanagement und Ökonomie an der Hochschule der Medien in Stuttgart. Magdalena Ciepluch, M.A., ist wissenschaftliche Mitarbeiterin und Doktorandin im Studiengang Medienwirtschaft an der Hochschule der Medien in Stuttgart.