eBooks

Inhaltsanalyse

0313
2017
978-3-8385-4706-0
978-3-8252-4706-5
UTB 
Patrick Rössler

Die quantitativ-standardisierte Inhaltsanalyse ist eine originär kommunikationswissenschaftliche Methode und gehört zur Grundausbildung in allen einschlägigen Studiengängen. Patrick Rössler führt Schritt für Schritt und anhand einer exemplarischen Studie in das Handwerk der Inhaltsanalyse ein. Ein Muster-Codebuch, das Vorschläge für die häufig benötigten Kategorien enthält, dient dabei als Prototyp für eigene Untersuchungen. Die dritte Auflage wurde grundlegend überarbeitet und um Kapitel zur automatisierten Inhaltsanalyse sowie zur Forschungsethik erweitert. Außerdem enthält das Lehrbuch eine neue Beispielstudie zur politischen Kommunikation in Online- und Offline-Medien, die sich durch das gesamte Buch zieht.

<?page no="1"?> basics <?page no="2"?> Patrick Rössler Inhaltsanalyse 3., völlig überarbeitete Auflage UVK Verlagsgesellschaft mbH • Konstanz mit UVK/ Lucius • München <?page no="3"?> Prof. Dr. Patrick Rössler lehrt Empirische Kommunikationsforschung an der Universität Erfurt. Online-Angebote und elektronische Ausgaben sind erhältlich unter www.utb-shop.de. Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http: / / dnb.d-nb.de abrufbar. Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. 1. Auflage: 2005 2. Auflage: 2010 3. Auflage: 2017 UVK Verlagsgesellschaft mbH, Konstanz und München 2017 Einbandgestaltung: Atelier Reichert, Stuttgart Titelfoto: fotolia.com Satz: Claudia Wild, Konstanz Druck: Pustet, Regensburg UVK Verlagsgesellschaft mbH Schützenstr. 24 . 78462 Konstanz . Deutschland Tel.: 07531-9053-0 . Fax: 07531-9053-98 www.uvk.de UTB-Band-Nr. 2671 ISBN 978-3-8252-4706-5 <?page no="4"?> Inhalt Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1 Wozu quantitative, standardisierte Inhaltsanalysen? . . . 13 1.1 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2 Was die Inhaltsanalyse ist - und was nicht . . . . . . . . . . . . . . 16 1.3 Definitionen der Inhaltsanalyse und wichtige Begriffe . . . . . 19 2 Typische Fragestellungen: Deskription und Inferenz . . . 27 2.1 Ziel: Beschreibung der Berichterstattung . . . . . . . . . . . . . . . 27 2.2 Ziel: Inferenzschlüsse auf die soziale Wirklichkeit . . . . . . . . . 31 3 Der Forschungsprozess: Vom Erkenntnisinteresse zum Verwertungszusammenhang . . . . . . . . . . . . . . . . . . . 37 3.1 Die einzelnen Schritte der Medieninhaltsanalyse im Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 3.2 Das Kernproblem: Definition der Einheiten . . . . . . . . . . . . . 41 3.3 Der Forschungsprozess im Zeitablauf . . . . . . . . . . . . . . . . . . 46 4 Die Auswahleinheit: Stichprobenziehung und Untersuchungsmaterial . . . . . . . . . . . . . . . . . . . . . . . 53 4.1 Definition der Auswahleinheit . . . . . . . . . . . . . . . . . . . . . . . 53 4.2 Weitere Auswahlverfahren auf unterschiedlichen Stufen . . . 57 4.3 Praktische Hinweise zu Beschaffung, Archivierung und Verwendung. . . . . . . . . . . . . . . . . . . . . . . 64 4.4 Auswahl und Archivierung von Online-Inhalten . . . . . . . . . 68 5 I N H A L T I N H A L T <?page no="5"?> 5 Die Analyseeinheit: Definitionen für Print- und Funkmedien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 5.1 Grundsätzliche Überlegungen . . . . . . . . . . . . . . . . . . . . . . . 75 5.2 Unabhängige Analyseeinheiten: Parallele Zerlegung . . . . . . . 76 5.3 Analyseeinheiten bei Textmedien: Hierarchische Zerlegung . . 78 5.4 Analyseeinheiten für Bewegtbilder: Hierarchische Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 5.5 Exkurs I: Analyseeinheit Bild . . . . . . . . . . . . . . . . . . . . . . . . 85 5.6 Exkurs II: Umgang mit Analyseeinheiten im Internet . . . . . . 90 6 Das Codebuch: Aufbau und Kategorienbildung . . . . . . . . . 95 6.1 Der Aufbau des Codebuchs in der Übersicht . . . . . . . . . . . . . 95 6.2 Kategoriensystem und Kategorienbildung . . . . . . . . . . . . . . 100 7 Die Standards: Formale Kategorien . . . . . . . . . . . . . . . . 111 7.1 Zur Funktion formaler Kategorien: Fixierung . . . . . . . . . . . 111 7.2 Kategorie: Medium (Auswahleinheit) . . . . . . . . . . . . . . . . . . 113 7.3 Kategorie: Datum/ Zeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 7.4 Kategorie: Umfang (Länge/ Dauer) . . . . . . . . . . . . . . . . . . . . 116 7.5 Kategorien zu weiteren Darstellungsmerkmalen . . . . . . . . . 119 8 Der Gegenstand: Inhaltliche Kategorien . . . . . . . . . . . . . 127 8.1 Zur Funktion inhaltlicher Kategorien: Klassifikation . . . . . . 127 8.2 Kategorie: Thema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 8.3 Kategorie: Ereignisbzw. Bezugsort . . . . . . . . . . . . . . . . . . . 137 8.4 Kategorie: Akteure/ Handlungsträger . . . . . . . . . . . . . . . . . . 140 8.5 Kategorie: Aktualitätsbezug . . . . . . . . . . . . . . . . . . . . . . . . 147 9 Die Tendenz: Wertende Kategorien . . . . . . . . . . . . . . . . 153 9.1 Zur Funktion wertender Kategorien: Evaluation . . . . . . . . . 153 9.2 Globalbewertungen von Analyseeinheiten . . . . . . . . . . . . . 155 9.3 Skalenbildung bei wertenden Kategorien . . . . . . . . . . . . . . 159 9.4 Wertende Aussagen: Synthetisches Kategoriensystem . . . . . 161 6 I N H A L T <?page no="6"?> 10 Die Erhebungsphase: Schulung, Codierung und Feldorganisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 10.1 Codiererschulung und Pre-Test . . . . . . . . . . . . . . . . . . . . . . . 173 10.2 Feldorganisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 10.3 Codebogen und Datenerhebung . . . . . . . . . . . . . . . . . . . . . . 182 1 1 Die Digitalisierung: Automatisierte Inhaltsanalyse . . . . 189 11.1 Die Analyse von Daten im Internet . . . . . . . . . . . . . . . . . . . 189 11.2 Inhaltanalyse und Big Data . . . . . . . . . . . . . . . . . . . . . . . . 193 11.3 Die automatisierte Inhaltsanalyse . . . . . . . . . . . . . . . . . . . . 195 11.4 Die halbautomatisierte Inhaltsanalyse . . . . . . . . . . . . . . . . 201 12 Die Qualitätskontrolle: Reliabilität und Validität . . . . . . 205 12.1 Zur Logik der inhaltsanalytischen Gütekriterien . . . . . . . . . 205 12.2 Reliabilität der Codierung . . . . . . . . . . . . . . . . . . . . . . . . . 207 12.3 Validität und Inferenzschluss . . . . . . . . . . . . . . . . . . . . . . . 216 13 Die Ethik: Der Mensch und das Internet . . . . . . . . . . . . . . 223 13.1 Was ist privat? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 13.2 Viele Daten - wenig Ethik? . . . . . . . . . . . . . . . . . . . . . . . . 228 13.3 Die Codierer als Menschen . . . . . . . . . . . . . . . . . . . . . . . . . 230 14 Der Verwertungszusammenhang: Exemplarische Inhaltsanalysen zu unterschiedlichen Mediengattungen 235 14.1 Befunde von Inhaltsanalysen aus der akademischen Forschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 14.2 Studie I: Agenda-Setting-Effekte zwischen Medienberichterstattung und Online-Informationsverhalten . . . . . 237 14.3 Studie II: Die »Fußballisierung« im deutschen Fernsehen . . . 240 14.4 Studie III: Nachrichtenfaktoren und Themen in Nutzerrankings . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 14.5 Studie IV: Handlungslogik von Tageszeitungen . . . . . . . . . . 246 14.6 Der Forschungsbericht . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 7 I N H A L T <?page no="7"?> 15 Die Inhaltsanalyse als Teil eines Mehrmethodenansatzes . . . . . . . . . . . . . . . . . . . . . 255 15.1 Methodische Untersuchungskonzepte für Theorien und Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 15.2 Inferenzen auf den Kommunikator: Nachrichtenwerte . . . . 257 15.3 Inferenzen auf den Rezipienten: Agenda-Setting . . . . . . . . . 261 15.4 Inferenzen auf die soziale Situation: Framing . . . . . . . . . . . 263 15.5 Mehrstufen-Ansatz: Kultivierung . . . . . . . . . . . . . . . . . . . . 267 Abschließende Überlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277 Antworten zu den Übungsfragen . . . . . . . . . . . . . . . . . . . . . . . . . 281 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 Codebuch Das Codebuch zum Fallbeispiel »Politische Kommunikation« ist einsehbar und downloadbar unter http: / / www.utb-shop.de/ 9783825247065 . 8 I N H A L T <?page no="8"?> Vorwort »Fünfundzwanzig Augenpaare sind der Grund für dieses Buch - 25 Augenpaare und ihre zunächst ratlosen Blicke angesichts meiner Versuche, in einem Einführungskurs in die kommunikationswissenschaftlichen Methoden den Sinn und Zweck unterschiedlicher Analyseeinheiten bei der Codierung von Fernsehnachrichten zu verdeutlichen.« Mit diesen Worten hatte ich vor inzwischen über zwölf Jahren die erste Auflage dieses Lehrbuchs eingeleitet. Die Studierenden von damals sind inzwischen längst in alle Winde verstreut, aber die ratlosen Blicke der jeweils nächsten Kohorte sind geblieben. Deswegen hat sich auch dieser Band für Einsteiger in die Inhaltsanalyse ohne Vorkenntnisse nicht als obsolet erwiesen - im Gegenteil: Die vielen ermutigenden Kommentare von Kolleginnen und Kollegen aus dem Fach lassen einen anwendungsorientierten Zugang, der den Nutzwert des Verfahrens betont und erst über die Praxis in die Methodenreflektion findet, nach wie vor geboten erscheinen. Der rapide Medienwandel des vergangenen Jahrzehnts kann inzwischen getrost als Allgemeinplatz betrachtet werden: Es gibt wohl niemanden unter uns, an dem die nahezu flächendeckende Verbreitung von Laptops, Tablets und Smartphones vorbeigegangen wäre - gemeinsam mit den neuen Anwendungen (neudeutsch: Apps), die sie ermöglichen. Der Begriff »Social Media« steht dabei für den wohl tiefgreifendsten Umbruch, denn Facebook und Twitter, Instagram, YouTube & Co. fordern unsere Ansichten von dem, was ein Medium ist, ebenso permanent heraus wie die landläufigen Vorstellungen von dem, was öffentlich gemeint ist und von dem, was privat bleiben soll. Die Medieninhaltsanalyse muss auf diese Situation reagieren. Schon vor siebeneinhalb Jahren hatte ich an selber Stelle, nämlich im Vorwort zur zweiten Auflage dieses Lehrbuchs, auf die Veränderungen hingewiesen, die die Online-Welt auch für die Methoden zu ihrer Erforschung bereithält. Seither ist vieles passiert: Die kommunikationswissenschaftliche Forschung zu diesen Phänomenen ist erwartbar und zu Recht explodiert, denn zu verführerisch erscheint die Chance, den Ansichten und den Handlungen von Menschen durch die Verhaltensspuren 9 V O R W O R T V O R W O R T <?page no="9"?> nachzugehen, die sie in den Weiten des Internets (oft anonym und nicht selten unbewusst) hinterlassen. Aus methodischer Sicht bedeutet das aber nichts anderes als die nachträgliche Beobachtung von Kommunikationsverhalten, das anschließend inhaltsanalytisch ausgewertet wird, um Schlussfolgerungen auf das (nunmehr aktiv beteiligte) Medienpublikum zu ziehen. Ich sehe dies einerseits als eine große Chance, die primär in unserem Fach weiterentwickelten Verfahren in anderen sozialwissenschaftlichen Disziplinen stärker zu etablieren, was indirekt auch dessen akademischem Stellenwert zu Gute käme. Andererseits bedeutet dies, dass sich ein Lehrbuch wie das vorliegende nicht mehr nur an die Studienanfänger in der Publizistik- und Kommunikationswissenschaft richtet, sondern an einen weiteren Kreis von Forschern, die Daten aus der Online- Welt für ihre spezifischen Fragestellungen fruchtbar machen wollen. In diesem Sinne lade ich alle Interessierten aus unseren Nachbardisziplinen gerne zur Lektüre ein und bin zuversichtlich, dass der von mir gewählte Zugang auch diesem Adressatenkreis einen sinnvollen Einstieg in die Grundzüge der Inhaltsanalyse ermöglicht. Gleichzeitig wirkt sich der beschriebene Medienwandel in dieser dritten Auflage stärker aus als bisher, wie schon der Blick in die Struktur des Buches verdeutlicht. Was ursprünglich als Unterabschnitt zur »computergestützten Inhaltsanalyse« begann, hat sich nun zu einem eigenen Kapitel über automatisierte Verfahren ausgedehnt. Ein besonderes Anliegen war mir ferner, erstmals einige Überlegungen zur Ethik der Inhaltsanalyse anzustellen - ein bislang stark vernachlässigtes Thema, das gerade durch die neuen Einsatzgebiete der Methode immer wichtiger wird. Weniger augenfällig, aber vielleicht noch grundlegender sind die Überarbeitungen an quasi allen Stellen des Manuskripts, wo neben den Anwendungen und Beispielen aus den klassischen Medien immer auch die Adaption auf soziale und Online-Medien mitgedacht wurde. Dies schlägt sich ebenfalls in dem Spektrum der im vorletzten Kapitel vorgestellten Beispielstudien nieder - nicht aber in der Auswahl des Fallbeispiels, das sich durch alle konzeptionellen Kapitel hindurchzieht. Gerade weil die zweite Auflage des Buchs hier auf eine Untersuchung zu »Muslimischen Weblogs« zurückgriff (erneut herzlichen Dank an die Erfurter Forschungsgruppe um Kai Hafez und stellvertretend Sabrina Schmidt), habe ich mich bewusst dafür entschieden, zu einem typischeren Einsatz auf dem Gebiet der öffentlichen Publizistik zurückzukehren. Ich erläutere die inhaltsanalytische Vorgehensweise nunmehr anhand des in dem DFG-Projekt »Digitale Wissensklüfte. Informationsvermittlung, Informationsnutzung und Informationsverarbeitung in der Online-Welt« erarbeiteten Instruments, das innerhalb der Forscher- 10 V O R W O R T <?page no="10"?> gruppe »Politische Kommunikation in der Online-Welt« (FOR 1381; http: / / www.fgpk.de/ ) entstanden ist. Gerade weil es auf vorbildliche Art und Weise die Analyse von klassischen und Online-Medien in einer anerkannten Grundlagenstudie verbindet, schien es mir das geeignete Anschauungsmaterial für diesen Band. Das Instrument ist in größerer Ausführlichkeit auf der UTB-Website zu diesem Lehrbuch (www.utbshop.de/ 9783825247065) einsehbar. Mein Dank gilt meinem seit vielen Jahren geschätzten Kollegen Marcus Maurer von der Universität Mainz für die Erlaubnis und die Überlassung der erforderlichen Materialien und Dokumente; und ganz besonders Corinna Oschatz, Mitarbeiterin in diesem Projekt, für ihre ausführlichen Erläuterungen zu den Hintergründen im methodischen Vorgehen. Mit Nachdruck mache ich aber darauf aufmerksam, dass - je nach Anwendungsfall - auch die Konsultation der früheren Auflagen dieses Lehrbuchs hilfreich sein kann. Wie erwähnt wechselt jeweils das präsentierte Fallbeispiel und auch das in 2005 vorgestellte Projekt aus dem Gebiet der Gesundheitskommunikation, das ich der Unterstützung von Eva Baumann und Stephanie Lücke verdankte, hat zwischenzeitlich nicht an Relevanz verloren. Auch die wechselnden Studienporträts im Kapitel über den Verwertungszusammenhang können in ihrer Gesamtheit die Breite möglicher inhaltsanalytischer Forschungsinteressen detaillierter veranschaulichen, als dies in der jeweils aktuellsten Auflage gelingen kann. In die vorliegende Fassung sind außerdem erneut zahlreihe Anregungen eingeflossen, die mich in den vergangenen Jahren aus dem Kollegenkreis in der ganzen Republik, aus Österreich und der Schweiz erreicht haben. Ich danke all jenen, die das Buch in ihrer Methodenlehre einsetzen und mir ihre Erfahrungen dabei rückmelden, denn nur durch diese permanente Anbindung an den Alltag in den Hörsälen und Seminarräumen kann es gelingen, ein Kompendium anzubieten, das den Wünschen und Ansprüchen der Zielgruppe gerecht wird. Um diesen Realitätscheck abzusichern, ist auch diese dritte, ergänzte und überarbeitete Auflage in enger Zusammenarbeit mit Studierenden entstanden. Von Anfang an habe ich großen Wert darauf gelegt, das Lehrbuch konsequent unter Beteiligung der Zielgruppe (d. h. Studierenden der Kommunikationswissenschaft) zu schreiben. Was auf der konzeptionellen und inhaltlichen Mitarbeit von Susanne Tirsch und Ulrike Täuber basiert und zunächst von Paula Syniawa und Tanja Peterzelka optimiert wurde, hatten Lena Hautzer und Marco Lünich für die zweite Auflage maßgeblich weiterentwickelt. Meinen vordringlichsten Dank spreche ich nun Sarah-Maria Steppe aus, die diese Revisionsrunde als Master-Studentin der Kommunikationsforschung an der Universität Erfurt nicht 11 V O R W O R T <?page no="11"?> nur äußerst kompetent begleitet und die Vorauflagen kritisch gesichtet hat, sondern intensiv an den neu aufgenommenen Texten mitgearbeitet und das Fallbeispiel aufbereitet hat. Ohne ihre gründliche Redaktion läge dieser Band heute nicht in Ihren Händen. Erfurt, im Februar 2017 Patrick Rössler Wie dieses Buch zu lesen ist Dieses Buch will seinen Lesern die Forschungspraxis der Inhaltsanalyse näher bringen. Um auch komplexere Inhalte übersichtlich und anschaulich darzustellen, werden folgende lerndidaktische Features verwendet: . Kurze Inhaltsangaben verschaffen einen schnellen Überblick über das jeweilige Kapitel. . Als inhaltlicher Leitfaden sind Schlagwörter im Volltext herausgehoben. . Schlüsselbegriffe zur Orientierung finden sich in der Marginalspalte am Rand des Volltextes. . Den inhaltsanalytischen Prozess begleitet ein praxisbezogenes Fallbeispiel - so kann der Leser direkt nachvollziehen, wie sich die theoretischen Überlegungen praktisch anwenden lassen. . Speziell ausgewiesene Merksätze, Definitionen und Zitate erleichtern den Lernprozess. . Beispiele, Tabellen und Abbildungen veranschaulichen die abstrakten Sachverhalte. . Weiterführende Literatur wird sowohl im Volltext als auch im Anhang zur Vertiefung empfohlen. . Wichtige Fachbegriffe erklärt ein Glossar am Ende des Buches. . Jedes Kapitels endet mit Übungsaufgaben zur Selbstüberprüfung. 12 V O R W O R T <?page no="12"?> Wozu quantitative, standardisierte Inhaltsanalysen? Inhalt 1.1 Vorbemerkungen 1.2 Was die Inhaltsanalyse ist - und was nicht 1.3 Definitionen der Inhaltsanalyse und wichtige Begriffe Dieses Kapitel begründet den Nutzen, den die Inhaltsanalyse von massenmedialen Erzeugnissen für die Kommunikationswissenschaft und andere Disziplinen besitzt. Es veranschaulicht die wesentlichen Kennzeichen der Inhaltsanalyse anhand einiger unterschiedlicher Definitionen, die in der Forschungsliteratur bereits entwickelt wurden. Vorbemerkungen Die scheinbar endlose Informationsflut im World Wide Web taugt heute nicht einmal mehr zum Allgemeinplatz. Selbst wenn man ein biblisches Alter erreichen und seine Zeit mit nichts anderem verbringen würde als YouTube zu schauen - man würde kaum die Menge an Videos sehen, die an einem beliebigen Tag neu hochgeladen werden. Und damit nicht genug: In einem durchschnittlichen deutschen Kabelnetz sind derzeit gut 30 Fernsehsender zu empfangen, via Satellit noch einige mehr. Fast alle dieser Sender strahlen rund um die Uhr ein ständig wechselndes, sich erneuerndes Angebot aus - macht etwa 9.000 Stunden jährlich und bei 30 Sendern über eine Viertelmillion Stunden Programmleistung. Da jeder oder jede Deutsche statistisch im Schnitt etwa drei Stunden täglich fernsieht, kann jeder von uns aber nur Promilleanteile des TV-Angebots wahrnehmen. Ähnlich verhält es sich auch mit anderen Medien: 135 so genannte Publizistische Einheiten produzieren Tageszeitungen mit einer verkauften Auflage von über 20 Millionen Exemplaren täglich. Es gibt jedoch keinen Kiosk und keinen Großhändler, der uns für ein bestimmtes 1 1.1 allgegenwärtige Medieninhalte 13 V O R B E M E R K U N G E N V O R B E M E R K U N G E N <?page no="13"?> Datum alle verschiedenen Tageszeitungen lückenlos liefern könnte. Selbst wenn wir uns einen vollständigen Überblick über die Berichterstattung verschaffen wollten - wir könnten es nur unter großen Mühen. Rechnet man die mehreren Tausend Publikums- und Fachzeitschriften hinzu, die hier zu Lande existieren, und vergisst auch die über einhundert öffentlich-rechtlichen oder privaten Hörfunksender nicht, dann scheint der mediale »Druck« in unserer Gesellschaft ins schier Unermessliche zu wachsen. Und doch finden alle diese Medien unter den 80 Millionen Bundesbürgern ihr Publikum. Nur: Mit welchen Botschaften dieses Publikum konfrontiert wird, lässt sich angesichts der immensen Medienvielfalt kaum mehr abschätzen. Zwar ist nichts so überholt wie die Tageszeitung von gestern, und vieles, was der Rundfunk ausstrahlt, »versendet sich« ohne größere Resonanz, wie es der Intendant eines Fernsehsenders einmal formulierte. Trotzdem gibt es gute Gründe, diese Inhalte zumindest ausschnittsweise systematisch zu erfassen und zu untersuchen - hier einige Beispiele: 1. In der Politik wird davon ausgegangen, dass Darstellungen in den Massenmedien einen großen Einfluss auf die Entscheidungsfindung haben können, etwa wenn es um Wahlen geht. Daher besteht regelmäßig Interesse an Informationen über die wichtigen Themen in der Berichterstattung, über die Bewertung von Parteien oder über das Image von Politikern in verschiedenen Medien. 2. Auch in der Wirtschaft gilt Medienpräsenz als ein Machtfaktor, der über den Marktwert von Unternehmen ebenso entscheiden kann wie über den Absatz von Produkten. Daneben kann das frühzeitige Erkennen von neuen Trends oder von Themen, über die demnächst öffentliche Diskussionen einsetzen werden, das Produktbzw. Kommunikationsmanagement deutlich optimieren. 3. Im Bereich des Rechts ist der Mediensektor durch eine ganze Reihe von Gesetzen und Abkommen geordnet. Der Umfang an Werbung, der im Fernsehen ausgestrahlt werden darf, ist reguliert, und der Jugendschutz verhindert die Veröffentlichung von pornografischen oder gewaltverherrlichenden Inhalten in den Medien. Die Einhaltung dieser Richtlinien muss von einer Reihe unterschiedlicher Institutionen (z. B. den Landesmedienanstalten) regelmäßig überprüft werden. 4. Die Wissenschaft interessiert sich für die gesellschaftlichen Folgen, die verschiedene Arten von Medieninhalten hervorrufen können. Am populärsten sind sicherlich die immer wieder geäußerten Vermutungen, die Häufung von Gewaltdarstellungen im Fernseh- und Videoangebot würde die Gewaltbereitschaft gerade unter Jugendlichen erhöhen. Diese und vergleichbare Annahmen fußen in der Regel auf Gründe für Medieninhaltsanalysen 14 1 W O Z U Q U A N T I T A T I V E I N H A L T S A N A L Y S E N ? <?page no="14"?> der Beobachtung bestimmter inhaltlicher Tendenzen im Fernsehangebot, die freilich erst systematisch nachzuweisen wären. Um solche Fragestellungen angemessen bearbeiten zu können und zuverlässige Erkenntnisse zu erhalten, die über eine persönliche Medienbeobachtung hinausgehen, wurde die systematische, standardisierte Inhaltsanalyse entwickelt. Als Ausgangspunkt wird hierfür immer wieder eine berühmte Rede des großen Sozialwissenschaftlers Max Weber vor dem deutschen Soziologentag 1910 genannt - obwohl es bereits zuvor entsprechende Studien gab und die Methode daraufhin, insbesondere in den USA, erst verfeinert und perfektioniert wurde. Zitat Max Weber (1910) »Wir werden nun, deutlich gesprochen, ganz banausisch anzufangen haben damit, zu messen, mit der Schere und dem Zirkel, wie sich der Inhalt der Zeitung verschoben hat [. . .] zwischen dem, was überhaupt an Nachrichten gebracht wird und was heute nicht mehr gebracht wird.« Literatur: Max Weber (1911): Geschäftsbericht, in: Verhandlungen des ersten Deutschen Soziologentages, Frankfurt. Tübingen: Mohr. Weiteren Aufwind für die Methode bescherten die Propagandaforschung im Zweiten Weltkrieg, die weltweite Verbreitung der Sozialwissenschaften empirischer Prägung und zuletzt die (eingangs schon beschriebene) Vervielfachung der Medieninhalte. Heute erfreut sich die standardisierte Medieninhaltsanalyse auch in Deutschland - als einzige originär kommunikationswissenschaftliche Methode - einer enormen Beliebtheit, wie zahlreiche Projekte, Diplom- und Magisterarbeiten zeigen. Für viele Probleme besteht Bedarf an Medieninhaltsanalysen, und deswegen wurde auch dieses Buch geschrieben: Auf den folgenden Seiten erfahren die Leserin und der Leser Schritt für Schritt, wie die Methode bei entsprechenden Fragestellungen sinnvoll angewendet werden kann. Es folgen zunächst einige Definitionen und begriffliche Grundlagen, dann ein Überblick über wichtige Anwendungen (Kapitel 2) und den grundsätzlichen Ablauf des Forschungsprozesses (Kapitel 3). Die Überlegungen bei der Anlage von empirischen Arbeiten verdeutlichen Kapitel 4 bis 7, bevor im zentralen Teil (Kapitel 8 bis 12) die Ausarbeitung und Anwendung der inhaltsanalytischen Instrumente beschrieben wird. Nach einigen Ausführungen zu ethischen Problemen (Kapitel 13) werden abschließend noch unterschiedliche Typen von Medieninhaltsanalysen beispielhaft vorgestellt (Kapitel 14) und die Bedeutung der Aufbau des Buchs 15 V O R B E M E R K U N G E N <?page no="15"?> Inhaltsanalyse für die Kommunikationswissenschaft anhand mehrerer Forschungsansätze verdeutlicht (Kapitel 15). Durch die stärker anwendungsbezogenen Kapitel 3 bis 13 begleitet die Leser das Fallbeispiel einer tatsächlich durchgeführten Inhaltsanalyse. Hier werden die zunächst allgemeiner gehaltenen Überlegungen und Erläuterungen unmittelbar in die Forschungspraxis umgesetzt. Was die Inhaltsanalyse ist - und was nicht Zunächst ist allgemein zu klären, was wir uns überhaupt unter einer Inhaltsanalyse vorzustellen haben, und was wir im weiteren Verlauf dieses Buches speziell meinen, wenn wir von einer Inhaltsanalyse sprechen. Hierzu betrachten wir zunächst vier verschiedene Arten von medialen Botschaften (siehe Abb. 1.1). Abb. 1.1 Beispielhafte Medienbotschaften Quellen: Frankfurter Rundschau vom 24.2.2005: 1 & 2; J.-C. Forest (1970), Barbarella: 35; Paul Cellan (1971), Schneepart: 49 1.2 16 1 W O Z U Q U A N T I T A T I V E I N H A L T S A N A L Y S E N ? <?page no="16"?> So verschieden diese Botschaften sind, so gut kann man an ihnen das Wesen der Inhaltsanalyse im Vergleich zu anderen textanalytischen Methoden (beispielsweise der Hermeneutik) erläutern. Betrachten wir zunächst die Zeitungsmeldung: Eine durchaus übliche Herangehensweise an diese Botschaft wäre, zu fragen, ob das berichtete Geschehen tatsächlich wahrheitsgetreu dargestellt wurde, oder ihren Satzbau auf Verständlichkeit zu untersuchen. Gedichte werden in der Regel interpretiert, ihre Aussage gedeutet, die Wortwahl und Rhythmus nach ästhetischen Kriterien bewertet. Comic und Pressefoto könnten auf ihre künstlerische Qualität abgeprüft werden, die Originalität des Zeichenstils oder den Blickwinkel des Fotografen. Allen diesen Zugängen ist eines gemeinsam: Sie gehen überwiegend werkimmanent vor, d. h., im Mittelpunkt der Überlegungen stehen einzelne Botschaften (das könnten jenseits der hier gewählten Beispiele selbstverständlich auch Fernsehbeiträge, Kinofilme oder Websites sein), die aus sich heraus gedeutet und auf dieser Grundlage erst zu übergreifenden Sachverhalten in Beziehung gesetzt werden. Die Medieninhaltsanalyse verfährt grundsätzlich anders: Sie betrachtet in der Regel eine große Zahl von Botschaften vergleichbarer Natur (z. B. alle Artikel in S P I E G E L ONLINE zum Thema Kernenergie), die sie auf darin auffindbare Muster und Tendenzen (z. B. Pro- oder Kontra-Argumente) hin durchsucht. Ihr Resultat speist sie nicht aus der individuellen Interpretation einer einzelnen medialen Botschaft, wie oben beschrieben, sondern aus der systematischen Analyse zahlreicher medialer Botschaften. Damit ist ihre Zielsetzung eine vollkommen andere: Es geht nicht darum, ein möglichst umfassendes und tief gehendes Verständnis des jeweiligen medialen Objekts zu erreichen. Vielmehr werden aus der Vielfalt der Objekte die wesentlichen Tendenzen herausdestilliert und so allgemeine oder verallgemeinerbare Aussagen ermöglicht - auch um den Preis, dass man jedem einzelnen Objekt nicht zur Gänze gerecht werden kann. Dieser Gegensatz zieht sich durch viele der Methoden in der empirischen Sozialforschung und wird gerne als Unterschied zwischen »quantitativer« und »qualitativer« Vorgehensweise bezeichnet. Richtiger wäre es jedoch, von »standardisierten« und »nicht standardisierten« Methoden zu sprechen. Literatur Bei der Inhaltsanalyse geht es um eine Abstraktion von einzelnen medialen Objekten, wobei das Objekt auf die an ihm interessierenden Merkmale reduziert wird. In der Forschungspraxis bedeutet dies eine Kombination aus qualitativen Urteilen über Botschaften, die quantitativ Wesen der Inhaltsanalyse Kennzeichen der Medieninhaltsanalyse 17 W A S D I E I N H A L T S A N A L Y S E I S T - U N D W A S N I C H T <?page no="17"?> verdichtet und ausgewertet werden. Bei weiter gehendem Interesse an solch grundsätzlichen Überlegungen zur Wissenschaftstheorie sei auf die vertiefenden Quellen im kommentierten Literaturverzeichnis verwiesen (vgl. hierzu z. B. Diekmann 2009: 18 - 173, Merten 1995: 60 - 94; Früh 2015: 29 ff.). Unbedingt festzuhalten ist, dass es den quantitativen bzw. standardisierten Methoden besonders um die Reduktion von Komplexität geht: Die unüberschaubare soziale Wirklichkeit, die uns umgibt (im vorliegenden Fall die Medienberichterstattung), wird auf ihre zentralen Strukturen reduziert, um die Muster sichtbar zu machen, die »hinter den Dingen« stehen. Diesen Mustern wird eine größere Bedeutung zugeschrieben als dem einzelnen Fall. Merksatz Die Medieninhaltsanalyse reduziert die Komplexität der Berichterstattung, indem sie deren zentrale Muster herausarbeitet. Im eingangs erwähnten Presseartikel könnten beispielsweise ein Thema oder die genannten Akteure festgehalten werden, um über viele Artikel hinweg die Themenstruktur zu einem bestimmten Zeitpunkt zu ermitteln. Oder man könnte in der Comic-Zeichnung die visuelle Darstellung der Heldin anhand ihrer Kleidung erfassen, um aufgrund der Analyse vieler solcher Geschichten etwas über die Frauenrolle in Comics der sechziger Jahre zu erfahren. Damit sollte auch der grundsätzliche Unterschied in der Vorgehensweise beider Zugänge deutlich geworden sein: Die standardisierte Medieninhaltsanalyse definiert vor der Untersuchung ihres Materials eine Reihe von bedeutsamen Kriterien, anhand derer sie ihr Material untersucht, während interpretative Verfahren ihre Aussage erst aus dem Material heraus entwickeln. Dieses Lehrbuch befasst sich im Folgenden nur mit der standardisierten Variante der Medieninhaltsanalyse, die als Methode in der sozialwissenschaftlich orientierten Kommunikationsforschung bevorzugt eingesetzt wird. Während einige andere Lehrbücher die Inhaltsanalyse im Allgemeinen behandeln, konzentrieren wir uns in der Darstellung auf ein bestimmtes, für unser Fach besonders bedeutsames Anwendungsgebiet, nämlich die Medieninhaltsanalyse. Unter Medien werden dabei in erster Linie die klassischen Massenmedien wie Fernsehen, Zeitungen und Zeitschriften systematische Erkenntnisse durch Standardisierung 18 1 W O Z U Q U A N T I T A T I V E I N H A L T S A N A L Y S E N ? <?page no="18"?> oder der Hörfunk verstanden - und darüber hinaus natürlich die über das World Wide Web und seine Dienste verbreiteten Botschaften, auch wenn es sich dabei nicht immer um journalistische Berichterstattung im traditionellen Sinne handelt. Inhalte sind meist Beiträge, Filme, gesprochene oder gedruckte Texte und Bilder. Zu deren Analyse erläutern wir die in der Forschung gebräuchlichsten Erhebungsformen, die wir Verfahren nennen wollen (eine ausführlichere Liste möglicher Verfahren kann bei Merten 1995: S. 119 - 279 nachgelesen werden). Schließlich sei erwähnt, dass auch auf einen Typ Inhaltsanalyse näher eingegangen wird, der im Zuge der Digitalisierung von Printmedien an Popularität gewonnen hat: Die automatisierte bzw. computergestützte Inhaltsanalyse (vgl. Kap. 11), bei der große Textmengen durch eine spezielle Software analysiert werden, eignet sich aber nur für einen bestimmten Typ von Fragestellungen und hauptsächlich für Textmedien. Neuerdings gewinnt sie im Kontext von »Big Data«, der massenhaften Durchleuchtung beispielsweise von Twitter-Botschaften oder Webseiten, zusätzlich an Bedeutung (vgl. Kap. 11.2). Definitionen der Inhaltsanalyse und wichtige Begriffe Die Methode wird generell in eine qualitative und eine quantitative Inhaltsanalyse unterschieden (s. Abb. 1.2). Qualitative Inhaltsanalysen berücksichtigen bei der Codierung die Individualität der einzelnen Texte. Quantitative Inhaltsanalysen rücken dagegen vor allem Umfänge, Verteilungen und Häufigkeiten von Wörtern und Satzstrukturen in den Vordergrund. Früh (2015) führt erstmals den Begriff der integrativen Inhaltsanalyse ein. Diese soll nicht nur explizit formulierte Aussagen erfassen, wie es die quantitative Inhaltsanalyse strenggenommen tut, sondern auch Aussagen, die »anhand evidenter Indizien interpretiert bzw. erschlossen werden können« (Früh 2015: 70). Voraussetzung für eine integrative Inhaltsanalyse sind demnach Codierer/ innen mit einem guten Allgemeinwissen. Das Prinzip der integrativen Inhaltsanalyse ist aber nicht neu. In der Vergangenheit wurde bei quantitativen Inhaltsanalysen oft integrativ vorgegangen und dies nicht als eigenständige Art der Inhaltsanalyse ausgewiesen. Verschiedene Forscher haben Vorschläge zur Definition der Inhaltsanalyse gemacht, von denen drei im Folgenden näher betrachtet werden. Keine dieser Definitionen ist »richtig« oder »falsch«, aber wenn man ihre verschiedenen Elemente gegenüberstellt, erkennt man deutlich die wichtigsten Wesensmerkmale der Methode (und lernt nebenbei auch 1.3 19 D E F I N I T I O N E N D E R I N H A L T S A N A L Y S E U N D W I C H T I G E B E G R I F F E <?page no="19"?> die einschlägigen Begriffe kennen, die im weiteren Verlauf verwendet werden). Definition Inhaltsanalyse nach Berelson (1952: 18) »Content analysis is a research technique for the objective, systematic and quantitative description of the manifest content of communication.« Die klassische Definition des amerikanischen Forschers Bernard Berelson stammt aus den fünfziger Jahren und beschreibt die Inhaltsanalyse zunächst noch als reine Forschungstechnik (research technique). Seither hat sich allerdings nicht nur ein beträchtliches Repertoire unterschiedlicher inhaltsanalytischer Verfahren ausdifferenziert, auch die erkenntnistheoretische Begründung der Inhaltsanalyse war Gegenstand der wissenschaftlichen Auseinandersetzung. Deshalb bezweifelt heute niemand mehr, dass die Inhaltsanalyse die bloße verfahrenstechnische Ebene verlassen und den Status einer eigenständigen Methode erreicht hat. Auch zwei weitere der genannten Eigenschaften sind unumstritten: Erstens geht die Inhaltsanalyse, wie schon eingangs ausgeführt, prinzipiell quantitativ vor. Das heißt, es muss eine Messung der interessierenden Merkmale erfolgen. Dafür gelten natürlich die ganz grundsätzlichen sozialwissenschaftlichen Überlegungen (z. B. dass den interessierenden Ausprägungen eines Merkmals numerische Entsprechungen zugewiesen werden müssen). Auf einen Aspekt sei jedoch schon jetzt hingewiesen, da er sich in inhaltsanalytischen Studien oft als problematisch erweist: Messung bedeutet hier meist bloß eine simple Zuordnung - man klassifiziert beispielsweise den Gegenstand eines Artikels anhand einer Abb. 1.2 Mögliche Unterscheidung der inhaltsanalytischen Verfahren Inhaltsanalyse quantitative Inhaltsanalyse integrative Inhaltsanalyse qualitative Inhaltsanalyse quantitative Messung 20 1 W O Z U Q U A N T I T A T I V E I N H A L T S A N A L Y S E N ? <?page no="20"?> Liste von Themen, oder ordnet eine Aussage einer bestimmten Quelle zu (Nominaldefinitionen). Die daraus resultierenden Daten unterliegen bei der späteren Auswertung allerdings aus Sicht der Statistik einigen Einschränkungen. Die Befunde sind eben oft deskriptiv - mit anderen Worten: Man erfährt viel darüber, wie häufig bestimmte Ausprägungen eines Merkmals in der Berichterstattung vorkommen, aber der große Erkenntnisgewinn einer Inhaltsanalyse ergibt sich dann weniger aus aufwändigen statistischen Berechnungen, sondern aus der intelligenten Anlage der gesamten Studie. Wie dies bereits bei der Ausarbeitung der Fragestellung berücksichtigt werden sollte, wird in Kapitel 2.2 erläutert. Merksatz Die inhaltsanalytische Messung erbringt häufig nur Daten von einfacher Qualität, die später überwiegend deskriptiv ausgewertet werden. Zweitens, und damit sind wir wieder bei der Definition von Berelson, geht die Inhaltsanalyse grundsätzlich systematisch vor. Ein Ausschnitt aus der sozialen Realität wird nach definierten Regeln gemessen, und diese Regeln müssen vom Forscher vorab im Untersuchungsinstrument festgelegt werden. Die genaue Vorgehensweise hierbei wird in den Kapiteln 7 bis 9 noch ausführlich besprochen. Fachbegriffe Das Regelwerk, ein so genanntes Codebuch, ist Kernstück jeder inhaltsanalytischen Studie. Die Personen, die dieses Codebuch anwenden, sind folgerichtig die Codierer, und der Prozess wird als Codierung (oder auch Verschlüsselung) bezeichnet. Das Ergebnis der Codierung sind Codes - dies bedeutet, den Informationen, die für die Fragestellung interessant sind, werden Zahlenwerte zugeordnet, die anschließend statistisch ausgewertet werden können. Die Codes werden auf Codebögen festgehalten, die vom Codierer ausgefüllt werden. Die formalen und inhaltlichen Kriterien, die an das Untersuchungsmaterial angelegt werden, nennt man Kategorien, und die für eine Kategorie vorgesehenen Codes sind ihre Ausprägungen. Der gesamte Satz von verwendeten Kriterien bildet schließlich das Kategoriensystem. Damit haben wir eine ganze Reihe wesentlicher Begriffe kennen gelernt, die für das Verständnis der Methode (und damit auch dieses Buches) 21 D E F I N I T I O N E N D E R I N H A L T S A N A L Y S E U N D W I C H T I G E B E G R I F F E <?page no="21"?> grundlegend sind. Wir empfehlen unseren Lesern deswegen, sich mit diesen Begriffen - Codebuch, Codierer, Codierung, Codes, Codebogen, Kategorien, Ausprägungen, Kategoriensystem - anhand des obigen Abschnitts gut vertraut zu machen, denn sie werden von nun an vorausgesetzt. An dieser Stelle kann es auch hilfreich sein, schon einmal in den digitalen Anhang dieses Buches hineinzusehen, in dem beispielhaft ein komplettes Instrument abgedruckt ist. Besondere Bedeutung für die Inhaltsanalyse besitzt sicherlich das Codebuch, denn dort sind alle wesentlichen Angaben festgehalten, die die Codierer zur Durchführung der Inhaltsanalyse benötigen (vgl. Kap. 6): Hier finden wir also . Aussagen über das Material, das untersucht werden soll; . Hinweise zur Behandlung dieses Materials und zum Ablauf der Codierung; . das Kategoriensystem als Definition der Kriterien, die an dieses Material anzulegen sind; . Beispiele für Verschlüsselungen in den einzelnen Kategorien. Drei weitere Elemente der Definition von Berelson - die objektive Beschreibung manifester Inhalte - wurden von anderen Forschern später nicht ohne Weiteres geteilt, weshalb wir uns nun einer neueren deutschen Definition aus dem Lehrbuch von Werner Früh (2015) zuwenden. Definition Inhaltsanalyse nach Früh (2015: 29) »Die Inhaltsanalyse ist eine empirische Methode zur systematischen, intersubjektiv nachvollziehbaren Beschreibung inhaltlicher und formaler Merkmale von Mitteilungen.« Diese Definition benennt also die Inhaltsanalyse als eigenständige Methode, der Begriff »empirisch« verweist auf die oben ausgeführte Messebene, die natürlich wieder systematisch gestaltet sein muss. Allerdings fällt auf, dass an die Stelle der ursprünglichen Forderung nach Objektivität eine intersubjektiv nachvollziehbare Beschreibung gerückt ist. Dies berücksichtigt die eher philosophische Erkenntnis, dass »Objektivität« im Sinne einer vom jeweiligen Beobachter unabhängigen, stets gleichartig ausfallenden Wahrnehmung nicht erreichbar ist: Zwei Menschen, die sich zur selben Zeit am selben Ort befinden, werden niemals dieselben Eindrücke aufnehmen, sondern die Wirklichkeit immer leicht unterschiedlich erfahren (man denke etwa an die sich oft widersprechenden Zeugenaussagen vor Gericht, obwohl die Leute dasselbe gesehen haben). Codebuch objektiv versus intersubjektiv nachvollziehbar 22 1 W O Z U Q U A N T I T A T I V E I N H A L T S A N A L Y S E N ? <?page no="22"?> Wissenschaftlich anzustreben ist hingegen eine Beobachtung, die über das einzelne Individuum hinaus - also »intersubjektiv« - anhand genauer Regeln zu ähnlichen Wahrnehmungen gelangt. Oder konkreter formuliert: Unterschiedliche Forscher bzw. Codierer sollten bei der Anwendung desselben Instruments auf dasselbe Material zu denselben Ergebnissen kommen. Eine zentrale Rolle spielt dabei natürlich das Codebuch als systematisches Regelwerk; es muss hinreichend eindeutig und bestimmt in seinen Vorgaben sein, sodass die Resultate der Inhaltsanalyse jederzeit reproduzierbar sind. Von Vorteil ist dabei sicherlich, dass sich Medieninhalte als Untersuchungsmaterial (wenn in der Literatur zuweilen im linguistischen Sinn nur von »Texten« die Rede ist, so sind damit meist auch andere mediale Formen wie Bilder, Filme, Töne usw. gemeint) für gewöhnlich nicht verändern. Auch bei mehrfacher Anwendung der Inhaltsanalyse bleibt ein Zeitungsartikel derselbe Artikel, ein Blog-Text derselbe Text und ein Nachrichtenbeitrag derselbe Beitrag - sie sind hinsichtlich der Methode nonreaktiv. Dies unterscheidet die Inhaltsanalyse beispielsweise von der Befragung, denn es wurde schon oft festgestellt, dass Umfrageteilnehmer ihre Ansichten durch die Befragung verändern und bei wiederholten Befragungen nicht immer dieselben Antworten geben, weil sie auf die Befragung reagiert oder dazugelernt haben. Auf diese Reaktivität stoßen wir bei der Inhaltsanalyse freilich an ganz anderer Stelle: Hier wird vom Codierer verlangt, eine Klassifizierung der vorgelegten Botschaften vorzunehmen. Dieser Vorgang kann ganz wesentlich von der Persönlichkeit des Codierers abhängen, insbesondere von seinen Vorkenntnissen bezüglich des Themas, das untersucht wird, aber auch von seinem politischen Interesse oder sogar von seiner momentanen Laune. Im Interesse der eben ausgeführten Reproduzierbarkeit sind diese persönlichen Freiheitsgrade des Codierers natürlich möglichst stark einzuschränken, etwa durch ausführliche Definitionen der Kategorien, Beispielcodierungen im Codebuch oder durch eine intensive Codiererschulung, die die Codierer auf einen ähnlichen Wissensstand bringt (vgl. Kap. 10.1). Nur so könnte bei einer wiederholten Anwendung tatsächlich die gewünschte Reproduzierbarkeit erreicht werden. Andererseits sind die Vorerfahrungen des Codierers ein wichtiges Element im Codierprozess - sonst könnte man ja gleich einen Computer mit der Verschlüsselung beauftragen. Menschen sind in der Lage, die ungeheuer vielfältigen Ausdrucksformen in (Medien-)Botschaften aufgrund ihres sprachlichen und lebensweltlichen Erfahrungsschatzes deutlich sinnvoller und effektiver auf bestimmte Kategorien zurückzuführen. Jeder geschulte Codierer wird beispielsweise die Botschaft »Neue CD: Madonna auf der Überholspur« sofort als Aussage zur Karriere eines Reaktivität 23 D E F I N I T I O N E N D E R I N H A L T S A N A L Y S E U N D W I C H T I G E B E G R I F F E <?page no="23"?> Popstars interpretieren und sie weder als Statement zum Verkehrswesen noch zur Kirchengeschichte auffassen. Die Vielfalt dieses impliziten Wissens der Menschen exakt zu definieren, könnte kein Codebuch leisten. Es geht bei der inhaltsanalytischen Vorgehensweise also auch darum, einerseits die Regeln im Codebuch eindeutig festzulegen, und andererseits das individuelle Wissen der Codierer durch die Kontrolle und Steuerung ihrer Interpretationen fruchtbar zu nutzen (integrative Inhaltsanalyse, s. o.). Merksatz Die Systematik der inhaltsanalytischen Instrumente soll die intersubjektive Nachvollziehbarkeit der Erhebung sichern und nutzt hierzu die Lebenserfahrung der Codierer. Damit sind wir bereits bei einem Aspekt der Definition von Berelson angelangt, zu dem sich Früh überhaupt nicht äußert: der Beschränkung auf manifeste Inhalte der Botschaft. Dies meinte ursprünglich, die Inhaltsanalyse solle sich auf jene Inhalte beschränken, die tatsächlich »schwarz auf weiß« dastehen, um mehrdeutige Inhalte (zugunsten einer höheren »Objektivität«) auszuschließen. Damit würden freilich nicht nur wesentliche und besonders interessante Medienbotschaften von der Inhaltsanalyse ausgenommen (z. B. latente Merkmale, wie Bewertungen oder Ironie) - tatsächlich handelt es sich hier auch um ein graduelles Phänomen: Selbst ein noch so manifester Inhalt muss vom Codierer als solcher erkannt werden; ob eindeutig oder nicht ist damit keine Sache der Botschaft, sondern des Beobachters, der sie deutet. Zu Recht wurde deswegen auf das unbefriedigende Ergebnis dieser lange geführten Diskussion um manifeste oder latente Inhalte hingewiesen (z. B. bei Früh 2015: 107 ff.), die uns schließlich zu der Definition von Merten führt. Definition Inhaltsanalyse nach Merten (1995: 15) »Inhaltsanalyse ist eine Methode zur Erhebung sozialer Wirklichkeit, bei der von Merkmalen eines manifesten Textes auf Merkmale eines nichtmanifesten Kontextes geschlossen wird.« Bedeutsam ist hier einerseits, dass diese Definition genau die eben getroffene Unterscheidung berücksichtigt. Manifest sind die zu untersuchenden »Texte« selbst, denn sie liegen in einer fixierten, unveränderlichen manifeste versus latente Inhalte 24 1 W O Z U Q U A N T I T A T I V E I N H A L T S A N A L Y S E N ? <?page no="24"?> Form vor. Nicht manifest sind hingegen alle Kontexte, auf die sie bezogen werden. Hier versucht die standardisierte Medieninhaltsanalyse, durch ihr sorgfältig definiertes Regelwerk die Schlussfolgerungen des Codierers nachvollziehbar zu gestalten. Andererseits klammert diese Definition zwangsläufig die Möglichkeit einer reinen Beschreibung als Gegenstand der Inhaltsanalyse aus: Die Inhaltsanalyse beruht nach dieser Lesart immer auf Schlussfolgerungen, die aufgrund des Ausgangsmaterials getroffen werden. So pauschal ist dies zwar nicht aufrechtzuerhalten, aber tatsächlich sind es genau diese Rückschlüsse, die bei der Inhaltsanalyse das »Salz in der Suppe« ausmachen, und weniger die reine Beschreibung des Materials - eine Einsicht, die das nächste Kapitel weiter vertieft. Übungsfragen 1 Ist die folgende Aussage richtig? Die standardisierte Medieninhaltsanalyse verfährt vorwiegend werkimmanent. Einzelne Botschaften stehen im Mittelpunkt der Überlegungen, welche aus sich heraus gedeutet und mit einem externen Bezugssystem in Verbindung gesetzt werden. 2 Was stimmt? Das Ziel der quantitativen Inhaltsanalyse ist, . . . a) zentrale Muster aus einer Vielzahl von Objekten herauszuarbeiten. b) allgemeine bzw. verallgemeinerbare Aussagen zu ermöglichen. c) eine Reduktion der Komplexität zu leisten. 3 Welche Aussage ist falsch? a) Die an das Untersuchungsmaterial angelegten formalen und inhaltlichen Kriterien nennt man Kategoriensystem. b) Die Ausprägungen der verschiedenen Kategorien bilden das Kategoriensystem. c) Der Kriterienkatalog mit den verschiedenen Ausprägungen der Kategorien, welche im Codebuch festgehalten werden, nennt man Kategoriensystem. 4 Was bedeutet intersubjektive Nachvollziehbarkeit? a) Eine vom jeweiligen Beobachter unabhängige und stets gleichbleibende Wahrnehmung. b) Eine über den jeweiligen Beobachter hinausgehende, ähnliche Wahrnehmung vieler Beobachter. c) Das Erreichen der gleichen Ergebnisse bei der Anwendung desselben Instruments auf das gleiche Material von verschiedenen Personen. 25 D E F I N I T I O N E N D E R I N H A L T S A N A L Y S E U N D W I C H T I G E B E G R I F F E <?page no="26"?> Typische Fragestellungen: Deskription und Inferenz Inhalt 2.1 Ziel: Beschreibung der Berichterstattung 2.2 Ziel: Inferenzschlüsse auf die soziale Wirklichkeit Dieses Kapitel verdeutlicht zwei grundsätzliche Zielsetzungen, die dem Erkenntnisinteresse von Medieninhaltsanalysen zugrunde liegen können: zum einen die Beschreibung der medialen Berichterstattung im engeren Sinne anhand vorab definierter Kriterien; und zum anderen darüber hinausgehend die Schlussfolgerungen hinsichtlich Journalisten, Rezipienten oder der gesellschaftlichen Verhältnisse insgesamt. Ziel: Beschreibung der Berichterstattung Der klassische, stark vereinfachte Prozess der Massenkommunikation geht davon aus, dass typischerweise eine Art »Kommunikator« - das sind in der Regel Journalisten und Journalistinnen oder Medienschaffende in Fernsehsendern, Zeitungsredaktionen und anderen Medienorganisationen - Botschaften an das Publikum, also die Rezipienten des betreffenden Angebots, übermittelt. Auch die vielen Menschen, die sich seit einiger Zeit über das Internet mitteilen - Blogger, YouTuber, Twitterer, Kommentatoren - kann man in diesem Sinne als »Kommunikatoren« verstehen. Natürlich wäre dieser Prozess deutlich differenzierter zu modellieren, wollte man damit die zahlreichen Vorgänge im Prozess der Massenkommunikation abbilden. Für unsere Zwecke reicht dieses simple Schema (siehe Abb. 2.1) jedoch vollkommen aus, um ein erstes Erkenntnisziel der Inhaltsanalyse zu verdeutlichen. Denn durch die Codierung werden die übermittelten Botschaften anhand allgemeiner Kriterien beschrieben. Wie in Kapitel 1.3 schon erläutert, können so aus vorab definierten Merkmalen der Medienberichterstattung Daten gewonnen werden. Die zu ziehenden Schlussfolgerungen beschränken sich hier auf die Codierung und werden vollständig vom Codierer vorgenommen. Setzt 2 2.1 Erkenntnisziele der Inhaltsanalyse 27 Z I E L : B E S C H R E I B U N G D E R B E R I C H T E R S T A T T U N G Z I E L : B E S C H R E I B U N G D E R B E R I C H T E R S T A T T U N G <?page no="27"?> man die so gewonnenen Daten nicht explizit zu weiter gehenden Sachverhalten in Beziehung, so ergibt sich auf der Ebene von Beschreibungen eine Darstellung der Botschaften selbst, etwa der Berichterstattung von Z E IT ONLINE . Das ist jedoch nur dann sinnvoll, wenn sich die Fragestellung, die der Inhaltsanalyse zugrunde liegt, ebenfalls bloß auf die Ebene der Berichterstattung bezieht. Dies ist aus wissenschaftlicher Sicht zwar eher die Ausnahme als die Regel und die erzielten Ergebnisse scheinen oft banal, aber es gibt dennoch eine Reihe von zweckmäßigen Anwendungen in der Forschung, die wir nun etwas genauer betrachten: 1. der Vergleich unterschiedlicher medialer Quellen; 2. die Analyse von Veränderungen in der Berichterstattung im Zeitverlauf; 3. die Analyse medialer Diskurse. Die Vielfalt im globalen Medienmarkt bedingt, dass eine große Zahl von Medienangeboten um die Aufmerksamkeit der Zuschauer konkurriert. In manchen Fällen kann es deswegen bereits ein hinreichendes Forschungsinteresse sein, zwei oder mehr mediale Quellen inhaltsanalytisch miteinander zu vergleichen, um Gemeinsamkeiten und Unterschiede zwischen diesen aufzuzeigen (siehe auch unser Fallbeispiel, das in Kapitel 3 einsetzt). Im Ergebnis können dann beispielsweise differierende Angebotsprofile, die wechselseitig als Referenzmaßstab dienen, verdeutlicht werden; für eine sinnvolle Interpretation werden dann aber meist doch noch weitere Kontextmerkmale herangezogen (z. B. die Organisationsform oder die finanzielle Ausstattung der jeweiligen Anbieter). Beispiel Quellenvergleiche In der öffentlichen Diskussion - beispielsweise um die Höhe der Fernsehgebühren - wird oft gefragt, ob sich die Programme von öffentlichrechtlichen und privaten Fernsehsendern tatsächlich stark genug unterscheiden, um eine unterschiedliche Behandlung durch den Gesetzgeber Abb. 2.1 Vereinfachte Beschreibung der Kommunikation via Medien Botschaft Kommunikator Rezipient (Codierer) Daten Quellenvergleich Analyse der Botschaften im Zeitverlauf Analyse medialer Diskurse Quellenvergleich 28 2 T Y P I S C H E F R A G E S T E L L U N G E N <?page no="28"?> zu rechtfertigen. Durch eine Inhaltsanalyse der Programme lassen sich die entsprechenden Anteilswerte gegenüberstellen: Hier zeigt sich, dass der Informationsanteil bei ARD und ZDF deutlich höher ausfällt und private Sender ihren Schwerpunkt auf die fiktionale Unterhaltung legen. Literatur: Krüger, Udo Michael (2016): Profile deutscher Fernsehprogramme - Tendenzen der Angebotsentwicklung. Programmanalyse 2015. In: Media Perspektiven, Heft 3, 166 - 185. Eine zweite Möglichkeit, auf der Beschreibungsebene von Botschaften eine interessante Differenzierung zu erreichen, kann darin bestehen, Entwicklungen im Zeitverlauf nachzuzeichnen. An anderer Stelle wurde bereits auf die dynamische Natur der Berichterstattung hingewiesen: In einem kontinuierlichen Prozess erzeugt sie ständig neue Inhalte, und aufgrund ihres manifesten Charakters können diese auch zu späteren Zeitpunkten noch untersucht werden. Dies ist einer der Vorzüge der Inhaltsanalyse gegenüber anderen sozialwissenschaftlichen Methoden wie beispielsweise der Befragung. Denn die findet in einer bestimmten Gegenwart statt, Fragen über die Vergangenheit ergeben nicht immer zutreffende Befunde. Dagegen liegen archivierte Medieninhalte auf Dauer vor und können zeitunabhängig untersucht werden. Allerdings muss hier ein möglicher Bedeutungswandel berücksichtigt werden, den bestimmte Dinge im Lauf der Zeit erfahren haben. So ist etwa eine Gameshow der 90er-Jahre nicht unbedingt mit einer aus den 70er-Jahren (wie »Am laufenden Band«) vergleichbar. Aber selbstverständlich lassen sich Quellenvergleiche und Zeitablauf-Studien auch miteinander kombinieren, wie unser Beispiel illustrieren soll. Beispiel Zeitverlauf Das Thema Nachhaltigkeit hat in den letzten Jahren zunehmend an Bedeutung gewonnen. So hat sich in der Werbebranche die sogenannte »grüne« Werbung durchgesetzt, zu der jede Ware zählt, die dem Verbraucher - direkt oder indirekt - die Botschaft vermittelt, er sei am Erhalt der Umwelt beteiligt. Eine Langzeitstudie untersuchte Anzeigen mit »grüner« Werbung von 1993 bis 2009 in zwei deutschen und zwei britischen Nachrichtenmagazinen. Es zeigte sich, dass der Anteil an »grüner« Werbung von 10 auf 20 % gestiegen ist. Unterschiede zeigten sich im Ländervergleich: Der Anteil an der Gesamtwerbung belief sich in Großbritannien auf 11,5 %, während in Deutschland nur 7,4 % der Werbung »grün« war. Zeitverlauf 29 Z I E L : B E S C H R E I B U N G D E R B E R I C H T E R S T A T T U N G <?page no="29"?> Literatur: Schmidt, Adriane/ Donsbach, Wolfgang (2012): »Grüne« Werbung als Instrument für »schwarze« Zahlen. Eine Inhaltsanalyse ökologischer Anzeigen aus deutschen und britischen Zeitschriften 1993 bis 2009. In: Publizistik, Heft 57(1), 75-93. Als dritte, zentral auf die Beschreibung der Botschaften selbst bezogene Untersuchungsstrategie kann die Charakterisierung der medialen Diskurse zu einem bestimmten Thema betrachtet werden. In den veröffentlichten Medienberichten zu wichtigen gesellschaftlichen Themen kommen unterschiedliche Standpunkte zum Tragen und verschiedene Akteure zu Wort, es wird eine Vielzahl von Argumenten ausgetauscht. Auf Basis einer Inhaltsanalyse kann die Struktur dieser Diskurse nachgezeichnet werden (mediales »Framing«). Damit erhält man Aufschluss darüber, wie die untersuchten Massenmedien den betreffenden Gegenstand aufgearbeitet haben, möglicherweise lassen sich Defizite in der Berichterstattung oder bestimmte Schwerpunkte ausmachen. Auch ein Vergleich mit abstrakten und konkreten Normen (z. B. Jugendschutzregelungen, Werbezeitbeschränkungen, Empfehlungen von Ernährungsberatern, Gleichstellung der Geschlechter usw.) als Referenzmaßstab kann ein legitimes Erkenntnisinteresse sein. Beispiel Mediale Diskurse Die Berichterstattung der deutschen Medien über Terrorismus, Kriminalität und Katastrophen wurde per Inhaltsanalyse in Bezug auf den Stellenwert, den Gegenstand, den Ort, die Zeit und den Akteur untersucht. Dafür wurden 12.000 Beiträge von 13 Medienangeboten aus Fernsehen, Internet und Presse in einem Zeitraum von 18 Monaten untersucht. Die Ergebnisse zeigten, dass die Medienrealität unter thematischen, medialen und zeitlichen Gesichtspunkten facettenreich und nicht zu pauschalisieren ist. Literatur: Henn, Philipp/ Vowe, Gerhard (2015): Facetten von Sicherheit und Unsicherheit. Welches Bild von Terrorismus, Kriminalität und Katastrophen zeigen die Medien? In: Medien & Kommunikationswissenschaft, 63(3), 341 - 382. Wie das Beispiel zeigt, ist natürlich auch eine Kombination mit den zuvor genannten Strategien möglich, wenn die Diskurse in unterschiedlichen Medien und/ oder im Zeitverlauf nachgezeichnet werden. Allermediale Diskurse kombinierte Vorgehensweise 30 2 T Y P I S C H E F R A G E S T E L L U N G E N <?page no="30"?> dings haben die zuletzt genannten Anwendungen verdeutlicht, dass gerade dann, wenn es um Diskurse geht, die Trennlinie zwischen Beschreibung einerseits und kontextbasierter Schlussfolgerung andererseits nicht leicht zu ziehen ist. Mediale Diskurse beziehen sich in aller Regel auf gesellschaftliche Zusammenhänge im weitesten Sinne, weshalb es in der konkreten Anwendung immer schwer fallen wird, beides voneinander zu trennen, d. h., die gefundenen Diskurse nicht auf den jeweiligen sozialen Hintergrund zu beziehen. Aus diesem Grund wenden wir uns im folgenden Abschnitt ausführlicher den Inhaltsanalysen zu, die Schlussfolgerungen auf weitergehende Kontexte beabsichtigen. Merksatz Beschreibende Medieninhaltsanalysen ohne weitergehende Kontextualisierung sind im wissenschaftlichen Bereich nur in Ausnahmefällen sinnvoll, werden aber in der angewandten Kommunikationsforschung Gewinn bringend eingesetzt (z. B. Medienresonanz von PR-Maßnahmen). Zuvor soll jedoch ein wichtiges Anwendungsfeld eher beschreibender Inhaltsanalysen erwähnt werden, das weniger in der wissenschaftlichen als in der angewandten Kommunikationsforschung beheimatet ist: In der PR-Branche sind so genannte Medienresonanzanalysen weit verbreitet, bei denen mithilfe von kommerziellen Medienbeobachtungsdiensten nachgeprüft wird, welche Wirkung eine ausgesandte Pressemitteilung oder ein Medienevent erzielt hat. Wichtigster Indikator hierfür ist die Anzahl von Abdrucken in Zeitungen und Zeitschriften offline wie online oder die Zahl von Erwähnungen in Funkmedien. Dies ist in seiner simpelsten Form freilich eher eine Sammlung von Artikeln nach einem bestimmten Aufgreifkriterium und weniger eine Inhaltsanalyse im eigentlichen Sinn. Ziel: Inferenzschlüsse auf die soziale Wirklichkeit Gerade Medieninhaltsanalysen mit einem wissenschaftlichen Erkenntnisinteresse bleiben meist nicht auf der beschreibenden Ebene stehen, sondern ziehen aus der untersuchten Medienberichterstattung weiter gehende Schlussfolgerungen (auch: Inferenzen). Diese Inferenzen sind dann gesellschaftliche Konstruktionen von Wirklichkeit; dabei ist der Realitätsausschnitt, auf den geschlossen werden soll, explizit zu benennen, weil nur so die Analyse auf die tatsächlich bedeutsamen Merkmale Medienresonanzanalyse 2.2 31 Z I E L : I N F E R E N Z S C H L Ü S S E A U F D I E S O Z I A L E W I R K L I C H K E I T <?page no="31"?> konzentriert werden kann. Welche Kontexte nun genau von Bedeutung sind, kann pauschal nicht gesagt werden, sondern hängt von dem untersuchten Problemkreis ab. Als wichtigste Kontexte für Inferenzschlüsse gelten (siehe Abb. 2.2): 1. der Kommunikator, 2. der Rezipient, 3. die historische, politische oder soziale Situation. Am nahe liegendsten erscheint sicherlich der Versuch, aus der Berichterstattung auf den Urheber der betreffenden Botschaften zu schließen. Nicht zuletzt ist der Kommunikator für die veröffentlichten Mitteilungen unmittelbar verantwortlich, es kann ihm in seinen Handlungen also eine gewisse Absicht unterstellt werden. Dieser Inferenzschluss wird auch als diagnostischer Ansatz bezeichnet. Umgekehrt erscheint es dann nur legitim, das Ergebnis seiner Handlungen - die Medieninhalte - als Hinweise auf seine Kommunikationsabsichten zu interpretieren. So zeigt beispielsweise die Analyse von überregionalen Tageszeitungen regelmäßig, dass sich die Blätter in einem politischen Links-Rechts-Spektrum durchaus unterschiedlich positionieren; von der eher links orientierten F RANK FURTE R R UN DS C HAU über die S ÜDD EUT S CHE Z E ITUNG , rechts von der Mitte die F RANKFURTE R A L LG EME IN E Z E ITUNG bis hin zur rechts-konservativen D I E W E LT . Andere Studien verknüpfen die publizierte Berichterstattung mit dem vermuteten Rollenverständnis der Journalisten - geht es eher um eine möglichst sachliche und ausgewogene Informationsvermittlung? Oder spricht aus den Beiträgen darüber hinaus ein investigatives Interesse, das auf die Enthüllung von Missständen oder Skandalen abzielt? Abb. 2.2 Inferenzschlüsse aufgrund der Medienberichterstattung Botschaft Kommunikator Rezipient historische, soziale, politische Situation (Codierer) Kontexte für Inferenzschlüsse Rückschluss auf Kommunikator 32 2 T Y P I S C H E F R A G E S T E L L U N G E N <?page no="32"?> Beispiel Diagnostischer Ansatz: Nachrichtenwerte Ein bedeutsamer Zweig der Kommunikatorforschung befasst sich mit der Frage, nach welchen Kriterien Journalisten Mitteilungen (z. B. von Nachrichtenagenturen) für die Berichterstattung auswählen und andere zurückweisen. Durch eine Inhaltsanalyse von veröffentlichten Beiträgen wurden so genannte »Nachrichtenfaktoren« ermittelt (z. B. Aktualität, räumliche Nähe, Prominenz der Akteure usw.). Dies sind Merkmale, die den berichteten Sachverhalten vom Forscher zugeschrieben werden. Je mehr dieser Faktoren auf einen Sachverhalt zutreffen, umso höher ist sein Nachrichtenwert und mithin die Wahrscheinlichkeit, für die Berichterstattung ausgewählt zu werden. Zu Recht wird eingewendet, dass man eigentlich eine Input-Output-Analyse durchführen müsste, in der man das in der Redaktion verfügbare Ausgangsmaterial den tatsächlich ausgewählten Meldungen gegenüberstellt. Allein aus den Veröffentlichungen auf die Selektionskriterien der Journalisten zu schließen, greift hier zu kurz (vgl. auch Kap. 15.2). Literatur: Staab, Joachim F. (1990): Nachrichtenwert-Theorie. Formale Struktur und empirischer Gehalt. Freiburg/ München: Alber. Die Problematik dieser Vorgehensweise liegt auf der Hand: Schließt man nur aufgrund der Veröffentlichungen auf die Entscheidungskriterien der Kommunikatoren rück, werden eine ganze Reihe von Einflüssen nicht berücksichtigt: Die Nachrichtengebung wird auch durch äußere Zwänge (z. B. Termindruck, Platzmangel), die Verfügbarkeit von Informationen, die Meinungsbildung in der Redaktion und manchmal sogar durch Zufälle geprägt. Um diesen Phänomenen auf die Spur zu kommen, müsste man entweder die Journalisten befragen oder ihr Verhalten in der Redaktion beobachten. Dennoch dürfte die Inferenz auf den Kommunikator noch zuverlässiger sein als die beiden anderen Typen von Rückschlüssen - besonders dann, wenn sie sich auf das Medium (bzw. seine Redaktionen) insgesamt bezieht, statt über Motive und Verhalten individueller Journalisten zu spekulieren. Zum Zweiten kann auf Basis der analysierten Medieninhalte auch auf Merkmale der Rezipienten geschlossen werden, für die die Botschaften produziert werden, dies wird auch als prognostischer Ansatz bezeichnet. Einflüsse auf deren Wahrnehmungen sind zu erwarten, direkte Wirkungen auf Einstellungen oder Verhalten der Menschen hingegen weniger. Dennoch findet man in der öffentlichen Diskussion immer wieder entsprechende Vermutungen - etwa wenn aus einer hohen Zahl von Gewalt- Rückschluss auf Rezipienten 33 Z I E L : I N F E R E N Z S C H L Ü S S E A U F D I E S O Z I A L E W I R K L I C H K E I T <?page no="33"?> taten im Fernsehprogramm kurzschlussartig abgeleitet wird, jugendliche Zuschauer würden davon selbst gewalttätig. In diesem Fall mag der Bruch in der Argumentation offenkundig sein, aber nur allzu oft betrachten wissenschaftliche oder feuilletonistische Beobachtungen von Medieninhalten eine Wirkung quasi als gegeben, obgleich nur die Medienseite betrachtet wurde. Beispiel Prognostischer Ansatz: Suizidberichterstattung Die Annahme, dass ein kausaler Zusammenhang zwischen einer ausführlichen Suizidberichterstattung der Medien über prominente Selbstmorde und einer erhöhten Suizidrate in der Bevölkerung besteht, wird »Werther- Effekt« genannt. Eine inhaltsanalytische Studie untersuchte, ob die deutsche Presse den Empfehlungen zur Suizidberichterstattung in ihren Artikeln zum Tod von Robert Enke folgt, und stellte fest, dass deutsche Printmedien viele der Empfehlungen nicht hinreichend beachteten und es gleichzeitig zu einer massiven Zunahme der Suizide kam. Auffällig war dabei, dass Selbstmörder verstärkt ähnliche Methoden wählten. Literatur: Schäfer, Markus/ Quiring, Oliver (2013): Gibt es Hinweise auf einen »Enke-Effekt«? Die Presseberichterstattung über den Suizid von Robert Enke und die Entwicklung der Suizidzahlen in Deutschland. In: Publizistik, Heft 58(2), 141 - 160. Das Beispiel verdeutlicht die grundsätzliche Problematik von Schlussfolgerungen auf das Publikum: Während bei den Kommunikatoren zumindest davon ausgegangen werden kann, dass die untersuchten Medieninhalte absichtsvoll während ihrer Berufsausübung entstanden sind, liegen Effekte auf die Rezipienten weithin im Dunkeln. Die Inhaltsanalyse ist nicht in der Lage, Aufschlüsse darüber zu liefern, ob die von ihr untersuchten Medienangebote tatsächlich genutzt werden, und wie ihr Publikum dabei auf sie reagiert. Hierfür sind zusätzliche Datenerhebungen erforderlich, die auf die Inhaltsanalyse abgestimmt sind. Wie dies konkret erfolgen kann, zeigen Kapitel 15.3 und 15.5. Wesentlich leichter hat es die Kommunikationsforschung hingegen bei Schlussfolgerungen zur historischen, politischen und sozialen Situation, die auf Medienberichten beruhen. Hier wird davon ausgegangen, dass der Berichterstattung gültige Indizien für die gesellschaftliche Realität zu entnehmen sind. Zumindest für demokratische Staaten westlicher Prägung sollte diese Annahme gerechtfertigt sein: Hier ist eine wahrhaftige, ausgewogene und umfassende Darstellung Teil des Selbstverständnisses Rückschluss auf Situation 34 2 T Y P I S C H E F R A G E S T E L L U N G E N <?page no="34"?> von Journalisten. Eine wesentliche Funktion des Mediensystems in der Demokratie ist, der Bevölkerung die Grundlagen für eine wohlüberlegte Willensbildung bereitzustellen und die Vielfalt der bestehenden Meinungen widerzuspiegeln. Vor diesem Hintergrund sollte man davon ausgehen können, dass der Berichterstattung auch Aufschlüsse über die gesellschaftliche Wirklichkeit entnommen werden können. Beispiel Situative Inferenz Die Versuche, mit dem EU-Verfassungsvertrag 2005 und dem Lissabon- Vertrag 2008 die europäische Integration zu stärken, wurden in verschiedenen Ländern unterschiedlich aufgefasst. Die durchgeführte Inhaltsanalyse zeigte, dass in allen untersuchten Nationen (Frankreich, Deutschland, Italien, Großbritannien und Polen) eine europäische Identität gebildet wurde. Allerdings wurde in Deutschland und Italien stärker auf die Demokratisierung der Gemeinschaft geschaut, in Frankreich dagegen eher auf die Formen der politischen Verfasstheit der EU. Literatur: Lichtenstein, Dennis/ Eilders, Christiane (2015): Konstruktion europäischer Identität in den medialen Debatten zur EU-Verfassung. Ein inhaltsanalytischer Vergleich von fünf EU-Staaten. In: Publizistik, Heft 60(3), 277 - 303. Allerdings sollte man auch in diesem Fall die Medienberichte nicht unbesehen als zutreffende Beschreibungen der Realität akzeptieren, und selbst ein Abgleich mit den verbreiteten Meldungen der Nachrichtenagenturen, erweitert nur das Spektrum medialer Wirklichkeitsentwürfe. Alle Medien handeln schließlich nach ihrer eigenen Logik - die Nachrichtenfaktoren aus dem obigen Beispiel illustrieren dies. Zuweilen sind Medien sogar als Akteure in das Geschehen verwickelt, dann ist natürlich keine unabhängige Berichterstattung zu erwarten. Außerdem sind manche Sachverhalte schlicht zu komplex, als dass sie in den Formaten der aktuellen Medien dargestellt werden könnten. Weitere Einschränkungen sind denkbar, weshalb Inhaltsanalysen, die Rückschlüsse auf die soziale Situation beabsichtigen, möglichst viele unterschiedliche Medien erfassen sollten. Merksatz Inferenzschlüsse auf Kommunikator, Publikum oder die soziale Situation verleihen der Medieninhaltsanalyse besondere Aussagekraft; die jeweilige Kontextualisierung kann aus ihren Ergebnissen jedoch nicht immer zwingend abgeleitet werden und bedarf deswegen häufig ergänzender Datenerhebungen. 35 Z I E L : I N F E R E N Z S C H L Ü S S E A U F D I E S O Z I A L E W I R K L I C H K E I T <?page no="35"?> Im ersten Kapitel wurde aufgezeigt, dass die Medieninhaltsanalyse typischerweise Daten auf einfachem Datenniveau erzeugt, was der statistischen Auswertung gewisse Grenzen setzt. Dieses Kapitel unterbreitete unterschiedliche Vorschläge, wie trotz dieser Einschränkungen doch noch eine beachtliche Analysetiefe erreicht werden kann. Durch geschickt angelegte Vergleiche, in denen die Vergleichsmerkmale als verursachende Faktoren für Unterschiede betrachtet werden, oder gut begründete Inferenzschlüsse kann die Inhaltsanalyse erheblich zum Erkenntnisfortschritt beitragen. Erst der sinnvolle Vergleich führt zur Erkenntnis, nicht die reine Auflistung von Zahlenkolonnen - dies wäre das Geschäft eines Buchhalters, nicht das eines Wissenschaftlers! Die methodische Konzeption einer Inhaltsanalyse, mit der sich das nun folgende Kapitel beschäftigt, muss solche Möglichkeiten für Referenzen und/ oder Inferenzen von vornherein berücksichtigen. Auch sollte bereits an dieser Stelle darüber nachgedacht werden, ob es zur Absicherung der Inferenzschlüsse nötig ist, eine die Inhaltsanalyse ergänzende Erhebung durchzuführen, um über die reine Plausibilität der Schlussfolgerungen hinaus noch eine größere Beweiskraft der Befunde zu erzielen. Übungsfragen 1 Was ist richtig? Die Vorteile der quantitativen Inhaltsanalyse im Vergleich zu anderen sozialwissenschaftlichen Methoden sind: a) die weit gehende Nonreaktivität des Untersuchungsmaterials bezüglich der Methode. b) die Möglichkeit der zeitunabhängigen Untersuchung archivierter Inhalte. c) die Möglichkeit, gesellschaftlichen Bedeutungswandel außer Acht lassen zu können. 2 Um weitergehende Schlussfolgerungen aus der untersuchten Medienberichterstattung ziehen zu können, ist es erforderlich, den für die Fragestellung relevanten Realitätsausschnitt explizit zu benennen. Eine Vielzahl von Kontexten ist hier denkbar, jedoch gelten drei verschiedene Kontexte für Inferenzschlüsse als die wichtigsten. Um welche handelt es sich? 3 Ist die folgende Aussage richtig? Der Medieninhaltsanalyse wird durch Inferenzschlüsse besondere Aussagekraft verliehen. Die Kontextualisierung bedarf in der Regel jedoch zusätzlicher Datenerhebungen, da sie nicht immer aus den Ergebnissen der Medieninhaltsanalyse abgeleitet werden kann. Erkenntnisfortschritt durch Analysetiefe 36 2 T Y P I S C H E F R A G E S T E L L U N G E N <?page no="36"?> Der Forschungsprozess: Vom Erkenntnisinteresse zum Verwertungszusammenhang Inhalt 3.1 Die einzelnen Schritte der Medieninhaltsanalyse im Überblick 3.2 Das Kernproblem: Definition der Einheiten 3.3 Der Forschungsprozess im Zeitablauf Dieses Kapitel gibt einen Überblick über die verschiedenen Arbeitsschritte, die bei der Konzeption einer Inhaltsanalyse zu absolvieren sind - von der theoretischen Fundierung über die Entwicklung des Forschungsinstruments bis zur eigentlichen Durchführung der empirischen Arbeiten. Von besonderer Bedeutung ist dabei die Festlegung der verschiedenen Einheiten, die inhaltsanalytisch untersucht werden sollen. Eine Reihe von Leitfragen fasst dieses Kapitel zusammen, bevor in das Fallbeispiel einer konkreten Inhaltsanalyse (Politische Kommunikation in Online- und Offline-Medien) eingeführt wird. Dieses wird in den nachfolgenden Kapiteln weiter verfolgt, um die Umsetzung der einzelnen Arbeitsschritte zu verdeutlichen. Die einzelnen Schritte der Medieninhaltsanalyse im Überblick Die Durchführung einer Inhaltsanalyse kann ein durchaus langwieriges Unterfangen sein. Von der ersten Formulierung des Erkenntnisinteresses (Welche Fragestellung will ich untersuchen? ) bis zum Druck des Forschungsberichts sind eine ganze Reihe von Arbeitsschritten zu durchlaufen. Die zusammenfassende Übersicht (siehe Abb. 3.1) erweitert eine Darstellung von Früh (2015: 98), der die Inhaltsanalyse als Methodik in den allgemeinen sozialwissenschaftlichen Forschungsprozess einbettet. Am Beginn jedes Forschungsvorhabens steht ein Erkenntnisinteresse. Dies kann sich aus vielerlei Quellen speisen: Während es in der akademischen Forschung oft um die Überprüfung von Theorien oder 3 3.1 Übersicht: Forschungsprozess 37 D I E E I N Z E L N E N S C H R I T T E D E R M E D I E N I N H A L T S A N A L Y S E D I E E I N Z E L N E N S C H R I T T E D E R M E D I E N I N H A L T S A N A L Y S E <?page no="37"?> wissenschaftlichen Annahmen geht, liegt den Anwendungen in der Marktforschung meist ein konkretes Kommunikationsproblem in einer bestimmten Situation zugrunde: Wie wird mein Produkt in den Medien dargestellt? Dazwischen ist eine große Zahl von Mischformen zu beobachten, bei denen theoretische Fragen anhand aktueller Ereignisse untersucht werden (z. B. die Darstellung von Migranten in den Medien nach den fremdenfeindlichen Anschlägen auf Flüchtlinge) oder praktische Probleme auf Basis wissenschaftlicher Erkenntnisse gelöst werden (z. B. der Imagewandel eines politischen Kandidaten in den Medien). Abb. 3.1 Die Inhaltsanalyse im sozialwissenschaftlichen Forschungsprozess (in Anlehnung an Früh 2015: 98) METHODENWAHL (Inhaltsanalyse) Erkenntnisinteresse Fundierung durch Theorie Forschungsstand Definition zentraler Begriffe Hypothesenbildung Problemstellung Projektplanung: Geld, Zeit, Codierer Untersuchungsmaterial Codiererschulung Probecodierung Definition der Analyseeinheiten Kategorienbildung Codebuch Codierung Auswertungsphase: Datenerfassung & -aufbereitung; statistische Analyse Darstellung der Ergebnisse Interpretation, Inferenz Publikationen Forschungsbericht Planungsphase Entwicklungsphase Testphase Anwendungsphase Erkenntnisinteresse 38 3 D E R F O R S C H U N G S P R O Z E S S <?page no="38"?> In jedem Fall ist das Erkenntnisinteresse - der so genannte Entdeckungszusammenhang - vorab explizit zu formulieren, denn er liefert den inhaltlichen Rahmen für alle weiteren Entscheidungen, die innerhalb der Inhaltsanalyse getroffen werden müssen. Weitere Schritte, die daraufhin im Begründungszusammenhang folgen, sind: 1. die Fundierung der Fragestellung durch geeignete Theorie(n), 2. die Darstellung des bisherigen Forschungsstandes, 3. die Definition der zentralen Konstrukte und Begriffe, 4. die Hypothesenbildung. Hierbei handelt es sich um die klassische Vorgehensweise in der empirischen Sozialforschung, die in eigenen Büchern ausführlicher dargestellt ist (vgl. z. B. Brosius et al. 2016: 42 ff.) und hier nur anhand des Fallbeispiels am Ende des Kapitels etwas verdeutlicht werden kann. Eigentlich kann erst am Ende dieser Schritte die Entscheidung über die Methodenwahl gefällt werden: Zielen meine Hypothesen eher auf die Erklärung menschlichen Verhaltens oder Einstellungen ab, wähle ich als Methode eine Befragung oder Beobachtung; werden die oben beschriebenen Inferenzschlüsse aus der Medienberichterstattung angestrebt, führe ich eine Inhaltsanalyse durch. Diese Reihenfolge sollte unbedingt eingehalten werden, selbst wenn sich bereits bei der Formulierung der Fragestellung eine bestimmte methodische Vorgehensweise anbietet. Auch die Arbeitshypothesen ergeben sich später meist aus einer Kombination des theoretisch Wünschenswerten und des empirisch Machbaren. Merksatz Vor der Konzeption der eigentlichen Inhaltsanalyse müssen das Forschungsinteresse und die zu untersuchenden Hypothesen formuliert werden; Theorien und bereits vorliegende Forschungsergebnisse sind dabei zu berücksichtigen. Ist die Entscheidung für die Inhaltsanalyse als Methode der Wahl gefallen, so beginnt der eigentliche empirische Teil der Forschung. Auch hier sind in einer ersten Planungsphase die Rahmenbedingungen der Untersuchung näher abzustecken: Welches ist die Problemstellung der Inhaltsanalyse, und zwar mit Blick auf die zu untersuchenden Hypothesen? Muss sie noch mit weiteren Datenerhebungen zu einer Methodenkombination verknüpft werden, um die Hypothesen zu überprüfen (vgl. Kap. 13)? Die Planungsphase schließt mit einer detaillierten Projektplanung ab, die die verfügbaren Ressourcen (Geld, Zeit, Codierer) in eine vernünftige Relation zum angestrebten Erkenntnisfortschritt setzt. Die Entdeckungs- und Begründungszusammenhang Planungsphase 39 D I E E I N Z E L N E N S C H R I T T E D E R M E D I E N I N H A L T S A N A L Y S E <?page no="39"?> wesentlichen Elemente dieser Ablaufplanung eines Projekts werden im dritten Abschnitt dieses Kapitels näher erläutert. Von besonderer Bedeutung ist hierbei die Entscheidung, welches Material überhaupt untersucht werden soll (vgl. Kap. 4). In der anschließenden Entwicklungsphase wird das Instrumentarium ausgearbeitet. Erste und bedeutsamste Festlegung ist hier die Definition der Analyseeinheiten, die als ganz elementare Bezugsgrößen für die Codierung den Aussagegehalt der gesamten Studie bestimmen. Deswegen wird sie im folgenden Abschnitt zunächst allgemeiner, in Kap. 5 dann ausführlich für unterschiedliche Medientypen erläutert. Erst daraufhin kann der Forscher in die Kategorienbildung eintreten. Dabei werden die theoretischen Konstrukte, die zur Beantwortung der Forschungsfrage gemessen werden müssen, durch operationale Definitionen in Kategorien überführt, das Messniveau anhand der vorgesehenen Ausprägungen bestimmt und allgemein die Codierregeln festgelegt (vgl. genauer die Kap. 6 bis 9). Hierin liegt der hauptsächliche Aufwand bei der Erstellung des Instruments, und bis ein zufrieden stellendes Kategoriensystem vorliegt, sind meist zahlreiche Korrekturdurchläufe erforderlich. Die Vorgehensweise ist dabei sowohl theorieals auch empiriegeleitet; das heißt, Kategorien und ihre Definitionen werden sowohl aufgrund der Hypothesen und der früheren Forschung als auch nach einer ersten Sichtung des Untersuchungsmaterials entwickelt. Das so entstandene Instrumentarium wird danach in der Testphase erstmals durch eine Codierung unter Realbedingungen erprobt. Hierfür ist eine ausführliche Codiererschulung nötig, in der auch erste Informationen über die Güte der Codierung eingeholt werden (vgl. Kap. 10 und 11). Die Erfahrungen aus der Probecodierung fließen in ein verbessertes Instrument ein, das später in der tatsächlichen Anwendungsphase für das gesamte Untersuchungsmaterial eingesetzt wird. Damit ist der Erhebungsprozess abgeschlossen und es beginnt die Auswertungsphase: Die gesammelten Daten werden erfasst und für die Analyse aufbereitet, die in der Regel durch spezielle Statistikprogramme (z. B. SPSS) erfolgt. Hierzu müssen die Daten nochmals bereinigt werden, d. h. eventuelle Fehlcodierungen sind zu korrigieren, unvollständige Datensätze auszusondern und Schreibfehler bei der Dateneingabe zu beseitigen. Der Begründungszusammenhang gipfelt schließlich in der Darstellung der Ergebnisse der Studie. Hier sind zunächst die eigentlichen Befunde der Erhebung zu präsentieren, die das Untersuchungsmaterial meist deskriptiv beschreiben (s. o.). Die Interpretation dieser Befunde bezieht dann die gewünschten Inferenzschlüsse mit ein. Sie teilt die Ergebnisse der Hypothesenprüfungen mit und leitet daraus Aussagen zur ursprünglichen Forschungsfrage ab; ggf. verwendet sie hierzu auch die Entwicklungsphase Anwendungs- und Auswertungsphase Ergebnisdarstellung 40 3 D E R F O R S C H U N G S P R O Z E S S <?page no="40"?> Erkenntnisse aus ergänzenden Datenerhebungen. Sofern möglich, werden diese Aussagen nochmals in den Kontext des zugrunde liegenden theoretischen Ansatzes gestellt und mit früheren Forschungsergebnissen verglichen. Hierin liegt das Resultat der gesamten Forschungsanstrengung, und im Verwertungszusammenhang ist deswegen darauf zu achten, dass der erzielte Erkenntnisfortschritt auch angemessen der interessierten Fachöffentlichkeit bekannt gemacht wird. Der ausführliche Forschungsbericht (vgl. Kap. 14), der die gesamten Arbeiten dokumentiert (z. B. in Form einer Magisterarbeit oder eines Projektberichts), ist hierfür meist weniger geeignet: Hinter der - aus Gründen der Nachvollziehbarkeit stärker gewichteten - Schilderung methodischer und inhaltlicher Details sind die Kernaussagen oft schwer erkennbar. Deswegen streben Forscher separate Publikationen in Fachzeitschriften oder Büchern an, die die wesentlichen Erkenntnisse pointiert und verständlich darstellen, aber für weitergehende Detailbefunde auf den Forschungsbericht verweisen. Merksatz Publikationen sind ein wesentlicher Verwertungszweck auch von Medieninhaltsanalysen, denn nur so lässt sich der erzielte Erkenntnisfortschritt für andere Forscher dokumentieren, um in zukünftige Forschung wieder einzufließen. Das Kernproblem: Definition der Einheiten Der umfangreiche, scheinbar endlose Strom der Medienberichterstattung wird erst dann einer Beschreibung zugänglich, wenn wir ihn in sinnvolle Teile - die so genannten Einheiten - zerlegen. Eine wichtige Aufgabe innerhalb der eben beschriebenen Entwicklungsphase einer Inhaltsanalyse ist die Festlegung dieser Einheiten. Sie bestimmt nicht nur, welche Ausschnitte aus der Berichterstattung interessieren, sondern auch die Codierlogik und die Inhalte, die überhaupt erfasst werden - und letztlich sogar die Aussagekraft der Ergebnisse. Aus diesem Grund widmen sich die nächsten beiden Kapitel 4 und 5 speziell dieser Thematik, die uns darüber hinaus auch im weiteren Verlauf der Kategorienbildung beschäftigen wird. An dieser Stelle folgt zuvor jedoch eine allgemeine Darstellung der unterschiedlichen Typen von Einheiten, ihrer jeweiligen Funktion und Definition. Verwertungszusammenhang 3.2 Zerlegung in Einheiten 41 D A S K E R N P R O B L E M : D E F I N I T I O N D E R E I N H E I T E N <?page no="41"?> Merksatz Die Festlegung von Einheiten besitzt eine grundsätzliche Bedeutung für jede Medieninhaltsanalyse und ist deswegen mit besonderer Sorgfalt durchzuführen. Problematisch ist hierbei, dass in der deutschsprachigen wie internationalen Forschung verschiedene Begriffe üblich geworden sind, die sich zwar auf meist ähnliche Typen von Einheiten beziehen, diese aber unterschiedlich benennen. Unsere Darstellung versucht, den überwiegenden Sprachgebrauch zugrunde zu legen und verwendet die angegebenen Bezeichnungen auch im weiteren Verlauf dieses Buches. Man muss allerdings immer damit rechnen, dass andere Autoren für dieselben Aspekte andere Begriffe verwenden. Grundsätzlich sind vier Typen von Einheiten zu unterscheiden: 1. die Auswahleinheit (sampling unit), 2. die Analyseeinheit (recording unit), 3. die Codiereinheit (content unit), 4. die Kontexteinheit (context unit). Die Auswahleinheit beinhaltet die physisch vorliegenden Materialien, die aus dem gesamten Spektrum verfügbaren Medienmaterials für die Untersuchung ausgewählt werden. Dies könnten etwa alle Ausgaben der S ÜDD EUTS CH EN Z E ITUNG des Jahres 2015 sein, die Nachrichtensendungen der ARD in einem bestimmten Zeitraum oder die Homepages von Politikern an einem bestimmten Stichdatum. Statistisch gesprochen handelt es sich um die gezogene Stichprobe aus der Grundgesamtheit der Medienberichterstattung. Diese kann durch ein Zufallsverfahren zustande kommen (z. B. jede zehnte Ausgabe einer Tageszeitung), beruht bei Inhaltsanalysen aber häufiger auf einer bewussten Auswahl (»alle Artikel über Kernkraft«) und einer anschließenden Vollerhebung (vgl. Kap. 4). Die Definition der Auswahleinheit ergibt sich normalerweise aus der gewählten Fragestellung, denn das analysierte Material muss natürlich geeignet sein, diese Frage zu beantworten. Ein wesentlicher Aspekt ist dabei, ob nur Material eines Medientyps (z. B. Tageszeitung) oder mehrerer Typen (z. B. Tageszeitung und Fernsehnachrichten) berücksichtigt werden soll, weil Letzteres den Aufwand erheblich erhöht. Beides gilt für die Entscheidung, ob Onlineund/ oder Offline-Ausgaben eines Mediums zu untersuchen ist. Typen von Einheiten Auswahleinheit 42 3 D E R F O R S C H U N G S P R O Z E S S <?page no="42"?> Merksatz Die Auswahleinheit legt systematisch fest, welches Medienmaterial inhaltsanalytisch zu untersuchen ist. In der Praxis hat die Definition also insbesondere Auswirkungen auf die Projektplanung, denn je umfangreicher und vielfältiger die Auswahleinheit definiert wird, umso größere zeitliche und personelle Ressourcen sind erforderlich, um sie zu bearbeiten. Auch ist zu berücksichtigen, dass physikalisch abgrenzbare Auswahleinheiten (also z. B. über Zeitungsausgaben, Senderkennungen oder URLs) vergleichsweise leicht zu identifizieren und zu beschaffen sind; kommt jedoch ein inhaltliches Kriterium wie etwa »alle Artikel über Kernkraft« hinzu, müssen die Aufgreifkriterien auf der begrifflichen Ebene sehr präzise definiert werden, um nicht wichtige Merkmalsträger unabsichtlich auszuschließen. Oft kann diese Festlegung nur in mehreren Stufen erfolgen (vgl. Kap. 4.1). Die Analyseeinheit sind dann jene Elemente aus dem Untersuchungsmaterial, für die im Rahmen der Codierung jeweils eine Klassifizierung vorgenommen wird. Oft ist dies der einzelne Artikel (z. B. über Kernkraft) in einer Zeitung, ein entsprechender Beitrag in einer Nachrichtensendung oder ein Blog-Eintrag. Sie stellen die Grundlage für alle späteren Auswertungen dar und müssen deswegen mit einem angemessenen Auflösungsgrad definiert werden (vgl. Kap. 5). Je nach zu untersuchendem Sachverhalt kann es auch vorkommen, dass dasselbe Medienmaterial anhand von zwei oder mehr Analyseeinheiten codiert werden muss - z. B. zunächst die Artikel in der Tageszeitung und danach die darin enthaltenen Fotos. Merksatz Die Analyseeinheit ist Grundlage für Codierung und Auswertung, weshalb ein angemessener Auflösungsgrad für jede gewünschte Aussageebene zu wählen ist. Damit strukturiert die Wahl der Analyseeinheit auch den gesamten Codierprozess: Normalerweise wird für jede Analyseeinheit ein eigenes Kategoriensystem gebildet und oft sind auch separate Codierdurchläufe für unterschiedliche Analyseeinheiten erforderlich. Hier gilt wieder: Solange die Analyseeinheiten physikalisch definiert sind (ein Artikel, eine Sendung), fällt dem Codierer die Identifikation ziemlich leicht. Ein Analyseeinheit 43 D A S K E R N P R O B L E M : D E F I N I T I O N D E R E I N H E I T E N <?page no="43"?> Artikel beginnt in der Regel mit einer Überschrift und endet mit dem Autorennamen oder einem dicken Kästchen; eine Fernsehsendung hat einen Vorspann, einen Abspann und eindeutig erkennbare Sequenzen, die sie von der Werbung abtrennen. Müssen Beginn und Ende einer relevanten Analyseeinheit hingegen inhaltlich erschlossen werden (z. B. anhand bestimmter Aussagen oder eines Themas), so sind ausführliche Codiereranweisungen und -schulungen erforderlich, um eine vergleichbare Vorgehensweise der Codierer zu gewährleisten. Die Codiereinheit schließlich ist das einzelne Merkmal, das innerhalb einer Analyseeinheit für die Codierung bedeutsam ist. Anders ausgedrückt: Codiereinheiten beziehen sich auf die jeweils an einem Merkmalsträger interessierenden Aspekte. Sie hängen selbstverständlich von der Fragestellung der Studie ab: Beispielsweise kann derselbe Online- Kommentar über ein Fußball-Länderspiel in der einen Studie wegen des transportierten Rollenbildes interessieren (Codiereinheit: z. B. Verhalten der Sportler), in einer anderen Studie wegen dem vermittelten Nationalgefühl (Codiereinheit: z. B. Kommentierung des Ergebnisses). Die Codiereinheiten finden ihre Entsprechung in den Kategorien, durch die sie gemessen werden. Dabei gilt, dass jede Kategorie möglichst nur eine Codiereinheit ansprechen sollte (vgl. Kap. 6.2), dass aber umgekehrt ein und dieselbe Codiereinheit von unterschiedlichen Kategorien erfasst werden kann, etwa wenn in einem Satz mehrere Aspekte des Themas berührt werden. Merksatz Die Codiereinheit benennt diejenigen Aspekte, die an dem Medienmaterial interessant sind, um die Forschungsfrage zu beantworten und durch die Kategorien adressiert werden. Codiereinheiten lassen sich in formale und inhaltliche Codiereinheiten (und darüber hinaus in weitere Unterformen) einteilen: 1. formale Codiereinheiten: Dies sind jene physikalisch eindeutigen Sachverhalte, die sich durch Messen, Zählen oder Transkribieren erheben lassen und keine Schlussfolgerungen des Codierers erfordern. Beispiele hierfür wären etwa . die Länge eines Beitrags (in Worten, Zeichen oder Sekunden), . sein Umfang (in cm 2 ), . sein Erscheinungs- oder Ausstrahlungsdatum, . seine Platzierung im Medienkontext (am Anfang einer Sendung oder am Ende, auf der Titelseite oder im Innenteil) usw. Codiereinheit 44 3 D E R F O R S C H U N G S P R O Z E S S <?page no="44"?> 2. inhaltliche Codiereinheiten: Dies sind die vom Erkenntnisinteresse abhängigen Bedeutungsdimensionen, zu deren Klassifikation der Codierer Schlussfolgerungen ziehen muss und die deswegen besonders gut definiert sein sollten. Man unterscheidet zwischen . referenziellen Einheiten, die sich auf bestimmte Personen (Akteure), Objekte, Orte oder Ereignisse beziehen; . thematischen Einheiten, die auf abstrakterer Ebene die Zugehörigkeit zu übergreifenden Diskursstrukturen (Themen) festhalten; . propositionalen Einheiten, die sachliche oder wertende Feststellungen über Personen, Tatsachen oder Vorgänge treffen (Argumente, Meinungen, Kommentare). Wie sich formale Codiereinheiten durch entsprechende Kategorien erfassen lassen, beschreibt Kapitel 7, referentielle und thematische Einheiten sind Gegenstand von Kapitel 8 und die Codierung propositionalen Einheiten wird in Kapitel 9 behandelt. Abschließend sei die Kontexteinheit als die vierte bedeutsame Einheit im Rahmen der Inhaltsanalyse erwähnt. Sie stellt ein Hilfskonstrukt dar, das dem Codierer erlaubt, im Zweifelsfall zusätzliche Kontexte heranzuziehen, um zu einer korrekten Codierung der Analyseeinheit zu gelangen. Beispielsweise ist es für die korrekte Erfassung der Aussage: »Sie besuchte anschließend den Soldatenfriedhof in Washington« erforderlich, dass sein weiterer Kontext herangezogen wird - in diesem Fall die Tatsache, dass der Satz in einem Artikel über Bundeskanzlerin Merkels USA-Reise stand. Erst mit der Definition des jeweiligen Artikels als Kontexteinheit ist es möglich, innerhalb der Aussage den Akteur der Handlung (Merkel) korrekt zu identifizieren. Als Kontexteinheit wird deswegen, wenn ein Codebuch unterschiedliche Analyseeinheiten vorsieht, häufig die nächstumfassendere Analyseeinheit definiert, die ein zweifelsfreies Verständnis erlaubt (in unserem Beispiel der Artikel zum Verständnis einer einzelnen Aussage). Merksatz Die Kontexteinheit hilft dem Codierer, den korrekten Zusammenhang der Analyseeinheit zu erfassen, indem sie in Zweifelsfällen den Rückgriff auf einen größeren Berichtskontext erlaubt. Kontexteinheit 45 D A S K E R N P R O B L E M : D E F I N I T I O N D E R E I N H E I T E N <?page no="45"?> Der Forschungsprozess im Zeitablauf Von der ersten Forschungsidee bis zur Abgabe einer Publikation vergeht einige Zeit - empirische Arbeiten im Allgemeinen und besonders Inhaltsanalysen sind ein langwieriges Unterfangen. Die vorangegangenen Abschnitte dieses Kapitels haben die wesentlichen Arbeitsschritte genannt und einige konzeptionell und inhaltlich nötige Entscheidungen verdeutlicht. Doch was heißt dies für die Planung des Forschungsablaufs? Welcher Zeitbedarf ist einzukalkulieren, welcher Personalaufwand vorzusehen? Auf diese Fragen gibt es selbstverständlich keine pauschale Antwort, denn die Rahmenbedingungen ergeben sich erst aus dem Erkenntnisinteresse und den Entscheidungen, die der Forscher auf den verschiedenen Stufen (siehe Abb. 3.1) trifft. Um aber zumindest grobe Anhaltspunkte für den zu erwartenden Aufwand zu erhalten, folgt nun eine Auswahl von Fragen zu wichtigen Aspekten, auf die im Laufe der nächsten Kapitel noch ausführlicher eingegangen wird. Da diese Fragen den gesamten Forschungsprozess betreffen, gehören sie logisch an diese Stelle - auch wenn ihr tieferer Sinn mitunter erst durch die nachfolgenden Kapitel klar wird. Wir empfehlen daher, diesen Fragenkatalog zunächst als »Vorgeschmack« auf die weiteren Ausführungen zu begreifen, und ihn dann konkret anzuwenden, sobald tatsächlich die Planung einer eigenen Inhaltsanalyse ansteht. . Forschungsinteresse: Gibt es einen externen Auftraggeber, der die Arbeiten finanziell fördert oder anderweitig unterstützt? Wenn ja, inwieweit müssen die Interessen des Auftraggebers bei Konzeption, Durchführung und insbesondere bei der Verwertung berücksichtigt werden; sind hierfür z. B. besondere Korrekturumläufe einzuplanen? . Theoretische Fundierung: Gibt es Vorläuferstudien, deren theoretische Einbettung einschlägig ist, oder muss ein theoretischer Rahmen selbst hergeleitet und ausformuliert werden? . Forschungsstand: Wie umfangreich sind die vorhandenen empirischen Ergebnisse zum selben oder einem ähnlichen Thema, die aufgearbeitet werden müssen? Ist die einschlägige Literatur verfügbar oder stehen zeit- und kostenintensive Fernleihen an? 3.3 wichtige Fragen zum Ablauf des Forschungsprozesses 46 3 D E R F O R S C H U N G S P R O Z E S S <?page no="46"?> . Definition zentraler Begriffe (Dimensionen): Ist der Problemkreis durch anerkannte Referenzquellen erschlossen (einschlägige Theorien und Studien, s. o.; außerdem Lexika, Skalenhandbücher usw.)? . Hypothesengerüst: Welche Inferenzschlüsse sind beabsichtigt? Wie viele verschiedene Typen von Datenerhebungen sind erforderlich, um die Hypothesen prüfen zu können? Gibt es Datenbestände, die eine sinnvolle Zweitverwertung verfügbarer Studien ermöglichen und so den eigenen Erhebungsaufwand reduzieren? . Untersuchungsmaterial: Was ist die Grundgesamtheit, über die eine Aussage getroffen werden soll? Welches Medienspektrum muss über welchen Zeitraum abgedeckt werden? Ist die Untersuchung verschiedener Medientypen erforderlich? Wann und wie leicht ist das Material zugänglich? Welcher Zeitaufwand und welche Kosten entstehen für Beschaffung und Archivierung? . Projektplanung: Kann für Schriftverkehr, organisatorische Aufgaben und finanzielle Abrechnung auf eine bestehende Infrastruktur (Universität, Projektpartner) zurückgegriffen werden? Wer koordiniert die einzelnen Projektschritte? Stehen im Projektzeitraum ausreichend geeignete Mitarbeiter zur Verfügung? Wer? . Definition der Analyseeinheit: Welchen Auflösungsgrad erfordern meine Ergebnisse, um die Forschungsfrage sinnvoll beantworten zu können? Lässt sich die Abgrenzung der Analyseeinheit eindeutig und nachvollziehbar definieren? . Kategorienbildung: Gibt es Studien mit Vorbildcharakter, deren Kategorien repliziert werden können? Steht jenseits der eigentlichen Auswahleinheit einschlägiges Codiermaterial zur Verfügung, um das Kategoriensystem empiriegeleitet prüfen und verbessern zu können? . Codiererschulung/ Probecodierung? Sind schulungsintensive inhaltliche Codierungen vorgesehen, die Schlussfolgerungen der Codierer verlangen und entsprechend intensiv eingeübt werden müssen? 47 D E R F O R S C H U N G S P R O Z E S S I M Z E I T A B L A U F <?page no="47"?> Ist der Zeitaufwand für die Codiererschulung in der zeitlichen und finanziellen Planung berücksichtigt? Existiert einschlägiges Codiermaterial für die Probecodierung? . Codierung: Wie lange dauert überschlägig die Codierung einer Analyseeinheit, und wie viele Analyseeinheiten sind in der Auswahleinheit etwa enthalten? Ist eine bestimmte technische Ausstattung Voraussetzung für die Codierung (Videorecorder, Internetanschluss usw.)? Wurde der finanzielle Aufwand für die Vervielfältigung der Codebücher und insbesondere der Codebögen berücksichtigt? Müssen unterschiedliche Codierer auf dasselbe Material zugreifen? Gibt es einen regelmäßigen Termin für Treffen zur Projektbegleitung? . Auswertungsphase: Wurde der Zeit- und Arbeitsaufwand für Dateneingabe und -bereinigung (basierend auf der geschätzten Zahl von Analyse- und Codiereinheiten) einkalkuliert? Steht ein geeignetes Auswertungsprogramm zur Verfügung, und wird der Umgang damit beherrscht? . Ergebnisdarstellung, Forschungsbericht, Publikationen: Ausformulierung von Befunden und Verdichtung der Auswertungen in Grafiken oder Tabellen sind zeitintensiv - wurde ausreichend Spielraum für die Berichtslegung vorgesehen? Wie viele Exemplare des Abschlussberichts müssen hergestellt werden, und wer finanziert dies? Die Beantwortung jeder dieser Leitfragen hat Konsequenzen für den absehbaren Arbeitsaufwand, und sie helfen bei der Einschätzung der jeweiligen Projektlage. Auf dieser Basis kann dann nicht nur eine erste Kalkulation erfolgen, sondern ggf. auch die eine oder andere Entscheidung mit möglicherweise weit reichenden Folgen korrigiert werden. Zu beachten bleibt, dass hier nur die allgemein bedeutsamen Aspekte angesprochen werden konnten, aber je nach der eigenen Fragestellung noch weitere spezifische Kostenfaktoren zu beachten sind. Außerdem zeichnet Schätzungen aus, dass sie eben keine genauen Werte erbringen, sondern Annäherungsgrößen. Eine immer wiederkehrende Erfahrung ist, dass man in der Planungsphase gerne dazu neigt, den Aufwand für eine Inhaltsanalyse eher zu unterdenn zu überschätzen. Es empfiehlt sich also, den zunächst vermuteten Aufwand um einen erheblichen Korrekturfaktor von sicherheitshalber 1,5 zu erhöhen. Aufwands- und Kostenabschätzung 48 3 D E R F O R S C H U N G S P R O Z E S S <?page no="48"?> Fallbeispiel: Politische Kommunikation I Informationen über Politik erhalten die meisten Menschen nicht durch direkte Begegnungen mit Politikern oder durch persönliche Erfahrungen, sondern medienvermittelt aus dem Fernsehen, aus Zeitungen oder dem Internet. Dabei kann man annehmen, dass Online-Medien eine zunehmend größere Rolle bei der Vermittlung politischer Informationen spielen. Das Internet ist inzwischen weiten Bevölkerungskreisen zugänglich, viele Inhalte werden kostenlos angeboten und manche Zielgruppen (z. B. die sogenannten »Digital Natives«) scheinen sich fast ausschließlich online zu informieren. Ein Team der Universität Jena um den Kommunikationswissenschaftler Marcus Maurer beschäftigte sich im Rahmen der DFG-Forschergruppe von 2011 bis 2013 intensiv mit diesem Thema. Literatur Oschatz, Corinna/ Maurer, Marcus/ Haßler, Jörg (2014): (R)Evolution der Politikberichterstattung im Medienwandel? Die Inhalte von nachrichtenjournalistischen Online- und Offline-Angeboten im Vergleich. In: Medien- & Kommunikationswissenschaft 62(1), S. 25 - 41. Ziel dieser Studie war es zu untersuchen, ob sich die Informationsvermittlung zwischen Offline- und Online-Medien formal und inhaltlich unterscheidet und ob bzw. wie sich die Art der Informationsvermittlung im Zuge der zunehmenden Durchsetzung von Online-Medien verändert. Auf diese Weise soll ein umfassendes Bild von der Informationsvermittlung über politische Themen entstehen. Dafür wurde ein Instrumentarium in Form eines Codebuches entwickelt, welches neben dem Kategorienschema auch Handlungsanweisungen für die Codierer, wichtige Definitionen und die Erläuterungen der Untersuchungseinheit enthält. Zum besseren Verständnis des Fallbeispiels, welches von nun an jedes Kapitel dieses Lehrbuchs veranschaulichen wird, ist es empfehlenswert, sich mit dem auf der UTB-Website einsehbaren Codebuch vertraut zu machen. Sowohl auf dieses Codebuch als auch auf die Publikation zu dieser Studie wird in den Ausführungen häufiger Bezug genommen. Im Laufe der umfassenden theoretischen Auseinandersetzung konnten die Forscher als vordringliche Forschungsfrage formulieren: Bieten nachrichtenjournalistische Online-Angebote mehr oder andere Informationen als die traditionellen Massenmedien an? Forschungsprojekt Politische Kommunikation Offlineversus Online-Medien 49 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N I <?page no="49"?> Diese Studie verzichtete mangels einer belastbaren Theoriebasis auf konkrete Hypothesen. Zwar existierten bereits frühere Studien zu dieser Thematik, doch waren diese zum Zeitpunkt der Studie von Oschatz und Kollegen schon über zehn Jahre alt. Allein die Veränderungen im Bereich der Online-Nachrichten in der vergangenen Dekade legen nahe, dass die vorhandenen Studien veraltet und die ermittelten Daten und Ergebnisse damit keine tragfähige Grundlage mehr für mögliche Hypothesen sind. Um die Forschungsfrage und die dahinterstehenden Konstrukte zu operationalisieren, scheint es sinnvoll, u. a. folgende Kategorien zu erheben: Aktualität der Informationen, Hypertextualität, Multimedialität und Interaktivität. Aus der Gesamtheit aller anhand der Forschungsfrage operationalisierten Kategorien resultiert letztlich das Kategorienschema. Als Herausforderung gestaltete sich die Erstellung des Codebuches. Dieses musste so konzipiert werden, dass mit demselben Instrument sowohl Onlineals auch Offline-Nachrichten, d. h. gedruckte, verlinkte und bewegte Elemente erfasst werden. Vor diesem Hintergrund mussten sich die Forscher die Frage nach der Vergleichbarkeit der verschiedenen Elemente in den unterschiedlichen Medien stellen. Hinzu kam, dass gerade Online-Nachrichten eine gewisse Flüchtigkeit und Dynamik innewohnt, weshalb man diese schnell speichern muss, bevor sie sich verändern oder gar verschwinden. Außerdem musste beachtet werden, dass die Online-Artikel auch noch zur Zeit der Codierung - die unabhängig vom Erhebungszeitraum ablief - verfügbar sein müssen. Das Forscherteam entwickelte daher die Datenbank ARTICLe, die es ermöglicht, Webseiten automatisch als HTML-Dokument zu speichern und durch Screenshots zu dokumentieren. Zusätzlich wurden auch Audio- und Videodateien hinterlegt. Literatur Vertiefende Ausführungen zu dieser Datenbank und deren Entwicklung finden sich bei: Haßler, Jörg/ Maurer, Marcus/ Holbach, Thomas (2014): Vorsprung durch Technik? Die Analyse journalistischer Online-Angebote mit Hilfe automatischer Verfahren. In: Studies in Communication I Media 3 (2), S. 180 - 240. Codebuch 50 3 D E R F O R S C H U N G S P R O Z E S S <?page no="50"?> Übungsfragen 1 Am Beginn eines jeden Forschungsvorhabens steht ein: a) Erkenntnisinteresse b) Forschungsinteresse c) Verwertungsinteresse 2 Ist diese Aussage richtig oder falsch? Nach der Konzeption der eigentlichen Inhaltsanalyse müssen das Forschungsinteresse und die zu untersuchenden Hypothesen formuliert werden; Theorien und bereits vorliegende Forschungsergebnisse sind dabei zu berücksichtigen. 3 Die Erstellung von Kategorien erfolgt: a) theoriegeleitet, d. h. aufgrund von Hypothesen und früherer Forschung. b) empiriegeleitet, d. h. aufgrund erster Sichtungen des Untersuchungsmaterials. c) praxisorientiert, d. h. aufgrund von Erfahrungen und Tatsachen. 4 Welche der folgenden Aussagen treffen zu? a) Bei der Auswahleinheit handelt es sich um die Grundgesamtheit der Berichterstattung. b) Die Analyseeinheit ist Grundlage für die Codierung und Auswertung des Untersuchungsmaterials. c) Codiereinheiten beziehen sich auf die an mehreren Analyseeinheiten interessierenden Aspekte. d) Bei der Kontexteinheit handelt es sich um ein Hilfskonstrukt, welches im Zweifelsfall nützlich ist, um zu einer korrekten Codierung der Analyseeinheit zu gelangen. 51 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N I <?page no="52"?> Die Auswahleinheit: Stichprobenziehung und Untersuchungsmaterial Inhalt 4.1 Definition der Auswahleinheit 4.2 Weitere Auswahlverfahren auf unterschiedlichen Stufen 4.3 Praktische Hinweise zu Beschaffung, Archivierung und Verwendung 4.4 Analyse von Online-Inhalten Dieses Kapitel widmet sich der Entscheidung, nach welchen Kriterien das der Inhaltsanalyse zugrunde liegende Material ausgewählt wird. Hierzu werden unterschiedliche Auswahlstrategien vorgestellt und ihre Vor- und Nachteile abgewogen. Die Darstellung einiger praktischer Erfahrungen mit der Sammlung von Inhalten klassischer und neuer Angebotsformen rundet diesen Abschnitt ab. Definition der Auswahleinheit Das Untersuchungsmaterial für die Medieninhaltsanalyse muss einerseits so bestimmt werden, dass die Erkenntnisse - entsprechend der gewählten Fragestellung - auf einer möglichst umfassenden Untersuchung relevanten Materials basieren. Dies erhöht die Zuverlässigkeit der Ergebnisse, aber gleichzeitig ist die Codierung mit erheblichem Aufwand verbunden. Deshalb erfordert der verantwortungsvolle Umgang mit Forschungsressourcen, dass Material nicht unnötig bearbeitet wird. Der Grenznutzen ist beispielsweise dann erreicht, wenn neue Codierungen die Ergebnisse nur noch im Promillebereich verändern. Schließlich gebietet auch eines der grundsätzlichen Ziele der empirischen Sozialforschung - die Reduktion von Komplexität - dass der Forscher sich auf die zentralen Sachverhalte konzentriert und nicht ob einer Vielzahl von Detailerkenntnissen das »große Bild« aus dem Auge verliert. 4 4.1 53 D E F I N I T I O N D E R A U S W A H L E I N H E I T D E F I N I T I O N D E R A U S W A H L E I N H E I T <?page no="53"?> Für viele Fragestellungen bietet sich eine sechsstufige Vorgehensweise an, in deren Verlauf auf jeder der sechs Stufen eine Festlegung getroffen wird, um die Auswahleinheit weiter einzugrenzen (siehe Abb. 4.1). Ausgangspunkt sind alle existierenden Medieninhalte, am Ende des Filterprozesses steht das zu bearbeitende Untersuchungsmaterial. In welcher Reihenfolge die einzelnen Stufen durchlaufen werden, ist dabei (fast) beliebig, denn sie tragen auf verschiedene Art zur Eingrenzung der gesamten Berichterstattung bei. Allerdings muss dabei im Auge behalten werden, welche Reichweite die Befunde später aufweisen sollen: Wird eine Verallgemeinerung über die eigene Untersuchung hinaus angestrebt (wie in der empirischen Sozialforschung zumeist der Fall), so müssen die einzelnen Auswahlschritte den Kriterien für repräsentative Stichproben genügen (vgl. Merten 1995: 283 ff.). Das bedeutet, es sollte im optimalen Fall eine Zufallsauswahl oder hilfsweise eine bewusste Auswahl, aber unter keinen Umständen eine willkürliche Auswahl erfolgen. Merksatz Strebt die Inhaltsanalyse eine Verallgemeinerung ihrer Befunde an, sind die Auswahleinheiten so zu bestimmen, dass sie die Bedingungen der Stichprobenverfahren für statistische Repräsentativität erfüllen. Der relevante Zeitraum, in dem die Medieninhalte zu betrachten sind, lässt sich angesichts der Fragestellung meist relativ schnell eingrenzen. Häufig orientiert man sich hierzu an Schlüsselereignissen, die plausibel als Anfangs- und Endpunkte der jeweils interessierenden Entwicklung betrachtet werden können. Möchte man beispielsweise die Wahlkampfstrategien der Parteien untersuchen, kann man mit einem als »Wahlkampfauftakt« bezeichneten Parteitag einsetzen und den Wahlsonntag als letztes relevantes Datum festlegen. Wenn andere Inferenzschlüsse auf die gesellschaftliche Situation längerfristig bedeutsame Phänomene (wie etwa die Darstellung von Umweltschutz) zum Gegenstand haben, muss die Fragestellung inhaltlich präzisiert werden: In diesem Beispiel könnte man einerseits eine entsprechend aufwändige Zeitreihenanalyse (seit dem Zweiten Weltkrieg) anstreben oder eher auf jüngere Entwicklungen (seit dem Jahr 2000) eingehen. Abb. 4.1 Bestimmung der Auswahleinheit MEDIENINHALTE Zeitraum räumliche Gestaltung Ressorts/ Formate Medienangebot(e) Mediengattung inhaltlich definitorischer Teil CODIERMATERIAL mehrstufige Vorgehensweise Zeitraum 54 4 D I E A U S W A H L E I N H E I T <?page no="54"?> Merksatz Für jede zeitliche Festlegung der Auswahleinheit ist darauf zu achten, dass der in der Forschungsfrage angesprochene und der in der Studie untersuchte Zeitraum übereinstimmen. Auf einer zweiten Stufe ist die räumliche Geltung der Auswahleinheit zu bestimmen. Stillschweigend unterstellen Fragestellungen hier zu Lande oft, dass es sich um Entwicklungen in Deutschland handelt, womit primär deutsche Medieninhalte von Bedeutung wären. Kleinere Kommunikationsräume (z. B. lokale Kabelnetze, ein Nachbarschafts-Chat über WhatsApp oder Regionen wie bestimmte Bundesländer) können aber ebenso Ziel der Untersuchung sein wie größere (z. B. die Berichterstattung über die Europawahl in verschiedenen EU-Staaten). Im Detail sind hier einige Spitzfindigkeiten zu beachten - etwa ob im obigen Fall deutschsprachige Medien eine sinnvolle Auswahleinheit darstellen, ob der Erscheinungsort in Deutschland liegen soll, oder bei Offline-Medien vielleicht eher das Verbreitungsgebiet. In jedem Fall sind hier pragmatische Lösungen anzustreben, die im Lichte der Fragestellung aussagekräftige Ergebnisse ermöglichen, gerade mit Blick auf die angestrebten Inferenzschlüsse. Besondere Vorsicht ist hier in zwei Fällen geboten: Wenn über einen längeren Zeitraum historische Entwicklungen betrachtet werden sollen, können sich zwischenzeitlich territoriale Grenzen (z. B. Deutschland vor und nach der Wende oder vor und nach dem Zweiten Weltkrieg) oder der politisch-militärische Status (z. B. Nachfolgestaaten der Sowjetunion nach deren Zusammenbruch) verschieben. Der räumliche Bezug kann in solchen Fällen eine sehr differenzierte Beschreibung der Auswahleinheit erforderlich machen. Weiterhin ist bei transnationalen Geltungsbereichen zu prüfen, ob diese auch jenseits der in der Studie konstruierten Auswahleinheit tatsächlich als Kommunikationsräume existieren. So wäre beispielsweise fraglich, ob man für eine Beschreibung der deutschsprachigen Berichte über Gentechnik deutsche, österreichische und Schweizer Medien in einen Topf werfen sollte. In der Praxis würde man wohl eher die Medieninhalte in den verschiedenen Ländern einander gegenüberstellen. Selbst wenn über Zeit und Raum schon eine erhebliche Einschränkung des Medienmaterials erfolgt, bleibt immer noch eine kaum überschaubare Flut von Inhalten übrig. Die verbleibenden drei Auswahlschritte beziehen sich deswegen auf die eigentlichen Medienangebote im engeren Sinne: räumlicher Geltungsbereich 55 D E F I N I T I O N D E R A U S W A H L E I N H E I T <?page no="55"?> 1. Welche Mediengattungen in die Analyse eingeschlossen werden, hat erhebliche Auswirkungen auf den Untersuchungsverlauf. Printmedien wie Tageszeitungen und Zeitschriften sind leicht zugänglich, repräsentieren aber nur einen bestimmten Ausschnitt aus dem medialen Spektrum. Die Funkmedien (Fernsehen, Hörfunk) sind angesichts ihrer Reichweiten und ihres speziellen Wirkungspotenzials von besonderer Relevanz. Aber sie sind gleichzeitig aufwändiger in der Codierung und Archivierung, was speziell für das Fernsehen gilt, das seine Botschaften auf zwei Kanälen (Text und Bild) transportiert. Wenn sogar mehrere verschiedene Gattungen einfließen sollen, ist zu entscheiden, wie diese im Umfang gegeneinander zu gewichten sind. Online-Medien sind heute oft leicht zugänglich, aber es ist stets zu prüfen, ob die Inhalte zwischenzeitlich verändert wurden - und zu entscheiden, welche Fassung codiert werden soll. 2. Nach der Entscheidung hinsichtlich der Gattungen müssen innerhalb der gewählten Gattungen noch bestimmte Medienangebote ausgewählt werden: Eher klassische Medienangebote wie die S ÜDDEUT- S CHE Z E ITUNG oder die F RANK FURTE R A LLG EME IN E ? ARD, ZDF oder RTL? Oder gleich alle? Oder doch die Kommentare in Diskussionsforen, oder lieber die Darstellungen auf Facebook? Insbesondere auf dieser Stufe stehen oft - unabhängig von der Fragestellung - viele Auswahlalternativen zur Verfügung, sodass sich hier am ehesten die üblichen Fragen hinsichtlich einer angemessenen Stichprobenziehung stellen (vgl. Kap. 4.2). 3. Je nach Erkenntnisinteresse kann vermutet werden, dass in bestimmten Segmenten von Programm, Zeitung oder Website von vornherein kaum oder gar nicht mit relevanten Medienberichten zu rechnen ist. Sportergebnisse findet man selten im Wirtschaftsteil, Wahlkampfbeiträge weniger in Spielfilmen oder Seifenopern. Aufgrund solcher und ähnlicher Überlegungen lassen sich bestimmte Ressorts und Formate ausschließen. Speziell für Fernsehanalysen gilt, dass auch innerhalb der verschiedenen Sendungen eines Formats nochmals ausgewählt wird (z. B. nur bestimmte Talkshows). In Printmedien werden zuweilen nur bestimmte journalistische Darstellungsformen innerhalb der Ressorts untersucht (z. B. nur Kommentare). Bei Online-Medien konzentriert man sich oft auf die meistgeklickten Beiträge. Eine letzte Auswahlstufe kann sich ergeben, wenn sich aus der Forschungsfrage ergibt, dass nur ein bestimmter, inhaltlich definierter Teil der Berichterstattung untersucht werden soll. So wäre es sinnlos, alle politischen Beiträge zu codieren, wenn nur etwas über die Gentechnik-Berichterstattung ausgesagt werden soll. In diesen Fällen bestimmen vorab festgelegte Aufgreifkriterien, welche Beiträge genau berücksichtigt werden. Um Gestaltungen, Angebote, Formate inhaltliche Spezifikation 56 4 D I E A U S W A H L E I N H E I T <?page no="56"?> Missverständnisse und Fehlentscheidungen der Codierer zu vermeiden, sind diese Aufgreifkriterien möglichst präzise zu formulieren. In diesem Sinne wäre beispielsweise »alle Beiträge über Angela Merkel« eine schlechte Definition. Sinnvoller könnte die Anweisung heißen: »Alle Beiträge, in denen »Angela Merkel« oder die »Bundeskanzlerin« in Überschrift, Dach- und Unterzeile oder dem ersten Abschnitt des Artikels genannt wird.« Zu beachten ist, dass die Formulierung der Aufgreifkriterien auch den Arbeitsaufwand der Codierer stark beeinflusst - es macht nämlich einen Unterschied, ob Beiträge vollständig nach den definierten Merkmalen durchsucht werden müssen oder nur relevante Teile (wie im Beispiel). Merksatz Soll ein inhaltliches Aufgreifkriterium in den Auswahlprozess einfließen, muss dieses möglichst präzise formuliert und mit einem vertretbaren Selektionsaufwand verbunden sein. Ergebnis dieses Filterprozesses sind dann exakt definierte Auswahleinheiten, die sich typischerweise in Kernsätzen wie »die Berichterstattung über Gentechnik in den Wirtschaftsressorts der deutschen Nachrichtenmagazine S P I E G E L und F OCU S und deren Online-Angebote im Jahr 2016« zusammenfassen lassen. Die Ergebnisse der Inhaltsanalyse beziehen sich dann auch immer auf genau diese Auswahleinheit. Im Forschungsbericht wäre es allerdings sprachlich oft sperrig, diese präzise Definition immer zu wiederholen, weshalb dort meist weniger spezifische Formulierungen verwendet werden. Die Auswahlverfahren, die über die erwähnten Selektionsschritte hinaus mitunter erforderlich sind, um eine Verallgemeinerbarkeit der Befunde abzusichern, erläutert der nachfolgende Abschnitt. Weitere Auswahlverfahren auf unterschiedlichen Stufen Wie Abschnitt 4.1 gezeigt hat, werden die Auswahleinheiten in einem mehrstufigen Auswahlverfahren ermittelt. Je nach gewähltem Zeitraum ist es in manchen Inhaltsanalysen möglich, wirklich alle relevanten Ausgaben einer Sendung oder einer Zeitung zu untersuchen; in diesem Fall spricht man von einer Vollerhebung. Insbesondere gilt dies, wenn ein weiteres inhaltliches Aufgreifkriterium die Zahl der Analyseeinheiten beschränkt (oder nur wenige Medien untersucht werden): Interessieren die Kommentare zu einem bestimmten politischen Skandal in 4.2 Vollerhebung 57 W E I T E R E A U S W A H L V E R F A H R E N A U F U N T E R S C H I E D L I C H E N S T U F E N <?page no="57"?> Offline-Medien, ist deren Zahl meist überschaubar; Gleiches gilt z. B. für die Nachrichten im lokalen Fernsehen. Oft soll die Berichterstattung jedoch über einen längeren Zeitraum analysiert werden, oder in der Auswahleinheit finden sich so viele einschlägige Analyseeinheiten, dass diese nicht alle bearbeitet werden können. In diesem Fall ist die Ziehung einer Stichprobe aus allen Analyseeinheiten nötig, aus deren Betrachtung dann auf die Grundgesamtheit aller einschlägigen Analyseeinheiten geschlossen werden kann. Merksatz Strebt man repräsentative, d. h. verallgemeinerbare Aussagen an, so muss die Auswahleinheit ein strukturgleiches, verkleinertes Abbild der Grundgesamtheit darstellen, über die eine Aussage getroffen werden soll. Daraus ergibt sich die Frage: Wenn ich in meine Auswahleinheit die Sender ARD, ZDF, RTL, SAT.1 und P RO S I E B EN aufgenommen habe, darf ich dann tatsächlich etwas über »das deutsche Fernsehen« aussagen? Oder kann ich aus einer Untersuchung von F RANK FURTE R R UND S CHAU , S ÜDD EUT S CHE Z E I- TUNG , F RANK FURTE R A L LG EME IN E Z E ITUNG und D I E W E LT die »Berichterstattung deutscher Tageszeitungen« beschreiben? Stehen die YouTube-Kanäle der fünf beliebtesten YouTuber tatsächlich für alle Abrufangebote? In diesen Fällen klaffen offenkundig die Grundgesamtheit, über die etwas ausgesagt werden soll, und die Auswahleinheit auseinander, denn die Stichprobe bildet nicht strukturgleich die Grundgesamtheit aller deutschen Fernsehprogramme, Tageszeitungen oder YouTube-Kanäle ab. Im Umkehrschluss gilt dann: Ist auf einer der Stufen eine bewusste Auswahl erfolgt, so schränkt sich die Grundgesamtheit entsprechend ein - Aussagen sind dann, wie in unseren Beispielen, nur noch über »die deutschen Vollprogramme« bzw. die »überregionalen Qualitätszeitungen« oder die beliebtesten Abrufangebote möglich, aber nicht mehr über das gesamte Fernsehprogramm, die gesamte Zeitungsberichterstattung oder alle Video-Abrufdateien. Merksatz Ob die festgelegte Auswahleinheit noch zum ursprünglich beabsichtigten Aussagebereich der Studie passt, ist kritisch zu überprüfen; ggf. müssen das Erkenntnisinteresse oder die Forschungsfrage entsprechend eingeschränkt werden. Stichprobe 58 4 D I E A U S W A H L E I N H E I T <?page no="58"?> Geht man die unterschiedlichen Stufen einzeln durch, so sind auf jeder Ebene unterschiedliche Auswahlverfahren möglich, die später aber nicht immer repräsentative Aussagen über die angenommene Grundgesamtheit ermöglichen: . Zeitraum: systematische Auswahl »künstlicher Wochen« . räumlicher Geltungsbereich: Klumpenauswahl . Medienebene: geschichtete Auswahl, Quotenauswahl und Auswahl typischer Fälle Im statistischen Idealfall würde man alle Zeiteinheiten (z. B. Tage) oder alle Analyseeinheiten durchnummerieren und dann per Losverfahren eine einfache Zufallsauswahl treffen. Meistens ist dies freilich mit einem unangemessen hohen Aufwand verbunden, weil ja die Grundgesamtheit erst einmal exakt bestimmt werden muss, bevor man auslosen kann! Und außerdem ist dies auch nicht immer sinnvoll, wenn es etwa darum geht, eine Veränderung über einen bestimmten Zeitraum hinweg zu dokumentieren. Deswegen behilft man sich gerne mit einer systematischen Auswahl (also einer Listenauswahl), bei der von einem bestimmten Startpunkt aus - nach einem festgelegten Intervall - jedes n-te Element berücksichtigt wird. Da zumindest die klassischen Medienangebote eine festgelegte Periodizität aufweisen, die Inhalte also mit einer zeitlichen Regelmäßigkeit (Tageszeitungen einmal täglich, Hörfunknachrichten stündlich usw.) erscheinen, kann man diese Zeiteinheiten zur Grundlage für eine systematische Auswahl machen. Wählt man für eine Analyse über mehrere Jahre hinweg beispielsweise den ersten Montag im Januar des ersten Jahres, den ersten Dienstag im Februar, und dann immer einen Wochentag weiter für jeden darauf folgenden Monat, so erhält man über den gesamten Zeitraum so genannte »künstliche Wochen« (als dessen verkleinertes, strukturgleiches Abbild). Die Woche (siehe Abb. 4.2) hat sich dabei in der Vergangenheit als wichtige Bezugsgröße für die Struktur der Berichterstattung erwiesen, da zumindest die klassischen Massenmedien ihr Angebot nach einem Wochenturnus tageweise gliedern: Die Tageszeitung hat beispielsweise am Montag einen dickeren Sportteil und am Donnerstag die Kinostarts, und auch die Fernsehprogramme vergeben ihre Programmplätze meist wöchentlich - »Germany’s Next Topmodel« läuft dann eben immer donnerstags auf P RO S I E B EN . Auch für Online-Angebote hat es sich oft bewährt, nach diesem Prinzip bestimmte Stichtage festzulegen, an denen dann die Internet-Inhalte gespeichert und später codiert werden. Im konkreten Fall ist selbstverständlich zu prüfen, ob die vorgegebene Auswahlregel die Struktur tatsächlich gleich abbildet - es müssen nämlich auch Feiertage dieselbe Chance haben, in die Stichprobe Zufalls- und systematische Auswahl saisonale Schwankungen 59 W E I T E R E A U S W A H L V E R F A H R E N A U F U N T E R S C H I E D L I C H E N S T U F E N <?page no="59"?> aufgenommen zu werden. Und da manche ebenfalls auf vorgegebenen Intervallen beruhen (Pfingsten liegt z. B. immer im selben zeitlichen Abstand von Ostern), muss immer insgesamt kontrolliert werden, ob sich das Auswahlintervall nicht mit einem anderen, »natürlichen« Intervall überlagert. Gleiches gilt auch für saisonale Schwankungen, die mitunter zu berücksichtigen sind: Berichte über Osterhasen sind im Winter schlichtweg seltener aufzufinden, während im Zuge von Olympischen Spielen selbst Randsportarten starke Beachtung finden. In ganz seltenen Fällen lässt sich der Zeitrahmen sogar bis auf einen einzigen Tag reduzieren, wenn beispielsweise in einer Stichtagsuntersuchung alle Tageszeitungen, Fernsehnachrichten oder Online-Angebote analysiert werden. Deren Ziel kann dann aber nur der unmittelbare Medienvergleich sein; weitergehende inhaltliche Schlussfolgerungen sind aus diesen Stichproben nur in Ausnahmefällen zu ziehen (etwa dann, wenn es um die Berichterstattung am Wahlsonntag ginge). Merksatz Die Definition einer »künstlichen Woche« als Medienstichproben erzeugt ein verkleinertes, strukturgleiches Abbild der Grundgesamtheit, wenn ein angemessenes Auswahlintervall festgelegt wird. Abb. 4.2 Definition einer künstlichen Woche Kalenderwoche MO DI MI DO FR SA SO 1 1.1. 2.1. 3.1. 4.1. 5.1. 6.1. 7.1. 2 8.1. 9.1. 10.1. 11.1. 12.1. 13.1. 14.1. 3 15.1. 16.1. 17.1. 18.1. 19.1. 20.1. 21.1. 4 22.1. 23.1. 24.1. 25.1. 26.1. 27.1. 28.1. 5 29.1. 30.1. 31.1. 1.2. 2.2. 3.2. 4.2. 6 5.2. 6.2. 7.2. 8.2. 9.2. 10.2. 11.2. 7 12.2. 13.2. 14.2. 15.2. 16.2. 17.2. 18.2. 8 19.2. 20.2. 21.2. 22.2. 23.2. 24.2. 25.2. 9 26.2. 27.2. 28.2. 1.3. 2.3. 3.3. 4.3. 10 5.3. 6.3. 7.3. 8.3. 9.3. 10.3. 11.3. (. . .) (. . .) (. . .) (. . .) (. . .) (. . .) (. . .) (. . .) Medienangebote an den »fett gedruckten Tagen« werden codiert. 60 4 D I E A U S W A H L E I N H E I T <?page no="60"?> Das erwähnte, hier bedeutsame Stichprobenverfahren ist die Klumpenauswahl: Man legt einen bestimmten Tag fest (»Klumpen«), an dem alle relevanten Beiträge codiert werden. Hierbei wird nicht die Analyseeinheit selbst (der Beitrag) zufällig ausgewählt, sondern eine übergeordnete, »natürliche« Struktureinheit (der Tag). Innerhalb dieser Struktureinheit findet dann eine Vollerhebung aller Analyseeinheiten statt. Am Rande bemerkt, handelt es sich auch bei den eben beschriebenen, systematischen Auswahlverfahren im Grunde um eine solche Klumpenauswahl. Sehr verbreitet ist diese Vorgehensweise für die Abbildung des gewünschten räumlichen Geltungsbereichs. Denn gerade bei Medien mit regionalem Verbreitungsgebiet (lokaler Rundfunk, Ballungsraum-Fernsehen, Regionalzeitungen) ist es oft schwer, überhaupt eine gesamte Liste relevanter Angebote zu erstellen, geschweige denn deren Beschaffung zu organisieren. Hier kann es ebenfalls sinnvoll sein, zunächst nach territorialen Kriterien eine Reihe von Klumpen zufällig auszuwählen (in Deutschland z. B. anhand der Einteilung in Wahlkreise oder -bezirke, da diese einigermaßen vergleichbare Einwohnerzahlen aufweisen) und dann die Medien innerhalb dieser Klumpen zu bearbeiten. Allerdings sei darauf hingewiesen, dass die Klumpenauswahl aus Sicht der Stichprobentheorie einen größeren Auswahlfehler erzeugt; andererseits besteht bei der Inhaltsanalyse oft keine Alternative, um den Aufwand bei der Feldarbeit in sinnvollen Grenzen zu halten. Merksatz Klumpenstichproben sind in der Medieninhaltsanalyse weit verbreitet und erleichtern die Feldarbeit, ihre größere Anfälligkeit für Auswahlfehler ist jedoch bei der Untersuchungsanlage und der Interpretation der Ergebnisse zu berücksichtigen. Die meisten Probleme bei der Bestimmung von Auswahleinheiten ergeben sich normalerweise auf der Medienebene, insbesondere bei der Bestimmung der letztlich zu codierenden Medienorgane und ihrer Segmente (Ressorts, Formate). Sofern anwendbar, erbringt hier eine geschichtete Zufallsauswahl die sinnvollsten Ergebnisse. Sie bietet sich dann an, wenn die zu untersuchenden Merkmale in einer Grundgesamtheit bekannt sind und gleichzeitig stark streuen (z. B. über die unterschiedlichen Formate in Fernsehprogrammen). Also einmal angenommen, wir untersuchen Homestorys über Adelshäuser, die in Spielfilmen und Serien per Definition nicht vorkommen können, aber umso häufiger in Boulevardmagazinen, Nachrichten und Reportageformaten: Bei einer Klumpenauswahl geschichtete Zufallsauswahl 61 W E I T E R E A U S W A H L V E R F A H R E N A U F U N T E R S C H I E D L I C H E N S T U F E N <?page no="61"?> reinen Zufallsstichprobe müsste man eine große Zahl von Sendungen ziehen, damit wirklich auch Boulevardmagazine, Nachrichten und Reportageformate usw. vertreten sind. Wenn man das relevante Schichtungsmerkmal jedoch (wie in diesem Fall) definieren kann, so findet die Zufallsauswahl nur innerhalb der jeweiligen Ausprägungen des Merkmals statt (also unter Boulevardmagazinen, Nachrichten usw.). Dies garantiert, dass sich in der Auswahleinheit alle Ausprägungen des Merkmals wiederfinden, auch wenn nur eine begrenzte Zahl von Sendungen untersucht wird. Analog könnte man beispielsweise für bestimmte Typen von Web-Inhalten vorgehen. Merksatz Die geschichtete Zufallsstichprobe reduziert die Auswahleinheit, wenn die Verteilung eines breit gestreuten Merkmals bekannt ist. Offen ist dann nur noch, in welchem Zahlenverhältnis die einzelnen Typen berücksichtigt werden: Bei der proportionalen Schichtung versucht man, die Anteile in der Grundgesamtheit so genau wie möglich abzubilden; in unserem Fall könnte man dies anhand des Programmanteils oder der Einschaltquoten tun. Dann würde eben eine größere Zahl von Boulevardmagazinen und weniger Reportageformate ausgewählt. Bei der disproportionalen Schichtung würden bestimmte Typen stärker berücksichtigt als in der Grundgesamtheit; dies ist dann sinnvoll, wenn es Ziel der Studie wäre, die Sendungstypen miteinander zu vergleichen. In dem Fall würden genauso viele Reportageformate wie Boulevardmagazine ausgewählt, um für deren Gegenüberstellung auf eine ähnliche Datenbasis zurückgreifen zu können. Zufallsstichproben sind unverzichtbar, wenn die Befunde der Inhaltsanalyse später verallgemeinert werden sollen. Ist dies aus inhaltlichen Gründen nicht notwendig oder wegen des damit verbundenen Aufwands nicht realisierbar, kommen Verfahren der bewussten Auswahl zum Einsatz. Das Zufallsmoment, das ansonsten ein strukturgleiches verkleinertes Abbild der Grundgesamtheit entstehen lässt, wird hier durch eine kriteriengeleitete, empirisch begründete Auswahl des Forschers ersetzt. Die beiden wichtigsten Verfahren sind dabei . die Quotenauswahl und . die Auswahl typischer Fälle. Bei der Quotenauswahl benutzen wir unser Vorwissen über die Struktur der Grundgesamtheit, um unsere Auswahleinheit ähnlich »nachzubauen«. Aus der jährlichen Tageszeitungsstatistik wissen wir beispielsweise, Quotenauswahl 62 4 D I E A U S W A H L E I N H E I T <?page no="62"?> wie viele überregionale und wie viele regionale bzw. lokale Tageszeitungen erscheinen, welche davon in den alten Bundesländern und welche in den neuen Bundesländern hergestellt werden, und welche Auflagen diese Zeitungen haben. Aus der Kombination dieser Merkmale ergibt sich möglicherweise, dass regionale bayerische Tageszeitungen mit einer Auflage unter 200.000 Exemplaren einen Anteil von acht Prozent am deutschen Zeitungsmarkt besitzen. Wollte man in einer Studie diese Grundgesamtheit durch 25 deutsche Tageszeitungen angemessen abbilden, müssten also zwei regionale bayerische Tageszeitungen mit weniger als 200.000 Auflage (8 % von 25) untersucht werden. Auf diese Art und Weise erhält man einen so genannten »Quotenplan« mit den Anteilen für jede Merkmalskombination. Die tatsächlich zu analysierenden Zeitungen bestimmt der Forscher anschließend selbstständig nach diesen Kriterien. Die Auswahl typischer Fälle hingegen entfernt sich bereits deutlich von dem Ideal, ein strukturgleiches Abbild der Grundgesamtheit zu erzeugen. Hier wird aus dem Erkenntnisinteresse und den Forschungsfragen argumentativ abgeleitet, welche Auswahleinheiten mit Blick auf das Analyseziel besonders charakteristische Merkmale aufweisen. Viele veröffentlichte Inhaltsanalysen beruhen auf solchen Auswahleinheiten: von der Darstellung der Sexualität in der B RAVO bis zur Auslandsberichterstattung von S P I E G E L O NLINE . Die Ergebnisse sollten dann - weil es sich um »typische Vertreter« des Medianangebots handelt - für die Gesamtheit ähnlicher Angebote gültig sein. Dies stellt erhebliche Anforderungen an die Begründung für die Auswahl, die auch empirisch gut abgesichert sein sollte. Drei Argumentationen sind dabei häufiger anzutreffen: 1. Es werden exemplarisch die Angebote ausgewählt, die die höchste Publikumsresonanz aufweisen (z. B. die Talkshows mit der höchsten Einschaltquote oder die Blogs mit dem größten Leserkreis). Sind später Inferenzschlüsse auf die Rezipienten angestrebt, ist dies als sinnvoller Indikator anzusehen. 2. Es werden die Angebote ausgewählt, die als »Leitmedien« gelten und die Berichterstattung anderer Medien beeinflussen. Analysen kommerzieller Institute weisen beispielsweise jährlich die meistzitierten deutschen Medien aus. Dieser Multiplikatoreffekt kann gerade bei Schlüssen auf die Kommunikatoren als angemessenes Auswahlkriterium gelten. 3. Es werden die Angebote ausgewählt, die ein bestimmtes inhaltliches Spektrum abdecken (z. B. eine eher liberale und eine eher konservative Tageszeitung), um die möglichen unterschiedlichen Positionen abbilden zu können. Dies wäre bei Inferenzschlüssen auf die poli- Auswahl typischer Fälle 63 W E I T E R E A U S W A H L V E R F A H R E N A U F U N T E R S C H I E D L I C H E N S T U F E N <?page no="63"?> tisch-gesellschaftliche Situation von Bedeutung, zuweilen aber auch bei Kommunikatorstudien. Trotzdem bleibt festzuhalten, dass der Einsatz bewusster Auswahlverfahren grundsätzlich einer sorgfältigen Begründung bedarf. Wurden wirklich die wesentlichen Merkmale verwendet, um die Quotenvorgaben zu definieren? Habe ich tatsächlich typische Fälle erwischt? Lapidare Aussagen, wonach die Berichterstattung von S P I E G E L O NLIN E als stellvertretend für Deutschlands Online-Medien zu betrachten sei, oder die Artikel in der S ÜDD EUT S CHEN Z E ITUNG - als Qualitätsblatt - für die Tageszeitungen im Land stehen könnten, reichen hier sicher nicht aus. Und je weniger unterschiedliche Quellen die Analyse einbezieht, desto schwieriger wird die Begründung, dass man alle bedeutsamen Charakteristika berücksichtigt habe. Merksatz Alle Auswahlverfahren, die auf den verschiedenen Selektionsstufen eingesetzt werden, sind mit Blick auf das Analyseziel zu begründen; besonders sorgfältig ist bei bewussten Auswahlverfahren zu argumentieren. Der Vollständigkeit halber sei erwähnt, dass in der Stichprobentheorie auch willkürliche Auswahlverfahren bekannt sind. Hier werden die einzelnen Elemente ohne tiefere Systematik und ohne genauere Informationen über die Grundgesamtheit frei nach Schnauze bestimmt. Es erübrigt sich fast zu sagen, dass die Ergebnisse dieser Inhaltsanalysen für sich keinerlei Repräsentativität beanspruchen dürfen und nicht verallgemeinerbar sind. Im besten Fall können solche Untersuchungen noch den Charakter einer Fallstudie annehmen; dies trifft unter anderem dann zu, wenn die Berichterstattung eines einzelnen, willkürlich ausgewählten Mediums untersucht wird (z. B. die Berichterstattung des B ADI S CHEN T AG B LATT S über Asylbewerber). Die eingeschränkte Natur solcher Stichproben muss bei der Interpretation der Befunde und bei beabsichtigten Inferenzschlüssen jedoch immer mitgedacht werden! Praktische Hinweise zu Beschaffung, Archivierung und Verwendung Die Definition der Auswahleinheiten ist freilich erst die halbe Miete: Denn nun stellt sich die Frage, wie das erforderliche Untersuchungsmaterial beschafft werden kann. Was dabei zu bedenken ist - und willkürliche Auswahl 4.3 64 4 D I E A U S W A H L E I N H E I T <?page no="64"?> welche Schwierigkeiten auftreten können -, wird im Folgenden anhand unterschiedlicher Mediengattungen dargestellt, und zwar für . Tageszeitungen, . aktuelle Zeitschriften, . das Fernsehen, . den Hörfunk und . in einem separaten Abschnitt (vgl. Kap. 4.4) für das Internet. Zweifellos sind Printmedien das dankbarste Untersuchungsmaterial für eine Inhaltsanalyse, insbesondere die Tageszeitungen. Sie bilden einzelne, physisch überschaubare Einheiten, die nebeneinander gelegt, mitgenommen und archiviert werden können. Sie werden von öffentlichen Einrichtungen und Bibliotheken gesammelt und sind noch lange Zeit einer Untersuchung zugänglich, oft auch durch die Dokumentation auf Mikrofiche oder digitalen Medien. Die rasante Entwicklung von elektronischen Datenspeichern erlaubt eine schnelle Sichtung aufgrund der jeweiligen Aufgreifkriterien. Außerdem verbindet man mit Tageszeitungen eine differenzierte und profunde, aber trotzdem aktuelle Berichterstattung, die Hintergründe mit einschließt. Da die Tageszeitung auch eine hohe Reichweite innerhalb der Bevölkerung hat, stellt sie die Auswahleinheit für die meisten in Deutschland durchgeführten Inhaltsanalysen dar. Merksatz Aufgrund ihres weiten inhaltlichen Spektrums, ihrer Verbreitung und des einfachen Handlings bietet sich die Tageszeitung für viele Fragestellungen als Auswahleinheit an. Die Nachteile reiner Presseanalysen sollen hier aber nicht verschwiegen werden: Zunächst ist es, wie an anderer Stelle erwähnt, eher schwierig, eine flächendeckende Tageszeitungsstichprobe zu ziehen: Die Pressegroßhändler arbeiten regional verteilt und kein Anbieter hat alle deutschen Zeitungen im Programm. In regelmäßigem Abstand stellte Walter J. Schütz über viele Jahre die so genannte »Stichtagssammlung Tagespresse« zusammen, die alle publizistischen Einheiten umfasst und über deren Analyse er regelmäßig in der Fachzeitschrift M E DIA P E R S P E KTIVEN berichtete. Ein weiteres Problem ist das Verhältnis zwischen Mantel- und Lokalausgaben, denn oft vereint dieselbe publizistische Einheit eine Vielzahl unterschiedlicher Teilausgaben, weshalb genau zu definieren ist, auf welchen Teil sich die Analyse nun bezieht. Und bei der Freude über den Material: Tageszeitungen 65 B E S C H A F F U N G , A R C H I V I E R U N G U N D V E R W E N D U N G <?page no="65"?> bequemen Daten-Zugriff z. B. in Onlinearchiven darf nicht vergessen werden, dass sich die Suchoptionen dort - je nach Betreiber - unterschiedlich komfortabel gestalten. Die Texte selbst sind dann zwar inhaltlich korrekt gespeichert, aber zahlreiche Layoutmerkmale (und mitunter auch die Illustration durch begleitende Fotos) können verloren gehen. Aktuelle Zeitschriften besitzen von ihrem Ausgangsmaterial her ähnliche Vorteile wie die Tageszeitung. Einschränkend ist nur zu sagen, dass die nachträgliche Erreichbarkeit des Materials in manchen Segmenten der Publikumspresse erheblich eingeschränkt ist. Dies gilt weniger für politische Magazine wie den S P I E G E L oder F OCU S , aber durchaus für Frauenzeitschriften oder »bunte Blätter« (wie etwa die F R E IZ E IT R EVU E ), die so gut wie keine Bibliothek sammelt. Belegexemplare finden sich in der Deutschen Bibliothek (Frankfurt/ Leipzig) und den jeweils zuständigen Landesbibliotheken, die allesamt durch die Zeitschriftendatenbank ZDB der Deutschen Bibliothek erschlossen sind. Bibliotheksexemplare können aber für Analysezwecke kaum verwendet werden, weil sie nicht ausgeliehen oder mit Markierungen versehen werden dürfen. Auch die Verlagsarchive sind oft schlecht bestückt und im Vertrieb sind ältere Exemplare selten länger als ein halbes Jahr lang zu bekommen, was bei der Projektplanung zu berücksichtigen ist. Ein weiteres Problem kann sich aus dem oft hohen Bildanteil von Zeitschriften ergeben: Wesentliche Inhalte werden visuell transportiert, weshalb es einem solchen Medium kaum gerecht würde, wenn man nur die enthaltenen Texte analysierte. Für die Codierung von Bildinformationen müssen freilich vollkommen andere Kategorien entwickelt und operationale Definitionen gefunden werden (vgl. Kap. 5). Ähnliches gilt für das Fernsehen, allerdings in verschärftem Maße: Erstens besteht die visuelle Komponente, die analysiert werden soll, nicht aus Einzelbildern, sondern aus Bewegtbildern, die schwieriger zu erfassen sind. Zweitens sieht die Archivlage noch schlechter aus, weil es in Deutschland keine Institution gibt, die das gesamte Fernsehprogramm (wenn auch nur zu Belegzwecken) archiviert. Zwar bemüht sich das Deutsche Rundfunkarchiv um eine systematische Dokumentation, die über 60 im »Netzwerk Mediatheken« zusammengeschlossenen Archive, Bibliotheken, Dokumentationsstellen, Forschungsinstitute und Museen sammeln jedoch weitgehend unabhängig nach eigenen Schwerpunkten. Die nachträgliche Beschaffung von Sendungen wird deswegen oft zur Detektivarbeit und auch die Recherche bei den Produzenten ist Zeit raubend und kostspielig, weshalb gerade TV-Analysen meist einer vorausschauenden Planung bedürfen. Wenn möglich, sollte man Fernsehanalysen daher so anlegen, dass die Auswahleinheit selbst archiviert werden kann. Die Speicherung des Material: Zeitschriften Material: Fernsehen 66 4 D I E A U S W A H L E I N H E I T <?page no="66"?> Untersuchungsmaterials ist durch die Entwicklung moderner Festplattenrekorder vereinfacht worden. Die weite Verbreitung leistungsstarker Satellitenanlagen macht international vergleichende Analysen einfacher; allerdings ist auch hier genau darauf zu achten, ob es die technische Ausstattung tatsächlich erlaubt, falls erforderlich, verschiedene Kanäle gleichzeitig aufzunehmen. Merksatz Fernsehanalysen sind mit einem hohen technischen, organisatorischen und zeitlichen Aufwand verbunden, sie bedürfen sorgfältiger Planung und eines inhaltlich besonders ausgefeilten Instrumentariums. Schließlich besitzt das Fernsehen als Funkmedium auch im Codierprozess (und damit greifen wir Kap. 10 etwas vor) einen gravierenden Nachteil: Der Inhalt liegt nicht - wie bei Printmedien - in ausgedruckter Form physisch vor, sondern ist flüchtig und an einen vom Medium bestimmten Zeittakt gebunden. Das »Zurückblättern«, das gerade mehrstufige Codierprozesse mit unterschiedlichen Analyseeinheiten und einem komplexen Codebuch benötigen, ist deutlich schwieriger. Aufgrund dieser vielfältigen Probleme beschränken sich Forscher zuweilen auf die Analyse der textlichen Informationen (ggf. sogar von schriftlichen Sendemanuskripten) oder von Programminformationen in Fernsehzeitschriften. Obwohl dies im Einzelfall angemessen sein mag, liegen die Probleme auf der Hand: Das tatsächlich ausgestrahlte Material kann nicht nur von den Planungen abweichen - außerdem wird das Bild, eigentlich wichtigster Kanal dieses »informationsreichen« Mediums, einfach ausgeblendet! Trotz aller Schwierigkeiten sind Inhaltsanalysen der Fernsehberichterstattung wichtig; nicht nur, weil es immer noch das Medium mit dem größten gesellschaftlichen Einfluss ist, sondern auch, weil gerade angesichts der Flüchtigkeit des Mediums die Inhaltsanalysen oft die einzige Möglichkeit sind, Aufschlüsse über vergangene Programmangebote zu konservieren. Dieses Argument gilt, genauso wie die erwähnten Schwierigkeiten, ähnlich auch für den Hörfunk. Obwohl hier der Umgang mit dem Material - wegen der fehlenden visuellen Komponente - noch etwas leichter ist, finden sich in der Forschung kaum systematische Inhaltsanalysen von Radioprogrammen. Dies erstaunt umso mehr, weil der Hörfunk von seiner Nutzungsdauer her gesehen eine überragend wichtige Rolle für das deutsche Medienpublikum spielt. Material: Hörfunk 67 B E S C H A F F U N G , A R C H I V I E R U N G U N D V E R W E N D U N G <?page no="67"?> Auswahl und Archivierung von Online-Inhalten Abschließend sei nochmals ausführlich auf die Analyse von Internet- Inhalten eingegangen, die in den letzten Jahren immer populärer geworden ist. Auch dabei handelt es sich um Mitteilungen, die eine ganze Bandbreite von Kanälen in Anspruch nehmen können (Texte, Bilder, Töne, Animationen, Filme usw.). Insofern sind auch diese bei der Analyse differenziert zu behandeln. Größte Probleme ergeben sich weiterhin bei der Definition der Einheiten: Zunächst existieren im Internet eine ganze Reihe verschiedener Anwendungen, vom World Wide Web über Diskussionsforen und Chats im Social-Media-Bereich, Twitter und andere Messenger bis hin zur E-Mail, die alle ineinander verwoben sein können. Vor allem die Inhalte des World Wide Webs erweisen sich für die Inhaltsanalyse als interessante, aber gleichzeitig schwierig zu fassende Untersuchungsobjekte. Literatur Zur weiteren Vertiefung: Meier, Stefan/ Wünsch, Carsten/ Pentzold, Christian/ Welker, Martin (2010): Auswahlverfahren für Online-Inhalte. In: Martin Welker/ Carsten Wünsch (Hrsg.) (2010): Die Online-Inhaltsanalyse. Forschungsobjekt Internet. Köln: Herbert von Halem, S. 103 ff. Die Bestimmung der Auswahleinheit wird im Internet dadurch erschwert, dass in vielen Fällen die Grundgesamtheit nicht bekannt ist und wegen der ständigen Veränderungen auch kaum bestimmt werden kann. Täglich gehen unzählige neue Inhalte online und ebenso viele werden wieder aus dem Netz genommen. Dabei sind einige Inhalte lediglich zweitweise nicht erreichbar oder auch nicht für jedermann zugänglich. Eine aktuelle und abschließende Liste aller relevanten Webseiten gibt es also allein aufgrund der Dynamik und der Größe des Internets nicht. Sollen im Internet Aussagen über einen Ausschnitt der Realität gemacht werden, müssen wir aber trotzdem versuchen, auf eine entsprechende Grundgesamtheit zuzugreifen. Es werden daher häufig Suchmaschinen zu deren Ermittlung herangezogen, da diese vermeintlich das gesamte Internet nach Inhalten durchforsten und zudem die Mehrheit der normalen Internetnutzer diesen Weg ebenfalls für ihre Angebotssuche wählt. Allerdings sind die Ergebnisse der jeweiligen Abfragen mit Vorsicht zu genießen, denn Suchmaschinen arbeiten mit bestimmten Algorithmen, die Ergebnisse bewerten und gewichten. Eine wichtige 4.4 Material: Internet schwer erfassbare Grundgesamtheit 68 4 D I E A U S W A H L E I N H E I T <?page no="68"?> Währung im Internet sind zum Beispiel Verlinkungen: Webseiten, die häufig verlinkt werden, stehen bei den Suchergebnissen weiter oben. Das Suchergebnis ist daher zu Gunsten dieser Seiten verzerrt. Da die Algorithmen nicht öffentlich zugänglich sind, besteht auch keine Möglichkeit, das Zustandekommen der Liste nachzuvollziehen. Zudem weisen große Suchmaschinen zuweilen lediglich die ersten 1.000 Suchergebnisse aus, selbst wenn weit mehr Suchtreffer vorliegen. Weitere Listen mit relevanten Internetseiten entstammen häufig redaktionellen Angeboten, in denen die Links zu bestimmten Themen zusammengefasst sind, oder werden auf sogenannten Social-Bookmarking-Seiten von Internetnutzern selbst kreiert, indem Angebote zu bestimmten Themen markiert und gerankt werden. Auch hier gilt es zu bedenken, dass die Ergebnisse eher auf populäre Seiten verweisen und weniger bekannte, doch für das Analyseziel eventuell genau so wichtige Angebote ausklammern können. Zudem stellt sich bei allen Listen die Frage, wie aktuell diese sind, und ob es inzwischen nicht bereits weitere, unberücksichtigte Angebote gibt, da es eine Weile dauert, bis neue Angebote über Suchmaschinen und in den genannten Linklisten gefunden werden können. Weitere Probleme für die Festlegung der Auswahleinheit stellen die Reaktivität und Personalisierung der Onlineangebote dar. Die aufgerufenen Angebote werden meist für den jeweiligen Zugriff generiert und basieren teilweise auf Eingaben des Nutzers oder den (in sogenannten »Cookies« gespeicherten) Informationen aus einem vorherigen Besuch der Seite, besonders auffällig etwa im Bereich der Online-Werbung. Ein einmal realisiertes Angebot kann bei erneutem Aufrufen der gleichen Internetadresse also komplett anders strukturiert und dargestellt werden. Und für die Angebote von Mega-Websites (YouTube, Facebook usw.) setzen sich die Probleme bei der Auswahl auch innerhalb des Angebots fort. Insgesamt bleibt die Definition der Grundgesamtheit bei Online- Medien daher stets eine Momentaufnahme und orientiert sich stark an der jeweiligen Forschungsfrage. Die für Funkmedien beschriebenen Probleme bei der Archivierung verschärfen sich im Internet weiter, da der schnelle Wandel der Inhalte ohne vordefinierte Periodizität erfolgt. Die Filter Raum und Zeit, die wir am Anfang des Kapitels angesprochen haben, lassen sich im Internet nur bedingt einsetzen. Auch nachträgliche Stichproben sind zum einen kaum mehr zu ziehen und Archive nur für bestimmte Angebotstypen (z. B. Mailinglisten) zuverlässig verfügbar. Zum anderen werden viele Seiten laufend geändert oder ergänzt, und es ist oft nicht nachprüfbar, wie lange ein Angebot bereits in der aktuellen Form besteht, d. h. wann genau es erstellt bzw. überarbeitet wurde. Auch der räumliche Bezug ist 69 A U S W A H L U N D A R C H I V I E R U N G V O N O N L I N E - I N H A L T E N <?page no="69"?> mitunter schwer zu fassen: Anders als bei den Printmedien ist im Internet oft nicht auf den ersten Blick ersichtlich, wo und für wen Inhalte produziert werden. Länderkürzel in der Domain können hier lediglich ein Indiz sein, es bedarf jedoch meist intensiver Recherche. Bei der Inhaltsanalyse von Internet-Inhalten hat sich aufgrund der aufgezeigten Probleme eine Aufteilung in angebots- und nutzerzentrierte Inhaltsanalysen bewährt. Erstere fokussieren auf die im Internet zur Verfügung gestellten Angebotsoptionen, wie sie theoretisch jedermann nutzen könnte. Letztere betrachten nur die tatsächlich realisierten Nutzungsvorgänge durch die Rezipienten. Beide Verfahren lassen sich in jeweils zwei Unterformen aufteilen. So kann bei der angebotszentrierten Inhaltsanalyse mit einer Sparten- oder auch Bereichsanalyse der Schwerpunkt auf Mediengenres, Publikationsformen oder Anbietergruppen gelegt werden, während bei einer inhaltlichen Fokusanalyse konkrete Themen, Personen, Ereignisse oder auch Autoren betrachtet werden. Für die nutzerzentrierte Inhaltsanalyse besteht zum einen die Möglichkeit einer Publizitätsanalyse, die sich an der Reichweite bestimmter Angebote orientiert, wie sie zum Beispiel von der IVW (der ursprünglich für den Printbereich entwickelten Auflagenmessung) ausgewiesen wird. Zum anderen kann mit einer Selektivitätsanalyse die individuelle Nutzung einzelner Rezipienten ausgewertet werden. Hierfür wird die einzelne Nutzung per Video oder über ein Logfile aufgezeichnet und damit nichts anderes getan, als Beobachtungsdaten inhaltsanalytisch ausgewertet (vgl. Kap. 15). Für die Archivierung von Webseiten im Rahmen der Online-Inhaltsanalyse gibt es mittlerweile einige kommerzielle, aber auch kostenfreie Programme, die ein Abbild der Internetseite auf der Festplatte ablegen. Diese Programme werden für den jeweiligen Einsatz konfiguriert, wobei eingestellt werden muss, von welcher Domain ausgehend die zu archivierenden Dateien und Seiten gespeichert werden sollen. Dieser Programmtyp, der auch »Spider« oder »Crawler« genannt wird, ruft nach und nach die auf der Seite gesetzten Links auf und speichert die für die einzelne Adresse hinterlegten Seiten. Trotz immer schnellerem Datentransfer und großen Speicherkapazitäten, die die Untersuchung von »Big Data«-Samples (vgl. Kap. 11) erst ermöglichen, muss bedacht werden, dass es bei einer umfassenden Archivierung schnell zu einer beträchtlichen Menge an Daten kommen kann, da sich mit jeder archivierten Ebene die möglichen Linkverbindungen vervielfachen. Gut durchdachte Filtersetzungen zahlen sich hier genauso aus wie eine laufende Überprüfung der archivierten Seiten, bei der zu testen gilt, ob alle Objekte einer Seite erfasst wurden (wie z. B. Videos) und diese genauso funktionieren wie im Internet. Manche Anbieter verwenden zudem Typologie der Online-Inhaltsanalyse Archivierung 70 4 D I E A U S W A H L E I N H E I T <?page no="70"?> technische Sperren, sodass zwar auf diese Inhalte zugegriffen werden kann, eine Archivierung hingegen nicht möglich ist. Es wird deutlich, dass bei der Untersuchung von Internet-Inhalten besonders genaue Definitionen erforderlich sind - für Aufgreifkriterien, für die Ermittlung der Grundgesamtheit und die Stichprobenziehung ebenso wie für die darauf basierende Auswahleinheit. Diese Vorarbeit bedeutet zwar anfangs einen höheren Aufwand als bei der herkömmlichen Inhaltsanalyse (beispielsweise von Printmedien), kann diesen Nachteil aber bei der Archivierung und Auswertung des Materials wieder ausgleichen. Sobald nämlich festgelegt ist, welche Webseiten archiviert werden sollen, übernimmt der Computer die Archivierung und es hängt nur noch von dessen Rechenkapazität und der Datenübertragungsrate ab, wann das Material ausgewertet werden kann. Bei der Auswertung besteht zudem der Vorteil, dass das Material bereits digitalisiert vorliegt. Dies könnte vor allem auch in Hinblick auf eine automatisierte Textanalyse (vgl. Kapitel 11.3) interessant sein. Merksatz Bei der Analyse von Online-Inhalten kommt der Definition der Grundgesamtheit und der sorgfältigen Archivierung der Webseiten besondere Bedeutung zu. Fallbeispiel: Politische Kommunikation II Kehren wir nun zu unserem Fallbeispiel zurück, das bereits am Ende des vorherigen Kapitels vorgestellt wurde. Nach den theoretischen Vorarbeiten für diese Studie war der wichtige praktische Arbeitsschritt die Bestimmung der Auswahleinheit. Die Schwierigkeit lag bei unserer Fallbeispiel-Studie in der Definition der Auswahleinheit, da drei verschiedene Mediengattungen - TV, Print und Internet - untersucht wurden und für jede einzelne Mediengattung das zu untersuchende Angebot und dessen Format bzw. Ressort bestimmt werden musste. Zunächst wurden jene Medien ausgewählt, die (1) von vielen Rezipienten genutzt werden und von anderen Medien als Leitmedium angesehen werden sowie (2) unterschiedliche redaktionelle Linien vertreten. Berücksichtigt wurden deswegen die überregionalen Tageszeitungen F R ANKFU RTE R A L LG EME IN E Z E ITUNG (faz.net) und die S ÜDDEUTS CH E Z E ITUNG (sueddeutsche.de), als Boulevardzeitung die B ILD Auswahleinheit 71 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N I I <?page no="71"?> (bild.de), der S P I E G E L (spiegel-online.de) als Publikumszeitschrift sowie die Regionalzeitung O STTHÜR ING E R Z E ITUNG (otz.de). Stellvertretend für Fernsehnachrichten wurden die T AG E S S CHAU UM 20 U HR (tagesschau.de) und RTL AKTUE L L UM 18: 45 (rtl-aktuell.de) untersucht. Als Online-Inhalte wurde das jeweilige Internet-Pendant dieser Medien analysiert, daneben aber auch WE B . D E als reine Online-Publikation, die aktuelle politische Informationen liefert und zu den reichweitenstärksten Web-Portalen zählt. Die Berichterstattung mit Politikbezug wurde zunächst über das Ressort »Politik« oder vergleichbare Rubriken wie »Titel«, »Nachrichten«, »Inland«, »Ausland« und »Aktuelles« definiert. Bei B ILD und Fernsehnachrichten, die über keine Ressortangaben verfügen, wurden zunächst alle Beiträge codiert. Das Codebuch enthielt zusätzlich eine detaillierte Themenliste mit über 250 Themen und gab dabei Anhaltspunkte, wie mit diesen Beiträgen weiter zu verfahren war. Generell wurden alle Beiträge codiert, die »das Handeln deutscher Politiker, deutscher politischer Institutionen und Organisationen im In- und Ausland oder politische Prozesse, MEDIENINHALTE Zeitraum: 2011-2012 räumlicher Geltungsbereich: Deutschland Tagesschau RTLAktuell Medienga ung: TV inhaltlich definitorischer Teil: alle Beiträge, die das Handeln deutscher Poli ker, deutscher poli scher Ins tu onen und Organisa onen im In- und Ausland oder poli sche Prozesse, die die Bundesrepublik Deutschland bzw. einzelne Bundesländer oder Kommunen betreffen, zum Inhalt haben CODIERMATERIAL Medienga ung: Print Medienga ung: Internet Medienangebot: FAZ, SZ, Bild, OTZ, Spiegel Formate/ Ressorts: komple Medienangebot: faz.net, otz.de, bild.de, sueddeutsche.de, spiegel.de, tagesschau.de, rtlaktuell.de, web.de Formate/ Ressorts: Spiegel: Titel, Deutschland otz.de: Aktuell, Poli k tagesschau.de: Im Ressort Nachrichten die Unterressorts Inland, Ausland, Wirtscha rtlaktuell.de: News Rest: Poli k Formate/ Ressorts: Titel, Poli k/ Nachrichten Bild: komple Codebuch 72 4 D I E A U S W A H L E I N H E I T <?page no="72"?> die die Bundesrepublik Deutschland bzw. einzelne Bundesländer oder Kommunen betreffen, zum Inhalt haben«. Der räumliche und zeitliche Geltungsbereich beschränkte sich dabei auf Deutschland und zwei einzelne Wochen im November 2011 und April 2012. In diesem Zeitraum wurde das politische Geschehen weder von einem bestimmten innen- oder außenpolitischen Thema dominiert, weshalb die Forscher Verzerrungen zugunsten eines Themas oder Akteurs ausschließen. Im Ergebnis resultierte daraus eine für die Untersuchung gültige Grundgesamtheit von 2.362 Beiträgen. Dieser Beitrags-Katalog stellt eine Momentaufnahme der Berichterstattung über die Politik in deutschen TV-, Print- und Online-Medien dar. Allerdings sollte klar sein, dass es sich lediglich um eine Stichprobe handelt; diese deckt zwar durch ihre Vielfalt ein breites mediales und redaktionelles Feld ab, spiegelt aber nicht die komplette deutsche Berichterstattung jener Tage wieder. Dennoch wird die deutsche Medienlandschaft durch die Auswahl von Leit- und reichweitenstarken Medien so gut repräsentiert, dass valide Rückschlüsse zulässig sein sollten. Übungsfragen 1 Ist diese Aussage richtig oder falsch? Wird bei einer Inhaltsanalyse eine Verallgemeinerung der Befunde angestrebt, so ist es notwendig, dass die Definition der Auswahleinheit - also die aus der Grundgesamtheit der Berichterstattung gezogene Stichprobe - die Bedingungen der Stichprobenverfahren für statistische Repräsentativität erfüllt. 2 Was trifft nicht zu? Die Auswahlschritte zur Ermittlung von Auswahleinheiten, die den Kriterien für repräsentative Stichproben genügen sollen, erfolgen. . . a) durch bewusste Auswahl. b) durch zufällige Auswahl. c) durch willkürliche Auswahl. 3 Was ist richtig? Wenn die Auswahleinheit ein strukturgleiches, verkleinertes Abbild der Grundgesamtheit darstellt, über die eine Aussage getroffen werden soll, . . . a) werden damit repräsentative Aussagen möglich. b) vereinfacht dies die Kategorienbildung für diese Auswahleinheit. c) muss eine Schichtung aufgrund bekannter Merkmale aus der Grundgesamtheit vorliegen. Grundgesamtheit 73 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N I I <?page no="73"?> 4 Welche der folgenden Aussagen sind falsch? a) Klumpenstichproben sind in der Medieninhaltsanalyse weit verbreitet, da sie für Auswahlfehler kaum anfällig sind. b) Durch die systematische Auswahl und Definition »künstlicher Wochen« erhält man ein strukturgleiches, verkleinertes Abbild der Grundgesamtheit. c) Die kriteriengeleitete und empirisch basierte, bewusste Auswahl der Stichprobe bedarf einer besonderen Begründung. d) Als Kriterium für repräsentative Stichproben bedarf die willkürliche Auswahl keiner Begründung. 74 4 D I E A U S W A H L E I N H E I T <?page no="74"?> Die Analyseeinheit: Definitionen für Print- und Funkmedien Inhalt 5.1 Grundsätzliche Überlegungen 5.2 Unabhängige Analyseeinheiten: Parallele Zerlegung 5.3 Analyseeinheiten bei Textmedien: Hierarchische Zerlegung 5.4 Analyseeinheiten für Bewegtbilder: Hierarchische Zerlegung 5.5 Exkurs I: Analyseeinheit Bild 5.6 Exkurs II: Umgang mit Analyseeinheiten im Internet In diesem Kapitel wird die Definition der Analyseeinheit(en) als eine der wichtigsten Entscheidungen im Prozess der Inhaltsanalyse ausführlich erläutert. Für zwei unterschiedliche Arten von Medieninhalten, nämlich Texte und Bewegtbilder, wird das Prinzip der hierarchischen Zerlegung des Materials in einzelne Analyseeinheiten erläutert. Grundsätzliche Überlegungen Der Definition der Analyseeinheiten kommt eine besondere Bedeutung zu, wie in Kapitel 3.2 bereits verdeutlicht wurde. Nochmals zur Wiederholung: Die Analyseeinheit sind jene Elemente aus dem Untersuchungsmaterial, für die im Rahmen der Codierung eine Klassifizierung vorgenommen wird. Man muss sich dabei stets vor Augen führen, dass die Ebene, auf der die Codierung erfolgt, auch die kleinste Basis für die spätere Auswertung darstellt. Man kann nicht genauer analysieren, als die Daten erhoben wurden; wohl aber kann man sehr genau erhobene Daten für die Auswertung wieder auf einer höheren Ebene zusammenfassen (»aggregieren«). 5 5.1 75 G R U N D S Ä T Z L I C H E Ü B E R L E G U N G E N G R U N D S Ä T Z L I C H E Ü B E R L E G U N G E N <?page no="75"?> Merksatz Der Auflösungsgrad der Analyseeinheit bestimmt die Detailliertheit der Auswertungen (Analysetiefe): Einmal erhobene Daten können zwar auf eine höhere Ebene aggregiert werden, aber nachträglich nicht mehr auf einer niedrigeren Ebene differenziert werden. Die Entscheidung für oder gegen eine Analyseeinheit bestimmt also schon das Spektrum möglicher Auswertungen. Für die Festlegung der Analyseeinheit muss man sich deswegen Klarheit darüber verschaffen, was gemessen werden soll und auf welcher Ebene die Messung überhaupt variieren kann - für jede dieser Ebenen muss dann eine Analyseeinheit definiert werden. So wäre z. B. der Artikel eine sinnvolle Analyseeinheit, wenn die Themen der Berichterstattung erfasst werden sollen, denn ein Artikel dient in der Mehrzahl der Fälle auch als Bedeutungsträger für ein Thema. Das gesamte Ressort der Zeitung oder deren Internet-Angebot wäre hier als Analyseeinheit ungeeignet, weil darin mehrere Themen abgehandelt werden; ein einzelner Satz wäre aber genauso keine angemessene Analyseeinheit, weil er zu feingliedrig ist - Themen beziehen sich regelmäßig auf mehr als einen Satz. Es spricht jedoch nichts dagegen, das Untersuchungsmaterial ein und derselben Studie in verschiedene Analyseeinheiten zu zerlegen, und zwar entweder . parallel oder . hierarchisch. Unabhängige Analyseeinheiten: Parallele Zerlegung Bei der parallelen Zerlegung sind die jeweiligen Analyseeinheiten unabhängig voneinander zu sehen, obwohl sie auf dieselbe Auswahleinheit angewendet werden. Sie können sich auf dasselbe oder auf unterschiedliches Material beziehen, sich überschneiden oder decken. Nur wird dabei für jede Analyseeinheit etwas anderes gemessen, es kommt jeweils ein eigenes Kategoriensystem zum Einsatz. Beispiel Parallele Zerlegung der Zeitungsberichterstattung im Internet Angenommen, unsere Forschungsfrage bezieht sich auf die Darstellung von Angela Merkel in den Internet-Angeboten überregionaler Tageszei- Ebene der Messung 5.2 76 5 D I E A N A L Y S E E I N H E I T <?page no="76"?> tungen. Die Codierungkann zunächst (1) auf Artikelebene erfolgen. Die Anweisung für den Codierer lautet, einen relevanten Artikel zu identifizieren (z. B. anhand des Aufgreifkriteriums »Merkel in Überschrift genannt«) und dann die definierten, wesentlichen Artikelmerkmale festzuhalten. Das wäre neben der medialen Quelle und dem Veröffentlichungsdatum sicherlich das Thema, in dessen Zusammenhang Merkel genannt wird. Eine weitere Strategie könnte (2) darin bestehen, politische Akteure als Analyseeinheit zu wählen. Dann wird die Auswahleinheit insgesamt nach handelnden Personen durchsucht, als Aufgreifkriterium würde man etwa eine Liste der 20 wichtigsten Politiker vorgeben. Für jedes Auftreten eines Akteurs (darunter auch Merkel) würde dann u. a. festgehalten, ob er/ sie positiv, negativ oder neutral dargestellt wird und welche Eigenschaften der Person zugeschrieben werden. Daneben könnten als Analyseeinheit auch (3) die beigefügten Fotos betrachtet werden. Der Codierer müsste sich dabei jedes einzelne Foto der Bilderstrecke vornehmen (ggf. ergänzt um ein weiteres Aufgreifkriterium, z. B. »Merkel abgebildet«) und ein Kategoriensystem anwenden, das speziell auf die Fotomerkmale abgestimmt ist (Erhebung von Bildmotiv, Mimik, Körpersprache usw.) (vgl. Kap. 5.5). Bezugspunkt für die Auswertung ist in der ersten Variante der Artikel: Die Ergebnisse zeigen an, in welchen Medien oder zu welchem Zeitpunkt Angela Merkel anhand welcher Themen dargestellt wird. In der zweiten Variante bezieht sich die Auswertung auf die genannten Akteure; das können weniger, in der Regel aber mehr Fälle sein als Artikel, weil in einem durchschnittlichen Artikel mehr als eine handelnde Person vorkommt. Die Resultate würden dann die Akteursnennungen von Merkel denen anderer Politiker gegenüberstellen, um unterschiedliche Images herauszuarbeiten. Die dritte Variante wertet auf Basis der aufgefundenen Fotos aus; man würde hier ermitteln, in welchen Kontexten Merkel abgebildet wird oder ob es sich um ein - aus ihrer Sicht - vorteilhaftes oder unvorteilhaftes Motiv handelt. Eine ähnliche Logik lässt sich auch auf die Analyse von Rundfunkbzw. Fernsehprogrammen anwenden. Setzt man eine parallele Zerlegung ein, sollte man sorgfältig nachprüfen, ob die formulierten Hypothesen mit den unterschiedlichen Analyseeinheiten auch angemessen bearbeitet werden können. Denn wie bereits gesagt: Informationen, die auf der einen Ebene erhoben wurden, können nicht ohne Weiteres in den anderen Datensatz auf der anderen Ebene überführt werden. Anders stellt sich dies im Falle der - in der Forschung weit verbreiteten - hierarchischen Zerlegung dar, deren Logik in den nachfolgenden beiden Abschnitten am Beispiel von Tageszeitungen und Fernsehnachrichten erläutert wird. 77 U N A B H Ä N G I G E A N A L Y S E E I N H E I T E N : P A R A L L E L E Z E R L E G U N G <?page no="77"?> Analyseeinheiten bei Textmedien: Hierarchische Zerlegung Die hierarchische Zerlegung des Untersuchungsmaterials beruht auf der Idee, anhand von strukturellen Merkmalen verschiedene Ebenen der Berichterstattung zu identifizieren. Jede dieser Ebenen ist Träger für bestimmte Informationen, und durch die Definition jeder Ebene als eigene Analyseeinheit kann eine optimale Codierung ohne Informationsverlust erfolgen. Schematisch stellt Abb. 5.1 diese Vorgehensweise dar. Exemplarisch betrachten wir nun die Analyse von Wahlkampfberichterstattung; unser Ziel sei, den politischen Teil der Tageszeitungen auf einschlägige Artikel und Aussagen hin zu untersuchen. Im Fall von Tageszeitungen wäre es plausibel, die Auswahleinheit in der letzten Stufe auf Ressortebene zu definieren, und zwar als den politischen Teil der jeweiligen Tageszeitung. Diese Auswahleinheit muss dann noch für jedes Medium genauer spezifiziert werden: In der S ÜD- D EUT S CHEN Z E ITUNG könnte dies die Titelseite sein und außerdem alle Seiten unter den Rubriken »Themen des Tages«, »Seite drei«, »Meinungsseite« und »Nachrichten«. In der F RANKFURTE R A LLG EME INE N Z E ITUN G wäre dies genauso die Titelseite, dann aber eine Liste anderer Rubriken. Gleichzeitig bietet sich der politische Teil in seiner Gesamtheit auch als Analyseeinheit auf höchster Ebene an - auf alles, was dort erscheint, treffen bestimmte Sachverhalte zu, die auf dieser Ebene variieren, aber auf den darunter liegenden Ebenen zwangsläufig konstant bleiben. Dies lässt sich gut am Beispiel der Kategorie »Erscheinungsdatum« verdeutlichen. Jeder politische Teil der S ÜDD EUT S CHEN Z E ITUNG erscheint an einem bestimmten Tag, aber an jedem Tag erscheint in der S ÜDDEUT- S CHEN Z E ITUNG nur ein politischer Teil. Das Datum variiert zwischen den zu untersuchenden politischen Teilen von unterschiedlichen Ausgaben an den jeweiligen Tagen, also ist es sinnvoll, das Datum auf der Ebene der Analyseeinheit »politischer Teil« zu codieren. Alle Artikel, die am betreffenden Tag im politischen Teil erscheinen, haben andererseits per se dasselbe Datum. Deswegen ist es unnötig, diese Information auf der Abb. 5.1 Hierarchisch gegliederte Analyseeinheiten für die Tageszeitung 5.3 höchste Ebene: Auswahleinheit 78 5 D I E A N A L Y S E E I N H E I T <?page no="78"?> Artikelebene festzuhalten - damit würde man nur überflüssigen Codieraufwand produzieren, denn die Information ist für alle Artikel desselben politischen Teils konstant. Merksatz Die logisch sinnvolle Zuordnung der Kategorien zu angemessenen Analyseeinheiten spart Codieraufwand und erlaubt zielgenauere Analysen. Damit sind wir auf der Artikelebene angelangt. Zuvor wurde bereits ein Beispiel für eine Kategorie erwähnt, die sinnvollerweise für diese Analyseeinheit codiert wird: das Thema des Artikels. Die journalistische Nachrichtenproduktion fasst typischerweise Informationen zum selben Thema in einem Artikel zusammen. Zwar können manche Artikel auch mehrere Themen behandeln (abgesehen davon, dass die Themendefinition selbst problematisch ist; vgl. Kap. 8.2). Häufiger kommt allerdings vor, dass in derselben Ausgabe mehrere Artikel zum selben Thema erscheinen. Man könnte einwenden, dass dieselben Informationen doch auch auf der übergeordneten Analyseeinheit festgehalten werden könnten: Beispielsweise wäre es möglich, für jeden politischen Teil eine Liste mit den Themen anzulegen, die in den einzelnen Artikeln angesprochen werden. Dies ist prinzipiell richtig, ein solches Vorgehen hätte aber gravierende Nachteile: Zum einen sind solche Daten später schwierig auszuwerten, denn es handelt sich um so genannte Mehrfachcodierungen innerhalb einer Kategorie, für die die meisten Statistikprogramme nur eingeschränkte Analysemöglichkeiten vorsehen. Zum anderen geht ein enormes Analysepotenzial verloren, denn gemeinsam mit dem Thema würden auf Artikelebene ja noch eine Menge weiterer Informationen erhoben (z. B. die Länge und Platzierung des Artikels). Die könnten aber nicht mehr sinnvoll mit einzelnen Themen verknüpft werden, wenn letztere nur pauschal auf höherer Ebene erfasst würden. Merksatz Eine unüberlegte Zuordnung von Kategorien und Analyseeinheiten rächt sich spätestens bei der Auswertung. Ähnlich lässt sich mit Blick auf die dritte, in Abb. 5.1 veranschaulichte Analyseeinheit argumentieren. Hier wird der einzelne Artikel nochmals Artikelebene 79 T E X T M E D I E N : H I E R A R C H I S C H E Z E R L E G U N G <?page no="79"?> in unterschiedliche Aussagen zerlegt. Denn analog gilt: Auch wenn sich alle einzelnen Aussagen in einem Artikel auf dasselbe Thema beziehen, so variieren sie doch häufig hinsichtlich ihrer Urheber, ihres Gegenstandes und ihren Bewertungen. Der nachfolgende Beispieltext mag dies verdeutlichen. Beispiel Auszug aus einem Artikel zur Sozialstaatsdebatte »[. . .] 1 Die Kritik der Opposition an der Flüchtlingspolitik sei vollkommen überzogen, gab die Kanzlerin zu Protokoll. 2 Davon unbeeindruckt trat Gregor Gysi vor seine Parteigenossen. 3 ›Ich halte die Strategie der Regierung für vollkommen verfehlt‹, ließ er wissen und bekannte sich anschließend eindeutig zu den Plänen der Opposition für eine Reform des Einwanderungrechts [. . .]« Anmerkung: Für die einfachere Ansprache im Text wurden die einzelnen Sätze durchnummeriert. Dieser Auszug aus einem Artikel zur Flüchtlingsdebatte führt die Notwendigkeit einer weiteren Analyseeinheit unterhalb der Artikelebene klar vor Augen - zumindest dann, wenn jenseits von Themen eine feingliedrigere Erhebung der Inhalte verlangt ist. Und wieder gilt: Zwar könnte man auch unterschiedliche Urheber oder Bewertungen auf Artikelebene zusammenfassend und pauschal codieren, sie dann aber später bei der Auswertung nicht mehr auseinander halten. Im ersten Satz wird die Stellungnahme von Angela Merkel (Kanzlerin = Urheber) referiert, die kritische Äußerungen der Opposition zur Flüchtlingsdebatte (Gegenstand) als übertrieben bezeichnet (Bewertung). Hierbei handelt es sich um den einfachen Fall, dass ein Satz gleich einer Aussage ist. Anders ist dies in den beiden folgenden Sätzen, die zusammengenommen zuerst eine und dann noch eine weitere Aussage ergeben: Satz 2 benennt den Urheber für die nachfolgenden Aussagen - Gregor Gysi. In Satz 3 folgt dann zunächst eine Bewertung (»verfehlt«) des Gegenstands »Strategie der Regierung«, dann die Bewertung (»bekennt sich zu«) des Gegenstandes »Oppositionspläne für eine Reform des Einwanderungsrechts«. Anscheinend sind also die Satzgrenzen nicht immer angemessen, um die einzelnen Aussagen voneinander zu trennen. Es müssen andere Indikatoren für diese Abgrenzung gefunden werden. Pragmatisch würde man im Beispielsfall immer dann eine neue Aussage codieren, wenn Urheber, Gegenstand oder Bewertung wechseln (vgl. hierzu ausführlicher Kap. 9). Aussagenebene 80 5 D I E A N A L Y S E E I N H E I T <?page no="80"?> Viele dieser Feinheiten in der medialen Darstellung könnten also auf Artikelebene nur unzureichend festgehalten werden. Deswegen ergibt die Codierung von Aussagen als selbstständige Analyseeinheit einen Datensatz, in dem jede einzelne Aussage in jedem Artikel einen eigenen Fall darstellt. Damit ist unsere dreistufige, hierarchisch gegliederte Codierung komplett - es liegen Daten auf Ressort-, Artikel- und Aussagenebene vor, und zwar in unterschiedlichen Datensätzen. Die lassen sich im Rahmen der Auswertung später wieder zusammensetzen und zusammenfassen. Merksatz Hierarchisch zerlegte Analysen ergeben unterschiedliche Datensätze, die sich anhand von Schlüsselcodes wieder für die Auswertung zusammenführen lassen. Allerdings muss hierfür rechtzeitig ein Schlüsselmerkmal definiert und festgehalten werden, das später die eindeutige Zuordnung erlaubt. Dies kann beispielsweise eine mehrstellige Codezahl sein, die Informationen über Medium und Erscheinungsdatum enthält, sowie eine laufende Artikelnummer und eine laufende Aussagennummer. Damit wird jede codierte Analyseeinheit eindeutig gekennzeichnet (siehe Abb. 5.2). Der sauberen Zuweisung dieser Schlüsselcodes kommt größte Bedeutung zu, denn sie ist später Voraussetzung für eine vernünftige Datenauswertung. Die Codierer sollten deswegen ausdrücklich auf den Stellenwert dieser vermeintlich unwichtigen, »langweiligen« Kategorie hingewiesen werden! Merksatz Der korrekten Erfassung der Schlüsselcodes kommt bei hierarchisch zerlegten Analyseeinheiten höchste Priorität zu, da ohne sie später keine sinnvolle Auswertung erfolgen kann. In diesem Abschnitt wurde die Zerlegung ausgehend von dem Typ der zu untersuchenden Berichterstattung dargestellt. In der Praxis der Inhaltsanalyse würde man allerdings anders vorgehen: Am Beginn stehen die Hypothesen, Forschungsfragen und Begriffe (vgl. Kap. 3), von denen ausgehend man eine Liste der Sachverhalte erstellt, die in der Inhaltsanalyse festgehalten werden müssen. Anschließend kann für jeden Schlüsselmerkmal 81 T E X T M E D I E N : H I E R A R C H I S C H E Z E R L E G U N G <?page no="81"?> Sachverhalt entschieden werden, welche Analyseeinheit erforderlich ist, um ihn angemessen erfassen zu können. Diese Liste dient dann als Richtschnur für die Definition der Analyseeinheiten und danach für die Zuordnung von Kategorien zu Analyseeinheiten. Abschließend sei an dieser Stelle noch auf ein grundsätzliches Problem hingewiesen, das die spätere Auswertung von inhaltsanalytischen Daten auf der Ebene unterhalb des einzelnen Artikels betrifft. Aus statistischer Sicht könnte man hier argumentieren, dass streng genommen die meisten der üblichen Testverfahren nicht angewendet werden können, da die einzelnen Einheiten (Aussagen usw.) keine unabhängigen Beobachtungen darstellen, was eine wichtige Prämisse der Teststatistik verletzt. In der Forschungspraxis wird dieser berechtigte Einwand jedoch meist vernachlässigt, was bei deskriptiven Auswertungen, die hauptsächlich unterschiedliche Anteilswerte gegenüberstellen und auf Testverfahren verzichten, auch durchaus legitim ist. Analyseeinheiten für Bewegtbilder: Hierarchische Zerlegung Die eben anhand der Textberichterstattung ausführlich dargestellte Vorgehensweise lässt sich mit derselben Logik auf Bewegtbilder anwenden. Da es hierbei jedoch einige Besonderheiten zu beachten gilt, die aus dem Abb. 5.2 Verknüpfung hierarchisch zerlegter Analyseeinheiten Weitere Cod. 1 0108 1 1 ... 1 0108 1 2 ... 1 01081 3 Aussageebene 2 (SZ) 1 (FAZ) 0208 1 (FAZ) 0108 Weitere Codierungen ... ... 0108 Ressortebene 1 0108 1 0108 Weitere Cod. 1 0108 1 2 3 ... ... Artikelebene keine unabhängigen Beobachtungen 5.4 82 5 D I E A N A L Y S E E I N H E I T <?page no="82"?> speziellen Charakter des Mediums Fernsehen resultieren, soll die Übertragung exemplarisch anhand der Analyse von Fernsehnachrichten verdeutlicht werden. Abb. 5.3 passt das bereits bekannte Schema an die neue Auswahleinheit an. Wieder wäre die letzte Ebene der Auswahleinheit - etwa die einzelne Nachrichtensendung (T AG E S S CHAU , H EUT E , RTL AKTUE LL usw.) - auch gleichzeitig die Analyseeinheit auf höchster Stufe. Für sie können das Datum, aber auch übergreifende Merkmale wie das Geschlecht des Sprechers codiert werden. Eine Ebene darunter wäre der einzelne Beitrag angesiedelt. Er ließe sich beispielsweise als Gesamtheit aller Botschaften definieren, die zum selben Thema gesendet werden. Meist reicht dies jedoch für eine präzise Beschreibung nicht aus, weshalb auf formaler Ebene einzelne Beitragselemente (wie Anmoderation, Filmbericht, Experteninterview usw.) oder gar Sequenzen (der Bildinhalt zwischen zwei Schnitten) als Analyseeinheit vorzusehen wären. Erneut gibt es hierfür keine pauschale Empfehlung - anhand der Fragestellung ist zu entscheiden, welcher Auflösungsgrad für das jeweilige Erkenntnisinteresse angemessen scheint. Die Definition dieser kleinsten Analyseeinheiten der TV-Berichterstattung kann Probleme aufwerfen, denn das kreative Screendesign der Fernsehmacher bietet so manche Überraschung, die dem Inhaltsanalytiker Kopfzerbrechen bereitet. Eine Auswahl: . Wie verfährt man mit einander überlagernden Elementen (etwa einer Anmoderation, die in einen Bildbericht übergeht)? . Wie teilt man durch eine weiche Überblendung verknüpfte Sequenzen? . Wie codiert man aufgeteilte Split-Screen-Bildschirme (Bild im Bild)? . Wie werden eingeblendete Werbezeilen, Programmhinweise oder Logos berücksichtigt? Diese Fragen lassen sich meist nicht am grünen Tisch beantworten, sondern müssen durch die Betrachtung von Beispielmaterial erkannt und pragmatisch gelöst werden. Allerdings hat es sich in vielen Zusammenhängen als sinnvoll erwiesen, für die kleinste Analyseeinheit eine Mindestdauer festzulegen. Die sollte größer als die mit vernünftigem Aufwand messbare Zeiteinheit (z. B. eine Sekunde) sein und verhindern, dass Abb. 5.3 Hierarchisch gegliederte Analyseeinheiten für Fernsehnachrichten Beitrags- und Sequenzebene 83 B E W E G T B I L D E R : H I E R A R C H I S C H E Z E R L E G U N G <?page no="83"?> Programminhalte mit schnellen Schnitten und raschen Bildwechseln (z. B. Werbung, Musikvideoclips, Actionfilme) in eine unendliche Zahl von Analyseeinheiten zerfallen, die letztlich fast nur noch auf Einzelbildebene zu codieren wären. Zu Recht kann man argumentieren, dass deren Informationsgehalt bei schneller Abfolge auch vom unvoreingenommenen Zuschauer kaum mehr wahrnehmbar und decodierbar wäre. Merksatz Für die Analyseeinheiten auf der untersten Stufe sollte, sofern für das Untersuchungsziel angemessen, ein Mindestumfang festgelegt werden, um extrem kurze Bruchstücke aus der Codierung ausschließen zu können. Die bisher vorgestellte Zerlegung berücksichtigte auf ihrer letzten Stufe nur formale Gestaltungsmerkmale. Genauso wäre aber denkbar, hier die oben erwähnten inhaltlichen Einheiten (Aussage, Akteur usw.) zu verwenden. In diesem Fall sollte jedoch grundsätzlich über den Stellenwert nachgedacht werden, den visuelle und textliche Informationen für die Fragestellung besitzen. Beispielsweise neigt man dazu, Aussagen vorwiegend anhand des gesprochenen oder eingeblendeten Textes zu definieren, weil Bildaussagen sehr viel schwerer zu identifizieren sind - nicht umsonst heißt es, »ein Bild sagt mehr als 1000 Worte«. Außerdem unterscheidet sich die Wahrnehmung von Bildaussagen zwischen den einzelnen Betrachtern gravierender als die von Textaussagen, weil der Interpretationsspielraum bei Bildern um einiges größer ist. Weitere Schwierigkeiten können aus der Tatsache resultieren, dass gerade Fernsehen als integrales Produkt aus Text und Bild zu sehen ist, die sich gegenseitig ergänzen und angemessen erfasst werden sollten. Allerdings entsprechen sich die Einheiten auf Text- und Bildebene nicht immer, etwa wenn das Bild wechselt, aber der Kommentar des Sprechers weiterläuft. Im Extremfall kann es gar zu der so genannten Text-Bild-Schere kommen, bei der auf beiden Ebenen stark unterschiedliche Aussagen transportiert werden. Ein grundsätzliches Problem entsteht hier daraus, dass unser Untersuchungsinstrument - das Codebuch - in der Regel sprachlich fixiert ist, also auf Text basiert. Deswegen ist es zwangsläufig einfacher, mit diesem Instrument Analyseeinheiten desselben Charakters - Texte - zu codieren. Bildinformationen müssen dagegen im Codierprozess erst in Sprache »übersetzt« werden, um sie codieren zu können. Konsequenterweise müsste für die Codierung von Bildkomponenten also eine Art visuelles Codebuch entwickelt werden, in dem Kategorien und ihre Ausprägungen anhand der Ähnlichkeit mit Schlüsselbildern erfasst werden. Diese Text versus Bild visuelles Codebuch 84 5 D I E A N A L Y S E E I N H E I T <?page no="84"?> Technik ist bislang jedoch wenig ausgereift und wird wegen des damit verbundenen Aufwandes (Schlüsselbilder müssen im Vorfeld identifiziert und digitalisiert werden) kaum eingesetzt. Abb. 5.4 illustriert anhand eines Beispiels, welche Schlüsselbilder für dasselbe Ereignis in unterschiedlichen Sendern ausgestrahlt wurden: Während alle Sender durch eine Totale einen Überblick über das Geschehen geben und später einzelne Akteure herausgreifen, variieren die gesendeten Bilder je nach Quelle. Die Festlegung, welche Bilder einem vorab definierten Schlüsselbild »ähnlich« sind und welche nicht, ist schwierig zu treffen und erfordert in jedem Fall einen hohen Schulungsaufwand für die Codierer. Abschließend sei nun nochmals auf einen wichtigen Vorteil hierarchischer Zerlegungen eingegangen, der für alle untersuchten Medien gilt: Codierungen auf niedriger Stufe können bei der Auswertung auf höherer Ebene aggregiert, d. h. zusammengefasst werden. Beispielsweise ist es möglich, die Dauer eines Beitrags aus der Länge der einzelnen Sequenzen aufzuaddieren, oder alle auf Sequenzebene erhobenen Akteure zum Akteursspektrum einer Nachrichtensendung zu verdichten. Bei der endgültigen Überprüfung des Kategoriensystems sollte deswegen darauf geachtet werden, jedes Merkmal möglichst nur auf einer Analyseebene zu messen oder unterschiedliche Messverfahren für dasselbe Merkmal einander ergänzend anzulegen. Exkurs I: Analyseeinheit Bild Wie schon in den vorgehenden Abschnitten skizziert, handelt es sich bei der Analyse von Bildmaterial um ein schwieriges Unterfangen. Obwohl die Bildanalyse in vielen Forschungsrichtungen thematisiert PRO7 RTL2 RTL Abb. 5.4 Schlüsselbilder aus Nachrichtensequenzen am Beispiel »Straßenschlachten in Seoul« 5.5 aktueller Stand der Bildforschung 85 E X K U R S I : A N A L Y S E E I N H E I T B I L D <?page no="85"?> wird, hat sich bis jetzt noch kein Trend herausgebildet, wie die Stärken der verschiedenen Analysemöglichkeiten sinnvoll kombiniert werden sollten. Auch in der Kommunikationswissenschaft lässt sich kein Patentrezept dafür aufstellen, wie mit der Analyse von Bildmaterial umzugehen ist. Gerade auch deswegen werden inhaltsanalytische Untersuchungen von Bildern - im Vergleich zu verbalem Material - in verschwindend geringer Zahl durchgeführt. Dies gilt für Studien zu Bewegtbildangeboten (wie z. B. Fernsehnachrichten oder Filme auf Online- Portalen, vgl. Kap. 5.4), aber insbesondere ist die deutsche Pressebildforschung im Gegensatz zur amerikanischen noch im Rückstand: Oft wird innerhalb einer textlich basierten Inhaltsanalyse nur beiläufig aufgenommen, ob zum Beispiel bei der Berichterstattung die untersuchten Akteure auch auf Fotos abgebildet sind. Spezielle Studien, die sich mit der Analyseeinheit Bild beschäftigen, bilden also die Ausnahme. Nur in Teilsegmenten wie etwa der Forschung zur visuellen Wahlkampfkommunikation oder der Imageryforschung (bei der es sich hauptsächlich um Werbewirkungsforschung handelt) steht das Bild tatsächlich im Fokus des Interesses und wird entsprechend angemessen analysiert. Diese Tatsache ist allerdings sehr verwunderlich, wenn man bedenkt, dass Bilder in der Medienberichterstattung einen großen Stellenwert einnehmen, vor allem in der visuell orientierten Online-Welt. In der Wirkungsforschung wurde zudem erkannt, dass Bilder zwar eine andere, aber in manchen Kontexten sogar weiterreichende Wirkung auf den Rezipient ausüben als textlich fixierte Aussagen. Denn Bilder prägen durch Schlüsselreize die Alltagswahrnehmung ihrer Betrachter und beeinflussen die Medienberichterstattung maßgeblich. Medienbilder dienen so der Reduktion von Komplexität - sie nehmen eine Schlüsselfunktion für das Realitätsverständnis des Rezipienten ein, da sie zum einen eine Orientierungshilfe darstellen und zum anderen wesentliche Emotionen vermitteln. Bislang sind Bilder oft methodisch und inhaltlich so behandelt und untersucht worden, als wären sie verbale Kommunikation. Dabei stellt sich logischerweise die Frage, ob sich Bilder überhaupt durch Wort und Text erschöpfend beschreiben lassen. Zudem ist es fraglich, wie sich eine zentrale Aufgabe der Inhaltsanalyse - die Reduktion von Komplexität in Medieninhalten - mit der vielschichtigen Natur von Bildern vereinbaren lässt. Aus diesem Grund fand die Analyse von Bildern bislang seltener in den standardisierten Verfahren der Kommunikationsforschung, sondern hauptsächlich durch hermeneutische, interpretierende Methoden ihre Anwendung. In der Kommunikationswissenschaft selbst wird zuweilen der Umweg über eine Befragung oder Beobachtung von Fotojournalisten (z. B. um sich mit deren Auswahlkriterien auseinanderzusetzen) oder methodische Schwierigkeiten 86 5 D I E A N A L Y S E E I N H E I T <?page no="86"?> über eine Befragung von Rezipienten oder ein Experiment (z. B. um Wirkungspotenziale von Bildern zu untersuchen) in Kauf genommen. Allerdings berücksichtigt man mit solchen Strategien das zu untersuchende Material nur indirekt - das Bild selbst, seine Aussagekraft und sein thematischer Kontext bleiben dem Forscher auf diesem Wege verschlossen. Literatur Da die Ausführungen zur Bildanalyse in diesem Rahmen nur als Exkurs zu einem Spezialfall verstanden werden sollen, werden an dieser Stelle 1) ein interdisziplinäres und ausführliches Überblickswerk, 2) eine Bildanalyse sowie 3) eine methodische Auseinandersetzung zur Vertiefung empfohlen: 1) Müller, Marion G./ Geise, Stephanie (2015): Grundlagen der Visuellen Kommunikation. 2. vollst. überarb. Aufl., Konstanz und München: UVK/ UTB. 2) Autenrieth, Ulla (2014): Die Bilderwelten der Social Network Sites. Bildzentrierte Darstellungsstrategien, Freundschaftskommunikation und Handlungsorientierungen von Jugendlichen auf Facebook und Co. Baden-Baden: Nomos. 3) Geise, Stephanie/ Rössler, Patrick (2013): Standardisierte Bildanalyse. In: Wiebke Möhring/ Daniela Schlütz (Hrsg.): Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft. Wiesbaden: Springer VS, 307 - 326. Um sich dieser Analyseeinheit angemessen zu nähern, muss sich der Forscher gewahr darüber sein, dass eine quantitative Inhaltsanalyse (im Gegensatz zur kunstwissenschaftlichen Betrachtung) primär keine ästhetischen Dimensionen analysiert, sondern das journalistische Bildmaterial nach faktenorientierten Kriterien auswerten muss. Dadurch ergeben sich im Unterschied zur textorientierten Inhaltsanalyse ganz andere, neuartige Herausforderungen und weitergehende Interpretationsspielräume. Das Erkenntnisinteresse bei der Analyse statischer visueller Angebote (wie etwa Pressefotos im Internet, Karikaturen oder Wahlkampfplakate) kann grob in fünf zentrale Gebiete unterteilt werden: Bei dem ersten Analysebereich handelt es sich um den Stellenwert von Bildern und deren formale Merkmale. Diese Merkmale, wie das Format, die Bildgestaltung, die Quelle oder auch der Anteil, den ein Bild beispielsweise auf einer Zeitungsseite einnimmt, aber genauso klassische formale Merkmale wie Datum, Medium und Platzierung (vgl. Kap. 7) lassen sich vergleichsweise einfach Anwendungsgebiete und Kategorien 87 E X K U R S I : A N A L Y S E E I N H E I T B I L D <?page no="87"?> erheben und werden auch recht häufig angewandt. Ein weiteres Untersuchungsfeld besteht darin, rein quantitativ auszuzählen, ob und in welchem Umfang verschiedene Motive oder Personengruppen (wie Männer und Frauen) visuell repräsentiert werden (Frequenzanalyse; vgl. Kap. 8). Eine andere Messebene eröffnen uns wertende Kategorien, die die Bildberichterstattung als negativ, neutral oder positiv klassifizieren (vgl. Kap. 9). An dieser Stelle kommt ein weiteres Problem auf den Forscher zu, nämlich die grundsätzliche Diskussion darüber, ob Bilder werkimmanent betrachtet werden sollen oder gerade eine weitumfassende Kontexteinheit (vgl. Kap. 3.2) benötigen. Dieses Problem lässt sich nur mit Blick auf die zu Grunde liegende Forschungsfrage lösen. Nichtsdestotrotz sei an dieser Stelle angemerkt, dass es sich in den meisten Studien empfiehlt, eine weiter gefasste Kontexteinheit zu definieren. Ein visuelles Angebot nur für sich zu betrachten, kann bei jedem Codierer zu sehr unterschiedlichen Ergebnissen führen, was die intersubjektive Nachvollziehbarkeit der Erhebung beeinträchtigt. Das liegt nicht nur daran, dass die Codierer unterschiedliches Vorwissen haben (bestimmte Politiker zum Beispiel vielleicht gar nicht kennen oder erkennen), sondern auch an der Aussage, für die ein Bild steht. Ist beispielsweise ein Politiker zu einem sehr ernst zu nehmenden Anlass unglaublich fröhlich abgebildet, hat das eigentlich positive Motiv keine positive Konnotation mehr. So bietet es sich bei der journalistischen Fotografie an, den Untertitel des Bildes, den Titel des Artikels zum Bild oder auch den Artikel zum Bild selbst als Kontexteinheit zu verwenden. Ein weiteres Forschungsgebiet interessiert genau dies - also die inhaltliche Korrespondenz von Bild und Text. In welcher Beziehung stehen Bild und Artikel sowohl inhaltlich, grafisch und zeitlich zueinander? Und das fünfte Forschungsfeld schließlich ist der wohl interessanteste, aber auch komplexeste Bereich, nämlich die Bildanalyse anhand eines visuellen Codebuchs oder von Bildkategorien. Bisher lehnen sich inhaltliche Kategorien nämlich oft an Inhaltsanalysen für Textinhalte an; daraus resultieren jedoch meist Kategorien, die unpräzise sind und sich nur bedingt auf das Bild und seine Aussage beziehen lassen. Denn dort wird z. B. der thematische Kontext erfasst, aber nicht der zu untersuchende Bildinhalt selbst. Versucht man die Inhaltsanalyse aber selbst auf einer Bildebene durchzuführen, ist es in jedem Fall lohnenswert, sich in anderen Fachrichtungen nach sinnvollen Kategorien umzusehen. So hat beispielsweise die Wahrnehmungspsychologie durch Experimente zur Rezeption von Personendarstellungen festgestellt, dass die Darstellungsweise (wie zum Beispiel die Kameraperspektive) oder auch das gezeigte nonverbale Verhalten (wie Gestik, Mimik, Kopfhaltung oder symbolische Körperstellung, z. B. Händeschütteln) wesentlich zur Art formale Merkmale Kontexteinheit inhaltliche Kategorien 88 5 D I E A N A L Y S E E I N H E I T <?page no="88"?> und Weise beitragen, wie das Bild vom Betrachter verarbeitet wird. Durch solche Ergebnisse lassen sich in der Inhaltsanalyse dann Bildtypen oder Bildmotive in sinnvolle Kategorien überführen, messen und interpretieren. Welche inhaltlichen Kategorien genau erstellt werden, hängt natürlich wieder ganz von der Forschungsfrage ab. Insgesamt lässt sich festhalten, dass bei der Analyse von Bildmaterial ein besonders ausgefeiltes Kategoriensystem mit gut durchdachten Definitionen sowie eine intensivste Codiererschulung von Nöten sind, um die Codierweise so vergleichbar und damit das Instrument so reliabel wie möglich zu gestalten (vgl. Kap. 12). Eine »harte« Codierweise (vgl. Kap. 9) bietet sich hier an, um die subjektive Bedeutungszuweisung bei Bildern einzuschränken. Zu beachten ist außerdem bei der Kategorisierung von Bildmotiven, dass oft die Berücksichtigung der zeitlichen Rahmenbedingungen gesondert zu bedenken ist. Nicht nur Handlungen und Interpretation von nonverbalem Verhalten (wie Mimik, Symbole oder Kleidungsstil) sind zeitlich-kulturell geprägt und bedingt: Das gleiche Phänomen findet sich auch hinsichtlich der Darstellungsmodalitäten von Bildern. Die technisch-stilistischen Mittel der Fotografie und der Bildbearbeitung haben sich doch im Verlauf der Zeit sehr verändert und erweitert. Ein letztes Erkenntnisinteresse, das einer visuellen Inhaltsanalyse zugrunde liegen kann und deswegen hier vorgestellt werden soll, ist die Vielfaltsanalyse. Hierbei zielt die Forschung auf die Feststellung ab, in wie weit Medienerzeugnisse das gleiche Bildmaterial aufweisen. Zumindest für diese Art von Analyse hat sich das schon oben beschriebene ikonografische Codebuch bewährt, da es auf der visuellen Ebene der Bildercodierung beruht. Für eine solche Analyse ist es wichtig, das Datenmaterial, also die einzelnen visuellen Angebote, verlässlich zu sichern. Sinnvoll ist dies durch eine Digitalisierung (Einscannen) bei Printpresseorganen möglich, und sehr angenehm bei Onlineangeboten durch die Erstellung von Screenshots. So können alle Bilder in einem Dokument übersichtlich gespeichert und einer Analyse unterzogen werden. Merksatz Die Bildinhaltsanalyse ist ein spannendes, jedoch bislang noch wenig untersuchtes Forschungsfeld, bei der unbedingt auf die spezifischen Eigenschaften des visuellen Materials eingegangen werden sollte. Bildtypen und Bildmotive Vielfaltsmessung 89 E X K U R S I : A N A L Y S E E I N H E I T B I L D <?page no="89"?> Exkurs II: Umgang mit Analyseeinheiten im Internet Wie bereits in Zusammenhang mit der Definition der Auswahleinheit erörtert (vgl. Kap. 4.3), gestaltet sich die Inhaltsanalyse von Internet-Inhalten teilweise anders als bei den Print- und Funkmedien, insbesondere wenn sie nicht auf klassische Medienangebote zurückgehen. Gerade im Hinblick auf die Definition der Analyseeinheit begegnen dem Forscher aufgrund der Vielfalt multimedialer Darstellungsformen im Internet diverse Probleme, für die es eine geeignete und vor allem praktikable Lösung zu finden gilt. Das Internet erweist sich nämlich nach wie vor als sehr flexibles und dynamisches Forschungsobjekt. Abschließende Anweisungen für den Umgang mit den unzähligen Darstellungsmöglichkeiten können daher hier nicht gegeben werden, sondern müssen oft für jede Untersuchung neu bedacht sein. Folgende Überlegungen stellen bei der Konzeption und Definition der einzelnen Analyseeinheiten lediglich eine erste Orientierung dar. War das Internet in seinen Anfangstagen noch ein sehr textlastiges Medium, so hat zwischenzeitlich die Verwendung audio-visueller Inhalte stark zugenommen. Hierbei macht es keinen Unterschied, ob die untersuchten Inhalte beispielsweise dem World Wide Web entstammen oder in Social Media zu finden sind. Der Trend zu multimedialen und -modalen Angebotsformen verstärkt sich durch die flächendeckende Verfügbarkeit von Breitbandverbindungen und großen Datenspeichern. Der Kreativität der Web-Entwickler sind scheinbar kaum noch technische Grenzen gesetzt und das Resultat sind hochkomplexe und multikodierte Inhalte. Es gibt selbst für thematisch ähnliche Webseiten kein einheitliches Erscheinungsbild, das sich, wie etwa bei den Printmedien, an Gestaltungsmerkmalen wie Ressorteinteilung und formalisiertem Artikelaufbau orientiert. Zwar bestehen Gemeinsamkeiten wie etwa bei den sozialen Online-Communities; dennoch hat jede Seite ihren eigenen Aufbau und manche Besonderheit. Es müssen daher vor Beginn der Untersuchung möglichst detaillierte und genaue Grenzen und Aufgreifkriterien für die einzelnen Analyseeinheiten festgelegt werden, um wichtige Informationen nicht zu vernachlässigen und gleichzeitig Unwesentliches auszuschließen. Dies setzt in der Regel eine vorgeschaltete Strukturanalyse der Auswahleinheiten voraus, oder zumindest eine eingehende Beschäftigung mit den Angeboten. So setzt sich eine Seite beispielsweise aus vielen einzelnen Bausteinen zusammen, die aus unterschiedlichen Quellen ausgelesen werden und sich mit jedem neuen Aufruf ändern können. Man denke hier beispielsweise an Werbebanner und Pop-Ups, die teilweise themenspezifisch auf die Seite zugeschnitten 5.6 multimediale und -modale Angebotsformen 90 5 D I E A N A L Y S E E I N H E I T <?page no="90"?> sind oder gar auf Nutzungsinformationen von vorigen Seitenbesuchen des Nutzers basieren, also individuell angepasst werden. Auf einer gewöhnlichen Webseite können zudem unzählige Objekte wie Navigationselemente, Grafiken, Musik, Geräusche und Filme verborgen liegen. Bei einer Inhaltsanalyse, die alle forschungsrelevanten Inhalte erschließen möchte und nicht nur einzelne Elemente wie ein bestimmtes, immer wiederkehrendes Textfeld, bietet sich daher eine Betrachtung der einzelnen Objekte auf jeder einzelnen Seite an, die dann entsprechend den Darstellungen in Abb. 5.1 für Text bzw. Abb. 5.2 für audio-visuelle Einheiten zerlegt werden können. Im Sinne der parallelen Zerlegung wird jedes einzelne Objekt anhand bestimmter Kriterien definiert. Was als eigenständiges Objekt gezählt wird, was nicht und wie sich die einzelnen Objekte voneinander abgrenzen, ist dabei vom Forscher festzulegen. In sozialen Onlinenetzwerken besteht zum Beispiel die Besonderheit, dass sich die Nutzer ihre eigenen Seiten selber konfigurieren und entscheiden, was für den jeweiligen Nutzer einsehbar ist. Die Abgrenzung könnte hier beispielsweise visuell über Linien oder Farbänderungen erfolgen, die der Codierer berücksichtigen und erkennen muss, oder über Pausen zwischen einzelnen auditiv wahrgenommenen Einheiten oder Bildsequenzen. Neuere Ansätze schlagen sogar vor, Analyseeinheiten überhaupt nicht mehr anhand von strukturellen Merkmalen, sondern aufgrund thematischer Zusammenhänge zu definieren, wie unser Beispiel verdeutlicht. Beispiel Thematische Zusammenhänge als Analyseeinheit Forscher der TU Ilmenau haben einen Analyseapparat zur Struktur- und Qualitätsanalyse von Onlineangeboten entwickelt, bei dem die formale Analyseeinheit durch ein bestimmtes Thema gebildet wird (und nicht durch die Kommunikationsform wie z. B. Artikel, Video, Weblogs). Ein »Themenkomplex« kann sich dann aus solchen unterschiedlichen Elementen zusammensetzen, die dann jeweils einzelne Codiereinheiten (vgl. Kap. 3.2) umfassen. Ein solches Konzept kann flexibel an Fragestellungen angepasst werden und beispielsweise auch Nutzungsdaten integrieren. Zeller, Frauke/ Wolling, Jens (2010): Struktur- und Qualitätsanalyse publizistischer Online-Angebote. Überlegungen zur Konzeption der Online-Inhaltsanalyse. In: Media Perspektiven, Heft 3, 143 - 153. Abgrenzung von Analyseeinheiten 91 E X K U R S I I : U M G A N G M I T A N A L Y S E E I N H E I T E N I M I N T E R N E T <?page no="91"?> Es müssen in einer Untersuchung jedoch nicht alle Elemente erhoben werden. Was genau betrachtet wird und was außer Acht bleibt, wird nach eingehender Betrachtung auf Grundlage der Forschungsfrage festgelegt. Dieser Prozess gestaltet sich eventuell mühsamer als bei der Printanalyse; es ergeben sich aber durch die Vielseitigkeit des Internets auch neue spannende Forschungsfelder: So könnte es lohnenswert sein, neben dem Hauptartikel weitere Seitenelemente wie Kommentare, Umfragen oder Gewinnspiele zu analysieren. Beispielsweise hat man durch die häufig eingesetzte Kommentarfunktion eine erhöhte Interaktivität zwischen Rezipient und Kommunikator, die sich erforschen lässt, und auch Umfrageergebnisse könnten einen Aufschluss über die Meinungen der Nutzer oder die Bewertung des Artikels geben (wobei die mangelnde Repräsentativität bei deren Erhebung zu berücksichtigen wäre). Merksatz Die Definition der Analyseeinheiten bei Online-Inhalten ist ein wichtiger und bisweilen aufwändiger Arbeitsschritt und sollte angelehnt an der Forschungsfrage erfolgen. Wie bei der Inhaltsanalyse von Fernsehinhalten stellen sich auch bei der Auswertung der einzelnen Analyseeinheiten eine Reihe von Fragen, zum Beispiel wie Text und Video verrechnet werden können oder ob ein Nutzerkommentar genauso codiert und gewichtet wird wie der eines Journalisten. Fallbeispiel: Politische Kommunikation III Im vorherigen Abschnitt wurde durch die Bestimmung der Auswahleinheiten für das Fallbeispiel festgelegt, welche Medienangebote analysiert werden. Der nächste Schritt besteht darin, zu definieren, für welche Elemente dieser Angebote konkret Daten erhoben untersucht werden sollen. Bei der Bestimmung sinnvoller Analyseeinheiten muss man sich stets vor Augen halten, was man mit der Untersuchung erreichen will, denn nur daraufhin kann schlüssig entschieden werden, welche Bestandteile eines Mediums in die Analyse mit einbezogen werden. Die dafür festgelegten Vorgehensweisen müssen auch im Codebuch als explizite Anweisung enthalten sein, damit wenig Interpretationsspielraum offenbleibt und alle Codierer möglichst auf dieselbe Art und Weise arbeiten (vgl. Kap. 11.2). 92 5 D I E A N A L Y S E E I N H E I T <?page no="92"?> In unserem Fallbeispiel wurde der Beitrag als Analyseeinheit untersucht, der aufgrund der verschiedenen Mediengattungen unterschiedlich definiert wurde. Die Auswahl der Analyseeinheit ergab sich aus der Forschungsfrage: So sollten die Unterschiede der Informationsvermittlung zwischen Online- und Offline-Medien verglichen werden, was zwingend die gleiche Analyseeinheit über die verschiedenen Mediengattungen hinweg erfordert. Für verschiedene Mediengattungen ist es erforderlich, die Analyseeinheit Beitrag an das Medium anzupassen und so zu formulieren, dass vergleichbare Inhalte enthalten sind. Die Definition der Beitragsebene im Printbereich liest sich im Codebuch so: »Als Beitrag gilt ein redaktioneller in sich geschlossener Bericht über ein politisches Thema, der über eine eigene Überschrift sowie Agenturkennung, Namenskürzel oder Ortsangabe verfügt. Bilder und Grafiken werden als Bestandteil des jeweiligen Beitrags, in den sie eingebunden sind, formal verschlüsselt, sofern sie thematisch mit diesem zusammenhängen. Teaser auf der Titelseite der Printmedien werden nicht codiert.« Für die Fernsehnachrichten wurde dagegen definiert: »Als Beitrag gilt ein redaktioneller Bericht inklusive An- und Abmoderation, der jeweils ein eigenständiges politisches Thema behandelt. Laufbänder zu Beginn der Sendung, Teaser und Meldungen zu Sport oder dem Wetter werden nicht codiert.« Zudem ist im Codebuch noch festgehalten, dass die »Themenübersicht« zu Beginn der Sendung RTL A KTUE LL nicht codiert wird. Als Beitrag für Online-Medien »gelten im Kontext folgende Webseitenelemente: zentraler Textartikel, Videos mit Bezug zum Thema des zentralen Artikels, Tondokumente mit Bezug zum Thema des zentralen Artikels. Als eigener Beitrag inhaltlich und formal codiert wird zum einen der zentrale Textartikel einer Website. Meist sind diese zentralen Artikel durch eine eigene Überschrift oder die zentrale Einbindung auf der Website erkennbar.« An diesen drei Definitionen des Beitrags für die verschiedenen Mediengattungen wird deutlich, dass die Festlegung der Analyseeinheit kontextabhängig ist. Dies bedeutet, dass sie zum einem vom Medium selbst und zum anderen von der Forschungsfrage bestimmt wird. Beitrag als Analyseeinheit verschiedene Mediengattungen 93 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N I I I <?page no="93"?> Übungsfragen 1 Welche der folgenden Aussagen ist/ sind falsch? a) Analyseeinheiten sind Elemente aus dem Untersuchungsmaterial, für die im Rahmen der Codierung eine Klassifizierung vorgenommen wird. b) Der Auflösungsgrad der Analyseeinheiten bestimmt die Detailliertheit der Auswertungen des Untersuchungsmaterials. c) Erhobene Daten lassen sich auf höherer Ebene aggregieren. d) Erhobene Daten lassen sich auf niedrigerer Ebene nachträglich differenzieren. 2 Überprüfen sie folgende Aussagen zur parallelen und hierarchischen Zerlegung hinsichtlich ihrer Richtigkeit! Parallele Zerlegung: a) Die jeweiligen Analyseeinheiten werden unabhängig voneinander betrachtet. b) Die Analyseeinheiten können sich auf das gleiche oder auf unterschiedliches Material beziehen. c) Die Analyseeinheiten sind immer deckungsgleich Hierarchische Zerlegung: a) Mithilfe struktureller Merkmale werden verschiedene Ebenen der Berichterstattung identifiziert. b) Jede der identifizierten Ebenen ist Träger derselben Information. c) Jede Ebene wird als eigene Analyseeinheit definiert. 3 Ist die folgende Aussage richtig? Durch eine hierarchische Zerlegung von Analyseeinheiten ergeben sich unterschiedliche Datensätze. Um eine sinnvolle Auswertung zu erreichen, sind Schlüsselcodes notwendig, die die erhobenen Datensätze wieder zusammenführen. 94 5 D I E A N A L Y S E E I N H E I T <?page no="94"?> Das Codebuch: Aufbau und Kategorienbildung Inhalt 6.1 Der Aufbau des Codebuchs in der Übersicht 6.2 Kategoriensystem und Kategorienbildung Dieses Kapitel gibt einen Überblick über den Prozess, in dem das zentrale Instrument der Inhaltsanalyse - das Codebuch - entsteht. Nach einer allgemeinen Beschreibung der Struktur eines Codebuchs wird insbesondere die Formulierung angemessener Kategorien ausführlich behandelt. Der Aufbau des Codebuchs in der Übersicht Eine Kernaufgabe bei Medieninhaltsanalysen besteht darin, das Codebuch zu erarbeiten. Als Untersuchungsinstrument enthält es alle wesentlichen Festlegungen, die in den bisherigen Kapiteln besprochen wurden, sowie die konkreten Anweisungen für das Vorgehen der Codierer und die Kriterien, anhand derer das Untersuchungsmaterial bearbeitet werden soll (vgl. Kap. 7 ff.). Angesichts der geforderten Transparenz des Forschungsprozesses, die diesen für andere Personen intersubjektiv nachvollziehbar macht, muss das Codebuch ausführlich und verständlich formuliert sein, sodass sich die Codierer, aber auch andere Forscher auf seiner Basis ein vollständiges Bild von der Untersuchungsanlage machen können. Schließlich sollte es bei wiederholter Anwendung auf dasselbe Material zu denselben Ergebnissen führen, wozu äußerst detaillierte Festlegungen erforderlich sind. Der vorliegende Abschnitt stellt in einem Überblick zunächst den typischen Aufbau eines Codebuches dar, bevor das Kategoriensystem (als sein Herzstück) und die Grundregeln zur Kategorienbildung in eigenen Kapiteln behandelt werden. Für die Gestaltung eines Codebuchs gibt es keine festen Regeln oder Vorgaben, sie bleibt prinzipiell dem Forscher selbst überlassen. Sieht man jedoch die Instrumente aus bisherigen Studien durch, so wird ein gewisses Muster erkennbar, nach denen ein Codebuch üblicherweise 6 6.1 typischer Aufbau 95 D E R A U F B A U D E S C O D E B U C H S D E R A U F B A U D E S C O D E B U C H S <?page no="95"?> aufgebaut ist. Auch einzelne bewährte, meist formale Kategorien lassen sich dabei manchmal von anderen Studien übernehmen, müssen dann aber immer an die konkrete Fragestellung der eigenen Studie angepasst werden. Abb. 6.1 fasst die Konventionen, die sich über die Zeit hinweg herausgebildet haben, beispielhaft für hierarchisch zerlegte Analyseeinheiten zusammen. Instrumente mit anderer Analyselogik wären dementsprechend abzuwandeln. Das typische Codebuch gliedert sich in zwei Teile: einen (meist kürzeren) Einleitungsteil mit den definitorischen Rahmenbedingungen und einen (meist umfangreicheren) Hauptteil, der das Kategoriensystem enthält. Abb. 6.1 Der Aufbau eines Codebuchs ANALYSE- EINHEIT 1 ANALYSE- EINHEIT 2 ANALYSE- EINHEIT n - ANHANG KATEGORIENSYSTEM DEFINITORISCHER RAHMEN 96 6 D A S C O D E B U C H <?page no="96"?> In einen Anhang können für den Codierer nützliche Hilfsmaterialien eingefügt werden, beispielsweise eine tabellarische Übersicht aller Kategorien oder ein Muster des Codebogens, um ihn ggf. selbst kopieren zu können. Der Gesamtumfang dieses Instruments kann stark variieren - von einigen wenigen Seiten bei schlichten Fragestellungen mit geringer Analysetiefe bis hin zu einhundert und mehr Seiten bei einer sehr detaillierten Erfassung der Medienberichterstattung. Grundsätzlich ist zu beachten, dass es sich bei dem Codebuch nicht um eine Publikation für eine breitere Fachöffentlichkeit handelt, sondern um ein Arbeitsinstrument, dessen Hauptzweck darin besteht, die Codierer bei ihrer Tätigkeit anzuleiten. Um diesem Anspruch möglichst optimal gerecht zu werden, muss seine Gestaltung entsprechend funktional ausfallen. Hilfreich sind beispielsweise: . eine klare und übersichtliche Aufteilung mit grafischen Hervorhebungen; . eine gut lesbare Schriftgröße für die schnelle Informationsaufnahme auch beim Durchblättern; . ein großzügiges Layout, das Platz für handschriftliche Anmerkungen und Ergänzungen im Zuge der Codiererschulung lässt; . eindeutige, aber dennoch kurze und prägnante Kategorientitel; . eine abgesetzte und auf den ersten Blick erkennbare Liste von Ausprägungen pro Codierung; . bei Kategorien zur Erfassung inhaltlicher Codiereinheiten die Illustration jeder Ausprägung mit einem Beispiel. Im Einleitungsteil werden in Kurzform alle wesentlichen Informationen niedergelegt, die zum Verständnis des gesamten Projekts wichtig sind. Die Kenntnis des Untersuchungsziels, der Forschungsfragen und Hypothesen kann dem Codierer nutzen, wenn er sich in einer Codiersituation unsicher über die richtige Vorgehensweise ist. Um auf das implizite Wissen der Codierer (wie oben ausgeführt) zurückgreifen zu können, sind diese Informationen zum Hintergrund der Inhaltsanalyse essenziell. In der Regel macht es keinen Sinn, die Codierer über den Zweck der Studie im Dunkeln zu lassen. Besonders bedeutsam ist freilich, einen Konsens über die Verwendung der wichtigsten Begriffe herzustellen, wie sie sich aus dem Untersuchungsziel ergeben. Wenn es um die Berichterstattung über Gentechnik gehen soll, ist beispielsweise zu klären, welche Aspekte genau darunter fallen - nur die »grüne« Gentechnik im Bereich von Nutzpflanzen oder auch die »rote« Gentechnik, die medizinische Anwendungen am Menschen einschließt? Nur wissenschaftliche Aspekte von Forschung und Herstellung, oder auch Spekulationen über gesellschaftliche Folgen? Gerade dann, wenn die Auswahleinheit so definiert ist, dass die Codierer noch anhand eines Aufgreifkriteriums Gestaltungsvorschläge Einleitung 97 D E R A U F B A U D E S C O D E B U C H S <?page no="97"?> entscheiden müssen, ob eine Analyseeinheit zu bearbeiten ist oder nicht, müssen diese Definitionen sehr detailliert auf die einzelnen Aspekte des Untersuchungsgegenstands eingehen. Merksatz Das Codebuch ist ein Arbeitsinstrument; deshalb müssen Gestaltung und Inhalte primär darauf abzielen, dem Codierer eine möglichst korrekte und effektive Ausübung seiner Tätigkeit zu ermöglichen. Die Festlegung von Auswahl- und Analyseeinheiten wurde in den beiden vorangegangen Kapiteln ausführlich behandelt. Das Ergebnis dieses Prozesses ist im Codebuch niederzulegen, gemeinsam mit einer Aussage zur Kontexteinheit für jede Analyseeinheit. Aus diesen Definitionen kann der Codierer unzweifelhaft entnehmen, welches Material zu bearbeiten ist und in welche Einheiten es zerlegt werden muss, auf die dann die entsprechenden Elemente des Kategoriensystems (siehe Kap. 6.2) anzuwenden sind. Je mehr unterschiedliche Analyseeinheiten definiert wurden, desto komplexer wird auch die Codierung. Daher ist es gerade in der Einarbeitungsphase von Nutzen, dem Codierer anhand eines Ablaufschemas die Reihenfolge der von ihm verlangten Tätigkeiten und Entscheidungen zu verdeutlichen. Als Form kann (muss aber nicht) die Darstellung durch ein Flussdiagramm gewählt werden, wie es Abb. 6.2 am Beispiel einer Untersuchung von Fernsehnachrichten zum Bundestagswahlkampf mit zwei Analyseeinheiten zeigt. Dabei stehen Ovale für die Handlungen und Rauten für die Entscheidungen des Codierers, Rechtecke für die eigentliche Codierung. Beispiel Der Prozess beginnt mit dem Starten der Aufzeichnung und dem Auffinden der relevanten Nachrichtensendung. Nach der Betrachtung des Vorspannes und der Begrüßung durch den Sprecher liegen die Informationen vor, um die Codierung für die Analyseeinheit Sendung vornehmen zu können: Datum, Ausstrahlungszeit und Medium sowie das Geschlecht des Sprechers sind nun bekannt. Danach kann der erste Beitrag angesteuert und sein Thema identifiziert werden (dabei handelt es sich bereits um eine codierrelevante Festlegung). Ist das Thema nicht der Bundestagswahlkampf, der in diesem Beispiel interessieren soll, wird sofort der nächste Beitrag aufgesucht und dessen Thema identifiziert. Sobald ein Beitrag zum Bundestagswahlkampf auftritt, wird dieser zuerst Definitionen 98 6 D A S C O D E B U C H <?page no="98"?> komplett angesehen, bevor der Codierer die Verschlüsselung für die Analyseeinheit Beitrag vornimmt. Hier gilt es, zunächst den Schlüsselcode (vgl. Kap. 5.2) zu erfassen, der später die Zuordnung zur Sendung ermöglicht. Außerdem sind das genaue Thema, der Ereignisort und die erwähnten Parteien sowie als formale Codiereinheiten Platzierung und Länge des Beitrags festzuhalten. Schließlich ist zu entscheiden, ob in dem inzwischen ganz angesehenen Beitrag Angela Merkel erwähnt oder gezeigt wird. Falls nicht, kann zum nächsten Beitrag übergegangen werden; falls ja, sind für die Analyseeinheit »Akteur« der Gegenstand, der Kontext und die Visualisierung Codebogen für Sendung abheften Aufzeichnung aufrufen, Anfang der Sendung suchen Vorspann und Begrüßung anschauen CODIERUNG AE Medium Datum Uhrzeit Medium Geschlecht Sprecher Beitrag: Thema identifizieren Thema: Bundestagswahlkampf (laut Definition) Beitrag komplett ansehen CODIERUNG AE Beitrag: Thema Platzierung Länge Ereignisort Erwähnte Parteien Angela Merkel erwähnt/ gezeigt CODIERUNG AE Akteur: Pos./ Neg. Kontext Gegenstand Bild ja/ nein Codebogen für Beitrag und Akteur abheften Weiter? START Nächsten Beitrag ansehen ja nein nein ja nein ja Codierung Entscheidung Handlung Codebogen für Beitrag und Akteur abheften Abb. 6.2 Ablaufschema für Codierung (am Beispiel von Fernsehnachrichten) 99 D E R A U F B A U D E S C O D E B U C H S <?page no="99"?> von Merkel zu codieren. Damit kann der Codebogen für diesen Beitrag und den Akteur abgelegt und der nächste Beitrag begutachtet werden. Wenn der Codierer beim Wetter (als Abschluss der Sendung) angelangt ist, kann er auch den Sendungsbogen abheften und die nächste Aufzeichnung aufrufen - der Prozess beginnt dann von vorne für die nächste Sendung. Die Erstellung eines solchen Ablaufschemas hilft aber nicht nur dem Codierer, sich mit den von ihm verlangten Arbeiten vertraut zu machen: Auch der Forscher kann dabei überprüfen, ob er eine sinnvolle Analyselogik entwickelt hat, das Kategoriensystem vollständig ist und das Codebuch alle erforderlichen Informationen enthält. Damit ist der Einleitungsteil abgeschlossen, und das Codebuch spezifiziert in seinem Hauptteil nun das Kategoriensystem, das an die zu untersuchende Berichterstattung angelegt wird. Seiner Erstellung widmet sich der nachfolgende Abschnitt. Kategoriensystem und Kategorienbildung Das Kategoriensystem spezifiziert, anhand welcher Kriterien die relevanten Codiereinheiten gemessen werden sollen. Sein Aufbau (vgl. Abb. 6.1) gliedert sich im Regelfall entsprechend der verschiedenen Analyseeinheiten, die es zu bearbeiten gilt. In einem geschlossenen Block werden zuerst alle Kategorien für die erste Analyseeinheit vorgestellt, danach die für die zweite usw. In der Abfolge würde man bei hierarchisch zerlegten Analyseeinheiten von der höchsten zur niedrigsten Ebene vorgehen (z. B. zuerst die Kategorien auf Artikelebene, zuletzt die auf Aussagenebene). Bei einer parallelen Zerlegung der Auswahleinheit sollte die zentrale vor der randständigeren Analyseeinheit präsentiert werden (z. B. zuerst die Kategorien für den Fließtext, dann die für die Bilderstrecken). Innerhalb eines jeden Blocks sollte die Abfolge der einzelnen Kategorien einer inhaltlichen Logik folgen, um den Codierer möglichst sinnvoll durch den Codierprozess zu leiten und den Ablauf eines typischen Codiervorganges vorzustrukturieren. Es hat sich eingebürgert, an den Beginn - falls erforderlich - die Schlüsselcodes zu stellen, die eine eindeutige Identifikation jeder Einheit ermöglichen. Danach werden meist die formalen Codiereinheiten abgehandelt, bevor die inhaltlichen Kategorien nach Codiereinheiten gruppiert werden. 6.2 inhaltliche Logik 100 6 D A S C O D E B U C H <?page no="100"?> Merksatz Die Anordnung von Kategorien im Kategoriensystem erfolgt nach Analyseeinheiten getrennt, in der Regel vom Allgemeineren zum Spezifischen, vom Zentralen zum Peripheren und vom Formalen zum Inhaltlichen. Und wie viele Kategorien benötigt man, um ein theoretisches Konstrukt zu messen? Dies ist je nach Sachverhalt unterschiedlich - oft reicht eine Kategorie aus, insbesondere bei den formalen Codiereinheiten (vgl. Kap. 7). Manchmal ist allerdings eine ganze Reihe von Kategorien erforderlich, gerade wenn inhaltlich komplexere Konstrukte angemessen erfasst werden sollen (vgl. Kap. 8 und 9). Ein Konstrukt bezeichnet einen nicht direkt empirisch messbaren Sachverhalt innerhalb einer wissenschaftlichen Theorie - wie z. B. Angst, welches jedoch durch passende Indikatoren und Kategorien erschließbar wird. Dabei muss aber immer auch ganz praktisch die Machbarkeit der Codierung unter den gegebenen zeitlichen und finanziellen Rahmenbedingungen bedacht werden (vgl. Kap. 3): Jede zusätzliche Kategorie verursacht zusätzlichen Schulungs- und Codieraufwand, und oft steht man vor der Abwägung, eine größere Auswahleinheit, d. h. mehr Medienmaterial, zu bearbeiten und dafür nur eine begrenzte Zahl von Kategorien vorzusehen - oder lieber weniger Beiträge, und die dafür intensiver zu codieren. Die richtige Entscheidung kann immer nur anhand des jeweiligen Entdeckungs- und Verwendungszusammenhangs getroffen werden. Für das Verhältnis zwischen Kategorien zur selben Codiereinheit gilt aber immer die Grundregel, wonach die jeweiligen Kategorien . erschöpfend und . disjunkt angelegt sein müssen, ohne . eine Fehlmessung zu verursachen. Vollständigkeit der Kategorien ist also eine erste zu stellende Forderung, d. h. das relevante Konstrukt muss durch eine hinreichende Zahl von Kategorien abgedeckt werden, sodass alle verschiedenen Aspekte, die in der Berichterstattung vorkommen können, auch codiert werden können. Andererseits sind ebenso alle Aspekte, die sich theoretisch aus der Betrachtung der Hypothesen und der Definition der Begriffe ergeben, von den Kategorien zu berücksichtigen. Der Sachverhalt ist dann erschöpfend abgedeckt, und die Codierung ist anschließend in der Lage, Schwerpunkte und Defizite der Berichterstattung zu verdeutlichen. Gleichzeitig sollte die Messung über eine große Trennschärfe verfügen, d. h. die einzelnen Kategorien sind dann disjunkt, wenn sie tatsächlich Anlage von Kategorien 101 K A T E G O R I E N S Y S T E M U N D K A T E G O R I E N B I L D U N G <?page no="101"?> unterschiedliche Aspekte messen, und damit jede in den Medien vermittelte Botschaft eindeutig einer Kategorie zugeordnet werden kann. Schließlich sind die Kategorien so zuzuschneiden, dass sie nur relevante Sachverhalte messen und nicht darüber hinausgehende Aspekte, die mit dem jeweiligen Konstrukt nichts zu tun haben. Die schematische Darstellung in Abb. 6.3 zeigt, wie ein Konstrukt idealtypisch durch unterschiedliche Kategorien erhoben werden sollte, und wie sich demgegenüber die drei beschriebenen Fehlerquellen verhalten. Beispiel Messung des Konstrukts »Image von Angela Merkel« durch mehrere Kategorien In einer Analyse der Wahlberichterstattung soll das politische Image von Angela Merkel erfasst werden; dies bezeichnen wir in der Folge als das zu messende theoretische Konstrukt. Aus einschlägigen Theorien und der bisherigen Forschung können wir ableiten, dass (1) Sachkompetenz, (2) Durchsetzungsvermögen und (3) persönliche Qualitäten die entscheidenden Komponenten (Teilkonstrukte) für die Imagebildung von Politikern sind. In der Inhaltsanalyse gilt es nun, für jedes dieser drei Teilkonstrukte eine Kategorie zu definieren, um die entsprechenden Codiereinheiten im Untersuchungsmaterial zu erfassen (Vollstän- Abb. 6.3 Messung eines Konstrukts durch mehrere Kategorien (in Anlehnung an Früh 2015: 85) optimale Lösung theoretisches Konstrukt mangelnde Trennschärfe theoretisches Konstrukt Fehlmessung bzgl. Konstrukt theoretisches Konstrukt unvollständige Lösung theoretisches Konstrukt 102 6 D A S C O D E B U C H <?page no="102"?> digkeit). Überhaupt keine Kategorien für persönliche Qualitäten wie z. B. »Einfühlungsvermögen« vorzusehen, würde im Ergebnis ein unvollständiges Bild des Merkel-Images zeichnen. Gleichzeitig muss auf die saubere Abgrenzung der Kategorien voneinander geachtet werden (Trennschärfe), da der Codierer sonst keine eindeutige Zuordnung treffen kann, was die Zuverlässigkeit der Codierung verringert. Besonders die definitorische Unterscheidung zwischen (1) Sachkompetenz und (2) Durchsetzungsvermögen dürfte nicht unproblematisch sein - schließlich äußert sich Durchsetzungsvermögen meist anhand des Verhaltens in bestimmten Sachfragen. Außerdem ist zu beachten, dass bei der Definition der Kategorien tatsächlich nur die Aspekte berücksichtigt werden, die zur Imagebildung beitragen: In diesem Sinne würde es eine Fehlmessung bezüglich des Konstrukts bedeuten, wenn unter Sachkompetenz auch Merkels Kenntnisse in der Kleintierzucht codiert würden, denn diese dürften nur peripher zu ihrem politischen Image beitragen. Die genaue Definition, was mit der Kategorie gemessen werden soll, ist allerdings nur die halbe Miete - darüber hinaus ist auch festzulegen, wie gemessen werden soll, d. h., welche Vorgaben das Codebuch für die Verschlüsselung der einzelnen Ausprägungen vorsieht. Grundsätzlich gilt dabei die Regel, dass möglichst viele Ausprägungen anhand von Zahlenwerten codiert werden sollen, weil dies später die statistische Verarbeitung erheblich vereinfacht. Zwar können die entsprechenden Programme auch so genannte alphanumerische Daten (also Buchstaben oder Worte) verarbeiten, weshalb das Codebuch durchaus die Erfassung von Informationen im Klartext vorsehen kann (z. B. wörtliches Notieren der Überschrift). Allerdings würde man diese Angaben vermutlich in einem Zwischenschritt vor der Dateneingabe nachcodieren, also aufgrund aller vorliegenden Nennungen nachträglich einen Verschlüsselungsplan erstellen. Merksatz Die Erfassung der einzelnen Ausprägungen erfolgt meist durch Zahlencodes, um die statistische Auswertung zu erleichtern. Dementsprechend weist das Codebuch den Ausprägungen auch dann Zahlenwerte zu, wenn es sich um Nominaldefinitionen (vgl. Kap. 1.3) handelt, also lediglich codiert wird, ob eine Ausprägung im Material vorkommt oder nicht. Dies bedeutet, dass der Codebogen ein freies Feld enthält, in numerische Codierung Datenniveaus 103 K A T E G O R I E N S Y S T E M U N D K A T E G O R I E N B I L D U N G <?page no="103"?> dem die Codeziffer der Ausprägung notiert wird. Handelt es sich bei einer Kategorie um eine simple ja/ neinbzw. vorhanden/ nicht vorhanden- Codierung, so hat sich eingebürgert, die zustimmende Vorgabe mit einer »1« und die ablehnende mit einer »2« vorzusehen. Es ist dagegen nicht sinnvoll, Ankreuz-Vorgaben wie eine Liste aller Ausprägungen zum Markieren vorzusehen, die dann bei der Dateneingabe erst noch »übersetzt« werden müssen. Literatur Die Unterscheidung der einzelnen Skalenniveaus (nominal, ordinal, intervall) ist für die spätere Auswertung des Datenmaterials zentral. Allgemeine Lehrbücher der empirischen Sozialforschung erläutern die Logik, die dieser Differenzierung zugrunde liegt, viel genauer, als das hier in der gebotenen Kürze geschehen kann. Falls dem Leser die Logik noch nicht aus anderen Zusammenhängen bekannt ist, sei nachdrücklich die Lektüre entsprechender Darstellungen empfohlen; z. B. bei Diekmann (2009): 285 ff. Andere Skalentypen auf Ordinal- oder Intervallniveau sind bei der Kategorienbildung eher die Ausnahme. Wenn physikalische Dimensionen wie die Länge von Artikeln (in Zeichen) oder die Dauer von Beiträgen (in Sekunden) erhoben werden, so liegen Intervalldaten vor, für die man zweckmäßiger Weise den exakten Wert festhalten sollte. Gleiches gilt für reine Zählvorgänge, wie häufig bestimmte Schlüsselworte oder Akteure in der Analyseeinheit vorkommen. Rangdaten auf Ordinalniveau entstehen regelmäßig dann, wenn vom Codierer eine Einstufung verlangt wird (vgl. Kap. 9): Wird der Akteur in dem Beitrag uneingeschränkt positiv, eher positiv, neutral, eher negativ oder uneingeschränkt negativ dargestellt? Enthält der Artikel eine starke, mittlere, schwache oder überhaupt keine Personalisierung? In diesem Fall sind die jeweiligen Ausprägungen, die zu einer Codierung auf einem bestimmten Skalenpunkt führen, mit besonderer Sorgfalt zu definieren. Liegt mindestens eine Abstufung mit fünf Ausprägungen vor, kann auch von quasi-metrischen Daten gesprochen werden. Interessant wird diese Uminterpretation von Ordinaldaten zu metrischen Daten besonders bei der Auswertung, da so mehr Rechenoperationen möglich sind. 104 6 D A S C O D E B U C H <?page no="104"?> Merksatz Codierereinschätzungen führen in der Regel zu Daten auf Ordinalniveau, für die die einzelnen Rangstufen sorgfältig - d. h. vollständig, trennscharf und Fehlmessungen vermeidend - definiert werden müssen. Die Forderungen nach Vollständigkeit, Trennschärfe und dem Ausschluss von Fehlmessungen gelten gleichermaßen für die Definition der einzelnen Ausprägungen innerhalb einer Kategorie. Zur Verdeutlichung wenden wir uns erneut dem oben bereits eingeführten Beispiel zur Messung des Konstrukts »Image von Angela Merkel« zu, behandeln nun jedoch, wie man die Vorgaben für eine Kategorie festlegt. Beispiel Definition der Vorgaben für das Teilkonstrukt »Persönliche Qualitäten von Angela Merkel« Wir setzen voraus, dass eine saubere Definition der Kategorie »Persönliche Qualitäten« (in Abgrenzung zu den übrigen Kategorien zur Imagemessung) vorliegt. Dann könnte eine mögliche Skala zur Einstufung der im Material gefundenen Aussagen so aussehen: (1) uneingeschränkt positive Darstellung, (2) eher positive Darstellung, (3) neutrale Darstellung, (4) eher negative Darstellung oder (5) uneingeschränkt negative Darstellung. Die Aufteilung wäre erschöpfend, weil das gesamte Spektrum möglicher Charakterdarstellungen abgedeckt wird, und birgt nicht die Gefahr von Fehlmessungen, weil alle Ausprägungen streng auf einer einzigen Dimension, nämlich dem Positiv-Negativ-Kontinuum, angeordnet sind. Die Kunst liegt hier eher in der trennscharfen Abgrenzung, insbesondere bei den graduellen Abstufungen zwischen den beiden positiven bzw. den beiden negativen Ausprägungen. Dies wird in Kapitel 9 noch ausführlicher besprochen. Bedeutsam ist die saubere Definition von Ausprägungen gerade auch auf nominalem Datenniveau (s. o.), wenn es um die korrekte Klassifikation einer Beschreibung geht. Abb. 6.4 zeigt eine ungeeignete (im Bild links) und eine geeignete Definition für die Vorgaben bei einer Codierung politischer Akteure. Im Bild rechts wird sinnvollerweise eine Dimension - die Parteizugehörigkeit - dem Spektrum an Ausprägungen als Kriterium zugrunde gelegt. Die Mehrzahl aller Codereinheiten dürfte Definition der Ausprägungen 105 K A T E G O R I E N S Y S T E M U N D K A T E G O R I E N B I L D U N G <?page no="105"?> damit schnell und unzweifelhaft zugeordnet werden können. Die ungeeignete Lösung links vermischt verschiedene Dimensionen (politisches Amt, Parteizugehörigkeit, Ortsbezug, gesellschaftliche Funktion) und ist deswegen weder trennscharf - die Bundeskanzlerin ist z. B. gleichzeitig CDU-Politikerin - noch erschöpfend - ein Minister der FDP auf Landesebene könnte nicht erfasst werden. Und außerdem provozieren die Ausprägungen (7) und (8) Fehlmessungen bezüglich des Konstrukts »politische Akteure«, weil zusätzlich die in der Analyseeinheit vorkommenden Schauspieler und Sportler erhoben werden. Die Ausprägung (7) der geeigneten Lösung (»andere politische Akteure«) erfüllt dabei die Funktion einer so genannten Auffangvorgabe: Hier werden diejenigen Codiereinheiten verschlüsselt, die von den speziellen Ausprägungen nicht abgedeckt, aber dennoch für das theoretische Konstrukt von Belang sind. Auf diese Art kann das Kriterium der Vollständigkeit vergleichsweise einfach erfüllt werden; entfallen allerdings bei der Codierung gehäuft Fälle auf die kaum interpretierbare Auffang- Vorgabe, so spricht einiges dafür, dass die gewählten Ausprägungen den Merkmalsraum nicht angemessen abbilden. Diese Überlegungen gelten analog für Auffangkategorien auf der Ebene von Teilkonstrukten. Merksatz Die Formulierung von Auffangkategorien und Auffangvorgaben gewährleistet eine vollständige Abdeckung des gewünschten Aussagebereichs geht jedoch meist mit einem Informationsverlust einher. Insgesamt sei betont, dass die Codierregeln für jede Kategorie so eindeutig sein müssen, dass der Codierer möglichst in allen denkbaren Konstellationen eine regelbasierte Entscheidung treffen kann. Im Zweifelsfall Abb. 6.4 Geeignete und ungeeignete Vorgaben für die Kategorie »politische Akteure« Kategorie: politische Akteure UNGEEIGNET (1) Bundeskanzler (2) Bundesminister (3) CDU-Politiker (4) SPD-Politiker (5) Landtagsabgeordnete (6) andere Lokalpolitiker (7) Schauspieler (8) Sportler GEEIGNET (1) FDP-Politiker (2) Grünen-Politiker (3) CDU/ CSU-Politiker (4) SPD-Politiker (5) Die Linke-Politiker (6) Politiker anderer Parteien (7) andere politische Akteure 106 6 D A S C O D E B U C H <?page no="106"?> sind solche Entscheidungsregeln auch explizit zu formulieren. Als Grundsatz geben Codebücher normalerweise generell den spezifischeren Codierungen Vorrang vor den allgemeineren (z. B. Themencodierung unter »Gesundheitspolitik«, nicht unter der Auffangvorgabe »Innenpolitik allgemein«) und den höherwertigen Codierungen Vorrang vor den geringeren (z. B. Platzierung eines mehrspaltigen Artikels auf dem Zeitungstitel als »Aufmacher«, nicht als »Mehrspalter«). Präzise Entscheidungsregeln sind regelmäßig dann erforderlich, wenn eine Codiereinheit in der Analyseeinheit mehrfach vorkommen kann, aber nur eine dieser Codiereinheiten erfasst werden soll (beispielsweise wenn in Artikeln mehrere Akteure vorkommen, aber nur der wichtigste zu codieren ist). Üblicherweise wird in solchen Fällen die Codiereinheit für relevant erklärt, die innerhalb der Analyseeinheit den größten Raum beansprucht (also den Akteur, auf den sich der Text hauptsächlich bezieht). Sollte dies nicht eindeutig feststellbar sein, wird oft die erstgenannte Alternative herangezogen (wenn im Artikel mehrere Akteure denselben Stellenwert besitzen, dann also den Erstgenannten dieser Akteure). Zuweilen findet man hierfür auch die Sammelkategorie »mehrere . . . (Codiereinheiten)«, die freilich den Nachteil hat, dass bei der späteren Analyse überhaupt kein Rückschluss mehr möglich ist, auf welche Codiereinheit genau sich die übrigen codierten Merkmale beziehen. Merksatz Die Codieranweisungen sollten spezifischeren Kategorien und Ausprägungen den Vorrang geben vor allgemeineren, höherwertigen vor geringerwertigen und wichtigeren Codiereinheiten den Vorrang vor unwichtigeren. Fallbeispiel: Politische Kommunikation IV Die Erarbeitung des Codebuchs, das Forschungsinstrument der Studie zur politischen Informationsvermittlung, war ein sehr intensiver und wichtiger Arbeitsschritt. Nachdem festgelegt wurde, welches Material (vgl. Kap. 4) nach welcher Logik (vgl. Kap. 5) in die Analyse einzubeziehen ist, musste nun beschlossen werden, woraufhin genau die Beiträge untersucht werden sollen - also welche Kategorien auf die Beiträge in Print, TV und Online angewendet werden. Generell sollte ein Kategoriensystem ebenso wie die einzelnen Kategorien vollständig, exklusiv und trennscharf sein. Die Entwicklung des spezifische versus allgemeine Codierung präzise Entscheidungsregeln Kategorien 107 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N I V <?page no="107"?> Kategoriensystems ist ein iterativer Prozess, fand bei diesem Forschungsprojekt aber größtenteils hypothesengeleitet statt. Für die Analyse der unterschiedlichen Mediengattungen wurden formale und inhaltliche Kategorien gebildet. Dabei war zu beachten, dass das Auftreten von Online-Medien vielfältiger ist, weshalb für diesen Fall mehr formale Variablen erhoben werden sollten (siehe unten: Untersuchungselemente der quantitativen Inhaltsanalyse). Beispiel Medium Art der Elemente Variablen Print, TV, Online formal Überschrift, Medium, Art des Beitrags, Datum, Quelle, Stilform, Anzahl der Verweise mit Bezug zum Thema des Beitrags inhaltlich Gegenstand, Anlass, Ursache, Thema, Personalisierung, Tenor, Valenz, Emotionalisierung, Humor, Nachrichtenfaktoren, Akteure, Tendenz der Darstellung des Akteurs zusätzlich für Online-Medien formal Anzahl der Hyperlinks mit/ ohne Bezug zum Thema, Anzahl interaktiver Grafiken, Videos, Tondokumente Es mussten jedoch nicht nur die Kategorien hergeleitet werden - auch die Ausprägungen der Kategorien sollten den Anforderungen der Vollständigkeit, Exklusivität und Trennschärfe genügen und wurden im Codebuch genau beschrieben, um mit einem reliablen Instrument intersubjektive Nachvollziehbarkeit zu schaffen. Bei dieser Arbeit sollte vom Allgemeinen ausgegangen und nur so weit ausdifferenziert werden, wie es einerseits für die Forschungsfrage benötigt wird und wie es andererseits für eindeutige Codierentscheidungen sinnvoll ist. In unserem Fallbeispiel wird unter anderem das Thema des Beitrags in einer Kategorie abgefragt. Um den Aufbau einer solchen Kategorie mit Ausprägung, jeweiligem Zahlencode und den Definitionen zu den Ausprägungen zu verdeutlichen, folgt hier ein Auszug aus dem Codebuch: Ausprägungen der Kategorien 108 6 D A S C O D E B U C H <?page no="108"?> Beispiel Codebuchauszug: Thema des Beitrags Wahlkampf, Politiker und Parteien 1000 Medien und Wahlen 1100 Umfrageergebnisse/ Wählerstimmungen/ Wahlausgang 1110 Bundestagswahl 1120 Landtagswahl 1130 Kommunalwahl 1131 Bürgermeisterwahl 1200 Wahlprogramme 1300 Wahlkampfstrategien [. . .] 2000 Politiker 2110 CDU-Politiker (inkl. Bundesminister) 2111 Christian Wulff (Bundespräsident) 2112 Angela Merkel (Bundeskanzlerin) 2120 CSU-Politiker (inkl. Bundesminister) 2130 FDP-Politiker (inkl. Bundesminister) 2140 SPD-Politiker [. . .] Obwohl hier augenscheinlich sehr detailliert gearbeitet wurde und auf den ersten Blick kaum denkbar erscheint, etwas könnte fehlen, ist immer damit zu rechnen, dass nicht alle Möglichkeiten aufgezählt wurden. Deswegen empfiehlt es sich dringend, eine Auffangvorgabe zu verwenden, in der man alle nicht im Codebuch aufgeführten Ausprägungen festhalten kann. Im folgenden Beispiel heißt diese Vorgabe »Sonstiges«; es empfiehlt sich aber genauso »Anderes« oder »nicht zuzuordnen«. Bei ersten Tests ist dies häufig ein Anzeichen dafür, ob genügend Ausprägungen gefunden werden konnten - je öfter »Sonstiges« codiert wurde, desto ungenauer sind die Formulierungen oder unvollständiger die Ausprägungen im Codebuch. Beispiel Stilform des Beitrags Die Zuordnung zu den verschiedenen Stilformen erfolgt in der Regel aufgrund der Kennzeichnung durch die Redaktion. Eine derartige Kennzeichnung kann durch die Nennung der Stilform in der Artikelüber- Auffangvorgabe 109 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N I V <?page no="109"?> schrift, in einer Unter- oder Zwischenüberschrift oder durch eine besondere Schrifttype für Text oder Überschrift erfolgen. 1 Nachricht, Bericht 2 Reportage, Feature 3 Kommentar, Leitartikel, Glosse 4 Porträt 5 Dokumentation 6 Interview 9 Sonstiges Ein weiteres wichtiges Kriterium beim Aufstellen des Kategorienschemas ist die Trennschärfe. Das bedeutet, Kategorien und Anweisungen müssen so eindeutig formuliert sein, dass dem Codierer wenig Interpretationsspielraum bei der Zuordnung bleibt (siehe Abb. 6.4). Sind die Kategorien nicht trennscharf, können unter den Codierern Unstimmigkeiten auftreten und ein Sachverhalt wird auf verschiedene Art und Weise codiert. Nach diesem Muster sollte jede Kategorie, besser noch jeder einzeln aufgeführte Begriff genau definiert werden, um Missverständnisse unter den Codierern von vornherein auszuschließen. Übungsfragen 1 Was ist eine zentrale Aufgabe bei Medieninhaltsanalysen? 2 Was wird in einem Codebuch festgelegt? a) konkrete Anweisungen für die Codierer b) Kriterien bzw. Kategorien, anhand derer das Untersuchungsmaterial bearbeitet wird c) die Stichprobengröße, für die das Codebuch konzipiert wurde 3 Welche Beziehung besteht zwischen dem Codierer und dem Codebuch? a) das Codebuch ist der Untersuchungsgegenstand des Codierers b) das Codebuch muss dem Codierer die richtige und korrekte Ausübung seiner Tätigkeit ermöglichen c) das Codebuch ist das Arbeitsinstrument des Codierers 4 Nennen Sie die drei wichtigsten Eigenschaften von Kategorien, die sie bezüglich der jeweiligen Codiereinheiten aufweisen müssen! Trennschärfe 110 6 D A S C O D E B U C H <?page no="110"?> Die Standards: Formale Kategorien Inhalt 7.1 Zur Funktion formaler Kategorien: Fixierung 7.2 Kategorie: Medium (Auswahleinheit) 7.3 Kategorie: Datum/ Zeit 7.4 Kategorie: Umfang (Länge/ Dauer) 7.5 Kategorien zu weiteren Darstellungsmerkmalen In diesem Kapitel werden die wichtigsten, für fast jede Inhaltanalyse erforderlichen formalen Kategorien vorgestellt und deren Bedeutung, insbesondere für die spätere Analyse, verdeutlicht. Musterlösungen illustrieren die Codierung von Auswahleinheit, Publikationstermin, Umfang und weiteren Darstellungsmerkmalen der Berichterstattung. Zur Funktion formaler Kategorien: Fixierung Formale Kategorien dienen, worauf ihr Name schon hinweist, der Erhebung formaler Codiereinheiten. Zur Wiederholung: Formale Codiereinheiten sind physisch manifeste Sachverhalte, die sich meist durch messen, zählen oder Transkription erheben lassen und keine Inferenzen des Codierers erfordern (vgl. Kap. 3.2). Daher geht es für die Codierer im Wesentlichen darum, diese Sachverhalte zu fixieren. Das Codebuch stellt hierzu eine Reihe von Kategorien bereit, die in der Regel von geringerer Komplexität sind, aber deswegen nicht minder präziser Definitionen bedürfen. Das vorliegende Kapitel gliedert sich in mehrere kürzere Abschnitte, in denen jeweils einzelne, in Inhaltsanalysen immer wieder benötigte formale Kategorien (z. B. Medium, Datum/ Zeit, Umfang) beschrieben werden. Die dabei vorgestellten Beispiellösungen dürfen allerdings nicht als Standardkategorien missverstanden werden, die in einer Studie unbesehen verwendet werden können. Vielmehr sind auch die 7 7.1 Erhebung formaler Codiereinheiten 111 Z U R F U N K T I O N F O R M A L E R K A T E G O R I E N : F I X I E R U N G Z U R F U N K T I O N F O R M A L E R K A T E G O R I E N : F I X I E R U N G <?page no="111"?> formalen Kategorien stets im Lichte der Anforderungen zu definieren, wie sie die jeweilige Fragestellung mit sich bringt. Merksatz Formale Kategorien verlangen vom Codierer zwar scheinbar nur die Fixierung manifest vorliegender Merkmale; deswegen sind jedoch nicht minder sorgfältige Definitionen erforderlich. Schließlich darf die Bedeutung der formalen Codierungen im inhaltsanalytischen Forschungsprozess nicht unterschätzt werden: Obwohl ihre Auswertung meistens bloß deskriptive und selten überraschende oder interessante Befunde erbringt, erfüllen sie wichtige instrumentelle Funktionen für andere Auswertungen. Zu nennen sind dabei insbesondere: . die Funktion als Differenzierungskriterium für weitergehende Analysen . die Funktion als Schlüsselcode bei hierarchisch zerlegten Analyseeinheiten . die Funktion als Gewichtungsfaktor bei der Auswertung anderer Kategorien Untersucht man beispielsweise die Behandlung eines bestimmten Themas (wie Gentechnik) in den Massenmedien, so mag es eine erste aufschlussreiche Information darstellen, wenn man weiß, in welchen Medien überhaupt über das Thema berichtet wurde, oder wann im Zeitverlauf der Höhepunkt der Berichterstattung zu verzeichnen war. Haben Regionalzeitungen überhaupt von dem Thema Notiz genommen? Und wenn ja, zu welchem Zeitpunkt? Auf entsprechende Grundauswertungen hin folgen zumeist tiefer gehende Analysen (vgl. Kap. 2), und für diese werden die genannten formalen Kategorien gerne als Differenzierungskriterium herangezogen. Man würde also bei den weiteren inhaltlichen Kategorien unterscheiden, in welchen Medien die betreffenden Sachverhalte häufiger vorkommen, oder in welcher Phase welche Themen angesprochen wurden. Dies verdeutlicht die wichtige Funktion gerade der formalen Kategorien im Untersuchungsverlauf, weshalb sie auch mit der gebotenen Sorgfalt erhoben werden sollten. An anderer Stelle wurde bereits angesprochen, dass bei einer Codierung auf mehreren Ebenen eindeutige Schlüsselcodes erforderlich sind, um die hierarchisch zerlegten Analyseeinheiten anschließend wieder zusammenführen zu können (vgl. Kap. 5.1). Da sich hierfür meist eine Kombination aus verschiedenen formalen Codes anbietet (z. B. Medium/ Tag/ lfd. Nummer), ist deren gewissenhafte Vergabe Voraussetzung für die instrumentelle Funktionen 112 7 D I E S T A N D A R D S : F O R M A L E K A T E G O R I E N <?page no="112"?> korrekte Reproduktion der Struktur der Auswahleinheit während der Auswertungsphase. Schließlich berücksichtigt die Auswertung inhaltlicher Kategorien häufig formale Kategorien wie den Umfang der Analyseeinheit oder ihre Platzierung als Gewichtungsfaktoren. Ziel hiervon ist es, im Vergleich zu einer simplen Auszählung genauere Ergebnisse zu erhalten. So würde etwa im obigen Beispiel bei einer simplen Häufigkeitsauswertung (z. B. wie oft Gentechnik und andere Themen in den untersuchten Tageszeitungen vorkamen) jeder Artikel gleich behandelt: Eine kurze Meldung zählt hier genauso viel wie ein mehrspaltiger Aufmacher. Eine Gewichtung mit der jeweiligen Länge des Artikels kann dieses Defizit ausgleichen und ergibt dementsprechend präzisere Anteilswerte. Dies setzt wiederum die sorgfältige Erhebung der formalen Kategorie »Artikellänge« voraus. Merksatz Die Bedeutung formaler Kategorien für den Auswertungsprozess ist nicht zu unterschätzen, denn sie erfüllen dabei unterschiedliche instrumentelle Funktionen. Formale Kategorien können prinzipiell auf allen Analyseebenen vorgesehen und für die betreffenden Analyseeinheiten gemessen werden. Die konkrete Umsetzung unterscheidet sich bloß graduell, weshalb darauf im Folgenden nur ausnahmsweise eingegangen wird. Schließlich sei darauf hingewiesen, dass unter den formalen Kategorien auch festgehalten werden sollte, welcher Codierer die betreffende Analyseeinheit bearbeitet hat - dies geht zwar nicht in die Auswertung ein, erleichtert aber die Kontrolle der Codierarbeiten und Rückfragen bei Unstimmigkeiten in der Datenerfassung (vgl. Kap. 10 und 12). Kategorie: Medium (Auswahleinheit) Die codierte Auswahleinheit wird meist anhand einer Kategorie namens »Medium«, »Zeitung«, »Website« oder »Sendung« festgehalten. Sie enthält Nominaldefinitionen aller Auswahleinheiten und kann der einfacheren Orientierung halber nach Medientypen sortiert sein (siehe Abb. 7.1). Die Codeziffern sind nicht fortlaufend vergeben, sondern in Zehnergruppen für einzelne Medientypen, nicht besetzte Codes bleiben frei. Dies hat den Vorteil, dass bei der späteren Auswertung die einzelnen Typen leicht zusammengefasst werden können: Öffentlich-rechtliche Nachrichten sind 7.2 113 K A T E G O R I E : M E D I U M ( A U S W A H L E I N H E I T ) <?page no="113"?> in diesem Beispiel alle 30er-Codes, Privatsender alle 40er-Codes und Internetangebote alle 50er-Codes, Hörfunknachrichten die 20er-Codes und überregionale bzw. regionale Tageszeitungen haben dementsprechend die kleineren Werte. Außerdem ist die Zugehörigkeit zu einem Medientyp auf den ersten Blick erkennbar. Wichtig ist hierbei, dass bei namentlich ähnlichen Auswahleinheiten eine eindeutige Kennung hinzugefügt wird (z. B. auf welche der verschiedenen T AG E S S CHAU -Sendungen eines Tages sich die Codierung bezieht). Kategorie: Datum/ Zeit Ebenfalls standardmäßig wird das Publikationsdatum der Analyseeinheit codiert. Der Auflösungsgrad wird dabei von der Periodizität des Mediums bestimmt: Für die 20-Uhr-Tagesschau reicht es aus, das Datum zu bestimmen, weil es nur eine solche Sendung pro Tag gibt; werden andererseits mehrere Hörfunknachrichten pro Tag bearbeitet, muss die Abb. 7.1 Formale Kategorie zur Erfassung der codierten Auswahleinheit (Medium) 1. Medium 01 Süddeutsche Zeitung 02 Frankfurter Allgemeine Zeitung 03 Frankfurter Rundschau 04 Die Welt 11 Leipziger Volkszeitung 12 Neue Osnabrücker Zeitung 13 Ostsee-Zeitung 14 Märkische Oderzeitung 15 Badische Zeitung 16 Trierischer Volksfreund 17 Aachener Nachrichten 18 Lausitzer Rundschau 21 MDR 1 22 MDR Figaro 23 MDR aktuell 24 MDR Jump 25 Antenne Thüringen 26 Landeswelle Thüringen 27 Radio Top 40 31 ARD Tagesschau (20: 00) 32 ARD Tagesthemen 33 ARD Nachtmagazin 34 ZDF heute (19: 00) 35 ZDF heute-journal 36 ZDF heute nacht 37 MDR Thüringen-Journal 41 RTL aktuell (18: 45) 42 RTL-Nachtjournal 43 SAT.1 Nachrichten (20: 00) 44 RTL II-Nachrichten (20: 00) 51 spiegel.de 52 bild.de 53 sueddeutsche.de 54 focus.de 55 welt.de 7.3 114 7 D I E S T A N D A R D S : F O R M A L E K A T E G O R I E N <?page no="114"?> Ausstrahlungszeit präzisiert werden (sofern dies nicht schon bei der Codierung der Auswahleinheit erfolgte, vgl. Kap. 7.2). Für Tageszeitungen reicht ebenfalls das Datum aus, wöchentlich erscheinende Magazine können - je nach Analyseziel - genauso mit dem Datum oder mit der jeweiligen Kalenderwoche erfasst werden. Bei der Zuweisung eines Datums für Internet-Inhalte sollte das Datum zusammen mit der genauen Uhrzeit des Zugriffs auf das Angebot codiert werden, da sich die Inhalte laufend verändern können. Wenn die Auswahleinheit so bestimmt ist, dass für jedes Medienorgan exemplarisch nur jeweils eine Analyseeinheit pro Monat oder Jahr erhoben werden soll, können unter Umständen sogar größere Zeiteinheiten als Aufteilung der Ausprägungen sinnvoll sein. Der Blick auf die bisherige Forschung zeigt jedoch, dass das Datum als Basiskategorie fast immer fixiert wird. Bei der Vergabe von entsprechenden Codes gibt es grundsätzlich zwei Strategien: Am einfachsten ist das Datum im Zahlenformat zu codieren; allerdings sollte bei einer Untersuchung über größere Zeiträume das Format Jahr/ Monat/ Tag gewählt werden (siehe Abb. 7.2). Damit ergibt sich bei einer Sortierung tatsächlich ein chronologischer Ablauf (ansonsten kommen zuerst alle Ersten des Monats, dann alle Zweiten, unabhängig von Monat oder Jahr). Alternativ hierzu kann das Codebuch auch fortlaufende Ziffern für jedes relevante Datum vorsehen. Der Nachteil hierbei ist, dass der Codierer den betreffenden Wert jeweils einzeln nachschauen muss; der Vorteil ist, dass für Analysen im Zeitverlauf das mehrstellige Datumsformat oft sperrig erscheint. Außerdem hat es die ungünstige Eigenschaft, dass es die Abstände zwischen den Tagen nicht konstant hält: Auf 170130 (30. Januar 2017) folgt beispielsweise 170131 und dann 170201 - der Abstand ist jeweils ein Tag, aber der Zahlenwert springt zwischen den Monaten um 70 weiter. Noch dramatischer ist der Unterschied bei Jahreswechseln. Dies ist bei der Auswertung dann zu beachten, wenn Verfahren gewählt werden, die einen linearen Verlauf unterstellen (z. B. Korrelationen). Aber natürlich besteht auch bei einer Codierung im Datumsformat noch nachträglich die Möglichkeit, dies im Rahmen der Auswertungen in eine lineare Abfolge zu überführen. Gleiches gilt für die Information, um welchen Wochentag es sich handelte. Manche Statistikprogramme tragen diesen Problemen durch spezielle Datumsformate Rechnung, die bereits für die Codierung verwendet werden können. Merksatz Das Datumsformat folgt nicht dem Dezimalsystem und birgt deswegen tückische Fallen im Laufe der Erhebung und insbesondere der Auswertung. Datumsformat 115 K A T E G O R I E : D A T U M / Z E I T <?page no="115"?> Kategorie: Umfang (Länge/ Dauer) Eine wichtige Information, die zwischen den Analyseeinheiten erheblich variieren kann, ist deren Umfang innerhalb der Medienberichterstattung. Die Messung erfolgt für Printmedien üblicherweise in Längeneinheiten (z. B. Spaltenzentimeter, Zeilenzahl, Seitenzahl) oder Flächeneinheiten (cm 2 der Artikel- oder Fotofläche), für Funkmedien in Zeiteinheiten (Dauer in Stunden, Minuten oder Sekunden) und im Internet, wo sich multimediale und -modale Inhalte finden, muss häufig auf eine Kombination aus Flächen- und Zeiteinheiten zurückgegriffen werden. Obwohl es sich um eine auf den ersten Blick eindeutige Messung physikalisch vorliegender Größen handelt, steckt der Teufel auch hier im Detail der jeweils gewählten Definition. Bei Printmedien für gewöhnlich gewählte Messmethoden unterstellen normalerweise, dass es sich um eine lineare, kontinuierliche und zusammenhängende Darstellung handelt. Für das Gros der Berichterstattung in Tageszeitungen trifft dies auch zu - hoch standardisierte Layoutvorgaben (wie beispielsweise einheitliche Spaltenbreiten) sorgen dafür, dass man mit der Erhebung von Spaltenzentimetern oder der Zeilenzahl pro Artikel einen vernünftigen Indikator für den Berichtsumfang verfügbar hat. Durch die Multiplikation mit der Spaltenbreite oder mit der durchschnittlichen Zeichenzahl pro Zeile ergeben sich dann auch Größen, die zwischen unterschiedlichen Organen vergleichbar sind (die tatsächliche Zeichenzahl steht nur bei der Codierung von digitalen Fassungen z. B. im Internet zur Verfügung). Aber bereits bei Boulevardzeitungen - und spätestens bei Wochenblättern oder Zeitschriften mit einem weniger strengen, großzügigeren Layout - gilt dies nicht mehr. Da wechseln die Spaltenbreiten, Kästen Abb. 7.2 Formale Kategorie zur Erfassung des Publikationsdatums 2. Datum sechsstellig oder bei Bedarf (z. B. für Internetinhalte) auch zwölfstellig im Format JJMMTT oder alternativ: 2. Datum 1 12.06.16 4 15.06.16 7 18.06.16 2 13.06.16 5 16.06.16 8 19.06.16 3 14.06.16 6 17.06.16 9 20.06.16 7.4 Printmedien 116 7 D I E S T A N D A R D S : F O R M A L E K A T E G O R I E N <?page no="116"?> und Grafiken werden außerhalb des Satzspiegels eingestreut, Überschriften einsam in große, ansonsten unbedruckte Flächen eingebettet oder gar Fotomotive »freigestellt«, d. h., die Bildkontur folgt dem Motiv und nicht einem klassischen rechteckigen Format. Ist mit solchen speziellen Darstellungsformen zu rechnen, muss die Kategoriendefinition für diese Fälle Handlungsanweisungen vorsehen - und sie nicht dem Gutdünken des Codierers überlassen. An dieser Stelle kann hierfür keine pauschale Lösung angeboten werden, lediglich ein allgemeiner Hinweis sei formuliert: Erstens geht man zumeist dazu über, bei der Flächenmessung die »ausgefransten« Konturen zu vernachlässigen und die Beitragsfläche zu einem gedachten Rechteck zu ergänzen. Der Umgang mit Überschriften ist dabei zu klären; außerdem ist sicherzustellen, dass jedes Flächenstück nur einmal vermessen wird, um den rechnerischen Gesamtumfang der Berichterstattung nicht fälschlich zu erhöhen. Für die Messung kann dann dem Codierer ein improvisiertes Flächenlineal zur Verfügung gestellt werden, indem man zwei Zentimeterskalen im rechten Winkel auf eine Folie kopiert (korrekten Abbildungsmaßstab beachten! ). Wird diese Folie an einem Eck angelegt, lassen sich Länge und Breite eines Beitrags schnell ablesen. Merksatz Die Messung des Umfangs der Print-Berichterstattung muss der Natur des Untersuchungsmaterials angepasst werden und kann nur nach eingehender Betrachtung des Materials definiert werden. Der Umfang der Berichterstattung von Funkmedien und Bewegtbildern wie z. B. Abrufdateien auf Video-Plattformen wird nur ausnahmsweise ähnlich gezählt, wenn nämlich ein durchgehender Redefluss als codierbares Manuskript fixiert ist oder transkribiert wurde (z. B. bei Radionachrichten oder Sendemanuskripten). Im Regelfall wird jedoch die Dauer in angemessenen Zeiteinheiten festgehalten (meist Sekunden oder Minuten). Hier gilt ebenso wie für die Codierung des Datums (vgl. Kap. 7.3): Zeiteinheiten folgen nicht dem Dezimalsystem und sind deswegen in der Auswertung schwierig zu behandeln. Die Statistikprogramme sehen unterschiedliche Zeitformate vor, über die man sich wieder vor der Codierung informieren sollte, um langwierige Umcodierungsprozesse zu vermeiden. Da der Zeitverlauf bei Funkmedien per Definition eindimensional und linear ist, gibt es bei der Messung - abgesehen vom mitunter umständlichen Handling oder den technischen Abweichungen zwischen Flächenlineal Funkmedien 117 K A T E G O R I E : U M F A N G ( L Ä N G E / D A U E R ) <?page no="117"?> unterschiedlichen Media-Playern - meist keine Streitfälle. Ein Problem entsteht allerdings dann, wenn Bild- und Tonebene (und ggf. Textebene) separat oder sogar in unterschiedlichen Analyseeinheiten gemessen werden sollen: Da die Ebenen im Medium parallel vorliegen, lässt sich die Gesamtdauer dann evtl. nicht mehr einfach aus der Addition der Einzelwerte berechnen. In diesem Fall sind ergänzende Messungen für die betreffende Analyseeinheit erforderlich. Merksatz Die Messung der Dauer von Rundfunkberichten und Bewegtbildern ist aufgrund der Zeit als Basiseinheit unproblematischer zu definieren, aber im Codiergang eher unkomfortabel. Komplex kann sich die Erhebung des Umfangs für Inhalte aus dem Internet gestalten. Eine exakte Definition der Analyseeinheiten ist hier die Grundvoraussetzung für eine erfolgreiche Codierung. Interessiert auf Webseiten nur der Umfang von einzelnen Objekten, so gibt es Programme, mit denen man die Größe wie mit einem Lineal in cm 2 (oder auch in Pixelanzahl) messen kann. Wichtig ist dabei vor allem, dass die gesamten Inhalte mit den gleichen technischen Voraussetzungen und Einstellungen betrachtet werden. Ein Foto kann auf einem Bildschirm anders aussehen als auf anderen, z. B. aufgrund einer unterschiedlichen Auflösung. Auch der genutzte Browser hat einen Einfluss auf die Darstellung einer Seite. Häufig wird aber lediglich der Text auf einer Website analysiert. Entweder wird die Textgröße wie bei Objekten gemessen, wobei hier beachtet werden muss, dass es unterschiedliche Schriftarten und -grade gibt; oder man kopiert die interessierenden Passagen praktischerweise in ein Textdokument, um dort die verwendeten Zeichen oder Wörter auszuzählen. Für audio-visuelle Inhalte sind die Ausführungen zur Messung der Zeiteinheiten bei Bewegtbildern (s. o.) zu berücksichtigen, wobei die Abspielsoftware auf Computern meist eine Zeitleiste besitzt, auf der man die aktuelle Spieldauer ablesen kann. Merksatz Da Inhalte im Internet multimedial und -modal sein können, muss die Umfangsmessung ebenfalls an die Natur des Untersuchungsmaterials angepasst werden. Sie vereinfacht sich jedoch durch technische Hilfsmittel wie Textprogramme und Mess- und Abspielsoftware. Online-Inhalte 118 7 D I E S T A N D A R D S : F O R M A L E K A T E G O R I E N <?page no="118"?> Äußerst schwierig wird es, wenn die Umfangswerte für unterschiedliche Medientypen miteinander verrechnet werden sollen. Die einem Thema gewidmeten Sekunden und Quadratzentimeter lassen sich nicht einfach aufaddieren. Wenn überhaupt, kann ein Vergleich nur nach einer Standardisierung der Verteilungen am jeweiligen Mittelwert für die Printbzw. die Funkberichterstattung erfolgen. Für die erforderlichen statistischen Prozeduren (z. B. zur Standardisierung) sei auf weiterführende Literatur verwiesen (vgl. z. B. Diekmann 2009: 702 f.). Auch die standardisierten Werte können nur schwer miteinander verrechnet werden, denn ein inhaltliches Problem ist damit noch nicht gelöst: Dass sich die Größen nämlich auf vollkommen andersartige Vermittlungsqualitäten beziehen. So besitzt etwa die Fernsehberichterstattung durch Nutzung unterschiedlicher Wahrnehmungskanäle (Bild und Ton) eine wesentlich höhere und anders geartete Informationsdichte. Im Regelfall werden deswegen die Umfangswerte nach Medientypen getrennt ausgewertet und interpretiert oder zur Gewichtung verwendet. Kategorien zu weiteren Darstellungsmerkmalen Den Massenmedien stehen eine Reihe von weiteren Mitteln zur Verfügung, um Beiträge unterschiedlich zu präsentieren - so beispielsweise ihre Platzierung im formalen oder redaktionellen Kontext (Position, Ressort), bei Funkmedien die Erwähnung in einer Themenvorschau, im 3. Umfang des Beitrags bei Tageszeitungen: Textkorpus ohne Überschrift in Zeilen, einem Artikel explizit zugeordnete Fotos oder Grafiken werden in Zeilen umgerechnet und hinzuaddiert. Die Umrechnung in Zeichen erfolgt anschließend anhand der redaktionellen Vorgaben der einzelnen Tageszeitungen. bei Printmedien generell: Texte und Objekte werden mit dem Lineal vermessen, Schriftart und -grad sind dabei zu beachten. Wörter oder Buchstaben können ausgezählt werden (vorzugsweise wenn digitalisierte Texte vorliegen). bei Rundfunknachrichten: Dauer des Beitrags in Sekunden, vom Beginn der Analyseeinheit (siehe Definition) bis zu deren Ende. bei Internetinhalten: Je nachdem ob Texte, Grafiken, audio-visuelle Inhalte usw. analysiert werden, wird auf die zuvor genannten Möglichkeiten der Umfangsmessung zurückgegriffen. Abb. 7.3 Formale Kategorie zur Erfassung des Umfangs der Berichterstattung Verrechnung unterschiedlicher Medientypen 7.5 119 K A T E G O R I E N Z U W E I T E R E N D A R S T E L L U N G S M E R K M A L E N <?page no="119"?> Internet die Erwähnung in einer Meist-geklickt-Liste oder bei Printmedien die Größe der Überschrift. Viele dieser Merkmale lassen sich auf das Merkmal Bedeutsamkeit zurückführen: Das in den Augen der Journalisten oder Website-Betreiber wichtige Geschehen wird prominenter dargestellt. Diese Darstellungsmerkmale können durch weitere Kategorien erfasst werden - allerdings sollte gewissenhaft geprüft werden, welche Angaben für das Forschungsziel tatsächlich erforderlich sind. Es ist nicht sinnvoll, die teilweise aufwändige Codierung dieser Kategorien ohne weiteres Nachdenken als formale Anforderungen vorzusehen, ohne dass damit ein konkretes Auswertungsinteresse verknüpft wäre. Ist jedoch die Erhebung nötig, sollten die einzelnen Vorgaben durch Ergebnisse anderer Studien geleitet sein; weitere Hinweise finden sich mitunter auch in Praxisratgebern für Journalisten. An dieser Stelle werden lediglich zwei Aspekte exemplarisch herausgegriffen, nämlich . die Platzierung und . die Erfassung des Ressorts bzw. der Formate/ Genres. Wichtigster Indikator für die Erfassung der Platzierung ist natürlich die Position der betreffenden Codiereinheit innerhalb des Medienangebots. Artikel in Tageszeitungen beispielsweise, die auf der Titelseite abgedruckt sind, wurden mit einem besonderen redaktionellen Augenmerk versehen. Einen ähnlichen Stellenwert genießen die jeweils ersten Meldungen in einer Nachrichtensendung. Auf Sendungsebene hingegen wäre etwa die Ausstrahlung von Unterhaltungssendungen in der zuschauerstarken Prime Time zwischen 19: 00 und 23: 00 Uhr ein vergleichbarer Indikator, im Gegensatz zu Wiederholungen im Frühstücksfernsehen. Printmedien hingegen können neben der Position auch die Größe der Überschrift oder die mehrspaltige Aufbereitung als differenzierendes Merkmal nutzen; dem entspräche im Fernsehen eine Ankündigung in der Vorschau. Auf Internetseiten (wie beispielsweise Blogs und Nachrichtenportalen) befinden sich die aktuellsten und meist wichtigsten Einträge prominent im oberen Bereich einer Seite platziert, während sich ältere Beiträge (beziehungsweise die weniger wichtigen Einträge) am Rand der Seite oder weiter unten befinden. Insbesondere bei Internet-Nachrichtenportalen werden alle Beiträge lediglich auf der Startseite und den Ressortübersichten verlinkt und meist mit Bild, Überschrift und »Teaser« (kurzer Anreißer, der einen Überblick über den Inhalt gibt) beworben. Der eigentliche Artikel baut sich dann auf einer neuen Seite auf. Mobile Anwendungen »Apps« wiederum können dieselben Inhalte vollkommen anders darstellen. Wie das Beispiel in Abb. 7.4 verdeutlicht, ist bei der Integration verschiedener Dimensionen in dieselbe Vorgabe von Ausprägungen darauf zu achten, dass mit den Merkmal: Bedeutsamkeit Platzierung 120 7 D I E S T A N D A R D S : F O R M A L E K A T E G O R I E N <?page no="120"?> definierten Kombinationen die Menge der möglichen Kombinationen sinnvoll abgedeckt wird (Vollständigkeit; vgl. Kap. 5). Hier gilt die oben bereits erwähnte Grundregel, dass im Zweifelsfall stets die höherwertige Platzierung zu verschlüsseln ist und alle nicht vorgesehenen Platzierungsformen unter »andere Platzierung« fallen. Die Erfassung der Ressorts bzw. Genres bezieht sich auf die redaktionellen Substrukturen, mit denen Medienanbieter ihre Inhalte für den Nutzer kennzeichnen. Da mit diesen Substrukturen auch spezifische Nutzungsmuster des Publikums verbunden sind, kann es sich als 4. Platzierung des Beitrags in den Zeitungen: 1 Aufmacher auf der Titelseite 2 mehrspaltiger Artikel auf der Titelseite 3 einspaltiger Artikel auf der Titelseite 4 eigenständiger, im Inhaltsverzeichnis mit Seitenzahl aufgeführte Artikel oder Artikel, auf den auf der Titelseite anderweitig verwiesen wird 5 mehrspaltiger Artikel auf der Innenseite 6 einspaltiger Artikel auf der Innenseite 9 andere Platzierung in den Rundfunknachrichten: 1 erster Beitrag der Sendung 2 Beitrag, auf den in der Vorschau verwiesen und/ oder in der Sendung kommentiert bzw. auf den sich ein Interview bezieht 3 Beitrag mit Filmbericht 4 reine Sprechermeldung 9 andere Platzierung auf Internet-Nachrichtenportalen: 1 erster Artikel-Teaser zentral oben auf der Startseite 2 Artikel-Teaser am Rand oben auf der Startseite 3 Artikel-Teaser auf der Startseite 4 Artikelüberschrift ohne Teaser auf der Startseite 5 erster Artikel-Teaser zentral oben auf der Ressortübersichtsseite 6 Artikel-Teaser am Rand oben auf der Ressortübersichtsseite (. . .) 99 andere Platzierung Abb. 7.4 Formale Kategorie zur Erfassung der Platzierung Ressorts und Genres 121 K A T E G O R I E N Z U W E I T E R E N D A R S T E L L U N G S M E R K M A L E N <?page no="121"?> zielführend erweisen, sie durch entsprechende Kategorien zu erheben. Dies ist allerdings nur dann sinnvoll, wenn die Definition der Auswahleinheit das Untersuchungsmaterial nicht von vornherein auf einen Bereich oder ein Ressort beschränkt (z. B. den politischen Teil der Zeitung, Online-Portale oder Nachrichtensendungen). Printmedien teilen ihre Berichterstattung für gewöhnlich in Ressorts auf, die auch den organisatorischen Binnenstrukturen in der Redaktion entsprechen. Die Ressorttitel sind im Kopf der Seite explizit genannt und somit vergleichsweise einfach zu identifizieren. Diese Kategorisierung wird auch bei den meisten Internet-Nachrichtenportalen benötigt. Für Blogs und viele andere Internet-Angebote gibt es zusätzlich die Möglichkeit, den Beiträgen Schlagworte (sogenannte »Tags«) zuzuweisen, die eine Zuordnung in bestimmte Themengebiete erlauben, bei Twitter könnten dies Hashtags sein. Es empfiehlt sich, die in den Organen der Auswahleinheit getroffenen Konventionen in die Definition der Ausprägungen zu integrieren, sodass der Codierer tatsächlich nur streng schematisch den Ressorttitel aus den Vorgaben heraussuchen muss (siehe Abb. 7.5). Abb. 7.5 Formale Kategorie zur Erfassung der Ressortzuordnung 5. Ressort Codiert wird das Ressort, in dem der Beitrag erscheint. Wird ein Beitrag von der Titelseite im Inneren der Zeitung oder auf einer Folgeseite des Web-Angebots fortgesetzt, so wird dies wie ein zusammenhängender Beitrag auf der Titelseite behandelt. Dies gilt nicht für abgeschlossene Beitrag, auf die auf der Titelseite lediglich hingewiesen wird. 1 Titelseite 2 Politik allgemein 3 Hintergrund (z. B. Seite Drei) 4 Meinung (z. B. Meinungsseite) 5 Pressestimmen 6 Wirtschaft/ Finanzen 7 Kultur/ Feuilleton/ Kunstmarkt 8 Medien/ TV-Programm 9 Wissenschaft/ Bildung 10 Reise/ Verkehr 11 Ratgeber 12 Vermischtes 13 Leserbriefe 20 Jugendseite 30 Wochenendbeilage 99 anderes Ressort 122 7 D I E S T A N D A R D S : F O R M A L E K A T E G O R I E N <?page no="122"?> 6. Format Verschlüsselt wird, in welches Format sich die Sendung einordnen lässt. Die Einteilung der Formate orientiert sich primär an formal-dramaturgischen Aspekten. Formate systematisieren und bezeichnen Fernseh- und Hörfunkangebote also nach ihrer Form (Länge, Bestandteile, Abgeschlossenheit der Sendung, Filmtechnik usw.), wobei manche der Kategorien überwiegend für das Fernsehen, andere hauptsächlich für den Hörfunk einschlägig sind. Unterschieden werden: 10 nicht-fiktionale Formate 11 Nachrichtensendung 12 Magazinsendung 13 Ratgebersendung 14 Dokumentation/ Reportage 15 Quizsendung/ Gameshow 16 Darbietungsshow 17 Talkshow 18 . . . mit Alltagsmenschen 19 . . . mit Politikern/ Prominenten 20 Live-Übertragung von Ereignissen 21 Reality-TV/ Reality-Inszenierung 22 Comedy-Sendung/ Satire 23 Wetterinformation 24 Musiksendungen 25 Call-In-Talksendung 30 fiktionale Formate 31 Spielfilm 32 Serie 33 Daily Soap 34 Trickfilm 35 Hörspiel 36 Lesung 40 Werbeformate 41 Werbung (inkl. Trailer, Werbetrenner) 42 Unterbrecherwerbung 43 Scharnierwerbung 44 Teleshopping/ Dauerwerbesendung Das Format Nachrichtensendung ist gekennzeichnet durch die Berichterstattung über tagesaktuelle Themen, die meist in einzelnen Beiträgen aufeinanderfolgen. Das Format Magazinsendung ist gekennzeichnet durch die Berichterstattung zu einzelnen Themen, die jedoch nicht zwingend tagesaktuell sein müssen, sondern das allgemeine Zeitgeschehen behandeln. Magazinsendungen setzen sich meist aus einzelnen Beiträgen zusammen. Das Format Ratgebersendung ist ebenso wie die Magazinsendung durch die Berichterstattung zu verschiedenen Themen gekennzeichnet, die jedoch nicht zwingend tagesaktuell sein müssen. Typisch für eine Ratgebersendung ist ihr Service-Charakter für den Zuschauer. Dieser kann sich zum Beispiel in interaktiven Elementen zeigen (Expertenratschläge für Zuschauer via Telefon, weitere Informationen zum Thema via Faxabruf oder Internet). Darüber hinaus manifestiert sich der Service-Charakter von Ratgebersendungen auch in der Tatsache, dass die vermittelte Information über eine reine Berichterstattung hinausgeht und anwendungsbezogene Tipps und Ratschläge enthält (z. B. Hausmittel gegen Erkältung, Baufinanzierung). Eine Ratgebersendung kann, muss aber - im Gegensatz zur Magazinsendung - nicht zwingend aus mehreren Beiträgen bestehen. Das Format Dokumentation/ Reportage hat zum Ziel, ein Thema bzw. eine Handlung möglichst realitätsnah wiederzugeben. Sie ist durch eine zusammenhängende Dramaturgie gekennzeichnet. Von fiktiven Formaten grenzt sich die Dokumentation bzw. die Reportage dadurch ab, dass sie nicht eine Handlung exklusiv inszeniert, sondern Handlungen filmt, die auch unabhängig von der Filmabsicht geschehen wären. Bei dem Format Quizsendung/ Gameshow steht die Inszenierung echter, fernsehspezifischer Spiele oder Wettkämpfe im Mittelpunkt der Produktion. Meist sind die Sendungen als Reihe konzipiert. Sie haben einen festen Sendeplatz, Stammpersonal, die selbe Kulisse und einen immer gleichen Sendungsablauf. Auch eine »langsamere« Form der Quiz- und Gameshow mit Talkelementen und Showeinlagen fällt unter die Format Quizsendung/ Gameshow, wenn in ihr echte Spiele gespielt werden (z. B. »Wer wird Millionär«, »Groß gegen Klein«, »Schlag den Star. . .? «, »Gefragt-Gejagt«). (. . .) Abb. 7.6 Formale Kategorie zur Erfassung von Formaten im Fernsehen 123 K A T E G O R I E N Z U W E I T E R E N D A R S T E L L U N G S M E R K M A L E N <?page no="123"?> Abb. 7.7 Formale Kategorie zur Erfassung von Genres im Fernsehen 7. Genre Neben den formal-dramaturgisch definierten Formaten lassen sich die Programmelemente verschiedenen Genres zuordnen. Die Abgrenzung von Genres orientiert sich primär an inhaltlichen Aspekten der Programmelemente und spiegelt die eher alltagstypische Einordnung von Sendungen wider. Eine Verschlüsselung der Kategorie Genre erfolgt jedoch sinnvollerweise nur für solche Programmelemente, die dem Format Magazinsendung, Ratgebersendung, Spielfilm oder Serie angehören. Unterschieden werden für Magazin- und Ratgebersendungen sowie Dokumentationen/ Reportagen die Inhalte 1 Politik/ Wirtschaft 2 Natur/ Wissenschaft 3 Gesundheit/ Ernährung 4 Boulevard/ Prominente 5 Kultur/ Reise 6 Sport/ Freizeit/ Lifestyle 7 Erotik 8 gemischte Inhalte 9 sonstige Inhalte Ausschlaggebend für die Verschlüsselung ist diejenige inhaltliche Ausprägung, die im Mittelpunkt des Programmelements steht. Nur in Fällen, bei denen es im Grundkonzept des Programmelements liegt, Inhalte aus völlig verschiedenen Bereichen zusammenzutragen, wird Codeschlüssel 8 vergeben. Unterschieden werden für Spielfilme, Serien usw. die Inhalte 10 Krimi/ Thriller 11 Action/ Abenteuer 12 Arzt/ Krankenhaus 13 Science Fiction 14 Horror/ Grusel 15 Humor/ Comedy 16 Liebe/ Beziehung 17 Erotik 18 Politik/ Zeitkritik 19 Krieg/ Antikrieg 20 Western 21 sonstige Inhalte Ausschlaggebend für die Verschlüsselung ist diejenige inhaltliche Ausprägung, die im Mittelpunkt des Programmelements steht. 124 7 D I E S T A N D A R D S : F O R M A L E K A T E G O R I E N <?page no="124"?> Etwas komplexer stellt sich die Sachlage im Falle des Fernsehens dar: Zwar vergeben Fernsehzeitschriften oder Sendeanstalten gerne Etiketten, um das Format einer Sendung zu beschreiben oder sie einem bestimmten Genre zuzuordnen. Diese Bezeichnung folgt aber oft Marketing- oder Imageüberlegungen und kann aus wissenschaftlicher Sicht nicht hinreichen. Überdies verschmelzen in der Wahrnehmung der Zuschauer die Formate - also Präsentationsformen wie Boulevardmagazine, Realityshows oder Spielfilme - mit Genremerkmalen, also Themenbereichen wie Action, Humor, Musik oder Sport. Dabei werden zwei unterschiedliche Dimensionen vermischt, was der Trennschärfe abträglich ist: So existieren Kombinationen wie Comedy und Seifenoper, Reality-Fernsehen kann Gerichtsshows ebenso umfassen wie den Frauentausch, und der Unterschied zwischen Science-Fiction-Spielfilmen und Science- Fiction-Serien ist oft nur graduell. Um dem Codierer die Zuordnung zu erleichtern, kann es sich deswegen anbieten, in einem zweistufigen Verfahren zunächst das Format (was zuweilen auch als »Gattung« bezeichnet wird) zu codieren und im Anschluss für das jeweilige Format eine Genrezuordnung zu treffen (siehe Abb. 7.7). Abschließend sei erneut darauf hingewiesen, dass hier wie für alle formalen Kategorien der Grundsatz gilt, wonach sich aus Fragestellung und Hypothesen die Notwendigkeit ihrer Erhebung ergeben muss - wenn nicht, kann man sich die komplexe Entwicklung angemessener Format-/ Genrekategorien ersparen. Fallbeispiel: Politische Kommunikation V Wie bei jeder Inhaltsanalyse gliedert sich auch das Codebuch dieser Studie in formale und inhaltliche Kategorien. Gerade unter dem Gesichtspunkt, wie unterschiedlich die Präsentation der Beiträge in den verschiedenen Mediengattungen ist, waren die formalen Kategorien innerhalb der Erhebung sehr wichtig. Alle Ausprägungen wurden anhand eines Zifferncodes verschlüsselt - eine andere Möglichkeit wäre der sogenannte »Freitext«, der anschließend nachcodiert werden kann. Die genaue Gestaltung der verschiedenen Kategorien ist allerdings immer abhängig vom Untersuchungsmedium. In dieser Studie wurden pro Beitrag folgende formale Kategorien angewendet: Codierer, Art des Beitrags, Datum Diese Kategorien dienen eher der Kontrolle über den Forschungsprozess und der Erleichterung des Datenmanagements als der Beantwortung der Forschungsfrage. Formate im Fernsehen formale Kategorien 125 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N V <?page no="125"?> Medium, Stilform, Quelle Diese Kategorien sammeln Informationen zur Form des Beitrags und seinem Urheber. Außerdem ist das Medium eine Kategorie, die zur Beantwortung der Forschungsfrage einen hohen Stellenwert besitzt. Überschrift Diese Kategorie wird nicht aufgrund von Codes erhoben; die Wörter werden manuell in den Codebogen eingegeben. Diese dienen u. a. der Bewertung der Ausrichtung des Beitrags. Anzahl der Verweise, Bilder, nicht-interaktive Grafiken In diesen Kategorien werden die Informationen über die Anzahl der Verweise festgehalten, die der Beitrag mit Bezug zum Thema gibt. Diese dienen vor allem zur Einschätzung, wie der Beitrag aufbereitet und bestimmte Themen veranschaulicht wurden. Anzahl von Hyperlinks, Kommentaren, Empfehlungen auf sozialen Netzwerken, textbasierte Hintergrundinformationen, interaktiver Grafiken, Videos, Tondokumente Bei diesen Kategorien wird schlicht die jeweilige Anzahl als Code eingetragen. Im Gegensatz zu den allgemeineren Kategorien »Anzahl der Verweise« werden diese Kategorien ausschließlich für Online-Medien erhoben. Übungsfragen 1 Welche Funktionen haben formale Kategorien in der standardisierten Inhaltsanalyse? 2 Was ist bei der Codierung der formalen Kategorie »Datum« zu beachten? a) Codiert man das Datum im Zahlenformat, ergibt sich kein chronologischer Ablauf. b) Fortlaufende Ziffern eignen sich am besten, da sie auch für die Codierer den geringsten Aufwand bedeuten. c) Das Datumsformat folgt nicht dem Dezimalsystem, was bei der Auswertung zu beachten ist. 126 7 D I E S T A N D A R D S : F O R M A L E K A T E G O R I E N <?page no="126"?> Der Gegenstand: Inhaltliche Kategorien Inhalt 8.1 Zur Funktion inhaltlicher Kategorien: Klassifikation 8.2 Kategorie: Thema 8.3 Kategorie: Ereignisbzw. Bezugsort 8.4 Kategorie: Akteure/ Handlungsträger 8.5 Kategorie: Aktualitätsbezug Dieses Kapitel beschäftigt sich mit einigen zentralen inhaltlichen Kategorien, die für Medieninhaltsanalysen immer wieder benötigt werden. Für die Verschlüsselung des Berichtsgegenstands, des Orts des Geschehens, der beteiligten Personen und der Aktualität der Ereignisse wird ausführlich beschrieben, welche Probleme bei der Formulierung entsprechender Kategorien gemeinhin auftauchen und wie sich diese lösen lassen. Erneut verdeutlichen Musterbeispiele eine mögliche Form, wie die entsprechende Kategorie angelegt werden kann. Zur Funktion inhaltlicher Kategorien: Klassifikation Wie der Name »Inhaltsanalyse« bereits nahe legt, sind es normalerweise weniger die formalen Kategorien, auf denen das Hauptaugenmerk der Forschung liegt (vgl. Kap. 7). Von größerer Bedeutung ist vielmehr die inhaltliche Dimension von Medienberichten. Diese beschränkt sich keineswegs auf so genannte informationsorientierte Gattungen und Formate wie Nachrichten: Interessierende Inhalte können genauso die Themenstruktur von Talkshows, die sozialen Probleme in Leserbriefen, die Identitätskonstruktion in Facebook-Einträgen oder die Darstellung von Sexualität in Jugendzeitschriften sein. Wenn die Kategorienentwicklung im Folgenden anhand der Analyse der klassischen tagesaktuellen 8 8.1 127 Z U R F U N K T I O N I N H A L T L I C H E R K A T E G O R I E N : K L A S S I F I K A T I O N Z U R F U N K T I O N I N H A L T L I C H E R K A T E G O R I E N : K L A S S I F I K A T I O N <?page no="127"?> Berichterstattung verdeutlicht wird, so sind diese Überlegungen dennoch ohne Weiteres auf andere Formate übertragbar. Nochmals zur Erinnerung: Inhaltliche Codiereinheiten sind die vom Erkenntnisinteresse abhängigen Bedeutungsdimensionen, deren Klassifikation der Inferenz des Codierers bedarf (vgl. Kap. 3.2). Wir hatten in diesem Zusammenhang verschiedene Arten von Codiereinheiten identifiziert - darunter die referenziellen Einheiten (Personen, Objekte, Orte oder Ereignisse) und die thematischen Einheiten (übergreifende Diskursstrukturen). Beide beziehen sich auf das faktische Geschehen und stehen im Mittelpunkt des vorliegenden Kapitels. Sie erfordern vom Codierer insbesondere die korrekte Klassifikation von Sachverhalten, d. h. das richtige »Einsortieren« zwischen mehreren Alternativen. Hierfür ist eine präzise Kenntnis der Definitionen und Codierregeln erforderlich, die das Codebuch enthält, während größere Inferenzschlüsse zumeist nicht verlangt werden. Wir nennen die entsprechenden Kategorien im Folgenden inhaltliche Kategorien. Merksatz Inhaltliche Kategorien verlangen vom Codierer die korrekte Klassifikation von Merkmalen, was in besonderem Maß die genaue Kenntnis des Kategoriensystems und der einzelnen Ausprägungen voraussetzt. Davon zu unterscheiden ist der dritte Typ von Codiereinheit, die propositionale Einheit, die sachliche oder wertende Feststellungen über Personen, Tatsachen oder Vorgänge trifft (Argumente, Meinungen, Kommentare). Der Codierer muss hier nicht nur die Fakten des Geschehens zutreffend erkennen, sondern oft zusätzlich eine Einschätzung dieser Fakten abgeben, etwa in welcher Stärke ein bestimmter Sachverhalt zutrifft. Typisch sind dafür Kategorien, die eine graduelle Abstufung von Ausprägungen (z. B. positiv, neutral, negativ) vorsehen. Kategorien, die auf diese Art zur Ermittlung von Tendenzen in der Berichterstattung beitragen, sollen von nun an wertende Kategorien heißen und werden in Kap. 9 näher behandelt. Sicherlich ist die Abgrenzung von inhaltlichen und wertenden Kategorien nicht immer trennscharf, und es gibt eine ganze Reihe von Grenzfällen. Dennoch werden beide nun separat voneinander vorgestellt, vor allem deswegen, weil sich die ihnen zugrunde liegende Codierlogik unterscheidet. Im praktischen Journalismus existieren viele Faustregeln für die aktuelle Berichterstattung. Eine der populärsten ist die Beantwortung von so genannten W-Fragen, die ein Artikel oder ein Beitrag leisten soll. Zeitgeschehen wird damit als eine Kombination aus Inhaltliche Codiereinheiten 128 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="128"?> . Personen (Wer? ) . Themen (Was? ) . Orten (Wo? ) . mit einem bestimmten Aktualitätsbezug (Wann? ) betrachtet. So erscheint es nur folgerichtig, wenn Inhaltsanalysen bei der Formulierung inhaltlicher Kategorien in einem ersten Schritt auch auf diese eher faktischen Dimensionen eingehen. Die Kategorien Thema, Ereignisbzw. Bezugsort, Akteure/ Handlungsträger und Aktualitätsbezug finden sich deswegen in nahezu allen Inhaltsanalysen von aktueller Berichterstattung und werden nun einzeln vorgestellt. Die fünfte journalistische W-Frage »Wie« ist komplexerer Natur und wird in Kapitel 9 ausführlich behandelt. Und interessanterweise sind diese Dimensionen auch für viele Erhebungen nicht-journalistischer Inhalte z. B. in YouTube-Kommentaren, Blogs oder auf Twitter einschlägig. Kategorie: Thema Um mit der schwierigsten der vier Kategorien zu beginnen: Die korrekte Definition einer sinnvollen Themenliste gehört zu den anspruchsvollsten (und häufig unterschätzten) Aufgaben im Bereich der Bildung inhaltlicher Kategorien. Das Hauptproblem ist dabei weniger ein methodisches, sondern vielmehr die grundsätzliche Frage: Was ist überhaupt ein Thema? Im Alltag hat darauf jeder sicherlich eine intuitive Antwort, und fragt man Menschen beispielsweise danach, welches die derzeit wichtigsten gesellschaftlichen Probleme seien (vgl. Kap. 15.3), so hätte man beispielsweise im Sommer 2016 eine Vielzahl von Nennungen erhalten: vom »Streit um Bundeswehreinsätze im Inland« bis zur »Abgasaffäre bei Volkswagen«, von der »Terrorgefahr in Deutschland« bis hin zum »Vorläufigen Aus für die blaue Plakette«. Aber offenkundig variieren diese Themen nicht nur in ihrer Tragweite und Beständigkeit, sondern auch in ihrer Reichweite und dem Grad ihrer Detailliertheit. In der Forschung gibt es bislang ebenfalls keine einheitliche Definition, was unter einem Thema zu verstehen ist. Allerdings besteht eine gewisse Einigkeit darüber, dass zumindest zu unterscheiden ist zwischen 1. dem konkreten, ereignisbezogenen Geschehen, über das tagesaktuell berichtet wird; 2. dem gesellschaftlichen Diskurs, in den dieses Geschehen eingebettet wird (hier würde man am ehesten von einem »Thema« sprechen); 3. dem übergeordneten gesellschaftlichen Feld, dem der Diskurs zuzuordnen ist. journalistische W-Fragen 8.2 keine einheitliche Themendefinition 129 K A T E G O R I E : T H E M A <?page no="129"?> Beispielsweise wäre der Besuch der Bundeskanzlerin beim amerikanischen Präsidenten ein der Berichterstattung zugrunde liegendes Ereignis. Wenn es in den Gesprächen um die Lage im Irak ging, könnte man den Irak-Konflikt als das über die Tagesaktualität hinausgehende Thema bezeichnen. Verortet wäre diese Thematik im Feld der deutschen Außen- und Verteidigungspolitik. Nach dieser Auffassung lassen sich Themen als »quasihierarchische Netzwerke« überbzw. untergeordneter Sachverhalte verstehen und - ähnlich wie zuvor die Analyseeinheiten - in Ebenen von verschiedenem Allgemeinheitsgrad zerlegen (siehe Abb. 8.1). Übertragen auf die Inhaltsanalyse bedeutet dies, dass die Codiereinheit »Thema« in einem unterschiedlichen Auflösungsgrad vorliegen kann. Daher sollte das Codebuch eine Lösung für die Messung dieser unterschiedlichen Ebenen vorsehen. Denn die Berichterstattung spiegelt genau diese wechselnden Auflösungsgrade wider - oft beziehen sich kleinere Meldungen auf konkrete Ereignisse, längere Artikel und Hintergrundberichte widmen sich größeren Zusammenhängen bis hin zu den wöchentlichen »Berichten zur Lage der Nation« in S P I E G E L und Z E IT , die ganze Politikfelder (wie z. B. die außenpolitische Gesamtsituation) Revue passieren lassen. Ähnlich wie im Falle von Analyseeinheiten strebt man also eine Zerlegung an, die in der Literatur auch als hierarchische Codierung bezeichnet wird. Am Beispiel einer Themenkategorie (siehe Abb. 8.2) lässt sich deren Logik gut verdeutlichen, die genauso auch auf andere inhaltliche Kategorien angewendet werden kann. Merksatz Da keine einheitliche Definition des Konstrukts »Thema« existiert, bietet sich zur Messung eine an das Erkenntnisinteresse angepasste, hierarchische Zerlegung auf Ebenen von unterschiedlichem Auflösungsgrad an; als Themen gelten dann, was der Schlüsselplan als »Thema« listet. Abb. 8.1 Zerlegung der Codiereinheit »Thema« in Ebenen von unterschiedlichem Auflösungsgrad Diskurs Diskurs Diskurs Ereignis Ereignis Ereignis Gesellschaftliches Feld Beispiel: Außen- und Verteidigungspolitik ... Nahost-Konflikt Iran-Konflikt ... Nahost-Konflikt Iran-Konflikt Besuch der Kanzlerin in USA Inbetriebnahme einer Anreicherungsanalage in Iran ... Themen als »quasihierarchische Netzwerke« 130 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="130"?> Die Definition der Ausprägungen (und insbesondere die Vergabe der Codes) beruht auf der Idee der Mehrebenen-Messung: Zunächst werden unterschiedliche gesellschaftliche Felder definiert, auf die sich der berichtete Sachverhalt beziehen kann (z. B. Verteidigung, gewalthaltige Konflikte). Diesen Bereichen wird ein fünfstelliger Code zugewiesen (z. B. 13000). Auf der nachfolgenden Ebene können dann die im Untersuchungszeitraum relevanten Diskurse spezifiziert werden, die jeweils mit Codeziffern versehen werden, die sich auf der 100er-Ebene unterscheiden (z. B. 13100 = Afghanistan-Konflikt; 13200 = Nahost-Konflikt). Schließlich bleibt die untergeordnete Ebene einzelner Ereignisse, auf der das jeweilige Geschehen stichwortartig skizziert wird. Hierfür sind die beiden letzten Stellen des Codes vorgesehen, weil es leicht passieren kann, dass mehr als zehn einzelne Ereignisse bezüglich eines Themas zu verzeichnen sind. Bei dieser Vorgehensweise sind zwei Aspekte wichtig, die sie für die Inhaltsanalyse fruchtbar macht: 1. Bei der Codierung wird, wie oben ausgeführt, immer nach dem Prinzip verfahren, dass eine möglichst spezifische Ausprägung zu wählen ist. Bei einem hierarchischen Aufbau fungiert immer die jeweils übergeordnete Ebene als Auffangvorgabe, in die Sachverhalte einzuordnen sind, für die keine eigene Ausprägung vorgesehen ist. Beispielsweise 8.a Liste der Themen und Ereignisse (Auszug) (. . .) 13000 Verteidigung, gewalthaltige Konflikte, Konfliktlösung 13100 Afghanistan-Konflikt 13101 Luftangriff auf Tanklastwagen bei Kunduz 13102 Besuch des Außenministers bei den deutschen Truppen 13103 Pariser Club erlässt Afghanistan alle Schulden 13104 Offensive gegen militante Taliban 13105 Afghanistan-Konferenz 13106 Bericht des Wehrbeauftragten des Deutschen Bundestages 13107 Kampfhandlungen deutscher Soldaten 13108 Kampfhandlungen US-amerikanischer Soldaten 13109 Kampfhandlungen afghanischer Sicherheitskräfte 13110 Deutsche Parlamentarier reisen nach Afghanistan 13111 Angriff auf Hilfsorganisation (. . .) 13200 Nahost-Konflikt (. . .) Abb. 8.2 Inhaltliche Kategorie zur Erfassung von Themen (hierarchische Zerlegung, Ausschnitt) Mehrebenen-Messung durch hierarchische Codes 131 K A T E G O R I E : T H E M A <?page no="131"?> wäre ein nicht ausdrücklich vorgesehenes Ereignis »Deutscher Hilfstransport über Kunduz abgestürzt« allgemeiner unter »13100« (= Afghanistan-Konflikt) zu codieren. 2. Bei der Auswertung können Analysen für unterschiedliche Ebenen leicht durchgeführt werden, da sich die Berichterstattung anhand der definierten Struktur sehr einfach zusammenfassen lässt (z. B. alle Codes zwischen 13100 und 13199 unter »Afghanistan-Konflikt«). Grundsätzlich gilt für diese wie für jede andere Kategorienbildung, dass sie sich am jeweiligen Erkenntnisinteresse der Studie zu orientieren hat. Zur Verdeutlichung kann man zwei extreme Beispiele für eine Themenkategorie heranziehen: Einmal eine sehr allgemeine und grobe Aufteilung in wenige allgemeine Themenfelder (z. B. Außenpolitik, Innenpolitik, Wirtschaft usw.) oder einen sehr detaillierten Themenplan, wie eben beschrieben. Die erste Lösung könnte sinnvoll sein, wenn man die Themenstruktur über einen sehr langen Zeitraum misst, in dem sich der historische Hintergrund immer wieder verändert, oder wenn stark unterschiedliche Medientypen untersucht werden. Wieso sollte man in diesen Fällen alle thematischen Verästelungen in der Berichterstattung durch ein feingliedriges Instrument messen, wenn für unsere Hypothesen später bloß noch interessant ist, wie hoch der Anteil an politischer Berichterstattung in den 1990er-Jahren insgesamt war? Vor diesem Hintergrund wird deutlich, dass die im obigen Beispiel vorgenommene Definition der Themenkategorie (siehe Abb. 8.2) nur für eine ganz bestimmte Art von Fragestellung nützlich ist: Wenn es nämlich darum geht, die Themenstruktur über einen verhältnismäßig kurzen Zeitraum oder die Karriere eines speziellen Themas bzw. den Verlauf eines Diskurses detailliert nachzuzeichnen. Nur dann ist es überhauptmöglich, ein so ausführliches Instrument zu entwerfen, das ja schon die genaue Kenntnis des gesamten Analysematerials erfordert, um die Ausprägungen überhaupt erst definieren zu können! Meist ist dies jedoch nicht der Fall, denn die Inhaltsanalyse bemüht sich um die Reduktion von Komplexität in einem noch nicht näher bekannten Untersuchungsmaterial oder über einen längeren Zeitraum hinweg, der durch eine scheinbar endlose Vielzahl von Ereignissen gekennzeichnet ist. Für diese andere Art von Erkenntnisinteresse werden Themenkategorien eingesetzt, die zwar ebenfalls der hierarchischen Logik folgen und allgemeinere wie speziellere Ausprägungen vorsehen. Allerdings bezieht sich die Differenzierung nun weniger auf einzelne Diskurse, sondern auf die gesellschaftlichen Felder, die etwas kleinteiliger ausformuliert werden, um die dort jeweils auftretenden Diskurse erfassen zu können (siehe Abb. 8.3) Auflösungsgrad je nach Erkenntnisinteresse bestimmen Kompromiss: gesellschaftliche Felder und Diskurse 132 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="132"?> 8.b Liste der Themengebiete (Haupt- und Nebenthema) 001 historische Ereignisse, Rückblicke, Gedenktage 101 Außenpolitik 102 EU-Politik 103 VN-Politik/ NATO-Politik/ supranat. Organisationen 104 diplomatische Beziehungen zu anderen Staaten 110 internationale Politik 111 Justiz 112 innere Sicherheit 113 Parteien 114 politische Affären, Untersuchungsaussch. 115 Wahlen 116 Haushalt, Finanzen, Staatsausgaben 117 Rechtsextremismus 118 Linksextremismus 121 Innenpolitik 122 Justiz 123 innere Sicherheit 124 Parteien 125 Politische Affären, Untersuchungsausschüsse 126 Wahlen 127 Haushalt, Finanzen, Staatsausgaben 128 Rechtsextremismus 129 Linksextremismus 130 Verteidigung, gewalthalt. Konflikte, Konfliktlösung 131 Rüstung, Verteidigung, Abrüstung, Militär allg. 132 Frieden, Friedenssicherung, Verhandlungen 133 Krieg, Truppenabzug 134 Unruhen, Aufstände, Demonstrationen 135 Flüchtlinge 136 humanitäre Hilfe 140 Sozialpolitik/ Sozialordnung 141 Renten, Sozialhilfe, Sozialer Wohnungsbau 142 Ehe, Familie, Jugend und Kinder 143 Minderheiten, Ausländer 144 Asylanten, Abschiebung, Ausweisung 145 Arbeitslosigkeit 146 Tarifpolitik, Streik 147 Bildungspolitik 148 Umweltpolitik 200 Wirtschaft und Finanzen (Makroperspektive) 201 Konjunktur-, Wirtschaftslage, Standortpolitik 202 Haushalt, Finanzen, Schulden 203 Steuern 204 Preisentwicklung, Inflation 205 Subventionen 250 Wirtschaft (gewerblich) 251 Börsenberichte 261 Unternehmensbilanzen und -ergebnisse 262 Unternehmensaktivitäten und -umstrukturierungen 263 Unternehmenskrisen, Konkurse 270 Messen, Ausstellungen 300 Gesundheitswesen 310 Lebensmittel 311 Ernährungsskandale (BSE) 320 Krankheiten, Allergien, Arznei 330 Krankenversicherungssystem 340 Drogen 400 Unglücke 410 Verkehrsunfälle 411 Flugzeugabstürze 420 Naturkatastrophen, Explosionen, Brände 430 Störfälle im Bereich Kernkraft 440 Todesfälle und Krankheiten bekannter Persönlichkeiten 500 Kriminalität (Verbrechen/ Vergehen) 510 Wirtschaftskriminalität, Betrug 511 Umweltkriminalität 520 Mord, Totschlag 530 sexuell motivierte Tat, Nötigung, Vergewaltigung 540 andere individuelle Straftaten 550 Anschläge, Attentate, Terrorismus 560 organisierte Kriminalität, Mafia 570 Proliferation (Waffenhandel) 580 Kriegsverbrechen 600 Sport 610 Sportarten (Wettkämpfe, Ergebnisse) 611 Fußball 612 Tennis 613 Formel 1 614 Skispringen 615 Boxen 616 Radfahren 617 Leichtathletik 620 Olympiade 630 Sportvermarktung, Rechte 640 Sportpolitik 700 Kunst/ Kultur 710 Literatur, literarische Klassik 720 Oper, Operette, Ballett 730 klassisches Konzert 740 Internet 750 Theater 760 bildende Kunst 770 Film 780 Medien, Journalismus 800 Gesellschaft 810 Kirche und Religion 820 Bildungswesen, Schulen, Universitäten 830 Wissenschaft/ Technik 840 Umweltprobleme 850 Human Interest 860 gesellschaftliches Leben, Prominente 870 Reisen 871 lokales Geschehen 900 Pressestimmen anderer Medien Abb. 8.3 Inhaltliche Kategorie zur Erfassung von Themen (Basis: gesellschaftliche Felder) 133 K A T E G O R I E : T H E M A <?page no="133"?> Die Vor- und Nachteile einer solchen Themenkategorie liegen klar auf der Hand: Zum einen reduziert sie das Themenspektrum nicht so radikal wie in dem obigen Extrembeispiel weniger Themenfelder, aber ist aufgrund ihres höheren Allgemeinheitsgrads immer noch geeignet, auch längerfristige Entwicklungen mit wechselndem Geschehen und Diskursen über viele Bereiche hinweg zu erfassen. Andererseits lässt die Codierung im Nachhinein keine Rückschlüsse mehr auf die einzelnen Diskurse zu - wenn beispielsweise 15 Beiträge zu »Innenpolitik: Wahlen« erfasst wurden, ist weder möglich zu sagen, welche Wahlen dies waren, noch ob sich alle 15 Beiträge auf eine, mehrere oder 15 verschiedene Wahlvorgänge beziehen. Falls erforderlich, lässt sich dieser Nachteil in der Praxis durch eine offene Kategorie ausgleichen, in der der Codierer Thema oder Ereignis nochmals als freien Text in Stichworten festhält und die nachträglich ausgewertet werden kann. Schließlich sei erwähnt, dass die Passgenauigkeit der Ausprägungen auf die Medienberichte geringer ausfällt: Dem Codierer wird eine größere Zuordnungsleistung abverlangt, denn er muss die jeweils tangierten gesellschaftlichen Felder richtig identifizieren. In der Praxis scheint dies bei simpel strukturiertem Geschehen wie Sportereignissen oder Unglücken und Katastrophen noch vergleichsweise einfach zu sein. Viele Themen sind jedoch durch eine Verknüpfung unterschiedlicher Felder gekennzeichnet - etwa wenn Kanzlerin Merkel eine Wahlkampfrede zur Rentenreform hält und dabei die hohe Arbeitslosigkeit als Ursache für die Deckungsprobleme in der Rentenkasse benennt. Dieses typische Beispiel für politisches Geschehen stellt den Codierer vor ein Dilemma: Verschlüsselt er den betreffenden Beitrag unter »Wahlen« (Wahlkampfrede), »Sozialpolitik« (Rentenreform) oder »Arbeitsmarkt« (Arbeitslosigkeit)? Es hat sich als hilfreich erwiesen, für solche Fälle eine Mehrfachcodierung zuzulassen - zunächst wird der Codierer angewiesen, den zentralen Aspekt (als »Hauptthema«) festzuhalten, und darüber hinaus hat er die Möglichkeit, falls erforderlich, noch ein oder zwei weitere Nebenaspekte zu verschlüsseln. Zur Ermittlung des Hauptthemas können als Indikatoren beispielsweise die Überschrift und ggf. Dach- oder Unterzeilen herangezogen werden. Für die Analyse können später zunächst die Hauptthemen ausgezählt werden, aber ergänzend stehen die Nebenaspekte zur Verfügung, um ein vollständigeres Bild der in der Berichterstattung angesprochenen gesellschaftlichen Felder zu erhalten. Mehrfachcodierung von Themen 134 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="134"?> Merksatz Bei allgemeiner formulierten, auf gesellschaftliche Felder bezogenen Ausprägungen der Themenkategorie kann die mehrfache Codierung von Haupt- und Nebenaspekten eine angemessenere Erfassung des Themas ermöglichen. Abschließend sei betont, dass selbst die einzelnen Ausprägungen von Themenkategorien nicht ohne Weiteres als selbsterklärend angesehen werden dürfen. In der Praxis ist oft zu beobachten, dass sich die eingesetzten Codebücher mit der Nennung eines Themenlabels oder eines gesellschaftlichen Feldes begnügen. Dieses Vertrauen, dass deren Bedeutungsgehalt allgemein (und besonders unter den Codierern) geteilt wird, ist zwar zu einem gewissen Grad berechtigt. Andererseits gibt es gerade hinsichtlich der Trennschärfe zwischen den Vorgaben oft Probleme, die durch die eben vorgeschlagene Möglichkeit zur Mehrfachcodierung nur scheinbar gelöst werden. Deswegen sollte ein Codebuch für jede Ausprägung der Themenkategorie eine explizite Definition (etwa wie im nachfolgenden Beispiel) enthalten, die die Codierer im Zweifelsfall konsultieren können. Da diese Darstellung mitunter eine erhebliche Länge erreichen kann, werden die eigentlichen Definitionen der Ausprägungen gerne in einem separaten Schlüsselplan (vgl. das nachfolgende Beispiel) niedergelegt, während das Codebuch selbst nur noch eine Übersicht der vorgesehenen Ausprägungen und ihren Codes enthält (siehe Abb. 8.3). Beispiel Auszug aus dem Schlüsselplan (hier Definition der Ausprägung »Wirtschaft«, Kategorie »Hauptthema«) 200 Wirtschaft und Finanzen (Makroperspektive) Wird dann codiert, wenn es sich um allgemeine wirtschaftliche Themen handelt, in denen die staatliche Rolle in der Wirtschaftspolitik im Vordergrund steht. Es handelt sich gegenüber der ( fi Wirtschaft gewerblich) eher um den gesamten Wirtschaftsprozess, dessen Rahmenbedingungen und Globalsteuerung. 201 Konjunktur-, Wirtschaftslage, Standort Deutschland Wird dann codiert, wenn sich der Beitrag im Wesentlichen den allgemeinen wirtschaftlichen Rahmendaten und deren Entwicklung widmet, insbesondere den Trennschärfe Schlüsselplan 135 K A T E G O R I E : T H E M A <?page no="135"?> Schwankungen des Wirtschaftsvolumens einer Volkswirtschaft durch zusammenwirkende Veränderungen mehrerer ökonomischer Größen, wobei nicht einer Größe das Schwergewicht beikommt (in diesem Fall wäre dann diese zu codieren). Hierunter fallen auch Beiträge zum Konjunkturzyklus (Depression, Aufschwung, Boom, Krise, Rezession usw.) oder zum »Brexit« und seinen Folgen. 202 Haushalt, Finanzen, Schulden Hier werden Beiträge codiert, die sich den Maßnahmen des Staates widmen, durch Veränderungen der Einnahmen und/ oder Ausgaben die Höhe des Volkseinkommens, der Beschäftigung und der Preise zu beeinflussen. Dazu gehören die Haushaltspläne von Bund und Ländern, die Planung, Aufstellung, Verwaltung und Kontrolle der öffentlichen Haushalte, die Feststellung und Deckung des Finanzbedarfs. 203 Steuern Hier werden Beiträge codiert, die sich im Wesentlichen mit der Erhebung und Regelung des Steueraufkommens befassen. Hierzu gehören alle Steuerabgaben, der Soldaritätszuschlag, die Umsatzsteuer. Nicht codiert werden hier Beiträge zur Kirchensteuer ( fi Kirchen). 204 (. . .) 250 Wirtschaft (gewerblich) Wird dann codiert, wenn sich das berichtete wirtschaftliche Geschehen primär innerhalb der Privatwirtschaft abspielt, die staatliche Rolle also in den Hintergrund tritt. 251 Börsenberichte Hierunter fallen Berichte über den Stand und die Entwicklung an den verschiedenen Handelsbörsen, unabhängig vom gehandelten Produkt. Dies können Wertpapiere, Devisen oder Rohstoffe sein. Meistens beinhalten solche Meldungen den aktuellen Wert des US-Dollars sowie den Stand der bekannten Börsenindices wie DAX, NIKKEI oder Dow-Jones. 261 Unternehmensbilanzen und -ergebnisse Wird dann codiert, wenn die Jahresergebnisse von Unternehmen im Zentrum des Beitrags stehen. Hierbei handelt es sich meistens um Bilanzpressekonferenzen. 262 Unternehmensaktivitäten und -umstrukturierungen Wird dann codiert, wenn einzelne Aktivitäten von Unternehmen im Zentrum des Beitrags stehen. Dies kann 136 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="136"?> ein Börsengang, die Einrichtung neuer Filialen, die Ankündigung von Arbeitsplatzstreichungen oder die Ablehnung von Übernahmeangeboten sein. 263 (. . .) Kategorie: Ereignisbzw. Bezugsort Für eine Reihe von Fragestellungen ist die Information bedeutsam, an welchem Ort sich das berichtete Geschehen abspielt - etwa wenn es um den Nachrichtenfaktor »regionale Nähe« (vgl. Kap. 15.2) geht. Zur Erfassung des Ereignisorts lässt sich wieder die Logik der hierarchischen Codierung anwenden: Von den einzelnen Kontinenten über Nationen und Regionen können die Ausprägungen bis auf die Ebene von Städten und Gemeinden heruntergebrochen werden. Man wird hier unterschiedlich differenziert vorgehen, denn eine Analyse der Hauptnachrichtensendungen dürfte eher auf die nationale Ebene abzielen, während die Analyse von Nachbarschaftsportalen im Internet sogar die Aufschlüsselung einzelner Stadtteile erforderlich machen kann. Festzuhalten ist, dass in jedem Fall nur die vermutlich benötigten Ausprägungen zu spezifizieren sind; es hat keinen Sinn, hier einfach das Register aus einem Weltatlas abzuschreiben, denn eine hohe Zahl von Ausprägungen ohne Zählergebnis muss bei der Auswertung sowieso wieder zusammengefasst werden. Deswegen ist in den meisten Fällen sogar eine Mischform geboten: Aktuelle Berichterstattung hat nämlich die Eigenschaft, bevorzugt Geschehen in der Nähe des Erscheinungsortes zu berücksichtigen. Je weiter die Ereignisse entfernt sind, desto weniger intensiv und weniger differenziert wird berichtet. Der Grund hierfür liegt in den vermuteten Relevanzstrukturen der Rezipienten, denn Menschen messen Vorkommnissen in ihrer näheren Umgebung eine höhere Bedeutung zu. Merksatz Ereignisorte werden in der Regel durch eine hierarchische Codierung verschlüsselt, die regional unterschiedlich stark aufgegliederte Ausprägungen vorsieht. Die Konsequenz für die inhaltsanalytische Praxis ist, dass oft Ortskategorien zum Einsatz kommen, die einen wechselnden Auflösungsgrad aufweisen, von sehr genauen Vorgaben rund um den Publikationsort bis 8.3 hierarchische Differenzierung 137 K A T E G O R I E : E R E I G N I S - B Z W . B E Z U G S O R T <?page no="137"?> hin zu sehr breiten Vorgaben für weit entfernte Regionen. Abb. 8.4 verdeutlicht eine solche Kategorie, wie sie beispielsweise für die Verschlüsselung von Fernsehnachrichten vor und nach der Wende sinnvoll sein könnte. Zunächst werden für Deutschland die Hauptstädte einzeln aufgeführt, anschließend einzelne Regionen anhand der Bundesländer (für die ehemalige DDR könnten hier, falls erforderlich, auch die früheren Regierungsbezirke aufgenommen werden). Es folgen unterschiedliche europäische Staaten, die Russische Föderation und Amerika mit Untergliederungen, während Afrika, Asien und Australien nur allgemein erfasst werden. Hier würde man je nach Situation vielleicht noch einzelne Konfliktstaaten hervorheben, z. B. 611 - Afghanistan oder 612 - Syrien. Eine Besonderheit stellt die Codierung von Staatengruppierungen dar (Code 800 ff.): Sie bricht aus dem Schema aus, denn sie bezieht sich auf regionale Gebilde, die nicht in die territoriale Logik eingebettet werden können, aber häufiger als Ortsangabe auftauchen. Wenn es beispielsweise um die Diskussionen um einen Einsatz der NATO geht, kann der Sitz des NATO-Hauptquartiers möglicherweise die weniger bedeutsame Ortsangabe sein. Aber auch dies lässt sich nur vor dem Hintergrund der jeweils zu untersuchenden Fragestellung entscheiden. Dieses Beispiel zeigt bereits, dass die vermeintlich relativ einfach zu bestimmende Ortsangabe inhaltlich durchaus unterschiedliche Bedeutungen haben kann. So ist aus der Nachrichtenforschung bekannt, dass Massenmedien - aus den oben erwähnten Relevanzerwägungen heraus - dazu neigen, auch bei Geschehen an fernen Orten den Bezug zum eigenen Verbreitungsgebiet zu betonen. Ein berühmtes, klassisches Beispiel ist hier sicherlich die Vorgehensweise jenes schottischen Redakteurs, der die »Titanic«-Katastrophe konsequent auf die Interessen seiner lokalen Zielgruppe zuspitzte. Beispiel Beispiel: Domestizierung von Ereignissen Eine schottische Tageszeitung erschien 1912 mit dem Aufmacher »Aberdeen Man lost at Sea«. Der Bericht bezog sich auf den Untergang der »Titanic«, bei dem mehrere Tausend Menschen starben und bis zum damaligen Zeitpunkt das schlimmste Unglück des zivilen Verkehrswesens darstellte. Ähnliche Mechanismen konnte man 2016 etwa auch bei der Berichterstattung über das Erdbeben in Italien beobachten, als deutsche Medien zunächst das Schicksal der deutschen Urlauber in den Mittelpunkt der Berichterstattung rückten. Staatengruppierungen und Organisationen 138 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="138"?> Nicht nur deshalb kann es sinnvoll sein, bei der Codierung zwischen Ereignisort und Bezugsort des Geschehens zu unterscheiden. Wenn sich die EU-Außenminister in Madrid treffen, um über den Einsatz deutscher Truppen im EU-Auftrag zu sprechen, würde eine Codierung des bloßen Ereignisorts »Spanien« sicherlich den Kern des Sachverhalts nur bedingt treffen: Obwohl die Dinge formal in Spanien passieren, entfalten sie ihre Wirkung deutlich weitläufiger. Zwar decken sich Ereignis- und Bezugsort bei vielen Beiträgen, aber ihre Unterscheidung kann bei der 9. Ereignisort 100 Deutschland 111 Bonn 112 Berlin (als Hauptstadt) 113 Ost-Berlin 120 DDR (bis 1990) 130 alte Bundesländer allgemein (seit 1990) 131 Baden-Württemberg 132 Bayern 133 Berlin (als Bundesland) 134 Bremen 135 Hamburg 136 Hessen 137 Niedersachsen 138 Nordrhein-Westfalen 139 Rheinland-Pfalz 140 Saarland 141 Schleswig-Holstein 150 Neue Bundesländer allgemein (seit 1990) 151 Brandenburg 152 Mecklenburg-Vorpommern 153 Sachsen 154 Sachsen-Anhalt 155 Thüringen 200 Europa 201 Albanien 202 Belgien 203 Bulgarien 204 Dänemark 205 Finnland 206 Frankreich 207 Griechenland 208 Großbritannien 209 Irland 210 Italien 211 Jugoslawien 212 Liechtenstein 213 Luxemburg 214 Niederlande/ Holland 215 Nordirland 216 Norwegen 217 Österreich 218 Polen 219 Portugal 220 Rumänien 221 Schweden 222 Schweiz 223 Slowakei 224 Spanien 225 Tschechische Republik 226 Tschechoslowakei (bis 1992) 227 Türkei 228 Ungarn 229 Schottland 230 Wales 231 Zypern 299 andere europäische Länder 300 Russland bzw. Sowjetunion 310 Sowjetunion (bis 1991) 320 Russische Föderation (ab 1991), auch Tschetschenien 330 ehemalige sowjetische Teilrepubliken (ab 1991) 400 Amerika 410 USA 420 Kanada 430 mittel- und südamerikanische Staaten, Karibik 500 Afrika 600 Asien 610 Naher Osten (Israel, Syrien, Jordanien, Libanon, arabische Halbinsel, Iran, Irak, Afghanistan) 620 Fernost 700 Australien, Ozeanien, Antarktis 800 Staatengruppierungen 801 EU-Staaten 802 WEU-Staaten 803 EFTA-Staaten 804 OAU-Staaten 805 ASEAN-Staaten 806 NATO-Staaten 807 OECD-Staaten 808 GUS-Staaten 809 andere Staatengruppierungen 900 Welt 999 kein Ereignisort erkennbar Abb. 8.4 Inhaltliche Kategorie zur Erfassung des Ereignisortes (1985-1995) Ereignisort und Bezugsort 139 K A T E G O R I E : E R E I G N I S - B Z W . B E Z U G S O R T <?page no="139"?> Auswertung wichtige Aussagen über den Charakter der Medienberichterstattung erlauben. Die Unterscheidung der beiden Dimensionen ist freilich nicht trivial und will gut definiert sein; die Ortslisten mit den Ausprägungen der Kategorien können hingegen meist identisch sein. Und schließlich ist gerade hier zu regeln, welche Ausprägungen verwendet werden sollen, wenn sich logisch mehrere anbieten (vgl. Kap. 6.2). Beispiel Definition von Ereignis- und Bezugsort 9.A Ereignisort: Codiert wird hier, wo das Ereignis faktisch stattfand, d. h. der Ort, an dem sich das faktische Geschehen abspielte. (Beispiel: Delegationen treffen sich zu Syrien-Friedensverhandlungen in Köln: Ereignisort Köln.) 9.B Bezugsort: Codiert wird hier, auf welchen Ort sich die Auswirkungen des Ereignisses konzentrieren, wobei zur Beurteilung das zentrale Ereignis herangezogen wird. (Beispiel: Delegationen treffen sich zu Syrien-Friedensverhandlungen in Köln: Bezugsort Syrien.) Kategorie: Akteure/ Handlungsträger In den Massenmedien spielen Personen eine herausragende Rolle: Sie tragen die Handlung in Spielfilmen, Serien und Dokumentationen, bestimmen politisches Geschehen oder machen - anhand von Einzelschicksalen - gesellschaftliche Problemlagen in Blogs, Tweets oder Kommentaren im Internet deutlich. Manche Medienangebote sind sogar explizit auf die (Selbst-)Darstellung von Personen zugeschnitten und wären ohne diese gar nicht denkbar, etwa Facebook-Einträge, die Talkshows und Boulevardmagazine im Fernsehen oder Peoplemagazine und die Klatschpresse. Daher gehört auch die Erhebung von Akteuren oder Handlungsträgern zur Standardprozedur in der Inhaltsanalyse. Allerdings sind hier wieder einige Fallstricke zu beachten, die die Codierung dieser scheinbar simplen Kategorie auf Nominalniveau (vorgegeben wird eine Liste von Akteuren, die auftauchen können) erschweren. Die Probleme sind dabei ähnlich gelagert wie im Falle der Themenverschlüsselung (vgl. Kap. 8.2), und wieder kann eine Lösung nur mit Blick auf die konkrete Fragestellung gefunden werden. Ganz grundsätzlich muss geklärt werden, wie viele Handlungsträger für die betreffende Analyseeinheit codiert werden sollen. Ist Letztere 8.4 Personalisierung als Kennzeichen der Berichterstattung 140 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="140"?> eher umfangreich geschnitten (wie etwa im Fall einer ganzen Sendung, eines Spielfilms, eines Threads in einem Diskussionsforum oder eines längeren Artikels), so ergibt sich unter Umständen eine Vielzahl von potenziell zu erfassenden Akteuren. Grundsätzlich ist deswegen gut zu überlegen, für welche Analyseeinheit Akteure sinnvoll erhoben werden können. In manchen Fällen wird man sogar dazu übergehen müssen, die Akteure selbst als Analyseeinheiten (vgl. Kap. 5.1) zu definieren. Doch sogar bei einer vernünftigen Wahl der Analyseeinheit kann es vorkommen, dass mehr Akteure auftreten als tatsächlich festgehalten werden können. Daher sind ausdrücklich Kriterien zu nennen, wie in solchen Fällen vorzugehen ist. Denkbar sind wieder . eher formale Kriterien: z. B. die ersten drei auftauchenden Akteure oder die drei, die in der Analyseeinheit am umfangreichsten zu Wort kommen; . eher inhaltliche Kriterien: z. B. die drei für den Sachverhalt bedeutendsten Akteure. In jedem Fall ist freilich eine qualifizierte Entscheidung zu treffen, ab welchem Schwellenwert auftretende Personen überhaupt als Akteure im Sinne der Codierung gelten sollen - Personen in einer anonymen Menschenmasse, durchs Bild huschende Passanten oder Statisten in einer Filmszene werden beispielsweise bei Akteurscodierungen regelmäßig ausgeschlossen. Die wichtigste Entscheidung betrifft allerdings die Frage, ob jenseits seiner reinen Erwähnung auch die unterschiedlichen Funktionen eines Handlungsträgers berücksichtigt werden sollen. Beispielsweise kann es für die zu untersuchende Fragestellung einen Unterschied machen, ob Angela Merkel bei einem Staatsbesuch in den USA gezeigt, oder ihre Stellungnahme aus einer Pressemitteilung des Bundeskanzleramtes entnommen wird. In einem Fall ist sie tatsächlich handelnde Person, im anderen die Urheberin einer Aussage. Noch komplexer wird die Sache, wenn sich Merkel in ihrer Stellungnahme über den amerikanischen Präsidenten äußert: Dann gibt es zwei Personen, von denen eine als Urheber und eine andere als Gegenstand von dessen Mitteilung vorkommt. Merksatz Personen können in der Berichterstattung unterschiedliche Funktionen besitzen, die die Akteurskategorie ggf. berücksichtigen muss. Auswahl aus einer Vielzahl von Akteuren Akteur versus Urheber 141 K A T E G O R I E : A K T E U R E / H A N D L U N G S T R Ä G E R <?page no="141"?> Besonderes Augenmerk verdient dabei die Person des Journalisten, Redakteurs, Bloggers oder YouTube-Stars, der in den Entstehungsprozess von Medieninhalten unvermeidlich eingebunden ist. Sprecher und Moderatoren sind genauso im Bild zu sehen wie Pressefotografen oder Kamerateams, die Fragesteller sind bei gedruckten Interviews von wesentlicher Bedeutung. Auch hier gibt es keine pauschale Empfehlung, wie mit Journalisten als Akteuren zu verfahren ist - abgesehen davon, dass das Codebuch diese Frage abschließend lösen muss. Für viele Zusammenhänge kann es sinnvoll sein, den Urheber überhaupt nicht zu berücksichtigen und quasi als »Neutrum« zu vernachlässigen (siehe Abb. 8.5), aber gerade wenn die Analyse Rückschlüsse auf die Urheber (vgl. Kap. 2) vorsieht, muss eine entsprechend differenzierte Einteilung vorgenommen werden. Ein Sonderfall ist die Erhebung der Urheber von Aussagen, auf die im Zusammenhang mit wertenden Kategorien (vgl. Kap. 9.4) noch näher eingegangen wird. Bei der Ausgestaltung der Ausprägungen sind wieder die bekannten Überlegungen anzustellen, mit welchem Auflösungsgrad das Auftreten von Akteuren gemessen werden soll. Für einzelne Personen, die in den Massenmedien vielfach präsent sind, wäre die namentliche Vorgabe als differenzierteste Ausprägung angemessen (z. B. Angela Merkel, Dieter Bohlen). In der Regel ergeben sich hier Mischformen aus Individualnennungen und Rollendefinitionen (z. B. »Angela Merkel« vs. »Bundeskanzlerin«). Letztere sind immer dann geboten, wenn die Analyse später nicht auf der Ebene von Einzelpersonen (z. B. Image von Kanzlerkandidaten) erfolgen soll, sondern auf der Ebene sozialer Rollen (z. B. Darstellung von Tätern und Opfern bei Gewaltverbrechen). Schließt die Untersuchung fiktionale Programme wie Spielfilme oder Serien ein, so ist außerdem zu definieren, wie mit fiktiven Charakteren umzugehen ist und auf welche Art der Schauspieler in seiner realen Existenz berücksichtigt wird: Die Person »Christoph Maria Herbst« kann als »Stromberg« codiert werden, aber auch als realer Interviewpartner in einer Talkshow. Generell sind bei der Verschlüsselung die Kontexte zu beachten, in die die jeweilige Person einbettet ist - gerade dann, wenn Personen in unterschiedlichen Kontexten vorkommen können (z. B. als Schauspieler oder Politiker). Merksatz Akteurskategorien, die sich auf fiktionale und nichtfiktionale Angebote erstrecken, müssen besonderen Wert auf die Unterscheidung von Personen und Rollen legen. Rolle des Urhebers Personen und fiktive Charaktere 142 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="142"?> 10. Akteure/ Handlungsträger Hier werden die Akteure verschlüsselt, die innerhalb eines Beitrags erwähnt werden oder selbst zu Wort kommen (nicht der Journalist des betreffenden Senders). Unter Erwähnungen wird hier verstanden, dass die Handlungen eines Akteurs beschrieben werden und/ oder der Akteur indirekt oder direkt zitiert wird. Es werden pro Beitrag maximal drei verschiedene Akteure registriert. Kommen mehr als drei vor, so werden die wichtigsten festgehalten; dies sind im Zweifel jene, die zuerst genannt werden. Jeder Akteur wird pro Beitrag nur einmal registriert - bei mehreren Funktionen die Rolle, in der der Akteur im Beitrag dominiert oder hauptsächlich angesprochen wird. Kommen weniger als drei vor, so werden nur diese codiert. Die Angabe von Organisationen bezieht sich in der Regel auf Repräsentanten dieser Einrichtungen; kommen entsprechende Personen vor, so werden sie in der jeweiligen Rolle codiert, in der sie auftreten (z. B. Arnold Schwarzenegger als Gouverneur: Oberhaupt auf erster Unterebene, nicht Schauspieler). 100 Bundespolitiker 110 Bundespräsident 121 Bundeskanzler 122 Vizekanzler 123 Fraktionschef der Opposition 130 Bundesminister 141 SPD-Politiker 142 Grünen-Politiker 143 CDU-Politiker 144 FDP-Politiker 145 PDS-Politiker 150 Bundesrat 160 Bundesparteivorsitzender, -vorstandsmitglied oder -sprecher 170 Bundesjustiz (BVerfG, BGH, BAG usw.) 180 Bundesbehörden (Bundeswehr, BKA, BGS, Bundesbank usw.) 200 Landespolitiker 210 Landesregierung allgemein 211 Ministerpräsident (oder Oberbürgermeister in Stadtstaaten) 212 Landesminister (oder Senatoren) 220 Landtag 230 Landesparteivorsitzender, -vorstandsmitglied oder -sprecher 240 Landesjustiz 350 Landesbehörden 300 Lokal- und Regionalpolitiker 310 Kreis-, Gemeinde- und Stadtpolitik und -verwaltung 311 Ober-Bürgermeister, Bürgermeister, Ortsvorsteher, Stadtdirektor 312 Kreispolitiker, einfaches Parteimitglied 320 lokale Polizeibehörden 400 ausländische Politiker und Behörden 410 Staatsoberhaupt, und -präsident/ Premierminister 420 Minister 430 bei föderalen Staaten: Oberhäupter auf der ersten Unterebene (z. B. Ministerpräsident, Gouverneur) 440 einfacher Politiker 450 ausländische Behörden 500 Wirtschaft und Soziale Welt 510 Arbeitgeberverbände 511 Gewerbe, Industrie, Unternehmen 520 Gewerkschaften und Arbeitnehmerverbände 530 Wissenschaft, Bildungseinrichtungen 540 Kirchen und Religionsgemeinschaften 550 nichtstaatliche Oppositions- und Widerstandgruppen 551 Umweltschutzorganisationen, Bürgerinitiativen 560 kriminelle, Straftäter, Verdächtige 570 Sozialwesen, Medizin, Ärzte usw. 600 Kulturschaffende und Society 610 Autoren, Literaturszene 620 Schauspieler, Filmszene 630 Sänger, Musiker, Musikszene 640 Fernsehmoderatoren 650 Models, Modeszene 660 Reiche, Geldadel, Prominenz 670 Adel, Königshäuser 700 Sportler, Funktionäre 800 »Normalbürger« 810 Opfer 820 Betroffene, Zeugen 830 Vereinsvertreter 900 internationale Organisationen 910 europäische Union (EU) und ihre Organe 920 Vereinte Nationen (UNO) und ihre Organe 930 NATO 941 ASEAN 942 EFTA 943 OAU 944 OECD 945 OPEC 950 G-8 960 G-20 970 GUS 980 KSZE/ OSZE Abb. 8.5 Inhaltliche Kategorie zur Erfassung der Akteure und Handlungsträger in Nachrichtenbeiträgen 143 K A T E G O R I E : A K T E U R E / H A N D L U N G S T R Ä G E R <?page no="143"?> Abb. 8.6 Inhaltliche Kategorien zur Erfassung des Urhebers bei Twitter 10. Autor/ Urheber Hier werden die Autoren verschlüsselt, die den Tweet zum Thema Erneuerbaren-Energien-Gesetz (kurz: EEG) geschrieben bzw. retweetet haben. Dazu werden vier Variablen erhoben. 1. Nutzerprofil Hier wird codiert, ob ein Nutzerprofil verfügbar ist, auf dem sich weitere Informationen ermitteln lassen. Sobald man Informationen über den reinen Accountnamen hinaus einsehen kann, wird Code 1 vergeben. 0 nein, keine User Description 1 ja, User Description vorhanden 2. Account-Typ Mit dieser Variable wird der Typ des Kommunikators codiert. Twittert hier eine »natürliche« Person oder eine Organisation? Diese Merkmale sollen zunächst über die Selbstbeschreibung oder den Autorennamen (z. B. »Spiegel Panorama« vs. »Michael Meyer«) erfasst werden. In der Selbstbeschreibung muss explizit ein Personenname oder eine Organisation (Unternehmen, Partei, Verband, Medium usw.) genannt sein. Sollte das nicht der Fall sein, wird zunächst »9« (= unklar) codiert. 10 Person als ausgewiesener Besitzer 11 ja, Klarname genannt 12 ja, Pseudonym verwendet (z. B. Nickname, Benutzername) 20 Organisation oder Gruppe als ausgewiesener Besitzer (z. B. Bürgerkomitee, Forum, Aktionsbündnis xy) 99 unklar bzw. nicht erkennbar 3. Geschlecht des Autors Bei namentlich genannten Autoren (natürlichen Personen) wird das Geschlecht des Autors eines Angebots codiert. 1 männlich 2 weiblich 9 unklar bzw. nicht erkennbar 4. Autorentyp des Tweets Hier wird erfasst, welcher Organisation oder Gruppe der Autor eines Tweets zuzuordnen ist. Generell wird zwischen (a) Einzelpersonen sowie (b) Organisationen oder (c) den Repräsentanten von Organisationen unterschieden, die Amtsbzw. Mandatsträger sind oder für die Gruppe öffentlich als Sprecher auftreten. Der Name der Organisation muss explizit genannt sein. 10 Einzelpersonen aus Autor nicht-profitorientierte und nicht-organisierte gesellschaftliche Akteure bzw. Problembetroffene und Bürger, z. B. von Energiepreisen Betroffene 20 Angehöriger/ Repräsentant einer nicht-profitorientierten Interessengruppe 21 Umweltverbände 22 Verbraucherschutzverbände 23 sonstige Vereine/ Verbände 24 Bürgerinitiativen 25 Gewerkschaften 26 kirchliche/ religiöse Gruppen 27 Wissenschaftler/ Experten 28 Intellektuelle/ Advokaten 29 außerparlamentarische politische Gruppierungen 30 Angehöriger/ Repräsentant einer profitorientierten Interessengruppe 31 stromerzeugende Großkonzerne 32 stromerzeugende Kleinunternehmen 33 Unternehmen als Energieverbraucher 34 Energie-Zulieferbranche 35 Branchenverbände 36 Consulting-Unternehmen 37 Banken/ Energiefondverkäufer 40 politische Akteure als Autor 41 CDU/ CSU 42 SPD 43 FDP 44 Bündnis 90/ Die Grünen 45 DIE Linke 46 Piraten 47 AfD 48 NPD und andere rechtsextreme Parteien 49 andere Parteien 50 journalistische Akteure als Autor 51 Online-Tageszeitung 52 Online-Special-Interest-Zeitungen 53 Online-Radio 54 Online-TV 55 journalistisches Weblog 56 Nachrichtenagentur 57 Journalisten als Privatleute 60 pseudojournalistische Akteure aus Autor Angebote, die nicht eindeutig zum Journalismus zählen (z. B. technische Nachrichtenaggregatoren, Nachrichtensuchmaschinen, Nutzerplattformen) 99 unklare Zuordnung des Autors 144 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="144"?> Schwieriger gestaltet sich die Erfassung des Urhebers bei Social-Media- Analysen oder bei der Erhebung von Nutzerkommentaren im Internet. Das Problem der Identifikation des Urhebers gestaltet sich deswegen besonders kompliziert, weil oftmals Pseudonyme genutzt werden. Bei der Kategorisierung des Urhebers bietet sich zunächst die Unterscheidung an, ob der Beitrag von einem Repräsentanten einer wirtschaftlichen, politischen oder sozialen Organisation geschrieben wurde oder ob es sich um einen »Normalbürger« handelt; dazu sollte, wenn möglich, das Profil der Person mit einbezogen werden. Hilfreich ist es, die möglichen Urheber anhand des Ausschlusskriteriums einzugrenzen (siehe Abb. 8.6). Abschließend sei an dieser Stelle der erste der oben erwähnten Grenzfälle (vgl. Kap. 8.1) erwähnt, bei dem die inhaltliche Kategorie eine Einstufung des Codierers erfordert und damit bereits in Richtung einer wertenden Kategorie (vgl. Kap. 9) tendiert. Angenommen, für die betreffende Fragestellung sei hinsichtlich der Akteurserhebung einzig und allein der Bekanntheitsgrad der Person entscheidend. In diesem Falle wäre es sicher kaum zu leisten, alle denkbaren Akteure im Voraus nach ihrer Prominenz zu klassifizieren. Genauso wenig hilft eine Funktionsbeschreibung weiter, denn es gibt in denselben Funktionen unterschiedlich bekannte Persönlichkeiten: populäre und weniger populäre Schauspieler oder Musiker, namhafte und weniger namhafte Landesminister. Deshalb wäre an dieser Stelle das Hintergrundwissen des Codierers zu nutzen, der den betreffenden Akteur anhand von genau vorgegebenen Regeln nach seinem Bekanntheitsgrad codiert (siehe Abb. 8.7). Das Codebuch würde in diesem Beispiel - es ging um die Bekanntheit von Talkshowgästen - lediglich drei graduell abgestufte Kategorien vorsehen. Als Hinweis wird dem Codierer der Beurteilungsmaßstab explizit genannt, nämlich die Perspektive eines durchschnittlichen Fernsehzuschauers. Diese Perspektive ist in der Codiererschulung zu präzisieren, sodass alle Codierer ein möglichst einheitliches Bild dieses Durchschnittssehers vor Augen haben. Die Ausprägungen definieren sich dann anhand der beispielhaft angeführten Bekanntheit für einige im vorliegenden Kontext wichtige Akteursgruppen (Politiker, Künstler usw.). Auf die durchaus mögliche Nennung von Namen wurde hier verzichtet, da sich die Auswahleinheit über einen längeren Zeitraum erstreckte; generell sollte an dieser Stelle (wie überhaupt im Codebuch) nicht mit illustrierenden Beispielen gespart werden. Der Codierer trifft nun seine Entscheidung vor dem Hintergrund dieser Systematik und den gegebenen Anwendungsbeispielen; allerdings handelt es sich hier bereits um mehr als eine reine Klassifikation. Derselben Logik folgen übrigens all jene Kategorien, die im Rahmen der Nachrichtenwert-Forschung üblicherweise erhoben werden, z. B. zur Bekanntheitsgrad Nachrichtenwert 145 K A T E G O R I E : A K T E U R E / H A N D L U N G S T R Ä G E R <?page no="145"?> Personalisierung eines Sachverhalts, zum eingetretenen Nutzen oder Schaden, zum Überraschungsgrad des Ereignisses oder zur Etablierung des Themas (vgl. Kap. 15.2). Eine häufig benötigte Kategorie dieser Art, die vom Codierer ebenfalls eine Mischung zwischen klassifizieren und bewerten verlangt, behandelt der nächste Abschnitt. Abb. 8.7 Inhaltliche Kategorie zur Erfassung des Bekanntheitsgrads eines Akteurs/ Handlungsträgers 1 1. Bekanntheitsgrad des Akteurs (Talkshows) Unter dem Bekanntheitsgrad wird die Breite verstanden, in der der Akteur (Gast in einer Talkshow) vermutlich innerhalb des potenziellen Zielpublikums (durchschnittliche Fernsehzuschauer) bekannt ist. Der Bekanntheitsgrad wird in vier Stufen unterteilt; für jede der Stufen sind exemplarisch einige Beispiele aus den verschiedenen Tätigkeitsfeldern angeführt. 1 hoher Bekanntheitsgrad z. B. Politiker mit regelmäßiger Präsenz im öffentlichen Diskurs (oft Bundes- oder internationale Politiker, Regierungschefs der Länder), Schauspieler mit tragenden Rollen in Spielfilmen oder erfolgreichen Serien, Vertreter internationaler Adelshäuser, Nachrichtensprecher und Showmoderatoren, Sportler in internationalen Wettbewerben, in allen Altersgruppen bekannte Musiker, Models für internationale Magazine und Modehäuser 2 mittlerer Bekanntheitsgrad z. B. Politiker mit gelegentlicher Präsenz im öffentlichen Diskurs (oft Landespolitiker oder Experten in Parteigremien und Ausschüssen), Vertreter nationaler Adelshäuser, Starlets, Schauspieler mit Nebenrollen in Spielfilmen oder in weniger erfolgreichen Serien und Daily Soaps, Talk-Show- Moderatoren, Musiker mit Zielgruppenorientierungen, Nachwuchs-Models, YouTube-Stars 3 geringer Bekanntheitsgrad z. B. Politiker mit einmaliger, punktueller Präsenz im politischen Diskurs, Vertreter regionalen Adels, unbekannte Nachwuchsdarsteller, Sportler auf Regionalebene, Musiker aus der Subkultur, Newcomer, Katalog-Models, Blogger 4 kein Bekanntheitsgrad z. B. zufällige Augenzeugen eines Ereignisses oder Talkshowgäste, die als Privatpersonen geladen sind und nur für sich selbst (bzw. stellvertretend als Beispiel für die normale Zivilbevölkerung) stehen und bisher durch keinerlei Medienpräsenz aufgefallen sind. 9 Bekanntheitsgrad nicht eindeutig entscheidbar 146 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="146"?> Kategorie: Aktualitätsbezug Bei der Beschreibung von Massenmedien wird oft der Aktualitätsbezug der jeweiligen Inhalte als Unterscheidungskriterium verwendet. Wochenzeitschriften etwa, die eine aufwändigere Produktion erfordern, sind in der Regel weniger aktuell als Tageszeitungen, die im schnellsten Fall das Geschehen vom Vortag behandeln können. Funkmedien und das Internet schließlich erlauben Live-Berichterstattung vom Geschehen selbst oder zumindest eine zeitnahe Aufbereitung - sie unterliegen weniger dem Zwang bestimmter Erscheinungsrhythmen (Periodizität). Doch selbst innerhalb eines Medientyps sind unterschiedlich aktuelle Inhalte anzutreffen, denn das Fernsehen sendet nicht nur live, sondern befasst sich (z. B. in historischen Dokumentationen) gerne mit lange vergangenen Ereignissen. Auch auf Websites wird nicht immer nur das aktuellste Geschehen verhandelt. In diesem Sinne stellt der Aktualitätsbezug eine weitere inhaltliche Kategorie dar, die der Klassifizierung durch den Codierer bedarf - gleichzeitig erfolgt jedoch eine graduelle Abstufung, die angesichts der zeitlichen Dimension von Aktualität auch nahe liegt: Aktualität kann entlang einer Zeitachse angeordnet werden, und diese Einstufung erfordert im Einzelfall durchaus die Bewertung des Codierers vor seinem persönlichen Erfahrungsschatz. Merksatz Der Aktualitätsbezug kann aufgrund seines zeitlichen Charakters abgestuft verschlüsselt werden, weshalb die Codierleistung mitunter wertende Züge trägt. Zunächst sind jedoch auch für diese Kategorie Präzisierungen erforderlich, die dem Codierer verdeutlichen, was genau er hinsichtlich der Aktualität verschlüsseln soll. Medienberichterstattung ist - jenseits von ereignisbezogenen Kurzmeldungen - dadurch gekennzeichnet, dass sie Themen auf eine vielfältige Art aufbereiten kann und aktuelle Ereignisse in frühere Begebenheiten einordnet, Spekulationen über Hintergründe oder Prognosen anstellt oder schlicht Ansichten und Meinungen referiert. Deswegen sind für jede Analyseeinheit drei Festlegungen zu treffen: 1. Wenn unterschiedliche Aspekte in derselben Analyseeinheit behandelt werden, auf welchen Aspekt soll sich die Aktualitätscodierung beziehen? Hier bietet es sich an, auf vorherige Codierentscheidungen zurückzugreifen und z. B. das bereits ermittelte »Hauptthema« oder den »zentralen Aspekt« als Codiereinheit heranzuziehen. 8.5 Festlegung für die Aktualitätscodierung 147 K A T E G O R I E : A K T U A L I T Ä T S B E Z U G <?page no="147"?> 2. Innerhalb dieser Codiereinheit wird die Aktualitätscodierung oft auf das berichtete faktische Geschehen konzentriert, da dem in der Regel die exaktesten Aufschlüsse über den zeitlichen Bezug zu entnehmen sind. Dabei ist ein fehlender Aktualitätsbezug von »zeitlosen« Inhalten ebenso ausdrücklich vorzusehen wie historische oder saisonale Themen. 3. Schließlich ist vor jeder Entscheidung das Bezugssystem zu klären: Es mag hier selbstverständlich erscheinen, dass Aktualität immer in Relation zum Erscheinungsbzw. Sendedatum der Inhalte codiert werden sollte; je nach Fragestellung könnten jedoch auch andere zeitliche Bezugspunkte sinnvoll sein. Die resultierenden Ausprägungen spannen sich also von eher vagen Zeitbezügen über historisches, länger vergangenes, kürzliches und gegenwärtiges Geschehen bis hin zu zukünftigen Ereignissen, über die in Vorausschau berichtet wird (siehe Abb. 8.8). Die Abstufungen können - je nach Fragestellung und untersuchtem Medientyp - natürlich anders Abb. 8.8 Inhaltliche Kategorie zur Erfassung des Aktualitätsbezugs 12. Aktualitätsbezug Hier wird die Aktualität des Hauptereignisses bzw. des zentralen Aspekts des Beitrags verschlüsselt. Codiereinheit ist dabei das berichtete faktische Geschehen: Handelt ein Beitrag beispielsweise von einem Unglück und den nachfolgenden Diskussionen und Vorwürfen, so ist das zentrale Ereignis das Unglück selbst. Bei Aktualisierung historischer Ereignisse aufgrund von Jubiläen oder Gedenktagen (Code 3) ist zu entscheiden, ob die historische Komponente im Beitrag dominiert. Im Zweifelsfall wird immer der höchste Aktualitätsbezug codiert. 1 Zeitloser Beitrag mit allgemeinen, generellen Informationen (konkretes faktisches Geschehen steht im Hintergrund oder dient nur zur Illustration) 2 Saisonale Berichterstattung (z. B. anlässlich Jahreszeiten, Feiertagen, Ferien) 3 Historischer Beitrag zu einem abgeschlossenen Ereignis, Gedenktag usw. (auch bei aktueller Wiederkehr) 4 Geschehnisse der vergangenen Monate (bis zu einem halben Jahr) 5 Geschehnisse des vergangenen Monats 6 Aktuelles Geschehen der letzten Tage, bis zu max. einer Woche 7 Hochaktuelles Ereignis der letzten 24 Stunden, auf das z. B. explizit hingewiesen werden kann (z. B. »Aus aktuellem Anlass. . .«) 8 Live-Bericht 9 Vorausgreifende Berichterstattung für zukünftige Ereignisse 0 keine Zeitangabe/ keine Einordnung möglich 148 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="148"?> eingeteilt werden. Problem bei der Codierung ist allerdings weniger die Zuordnung der Codiereinheit zu den Ausprägungen, sondern einmal mehr die Feststellung der Codiereinheit: Welcher Sachverhalt ist es, an dem der jeweilige Aktualitätsbezug festgemacht wird? Hier ist eine ausführliche Codiererschulung erforderlich, um die Identifikation des jeweils relevanten Aspekts zu vereinheitlichen. Fallbeispiel: Politische Kommunikation VI Einen weiteren, umfangreichen Teil des Codebuchs nehmen auch in dieser Studie die inhaltlichen Kategorien ein. Darunter ist insbesondere der thematische Kontext zu verstehen, innerhalb dessen die weitere Analyse des Untersuchungsmaterials erfolgt. Die inhaltlichen Kategorien sind der wichtigste Part der Erhebung, da auf ihrer Grundlage die meisten Forschungsfragen beantwortet werden sollen. Im Folgenden werden einige inhaltliche Kategorien für die Analyseeinheit Beitrag erläutert: Gegenstand der Berichterstattung Hier wird der inhaltliche Schwerpunkt der Berichterstattung verschlüsselt. Dabei wird codiert, ob der Gegenstand des Beitrages ein Ereignis, eine Stellungnahme oder ein Thema ist. Anlass der Berichterstattung Diese Kategorie bezieht sich auf den Auslöser für die Berichterstattung. Der Gegenstand der Berichterstattung kann vom Anlass abweichen, z. B. wenn eine Pressekonferenz der Bundesregierung zum Thema Arbeitslosigkeit den Berichterstattungsanlass bildet, das Thema Arbeitslosigkeit aber über die in der Pressekonferenz genannten Informationen hin generell behandelt wird und damit den eigentlichen Gegenstand der Berichterstattung darstellt. Ursache der Ereignisse Ereignisse können ganz grundsätzlich durch den Einfluss von Menschen geschehen und von ihnen beeinflusst werden oder ohne menschlichen Zutun stattfinden. Falls Menschen Ereignisse beeinflussen, kann dies mit Blick auf die Medien erfolgen oder von diesen losgelöst sein. Entscheidend für die Codierung der Ursache von Ereignissen ist das Ausmaß, mit dem Menschen im Hinblick auf die Berichterstattung der Medien Einfluss nehmen. Diese Kategorie wird nur codiert, wenn ein Ereignis Anlass und/ oder Gegenstand der Berichterstattung ist. inhaltliche Kategorien 149 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N V I <?page no="149"?> Themen des Beitrags Hier werden die Themen des Beitrags codiert, also seine inhaltlichen Schwerpunkte. Dies sind diejenigen inhaltlichen Aspekte, die den größten Raum in einem Beitrag einnehmen. Bei dieser Studie konnten bis zu drei Themen codiert werden. Die Auswahl der inhaltlichen Kategorien illustriert die differenzierte Vorgehensweise: Sicherlich scheint es zumeist ratsam, bei der Kategorienfindung eher ausführlich zu sein. Daneben ist es aber für eine effektivere Arbeitsweise sinnvoll, sich hin und wieder vom Untersuchungsmaterial selbst inspirieren zu lassen. Man kann später auch einige Kategorien aus dem Codebuch entfernen, sobald klar wird, dass sie für die Untersuchung nicht benötigt werden, weil z. B. die betreffende Ausprägung so gut wie nie auftaucht. Das schönste und ausführlichste, durch eine vorbildliche theoretische Zerlegung der Dimensionen entstandene Codebuch ist nämlich vergebens, wenn die Ausprägungen nicht codierbar sind, da sie nicht im Untersuchungsmaterial vorkommen. Allerdings sollte man hier auch nicht vorschnell vorgehen, denn wenn das Nicht-Vorkommen einer Ausprägung Teil des Erkenntnisinteresses ist, muss die Kategorie selbstverständlich beibehalten werden. Nur so kann später tatsächlich der entsprechende Beweis geführt werden, dass das Merkmal in der Auswahleinheit nicht vorkommt. Übungsfragen 1 Welche Funktionen besitzen inhaltliche Kategorien für die standardisierte Inhaltsanalyse? a) Sie sind vom Erkenntnisinteresse abhängige Bedeutungsdimensionen. b) Sie sind vom Erkenntnisinteresse abhängige Klassifikationen. c) Sie sind vom Forschungsinteresse abhängige Dispositionen. 2 Nennen sie die verschiedenen Typen von Codiereinheiten und ordnen sie folgende Erklärungen den jeweiligen Typen zu! a) Es handelt sich hierbei um Personen, Objekte, Ereignisse oder Orte. b) Mit ihrer Hilfe werden sachliche oder wertende Feststellungen über Personen, Tatsachen oder Vorgänge getroffen. c) Durch diese Codiereinheiten werden übergreifende Diskursstrukturen ersichtlich. 3 Sind die folgenden Aussagen jeweils richtig oder falsch? a) Bei einer Codierung von Medieninhalten wird immer die möglichst spezifische Ausprägung codiert. 150 8 D E R G E G E N S T A N D : I N H A L T L I C H E K A T E G O R I E N <?page no="150"?> b) Bei einem hierarchischen Aufbau fungiert die jeweils übergeordnete Ebene als so genannte Auffangvorgabe. c) Nachteilig bei der Auswertung eines hierarchisch aufgebauten Codebuchs können sich die Analysen für unterschiedliche Ebenen herausstellen, da sie sich nur schwer zusammenfassen lassen. 151 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N V I <?page no="152"?> Die Tendenz: Wertende Kategorien Inhalt 9.1 Zur Funktion wertender Kategorien: Evaluation 9.2 Globalbewertungen von Analyseeinheiten 9.3 Skalenbildung bei wertenden Kategorien 9.4 Wertende Aussagen: Synthetisches Kategoriensystem Dieses Kapitel führt in die Entwicklung von Kategorien ein, die wertenden Charakter besitzen und deswegen besondere Sorgfalt sowohl bei der Formulierung im Codebuch als auch bei dessen Anwendung durch die Codierer erfordern. Die Darstellung unterscheidet dabei zwischen der übergreifenden Evaluation einer gesamten Analyseeinheit durch den Codierer und der Codierung einzelner wertender Inhalte innerhalb der Berichterstattung. Zur Funktion wertender Kategorien: Evaluation Wenn es in der standardisierten Inhaltsanalyse eine »Königsdisziplin« gäbe - die Verschlüsselung von wertenden Kategorien wäre sicher ein heißer Kandidat. Denn in keinem anderen der hier vorgestellten Gebiete ist die Definition der Kategorien so mühsam, die Bestimmung sinnvoller Ausprägungen so heikel und die Schulung der Codierer, um übereinstimmende Urteile zu erhalten, so aufwändig. Dennoch stellen gerade die wertenden Kategorien oft das Salz in der Suppe dar, denn jenseits der oft langweiligen Fixierung formaler Sachverhalte (vgl. Kap. 7) oder der bloßen Klassifikation von Inhalten (vgl. Kap. 8) werden hier diejenigen Aspekte berührt, die für Inferenzschlüsse (vgl. Kap. 2) am interessantesten sind. Wie hat die Medienberichterstattung bestimmte Akteure bewertet, wie bestimmte Entwicklungen eingeschätzt? Welche Meinungen wurden vertreten, welche nicht, und über welche Sachverhalte wurde wie berichtet? Bei Rückschlüssen auf den Kommunikator (z. B. welche 9 9.1 Erfassung von Bewertungen als »Königsdisziplin« 153 Z U R F U N K T I O N W E R T E N D E R K A T E G O R I E N : E V A L U A T I O N Z U R F U N K T I O N W E R T E N D E R K A T E G O R I E N : E V A L U A T I O N <?page no="153"?> politische Position ein Medium vertritt) sind solche Fragen ebenso bedeutsam wie bei Rückschlüssen auf den Rezipienten (z. B. auf welcher Grundlage die Meinungsbildung im Publikum erfolgt) oder auf die soziale Situation (z. B. welche gesellschaftlichen Kräfte wie Gehör finden). Zur Wiederholung (vgl. Kap. 3.2): Wertende Kategorien dienen der Erfassung propositionaler Codiereinheiten (als Spezialfall der inhaltlichen Einheiten), die sachliche oder wertende Feststellungen über Personen, Tatsachen oder Vorgänge treffen (Argumente, Meinungen, Kommentare). Die Besonderheit ist also weniger, dass von dem Codierer eine Evaluation der Sachverhalte verlangt wird - dies war ansatzweise schon bei anderen inhaltlichen Kategorien erforderlich (vgl. Kap. 8.4 und 8.5). Vielmehr kann hinzukommen, dass das zu beurteilende Objekt - die Codiereinheit - selbst bereits ein einzelnes, konkret bewertendes Element wie ein Argument oder eine Meinungsäußerung darstellt. Beide Fälle sollen im Folgenden unterschieden und separat voneinander behandelt werden, da sie sich auf unterschiedliche Analyseeinheiten beziehen: Argumente und Meinungen werden in der Regel auf der Ebene einzelner Aussagen codiert, während übergreifende Evaluationen sich beispielsweise auf die Tendenz eines ganzen Beitrags oder die Übersichtlichkeit einer gesamten Zeitschrift beziehen. Merksatz Evaluationsleistungen des Codierers können auf allen Analyseebenen nötig sein; besonders sorgfältig zu behandeln ist jedoch die Erfassung einzelner wertender Aussagen. Wir gehen in diesem Kapitel wieder vom Allgemeineren zum Speziellen vor und betrachten zunächst einige Beispiele für eher pauschale Gesamtbewertungen durch den Codierer (vgl. Kap. 9.2 und 9.3), bevor die Identifikation, Zerlegung und Erfassung von Aussagen behandelt wird (vgl. Kap. 9.4). Für beides gilt freilich, dass wir hier in Bereiche vordringen, in denen mehr denn je das individuelle Urteilsvermögen des einzelnen Codierers gefragt ist. Was für den einen bereits eine negative Einschätzung eines Politikers darstellt, ist für den anderen noch eine neutrale Beschreibung; derselbe Beitrag kann für den einen eine politische Tendenz aufweisen, für die anderen nicht. Um dennoch ein akzeptables Maß an intersubjektiver Überprüfbarkeit der Verschlüsselung zu gewährleisten, muss der Bedeutungsgehalt der einzelnen Kategorien und ihrer Ausprägungen umso ausführlicher dargestellt und in einer gründlichen Schulung allen Codierern klargemacht werden. Ist keine Gesamtbewertung versus Aussagenerfassung 154 9 D I E T E N D E N Z : W E R T E N D E K A T E G O R I E N <?page no="154"?> zufrieden stellende Übereinstimmung der Codierer zu erreichen, muss das Instrument so lange nachgebessert (oder so lange geschult) werden, bis tatsächlich von einer einheitlichen Vorgehensweise ausgegangen werden kann (vgl. Kap. 10 und 12). Globalbewertungen von Analyseeinheiten Von einer Globalbewertung der Analyseeinheit durch den Codierer sprechen wir dann, wenn ihm ein summarisches Urteil abverlangt wird, für das der Codierer selbst unterschiedliche Aspekte und Sachverhalte gewichten, zueinander in Beziehung setzen und anschließend eine abgewogene Bewertung abgeben muss. Dies wäre beispielsweise dann der Fall, wenn für einen Kommentar im Internet ermittelt werden soll, ob er insgesamt einen zynischen und verletzenden Tonfall besitzt. Oder wenn für einen gesamten Beitrag innerhalb der Wahlberichterstattung festgehalten werden soll, ob er Angela Merkel eher positiv, eher negativ oder eher neutral darstellt. Diese Vorgehensweise ist aus Publikumssicht deswegen gerechtfertigt, weil Studien bereits zeigen konnten, dass der Rezipient ebenfalls eher einen Globaleindruck von einem Text »mitnimmt« und weniger einzelne Argumente miteinander »verrechnet«. Um diese Tendenz für die Analyseeinheit summa summarum einschätzen zu können, muss der Codierer sich einen Gesamteindruck bilden, für den er natürlich die einzelnen enthaltenen Bewertungen zu berücksichtigen hat - aber genauso den allgemeinen Duktus der Argumentation, ihre Zwischentöne und die Verknüpfung der Bewertungen im Beitrag. Es handelt sich also um eine komplexe Aufgabe, die durch unsere demokratischen Grundprinzipien nicht gerade vereinfacht wird: Eine ausgewogene Berichterstattung gilt im Journalismus nämlich als Qualitätsmerkmal, weshalb oft auch innerhalb von Beiträgen Pro- und Kontra-Ansichten referiert werden, was dem Codierer die eindeutige Zuordnung erschwert, während Meinungsäußerungen im Internet oft recht eindeutig ausfallen. Merksatz Globalbewertungen verlagern wesentliche ergebnisrelevante Entscheidungen auf die Codierer, was besondere Anforderungen an deren Urteilsfähigkeit stellt und durch ein umso präziseres Instrument mit genauen Anweisungen und Codierregeln unterstützt werden muss. 9.2 Globalbewertung als summarisches Urteil 155 G L O B A L B E W E R T U N G E N V O N A N A L Y S E E I N H E I T E N <?page no="155"?> Wir wollen diese Überlegungen am Beispiel zweier Kategorien - eine physische und eine inhaltlich definierte Analyseeinheit (Beitrag bzw. Akteur) - verdeutlichen und uns dabei zunächst der Kategoriendefinition zuwenden. Der Aspekt der Skalenbildung steht im Mittelpunkt des anschließenden Abschnitts. Abb. 9.1 zeigt eine - für unsere Zwecke eher einfach gehaltene - Beschreibung der Kategorie »Valenz der Bericht- Abb. 9.1 Wertende Kategorie zur Erfassung der Valenz eines Beitrags 13. Valenz der Berichterstattung Zur Bestimmung der Valenz (Positivität/ Negativität) eines Beitrags werden alle expliziten oder impliziten Bewertungen herangezogen, die der jeweiligen Berichterstattung zu entnehmen sind. Der Codierung wird dabei zwar das faktische Geschehen zugrunde gelegt, die Einstufung erfolgt jedoch nicht nach »objektiven« Ereignismerkmalen, sondern ausschließlich aufgrund der im Beitrag enthaltenen Deutungen. Allerdings kann die Einschätzung, ob ein Ereignis prinzipiell entweder schlecht, weder schlecht noch gut (neutral) oder gut ist, als erster Hinweis dienen. Negative Berichterstattung bezieht sich meist auf Ereignisse, die die Bevölkerung als unangenehm, verlustreich, existenzbedrohend, ungesund, konflikthaltig usw. empfindet; z. B. Steuererhöhungen, Attentate, Konkursanmeldungen, Arbeitlosenzahlenmeldungen, Koalitionsbrüche. Diese Ereignisse werden entsprechend negativ konnotiert, d. h. als schädlich, unerwünscht, bedrohlich, zerstörerisch usw. bezeichnet. Naturkatastrophen, Unfälle und Verbrechen sind in der Regel als negativ zu bewerten, auch wenn dies im Beitrag selbst nicht nochmals ausdrücklich gesagt wird. Positive Berichterstattung dagegen dokumentiert Erfolge, Fortschritte, Einigungen usw. Beispiele hierfür sind Bilanzerfolge von Unternehmen, Vorankommen von Friedensverhandlungen, Durchbrüche in der Forschung, Fahndungserfolge der Polizei. Entsprechende Sachverhalte werden von der Berichterstattung gewürdigt, anerkannt, begrüßt oder für gut befunden usw. Ist ein Beitrag nicht eindeutig als überwiegend positiv oder negativ einzuordnen, sollte Ausprägung 2 (»neutrale/ ambivalente Berichterstattung«) verschlüsselt werden. Dies gilt insbesondere für reine Faktenmeldungen und längere, abwägende Artikel, in denen unterschiedliche Positionen zu Wort kommen (oder z. B. bei Katastrophen: »Glück im Unglück«-Berichte). Sportnachrichten und Wetterbericht werden grundsätzlich nicht berücksichtigt (Code »0«). 0 nicht anwendbar 1 negative Berichterstattung 2 neutrale/ ambivalente Berichterstattung 3 positive Berichterstattung 156 9 D I E T E N D E N Z : W E R T E N D E K A T E G O R I E N <?page no="156"?> erstattung«. Valenz meint dabei, ob der Beitrag insgesamt eher Positives, Negatives oder beides zu vermelden hat. Inhaltlicher Hintergrund könnte etwa der alte Vorwurf sein, Medien würden sich in ihrer Berichterstattung hauptsächlich dem Schlechten in der Welt zuwenden (»bad news«, Nachrichtenfaktor Negativismus). Zur Einschätzung, welche Valenz ein Beitrag aufweist, ist zunächst wieder zu bestimmen, worauf der Codierer sein Urteil stützen soll. Bezugspunkt ist auch hier häufig, wie oben bereits dargestellt, die vermuteten Wahrnehmungen eines »durchschnittlichen« Lesers, Hörers oder Zuschauers (vgl. Kap. 8.4). Im vorliegenden Fall wird die Natur des faktischen Geschehens zwar zugrunde gelegt; die Evaluation erfolgt allerdings auf Basis der im Beitrag manifest enthaltenen Bewertungen. Es geht also um die Art und Weise, wie die Journalisten die enthaltenen Sachverhalte bewerten, nicht um die Valenz des Geschehens selbst. Für die Identifikation positiver oder negativer Aspekte wird eine ganze Reihe von Beispielen genannt. Dabei handelt es sich jedoch um keine abgeschlossene, sondern eine exemplarische Liste, anhand derer der Codierer solche und ähnlich gelagerte Fälle identifizieren kann. Für die Codierung ist dann - mit Ausnahme von Wetter und Sport, die per Definition ausgeschlossen wurden, weil »Erfolge« und »schlechte Nachrichten« hier offensichtlich einer anderen Logik folgen - eine Art Bilanz zu erstellen: Überwiegt der positive oder der negative Gesamteindruck? Oder ist der Beitrag eher ausgewogen? Oder sind gar keine Bewertungen erkennbar (»neutral«)? Analog könnte man beispielsweise die Bewertungen von Online-Kommentaren zu YouTube-Videos erheben. Merksatz Für Bewertungscodierungen relevante Aspekte werden meist anhand exemplarischer Vorgaben und seltener anhand einer abgeschlossenen Liste von Vorgaben definiert. An diesem Fall lässt sich auch sehr gut das Prinzip der »harten« Codierung erklären: Unter einer harten Codierung versteht man bei der Inhaltsanalyse, wenn die Codieranweisung ausdrücklich vorsieht, dass nur eindeutige Fälle einer bestimmten Vorgabe zuzuordnen sind, während eher unklare Fälle in eine eigene Sammelausprägung fallen. In unserem Beispiel wird Wert darauf gelegt, dass in die qualifiziert positive bzw. negative Ausprägung nur Beiträge einsortiert werden, die tatsächlich eine klare Tendenz aufweisen. Der Sinn einer »harten« Codierung besteht darin, für die jeweiligen Ausprägungen auch wirklich nur journalistische Bewertung versus Valenz des Geschehens »harte« Codierung 157 G L O B A L B E W E R T U N G E N V O N A N A L Y S E E I N H E I T E N <?page no="157"?> unzweifelhafte Fälle zu ermitteln - um den Preis einer möglicherweise relativ zahlreich besetzten Auffangvorgabe. In der Auswertung können dann allerdings auch entsprechend »harte« Aussagen getroffen werden. Insbesondere wenn die Fälle in den »harten« Ausprägungen anschließend einer vertiefenden Analyse unterzogen werden sollen, ist die restriktivere Vorgehensweise geboten. Merksatz Sollen aus Auswertungsergebnissen besonders weit reichende Schlussfolgerungen gezogen werden oder berühren sie besonders sensible Aspekte, empfiehlt es sich, eine »harte« Codierung vorzusehen. Wurde bislang die Gesamtbewertung einer physisch definierten Analyseeinheit (Beitrag) erläutert, so wendet ein weiteres Beispiel nun dieselbe Logik auf die inhaltlich definierte Analyseeinheit eines Akteurs an. Denn häufig verlangt die Fragestellung gerade Urteile zur Personendarstellung in den Medien, z. B. von Kanzlerkandidaten im Fernsehen, Moderatoren von Youtube-Videos oder Opfern und Tätern in der Boulevardpresse. Abb. 9.2 zeigt exemplarisch eine Codiervorgabe aus einer Studie im Unterhaltungsbereich - nämlich die Kategorie zur Souveränität, die ein Gesprächsgast bei seinem Auftritt in der Late-Night-Show von Jan Böhmermann an den Tag legte. Auch hierbei handelt es sich um einen Gesamteindruck, der sich im Verlauf eines Gesprächs nach und nach herauskristallisiert. Wieder wird eine »harte« Codierung verlangt, es sollen also nur eindeutige Fälle in die jeweiligen Ausprägungen eingeordnet werden. Dies ist deswegen nachvollziehbar, weil ggf. der Vorwurf, ein Moderator mache einen nennenswerten Teil seiner Gäste lächerlich, durchaus gravierend ist und auf entsprechend klaren Vorfällen beruhen sollte. Für die Definition der beiden qualifizierten Ausprägungen erhält der Codierer eine offene Liste mit Indikatoren, die sich auf das Verhalten des Gastes, des Moderators und des Publikums beziehen. Die Verschlüsselung selbst sieht wiederum nur drei Ausprägungen vor, neben der »neutralen« Mittelposition also jeweils nur eine positive (Souveränität) und eine negative (Lächerlichkeit) Stufe. Damit handelt es sich um eine wenig differenzierte Skala auf Nominalniveau, die keine weiteren graduellen Abstufungen erlaubt. Der folgende Abschnitt befasst sich nun ausführlicher mit der Konstruktion angemessener Skalen für die Erfassung von Bewertungen. Beispiel: Akteurseinstufung 158 9 D I E T E N D E N Z : W E R T E N D E K A T E G O R I E N <?page no="158"?> Skalenbildung bei wertenden Kategorien Über die Bildung von Skalen und ihren Ausprägungen wurde schon an früherer Stelle berichtet (vgl. Kap. 1.3 und besonders 6.2). Dort hatten wir in einem Beispiel bereits eine mehrfach abgestufte Skala zur Bewertung eines Politikers kennen gelernt. Zur Erinnerung: Bewertungsskalen besitzen meist Ordinalniveau, da sich keine annähernd gleichen Abstände zwischen Skalenpunkten definieren lassen. Damit stellt sich dem Forscher bei der Skalenbildung die entscheidende Frage, wie viele Ausprägungen er vorsehen soll. Das Dilemma lässt sich leicht auf den Punkt bringen und gilt für Globalbewertungen (vgl. Kap. 9.2) genauso wie für Kategorien auf Aussagenebene (vgl. Kap. 9.4): 14. Gesamteindruck: Souveränität des Gastes In einer summarischen Bewertung wird eingeschätzt, welchen Eindruck der Gast in dem Gespräch mit Jan Böhmermann hinterlassen hat. Es wird dabei der Eindruck zugrunde gelegt, den ein durchschnittlicher Fernsehzuschauer gewinnen muss. Unterschieden wird anhand der zentralen Dimension, ob der Gast die Situation eher souverän bewältigt hat oder sich eher lächerlich gemacht hat. Indikatoren für Lächerlichkeit sind ein unbeholfenes Auftreten, wenig geistreiche Antworten, das Außer-Fassung-Geraten, spöttische Bemerkungen Jan Böhmermanns, die unkommentiert bleiben, insgesamt das Nicht-Bemerken, daß man sich auf Kosten des Gastes lustig macht, oder entsprechende Publikumsreaktionen wie Gelächter auf ernstgemeinte Antworten usw. Indikatoren für Souveränität sind z. B. ein ruhiges Auftreten, eine beherrschende, steuernde Position im Interview oder geistreiche Konter auf Jan Böhmermanns Bemerkungen, Unterstützung aus dem Publikum oder tatsächlich lobend gemeinte Aussagen des Moderators. Es ist zu beachten, dass diese Einschätzung in Relation zum sonstigen expliziten und gewollten Image des Gastes getroffen wird, wobei Image-konsistente Auftritte selbst dann als souverän verschlüsselt werden, wenn sich der Gast lächerlich macht (z. B. Daniela Katzenberger). In allen Grenzfällen, in denen keine klare Zuordnung möglich ist oder das Gespräch ambivalent verläuft, ist die Mittelkategorie zu verschlüsseln. +1 Der Gast erscheint im Interview eher souverän 0 nicht zu entscheiden, kein ausgeprägter Eindruck des Gastes -1 Der Gast erscheint im Interview eher lächerlich Abb. 9.2 Wertende Kategorie zur Bewertung eines Akteurs 9.3 159 S K A L E N B I L D U N G B E I W E R T E N D E N K A T E G O R I E N <?page no="159"?> . Aus statistischer Sicht ist eine große Zahl von Ausprägungen erstrebenswert, um die inhaltliche Dimension möglichst differenziert zu erfassen. . Aus Sicht des Codierers ist eine mittlere Zahl von Ausprägungen sinnvoll - sind es nämlich zu viele, fällt die Entscheidung zwischen den Vorgaben schwer; sind es zu wenige, kann er die einzelnen Codiereinheiten nicht angemessen verschlüsseln. . Aus Sicht der Reproduzierbarkeit der Ergebnisse ist eine geringe Zahl von Ausprägungen sinnvoll, denn je weniger Entscheidungsalternativen die Codierer besitzen, umso wahrscheinlicher ist es, dass sie auch übereinstimmende Entscheidungen treffen. Erneut kann man an dieser Stelle keine pauschalen Ratschläge geben, sondern muss die Skalenbreite abgestimmt auf die jeweilige Forschungsfrage und die zu bewertende Dimension festlegen. Wenn - wie im obigen Fall (siehe Abb. 9.2) - zur Bearbeitung der Hypothesen die Unterscheidung von lediglich zwei Polen und einer neutralen oder ausgewogenen Position ausreicht, kann eine dreistufige Skala bereits genügen. In vielen Fällen wird man jedoch zumindest eine weitere Abstufung der beiden Wertungsrichtungen vorsehen wollen, um die Intensität der Bewertung im Nachhinein unterscheiden zu können (vgl. Kap. 9.4). Eine elegante Form der Skalenbildung entwickelte Früh (2015: 233) am Beispiel von Argumenten für oder gegen die Kernkraft (siehe Abb. 9.3). Er legt dabei eine siebenstufige Ordinalskala zugrunde, wobei der Skalenpunkt 1 für eine Position uneingeschränkt kontra Kernkraft steht, der Skalenpunkt 7 für eine Position uneingeschränkt pro Kernkraft. Für die Zuordnung der einzelnen Codiereinheiten unterscheidet er explizite und implizite Argumente. Basis für die Codierung sind zunächst die expliziten Argumente, also alle Aussagen, die zu einem der vorab definierten Teilaspekte der Kernkraftproblematik Stellung nehmen. Alle eindeutigen Pro-Argumente erhalten den Skalenwert 6 zugewiesen, alle eindeutigen Kontra-Argumente den Skalenwert 2 und die »neutralen« Argumente den Skalenmittelpunkt 4. Diese Ausgangswerte können nun eine Verstärkung oder Abschwächung erfahren: Folgen weitere explizite Argumente zum selben Aspekt, so kann sich die Tendenz noch in die eine oder andere Richtung verschieben; aus allen aufgefundenen Argumenten zu einem Aspekt ergibt sich dann die Gesamttendenz. Außerdem kann sich diese Tendenz auch aufgrund von impliziten Argumenten verstärken oder abschwächen, allerdings nur um jeweils einzelne Skalenpunkte. Unter impliziten Argumenten werden Stilmittel oder bestimmte Formen der Interpunktion verstanden, die ihre Wertung »zwischen den Zeilen« enthalten; Beispiele hierfür wären etwa Ironie, Emotionalisierung, Herabsetzung der Glaubwürdigkeit der Quelle oder deren Anzahl der Ausprägungen explizite Argumente implizite Argumente 160 9 D I E T E N D E N Z : W E R T E N D E K A T E G O R I E N <?page no="160"?> Statusaufwertung (vgl. Früh 2015: 237 ff.). Auch hierdurch ergeben sich graduelle Abstufungen, sodass die gesamte Skala von 1 bis 7 ausgeschöpft werden kann. Damit berücksichtigt diese Vorgehensweise bereits bei der Codierung, dass sich unterschiedliche Argumente in derselben Analyseeinheit - z. B. einem Artikel - gegenseitig »neutralisieren« können. Eine andere Vorgehensweise, die der nachfolgende Abschnitt erläutert, könnte allerdings einzelne Aussagen als Analyseeinheit begreifen und jedes einzelne Argument als Codiereinheit bereits auf dieser Ebene erfassen. Wertende Aussagen: Synthetisches Kategoriensystem Die »Verrechnung« einzelner Bewertungen verlangt vom Codierer - gerade bei längeren Beiträgen (z. B. Hintergrundberichten in Nachrichtenmagazinen) - oft eine hohe Abstraktionsleistung und ist dementsprechend fehleranfällig. Deswegen kann die Erfassung einzelner Bewertungen auf der Ebene von Aussagen mitunter sinnvoller sein. Man würde in diesem Fall innerhalb der Analyseeinheit »Beitrag« weitere Analyseeinheiten »Aussage« identifizieren und für diese ein eigenes Kategoriensystem anwenden (hierarchische Zerlegung, vgl. Kap. 5.3). Zur Wiederholung: Eine Aussage kann, muss aber nicht mit einem syntaktischen Satz identisch sein - manchmal erstreckt sich eine Aussage über zwei oder mehrere Sätze, oder in ein und demselben Satz sind mehrere Aussagen enthalten (vgl. das Beispiel in Kap. 5.2). Um die Logik der entsprechenden Kategorien zu verdeutlichen, wollen wir uns zunächst eine denkbar einfache wertende Aussage aus einem Presseartikel einer historischen Inhaltsanalyse vornehmen: Abb. 9.3 Bewertungsskala mit Verstärkung und Abschwächung (Früh 2015: 233) 9.4 161 W E R T E N D E A U S S A G E N : S Y N T H E T I S C H E S K A T E G O R I E N S Y S T E M <?page no="161"?> Beispiel Aussage in einem Presseartikel »Die deutsche Wiedervereinigung bringt unserem Land neuen Wohlstand.« Offenkundig besteht diese Aussage aus zwei Komponenten: einem Aussagegegenstand (deutsche Wiedervereinigung, wirtschaftliche Folgen) und einer Bewertung (»bringt Wohlstand«). Dabei handelt es sich um die Minimalkonstellation, d. h. die beiden Komponenten, die mindestens vorliegen müssen, um eine wertende Aussage zu konstituieren. Eine Bewertung wäre sinnlos ohne einen Gegenstand, auf den sie sich bezieht, und die Nennung eines Gegenstands ohne Bewertung wäre keine wertende Aussage (sondern beträfe eher die Themenverschlüsselung; vgl. Kap. 8.2). Für die Codierung wertender Aussagen bedeutet dies, dass in den Kategorien auch mindestens der Gegenstand und die jeweilige Bewertung festgehalten werden müssen. Daneben steckt in unserer einfachen Aussage noch eine dritte Komponente, die deutlicher wird, wenn wir eine leichte abgewandelte Fassung dieses Satzes betrachten: Beispiel Aussage in einem Presseartikel »Kanzler Kohl versicherte, dass die deutsche Wiedervereinigung unserem Land neuen Wohlstand bringt.« Hier kommt nun mit dem Urheber einer Aussage (Kanzler Kohl) eine weitere Komponente hinzu, die versteckt bereits in der vorigen Aussage enthalten war: Wenn der Satz »Die deutsche Wiedervereinigung bringt unserem Land neuen Wohlstand« ohne weitere Quellenangabe im Artikelkontext enthalten wäre, würde man die Aussage richtigerweise dem Journalisten zuschreiben, der den Artikel verfasst hat. Auch da liegt im Grunde also ein Urheber für die Bewertung eines Aussagegegenstandes vor. Damit sind auch die drei grundlegenden Komponenten von wertenden Aussagen - Gegenstand, Bewertung, Urheber - benannt, die gleichzeitig die zentralen Kategorien für die Verschlüsselung von wertenden Aussagen darstellen und im Folgenden ausführlicher beschrieben werden. Denn bei der Codierung geht man keineswegs so vor, dass man für jeden möglichen Gegenstand mit jeder möglichen Bewertung und jeden möglichen Urheber eine eigene Ausprägung vorsieht. Die Zahl von drei Komponenten wertender Aussagen 162 9 D I E T E N D E N Z : W E R T E N D E K A T E G O R I E N <?page no="162"?> Kombinationen würde selbst bei einfachen Fragestellungen schnell äußerst unübersichtlich. Stattdessen legt man ein so genanntes synthetisches Kategoriensystem (Früh 2015: 211 f.) an: Für jede Komponente wird eine eigene Kategorie entwickelt, und aus der Verknüpfung der drei Codes kann später wieder die zutreffende Kombination aus Gegenstand, Bewertung und Urheber rekonstruiert werden (siehe Abb. 9.4). Genauso kann sich die Auswertung aber nur auf die einzelnen Komponenten beziehen und darstellen, wie oft beispielsweise wirtschaftliche Folgen der Wiedervereinigung in der Berichterstattung angesprochen werden oder wie oft die sozialen Folgen usw. Merksatz Ein synthetisches Kategoriensystem zerlegt komplexe Konstrukte in einzelne Komponenten; aus der Kombination der jeweiligen Codierungen lässt sich dann der Aussagegehalt wieder rekonstruieren. Der Gegenstand einer Aussage ist jener Sachverhalt, den der jeweilige Urheber bewertet. Wieder sollte die Gesamtheit aller vorab definierten Gegenstände das relevante Spektrum möglicher Aussagen vollständig und überschneidungsfrei abdecken (vgl. Kap. 6.2). Je nach Thema der Bewertungsanalyse kann dies zu einer umfangreichen Liste führen; auch hier ist deswegen erneut darauf zu achten, welche Aspekte zur Kanzler Kohl versicherte, dass die deutsche Wiedervereinigung unserem Land neuen Wohlstand bringt Deutschland: Wiedervereinigung: wirtschaftliche Folgen +2, uneingeschränkt positiv Bundeskanzler Helmut Kohl URHEBER GEGENSTAND BEWERTUNG Deutschland: Wiedervereinigung: wirtschaftliche Folgen uneingeschränkt positiv Bundeskanzler Helmut Kohl Deutschland: Wiedervereinigung: wirtschaftliche Folgen uneingeschränkt positiv Bundeskanzler Helmut Kohl CODIERUNG ANALYSE Kohl Lafontaine Bush Wirtschaftliche Folgen Soziale Folgen Militärische Folgen Uneingeschränkt positiv Abwägend Uneingeschränkt negativ (…) (…) Abb. 9.4 Zerlegung und Rekonstruktion von Aussagen in einem synthetischen Kategoriensystem Gegenstand einer Aussage 163 W E R T E N D E A U S S A G E N : S Y N T H E T I S C H E S K A T E G O R I E N S Y S T E M <?page no="163"?> Bearbeitung der Hypothesen tatsächlich von Belang sind - der Codieraufwand für wertende Aussagen ist nämlich erheblich! Abb. 9.5 zeigt, wie in unserem Beispiel zur deutschen Wiedervereinigung eine Kategorie aussehen könnte, die unterschiedliche Aussagegegenstände zum Prozess der Wiedervereinigung und der seinerzeit aktuellen Übersiedlerproblematik anspricht. Analog zum Vorgehen bei einer Themencodierung (vgl. Kap. 8.2), der unsere Definition der Gegenstände durchaus ähnelt, wurde eine hierarchische Gliederung gewählt. Unterschieden werden einzelne Dimensionen des Zuzugs von Übersiedlern und dessen Folgen sowie die politische und die wirtschaftliche Komponente des Vereinigungsprozesses. Wieder ist jede der Ausprägungen genau zu definieren (vgl. unser Beispiel anhand der Kategorie 113, Abb. 9.6), und es gelten erneut die üblichen Codiergrundsätze - d. h. die Verschlüsselung der spezifischeren vor der allgemeineren Kategorie und die Beschränkung auf einen Gegenstand pro Codiervorgang. Von wesentlicher Bedeutung ist natürlich die Festlegung der Kategorie zur Bewertungsmessung für jeden Gegenstand. In Anlehnung an den eben dargestellten Vorschlag, bei dem Aussagen verschiedener Intensität miteinander verrechnet wurden (siehe Abb. 9.3), soll nun auch auf Aussagenebene die Möglichkeit gegeben werden, zwischen Bewertungen unterschiedlicher Stärke zu unterscheiden. In unserem Beispiel haben wir uns deswegen für eine Skala mit zweifach abgestuften Polen entschieden: + 2 klar positive Bewertung des Gegenstandes + 1 abgeschwächt positive Bewertung des Gegenstandes - 1 abgeschwächt negative Bewertung des Gegenstandes - 2 klar negative Bewertung des Gegenstandes Diese Skala bietet noch ein Mindestmaß an Differenzierung, ohne den Codierer durch allzu viele Codieralternativen in Bedrängnis zu bringen. Auf eine Mittelkategorie (0) kann man hier bewusst verzichten, da per Definition ausschließlich wertende Aussagen codiert werden. Im einfachsten Fall könnte diese Skalenvorgabe in einem synthetischen Kategoriensystem für sich stehen und auf jeden Aussagegegenstand gleichermaßen angewendet werden. Um übereinstimmende Codierungen zu erzielen, ist es dennoch meistens notwendig, die jeweiligen Bewertungsstufen für jeden Gegenstand mit Beispielen zu versehen. Bei komplexeren Themen können sogar nochmals explizite Erläuterungen nötig sein. Dies veranschaulicht Abb. 9.6, die für die in Abb. 9.5 definierte Ausprägung 113 (»Sozial- und Sonderleistungen für Übersiedler und DDR- Bürger«) exemplarisch die in der Bewertungskategorie spezifizierten Definitionen und Beispiele aufführt. Bewertungsmessung 164 9 D I E T E N D E N Z : W E R T E N D E K A T E G O R I E N <?page no="164"?> 15. Aussagencodierung: Gegenstand 100 Übersiedler: Bewertung des Zuzugs 110 Bewertung des Zuzugs: gesellschaftliche Perspektive 111 allgemeine Bewertung der Erwünschtheit 112 Maßnahmen zur Regelung des Zuzugs 113 Sozial- und Sonderleistungen für Übersiedler und DDR-Bürger Hier werden alle Aussagen verschlüsselt, die sich mit Leistungen in der Bundesrepublik Deutschland für die Übersiedler und DDR-Bürger positiv oder negativ wertend beschäftigen. 120 Bewertung des Zuzugs: individuelle Perspektive 121 Motive und Eigenschaften der Zuziehenden 122 persönliche Lage der Übergesiedelten 200 Übersiedler: Bewertung der Folgen 210 wirtschaftliche Auswirkungen 211 Rolle der Übersiedler für die bundesdeutsche Wirtschaft 212 Gefährdung von Arbeitsplätzen 220 soziale Auswirkungen 221 Entwicklungen auf dem Wohnungsmarkt 222 Entwicklung der Kriminalität (Rolle der Übersiedler) 300 Wiedervereinigung: politischer Prozess 310 allgemeine Bewertung der Realisierungschancen 320 zeitliche Bewertung: Wege (politisch) 330 Bedingungen für die Wiedervereinigung 331 Anerkennung der Ostgrenzen 332 militärische Entwicklung/ Bündnisfrage 340 Realisierung: Maßnahmen 341 staatliche Kooperationsmaßnahmen 342 staatliche Soforthilfen für die DDR 400 Wiedervereinigung: wirtschaftliche Anpassung 410 zeitliche Bewertung 411 Einführung des westlichen Wirtschaftssystems 412 D-Mark als zukünftige Währung der DDR 420 Bewertung der Auswirkungen 421 Finanzierung des wirtschaftlichen Wiederaufbaus der DDR 422 soziale Folgekosten einer Wirtschafts- und Währungsunion (für DDR) 423 Wirtschaftliche und soziale Folgekosten einer Union (für BRD) Abb. 9.5 Wertende Kategorie zum Gegenstand einer Aussage 165 W E R T E N D E A U S S A G E N : S Y N T H E T I S C H E S K A T E G O R I E N S Y S T E M <?page no="165"?> Das Beispiel verdeutlicht, dass bei der Definition der absoluten und abgeschwächten Bewertungen streng formal vorgegangen wird - bei jeder Ausprägung tauchen dieselben Aspekte wieder auf, nur mit jeweils unterschiedlicher Bewertung. Dies mag sprachlich nicht immer elegant klingen, ist aber für ein solches wissenschaftliches Instrument unvermeidlich und erleichtert dem Codierer seine Arbeit. Grundprinzip für die Vergabe der abgeschwächten Codes ist dabei, dass die Bewertung entweder explizit eingeschränkt, an Bedingungen geknüpft oder relativiert wird. Im Beispiel von Abb. 9.6 wäre dies, wenn Maßnahmen an Bedingungen geknüpft werden (Zitat Schäuble, Code -1). Oder die Bewertung wird implizit eingeschränkt, weil sie sich auf eine latente Aussage (vgl. Kap. 1.3) oder implizite Argumente (vgl. Kap. 9.2) bezieht oder nur aus dem Zusammenhang erschlossen werden kann. Beispiel für ein implizites Argument wäre der Verweis auf den Willen des Gesetzgebers (Zitat D E R S P I E G E L , Code +1). Als dritte Komponente einer wertenden Aussage ist deren Urheber festzuhalten. Da es hierbei überwiegend um eine Klassifikationsleistung geht, kann in den allermeisten Fällen eine Liste von Akteuren und Handlungsträgern verwendet werden, wie sie in Kap. 8.4 bereits beschrieben wurde. Unser einleitendes Beispiel hat jedoch ein Problem verdeutlicht, das nun noch etwas genauer beleuchtet werden soll: die Rolle des Journalisten bei der Codierung von Urhebern wertender Aussagen. Denn der für die Codierung optimale Fall, dass bei jeder Aussage in einem Medienbericht auch der Urheber genannt wird, ist eher die Ausnahme als die Regel. Dies ist bei Bewegtbildern noch häufiger der Fall - dort sind Politiker und andere Handlungsträger vor der Kamera zu sehen, während sie ihre Statements abgeben. In der Presse bedingen Stil und Lesbarkeit hingegen oft, dass sich der Urheber einer Aussage aus dem vorher gesagten oder dem Gesamtzusammenhang ergibt. Deswegen ist es hier umso wichtiger, eine angemessene Kontexteinheit für die wertende Aussage als Analyseeinheit zu definieren (z. B. den jeweiligen Beitrag, vgl. Kap. 3.2). Im Umkehrschluss ist zwangsläufig der Journalist als Urheber all jener wertender Aussagen zu codieren, für die sich kein anderer Urheber auffinden lässt. Legt man die journalistischen Traditionen in Deutschland zugrunde, dann müssten solche Aussagen - wegen der gebotenen Trennung von Nachricht und Meinung - hauptsächlich in Kommentaren, Glossen und anderen meinungsbezogenen Stilformen vorkommen. Dass der Journalist bereits durch die Auswahl wertender Stellungnahmen anderer Urheber die Tendenz eines Artikels beeinflusst, soll hier nicht verschwiegen werden - wäre aber eher das Ergebnis eines entsprechenden Inferenzschlusses einer Inhaltsanalyse. Urheber Kontexteinheit 166 9 D I E T E N D E N Z : W E R T E N D E K A T E G O R I E N <?page no="166"?> 16. Aussagencodierung: Bewertung (. . .) 113 Sozial- und Sonderleistungen für DDR-Übersiedler und DDR-Bürger Hier werden alle Aussagen verschlüsselt, die sich mit Leistungen in der Bundesrepublik Deutschland für die Übersiedler und DDR-Bürger positiv oder negativ wertend beschäftigen. Dazu zählen alle Sonder- und Sozialleistungen, die den Übersiedlern aus der DDR und den DDR-Bürgern angeboten werden und die daraus entstehende unterschiedliche Behandlung von Aussiedlern, Übersiedlern, Ausländern und Einheimischen. Dies sind u. a. Eingliederungshilfen, das Notaufnahmeverfahren, die Rentenregelung (Fremdrentengesetz), Bafög-Zahlungen an Studenten aus der DDR, Kostenübernahme für die Unterbringung der Übersiedler in Heimen und Hotels, zinsverbilligte Einrichtungskredite, Eingliederungsgeld wegen Arbeitsaufkündigung in der DDR, Begrüßungsgeld, Reisekostenerlass bei Fernreisen usw. +2 Sozialbzw. Sonderleistungen für die Übersiedler und DDR-Bürger sind richtig und notwendig. Maßnahmen gegen diese Leistungen, zu deren Kürzung oder Abschaffung, werden negativ bewertet bzw. abgelehnt. Ein Missbrauch dieser Leistungen durch DDR-Bürger wird negiert. +1 Sozialbzw. Sonderleistungen für die Übersiedler und DDR-Bürger werden eher positiv bewertet. Sie sind zwar nicht unbedingt notwendig, aber man akzeptiert sie. Maßnahmen gegen diese Leistungen, zu deren Kürzung oder Abbau, werden festgestellt. Von Missbrauch kann nicht gesprochen werden, Gründe für auftretende Ungerechtigkeiten resultieren z. B. aus unzureichenden behördlichen Regelungen. -1 Sozialbzw. Sonderleistungen für die Übersiedler und DDR-Bürger werden eher negativ bewertet. Sie sind nicht notwendig, sondern Aussiedlern, Ausländern usw. gegenüber eher ungerecht. Maßnahmen gegen diese Leistungen, zu deren Kürzung oder Abschaffung, werden positiv aufgefasst, eine Einführung von Bedingungen abhängig gemacht. Ein Missbrauch der Leistungen in bestimmten Fällen wird eingeräumt. -2 Sozialbzw. Sonderleistungen für die Übersiedler und DDR-Bürger werden negativ bewertet. Sie sind Aussiedlern, Asylanten, Ausländern und den Bundesbürgern gegenüber absolut ungerecht. Maßnahmen gegen diese Leistungen und zu deren Abbau sind bedingungslos notwendig und wünschenswert; die Durchführung solcher Maßnahmen wird aktiv unterstützt. Ständiger Missbrauch dieser Leistungen macht eine entsprechende Änderung von Gesetzen erforderlich. Beispiele: +2 »Die Bonner Koalition will das Notaufnahmeverfahren und besondere Eingliederungsleistungen vorerst weiterführen.« (StN, 17.3.1990) +1 »Derartige Ansinnen von DDR-Bürgern allerdings allein als Mißbrauch abqualifizieren zu wollen, wie dies vereinzelt geschieht, wäre verfehlt: Schließlich hat der Bonner Gesetzgeber ihnen all diese Sozialleistungen zugedacht.« (Spiegel 2/ 1990) -1 »Schäuble blieb bei seiner Auffassung, das Notaufnahmeverfahren könne erst bei Rückgang des Übersiedlerstroms abgeschafft werden.« (StN, 17.3.1990) -2 »Die Bundesländer dringen darauf, das Notaufnahmeverfahren für DDR-Übersiedler so rasch wie möglich aufzuheben.« (StZ, 22.3.90) Abb. 9.6 Wertende Kategorie zur Bewertung einer Aussage 167 W E R T E N D E A U S S A G E N : S Y N T H E T I S C H E S K A T E G O R I E N S Y S T E M <?page no="167"?> Merksatz Alle wertenden Aussagen, die nicht eindeutig einem anderen Urheber zugeschrieben werden können, sind dem Journalisten des untersuchten Mediums als Urheber zuzuordnen. Betrachten wir abschließend noch eine weitere Variante unseres einleitenden Beispielsatzes, die als Muster in der Berichterstattung ebenfalls häufig anzutreffen ist: Beispiel Aussage in einem Presseartikel »Kanzler Kohls Versicherung, dass die deutsche Wiedervereinigung unserem Land neuen Wohlstand bringt, interpretiert die wirkliche Lage falsch.« Genauer betrachtet enthält dieser Satz nicht nur eine, sondern gleich mehrere Aussagen: Erstens die oben bereits codierte Aussage Helmut Kohls, zweitens eine Aussage des Journalisten, der die Lage gegenteilig einschätzt (Ausprägung -2), und drittens eine Aussage des Journalisten über Helmut Kohl und sein politisches Urteilsvermögen. Für derlei Konstruktionen wurde eine sehr aufwändige Spezialform der standardisierten Inhaltsanalyse entwickelt, die Semantische Struktur- und Inhaltsanalyse (vgl. Früh 2015: 258 ff.). Es würde zu weit führen, dieses Verfahren an dieser Stelle ausführlicher zu behandeln; stattdessen sei hier nur aufgezeigt, wie das eben skizzierte Problem auf vergleichsweise einfache Art angegangen werden kann, um zumindest diesen in Medienbeiträgen häufigen Fall aufzufangen. Eine vereinfachte Lösung kann darin bestehen, eine vierte Kategorie einzuführen, die Personen als Aussageobjekte mit einem ähnlichen Status wie den Aussagegegenstand (etwa im Sinne von Akteuren) erfasst. Dem kann dieselbe Liste mit Ausprägungen zugrunde gelegt werden wie der Urhebercodierung; der Unterschied liegt im Bedeutungsgehalt (siehe Abb. 9.7). In einer solchen vierten Kategorie könnte beispielsweise die Transitivität unseres Beispiels dahingehend aufgefangen werden, dass als Urheber der Journalist codiert wird, als Aussageobjekt Kanzler Kohl, der Gegenstand wie gehabt, die Bewertung allerdings negativ. Für einfachere Aussagen (wie die oben beschriebenen) würden die Kategorien »Aussageobjekt« bzw. »Urheber« jeweils leer bleiben. Eine solche Zerlegung hätte komplexere Aussagen-Strukturen transitive Aussagen 168 9 D I E T E N D E N Z : W E R T E N D E K A T E G O R I E N <?page no="168"?> den Vorteil, dass auch zwei für die Forschung besonders interessante Fälle berücksichtigt werden können: zum einen der Widerstreit der Meinungen beispielsweise im Wahlkampf, wenn regelmäßig Politiker zu den Leistungen ihrer Kontrahenten Stellung beziehen; und andererseits die Selbstthematisierung von Medien, wenn ein Medium die Arbeit eines anderen Mediums bewertet. Diese Ausführungen sollten verdeutlicht haben, weshalb die Erfassung wertender Sachverhalte - zu Recht - als Königsdisziplin der standardisierten Inhaltsanalyse gilt. Elementare Bedeutung hat allerdings erneut die korrekte Identifikation der Analyseeinheit: Was ist eine wertende Aussage und was nicht? Oder: Wie viele wertende Aussagen stecken in einem Satz? Hilfreich für diese Entscheidungen ist die Vereinbarung, dass immer dann eine neue Aussage zu verschlüsseln ist, wenn in einer der vier Kategorien eine neue Ausprägung vorliegt. Anders ausgedrückt: Sobald laut Abb. 9.7 der Gegenstand der Aussage, der Grad der Bewertung, ihr Urheber oder ihr Aussageobjekt wechselt, liegt eine neue Analyseeinheit vor. Was hier beispielhaft an einer Analyse politischer Berichterstattung vorgeführt wurde, kann mit derselben Logik auch für jede andere Form wertender Aussagen angewendet werden - seien es Modeblogs, Veranstaltungs-Tweets oder Facebook-Kommentare. Merksatz Zur Identifikation und Abgrenzung von Aussagen kann die Übereinkunft dienen, dass bei jedem Wechsel in einer der Ausprägungen eine neue Analyseeinheit vorliegt. Ausgangspunkt der Überlegungen in diesem Abschnitt war das Ziel, eine präzisere Erfassung der Werturteile in der Medienberichterstattung zu erzielen, als es mittels Globalbewertungen umfangreicherer Analyseeinheiten durch den Codierer (vgl. Kap. 9.2) möglich ist. Im Idealfall ergibt die Codierung auf der Ebene der Aussagen dann ein deutlich differenzierteres Bild von den vorherrschenden Argumentationsstrukturen und den bedeutsamen Meinungsmachern in der öffentlichen Diskussion. Bei Gegenstand Bewertung Urheber Aussageobjekt Abb. 9.7 Synthetisches Kategoriensystem unter Berücksichtigung von Transitivität erster Ordnung Identifikation der Analyseeinheit 169 W E R T E N D E A U S S A G E N : S Y N T H E T I S C H E S K A T E G O R I E N S Y S T E M <?page no="169"?> einer Verrechnung dieser Einzelaussagen innerhalb der übergeordneten Analyseeinheit sollte allerdings dieselbe Tendenz sichtbar werden, die der Codierer bei einer Globaleinschätzung auch ermittelt hätte. Fallbeispiel: Politische Kommunikation VII In unserer Fallstudie waren mehrere wertende Kategorien vorhanden, die den Codierern ein einschätzendes Urteil abverlangten. Eine Kategorie sollte z. B. feststellen, ob der Beitrag überwiegend sachorientiert oder personenorientiert ist, d. h. ob eher über strukturelles Geschehen berichtet wird oder es eher um das Handeln einzelner Personen oder Personengruppen geht. Allerdings durfte auch die Möglichkeit nicht vernachlässigt werden, dass Beiträge sowohl sachals auch personenorientiert berichten. Um die verschiedenen Grade der Personalisierung einstufen zu können, wurden für diese Kategorie fünf verschiedene Ausprägungen gewählt: Beispiel Sachpolitik versus Personalisierung 1 eindeutig sachorientiert (Im Mittelpunkt des Beitrags steht die Sachpolitik. Es geht nicht um Personen, sondern um Sachverhalte und abstrakte Vorgänge.) 2 eher sachorientiert (Im Mittelpunkt des Beitrags steht mehrheitlich die Sachpolitik. Es geht hauptsächlich um Sachverhalte und abstrakte Vorgänge, nicht um Personen.) 3 ambivalent (Die Orientierung des Beitrags konzentriert sich weder stark auf Personen noch auf das strukturelle Geschehen. Das Verhältnis ist ausgeglichen.) 4 eher personenorientiert (Der Beitrag ist eher personenorientiert, d. h. hauptsächlich die handelnden Personen stehen im Vordergrund. Neben Sachthemen am Rande geht es vor allem um die Person selbst oder das strukturelle Geschehen wird vom Handeln der Person abhängig gemacht. 5 eindeutig personenorientiert (Der Beitrag ist personenorientiert, d. h. die handelnden Personen stehen eindeutig im Vordergrund. Es geht eindeutig um die Personen selbst oder das strukturelle Geschehen wird vom Handeln der Personen abhängig gemacht. wertende Kategorien Personalisierung 170 9 D I E T E N D E N Z : W E R T E N D E K A T E G O R I E N <?page no="170"?> Weitere wertende Kategorien in dieser Studie sind: Tenor des Beitrags, Valenz des Beitrags, Emotionalisierung Diese Kategorien werden - wie das oben aufgeführte Beispiel - ebenfalls anhand von fünf Ausprägungen codiert. Bei diesen wertenden Kategorien ist es sehr wichtig, die einzelnen Variablen genauer zu beschreiben, um deren Trennschärfe den Codierern bewusst zu machen. Humor, Nachrichtenfaktoren (z. B. Kontroverse, Sexualität/ Erotik Überraschung) Hier wird mit einer dichotomen Antwortvorgabe gearbeitet, vor allem um diese doch eher subjektiven Kategorien vereinfacht codieren zu können. Auf diese Weise wird das bloße Auftreten der jeweiligen Aspekte festgehalten. Übungsfragen 1 Ist die folgende Aussage richtig oder falsch? Wertende Kategorien dienen der Erfassung referenzieller Codiereinheiten, die sich auf bestimmte Orte, Objekte, Akteure oder Ereignisse beziehen. 2 Welche der folgenden Aussagen ist/ sind falsch? a) Argumente und Meinungen werden in der Regel auf der Ebene einzelner Aussagen codiert. b) Die Evaluation des Codierers bezieht sich meist auf die Tendenz der einzelnen Aussagen. c) Die Evaluation des Codierers bezieht sich meist auf die Tendenz eines gesamten Beitrages. 3 »Globalbewertung« der Analyseeinheit meint: a) Ein unter Einbeziehung verschiedener Aspekte vom Codierer verlangtes, zusammengefasstes Urteil. b) Ein vom Codierer verlangtes, gut durchdachtes Urteil über die Anwendbarkeit des Untersuchungsinstruments. c) Ein vom Codierer verlangtes Urteil über die Aussagekraft von Analyseeinheiten. 4 Ist die folgende Aussage richtig? Der Vorteil harter Codierungen, bei denen die Codieranweisung vorsieht, dass nur eindeutige Fälle einer bestimmten Vorgabe zugeordnet werden, ist die besondere Zuverlässigkeit der Auswertungsergebnisse. 171 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N V I I <?page no="172"?> Die Erhebungsphase: Schulung, Codierung und Feldorganisation Inhalt 10.1 Codiererschulung und Pre-Test 10.2 Feldorganisation 10.3 Codebogen und Datenerhebung Dieses Kapitel behandelt all die kleinen und großen Fragen, die sich bei der praktischen Anwendung des Instruments durch die Codierer ergeben. In der Erhebungsphase sind hier einige organisatorische Schritte zwingend erforderlich, von der Schulung der Codierer über die reibungslose Verteilung des Codiermaterials bis hin zur Dateneingabe und der Kontrolle der Daten. Die nachfolgenden Hinweise sollen helfen, diesen Prozess möglichst effektiv zu gestalten. Codiererschulung und Pre-Test Nach all der mühseligen Definitionsarbeit an Begriffen und Einheiten, Kategorien und Ausprägungen liegt es nun vor uns - das Instrument, unser Codebuch. Trotzdem ist dies bestenfalls die halbe Miete, denn erst in der praktischen Anwendung zeigt sich, ob die entwickelte methodische Logik auch im Feldeinsatz bestehen kann. Ein erster wichtiger Schritt dahin ist die Schulung der Codierer, also jener Personen, die sich im Forschungsalltag mit dem Instrument zurechtfinden müssen. Diese Schulung verfolgt dabei grundsätzlich zwei Ziele: Einerseits sollen alle Codierer dahin gebracht werden, dass sie das Instrument auf dieselbe Art und Weise anwenden und damit für dasselbe Codiermaterial zu demselben Codierergebnis gelangen. Nur dann lässt sich später auch der Anspruch erheben, die gefundenen Ergebnisse seien intersubjektiv überprüfbar. Andererseits muss diese übereinstimmende Codierung auch den Absichten des Forschers entsprechen - denn was nutzt es, 10 10.1 Ziele der Codiererschulung 173 C O D I E R E R S C H U L U N G U N D P R E - T E S T C O D I E R E R S C H U L U N G U N D P R E - T E S T <?page no="173"?> wenn alle Codierer das Codebuch zwar gleich, aber gleich falsch anwenden (vgl. Kap. 12)? Merksatz In der Codiererschulung sollen sowohl die Übereinstimmung zwischen den Codierern als auch die Übereinstimmung mit der Intention des Forschers hergestellt werden. Mit dem Umfang und der Komplexität des Instruments steigt auch der Aufwand für die Codiererschulung: Die Anwendung formaler Kategorien lässt sich schnell vermitteln, inhaltliche (und insbesondere wertende) Kategorien hingegen bedürfen intensiver Abstimmungsprozesse. Beschränkt sich die Codierung auf einen Medientyp, ist der Codierablauf schneller erklärt, als wenn in derselben Studie Fernsehen, Hörfunk, Zeitung und das Internet mit unterschiedlichen Instrumenten bearbeitet werden sollen. Ist die Identifikation von nur einer Analyseeinheit erforderlich, wird man darüber leichter Konsens erzielen, als wenn ein verschachteltes System von Analyseeinheiten abzuarbeiten und das Material eventuell sogar mehrmals durchzusehen ist. Die Erfahrung zeigt, dass der Aufwand für die Codiererschulung bei der Projektplanung regelmäßig unterschätzt wird (und damit auch der dafür erforderliche Zeitbzw. Finanzbedarf). Ein kritischer Faktor hierbei ist die Anzahl der beteiligten Codierer. Einerseits ist ein möglichst großer Codiererstab gerade dann hilfreich, wenn eine umfangreiche Auswahleinheit bearbeitet werden soll. Sind Hunderte von Websites oder Tausende von Zeitungsausgaben zu sichten, so wären eine Hand voll Codierer vielleicht über Monate und Jahre beschäftigt; in dieser Zeit verändert sich aber nicht nur der Forschungsstand, sondern auch Inferenzschlüsse werden möglicherweise belanglos, weil die Ergebnisse bei ihrer Veröffentlichung schon überholt sind. Medienangebote (insbesondere im Internet) verändern beständig ihre Gestalt, werden eingestellt oder neu gegründet, verkauft oder inhaltlich umorientiert. Umso ärgerlicher ist es dann, wenn sich die Ergebnisse einer Inhaltsanalyse auf eine zwischenzeitlich gar nicht mehr bestehende Form des Medienangebotes beziehen. Andererseits steigen mit der Zahl der Codierer der Schulungs- und Koordinationsaufwand und damit die Fixkosten der Analyse. Je mehr Personen sich auf eine gemeinsame Anwendung des Instruments einigen müssen, desto schwieriger wird es, Übereinstimmung zu erzielen. Dennoch ist eine gewisse Vielfalt an Codierern wichtig, denn je kleiner der Stab ist, desto dramatischer wirken Codiererzahl 174 1 0 D I E E R H E B U N G S P H A S E <?page no="174"?> sich Fehlcodierungen des Einzelnen aus. Um intersubjektive Überprüfbarkeit der Befunde zu sichern, bietet sich eine »mittlere« Anzahl von Codierern an; wo diese liegt, kann nur mit Blick auf die Rahmenbedingungen der konkreten Untersuchung festgelegt werden. Merksatz Die angemessene Codiererzahl ergibt sich aus der Abwägung zwischen Aufwand, Praktikabilität, angestrebter Qualität und verfügbarem Zeitfenster für die Codierung. Gerade bei einem vielschichtigen Analysedesign liegt die Idee nahe, Codierer für unterschiedliche Funktionen einzusetzen und damit ihre Leistung zu optimieren und den Schulungsaufwand zu reduzieren: etwa eine Person für die Fernsehcodierung, eine für die Presse, eine für die Sichtung des Materials, eine für jede Analyseeinheit usw. Dabei ist freilich zu beachten, dass die oben genannten Qualitätskriterien dann möglicherweise nicht mehr geprüft werden können. Oder anders ausgedrückt: Wenn (im Extremfall) eine Person für die Fernsehcodierung zuständig ist, woher wissen wir dann, dass die Unterschiede zur Berichterstattung in der Presse tatsächlich im Medienangebot begründet liegen, und nicht in einer abweichenden Codierweise der betreffenden Person? Deshalb sollte, sofern möglich, immer mindestens eine kleine Gruppe von Codierern auf eine bestimmte Aufgabe angesetzt werden. Weitergehende Fragen der Feldorganisation werden im nachfolgenden Abschnitt 10.2, Aspekte der Qualitätskontrolle in Kap. 12 behandelt. Es kommt häufig vor, dass Codierer nicht von außen zum Forscherteam hinzustoßen, sondern dass das Instrument bereits gemeinsam mit den Codierern (z. B. innerhalb eines Seminars an der Hochschule) entwickelt wird. Dies bringt natürlich große Vorteile, denn dadurch ist allen Beteiligten der Sinn und Zweck der jeweiligen Kategorien und ihren Ausprägungen klarer als es durch eine nachträgliche Schulung jemals erreicht werden könnte. Allerdings kann eine zu starke Beteiligung der Codierer auch dazu führen, dass das Instrument nicht mehr in seinem nüchternen Wortsinn angewandt wird, wie es idealerweise zu geschehen hätte, um Vergleichbarkeit zu sichern. Ist das Hintergrundwissen zu groß, wird möglicherweise zu viel in das Codebuch hineininterpretiert. Besonders schwierig kann die Situation schließlich in einer Mischgruppe werden, wenn nachträglich Codierer zu einem Kernteam hinzukommen, das an der Entwicklung beteiligt war: Hier ist sorgfältig darauf zu achten, dass der Wissens- und Erfahrungsvorsprung Arbeitsteilung unter Codierern Codierer als Forscher 175 C O D I E R E R S C H U L U N G U N D P R E - T E S T <?page no="175"?> ausgeglichen wird. Eine Möglichkeit ist dabei die Bildung von gemischten Codierteams, in denen die erfahrenen Codierer die anderen anleiten. Eine solche Lösung wird sich aber wohl nur für umfangreichere Projekte mit vielen Codierern anbieten. Merksatz Die frühzeitige Einbindung der Codierer in die Entwicklung des Instruments ist wünschenswert; möglichst sollte dies jedoch für das gesamte Codiererteam der Fall sein. Es ist übrigens durchaus üblich, dass sich das Instrument im Laufe der Codiererschulung noch verändert. Zumeist handelt es sich hierbei ja um die erste konkrete Anwendung außerhalb der engeren Forschergruppe, bei der Stärken und Schwächen klar zu Tage treten: Funktioniert die Identifikation und die Abgrenzung der Analyseeinheiten? Sind die Kategorien und ihre Ausprägungen tatsächlich überschneidungsfrei? Können die auftretenden Codiereinheiten sinnvoll zugeordnet werden, d. h. ist das Kategoriensystem vollständig? Allerdings ist davor zu warnen, gleich bei jeder in der Schulung festgestellten Unklarheit das Codebuch zu ändern - erst wenn es sich jenseits von Einzelfällen um einen systematischen Fehler handelt, sollte man an eine Modifikation denken. Obwohl es fast selbstverständlich scheint, soll hier nochmals ausdrücklich erwähnt werden, dass für die Schulung der Codierer keinesfalls Material verwendet werden darf, das später auch Gegenstand der Auswahleinheit ist - echtes Untersuchungsmaterial ist für die Schulung tabu! Aber selbstverständlich sollte es sich um vergleichbares Material handeln, in dem grundsätzlich dieselben Inhalte angetroffen werden können (also z. B. eine andere Online-Zeitung, die Hauptnachrichten eines anderen Senders, oder bei künstlichen Wochen die Angebote eines Tages, der nicht berücksichtigt wird). Die Beschaffung dieses Materials und die ggf. dafür entstehenden Kosten sind bei der Untersuchungsanlage einzuplanen. Merksatz Zur Schulung wird immer anderes Material verwendet als zur Codierung; durchaus übliche Veränderungen des Instruments aufgrund der Schulung sollten behutsam und mit Bedacht durchgeführt werden. Schulung als Test des Instruments 176 1 0 D I E E R H E B U N G S P H A S E <?page no="176"?> Für den konkreten Ablauf der Codiererschulung gibt es keine festen Regeln, denn er richtet sich nach dem Ziel der Studie und dem Charakter des Instruments. Das folgende Ablaufschema (siehe Abb. 10.1) nennt deswegen nur grob einige Phasen, die sich bei früheren Inhaltsanalysen als typisch für den Schulungsprozess erwiesen haben. In der Regel sind für die Schulung mehrere Termine vorzusehen, beginnend mit einer Einführungssitzung, in der das Ziel der Studie verdeutlicht, der Forschungszusammenhang erläutert, die zu bearbeitenden Auswahl- und Analyseeinheiten dargestellt und schließlich das Codebuch durchgegangen wird. Die Codierer sollten danach Gelegenheit zur individuellen Lektüre des Codebuchs und zu Rückfragen erhalten. Diese werden dann an einem zweiten Termin, dem Beginn der eigentlichen Schulung, besprochen. Außerdem wird hier anhand exemplarischer Analyseeinheiten eine erste Codierung in der Gruppe vorgenommen. Dies ist (insbesondere zu Beginn) ein eher zäher Vorgang, dem ausreichend Zeit eingeräumt werden sollte. Als »Hausarbeit« werden die Codierer anschließend weitere beispielhafte Codierungen vornehmen, die auf den weiteren Sitzungen diskutiert werden. Dieser Prozess setzt sich so lange fort, bis die Forscher den Eindruck gewinnen, dass die Codierer in ihrer Vorgehensweise hinreichend gut übereinstimmen und die Intention des Codebuchs korrekt umsetzen. Die Phase der Codiererschulung endet mit dem so genannten Pre-Test - einer Anwendung des Instruments auf eine bestimmte Menge von Medieninhalten unter Realbedingungen. Aufgrund der Ergebnisse dieses Codierablauf und Darstellung des Instruments Schulung 2 -n Diskussion der Hausarbeit weitere Hausarbeit (auf Basis von Pre-Test) Lektüre (individuell) Gruppencodierung Exemplarische Analyseeinheit Hausarbeit: Codierung exemplarischer Analyseeinheit Pre-Test: ‚weiche‘ und ‚harte‘ Kriterien Codierung Entscheidung: Übereinstimmungen ausreichend? Entscheidung: Testergebnisse zufriedenstellend? Schulung 1 Exemplarische AE nein nein ja ja Codierer Schulung t Abb. 10.1 Ablauf der Codiererschulung Ablauf der Codiererschulung Pre-Test 177 C O D I E R E R S C H U L U N G U N D P R E - T E S T <?page no="177"?> Pre-Tests ist dann zu entscheiden, ob in die eigentliche Feldphase eingetreten werden kann, in der die Codierung der Auswahleinheit erfolgt. Bei dieser Entscheidung sind sowohl »weiche« als auch »harte« Kriterien zu berücksichtigen: Zu den »weichen« Kriterien gehören die allgemeinen Erfahrungen der Codierer mit dem Codierablauf, ihr Umgang mit dem Untersuchungsmaterial und ihre persönliche Einschätzung, ob das Instrument tatsächlich die für die Fragestellung wichtigen Aspekte des Medienangebots misst. Diese Kriterien sind zwar eher subjektiv, sollten aber in ihrer Aussagekraft nicht unterschätzt werden. Hauptsächliche Entscheidungsgrundlage sind jedoch die »harten« Kriterien, wie sie sich aus einem Vergleich der Codierergebnisse berechnen lassen und in Kap. 13.2 (Reliabilitätstests) noch ausführlicher vorgestellt werden. Im Zweifelsfall sind weitere Änderungen am Instrument und dementsprechende Schulungen erforderlich - solange, bis ein Pre-Test mit einem erfolgreichen Resultat abgeschlossen werden kann. Feldorganisation Die Feldphase der Inhaltsanalyse umfasst den Zeitraum, in dem die zur Überprüfung der Hypothesen erforderlichen Auswahleinheiten bearbeitet werden. Dies darf man sich keineswegs so vorstellen, dass die Codierer auseinander gehen und das ihnen zugeteilte Material nach gewisser Zeit fertig bearbeitet zurückbringen - auch in der Feldphase ist eine kontinuierliche Betreuung und Abstimmung der Codierer vorzusehen. Während regelmäßiger Treffen werden aktuell auftretende Codierprobleme besprochen und insbesondere jene Fälle diskutiert, in denen sich der einzelne Codierer über die Verschlüsselung unsicher ist. Durch die Einigung auf eine gemeinsame Codiervariante wird nicht nur die passendste Erfassung erzielt, auch bei ähnlich gelagerten Fällen können die anderen Codierer zukünftig richtig entscheiden. Merksatz In der Feldphase ist ein ständiger Kontakt zwischen Forscher und Codiererteam (am besten durch regelmäßige Treffen) zu halten, um die Feinsteuerung des Codierprozesses zu ermöglichen und einheitlich auf alle Konkretisierungen des Instruments reagieren zu können. Sollten sich dabei Ergänzungen oder Veränderungen des Instruments als unvermeidlich erweisen, sind diese allen Codierern unverzüglich zu Eintritt in die Feldphase 10.2 kontinuierliche Betreuung der Codierer 178 1 0 D I E E R H E B U N G S P H A S E <?page no="178"?> vermitteln. Alle bis dahin aufgelaufenen Codierungen müssen hinsichtlich der Änderungen erneut überprüft werden. Im Interesse einer zuverlässigen Datenerhebung wie einer koordinierten Erhebungsphase sollten sich solche Modifikationen deswegen in engen Grenzen halten. Für die Planung der Feldphase (vgl. Kap. 3.3) sind plausible Einschätzungen erforderlich, wie viel Zeit jeder Codierer in welchem Teil der Feldphase aufbringen kann und will. Diese Einschätzung muss jede Person für sich selbst und ihre individuelle Lebenssituation abgeben, und entsprechend ist der Codierereinsatz zu planen. Dabei sind insbesondere zwei Aspekte zu berücksichtigen: . saisonale Belastungen: Bei Codierern handelt es sich oft um Studierende der Kommunikations- oder Sozialwissenschaft, die bevorzugt in der vorlesungsfreien Zeit eingesetzt werden können, aber während des laufenden Semesterbetriebs nur eingeschränkt verfügbar sind. Projekte mit einer längeren Feldzeit müssen diese Ungleichgewichte einkalkulieren. . punktuelle Belastungen: Doch selbst in der vorlesungsfreien Zeit wäre es fatal, mit einer hohen täglichen Codierleistung zu kalkulieren. Codieren ist eben kein Fulltimejob, den man unbegrenzt lange ausführen kann - es stellen sich bei dieser Tätigkeit fast zwangsläufig Ermüdungserscheinungen und Konzentrationsschwächen ein. Auch bei voller Verfügbarkeit eines Codierers sollte man daher höchstens mit einer durchschnittlichen Codierzeit von etwa 4 bis 5 Stunden pro Tag rechnen, um die individuelle Leistungsfähigkeit der Personen über einen längeren Zeitraum hinweg nicht zu überschätzen. Ist die Belastbarkeit der einzelnen Codierer bestimmt, kann mit der Koordination der Feldarbeiten begonnen werden. Entscheidender Punkt ist hierbei die Verteilung des Untersuchungsmaterials auf die Codierer. Hier ist grundsätzlich darauf zu achten, dass sowohl über die Medientypen und -organe als auch über den Untersuchungszeitraum und die Analyseeinheiten hinweg eine breite Streuung des Materials zu erfolgen hat. Ansonsten könnte es sich bei später ermittelten Unterschieden in den Befunden auch um Codierereffekte handeln (vgl. oben Kap. 10.1). Um dies zu kontrollieren, bietet es sich an, eine einfache Matrix zu erstellen, die die Zuteilung des Materials enthält und anhand derer unerwünschte Systematiken erkannt würden. Abb. 10.2 zeigt exemplarisch, wie solch ein Verteilungsraster am Beispiel von fünf Medienangeboten, einer Untersuchungswoche und acht Codierern aussehen könnte. Hier wurde darauf geachtet, dass jeder Codierer unterschiedliche Medien an verschiedenen Wochentagen über alle sieben Messzeitpunkte hinweg in etwa ähnlichem Umfang bearbeitet. Planung der Feldphase Verteilungsraster für Codierer 179 F E L D O R G A N I S A T I O N <?page no="179"?> In welcher Reihenfolge wird das Material nun codiert? Oft ist es zum richtigen Verständnis der Medienberichterstattung hilfreich, früheres Geschehen zu kennen, deshalb gibt man das Material in der Regel nicht beliebig, sondern in chronologischer Reihenfolge zur Bearbeitung aus. Bei umfangreicheren Medienstichproben sollte man außerdem im Auge behalten, dass die Unwägbarkeiten im Forschungsprozess - falsche Einschätzungen des Codieraufwandes, Änderungen der zeitlichen Rahmenbedingungen o. Ä. - ausnahmsweise eine nachträgliche Veränderung der Auswahleinheit bedingen können. Da es sich in diesen Fällen meist um eine Reduktion des Materials handelt, sollte (falls mit dieser Gefahr zu rechnen ist) von vornherein eine entsprechende »Sollbruchstelle« eingeplant werden. Zunächst empfiehlt es sich, diese Gefahr durch eine Vorabrecherche zu reduzieren, in der man exemplarisch für einen überschaubaren Zeitraum (z. B. einen Monat) die Zahl einschlägiger Analyseeinheiten ermittelt, um dann auf den Gesamtumfang der geplanten Auswahleinheit hochrechnen und den Codieraufwand prognostizieren zu können. Im Codierprozess würde man anschließend das Material so ausgeben, dass in der Feldphase ggf. noch die Zahl der Untersuchungstage (oder die Zahl der bearbeiteten Medien) reduziert werden kann, ohne dass unnötig codiert wurde. Diese Lücken werden dann bei günstigem Verlauf der Codierarbeiten sukzessive aufgefüllt. Bei künstlichen Wochen (vgl. Kap. 4.2) oder ähnlichen Verfahren, bei denen ein vorgegebener Zeitraum zwingend zu bearbeiten ist, verlangt dies eine sorgfältigere Planung: Sind beispielsweise bei einer Jahresstichprobe monatlich zwei Messzeitpunkte vorgesehen, würde man zunächst je einen Tag pro Monat codieren, und erst im Anschluss daran den zweiten Tag angehen, wenn die Feldarbeiten bis dahin tatsächlich nach Plan verlaufen sind. Abb. 10.2 Verteilungsraster für das Untersuchungsmaterial Tag Süddeutsche Zeitung Spiegel Online BILD ARD Tagesschau RTL aktuell Mo, 12.3. Codierer 1 Codierer 2 Codierer 3 Codierer 4 Codierer 5 Di, 13.3. Codierer 6 Codierer 7 Codierer 8 Codierer 1 Codierer 2 Mi, 14.3. Codierer 3 Codierer 4 Codierer 5 Codierer 6 Codierer 7 Do, 15.3. Codierer 8 Codierer 1 Codierer 2 Codierer 3 Codierer 4 Fr, 16.3. Codierer 5 Codierer 6 Codierer 7 Codierer 8 Codierer 1 Sa, 17.3. Codierer 2 Codierer 3 Codierer 4 Codierer 5 Codierer 6 So, 18.3. - - - Codierer 7 Codierer 8 nachträgliche Veränderung der Auswahleinheit 180 1 0 D I E E R H E B U N G S P H A S E <?page no="180"?> Merksatz Bei der Planung der Feldphase ist eine Rotation der Codierer über das Untersuchungsmaterial (und unter Umständen auch Kürzungspotenziale im Material) vorzusehen. Aus organisatorischer Sicht sollte bereits bei der Beschaffung und Archivierung des Materials berücksichtigt werden, dass eine parallele Bearbeitung durch unterschiedliche Codierer physikalisch voneinander unabhängige Auswahleinheiten erfordert. Oft sind diese jedoch durch zusammenhängendes Trägermaterial verbunden - mehrere Zeitschriften in einem Jahresband, mehrere Sendungen auf einer DVD oder mehrere Zeitungsausgaben auf einem Mikrofiche. Dies kann den Ablauf der Codierarbeiten erheblich behindern, weshalb derartige Umstände entweder (bei eigener Archivierung) schon im Vorfeld beachtet oder im Nachhinein die Anfertigung von Kopien einkalkuliert werden sollte. Zwar wird diese Vervielfältigung mit der fortschreitenden Digitalisierung von Medieninhalten zunehmend einfacher; ist sie dennoch zu aufwändig oder zu kostspielig, muss ein ausgeklügelter Mechanismus für die Verteilung, Rücknahme und Weiterleitung des Materials entwickelt werden, in dem der Bearbeitungsstand der jeweiligen Einheit (z. B. durch farbliche Codes) gekennzeichnet wird. Erwartungsgemäß führt dies gerade bei einer größeren Zahl von Codierern immer zu Reibungsverlusten, da Übergabetermine oft aufgrund von unvorhergesehenen Verzögerungen platzen. Trotz intensiver individueller Appelle an die Zuverlässigkeit der Codierer kann dies - im ungünstigsten Fall - zu einer massiven Ausdehnung der Feldphase führen. Merksatz Die Feldplanung muss auch die Art und Weise berücksichtigen, in der das Untersuchungsmaterial physikalisch vorliegt. In jedem Fall hat eine sorgfältige Dokumentation der Ausgabe und Rücknahme der Materialien zu erfolgen, sodass jederzeit nachvollzogen werden kann, wo sich eine DVD oder ein Zeitschriftenband gerade befindet. Von einer »Selbstbedienung« der Codierer aufgrund des Verteilungsrasters ist dringend abzuraten. Obwohl es selbstverständlich klingt, sei trotzdem erwähnt: Alle Materialien sind nach vollständiger Bearbeitung wieder einzusortieren und bis zum vollständigen Abschluss der Vervielfältigung des Materials Dokumentation des Bearbeitungsstands 181 F E L D O R G A N I S A T I O N <?page no="181"?> Projektarbeit zu verwahren - also keinesfalls zwischenzeitlich mit anderen Inhalten zu überspielen oder zu vernichten! In besonderem Maße gilt dies für die ausgefüllten Codebögen, die die Grundlage für die Auswertung darstellen; ihnen widmet sich der nun folgende Abschnitt. Codebogen und Datenerhebung Eine oft diskutierte Frage betrifft die Dokumentation der Verschlüsselungsergebnisse durch den Codierer. Oder auf den Punkt gebracht: Codierung in eine Datei oder auf Papier? Für die erste Lösung sprechen natürlich die Zeit- und die Kostenersparnis - alle Daten liegen später fertig zur Weiterverarbeitung vor und können ohne eine erneute, fehleranfällige Dateneingabe unmittelbar analysiert werden. Andererseits hat die Erfassung auf Papier auch Vorteile: Sie macht die Codierung flexibler, denn sie ist unabhängig von der Verfügbarkeit eines Rechners; sie bietet außerdem eine höhere Datensicherheit, erleichtert die Abstimmung bei Codierertreffen und verleiht dem Codiervorgang insgesamt eine größere Transparenz und Nachvollziehbarkeit. In vielen Fällen geht man deswegen immer noch klassisch vor und wendet ein zweistufiges Verfahren (Codierung auf Papier und anschließende Dateneingabe) an. Es gibt allerdings keine gesicherten Erkenntnisse darüber, welche Vorgehensweise effektiver und weniger fehleranfällig ist. Bei bestimmten Konstellationen - etwa wenn das Untersuchungsmaterial digital vorliegt und auch am Rechner bearbeitet wird - kann es das Handling sogar erheblich erleichtern, wenn die Codes ebenfalls direkt am Bildschirm eingetragen werden. Dann ist von den Codierern jedoch unbedingt zu verlangen, dass die Codierungen regelmäßig auf einer Sicherheitskopie des Datenträgers gespeichert werden, um unbeabsichtigtem Datenverlust durch versehentliche Löschungen, Überschreiben der aktuellen Version, Festplattenbruch oder Rechnerverlust vorzubeugen. Merksatz Klassischerweise werden die Codierresultate auf Papier fixiert und anschließend in den Rechner eingegeben; eine Verschlüsselung direkt in einer Datei kann jedoch (je nach Untersuchungsanlage) ebenfalls sinnvoll sein. 10.3 Codierung in Datei oder auf Papier? 182 1 0 D I E E R H E B U N G S P H A S E <?page no="182"?> Egal auf welche Art die Datenerfassung erfolgt, in jedem Fall ist dem Codierer ein übersichtliches, gut gegliedertes und leicht ausfüllbares Formular zur Verfügung zu stellen - der Codebogen, manchmal auch Codesheet genannt (oder eine entsprechend aufbereitete Datenmaske, für die die nachfolgenden Bemerkungen genauso gelten). Insgesamt sollte der Codebogen die Logik der Inhaltsanalyse widerspiegeln, also dem vorab definierten Codierablauf (siehe Abb. 6.2) folgen und die Kategorien in der Reihenfolge aufführen, wie sie das Codebuch vorsieht. Aus Kostengründen neigt man zuweilen dazu, Codebögen eher dicht und Platz sparend anzulegen - dies rächt sich nicht selten bei der Codierung und der Dateneingabe. Da der Faktor Druckkosten inzwischen fast vernachlässigbar ist, sollte bei der Gestaltung des Codebogens viel mehr darauf geachtet werden, dass . die einzelnen auszufüllenden Felder tatsächlich genügend Platz für die erforderlichen handschriftlichen Eintragungen lassen (insbesondere bei offenen Kategorien); . die jeweiligen Kategorien nicht mit rätselhaften Kürzeln, sonderst zumindest einem nachvollziehbaren Stichwort verdeutlicht werden; . eine klare Trennung der einzelnen Elemente des Kategoriensystems erfolgt; . am Rand oder in einem Kommentarfeld ausreichend Platz für weitere Anmerkungen, noch zu klärende Fragen oder Diskussionspunkte beim nächsten Codierertreffen bleibt. Beim Anlegen des Codebogens steht man vor der Entscheidung, ob für jede Analyseeinheit ein separater Codebogen vorgesehen werden soll oder nicht. Dafür spricht, dass es sich meist um von ihrer Logik und den anzuwendenden Kategorien her unterschiedliche Codiervorgänge handelt. Dies kann man dem Codierer nochmals dadurch in Erinnerung rufen, indem er - rein technisch - einen neuen Bogen anlegen muss. Außerdem werden bei hierarchischen Zerlegungen die Codierungen für die jeweiligen Analyseeinheiten in unterschiedliche Dateien eingegeben und erst später wieder anhand der Schlüsselcodes zusammengefügt (siehe Abb. 5.2). Eine Zusammenfassung unterschiedlicher Analyseeinheiten auf demselben Codebogen bietet sich hingegen an, wenn jeweils nur wenige Informationen erhoben werden sollen - dann macht eine Erhebung in Listenform die Codierung sogar übersichtlicher. In jedem Fall ist für jede Inhaltsanalyse ein eigener Codebogen zu entwickeln, der optimal auf die jeweiligen Anforderungen des Instruments angepasst ist; die Verwendung einfacher Tabellenraster ohne spezifische Erläuterung empfiehlt sich erfahrungsgemäß nicht. Abb. 10.3 zeigt exemplarisch, wie ein Codebogen für die in Kapitel 7 bis 9 vorgestellten Kategorien zur Berichterstattung über die Wiedervereinigung aussehen könnte, der für jeden Beitrag auch die aufgefundenen Aussagen erfasst. Kriterien zur Gestaltung des Codebogens 183 C O D E B O G E N U N D D A T E N E R H E B U N G <?page no="183"?> Es ist fast überflüssig zu erwähnen, dass die Codierer beim Ausfüllen dazu angehalten werden müssen, klar und deutlich zu schreiben, gerade die offenen Kategorien in Druckschrift auszufüllen und bei Korrekturen nicht einfach darüber zu schreiben, sondern den ursprünglichen Eintrag erkennbar zu tilgen, um Missverständnisse auszuschließen. Je nach Umfang der Auswahleinheit und der Zahl an Kategorien kann bei einer Inhaltsanalyse schnell eine enorme Datenmenge zusammenkommen - Auswertungen mit über 10.000 Fällen und mehr als einer Million einzelner Codes sind bei größeren Projekten keine Seltenheit. Dann sollte auch darüber nachgedacht werden, papierne Codebögen so anzulegen, dass sie maschinenlesbar sind und technisch erfasst werden können, wie dies bei Fragbögen in der Meinungsforschung schon lange üblich ist. Im Regelfall wird man jedoch auf menschliche Arbeitskraft bei der Dateneingabe zurückgreifen, und dabei sind wieder zwei Optionen abzuwägen: . Beschäftigt man spezielle Personen eigens für die Datenerfassung, so ist dies meist die effektivste und kostengünstigste Variante. Schon Abb. 10.3 Beispiel für einen Codebogen (handschriftliches Ausfüllen auf Papier) CODEBOGEN: INHALTSANALYSE WIEDERVEREINIGUNG Codierer: Medium Datum Analyseeinheit: Beitrag lfd. Nr. Umfang Platzierung Ressort Format Genre Hauptthema Nebenthema Ereignisort Bezugsort Akteure 1-4 Aktualitätsbezug Valenz Analyseeinheit: Aussage lfd. Nr. Gegenstand Bewertung Urheber Aussageobjekt lfd. Nr. Gegenstand Bewertung Urheber Aussageobjekt lfd. Nr. Gegenstand Bewertung Urheber Aussageobjekt (...) maschinelle versus manuelle Erfassung 184 1 0 D I E E R H E B U N G S P H A S E <?page no="184"?> nach kurzer Zeit haben diese Personen so viel Routine in dieser Tätigkeit erlangt, dass sie die Codebögen konkurrenzlos schnell eingeben - allerdings müssen die Zettel dementsprechend unmissverständlich ausgefüllt sein. . Verwendet man hingegen die Codierer auch zur Datenerfassung, so dauert dies insgesamt zwar etwas länger, aber die Kenntnis der eigenen Handschrift ist bei der Eingabe der eigenen Bogen zuweilen von Vorteil, und oft ergeben sich bei dieser Gelegenheit noch letzte Klärungen oder Korrekturen. Zur Erfassung können die gängigen Tabellenkalkulationsprogramme (z. B. MSExcel) herangezogen werden, da die Auswertungssoftware (wie z. B. das Programm SPSS) üblicherweise über Schnittstellen verfügt, mit denen die entsprechenden Datenformate importiert werden können. Merksatz Die Überführung der Codierungen in einen Datensatz ist eine zeitraubende mechanische Tätigkeit, die sich leider nur selten maschinell erledigen lässt. Durch eine routineartige, massenhafte Tätigkeit wie dem Eintippen von Zahlenkolonnen in einen Rechner entsteht eine zusätzliche Fehlerquelle, denn selbst bei sorgfältiger Eingabe lassen sich einzelne Tippfehler und Zahlendreher nicht verhindern. Selbst wenn es gelingen sollte, solche Fehleingaben auf ein Promille aller Codes (also einen Fehler bei 1.000 Ziffern) zu reduzieren - bei großen Datensätzen bedeutet dies trotzdem noch 1.000 und mehr Fehler. Der Ratschlag, alle Daten zweimal einzugeben, dann die beiden Datensätze maschinell zu vergleichen und nur die Abweichungen zu überprüfen, ist plausibel, denn es wäre schon ein enormer Zufall, wenn bei so vielen Zahlen zweimal derselbe Tippfehler entsteht. Allerdings übersteigt der damit verbundene Aufwand in den meisten Fällen die finanziellen Möglichkeiten eines Projekts. Ähnliches gilt für die Lösung, die Eingabe jeweils von zwei Personen vornehmen zu lassen, von denen eine die Codierung vorliest, die andere die Werte am Rechner eintippt. Diese Vorgehensweise ist zwar deutlich schneller, als wenn eine Person gleichzeitig abliest und eingibt, aber nicht doppelt so schnell (und nur dann wäre es effektiv, da ja zwei Personen beteiligt sind und im Zweifelsfall bezahlt werden müssen). Ob die Datenqualität aufgrund der Arbeitsteilung besser ist, wäre im Einzelfall zu prüfen. Fehler bei der Dateneingabe 185 C O D E B O G E N U N D D A T E N E R H E B U N G <?page no="185"?> In jedem Fall sind Fehler in den Daten nach der Eingabe, und zwar egal, ob zunächst auf Papier oder gleich in eine Datenmaske am Computer codiert wurde, möglichst weitgehend zu eliminieren - ein Vorgang, der sich »Datenbereinigung« nennt, sorgfältig ausgeführt werden muss und dessen Dauer von der Qualität der Eingabe abhängt. Eine bestimmte Art von Fehlern lässt sich damit relativ problemlos ermitteln, nämlich die »unmöglichen« Codes: Wenn bei der Dateneingabe aus Versehen eine Zahl eingetippt wurde, die es laut Codebuch gar nicht geben darf, lässt sich dies durch eine simple Auszählung der Werte leicht feststellen und anhand des Codebogens oder einer Inspektion des Originalmaterials korrigieren. Ein häufig anzutreffender Fehler ist dabei, dass bei der Eingabe ein einzelner Wert vergessen wurde und so alle anderen Codes eine Spalte zu weit nach links gerutscht sind; mit der Korrektur dieses Fehlers werden dann gleich eine ganze Reihe von Fehleingaben beseitigt. Ist allerdings schon im Codebogen ein unmöglicher Code notiert, handelt es sich nicht um einen Eingabe-, sondern um einen Codierfehler. Der wiederum kann freilich nur unter Rückgriff auf das jeweilige Material bereinigt werden. Eine andere Art von Fehler lässt sich im Nachhinein hingegen überhaupt nicht mehr korrigieren: wenn ein falscher, aber laut Codebuch möglicher Code vergeben oder eingegeben wurde. Solange sich dies nicht durch die Kombination unterschiedlicher Merkmale aufdecken lässt, bei der »unmögliche Kombinationen« zu Tage treten (Konsistenzprüfung), bleiben diese Fehler dem Forscher bei der Betrachtung des Datensatzes in aller Regel verborgen. Da sie aber die Qualität der Erhebung erheblich beeinträchtigen können, sind stichprobenartige Kontrollen von Codierung und Eingabe geboten, um festzustellen, mit welcher Sorgfalt diese Arbeitsschritte durchgeführt wurden. Merksatz Während der Feldphase empfiehlt es sich, die von den einzelnen Mitarbeitern erzielte Qualität bei Codierung und Dateneingabe durch stichprobenartige Kontrollen zu prüfen. Datenbereinigung 186 1 0 D I E E R H E B U N G S P H A S E <?page no="186"?> Fallbeispiel: Politische Kommunikation VIII Nach der langen und aufwändigen Detailarbeit an Kategorien und Definitionen lag endlich ein fertiges Arbeitsinstrument vor, das den Praxistest erwartete. Vor der Probecodierung musste nun der Ablauf des Pre-Tests geplant und vor allem das Codiererteam intensiv geschult werden. Diese Schulung ist ein bedeutender Arbeitsschritt innerhalb der Inhaltsanalyse, der sichern soll, dass alle Codierer das Codebuch gleich anwenden. Die Schulung der sieben studentischen Codierer erfolgte in 15 Sitzungen und verlief dabei in vier Phasen. Die erste - eher organisatorische - Phase beinhaltete eine Einführung in das Codebuch und die Datenbank ARTICLe sowie die Planung des zeitlichen Rahmens. Es war wichtig, dass die Codierer sich selbst mit dem Codebuch und der Datenbank vertraut machten: Wo ist etwas zu finden? Wo steht was? Wie zeige ich, dass ein Artikel nicht relevant ist? In der zweiten Phase wurden die formalen Kategorien geschult: Anhand von Beispielen wurde den Codieren verdeutlicht, wie die Codierung verschiedener Kategorien erfolgen soll. Geklärt wurde beispielsweise, was der Unterschied zwischen einem Hyperlink und einem Verweis ist. Dabei zeigte sich erneut, wie zentral das Zugriffskriterium für die Codierung ist - was wird codiert und was nicht? Das Bewusstsein der Codierer für diese wichtige Entscheidung sollte nach dieser Phase entsprechend geschärft sein. Die inhaltlichen Kategorien wurden in der dritten Phase erläutert. Das Hauptaugenmerk der Schulung lag dabei auf Kategorien, die sehr komplex bzw. umfänglich waren, z. B. das Thema oder der Tenor des Beitrags. Die Besprechung dieser Punkte erfolgte sehr differenziert. In der vierten Phase wurden die Codierer aufgefordert, Beiträge allein zu codieren und sich die dabei aufkommenden Fragen und Probleme zu notieren. Diese wurden dann in gemeinsamen Sitzungen diskutiert und ausgewertet. Der Austausch mit den anderen Codierern und den Forschern trug stark zur Entwicklung eines gemeinsamen Verständnisses des Codebuchs und seiner Kategorien unter den Codierern bei. Nachdem die Codiererschulung anhand von Beispielartikeln abgeschlossen war, konnte das Untersuchungsmaterial für den Pre-Test bestimmt werden. In dessen Verlauf codierten alle Mitarbeiter Artikel aus unterschiedlichen Medien, sowohl online als auch offline, TV als auch Print. Dafür wurden Beiträge unterschiedlicher Länge und Schwierigkeit einbezogen, beispielsweise Artikel aus der FAZ und aus der B ILD . Abweichungen zwischen den einzelnen Codierergebnissen, Probleme bei der Codierung und unklare Kategorienbeschreibungen wurden in der Forschergruppe thematisiert und diskutiert. Sofern notwendig wurden Pre-Test Codiererschulung 187 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N V I I I <?page no="187"?> daraufhin die Beschreibungen der Kategorien im Codebuch vertieft und angepasst. Übungsfragen 1 Welche zwei Ziele verfolgt die Codiererschulung? 2 Ist die folgende Aussage richtig oder falsch? Das zur Codiererschulung verwendete Codiermaterial ist immer ein Teil der Stichprobe, um mit möglichst realistischem Material zu arbeiten. 3 Es gibt zwei Möglichkeiten, Codierresultate festzuhalten und zu dokumentieren. Nennen Sie diese! Welche der beiden Möglichkeiten wird häufiger angewendet und warum? 188 1 0 D I E E R H E B U N G S P H A S E <?page no="188"?> Die Digitalisierung: Automatisierte Inhaltsanalyse Inhalt 11.1 Die Analyse von Daten im Internet 11.2 Inhaltanalyse und Big Data 11.3 Die automatisierte Inhaltsanalyse 11.4 Die halbautomatisierte Inhaltsanalyse In den vergangenen Jahren haben inhaltsanalytische Verfahren, die auf die Unterstützung durch einen Computer zurückgreifen, an Bedeutung gewonnen. Die gigantischen Datenmengen, die das Internet auf Webseiten, in Blogs und den Social Media oder Diensten wie Twitter permanent zur Verfügung stellt (»Big Data«), lassen sich oft nur durch automatisierte Verfahren effektiv auswerten. Dieses Kapitel geht auf die Voraussetzungen, Einsatzmöglichkeiten und Probleme entsprechender inhaltsanalytischer Verfahren ein. Die Analyse von Daten im Internet Um Datenmengen im Internet analysieren zu können, muss zunächst das eigentliche Erkenntnisinteresse festgelegt werden, woraufhin das Untersuchungsmaterial näher eingegrenzt werden kann. Je nach Art des Erkenntnisinteresses wird dann die Verfahrensweise bestimmt. Beispielsweise würde man zur Auswertung von Argumentationsstrategien eine klassische Inhaltsanalyse anwenden und dazu Teilbereiche der Webseite, z. B. Beiträge oder Abbildungen, untersuchen. Die klassische Inhaltsanalyse erfasst aber nur einen Ausschnitt der Webseite. Ein großes Manko ist, dass sie die medientechnischen Qualitäten von Online- Präsentationen vernachlässigt. Um auch die formale Webseitengestaltung zu erheben, werden sogenannte Strukturanalysen durchgeführt. Diese überprüfen dichotom die Anbzw. Abwesenheit von formalen Gestaltungselementen wie z.B 11 11.1 Strukturanalyse 189 D I E A N A L Y S E V O N D A T E N I M I N T E R N E T D I E A N A L Y S E V O N D A T E N I M I N T E R N E T <?page no="189"?> Abb. 11.1 Schweitzer, Eva Johanna: (2010): Politische Websites als Gegenstand der Online-Inhaltsanalyse, In: Martin Welker/ Carsten Wünsch (Hrsg.): Die Online-Inhaltsanalyse. Köln: von Halem. 44-102. Schweitzer, Eva Johanna (2011): Mediatisierung im Online-Wahlkampf: Befunde einer vergleichenden Inhaltsanalyse deutscher Partei-Websites zu den Wahljahren 2002-2009. In: dies. (Hrsg.): Das Internet im Wahlkampf. Wiesbaden: VS, 267-296. Rußmann, Uta (2016): Webkampagnen im Vergleich von Bundestags- und Europawahlkämpfen. In: Jens Tenscher / Uta Rußmann (Hrsg.): Vergleichende Wahlkampfforschung. Wiesbaden: Springer VS, 55-74. Jurczyk, Pawel / Agichtein, Eugene (2007): Discovering authorities in question answer communities by using link analysis. In: Mário J. Silva et al. (Hrsg.): Proceedings of the 2007 ACM Conference on Information and Knowledge Management. New York: ACM, 919. klassische Inhaltsanalyse Strukturanalyse Linkanalyse Subtypen Bild- und Textcodierung Codierschemata verschiedener Autoren manuell, computergestützt Erkenntnisziel Argumentations- und Selbstdarstellungsstrategie formale Webseiten- Gestaltung Vernetzung zu anderen Webangeboten Analyseeinheit Abbildung, Beitrag, Aussage gesamte Webseite Hyperlinks Codiereinheit Kameraperspektive, Bildhintergrund, Beitragsthema, Urheber, Argumente . . . Strukturelemente der Webseite z. B. dichotome An-/ Abwesenheit, skalenbasierte Ausprägungsintensität Zahl der Links, Platzierung, Funktionstüchtigkeit, Zielrichtung Vorteile inhaltliche Präzision, leichte Durchführbarkeit, Anschlussfähigkeit zu Offline-Inhaltsanalysen Berücksichtigung der medientechnischen Webseiten- Qualitäten, systematische und übersichtliche Quantifizierung der formalen Webseiten-Leistung leichte Durchführbarkeit, große Stichprobenumfänge möglich, Aufschluss über die Gesamteinbettung der Webseite Nachteile ausschnitthafte Webseiten-Betrachtung, begrenzte Stichprobe, Vernachlässigung der medientechnischen Webseiten- Qualitäten keine Aussage über Inhalte, hoher Dokumentationsaufwand für transparente Ableitung und Operationalisierung, widerstreitende Klassifikationsschemata erschweren den Vergleich der Befunde begrenzter Erkenntniswert: keine inhaltlichen oder formalen Aussagen über die Webseite möglich, zugrundeliegende Motivation des Links kann ohne Zusatzerhebung nicht ermittelt werden Beispielstudien Schweitzer (2011) Rußmann (2016) Jurczyk/ Agichtein (2007) 190 1 1 D I E D I G I T A L I S I E R U N G <?page no="190"?> Suchfunktion und Bildwahl. Das Ziel einer Strukturanalyse liegt darin herauszufinden, wie der gattungsspezifische Online-Repräsentationsstil des Kommunikators ist. Denn der Aufbau einer Webseite wird als individuelles, ausdifferenziertes Set an Elementen verstanden, das von Kommunikator zu Kommunikator verschieden ist. In diesem Zusammenhang wird die gesamte technische Grundausstattung des Internetauftritts beleuchtet und auf Professionalität, Funktionalität und Qualität untersucht. Es ist auf Basis einer Strukturanalyse aber nicht möglich, Aussagen über den Inhalt zu machen - dieser spielt hier keine Rolle. Zudem gibt es keine einheitlichen Analysevorgaben für die formale Gestaltung von Webseiten, was zum einen zur Folge hat, dass jeder Schritt sorgsam dokumentiert werden muss, um später alles nachvollziehen zu können. Und zum anderen ist meist keine Vergleichbarkeit mit anderen Studien gegeben. Zur Untersuchung der technischen Verknüpfung verschiedener Webseiten wird die Linkanalyse eingesetzt. Diese erfasst Hyperlinks auf einer Webseite hinsichtlich deren Anzahl, Platzierung, Funktion und Zielrichtung. Allerdings kann ein Link mehrere Zwecke erfüllen - beispielsweise den Bekanntheitsgrad der Webseite zu erhöhen oder Hinweise auf weitere Informationen zu geben. Diese Information kann durch eine reine Linkanalyse nicht erschlossen werden und erfordert eine Zusatzerhebung. Ein großer Vorteil einer Linkanalyse ist es, dass sie die Webseite in ihrem Kontext betrachtet womit sichtbar wird, wie die Online-Präsenz vernetzt ist (siehe Abb. 11.1). gesellscha lich Big Data- Herausforderungen Datenschutz ethische Fragen Abb. 11.2 Zeller, Frauke (2014): Online-Forschung und Big Data. In: Martin Welker et al. (Hrsg.): Handbuch Online- Forschung. Köln: von Halem, 424-451. Linkanalyse 191 D I E A N A L Y S E V O N D A T E N I M I N T E R N E T <?page no="191"?> Die Kombination aus Struktur-und Linkanalyse erlaubt eine formale Beschreibung von Präsentationsstilen. Dabei wird der Aufbau einer einzelnen Webseite mit dem von verlinkten Webseiten verknüpft. Dies nennt man Web Sphere-Analyse. Auf diese Weise können themen- oder ereignisorientierte Stichproben gebildet werden. Nachteilig wirkt sich dabei die Pfadabhängigkeit der Stichprobe aus; außerdem fehlt die inhaltliche Verknüpfung, die eine klassische Inhaltsanalyse erlaubt. Die Webstyle-Analyse, welche alle drei Verfahren kombiniert, kann solche Aussagen treffen; klassische Inhalts-, Struktur- und Linkanalyse erlauben gemeinsam Aussagen über die Präsentationsstile einzelner Kommunikatoren. Die Webstyle-Analyse ist allerdings ein sehr aufwendiges Verfahren, welches oft mit einer groben Inhalts-und Strukturcodierung einhergeht. Beispiel Twitter- Communities Das soziale Netzwerk Twitter wird von ca. 313 Mio. Menschen weltweit genutzt, die sich unter anderem über verschiedene Themen austauschen. 2013 kam es unter dem Hashtag #aufschrei zu einer Sexismusdebatte im Netzwerk Twitter, bei der auch von sexuellen Übergriffen berichtet und über Frauenfeindlichkeit diskutiert wurde. Darüber, wie die Struktur der Follower zwischen Nutzern zum Hashtag #aufschrei aussieht, wurde eine Inhaltsanalyse durchgeführt. In einem fünfstufigen Forschungsprozess werden (1) Mitteilungen zum Themenbereich gesammelt, (2) Informationen zu den AutorInnen der Tweets und ihren Followern erhoben, (3) Followernetzwerke konstruiert und Clusteranalysen durchgeführt, (4) gefundene Cluster durch eine Inhaltsanalyse der Nutzerprofile beschrieben und (5) weitere Analysen zu Zusammenhängen zwischen Netzwerkstruktur und Kommunikationsdynamik durchgeführt. Es wurden acht größere Communities gefunden, die zwischen 146 und 2.114 NutzerInnen umfassen. Dazu zählen politische, geografische und mediatisierte Communities. Zudem konnte festgestellt werden, dass sich verschiedene Gemeinschaften unterschiedlich zum Thema äußerten: Die feministische Community schilderte häufig persönliche Erfahrungen, wohingegen die Community SPD/ Grüne eher die Relevanz des Sexismusproblems in den Vordergrund stellte. Literatur: Maireder, Axel/ Schlögl, Stephan (2015): Twitter-Öffentlichkeiten. Identifikation und Interpretation der Strukturen von Follower- Netzwerken. In: Martin Emmer/ Christina Schumann/ Monika Taddicken/ Martin Welker (Hrsg.): Digitale Methoden in der Kommunikationswissenschaft. Berlin: Institut für Publizistik- und Kommunikationswissenschaft, S. 115 - 139. kombinierte Verfahren 192 1 1 D I E D I G I T A L I S I E R U N G <?page no="192"?> Inhaltanalyse und Big Data Der Begriff Big Data bezeichnet Datenmengen, die aufgrund ihrer Größe, Schnelllebigkeit und Komplexität schwer zu erfassen sind. Darunter fallen beispielsweise viele Daten zu Inhalten und Nutzung des Internets, Angaben aus der Statistik, Markt- und Meinungsforschung oder Mikrosensorergebnisse über Standort, Bewegung, Vibration, Temperatur und Feuchtigkeit. Ein Grund dafür ist die Verknüpfung des Lebens mit dem Internet: Smart-TV, Handy, mit dem Internet verbundene Haushaltsgeräte und vieles mehr produzieren eine Unmenge an Daten. Nach Schätzungen des Unabhängigen Landeszentrums für Datenschutz Schleswig-Holstein wurden allein im Jahr 2013 ca. 1,9 Zettabytes Daten durch das Internet produziert (ein Zettabyte entspricht einer Billion Gigabytes). Durch die Nutzung sozialer Netzwerke, z. B. durch das Teilen von Vorstellungen, Meinungen, Gefühlen, Bildern, Musik und Videos; das Erstellen, Kommentieren und Mitverfolgen von Posts; oder das Nachverfolgen von Karrieren wird ebenso eine Unmenge an Daten erzeugt. Die von sozialen Medien generierte Datenmenge wird auch als Big Social Data bezeichnet. Merksatz Die Big-Data-Forschung ist ein weites und spannendes Feld, das primär auf der Zweitverarbeitung automatisch generierter, digitaler Daten beruht. Besonders im Social-Media-Bereich fallen riesige Datenmengen an, die für kommunikationswissenschaftliche Zwecke durch automatisierte Inhaltsanalysen ausgewertet werden können. Dies eröffnet neue Spielräume und Fragestellungen: beispielsweise wer die Verfasser bestimmter Tweets sind, wer diese kommentiert und wer sie weiterverteilt. Es können Meinungsführer und Multiplikatoren identifiziert und auf diese Weise umfassende Diskurse aufgegriffen und analysiert werden. Ebenso ist es möglich, einzelne Unmutsäußerungen oder eine Massenkritik zu bestimmten Produkten oder Personen in Echtzeit zu untersuchen. Darüber hinaus wird der Big-Data-Analyse zugetraut, Vorhersagen zu treffen: Beispielsweise soll durch die Analyse von Google-Suchanfragen der genaue Weg einer Grippewelle prognostiziert werden können. Die Möglichkeiten der Nutzung riesiger Datenmengen sind bislang nur zum Teil erschlossen und erscheinen derzeit grenzenlos. 11.2 Begriffsbestimmung Möglichkeiten einer Big-Data-Analyse 193 I N H A L T A N A L Y S E U N D B I G D A T A <?page no="193"?> Trotz oder gerade wegen dieser vermeintlich grenzenlosen Möglichkeiten bringt die Arbeit mit Big Data einige Probleme mit sich. So verlangt die Big-Data-Forschung oft kostspielige und aufwendige Verfahren, die für Geisteswissenschaftler meist Partnerschaften mit technischen Experten erfordern. Problematisch ist auch, dass das zu untersuchende Material über keinen Index verfügt, weshalb ein vollständiger Überblick über das Material nicht möglich ist und deshalb die Grundgesamtheit nicht identifiziert werden kann (vgl. Kapitel 4.4). Hinzu kommt, dass sich Online- Inhalte häufig im Laufe der Zeit verändern. Vor allem Inhalte von Websites und sozialen Medien sind nicht so trennscharf und stabil wie die in den traditionellen Medien, was sowohl die Auswahl der Analyseeinheit als auch die Stichprobenziehung verkompliziert. Ein weiteres Problem kommt durch die per Definition riesigen Datenmengen zustande, die zu groß sind, um sie auf gebräuchliche Art zu speichern und zu analysieren. Die computerbasierteVerarbeitung muss folglich über die üblichen Standardtools (z. B. SPSS) hinausgehen. Grundsätzlich stellt sich im Social Web die Frage, wie ähnlich oder unähnlich Nutzer ihren online verkörperten Rollen sind. Daher sollten Forscher nicht freimütig Inferenzschlüsse auf Einstellungen und Emotionen des Nutzers ziehen, da lediglich Spuren seines Verhaltens im Internet bekannt sind. Die Diskussion um den Bedeutungszusammenhang zwischen beobachtbaren Daten und dem Nutzer nimmt daher einen wichtigen Stellenwert in der Big-Data-Forschung ein. Außerdem werden oft vergleichsweise oberflächliche Maße als inhaltlich valide angenommen: Beispielsweise setzen Studien regelmäßig Freundschaftsbeziehungen auf Facebook mit tatsächlichen Freundschaften gleich. Deswegen erscheint es immer ratsam, sich den Daten kritisch zu nähern. Insgesamt steht die Big-Data-Forschung aber vor methodischen und gesellschaftlichen Herausforderungen deren Bewältigung durch mangelnde Ressourcen zusätzlich erschwert wird (siehe Abb. 11.2). Literatur Mahrt, Merja/ Scharkow, Michael (2014): Der Wert von Big Data für die Erforschung digitaler Medien. In: Ramon Reichert (Hrsg.): Big Data. Bielefeld: transcript Verlag, 221 - 238. Probleme der Arbeit mit Big-Data 194 1 1 D I E D I G I T A L I S I E R U N G <?page no="194"?> Die automatisierte Inhaltsanalyse Traditionell gibt es zwei Herangehensweisen zur Durchführung von Inhaltsanalysen bei großen Datenmengen: entweder eine Zufallsstichprobe ziehen oder mehr Codierer anheuern. In der Big-Data-Forschung sind diese Verfahren eher unüblich. Häufig werden alle Daten, die technisch und rechtlich erhältlich sind, verwendet. Um diese Daten zu analysieren, werden automatisierte bzw. computergestützte Inhaltsanalysen angewandt. In den vergangenen Jahren haben solche inhaltsanalytische Verfahren, die auf die Unterstützung durch einen Computer zurückgreifen, an Bedeutung gewonnen. Dieser Abschnitt geht auf die Voraussetzungen, Einsatzmöglichkeiten und Probleme ein, die es dabei zu beachten gilt. Merksatz Die automatisierte oder computergestützte Inhaltsanalyse ist ein methodisches Verfahren, bei dem die einzelne Codierentscheidung von einem Computeralgorithmus getroffen wird und nicht vom Forscher oder Codierer. Ein Grund für das verstärkte Interesse an der computergestützten Inhaltsanalyse liegt in der verbesserten Verfügbarkeit computerlesbarer Texte. Viele Bibliotheken digitalisieren ihre Bestände; Printerzeugnisse sind meist auch über Datenbankabfragen oder sehr platzsparend auf Speichermedien wie CD-ROMs verfügbar. Des Weiteren existiert mit dem Internet ein Ort, an dem es mittlerweile eine nahezu unüberschaubare Masse an Material gibt. Ähnlich wie bei der klassischen Form der Inhaltsanalyse werden auch computergestützt bisher fast ausschließlich Texte untersucht. Die Inhaltsanalyse von Bildern (vgl. Kapitel 5.5) rückt zwar langsam ins Blickfeld der Forschung; ob und wann allerdings eine valide computergestützte Bildanalyse möglich ist, scheint genauso fraglich wie der Nutzen einer solchen Technologie. Mehr noch als bei Texten ist das Verständnis eines Bildes vom Vorwissen und der Interpretation des Betrachters abhängig. Und wir haben gesehen, wie schwierig bereits die Bedeutung einer einzelnen Aussage inhaltsanalytisch zu erfassen sein kann. Die technischen Fortschritte, die die automatische Bildanalyse vorangebracht haben, die Grenzen dieser Verfahren und der Umfang der Anwendung derselben, ist nicht Bestandteil dieses Buches. Bei weiterem Interesse empfiehlt sich: 11.3 195 D I E A U T O M A T I S I E R T E I N H A L T S A N A L Y S E <?page no="195"?> Literatur Geise, Stephanie/ Rössler, Patrick/ Kruschinski, Simon (2016): Automatisierte Analyse medialer Bildinhalte. Potenziale, Grenzen, methodisch-technischer Status Quo und zukünftige Herausforderungen - eine Bestandsaufnahme. In: Medien- & Kommunikationswissenschaft, 64(2), 244 - 269. Grundsätzlich gibt es zwei verschiedene Verfahrensarten (voll)automatisierter Inhaltsanalysen: das unüberwachte und das überwachte Vorgehen. Für die unüberwachten Verfahren sind keine aufwendigen und kostenintensiven Regelspezifikationen notwendig. In der Regel wird lediglich nach Worthäufigkeiten gesucht, was vollautomatisch und deswegen mit einem geringen Aufwand abläuft. Unüberwachte Verfahren können sowohl für deskriptive als auch für explorative Arbeiten angewandt werden. Bei den überwachten Verfahren hingegen ist es (analog zur klassischen Inhaltsanalyse) notwendig, vor der Codierung Regeln festzulegen, anhand derer die Software codiert. Entweder gibt der Forscher der Software explizite Regeln und Beispiele vor, nach denen sie entscheidet, oder die Software ist in der Lage, aus »Fehlern« zu lernen und verbessert sich im Codierprozess selbst. Alle unüberwachten Verfahren der automatisierten Inhaltsanalyse gehören dem sogenannten Bag-of-Words-Ansatz an, der rein wortbasiert vorgeht. Die Textstatistik ist beispielsweise ein deskriptives unüberwachtes Verfahren, bei dem einzelne Wörter ausgezählt werden. Hier untersucht man Fragestellungen, die sich durch ein Wort operationalisieren lassen (beispielsweise indiziert das Wort »Skandal« eine negative Berichterstattung). Anhand von Worthäufigkeiten lassen sich Zusammenhänge mit Abb. 11.3 Verfahrensarten automatisierter Inhaltsanalysen nach Michael Scharkow (2010): Lesen und lesen lassen. Zum State of the Art automatischer Textanalyse. In: Martin Welker/ Carsten Wünsch (Hrsg.): Die Online- Inhaltsanalyse. Köln: von Halem, 340-364. unüberwachte Verfahren überwachte Verfahren deskriptiv explorativ deduktiv (explizite Regeln) induktiv (lernende Software) Bag-of- Words- Ansätze Textstatistik, Stilometrie Co-Occurrence, Dokument Clustering diktionärbasierte Verfahren überwachte Klassifikation syntaktischsemantische Ansätze regelbasierte Verfahren, Keywordin-context induktive Informationsextraktion unüberwachte Verfahren 196 1 1 D I E D I G I T A L I S I E R U N G <?page no="196"?> dem Genre, dem Medium, der journalistischen Arbeitsweise, der Beitragslänge oder der Lesbarkeit aufzeigen. Eine theoretisch komplexere Erklärung leisten solche Daten zumeist nicht, weshalb dieses Verfahren bevorzugt bei der Medienresonanzanalyse zum Einsatz kommt, wenn nämlich untersucht wird, wie häufig bestimmte Wörter (wie z. B. Unternehmens- oder Markennamen) überhaupt in der Medienberichterstattung vorkommen. Im Gegensatz zum manuellen Auszählen ist der Gewinn an Zeit und Genauigkeit enorm. Die Stilometrie kombiniert zahlreiche textstatistische Parameter der Autorenschaftsforschung mit der reinen Auszählung von Wörtern. Zu diesen Parametern zählen beispielsweise Häufigkeiten von Füllwörtern, Wort- und Satzlänge, Anzahl von Satz- und Sonderzeichen, Buchstabenkombinationen oder die Anzahl bestimmter Wendungen. Die Stilometrie lässt damit beispielsweise Inferenzschlüsse auf die Epoche und den Autor zu. Zwei explorative unüberwachte Verfahren sind die Co-Occurrence- Analyse und das Document-Clustering. Bei der Co-Occurrence-Analyse kann die syntaktische Vielfalt eines Textes analysiert werden, indem räumlich nah beieinanderstehende Wörter als semantisches Konstrukt betrachtet werden. Dies ermöglicht einen schnellen Überblick über eine potenziell unüberschaubare Datenmenge. Das Document-Clustering ist ein ebenso hilfreiches Verfahren, das einander ähnliche Dokumente über eine Dokument-Term-Matrix gruppiert. Vor allem Suchmaschinen und Online-Verzeichnisse arbeiten mit diesem Verfahren, da auf diese Weise eine große Anzahl von Dokumenten sinnvoll strukturiert werden kann. Allerdings können auf Basis dieser Analysen keine inhaltlichen Aussagen über das zu untersuchende Material gemacht werden. Allgemein ist bei Bag-of-Words-Ansätzen Vorsicht bei mehrdeutigen Begriffen (sog. Homonymen) geboten, die im Rahmen einer weitergehenden Analyse in bestimmte Kategorien eingeordnet werden sollen. Denn nicht jedes Wort hat bekanntlich immer die gleiche Bedeutung: So kann der Begriff »Ente« entweder für das Tier, für eine umgangssprachliche Bezeichnung für einen Autotyp oder aber auch für eine Falschmeldung in einer Zeitung stehen. Der Computer erkennt lediglich die richtige Anordnung der Buchstaben - welche Bedeutung und Bewertung dem Wort allerdings im spezifischen Sprachgebrauch zugewiesen wird, kann erst durch eine genauere Betrachtung der Textumgebung ermittelt werden. Zu den überwachten Bag-of-Words-Ansätzen zählen unter anderem die diktionärbasierten Verfahren. Diesen deduktiven Verfahren liegt ein vom Forscher entwickeltes Kategoriensystem zugrunde, in dem jedes Wort bzw. jeder Wortstamm einer Klasse zugeordnet wird, die als Indikator für das im Forschungsinteresse stehende Konstrukt dient. Häufig überwachte Verfahren 197 D I E A U T O M A T I S I E R T E I N H A L T S A N A L Y S E <?page no="197"?> werden die Texte vor der eigentlichen Analyse bearbeitet: Gebeugte Wörter werden durch ihre Grundform ersetzt (Lemmatisierung), das heißt »lief«, »läuft« und »gelaufen« würden beispielsweise zu »laufen«. Durch diese Vorbehandlung kann der Umfang des Wörterbuchs erheblich reduziert werden. Allerdings besteht die Möglichkeit, dass die Aussagen des Textes verfälscht und verkürzt werden, was insbesondere bei der Untersuchung komplexer Texte mit vielen impliziten Aussagen eine Gefahr für die Gültigkeit der Messung darstellt. Durch die Software können dann die entsprechenden Texte anhand der Wortstämme analysiert und klassifiziert werden. Die Validität dieser Verfahren ist allerdings zusätzlich noch durch Rechtschreibfehler, Synonyme (sinnverwandte Wörter wie Metzger und Fleischer) und Homonyme eingeschränkt. Es gibt etwa unzählige Möglichkeiten das Wort »interessant« falsch zu schreiben - ein Problem, das vor allem bei Internet-Inhalten bedeutsam wird, die im Gegensatz zu gedruckten (und meist nachgeprüften) Texten ohne großen Aufwand von jedermann veröffentlicht werden können. Es ist sicher vorteilhaft, das Umfeld der Textautoren zu berücksichtigen. Texte aus dem Feuilleton großer Tageszeitungen unterliegen einer anderen Ausdrucksweise als die Beiträge jugendlicher Mitglieder auf Social- Media-Plattformen und beide bedürfen vor einer Analyse der Konzeption unterschiedlicher Wörterbücher. Bei der überwachten Klassifikation gibt der Forscher grobe Richtlinien und Beispiele für die Codierung vor. Grund für dieses induktive Vorgehen ist, dass komplexe sprachliche Inhalte schwer in allgemeingültige Codierregeln übersetzt werden können. Die Software arbeitet deshalb mit Klassifikatoren, d. h. »dass ein Algorithmus mit einigen Texten und deren konkreter Codierung trainiert wird und daraus mit statistischen Verfahren ein ›probabilistisches Diktionär‹ entwickelt« (Scharkow 2012, S. 89). Zu den syntaktisch-semantischen Ansätzen der automatisierten Inhaltsanalyse zählen beispielsweise regelbasierte Verfahren und die induktive Informationsextraktion. Ziel dieser Ansätze ist es, eine Beziehung zwischen semantischen Einheiten herzustellen und diese zu analysieren. Regelbasierte Verfahren gehen dabei deduktiv vor, d. h. natürlichsprachliche Sätze oder Aussagen sollen beispielsweise anhand einer festen Subjekt-Prädikat-Objekt-Regel auf ihren syntaktischen und semantischen Gehalt hin analysiert werden. Nach diesem speziellen Verfahren ist das erste kleingeschriebene Wort im Satz das Prädikat, alles davor das Subjekt und alles danach das Objekt. Bei der Keyword-in-context- Methode werden vor- und nachgelagerte Wörter bei der Kategorisierung mitberücksichtigt. Diese erfolgt entweder per Hand oder durch festgelegte Algorithmen und Handlungsvorschriften, für die die jeweiligen Begrifflichkeiten definiert und ihre Verarbeitung in den 198 1 1 D I E D I G I T A L I S I E R U N G <?page no="198"?> unterschiedlichen Fällen geklärt werden muss. Ein ebenfalls syntaktischsemantischer Ansatz ist die induktive Informationsextraktion. Bei diesem Verfahren soll die Software über die Verknüpfung von Rohtext und Beispielen ein wahrscheinliches Regelwerk generieren, welches auf uncodierte Texte angewandt werden kann. Während dieses Vorgehen schon menschlichen Codierern schwerfällt, ist es noch anspruchsvoller, der Software per Beispiel zu lehren, worin die relevanten Aussagen eines Satzes bestehen. Literatur Scharkow, Michael (2012): Automatische Inhaltsanalyse und maschinelles Lernen. Berlin: epubli, Kapitel 3. In der Kommunikationswissenschaft stellt sich häufig die Frage nach der Sinnhaftigkeit automatisierter Verfahren. Gerade eine syntaktischsemantische Analyse von Aussagen bedarf verstärkter Interpretation und ist daher schwerer zu automatisieren. Auch die Frage nach der Validität ist nicht zu vernachlässigen, während die Reliabilität durch die algorithmische Vorgehensweise in der Regel optimal gewährleistet ist. Beispiel Nutzen von automatisierten Inhaltsanalysen Graaf und van der Vossen verglichen 2013 in einer englischsprachigen Studie die automatisierte und die manuelle Inhaltsanalyse hinsichtlich deren Zeitaufwand und deren Güte. Die automatisierte Inhaltsanalyse erwies sich ab 200 zu codierenden Items als sinnvoll, da die Vorbereitungszeit einer Software mindestens zwei Tage in Anspruch nimmt, während ein Codierer pro Tag ca. 100 Items bearbeiten kann. Der Vergleich der Gütekriterien zeigte, dass bei automatisierten Inhaltsanalysen systematische Verzerrungen auftreten können, da eine Software nicht über die Fähigkeit des logischen Denkens verfügt und sie deshalb Synonyme oder Homonyme falsch interpretiert. Dieses Problem dürfte bei deutschsprachigen Analysen noch gravierender ausfallen. Außerdem verlangte die automatisierte Inhaltsanalyse vor und nach der Codierung eine Interpretation: Beispielsweise musste der Forscher der Software vor der eigentlichen Analyse forschungsrelevante Wörter nennen, welche stark vom Erkenntnisinteresse beeinflusst waren. Zudem sind computerbasierte Analysen nur mit elektronischen Daten möglich - Handschriften, Fotos, Audios können nicht bearbeitet werden. Sinnhaftigkeit von automatisierten Inhaltsanalysen 199 D I E A U T O M A T I S I E R T E I N H A L T S A N A L Y S E <?page no="199"?> Graaf, Rutger de/ van der Vossen, Robert (2013): Bits versus brains in content analysis. Comparing the advantages and disadvantages of manual and automated methods for content analysis. In: Communications, 38(4), 433-443.. Zurzeit ist eine Software nicht in der Lage, die menschliche Sprache in ihrem Facettenreichtum und ihrer Komplexität zu verstehen, weshalb die Analyse von semantischen Aussagen durch eine automatisierte Inhaltsanalyse nicht möglich ist. Die automatisierte Inhaltsanalyse stellt aber ein probates Mittel dar, um deskriptive Aussagen zu treffen. Außerdem ist sie zur Erweiterung, Überprüfung und Exploration von manuellen Inhaltsanalysen sehr gut einsetzbar. Bis bei einer computergestützten Inhaltsanalyse zufriedenstellende und umfassende Ergebnisse erzielt werden, muss oft viel Zeit und Arbeit investiert werden, da aus (derzeitigem) Mangel an allgemein geeigneter Software und universell einsetzbaren Wörterbüchern für jedes Projekt eine individuelle Lösung gefunden werden muss. Es ist daher abzuwägen, ob sich der erhöhte Aufwand für die Erstellung eines Codebuchs bei der automatisierten gegenüber der manuellen Inhaltsanalyse lohnt. Merksatz Eine Inhaltsanalyse, die auf den Computer zurückgreift, erspart zwar Zeit bei der Codierung, ist aber bei der Konzeption sehr aufwendig und nicht für jede Untersuchung sinnvoll. Liegt aber eine geeignete Software vor, die so programmiert ist, dass man in Testläufen belastbare Ergebnisse erzielt, können mit Hilfe des Computers große Datenmengen ausgewertet werden, ohne dass man auf menschliche Codierer zurückgreifen muss. Als zusätzliche Vorteile kann man hier ganz klar eine freie Zeiteinteilung und eine erhöhte Reliabilität verbuchen, denn ein Computer codiert im besten Fall 24 Stunden am Tag und wird eine heute getätigte Zuordnung in einem Monat übereinstimmend wiederholen können. Allerdings sollte man bei der Arbeit mit dem Computer immer bedenken, dass dieser nur so gut arbeiten kann wie der Forscher es ihm vorgibt - und dies gilt nicht nur im Fall der Medieninhaltsanalyse. 200 1 1 D I E D I G I T A L I S I E R U N G <?page no="200"?> Die halbautomatisierte Inhaltsanalyse Hinter der halbautomatisierten Inhaltanalyse steckt die Idee, die Vorteile von automatisierter und manueller Inhaltsanalyse zu nutzen, indem beide Verfahren kombiniert werden. Merksatz Die halbautomatisierte Inhaltsanalyse kombiniert die Eigenschaften einer manuellen und einer automatischen Codierung, indem beide Analysen nicht getrennt voneinander, sondern sich gegenseitig stützend und parallel laufen. Dies kann zum Beispiel durch die computergestützte Suche von relevanten Texten in Datenbanken mittels Schlüsselwörtern sein - oder eine Textanalyse im Vorfeld der manuellen Inhaltsanalyse, um den zu untersuchenden Themenbereich abschätzen und eventuell eingrenzen zu können. Eine andere Option ist es, dass beide Analysen parallel laufen und der Computer Texteigenschaften wie Länge oder Anzahl bestimmter Wörter erfasst. Beispiel Kombination von manueller und automatisierter Inhaltsanalyse Für eine Analyse von Twitter-Nachrichten wurden die manuelle und automatisierte Inhaltsanalyse verknüpft. Die Codierung erfolgte über ein interaktives Codesheet, welches dem Codierer beim Klicken auf den Variablennamen die Definition der Variable und das dazugehörige Material präsentierte. Das elektronische Setup half, Codiererfehler zu minimieren, indem es nach der Eingabe den numerischen Wert in die inhaltliche Beschreibung des Codes transkribierte und dem Codierer so die Möglichkeit gab, diesen zu korrigieren. Zudem war es durch die computergestützte Vorgehensweise möglich, die Arbeit der Codierer zu überwachen: Beispielsweise konnte die Intercoderreliabilität durch einfaches copy-and-paste überprüft werden. Letztlich war es auch für die Codierer bequem, da der Übergang zwischen Material und Codeblatt durch das Setup erheblich vereinfacht wurde. Lewis, Seth C./ Zamith, Rodrigo/ Hermida, Alfred (2013): Content Analysis in an Era of Big Data. A Hybrid Approach to Computational and Manual Methods. In: Journal of Broadcasting & Electronic Media, 57(1), 34 - 52. 11.4 201 D I E H A L B A U T O M A T I S I E R T E I N H A L T S A N A L Y S E <?page no="201"?> Auch im studentischen Rahmen gibt es Möglichkeiten, automatisierte bzw. halbautomatisierte Inhaltsanalysen sinnvoll in Arbeiten einzubinden. Zum einen können Text-Datenbanken wie Faktiva automatisierte Inhaltsanalysen im studentischen Rahmen und LexisNexis genutzt werden. Eine zweite Möglichkeit besteht darin, einfache Textanalysen mit Programmen wie Max-Q-Data und Atlas-TI durchzuführen, wenngleich diese eigentlich für qualitative Inhaltsanalysen konzipiert wurden. Außerdem ist das Programm ProSuite von Provalis für die automatisierte Inhaltsanalyse einsetzbar. Fallbeispiel: Politische Kommunikation IX Das Projekt zur politischen Kommunikation hat die Forscher auch dazu bewogen, über ihre methodische Vorgehensweise nachzudenken. Unter dem Begriff der »datenbankgetriebenen Inhaltsanalyse« stellten sie ihr zuvor schon erwähntes ARTICLe-Tool vor, dessen Akronym für »Automatic RSS-Crawling Tool for Internet-Based Content Analysis« steht. Diese Ressource soll nicht nur in der Lage sein, Webseiten zu archivieren und für eine spätere manuelle Inhaltanalyse zur Verfügung zu stellen; vielmehr kann sie durch automatisierte Codiersysteme ergänzt werden. Literatur Maurer, Marcus/ Haßler, Jörg/ Holbach, Thomas (2016): Database-Driven Content Analysis. In: Vowe, Gerhard/ Henn, Philipp (Hrsg.): Political Communication in the Online World. New York: Routledge, 170 - 182. Der primäre Nutzen von ARTICLe liegt freilich in der komfortablen, technisch ausgefeilten Sicherung und Ablage von Online-Inhalten für die spätere Analyse. Als strukturierendes Element dienen dabei die RSS- Feeds, die die Betreiber zur Dokumentation der Veränderungen auf ihrer Website aus dem verwendeten Content-Management-System heraus erzeugen. Das Tool nutzt diese RSS-Feeds als Index und speichert vollautomatisch eine ganze Reihe unterschiedlicher Datenformate: zunächst natürlich die Webseiten im HTML-Format, dann aber auch Screenshots (als.jpgund.pdf-Dateien) und - besonders wichtig - eingebettete Video- und Audioelemente. Für die Studie zur politischen Kommunikation wurden die RSS-Feeds der in der Auswahleinheit definierten Online-Medienanbieter als Steuerelemente verwendet. ARTICLe-Tool 202 1 1 D I E D I G I T A L I S I E R U N G <?page no="202"?> Die Forscher beschreiben die ARTICLe-Nutzung als einen dreistufigen Prozess, an dessen Beginn natürlich das Füllen der Datenbank steht. Basisinformation dafür sind die in den RSS-Feeds enthaltenen Hyperlinks. Darüber hinaus ist es aber bei Multimedia-Elementen und Artikeln, die über mehr als eine Seite gehen, wichtig, eine Schlüsselwortliste zur Durchsuchung des Quellcodes zu erstellen. Die zweite Stufe ist dann die eigentliche Speicherung der Inhalte, die vollautomatisch alle zwei Stunden auf Basis der aktualisierten RSS-Feeds erfolgt und bereits gesicherte Beiträge selbständig erkennt. Die Erschließung der Speicherergebnisse geschieht durch eine Tabelle, während parallel dazu die Veränderungen auf der Startseite durch Screenshots dokumentiert werden. Auf der dritten Stufe wird den Codierern der Zugang zu dem Material über einen zentralen Server eröffnet, sodass sie ortsunabhängig arbeiten können. Gleichzeitig dient das System als Codier-Interface, auf dem parallel die einzelnen Verschlüsselungen festgehalten und Problemfälle zur späteren Klärung markiert werden können. Nach Ansicht der Forscher hat sich ARTICLe als Grundlage für die Codierung von Online-Inhalten bewährt und stellt in seiner Kombination aus Webcrawler und Benutzeroberfläche eine derzeit noch einzigartige Forschungs-Infrastruktur bereit. Info Nähere Informationen zu ARTICLe und dessen Nutzung finden sich unter https: / / article.publizistik.uni-mainz.de/ feeds/ view/ . Es ist zuvor allerdings erforderlich, bei Interesse an der Nutzung des Datenbank-Systems Kontakt mit den Forschern aufzunehmen (http: / / www.polkom.ifp.uni-mainz.de/ team/ marcus-maurer/ ). Übungsfragen 1 Worin bestehen die Probleme bei der Big-Data-Forschung? 2 Was ist eine Webstyle-Analyse? a) eine Kombination aus Link-, Struktur- und klassischer Inhaltsanalyse b) eine Kombination aus Link- und Strukturanalyse c) ein unüberwachtes, exploratives Verfahren der automatisierten Inhaltsanalyse 3 Nennen Sie drei Kombinationsmöglichkeiten von manueller und automatisierter Inhaltsanalyse! 203 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N I X <?page no="204"?> Die Qualitätskontrolle: Reliabilität und Validität Inhalt 12.1 Zur Logik der inhaltsanalytischen Gütekriterien 12.2 Reliabilität der Codierung 12.3 Validität und Inferenzschluss Die Aussagekraft einer Inhaltsanalyse hängt wesentlich von der Sorgfalt ab, mit der die Forschungsfragen in die Untersuchungsanlage übersetzt und das Analyseinstrument angewendet wurde. Dieses Kapitel behandelt einige wichtige Qualitätskriterien und stellt Möglichkeiten vor, wie diese mit Blick auf die eigene Studie ermittelt und dokumentiert werden können. Zur Logik der inhaltsanalytischen Gütekriterien Die bisherigen Kapitel haben erläutert, wie ein inhaltsanalytisches Instrument entwickelt werden kann, das jene Sachverhalte misst, die zur Erhellung unseres Erkenntnisinteresses beitragen sollen. Ob Instrument und Messung nun tatsächlich geeignet sind, Antworten auf die Forschungsfragen zu geben, ist eine Qualitätsfrage. Zwei wichtige Erfolgsmerkmale sind dabei mit den Begriffen Reliabilität (oder: Zuverlässigkeit) und Validität (oder: Gültigkeit) verknüpft. Beides sind auch die wichtigsten Gütekriterien für Inhaltsanalysen (vgl. z. B. Brosius et al. 2015: 51 ff.): . Reliabilität eines Messinstruments heißt Zuverlässigkeit der Messung; bei wiederholter Messung sollte das gleiche Ergebnis erzielt werden. . Validität einer Erhebung bedeutet Gültigkeit der Messung; sie gibt an, ob ein Instrument tatsächlich das misst, was es messen soll. Damit ist klar, dass Validität der übergeordnete Begriff ist, denn er bezieht sich auf die Gültigkeit des gesamten Messvorgangs. Die Reliabilität hingegen betrifft die eigentliche Messprozedur. Merten (1995: 303) 12 12.1 Qualitätskriterien 205 Z U R L O G I K D E R I N H A L T S A N A L Y T I S C H E N G Ü T E K R I T E R I E N Z U R L O G I K D E R I N H A L T S A N A L Y T I S C H E N G Ü T E K R I T E R I E N <?page no="205"?> bezeichnet deswegen die Zuverlässigkeit auch als »interne Gültigkeit«, im Gegensatz zur Validität als »externer Gültigkeit«. Aus Gründen der begrifflichen Klarheit wollen wir aber den Begriff »Gültigkeit« weiterhin für die Validität der Untersuchung verwenden. Der Unterschied zwischen beiden Gütekriterien lässt sich leicht anhand eines Beispiels aus dem Alltag verdeutlichen, im folgenden Fall anhand der Gewichtsmessung. Beispiel Gewichtsmessung Herr Müller kontrolliert jeden Morgen sein Gewicht mit einer Körperwaage. Die Messung ist reliabel, wenn Herr Müller sich zweimal hintereinander wiegt, ohne dass er zwischenzeitlich etwas gegessen oder wieder von sich gegeben hat, und beide Male dasselbe Ergebnis erhält. Dann misst das Instrument (die Waage) sein Körpergewicht zuverlässig und ist reliabel. Andererseits ist denkbar, dass die Waage zwar zuverlässig misst - aber jedes Mal falsch, weil sie nicht korrekt geeicht ist. Durch den Vergleich beispielsweise mit der Waage seines Hausarztes, deren Funktion regelmäßig geprüft wird, kann Herr Müller die Gültigkeit der Messung überprüfen. Aber auch wenn die beiden Waagen übereinstimmend messen, dann ist Validität nur für die Messung seines Gewichts gegeben; wenn er daraus Erkenntnisse etwa über seine Intelligenz ableiten wollte, würde er eine Fehlmessung bezüglich dieses Konstrukts durchführen und keine gültigen Aufschlüsse erhalten. Dieses Beispiel zeigt bereits, dass Zuverlässigkeit und Gültigkeit unterschiedlich schwierig festzustellen sind: Die Zuverlässigkeit kann durch den Vergleich von unterschiedlichen Messungen mit dem fraglichen Instrument bestimmt werden, und das Ausmaß der Abweichung lässt sich ziemlich genau angeben (durch den so genannten Reliabilitätskoeffizienten). Die Gültigkeit hingegen bedarf zum Abgleich einer unabhängigen Messung und darüber hinaus sogar einer inhaltlichen Diskussion - deswegen ist sie deutlich schwerer zu bestimmen und normalerweise nicht zu quantifizieren. In den nachfolgenden beiden Abschnitten wird deswegen zunächst die einfachere Reliabilitätsprüfung erläutert, bevor wir näher auf einige Kriterien eingehen, die für eine Validitätsprüfung bei Inhaltsanalysen verfügbar sind. Bestimmung von Validität und Reliabilität 206 1 2 D I E Q U A L I T Ä T S K O N T R O L L E <?page no="206"?> Merksatz Die Reliabilität einer Inhaltsanalyse lässt sich aus ihr selbst herausfinden und in einem Zahlenwert ausdrücken; ihre Validität bedarf hingegen einer darüber hinausreichenden Argumentation, die die Befunde gemeinsam mit anderen Forschungsergebnissen vor dem Hintergrund der ursprünglichen Forschungsfragen diskutiert. Reliabilität der Codierung Die Reliabilitätsmessung gehört zu den Standardprozeduren im Verlauf einer Inhaltsanalyse. Manche Fachzeitschriften veröffentlichen Studien sogar nur dann, wenn im Manuskript auch Reliabilitätskoeffizienten genannt werden. Der Grund hierfür ist einleuchtend: Alle Definitionen der Inhaltsanalyse legen großen Wert darauf, dass die Methode auf einer intersubjektiv nachvollziehbaren Messung beruht (vgl. Kap. 1.3). Sie nimmt für sich in Anspruch, dass ihre Ergebnisse mit demselben Instrument jederzeit reproduziert werden können, und genau dies testet die Reliabilitätsprüfung. Im Grunde beruht jede Reliabilitätsmessung also auf der Idee einer Messwiederholung anhand desselben Materials. Im Falle der Inhaltsanalyse sagt sie eher indirekt etwas über die Qualität des Instruments aus, auf die aus der Sorgfalt der Codierer bei seiner Anwendung geschlossen wird. Denn wie oben schon verdeutlicht, muss an dieser Stelle mit einer gewissen Reaktivität gerechnet werden (vgl. Kap. 1.3). Diese Reaktivität soll jedoch erstens bei allen Codierern gleich ausfallen. Darüber hinaus soll sie zweitens über die Zeit hinweg stabil bleiben und sich drittens mit der vom Forscher erwarteten Reaktivität decken. Damit sind bereits die drei wichtigsten Typen der Reliabilitätsmessung genannt: 1. Intercoder-Reliabilität: Wie gut stimmen die Codierer bei der Verschlüsselung desselben Materials überein? 2. Intracoder-Reliabilität: Wie gut stimmt die Codierung eines jeden Codierers zu Beginn und am Ende der Feldphase überein? 3. Forscher-Codierer-Reliabilität: Wie gut stimmen die Verschlüsselungen der Codierer mit denen des Forschers überein? Für die Intercoder-Reliabilität sind die Codierungen von jeweils zwei Codierern paarweise miteinander zu vergleichen. Dies geschieht in der Regel im Rahmen des Pre-Tests und dient dem Forscher als Grundlage für die Einschätzung, ob die Schulung ausreichend war, um mit der Feldphase zu beginnen (vgl. Abb. 10.1). Für diese Prüfung gibt es bislang in den 12.2 Typen der Reliabilitätsmessung 207 R E L I A B I L I T Ä T D E R C O D I E R U N G <?page no="207"?> einschlägigen Statistikprogrammen keine Auswertungsprozeduren, weshalb für die Übereinstimmungswerte dort spezielle Routinen zu programmieren sind - oder sie von Hand ausgerechnet werden müssen. Gerade bei längeren Feldphasen empfiehlt es sich, den Reliabilitätstest gegen Ende der Codierarbeiten zu wiederholen. Hieraus lässt sich zunächst entnehmen, ob die Codierer auch nach einer gewissen Zeit noch in ihrem Urteil übereinstimmen, also selbst die Lerneffekte während der Codierung ähnlich ausgefallen sind. Außerdem kann aus dieser Erhebung die Intracoder-Reliabilität berechnet werden, indem man pro Codierer dessen erste mit seinen zweiten Codierungen vergleicht. Schließlich sollte sich der Forscher selbst am Reliabilitätstest beteiligen: Aus dem Ausmaß der Übereinstimmung seiner Codierungen (so genannte »Master-Codierung«) mit denen jedes einzelnen Codierers können die Bereiche erkannt werden, für die ein zusätzlicher Schulungsaufwand erforderlich ist. Diese Forscher-Codierer-Reliabilität wird in Kap. 12.3 noch ausführlicher behandelt, denn sie gilt bereits als ein erstes Indiz für die Validität einer Studie. Abb. 12.1 verdeutlicht nochmals die Vergleichslogiken der verschiedenen Reliabilitätstests. Für die konkrete Durchführung der Reliabilitätstests sind drei Fragen bedeutsam, auf deren Basis entsprechende Festlegungen getroffen werden müssen: 1. Was gilt als Übereinstimmung und was als Abweichung? 2. Wie berechnet sich der Grad der Übereinstimmung? 3. Wie viel Material muss für den Reliabilitätstest bearbeitet werden? Abb. 12.1 Vergleichsprozesse bei Reliabilitätstests t1 t2 Grundfragen bei Reliabilitätstests 208 1 2 D I E Q U A L I T Ä T S K O N T R O L L E <?page no="208"?> Zunächst zur Codiererreliabilität und der (fast schon philosophischen) Abwägung, was im Sinne der Codierung als Übereinstimmung gewertet wird und was nicht. Der einfachste Fall ist schnell beschrieben: Zwei Codierer vermerken denselben Code auf ihrem Codebogen. Ungeachtet dessen, wie die Verschlüsselung zustande kam, würde man dies zweifellos als gewünschte Übereinstimmung im Sinne des Instruments bewerten. Der umgekehrte Extremfall ist ebenso eindeutig - wenn nämlich die beiden vergebenen Codes weit voneinander abweichen, also vollkommen unterschiedliche Ausprägungen einer Kategorie codiert wurden. Dabei handelt es sich um eine Nichtübereinstimmung, die die Reliabilität der Analyse verringert. Problematisch wird es hingegen in jenen Fällen, bei denen die Kategorie eine graduelle Abweichung erlaubt; etwa wenn bei metrischen Skalen fast unbegrenzt viele Werte verfügbar sind, wenn bei Bewertungen mehrere Stufen vorgesehen sind oder bei einer hierarchischen Codierung über- und untergeordnete Ausprägungen möglich sind. Gehen wir diese Fälle im Einzelnen durch: . Beispiel Längenmessung: Beim Zählen der Zeilen eines Artikels oder dem Abstoppen, wie lange ein Fernsehbeitrag dauert, kann es immer zu geringfügigen Abweichungen kommen, die im Sinne des Untersuchungsziels unbedenklich sind. So macht es für die Interpretation der Ergebnisse meist keinen Unterschied, ob die durchschnittliche Länge von Beiträgen auf eine Sekunde genau vorliegt oder nicht. Unter diesen Voraussetzungen kann für die entsprechenden Kategorien auch ein Toleranzintervall definiert werden, innerhalb dessen die Codierungen noch als übereinstimmend gelten - z. B. - 2 Prozent. Dann wären die beiden Längenangaben von 100 und 102 Sekunden für die Bestimmung der Reliabilität übereinstimmend, die Abweichung also zu vernachlässigen. Die Größe des Intervalls ist an die jeweilige Skala anzupassen. Selbstverständlich ist trotzdem auszuschließen, dass ein systematischer Fehler vorliegt (z. B. ein Codierer immer vergisst, die Überschrift mit zu messen oder eine falsch gehende Uhr benutzt). . Beispiel Bewertungscodierung: Wenn bei der in Kap. 9.4 vorgestellten Bewertungsskala auf Aussagenebene Werte von +2, +1, -1 und -2 erreichbar sind, muss bei eventuell auftretenden Abweichungen zwischen zwei Sachverhalten unterschieden werden: Beträgt der Unterschied zwischen beiden Codierungen nur einen Skalenpunkt (also +2 vs. +1/ -1 vs. -2), dann haben beide Codierer die Tendenz der Aussage übereinstimmend erkannt (positiv bzw. negativ), aber ihre Intensität unterschiedlich eingeschätzt. In allen anderen Fällen, also bei Differenzen von zwei bis vier Skalenpunkten, wurde hingegen eine unterschiedliche Grundtendenz erfasst, was deutlich problematischer erscheint und wohl keinesfalls als Übereinstimmung Festlegung der Übereinstimmung 209 R E L I A B I L I T Ä T D E R C O D I E R U N G <?page no="209"?> gewertet werden darf. Ansonsten kann aber - je nach angestrebtem Präzisionsgrad - die Übereinstimmung nur auf die Tendenz bezogen werden (dann wäre eine Abweichung von einem Skalenpunkt tolerabel) oder dieselbe Intensität fordern (dann wäre eine absolute Übereinstimmung notwendig). . Beispiel hierarchische Codierung: Sieht die Kategorie über- und untergeordnete Ausprägungen vor (wie z. B. bei der Themencodierung in Kap. 8.2), sind ebenfalls graduell unterschiedlich gravierende Fehlcodierungen möglich. So hätte ein Codierer, der den Bandenkrieg zwischen verschiedenen Drogenkartellen unter »500 - Kriminalität« verschlüsselt, nur graduell ungenauer codiert als einer, der »560 - Organisierte Kriminalität« verschlüsselt - aber sicherlich nicht »falsch«. Auch hier könnte die Reliabilitätsberechnung vorsehen, dass zwei Codes, von denen einer dem anderen hierarchisch untergeordnet ist, als Übereinstimmung gelten. Ein anderer Weg wäre, für die Reliabilitätsberechnung überhaupt nur die zweitniedrigste Hierarchiestufe heranzuziehen: dann wären auch »520 - Mord, Totschlag« und »560 - Organisierte Kriminalität« übereinstimmend, weil beide der Ausprägung »500 - Kriminalität« untergeordnet sind. All diese Definitionen von Übereinstimmung für graduell abgestufte Kategorien haben jedoch Konsequenzen für die Interpretation der Befunde. Merksatz Ein vollkommen reliables Instrument liegt nur bei vollkommener Übereinstimmung der Codierungen vor. Sobald die Reliabilitätsberechnung Toleranzen vorsieht, muss bei der Interpretation der betreffenden Kategorien berücksichtigt werden, dass möglicherweise eine reduzierte Messgenauigkeit vorliegt. Daraus ergibt sich logisch, dass der Forschungsbericht die jeweils erzielten Reliabilitätswerte für jede Kategorie separat ausweisen muss. Aus Platzgründen findet sich in Publikationen oft nur ein pauschaler Mittelwert - dieser ist jedoch aus zwei Gründen wenig aussagekräftig: Erstens werden dabei formale und inhaltliche Kategorien unzulässigerweise in einen Topf geworfen. Denn während bei simplen Verschlüsselungen wie dem »Medium« oder dem »Erscheinungsdatum« eine hundertprozentige Übereinstimmung fast schon Pflicht ist, stellen bei schwierigeren inhaltlichen Kategorien oft geringere Werte zufrieden. Reliabilitäten sollten also zumindest getrennt für die formalen und für die im jeweiligen Zusammenhang wichtigen inhaltlichen Kategorien differenzierte Darstellung des Reliabilitätswerts 210 1 2 D I E Q U A L I T Ä T S K O N T R O L L E <?page no="210"?> aufgeführt werden. Zweitens macht es auch auch bei inhaltlichen Kategorien ein Unterschied, wie viele Ausprägungen überhaupt zur Wahl standen, worauf am Ende dieses Abschnittes noch ausführlicher eingegangen wird. Merksatz Die Reliabilitätswerte sind detailliert zu dokumentieren; eingeräumte Toleranzen müssen im Einzelfall begründet, hinsichtlich des Erkenntnisziels gerechtfertigt und bei der Interpretation berücksichtigt werden. Ein ähnlich gelagertes Problem betrifft die Identifikation von Analyseeinheiten. Gehen wir wieder vom einfachsten Fall aus: Die Analyseeinheit ist physikalisch definiert und eindeutig erkennbar, z. B. eine Print-Ausgabe des S P I E G E L S . In diesem Fall werden die Codierer alle Kategorien auf die jeweilige Ausgabe anwenden, und ihre Codierungen können mit denen der jeweils anderen Codierer verglichen werden. Der in der Praxis weitaus häufigere Fall ist freilich, dass die Codierer die zu codierende Analyseeinheit erst noch identifizieren müssen (vgl. Kap. 5): Entweder müssen sie die relevanten Artikel aufgrund eines Aufgreifkriteriums aus der Auswahleinheit heraussuchen oder, z. B. bei hierarchisch zerlegten Analyseeinheiten, innerhalb eines Beitrags die codierbaren Aussagen finden. Auch hierfür lässt sich ein Grad der Übereinstimmung feststellen, aber er drückt dann qualitativ eine andere Art von Reliabilität aus als in den bisher beschriebenen Fällen; in Abgrenzung zur Codiererreliabilität von oben könnte man hier von Identifikationsreliabilität sprechen. Sinnvollerweise unterscheidet man beide Formen auch konsequent, denn es erscheint verfehlt, bei einer falschen Identifikation - ein Codierer übersieht eine Analyseeinheit, ein anderer nicht - pauschal alle Kategorien als Nichtübereinstimmung in der Codierung zu werten. Es wurde ja aufgrund eines Folgefehlers bei der Identifikation gar nicht codiert, weshalb dieser Fall im Grunde nichts über die Codierreliabilität aussagt. Wenn die Untersuchungsanlage also von den Codierern das eigenständige Erkennen von Analyseeinheiten verlangt, sollte die Reliabilitätsprüfung zweistufig erfolgen: zuerst durch Berechnung der Identifikationsreliabilität, d. h. der Übereinstimmung bei der Ermittlung der zu bearbeitenden Einheiten, und auf einer zweiten Stufe durch die Berechnung der Codierreliabilität, allerdings nur für die von beiden gemeinsam erkannten Einheiten. Es liegt auf der Hand, dass der erste der beiden Werte mitunter die brisantere Information enthält - denn welche Identifikationsreliabilität zweistufige Reliabilitätsprüfung 211 R E L I A B I L I T Ä T D E R C O D I E R U N G <?page no="211"?> Aussagekraft hat eine in der Codierung sauber durchgeführte Inhaltsanalyse, wenn das ihr zugrunde liegende Material nur sehr unzuverlässig aus dem Medienangebot herausgefiltert wurde? Merksatz Bei der Bestimmung der Zuverlässigkeit ist zwischen den beiden Ebenen der Identifikationsreliabilität und der Codierreliabilität zu unterscheiden. Wenden wir uns nun - nach diesen eher grundsätzlichen Fragen, was überhaupt als Übereinstimmung zu werten ist - der eigentlichen Berechnung des Reliabilitätskoeffizienten zu. Hierfür gibt es in der Fachliteratur eine ganze Reihe von Formeln (vgl. die Übersicht bei Merten 1995: 304 ff.), die unterschiedlich genau die verschiedenen Charakteristika der jeweiligen Untersuchungsanlage berücksichtigen. Trotz einer Reihe von Schwächen weit verbreitet ist das klassische, weil einfach zu ermittelnde Überschneidungsmaß nach Holsti, mit dem man die Zahl übereinstimmender Codierungen zur Gesamtzahl aller Codierungen von zwei Personen in Beziehung setzt. Hierzu wird in der Formel die Zahl der gemeinsamen Codierungen zweier Codierer verdoppelt und anschließend durch die Summe aller von beiden insgesamt vorgenommenen Codierungen geteilt. Die Werte liegen dann als Koeffizient zwischen 0 und 1 oder können als Übereinstimmung zwischen 0 und 100 Prozent ausgedrückt werden. Formel Codierübereinstimmung nach Holsti C R = 2 * C Ü / (C A + C B ) C R = Reliabilitätskoeffizient der Codierung C Ü = Zahl übereinstimmender Codierungen C A = Zahl der Codierungen von Codierer A C B = Zahl der Codierungen von Codierer B Diese Formel muss zum einen für jede einzelne Kategorie und zum anderen für jedes Paar von Codierern angewendet werden. Bei kleineren Studien mit einem übersichtlichen Codebuch und wenigen Codierern lässt sich dies noch gut per Hand erledigen. Bei zahlreichen Kategorien mit unterschiedlichen Toleranzintervallen und einem größeren Codie- Berechnung des Reliabilitätskoeffizienten 212 1 2 D I E Q U A L I T Ä T S K O N T R O L L E <?page no="212"?> rerstab lohnt es sich hingegen, entsprechende Auswertungsroutinen über eine Statistiksoftware zu verwenden - insbesondere wenn der Reliabilitätstest mehrfach durchgeführt werden muss. Dabei ist zu beachten, dass diese Auswertung eine spezielle Datenstruktur erfordert, die sich von den sonst üblichen Auswertungsroutinen unterscheidet und nicht leicht zu erzeugen ist. Als entscheidend für den Aufwand, der mit einem Reliabilitätstest verbunden ist, erweist sich natürlich auch der Umfang des Materials, das für den Test bearbeitet werden muss. Wie wir anhand der Formel gesehen haben, beruht seine Logik auf einem Vergleich zwischen den Entscheidungen jeweils zweier Codierer. Deshalb muss für jede Kategorie eine ausreichend große Zahl von Testcodierungen vorliegen, um das Vergleichsurteil auf einer hinreichenden Basis fällen zu können. Als Mindestwert werden in der Literatur 30 bis 50 Codierungen pro Kategorie angegeben; 200 bis 300 gelten als erstrebenswert (vgl. Früh 2015: 182), sind aber in der Forschungsrealität selten zu erzielen. Der Mindestwert ist allerdings leicht erreichbar: Angenommen, für jeden Artikel im politischen Teil von Tageszeitungen wäre das Thema zu verschlüsseln, so reicht eine Testcodierung von zwei Ausgaben bereits aus, denn erfahrungsgemäß sind pro Zeitungsexemplar im politischen Teil rund 40 Artikel enthalten. Merksatz Das absolute Minimum für die Beurteilung von Codiererübereinstimmungen im Rahmen des Reliabilitätstests sind 30 bis 50 Codierungen innerhalb einer Kategorie; anzustreben sind 200 bis 300 Codierungen. Bei hierarchisch zerlegten Analyseeinheiten ist es durchaus üblich, für die Codierung auf der letzten Stufe (z. B. von einzelnen Aussagen) nur einen Teil des Materials heranzuziehen, das für die übergeordnete Ebene erforderlich ist (also z. B. nur fünf längere Artikel). Freilich sollte bei der Auswahl des Materials nicht nur auf die Zahl der Codierungen, sondern auch auf deren Schwierigkeitsgrad geachtet werden: Im Reliabilitätstest müssen auch Medienangebote enthalten sein, die komplexer strukturiert sind (z. B. längere Hintergrundbeiträge) und bei möglichst vielen Kategorien einschlägige Codierungen erfordern. Denn ein Reliabilitätskoeffizient von 1 (volle Übereinstimmung) ist wenig aussagekräftig, wenn er nur darauf beruht, dass ein bestimmtes Merkmal im Material überhaupt nicht vorkam und die Kategorie gar nicht angewendet werden musste. Material für Reliabilitätstest 213 R E L I A B I L I T Ä T D E R C O D I E R U N G <?page no="213"?> Nachdem (mithilfe der Formel) für je zwei Codierer deren Übereinstimmung bezüglich jeder Kategorie ermittelt wurde, lässt sich das Ergebnis des Reliabilitätstests anschließend in dreierlei Hinsicht darstellen: 1. Nach Kategorien: Mittelwert aller Koeffizienten pro Kategorie (über alle Codiervergleiche). 2. Nach Codierern: Mittelwert aller Koeffizienten für einen Codierer (über alle Kategorien). 3. Als Matrix: Übereinstimmungen nach Kategorien und Codierern. Im ersten Fall - der in der Regel auch bei Publikationen ausgewiesen wird - erhalten wir Angaben über die Zuverlässigkeit, mit der eine Kategorie von den Codierern angewendet wurde. Die Ergebnisse zeigen, an welcher Kategorie vielleicht noch nachgebessert werden sollte, welche gut funktioniert und welche überhaupt nicht. Der zweite Fall gibt Aufschluss darüber, welcher Codierer insgesamt am besten mit den anderen übereinstimmt und welcher stärker von den anderen abweicht. Auf dieser Basis lässt sich erkennen, welcher Codierer noch generellen Schulungsbedarf aufweist. Die detailliertesten Erkenntnisse lassen sich jedoch aus einer Matrix ziehen, in der pro Kategorie die Werte für jede Kombination zwischen zwei Codierern abgetragen werden. Hieraus kann man gezielt ermitteln, welcher Codierer mit welcher Kategorie Probleme hat und konkret nach den Ursachen dafür forschen. Natürlich stellt sich dabei unmittelbar die Frage, welcher Übereinstimmungswert als »gut« und welcher als »schlecht«, welcher als »noch akzeptabel« und welcher als »nicht ausreichend« eingeschätzt werden muss. Hierfür gibt es keine allgemeinen Richtwerte. Das Optimum, eine 100 %ige Übereinstimmung, wird nur selten erreicht, z. B. bei formalen Kategorien. Die Güte der übrigen Werte muss vor dem Hintergrund des Schwierigkeitsgrades der jeweiligen Kategorie betrachtet werden. Wie oben erwähnt, wäre beim bloßen Festhalten des Erscheinungsdatums eines Artikels alles andere als eine vollkommene Übereinstimmung enttäuschend. Bei Kategorien zu komplizierten Sachverhalten, die sich nur mühsam voneinander abgrenzen lassen, werden wir bereits Koeffizienten von .75 (Koeffizienten werden üblicherweise in einer solchen Schreibweise dargestellt, also ohne Null und anstatt dem Komma durch ein Punkt bezeichnet) als Erfolg werten. Ohne pauschalisieren zu wollen, interpretiert man in der Praxis bei inhaltlichen Kategorien Werte von .80 und höher als hinreichende Qualität. Ergebnisdarstellung bei Reliabilitätstests 214 1 2 D I E Q U A L I T Ä T S K O N T R O L L E <?page no="214"?> Merksatz Die Beurteilung von Reliabilitätskoeffizienten kann nur anhand des Schwierigkeitsgrades der jeweiligen Kategorie erfolgen; tendenziell sind für inhaltliche Kategorien Werte ab .80, für formale Kategorien Werte nahe an 1.0 zu fordern. Für den ebenfalls verbreiteten Koeffizienten Cohens Kappa haben sich folgende Interpretationen der Übereinstimmungswerte eingebürgert: 0 - .20 .2 1 - .39 minimal .40 - .59 schwach .60 - 79 moderat .80 - .90 stark .91 perfekt Kritische Größe bei dieser Beurteilung - und deswegen wird sie auch in einige andere Formeln für die Reliabilität wie z. B. Scott’s Phi eingebaut - ist die Zahl möglicher Ausprägungen. Erneut ein Beispiel: Angenommen, für die Codierung der Valenz auf Aussagenebene würde ein Koeffizient von .65 erreicht, so könnte man diesen Wert angesichts der diffizilen Materie durchaus ermutigend deuten. Sind allerdings überhaupt nur die Ausprägungen +1 (positive Wertung) und -1 (negative Wertung) vorgesehen, dann liegt schon die Zufallswahrscheinlichkeit für zwei übereinstimmende Codierungen bei .50. Nun wäre der erzielte Wert höchst unbefriedigend, denn die Urteile der Codierer stimmen nur geringfügig besser überein, als wenn wir die Codes rein zufällig vergeben hätten. Umgekehrt sinkt mit der Zahl der Codieralternativen natürlich die Ratewahrscheinlichkeit, weshalb für Kategorien mit langen Listen möglicher Ausprägungen (z. B. Themen oder Akteure, s. o.) Zufallsübereinstimmungen quasi ausgeschlossen und folglich eher moderate Koeffizienten akzeptabel sind. Deshalb sollte bei Reliabilitätswerten nach Holsti zumindest dokumentiert werden, auf wie viele mögliche Ausprägungen sich die Berechnung bezieht. Um die Reliabilitätswerte zu erhöhen, könnte man nun auf die Idee kommen, Kategorien mit umfangreichen Codiervorgaben auf wenige Ausprägungen zu reduzieren. Dies funktioniert zwar, bringt aber gravierende Nachteile mit sich: Ob eine solchermaßen zuverlässige, aber reduzierte Kategorie nämlich noch gültige Ergebnisse produziert, ist stark zu bezweifeln - ein Aspekt, mit dem sich der folgende Abschnitt näher befasst. Ein Reliabilitätskoeffizient, der die Anzahl möglicher Ausprägungen in sein Ergebnis einbezieht, ist Krippendorffs Alpha. Dieser ist im Zahl möglicher Ausprägungen 215 R E L I A B I L I T Ä T D E R C O D I E R U N G <?page no="215"?> Gegensatz zu Scotts Phi für alle Skalenniveaus tauglich und damit auf eine größere Vielfalt an Daten anwendbar. Besonders geeignet ist Krippendorffs Alpha für die Überprüfung der Reliabilität der Codierung von mehr als zwei Codierern oder bei unvollständigen Datensätze. Krippendorff (2013) selbst empfiehlt lediglich Reliabilitäten > .80 als verlässlich anzusehen. Aus Ergebnissen zwischen .67 und .80 sollten nur vorläufige Schlüsse gezogen werden. Tritt der Fall ein, dass bei der Berechnung des Übereinstimmungskoeffizienten der Wert von Holsti .83 annimmt und Krippendorffs Alpha bei .46 liegt, ist es statistisch gesehen besser, sich auf Krippendorffs Alpha zu verlassen. Das liegt daran, dass ein Reliabilitätstest im Grunde eine Übereinstimmungsschätzung ist und deswegen lediglich eine begrenzte Anzahl von Untersuchungseinheiten überprüft und nicht das ganze Sample. Also ist es unmöglich, die wahre Reliabilität zu bestimmen. Die Präzision der Reliabilitätsschätzungen hängt vor allem von der Stichprobengröße ab. Die statistischen Eigenschaften von Krippendorffs Alpha erlauben es, Berechnungen mit einem Konfidenzintervall von 95 Prozent durchzuführen, was wiederum Auskunft über die Präzision der Reliabilitätsschätzung gibt und deshalb dem Wert von Holsti vorzuziehen ist. Hinweis Abschließend noch ein Tipp: Zur Berechnung der Reliabilität nach Holsti, Scott und Krippendorff stellt die Universität Leipzig ein kostenloses Excel-Makro zur Verfügung. Man benötigt bloß eine Excel-Tabelle, bei der die Ergebnisse der verschiedenen Codierer auf je einem Tabellenblatt stehen. Zu beachten ist allerdings, dass sich die jeweiligen Codes exakt im selben Kästchen befinden müssen, aber eben auf einem anderen Tabellenblatt. http: / / www.kmw.uni-leipzig.de/ bereiche/ empirie/ service/ reliabilitaetstool.html Zur Berechnung von Krippendorffs Alpha stellt außerdem Andrew F. Hayes auf seiner Homepage ein Makro für SPSS und SAS zur Verfügung: http: / / afhayes.com/ spss-sas-and-mplus-macros-and-code.html Validität und Inferenzschluss Die Validität von Ergebnissen ist - und das gilt für alle sozialwissenschaftlichen Methoden - deutlich schwieriger zu beurteilen als ihre Reliabilität. Denn hier geht es um die inhaltliche Richtigkeit und sach- 12.3 216 1 2 D I E Q U A L I T Ä T S K O N T R O L L E <?page no="216"?> logische Gültigkeit vor dem Hintergrund des gesamten Forschungsprozesses. Ob eine Vorgehensweise Gültigkeit beanspruchen kann, also das gemessen wurde, was aufgrund der Forschungsfrage und der Hypothesen gemessen werden sollte, kann anhand unterschiedlicher Kriterien beurteilt werden. Hier sind die üblichen Kriterien aus der Methodenliteratur einschlägig, und darüber hinaus auch weitere, speziell für die Inhaltsanalyse charakteristische Merkmale. Wir behandeln im Folgenden vier Typen von Validitätsprüfung (vgl. genauer z. B. Krippendorf 2004): 1. Analysevalidität 2. Inhaltsvalidität 3. Kriteriumsvalidität 4. Inferenzvalidität Die erste Variante haben wir im Grunde bereits kennen gelernt: Die oben beschriebene Forscher-Codierer-Reliabilität (vgl. Kap. 11.2) gibt, darauf weist Früh (2007: 196 ff.) zu Recht hin, Auskunft darüber, wie gut der vom Forscher gemeinte Bedeutungsgehalt durch die Codierer getroffen wurde. Dies stellt bereits eine erste Art von Validitätsprüfung dar, die über die reine Zuverlässigkeit des Messinstruments hinausgeht und im Weiteren als Analysevalidität bezeichnet wird. Wenn der Forscher sich am Reliabilitätstest beteiligt, so wird er die Inhalte so codieren, wie es seinem Klassifikationsverständnis entspricht. Dies mag im Einzelfall nicht richtiger oder falscher sein als das eines Codierers - aber es ist das entscheidende Verständnis, denn es entspricht der Logik, auf deren Basis später auch die Hypothesen geprüft und die Forschungsfragen beantwortet werden. Die Codierung des Forschers kann man deswegen quasi als »gesetzt« betrachten, und die Frage ist nun, wie gut die eigentliche Feldarbeit die Auffassung des Forschers trifft. Aufgrund der ausführlichen, gemeinsamen Schulungen sollte sich hier eine eher geringe Diskrepanz ergeben; treten trotzdem größere Abweichungen auf, so kann (zu Beginn der Codierarbeiten) noch nachgeschult werden. Werden die Differenzen erst am Ende der Feldphase bemerkt, so bleibt dem Forscher meist nichts anderes übrig, als sein Verständnis wohl oder übel der tatsächlichen Codierweise anzupassen. Merksatz Die Analysevalidität ergibt sich aus einer Reliablitätsberechnung zwischen Forschern und Codierern; sie ist damit die einzige Art von Validität, die sich quantifizieren lässt. Typen der Validitätsprüfung Analysevalidität 217 V A L I D I T Ä T U N D I N F E R E N Z S C H L U S S <?page no="217"?> Der zweite Validitätstyp, der in der Methodenliteratur immer wieder erwähnt wird, ist die so genannte Inhaltsvalidität. Sie bezieht sich auf die Frage, ob die zu messenden Konstrukte durch die Messung vollständig abgebildet wurden, also alle relevanten Teilaspekte berücksichtigt und keine Dimensionen vergessen wurden. Dabei handelt es sich also ebenfalls um ein Kriterium, das wir im Zusammenhang mit der Kategorienbildung und der Definition von Ausprägungen (vgl. Kap. 6.2) bereits behandelt haben. Dort wurde versucht, aufgrund früherer Forschungsarbeiten, externer Quellen (wie z. B. Expertenmeinungen) und einer ersten Sichtung des Untersuchungsmaterials im Vorfeld der Erhebung ein vollständiges Kategoriensystem zu bilden. Im Nachhinein lässt sich am Verlauf der Codierung ablesen, ob dieses Ziel erreicht wurde: Wie oft mussten die Auffangwerte (z. B. »Sonstiges«, »andere«) oder Restkategorien codiert werden, und wie häufig nutzte der Codierer offene Kategorien, um relevante Aspekte nachzutragen? Nennenswerte Anteile solcher Codierungen würden darauf hindeuten, dass das Codebuch nicht alle wichtigen Dimensionen erfasst hat. Darüber hinaus können auch die Erfahrungsberichte der Codierer oder handschriftliche Anmerkungen auf den Codebögen zur Beurteilung der Inhaltsvalidität herangezogen werden. Merksatz Aussagen über die Inhaltsvalidität betreffen die Vollständigkeit des Instruments und lassen sich zum Teil aus Vorüberlegungen, zum Teil aus Codierungen und Codiererverhalten ableiten. Zur Prüfung der Validität können auch Außenkriterien herangezogen werden, die - sofern verfügbar - anderen Studien mit ähnlichen Fragestellungen und vergleichbarer Vorgehensweise entnommen werden. Eine hohe Kriteriumsvalidität wäre bei einer Studie dann gegeben, wenn sich ihre Ergebnisse durch andere Inhaltsanalysen stützen lassen, im Einklang mit der früheren Forschung stehen oder gefundene Unterschiede und überraschende Ergebnisse aus der Untersuchungsanlage plausibel erklärt werden können. Als externe Vergleichsquellen geben im Falle der Inhaltsanalyse mitunter auch qualitative Erhebungen wertvolle Hinweise. Diese stellen die Zusammenhänge zwar meist exemplarisch, aber dafür tiefer gehender dar und können deswegen zur Validierung der quantitativen Befunde dienen. Damit soll jedoch nicht gesagt werden, dass die in externen Quellen dokumentierten Befunde generell als »richtig« gelten müssen und nun geprüft würde, wie sehr man sich diesen annähert: Im Gegenteil ist immer zu beachten, dass unterschied- Inhaltsvalidität Kriteriumsvalidität 218 1 2 D I E Q U A L I T Ä T S K O N T R O L L E <?page no="218"?> liche Forschungsarbeiten nicht mehr sind als Beschreibungen der Wirklichkeit aus verschiedener Perspektive, für die - gerade in den Sozialwissenschaften - die Kategorien »richtig« und »falsch« keine angemessenen Beurteilungskriterien darstellen. Jede Studie stellt eine Momentaufnahme unter den jeweils gültigen Randbedingungen dar, und die Anwendung und Offenlegung ihrer Methodik soll transparent machen, wie der Forscher zu seiner Interpretation der Wirklichkeit kam. Dennoch ist es im Sinne der Kriteriumsvalidität zunächst beruhigend, wenn die eigenen Ergebnisse im Einklang mit der bisherigen Forschung stehen und diese weiterentwickeln, während für vollkommen konträre Befunde zuerst einmal eine Erklärung gefunden werden muss. Merksatz Die Kriteriumsvalidität benutzt den Vergleich mit externen Quellen und vergleichbaren Erhebungen, um die Plausibilität der Ergebnisse einer Inhaltsanalyse einzuschätzen. Schließlich sei auf die der Kriteriumsvalidität verwandte Inferenzvalidität hingewiesen. Sie fragt, ob die auf Basis der Inhaltsanalyse beabsichtigten Interpretationen, insbesondere die Inferenzschlüsse auf Kommunikator, Rezipient und die soziale Situation (vgl. Kap. 2), Gültigkeit beanspruchen können. Wieder werden für die Beurteilung externe Quellen hinzugezogen, und wieder handelt es sich um Aspekte, die bei der Diskussion der Ergebnisse im Forschungsbericht üblicherweise angesprochen werden. Allerdings handelt es sich bei den Vergleichsobjekten weniger um andere Inhaltsanalysen, sondern um Studien mit unterschiedlicher Methodik, die die Schlüssigkeit der eigenen Befunde belegen sollen. Wenn beispielsweise unsere Inhaltsanalyse ergibt, dass das Fernsehprogramm am Wochenende tatsächlich durch ein erhöhtes Maß an Aggressivität und Gewaltdarstellungen gekennzeichnet ist, dann sollte aus einer Befragung Jugendlicher zumindest sichergestellt werden, dass diese Inhalte von Schülern überhaupt gesehen werden, bevor über mögliche Wirkungen auf den montäglichen Schulalltag spekuliert wird. Passende Studien, die die eigene Argumentation ergänzen oder sinnvolle Daten für eine Sekundäranalyse bereitstellen, sind nicht immer leicht zu finden. Deshalb ist es für manche Forschungszusammenhänge unvermeidlich, selbst eine zweite Datenerhebung parallel zur Inhaltsanalyse durchzuführen. Einige Beispiele für solche Mehrmethodenstudien werden in Kap. 15 vorgestellt, nachdem zunächst die Auswertung und Ergebnisdarstellung anhand einiger Inhaltsanalysen exemplarisch beschrieben wurde (vgl. Kap. 14). Inferenzvalidität 219 V A L I D I T Ä T U N D I N F E R E N Z S C H L U S S <?page no="219"?> Merksatz Zur Beurteilung der Inferenzvalidität sind meist externe Erhebungen mit einem anderen methodischen Zugriff erforderlich, um die Gültigkeit weitergehender Schlussfolgerungen aufgrund der Inhaltsanalyse zu belegen. Fallbeispiel: Politische Kommunikation X Nach der intensiven Arbeit an der Erstellung des Codebuchs, der Schulung der Codierer und dem Pre-Test war der Zeitpunkt gekommen, die Reliabilität (Zuverlässigkeit) und die Validität (Gültigkeit) des Forschungsinstruments zu überprüfen. Erfüllt das Codebuch die Qualitätsanforderungen an eine Inhaltsanalyse? Festzustellen war, ob das Forschungsinstrument genau das misst, was es messen soll: nämlich die Inhalte und die Aufbereitung politischer Nachrichten. Außerdem musste die Reliabilität der Messung gewährleistet sein, d. h. bei wiederholter Anwendung des Instruments auf dasselbe Material musste im Codiererstab immer dasselbe Ergebnis erzielt werden. Die Intercoder-Reliabilität war beim ersten Reliabilitätstest nicht zufriedenstellend. Deshalb wurden die Codierer anschließend noch einmal geschult. Diese Nachschulung gestaltete sich wie die vierte Phase der Codiererschulung: Den Codierern wurden Beiträge mitgegeben, die sie alleine codieren sollten. Anschließend ging man die Beiträge und ihre unterschiedlichen Codierungen einzeln durch. Auf dieser Basis wurde ein zweiter Reliabilitätstest durchgeführt, der dann erfreulichere Ergebnisse zeitigte. Die Intercoder-Reliabilität lag nun im Mittel und über alle Kategorien hinweg bei einem Holsti-Wert von .78. Aufgrund der teilweise doch sehr schwierigen und komplexen Kategorien handelt es sich dabei um ein zufriedenstellendes Ergebnis. Man sollte sich bei der ersten Berechnung von Reliabilitäten und gegebenenfalls nicht zufriedenstellenden Ergebnissen immer vergegenwärtigen, dass diese Berechnung - trotz des damit verbundenen Aufwands - nicht vergebens ist, sondern dem Forscher auch bei der Optimierung des Instruments hilft. Defizite des Codebuches, die in der Erarbeitungs- und Probecodierungsphase noch unerkannt blieben, treten hier deutlicher zutage und können behoben werden. Schlechte Werte sollten einen deswegen nicht entmutigen, sondern als Heraus- Reliabilität 220 1 2 D I E Q U A L I T Ä T S K O N T R O L L E <?page no="220"?> forderung betrachtet werden, das Instrument weiter zu verbessern und die Codierer noch intensiver zu schulen. Eine weitere wichtige Frage, die vor dem Eintritt in die eigentliche Feldphase zu klären war, betraf die Validität der Codierung. Inwiefern ließ sich absehen, ob mit dem erarbeiteten Instrument die ursprüngliche Forschungsfrage beantwortet und damit das in der Studie angestrebte Ziel erreicht werden konnte? Die Analysevalidität wurde gesichert, indem die Forscher alle Probecodierungen ebenfalls codierten und auf diese Weise eine Art »Mastercodierung« anfertigten, welche immer mit den Codierungen der studentischen Codierer verglichen wurde. Bei der Frage nach der Vollständigkeit des Instruments (Inhaltsvalidität) konnte die Forschergruppe auf die jahrelange Erfahrung des Projektleiters bei der Entwicklung politischer Codebücher zurückgreifen. Als Indikator für die Vollständigkeit des Kategoriensystems mag man außerdem anführen, dass in den Probecodierungen nur sehr selten »anderes« verschlüsselt werden musste. Da zuvor, wie gesagt, noch keine Studie dieser oder vergleichbarer Art durchgeführt wurde, konnte kaum auf Kriteriumsvalidität abgehoben werden. Jedoch zeigten sich kleinere Evidenzen: beispielsweise wenn Angela Merkel in der FAZ positiver dargestellt wurde als in der S ÜDD EUTS CH EN Z E ITUNG , was zuvor schon andere Studien belegt hatten. Übungsfragen 1 Sind folgende Aussagen richtig oder falsch? a) Reliabilität eines Messinstruments heißt Zuverlässigkeit der Messung. Bei wiederholter Messung sollten die gleichen Ergebnisse erzielt werden. b) Validität einer Messung bedeutet Gültigkeit der Erhebung. Sie gibt an, ob ein Instrument tatsächlich das misst, was es messen soll. 2 Es gibt verschieden Typen der Reliabilitätsmessung. Nennen Sie die drei wichtigsten und ordnen sie folgende Definitionen entsprechend zu! a) . . . misst, wie gut die Codierung jedes Codierers zu Beginn und am Ende der Feldphase übereinstimmt. b) . . . misst, wie gut die Codierer bei der Verschlüsselung desselben Materials übereinstimmen. c) . . . misst, wie gut die Verschlüsselungen der Codierer mit denen des Forschers übereinstimmen. 3 Um den Reliabilitätskoeffizienten zu berechnen, ist eine bestimmte Formel weit verbreitet. Wie heißt diese? Wie werden die Codierübereinstimmungen berechnet? Validität 221 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N X <?page no="221"?> 4 Der Reliabilitätskoeffizient bewegt sich immer zwischen den Werten 0 und 1, d. h. 0 Prozent Übereinstimmung und 100 Prozent Übereinstimmung. Wie erfolgt die Beurteilung dieser Werte für die verschiedenen Kategorien? 5 Ob die Ergebnisse einer Inhaltsanalyse valide sind, kann unterschiedlich geprüft werden. Nennen Sie mindestens drei verschiedene Typen der Validitätsprüfung! 222 1 2 D I E Q U A L I T Ä T S K O N T R O L L E <?page no="222"?> Die Ethik: Der Mensch und das Internet Inhalt 13.1 Was ist privat? 13.2 Viele Daten - wenig Ethik? 13.3 Die Codierer als Menschen Gerade in den vergangenen Jahren hat die Diskussion um die Ethik in der Sozialforschung wieder an Fahrt aufgenommen. Richtig ist zwar, dass speziell kommunikationswissenschaftliche Studien - anders als etwa in der Medizin oder im Pharma-Bereich - Menschen eher nicht gefährlichen Strahlungen aussetzen oder ihnen lebensbedrohliche Substanzen injizieren. Trotzdem ist darauf zu achten, dass auch unseren Versuchsteilnehmern kein Leid zugefügt wird - und sei es nur durch das Ansehen von verstörenden Kriegsfotos in der Tagespresse. Solche und ähnliche Diskussionen hat die inhaltsanalytische Forschung sehr lange ausgeblendet - aus vermeintlich gutem Grund: weil nämlich die Methode gemeinhin als non-reaktiv gilt, denn sie greift normalerweise eben nicht in das Leben von Menschen ein. Vielmehr wertet sie nur nachträglich deren Verhaltensspuren aus, seien es die von Journalisten verfassten Artikel oder die Zuschriften in den Leserkommentaren. Da man es mit »totem« Material zu tun hat, das öffentlich zugänglich ist, so die landläufige Argumentation, stellen sich die forschungsethischen Probleme erst gar nicht. Doch bei genauerer Betrachtung erscheint der Fall inzwischen gar nicht mehr so klar, denn mit der Verbreitung neuer, interaktiver Kommunikationstechnologien wird es bekanntlich zunehmend schwerer, eine Grenze zwischen Öffentlichem und Privatem zu ziehen. Außerdem wird die Inhaltsanalyse plötzlich zur Methode der Wahl für eine ganze Vielfalt an Verhaltensspuren, die in den unterschiedlichsten Internet- Anwendungen geronnen sind - und teilweise sogar mit »Big Data«-Verfahren ausgewertet werden. Und schließlich gibt es doch eine 13 non-reaktiv = ethisch unbedenklich? 223 1 3 D I E E T H I K 1 3 D I E E T H I K <?page no="223"?> Personengruppe, die immer schon regelmäßig und intensiv in die Durchführung von Inhaltsanalysen eingebunden ist - und über deren mögliche Beeinträchtigung durch die Codierarbeiten sich bislang kaum jemand Gedanken gemacht hat. Diesen drei Aspekten (vgl. Abb. 13.1) widmen sich nun die nachfolgenden Abschnitte. Was ist privat? Die gigantischen Informationsmengen, die »das Internet« in seinen unzähligen Verzweigungen für uns bereithält, erscheinen wie prädestiniert für inhaltsanalytische Studien. Dabei wird oft kurzschlussartig davon ausgegangen, dass man alles, was sich in »dem Medium« Internet auffinden lässt, wie klassische Medieninhalte behandeln könnte. Dem ist freilich nicht so: »Das Internet« ist eben nicht jenes eine Medium, sondern zerfällt in eine Vielzahl unterschiedlichster Anwendungen: Darunter lassen sich nicht wenige tatsächlich einem klassischen Medienbegriff unterordnen; etwa die Online-Ableger von Tageszeitungen und Rundfunksendern oder die Blogs von Journalisten. Sie richten sich an eine grundsätzlich unbegrenzte Öffentlichkeit (das »disperse Publikum«, von dem zuweilen die Rede ist) und insofern erscheint eine inhaltsanalytische Betrachtung auch aus ethischer Sicht wenig bedenklich. Das Missverständnis beginnt freilich da, wo aus der Verfügbarkeit jeglicher Inhalte im Internet kurzschlussartig gefolgert wird, das dargebotene sei quasi »Allgemeingut« und damit auch der Nutzung in der Forschung ausgeliefert. Richtig ist, dass mit der Verbreitung von Social Media wie Facebook, mit der Blogosphäre und Diensten wie Twitter die Grenzen zwischen Öffentlichem und Privatem zunehmend verwischen. Nicht-professionelle Kommunikatoren stellen hier in erheblichem Maße persönliche Äußerungen bereit - mal für einen mehr, mal für einen weniger eingeschränkten Nutzerkreis zugänglich. Doch anders als bei journalistischen Medieninhalten, die sich per Definition als Beitrag zum Abb. 13.1 Ethische Risiken und Ziele in der inhaltsanalytischen Forschung Schutz des Kommunikators Schutz des Codierers Abwägung: öffentlich/ privat Abwägung: Nutzen/ Schaden Abwägung: Individuum/ Dehumanisierung Rechte der Probanden (z. B. Ethik-Kodex der DGS) ethische Risiken Ziele ethischer Abwägungen Hilfsmi el Ängste der Rezipienten (z. B. Datenmissbrauch) 13.1 Grenzen zwischen Öffentlichem und Privatem verwischen 224 1 3 D I E E T H I K <?page no="224"?> öffentlichen Diskurs einer (auch wissenschaftlichen) Überprüfung aussetzen, kann bei diesen Inhalten eben nicht davon ausgegangen werden, dass ihre Urheber auch stillschweigend ihr Einverständnis zur wissenschaftlichen Verwertung gegeben haben. Selbst eine Anonymisierung der Daten hilft diesem Problem nur begrenzt ab. Beispiel Daten auf Facebook Aufsehen erregte vor einigen Jahren eine mit staatlichen Fördergeldern unterstützte Studie der Universitäten Harvard und UCLA, die mit Einwilligung von Facebook zwischen 2006 und 2009 mehrfach die kompletten Profildaten einer gesamten Kohorte von Studierenden (N = 1.640) heruntergeladen haben. Zwar machten die Verantwortlichen später geltend, sie hätten nur die »öffentlich« zugänglichen Angaben der Facebook-Nutzer verwendet und alle Vorkehrungen getroffen, den Datensatz zu anonymisieren. Aber nach der Veröffentlichung war es schnell möglich, aus der Kombination von sozidemografischen Merkmalen, den Angaben zum Studienfach und zur Nationalität einzelne Personenprofile auf Facebook ausfindig zu machen. Außerdem konnte nicht ausgeschlossen werden, dass die beteiligten Forschungsassistenten, die von derselben Hochschule stammten, nicht vielleicht aufgrund ihrer zufälligen Zugehörigkeit zu den Netzwerken einzelner Probanden doch Zugang zu Informationen hatten, die eben nicht frei verfügbar waren. Und schließlich verstößt eine solche Vorgehensweise massiv gegen gesellschaftliche Grundsätze, die wir in Deutschland im Kontext der informationellen Selbstbestimmung diskutieren: »Merely having one’s personal information stripped from the intended sphere of the social networking profile, and amassed into a database for external review becomes an affront to the subjects’ human dignity and their ability to control the flow of their personal information« (S. 321). Literatur: Zimmer, Michael (2010): »But the data is already public«. On the ethics of research in Facebook. In: Ethics of Information Technology 12(4): 313 - 325. Wie sollte man nun in der inhaltsanalytischen Forschung mit Daten aus dem Internet umgehen? Komplett darauf zu verzichten ist keine vernünftige Lösung, denn schließlich stellt diese Medienumgebung - zumal für Kommunikationswissenschaftler - ein relevantes soziales Feld dar, das (wie andere Felder auch) der Forschung prinzipiell zugänglich sein muss. Und schon bisher existiert ja Forschung zu sensiblen 225 W A S I S T P R I V A T ? <?page no="225"?> gesellschaftlichen Bereichen und zu schwierigen Themen. Es ist deswegen schlicht geboten, bei der Untersuchung von menschlichen Verhaltensspuren im Internet diese nicht von vornherein als »natürlich gegeben« oder »öffentlich« im Sinne journalistischer Medien zu betrachten, sondern sich auch hier an den bestehenden Kriterien für eine ethisch verantwortungsvolle Forschung zu orientieren. Entsprechende Leitlinien haben verschiedene Wissenschaftsorganisationen schriftlich niedergelegt. Ein mögliches Beispiel hierfür ist der Kodex der Deutschen Gesellschaft für Soziologie (DGS), aus dessen § 2 zu den »Rechten der Proband/ innen« die nachfolgenden Passagen entnommen sind. Info Rechte der Probandinnen und Probanden laut Ethik-Kodex der DGS 1. Das Befolgen von Regeln der wissenschaftlichen Methode kann ungünstige Konsequenzen oder spezielle Risiken für Individuen oder Gruppen nach sich ziehen. Darüber hinaus kann das Forschungshandeln den zukünftigen Zugang zu einer Untersuchungspopulation für den gesamten Berufsstand oder verwandte Berufsgruppen einschränken oder verschließen. Beides haben Soziologinnen und Soziologen zu antizipieren, um negative Auswirkungen zu vermeiden. 2. In der soziologischen Forschung sind die Persönlichkeitsrechte der in sozialwissenschaftliche Untersuchungen einbezogenen Personen ebenso wie ihr Recht zur freien Entscheidung über die Beteiligung an Forschungsvorhaben zu respektieren. 3. Generell gilt für die Beteiligung an sozialwissenschaftlichen Untersuchungen, dass diese freiwillig ist und auf der Grundlage einer möglichst ausführlichen Information über Ziele und Methoden des entsprechenden Forschungsvorhabens erfolgt. Nicht immer kann das Prinzip der informierten Einwilligung in die Praxis umgesetzt werden, z. B. wenn durch eine umfassende Vorabinformation die Forschungsergebnisse in nicht vertretbarer Weise verzerrt würden. In solchen Fällen muss versucht werden, andere Möglichkeiten der informierten Einwilligung zu nutzen. 4. Besondere Anstrengungen zur Gewährleistung einer angemessenen Information sind erforderlich, wenn die in die Untersuchung einbezogenen Individuen über eine geringe Bildung verfügen, einen niedrigen Sozialstatus haben, Minoritäten oder gesellschaftlich marginalisierten Bevölkerungsgruppen angehören. 5. Personen, die in Untersuchungen als Beobachtete oder Befragte oder in anderer Weise, z. B. im Zusammenhang mit der Auswertung persönlicher Dokumente, einbezogen werden, dürfen durch die For- Leitlinien der Wissenschaftsorganisationen 226 1 3 D I E E T H I K <?page no="226"?> schung keinen Nachteilen oder Gefahren ausgesetzt werden. Die Betroffenen sind über alle Risiken aufzuklären, die das Maß dessen überschreiten, was im Alltag üblich ist. Die Anonymität der befragten oder untersuchten Personen ist zu wahren. 6. Im Rahmen des Möglichen sollen Soziologinnen und Soziologen potentielle Vertrauensverletzungen voraussehen. Verfahren, die eine Identifizierung der Untersuchten ausschließen, sollen in allen geeigneten Fällen genutzt werden. Besondere Aufmerksamkeit ist den durch die elektronische Datenverarbeitung gegebenen Möglichkeiten des Zugangs zu Daten zu widmen. Auch hier sind sorgfältige Vorkehrungen zum Schutz vertraulicher Informationen erforderlich. 7. Von untersuchten Personen erlangte vertrauliche Informationen müssen entsprechend behandelt werden; diese Verpflichtung gilt für alle Mitglieder der Forschungsgruppe (auch Interviewer/ innen, Codierer/ innen, Schreibkräfte etc.), die über einen Datenzugriff verfügen. Es liegt in der Verantwortung der Projektleiter/ innen, die Mitarbeiter/ innen hierüber zu informieren und den Zugang zu vertraulichem Material zu kontrollieren. 8. Soziologinnen und Soziologen sollen unter Verweis auf entsprechende Regelungen für andere Professionen der Schweigepflicht unterliegen und für sich das Recht auf Zeugnisverweigerung beanspruchen, wenn zu befürchten steht, dass auf der Basis der im Rahmen soziologischer Forschung gewonnenen Informationen die Informanten irgendwelche - insbesondere strafrechtliche - Sanktionen zu gewärtigen haben. Quelle: Ethik-Kodex der Deutschen Gesellschaft für Soziologie (DGS) und des Berufsverbandes Deutscher Soziologinnen und Soziologen (BDS) [http: / / www.soziologie.de/ de/ die-dgs/ ethik/ ethik-kodex.html; aufgerufen am 17.11.2016] Vergleichbare Regelungen hat beispielsweise die Deutsche Gesellschaft für Psychologie erlassen [https: / / www.dgps.de/ index.php? id=96422#c646, Punkt C.III; aufgerufen am 17.11.2016], die ebenfalls auf die Aufklärung und Einwilligung von Versuchspersonen abzielen. Sicherlich sind diese Kriterienkataloge auf die Durchführung von Studien »am Menschen« zugeschnitten, aber gerade jene Aspekte, die auf eine würdevolle Behandlung der Testteilnehmer und den Schutz vertraulicher Informationen abzielen, lassen sich analog auf eine ethisch verantwortliche Inhaltsanalyse von Verhaltensspuren im Internet anwenden. Als Faustregel kann gelten, dass die Einholung der Erlaubnis von den Urhebern der Aussagen - so schwierig sie bei Online-Inhalten im Einzelfall zu erhalten sein mag - bereits einer Reihe von Problemen abhilft. 227 W A S I S T P R I V A T ? <?page no="227"?> Viele Daten - wenig Ethik? Die irreführende Annahme, die Analyse einer großen Anzahl von Datensätzen würde alle ethischen Probleme lösen, weil der Einzelne in dieser Masse quasi verschwindet und damit anonym wird, wurde im vorigen Abschnitt bereits angesprochen. Tatsächlich stellt sich hier umgekehrt das Problem des Verstoßes gegen kommunikationsethische Prinzipien, insbesondere gegen die Wahrung der »Personalität« (also die Achtung Anderer als Selbstzweck) und gegen das Verbot einer Verdinglichung bzw. Instrumentalisierung von Personen. Gerade weil der »Teilnehmer« - die meisten Beteiligten wissen ja überhaupt nichts von ihrem Glück! - durch solche Verfahren der Datenaggregation als Individuum überhaupt nicht mehr erkennbar ist, stellt sich eine Dehumanisierung ein, die die Person auf eine reine Merkmalskombination reduziert. Andere ethische Standards wie die der Freiwilligkeit der Teilnahme oder der informierten Einwilligung sind ohnehin nicht eingehalten. Weitere Fragen, die an dieser Stelle aufgeworfen werden, betreffen zum einen die Verhältnismäßigkeit der Mittel: Ethisch bedenkliche Einschränkungen des Individuums sind umso eher zu tolerieren, je größer der Nutzen der betreffenden Forschung für die Allgemeinheit ist. Hier lassen sich ganz unterschiedliche Maßstäbe anlegen: Während das »Data Mining«, also die Gewinnung von Wissen aus großen Datensätzen, für kommerzielle Zwecke, wie es große Unternehmen oder die von ihnen beauftragten Institute zunehmend betreiben, sicher nicht zwangsläufig im Interesse der Allgemeinheit liegen muss, scheint die Forschung im Umfeld öffentlicher Einrichtungen (wie z. B. der Hochschulen) zunächst weniger verdächtig. Dennoch könnte man fragen, ob wirklich jede Bachelor- oder Master-Arbeit, für die massenhaft Daten aus dem Internet abgeschöpft werden, allgemein interessiert, oder ob hier nicht doch eher das individuelle Qualifikationsziel des Kandidaten im Vordergrund steht. Allein die leichte Verfügbarkeit vieler Daten verführt bereits zu Analysen, deren wissenschaftlicher Sinn und gesellschaftlicher Nutzen eher zweifelhaft ausfällt. Beispiel Groß angelegtes Facebook-Experiment Im Januar 2012 manipulierte ein Forscherteam, zu dem neben zwei Wissenschaftlern der Cornell University auch ein Mitarbeiter der Forschungsabteilung von Facebook gehörte, eine Woche lang die News Feeds von etwa 310.000 englischsprachigen Facebook-Mitgliedern. In der Hälfte der Fälle reduzierte der Dienst die Zahl der Einträge, in denen 13.2 Dehumanisierung in großen Datensätzen 228 1 3 D I E E T H I K <?page no="228"?> positive Emotionen zum Ausdruck kamen; bei einer ähnlich umfangeichen Nutzergruppe wurde hingegen ein Teil der Postings mit negativen Gefühlen ausgeblendet. Nochmals über 300.000 Probanden dienten als Kontrollgruppe, in deren News Feed jenseits der üblichen Algorithmen nicht eingegriffen wurde. Eine anschließende Inhaltsanalyse der Nutzerbeiträge wies auf ein gewisses Effektpotenzial der Manipulation hin: Insgesamt schrieben alle Betroffenen 3,3 % weniger Einträge, und wer weniger negative Meldungen zu sehen bekam, schrieb selbst mehr positive Kommentare; umgekehrt posteten User, die weniger Positives in ihrem News Feed erhielten, selbst mehr Inhalte mit negativer Stimmung. Die festgestellten Veränderungen bewegten sich freilich auf einem niedrigen Niveau. Die Veröffentlichung der Studie löste in der Netzgemeinde einen Proteststurm aus. Zwar stimmen Facebook-Mitglieder in den Geschäftsbedingungen des Unternehmens einer Nutzung ihrer Daten zu Forschungszwecken ausdrücklich zu; dieser explizite Eingriff in die Auswahl für den Newsfeeds (die Beiträge selbst wurden nicht manipuliert, sondern waren weiterhin auf den jeweiligen Nutzerseiten verfügbar) erschien vielen Betroffenen freilich als unangemessen. Obwohl der »normale« Algorithmus, auf dem die Darstellung beruhte, ihnen genauso unbekannt und von ihnen ebenso wenig beeinflusst werden konnte, fühlten sich die Nutzerinnen und Nutzer durch ihren Einschluss in eine Studie, in die sie nie ausdrücklich eingewilligt hatten, missbraucht. Auch wenn die Problematik hier weniger auf dem inhaltanalytischen Verfahren als auf dessen experimenteller Anlage beruht, zeigt das Beispiel doch anschaulich die Sensibilität mancher Online-Nutzerinnen und -Nutzer auf, wenn ihre Datenspuren ohne Rücksprache zu Forschungszwecken verwendet werden. Schließlich gestand der beteiligte Facebook-Analyst in der Diskussion - mit Blick auf die geringe Stärke der gefundenen Effekte - ein: »Rückblickend könnte es sein, dass der wissenschaftliche Nutzen des Papers nicht alle Aufregung rechtfertigt.« Literatur: Kramer, Adam D. I./ Guillory, Jamie E./ Hancock, Jeffrey T. (2014): Experimental evidence of massive-scale emotional contagion through social networks. In: Proceedings of the National Academy of Sciences (PNAS) 111(24), 8788 - 8790 . Zum anderen könnte man auch fragen, ob - die soziale Relevanz der Forschung vorausgesetzt - dann nicht zu gewährleisten wäre, dass in einem demokratischen Staat auch alle Personen die Möglichkeit haben, an der Forschung teilzunehmen. Gerade wenn Studien eine hohe Prognosequalität besitzen, sollten beispielsweise die Nicht-Nutzer sozialer Netzwerke nicht von der Betrachtung ausgeschlossen werden. Bleiben jene 229 V I E L E D A T E N - W E N I G E T H I K ? <?page no="229"?> Menschen, die (wie es ein amerikanischer Forscher einmal formuliert hat) »im Schatten der großen Datensätze« leben, systematisch von einer Forschung ausgeschlossen, die Einfluss auf die gesellschaftliche Entwicklung nimmt, dann ließe sich kritisch fragen, ob ethisch nicht auch ein Recht auf die Teilnahme an relevanten Erhebungen besteht. Im öffentlichen Diskurs deutlich präsenter sind hingegen die umgekehrten Befürchtungen: Angesichts zahlreicher Vorkommnisse, bei denen Daten ausgespäht und missbraucht wurden, liegt für viele Online- Nutzer der Verdacht nahe, man wäre Teil eines groß angelegten Überwachungssystems. Verantwortliche Forschung geht auf diese Ängste und Bedenken ein, so irrational und unbegründet sie im Einzelnen auch sein mögen, und versucht ihnen durch Aufklärung und Transparenz entgegenzuwirken. Denn schließlich müssen gerade Wissenschaftler, die zum Wohle der Allgemeinheit handeln sollten, die Güterabwägung zwischen technischer Machbarkeit und ethischer Vertretbarkeit mit besonderer Sorgfalt vollziehen. Die Codierer als Menschen Tatsächlich ist die Inhaltsanalyse (anders als etwa die Befragung) als Verfahren in der Regel non-reaktiv gegenüber ihren Studienobjekten, denn das Untersuchungsmaterial verändert sich durch das Forschungsprozedere nicht: Der Text oder das Bild ist noch dasselbe, nachdem es verschlüsselt wurde. Trotzdem muss die Reaktivität, die für ethische Aspekte immer besonders kritisch ist, im Arbeitsprozess durchaus berücksichtigt werden. Denn wenn die Codierung nicht maschinell, sondern durch menschliche Codierer erfolgt, sind sehr wohl Menschen beteiligt, deren Belange in der Forschungsplanung zu berücksichtigen sind. Diese Überlegung ist in der akademischen Welt noch nicht sehr verbreitet, und vermutlich werden die Interessen der (meist studentischen) Mitarbeiter eher implizit gewahrt, als dass sie einmal ausdrücklich diskutiert würden. Dennoch kann dieser Aspekt in unterschiedlichen Konstellationen relevant werden. Am augenfälligsten ist dies sicherlich dann, wenn der Gegenstand der Forschung solche Medieninhalte sind, die geeignet scheinen, bei ihren Rezipienten Schäden zu verursachen. Hier unterscheidet sich die Argumentation kaum von der im Kontext von psychologischen oder soziologischen Feldstudien: So wie dort den Probanden kein Leid zugefügt werden darf, sollten natürlich auch die Codierer einer Inhaltsanalyse nicht wissentlich so unangenehmen Inhalten ausgesetzt werden, dass sich schon deren Kenntnisnahme ungünstig auf ihre mentale oder emotionale Verfassung auswirkt. Recht auf Teilnahme versus befürchtete Ausspähung 13.3 230 1 3 D I E E T H I K <?page no="230"?> So weit hergeholt, wie es zunächst vielleicht scheinen mag, ist diese Befürchtung nicht. Konkret wäre beispielsweise auf die verschiedenen Inhaltsanalysen zu pornografischen Videos hinzuweisen, die immer wieder durchgeführt werden. Da ein wesentlicher Anteil der Mediennutzung offline wie online auf solches Material entfällt und immer wieder Diskussionen über dessen Bedeutung (etwa für die Ausbildung von Weltsichten ihres Publikums) aufflammen, ist eine systematische Analyse dieser Angebote vollkommen legitim. Die Codierer, die für eine solche Aufgabe herangezogen werden, finden sich dann aber Medienprodukten ausgesetzt, bei denen nicht ausgeschlossen werden kann, dass sie selbst durch deren massenhaften Konsum, wie er im Rahmen einer quantitativen Untersuchung regelmäßig verlangt wird, in ihrer Existenz beeinträchtigt werden. Die Argumentation, wonach jeder, der sich für eine solche Aufgabe meldet (und hoffentlich bezahlt wird) selbst wissen müsse, worauf man sich dabei einlässt, greift viel zu kurz: Schließlich haben viele vorneweg so wenig Erfahrung mit diesem Material, dass mögliche Folgen schwer abschätzbar sind. Und außerdem enthebt die Selbstselektion die Untersuchungsleiter keineswegs von ihrer Verantwortung für die eigenen Mitarbeiter. Ähnliche Denkfiguren lassen sich auch für andere, häufig als problematisch bezeichnete Medieninhalte wiederholen - seien es gewalthaltige Spielfilme, aggressive Computerspiele oder sogar die Werbung (bei der der massenhafte Konsum von Spots ebenfalls unbewusste, unerwünschte Nebenwirkungen auf die Codierer haben kann). Übersehen wird freilich gerne, dass sich negative Effekte auch dann einstellen können, wenn gerade besonders beliebte Inhalte zu bearbeiten sind. Man stelle sich vor, Thema einer Studie sei die standardisierte Erfassung von Rollenbildern und Handlungskonstellationen in Serienformaten. Zwingt man daraufhin die Codierer, ihre Lieblingsserien wieder und wieder zu sehen, in einzelne dramaturgische Einheiten zu zerlegen und damit quasi zu »sezieren« - dann kann es nicht verwundern, dass selbst eingefleischte Fans sich privat irgendwann von dem Programm abwenden, weil der Reiz von Unterhaltungsmedien eben gerade darin besteht, nicht zu erkennen, worin die Machart besteht und wie der Plot funktioniert. Zentral für das Vergnügen an fiktionalen Inhalten ist, wie die Medienpsychologie zeigt, die so genannte »Transportation« des Betrachters in die fiktive Welt. Ein Codiervorgang erlaubt genau das nicht, sondern verlangt ein hohes Maß an Aufmerksamkeit bei der Bearbeitung, weshalb die Codierer unter Umständen auch den Spaß an einem von ihnen bisher favorisierten Stoff verlieren können. Und auch dies ist als ein unerwünschter und deswegen ethisch bedenklicher Nebeneffekt des Forschungsprozesses zu verstehen. Beeinträchtigung von Codierern durch das Material negative Einflüsse auf die private Mediennutzung 231 D I E C O D I E R E R A L S M E N S C H E N <?page no="231"?> Beispiel Schäden für Codierer Für eine international vergleichende Studie zur Vielfalt in Nachrichtensendungen mussten Codierer auch die Themen der ausgestrahlten Beiträge verschlüsseln. Ein differenziertes Kategorienschema sah Zahlenwerte vor, die nach einer hierarchischen Logik aufgebaut waren und jedem Berichtsanlass einen vierstelligen Wert zuwiesen. Da es sich um eine umfangreiche Stichprobe und ein kleines Forschungsteam handelte, mussten von jedem Codierer schlussendlich mehrere tausend Beiträge bearbeitet werden. Am Ende der Codierarbeiten berichteten mehrere studentische Mitarbeiter unabhängig voneinander, dass sie sich in ihrem privaten Nachrichtenkonsum kaum mehr auf die Inhalte der Berichte konzentrieren könnten, sondern vor ihrem geistigen Auge unwillkürlich Codeziffern auftauchen würden, sobald das Thema des Beitrags erkennbar wäre. Sie äußerten übereinstimmend, dass es ihnen schwerfallen würde, das tatsächliche politische und gesellschaftliche Geschehen zu erfassen, das auf dem Bildschirm dargestellt wurde. Auch wenn sich dieser Effekt mit Abstand zum Codiergeschehen schnell wieder einebnete, so muss doch festgehalten werden, dass die Mitwirkung an dem Forschungsprojekt für diese Studierenden zumindest kurzfristig negative Auswirkungen auf ihr Informationsverhalten hatte. Gemein ist all diesen Überlegungen, dass eine Inhaltsanalyse nicht per se forschungsethisch unbedenklich ist. Ebenso wie bei anderen methodischen Zugängen gilt es vielmehr im Vorfeld genau abzuwägen, wessen Interessen möglicherweise durch die Forschung verletzt werden. Das können die Urheber der analysierten Aussagen sein, aber genauso die beteiligten Hilfskräfte, die die Codierung vornehmen. Zwar wird von Inhaltsanalysen bislang noch nicht standardmäßig verlangt, sie vor Projektstart einer institutionellen Prüfung durch eine Ethik-Kommission vorzulegen, aber im Umkehrschluss enthebt es die für das Forschungsvorhaben verantwortlichen Personen nicht von ihrer Pflicht, sich vor Beginn einer Erhebung über mögliche Beeinträchtigungen Gedanken zu machen, die sie vielleicht hervorrufen könnte. 232 1 3 D I E E T H I K <?page no="232"?> Übungsfragen 1 Welche ethischen Fragen müssen bei der Konzeption einer Inhaltsanalyse beachtet werden? a) Inwieweit ist das zu untersuchende Material öffentlich oder privat? b) Überwiegt der Nutzen der Inhaltsanalyse den entstehenden Schaden? c) Welchen Einfluss hat das Material auf den Codierer? 2 Warum ist das Einhalten ethischer Richtlinien bei der inhaltsanalytischen Erhebung von Bedeutung? 3 Sind diese Aussagen richtig oder falsch? a) Solange das Codiermaterial keine pornografischen oder gewaltverherrlichenden Bilder zeigt, beeinträchtigt es die Codierer nicht. b) Alle Internetinhalte stehen zur freien Verfügung und sind für eine inhaltsanalytische Überprüfung verwendbar. c) Ethisch bedenkliche Einschränkungen des Individuums sind umso eher zu tolerieren, je größer der Nutzen der betreffenden Forschungsfrage für die Allgemeinheit ist. 233 D I E C O D I E R E R A L S M E N S C H E N <?page no="234"?> Verwertungszusammenhang: Exemplarische Inhaltsanalyse zu unterschiedlichen Mediengattungen Inhalt 14.1 Befunde von Inhaltsanalysen aus der akademischen Forschung 14.2 Studie I: Agenda-Setting-Effekte zwischen Medienberichterstattung und Online-Informationsverhalten 14.3 Studie II: Die »Fußballisierung« im deutschen Fernsehen 14.4 Studie III: Nachrichtenfaktoren und Themen in Nutzerrankings 14.5 Studie IV: Handlungslogik von Tageszeitungen 14.6 Der Forschungsbericht Dieses Kapitel zeigt anhand einer Reihe exemplarischer Studien aus den vergangenen Jahren auf, wie Inhaltsanalysen in der kommunikationswissenschaftlichen Forschung eingesetzt werden, um akademische Forschungsfragen zu bearbeiten. Die Auswahl der vorgestellten Studien berücksichtigt unterschiedliche Medientypen ebenso wie verschiedene Arten von Inferenzschlüssen. Auf die Formulierung von Übungsfragen wurde für dieses und das nachfolgende Kapitel verzichtet, da es sich hierbei im Wesentlichen um Literaturzusammenfassungen handelt. Befunde von Inhaltsanalysen aus der akademischen Forschung Die bisherigen dreizehn Kapitel haben ausführlich dargestellt, wie aus einem Forschungsinteresse über die Definition von Begriffen, die Formulierung von Hypothesen, die Entwicklung eines Untersuchungsinstruments und dessen Anwendung auf mediale Produkte inhaltsanalytische Daten erhoben werden (siehe Abb. 3.1). Der Prozess, den wir - 14 14.1 235 B E F U N D E V O N I N H A L T S A N A L Y S E N A U S D E R A K A D E M I S C H E N F O R S C H U N G B E F U N D E V O N I N H A L T S A N A L Y S E N A U S D E R A K A D E M I S C H E N F O R S C H U N G <?page no="235"?> wie die Methode - »Inhaltsanalyse« im eigentlichen Sinne nennen, ist damit abgeschlossen. Eine inhaltsanalytische Studie hingegen tritt jetzt in die Auswertungsphase, in der statistische Datenanalysen vorgenommen und deren Ergebnisse interpretiert werden. Dabei handelt es sich um Arbeitsschritte, die bei einer Inhaltsanalyse nicht wesentlich anders ablaufen als für andere Daten, wie sie z. B. aus Befragungen gewonnen werden. Außerdem hängt jede Auswertung natürlich von den Forschungsfragen und Hypothesen ab, weshalb sich allgemeine inhaltliche Regeln nur schwierig formulieren lassen. Aus diesen Gründen verzichtet die vorliegende Einführung auf einen Auswertungs-Crash-Kurs und verweist stattdessen auf die entsprechenden einführenden Anleitungen. Literatur Für das Vorgehen bei der Auswertung einer Inhaltsanalyse können bewährte Lehrbücher der Datenanalyse und Statistik herangezogen werden, die sich ausführlich mit den entsprechenden Verfahren beschäftigen. Stellvertretend seien hier genannt: Küchenhoff, Helmut/ Knieper, Thomas/ Eichhorn, Wolfgang (2006): Statistik für Kommunikationswissenschaftler. 2., überarb. Aufl., Konstanz: UVK/ UTB. Bühl, Achim (2016): SPSS 23: Einführung in die moderne Datenanalyse. 15. aktualisierte Aufl., München: Pearson Studium. Braunecker, Claus (2016): How to do Empirie, how to do SPSS. Eine Gebrauchsanleitung. Teil B: Datenanalyse. Wien: facultas/ UTB. Stattdessen gehen wir erneut exemplarisch vor und wollen die Auswertung und Darstellung von inhaltsanalytischen Befunden anhand einer kleinen Auswahl empirischer Studien aus den letzten Jahren veranschaulichen. Am Beispiel dieser Veröffentlichungen sollen die übliche Logik der Ergebnisdarstellung verdeutlicht und die verschiedenen Möglichkeiten aufgezeigt werden, wie eine Argumentation auf Basis von Inhaltsanalysedaten aufgebaut werden kann. Die vier hierfür ausgewählten Studien decken unterschiedliche Mediengattungen (von der Tageszeitung bis zum Internet) ab, untersuchen vielfältige Merkmale der Angebote und ziehen unterschiedliche Inferenzschlüsse. Die vierte, hier vorgestellte Studie sticht durch ihr qualitatives Vorgehen heraus. Die Darstellung folgt dabei unseren Ausführungen in den früheren Kapiteln und gliedert sich jeweils in folgende Teile: 236 1 4 V E R W E R T U N G S Z U S A M M E N H A N G <?page no="236"?> 1. Hintergrund 2. Forschungsfragen bzw. Hypothesen und Ergebnisse 3. Untersuchungsanlage 4. formale und inhaltliche Kategorien 5. Qualitätskontrolle Bei den einzelnen Studien wurde außerdem auf die Zugänglichkeit geachtet - alle sind in einschlägigen Fachzeitschriften veröffentlicht, die in jeder Hochschulbibliothek geführt werden sollten. Wir empfehlen, Kopien der einzelnen Aufsätze anzufertigen und diese vor der Lektüre der nachfolgenden Abschnitte durchzuarbeiten - nur dann dürfte sich aus unserer Darstellung ein optimaler Erkenntnisgewinn einstellen. Studie I: Agenda-Setting-Effekte zwischen Medienberichterstattung und Online-Informationsverhalten Hintergrund/ Erkenntnisinteresse Durch die zunehmende Beliebtheit der Online-Kommunikation verändert sich nicht nur das Mediennutzungsverhalten des Rezipienten, sondern auch die methodischen Möglichkeiten der Medienwirkungsforschung. Einige Forscher haben vorgeschlagen, im Rahmen des Agenda- Setting-Ansatzes die Analyse von Suchanfragen als Indikator für die Publikumsagenda zu untersuchen. Der Agenda-Setting-Ansatz besagt, dass je relevanter ein Thema in den Medien ist, desto wichtiger wird es für die Bevölkerung - und desto häufiger sollten Rezipienten nach Informationen zu diesem Thema suchen. Anhand des Beispiels EHEC-Epidemie wurde in dieser Studie überprüft, ob es einen Zusammenhang zwischen der Berichterstattung in Online-Zeitungen und dem Zugriff auf für das Thema relevante Artikel in der Online-Enzyklopädie Wikipedia gibt. Dafür wurden elf reichweitenstarke Online-Zeitungen inhaltsanalytisch untersucht, sowie anhand einer Logfile-Analyse die Anzahl der Zugriffe auf die Wikipedia-Artikel erhoben. Literatur Holbach, Thomas/ Maurer, Marcus (2014): Wissenswerte Nachrichten. Agenda-Setting-Effekte zwischen Medienberichterstattung und Online- Informationsverhalten am Beispiel der EHEC-Epidemie. In: Publizistik, 59(1), 65 - 81. 14.2 Beispiel EHEC-Epidemie 237 S T U D I E I : A G E N D A - S E T T I N G - E F F E K T E <?page no="237"?> Forschungsfragen und Ergebnisse Das Online-Informationsverhalten von Rezipienten wird vor allem durch das Informations- und Orientierungsbedürfnis (need for orientation) determiniert. Dieses besteht aus zwei Komponenten: der einem Thema zugesprochenen Relevanz und der Ungewissheit. Übertragen auf den Fall der EHEC-Epidemie bedeutet dies, dass der Rezipient im Internet nach Informationen sucht, weil er das Thema aufgrund der Medienberichterstattung als relevant erachtet und weil er nichts über EHEC weiß. Dabei spielt die Ungewissheit eine tragende Rolle: Um diese zu reduzieren, werden Rezipienten versuchen, Informationen zu dem Themenkomplex zu erhalten, indem sie unter anderem im Internet suchen. Das bedeutet, dass das durch die Medienagenda angestoßene Thema einen Einfluss auf die Publikumsagenda und deren Suchanfragen hat. Betrachtet man die Ergebnisse der Studie, so zeigt sich, dass die Medienagenda am gleichen Tag oder einen bzw. zwei Tage später einen Einfluss auf die Wikipedia-Nutzung (also auf die Publikumsagenda) ausübte (siehe Abb. 14.1). Die untersuchten Zeitverläufe belegen, dass eine Suchanfragenwelle auf den Beginn der Medienberichterstattung (am 23. Mai) zum Thema EHEC bei Wikipedia folgte, die bereits am 26. Mai 2011 ihren Höhepunkt verzeichnete. Schon nach der ersten Epidemie-Woche ließen die Suchanfragen zum Thema EHEC kontinuierlich nach, während die Medien erst am 8. Juni 2011 die meisten Artikel veröffentlichten. Zu erklären ist dies damit, dass die Rezipienten wahrscheinlich bereits nach wenigen Tagen ihre Ungewissheit zum Thema EHEC gestillt hatten und deshalb eine weitere Nutzung der Wikipedia-Artikel nicht notwendig Abb. 14.1 Zusammenhang zwischen EHEC-Berichterstattung in Online- Medien und den Zugriffen auf den EHEC-Artikel bei Wikipedia im Sommer 2011 (Holbach/ Maurer 2014: Abb. 1, S. 75) 238 1 4 V E R W E R T U N G S Z U S A M M E N H A N G <?page no="238"?> war. Die optisch trotz allem starke Übereinstimmung der beiden Zeitverläufe wird durch die Berechnung einer Korrelation bestätigt, die mit einem Koeffizienten von .77 einenstarken Zusammenhang nahelegt. Außerdem wurden die Einflüsse der Medienberichterstattung bei einzelnen Sub-Themen wie »Gurken«, »Ilse Aigner« oder »Sprossengemüse« auf die Anzahl einschlägiger Online-Suchanfragen verglichen. Dabei wurde deutlich, dass das Thema EHEC Mitte Juni nicht von der Publikumsagenda verschwunden war, sondern sich durch neue Ereignisse neue Themenkomplexe ergeben haben, bei denen in der Bevölkerung Ungewissheit vorherrschte. Es zeigten sich auch hier vermehrt kurzfristige Effekte der Medienagenda auf die Publikumsagenda, wobei diese verstärkt bei völlig neuen Begriffen auftraten (wie das Arzneimittel Eculizumab, das von 0 Zugriffen Mitte Mai auf 8.000 Zugriffe pro Tag gegen Ende Mai stieg). Untersuchungsanlage Da das deutschsprachige Wikipedia nicht nur deutsche Nutzer, sondern auch Besucher aus der Schweiz und Österreich anzieht, wurden für diese Studie die Berichterstattungen der elf reichweitenstärksten Online-Medien in allen drei Staaten untersucht. Der Untersuchungszeitraum betrug elf Wochen vom 15. Mai (kurz vor Ausbruch der Epidemie) bis zum 31. Juni 2011 (offizielles Ende der Epidemie). Über eine computergestützte Inhaltsanalyse wurden in Online-Zeitungen 2.393 Beiträge zum Thema EHEC identifiziert. Weitere Suchbegriffe in Zusammenhang mit dem Thema EHEC waren zentrale Orte (Hamburg, Bienenbüttel), zentrale Organisationen (Robert-Koch-Institut, Bundesinstitut für Risikobewertung), zentrale Personen (Ilse Aigner, Daniel Bahr) sowie bestimmte Symptome (HUS, Durchfall), Quellen der Erreger (Gurken, Sprossengemüse), Medikamente (Eculizumab) und Therapien (Plasmapherese). Durch eine Logfile-Analyse konnten die Zugriffsdaten auf die jeweiligen Wikipedia-Artikel ermittelt werden. Sowohl bei der computergestützten Inhaltsanalyse der Online-Medien als auch bei der Logfile-Analyse wurden lediglich die Häufigkeiten der vorkommenden Artikel bzw. Zugriffe erhoben. Formale und inhaltliche Kategorien Diese Untersuchung berücksichtigte lediglich formale Kategorien wie Erscheinungsdatum, Medium oder enthaltene Suchbegriffe. Weitere inhaltliche Informationen des Zeitungsartikels jenseits seines Themas waren zur Beantwortung der Forschungsfrage nicht relevant. Mit Blick auf die formalen Kategorien war es demnach primär von Bedeutung, wie viele Artikel zu bestimmten Themen rund um die EHEC-Epidemie von den 239 S T U D I E I : A G E N D A - S E T T I N G - E F F E K T E <?page no="239"?> Online-Zeitungen publiziert wurden und wie sich in dessen Zusammenhang die Zugriffsraten auf bestimmte Wikipedia-Artikel veränderten. Qualität der Untersuchung Dezidierte Reliabilitätstests waren aufgrund der computerbasierten Methodik dieser Erhebung nicht notwendig. Allerdings wurde vor Beginn der Untersuchung geprüft, ob sich der Zugriff auf die Wikipedia-Artikel an den einzelnen Wochentagen unterscheidet. Anhand von zehn Themen wurde deutlich, dass Beiträge in der Online-Enzyklopädie sonntags etwa ein Drittel weniger rezipiert werden als z. B. dienstags. Dieser Befund wird aber dadurch relativiert, dass an Wochenenden auch weniger Zeitungsartikel publiziert werden. Ebenfalls als problematisch ist die Nutzung von Wikipedia-Artikeln als Indikator für die Publikumsagenda anzusehen, da diese nicht exakt das gleiche Ziel verfolgt wie eine Suchmaschinenanfrage. So deutet letztere eher auf ein generelles Themeninteresse hin, das Lesen eines Wikipedia-Eintrags hingegen auf ein Interesse an der Bedeutung des Begriffs. Des Weiteren nahmen die Forscher das need for orientation als gegeben an. Dieses sollte in zukünftigen Studien mit erhoben und in die Untersuchung einbezogen werden. Studie II: Die »Fußballisierung« im deutschen Fernsehen Hintergrund/ Erkenntnisinteresse Fußball ist im deutschen Fernsehen ein Inhalt, der über Jahre hinweg konstant hohe Einschaltquoten erzielt. So wurde beispielsweise bei der Fußball-WM 2014 ein neuer Reichweitenrekord aufgestellt und auch allgemein werden die »Hitlisten« für die Publikumsresonanz in den letzten Jahren von Fußballübertragungen dominiert. Dem deutschen Fernsehen wird dabei eine »Fußballisierung«, d. h. eine Angebotskonzentration auf die Sportart Fußball unterstellt. Literatur Meier, Henk E./ Hagenah, Jörg (2016): »Fußballisierung« im deutschen Fernsehen? Eine Untersuchung zum Wandel von Angebot und Nachfrage bei den wichtigsten Free TV-Sendern. In: Medien- & Kommunikationswissenschaft, 64(1), 11 - 34. Dass sich die TV-Sender stärker auf den Fußball konzentrieren als auf andere Sportarten, liegt laut den Autoren an dessen hegemonialem 14.3 Sportberichterstattung im deutschen Fernsehen 240 1 4 V E R W E R T U N G S Z U S A M M E N H A N G <?page no="240"?> Status: Fußball ist in Deutschland ein schichtenübergreifendes Massenphänomen und der Deutsche Fußball-Bund ist zudem der größte Einzelsportverband der Welt. Außerdem verfügt der Fußball durch seine Vormachtstellung im TV über ein stabiles Stammpublikum, was die Übertragung von anderen Sportarten unattraktiver macht. Daneben droht anderen Sportarten (wie beispielsweise Tennis) durch den Mangel an Stars die Marginalisierung in den Medien. Forschungsfragen und Ergebnisse Diese Studie untersuchte, ob es in den vier FreeTV-Hauptsendern - D A S E R ST E , ZDF, RTL und S AT .1 - während der letzten 20 Jahre zu einer »Fußballisierung« gekommen ist. Dabei wurde vermutet, dass das Sportangebot zugunsten des Fußballs an Vielfalt verloren hat. Darüber hinaus postulieren die Forscher, dass das Spektrum an Disziplinen bei den öffentlich-rechtlichen Sender vielfältiger ist als bei den Privaten und dass sich Fußballübertragungen dem allgemeinen Trend sinkender Einschaltquoten wiedersetzen. Das Gesamtsportangebot der vier Sender wurde im Zeitraum von 1995 bis 2013 von ca. 64.000 auf ca. 39.000 Sendeminuten reduziert. Während die Übertragung anderer Sportarten im Vergleich zu 1995 um 44,2 % gesunken ist, sank der Fußballanteil lediglich um 16,3 %. Relativ ist der Anteil der Fußballberichterstattung an der Sportberichterstattung von 17,7 auf 24,4 % gestiegen, was die These einer »Fußballisierung« des Fernsehangebots bestätigt. Im Vergleich der TV-Sender (siehe Abb. 14.2) zeigt sich deutlich, dass D AS E R ST E sowohl 1995 als auch 2013 mit ca. 50 % den höchsten Anteil an der Sportberichterstattung innehatte. Darauf folgten das ZDF (1995: 28 %, 2013: 38 %), RTL (1995: 16 %, 2013: 11 %) und S AT .1 (1995: 5 %, 2013: 3 %). Die Angebotsvielfalt der Sportberichterstattung nahm langfristig beim ZDF und bei D AS E R ST E zu, was aber auf die sinkende Bedeutung von Tennis zurückgeht. Bei RTL verringerte sich die Vielfalt der Sportberichterstattung durch die Fokussierung auf Boxen und Formel 1. Bei den Privaten spielt der Sport eher eine untergeordnete Rolle, wohingegen die öffentlich-rechtlichen Anstalten zu den wichtigsten und auch vielfältigsten Sportprogrammanbietern der untersuchten Sender zählen. Schaut man sich die Zuschauermarktanteile des Sportangebots der vier Sender an, fällt auf, dass diese fast immer über den Durchschnittswerten liegen. Für die Fußballberichterstattung sind die Anteile sogar noch höher als im gesamten Sportangebot, was darauf hindeutet, dass der Fußball in einer Zeit sinkender Zuschauerresonanz weiterhin einen verlässlichen und attraktiven Programminhalt (vor allem in Ereignisjahren mit WM oder EM) darstellt. 241 S T U D I E I I : D I E » F U ß B A L L I S I E R U N G « I M D E U T S C H E N F E R N S E H E N <?page no="241"?> Untersuchungsanlage Auf Grundlage von Daten des Fernsehpanels der Arbeitsgemeinschaft Fernsehforschung (AGF) und der Gesellschaft für Konsumforschung (GfK) wurden alle Sendungen von D AS E R ST E , dem ZDF, RTL und S AT .1 von 1995 bis 2013 untersucht. Dessen Codierverfahren lief in zwei Phasen ab: Zunächst sichteten geschulte Codierer der GfK das Programmangebot der teilnehmenden Sender und übermittelten ihre Codiervorschläge an die Programmverantwortlichen zur Prüfung. In der zweiten Phase wurden alle im weiteren Sinne über Sportereignisse oder -events informierenden Sendungsformate codiert, d. h. Live-Übertragungen, deren Vor- und Nachberichterstattung sowie Magazinsendungen (z. B. »Sportschau«). Diese Formate wurden außerdem bestimmten Sportarten zugeordnet. Über das AGF/ GfK-Fernsehpanel wurden ferner die Marktanteile der jeweiligen Sendungen erhoben. Ergänzend wurden qualitative Experteninterviews durchgeführt, um die Rationalität, die den Entscheidungen bei der Programmplanung zugrunde liegt, nachvollziehen zu können. Formale und inhaltliche Kategorien Die Inhaltsanalyse der Fernsehsender beruhte auf einem Codebuch, das nur wenige Kategorien umfasste. Da durch die Erhebung der AGF und der GfK schon sowohl Sender und Sendedauer als auch Marktanteile bestimmt waren, mussten nur noch die verschiedenen Sportarten nachcodiert werden, die in den jeweiligen Sendungen gezeigt wurden. Der Abb. 14.2 Entwicklung des Sportangebots der Hauptprogramme (Quelle: Meier/ Hagenah 2016: Abb. 4, S. 22) ergänzende Experteninterviews 242 1 4 V E R W E R T U N G S Z U S A M M E N H A N G <?page no="242"?> »Codeplan Sport« umfasste sieben Hauptkategorien: Ballsport, Wintersport, Leichtathletik, Motorsport, Kampfsport, Wassersportarten und sonstige Sportarten. Lediglich die Ballsportarten wurden noch differenzierter in Unterkategorien wie beispielsweise Fußball, Tennis, Handball, Volleyball oder Golf codiert. Qualitätskontrolle Aufgrund der großen Stichprobe des Fernsehpanels der GfK (5.640 Fernsehhaushalte, ca. 13.000 Teilnehmer), das in Hinblick auf soziodemografische Variablen jedes Jahr evaluiert wird, ist die Zuschauerstichprobe repräsentativ für die Grundgesamtheit. Die von der GfK eingesetzten Messgeräte haben sich auch als reliabel erwiesen. Das von der GfK verwendete Kategoriensystem der Inhaltsanalyse ist nach Auskunft der AGF über die Zeit stabil, was Voraussetzung für eine reliable Messung ist. Öffentlich zugängliche Reliabilitätstest für die Sendungscodierung liegen aber nicht vor. Eine Qualitätskontrolle ist bei dieser Studie schwer nachzuvollziehen; jahrelange Erfahrungen zeigen aber, dass sowohl die AGF als auch die GfK methodisch sauber, reliabel und valide arbeiten. Studie III: Nachrichtenfaktoren und Themen in Nutzerrankings Hintergrund/ Erkenntnisinteresse Das Verhältnis von Journalismus und Publikum hat sich mit der Digitalisierung stark verändert. Über Klickzahlen und Rankings kann der Journalist nun nachvollziehen, welche einzelnen Artikel die Rezipienten genau auswählen. Gleichzeitig sind Redaktionen durch einen zunehmenden ökonomischen Druck gezwungen, diese wahrgenommenen Publikumspräferenzen in ihr eigenes Selektionsverhalten einzubeziehen, um mehr Aufmerksamkeit des Publikums zu generieren. Die Studie überprüft, ob es Gemeinsamkeiten und Unterschiede in der Nachrichtenselektion von Journalisten und Publikum gibt, indem sie eine Inhaltsanalyse verschiedener journalistischer Medienformate und Nutzerrankings im Internet durchführt. Literatur Wendelin, Manuel/ Engelmann, Ines/ Neubarth, Julia (2014): Nachrichtenfaktoren und Themen in Nutzerrankings. Ein Vergleich der journalistischen Nachrichtenauswahl und der Selektionsentscheidung des Publikums im Internet. In: Medien- & Kommunikationswissenschaft, 62(3), 439 - 458. 14.4 Nachrichtenselektion von Journalisten und Publikum 243 S T U D I E I I I : N A C H R I C H T E N F A K T O R E N U N D T H E M E N I N N U T Z E R R A N K I N G S <?page no="243"?> Nutzerrankings von Online-Zeitungen bilden dabei verschiedene Dimensionen der Publikumsselektion ab. So kann unterschieden werden zwischen einer selektiven Rezeption, die auf »meistgelesen« (z. B. bei yahoo, focus) beruht, einer selektiven Multiplikation, die auf »am meisten geteilt« (z. B. bei virato) abstellt und auf einer selektiven Partizipation, wie sie die »meistkommentiert«-Rankings abbilden. Forschungsfragen und Ergebnisse Die theoretische Basis dieser Studie bildet die Nachrichtenwerttheorie. Diese postuliert, dass bestimmte dem Ereignis inhärente Aspekte (wie etwa Negativität oder Status der Ereignisregion) den Nachrichtenwert bestimmen - also die Wahrscheinlichkeit der Publikation (vgl. Kapitel 15.2). Nachrichtenwerte beeinflussen demnach zum einen, über welche Ereignisse der Journalist schreibt und zum anderen, welche geschriebenen Artikel der Rezipient dann auch liest. In dieser Studie wird untersucht, . inwieweit sich die Nachrichtenwerte in verschiedenen Medienformaten von denen des Publikums in Nutzerrankings unterscheiden und . inwieweit sich die Themenselektion in verschiedenen Medienformaten von der des Publikums laut Nutzerrankings abhebt. Im Durchschnitt enthielten die untersuchten Artikel zehn Nachrichtenfaktoren. Allerdings wird in der Analyse deutlich, dass die Selektion des Journalisten und die Nachrichtenauswahl des Publikums nur bei wenigen Nachrichtenfaktoren auseinandergehen. Beispielsweise hat der Ortsstatus für Journalisten eine durchweg höhere Bedeutung als für die Internetnutzer. Im Gegenzug ist Überraschung für die Rezipienten wichtiger als für die Journalisten. Betrachtet man nur die journalistischen Angebote, sind keine Unterschiede in der Nachrichtenauswahl zwischen Online- und Offline-Medien erkennbar und genauso wenig zwischen Qualitäts- und Boulevardzeitungen. Blickt man auf die Nutzerrankings bestehen zwischen den einzelnen Aspekten der Publikumsselektion (selektive Rezeption bzw. Multiplikation) ebenfalls nur geringfügige Differenzen. Die Unterschiede in der Themenselektion sind weitaus größer: So halten sich bei den Journalisten Public-Affairs und Non-Public-Affairs etwa die Waage, während sich zwei Drittel der Artikel in Nutzerrankings mit Non-Public-Affairs auseinandersetzen. Für Journalisten sind also vor allem Themen aus den Bereichen des politischen Lebens, der Wirtschaft und der (Populär-)Kultur von Bedeutung. Das Internetpublikum bevorzugt hingegen Sport- und Servicebeiträge; bei YAHOO . D E und F O CU S . D E stehen Sport und Kriminalität an erster Stelle. 244 1 4 V E R W E R T U N G S Z U S A M M E N H A N G <?page no="244"?> Untersuchungsanalage Über eine Inhaltsanalyse wurden drei journalistische Medien und ihr jeweiliges Online-Pendant untersucht. Mit der B ILD , der S ÜDD EUTS CHE N Z E I- TUNG und S P I E G E L ONLINE wurden typische Vertreter verschiedener Zeitungsarten (wie Boulevard- und Qualitätszeitung), eingeschlossen. Für die Operationalisierung der Publikumsselektion wurden drei Nutzerrankings untersucht. Dazu gehörten YAHOO N AC HRICHT EN und F O CU S ON- LINE , die beide »meistgelesene Artikel« rankten, sowie VIRATO . D E , das als Nachrichtenaggregator die Artikel anzeigt, die die höchste Social-Media- Aktivität aufweisen. Alle untersuchten Webseiten wurden jeweils um 17 Uhr gespeichert, um den Stand der Online-Selektion mit der Offline-Selektion vergleichen zu können (denn gegen 17 Uhr ist der klassische Redaktionsschluss). Als Analyseeinheiten dienten die Nachrichtenartikel der Zeitung bzw. des Rankings, wobei multimediale Komponenten nicht berücksichtigt wurden. Im Untersuchungszeitraum vom 26. Mai bis 8. Juni 2012 kamen so 667 zu codierende Artikel zusammen. Formale und inhaltliche Kategorien Als formale Variablen wurden das Medium bzw. das Nutzerranking codiert sowie Position und Länge der Beiträge. Auf inhaltlicher Ebene wurde das Thema - das 65 mögliche Ausprägungen vorsah - auf Basis der Überschrift bzw. des Teasers codiert. Bei der Operationalisierung der 19 Nachrichtenfaktoren wurden diese auf einer fünfstufigen Intervallskala erhoben, um Intensitätsstufen vergleichen zu können. Die Codierung führten elf geschulte Codierer im Rahmen eines Projektseminars durch. Die untersuchten Themen und Nachrichtenfaktoren wurden für die spätere Analyse zu Indizes zusammengefasst. Gegenstände wie Sicherheit, Verteidigung und Wirtschaft wurden den Public-Affairs zugeordnet, Themen wie Kriminalität, Sport und Wissenschaft den Non-Public-Affairs. Qualität der Untersuchung Aufgrund der schlechten Reliabilitätswerte für die Einschätzung der Intensität der Nachrichtenfaktoren auf der fünfstufigen Skala wurden diese Variablen im Nachhinein dichotomisiert. Im Schnitt ergab sich für die Nachrichtenfaktoren ein Holsti-Koefizient von r =.82, was für eine inhaltliche Variable einen soliden Wert darstellt. Schaut man aber genauer auf die Reliabilität der einzelnen Nachrichtenfaktoren, fallen starke Unterschiede auf: Der Nachrichtenfaktor Sexualität/ Erotik beispielsweise wurde mit einem sehr hohen Holsti-Wert von r=.98 codiert (vermutlich weil er sehr selten vorkam), aber der Nachrichtenfaktor Schaden erreichte nur wenig befriedigende r=.62. Die Inhaltsvalidität der 245 S T U D I E I I I : N A C H R I C H T E N F A K T O R E N U N D T H E M E N I N N U T Z E R R A N K I N G S <?page no="245"?> Themenselektion wurde durch eine Vorabstudie geprüft, in der die relevanten Themen selektiert und gesammelt wurden, woraus dann schlussendlich die Themenliste entstand. Darüber hinaus lassen sich aus der Publikation selbst wenig Aufschlüsse zur Qualität der Untersuchung ziehen, da sonst wenig zur Schulung der Codierer bzw. zu den Reliabilitätswerten der formalen oder der Themen-Kategorie bekannt ist. Studie IV: Handlungslogik von Tageszeitungen Hintergrund/ Erkenntnisinteresse Die Medien bilden für den Rezipienten einen Anker, an dem sie sich orientieren und ihr gesellschaftliches Kommunizieren und Handeln ausrichten. Medienorgane arbeiten aber nach ihrer eigenen je nach Medium unterschiedlichen Handlungslogik. Diese Studie nimmt sich der Handlungslogik von deutschen Tageszeitungen an und erforscht, nach welchen Prinzipien diese Realität konstruieren. Literatur Meyen, Michael (2015): Aufmerksamkeit, Aufmerksamkeit, Aufmerksamkeit. Eine qualitative Inhaltsanalyse zur Handlungslogik der Massenmedien. In: Publizistik, 60(1), 21 - 39. Das Ziel der Studie ist eine Exploration der Frage, wie und warum bestimmte Ereignisse von den Massenmedien ausgewählt, publiziert und interpretiert werden. Obwohl Medienschaffende (wie beispielsweise Journalisten und Redakteure) eine abstrakte Vorstellung davon haben, wie das Mediensystem arbeitet, bleiben die publizierten Berichterstattungen die wichtigste Quelle zur Erhebung der Handlungslogik. Deswegen werden in einer historisch-vergleichenden qualitativen Inhaltsanalyse von drei ausgewählten Tageszeitungen bestimmte Ereignisse in Hinblick auf deren Selektion, Präsentation und Interpretation untersucht. Forschungsfrage und Ergebnisse Die Befunde legen nahe, dass auf die Handlungslogik von Tageszeitungen verschiedene Einflüsse wirken, beispielsweise die Verfasstheit der Medienorganisationen und die Arbeitsroutinen von Journalisten, deren Zeitdruck, die politische Kommunikationskultur oder allgemeine Strukturen des Mediensystems. Deswegen wurden die Ergebnisse dieser 14.5 Auswahl, Publikation und Interpretation von Ereignissen 246 1 4 V E R W E R T U N G S Z U S A M M E N H A N G <?page no="246"?> qualitativen Studie in Thesen überführt, die für eine qualitative Überprüfung bereitstehen. Deshalb folgt auf jede, vom Forscher aufgestellte These eine kurze Erläuterung, die an Ergebnissen der Analyse anknüpft. Beispielsweise wurde vermutet, dass die Handlungslogik der Massenmedien auf allgemeine Aufmerksamkeit abzielt und damit näher am kommerziellen als am normativen Pol liegt. Dies führt beispielsweise zum Verzicht auf eine Fachsprache, zur Jagd nach Exklusivnachrichten oder zu Vereinfachungen, Zuspitzungen und Übertreibungen (S. 32). Diese Phänomene zeigten sich etwa in der Berichterstattung über politische Ereignisse, die im Zeitverlauf prominente Platzierungen auf den ersten Seiten einbüßten und durch kulturelle Ereignisse wie den Eurovision Song Contest oder einer James-Bond-Premiere ersetzt wurden. Der Trend der Entpolitisierung lässt sich auch daran erkennen, dass komplexe politische Themen auf ein handliches Format reduziert werden - wie beispielsweise die »neun Punkte für sozialere Politik«, in denen die Ergebnisse des SPD-Parteitags von der S ÜDD EUT S CHEN Z E ITUNG auf 50 Zeilen zusammengefasst werden. Auch ein Trend zur Personalisierung und zu Außergewöhnlichem wird konstatiert, neben der Verwendung möglichst vieler und auffälliger Bilder zur Veranschaulichung und Vereinfachung von komplexen Inhalten und der Einbettung von Ereignissen in eine Traditionslinie bzw. deren Verknüpfung mit Emotionen und Dramatisierung. Untersuchungsanlage Bei der Auswahl der zu untersuchenden Themen mussten mehrere Ziele berücksichtigt werden: Zum einen sollte sich das zu untersuchende Geschehen in jedem Medienangebot nachweisen lassen und zum anderen sollte es wiederkehrende Ereignisse darstellen, die im Zeitverlauf untersucht werden konnten. Die Wahl fiel auf zehn Themen (siehe Abb. 14.3), bei denen außerdem darauf geachtet wurde, dass sich die Ereignisse über die Jahre hinweg nicht bzw. möglichst wenig verändert haben. Beim Thema Stürme wurde beispielsweise berücksichtigt, dass sich diese nach objektiv feststellbaren Kriterien (Stärke, Höhe des Schadens, Zahl der Toten) ähnelten. Um die Medienlogik von Tageszeitungen insgesamt zu analysieren, wurden unterschiedliche Zeitungstypen eingeschlossen. So fiel die Wahl auf die überregionale Qualitätszeitung S ÜDDE UT S C HE Z E ITUNG , die regionale Abonnementzeitung M ÜNCHENE R M E RKU R und die Boulevardzeitung B ILD , deren Berichterstattung im Zeitraum von 1959 bis 2012 herangezogen wurde. Aber nicht für jedes der Themen war jeweils der komplette Untersuchungszeitraum relevant (siehe Abb. 14.3); beispielsweise wurden nur die Olympischen Spiele von 1964, 1976, 1988 und 2012 Themenwahl 247 S T U D I E I V : H A N D L U N G S L O G I K V O N T A G E S Z E I T U N G E N <?page no="247"?> untersucht und davon jeweils nur die Berichterstattung über die Eröffnungsfeiern, über deutsche und internationale Stars, einen normalen Wettkampftag (Tag 6) und den 100m-Lauf der Herren. Alles in allem kamen nach dieser Einschränkung des Materials 1.800 Beiträge zusammen, die weiter auf jene Artikel reduziert wurden, bei denen anhand von Platzierung, Aufmachung und Genre zu erkennen war, dass die Redaktion ihnen eine zentrale Bedeutung beimaß. Diese Artikel wurden dann von einer kleinen Gruppe von Codieren analysiert, wobei jeder Codierer alle Artikel zu einem der zehn Ereignisse auswertete. Im Anschluss wurden die Ergebnisse der Codierer mit dem Autor diskutiert (»konsensuelles Codieren«). Abb. 14.3 Untersuchungsgegenstände (Meyen 2015: Tab. 1, S. 30) 248 1 4 V E R W E R T U N G S Z U S A M M E N H A N G <?page no="248"?> Formale und inhaltliche Kategorien Bei der Benennung der Kategorien muss bewusst sein, dass eine qualitative Inhaltsanalyse kein standardisiertes Codebuch voraussetzt, sondern diese zum Teil während der Codierarbeiten erst entwickelt. Die Artikel der Tageszeitungen hat man anhand mehrerer Kategorien analysiert, die zusammengefasst als Teilkonstrukte von Handlungslogik begriffen werden. So wird die Selektionslogik über die Kategorien Thema, Akteure, Quellen und Exklusivität erfasst. Die Präsentationslogik wird über Platzierung, Umfang, journalistische Darstellungsform, Überschriftengestaltung, Sprache und Visualisierung abgedeckt. Und die Interpretationslogik wird über die Bewertung und Einordnung des Berichterstattungsgegenstandes, die Berufsauffassung des Journalisten sowie dessen Narrativität und Erzähltechnik erfasst. Die formalen Kategorien in dieser Untersuchung beziehen sich hauptsächlich auf die Platzierungslogik. Sowohl die Selektionsals auch die Interpretationslogik sind dagegen schwieriger zu erfassende Konstrukte, bei denen ausführliche inhaltliche Kategorien angewandt werden. Beim Thema Sturm beispielsweise werden für die Selektionslogik thematische Aspekte wie meteorologische Details, entstandene Schäden, Reaktionen der Politik, Einzelschicksale oder wirtschaftliche Folgen erfasst und analysiert. Qualität der Untersuchung Anders als bei standardisierten Untersuchungen haben qualitative Inhaltsanalysen generell Schwierigkeiten, intersubjektive Nachvollziehbarkeit zu erzeugen. Qualitätskriterien beziehen sich deshalb in erster Linie auf die Offenlegung der verwendeten Methode. Die Analyse der Medientexte erfolgte auf Basis der Hermeneutik, die eine gemeinsame Kultur, Textkritik und kommunikative Rekonstruktion von Codieren, Autor und Lesern unterstellt. Der Forschungsbericht Nachdem nun die mühevolle Arbeit der theoretischen Konzeption von Thema, Forschungsfragen und Hypothesen, die Konstruktion eines Codebuches mit Kategoriensystem, die Erhebung und die Auswertung der Daten sowie die Interpretation der Ergebnisse hinter uns liegt, ist es nicht nur ein sinnvoller, sondern auch ein unbedingt notwendiger Schritt, diese Arbeit schriftlich zu dokumentieren. Nicht nur die Erkenntnis des Einzelnen bringt die Forschung und die Wissenschaft voran, sondern der Erkenntnisgewinn muss aus wissenschaftstheo- 14.6 249 D E R F O R S C H U N G S B E R I C H T <?page no="249"?> retischer Sicht verbreitet werden. Somit können auch andere Forscher das gewonnene Material und die Ergebnisse weiterverwenden, kritisieren, widerlegen oder weiteranalysieren, wenn sie sowohl die Ergebnisse einsehen, als auch die theoretischen Vorüberlegungen und die Methodik kennen und intersubjektiv nachvollziehen können. Deswegen wird am Ende eines Projekts ein Forschungsbericht, ein Buch oder ein Aufsatz für eine wissenschaftliche Fachzeitschrift verfasst oder ein Vortrag auf einer Fachtagung gehalten. Im Forschungsprozess wird so der Übergang von Begründungszum Verwertungszusammenhang geleistet. Es existieren zwar verschiedene selbständige Lehrbücher über den Prozess des wissenschaftlichen Schreibens; stattdessen soll hier ein anwendungsbezogener Überblick über das Verfassen eines Forschungsberichtes auf Basis einer inhaltsanalytischer Datenerhebung gegeben werden. Die Systematik, die hier vorgestellt wird, orientiert sich wieder an den Bedürfnissen von Einsteigern in die empirische Forschung. Das Ziel eines Forschungsberichtes ist die systematische Beantwortung der Forschungsfragen, die zu Beginn der Studie entwickelt wurden. Dabei sollten die forschungsleitende Theorie ebenso wie die Methodik der Studie nachvollziehbar und leserfreundlich dargestellt werden. Außerdem ist es sehr wichtig, alle Überlegungen und Vorgehensweisen sinnvoll miteinander zu verknüpfen und stringent zu argumentieren. Der endgültige Textumfang ist stark abhängig davon, zu welchem Zweck der Forschungsbericht verfasst wird. Der nachfolgende Überblick bezieht sich gleichermaßen auf kürzere wie längere Formate; obwohl keine konkreten Seitenzahlen angegeben sind, sollte in der Regel dem Ergebnisteil der größte Stellenwert zukommen, gefolgt von Theorieteil. Forschungsbericht 1) Inhaltsverzeichnis 2) Tabellenverzeichnis, Abbildungs-/ Schaubildverzeichnis, Abkürzungsverzeichnis (optional) 3) Einführung . Hinführung zum Thema . kurzer Überblick über das Thema der Studie . Abriss über das Vorgehen und den Aufbau des Textes 4) Theorieteil (kann mehrere Kapitel umfassen) . Vorstellung des theoretischen Hintergrunds der Fragestellung . Ausführen der wichtigsten Forschungsergebnisse . theoretische Entwicklung der eigenen Fragestellung aus dem zuvor Gesagten 250 1 4 V E R W E R T U N G S Z U S A M M E N H A N G <?page no="250"?> 5) Hypothesen/ Forschungsfragen (kann in den Theorieteil eingegliedert werden) . Aufstellung von ca. drei bis acht Forschungsfragen bzw. Hypothesen . Die Forschungsfragen bzw. Hypothesen sollten logisch aus dem Theorieteil ableitbar sein, wobei diese Zusammenhänge dem Leser auch deutlich beschrieben werden sollten. . Forschungsfragen bzw. Hypothesen sollten eher größere Zusammenhänge ansprechen - nicht für jede Kategorie im Codebuch bedarf es einer eigenen Hypothese. Eine Forschungsfrage wird dann genutzt, wenn es in diesem Bereich noch wenig fundierte Literatur bzw. Forschung gegeben hat. Eine Hypothese wird dann aufgestellt, wenn eine breite Wissensbasis über diesen Bereich vorliegt. Sie sind konkreter formulierbar als Forschungsfragen und sollten eindeutig falsifizierbar sein. 6) Methodenteil . Sinn: Herstellung einer intersubjektiven Nachvollziehbarkeit der Vorgehensweise für den Leser . Beschreibung, Diskussion und Reflexion der eigenen Methodik . Bestandteile: 1. Beschreibung des Codebuchs als Messinstrument a. Herleitung der Kategorien (jedoch konstruktorientiert, keine bloße Aufzählung der Kategorien) b. Definition von Untersuchungs-, Analyse, Codier- und Kontexteinheit c. optimal: mit grafischer Darstellung des Codebuch-Aufbaus 2. Durchführung a. Erklärung der Vorgehensweise b. Beschreibung des Pre-Tests c. Ergebnisse der Reliabilitätstests 3. Beschreibung der Auswahleinheit a. z. B. Anzahl der codierten Artikel, Anzahl der erfassten Codiereinheiten pro Messebene b. Repräsentativitätsüberlegungen 7) Ergebnisteil . Die Ergebnisse sollten entlang der Hypothesen bzw. Forschungsfragen, aber keinesfalls nach der Reihenfolge der Kategorien im Codebuch dargestellt werden. . Beantwortung der Forschungsfragen bzw. Hypothesen: 1. kurze, sinngemäße Skizzierung der Forschungsfragen bzw. Hypothesen 2. Beschreibung des datenanalytischen Vorgehens 251 D E R F O R S C H U N G S B E R I C H T <?page no="251"?> 3. Darstellung (wenn sinnvoll zusätzlich tabellarisch bzw. grafisch aufbereitet), Interpretation und Diskussion der Ergebnisse 4. Zusammenfassung der Ergebnisse zu jeder Hypothese und Rückbezug zum theoretischen Hintergrund und zu vorherigen Forschungsergebnissen . sollte im Aktiv geschrieben werden; Nominalstil, SPSS-technische Kürzel oder SPSS-Tabellen sind zu vermeiden 8) Zusammenfassung/ Diskussion/ Ausblick/ Kritik . Zusammenfassung und Diskussion von Fragestellung, Methode und Ergebnissen . Interpretation und Rückbezug der Ergebnisse auf die theoretische Grundlage . Forschungsausblick sowie kritische Reflexion der Studie 9) Literaturverzeichnis . alphabetische Auflistung aller verwendeten Quellen und Materialien in einheitlicher Belegweise . einheitliche Zitation, entweder amerikanisch (also in Klammern hinter dem Zitat) oder in Fußnoten 10) Anhang: . alle für die Dokumentation der Forschungsdurchführung relevanten Materialien . z. B. Codebuch, weitere Tabellen, Anschreiben Literatur Die vorstehende Übersicht bezieht sich auf ein von Constanze Rossmann erstelltes Dokument: http: / / www.constanze-rossmann.de/ science/ science_content/ merkblatt_ forschungsbericht.pdf Fallbeispiel: Politische Kommunikation XI Auf formaler Ebene untersuchte die Studie vier verschiedene Aspekte: die Anzahl der Beiträge, deren Multimedialität, die Kommentierungsmöglichkeiten und die Anzahl an Hyperlinks. Von den 2.362 erfassten Beiträgen wurden deutlich mehr online als offline veröffentlicht. Dies liegt aber zum einen an der OTZ, deren Online-Bereich auf einer Redaktionsgemeinschaft von drei verschiedenen Regionalzeitungen beruht und schon deshalb mehr publiziert; und zum anderen an S P I E G E L ONLINE , dessen Offline-Pendant nur einmal in der Woche erscheint, während 252 1 4 V E R W E R T U N G S Z U S A M M E N H A N G <?page no="252"?> S P I E G E L ONLINE mehrmals täglich aktualisiert wird. Außerdem macht die Verteilung der untersuchten Beiträge deutlich, dass die Print-Medien im Offline-Bereich mehr bereitstellen als die TV-Nachrichten, wohingegen sich beide Mediengattungen in der Anzahl der veröffentlichten Online- Beiträge nicht unterschieden. Im Ergebnis setzten nachrichtenjournalistische Online-Medien verstärkt Multimedialität ein; die meisten Fotos präsentierten S P I E G E L ONLINE und B ILD . D E , deren Offline-Pendants ebenfalls mehr Bilder zeigten als die Konkurrenz. Dies lässt den Schluss zu, dass Online- und Offline-Angebote eines Medienunternehmens mehr als nur den Namen gemein haben. Überraschenderweise zeigte der Internetdienst WE B . D E im Vergleich am wenigstens multimediale Elemente. Im Schnitt waren in jedem Online- Artikel einer Tageszeitung mindestens zwei, in Beiträgen der TV-Senders mindestens drei Bildelemente zu sehen - und bei WE B . D E lediglich eines. Dieser Anbieter schnitt im Vergleich der Online-Medien auch bei den Kommentierungsmöglichkeiten am schlechtesten ab: Nur bei 38 % aller Artikel existierte eine Möglichkeit zur Kommentierung - im Gegensatz zu den Online-Ausgaben von Zeitungen (86 %) und Sendern (80 %). Bei dem Vergleich der Verlinkungen zeichnete sich ein ähnliches Bild ab, denn durchschnittlich waren ca. sechs Hyperlinks bei Online-Print- Artikeln, ca. vier bei Online-TV-Sendern und nur ca. einer bei WE B . D E zu finden. Bei Offline-Medien wurden sogenannte »linkähnliche Verweise« codiert, beispielsweise »mehr zu diesem Thema finden Sie unter . . .«. Diese kamen im Untersuchungszeitraum aber nur sehr selten vor. Zur Differenzierung von Links bzw. Verweisen wurde hauptsächlich zwischen internen (innerhalb des Mediums) und externen Verweisen (zu anderen Massenmedien, Parteien usw.) unterschieden. Genutzt wurden vor allem interne Verweise, während ihre externe Variante beinahe gar nicht vorkam. Vier Analysefelder auf inhaltlicher Ebene waren beispielsweise der Gegenstand, die Themen, die Akteure und die Tendenzen der Berichterstattung. Bei ersterem differenzierte die Erhebung zwischen Ereignis, Stellungnahme und Thema. Die Berichterstattung über Ereignisse und Stellungnahmen betrifft eher zeitlich begrenzte, aktuelle Geschehnisse, während sich Themen als Resultat einer vertieften Auseinandersetzung ergeben. Im Vergleich aller Mediengattungen rückten vor allem Offline- Printmedien Themen in den Mittelpunkt ihrer Berichterstattung (17 % aller Beiträge); darauf folgten mit 9 % die TV-Nachrichten (sowohl online als auch offline) und erst mit 8 % die Online-Printmedien. Diese Befunde lassen den Schluss zu, dass online das Hauptaugenmerk auf Aktualität liegt. Um die Themenvielfalt der Mediengattungen zu vergleichen, wurden die 266 Einzelthemen in neun übergeordnete Themenfelder Ergebnis 253 F A L L B E I S P I E L : <?page no="253"?> zusammengefasst. Hier zeigte sich eine Ähnlichkeit zwischen Online- und Offline-Medien, selbst beim online-spezifischen Thema »Netzpolitik«. Die Ausnahme war erneut WE B . D E , das überdurchschnittlich häufig Nicht-Sachthemen wie Wahlkampf, Politiker und Parteien thematisierte. Printmedien (egal ob online oder offline) behandelten exakt 143 Einzelthemen, gefolgt von Online-TV-Medien (102), WE B . DE (100) und TV-Offline-Medien (82). Überraschenderweise fiel der Unterschied zwischen Print- und TV-Medien größer aus als der zwischen Online- und Offline- Medien. Politiker der schwarz-gelben Regierungskoalition dominierten die Berichterstattung - dies zeigte sich besonders klar für die Online- und Offline-Ausgaben von RTL A KTUE L L und für B ILD . Allgemein war die Akteursvielfalt in den Online-Ausgaben größer als in den jeweiligen Offline-Pendants. Die Tendenzen der Berichterstattung verkörperten die wohl komplexeste inhaltliche Kategorie der Studie. Als Indikator dafür diente die Einschätzung der »Tendenz der Darstellung der Akteure«. Insgesamt lagen hier für die meisten Akteure allerdings keine codierfähigen Aussagen vor: Nur lediglich 35 % der Akteure in Offline-Printmedien, 31 % in Online-Printmedien, 26 % im Offline-Fernsehen, 25 % im Online-TV und 19 % bei WE B . D E wurden bewertet. Dies verdeutlicht, dass Printmedien eher Urteile zu Akteuren äußern als das Fernsehen. Über alle Medien hinweg wurden die Akteure überwiegend negativ dargestellt - und zwar einerseits häufiger in den Printmedien als im Fernsehen; und andererseits online stärker als offline. Insgesamt lassen sich aufgrund dieser Inhaltsanalyse deutliche Unterschiede sowohl zwischen den einzelnen Mediengattungen als auch zwischen On- und Offline-Medien ausmachen. Letztlich deuten die Ergebnisse darauf hin, dass die Rezipienten von nachrichtenjournalistischen Online-Medien nur in Einzelfällen mehr oder andere Informationen erhalten als die Rezipienten von Offline-Medien. Allerdings finden sich exklusive Zusatzinformationen in Form von Texten, Fernsehnachrichten, Videos und Leserkommentaren und die Inhalte werden außerdem schnell und zeitunabhängig zugänglich gemacht. Deswegen nehmen die Autoren an, dass sich die Online-Medien zu einem wichtigen Bestandteil unserer Medienlandschaft entwickelt haben. 254 1 4 V E R W E R T U N G S Z U S A M M E N H A N G <?page no="254"?> Die Inhaltsanalyse als Teil eines Mehrmethodenansatzes Inhalt 15.1 Methodische Untersuchungskonzepte für Theorien und Modelle 15.2 Inferenzen auf den Kommunikator: Nachrichtenwerte 15.3 Inferenzen auf den Rezipienten: Agenda-Setting 15.4 Inferenzen auf die soziale Situation: Framing 15.5 Mehrstufen-Ansatz: Kultivierung Die im vorigen Kapitel vorgestellten Inhaltsanalysen konzentrierten sich zumeist auf die Beschreibung der Medienberichterstattung, ohne dass ergänzende Datenerhebungen vorgenommen wurden, um weitergehende Inferenzschlüsse abzusichern. Nachfolgend wird deshalb überblicksartig die Logik einiger kommunikationswissenschaftlicher Theoriefelder dargestellt, in denen Inhaltsanalysen häufig mit anderen Formen der Datenerhebung kombiniert werden. Dies soll den Blick für die Einsatzgebiete der Methode jenseits eher deskriptiver Fragestellungen weiten. Methodische Untersuchungskonzepte für Theorien und Modelle In der Kommunikationswissenschaft entwickelte Theorien und Modelle der Massenkommunikation beziehen sich fast nie ausschließlich auf Medieninhalte - sie sind immer mit Prozessen der Aussagenentstehung oder ihren Auswirkungen verknüpft. Wenn zur empirischen Untersuchung der jeweiligen Ansätze Inhaltsanalysen herangezogen werden, ist ein Inferenzschluss unvermeidlich (vgl. Kap. 2.2). Dieser unterläge aber erheblichen Einschränkungen, würde er sich bloß auf die Daten der Inhaltsanalyse berufen, wie bereits im Zusammenhang mit deren 15 15.1 255 M E T H O D I S C H E U N T E R S U C H U N G S K O N Z E P T E F Ü R T H E O R I E N U N D M O D E L L E M E T H O D I S C H E U N T E R S U C H U N G S K O N Z E P T E F Ü R T H E O R I E N U N D M O D E L L E <?page no="255"?> Validität diskutiert wurde (vgl. Kap. 12.3). Daher sehen die entsprechenden Studien oft weitere Datenerhebungen wie Publikumsbefragungen, Feld- und Laborexperimente oder Beobachtungen vor. Die Forschungsfragen und Hypothesen werden in der Gesamtkonzeption der Studie (siehe Abb. 3.1) dann durch unterschiedliche Teilstudien bearbeitet. Merksatz Theoriegeleitete kommunikationswissenschaftliche Untersuchungen kombinieren die Inhaltsanalyse oft mit weiteren Datenerhebungen, um die Gültigkeit der erforderlichen Inferenzschlüsse abzusichern. Die Grundlagen dieser Methoden können hier natürlich nicht weiter vertieft werden - sie sind Gegenstand eigener Methodenliteratur (für einen ersten Einstieg vgl. Brosius et al. 2016, Diekmann 2009 und Scheufele/ Engelmann 2009). Lohnenswert ist es allerdings, einen genaueren Blick darauf zu werfen, wie die Inhaltsanalyse in die jeweiligen Forschungskonzepte eingebettet wird und welcher Stellenwert ihr dort zukommt. Dieses Kapitel blickt über den Tellerrand der Inhaltsanalyse hinaus und erweitert die Perspektive auf ihre praktische Anwendung in der akademischen Forschung. Im Folgenden soll veranschaulicht werden, wie sich existierende theoretische Konzepte unter Berücksichtigung von Inhaltsanalysen - methodisch sinnvoll - in konkrete Untersuchungsanlagen umsetzen lassen. Übersicht Ausgewählte Ansätze mit beabsichtigten Inferenzschlüssen und Methoden Abschnitt Theorie/ Modell Inferenzschluss weitere Methode(n) 15.2 Nachrichtenwerte Kommunikator Beobachtung, qualitative Befragung 15.3 Agenda-Setting Rezipient quantitative Befragung 15.4 Framing Situation, Dokumentenanalyse, Rezipient Experiment 15.5 Kultivierung Rezipient Statistiken, Befragung, Experiment Einbettung der Inhaltsanalyse in umfassendere Untersuchungen 256 1 5 M E H R M E T H O D E N A N S A T Z <?page no="256"?> Wir gehen dabei wieder exemplarisch vor; im Gegensatz zum vorigen Kapitel stehen nun aber nicht einzelne Studien im Mittelpunkt, sondern die theoretischen Ansätze dahinter. Wir können natürlich erneut nur eine kleine Auswahl behandeln - es wurde allerdings darauf geachtet, eher populäre Beispiele aufzugreifen, die in der Kommunikationsforschung weit verbreitet sind, und an ihnen möglichst unterschiedliche Formen von Inferenzschlüssen und zusätzlich angewendeten Methoden aufzuzeigen, wie die Übersicht verdeutlicht. Zur leichteren Orientierung folgt auch hier jeder Abschnitt einem einheitlichen Aufbau. Da die einzelnen Ansätze hier nicht als bekannt vorausgesetzt werden sollen, beginnen wir mit einer kurzen Vorstellung der wesentlichen Aussagen der betreffenden Forschungsrichtung. Diese Darstellung ist auf die anschließende Beschreibung der Analyselogik ausgerichtet; zur Vertiefung sei auf die einschlägigen kommunikationswissenschaftlichen Standardwerke verwiesen. Der Aufbau der einzelnen Abschnitte gliedert sich folgendermaßen: 1. Erkenntnisinteresse des theoretischen Ansatzes 2. beabsichtigte Inferenzschlüsse 3. Methodik der Untersuchung und Stellenwert der Inhaltsanalyse Inferenzen auf den Kommunikator: Nachrichtenwerte Erkenntnisinteresse Die Nachrichtenwert-Forschung setzt bei der medialen Darstellung von Ereignissen an. Sie beschäftigt sich im Wesentlichen mit der Frage, nach welchen Regeln Ereignisse ausgewählt und zu Nachrichten verarbeitet werden. Dabei geht sie davon aus, dass bestimmte Selektions- und Interpretationsregeln für Journalisten handlungsleitend sind - und dass nach diesen Regeln eine eigene Realität, die Medienrealität, definiert wird. In ihrer langjährigen Tradition hat die Nachrichtenwert-Forschung zwei zentrale Begriffe geprägt: den des Nachrichtenfaktors und den des Nachrichtenwertes. . Nachrichtenfaktoren sind Ereignissen zugeschriebene Merkmale, die deren Publikationswürdigkeit erhöhen, wenn sie in großer Zahl bzw. in bestimmten Kombinationen vorhanden sind. Ob die Nachrichtenfaktoren den Ereignissen immanent oder lediglich Zuschreibungen von Journalisten sind, ist unter den Vertretern der Nachrichtenwerttheorie strittig. . Der Nachrichtenwert eines Ereignisses bezeichnet dessen Publikationswürdigkeit, die aus dem Vorhandensein und der Kombination verschiedener Ereignismerkmale resultiert. Je mehr Nachrichtenfak- 15.2 Selektion und Interpretation des aktuellen Geschehens 257 I N F E R E N Z E N A U F D E N K O M M U N I K A T O R : N A C H R I C H T E N W E R T E <?page no="257"?> toren ein Ereignis aufweist, desto höher ist sein Nachrichtenwert und desto größer ist die Chance, dass es veröffentlicht wird. Literatur Maier, Michaela/ Stengel, Karin/ Marschall, Joachim (2010): Nachrichtenwerttheorie. Baden-Baden: Nomos. Massenmedien können die Realität nicht vollständig abbilden, sondern nur bestimmte Ausschnitte daraus vermitteln. Bei der alltäglichen Auswahl publikationswürdiger Ereignisse gibt es gewisse grundlegende Stereotypen, die den Journalisten die Selektion erleichtern. Die zentrale Frage lautet also: Welche Stereotype oder Kriterien müssen Ereignisse erfüllen, um zu Nachrichten zu werden? Diese Ereigniskriterien werden Abb. 15.1 Beispiel für einen Nachrichtenfaktoren-Katalog (hier lt. Schulz 1982) Dimension Nachrichtenfaktor Status Elite-Nation Elite-Institution Elite-Person Valenz Aggression Kontroverse Werte Erfolg Relevanz Folgen Betroffenheit Identifikation Nähe Ethnozentrismus Personalisierung Emotionen Konsonanz Thema Stereotypisierung Vorhersehbarkeit Dynamik Aktualität Unsicherheit Überaschung Für eine genaue Definition der einzelnen Faktoren vgl. Winfried Schulz (1982): News structure and people’s awareness of political events. In: Gazette, 30(3), 139 - 153. 258 1 5 M E H R M E T H O D E N A N S A T Z <?page no="258"?> Nachrichtenfaktoren genannt: Aspekte wie Überraschung, Negativismus, Bedeutsamkeit, Prominenz, Nähe oder Eindeutigkeit (siehe Abb. 15.1). Je stärker ein Ereignis diesen Kriterien - die ihm durch Journalisten zugeschrieben werden - entspricht, desto größer ist sein Nachrichtenwert und somit seine Chance, in den Medien veröffentlicht zu werden. Beabsichtigte Inferenzschlüsse Erstes Ziel der Nachrichtenwertforschung sind Aufschlüsse über die Vorgehensweise und die Arbeitsauffassung der Journalisten in den Redaktionen - die Inferenzschlüsse beziehen sich also auf den Kommunikator der Medienbotschaften. Dabei werden jedoch zwei unterschiedliche erkenntnistheoretische Positionen eingenommen: . Die hypothetisch-realistische Position geht vom Vorhandensein einer objektiv erkennbaren Wirklichkeit aus, die der Journalist angemessen abbilden sollte. Bei Nachrichtenfaktoren würde es sich dann um ereignisimmanente Kriterien handeln. . Die konstruktivistische Position begreift Wirklichkeit prinzipiell als Konstruktion. Demzufolge existieren immer nur unterschiedliche Interpretationen der Realität, denn Menschen (und auch Journalisten) erfahren dieselbe Wirklichkeit niemals gleich, sondern geben jedem Ereignis seinen eigenen persönlichen Sinn. Jede Auswahl wäre demnach eine individuelle Interpretation der Realität, aber Journalisten stimmen oft darin überein, was sie als berichtenswert ansehen und konstruieren so ähnliche Medienrealitäten. Die Nachrichtenfaktoren sind dann keine Auswahl-, sondern Interpretationsmuster und meldungs-, nicht ereignisimmanent. Die Konsequenz dieser Überlegungen für den beabsichtigten Inferenzschluss ist erheblich: Mithilfe einer Inhaltsanalyse lässt sich aus der Berichterstattung sehr gut herausziehen, welche Nachrichtenfaktoren in den veröffentlichten Medienbotschaften enthalten sind. Aber aus der Betrachtung des Arbeitsergebnisses der Journalisten kann nicht unterschieden werden, ob im jeweiligen Einzelfall ereignis- oder meldungsbezogene Kriterien gemessen wurden - man sieht es den in der Inhaltsanalyse gemessenen Nachrichtenfaktoren nicht an, ob der Nachrichtenwert Grundlage der Auswahlentscheidung war oder in der Meldung erst erzeugt wurde. Methodik der Untersuchungsanlage und Stellenwert der Inhaltsanalyse Die Inhaltsanalyse der Berichterstattung muss, um diese Frage zu klären, durch weitere Erhebungen ergänzt werden. Erste Abhilfe böte bereits eine so genannte Input-Output-Analyse: Würde man nämlich nicht nur das veröffentlichte Material kennen, sondern das gesamte Material, das Inferenzschlüsse auf Kommunikator 259 I N F E R E N Z E N A U F D E N K O M M U N I K A T O R : N A C H R I C H T E N W E R T E <?page no="259"?> dem Journalisten vorlag, wäre schon einiges gewonnen. Dann könnte man das Originalmaterial (und damit auch die abgelehnten Inhalte) auf seinen Nachrichtenwert untersuchen. Aus dem Vergleich zwischen abgelehnten und angenommenen Inhalten lässt sich die Bedeutung der Nachrichtenfaktoren für die Auswahlentscheidung ablesen; aus dem Vergleich des Ausgangsmaterials mit der Berichterstattung dann ihre Bedeutung für die Interpretation des Geschehens. Allerdings ist das leichter gesagt als getan: Meist lässt sich das »Originalmaterial« gar nicht exakt bestimmen. Der Journalist speist seine Tätigkeit nicht nur aus den täglich hunderten von Agenturmeldungen, eintreffenden Pressemitteilungen und Informationsmaterialien - er nimmt auch die Berichte anderer Medien wahr, recherchiert aktiv durch Anrufe und Besuche oder nutzt das Zeitungsarchiv. All diese Quellen zu erfassen, ist kaum möglich, weshalb die Inhaltsanalyse oft auch durch unmittelbar auf den Kommunikator bezogene Methoden ergänzt wird: 1. Eine Beobachtung der Journalisten erlaubt es, konkretes Verhalten fallbezogen zu beschreiben - welche Entscheidungen sie treffen und wie sie das Material faktisch bearbeiten. Bittet man sie darüber hinaus, ihr Vorgehen laut zu kommentieren (»Methode des lauten Denkens«), so erhält man aufschlussreiche qualitative Daten über den Auswahl- und Interpretationsprozess. 2. Systematischere Erkenntnisse kann man beispielsweise aus einer standardisierten Befragung einer größeren Zahl von Journalisten erhalten, die ermittelt, wie sie bei der Bearbeitung des Materials verfahren. So können grundlegende Muster jenseits einzelner Entscheidungen aufgedeckt werden. Beide Methoden haben den Nachteil, dass sie auf die Beobachtungen und Auskünfte der Kommunikatoren angewiesen sind, also nur deren Aussagen zur Verfügung haben, unabhängig davon, ob der Journalist sich überhaupt dessen bewusst ist, was er tut. Genau deswegen benötigt man die Inhaltsanalyse, denn allein damit lassen sich - jenseits der individuellen, oft verzerrten Wahrnehmungen der einzelnen Journalisten - »objektive« Aufschlüsse über die existierenden Nachrichtenfaktoren und Nachrichtenwerte erhalten. Umgekehrt ergibt die Inhaltsanalyse aber nur Erkenntnisse zur Struktur der Berichterstattung, aber nicht über den eigentlichen Auswahlprozess. Ergänzung durch Beobachtung oder Befragung 260 1 5 M E H R M E T H O D E N A N S A T Z <?page no="260"?> Inferenzen auf den Rezipienten: Agenda-Setting Erkenntnisinteresse Dem amerikanischen Kommunikationsforscher Maxwell McCombs verdanken wir die Anekdote, ihm sei 1968 bei der Lektüre der Tageszeitung in einem Straßencafé aufgefallen, dass das Blatt ein Thema von (seiner Ansicht nach) großer Bedeutung für die Bevölkerung eher randständig behandelte, während ein offenkundig untergeordnetes Problem mit einer großen Schlagzeile aufgemacht war. Wie wir bereits im Zusammenhang mit der Nachrichtenwertforschung (vgl. Kap. 15.2) festgestellt haben, können Medien aus der Vielfalt des aktuellen Geschehens nur einen kleinen Ausschnitt präsentieren. Da dem Individuum viele Ereignisse nicht unmittelbar, also durch persönliche Erfahrungen, zugänglich sind, erscheint es plausibel, dass eine Person aus den Medien nicht nur die sachlichen Informationen über ein Thema entnimmt, sondern aus dem Stellenwert des Themas in den Medien auch dessen vermeintliche gesellschaftliche Bedeutung erschließt. Literatur Maurer, Marcus (2010): Agenda-Setting. Baden-Baden: Nomos. Der Agenda-Setting-Ansatz unterstellt nun eine strukturierende Wirkung der medialen Bedeutung von Themen auf die Vorstellungen der Menschen, was die drängenden Probleme der Zeit sind - eben auf ihre eigene »Tagesordnung« (Agenda) akuter gesellschaftlicher Probleme. Wichtige, in den Medien groß aufgemachte Themen werden auch vom Publikum für wichtig gehalten; klein oder gar nicht berichtete Themen schätzt das Publikum hingegen vermutlich als weniger bedeutend ein. Die Auswirkungen dieser zunächst eher simplen Hypothese sind alles andere als trivial: Durch ihren Einfluss auf die öffentliche »Agenda« tragen die Medien zur Entscheidung bei, welche Probleme gegenwärtig als besonders dringlich und lösungsbedürftig gelten, während andere Probleme, die nicht Gegenstand der Berichterstattung sind, in den Hintergrund gedrängt werden. Somit bestimmen die Medien über die Verteilung von Aufmerksamkeit und Ressourcen in der Gesellschaft mit. Beabsichtigte Inferenzschlüsse Der Agenda-Setting-Ansatz geht von Wirkungen der Berichterstattung auf die Medienrezipienten und im weiteren Sinne auch auf die gesellschaftliche Situation aus. Der beabsichtigte Inferenzschluss bezieht sich 15.3 Thematisierung gesellschaftlicher Probleme 261 I N F E R E N Z E N A U F D E N R E Z I P I E N T E N : A G E N D A - S E T T I N G <?page no="261"?> also auf das Medienpublikum. Dabei sind jedoch zwei Ebenen von Folgerungen zu unterscheiden: . Auf individueller Ebene wird vermutet, dass sich die Effekte bei jedem einzelnen Mediennutzer einstellen: Eine Person wird die eigene Agenda wichtiger Themen an den von ihr konsumierten Medieninhalten orientieren. . Auf gesellschaftlicher Ebene wird vermutet, dass sich - unabhängig von individuellen Effekten - die von den Medien präsentierten Themen auf die Vorstellungen der gesamten Bevölkerung niederschlagen, welches die gerade wichtigen Themen der Zeit sind. Würde man Aussagen über den Agenda-Setting-Effekt allein auf eine Inhaltsanalyse aufbauen, so müsste man zunächst die Themenstruktur der Berichterstattung messen. Auf dieser Basis wäre dann zu folgern, dass sich die Agenda einer Einzelperson aus den in »ihren« Medien präsentierten Themen, die der Bevölkerung aus den in allen Medien präsentierten Themen zusammensetzt. Methodik der Untersuchungsanlage und Stellenwert der Inhaltsanalyse Bei diesen Folgerungen handelt es sich zunächst um bloße Spekulationen, die die Forschung zum Agenda-Setting-Effekt überprüfen will. Dazu werden meist zwei Erhebungen herangezogen: über die Messung der Medienagenda durch die Inhaltsanalyse hinaus eine Messung der Publikumsagenda, die in der Regel durch eine standardisierte Bevölkerungsumfrage erfolgt. Durch den Vergleich der beiden Erhebungen kann nun festgestellt werden, in welchem Ausmaß die Themenwahrnehmung der Rezipienten tatsächlich mit der Medienagenda übereinstimmt - der Inferenzschluss wird also durch eine weitere Datenerhebung abgesichert. Dabei sind zwei unterschiedliche Strategien zu unterscheiden: . Einfacher ist die Analyse auf gesellschaftlicher Ebene: Hier stellt man schlicht die Ergebnisse für jede der beiden (separat ausgewerteten) Erhebungen gegenüber - also die Menge der Berichterstattung über ein Problem vs. den Prozentanteil von Befragten, die dieses Thema für wichtig halten (siehe Abb. 15.2). Stimmt die Reihenfolge in beiden Erhebungen gut überein, unterstellt man einen Zusammenhang zwischen Medien- und Publikumsagenda. . Schwieriger wird die Analyse auf individueller Ebene: Hier muss man zunächst für jeden Befragten eine eigene Medienagenda ermitteln, und zwar auf Basis der Inhaltsanalyse von individuell rezipierten Inhalten. In diesem Fall werden also beide Erhebungen miteinander verzahnt und auch in einen gemeinsamen Datensatz zusammengeführt. Dazu benötigt man freilich genaue Angaben über Inferenzschlüsse auf das Publikum Ergänzung und Publikumsbefragung 262 1 5 M E H R M E T H O D E N A N S A T Z <?page no="262"?> die tatsächliche Mediennutzung jeder einzelnen Person. Verglichen werden dann die beiden persönlichen Agenden auf ihre Übereinstimmung - also quasi Abb. 15.2 Person für Person. Grundsätzlich stellt sich unabhängig von der jeweiligen Vorgehensweise die Frage nach der Kausalität der Einflüsse: Folgt die Bevölkerungsagenda der Medienagenda oder umgekehrt? Aus einem einzigen Vergleich - z. B. der Ergebnisse einer Bevölkerungsumfrage mit der ihr vorausgehenden Medienberichterstattung - lässt sich diese Wirkungsrichtung nicht bestimmen. Hierzu sind Messungen zu mehreren Zeitpunkten erforderlich, und im optimalen Fall können Forscher auf ganze Zeitreihen zurückgreifen, bei denen in regelmäßigem Abstand durchgeführte Umfragen einer kontinuierlichen Inhaltsanalyse gegenübergestellt werden. Inferenzen auf die soziale Situation: Framing Erkenntnisinteresse Wenn wir bei dem Beispiel der Thematisierungsprozesse bleiben, so war bereits bei der inhaltlichen Codierung aufgefallen, dass Themen mit einem unterschiedlichen Differenzierungsgrad auftreten und beschrieben werden können (vgl. Kap. 8.2). Attribute von Ereignissen, Abb. 15.2 Vergleich von Medien- und Publikums-Agenda beim Agenda- Setting-Effekt (Quelle: Dennis McQuail/ Sven Windahl (1999): Communication Models. London/ New York: Longman, 105.) 15.4 263 I N F E R E N Z E N A U F D I E S O Z I A L E S I T U A T I O N : F R A M I N G <?page no="263"?> Personen und Objekten werden dabei in eine Struktur gegossen, die sich zu größeren Bezugsrahmen (z. B. Themen) verdichten können. Abb. 15.3 zeigt exemplarisch eine mögliche Strukturierung des Themenkomplexes »Europawahl«. Literatur Matthes, Jörg (2014): Framing. Baden-Baden: Nomos. Die wissenschaftliche Forschung zur Bedeutung solcher Strukturen wird in jüngerer Zeit unter dem Stichwort »Framing« zusammengefasst. In der Forschung werden zwei Typen von Frames unterschieden: . Mit Medien-Frames sind Strukturen gemeint, die sich auf die Art und Weise der medialen Darstellung von Themen beziehen. Hier werden journalistische Texte auf die Attribute oder die thematischen Aspekte hin untersucht, die sie einem Sachverhalt zuordnen. In der einfachsten Variante dienen dabei die so genannten fünf W-Fragen des journalistischen Handwerks (Wer? Wann? Wo? Was? Warum? ) zur Konstruktion eines Frames; bei komplexeren oder längerfristig aktuellen Themen entwickeln sich dagegen vielschichtigere und detailreichere Frames. Forschungsfragen sind dann beispielsweise, ob für ein Ge- Abb. 15.3 Beispiel: Framing des Themas »Europawahl« Hintergrund- Frame EU-Wahl national: Ergebnisse & Kommentierung EU-Wahl internat.: Ergebnisse & Kommentierung Ereignis- Frame Schlappe für Rot-Grün Europa- Verdrossenheit EU- Abgeordnete Funktion/ Geschichte des Europaparlaments EU-Wahl: Human Interest Kommunalwahl Inland Diskussion um EU- Kommission (Inland) Diskussion um EU- Kommission (Ausland) andere Wahlen (Ausland) innenpolit. Reaktionen (Ausland) Flüchtlingspolitik Sozialgesetze etc. Bautenaufsicht Wahlbeteiligung Rolle Flüchtlinge Rolle Brexit Verdichtung von Geschehen in einem Bezugsrahmen 264 1 5 M E H R M E T H O D E N A N S A T Z <?page no="264"?> schehen ein Skandal-Frame gewählt wird, ob Personen in den Mittelpunkt gerückt werden (Personalisierung) oder ob eine eher hintergründige oder eine eher episodische Berichterstattung vorliegt. . Davon sind Frames des Individuums zu unterscheiden, die sich auf die Art und Weise beziehen, in der Menschen ihr Wissen über jene Sachverhalte organisieren, die ihnen für die weitere Informationsverarbeitung zur Verfügung stehen sollen. In der Psychologie wird dieses Konzept mit der Annahme verknüpft, dass die kognitive Organisation des Gehirns in Frames (dort auch als »Schemata« bezeichnet) eine Erleichterung der Informationsverarbeitung bedeutet, denn zur Speicherung werden oft nur einzelne zentrale Attribute herangezogen. Dies reduziert die Komplexität des Geschehens, sodass trotz der Reizüberflutung unserer Wahrnehmung noch eine sinnvolle und schnelle Informationsverarbeitung erfolgen kann. Außerdem leiten individuelle Frames die Interpretation von neu eintreffenden Informationen. Während die Medien-Frames hauptsächlich die Ebene des gesellschaftlichen Diskurses ansprechen und das zentrale Produkt dieses Diskurses formen, beziehen sich die individuellen Frames stärker auf die kognitive Ebene der Realitätswahrnehmung. Je nachdem, auf welche Personengruppe sich diese Frames beziehen, ergeben sich unterschiedliche Perspektiven für die Argumentation: Sind Politiker oder das politische System betroffen, ist dies meist eine öffentlichkeitstheoretische Perspektive; geht es um Medienvertreter, ist die Perspektive auf Framing journalismus- oder inhaltszentriert; und beim Rezipienten bzw. Publikum zumeist wirkungszentriert. Beabsichtigte Inferenzschlüsse Neben der (im ersten Beispiel bereits ausführlich erläuterten) möglichen Rückschlüsse auf den Kommunikator (vgl. Kap. 15.2) stellt das Framing- Konzept die Grundlage für zwei weitere Typen von Inferenzschlüssen dar: 1. Die Medienwirkungsforschung unterstellt einen Einfluss der Medien- Frames auf die individuellen Frames: Die kognitiven Strukturen eines Individuums werden sich parallel zu den Themenstrukturen entwickeln, die die von ihm genutzten Medien aufweisen. Bei der Informationsverarbeitung besitzen dann die durch die Medien geprägten Wissensstrukturen einen großen Einfluss. 2. Gleichzeitig geht die Forschung zur politischen Kommunikation davon aus, dass sich aus den in den Medien präsentierten Frames Aufschlüsse für den Verlauf des politischen Diskurses geben. Welche Aspekte wurden wann in die Diskussion eingebracht, welche (politi- Inferenzschlüsse auf Rezipienten und Situation 265 I N F E R E N Z E N A U F D I E S O Z I A L E S I T U A T I O N : F R A M I N G <?page no="265"?> schen) Akteure meldeten sich wann zu Wort, welche Lösungsvorschläge wurden wie eingeordnet und bewertet? Im ersten Fall handelt es sich also wieder um einen Inferenzschluss auf den Rezipienten (vgl. Kap. 15.3), genauer: auf die Organisation seiner Wissensstrukturen. Im zweiten Fall soll auf die gesellschaftliche Situation rückgeschlossen werden; die Medienberichterstattung wird hier lediglich als Quelle benutzt, ohne dass die Rolle des Kommunikators oder individuelle Effekte auf den Rezipienten von Interesse wären. Die beschriebenen Inferenzschlüsse können logisch auf unterschiedlichen Ebenen angesiedelt sein (siehe Abb. 15.4): zunächst situativ auf das konkrete Geschehen bezogen; daneben aber auch diagnostisch mit Blick auf die Erzeugung gesellschaftlicher Wirklichkeit, oder diagnostisch hinsichtlich der künftigen Entwicklungen. Methodik der Untersuchungsanlage und Stellenwert der Inhaltsanalyse Auch hier bietet es sich an, die erwähnten Inferenzschlüsse durch zusätzliche Datenerhebungen abzusichern, und in besonderem Maß gilt dies sicherlich für die generell schwierigen Vermutungen über die Wissensorganisation von Menschen. Erneut steht eine ganze Reihe von methodischen Alternativen zur Verfügung, die die Befunde der Inhaltsanalyse ergänzen und ihre Aussagekraft erhöhen können: 1. Bei der Untersuchung von Effekten auf die individuelle Informationsverarbeitung kommen meist experimentelle Designs in Laborsituationen zum Einsatz, wie sie aus der psychologischen Forschung bekannt sind. Unter strenger Kontrolle der Randbedingungen werden Abb. 15.4 Überblick über mögliche Inferenzschlüsse Inferenzschlüsse diagnostisch hypothetischrealitisch konstruktivistisch prognostisch individuelle Ebene gesellschaftliche Ebene situativ Verlauf des politischen Diskurses Einfluss des Medien-Frames auf die individuellen Frames Ergänzung durch Experimente oder Dokumentenanalysen 266 1 5 M E H R M E T H O D E N A N S A T Z <?page no="266"?> die Teilnehmer dann mit speziell ausgewählten Medienframes (idealerweise jenen, die in der Inhaltsanalyse ermittelt wurden) konfrontiert. Entsprechende Experimentalstudien konnten nachweisen, dass medial konstruierte Bezugsrahmen tatsächlich die kognitiven Frames der Menschen prägen. 2. Soll die Inhaltsanalyse zur Beschreibung sozialer Wirklichkeit dienen, so bietet es sich an, die mediale Darstellung mit anderen, externen Darstellungen abzugleichen. Infrage kommen hierbei etwa Dokumente wie Protokolle und Aufzeichnungen oder die Verlautbarungen von Beteiligten. Zu beachten ist, dass die Frage nach »wahr« oder »falsch« hier meist am Kern der Sache vorbeigeht, sondern gerade widersprüchliche Daten (d. h. unterschiedliche Interpretationen der Realität) als wichtige Elemente des Diskurses beachtet werden müssen. Mehrstufen-Ansatz: Kultivierung Erkenntnisinteresse und beabsichtigte Inferenzschlüsse George Gerbner entwickelte mit seiner Forschungsgruppe seit Mitte der sechziger Jahre einen Ansatz zur Erklärung langfristiger Effekte, insbesondere des Fernsehens. Seine Kultivierungsthese geht davon aus, dass das gesamte Fernsehprogramm (unabhängig von einer einzelnen Sendung) ein spezifisches Bild der gesellschaftlichen Wirklichkeit vermittelt, das sich bei einem längerfristigen und intensiven Fernsehkonsum auf die persönlichen Realitätsvorstellungen gerade von so genannten »Vielsehern« niederschlägt. Als Prämisse für die Kultivierungsthese wird unterstellt, dass . die Fernsehinhalte homogen sind (weil sie von einer TV-Industrie zentral und möglichst massenattraktiv produziert werden); . die Zuschauer diese Inhalte nichtselektiv wahrnehmen. Literatur Meltzer, Christine (2017): Kultivierung. Baden-Baden: Nomos. In der Konsequenz entsteht - Gerbner zufolge - durch das Fernsehen eine ideologisch dem gesellschaftlichen Mainstream verpflichtete, weit reichend geteilte Symbolwelt. Durch den Umgang mit dieser Fernsehrealität werden beim Rezipienten konsonante Vorstellungen über die Alltagsrealität »kultiviert«. Dieser Effekt müsste sich bei den Vielsehern, die sich überproportional häufig dem Fernsehangebot aussetzen, 15.5 langfristige Beeinflussung der Weltsicht Inferenzschlüsse auf den Rezipienten 267 M E H R S T U F E N - A N S A T Z : K U L T I V I E R U N G <?page no="267"?> besonders ausgeprägt zeigen. Gerade weil es sich um die Vermutung mittelbis langfristiger Effekte handelt, ist an dieser Stelle eine sorgfältige empirische Arbeit erforderlich. Oft wurde das Phänomen im Hinblick auf die Wirkungen von Gewaltdarstellungen untersucht - ausgerechnet bei diesem Thema dürfte es jedoch nicht hinreichen, in einer Inhaltsanalyse eine erhebliche Menge von aggressiven Akten und Gewalttaten festzustellen, um von einer massiven Beeinflussung des Publikums auszugehen. Methodik der Untersuchungsanlage und Stellenwert der Inhaltsanalyse Zur Einschätzung des eigentlichen Effektes sind wieder mehrere Datenerhebungen erforderlich, die sich in Vergleichsprozesse auf zwei unterschiedlichen Stufen aufteilen lassen (siehe Abb. 15.5). 1. In der so genannten Message System Analysis - einer Inhaltsanalyse im Sinne dieses Buches - wird zunächst die Medienrealität erhoben, etwa die Gewalthaltigkeit der Programme oder die Darstellung bestimmter inhaltlicher Aspekte oder Berufsgruppen. 2. Aus externen Quellen werden anschließend »objektive« Informationen über die gesellschaftliche Wirklichkeit zu genau diesen Aspekten erhoben. Meist werden hierzu amtliche Statistiken, seltener auch Expertenurteile herangezogen. Aus dem Vergleich von Inhaltsanalyse (aus 1.) und den externen Daten ergibt sich dann das Kultivierungspotenzial der Berichterstattung - denn eine verzerrende Kultivierung kann natürlich plausiblerweise nur für solche Sachverhalte erwartet werden, die in der Fernsehwelt auch verzerrt dargestellt werden. 3. Im letzten Schritt werden die betreffenden, potenziell kultivierenden Aspekte dann in eine standardisierte Bevölkerungsumfrage aufgenom- Abb. 15.5 Mehrstufige Datenerhebung beim Kultivierungsansatz Inhaltsanalyse am tliche Statistik Vergleich Vergleich Kultivierungspotenzial Kultivierungseffekt Bevölkerungsumfrage Ergänzung durch Sekundäranalysen und Befragung 268 1 5 M E H R M E T H O D E N A N S A T Z <?page no="268"?> men und die Zuschauer nach ihrer persönlichen Realitätswahrnehmung befragt. Besonders wichtig ist hier die Erhebung der Fernsehnutzungsmuster, da abgesichert werden muss, ob der Befragte überhaupt mit den betreffenden Inhalten in Berührung kam bzw. es sich um einen »Vielseher« handelt oder nicht. Die Bedeutung der Inhaltsanalyse in diesem Forschungsprozess ist erheblich, denn erst aus den von ihr ermittelten Defiziten der Berichterstattung leiten sich die Aspekte ab, für die eine kultivierende Wirkung vermutet werden kann. In zahlreichen Studien hat sich auch der Kultivierungsansatz als stabiles Phänomen erwiesen: Obwohl Menschen generell zu Fehleinschätzungen neigen - beispielsweise wird der Anteil von Polizisten und Anwälten in der Bevölkerung regelmäßig überschätzt - tritt dies bei Vielsehern noch deutlich häufiger auf. Allerdings können die Zusammenhänge zuweilen auch in umgekehrter Richtung interpretiert werden. So muss der Eindruck von Vielsehern, man würde mit größerer Wahrscheinlichkeit das Opfer eines Gewaltverbrechens werden, nicht zwangsläufig auf ihrem Medienkonsum beruhen. Man könnte genauso vermuten, dass generell ängstlichere Menschen wegen ihrer Furcht vor Verbrechen häufiger zu Hause bleiben - und dann auch mehr fernsehen. Fallbeispiel: Politische Kommunikation XII Auch die hier vorgestellte Studie zu den Inhalten der politischen Berichterstattung in verschiedenen Medienangeboten war als ein Element eines Mehrmethoden-Designs konzipiert. Die übergreifende Fragestellung betraf den Einfluss von Online-Medien auf das politische Wissen der Nutzer. Als theoretischen Hintergrund für dieses Erkenntnisinteresse wählten die Forscher die These von der wachsenden Wissenskluft, die bereits in den 1970er-Jahren aufgestellt wurde und gerade mit der zunehmenden Verbreitung des Internets wieder an Bedeutung gewann. Die Annahme besagt, dass unterschiedliche Segmente einer Bevölkerung die in den Medien dargebotenen Information verschieden aufnehmen, wobei die höher gebildeten Personen in der Lage sind, schneller ein detaillierteres Wissen z. B. über politische Zusammenhänge herauszubilden. Literatur Zillien, Nicole/ Haufs-Brusberg, Maren (2014): Wissenskluft und Digital Divide. Baden-Baden: Nomos. Wissenskluft-Hypothese 269 F A L L B E I S P I E L : P O L I T I S C H E K O M M U N I K A T I O N X I I <?page no="269"?> Der beschriebene Zusammenhang verlangt - wie sich unschwer erkennen lässt - einen Inferenzschluss von den Medieninhalten auf deren Rezipienten. Um diesem Phänomen auf die Spur zu kommen, haben die Forscher in einem ersten Schritt die hier vorgestellte Inhaltsanalyse der Berichterstattung durchgeführt, die sie als Erhebung des »information supply« bezeichnen. Die im vorigen Fallbeispiel-Kapitel ausführlich vorgestellten Ergebnisse wurden anschließend mit den Angaben aus einem Publikumspanel kombiniert. Diese beinhalten Angaben zur Informationsnutzung, was die Verknüpfung mit den Inhaltsanalyse-Daten ermöglicht; und insbesondere natürlich Aussagen zur Informationsrezeption, hier am Beispiel des Klimawandels. Aus Sicht der Forscher bestätigen die Daten dabei die Grundannahmen der Wissenskluft- Hypothese. Literatur Maurer, Marcus/ Oschatz, Corinna (2016): The Influence of Online Media on Political Knowledge. In: Vowe, Gerhard/ Henn, Philipp (Hrsg.): Political Communication in the Online World. New York: Routledge, 73 - 87. Abschließende Überlegungen Andere Methodenlehrbücher beginnen häufig mit grundsätzlichen Überlegungen, wie die Inhaltsanalyse aus Sicht der Wissenschaftstheorie zu beurteilen ist, bevor sie die Methode selbst erläutern. Wir sind umgekehrt vorgegangen und haben zunächst versucht, ein Grundverständnis für die praktische Vorgehensweise zu wecken, und enden nun vor diesem Hintergrund mit einigen wenigen Bemerkungen zum Sinn, aber auch zu den Grenzen der standardisierten Medieninhaltsanalyse. Die immer noch wichtigste Einschränkung betrifft die Interpretation der Ergebnisse: Wie die beispielhaften Anwendungen in dieser Einführung verdeutlichen sollen, zielt ein Großteil der Inhaltsanalysen darauf ab, Inferenzschlüsse beispielsweise auf den Kommunikator, den Rezipienten oder auf die soziale Situation zu ziehen. Für dieses Ziel verkörpert sie aber bestenfalls eine Hilfskonstruktion, denn sie beschäftigt sich nicht mit dem eigentlich interessierenden Forschungsgegenstand - also etwa den Journalisten, den Wählern oder einer politischen Entscheidung. Stattdessen setzt sie bei den Kommunikationsprozessen an, an denen diese Forschungsgegenstände beteiligt sind; aber die Inhaltsanalyse untersucht gerade nicht diese Prozesse selbst, sondern die Medientexte, Interpretation der Ergebnisse 270 1 5 M E H R M E T H O D E N A N S A T Z <?page no="270"?> die gewissermaßen als »Protokolle« dieser Prozesse veröffentlicht sind. Wir nehmen damit eine doppelt indirekte Messung vor, und wie angemessen diese ist, hängt natürlich von der jeweiligen Vorgehensweise, aber insbesondere von der Forschungsfrage ab. Ein in der Kommunikationswissenschaft ausführlich behandeltes Phänomen, das für diese Überlegungen eine Schlüsselrolle einnimmt, ist das der Selektivität: Selektionen, also Auswahlverhalten, kennzeichnen das individuelle Verstehen und die soziale Verständigung in vielfacher Hinsicht: Von der Medienwahl des Einzelnen über seine selektive Wahrnehmung der Inhalte bis zum selektiven Behalten von Informationen; von der Nachrichtenauswahl in den Redaktionen über die selektive Informationsweitergabe durch Quellen bis zur Auswahl der Inhalte durch Dokumentationen und Archive. Und schließlich geht auch die Inhaltsanalyse selektiv vor, wenn sie bestimmte Berichte ausgewählter Medien in einer bestimmten Zeitspanne nach bestimmten Kriterien untersucht. Merksatz Kommunikationsprozesse sind ebenso wie die Methodik der Inhaltsanalyse durch vielfache Selektionsprozesse gekennzeichnet, deren Einfluss auf die Gültigkeit der Befunde zu berücksichtigen ist. Aus diesem Grund sollte sich der Forscher vor der Publikation seiner Befunde nochmals ausdrücklich vergegenwärtigen, welche oft impliziten, d. h. gar nicht bewusst getroffenen Selektionsentscheidungen sich in der eigenen Studie verbergen. Soweit diese die Herstellung des Instruments betreffen, sollten sie allerdings schon während der Konzeption bedacht worden sein. Gemeint sind an dieser Stelle eher Fragen wie: Kann ich aus den untersuchten Medien tatsächlich etwas über die Berichterstattung »der Journalisten« insgesamt aussagen? Werden die Medien in meiner Stichprobe tatsächlich von einem breiten Publikum genutzt? Welchen Einfluss hatte die Selektionslogik der Medien (z. B. Nachrichtenwerte) auf die Darstellung des Geschehens? Einschränkungen, die aus solchen Überlegungen resultieren, sollten bei der kritischen Würdigung der eigenen Studie im Forschungsbericht unbedingt angebracht werden. Ein weiteres erkenntnistheoretisches Problem ergibt sich aus der ebenfalls impliziten Unterstellung, mit der standardisierten Inhaltsanalyse könne Bedeutung gültig und verbindlich erhoben werden. Richtig ist, dass durch die Festlegungen im Codebuch die gemessene Bedeutung offengelegt wird und dass durch eine sorgfältige Codiererschulung (die Selektionsprozesse keine verbindliche Erhebung von Bedeutung 271 A B S C H L I E S S E N D E Ü B E R L E G U N G E N <?page no="271"?> sich in hohen Reliabilitätswerten niederschlägt) der Bedeutungsgehalt intersubjektiv überprüfbar ermittelt wird. Falsch wäre freilich, diese durch die Inhaltsanalyse - hoffentlich präzise - beschriebene Bedeutung zu einer allgemeingültigen Deutung zu erheben: Schließlich verkörpert sie nicht anderes als die von einem Forscher aufgrund seines wissenschaftlichen Interesses eingenommene Perspektive. Kein Artikel zerfällt aus sich heraus in bestimmte Codiereinheiten, sondern der Forscher bestimmt das Analyseraster (Codebuch), das im jeweiligen Fall an den Artikel angelegt wird. Und seine Perspektive kann sich von den Zugängen anderer Forscher ebenso unterscheiden, wie durch die Zerlegung in Analyse- und Codiereinheiten der »tiefere Sinn« einer Botschaft unter Umständen gänzlich verloren gehen kann. Merksatz Prüfe stets am Ende jeder Inhaltsanalyse: Sind die Aussagen in meinem Bericht, meine Interpretationen und Schlussfolgerungen tatsächlich von der Datenerhebung gedeckt? Dies führt uns zu einem grundsätzlichen Aspekt, über den speziell in jener Phase Mitte des 20. Jahrhunderts viel diskutiert wurde, als sich die Inhaltsanalyse als eigenständige Methode zu profilieren begann. Kritische Forscher sahen sie als Paradebeispiel eines positivistischen Wissenschaftsverständnisses. Mit dem Positivismus wird eine grundsätzliche Orientierung bezeichnet, derzufolge die Realität aufgrund wahrnehmbarer Phänomene objektiv erkennbar wäre. Dann wären alle beobachtbaren und entsprechend beschreibbaren Phänomene real, und über ihre Beziehungen untereinander wären allgemeine Gesetzmäßigkeiten induktiv ableitbar. Es liegt auf der Hand, dass gerade die Inhaltsanalyse sofort in Positivismus-Verdacht geraten musste: Schließlich ging sie zunächst von manifest vorliegenden Medieninhalten aus, die anhand der in einem Codebuch niedergelegten Kriterien kategorisiert werden können. Und ihre Ergebnisse sollten sogar verlässlich genug sein, um aus den Medienbeschreibungen weitergehende Schlussfolgerungen auf andere soziale Phänomene ziehen zu können. Obgleich sich die Inhaltsanalytiker selbst niemals als Positivsten missverstanden wissen wollten, wurde dieser Vorwurf dennoch immer wieder laut. Inzwischen hat sich jedoch die Einsicht durchgesetzt, dass die Methode - trotz ihres Strebens nach intersubjektiver Überprüfbarkeit der Befunde - ebenfalls der in der empirischen Wissenschaft dominierenden Position des Kritischen Rationalismus zuzuordnen ist. Diese setzt bei Positivismus versus Kritischer Rationalismus 272 1 5 M E H R M E T H O D E N A N S A T Z <?page no="272"?> dem Problem an, dass bei einer induktiven Vorgehensweise, die aus Einzelfällen auf eine Gesetzmäßigkeit schließt, niemals ein Sachverhalt als positiv wahr bezeichnet werden darf, weil der endlichen Zahl an Beobachtungen immer eine unendliche Zahl möglicher Beobachtungen gegenüber steht. Karl R. Popper, Begründer und Hauptvertreter des Kritischen Rationalismus, führte selbst ein simples Beispiel aus dem Alltagswissen an: Der Satz, alle Schwäne wären weiß, muss immer eine Vermutung bleiben, denn selbst wenn man noch so viele weiße Schwäne beobachtet, kann nicht ausgeschlossen werden, dass irgendwo ein schwarzer, blauer oder roter Schwan existiert. Die Konsequenzen aus diesen Überlegungen sind enorm - denn aus dieser Position ergibt sich zwingend, dass Aussagen über die Wirklichkeit nur Hypothesen sind, die so lange als gültig betrachtet werden können, wie sie nicht widerlegt sind. An die Stelle der positivistischen Verifikation tritt deswegen das Falsifikationsprinzip, das auf einer deduktiven Vorgehensweise beruht: Den empirischen Beobachtungen gehen Theorien und Hypothesen voraus, die die Feldarbeit leiten; gelingt es der Erhebung nicht, diese Hypothesen zu widerlegen (falsifizieren), werden sie einstweilig weiterhin als bewährt (aber nicht als wahr! ) angesehen. Die objektive Wahrheit selbst ist allerdings nicht erkennbar. Die Inhaltsanalyse operiert heute weitestgehend unter dem Paradigma des Kritischen Rationalismus: Zwar enthält die Kategorienbildung immer auch induktive Elemente, wenn sie vor dem Hintergrund des Codiermaterials ergänzt und verfeinert wird; grundsätzlich folgt sie aber der in diesem Buch vorgestellten, theorie- und hypothesengeleiteten Vorgehensweise. Aufgrund der angestrebten, weitergehenden Inferenzschlüsse sind jedoch zwei Arten von Hypothesen zu unterscheiden: . Hypothesen, die sich auf das untersuchte Medienmaterial im engeren Sinne beziehen: Sie sind mit der inhaltsanalytischen Erhebung vergleichsweise präzise zu falsifizieren bzw. zu stützen; aufgrund der oben erwähnten Einschränkungen handelt es sich aber weiterhin nur um Hypothesen über die Berichterstattung. . Hypothesen, die sich auf den Inferenzschluss (z. B. die Kommunikationsabsicht des Kommunikators) beziehen: Sie können in der Regel durch die Inhaltsanalyse selbst nicht geprüft werden, sondern verlangen eine weitere Datenerhebung; Beispiele für solche Mehrmethodendesigns wurden in Kap. 15 bereits ausgeführt. Unter diesen Rahmenbedingungen lässt sich auch der eingangs angedeutete Stellenwert der standardisierten Medieninhaltsanalyse für die Kommunikationswissenschaft nochmals verdeutlichen: Als Methode zur Prüfung von Vermutungen über Medienberichterstattung, die über Falsifikationsprinzip Hypothesenprüfungen 273 A B S C H L I E S S E N D E Ü B E R L E G U N G E N <?page no="273"?> die Werkinterpretation einzelner Kommunikate hinausgehen, liefert sie eine systematische Beschreibung von Medieninhalten anhand der vom Forscher spezifizierten, für die jeweilige Fragestellung relevanten Kriterien. Aus der Prüfung entsprechender Hypothesen lassen sich weitergehende Annahmen sinnvoll ableiten, die sich auf den Entstehungskontext oder die Wirkung dieser Medienberichterstattung beziehen und durch zusätzliche empirische Erhebungen zu testen sind. Und angesichts der unüberschaubaren Flut von medialer Kommunikation und der Flüchtigkeit vieler Inhalte leistet in vielen Fällen bereits die systematische Beschreibung auf der ersten Stufe einen wertvollen Beitrag zur Reduktion von Komplexität, dem Grundanliegen der empirischen Sozialforschung. 274 1 5 M E H R M E T H O D E N A N S A T Z <?page no="274"?> Anhang Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277 Antworten zu den Übungsfragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 Codebuch Das Codebuch zum Fallbeispiel »Politische Kommunikation« ist einsehbar und downloadbar unter www.utb-shop.de/ 9873825247065. 275 A N H A N G A N H A N G <?page no="276"?> Glossar A aggregieren zu übergeordneten Dimensionen zusammenfassen Akteur Person in der Berichterstattung Algorithmus Handlungsvorschrift zur Problemlösung, zuletzt häufig als Softwarelösung realisiert, die automatisiert eine Selektionsfunktion bei Online-Inhalten vornimmt Analyse systematische Untersuchung einer Theorie, eines Gegenstandes oder Sachverhalts bezüglich aller einzelnen Komponenten und Faktoren, die ihn bestimmen Analyseeinheit Elemente aus dem Untersuchungsmaterial, für die im Rahmen der Codierung eine Klassifizierung vorgenommen wird (Artikel, Beiträge usw.) Analysetiefe/ Auflösungsgrad bestimmt die Detailliertheit der Erhebungen und Auswertungen bezüglich der Analyseeinheit Ausprägung die für eine Kategorie vorgesehenen Vorgaben (Codes) Auswahleinheit physisch vorliegende Materialien, die für die Untersuchung ausgewählt wurden (Medienberichterstattung) B Big Data große Mengen an Daten, die aus vor allem aus dem Internet gewonnen werden Bildcodierung inhaltsanalytische Aufbereitung und Analyse von visuellem Material C Codebuch Regelwerk, Untersuchungsinstrument der Inhaltsanalyse Codes zahlenmäßig verschlüsselte und statistisch auswertbare Informationen Codiereinheit an einem Merkmalsträger interessierende Aspekte, die innerhalb einer Analyseeinheit für die Codierung bedeutsam sind Codierer Personen, die das Codebuch anwenden Codierung Verschlüsselung von medialen Botschaften D Data Mining Gewinnung von Wissen aus großen Datensätzen Daten durch Anwendung des Untersuchungsinstruments gewonnene, systematische Informationen über die Untersuchungsobjekte Datenbank System zur elektronischen Datenverwaltung Definition genaue Bestimmung des Gegenstandes eines Begriffes deskriptiv beschreibend dichotom eine Variable mit genau zwei Merkmalen 277 G L O S S A R G L O S S A R <?page no="277"?> Differenzierung Unterscheidung Digitalisate durch die Digitalisierung entstandene Produkte disjunkt getrennt E Empirie auf methodischem Weg gewonnene Erfahrung, Erkenntnisse über die Realität empirische Sozialforschung Erhebung und Interpretation von Daten über Gegebenheiten und Vorgänge in der Gesellschaft Erkenntnisinteresse Definition der zu untersuchenden Fragestellung erschöpfend vollständig Evaluation Bewertung exemplarisch beispielhaft explizit ausdrücklich; ausführlich und differenziert im Material dargestellt explorativ ohne gesichertes Hintergrundwissen untersuchend G Globalbewertung summarisches Urteil Grundgesamtheit Menge aller potenziellen Untersuchungsobjekte für eine bestimmte Fragestellung (in der empirischen Forschung) H Hermeneutik geisteswissenschaftliches Verfahren der Auslegung von Texten Hyperlink (kurz: Link) Querverweis im Internet auf ein anderes elektronisches Dokument Hypothese unbewiesene Annahme von Gesetzmäßigkeiten oder Tatsachen, mit dem Ziel diese zu verifizieren oder zu falsifizieren I implizit nicht ausdrücklich erwähnt, indirekt Inferenz/ Inferenzschluss Wissen, das aufgrund logischer Schlussfolgerungen gewonnen wurde Interpretation Auslegung, Deutung intersubjektiv nachvollziehbar verschiedene Personen gelangen zum selben Ergebnis investigativ aufdeckend, enthüllend 278 A N H A N G <?page no="278"?> K Kategorie formale und inhaltliche Kriterien, die an das Untersuchungsmaterial angelegt werden (theoretisches Konstrukt, das zur Beantwortung der Forschungsfrage gemessen werden muss) Kategoriensystem Summe aller Kategorien; spezifiziert, anhand welcher Kriterien die relevanten Codiereinheiten gemessen werden sollen klassifizieren einordnen, einteilen Komplexität Vielschichtigkeit; Gesamtheit aller Merkmale oder Möglichkeiten Konstrukt theoretische Beschreibung oder Bezeichnung eines sozialen Phänomens Korrelation statistisch ermittelter Zusammenhang zwischen zwei Sachverhalten M manifeste Inhalte offenkundige, ausdrücklich genannte Inhalte Mediengattung medialer Darstellungstyp (z. B. Printmedien, Rundfunk usw.) Medienorgane einzelner Medienanbieter (z. B. FAZ, ARD usw.) Messniveau wichtige Eigenschaft von Merkmalen; gibt an wie mit gewonnen Daten gearbeitet werden kann bzw. wie sie interpretiert werden dürfen. Die vier Messniveaus sind: Nominalskala, Ordinalskala, Intervallskala und Ratioskala. O Online-Medien Medien, die im Internet zugänglich sind (z. B. Online-Zeitungen, Blogs, Audio-Streaming-Dienste) P Paradigma Denkmuster, Forschungsperspektive Pre-Test Vorbereitende, zur Einübung dienende Anwendung des Untersuchungsinstruments auf festgelegte Inhalte unter Realbedingungen probabilistisch auf Wahrscheinlichkeitsaussagen beruhend publizistische Einheit fasst alle Tageszeitungen, die im Mantelteil weitestgehend übereinstimmen und sich meist nur im Titel, im Anzeigenbereich und im Lokalbereich unterscheiden zusammen Q qualitativ auf Erhebung und Deutung von Zusammenhängen einzelner Beobachtungen beruhend quantitativ auf zahlenmäßiger Darstellung einer umfangreicheren Menge von Beobachtungen beruhend 279 G L O S S A R <?page no="279"?> R Reaktivität Zustandsänderung des Erlebens und Verhaltens durch das Wissen, beobachtet zu werden Reduktion Verringerung Relevanz Bedeutung, Wichtigkeit Reliabilität Zuverlässigkeit der Messung repräsentative Stichprobe verkleinertes, strukturgleiches Abbild der Grundgesamtheit, für die eine Hypothese Geltung beansprucht Repräsentativität Gültigkeit von Ergebnissen für eine Gesamtheit von Objekten, ermittelt durch Analyse einer kleineren Gruppe dieser Objekte Reproduzierbarkeit genaue Wiederholbarkeit Rohtext unbearbeitetes Material S Skala Maßeinteilung Social Media (soziale Medien) digitale Medien, die es Nutzern ermöglichen, ihre Eindrücke, Meinungen, Informationen, Wissen und Erfahrungen auszutauschen (z. B. Facebook, Twitter, Snapchat) Statistik wissenschaftliche Methode zur zahlenmäßigen Erfassung, Untersuchung und Darstellung von massenhaften Erscheinungen Stichprobe Teilmenge aus der Grundgesamtheit T Teststatistik Prüfgröße bzw. Stichprobenfunktionen, mit deren Hilfe über Gültigkeit oder Ungültigkeit von Hypothesen entschieden wird Theorie System wissenschaftlich begründeter Aussagen zur Erklärung bestimmter Tatsachen oder Erscheinungen und der ihnen zugrunde liegenden Gesetzmäßigkeiten trennscharf unterschiedliche Vorgaben messen unterschiedliche Aspekte ohne Überschneidungen V Validität Gültigkeit der Vorgehensweise 280 A N H A N G <?page no="280"?> Antworten zu den Übungsfragen Kapitel 1 1 Die Aussage ist falsch. Medieninhaltsanalysen sind folgendermaßen gekennzeichnet: . Sie betrachten eine große Anzahl von Botschaften ähnlicher Natur. . Diese Botschaften werden auf darin auffindbare Muster hin durchsucht. . Das Resultat ergibt sich aus der systematischen Analyse zahlreicher medialer Erzeugnisse. 2 Alle Aussagen bezüglich der Zielsetzung quantitativer bzw. standardisierter Inhaltsanalysen sind richtig. 3 Die Aussagen a und b sind falsch. Formale und inhaltliche Kriterien nennt man Kategorien. Die im Codebuch festgehaltenen Kategorien und deren Ausprägungen bilden in ihrer Gesamtheit das Kategoriensystem (siehe Aussage c). 4 Antworten b und c treffen auf intersubjektive Nachvollziehbarkeit zu. Eine wie in a beschriebene Objektivität, die unabhängig vom Beobachter zu den immer selben Wahrnehmungen führt, ist in der Realität nicht zu erreichen. Kapitel 2 1 Die Aussagen a und b sind richtig. Im Gegensatz zu Aussage c muss ein Bedeutungswandel gerade bei der Möglichkeit zeitunabhängiger Untersuchungen berücksichtigt werden. 2 Die drei wichtigsten Kontexte für Inferenzschlüsse sind: 1. der Kommunikator 2. der Rezipient 3. die historische, soziale oder politische Situation 3 Die Aussage ist richtig. Kapitel 3 1 Antwort a ist richtig. 2 Die Aussage ist falsch. Ohne die Formulierung des Forschungsinteresses und der zu untersuchenden Hypothesen ist die Konzeption einer Inhaltsanalyse de facto unmöglich, denn erst die Formulierung des Forschungsinteresses stellt den inhaltlichen Rahmen für alle Entscheidungen, die innerhalb der Inhaltsanalyse getroffen werden müssen, dar. Theorien und bereits vorliegende Forschungsergebnisse sind in jedem Fall zu berücksichtigen! 281 A N T W O R T E N Z U D E N Ü B U N G S F R A G E N A N T W O R T E N Z U D E N Ü B U N G S F R A G E N <?page no="281"?> 3 Antworten a und b sind richtig. 4 Antworten b und d sind richtig. Kapitel 4 1 Die Aussage ist richtig. 2 Antworten a und c sind falsch. Nur durch eine Zufallsauswahl wird in jedem Fall eine repräsentative Stichprobe von Auswahleinheiten erzeugt. Durch eine bewusste Auswahl kann bei sorgfältiger Vorgehensweise (Quotierung) auch eine aussagekräftige Auswahleinheit ermittelt werden, die allerdings den strengen Voraussetzungen für Repräsentativität nicht genügt. 3 Antwort a ist richtig. 4 Aussagen a und d sind falsch. Klumpenstichproben sind weit verbreitet in der Medieninhaltsanalyse, sie besitzen jedoch eine größere Anfälligkeit für Auswahlfehler, was bei der Untersuchungsanlage und der Interpretation der Ergebnisse zu berücksichtigen ist. Die willkürliche Auswahl erzeugt in keinem Fall Repräsentativität und die Ergebnisse sind nicht verallgemeinerbar! Kapitel 5 1 Aussage d ist falsch. Erhobene Daten lassen sich nicht nachträglich auf niedrigerer Ebene differenzieren! 2 Parallele Zerlegung: Aussage c ist falsch. Bei der parallelen Zerlegung können sich die Analyseeinheiten sowohl überschneiden als auch decken. Hierarchische Zerlegung: Aussage b ist falsch. Jede identifizierte Ebene ist Träger für eine bestimmte Information. 3 Die Aussage ist richtig. Kapitel 6 1 Die Erarbeitung eines Codebuchs. 2 Antworten a und b sind richtig. 3 Die Antworten b und c sind richtig. 4 Die Kategorien müssen vollständig (erschöpfend) und trennscharf (disjunkt) sein, damit nur relevante Sachverhalte (präzise) gemessen werden. 282 A N H A N G <?page no="282"?> Kapitel 7 1 Formale Kategorien dienen 1. der Erhebung formaler Codiereinheiten, von so genannten manifesten Sachverhalten (z. B. Datum, Umfang usw.). 2. als Differenzierungskriterium für weitergehende Analysen; sie besitzen die Funktion von Schlüsselcodes bei hierarchisch zerlegten Analyseeinheiten und sie besitzen des Weiteren die Funktion als Gewichtungsfaktor bei der Auswertung anderer (z. B. inhaltlicher) Kategorien. 2 Aussage c ist richtig. Codiert man das Datum im Zahlenformat, ergibt sich tatsächlich ein chronologischer Ablauf. Fortlaufende Ziffern als entsprechende Möglichkeit zur Verschlüsselung des Datums sind durchaus möglich, bedeuten jedoch einen hohen Aufwand für die Codierer, da die einzelnen Ziffern auch einzeln nachgesehen werden müssen. Kapitel 8 1 Aussage a ist richtig. Bei inhaltlichen Kategorien handelt es sich um vom Erkenntnisinteresse abhängige Bedeutungsdimensionen. Der Codierer muss logische Schlussfolgerungen ziehen, um diese zu klassifizieren. 2 Bei den verschiedenen Typen von Codiereinheiten handelt es sich um referenzielle, thematische und propositionale Einheiten. Folgende Zuordnung ist korrekt: Referentielle Einheiten: Es handelt sich hierbei um Personen, Objekte, Ereignisse oder Orte (a). Propositionale Einheiten: Mit ihrer Hilfe werden sachliche oder wertende Feststellungen über Personen, Tatsachen oder Vorgänge getroffen (b). Thematische Einheiten: Durch diese Codiereinheiten werden übergreifende Diskursstrukturen ersichtlich (c). 3 Aussagen a und b sind richtig, Aussage c ist falsch. Der enorme Vorteil bei der Auswertung der Daten aus einem hierarchisch aufgebauten Codebuch besteht in der Tatsache, dass sich unterschiedliche Ebenen anhand der definierten Struktur einfach zusammenfassen lassen. Kapitel 9 1 Die Aussage ist falsch. Wertende Kategorien dienen der Erfassung propositionaler Codiereinheiten, die sachliche oder wertende Feststellungen über Personen, Tatsachen oder Vorgänge treffen. 2 Aussage b ist falsch. 283 A N T W O R T E N Z U D E N Ü B U N G S F R A G E N <?page no="283"?> 3 Aussage a ist richtig. Es wird von einer Globalbewertung durch den Codierer gesprochen, wenn von ihm ein summarisches Urteil verlangt wird, für welches der Codierer selbst verschiedene Aspekte und Sachverhalte abwägen, zueinander in Beziehung setzen und eine Bewertung abgeben muss. 4 Die Aussage ist richtig. Auch Ergebnisse, die sensible Sachverhalte berühren, lassen sich besser auf Basis von harten Codierungen interpretieren. Kapitel 10 1 1. Alle Codierer sollen in der Folge das Instrument (Codebuch) gleichermaßen anwenden und somit für dasselbe Codiermaterial zu einem gleichen Ergebnis kommen. 2. Die übereinstimmende Codierung muss auch den Absichten des Forschers entsprechen. 2 Die Aussage ist falsch. Es wird zur Codiererschulung nie das gleiche Material verwendet wie zur anschließenden Codierung selbst! 3 Man kann die Ergebnisse auf Papier festhalten oder in Form einer Datei. Meist kommt ein zweistufiges Verfahren zum Einsatz, bei dem zunächst die Codierung auf Papier erfolgt und danach die Eingabe in eine Datei vorgesehen ist. Vorteile sind u. a. die Flexibilität der Codierung (unabhängig von einem Rechnerzugang) und die Nachvollziehbarkeit des Codierprozesses. Kapitel 1 1 1 Die Big-Data-Forschung verlangt zum einen sehr aufwendige und teure Verfahren, die aufgrund ihrer Komplexität meist nicht fachintern durchgeführt werden können. Zum anderen ist es durch die schier unendliche Menge an Material sehr schwer, wenn nicht gar unmöglich, die Grundgesamtheit zu identifizieren. Des Weiteren wird durch die Erhebung im Online-Kontext die Auswahl der Analyseeinheit erschwert. 2 Antwort c ist richtig. 3 Computergestützte Suche von relevanten Texten mittels Schlüsselwörtern; Textanalyse im Vorfeld einer manuellen Inhaltsanalyse, um den Themenbereich abschätzen zu können; parallele Verfahren, bei denen der Computer formale Variablen erhebt Kapitel 12 1 Beide Aussagen sind richtig! 2 Bei den drei wichtigsten Typen der Reliabilitätsmessung handelt es sich um Intracoder-Reliabilität (a), Intercoder-Reliabilität (b), und Forscher-Codierer-Reliabilität (c). 284 A N H A N G <?page no="284"?> 3 Es handelt sich bei der Formel um das Überschneidungsmaß nach Holsti: die sog. Holsti-Formel. Es wird die Zahl der gemeinsamen Codierungen zweier Codierer verdoppelt und durch die Summe aller von beiden vorgenommenen Codierungen geteilt. 4 Die Bewertung erfolgt anhand des Schwierigkeitsgrades der Kategorie. Formale Kategorien erfordern einen Wert nahe der 1, inhaltliche Kategorien erfordern tendenziell Werte ab 0.8. 5 Mögliche Antworten: Analysevalidität, Inhaltsvalidität, Kriteriumsvalidität, Inferenzvalidität. Kapitel 13 1 Die Antworten a, b und c sind richtig. 2 Obwohl mit »totem« Material gearbeitet wird, ist es von Bedeutung, woher das Material stammt und wer es publiziert hat. Denn gerade auf Social-Media-Plattformen veröffentlichen »normale Menschen« ihre Gedanken und Ängste in einem halböffentlichen Raum und stimmen einer wissenschaftlichen Verwertung nicht immer zu. 3 a) falsch b) falsch c) richtig 285 A N T W O R T E N Z U D E N Ü B U N G S F R A G E N <?page no="286"?> Literatur Die Zahl von Methodenlehrbüchern, die sich speziell mit der Medieninhaltsanalyse befassen und in aktuellen Versionen vorliegen, ist leicht überschaubar: Aus dem deutschen Sprachraum empfehlen sich drei Werke für eine vertiefte Beschäftigung, vier weitere englischsprachige Bände können zur Ergänzung herangezogen werden. Allerdings treten hier mitunter terminologische Probleme auf, wenn die Verwendung der Begriffe nicht ohne Weiteres den im deutschen üblichen Ausdrücken entspricht. Außerdem stellt das nachstehende, kommentierte Literaturverzeichnis drei allgemeine Lehrbücher zur empirischen Sozialbzw. Kommunikationsforschung vor, auf die im Text mehrfach verwiesen wurde. Gerade für Einsteiger eignen sich diese Bände, um die Inhaltsanalyse in das Spektrum der anderen sozialwissenschaftlichen Methoden einordnen zu können - wenngleich die dort enthaltenen Erläuterungen zur Inhaltsanalyse selbst weniger detailliert sind als die in den übrigen Bänden. Daraufhin folgen zwei Bücher über die Befunde inhaltsanalytischer Forschungen und für die tiefere Auseinandersetzung mit Inhaltsanalysen im World Wide Web wird außerdem ein speziell auf diesen Themenbereich verfasstes Buch empfohlen. Früh, Werner (2015): Inhaltsanalyse. Theorie und Praxis 8., überarbeitete Auflage. Konstanz: UVK (UTB 2501) Der Band gliedert sich in zwei Teile, von denen der erste sich der »Theorie der Inhaltsanalyse« widmet. Er stellt die grundsätzliche Logik der Methode systematisch dar und sei mit Nachdruck zur Vertiefung empfohlen. Im zweiten Teil finden sich ausführliche Anwendungsbeispiele, weitere Musterkategorien und eine noch ausführlichere Diskussion möglicher Probleme bei der Verschlüsselung, als sie hier aufgrund der gebotenen Kürze geleistet werden konnte. Merten, Klaus (1995): Inhaltsanalyse. Einführung in Theorie, Methode und Praxis 2., verbesserte Auflage. Opladen: Westdeutscher Verlag 2004 unverändert neu aufgelegt Mit über 400 Seiten wendet sich das Buch an den fortgeschrittenen Anwender, der sich für den wissenschaftlichen Hintergrund der Methode und deren Geschichte interessiert. Seine ausführliche Systematik verschiedener inhaltsanalytischer Verfahren füllt den Hauptteil des Buches aus und ist in ihrer Vollständigkeit konkurrenzlos. Sie stellt die beste Quelle für Anwendungen jenseits der Standardlösungen dar, auf den sich das vorliegende, einführende Bändchen zur Medieninhaltsanalyse notwendigerweise beschränken musste. Wirth, Werner/ Lauf, Edmund (Hrsg.) (2001): Inhaltsanalyse. Perspektiven, Probleme, Potentiale Köln: Herbert von Halem Hat man sich einmal entschieden, eine Inhaltsanalyse durchzuführen, kann dieser Sammelband wertvolle Dienste bei der Lösung von spezifischen Methodenproblemen 287 L I T E R A T U R <?page no="287"?> leisten. In insgesamt 21 Aufsätzen zu speziellen Anwendungen und Fragen der Inhaltsanalyse werden aktuelle Aspekte u. a. von Konzeptualisierung, Kategorienbildung, Codierung, Gütesicherung und der computergestützten Inhaltsanalyse vertieft. Außerdem enthält er eine Gegenüberstellung der oben erwähnten Lehrbücher von Früh und Merten. Krippendorff, Klaus (2013): Content analysis. An introduction to its methodology Third Edition. Thousand Oaks u. a.: Sage Zum ersten Mal 1980 erschienen, gilt der inzwischen über 400 Seiten starke Band als das klassische Referenzwerk zur Inhaltsanalyse. Entwickelt aus der langjährigen Erfahrung des Autors mit Forschungsprojekten und unzähligen Lehrveranstaltungen, stellt es die Methode zugleich plastisch und tiefschürfend vor - bis hin zu Hinweisen zur Formulierung von Forschungsanträgen und Abschlussberichten. Gerade bei schwerwiegenderen Problemen oder Unsicherheiten in der Anwendung der Methode lohnt sich ein Blick in dieses Standardwerk. Allerdings sollte man unbedingt die vollständig überarbeitete und didaktisch hervorragend aufbereitete zweite Auflage aus dem Jahr 2004 oder - noch besser - die dritte Auflage von 2013 konsultieren. Neuendorf, Kimberley A. (2016): The content analysis guidebook Second Edition. Thousand Oaks u. a.: Sage Im typischen Stil der amerikanischen »Textbooks« wird anhand zahlreicher Anwendungsbeispiele eine Übersicht über die Methode gegeben. Die Sprache ist leicht verständlich, viele Abbildungen erleichtern das Verständnis. Inhaltliche Stärken des Buches sind Fragen der Reliabilität sowie die Auswertung und Ergebnisdarstellungen von Inhaltsanalysen; demgegenüber treten die praktischen Aspekte von Kategorienbildung und Codierung etwas in den Hintergrund. Auch hier ist unbedingt die zweite, um 150 Seiten erweiterte Auflage zu konsultieren. Riffe, Daniel/ Lacy, Stephen/ Fico, Frederick G. (2014): Analyzing media messages. Using quantitative content analysis in research Third Edition. Mahwah: Lawrence Erlbaum Die strukturierte Darstellung der inhaltsanalytischen Logik steht im Mittelpunkt des Bandes, der die Materie weniger beispielorientiert, sondern eher systematisch aufbereitet. Er eignet sich deswegen gut als Nachschlagewerk und liefert bei schwierigeren methodischen Problemen interessante Anregungen. Seine Stärken sind eindeutig die Kapitel zur Stichprobenziehung und zur Validität sowie zur Ermittlung von Reliabilitätswerten. Berelson, Bernard (1952): Content analysis in communication research New York: Hafner Der große Klassiker der Literatur zur Inhaltsanalyse: In diesem Buch wurde, von der Forschung seinerzeit stark beachtet, zum ersten Mal die Inhaltsanalyse als eigenstän- 288 A N H A N G <?page no="288"?> dige Methode umfassend beschrieben. Als Lehrbuch ist es aus heutiger Sicht wenig geeignet, aber für all jene wertvoll, die sich für die Entstehung des Forschungszweigs interessieren. Brosius, Hans-Bernd/ Haas, Alexander/ Koschel, Friederike (2016): Methoden der empirischen Kommunikationsforschung. Eine Einführung 7. Auflage, Wiesbaden: VS Verlag für Sozialwissenschaften Basierend auf einer allgemeinen Einführungsvorlesung behandelt dieser Überblick die wichtigsten in der Kommunikationsforschung angewendeten Methoden. Zwei Kapitel stellen die Grundzüge der Inhaltsanalyse dar - zum einen die wesentlichen Definitionen und die Untersuchungsanlage, zum anderen Kategorienbildung und Codebuch. Ein weiteres Kapitel behandelt speziell die automatisierte bzw. computergestützte Inhaltsanalyse. Aufgrund der gebotenen Kürze kann die Medieninhaltsanalyse hier zwar nur überblicksartig angesprochen werden, als schneller Einstieg oder zur Auffrischung der Kenntnisse ist dieser Band jedoch gut geeignet. Außerdem stellt er die Inhaltsanalyse in den weiteren Zusammenhang relevanter Methoden, was gerade für die in Kap. 13 angesprochene Konzeption von Mehrmethoden-Designs hilfreich sein kann. Diekmann, Andreas (2009): Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen 20. Auflage, Reinbek: Rowohlt (rowohlts enzyklopädie 551) Dieses Standardwerk zur Methodenlehre führt auf gut 600 Seiten die Grundlagen der empirischen Sozialforschung für interessierte Einsteiger aus, einschließlich der wissenschaftstheoretischen Grundlagen. Sein Schwerpunkt liegt ganz klar auf den in der Soziologie vorwiegend eingesetzten Methoden, insbesondere auf der Befragung; außerdem widmet sich ein Kapitel den wichtigsten Fragen der Datenanalyse. Auf gut 30 Seiten wird auch die Inhaltsanalyse behandelt; allerdings merkt man der Darstellung an, dass sie eher der Vollständigkeit halber in das Buch aufgenommen wurde. Für die Anwendungen in der Kommunikationswissenschaft sind die Ausführungen nur begrenzt nützlich. Dafür leisten die anderen Teile eine kompakte und trotzdem profunde allgemeine Methodeneinführung. Scheufele, Bertram/ Engelmann, Ines (2009): Empirische Kommunikationsforschung Konstanz: UVK (UTB 3211) Bei diesem Band handelt es sich um ein aktuelles, allgemeines Methodenlehrbuch für Einsteiger in das empirische Arbeiten und ist im selben Stil aufbereitet wie die vorliegende »Inhaltsanalyse«. Das Buch deckt ein methodisch breites Feld ab und bietet auch Kapitel über die Wissenschaftstheorie oder statistische Auswertungsverfahren an; dafür wird die Methode der Inhaltsanalyse nur in einem Unterkapitel abgehandelt. Dort geht insbesondere die Unterscheidung und Beschreibung von quantitativer versus qualitativer Inhaltsanalyse über die hier aufgeführten Sachverhalte hinaus. Außerdem 289 L I T E R A T U R <?page no="289"?> erfolgt eine andere Kategorisierung von Typen der Inhaltsanalyse, die für die Konzeption eigener Arbeiten hilfreich sein kann. Bonfadelli, Heinz (2002): Medieninhaltsforschung. Grundlagen, Methoden, Anwendungen Konstanz: UVK (UTB 2354) Die systematische Erforschung von Medieninhalten steht im Mittelpunkt dieser Übersichtsdarstellung, die sowohl wichtige Befunde der Inhaltsforschung als auch die dabei angewendeten Methoden behandelt. Der Schwerpunkt liegt auf der Bündelung empirischer Erkenntnisse zu den wichtigsten Gegenstandsfeldern wie z. B. der Konvergenz- Debatte, Medienresonanz-Analysen oder Medien-Frames. Zu diesen Gebieten werden ausführliche und aktuelle Literaturhinweise gegeben. Ein längeres Kapitel von rund 30 Seiten beschäftigt sich auch mit Grundfragen und Basiskonzepten der standardisierten Inhaltsanalyse; darüber hinaus werden auch semiotische Verfahren, Diskursanalysen und qualitative Verfahren der Textanalyse vorgestellt. Maurer, Marcus/ Reinemann, Carsten (2006): Medieninhalte. Eine Einführung Wiesbaden: Verlag für Sozialwissenschaften (Studienbücher zur Kommunikations- und Medienwissenschaft) Ähnlich wie im Band von Bonfadelli (s. o.) geht es auch hier darum, die wesentlichen Ergebnisse empirischer Studien zu massenmedialen Inhalten zusammenzutragen. Explizit verweisen die Autoren darauf, dass sie vor allem auf Studien zurückgreifen, die als Methode die quantitative Inhaltsanalyse verwenden. In dieser Hinsicht ergänzt dieses Buch die vorliegende Einführung, denn seine methodischen Anmerkungen beschränken sich auf die Darstellung elementarer Kriterien, die die Beurteilung der empirischen Studien erleichtern soll. Die behandelten Gegenstandsfelder erstrecken sich auf die aktuelle Berichterstattung, fiktionale und unterhaltende Inhalte sowie Werbung. Welker, Martin/ Wünsch, Carsten (Hrsg.) (2010): Die Online-Inhaltsanalyse. Forschungsobjekt Internet Köln: Herbert von Halem Dieser Sammelband gibt einen umfassenden Überblick über Probleme und Möglichkeiten der Inhaltsanalyse von Internet-Inhalten. Neben theoretischen Überlegungen zu Grundgesamtheit und Stichprobenziehung im Internet oder Analyseeinheiten und Kategorienbildung werden auch Fragen der Reliabilität und Validität ausführlich besprochen. Darüber hinaus finden sich ein Exkurs zur automatisierten Textanalyse und praktische Beispiele für die Umsetzung konkreter Studien, die auf die Online-Inhaltsanalyse zurückgreifen. Selbst wenn nach der Lektüre des Buches deutlich wird, dass es für Internet-Studien so schnell kein inhaltsanalytisches Patentrezept gibt, seien die 19 Aufsätze jedem nachdrücklich ans Herz gelegt, der sich in der eigenen Forschung auf dieses komplexe (und doch spannende) Feld begeben möchte. 290 A N H A N G <?page no="290"?> Index Ablaufschema für die Codierung . . . . . . 99 Agenda-Setting . . . . . . . 255-256, 261-263 Akteur . . 45, 84, 86, 99, 104, 107, 140, 145, 156 Aktualität . . . . . . . . . . . 33, 127, 147-148 Analyseeinheit 42-45, 47-48, 51, 61, 75-83, 85-87, 89-92, 94, 98-100, 104, 106-107, 113-114, 118, 140-141, 147, 155-156, 158, 161, 166, 169-171, 174-175, 183, 211 Analysetiefe . . . . . . . . . . . . . 36, 76, 97 Analysevalidität . . . . . . . . . . . . . . 217 Anwendungsphase . . . . . . . . . . . . 40 Archivierung . . . . . . . 47, 53, 56, 69-71, 181 Auffangkategorie . . . . . . . . 106, 131, 151 Auffangvorgabe . . . . . . . . . 106-107, 158 Aufgreifkriterien . . . . . . . 43, 56, 65, 71, 90 Auflösungsgrad 43, 47, 76, 83, 94, 114, 130, 137, 142 Ausprägung . . . . . 20-22, 25, 40, 62, 84, 97, 103-107, 115, 120, 122, 128, 131-132, 134-135, 137, 140, 142, 145, 148, 150, 153-154, 157-160, 162, 164, 166, 168-169, 173, 175-176, 209-211, 215, 218 Aussage 17-18, 21, 23, 25, 36, 45, 47, 51, 58, 68, 73, 80-81, 84, 86-88, 94, 98, 141, 161-162, 166, 168-169, 171, 188, 209 Aussageobjekte . . . . . . . . . . . . . . 168 Auswahleinheit 42-43, 47-48, 51, 53-55, 57-58, 62, 65-66, 68-69, 71, 73, 76-78, 83, 90, 97, 100-101, 111, 113-115, 122, 145, 174, 176, 178, 180, 184, 211, 251 Auswahlfehler . . . . . . . . . . . . . . 61, 74 Auswertungsphase . . . . . . . . 40, 48, 113 automatisierte Inhaltsanalyse . . 195, 197, 199 Bag-of-Words-Ansatz . . . . . . . . . . . . 196 Bedeutungsträger . . . . . . . . . . . . . 76 Befragung . . . 23, 29, 39, 86-87, 219, 256, 260 Begründungszusammenhang . . . . . 39-40 Beispiel 28-30, 33-35, 85-86, 88, 91-92, 98, 108, 159-160, 164, 192, 199, 201, 206, 225, 228, 232, 264 Beobachtung . . . . . . 15, 23, 39, 86, 256, 260 Bewertung 14, 80, 92, 147, 155, 159-160, 162, 164, 166-169 Bewertungsskala . . . . . . . . . . . 161, 209 Bezugsort . . . . . . . . 127, 129, 137, 139-140 Big Data . . . . . . . . . . . . . . . . . . 193 Big Social Data . . . . . . . . . . . . . . . 193 Bildanalyse . . . . . . . . . . . . . . . 85, 88 Co-Occurrence-Analyse . . . . . . . . . . . 197 Codebogen . . 21-22, 48, 100, 103, 173, 182-186, 209, 218 Codebuch . . . 21-25, 45, 67, 84, 88-89, 95-96, 98, 100, 103, 109-111, 115, 128, 130, 135, 142, 145, 173, 175-177, 183, 186, 212, 218, 249, 251-252, 271-272 Codiereinheit 42, 44, 91, 101, 107, 120, 128, 130, 147-149, 154, 161, 251 Codierer . . . 21-24, 27, 39, 43, 45, 47-48, 57, 77, 81, 85, 88, 91, 95, 97-100, 103-104, 106, 110-113, 115, 117, 122, 125-126, 128, 134-135, 145-147, 153-155, 157-158, 160-161, 164, 166, 169, 171, 173-179, 181-183, 185, 207-215, 217-218, 221 Codiererschulung . . . . 23, 40, 47, 89, 97, 145, 149, 173-177, 188, 271 Codierung 21-22, 27, 40, 43-45, 48, 51, 53, 56, 66, 75, 77-78, 81, 84, 89, 94, 97-98, 101, 103-106, 111-112, 114-118, 120, 126, 131, 134-135, 137-141, 149-150, 157-158, 160-162, 166, 169, 173-178, 182-183, 185-186, 205, 207-213, 215, 217-218, 221, 263 computergestützte Inhaltsanalyse . . . 19, 195 Datenbereinigung . . . . . . . . . . . . . 186 Datenerhebung 173, 179, 182-183, 185, 219, 250, 255, 262, 268, 272-273 Datenniveau . . . . . . . . . . . . . 36, 105 Datum . . . 54, 78, 83, 87, 98, 111, 114-115, 126 Dauer . . . . . . . 29, 85, 104, 111, 116-118, 186 Definition 19-22, 24, 37, 39-43, 45, 47, 53, 55, 57, 60-61, 64, 68-69, 71, 73-75, 78, 82-83, 89-90, 92, 101, 103, 105, 116-118, 122, 129-132, 135, 140, 153, 157-158, 164, 166, 218, 251 diktionärbasierte Verfahren . . . . . . . . 197 Diskurs . . . . . . . . . . 28, 30, 131-132, 134 Document-Clustering . . . . . . . . . . . 197 Entdeckungszusammenhang . . . . . . . . 39 Entscheidungsregeln . . . . . . . . . . . 107 Entwicklungsphase . . . . . . . . . . . 40-41 Ereignisort . . . . . . . . . . 99, 137, 139-140 Erkenntnisinteresse 27, 30-31, 37, 39, 45-46, 51, 56, 58, 63, 83, 87, 89, 128, 130, 132, 150, 257 Fallbeispiel . . . 16, 28, 37, 49, 71, 92, 107, 125, 149, 170, 187, 202, 220, 252, 269 Feldarbeit . . . . . . . . . . . . . 61, 217, 273 Feldorganisation . . . . . 173, 175, 178-179, 181 Flächenlineal . . . . . . . . . . . . . . . 117 formale Kategorien . . . . 96, 111, 113, 126, 215 Format . . . . . . . . 56, 115, 117, 120, 123, 125 Forscher-Codierer-Reliabilität . . . . . 207-208 Forschungsethik . . . . . . . . . . . . . 223 Fragenkatalog . . . . . . . . . . . . . . . . 46 Framing . . . . . . . . . 30, 255-256, 263-265 Gegenstand einer Aussage . . . . . . . . 163 Gestaltungsmerkmal . . . . . . . . . . 84, 90 Gewichtung . . . . . . . . . . . . 112-113, 119 Globalbewertung . . . . . . . . . . . 155, 171 Grundgesamtheit . . . 42, 47, 51, 58-64, 68-69, 71, 73-74 291 I N D E X I N D E X <?page no="291"?> halbautomatisierte Inhaltanalyse . . . . . 201 Handlungsträger 127, 129, 140-141, 143, 145, 166 harte Codierung . . . . . . . . . . . . . 157 Hermeneutik . . . . . . . . . . . . . . . . 17 hierarchische Codierung . . . . . . . . . 130 hierarchische Zerlegung 75, 78-79, 81-83, 94 Hypothesen 39-40, 47, 51, 77, 81, 97, 101, 125, 132, 160, 164, 178, 217, 249, 251, 256, 273-274, 280 induktive Informationsextraktion . . . . 199 Inferenzschlüsse . . 27, 31-33, 35-36, 39-40, 47, 54-55, 63, 128, 153, 174, 219, 255-257, 259, 266, 270, 273 Inferenzvalidität . . . . . . . . . 217, 219-220 inhaltliche Kategorien . . . . . . . 88, 127-128 Inhaltsvalidität . . . . . . . . . . . . 217-218 Instrument 22, 40, 84, 89, 95, 132, 155, 166, 173, 175-176, 178, 205-207, 210, 221 Intercoder-Reliabilität . . . . . . . . . . . 207 intersubjektiv . . . . . . 22-23, 95, 173, 207, 272 Intervallniveau . . . . . . . . . . . . . . 104 Intracoder-Reliabilität . . . . . . . . . . . 208 Kategorienbildung . . . 40-41, 47, 73, 95, 100, 104, 132, 218, 273 Kategoriensystem 21-22, 25, 40, 43, 47, 76-77, 89, 95-96, 100-101, 161, 163-164, 169, 176, 218, 249, 281 Keyword-in-context-Methode . . . . . . . 198 Klassifikation . . . . . 45, 105, 127-128, 145, 153 Klumpenauswahl . . . . . . . . . . . . 59, 61 Kommunikationsproblem . . . . . . . . . . 38 Konstrukt . . . . . . . . . . . 39, 101-102, 106 Kontexteinheit . . . 42, 45, 51, 88, 98, 166, 251 Krippendorffs Alpha . . . . . . . . . . . 215 Kriteriumsvalidität . . . . . . . . . . 217-219 Kultivierung . . . . . . . . . 255-256, 267-268 künstliche Woche . . . . . . . . . . . . . 59 Länge . . . . 44, 79, 85, 99, 104, 111, 113, 116-117, 135, 209 latente Inhalte . . . . . . . . . . . . . . . 24 Leitmedien . . . . . . . . . . . . . . . . . 63 Linkanalyse . . . . . . . . . . . . . . . . 191 manifeste Inhalte . . . . . . . . . . . . . . 24 Mediengattung . . . . . . . . . . . . . . . 56 Medienresonanzanalyse . . . . . . . . 31, 197 Merkmalsträger . . . . . . . . . . . . 43-44 Messung 20-21, 76, 101-102, 105, 116-118, 130-131, 205-207, 218, 221, 262, 271 Methodenkombination . . . . . . . . . . . 39 Nachrichtenwerte . . 33, 255-257, 259-260, 271 Nominaldefinition . . . . . . . . . . 103, 113 Ordinalniveau . . . . . . . . . . 104-105, 159 parallele Zerlegung . . . . . . . . . . . 75-76 Planungsphase . . . . . . . . . . . . . 39, 48 Platzierung . . . 44, 79, 87, 99, 107, 113, 119-121 Pre-Test . . . . . . . . . . . . 173, 175, 177, 251 Projektplanung . . . . . . . 39, 43, 47, 66, 174 Publikation . . . . . . . . . . 41, 48, 210, 214 quantitativ . . . . . . . . . . . . 17, 20, 87-88 Quellenvergleich . . . . . . . . . . . . . . 28 Quotenauswahl . . . . . . . . . . . . 59, 62 Reaktivität . . . . . . . . . . . . . 23, 69, 207 Reduktion von Komplexität 18, 53, 86, 132, 274 regelbasiertes Verfahren . . . . . . . . . 198 Reichweite . . . . . . . . . . . 54, 65, 70, 129 Reliabilität . . . 205, 207, 209, 211, 213, 215-217, 221 Ressort . . . . . . . . . . . 56, 76, 81, 119, 122 Sammelkategorie . . . . . . . . . . . . . 107 Schichtung . . . . . . . . . . . . . . . . . 62 Schlüsselcode . . . . . . . . . . . 81, 99, 112 Schlüsselereignisse . . . . . . . . . . . . 54 Schlüsselplan . . . . . . . . . . . . . 130, 135 Schlussfolgerungen 25, 27, 31, 34, 36, 44-45, 47, 60, 158, 220, 272 Semantische Struktur- und Inhaltsanalyse 168 Skalenbildung . . . . . . . . . . 156, 159-160 Skalenniveau . . . . . . . . . . . . . . . 104 Stichprobe . . 42, 54, 58-59, 69, 73-74, 188, 271 Stilometrie . . . . . . . . . . . . . . . . . 197 Strukturanalyse . . . . . . . . . . . . . . 189 synthetisches Kategoriensystem 161, 163, 169 systematisch . . . . . . . 14-15, 21-22, 43, 250 Text-Bild-Schere . . . . . . . . . . . . . . 84 Textstatistik . . . . . . . . . . . . . . . . 196 Thema . . . 17-18, 30, 46, 76-77, 79-80, 83, 98, 109, 112, 119, 127, 129-131, 134-135, 163, 213, 250, 261-262, 268 Theorie . . . . . . . . . . . . 33, 37, 39, 101, 250, 256-257 Trennschärfe . . . . . . . 101, 103, 105, 125, 135 Übereinstimmung 155, 174, 208-214, 222, 263 überwachte Klassifikation . . . . . . . . . 198 überwachte Verfahren . . . . . . . . . . . 197 Untersuchungsmaterial . . . 21, 23, 25, 40, 43, 47, 53-54, 64-65, 75-76, 94-95, 102, 110, 118, 122, 132, 176, 178, 180-182 unüberwachte Verfahren . . . . . . . . . 196 Urheber 32, 80, 141-142, 162-163, 166, 168-169 Validität . . . . . . 205-208, 216-219, 221, 256 Verteilungsraster . . . . . . . . . . . . . 179 visuelles Codebuch . . . . . . . . . . . . 84 Vollerhebung . . . . . . . . . . . . 42, 57, 61 Vollständigkeit 64, 101, 103, 105-106, 121, 218 Wahlkampf . . . . . . . . . . . . . . 54, 169 Web Sphere-Analyse . . . . . . . . . . . . 192 Webstyle-Analyse . . . . . . . . . . . . . 192 wertende Aussagen . . . . . . . 161, 163, 169 wertende Kategorien . . . . . 88, 128, 154, 171 Wirkungen . . . . . . . . . . 33, 219, 261, 268 Zeitverlauf . . . . . . . . . 28-30, 112, 115, 117 Zufallsauswahl . . . . . . . . . . . . 54, 59, 61 292 A N H A N G <?page no="292"?> Klaus Beck Kommunikationswissenschaft 4., überarbeitete Auflage 2015, 266 Seiten 20 s/ w Abb., Broschur UTB 2964 ISBN 978-3-8252-4370-8 Andrea Beyer, Petra Carl Einführung in die Medienökonomie 3., überarbeitete Auflage 2012, 278 Seiten 80 s/ w Abb., Broschur UTB 2574 ISBN 978-3-8252-3846-9 Helena Bilandzic, Holger Schramm, Jörg Matthes Medienrezeptionsforschung 2014, 284 Seiten, Broschur UTB 4003 ISBN 978-3-8252-4003-5 Heinz Bonfadelli, Thomas N. Friemel Medienwirkungsforschung 5., überarbeitete Auflage 2015, 352 Seiten 90 s/ w Abb., Broschur UTB 3451 ISBN 978-3-8252-4247-3 Nils Borstnar, Eckhard Pabst, Hans Jürgen Wulff Einführung in die Film- und Fernsehwissenschaft 2., überarbeitete Auflage 2008 250 Seiten, 25 s/ w Abb., Broschur UTB 2362 ISBN 978-3-8252-2362-5 Anja Ebersbach, Markus Glaser, Richard Heigl Social Web 3., überarbeitete Auflage 2016 336 Seiten, 70 s/ w Abb., Broschur UTB 3065 ISBN 978-3-8252-3933-6 Joseph Garncarz Medienwandel 2016, 246 Seiten 36 s/ w Abb., Broschur UTB 4540 ISBN 978-3-8252-4540-5 Sven Grampp Medienwissenschaft 2016, 260 Seiten 60 s/ w Abb., Broschur UTB 4631 ISBN 978-3-8252-4631-0 Werner Früh Inhaltsanalyse Theorie und Praxis 8., überarbeitete Auflage 2015, 296 Seiten 15 s/ w Abb., Broschur UTB 2501 ISBN 978-3-8252-4377-7 Gabriele Goderbauer-Marchner, Thilo Büsching Social-Media-Content 2015, 280 Seiten 130 farb. Abb., Broschur UTB 4439 ISBN 978-3-8252-4439-2 Klicken + Blättern Leseproben und Inhaltsverzeichnisse unter Erhältlich auch in Ihrer Buchhandlung. www.utb.de Weiterlesen bei utb. <?page no="293"?> Sven Grampp Marshall McLuhan Eine Einführung 2011, 234 Seiten, Broschur UTB 3570 ISBN 978-3-8252-3570-3 Andreas Hepp Transkulturelle Kommunikation 2., völlig überarbeitete Auflage 2014, 294 Seiten 20 s/ w Abb., Broschur UTB 2746 ISBN 978-3-8252-4035-6 Olaf Hoffjann Public Relations 2015, 286 Seiten 60 s/ w Abb., Broschur UTB 4434 ISBN 978-3-8252-4434-7 Tobias Kurwinkel, Philipp Schmerheim Kinder- und Jugendfilmanalyse 2013, 320 Seiten 19 s/ w u. 101 farb. Abb., Broschur UTB 3885 ISBN 978-3-8252-3885-8 Margreth Lünenborg, Tanja Maier Gender Media Studies Eine Einführung 2013, 224 Seiten 15 s/ w Abb., Broschur UTB 3872 ISBN 978-3-8252-3872-8 Oliver Marchart Cultural Studies 2008, 278 Seiten 10 s/ w Abb., Broschur UTB 2883 ISBN 978-3-8252-2883-5 Claudia Mast Unternehmenskommunikation Ein Leitfaden 6., überarb. und erweiterte Aufl. 2016, 548 Seiten, Broschur UTB 4376 ISBN 978-3-8252-4376-0 Klaus Meier Journalistik 3., überarbeitete Auflage 2013, 290 Seiten 50 s/ w Abb., Broschur UTB 2958 ISBN 978-3-8252-3923-7 Lothar Mikos Film- und Fernsehanalyse 3., überarb. und aktualisierte Auflage 2015, 384 Seiten, 68 s/ w Abb., Broschur UTB 4467 ISBN 978-3-8252-4467-5 Lothar Mikos, Claudia Wegener (Hg.) Qualitative Medienforschung Ein Handbuch 2005, 616 Seiten, 50 s/ w Abb. gebunden im Großformat UTB 8314 ISBN 978-3-8252-8314-8 Klicken + Blättern Leseproben und Inhaltsverzeichnisse unter Erhältlich auch in Ihrer Buchhandlung. www.utb.de Weiterlesen bei utb.